C114訊 7月5日消息(南山)6月30日,華為正式宣布開(kāi)源盤(pán)古70億參數(shù)的稠密模型、盤(pán)古Pro MoE 720億參數(shù)的混合專家模型,同時(shí)開(kāi)放基于昇騰AI平臺(tái)的模型推理技術(shù)。此次是華為首次將盤(pán)古大模型的核心能力開(kāi)源。
但在7月4日(昨日),一篇技術(shù)論文在專業(yè)論壇Github上引起熱議。文章認(rèn)為,通過(guò)比較,發(fā)現(xiàn)盤(pán)古Pangu Pro MoE模型與Qwen-2.5 14B模型在注意力參數(shù)分布上有相關(guān)性,超正常范圍。
被質(zhì)疑“抄襲”阿里云的模型,華為盤(pán)古Pro MoE技術(shù)開(kāi)發(fā)團(tuán)隊(duì)今日迅速進(jìn)行了公開(kāi)回應(yīng)。
回應(yīng)稱,我們注意到近期開(kāi)源社區(qū)及網(wǎng)絡(luò)平臺(tái)關(guān)于盤(pán)古大模型開(kāi)源代碼的討論。
盤(pán)古Pro MoE開(kāi)源模型是基于昇騰硬件平臺(tái)開(kāi)發(fā)、訓(xùn)練的基礎(chǔ)大模型,并非基于其他廠商模型增量訓(xùn)練而來(lái),在架構(gòu)設(shè)計(jì)、技術(shù)特性等方面做了關(guān)鍵創(chuàng)新,是全球首個(gè)面向昇騰硬件平臺(tái)設(shè)計(jì)的同規(guī)格混合專家模型,創(chuàng)新性地提出了分組混合專家模型(MoGE)架構(gòu),有效解決了大規(guī)模分布式訓(xùn)練的負(fù)載均衡難題,提升訓(xùn)練效率。
回應(yīng)強(qiáng)調(diào),盤(pán)古Pro MoE開(kāi)源模型部分基礎(chǔ)組件的代碼實(shí)現(xiàn)參考了業(yè)界開(kāi)源實(shí)踐,涉及其他開(kāi)源大模型的部分開(kāi)源代碼。我們嚴(yán)格遵循開(kāi)源許可證的要求,在開(kāi)源代碼文件中清晰標(biāo)注開(kāi)源代碼的版權(quán)聲明。這不僅是開(kāi)源社區(qū)的通行做法,也符合業(yè)界倡導(dǎo)的開(kāi)源協(xié)作精神。
據(jù)了解,盤(pán)古是華為推出的一系列超大規(guī)模人工智能預(yù)訓(xùn)練模型,涵蓋自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、科學(xué)計(jì)算等多個(gè)領(lǐng)域。其名稱寓意“開(kāi)天辟地”,象征著華為在人工智能基礎(chǔ)研究和行業(yè)應(yīng)用上的突破性探索。盤(pán)古模型自發(fā)布以來(lái),已在多個(gè)行業(yè)中實(shí)現(xiàn)落地,包括金融、制造、能源、交通等,助力企業(yè)實(shí)現(xiàn)智能化升級(jí)。