(作者/于雷)7月7日,針對近期開源社區及網絡平臺上關于華為盤古大模型開源代碼的廣泛討論與質疑,盤古Pro MoE技術開發團隊正式發布官方聲明,對此事做出回應。
聲明首先明確指出,盤古Pro MoE開源模型是基于華為自家的昇騰(Ascend)硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型進行增量訓練的產物。華為方面強調,該模型在架構設計和技術特性上均有關鍵創新。
在技術層面,華為特別介紹了其創新性提出的分組混合專家模型(MoGE)架構。據稱,這是全球首個面向昇騰硬件平臺設計的同規格混合專家模型。該架構的核心優勢在于有效解決了大規模分布式訓練過程中的負載均衡難題,從而顯著提升了整體的訓練效率。對于更多技術細節,官方建議參考已披露的昇騰生態競爭力系列技術報告。
對于備受關注的代碼相似性問題,聲明中也并未回避。華為方面承認,盤古Pro MoE開源模型的部分基礎組件代碼實現,確實參考了業界的開源實踐,并涉及其他開源大模型的部分開源代碼。但團隊同時強調,這一做法嚴格遵循了開源許可證的要求,并在相關的開源代碼文件中清晰標注了版權聲明,認為這是開源社區的通行做法,也符合開源協作的精神。
最后,該聲明重申了華為在開源領域的立場,表示堅持開放創新并尊重第三方知識產權。團隊歡迎并期待開發者與合作伙伴在官方開源社區Ascend Tribe,就技術細節進行更深入、專業的交流與探討,共同推動模型能力的優化與技術落地。






京公網安備 11011402013531號