華為近期開源的盤古Pro MoE大模型,通過動態激活專家網絡的創新設計,實現了以小打大的優異性能。然而,近日一項發布于GitHub的研究引發業界關注,該研究的作者認為,華為推出的盤古大模型(Pangu Pro MoE)與阿里巴巴發布的通義千問Qwen-2.5 14B模型在參數結構上存在“驚人一致”。
針對這項研究,7月5日下午,華為盤古團隊發布聲明表示,盤古Pro MoE開源模型是基于昇騰硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型增量訓練而來,在架構設計、技術特性等方面做了關鍵創新,是全球首個面向昇騰硬件平臺設計的同規格混合專家模型,創新性地提出了分組混合專家模型(MoGE)架構,有效解決了大規模分布式訓練的負載均衡難題,提升訓練效率。
聲明指出,盤古Pro MoE開源模型部分基礎組件的代碼實現參考了業界開源實踐,涉及其他開源大模型的部分開源代碼。“我們嚴格遵循開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。這不僅是開源社區的通行做法,也符合業界倡導的開源協作精神。我們始終堅持開放創新,尊重第三方知識產權,同時提倡包容、公平、開放、團結和可持續的開源理念?!?span style="display:none">7s8速刷資訊——每天刷點最新資訊,了解這個世界多一點SUSHUAPOS.COM
數天前,華為宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億參數的混合專家模型和基于昇騰的模型推理技術。華為表示,此舉是華為踐行昇騰生態戰略的又一關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。
以下是華為盤古團隊聲明原文:
我們注意到近期開源社區及網絡平臺關于盤古大模型開源代碼的討論。
盤古Pro MoE開源模型是基于昇騰硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型增量訓練而來,在架構設計、技術特性等方面做了關鍵創新,是全球首個面向昇騰硬件平臺設計的同規格混合專家模型,創新性地提出了分組混合專家模型(MoGE)架構,有效解決了大規模分布式訓練的負載均衡難題,提升訓練效率。其他技術特性創新,請參考昇騰生態競爭力系列技術報告披露內容。
盤古Pro MoE開源模型部分基礎組件的代碼實現參考了業界開源實踐,涉及其他開源大模型的部分開源代碼。我們嚴格遵循開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。這不僅是開源社區的通行做法,也符合業界倡導的開源協作精神。我們始終堅持開放創新,尊重第三方知識產權,同時提倡包容、公平、開放、團結和可持續的開源理念。
感謝全球開發者與合作伙伴對盤古大模型的關注和支持,我們高度重視開源社區的建設性意見。希望通過盤古大模型開源,與志同道合的伙伴一起,探索并不斷優化模型能力,加速技術突破與產業落地。
我們歡迎并期待大家在開源社區Ascend Tribe,就技術細節進行深入、專業的交流。
本文系觀察者網獨家稿件,未經授權,不得轉載。
本文鏈接:華為盤古團隊聲明:嚴格遵循開源要求http://www.sq15.cn/show-3-148579-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 中國病理醫生工作量遠超歐美,瑞金醫院聯手華為欲破解難題
下一篇: 2025年或許就只剩7家千億房企了