6月27日,騰訊混元宣布開源首個混合推理MoE模型 Hunyuan-A13B,總參數80B,激活參數僅13B,效果比肩同等架構領先開源模型,但是推理速度更快,性價比更高。這意味著,開發者可以用更低門檻的方式獲得更好的模型能力。
即日起,模型已經在 Github 和 Huggingface 等開源社區上線,同時模型API也在騰訊云官網正式上線,支持快速接入部署。
這是業界首個13B級別的MoE開源混合推理模型,基于先進的模型架構,Hunyuan-A13B表現出強大的通用能力,在多個業內權威數據測試集上獲得好成績,并且在Agent工具調用和長文能力上有突出表現。
加粗為最高分,下劃線是第二名,數據來源于模型公開的測試數據集得分
對于時下熱門的大模型Agent能力,騰訊混元建設了一套多Agent數據合成框架,接入了MCP、沙箱、大語言模型模擬等多樣的環境,并且通過強化學習讓Agent在多種環境里進行自主探索與學習,進一步提升了Hunyuan-A13B的效果。
在長文方面,Hunyuan-A13B支持256K原生上下文窗口,在多個長文數據集中取得了優異的成績。
在實際使用場景中,Hunyuan-A13B模型可以根據需要選擇思考模式,快思考模式提供簡潔、高效的輸出,適合追求速度和最小計算開銷的簡單任務;慢思考涉及更深、更全面的推理步驟,如反思和回溯。這種融合推理模式優化了計算資源分配,使用戶能夠通過加think/no_think切換思考模式,在效率和特定任務準確性之間取得平衡。
相關資料顯示,Hunyuan-A13B模型是騰訊內部應用和調用量最大的大語言模型之一,有超過400+業務用于精調或者直接調用,日均請求超1.3億。
混元官方界面截圖
官方界面中顯示,該模型支持快慢思考模式切換,數學、科學、長文理解及Agent能力全面提升。其中,快思考模式適合追求速度和最小計算開銷的簡單任務,而慢思考模式則涉及更深、更全面的推理步驟,這優化了計算資源分配,兼顧了效率和準確性。
在實測中,觀察者網測試了小數比較大小,基本的四則運算等多種基本數學題目,Hunyuan-A13B模型都能迅速響應并給出正確的回答。
測試問題
據悉,混元團隊還開源了兩個新數據集,以填補行業內相關評估標準的空白。其中,ArtifactsBench主要用于代碼評估,構建了一個包含1825個任務的新基準;C3-Bench則針對Agent場景模型評估,設計了1024條測試數據。
本文系觀察者網獨家稿件,未經授權,不得轉載。
本文鏈接:騰訊混元開源首款混合推理MoE模型http://www.sq15.cn/show-3-147917-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 鴻蒙的世界里,沒有旁觀者
下一篇: 特朗普集團悄悄撤下“美國制造”手機承諾