11月24日,阿里云與新加坡國家人工智能計劃(AISG)聯合發布了一則重磅消息:新加坡最新的國家級大語言模型“海獅”(Sea-Lion v4),將不再沿用此前的美國技術路線,而是全面基于阿里的通義千問Qwen3-32B開源模型構建。
這是繼硅谷大佬Chamath Palihapitiya宣布用Kimi取代OpenAI作為生產力工具,美國Vercel、Windsurf等編程平臺接入智譜模型,愛彼迎CEO表示阿里Qwen比美國模型更好用后,中國開源模型在全球市場的最新成績。而本次新加坡國家人工計劃的認可也意味著在“主權AI”和“多語言適配”的賽道上,中國開源大模型已經具備了替代甚至超越硅谷巨頭的能力。
2023年12月,新加坡啟動了一項7000萬新元(5200萬美元)的計劃,旨在建立多模態大型語言模型 (LLM)的研究和工程能力,其中包括開發 Sea-Lion(東南亞語言一體化網絡)。
然而,這片擁有6億人口、數字經濟規模奔向萬億美元的市場,長期以來卻是西方AI的“盲區”。
這種“盲區”首先體現在數據的極度匱乏上。在Sea-Lion誕生前,被廣泛使用的Meta Llama 2等主流模型中,東南亞語言內容的占比僅為驚人的0.5%。
這種以英語為中心的訓練邏輯,導致當時以Meta旗下開源模型Llama2訓練的Sea-Lion幾乎是個“東南亞文盲”。在早期的測試中,該模型將南美洲的委內瑞拉列為了東盟成員國。這種缺乏區域常識的“幻覺”,暴露了西方通用模型在本地化應用上的致命短板。
更讓當地開發者頭疼的是語言文化的隔閡。東南亞地區盛行“語碼轉換”,即在英語中夾雜方言,例如新加坡式英語(Singlish)或馬來西亞式英語(Manglish)。面對這種復雜的混合語境,標準的美式AI模型往往束手無策,無法理解其中的細微差別和文化梗。
雖然Llama性能在開源模型中當時位列頭部,但其“英語中心主義”的基因始終難以改變,在處理泰語、緬甸語等非拉丁語系文字時效率極低。
AISG逐漸意識到,使用硅谷的開源模型進行開發并不是最適合東南亞國家的解,他們必須尋找一個真正懂多語言、懂亞洲語境的底座。
而本次發布的v4版本,AISG最終將目光投向了中國,選用了阿里的Qwen3-32B作為新一代Sea-Lion的基座模型。
與西方模型不同,Qwen3的基礎模型在預訓練階段就通過了36萬億個token的數據訓練,覆蓋了全球119種語言和方言。這種“原生多語言能力”讓Qwen不僅“懂”印尼語、馬來語,更從底層邏輯上理解這些語言的語法結構,大大降低了AISG后續訓練的門檻。
為了解決東南亞語言獨特的書寫習慣問題,Qwen-Sea-Lion-v4摒棄了西方模型常用的“句子分詞器”,轉而采用了更先進的字節對編碼(BPE)分詞器。鑒于泰語、緬甸語等語言通常沒有明顯的詞間空格,BPE技術能更精準地切分非拉丁語系的字符,不僅提高了翻譯的準確度,還大幅提升了推理速度。
除了技術指標,商業落地的現實考量也是阿里勝出的關鍵因素。東南亞擁有大量中小企業,他們無力承擔昂貴的H100 GPU集群。Qwen-Sea-Lion-v4經過優化,可以在配備32GB內存的消費級筆記本電腦上流暢運行。
這意味著,一個普通的印尼開發者,僅憑一臺高配電腦就能在本地部署這個國家級模型。這種“工業級能力,民用級門檻”的特性,恰恰切中了該地區算力資源稀缺的痛點。
此次合作也并非簡單的“單向技術輸出”,而是一種深度的雙向融合。根據協議,阿里提供了強大的通用推理底座,而AISG則貢獻了其珍貴的、經過清洗的1000億個東南亞語言token。這些數據完全去除了版權風險,且東南亞內容的濃度高達13%,是Llama2的26倍。
阿里通過“高級后訓練”技術,將這些獨特的區域知識注入Qwen,使其能精準捕捉當地的文化神韻。這種強強聯合的效果立竿見影——在Sea-Helm評估榜單上,搭載了阿里“心臟”的Sea-Lionv4,迅速在同量級開源模型中占據了榜首位置。
如果說之前千問,Kimi,智譜等模型紛紛獲得硅谷大佬認可是基于性能和性價比的雙重優勢因素,那么本次翻看AISG項目一路從AWS到阿里云,從Llama到Qwen,新加坡Sea-Lion項目的演變,折射出全球AI格局正在發生微妙的權力轉移。
長期以來,全球技術基礎設施幾乎被美國壟斷。但在大模型時代,中國企業憑借對多語言環境的深刻理解和極致的性價比優化,正在成為“全球南方”國家構建主權AI的首選合作伙伴。
本文鏈接:?不再依賴美國!新加坡國家AI計劃“換心”阿里千問http://www.sq15.cn/show-3-159864-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。