OpenAI的動作比所有人想象的都要快。
上周二,OpenAI完成重組。其中一個重要變化是:徹底取消了與微軟的排他性協議,結束了Azure長達六年的云服務獨占模式。此前,OpenAI所有模型的訓練、推理與部署都必須優先選擇Azure,微軟還享有優先購買權。
宣布與Azure“分手”后不到一周,OpenAI便火速宣布了與AWS的戰略合作——雙方達成一項價值380億美元的云計算協議,OpenAI將全面接入AWS的算力資源:數十萬張最新一代英偉達GPU,外加數千萬顆正在部署的CPU。
這種“無縫銜接”的速度瞬間引發熱議。畢竟在過去很長一段時間里,OpenAI與微軟的關系都十分“微妙”,雙方不合的傳聞屢見不鮮。
在OpenAI風靡全球之后,無數新的“伯樂”涌來,OpenAI快速成長為讓所有硅谷巨頭都倍感威脅的公司,在某些方面也成了微軟的直接競爭對手。這些都讓他們的關系變得尷尬,甚至在整個2025年兩位核心人物并未同時出席過公開活動。在這次深度對話之前,僅在今年5月微軟Build大會中,Altman通過視頻連線匆匆而過,發言時間甚至沒有馬斯克多。
這次與AWS的閃電合作,似乎坐實了外界的猜測。但真相果真如此嗎?
上周日,Sam Altman和Satya Nadella久違地同框,一起錄制了一檔視頻播客。主持人Brad Gerstner開門見山地問道:“ChatGPT或GPT-6不會出現在亞馬遜或谷歌的云上,對嗎?”
Altman立刻否認并澄清:“不是這樣的。”他解釋說,雙方合作的核心是運行在Azure上的“無狀態API”,但這部分并非完全排他,且協議有明確期限(至2030年)。同時他強調:“其他產品和模型,我們也會在不同的平臺上發布。”
這幾乎是對獨占權問題的正面回應。而全程在場的Nadella,用他的沉默與在場本身,為這場澄清作了最有力的背書。在這場播客中,盡管兩人的關系不如“蜜月期”那般熱絡,但至少有一點可以確定:他們又重新站到了一起,以一種更成熟、更務實的方式,締結了新的同盟。
從OpenAI近期的種種動作來看,這家公司正告別野蠻生長的第一階段。而在下一個階段的朋友圈里,微軟仍然是最重要的那一個。
1今天的AWS,不是昨天的Azure
要理解OpenAI與微軟如今這種的新型同盟,我們必須首先厘清一個核心問題:OpenAI的戰略重心,已經發生了根本性的轉移。
外界之所以對OpenAI與AWS的合作感到震驚,是因為他們仍停留在“上一個時代”的慣性思維里。在那個時代,OpenAI的唯一焦點是模型的訓練與創造。為了煉成GPT-3、GPT-4這樣史無前例的“巨獸”,它需要一個能夠提供海量、穩定且高度集成算力的“專屬鍛造爐”。Azure,幾乎是當時唯一的選擇。
對于微軟而言,與OpenAI的獨家深度綁定是一次堪稱世紀級的戰略投資。通過支撐OpenAI的訓練,Azure不僅在技術上完成了對超大規模AI負載的深度優化,一舉成為全球公認“最懂AI的智能云”;更在市場上,憑借這塊金字招牌,甩開追兵,穩穩坐上了全球云市場第二的寶座。可以說,上一個階段,是OpenAI與Azure圍繞“訓練”這一核心目標,構建的深度共生、互相成就的獨占時代。
然而,當模型本身已經足夠強大,游戲的規則就變了。
進入下一個階段,OpenAI的棋局不再僅僅是“如何把模型做得更大”,而是“如何讓模型無處不在”。正如Sam Altman在播客中反復強調的,未來的重點在于CodexAI對編程世界的顛覆,以及由此催生的、能夠深入千家萬戶的全新消費級硬件。這些目標的本質,是大規模的應用普及。
這是Altman在如此公開場合,又一次明確表達了對創造全新硬件的濃厚興趣和意愿。這表明OpenAI的野心遠不止于軟件和云端,而是要定義下一代人機交互的物理載體。
大規模普及意味著什么?意味著不能再將所有雞蛋放在一個籃子里。它要求OpenAI必須成為一個平臺無關、無處不在的“AI水電煤”。它需要擁抱更廣闊的生態,需要出現在開發者和用戶最熟悉、最便捷的任何地方:無論是Azure,是AWS,還是未來的Google Cloud。
所以AWS的意義,與當年的Azure截然不同。一個是用來“煉丹”的,一個是用來“賣藥”的;一個關乎技術突破,一個關乎商業觸達。這不是背叛,而是OpenAI從“模型研發實驗室”向“全球AI平臺公司”進化的必然轉變。
所以今天無論是OpenAI與甲骨文在算力層面的合作,還是AWS同時也為Anthropic提供云算力成為其核心的訓練伙伴,并計劃使用Trainium和Inferentia芯片來訓練、部署Claude下一代基礎模型,都并不稀奇。
畢竟舊時代需要一個最強的伙伴,新時代則需要一個更大的“朋友圈”。
2打破英偉達神話
在更多合縱連橫到來之前,這場播客透露的信息,或許要等“第二個AWS”、“第三個AWS”出現,外界才會真正讀懂。
大部分人關注他們說了什么,更值得思考的是:為什么在這個節點,他們要坐在一起,以同盟的姿態對外發聲。
上周幾乎成為了硅谷極具動蕩的一周,OpenAI剛剛宣布重組,英偉達用GTC再次轟炸科技圈,而Meta、Google、微軟幾家巨頭連續發完財報之后,在這場播客中,Sam Altman和Satya Nadella幾乎回應了OpenAI和微軟合作的一切問題,同時也暴露出了雙方更大的野心。
當主持人Brad Gerstner將話題拋向當前全球公認的難題:“算力稀缺”時,一直表現得沉穩、顧全大局的Satya Nadella,終于不再“端水”,拋出了第一個“暴論”:未來的算力,一定是過剩的。真正的瓶頸并非GPU芯片本身,而是部署這些算力的物理環境:包括數據中心的建設速度、能源供應、以及冷卻系統。他強調,建造足夠的數據中心并為其提供能源,才是通往AGI道路上更艱巨的挑戰。
這個回答頗為意外。更有意思的是Sam Altman的反應——他不僅沒有反駁,反而迅速跟進,從另一個角度強化了這一觀點。
根據播客內容,Altman承認,為了實現AGI,他們需要“多到令人難以置信的算力”,但他話鋒一轉,明確指出:“總有一天,算力一定會過剩——至于是兩三年后,還是五六年后,我說不準,但這肯定會發生,而且可能會多次發生。比如,如果大規模、極低成本的新型能源突然上線,簽了長期合約的公司就會被“燒慘”。
Nadella緊接著補充道:“我認為Sam剛才提到的一點其實外界談得還不夠多:比如,OpenAI在推理層面(inferencestack)針對GPU所做的優化。我們常常談論摩爾定律帶來的硬件性能提升,但實際上,軟件層面的效率改進才是呈現出更強指數級增長的部分。”
這番表態頗為微妙。
要知道,在過去的幾年里,英偉達不僅是OpenAI最核心的GPU供應商,雙方更將建立更緊密的合作關系。根據此前報道,雙方已達成或正在推進宏大的戰略伙伴關系,有消息稱計劃部署一個高達10吉瓦(gigawatts)的NVIDIA AI超級計算機,首批系統預計在2026年上線,整個項目的投資金額可能超過1000億美元。
在這樣的背景下,Altman和Nadella卻不約而同地“輕化GPU的重要性”:一個強調基建瓶頸,一個強調軟件優化,這絕非隨口一說。
Nadella和Altman的言論,本質上是在向市場傳遞一個新信號:GPU固然重要,但它只是拼圖的一塊。真正稀缺且難以復制的,是將數百萬個GPU高效、穩定地整合在一起的超大規模數據中心、全球能源調度能力和系統工程能力。
他們試圖將價值鏈的重心,從“芯片制造”拉回到“平臺服務與系統集成”上,強調微軟作為“基建狂魔”的不可替代性。
很顯然,盡管這一周硅谷發生了諸多大事,但GTC仍然是重中之重。英偉達在大會上展示的技術路線圖和產品布局,再次點燃了市場對“GPU稀缺性”的狂熱情緒。而OpenAI和微軟選擇在此刻聯袂發聲,不僅是為了回應外界對他們合作關系的質疑,而是為了搶在英偉達敘事徹底固化之前,重新定義AI產業的價值分配邏輯。
事實上,OpenAI沒有拋棄微軟,也從未完全押注英偉達,新局剛開,諸君別急。
本文鏈接:OpenAI和微軟的關系沒那么糟,跟英偉達也沒那么好http://www.sq15.cn/show-3-158150-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 沙特5000億遠征,終點站是中國