南方財經全媒體記者 袁思杰 香港報道
近年來,全球人工智能市場規模正加速擴張。國際數據公司(IDC)報告顯示,2022年全球人工智能IT總投資規模有望在2027年增至5,124.2億美元,年復合增長率(CAGR)為31.1%。
與此同時,目前通用人工智能(AGI,Artificial General Intelligence)的研究仍在探索階段,人類尚未實現真正的AGI,即能夠像人類一樣在多種領域和任務中具備學習、推理、規劃、創造力和情感理解等能力的智能系統。與現有的弱人工智能(ANI)不同,AGI的目標是實現通用的認知能力,而不僅僅是針對特定任務的優化。
近日,國際知名人工智能專家斯圖爾特·羅素接受了南方財經全媒體記者專訪,他指出,僅靠不斷搭建和疊加大語言模型 (LLMs)無法實現通用人工智能 (AGI),而人類需要不僅是比自身更智能的系統,還需要確保是對自身安全和有益的。
在此前的多次演講中,羅素曾多次表示ChatGPT和GPT-4并不理解世界,也沒有在“回答”問題,“如果說通用人工智能是一件完整的拼圖,大語言模型僅僅只是其中的一塊,但我們并不真正了解如何將它與拼圖的其他部分連接起來,以真正實現通用人工智能。”
斯圖爾特·羅素(Stuart Russell)是人工智能領域的著名學者,現任加州大學伯克利分校電氣工程與計算機科學系教授、世界經濟論壇人工智能理事會聯席主席。作為人工智能、機械人和機器學習領域的先驅,斯圖爾特·羅素撰寫了人工智能領域的經典教材《人工智能-現代方法》,這部權威著作已被翻譯成 14 種語言,在超過 130 個國家的 1500 多所大學中被使用。
2024年3月,羅素曾和特斯拉CEO埃隆·馬斯克、“AI教父”杰弗里·辛頓(Geoffrey Hinton)和圖靈獎得主約書亞·本吉奧(Yoshua Bengio)等上千人簽署公開信,呼吁暫停訓練比GPT-4更強大的AI系統至少六個月。公開信指出,當前人工智能實驗室陷入了一場失控的競賽,開發的大模型已經超出了人類的理解和控制能力。因此,實驗室和獨立專家應該利用這段時間共同開發和實施一套共享的安全協議,確保AI系統的安全性,并由獨立外部專家進行審計和監督。此外,信中還強調,AI開發人員應與政策制定者合作,加快建立強大的AI治理系統。
羅素認為,需要有一種思路來約束AI的不當行為,“有些事情我們不希望AI系統做,比如我們不希望AI系統擅自開始自我復制、侵入其他電腦系統,或者告訴恐怖分子怎么制造生物武器。那么我們就應該規定,在產品問世前,開發者應向監管方證明該系統不會有這些行為。”
大語言模型無法真正思考問題
《21世紀》:你曾提到大語言模型 (LLMs)無法實現通用人工智能 (AGI)。LLMs已展現出矚目的能力,您為何認為其仍無法將我們帶往AGI?
羅素:基于我們對大語言模型及其表現的觀測來看,它們在實證上有局限,比如它們經常無法回答哪怕非常簡單的推理問題。此外,還有一些技術局限,比如大語言模型是一個回路,人與系統進行的對話就是上下文,當我們將該上下文送入該回路,信息便一層一層經過回路,由另一端輸出結果——也就是對話的下一句話或是先前問題的答案。
這個系統無法真正思考問題,只是信號輸入,經過回路,信號輸出。處理時間也是固定的,它也不能花更多時間思考答案。所以,有些問題它就是無法回答的,因為那些問題就不可能在那么短的時間里答出來。這是一個根本性的局限。
OpenAI正在嘗試的就是,如果一次循環回答不了某個問題,那就循環100次,讓大語言模型分步解決問題。但這個方法也不總是有效。對于需要更多思考的問題,這種系統就會浪費大量時間在得不出答案的錯誤思路上。因此,在這些問題上若無突破,我們就無法實現AGI。
《21世紀》:如果這種方式不可行,你認為我們應采取何種方式才能實現AGI?
羅素:如我所說,人們已經意識到僅靠搭建LLMs是不足以實現AGI的,并且正在嘗試其他方式。我認為對于那些方式,系統確實需要逐步推理。現在的問題是,如何引導推理?如何加以控制,從而在合理時間內推出正確結論?
這是困擾了人工智能界70年的難題,要實現真正的AGI,需要在這個問題上有所突破。但是,我們想要的不僅是比人類更智能的系統,還需要確保對人類安全、有益。
我們假設,還有另一種實現AGI的方式,比如向外星文明發送信息,請求將超智能AI送至地球。信息送達后,我們就有AGI了,但最后發現它完全不受我們控制,這樣做也不安全。
我們不想這么做,但我們正在做的也幾乎如此,因為我們正在嘗試通過結果不受控的方式創造AGI。通過大語言模型建造的系統很有可能本質上就是不安全的,因為大語言模型的訓練目標是模仿人類語言行為。我們以數十億的人類書寫、說話樣本作為訓練數據,訓練系統表現得完全和人類一樣。而我們人類產生行為是出于目標,比如想和某人結婚;比如希望致富,所以希望有人來采購;希望掌權,所以希望有人來投票。而訓練系統模仿人類,就是在創造具有這些目標的系統。但我們不希望AI系統萌生與人類結婚的想法,不希望AI系統志在富有、志在掌權。所以,通過訓練其模仿人類來構建AI系統,從根本上就是危險的,不應如此。
AI需要被嚴格監管
《21世紀》:考慮到潛在風險,我們目前應加強對AI 的監管嗎?
羅素:是的。我認為,有這樣一種監管的思路。有些事情我們不希望AI系統做,比如我們不希望AI系統擅自開始自我復制、侵入其他電腦系統、或者告訴恐怖分子怎么制造生物武器。那么我們就應該規定,在產品問世前,開發者應向監管方證明該系統不會有這些行為。人們正在努力抑制AI的這些不當行為,但效果不佳。現在看起來,要讓系統“干壞事”非常容易。
《21世紀》:我記得你也簽署了暫停訓練強于ChatGPT 4的大模型的聯名信。
羅素:很多人對那封信嗤之以鼻。有人認為,這就是浪費時間,沒人會在意。但實際上,接下來的六個月,確實沒有強于ChatGPT 4的系統發布。各國政府也開始正視這個問題。大約三周后,中國就發布了《生成式人工智能服務管理暫行辦法》;美國在白宮召開緊急會議;聯合國也關注此事;英國政府在幾個月后宣布將舉辦人工智能安全峰會。所以我認為那封信還是效果顯著的。
AGI能否實現對投資至關重要
《21世紀》:你認為哪些領域將從與日俱增的AI相關投資中獲益最多?
羅素:投資的很大一部分已經投入更多數據中心的建設了,所以這些資金就流向了芯片供應公司,以及為數據中心提供網絡、空調、電力系統等支撐的公司。
其余的一大部分將流向基礎模型公司。它們從大量數據中訓練出基礎大語言模型,并轉化成特定應用下的實用產品,我認為這個領域是會有大幅增長的,但我們仍處在試驗階段。
另外一個最主要的經濟領域是軟件工程,這是個大領域。還有一些稍小的領域,包括平面藝術和廣告文案撰寫等。我認為今年仍是如此。但如果我們不能找到更多大的應用領域,我不知道投資者們會不會失去耐心。自動駕駛汽車領域就是例證。在美國,之前至少有十幾家企業對自動駕駛汽車大量投資,而現在只剩一家。
如果我們不能實現AGI ,數萬億美元的投資和公司市值將化為烏有,對全球經濟來說將是一個極大的破壞。所以這么看來,要在未實現AGI 的情況下讓投資有所值,這樣的中間地帶是非常狹窄的。而對于我們有多大可能突破AGI,又有多大可能迎來AI大崩塌及其泡沫的破裂,不同的人有不同的看法。
《21世紀》:您如何看待中國目前的AI發展模式及其在各行業具體應用上的獨特優勢與潛力?
羅素:比如在教育領域,研究表明,孩子在一對一真人導師輔導下學得比在一般的教室授課中快得多。理論上,我們可以給每個孩子配備一名AI導師。過程中仍然需要真人教師來讓孩子理解教育的過程,激勵他們,幫助他們社交,教他們如何與他人合作等。
我們還不知道如何讓AI做到這些,但我認為機會是可觀的。中國很可能是會在此投資的國家。中國的營利教育公司似乎已經相對成功,所以我認為他們有動力嘗試創造這樣高效的AI導師。這仍然非常困難。雖然已經有一些嘗試,但我認為還有相當長的路要走。
策劃:于曉娜
記者:袁思杰
監制:朱麗娜
編輯:和佳
設計:林軍明
視頻制作:袁思杰
出品:南方財經全媒體集團
本文鏈接:SFC Outlook 2025丨專訪國際知名人工智能專家斯圖爾特·羅素:我們需要一個安全且能造福人類的AI系統http://www.sq15.cn/show-2-10274-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。