《日本經濟新聞》3月4日報道,這里是鄰近加拿大多倫多大學的一處靜謐街區。該大學名譽教授、有“人工智能(AI)教父”之稱的杰弗里·辛頓在2023年12月27日接待了一位年輕人的來訪。
來訪者名叫伊利亞·蘇茨克韋爾,他曾在2023年11月美國開放人工智能研究中心(OpenAI)的內部混亂中投票支持罷免首席執行官薩姆·奧爾特曼,最終“政變”失敗,蘇茨克韋爾也丟掉了高管職位。
蘇茨克韋爾在社交媒體平臺X上表示“深刻反省”,隨后便消失在了公眾視野中。關于此次“政變”的動機,有報道稱可能是為了阻止某些威脅人類的前沿AI的研發,不過真相至今仍是云里霧里。
“如果你不想說就不必說。”考慮到這位多年來的得意門生的心情,辛頓教授沒有主動提及此前的一系列騷動。之后兩人共進午餐,一邊享受著美味的鮭魚一邊討論了從某個公式推導出的“非常恐怖的曲線”。
辛頓在接受《日本經濟新聞》獨家專訪時透露了這一細節。蘇茨克韋爾提出的公式是y=a/(2040-x),其中y代表國民生產總值(GNP),x代表年數。
據說他們發現各國的GNP趨勢都符合這個公式。因農業的普及和工業革命而持續增長的GNP曲線自本世紀20年代引入生成式AI后逐漸變得陡峭。如果GNP繼續按照公式增長,那么將在2040年達到無窮大。
AI超越人類智慧的時刻被稱為“奇點”,如果AI迎來爆發式發展并產生大部分國民生產總值,人類的存在將變得微不足道。
在辛頓看來,由AI掌控經濟活動的世界“發生任何事都有可能”。兩人都認為AI將具有獨立意識,不再遵從人類的指令行事,這樣的未來令人擔憂。“所以我們就這一話題進行了討論。”
AI是否能夠產生意識和情感?對于人類來說能否將其視為“善意”?在聊天生成預訓練轉換器(ChatGPT)巧妙運用詞匯點燃生成式AI熱潮的背后,全球的科學家如今正在面臨人類觀這一根源性問題。
“現在假設AI系統具備感情和人類層面的意識已經不再是科幻小說的范疇。”由數學、物理學、量子力學領域的專家組成的數學意識科學學會(AMCS)在2023年呼吁聯合國咨詢機構將這一點作為緊迫課題積極研究對策。
關于AI是否具有意識的爭論由來已久。一個由著名AI研究者和神經科學領域專家組成的團隊在2023年發表了一篇論文,提出了一種驗證方法,試圖給這個問題蓋棺定論。這種方法試圖利用現有科學理論創建一種關于AI是否有意識的評估手段。
致力于研發“人工意識”的日本AI初創企業ARAYA公司首席執行官金井良太也參與了論文的撰寫。他指出:“不能否認作為目前生成式AI基礎技術的大規模語言模型能夠產生意識。”
各國試圖將AI用于軍事領域也推高了對于AI將會主動采取行動的擔憂。有報道稱,無需人類指令的AI殺人武器已經在利比亞戰場投入使用。在危機感不斷加劇的歐洲的主導下,2023年底,聯合國通過了為制定相關規則采取緊急措施的決議,但俄羅斯和印度投了反對票。
鑒于科技界以研發速度作為優先考量,一直以來圍繞AI是否具有意識的討論被視為某種禁忌。2022年,時任谷歌公司研究人員的布萊克·勒莫因聲稱該公司的生成式AI產生了自主意識,而被以違反保密協議為由解雇。
為了能夠就AI的風險自由發言,辛頓也在2023年離開了他供職十年之久的谷歌。鑒于針對研發和使用AI武器的威懾手段基本不能發揮作用,辛頓擔憂由此帶給人類的威脅“超過核武器”。
辛頓表示,對于自己研發出可能左右人類存亡的技術“并不后悔”。他說:“沒有哪個人想要看到一個由AI支配的未來,這一事實將為各國聯手監管AI奠定基礎。”
《日本經濟新聞》3月4日報道,這里是鄰近加拿大多倫多大學的一處靜謐街區。該大學名譽教授、有“人工智能(AI)教父”之稱的杰弗里·辛頓在2023年12月27日接待了一位年輕人的來訪。
來訪者名叫伊利亞·蘇茨克韋爾,他曾在2023年11月美國開放人工智能研究中心(OpenAI)的內部混亂中投票支持罷免首席執行官薩姆·奧爾特曼,最終“政變”失敗,蘇茨克韋爾也丟掉了高管職位。
蘇茨克韋爾在社交媒體平臺X上表示“深刻反省”,隨后便消失在了公眾視野中。關于此次“政變”的動機,有報道稱可能是為了阻止某些威脅人類的前沿AI的研發,不過真相至今仍是云里霧里。
“如果你不想說就不必說。”考慮到這位多年來的得意門生的心情,辛頓教授沒有主動提及此前的一系列騷動。之后兩人共進午餐,一邊享受著美味的鮭魚一邊討論了從某個公式推導出的“非常恐怖的曲線”。
辛頓在接受《日本經濟新聞》獨家專訪時透露了這一細節。蘇茨克韋爾提出的公式是y=a/(2040-x),其中y代表國民生產總值(GNP),x代表年數。
據說他們發現各國的GNP趨勢都符合這個公式。因農業的普及和工業革命而持續增長的GNP曲線自本世紀20年代引入生成式AI后逐漸變得陡峭。如果GNP繼續按照公式增長,那么將在2040年達到無窮大。
AI超越人類智慧的時刻被稱為“奇點”,如果AI迎來爆發式發展并產生大部分國民生產總值,人類的存在將變得微不足道。
在辛頓看來,由AI掌控經濟活動的世界“發生任何事都有可能”。兩人都認為AI將具有獨立意識,不再遵從人類的指令行事,這樣的未來令人擔憂。“所以我們就這一話題進行了討論。”
AI是否能夠產生意識和情感?對于人類來說能否將其視為“善意”?在聊天生成預訓練轉換器(ChatGPT)巧妙運用詞匯點燃生成式AI熱潮的背后,全球的科學家如今正在面臨人類觀這一根源性問題。
“現在假設AI系統具備感情和人類層面的意識已經不再是科幻小說的范疇。”由數學、物理學、量子力學領域的專家組成的數學意識科學學會(AMCS)在2023年呼吁聯合國咨詢機構將這一點作為緊迫課題積極研究對策。
關于AI是否具有意識的爭論由來已久。一個由著名AI研究者和神經科學領域專家組成的團隊在2023年發表了一篇論文,提出了一種驗證方法,試圖給這個問題蓋棺定論。這種方法試圖利用現有科學理論創建一種關于AI是否有意識的評估手段。
致力于研發“人工意識”的日本AI初創企業ARAYA公司首席執行官金井良太也參與了論文的撰寫。他指出:“不能否認作為目前生成式AI基礎技術的大規模語言模型能夠產生意識。”
各國試圖將AI用于軍事領域也推高了對于AI將會主動采取行動的擔憂。有報道稱,無需人類指令的AI殺人武器已經在利比亞戰場投入使用。在危機感不斷加劇的歐洲的主導下,2023年底,聯合國通過了為制定相關規則采取緊急措施的決議,但俄羅斯和印度投了反對票。
鑒于科技界以研發速度作為優先考量,一直以來圍繞AI是否具有意識的討論被視為某種禁忌。2022年,時任谷歌公司研究人員的布萊克·勒莫因聲稱該公司的生成式AI產生了自主意識,而被以違反保密協議為由解雇。
為了能夠就AI的風險自由發言,辛頓也在2023年離開了他供職十年之久的谷歌。鑒于針對研發和使用AI武器的威懾手段基本不能發揮作用,辛頓擔憂由此帶給人類的威脅“超過核武器”。
辛頓表示,對于自己研發出可能左右人類存亡的技術“并不后悔”。他說:“沒有哪個人想要看到一個由AI支配的未來,這一事實將為各國聯手監管AI奠定基礎。”
本文鏈接:AI具備人類意識不再是科幻http://www.sq15.cn/show-2-3571-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 人工智能比人類更具創造潛力?
下一篇: “谷歌搜索”時代會被終結嗎?