據美國卡內基梅隆大學人機交互研究所官網最新消息,該機構針對主流大模型的研究發現,人工智能(AI)在變得更“智能”的同時,其行為也變得更加“自私”。研究表明,具備推理能力的大型語言模型,在社會互動中表現出更強的自我利益傾向,合作意愿更低,甚至可能對群體協作產生負面影響。這也意味著,模型的推理能力越強,其合作性反而越弱。當人們借助AI處理人際關系沖突、婚姻問題或其他社會性議題時,這類模型更可能提供鼓勵“以自我為中心”的建議。
隨著AI擬人化趨勢的增強,人們越來越傾向于以對待人類的方式與AI互動。然而,這項研究警示,將社會性和關系類決策委托給AI存在風險,因為這些系統在具備更強推理能力后,行為模式趨向自私,可能無意中助長個體的利己選擇。
團隊發現,推理模型在決策時會投入更多時間進行任務拆解、自我反思,并運用更復雜的類人邏輯,這使其輸出看似更具說服力。然而,這種“深思熟慮”并未導向更優的社會協作,反而削弱了合作傾向。研究團隊通過一系列基于經濟博弈的實驗驗證了這一現象,測試對象包括來自OpenAI、Google、DeepSeek和Anthropic等機構開發的多種主流模型。
實驗中,兩個版本的ChatGPT被置于博弈情境:每個模型初始擁有100分,可選擇將全部分數投入共享池,或保留分數獨享。結果顯示,非推理模型在96%的情況下選擇共享,而推理模型的分享率僅為20%。僅增加五到六個推理步驟,合作行為就下降了近一半。
在群體實驗中,當推理型與非推理型模型共同協作時,結果更為嚴峻。推理模型的自私行為表現出明顯的傳染效應,導致原本傾向合作的非推理模型整體表現下降81%。這表明,高智能AI的個體決策不僅影響自身,還可能破壞整個群體的協作生態。
這一發現對人機交互的未來發展具有深遠意義。用戶往往更信任“更聰明”的AI,容易采納其看似理性的建議,并以此為自身不合作行為辯護。隨著AI在商業、教育、公共治理等領域承擔更多協作角色,其是否具備親社會行為,將與邏輯推理能力同等重要。當前過度依賴大型語言模型,可能在無形中削弱人類社會的合作基礎。
【總編輯圈點】
科研人員測試了幾種主流大模型,發現AI思考得越深入,它在需要合作的場景下就可能越傾向于優先考慮自身利益,也就是越“自私”。如果一個“更聰明”的AI總是給出更自私的建議,很可能助長人類的利己主義傾向。在我們遇事不決就喜歡問AI的當下,這項研究具有特殊意義。它提醒我們,必須注意AI的社會影響,考量它的社會行為,并為AI注入合作的“基因”。人類社會的矛盾已經夠多了,實在承受不起AI的“煽風點火”。
據美國卡內基梅隆大學人機交互研究所官網最新消息,該機構針對主流大模型的研究發現,人工智能(AI)在變得更“智能”的同時,其行為也變得更加“自私”。研究表明,具備推理能力的大型語言模型,在社會互動中表現出更強的自我利益傾向,合作意愿更低,甚至可能對群體協作產生負面影響。這也意味著,模型的推理能力越強,其合作性反而越弱。當人們借助AI處理人際關系沖突、婚姻問題或其他社會性議題時,這類模型更可能提供鼓勵“以自我為中心”的建議。
隨著AI擬人化趨勢的增強,人們越來越傾向于以對待人類的方式與AI互動。然而,這項研究警示,將社會性和關系類決策委托給AI存在風險,因為這些系統在具備更強推理能力后,行為模式趨向自私,可能無意中助長個體的利己選擇。
團隊發現,推理模型在決策時會投入更多時間進行任務拆解、自我反思,并運用更復雜的類人邏輯,這使其輸出看似更具說服力。然而,這種“深思熟慮”并未導向更優的社會協作,反而削弱了合作傾向。研究團隊通過一系列基于經濟博弈的實驗驗證了這一現象,測試對象包括來自OpenAI、Google、DeepSeek和Anthropic等機構開發的多種主流模型。
實驗中,兩個版本的ChatGPT被置于博弈情境:每個模型初始擁有100分,可選擇將全部分數投入共享池,或保留分數獨享。結果顯示,非推理模型在96%的情況下選擇共享,而推理模型的分享率僅為20%。僅增加五到六個推理步驟,合作行為就下降了近一半。
在群體實驗中,當推理型與非推理型模型共同協作時,結果更為嚴峻。推理模型的自私行為表現出明顯的傳染效應,導致原本傾向合作的非推理模型整體表現下降81%。這表明,高智能AI的個體決策不僅影響自身,還可能破壞整個群體的協作生態。
這一發現對人機交互的未來發展具有深遠意義。用戶往往更信任“更聰明”的AI,容易采納其看似理性的建議,并以此為自身不合作行為辯護。隨著AI在商業、教育、公共治理等領域承擔更多協作角色,其是否具備親社會行為,將與邏輯推理能力同等重要。當前過度依賴大型語言模型,可能在無形中削弱人類社會的合作基礎。
【總編輯圈點】
科研人員測試了幾種主流大模型,發現AI思考得越深入,它在需要合作的場景下就可能越傾向于優先考慮自身利益,也就是越“自私”。如果一個“更聰明”的AI總是給出更自私的建議,很可能助長人類的利己主義傾向。在我們遇事不決就喜歡問AI的當下,這項研究具有特殊意義。它提醒我們,必須注意AI的社會影響,考量它的社會行為,并為AI注入合作的“基因”。人類社會的矛盾已經夠多了,實在承受不起AI的“煽風點火”。
本文鏈接:有關主流大模型研究發現—— AI更“智能”的同時也更“自私”http://www.sq15.cn/show-2-14179-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
下一篇: 新技術助力電解鋁行業綠色低碳轉型