21世紀(jì)經(jīng)濟(jì)報道記者 晨星
2024年11月,中國首富、農(nóng)夫山泉創(chuàng)始人鐘睒睒在江西宣讀了他親自撰寫的檄文。
這位今年遭遇了大規(guī)模網(wǎng)暴的企業(yè)家,大聲疾呼要“捍衛(wèi)網(wǎng)絡(luò)輿論的文明價值 ”,喊話抖音要公開算法。他認(rèn)為,這個問題的關(guān)鍵是社交平臺利用了算法,屏蔽了多角度的消息——換言之,算法之“惡”是人為造成的。
在歷史學(xué)家、哲學(xué)家、全球暢銷書作家尤瓦爾·赫拉利的新作《智人之上——從石器時代到AI時代到信息網(wǎng)絡(luò)簡史》中,他以波瀾壯闊的歷史觀展示了AI時代算法“新神上場”,以及對人類帶來的全方位的影響。這本書的中文版于今年9月出版,11月發(fā)生的“鐘睒睒江西檄文”事件,恰好是書中觀點(diǎn)的注解。
當(dāng)算法之“神”上場,算法之幽靈運(yùn)行在水面之上,我們?nèi)祟愒撊绾钨x權(quán),又該如何糾正?
“新神”上場
進(jìn)入21世紀(jì)10年代以來,不論在哪里生活,我們都可能被一張算法的“大網(wǎng)”籠罩著。它重塑了我們的政治、社會與文化,甚至進(jìn)一步改造著我們的身體與思想。
赫拉利在書中感嘆人工智能的力量,“21世紀(jì)的硅幕所分隔的或許不是彼此敵對的人類,而是一邊為人類,另一邊為人工智能霸主”。
在算法、人工智能時代,當(dāng)計算機(jī)能自行做出決策時,人類信息網(wǎng)絡(luò)的基本結(jié)構(gòu)就改變了。這種新力量在人類歷史上前所未有,21世紀(jì)10年代至20年代的社交媒體所掌握的,正是這樣的力量。
社交媒體的出現(xiàn),確實(shí)為社會帶來了巨大的效益,讓萬眾皆媒,均得以發(fā)聲;新社群得以層出不窮,各種生態(tài)均有發(fā)展空間;知識得以前所未有的速度傳播,而成本則無限趨近于零。
臉書、抖音等都是這種力量的代表之一。但硬幣的另一面也令人震驚。
赫拉利在《智人之上》以臉書為例解釋說,臉書的商業(yè)模式依賴用戶的參與度,人類管理者給臉書的算法定了一個首要目標(biāo):提升用戶參與度。算法用大數(shù)據(jù)做實(shí)驗,發(fā)現(xiàn)“讓人憤慨”最能吸引注意力并且提升流量。于是通過反復(fù)實(shí)驗,算法學(xué)到了“憤怒會提升參與度”,也因此算法自行決定:傳播憤怒。
所以,如果有人發(fā)布了充滿仇恨或煽動性的言論,這在社交媒體上往往會得到最有力的推廣,從而給平臺帶來高流量,而高流量隨之也會帶來高營收。算法成了決定性的因素,算法選擇讓哪些內(nèi)容出現(xiàn)在用戶動態(tài)消息的頂端,這些“自上而下”的推薦很大程度上左右了大眾的想法。
而當(dāng)憤怒溢出屏幕,傳導(dǎo)到線下,到真實(shí)場景中,災(zāi)難就不可避免地發(fā)生了。
于是,就出現(xiàn)了售賣農(nóng)夫山泉的小商家被砸的類似事件。
人類如何賦權(quán)
人類的工程師編寫了算法的代碼,賦予了算法太多的權(quán)力。那么,當(dāng)算法、人工智能自行處理信息、自行做出決策,卻出現(xiàn)了算法偏見、人工智能幻覺時,我們該如何應(yīng)對?
科技巨頭們爭相標(biāo)榜“科技向善”,但有幾家又能真正做到。平臺的商業(yè)模式是依靠大規(guī)模的個人數(shù)據(jù),個人得到平臺免費(fèi)服務(wù)的代價是同意平臺掌握并使用個人數(shù)據(jù)。這是一種受托關(guān)系,平臺應(yīng)該負(fù)起對受托人的責(zé)任。赫拉利認(rèn)為,只要科技巨頭真心地想要設(shè)計出更好的算法,通常也能做到。
如果科技巨頭無法負(fù)起對受托人的責(zé)任呢?政府可以上場,加強(qiáng)監(jiān)管、規(guī)范算法是一種方式。赫拉利在書中建議,政府也可以要求平臺回歸相對傳統(tǒng)的商業(yè)模式,也就是用戶以付費(fèi),而非個人數(shù)據(jù),來支付服務(wù)費(fèi)用。
對于國家之間,人類永遠(yuǎn)都有“合作”這個選項。赫拉利提出,人工智能是一項全球性問題。與氣候變化一樣,只要人類團(tuán)結(jié),就能打造出適當(dāng)?shù)臋C(jī)構(gòu)及制度,用來控制人工智能,找出并修正算法的錯誤。《布萊切利宣言》也許是個不錯的開端。
2023年11月,包括中國、美國、英國近30個國家和歐盟簽署了《布萊切利宣言》,宣言第一段就申明,為了所有人的利益,AI應(yīng)該以安全、以人為本、可信賴和負(fù)責(zé)任的方式設(shè)計、開發(fā)、部署和使用。宣言第七段則強(qiáng)調(diào),開發(fā)前沿人工智能能力的參與者對確保這些人工智能系統(tǒng)的安全負(fù)有特別重大的責(zé)任,包括通過安全測試系統(tǒng)、通過評估以及通過其他適當(dāng)措施。
前方的道路雖然迷離,但《智人之上》希望為人工智能革命提供比較正確的歷史觀,它確實(shí)做到了。
《智人之上》一書希望能通過推動各種機(jī)構(gòu)制度打造出強(qiáng)大的自我修正機(jī)制,并為之提供了最為清醒的啟示。
本文鏈接:21書評|當(dāng)算法之“神”上場 人類如何賦權(quán)與糾正 ——《智人之上》的深邃洞察http://www.sq15.cn/show-2-9873-0.html
聲明:本網(wǎng)站為非營利性網(wǎng)站,本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會到餡餅,請大家謹(jǐn)防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇: 短劇出海眾生相:制造霸總的中國工廠丨短劇帝國的微言大觀?
下一篇: 北京海淀上線“一刻鐘AI生活圈”