無(wú)條件加速還是“超級(jí)對(duì)齊” 狂奔中的大模型遇治理難題
2023年年末,OpenAI內(nèi)部的人事風(fēng)波一度引發(fā)全球關(guān)注,背后映射出的,是商業(yè)化激進(jìn)發(fā)展與安全保守之間的潛在矛盾。
復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授張謐表示,現(xiàn)在對(duì)于以大模型為代表的通用人工智能,所持的觀點(diǎn)大致分為兩個(gè)陣營(yíng):一是有效加速主義,提倡無(wú)條件加速技術(shù)創(chuàng)新,快速推出使用,從而顛覆社會(huì)結(jié)構(gòu)。這一派的代表就是OpenAI CEO,Sam Altman。
另外一派則是超級(jí)對(duì)齊派,他們要求AI能夠在各種環(huán)境下自發(fā)推導(dǎo)出符合人類(lèi)價(jià)值觀的行動(dòng)方針。這一派的代表被認(rèn)為是OpenAI的首席科學(xué)家Ilya Sutskever。
在大模型飛速進(jìn)步的當(dāng)下,大模型帶來(lái)的內(nèi)容安全、虛假信息、不當(dāng)使用和模型失控等問(wèn)題也擺在了人們面前,發(fā)展和治理之間步調(diào)的逐漸失調(diào),AI的風(fēng)險(xiǎn)管理、全生命周期的治理成為全球的重要議題。
“科技行業(yè)應(yīng)該負(fù)責(zé)任地發(fā)展AI,兼顧AI發(fā)展和風(fēng)險(xiǎn)管控。現(xiàn)在全球范圍內(nèi)有AI競(jìng)賽的氛圍,注重安全反而可能造成技術(shù)落后,為了占領(lǐng)先機(jī)便不得不擱置安全。”日前,在“AI發(fā)展與治理創(chuàng)新研討會(huì)”上,復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授張謐表示,“各方應(yīng)該立足長(zhǎng)遠(yuǎn),攜手營(yíng)造有序競(jìng)爭(zhēng),把風(fēng)險(xiǎn)控制在防護(hù)能力的上界之內(nèi),保障AI發(fā)展處于安全區(qū)域。”
未知隱憂
ChatGPT的火爆,讓越來(lái)越多人意識(shí)到人工智能已經(jīng)迎來(lái)了全新的里程碑,并且有望作為一個(gè)至關(guān)重要的基座系統(tǒng),以前所未有的速度滲透進(jìn)各行各業(yè),持續(xù)引爆未來(lái)世界的數(shù)字經(jīng)濟(jì)體系。
其革命性指的就是大模型的“涌現(xiàn)能力”,即在大模型訓(xùn)練過(guò)程中,出現(xiàn)了一些意外的、超乎預(yù)期的能力表現(xiàn)。在計(jì)算量大概在10的22次方之后,模型能力會(huì)完成從量變到質(zhì)變的飛躍,呈現(xiàn)出驚人的爆發(fā)式增長(zhǎng)。但大模型具體是怎樣在突破某個(gè)值后突然變得智能,對(duì)于人類(lèi)來(lái)說(shuō)仍然是個(gè)未解之謎。
這就使得大模型的運(yùn)用充滿了多重不確定性。“模型的特點(diǎn)就是它的未知遠(yuǎn)大于它的已知。”阿里巴巴集團(tuán)研究院執(zhí)行副院長(zhǎng)袁媛表示,大模型快速發(fā)展帶來(lái)的沖擊其實(shí)不能夠全部用“風(fēng)險(xiǎn)”去概括,“風(fēng)險(xiǎn)”的前提是它可以被識(shí)別,可以被管理。
在業(yè)內(nèi)專(zhuān)家看來(lái),AIGC帶來(lái)的風(fēng)險(xiǎn)主要包括以下幾類(lèi)。一是內(nèi)容安全。相較于靠人工手動(dòng)方式的傳統(tǒng)內(nèi)容生產(chǎn),AIGC可以通過(guò)交互式的方式快速生產(chǎn)并實(shí)現(xiàn)規(guī)模化,生產(chǎn)成本顯著降低,一些色情、低俗、血腥恐怖、不良導(dǎo)向的內(nèi)容也會(huì)借此大量涌出,對(duì)內(nèi)容安全的防控帶來(lái)新的挑戰(zhàn)。
“AIGC的風(fēng)險(xiǎn)復(fù)雜度更高。因?yàn)樗懈叩淖杂啥龋訌?fù)雜和隱晦,同時(shí)它的時(shí)效性更高。”阿里巴巴人工智能治理和可持續(xù)發(fā)展研究中心首席科學(xué)家何源表示。
二是模型安全。大模型從某種意義上來(lái)說(shuō)還是深度學(xué)習(xí)模型的延展,因此深度學(xué)習(xí)的模型在理論上具有的安全局限性在大模型上依然會(huì)存在。
何源表示,對(duì)抗魯棒就是其中一個(gè)例子,“可以通過(guò)算法的方式在樣本中進(jìn)行肉眼不可察覺(jué)的變化,不影響人的識(shí)別,但是會(huì)讓機(jī)器識(shí)別出錯(cuò)。”
深度網(wǎng)絡(luò)的優(yōu)異性能和其在對(duì)抗攻擊下的脆弱似乎是同一枚硬幣的兩面,不管是ChatGPT,還是多模態(tài)大模型,他們?cè)诿鎸?duì)有意識(shí)的攻擊的情況下仍然會(huì)被輕易攻破。
另一個(gè)例子源于大模型對(duì)數(shù)據(jù)的依賴(lài)。
大模型的訓(xùn)練離不開(kāi)數(shù)據(jù)。但數(shù)據(jù)的使用存在被毒化、侵權(quán)等風(fēng)險(xiǎn)。如果在網(wǎng)絡(luò)上爬取到的樣本數(shù)據(jù),已經(jīng)被植入毒化樣本,就會(huì)造成大模型產(chǎn)生錯(cuò)誤。這種情況下,用戶(hù)通過(guò)預(yù)定義的觸發(fā)詞,就會(huì)通過(guò)模型輸出特定結(jié)果。而且,一般情況下很難察覺(jué)到模型已被“毒化”。
另一方面,面對(duì)海量數(shù)據(jù),很難確保對(duì)每一個(gè)訓(xùn)練數(shù)據(jù)都有使用權(quán)限,數(shù)據(jù)的隱私問(wèn)題也是一個(gè)潛在風(fēng)險(xiǎn)。“在一些垂直領(lǐng)域,個(gè)人數(shù)據(jù)很重要。比如在醫(yī)療數(shù)據(jù)的訓(xùn)練中,不可避免地會(huì)涉及到病人的數(shù)據(jù)。”中國(guó)社會(huì)科學(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心執(zhí)行主任劉曉春表示,如何真正做到匿名化,做到什么標(biāo)準(zhǔn)才算是匿名化等問(wèn)題都還需要討論。
風(fēng)險(xiǎn)何解?
中國(guó)人工智能產(chǎn)業(yè)聯(lián)盟安全治理委員會(huì)專(zhuān)委會(huì)副主委、浙江大學(xué)教授潘恩榮認(rèn)為,生成式人工智能對(duì)人類(lèi)經(jīng)濟(jì)社會(huì)發(fā)展觀念帶來(lái)巨大沖擊,“宜疏不宜堵”。一方面,必須克服各種恐懼和臆想,克制“堵”的沖動(dòng);另一方面,要在實(shí)踐中小步快跑地迭代出各種“疏”的方式。
畢竟從落地的角度來(lái)看,風(fēng)險(xiǎn)問(wèn)題沒(méi)得到解決,大模型的應(yīng)用終究無(wú)法走向更深層。
“上一波的人工智能產(chǎn)業(yè)化發(fā)展浪潮,典型的應(yīng)用是人臉識(shí)別,但是人臉識(shí)別即使發(fā)展到今天,大家對(duì)于它的準(zhǔn)確率、安全性還是存在很多擔(dān)心,沒(méi)有辦法進(jìn)入到嚴(yán)肅場(chǎng)景應(yīng)用。”瑞萊科技CEO田天表示。
他認(rèn)為,這還未到達(dá)倫理、價(jià)值層面,就模型自身安全性而言,還有很大提升空間。眼下,從業(yè)者們更希望從安全的角度提升大模型以及各類(lèi)AI系統(tǒng)的性能,能夠讓大模型在更多領(lǐng)域?qū)崿F(xiàn)落地,發(fā)揮更大的價(jià)值和作用。
在安全治理中,大模型的安全評(píng)測(cè)是必不可少的,而且是很關(guān)鍵的一環(huán)。張謐認(rèn)為,無(wú)論在整個(gè)訓(xùn)練過(guò)程還是部署的前后都要持續(xù)監(jiān)測(cè),并且評(píng)測(cè)每個(gè)環(huán)節(jié),還要實(shí)時(shí)向監(jiān)管機(jī)構(gòu)、社會(huì)、公眾發(fā)布。
“大模型的風(fēng)險(xiǎn)用小模型去識(shí)別和處理是不夠的,我們需要用大模型來(lái)評(píng)測(cè)大模型,我們通過(guò)大模型生成內(nèi)容安全風(fēng)險(xiǎn)的指令,看看目標(biāo)模型的產(chǎn)出,構(gòu)造一個(gè)閉環(huán)。”何源表示。
除了評(píng)測(cè)之外,安全對(duì)齊也是安全治理的一個(gè)重要的方法。
張謐表示,在訓(xùn)練最初始的階段是人類(lèi)完全監(jiān)督,人工給出每個(gè)問(wèn)題的回答,這樣的泛化性比較差。此后,OpenAI引出了大型語(yǔ)言模型生成領(lǐng)域的新訓(xùn)練范式RLHF(基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)方式),明顯提高了泛化性。
從大模型的道德和價(jià)值觀養(yǎng)成角度,商湯智能產(chǎn)業(yè)研究院創(chuàng)始院長(zhǎng)田豐表示,要通過(guò)訓(xùn)練把具有負(fù)面價(jià)值觀的數(shù)據(jù)標(biāo)識(shí)出來(lái);其次,在模型運(yùn)行的過(guò)程中,快速對(duì)它做一些正向價(jià)值觀的調(diào)優(yōu);再次,當(dāng)用戶(hù)使用時(shí),能夠去識(shí)別惡意的問(wèn)題和答案,屏蔽那些可能有違價(jià)值觀的信息。
整體來(lái)看,張謐對(duì)AI大模型未來(lái)的安全前景持樂(lè)觀態(tài)度,她援引前沿觀點(diǎn)指出,隨著評(píng)測(cè)、治理技術(shù)的成熟以及治理體系的完善,人類(lèi)提供一整套安全規(guī)則,AI就能根據(jù)規(guī)則實(shí)現(xiàn)“用模型監(jiān)督模型”;更長(zhǎng)遠(yuǎn)看,AI大模型有可能自主對(duì)齊人類(lèi)價(jià)值觀、主動(dòng)向善發(fā)展。
多方共治
“在風(fēng)險(xiǎn)識(shí)別和風(fēng)險(xiǎn)防控和風(fēng)險(xiǎn)管理之間,我們一直覺(jué)得有一個(gè)緩沖區(qū),在這個(gè)緩沖區(qū)當(dāng)中我們面對(duì)的是一個(gè)共同的未知,我們要承認(rèn)沒(méi)有一個(gè)先知可以把將來(lái)的變化和挑戰(zhàn)全部總結(jié)出來(lái)。”袁媛表示,她認(rèn)為在這個(gè)問(wèn)題上應(yīng)是多方的合作共治。
2023年11月,首屆全球人工智能安全峰會(huì)在英國(guó)舉行,包括中國(guó)在內(nèi)超過(guò)25個(gè)國(guó)家的政府代表和科技界人士參加,并簽署了《布萊切利宣言》,同意通過(guò)國(guó)際合作,建立人工智能監(jiān)管方法。
該宣言表示,人工智能帶來(lái)巨大機(jī)遇,但同時(shí)也帶來(lái)重大潛在風(fēng)險(xiǎn)。對(duì)于前沿人工智能技術(shù)有意識(shí)濫用或者無(wú)意識(shí)控制方面的問(wèn)題,可能會(huì)引發(fā)巨大風(fēng)險(xiǎn),尤其是在網(wǎng)絡(luò)安全、生物技術(shù)和加劇傳播虛假信息等方面。與會(huì)國(guó)家和地區(qū)同意協(xié)力打造一個(gè)“具有國(guó)際包容性”的前沿人工智能安全科學(xué)研究網(wǎng)絡(luò),以對(duì)尚未完全了解的人工智能風(fēng)險(xiǎn)和能力加深理解。
在政策方面,我國(guó)于2023年6月發(fā)布的《2023年度立法工作計(jì)劃》已將人工智能法草案納入其中;7月,我國(guó)公布了《生成式人工智能服務(wù)管理暫行辦法》,這是我國(guó)首份針對(duì)生成式人工智能的規(guī)范性監(jiān)管文件,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用。
2023年12月,歐洲議會(huì)、歐盟委員會(huì)和27個(gè)成員國(guó)的談判代表就歐盟《人工智能法案》達(dá)成協(xié)議。該法案規(guī)定了對(duì)人工智能領(lǐng)域的全面監(jiān)管,最早將于2024年初生效并于2026年實(shí)施。
中國(guó)科學(xué)院信息工程研究所技術(shù)副總師韓冀中認(rèn)為,這其中一些關(guān)鍵的思想值得關(guān)注,一是風(fēng)險(xiǎn)分類(lèi),二是價(jià)值鏈責(zé)任。
歐盟的《人工智能法案》確立了“基于風(fēng)險(xiǎn)”的人工智能治理框架,將人工智能系統(tǒng)評(píng)估后劃分為最小風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和不可接受風(fēng)險(xiǎn)四個(gè)等級(jí),并對(duì)各個(gè)等級(jí)采取差異化的監(jiān)管方式,如針對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)采取嚴(yán)格的風(fēng)險(xiǎn)管控措施;針對(duì)有限風(fēng)險(xiǎn)人工智能系統(tǒng)僅規(guī)定透明度要求。
在人工智能價(jià)值鏈責(zé)任分配上,法案中提到,任何分發(fā)者、進(jìn)口者、部署者或其他第三方應(yīng)被視為高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者,需要履行相應(yīng)的義務(wù)。“風(fēng)險(xiǎn)要在每一個(gè)階段進(jìn)行控制,從模型的生產(chǎn)、運(yùn)行、服務(wù),到最后的傳播,每一個(gè)鏈上都有它的價(jià)值,都有它的風(fēng)險(xiǎn)。”韓冀中表示。
值得注意的是,無(wú)論是風(fēng)險(xiǎn)治理的措施,還是相關(guān)法律法規(guī)的建設(shè),都需要與大模型的發(fā)展之間形成平衡。
“在模型飛速發(fā)展的時(shí)候,我們不能去預(yù)設(shè),先把這輛車(chē)?yán)ψ。覀円脖仨氄J(rèn)識(shí)到它急促發(fā)展的可能性,要考慮的不僅是司機(jī)、乘客,還有道路上的行人。”袁媛比喻道,“我們本質(zhì)上要做這樣一件事:保證大模型保持它應(yīng)有的發(fā)展速度,同時(shí)通過(guò)多方努力,把下面這條治理的紅線抬上去。”
(作者:董靜怡,實(shí)習(xí)生閆碩)
本文鏈接:無(wú)條件加速還是“超級(jí)對(duì)齊” 狂奔中的大模型遇治理難題http://www.sq15.cn/show-2-2268-0.html
聲明:本網(wǎng)站為非營(yíng)利性網(wǎng)站,本網(wǎng)頁(yè)內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
上一篇: 科技巨頭加碼數(shù)據(jù)庫(kù)市場(chǎng) 四大核心應(yīng)用場(chǎng)景國(guó)產(chǎn)化比例超40%