據(jù)環(huán)球網(wǎng)援引美國消費(fèi)者新聞與商業(yè)頻道(CNBC)當(dāng)?shù)貢r間13日報道,26歲的美國OpenAI公司前研究員蘇奇爾·巴拉吉近期被發(fā)現(xiàn)在他位于舊金山的公寓內(nèi)自殺身亡。
報道稱OpenAI發(fā)言人也確認(rèn)了Balaji的死訊,其在一份電子郵件中表示,得知這一令人震驚的消息后,公司上下非常悲痛。
“已確定(巴拉吉的)死亡方式為自殺,”舊金山首席法醫(yī)辦公室執(zhí)行主任大衛(wèi)·塞拉諾·休厄爾在一封電子郵件中表示。舊金山警察局也表示,初步調(diào)查顯示,“沒有發(fā)現(xiàn)謀殺的證據(jù)”。
有關(guān)巴拉吉的死訊,美國企業(yè)家馬斯克在社交平臺發(fā)出一個“唔”(Hmm)做出評論。
曾質(zhì)疑GPT對社會弊大于利
巴拉吉是一名印度裔美國人,曾在加州大學(xué)伯克利分校學(xué)習(xí)計算機(jī)科學(xué),大學(xué)期間在OpenAI和Scale AI實(shí)習(xí),畢業(yè)后加入了OpenAI,參與過WebGPT的研發(fā),后來又加入GPT-4的預(yù)訓(xùn)練團(tuán)隊(duì),o1的推理團(tuán)隊(duì)以及ChatGPT的后訓(xùn)練團(tuán)隊(duì)。
據(jù)快科技報道,巴拉吉在接受采訪時,他表示自己離職是因?yàn)橐庾R到這項(xiàng)技術(shù)對社會帶來的弊大于利。
他曾表達(dá)了對OpenAI在版權(quán)法律方面的擔(dān)憂,并認(rèn)為OpenAI的技術(shù)可能對社會造成更多的傷害,而其處理版權(quán)數(shù)據(jù)的方式可能對互聯(lián)網(wǎng)產(chǎn)生負(fù)面影響。
值得注意的是,就在巴拉吉被發(fā)現(xiàn)死亡的前一天,即11月25日,他剛剛被列入了一起針對OpenAI的版權(quán)訴訟中。
OpenAI多名前員工批評公司缺乏法律監(jiān)管
今年6月,數(shù)十位OpenAI前員工通過一封公開信再次警告,像OpenAI這樣的人工智能公司缺乏法律監(jiān)管和內(nèi)部批評機(jī)制,尤其是對“吹哨人”的保護(hù)遠(yuǎn)遠(yuǎn)不夠。該公開信由十三名 OpenAI 前員工簽名,并得到了包括“人工智能教父”Geoffrey Hinton 在內(nèi)的三名外部人員署名支持。
與此前音樂行業(yè)、電影演員行業(yè)的公開警告類似,公開信強(qiáng)調(diào)了AI雙刃劍的屬性:他們相信人工智能技術(shù)可以造福人類,但也看到了風(fēng)險,比如加劇社會不平等,操縱和捏造信息。在生成式AI風(fēng)靡的這兩年,人們已經(jīng)見到了侵犯版權(quán)、深度造假影響政治選舉、AI生成色情圖片等沖突勢不可擋地蔓延至現(xiàn)實(shí)生活。
去年7月,OpenAI、谷歌、微軟、meta、亞馬遜、Anthropic、Inflection曾向拜登政府承諾,愿意接受外部第三方的安全測試,并向外界公開測試結(jié)果。但這一承諾主要是自愿性質(zhì),硬性約束仍為空白。
公開信由此指出一個關(guān)鍵問題:在缺乏硬性監(jiān)管的情況下,不能指望公司自愿披露AI系統(tǒng)的真實(shí)性能、局限和風(fēng)險。員工有責(zé)任要求公司對AI安全風(fēng)險負(fù)責(zé),但員工正受制于公司的保密協(xié)議。
“整個行業(yè)發(fā)生過類似事件,我們中的一些人有理由擔(dān)心各種形式的報復(fù)。我們并不是第一個遇到或談?wù)撨@些問題的人。”公開信暗指的是Ilya Sutskever離職引發(fā)的種種風(fēng)波。半個月前,OpenAI解散了負(fù)責(zé)安全問題的“超級對齊”團(tuán)隊(duì),團(tuán)隊(duì)負(fù)責(zé)人和成員——聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya Sutskever、Jan Leike、Gretchen Krueger 紛紛離職。
據(jù)媒體報道,離職的原因是OpenAI在優(yōu)先保證安全還是優(yōu)先推出產(chǎn)品上有分歧。Jan Leike在社交平臺上的發(fā)言直接證明了一點(diǎn),他披露OpenAI曾直接砍掉“超級對齊”部門的算力資源,部門被邊緣化。隨后外媒曝光了OpenAI的離職協(xié)議,指出公司禁止離職員工公開批評公司,甚至禁止承認(rèn)保密協(xié)議的存在。
根據(jù)美國的《吹哨人保護(hù)法》(Whistleblower Protection Act),舉報工資違規(guī)、歧視、安全和欺詐等問題的員工受到保護(hù),這意味著公司不能用解雇、降職等方式報復(fù)舉報人。但簽署公開信的前員工們稱,AI安全風(fēng)險問題往往不是非法活動,普通的法律保護(hù)措施是不夠的。他們因此呼吁人工智能公司取消禁止批評的保密協(xié)議、建立匿名舉報流程,并建設(shè)支持公開批評的公司文化。
公開資料顯示,谷歌、Meta、亞馬遜、微軟等公司均有成立專門的內(nèi)部安全團(tuán)隊(duì),確保公司負(fù)責(zé)地開發(fā)AI系統(tǒng)。目前,OpenAI也已新建了由Sam Altman領(lǐng)導(dǎo)的安全團(tuán)隊(duì),其首要任務(wù)是評估OpenAI的安全流程和政策,由董事會拍板最終方案。不過,安全團(tuán)隊(duì)的三位負(fù)責(zé)人均在董事會任職,因此外界也質(zhì)疑其能否真正解決安全隱患。OpenAI員工的舉報信無疑加深了這一擔(dān)憂和反思,在沒有硬性監(jiān)管的約束下,僅靠公司的自我約束能不能給予安全問題足夠重視?需要打上一個問號。
來源:21世紀(jì)經(jīng)濟(jì)報道(肖瀟)、環(huán)球網(wǎng)、快科技
本文鏈接:他被證實(shí)自殺身亡,年僅26歲,馬斯克評論http://www.sq15.cn/show-2-9787-0.html
聲明:本網(wǎng)站為非營利性網(wǎng)站,本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會到餡餅,請大家謹(jǐn)防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。