AI陪伴成隱憂?美FTC宣布調查聊天機器人對未成年人風險
財聯社9月12日訊(編輯 趙昊)當地時間周四(9月11日),美國聯邦貿易委員會(FTC)宣布已向七家公司發出命令,要求他們提供信息,以了解人工智能聊天機器人可能對兒童和青少年的負面影響。
七家公司分別為谷歌母公司Alphabet、OpenAI、Meta、Meta旗下的子公司Instagram、Snap、xAI以及Character Technologies Inc.(Character.AI的開發商)。
這家監管機構表示,人工智能(AI)聊天機器人可能被用于模擬類人交流以及與用戶建立人際關系,因此需要了解這些公司采取了哪些措施來“評估機器人在充當陪伴者時的安全性”。
聲明提到,AI聊天機器人能夠有效地模仿人類的特征、情感和意圖,并且通常被設計成像朋友或知己一樣進行交流,這可能會促使一些用戶,尤其是兒童和青少年,信任聊天機器人并與其建立關系。
FTC主席安德魯?弗格森(Andrew Ferguson)在聲明中表示,保護兒童的網絡安全是特朗普政府時期FTC的首要任務,同時該部門也致力于推動經濟關鍵領域的創新。
FTC表示,其尋求的信息包括這些公司如何通過用戶互動變現、如何開發和批準角色、如何使用和共享個人信息、如何監控并執行公司規則和服務條款的合規性,以及如何減輕負面影響等問題。
OpenAI回應道:“我們的首要任務是讓ChatGPT對所有人都有用且安全,尤其在涉及年輕用戶時,安全性至關重要。我們理解FTC存在一些問題和擔憂,我們承諾將積極配合并直接回應。”
自2022年底ChatGPT推出以來,大量聊天機器人相繼面世。與此同時,這些聊天機器人也帶來了越來越多的倫理和隱私擔憂。
盡管行業仍處于早期階段,但聊天機器人“陪伴”功能可能會對社會產生深遠影響,尤其是在美國正經歷“孤獨流行病”的背景下。
2023年時,美國政府醫療總監辦公室曾公布了81頁針對孤獨危機的報告。報告指出,有約一半的美國人每天都會感到孤獨。
研究表明,缺乏社會聯系的人早逝風險比社會聯系充分的人高出26%。缺乏社會聯系還可能增加多種疾病風險,包括心臟病、中風、抑郁癥等。
專家還表示,一旦AI技術開始自己訓練自己,倫理與安全問題可能會進一步加劇,甚至導致不可預測的結果。
當下,全球一些最富有的企業家正在推動“陪伴型 AI”的發展。其中最知名的當屬xAI推出的“AI伴侶”Ani――她的設定是一個金發碧眼、梳著辮子的女性人物。
在Ani上線將滿30天時,馬斯克透露,搭載該功能的Grok應用月活突破2000萬,其中付費用戶超400萬,核心用戶日均互動時長2.5小時,驗證了情感交互場景的用戶粘性。
不過,界定情感交互的邊界非常復雜。上月,Meta在監管壓力下調整了其AI聊天機器人的相關政策。
本月早些時候,OpenAI被迫推出一項政策,允許家長在系統檢測到“嚴重痛苦”時鏈接帳戶并接收警報。
本文鏈接:AI陪伴成隱憂?美FTC宣布調查聊天機器人對未成年人風險http://www.sq15.cn/show-5-68731-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。