11月21日,以“人工智能時代的科技倫理”為主題的第三屆中國科技倫理論壇在復旦大學開幕。
開幕式上,中國科學院院士、復旦大學校長金力在致辭中指出,人工智能(AI)、腦機接口等新興技術的迅猛發(fā)展,對科技倫理的發(fā)展提出了更高要求,科技倫理是平衡創(chuàng)新與價值的文明基石。復旦大學致力于構建中國科技倫理話語體系的步伐從未停歇,已率先成立科技倫理研究院、設立應用倫理專業(yè)碩士、發(fā)布全球首個專為科技倫理審查打造的AI智能體系統(tǒng)“一鑒”。
中國科協(xié)黨組成員、書記處書記王進展表示,當前以AI為代表的新興技術加速迭代,科技倫理挑戰(zhàn)的復雜性、全球性愈發(fā)凸顯。對此他提出三點建議:把握以人為本科技向善的基本原則,加強人工智能倫理規(guī)范建設;加快推進中國科技倫理學會建設,強化學術共同體支撐作用;系統(tǒng)構建科技倫理自主知識體系,提升國際話語權。
隨后的主旨報告環(huán)節(jié),復旦大學教授楊珉介紹了復旦大學白澤大模型動態(tài)安全合規(guī)測評平臺,不僅能高效完成基礎大模型評測,更能以此為抓手,為國家安全治理提供前瞻性的決策支撐。在AI風險預警方面,楊珉團隊對32款開源大模型進行了測試,發(fā)現已有11款大模型具備自主復制能力,揭示了大模型的潛在失控風險。他呼吁建立跨學科治理機制,確保AI在可控軌道上發(fā)展。
首都師范大學教授王淑芹強調,以AI技術為代表的現代科學技術已成為繼政治、土地、資本之后影響人類命運的“第四種力量”,其工具價值必須始終受到人類目的價值的統(tǒng)領。智能體本質上是人的意圖和目的的載體,價值對齊的責任最終落在人的身上,科技工作者應當使算法體現人類共識性的普遍價值原則。而面對法律規(guī)制固有的滯后性,美德倫理發(fā)揮著不可或缺的補充作用。
中國人民大學教授龔群認為,生成式人工智能(AICG)的倫理風險根植于工具理性與價值理性的現代性沖突,目前存在三大核心風險,即黑箱的存在帶來監(jiān)管困境與倫理風險、機器幻覺造成事實與感知判斷錯誤、平臺收集個人信息帶來隱私風險。龔群主張確認以人的責任為核心的治理體系,加強算法審計的制度建設,并關注個人數據權利保護,實現技術進步與人本價值的和諧統(tǒng)一。
隨后,復旦大學哲學學院教授王國豫與華東師范大學終身教授袁振國展開了一場主題對談。兩位學者聚焦“人工智能時代的教育重塑與倫理邊界”這一議題,以近期引發(fā)學界熱議的“華東師大首發(fā)AI‘主筆’論文征集”實驗為切入點,深入辨析了人機協(xié)作中的責任歸屬難題與創(chuàng)造力的本質內涵。
最后,中國工程院院士、同濟大學黨委書記鄭慶華帶來題為《人機價值對齊問題的認識和思考》的特邀報告。鄭慶華認為,AI技術快速發(fā)展伴隨著算法偏見、AI幻覺與知識產權模糊等諸多風險,這背后的根本癥結在于人類價值觀的復雜模糊與AI追求目標的精確性間存在沖突。鄭慶華提出,人與AI應雙向對齊,AI需通過人類反饋強化學習實現價值觀校準,而人類則需適應人機協(xié)同的新范式。最終實現人機價值對齊需構建一個多維度、持續(xù)演進的體系,推動技術、治理與文化三方攜手共進。
本屆論壇由中國科技倫理學會(籌)主辦,中國科協(xié)-復旦大學科技倫理與人類未來研究院、復旦大學哲學學院和中國科協(xié)創(chuàng)新戰(zhàn)略研究院承辦。
本文鏈接:推動科技向善,第三屆中國科技倫理論壇在上海舉行http://www.sq15.cn/show-11-28585-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯(lián)網博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯(lián)系,我們將在第一時間刪除處理。