“科研誠信是科學事業的基石,面對人工智能帶來的新形勢,我們應更加堅守誠信底線,推動制度、技術與文化的協同治理,營造公開透明、誠實守信、風清氣正的科研生態。”中國科學院學部科學道德建設委員會主任胡海巖指出。
9月26日,中國科學院學部科技倫理研討會在北京舉辦。會議主題為“人工智能時代的科研誠信”,由中國科學院學部科學道德建設委員會主辦。來自全國相關領域的專家學者圍繞人工智能時代科研不端行為的界定與特征、審查與監管以及人工智能在科研中的使用邊界、倫理紅線等方面暢所欲言,為人工智能時代推進科研誠信建設建言獻策。
AI給科研誠信帶來新挑戰
從ChatGPT等大語言模型問世以來,人工智能已廣泛應用于知識獲取、數據分析、學術寫作,極大提升了學習和研究效率,人工智能的介入使得學術活動的主體構成發生了根本性變化。同時,“算法參與”的科研模式也導致了貢獻度界定模糊、過程透明度降低、結果不可解釋性增加等一系列新問題。
“AI的應用,至少從兩個方面加劇了傳統的科研不端行為。一是生成式AI速度快,大幅降低了造假成本;二是目前大語言模型生成內容的結構、格式、語法,都呈現出較高水準,檢測判斷的難度急劇增加。”北京大學教授梅宏指出。
梅宏提到了最近發生的一起“操縱AI審稿”案例。國外某大學計算機科學助理教授與他人合著的一篇論文的頁面空白處,有用白色字體寫的“僅限正面評價”的字樣,肉眼無法看到,用鼠標光標選中后才能“露出真容”。目前,有不少審稿人借助AI進行審稿、給出審稿意見,如果這篇論文由AI進行審稿,AI識別出“僅限正面評價”的指令,便會只給正面審稿意見,誤導審稿人。
類似的情況并非個例。南京大學黨委書記譚鐵牛在報告中也提到了多個操縱AI編造論文的案例,如編造英文詞組、虛構參考文獻、篡改數據等。
譚鐵牛表示,AI至少給科研誠信帶來三方面的新挑戰,比如難以界定篡改、偽造行為,難以界定AI代寫論文、代寫代碼等行為,同時AI參與同行評議也引發了一系列爭議。
保障科研誠信關鍵在“人”
國家自然科學基金委員會原副主任韓宇在報告中提出,目前已經到了人智與機智共存的時代,我們需要思考,未來該以人為本還是以人機為本?
與會專家的基本共識是,在科研中,AI不應替代科學家進行創造性勞動和學術判斷,而應作為輔助性工具。
“科研誠信問題不一定與AI有明確關系,在AI賦能科學以前,就存在各種各樣的造假和不嚴謹的問題,AI只是將其加速了,或者使這些問題更加隱蔽。”中國科學院自動化研究所研究員張兆翔說,“科研誠信問題與人本身有關,所以應該做好人的事情。”
清華大學社會科學學院教授李正風表示,AI時代放大了傳統科研誠信建設中的薄弱之處,傳統科研誠信建設中的一大問題就是違規成本太低。
現場還有不少專家明確提出,要明確AI使用邊界和倫理紅線,比如科研數據的生成、科研成果的屬性和引用,必須是由人來負責,科研中的價值判斷、實驗設計和結果解讀不能完全由AI來替代完成,科研共同體急需建立統一的AI使用規范和標注機制。
呼吁出臺應對AIGC的國家政策
2023年9月,中國科學技術信息研究所聯合愛思唯爾、施普林格·自然、約翰威立國際出版集團三家國際出版集團發布《學術出版中AIGC使用邊界指南》(以下簡稱《指南》),旨在應對人工智能生成內容(AIGC)在學術領域的快速普及帶來的挑戰,防止學術不端,加強誠信治理。2025年的最新版《指南》正在籌備發布中。
與會專家提到,《指南》目前僅作為行業推薦性標準,而非國家強制性標準,這是因為,當前AIGC還處于迅猛發展期,成為強制性標準后,可能會對整個科研生態甚至國際科研的生態帶來較大影響,目前的時機還不合適。
北京航空航天大學人文與社會科學高等研究院副教授和鴻鵬在報告中指出,目前國內沒有應對AIGC的整體頂層設計,高校和科研機構中也缺乏相關的規范。同時,各方對于AIGC的使用邊界還存在爭議。
“我們認為,出臺相關的國家政策非常必要,應該按照從無到有、先有后優的思路,明確在科研中使用AIGC的基本態度、指導原則、責任主體等,同時對已有政策做出調整。到了研究機構層面,就可以依據上位政策出臺具體的規范。”和鴻鵬說。
本文鏈接:AI時代,科研誠信難題怎么解?http://www.sq15.cn/show-11-27064-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
下一篇: 北京科學中心有新玩法:打造花園式科學教育