生成式人工智能工具能夠根據相關提示生成文本,雖然提高了寫作效率,但也模糊了學術不端行為的界限。英國《自然》雜志日前發表的一篇文章說,隨著ChatGPT等生成式人工智能工具的快速普及,學術界正面臨一場關于誠信的新挑戰。
根據《自然》雜志去年對全球1600名研究人員的調查,68%的受訪者認為生成式人工智能工具將使抄襲變得更容易且更難檢測。
文章指出,生成式人工智能工具如ChatGPT基于大語言模型,通過學習大量已發表的文本生成新內容。這種方式可能導致類似抄襲的情況,例如研究人員將生成式人工智能工具生成的文本當作自己的作品,或者生成的文本與某人的作品非常相似卻未注明來源。
文章提出一個核心問題:使用完全由機器(而不是人類)編寫的未注明來源的內容是否算抄襲。
一些研究機構將未經授權使用生成式人工智能工具定義為“未經授權內容生成”,而非傳統意義上的抄襲。德國柏林應用科技大學的德博拉·韋伯-伍爾夫教授認為,傳統意義上的抄襲通常指可歸因于另一個具體作者的內容。
也有一些人認為,生成式人工智能工具侵犯了版權。抄襲和侵犯版權都是對他人作品的不當使用,而抄襲違反了學術道德,未經授權使用受版權保護的作品則可能違反法律。“畢竟,這些人工智能系統是建立在數百萬甚至數億人的工作之上的。”美國密歇根大學計算機專家拉達·米哈爾恰說。
文章還指出,盡管存在爭議,生成式人工智能工具在學術寫作中的使用量仍在增加。一項研究顯示,2024年上半年,至少10%的生物醫學論文摘要使用了大語言模型。人工智能工具不僅簡化了寫作過程,還能幫助非英語母語的研究人員克服語言障礙。
專家呼吁制定更明確的政策和指導,以規范人工智能工具在學術寫作中的使用,確保學術誠信。
生成式人工智能工具能夠根據相關提示生成文本,雖然提高了寫作效率,但也模糊了學術不端行為的界限。英國《自然》雜志日前發表的一篇文章說,隨著ChatGPT等生成式人工智能工具的快速普及,學術界正面臨一場關于誠信的新挑戰。
根據《自然》雜志去年對全球1600名研究人員的調查,68%的受訪者認為生成式人工智能工具將使抄襲變得更容易且更難檢測。
文章指出,生成式人工智能工具如ChatGPT基于大語言模型,通過學習大量已發表的文本生成新內容。這種方式可能導致類似抄襲的情況,例如研究人員將生成式人工智能工具生成的文本當作自己的作品,或者生成的文本與某人的作品非常相似卻未注明來源。
文章提出一個核心問題:使用完全由機器(而不是人類)編寫的未注明來源的內容是否算抄襲。
一些研究機構將未經授權使用生成式人工智能工具定義為“未經授權內容生成”,而非傳統意義上的抄襲。德國柏林應用科技大學的德博拉·韋伯-伍爾夫教授認為,傳統意義上的抄襲通常指可歸因于另一個具體作者的內容。
也有一些人認為,生成式人工智能工具侵犯了版權。抄襲和侵犯版權都是對他人作品的不當使用,而抄襲違反了學術道德,未經授權使用受版權保護的作品則可能違反法律。“畢竟,這些人工智能系統是建立在數百萬甚至數億人的工作之上的。”美國密歇根大學計算機專家拉達·米哈爾恰說。
文章還指出,盡管存在爭議,生成式人工智能工具在學術寫作中的使用量仍在增加。一項研究顯示,2024年上半年,至少10%的生物醫學論文摘要使用了大語言模型。人工智能工具不僅簡化了寫作過程,還能幫助非英語母語的研究人員克服語言障礙。
專家呼吁制定更明確的政策和指導,以規范人工智能工具在學術寫作中的使用,確保學術誠信。
本文鏈接:生成式人工智能在學術界引發誠信爭議http://www.sq15.cn/show-2-7783-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
下一篇: 我國風電光伏發電裝機超過煤電裝機