中國互聯網絡信息中心日前發布了《生成式人工智能應用發展報告(2025)》。報告顯示,我國生成式人工智能產品用戶規模已達5.15億人。報告同時也提出,隨著生成式人工智能的高速普及,其帶來的換臉換聲、版權侵權、學術濫用等問題也越發凸顯。這些問題在實踐中存在哪些表現?如何治理和應對這些風險挑戰?
利用AI換臉換聲生成虛假廣告案件頻發
生成式人工智能的多模態能力,可以讓用戶輕易給視頻中的人物換臉換聲,甚至直接生成完全虛構的視頻,給不法分子帶來可乘之機。近期就發生了多起AI換臉換聲,生成虛假廣告的案件。比如,有的偽造奧運冠軍推薦土雞蛋,還有的偽造醫生形象推銷保健品,嚴重誤導公眾。
這些換聲和換臉的AI深度合成是如何制作出來的呢?面對這些以假亂真的視頻,又該如何識別?
業內人士告訴記者,隨著AI換聲換臉技術的越來越成熟,已經足以達到以假亂真的地步。分辨一段視頻或者聲音是否是經過深度合成,最好的辦法還是通過AI去識別,即用AI去識別AI。
人工智能大模型研究員 潘季明:從技術角度來說,最快的方式還是基于AI的方式去進行識別,如專門的深度偽造鑒別模型,用于分析視頻和音頻中的不自然的特征,如檢測眨眼頻率、面部肌肉運動的生理一致性、音頻與純嘴唇同步率、光源一致性等細微的物理或生理破綻。
專家:治理核心在于全面落實內容標識制度
近兩年,AI深度合成名人、換臉換聲的視頻層出不窮、屢禁不止。對此,專家表示,治理的核心在于全面落實內容標識制度。
北京航空航天大學法學院副教授 趙精武:我國自2025年9月起正式施行了《人工智能生成合成內容標識辦法》,其中明確要求,所有AI生成的文字、圖片、視頻等內容必須添加顯式標識以"亮明身份",同時鼓勵添加數字水印等隱式標識。平臺企業應當依據《人工智能生成合成內容標識辦法》,從源頭嵌入標識機制,為AI生成內容附加不可篡改的數字水印,并確保這些標識在經過剪輯、壓縮后仍能被準確識別。
專家表示,AI深度合成的使用者在通過AI制作視頻時,應該有一條侵權法律界限,要合規合法使用人工智能深度合成。
北京航空航天大學法學院副教授 趙精武:在明確合法性邊界方面,需要嚴格區分AI換臉技術的合法應用與非法濫用的邊界。合法應用通常包括影視制作、教育教學、醫療康復等具有正當價值的場景,這些應用需遵循法律上規定最小必要原則,確保使用范圍和目的相匹配,并獲取相應授權。而非法濫用則主要表現為未經授權的肖像冒用、虛假信息傳播、淫穢色情內容制作等場景。
AI大模型訓練引發版權問題 矛盾怎么破?
再來看人工智能帶來的版權侵權問題。早在去年10月,文學界、音樂界等超萬名人士發表了一份聯合聲明,譴責“未經許可使用創意作品來訓練生成式人工智能”的行為。人工智能大模型使用的數據為何會引起版權爭端,又該如何破局,來聽聽專家怎么說。
AI業內人士告訴記者,目前人工智能大模型訓練的數據,絕大多數來自于網絡,這些數據就包括含有版權的相關數據。
人工智能大模型研究員 潘季明:現有的大模型都是基于海量的數據進行訓練的,其來源包括像互聯網數據,以及圖書、論文、行業數據等,經過數據預處理,通過無監督學習、微調、強化學習之后,便可用于內容生成。然而模型是沒有版權意識的,它不知道哪些內容是涉及版權,哪些不能隨便生成,除非對現在數據進行一個明確的版權標識。現在的大模型基本上不管有沒有版權,都會去進行一個數據抓取訓練。
針對人工智能大模型涉及的版權問題,專家表示,發展人工智能不能以犧牲版權為代價,兩者和諧共生應以尊重知識產權為前提。
北京航空航天大學法學院副教授趙精武介紹,AI開發運營者需建立全面的著作權合規機制,包括:在訓練數據收集階段進行版權審核,優先獲取授權和使用開放許可的資源;在模型訓練過程中保留數據來源記錄;在內容生成環節嵌入防抄襲檢測;在輸出階段需要添加版權標識和水印。
另一方面,主管部門需要擴充訓練數據供給渠道,化解訓練數據不充分與版權的沖突困境。
學生和研究人員濫用AI寫論文抄作業引關注
除了剛才說到的問題,報告中也提到,學生和研究人員將生成式人工智能用于寫論文、抄作業的情況也正引起各界關注。
專家表示,隨著生成式人工智能在學術研究中的廣泛應用,學術誠信體系面臨前所未有的挑戰。簡單的禁止措施已被證明效果不彰,且難以執行。“堵不如疏”的治理理念正成為全球學術界的共識,其核心在于認可AI技術提升科研效率的積極價值,同時通過規范引導確保其應用不損害學術誠信。
北京航空航天大學法學院副教授 趙精武:在教學活動中,教師應當設置專門環節引導學生正確使用AI工具,將該類工具從“偷懶”“圖省事”的錯誤定位調整為“提升學習效率”“輔助科研”的正確功能定位,明確它的輔助定位的屬性。同時,教師還需要設計能夠評估學生思維過程的考核方式,減少對純文本輸入的依賴,增加過程性評價比重。
中國互聯網絡信息中心日前發布了《生成式人工智能應用發展報告(2025)》。報告顯示,我國生成式人工智能產品用戶規模已達5.15億人。報告同時也提出,隨著生成式人工智能的高速普及,其帶來的換臉換聲、版權侵權、學術濫用等問題也越發凸顯。這些問題在實踐中存在哪些表現?如何治理和應對這些風險挑戰?
利用AI換臉換聲生成虛假廣告案件頻發
生成式人工智能的多模態能力,可以讓用戶輕易給視頻中的人物換臉換聲,甚至直接生成完全虛構的視頻,給不法分子帶來可乘之機。近期就發生了多起AI換臉換聲,生成虛假廣告的案件。比如,有的偽造奧運冠軍推薦土雞蛋,還有的偽造醫生形象推銷保健品,嚴重誤導公眾。
這些換聲和換臉的AI深度合成是如何制作出來的呢?面對這些以假亂真的視頻,又該如何識別?
業內人士告訴記者,隨著AI換聲換臉技術的越來越成熟,已經足以達到以假亂真的地步。分辨一段視頻或者聲音是否是經過深度合成,最好的辦法還是通過AI去識別,即用AI去識別AI。
人工智能大模型研究員 潘季明:從技術角度來說,最快的方式還是基于AI的方式去進行識別,如專門的深度偽造鑒別模型,用于分析視頻和音頻中的不自然的特征,如檢測眨眼頻率、面部肌肉運動的生理一致性、音頻與純嘴唇同步率、光源一致性等細微的物理或生理破綻。
專家:治理核心在于全面落實內容標識制度
近兩年,AI深度合成名人、換臉換聲的視頻層出不窮、屢禁不止。對此,專家表示,治理的核心在于全面落實內容標識制度。
北京航空航天大學法學院副教授 趙精武:我國自2025年9月起正式施行了《人工智能生成合成內容標識辦法》,其中明確要求,所有AI生成的文字、圖片、視頻等內容必須添加顯式標識以"亮明身份",同時鼓勵添加數字水印等隱式標識。平臺企業應當依據《人工智能生成合成內容標識辦法》,從源頭嵌入標識機制,為AI生成內容附加不可篡改的數字水印,并確保這些標識在經過剪輯、壓縮后仍能被準確識別。
專家表示,AI深度合成的使用者在通過AI制作視頻時,應該有一條侵權法律界限,要合規合法使用人工智能深度合成。
北京航空航天大學法學院副教授 趙精武:在明確合法性邊界方面,需要嚴格區分AI換臉技術的合法應用與非法濫用的邊界。合法應用通常包括影視制作、教育教學、醫療康復等具有正當價值的場景,這些應用需遵循法律上規定最小必要原則,確保使用范圍和目的相匹配,并獲取相應授權。而非法濫用則主要表現為未經授權的肖像冒用、虛假信息傳播、淫穢色情內容制作等場景。
AI大模型訓練引發版權問題 矛盾怎么破?
再來看人工智能帶來的版權侵權問題。早在去年10月,文學界、音樂界等超萬名人士發表了一份聯合聲明,譴責“未經許可使用創意作品來訓練生成式人工智能”的行為。人工智能大模型使用的數據為何會引起版權爭端,又該如何破局,來聽聽專家怎么說。
AI業內人士告訴記者,目前人工智能大模型訓練的數據,絕大多數來自于網絡,這些數據就包括含有版權的相關數據。
人工智能大模型研究員 潘季明:現有的大模型都是基于海量的數據進行訓練的,其來源包括像互聯網數據,以及圖書、論文、行業數據等,經過數據預處理,通過無監督學習、微調、強化學習之后,便可用于內容生成。然而模型是沒有版權意識的,它不知道哪些內容是涉及版權,哪些不能隨便生成,除非對現在數據進行一個明確的版權標識?,F在的大模型基本上不管有沒有版權,都會去進行一個數據抓取訓練。
針對人工智能大模型涉及的版權問題,專家表示,發展人工智能不能以犧牲版權為代價,兩者和諧共生應以尊重知識產權為前提。
北京航空航天大學法學院副教授趙精武介紹,AI開發運營者需建立全面的著作權合規機制,包括:在訓練數據收集階段進行版權審核,優先獲取授權和使用開放許可的資源;在模型訓練過程中保留數據來源記錄;在內容生成環節嵌入防抄襲檢測;在輸出階段需要添加版權標識和水印。
另一方面,主管部門需要擴充訓練數據供給渠道,化解訓練數據不充分與版權的沖突困境。
學生和研究人員濫用AI寫論文抄作業引關注
除了剛才說到的問題,報告中也提到,學生和研究人員將生成式人工智能用于寫論文、抄作業的情況也正引起各界關注。
專家表示,隨著生成式人工智能在學術研究中的廣泛應用,學術誠信體系面臨前所未有的挑戰。簡單的禁止措施已被證明效果不彰,且難以執行。“堵不如疏”的治理理念正成為全球學術界的共識,其核心在于認可AI技術提升科研效率的積極價值,同時通過規范引導確保其應用不損害學術誠信。
北京航空航天大學法學院副教授 趙精武:在教學活動中,教師應當設置專門環節引導學生正確使用AI工具,將該類工具從“偷懶”“圖省事”的錯誤定位調整為“提升學習效率”“輔助科研”的正確功能定位,明確它的輔助定位的屬性。同時,教師還需要設計能夠評估學生思維過程的考核方式,減少對純文本輸入的依賴,增加過程性評價比重。
本文鏈接:換臉換聲、版權侵權 生成式AI使用如何筑牢“防火墻”?http://www.sq15.cn/show-2-14061-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。