參考消息網3月13日報道 《日本經濟新聞》2月26發表日本早稻田大學教授上野達弘的文章《生成式AI的“光與影”》,文章認為,生成式AI的“陰暗面”不在于學習,而在于生成。如果不能對二者做出清晰界定,有可能給生成式AI的光明一面蒙上陰影。文章編譯如下:
生成式人工智能(AI)的發展贏得全球矚目已經一年有余,我們正在見證這一新技術帶來的正負兩方面影響。
自動翻譯、摘要、編程支持……生成式AI帶給社會和生活的便利等正面影響已經無需過多提及。與此同時,圍繞其負面影響,生成式AI也引發了諸如虛假和錯誤信息泛濫、侵犯知識產權等問題。
近來尤其引發討論熱度的是對他人的形象和聲音進行模仿的深偽技術。烏克蘭戰爭爆發后的2022年3月,一則烏克蘭總統澤連斯基向民眾發布“投降聲明”的虛假視頻出現在互聯網上,2024年1月,“日本能登半島地震引發海嘯”的偽造視頻也廣為流傳。
此外還有侵犯著作權的問題。如果生成式AI產出的圖像和文本與他人著作在具體的創意表現層面存在雷同,可能會構成侵權。2023年12月,美國《紐約時報》就曾對研發ChatGPT的美國開放人工智能研究中心(OpenAI)涉嫌侵犯著作權一事提起訴訟。雖然訴訟的結果現在還無法預測,但如果輸出的文本與已有新聞報道在創意性表達上存在雷同,可能會被判定侵犯著作權。
當然,無論是侵犯著作權還是深偽技術,都不是今天才有的。依據現有的法律制度基本上可以處理這些違法和有害的產出。但是隨著飛速進步的生成式AI的出現,任何人都可以輕松創建內容,這一點是不爭的事實。所以想要切實杜絕違法有害內容的生產,必須采取包括研發相關技術措施在內的有效對策。
不過本文想討論的不是生成式AI的“產出”,而是“輸入”,即人工智能的學習和版權問題。近來圍繞這一話題產生了激烈爭論。
首當其沖的就是日本《著作權法》中一項名為“信息分析規定”的條款。該條款規定,如果以信息分析為目的,原則上可以免費大量使用受版權保護的作品。該條款于2009年實施,并于2018年針對人工智能進行了擴展。
在2022年ChatGPT和圖像生成式AI取得飛躍進步后,創作者和媒體尤其開始對這一條款表現出擔憂。人們強烈反對生成式AI未經授權使用新聞內容。創作者中也存在反對開發生成式AI的聲音,因為這種AI技術能夠批量生成與特定藝術家畫風或風格相同的作品。
信息分析條款覆蓋的目標行為不只局限于AI學習,還包括對大規模數據的分析。例如通過收集和綜合研判社交媒體上的帖子預測未來趨勢,或者通過綜合分析大量的醫學論文來研發新的藥物和治療方法。這種大規模的數據分析固然給社會帶來便利,但是鑒于版權不僅適用于學術論文,也同樣適用于網絡上的帖文,所以如果沒有涉及信息分析的法律規定,全面分析事實上也將無法實現。
繼日本于2009年在全球率先為信息分析立法后,英國、德國、法國、新加坡也相繼引入了同樣規定。日本在法律制度層面領先全球并不常見,應當說日本在這方面是有先見之明的。
筆者將日本稱為“機器學習天堂”,從2016年左右開始就一直在呼吁充分發揮信息分析條款的作用。雖然很難講日本企業已經充分利用了這一規定,但還是可以期待從現在開始發展出新的業務和服務。
信息分析條款可能會被理解為給著作權設限,而非優先發展商業活動。
但是如果從這一規定制定的初衷看,這種觀點并不正確。日本《著作權法》中的信息分析條款屬于有關所謂“非享受性使用”(并非以鑒賞等為目的使用作品)的規定。所謂著作權這種權利是因為通過鑒賞作品等方式滿足了人類的享受而受到保護,以此為前提,在無法享受作品的情況下,不能理解為是著作權受到了侵害。
由此可見,對大量作品進行信息分析一事因為并沒有人以鑒賞等為目的使用這些作品,所以也就可以認定為非享受性使用。日本的信息分析條款不過是給予那些本來就不涉及著作權的行為以自由。這種思路是在2018年《著作權法》修訂時提出的,作為一種適應新時代的著作權制度的理論框架而受到全世界的關注。
不應當誤解的是,信息分析條款絕不是為生成式AI隨意使用所有版權作品大開綠燈。也就是說,這一條款只是對“學習”的許可,至于“生成”就是另一個問題了。所以當生成式AI的產出在創意表達層面與他人的版權作品發生雷同時,自然會構成侵權。
另一方面,如果生成式AI的產出僅在事實或風格上與他人的受版權保護作品相似,則這種產出并不構成侵權。這雖然是《著作權法》的大原則,但還是有聲音主張,即便產出合法,還是應當阻止未經許可將版權作品提供給AI進行學習的行為。
不過即便以著作權的名義阻止AI學習,也不可能杜絕侵權和深偽技術造假。對于違法的有害產出,還是需要在阻止產出本身這方面下功夫。且不說借著作權限制AI學習能否奏效,甚至可能妨礙對各領域海量數據的分析,這很難講就是上策。
舉例來說,即便信息分析不涉及著作權,出于分析目的締結數據提供合同也是可能且有用的。對于從事信息分析的人來說,假設《著作權法》允許其個人收集雜志文章和報紙文章,那么通過與權利人簽訂合同、以適合分析的方式全面獲取數字數據也將帶來重大利好。事實上,OpenAI在2023年7月和12月就分別與美聯社和德國阿克塞爾·施普林格集團簽署協議,允許以AI學習為目的使用上述機構旗下媒體的新聞報道。
沒有權利就不締結合同,這種觀點是誤解,與實際情況恰好相反。內容持有者與其期待通過著作權限制AI學習,不如以簽署合同提供數據等著作權之外的手段探索共存之道。
生成式AI的“陰暗面”不在于學習,而在于生成。如果不能對二者做出清晰界定,有可能給生成式AI的光明一面蒙上陰影。作為信息分析條款誕生地的日本一方面要堅持維護信息分析的自由,同時也應當為防止非法有害輸出貢獻智慧。因為早晚有一天人們會習慣生成式AI,恐懼AI學習能力的聲音也將成為歷史的回響。(編譯/劉林)
參考消息網3月13日報道 《日本經濟新聞》2月26發表日本早稻田大學教授上野達弘的文章《生成式AI的“光與影”》,文章認為,生成式AI的“陰暗面”不在于學習,而在于生成。如果不能對二者做出清晰界定,有可能給生成式AI的光明一面蒙上陰影。文章編譯如下:
生成式人工智能(AI)的發展贏得全球矚目已經一年有余,我們正在見證這一新技術帶來的正負兩方面影響。
自動翻譯、摘要、編程支持……生成式AI帶給社會和生活的便利等正面影響已經無需過多提及。與此同時,圍繞其負面影響,生成式AI也引發了諸如虛假和錯誤信息泛濫、侵犯知識產權等問題。
近來尤其引發討論熱度的是對他人的形象和聲音進行模仿的深偽技術。烏克蘭戰爭爆發后的2022年3月,一則烏克蘭總統澤連斯基向民眾發布“投降聲明”的虛假視頻出現在互聯網上,2024年1月,“日本能登半島地震引發海嘯”的偽造視頻也廣為流傳。
此外還有侵犯著作權的問題。如果生成式AI產出的圖像和文本與他人著作在具體的創意表現層面存在雷同,可能會構成侵權。2023年12月,美國《紐約時報》就曾對研發ChatGPT的美國開放人工智能研究中心(OpenAI)涉嫌侵犯著作權一事提起訴訟。雖然訴訟的結果現在還無法預測,但如果輸出的文本與已有新聞報道在創意性表達上存在雷同,可能會被判定侵犯著作權。
當然,無論是侵犯著作權還是深偽技術,都不是今天才有的。依據現有的法律制度基本上可以處理這些違法和有害的產出。但是隨著飛速進步的生成式AI的出現,任何人都可以輕松創建內容,這一點是不爭的事實。所以想要切實杜絕違法有害內容的生產,必須采取包括研發相關技術措施在內的有效對策。
不過本文想討論的不是生成式AI的“產出”,而是“輸入”,即人工智能的學習和版權問題。近來圍繞這一話題產生了激烈爭論。
首當其沖的就是日本《著作權法》中一項名為“信息分析規定”的條款。該條款規定,如果以信息分析為目的,原則上可以免費大量使用受版權保護的作品。該條款于2009年實施,并于2018年針對人工智能進行了擴展。
在2022年ChatGPT和圖像生成式AI取得飛躍進步后,創作者和媒體尤其開始對這一條款表現出擔憂。人們強烈反對生成式AI未經授權使用新聞內容。創作者中也存在反對開發生成式AI的聲音,因為這種AI技術能夠批量生成與特定藝術家畫風或風格相同的作品。
信息分析條款覆蓋的目標行為不只局限于AI學習,還包括對大規模數據的分析。例如通過收集和綜合研判社交媒體上的帖子預測未來趨勢,或者通過綜合分析大量的醫學論文來研發新的藥物和治療方法。這種大規模的數據分析固然給社會帶來便利,但是鑒于版權不僅適用于學術論文,也同樣適用于網絡上的帖文,所以如果沒有涉及信息分析的法律規定,全面分析事實上也將無法實現。
繼日本于2009年在全球率先為信息分析立法后,英國、德國、法國、新加坡也相繼引入了同樣規定。日本在法律制度層面領先全球并不常見,應當說日本在這方面是有先見之明的。
筆者將日本稱為“機器學習天堂”,從2016年左右開始就一直在呼吁充分發揮信息分析條款的作用。雖然很難講日本企業已經充分利用了這一規定,但還是可以期待從現在開始發展出新的業務和服務。
信息分析條款可能會被理解為給著作權設限,而非優先發展商業活動。
但是如果從這一規定制定的初衷看,這種觀點并不正確。日本《著作權法》中的信息分析條款屬于有關所謂“非享受性使用”(并非以鑒賞等為目的使用作品)的規定。所謂著作權這種權利是因為通過鑒賞作品等方式滿足了人類的享受而受到保護,以此為前提,在無法享受作品的情況下,不能理解為是著作權受到了侵害。
由此可見,對大量作品進行信息分析一事因為并沒有人以鑒賞等為目的使用這些作品,所以也就可以認定為非享受性使用。日本的信息分析條款不過是給予那些本來就不涉及著作權的行為以自由。這種思路是在2018年《著作權法》修訂時提出的,作為一種適應新時代的著作權制度的理論框架而受到全世界的關注。
不應當誤解的是,信息分析條款絕不是為生成式AI隨意使用所有版權作品大開綠燈。也就是說,這一條款只是對“學習”的許可,至于“生成”就是另一個問題了。所以當生成式AI的產出在創意表達層面與他人的版權作品發生雷同時,自然會構成侵權。
另一方面,如果生成式AI的產出僅在事實或風格上與他人的受版權保護作品相似,則這種產出并不構成侵權。這雖然是《著作權法》的大原則,但還是有聲音主張,即便產出合法,還是應當阻止未經許可將版權作品提供給AI進行學習的行為。
不過即便以著作權的名義阻止AI學習,也不可能杜絕侵權和深偽技術造假。對于違法的有害產出,還是需要在阻止產出本身這方面下功夫。且不說借著作權限制AI學習能否奏效,甚至可能妨礙對各領域海量數據的分析,這很難講就是上策。
舉例來說,即便信息分析不涉及著作權,出于分析目的締結數據提供合同也是可能且有用的。對于從事信息分析的人來說,假設《著作權法》允許其個人收集雜志文章和報紙文章,那么通過與權利人簽訂合同、以適合分析的方式全面獲取數字數據也將帶來重大利好。事實上,OpenAI在2023年7月和12月就分別與美聯社和德國阿克塞爾·施普林格集團簽署協議,允許以AI學習為目的使用上述機構旗下媒體的新聞報道。
沒有權利就不締結合同,這種觀點是誤解,與實際情況恰好相反。內容持有者與其期待通過著作權限制AI學習,不如以簽署合同提供數據等著作權之外的手段探索共存之道。
生成式AI的“陰暗面”不在于學習,而在于生成。如果不能對二者做出清晰界定,有可能給生成式AI的光明一面蒙上陰影。作為信息分析條款誕生地的日本一方面要堅持維護信息分析的自由,同時也應當為防止非法有害輸出貢獻智慧。因為早晚有一天人們會習慣生成式AI,恐懼AI學習能力的聲音也將成為歷史的回響。(編譯/劉林)
本文鏈接:日本學者:如何界定“機器學習”的版權問題http://www.sq15.cn/show-2-3742-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 新藥有望殺滅醫院“超級細菌”
下一篇: 生成式人工智能寫“小說”能勝過作家?