- +1
法治的細節(jié)︱機器學習侵犯版權(quán)嗎?
背景
人工智能技術(shù)的應(yīng)用是大勢所趨,人工智能產(chǎn)業(yè)將成為大國科技競爭的重點領(lǐng)域。人工智能技術(shù)的核心在于機器學習,訓練人工智能掌握近似人類的學習能力。通過這樣的訓練,人工智能可以掌握圖片修改、視頻制作、文字寫作等能力。
當然,要訓練人工智能掌握這樣的學習能力,必須對其“投喂”大量作品,通過作品的“投喂”使人工智能掌握生成新內(nèi)容的算法。這會導致人工智能技術(shù)開發(fā)者與被“投喂”作品的權(quán)利人之間的沖突。
如2023年上半年美國藝術(shù)家薩拉·安德森等起訴Stability AI等人工智能公司案,下半年美國喜劇演員薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,就是這種沖突在現(xiàn)實中的反映。最近,隨著《紐約時報》與OpenAI的談判陷入僵局,《紐約時報》也對OpenAI提起了類似訴訟,可見在立法和司法上解決類似沖突的必要性。
一、人工智能輸出內(nèi)容與“投喂”的作品大概率不相似
在上訴案件中,無論是美國藝術(shù)家薩拉·安德森等起訴Stability AI等人工智能公司案,還是薩拉·西爾弗曼等起訴Meta公司和OpenAI公司案,作品權(quán)利人的大部分訴請均被法院駁回,唯一保留的是美國藝術(shù)家薩拉·安德森指控Stability AI侵害復制權(quán)的訴請。這是因為,在以上案件中,原告無法證明其作品與被告運營的人工智能生成物構(gòu)成實質(zhì)性相似,這就無法證明被告侵害了原告的版權(quán)。
這反映了人工智能生成內(nèi)容的特點,訓練人工智能時輸入的作品與訓練完成后人工智能輸出的結(jié)果之間并無必然相似的關(guān)系。這也充分說明了,人工智能生成內(nèi)容與訓練人工智能輸入的作品之間并無直接競爭。
當然,最近的紐約時報訴OpenAI案表明,紐約時報主張OpenAI生成內(nèi)容與《紐約時報》的文字作品雷同。如果紐約時報的主張屬實,就說明人工智能技術(shù)遠不如公眾想象的成熟,人工智能算法有受到現(xiàn)實法律規(guī)則和社會倫理約束的必要性。
二、日本外的多數(shù)國家未就人工智能訓練使用他人作品的行為定性表態(tài)
盡管訓練人工智能時輸入的作品與訓練完成后人工智能輸出的結(jié)果之間并不必然相似,但訓練人工智能時會不可避免地利用權(quán)利人的作品。
在美國藝術(shù)家薩拉·安德森等訴Stability AI人工智能公司等案中,如果Stability AI公司最終被法院認定復制了原告的作品,除非Stability AI的行為符合著作權(quán)限制制度,否則無法免于承擔法律責任。
各國著作權(quán)法普遍存在著作權(quán)限制制度,該項制度的核心是對著作權(quán)人的權(quán)利作出限制,豁免特定情況下的侵權(quán)法律責任。該類制度的作用是為了平衡個人權(quán)利與公共利益之間的沖突。例如學生群體為了個人學習的目的少量復制公共圖書館的圖書,再如游客在公共場所拍照時不可避免地復制雕塑、建筑等作品。
人工智能技術(shù)開發(fā)者訓練人工智能的過程中會不可避免地復制權(quán)利人作品,除非該種復制行為構(gòu)成“合理使用”,否則人工智能技術(shù)的開發(fā)者難以擺脫法律責任。
就是否對訓練人工智能過程中復制權(quán)利人作品的行為適用“合理使用”制度,大多數(shù)國家尚未在立法和司法層面作出回應(yīng)。例如歐洲國家的著作權(quán)法明確規(guī)定了著作權(quán)限制制度的適用情形,但目前未有國家明確規(guī)定訓練人工智能過程中復制權(quán)利人作品的行為適用著作權(quán)限制制度。
美國版權(quán)法的權(quán)利限制制度被稱為“合理使用”,不同于適用情形特定的歐洲國家的著作權(quán)限制制度,這種合理使用制度僅規(guī)定了若干判定合理使用的要素。實踐中,美國法院需要結(jié)合該若干要素和在先判例判決特定行為是否構(gòu)成合理使用。正如上文所言,盡管美國有多起作品權(quán)利人與AI公司之間的訴訟,但美國法院尚未就訓練人工智能過程中復制權(quán)利人作品的行為是否構(gòu)成合理使用表態(tài)。
不同于歐美,日本政府明確表態(tài),日本著作權(quán)法既有的“文本與數(shù)據(jù)挖掘”限制制度可以適用于人工智能訓練時使用他人作品的行為。盡管政府的主張尚未得到法院判決的確認,但日本政府的態(tài)度表明其謀求人工智能產(chǎn)業(yè)發(fā)展的迫切性。在發(fā)達國家中,日本人工智能產(chǎn)業(yè)發(fā)展的優(yōu)勢并不明顯,因此急切需要法律為人工智能產(chǎn)業(yè)松綁,從而實現(xiàn)人工智能產(chǎn)業(yè)發(fā)展的彎道超車。
日本、美國和歐盟普遍認可“數(shù)據(jù)挖掘(使用計算機分析海量數(shù)據(jù)獲取有價值信息)”限制規(guī)則,“數(shù)據(jù)挖掘”限制制度與人工智能并無必然關(guān)聯(lián),但日本巧妙地將“數(shù)據(jù)挖掘”限制制度擴張到人工智能場合,解決了人工智能訓練使用他人作品行為的定性問題。
日本政府的政策表明國家利益對著作權(quán)限制制度的影響,更充分說明了人工智能相關(guān)制度具備很強的國家政策性。
三、我國應(yīng)當為人工智能訓練使用他人作品行為構(gòu)建合理使用制度
在我國,已有企業(yè)開展了人工智能技術(shù)的研發(fā)和應(yīng)用,同樣存在利用權(quán)利人作品訓練人工智能的情形,其中的版權(quán)糾紛不可避免。目前已經(jīng)有權(quán)利人對企業(yè)使用其作品訓練人工智能的行為提起民事訴訟。因此,在我國為訓練人工智能使用他人作品的行為是否構(gòu)成合理使用,成為亟待解決的問題。
我國《著作權(quán)法》規(guī)定了“12+1”種“合理使用”情形,其中“12”是特定的“合理使用”情形,“1”是“法律、行政法規(guī)規(guī)定的其他情形”,即兜底條款。目前法定的“12+1”種“合理使用”情形并不包含為訓練人工智能使用他人作品的行為,《著作權(quán)法實施條例》和《信息網(wǎng)絡(luò)傳播權(quán)保護條例》尚未修訂,目前也未將為訓練人工智能使用他人作品的行為定性為合理使用。
盡管立法未有明確規(guī)定,但理論上將為訓練人工智能使用他人作品的行為定性為合理使用仍有一定的空間。
根據(jù)我國《著作權(quán)法》,“合理使用”行為必須符合“三步檢驗法”,即“特殊情況下使用作品”,“不得影響該作品的正常使用”,“也不得不合理地損害著作權(quán)人的合法權(quán)益”。其中的“特殊情況”即《著作權(quán)法》法定的12種合理使用情形,當然司法解釋也有擴張合理使用情形的先例。“不得影響該作品的正常使用”要求使用者不得與作品權(quán)利人開展直接的市場競爭,不允許使用者的創(chuàng)作直接替代權(quán)利人的作品。“不得不合理地損害著作權(quán)人的合法權(quán)益”是指,“合理使用”的行為是對著作權(quán)人利益的損害,盡管這種損害的發(fā)生不可避免,但使用者應(yīng)將這種損害限定在最小限度。
正如上文所言,人工智能訓練時輸入的作品與其輸出結(jié)果之間并無必然相似的關(guān)系,人工智能的輸出結(jié)果取決于其算法,其輸出結(jié)果具有不特定性。大部分情況下,人工智能訓練時輸入的作品與其輸出的結(jié)果是不構(gòu)成實質(zhì)性相似的。這意味著人工智能的輸出結(jié)果不會與權(quán)利人的作品直接展開市場競爭,不會影響權(quán)利人作品的市場。
也就是說,盡管利用權(quán)利人作品訓練人工智能的行為不在法定的特殊情形之內(nèi),但該種行為實質(zhì)上符合合理使用的“三步檢驗標準”。
當然,為訓練人工智能使用他人作品的行為,不可避免會導致權(quán)利人的損失。對此,有研究建議對訓練人工智能使用他人作品的合理使用情形進行限縮。如有美國學者認為應(yīng)保障教學和科研實體的權(quán)利,建議只有為了非商業(yè)、教學和科研目的利用權(quán)利人作品訓練人工智能的行為才可以構(gòu)成合理使用。
這種折中方案,避免了將任何利用權(quán)利人作品訓練人工智能的行為認定為合理使用,給作品權(quán)利人造成的損失,在一定程度上維護了權(quán)利人的利益。但人工智能產(chǎn)業(yè)的發(fā)展需要大算力和尖端硬件的支持,教學、科研機構(gòu)并無法承擔其中的成本。因此,僅允許教學科研機構(gòu)訓練人工智能目的使用他人作品,并無法實現(xiàn)人工智能的發(fā)展。
當然,從維護權(quán)利人利益的角度,可以對訓練人工智能利用他人作品的行為采法定許可制度,即人工智能的運營者可以未經(jīng)許可利用權(quán)利人作品訓練人工智能,但應(yīng)當向權(quán)利人支付費用。相比“合理使用”制度,法定許可制度照顧了權(quán)利人的利益,更為合理。
但人工智能技術(shù)存在“技術(shù)黑箱”,人工智能訓練過程中使用了何人的何種作品,使用的數(shù)量具體是多少,都是難以確定的。此外,我國的著作權(quán)集體管理經(jīng)驗尚不豐富,現(xiàn)行法下很難有集體管理組織代表權(quán)利人參與談判,并維護權(quán)利人的利益。就此而言,法定許可制度看似美好,但缺乏實施層面的可行性。
因此,從促進人工智能產(chǎn)業(yè)發(fā)展的角度,應(yīng)在利用權(quán)利人作品訓練人工智能的行為是否構(gòu)成合理使用的問題上采取寬松政策,即任何為訓練人工智能利用他人作品的行為均應(yīng)免責。
結(jié)語
人工智能對人類社會最深遠的影響在于,人工智能對人類勞動的取代,將影響特定群體的生存。隨著人工智能技術(shù)的不斷成熟,即使是沒有經(jīng)過專業(yè)訓練的業(yè)余人士,也可以通過計算機指令生成大量的影視、音樂、文字或美術(shù)作品。這樣一來,傳統(tǒng)藝術(shù)創(chuàng)作者的市場競爭力無疑會受到影響,而人工智能的這種能力依賴于對傳統(tǒng)藝術(shù)創(chuàng)作者作品的學習,因此不可能不遭到傳統(tǒng)藝術(shù)創(chuàng)作者的反對。
這是時代接受技術(shù)革新和應(yīng)用的必然結(jié)果,而非合理使用制度導致的惡果。
-----
作者陳紹玲,系華東政法大學知識產(chǎn)權(quán)學院副教授。法治中國,不在宏大的敘事,而在細節(jié)的雕琢。在“法治的細節(jié)”中,讓我們超越結(jié)果而明晰法治的脈絡(luò)。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司