[摘 要]建立在大語言模型基礎之上的生成式人工智能收集、學習海量受保護作品,其在訓練輸入階段存在侵害著作權人復制權的風險,在內容輸出階段存在侵害著作權人修改權、匯編權、改編權及署名權的風險。鑒于當下版權侵權“實質性相似”規(guī)則的主體標準及客體標準均存在過于抽象及主觀性過強等問題,應從放寬認定標準及判斷標準客觀化兩個層面進行變革,以應對生成式人工智能技術發(fā)展給知識產(chǎn)權保護帶來的挑戰(zhàn)。在認定版權侵權的基礎之上,科學搭建生成式人工智能版權侵權責任規(guī)則體系應堅持過錯責任原則,規(guī)范損害賠償責任承擔方式,明確“合理使用”情形作為侵權抗辯理由。
[關鍵詞]生成式人工智能;版權侵權;實質性相似;合理使用
[中圖分類號]G641 [文獻標志碼]A [文章編號]2096-1308(2024)01-0052-11
一、問題的提出
國家網(wǎng)信辦國家發(fā)展改革委等七部門于2023年7月10日聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),將生成式人工智能技術定義為“具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術”,并以部門規(guī)章的形式將生成式人工智能技術與服務納入政府分級分類監(jiān)管體制之下。這是對以ChatGPT為典型代表的生成式人工智能技術跨越式、迭代式發(fā)展現(xiàn)象的立法回應。生成式人工智能區(qū)別于傳統(tǒng)人工智能的顯著特點是,生成式人工智能建立在大語言模型基礎之上,能夠對超大規(guī)模作品進行深度分析、學習,與用戶進行多輪對話,得出針對性優(yōu)質答復。大語言模型作為語言建模的最終階段在學習數(shù)據(jù)、預測趨勢以及生成新內容等方面性能顯著提升,表現(xiàn)出超凡能力。[1]以ChatGPT為例,Open AI實驗室發(fā)布了參數(shù)規(guī)模高達1.76萬億級別的GPT-4模型,使得ChatGPT已具備“涌現(xiàn)能力”,即能夠逐步推理、指令遵循甚至聯(lián)系上下文進行學習,這是在小模型中所無法具備的學習能力。See ZHAO WX, ZHOU K, LI J, etal.A Survery of Large Language Models [Z/OL].(2023-06-29)[2023-08-15]. https://arxiv.org/abs/2303.18223.
生成式人工智能的運作機制為通過對信息、數(shù)據(jù)的學習、提煉,生成區(qū)別于原始數(shù)據(jù)的新內容[2],其并不能憑空產(chǎn)出內容。高質量的生成內容建立在優(yōu)質數(shù)據(jù)之上,往往優(yōu)質數(shù)據(jù)又均為受著作權法保護的作品,故生成式人工智能的版權侵權風險不可忽視且難以避免。[3]倫敦高等法院受理的“Stable Diffussion”侵權案即為典型代表,蓋蒂圖片社及多位美國藝術家起訴Stable Diffussion非法復制、處理60億張受保護圖像,侵犯百萬名藝術家版權。參見微信公眾號“WU hu動畫人空間”發(fā)布的《全球首例大型AIGC侵權訴訟案件!36頁訴狀書狀告AI侵犯圖庫老大哥數(shù)百萬圖像版權!》一文,https://mp.weixin.qq.com/s/DsPSs4ZrkoNhqOXqFOOEHQ。該案作為全球首例AIGC(AI-Generated Content,人工智能生成內容)侵權案波及范圍之廣令人震驚,生成式人工智能產(chǎn)業(yè)發(fā)展與版權保護之間的張力逐步凸顯,也愈發(fā)強烈。《暫行辦法》第四條第三款“尊重知識產(chǎn)權”,第七條第二款“涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權”等條文內容均體現(xiàn)了規(guī)范層面重視版權侵權后果的立法理念[4],但《暫行辦法》作為部門規(guī)章,效力層級過低,且條文數(shù)量較少,條文內容僅具有宣示作用,沒有具體可落實的防范版權侵權風險的配套措施,故科學認定生成式人工智能的版權侵權并創(chuàng)造性地搭建生成式人工智能的版權侵權責任規(guī)則,具有現(xiàn)實意義及緊迫性。
二、生成式人工智能階段性版權侵權類型
美國版權局出臺的公共指導法案提出人工智能生成物不屬于受保護的作品,在進行版權申報時應注明由生成式人工智能完成內容。See U.S.Copyright Office amp; Library of Congress(Mar 16,2023).“Copyright Registration Guidance:Works Containing Material Generated by Artificial Intelligence.”Federal Register,https://www.govinfo.gov/content/pkg/FR-2023-03-16/pdf/2023-05321.pdf.我國不少學者也持ChatGPT生成內容不具有可版權性,不應給予版權保護的觀點。[5]但人工智能生成物不構成作品,并不意味著不會導致版權侵權結果。相反,生成式人工智能以大語言模型為基礎,其對海量數(shù)據(jù)深度學習的能力、對用戶語言命令的高度理解能力以及針對性地生成文本的把控能力,實現(xiàn)了技術智能躍遷。伴隨性能飛速提升,生成式人工智能的各類風險也逐步放大,對世界范圍內的知識產(chǎn)權保護提出了更為嚴峻的挑戰(zhàn)。以ChatGPT為代表的生成式人工智能在模型訓練階段,由于難以全部獲得數(shù)以百萬計受保護作品的授權,容易引發(fā)復制權侵權風險;經(jīng)過對語料庫進行深度學習、反復訓練后,ChatGPT生成的內容可能存在與原始數(shù)據(jù)相似之處,這會對著作權人的修改權、匯編權、改編權以及署名權造成威脅。
(一)訓練輸入階段:侵害復制權
生成式人工智能訓練流程為,對文本語料進行諸如語法、文義、上下文邏輯結構等內容的無監(jiān)督學習,再根據(jù)用戶指令展開多輪對話,并借助Transformer模型生成符合自然人語言習慣的針對性答復。[6]從上述訓練流程可知,文本語料的質量高低直接決定生成內容的優(yōu)劣。事實上,數(shù)據(jù)是人工智能技術發(fā)展的決定性要素。生成式人工智能開發(fā)者會盡可能地吸納優(yōu)質數(shù)據(jù)以充實文本語料,尤其是具備獨創(chuàng)性的智力成果。優(yōu)質作品受著作權法保護,只有在取得授權的情形下才可合法復制。《暫行辦法》第七條亦規(guī)定生成式人工智能服務提供者在訓練數(shù)據(jù)處理活動中“涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權”。
ChatGPT等生成式人工智能在訓練過程中,需對數(shù)據(jù)進行復制后再進行“計算機可讀”的格式處理,無可避免地會對受保護的作品進行電子化復制。那么ChatGPT語料庫中數(shù)以百萬計作品均已取得著作權人授權了嗎?從Open AI實驗室公布的信息來看,ChatGPT的訓練數(shù)據(jù)來源途徑廣泛,譬如維基百科、期刊、Reddit鏈接、書籍以及雇傭標注工的手寫文本。[7]就外界對上述數(shù)據(jù)并未取得授權的質疑,Open AI實驗室并未給出明確答復。據(jù)《華爾街日報》等國外媒體報道,Open AI在未支付費用的情形下將他們的文章用于ChatGPT模型訓練[8],答案不言而喻。受大語言模型這一關鍵技術作為“基座”的影響,生成式人工智能訓練輸入階段所使用的數(shù)據(jù),數(shù)量巨大、涵蓋面廣,涉及社會生活方方面面,要想完全取得授權幾乎不能實現(xiàn)。生成式人工智能在訓練輸入階段使用未經(jīng)授權的作品會對著作權人的復制權造成實質侵害。生成式人工智能的無序發(fā)展極大沖擊世界范圍內確立的知識產(chǎn)權保護體系,給各國的著作權法的施行帶來嚴峻挑戰(zhàn)。然而,從促進技術進步的視角來看,嚴格要求所有經(jīng)ChatGPT訓練使用的作品均需得到著作權人授權的觀點,并非必然有益。這是因為,“不取得授權即違法”的規(guī)則不僅會極大提升收集訓練數(shù)據(jù)難度、花費財力用于支付許可報酬,耗費大量精力用于證明復制行為合法,引發(fā)“寒蟬效應”[9],迫使小型生成式人工智能服務提供者因過重經(jīng)濟負擔而退出市場,實力雄厚的人工智能服務提供者一家獨大、壟斷市場,而且高質量訓練數(shù)據(jù)的減少會對生成內容的質量造成負面影響,人工智能技術的進步明顯受阻。故,生成式人工智能產(chǎn)業(yè)發(fā)展與知識產(chǎn)權保護之間的張力難以調和,生成式人工智能技術訓練輸入階段對著作權人復制權的侵害風險不容忽視,采取有效應對措施迫在眉睫。
(二)內容輸出階段:侵害修改權、匯編權、改編權及署名權
以ChatGPT為代表的生成式人工智能被稱為“智能洗稿器”,這是對其學習及生成文本功能的戲謔概括。ChatGPT在按照用戶指令輸出文本時,不會對語料庫中的文本進行直接抄襲,而是根據(jù)學習模型重新組合文本或對文本進行同義替換。雖然ChatGPT生成的內容并不會直接復制語料庫中的數(shù)據(jù),具備一定程度的創(chuàng)造性,但本質上而言,其生成內容高度依賴輸入的數(shù)據(jù),尤其是高質量的智力成果。反復頻繁的學習、使用,會產(chǎn)出相似內容,或者說與在先作品存在相似可能性。ChatGPT截取優(yōu)質作品片段或結合多部作品內容重新加工及修改的行為,會對著作權人的修改權、匯編權、改編權造成巨大侵權風險。從我國《著作權法》第十條的規(guī)定來看,侵害著作權人匯編權與改編權的關鍵區(qū)別為,改編聚焦于原作品內容進行修改,而匯編則僅從個性化編排角度對作品及其他非作品材料進行獨創(chuàng)性表達。相較于復制權而言,改編權與匯編權不拘泥于固定作品,只需要產(chǎn)生獨創(chuàng)性表達即可。[10]生成式人工智能服務提供者應當格外警惕,采取措施以應對文本生成階段可能出現(xiàn)的上述侵權風險。除此之外,ChatGPT訓練、學習流程十分精密,使用的模型及算法相當復雜,用戶甚至技術開發(fā)人員都無法清晰地知曉生成內容對哪部作品施以何種程度的利用,生成式人工智能的生成文本不能標注所使用的作品及作者姓名,也會對著作權人的署名權造成嚴重侵害。
與傳統(tǒng)領域著作權侵權行為相比,生成式人工智能版權侵權波及的在先作品數(shù)量大幅增加,且侵權成本顯著降低。一方面,ChatGPT等生成式人工智能產(chǎn)品以大語言模型技術為核心,其訓練學習的語料庫由海量受保護的作品及相關數(shù)據(jù)組成。借助模型對數(shù)以百萬計的作品進行文義、上下文邏輯學習的訓練過程,直接導致ChatGPT等生成式人工智能產(chǎn)品的生成內容存在對眾多作品進行片段化截取及創(chuàng)意拼接等風險,而不再僅僅局限于對個別或少數(shù)他人原作品的侵害。[11]另一方面,由于以ChatGPT為代表的生成式人工智能產(chǎn)品的算法及模型已相當成熟,用戶僅需發(fā)出需求指令,生成式人工智能產(chǎn)品就能生成符合用戶需求且有針對性的文本,大大縮減了傳統(tǒng)創(chuàng)作中收集、學習所耗費的時間,侵權成本顯著降低。綜上所述,AIGC時代,受侵權范圍擴大、侵權成本降低的影響,生成式人工智能內容輸出階段諸如修改權、匯編權、改編權及署名權等版權受侵害的風險已大幅提升,但我國尚未出臺成熟的生成式人工智能產(chǎn)品法案以規(guī)制當前涌現(xiàn)的大量版權侵權行為,故應當加快研究步伐、擴展研究深度,以應對生成式人工智能技術給我國傳統(tǒng)著作權保護體系帶來的嚴峻挑戰(zhàn)。
三、生成式人工智能的版權侵權認定:實質性相似標準的變革
實踐中人民法院一般采取“接觸+實質性相似”標準以判定版權侵權是否成立。由于生成式人工智能建立在“大語言模型”基礎之上,ChatGPT需要通過對數(shù)以百萬計的作品進行分析、學習、訓練才能生成作品,故“接觸”要件必然滿足。[12]生成式人工智能版權侵權的認定關鍵,應當為如何科學理解“實質性相似”要件。自英國議會頒布世界上第一部版權法——《安娜法令》以來,每一次技術變革都會對現(xiàn)有著作權法律體系造成不小沖擊[13],生成式人工智能技術的發(fā)展也不例外。事實上,對自然人作品所適用的實質性相似要件的主、客觀判斷標準過于抽象,在生成式人工智能版權侵權判定問題上存在適用困境。著作權法應當在符合基礎理論的情形下,綜合考慮公共利益與私人利益間的平衡,對司法適用中現(xiàn)存的問題作出回應。本文認為,可從放寬認定標準及判斷標準客觀化這兩方面對生成式人工智能領域版權侵權的“實質性相似”標準進行變革,以契合技術發(fā)展特色,有效紓解當下版權侵權認定中的適用困境。
(一)放寬實質性相似認定標準
隨著ChatGPT程序火爆全球,多家頂級期刊明確表示抵制ChatGPT生成的文章,尤其是Nature雜志發(fā)表社論,表示使用ChatGPT生成的論文相當于剽竊。學術界對于ChatGPT生成內容的抵觸心態(tài)反映了自然人作品與人工智能生成物的本質差異。生成式人工智能是憑借大語言模型對海量作品進行學習、訓練而生成內容,其中幾乎不會摻雜服務提供者、使用者的個性與情感,而自然人作品是思維碰撞出的智力成果,需要被賦予思想層面的有力保護。傳統(tǒng)“實質性相似”規(guī)則是針對自然人作品而設定的,將其適用于顯著不同的生成式人工智能領域,可嘗試放寬主、客體認定標準,以順應學術界對于使用ChatGPT生成內容的收緊態(tài)勢,落實對在先作品的版權保護。在主體判斷標準層面,有學者提出以“專業(yè)技術人員”取代“普通觀眾”的觀點[14],只要從專業(yè)技術人員的視角來看,人工智能生成物在模式、結構及創(chuàng)作風格等方面與受著作權保護的作品存在相似之處,即可認定為構成“實質性相似”。這一做法提高了判斷主體的專業(yè)度,增加了人工智能生成物被認定為構成版權侵權的可能性。譬如,某些內容若由自然人創(chuàng)作不會構成版權侵權,但若該內容由ChatGPT生成則可能構成版權侵權。這也與生成式人工智能系統(tǒng)日益增長的規(guī)避實質性相似能力相匹配。在客體標準層面,應當將認定自然人作品構成實質性相似時所采用的“單一對比”原則變革為“綜合使用量對比”原則。這是因為,生成式人工智能產(chǎn)品展開學習、訓練的對象并非單一作品,而是包含受保護作品和其他數(shù)據(jù)在內的一個“集合”。在此領域仍適用自然人作品認定的單一對比原則會導致認定版權侵權的標準過高,難以有效打擊人工智能生成物侵害在先作品版權的行為。生成式人工智能依靠大語言模型對海量作品進行深度學習、反復訓練,其生成內容所涉及的作品數(shù)量也遠超一般自然人作品。此情形下,僅證明人工智能生成物的單一作品片段使用量低于“實質性相似”的客體標準尚不足以認定不構成版權侵權。人工智能生成物所引用的“集合”片段數(shù)量超過判斷標準會對整個“集合”中的作品構成侵權。這一“綜合使用量對比”原則對人工智能生成物的版權侵權認定提出了更為嚴格的要求,系出于保障自然人作品現(xiàn)有著作權保護力度的考慮而作出的時代選擇,可最大限度地降低生成式人工智能技術對現(xiàn)有著作權保護體系的沖擊。
(二)實質性相似判斷標準客觀化
實質性相似規(guī)則的判斷主體標準及客體標準均十分抽象,人民法院在個案判定中常因判斷標準的主觀性過強而難以實現(xiàn)類案同判的司法理想。就主體標準而言,智力成果的創(chuàng)新性、相似性判斷均建立在一定的主體標準之上,譬如專利的創(chuàng)造性通常以“所屬領域普通技術人員”為判斷主體,作品獨創(chuàng)性以“一般讀者”為判斷主體。上述法律擬制主體均為滿足科學厘清判斷標準而產(chǎn)生,但受認知程度及群體范圍等因素的影響,明確實質性相似判斷標準的目的并未實現(xiàn)。對此,有學者提出在文學領域以“一般非專業(yè)評判者”作為作品獨創(chuàng)性及實質相似性規(guī)則的判斷主體以克服主觀性較強問題。[15]但這一解決方案仍未跳出傳統(tǒng)思維,難以發(fā)揮實質性作用。就客體標準而言,通說認為,判斷人工智能生成物構成版權侵權的核心要素是其對在先作品片段引用量是否超過普遍公認限度。但從我國《著作權法》的相關規(guī)定來看,并沒有條文對“適當引用”的必要限度設定具體標準,在不同案情、不同作品類型中的適用存在相當差異性。[16]故,以在先作品片段引用量是否超過普遍公認必要限度作為“實質性相似”規(guī)則判斷的客體標準,主觀性過強,不利于司法實踐統(tǒng)一適用。
對于實質性相似規(guī)則的主、客體判斷標準過于抽象且主觀性較強的問題,可引入人工智能系統(tǒng)對相似程度進行自動化對比,以克服人民法院在具體案件裁判中受主觀性因素的不利影響。[11]一方面,開發(fā)人工智能算法,以客觀算法代替主觀能動,科學設定主體在判斷人工智能生成物與在先作品“實質性相似”所需具備的各種能力,譬如感知作品相似度的能力、提取作品片段的能力、對相似片段進行對比的能力等。另一方面,人工智能系統(tǒng)可同步適用實踐中判斷“實質性相似”所慣用的整體觀察法和抽象過濾法,以避免人為比對在適用次序上產(chǎn)生的結果差異,并利用智能算法對作品相似程度進行精密設定,將運算結果與設置數(shù)值進行自動化對比,得出科學客觀的結論。總而言之,人工智能生成物,譬如利用ChatGPT生成的學術論文,對在先作品版權侵權認定的“實質性相似”規(guī)則,因主體、客體判斷標準受人為認知水平等主觀因素的影響,較難實現(xiàn)統(tǒng)一適用,應當積極引入人工智能系統(tǒng)對主、客體標準進行精確設定,借助自動化、智能化算法得出最終結論,以克服“大語言模型”這一新興技術對版權侵權認定帶來的適用難題。
四、生成式人工智能的版權侵權責任規(guī)則
生成式人工智能技術的發(fā)展,有效提升了人類創(chuàng)作效率,得到了廣泛使用。但隨之而來的版權侵權風險我們不能忽視。由于這一技術發(fā)展迅猛,我國尚未在《著作權法》中明確規(guī)定生成式人工智能版權侵權的解決方案。學術界雖已開始探索生成式人工智能侵權責任制度,但由于對機器學習缺乏深入認知,學者觀點迥異,在歸責原則、價值定位等方面尚存爭議。[17]然而,當前世界范圍內生成式人工智能版權侵權案件已顯現(xiàn)。譬如,美國出現(xiàn)了安德森等訴Stability AI的集體訴訟案件,多位作者集體起訴Stability AI復制其作品用于機器訓練及生成內容。北京市互聯(lián)網(wǎng)法院于2023年11月27日審理了我國第一起人工智能生成圖片著作權侵權案,對AI生成圖片是否構成作品、由誰享有著作權及該行為是否構成侵權、如何承擔責任等問題從解釋論層面進行了詳細論證,具有重大意義參見(2023)京0491民初11279號民事判決書。。這也為我們重新審視生成式人工智能領域版權侵權責任制度提供了良好契機。故,本文將從歸責原則、責任承擔方式及責任豁免三個方面展開論述,嘗試厘清我國生成式人工智能的版權侵權責任規(guī)則。
(一)歸責原則:堅持過錯責任原則
從生成式人工智能技術運行的底層邏輯來看,其模型設計、算法運行、內容生成等步驟都或多或少受到人類價值觀念的影響,這是對生成式人工智能版權侵權進行過錯追責的基礎。對于究竟適用何種歸責原則,有學者從知識產(chǎn)權請求權行使無須考慮過錯的角度出發(fā),認為版權侵權應當適用無過錯責任原則。[18]此觀點并未考慮損害賠償方面的問題,略失偏頗。實際上,對版權侵權損害賠償適用過錯責任原則是國際通用做法。版權侵權行為一般而言不會對他人生命、財產(chǎn)安全造成直接、嚴重損害,出于人本思想方面的考慮應當堅持過錯責任原則。這一觀點在生成式人工智能領域也不能例外。從立法層面來看,我國《民法典》侵權責任編及《著作權法》均未對生成式人工智能版權侵權作出明確規(guī)定,故本文認為生成式人工智能版權侵權不屬于特殊侵權而應被認定為一般侵權行為,適用《民法典》第一千一百六十五條第一款所確立的過錯責任原則,主要理由如下:
第一,從鼓勵創(chuàng)新的角度來看,對生成式人工智能版權侵權適用過錯責任原則有利于技術進步。人工智能生成內容幾乎沒有傾注人類的智慧、思想與情感,僅是在大量學習和反復訓練的基礎上所產(chǎn)生的,易存在過量截取在先作品片段等版權侵權行為。若不加區(qū)分地適用無過錯責任原則,會極大提升企業(yè)合規(guī)成本,導致生成式人工智能服務提供者不愿,甚至不敢將生成式AI產(chǎn)品投放市場,從而扼殺技術創(chuàng)新、進步。[19]民法的價值理念應當為預防風險、鼓勵創(chuàng)新,從我國《民法典》侵權責任編的立法理念及條文規(guī)定來看,其更強調預防功能,而非懲戒,以明確責任承擔方式指引生成式人工智能服務者及用戶采取有效措施尊重他人作品的知識產(chǎn)權,預防版權侵權風險。由于技術運行的復雜程度及具體案情不同,可針對不同類型的版權侵權設置不同程度的過錯標準,更加科學、合理地規(guī)制生成式人工智能服務者的行為,實現(xiàn)侵權責任制度的預防功能。
第二,從風險系數(shù)的角度來看,人工智能生成物固然會存在侵害他人復制權、署名權、匯編權的潛在風險,但并不會對他人身體、財產(chǎn)造成直接、嚴重損害,可采取“標識”等方式降低風險。《暫行辦法》第八條規(guī)定生成式人工智能服務提供者要“開展數(shù)據(jù)標注質量評估,抽樣核驗標注內容的準確性”“對標注人員進行必要培訓”,第十二條規(guī)定“對圖片、視頻等生成內容進行標識”,以上條文均對生成式人工智能領域的規(guī)范化管理提出了更高要求,能有效降低人工智能生成物的版權侵權風險,防止侵權內容傳播、擴散。鑒于生成式人工智能版權侵權并不會對他人的生命、健康造成直接損害,其潛在風險亦可通過“標識”方式有效降低,故過錯責任原則較無過錯責任原則而言,與生成式人工智能領域的特點更加適配,應當堅持適用過錯責任這一歸責原則。
(二)責任承擔方式:規(guī)范損害賠償責任承擔方式
在我國人工智能生成圖片著作權侵權第一案中,北京互聯(lián)網(wǎng)法院在認定被告侵害原告署名權和信息網(wǎng)絡傳播權的基礎之上,判決被告以公開賠禮道歉、賠償損失兩種方式承擔版權侵權責任。但判決書中提及的“權利人的實際損失、侵權人的違法所得難以計算”“不能證明涉案圖片的權利使用費數(shù)額”,只能依據(jù)侵權情節(jié)確定具體賠償數(shù)額。由此可見,依據(jù)《著作權法》第五十二條之規(guī)定,生成式人工智能版權侵權的責任承擔方式應包括停止侵害、消除影響、賠禮道歉、賠償損失等,其中如何規(guī)范損害賠償責任方式、確定科學賠償數(shù)額是關鍵所在。
在立法層面,《著作權法》第五十四條規(guī)定,應按照權利人實際損失或侵權人違法所得確定賠償數(shù)額,上述標準難以確定時,參照權利使用費給予補償,并確定了500元以上5 000 000元以下的數(shù)額區(qū)間。該條文設立的法理基礎在于,知識產(chǎn)權法定賠償制度的價值功能在于填平權利人的實際損失,填平原則應當作為生成式人工智能版權侵權損害賠償計算的首要原則。[20]然而,由于生成式人工智能領域版權侵權涉及的作品數(shù)量甚多、認定相對復雜、“權利人團體”的實際損失較高,若按照上述標準計算賠償數(shù)額,是否存在賠償標準過高,進而打擊生成式人工智能服務者將技術投放市場的積極性,阻礙技術創(chuàng)新等問題?故,應考慮到生成式人工智能領域版權侵權涉及面廣這一特性,做好《暫行辦法》與《著作權法》《民法典》之間規(guī)則的銜接,科學厘定生成式人工智能領域版權侵權的損害賠償數(shù)額計算標準。
然而,在司法實踐中《著作權法》第五十四條第一款所確立的標準通常難以為人民法院提供明確指引。這是因為,一方面知識產(chǎn)權案件案情普遍復雜,通常而言權利人的實際損失、侵權人的違法所得及權利使用費較難計算,另一方面500元以上5 000 000元以下的數(shù)額區(qū)間過大,可操作性較低。人民法院只能依據(jù)《著作權法》第五十四條第二款的規(guī)定,按照版權侵權行為的情節(jié)行使自由裁量權。一般而言,人民法院會通過對作品類型、創(chuàng)作成本以及作品知名度等因素的綜合考量確定具體賠償數(shù)額。由于我國立法尚未考慮生成式人工智能領域技術發(fā)展的經(jīng)濟效益與著作權保護力度之間的平衡,故人民法院在判決中需對此難題作出回應,應在充分考慮經(jīng)濟性與可行性基礎之上,分階段進行動態(tài)考察,以確定生成式人工智能版權侵權案件中損害賠償?shù)木唧w數(shù)額。[21]
(三)責任豁免:明確“合理使用”情形
我國《著作權法》并未采取概括式方法明確著作權限制的一般判斷原則,而是在第二十四條中列舉了12項“合理使用”情形及1項兜底條款,作為著作權權利的限制與例外。由于上述條文屬于封閉式立法模式,生成式人工智能這一基于“大語言模型”基礎開展學習、訓練的數(shù)據(jù)挖掘行為難以被納入兜底條款之中[22],也不能與現(xiàn)有規(guī)定情形完全契合。“合理使用”制度最初是為了破除著作權權利壁壘、促進知識傳播而設定。而生成式人工智能領域的版權保護與技術創(chuàng)新之間存在明顯負相關性,如果版權保護力度過高必然會對新技術的發(fā)展形成阻礙。加之美國《人工智能未來法案》第4節(jié)b.1.e中也明確表達了支持大模型開發(fā)與數(shù)據(jù)共享的立場,因此為順應時代發(fā)展趨勢、共享生成式人工智能技術福利,應在兼顧版權保護與技術發(fā)展的基礎之上,適當調整我國著作權合理使用制度。[23]
美國法院將“轉換性使用”作為版權合理使用的判斷標準。[24]坎貝爾案確立了“新作品是否以不同性質或目的添加了新的內容,是否使用新的信息、新的表達及意義”這一具體標準,并將其作為認定“轉換性使用”的關鍵。[25]ChatGPT等生成式人工智能技術是通過對海量作品進行全方位分析、學習,并經(jīng)反復訓練后生成內容,與在先作品之間的差異性很大。根據(jù)用戶指令生成的針對性內容,不是單純地抄襲復制,必定存在不同的表達目的及表達方式。該標準使得人工智能生成內容獲得了構成合理使用的機會,減輕生成式人工智能所背負的侵權重擔,有助于知識大規(guī)模傳播和AI技術的創(chuàng)新發(fā)展。我國北京、上海、重慶、安徽等地人民法院作出的多篇裁判文書中,均已出現(xiàn)“轉換性使用”的字眼,譬如(2020)滬73民終581號民事判決書、(2022)皖04民初125號民事判決書等。這證明美國Leval法官開創(chuàng)的“轉換性使用”標準已經(jīng)逐步被我國學術界及實務界所接受,彌補了《著作權法》第二十四條的封閉性缺陷,可為生成式人工智能領域的版權侵權問題提供新的解決思路。然而,由于我國并沒有以法律或司法解釋的形式明確該標準的適用要件,故司法裁判中法院自由裁量權較大,存在適用不一的情形,應結合生成式人工智能技術的運行模式及特點,科學界定“轉換性使用”標準的內涵與外延。在內容轉換層面,要求新作品中加入獨創(chuàng)性表達和新的內涵,僅僅對文字、語句進行變換、重組,不能被認定為轉換性使用;在目的轉換層面,新作品的創(chuàng)作目的不能為單純復制或使用,應當在不影響原作品目標受眾的情形下,與在先作品目的相區(qū)別。生成式人工智能創(chuàng)作高度模型化、智能化,具備獨創(chuàng)性表達,符合內容轉換要件,并且其使用目的為向大語言模型訓練提供語料,符合目的轉換要件,能夠被認定為轉換性使用。
五、結語
生成式人工智能建立在“大語言模型”之上,其收集海量高質量作品及數(shù)據(jù)進入語料庫,對語料進行機器學習,并根據(jù)用戶多輪指令生成內容的運行模式,不可避免地會對在先作品著作權人的復制權、修改權、匯編權、改編權以及署名權造成侵害。當前世界范圍內涌現(xiàn)的生成式AI版權侵權糾紛就是有力印證。人工智能生成內容顯著區(qū)別于一般作品,人民法院在版權侵權案件中普遍適用的“實質性相似”規(guī)則,應從放寬認定標準及判斷標準客觀化兩方面進行變革,以契合生成式人工智能領域的特點,彌補模糊缺陷。當前,我國雖出臺了《暫行辦法》規(guī)范生成式人工智能技術的運行發(fā)展,但僅停留在宣示層面,不具有實操性。故本文從鼓勵技術創(chuàng)新及人本理念出發(fā),主張生成式人工智能版權侵權應堅持過錯責任原則,結合生成式人工智能自身特性及現(xiàn)有立法規(guī)定,在充分考慮經(jīng)濟性與可行性的基礎之上,分階段進行動態(tài)考察,科學厘定生成式人工智能領域版權侵權的損害賠償數(shù)額計算標準,并將“轉換性使用”作為認定構成“合理使用”的標準,以彌補《著作權法》的封閉性缺陷,減輕生成式人工智能所背負的侵權負累。生成式人工智能版權侵權責任規(guī)則的搭建任重而道遠,需學術界和實務界形成合力,給出科學方案。
[參 考 文 獻]
[1] 李銘軒,文繼榮.AIGC時代網(wǎng)絡信息內容的法律治理——以大語言模型為例[J].北京理工大學學報(社會科學版),2023,25(6):83-92.
[2] 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰(zhàn)[J].山東大學學報(哲學社會科學版),2023(3):127-143.
[3] 顧男飛,方舟之.ChatGPT等生成式人工智能使用作品的合理邊界與侵權規(guī)制[J].數(shù)字圖書館論壇,2023,19(7):1-8.
[4] 劉艷紅.生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例[J].東方法學,2023(4):29-43.
[5] 張金平.論人工智能生成物可版權性及侵權責任承擔[J].南京社會科學,2023(10):77-89.
[6] 鄧建鵬,朱懌成.ChatGPT模型的法律風險及應對之策[J].新疆師范大學學報(哲學社會科學版),2023,44(5):91-101.
[7] 張智雄,于改紅,劉熠,等.ChatGPT對文獻情報工作的影響[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2023,7(3):36-42.
[8] 李若一,王林,賈驥業(yè).ChatGPT背后的知識產(chǎn)權風險[N].中國青年報,2023-02-21(6).
[9] 王文敏.人工智能對著作權限制與例外規(guī)則的挑戰(zhàn)與應對[J].法律適用,2022(11):152-162.
[10] 宋偉鋒.生成式AI傳播范式:AI生成內容版權風險與規(guī)制建構——以全球首例AIGC侵權案為緣由[J].新聞界,2023(10):87-96.
[11] 劉強,孫青山.人工智能創(chuàng)作物著作權侵權問題研究[J].湖南大學學報(社會科學版),2020,34(3):140-146.
[12] 曾田.人工智能創(chuàng)作的版權侵權問題研究[J].河北法學,2019,37(10):176-189.
[13] 朱鴻軍,李辛揚.ChatGPT生成內容的非版權性及著作權侵權風險[J].新聞記者,2023(6):28-38.
[14] 謝晴川.論獨創(chuàng)性判斷標準“空洞化”問題的破解——以科技類圖形作品為切入點[J].學術論壇,2019,42(5):46-56.
[15] 王茜.從語義分析轉向語用分析——評劉漢波《著作權司法實踐中的文學觀念批判》[J].文藝研究,2016(2):149-157.
[16] 熊琦.著作權轉換性使用的本土法釋義[J].法學家,2019(2):124-134.
[17] 初萌.人工智能對版權侵權責任制度的挑戰(zhàn)及應對[J].北方法學,2021,15(1):138-150.
[18] 孫山.知識產(chǎn)權侵權行為歸責原則的還原與發(fā)展[J].知識產(chǎn)權,2014(3):30-36.
[19] 王利明.生成式人工智能侵權的法律應對[J].中國應用法學,2023(5):27-38.
[20] 萬勇,張文.論著作權法中法定賠償額的計算單位[J].知識產(chǎn)權,2023(3):45-61.
[21] 陳兵.通用人工智能創(chuàng)新發(fā)展帶來的風險挑戰(zhàn)及其法治應對[J].知識產(chǎn)權,2023(8):53-73.
[22] 詹啟智.論新著作權法合理使用的“其他情形”——兼與王遷、蔣舸、劉佳欣同志商榷[J].三峽大學學報(人文社會科學版),2023,45(2):94-99.
[23] 鄭飛,夏晨斌.生成式人工智能的著作權困境與制度應對——以ChatGPT和文心一言為例[J].科技與法律(中英文),2023(5):86-96.
[24] LEVAL P N.Toward a fair use standard[J].Harvard Law Review,1990,103(5):1105-1136.
[25] 馮曉青,刁佳星.轉換性使用與版權侵權邊界研究——基于市場主義與功能主義分析視角[J].湖南大學學報(社會科學版),2019,33(5):134-143.
〔責任編輯:曲丹丹〕
[收稿日期]2023-11-28
[作者簡介]陳黎明(2000),女,湖南湘西人,碩士研究生,從事民商法學研究。