摘要:生成式人工智能服務提供者不能簡單以“技術中立”作為免責事由,從成本效益的經濟理性、危險控制理論來看,服務提供者承擔著作權侵權責任具有必要性基礎。對生成式人工智能服務提供者可以采取解釋論立場,確立其作為新型網絡服務提供者的主體地位,并結合生成式人工智能特性與侵權場景適當調整其侵權責任認定,包括引入過錯推定作為歸責原則和探索注意義務的重構。注意義務的認定應遵循一種客觀、動態的認定標準,具體內容涉及數據來源合法、算法優化訓練、監督用戶合規使用義務。實踐中,生成式人工智能侵權表現為不同行為形態、違反不同注意義務內容,因而有必要類型化構建生成式人工智能服務提供者的著作權侵權責任規則。同時,為維系利益平衡與促進技術發展,需要構建包括意思自治保留下責任分配、用戶免責下侵權阻卻等責任限制規則。
關鍵詞:生成式人工智能服務提供者 著作權侵權 間接侵權 注意義務
一、問題緣起
生成式人工智能(Generative Artificial Intelligence)是指能夠根據用戶指令,基于算法技術自主生成表達性內容的人工智能系統。實踐中,商業主體紛紛利用生成式人工智能開展生產經營,將生成式人工智能系統嵌入自身網絡服務平臺,向用戶提供圖像、文本、音頻等多元化服務內容。典型如OpenAI公司于2022年推出的ChatGPT聊天機器人,能夠根據用戶提示詞(prompt)自主生成符合設定的文本。伴隨生成式人工智能逐漸成為重要的內容獲取渠道,隨之而來的是一系列著作權侵權問題。生成式人工智能以海量既有作品為輸入信息、以作品外觀形式內容為輸出結果,其不可避免地涉及復制權、改編權、信息網絡傳播權等著作權侵權問題。然而,與生成式人工智能應用市場繁榮發展不相匹配的是,我國關于生成式人工智能的著作權侵權認定與規制規則并不清晰。目前頒布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)以風險規制為基本思路,籠統地搭建服務提供者侵權責任框架,但并未針對著作權侵權這一特殊領域提出服務提供者應當承擔的侵權責任。如何正確認識生成式人工智能服務提供者的主體屬性及其行為定性,實現符合利益平衡理念的權責劃分,是目前亟待澄清與解決的重要課題。
司法實踐中,廣州互聯網法院審理的全球首例AIGC平臺著作權侵權案,首次回應了生成式人工智能內容的著作權侵權問題,初步確立了判定生成式人工智能服務提供者著作權侵權責任的規制思路。在該案中,法院判定生成式人工智能服務提供者因生成侵權內容需承擔著作權直接侵權責任,并設立平臺應當履行的三項注意義務,即投訴舉報機制、潛在風險提示和顯著標識義務。以“首例AIGC平臺侵權案”為切入,可以發現生成式人工智能服務提供者的著作權侵權問題涉及如下方面:一是侵權主體地位認定,即確定生成式人工智能服務提供者作為侵權主體的范疇歸類,作為進一步分析平臺侵權行為定性的重要前提;二是侵權責任劃分,即分析在用戶作為第三人介入型侵權情形下平臺應承擔的侵權責任類型及其過錯原則;三是注意義務設定,即合理規定平臺應當履行的具體行為義務形態,從而在平臺違反相關義務時推定具有過錯。鑒于此,本文立足于回應上述著作權侵權問題,檢視既有侵權規則在生成式人工智能應用場景下的具體適用與革新路徑,嘗試探索出一套規制生成式人工智能服務提供者著作權侵權的制度方案,以實現不同主體之間的利益分割與風險分擔,促進法律與技術的良性互動與平衡發展。
二、生成式人工智能服務提供者承擔著作權侵權責任的必要性證成
著作權法律制度鼓勵通過新技術手段開展以作品為對象的多元化利用和傳播,但技術手段的革新在很大程度上降低了使用者對其行為后果的判斷與控制能力,帶來一定的著作權侵權風險。在第三人介入型侵權情形下,服務提供者是否應當因為其利用生成式人工智能技術而承擔相應的著作權侵權責任,需要回歸認定著作權侵權責任的基礎原理,明確其成立侵權行為的該當性。具體而言,關于服務提供者承擔著作權侵權責任的必要性證成,可以從技術中立原則、成本效益的經濟理性、危險控制理論等方面著手分析。
(一)技術中立原則的不適性
技術中立原則也被稱為技術工具論或者功能中立論,是指具有中立屬性的技術本身因只體現工具地位而不體現價值取向,其使用行為不應當被法律所規制。該原則通常被用于反對法律對技術的監管,成為技術提供者免責的重要依據。美國司法實踐通過1984年的Sony案,首次將技術中立原則用于著作權侵權認定,提出了著名的“實質性非侵權用途”原則,主張對存在實質性非侵權用途的技術采取中立態度,避免其間接侵權責任的承擔。在立法方面,技術中立原則集中體現于美國《數字千年版權法》(DMCA)、《歐盟電子商務指令》制定的“避風港規則”,為提供傳輸、存儲、鏈接技術等服務商提供一定范圍內的侵權豁免。著作權法律制度通過技術中立原則的確立與適用,免除技術提供者的侵權責任承擔,降低開發與利用技術的法律風險與潛在成本,以此促進技術的應用與進步。
具體到平臺提供生成式人工智能技術的行為定性上,生成式人工智能服務提供者能否以所提供技術的中立屬性為由獲得侵權豁免,答案顯然是否定的。首先,平臺向自身搭建或聯接的人工智能算法模型輸入作品作為數據樣本,通過對海量作品的機器學習發現其中語言表達規律,最終生成具有人類作品外觀形式的內容,本身即具有追求生成相似內容的意圖。從美國司法實踐來看,Grokster案確立了如下技術中立原則的例外,如果主體所提供的軟件構成“以積極措施引誘用戶將其作品用作侵權使用”,就推定其已經具有明確的幫助侵權意圖,將不得適用“實質性非侵權用途”原則,構成幫助侵權。生成式人工智能技術本質在于替代人類創作行為以生成表達性內容,相比于提供傳輸、存儲等傳統技術提供者而言,直接涉及對作品的接觸與模仿,其引發侵權的意味更加明顯,違背技術中立的基本理念。
其次,如果平臺都能夠以“技術中立”作為其免責事由,將嚴重縮減著作權侵權規制范圍,無法實現著作權法律制度對侵權行為的打擊,因而需要區分“技術中立”與“技術應用中立”。技術本身是作為一種中立的方法而客觀存在的,但如果技術提供者在開發或使用該項技術時涉及大量主觀因素的介入,主動介入乃至干預技術的設計和運行,則不能簡單地以其提供中立性技術為由主張免責事由。對于生成式人工智能服務提供者而言,平臺基于自身運營目標與市場定位,設置以某種傾向性結果為導向的評價反饋機制,使得人工智能系統能夠遵循特定運行邏輯,提供符合平臺預設的個性化服務內容。從生成式人工智能技術的設計、運行與修正過程來看,服務提供者的主觀因素貫穿其中,其介入與干預行為已經打破技術中立,導致平臺自身中立地位的減弱。
最后,生成式人工智能服務提供者通常從會員訂閱、收益分成、廣告收入等平臺運營模式中獲取一定的經濟收益,以維持運營平臺的日常開支并實現創收,因存在盈利情況導致其技術利用行為難謂中立。從“避風港規則”來看,免責的前提是沒有獲利。平臺地位中立的原則性標準在于其“只能扮演被動與中立角色,不控制用戶行為或不從侵權行為中獲取商業利益”。在權責一致觀念的考察下,服務提供者如果基于平臺所發生的侵權行為獲得經濟收益,其應當承擔起與獲利水平相當的責任。例如,《歐盟數字服務法案》將在歐盟擁有4500萬以上月活躍用戶的數字服務提供商定義為“超大型互聯網平臺”,因其較高獲利水平而被賦予特殊監管措施與額外義務。德國針對歐盟境內年營業額不超過1000萬歐元且向公眾開放時間不超過3年的起步型服務提供商、年營業額低于100萬歐元的小型服務提供商,豁免其屏蔽侵權作品等部分注意義務。相比之下,生成式人工智能服務提供者通常為OpenAI、英偉達、微軟等具有行業壟斷地位的大型科技公司。此時,服務提供者借助研發與使用生成式人工智能獲取大量經濟利益,需要對用戶的侵權行為承擔更高的注意義務。
(二)成本效益的經濟理性選擇
由生成式人工智能服務提供者承擔著作權侵權責任,有利于降低防范侵權行為的風險成本,符合效益最大化追求,是經濟理性選擇下的應然結果。從生成式人工智能侵權行為邏輯來看,用戶利用平臺提供的生成式人工智能技術生成侵權內容,并使用、傳播相關生成內容造成對權利人的損害。在此情形下,權利人的首要追責主體是用戶。然而,相比于大規模用戶散點化侵權責任承擔情形,服務提供者能夠以集中方式控制與處置侵權內容,其防范與解決侵權行為風險的成本較低。服務提供者作為“最低成本規避者”(cheapest cost avoider theory)對侵權結果承擔責任,符合經濟效率原則。因此,基于成本最低即效益最優的經濟理性分析,應當引入權利人向生成式人工智能服務提供者的追責途徑,由服務提供者承擔合理范圍內的著作權侵權責任。
具體而言,在降低成本方面,補充生成式人工智能服務提供者作為著作權侵權主體能夠有效降低侵權維權與訴訟成本。在單獨尋找侵權人的場景下,權利人存在較高的訴訟成本,不僅發現侵權行為難度較高,即便權利人知曉侵權行為的存在,為搜尋、定位、通知大規模用戶也需要付出一定的成本。相比之下,直接以服務提供者為對象展開訴訟活動,能夠批量集中處理侵權行為,在客觀上降低維權成本。在提升效益方面,由生成式人工智能服務提供者承擔著作權侵權責任能夠促進權利保護與救濟效果的實現,體現在消除侵權內容、承擔損害賠償責任等方面。相比于用戶各自刪除侵權內容,服務提供者因技術控制能力優勢不僅能夠從源頭上消除侵權內容,避免他人使用相同生成內容造成重復侵權;在服務提供者采取算法優化必要措施的背景下,通過對算法的調整和優化,更能夠有效規避后續類似侵權行為的發生。同時,由服務提供者承擔連帶責任,能夠實現損害賠償責任在用戶與服務提供者之間的合理分配,引入權利人向服務提供者的補充追償方案,避免因自然人財產不足以支付損害賠償費用時權利人的救濟不能。事實上,在信息存儲服務等傳統網絡服務提供者侵權案件中,原告大多選擇將網絡服務提供者列為間接侵權主體,一方面主張用戶上傳侵權內容構成直接侵權,另一方面主張網絡服務提供者對用戶侵權行為起到幫助作用,構成間接侵權。實踐所積累的訴訟策略恰恰表明平臺在規制與防控著作權侵權方面所具有的成本效益優勢。
(三)危險控制理論的適用
根據危險控制理論,行為人對于其能夠實施控制與支配的危險,負有控制責任。關于人工智能的風險控制者界定,歐盟法律委員會《關于人工智能民事責任體系的建議性文件》將“對風險實施控制”定義為“能夠在任何階段影響人工智能運行方式或者對其特定功能和程序進行修改的行為”,規定控制風險應當采取的注意義務包括選擇符合認證標準的人工智能系統、對系統運行部署常規性監控并及時報告異常情況、根據制造商指示及時升級系統等。能夠實施上述風險控制義務的唯一主體指向生成式人工智能服務提供者。對于生成式人工智能而言,盡管其自主生成能力已經得到人們的廣泛認可,但人工智能作為“數據、算法和算力結合形成的技術集合體”,本質上仍然處于服務提供者的控制之下。在此方面,有學者將生成式人工智能比喻為服務提供者操縱的“提線木偶”,服務提供者作為“幕后引線人”決定著數據輸入的選擇、算法模型的設計與優化,以此主宰生成式人工智能最終在用戶提示詞下生成何種內容。因此,當生成內容引發著作權侵權時,由服務提供者從“幕后”走向“臺前”承擔著作權侵權責任具有必要性。
結合生成式人工智能技術進路,對于數據輸入、算法運行、內容生成等階段可能造成的著作權侵權風險,服務提供者始終處于風險防范與管理的優勢地位,具有治理著作權侵權風險的能力。具體而言,在數據輸入階段,生成式人工智能的數據通常來源于服務提供者事先向人工智能系統中喂養的數據。即使在自動抓取模式下,人工智能抓取數據的類型與范圍,也取決于服務提供者設定的篩選條件。對于數據輸入階段存在的復制權、改編權侵權風險,服務提供者可以通過不使用未經授權的數據集合進行規避。在算法運行階段,服務提供者作為算法搭建與利用者具有一定程度的控制力。服務提供者若選擇使用具有同義詞替換、語序轉換功能的“洗稿”式算法模型,將在很大程度上直接導致侵權內容的生成。反之,服務提供者選擇使用神經網絡、深度學習等智能算法模型,則可以有效防范輸出侵權內容,生成具有獨創性的全新作品。在生成內容階段,內容輸出需要經過服務提供者的評估,并在必要時接受服務提供者的糾正,因此生成內容體現了服務提供者的價值選擇。服務提供者在此階段能夠通過優化評估標準等手段,防止人工智能系統生成復制型、演繹型侵權內容。因此,服務提供者負有生成內容著作權侵權風險防控義務,當侵權發生時由服務提供者承擔著作權侵權責任,符合危險控制理論的要求。
三、生成式人工智能服務提供者著作權侵權的歸責路徑分析
前文闡述了生成式人工智能服務提供者承擔著作權侵權責任的必要性,但其究竟應當承擔何種著作權侵權責任、采取何種過錯歸責原則、如何認定其是否具有過錯,相關問題需要進一步探討以明晰答案。“首例AIGC平臺侵權案”認定生成式人工智能服務提供者構成直接侵權,但這是否會賦予相關平臺過高的責任承擔、對科技賦能產業發展造成不利影響,仍然有待進一步研究。為確立生成式人工智能服務提供者著作權侵權的歸責路徑,需要在既有著作權侵權規則體系框架下,針對主體地位、過錯原則與注意義務等構成要件予以具體分析。
(一)生成式人工智能服務提供者的主體地位之界定
界定生成式人工智能服務提供者的主體地位,是承擔何種著作權侵權責任的前提。值得注意的是,在“《紐約時報》訴OpenAI公司案”中,原告不僅提出OpenAI公司生成侵權內容構成直接侵權,同時又以幫助用戶侵權為由主張OpenAI公司承擔間接侵權責任。原告的這一做法雖然是訴訟策略的選擇,但也恰恰反映出生成式人工智能服務提供者作為侵權主體的復雜性,若不清晰界定其主體屬性,將導致著作權侵權框架的模糊與混亂。根據民法基礎理論,平臺作為網絡服務提供者,只需對用戶侵權行為承擔間接侵權責任;反之平臺作為內容生產者,則應當承擔直接侵權責任。生成式人工智能服務提供者是否構成著作權法意義上的網絡服務提供者,決定著行為人是否具有承擔著作權間接侵權責任的資格,關乎侵權抗辯事由的成立與否。因此,在生成式人工智能侵權中,有必要首先明確服務提供者的主體性質,以在主體定位問題上達成共識為前提,確定其后續的責任承擔問題。
生成式人工智能服務提供者旨在提供技術支持,具備對外提供服務的行為外觀。就生成式人工智能侵權中三方主體而言,用戶通過輸入提示詞方式觸發人工智能系統輸出侵權內容,其指令的存在決定人工智能系統生成相關表達,其意圖的選擇決定究竟生成何種表達。相比之下,服務提供者負責運營、控制生成式人工智能系統,向用戶提供一種智能化生成服務。此時,生成式人工智能系統作為工具供用戶使用,因而服務提供者僅具有提供技術支持的行為。參考《深度合成管理規定》第23條第1款對深度合成技術屬性的定位,深度合成服務提供者因提供技術通常被認定為網絡服務提供者。生成式人工智能作為深度合成的一種,其服務提供者亦應被界定為網絡服務提供者。當然,考慮到生成式人工智能與一般網絡服務技術的不同,其對內容輸出的介入與接觸程度較高,防范此類侵權行為的能力較強,但這并不意味著生成式人工智能服務提供者就應當成為直接侵權主體,而是可以通過提高其注意義務標準實現權責一致觀念下對生成式人工智能侵權的規制。
進一步而言,生成式人工智能侵權與網絡服務提供者侵權存在同質性,二者具有“評價重心”的相似性。客觀上,生成式人工智能系統短時間內即輸出海量內容,服務提供者沒有能力接觸或審查如此龐大的內容,大幅降低了服務提供者與侵權內容之間的緊密聯系。主觀上,在用戶輸入指示詞并發出生成指令的前提下,人工智能系統才會輸出相關內容,因而服務提供者通常無法自主知曉或意識到侵權內容的存在。由此可見,服務提供者與指令發出用戶和一般網絡服務提供者與真正上傳內容用戶之間的關系具有相似性,同理,應當將用戶界定為直接侵權主體,而服務提供者則作為間接侵權主體。
因此,鑒于生成式人工智能侵權與一般網絡服務提供者侵權的相似性,對于生成式人工智能服務提供者的主體地位,完全可以采解釋論立場,將生成式人工智能的服務提供者作為特殊類型納入網絡服務提供者的門類,以此確定其間接侵權主體的屬性。事實上,從《民法典》《信息網絡傳播權保護條例》等規定來看,立法者顯然沒有預料到人工智能這一類新型網絡服務技術的崛起,而是基于對網絡服務的傳統認知,將“網絡服務提供者”的法定類型限定于自動接入或傳輸、自動存儲、提供信息存儲空間、提供搜索或鏈接等四種特定情形,施以不同的責任豁免方式。但是,為解決上述封閉式法定類型應對新型著作權侵權糾紛能力的不足,法院就曾開創性地將信息流推薦服務提供平臺定位為網絡服務提供者。為了規制生成式人工智能侵權,擴大解釋的法解釋方法也可為生成式人工智能應用場景下的侵權問題提供解釋進路,將生成式人工智能網絡服務提供者視為新型網絡服務提供者,并在后續制度設計中結合其技術特點與侵權場景,適當調整侵權責任承擔方式并合理設立注意義務。
(二)生成式人工智能服務提供者著作權侵權的過錯原則之確立
生成式人工智能服務提供者作為新型網絡服務提供者,置于現行著作權間接侵權規則體系,應對其采用過錯責任原則。從一般網絡服務提供者過錯責任原則的立法模式演變來看,伴隨服務提供者對侵權行為防范和監控能力的不斷提升,主要國家均拋棄無過錯責任原則,選擇對服務提供者采用過錯責任。因此,為回應實踐需求、契合制度融貫性,生成式人工智能服務提供者原則上應承擔過錯責任。不僅如此,應當意識到著作權侵權之于普通民事侵權的不同,前者由于權利客體無形性、權利保護范圍限定性,侵權本身即存在較大的不確定性,涉及思想和表達界限的劃分。借鑒美國司法實踐做法,當涉及思想表達之上過錯認定時,法院往往采取較為謹慎的態度,避免無過錯責任的承擔。從“毒蘑菇案”到“阿特金斯減肥法案”,美國法院先后駁回了要求紙質圖書出版者、網站信息發布者對自身平臺上思想內容承擔無過錯責任的主張,認為對媒介平臺采用嚴格責任不利于思想的傳播與表達。因此,對于生成式人工智能而言,要求服務提供者承擔嚴格侵權責任,會在很大程度上抑制多元化表達的產生與傳播。對于人工智能系統所生成的思想表達內容,不應苛責平臺承擔無過錯責任,而應以過錯責任為歸責原則,從而適當降低其侵權責任承擔水平。
然而,直接將過錯責任適用于生成式人工智能侵權將產生如下問題:一是因生成式人工智能系統復雜性所帶來的“算法黑箱”問題,難以定位過錯源頭、追溯侵權發生原因。在生成式人工智能的各階段中,非法數據輸入、算法運行故障、指示詞設置不合理等都有可能導致侵權內容的輸出,即便是專業人員也無法解釋生成侵權內容的詳細機理。與提供自動傳輸、信息存儲空間等傳統網絡平臺相比,“算法黑箱”問題加劇了法律制度在考察算法目標意圖、感知侵權內容能力等方面的困惑,為推斷服務提供者的主觀狀態帶來巨大挑戰。二是服務提供者與使用者存在“信息不對稱”局面,生成式人工智能系統信息通常被服務提供者內部所掌握,而權利人卻無從獲取相關信息,難以舉證證明服務提供者的過錯狀態。為解決上述問題,采用過錯推定原則更為合理。所謂過錯推定原則,即以特定作為或不作為行為推定服務提供者具有主觀過錯,這種客觀化認定不僅契合生成式人工智能的技術特性,也能夠解決無法解釋過錯的實踐難題,有效減輕權利人的證明負擔。對此,《歐盟關于使非合同性民事責任規則適應人工智能的指令(提案)》(以下簡稱《歐盟人工智能責任指令》)也提出“證據披露推定”“因果關系推定”,即典型的過錯推定方式。
過錯推定原則作為過錯責任的一種特殊形態,本質上是一種客觀化的過錯認定方式。從《民法典》第1197條規定來看,間接侵權的過錯認定存在“知道或者應當知道”兩種主觀狀態。前者是指行為人具有“明知”的主觀故意心態,典型如服務提供者收到權利人發出的侵權通知。此時,服務提供者明確知悉侵權行為的存在,如果不履行采取必要措施的義務,具有故意放任侵權發生的主觀過錯,在此種情況下行為主體應當就損害擴大部分與直接侵權主體承擔連帶責任。后者作為特殊情形,盡管此時服務提供者不存在知悉侵權行為發生的主觀故意,但法律規定由于服務提供者在運營過程中出現特定的作為或不作為行為,就推定具有“應知而未知”的過失心態,要求其承擔相應的侵權責任。因此,生成式人工智能侵權適用過錯推定責任原則表現為:一方面,過錯推定原則采取的是一種過錯認定的客觀化標準。《歐盟人工智能責任指令》指出,“被告或可歸責于被告的主體”如果“違反歐盟或成員國法律規定的、直接目的在于防止發生損害的注意義務”,可以推定其存在過錯。在過錯推定原則下,服務提供者是否具有過錯不再考察其對侵權內容的主觀心理狀態,而是聚焦于該服務提供者是否盡到法律規定的注意義務、恰當履行特定行為。另一方面,過錯推定原則具有推定因果關系的效果,降低了權利人舉證證明責任。當侵權行為發生時,權利人只要能夠初步證明生成式人工智能系統輸出侵權內容且服務提供者違反法定義務,服務提供者即被推定對侵權內容存在因果關系,因具有過錯而承擔相應的間接侵權責任。
四、生成式人工智能服務提供者著作權侵權的注意義務設立
在過錯推定原則下,服務提供者違反法定義務,即被推定具有過錯。因此,注意義務成為判斷生成式人工智能服務提供者著作權侵權的核心。關于如何設立生成式人工智能侵權的注意義務,學者提出有“防抄襲設計與停止輸出”“規避版權侵權設計與用戶誘導侵權治理”“數據清理與算法調整”等不同觀點。本文認為,設立生成式人工智能侵權的注意義務需要首先確定其客觀、動態的認定標準,結合既有技術水平、服務方式和內容管理能力等因素,合理設置注意義務的具體內容,從而為服務提供者使用技術提供法律保障,以鼓勵其技術研發與利用行為。
(一)生成式人工智能服務提供者著作權侵權注意義務的認定標準
生成式人工智能服務提供者作為一類新型網絡服務提供者,如何合理設立其注意義務,關系到生成式人工智能技術發展與權利人權益保護之間的平衡。如果法律制度設置過強的注意義務,將在市場中反映為服務提供者使用生成式人工智能系統成本的激增,極易抑制生成式人工智能技術的研發與推廣;反之,服務提供者履行注意義務不足,不利于權利人的權益保護,難以實現著作權法保護創新、激勵作品創作之制度宗旨。因此,生成式人工智能侵權中注意義務的設立需要立足當前技術發展與實踐需求,在既有規則基礎上作出適當調整,充分發揮其督促服務提供者消除損害后果、預防監測侵權行為發生的積極作用,以促進人工智能技術與智能內容產業的協同發展。
具體而言,服務提供者的注意義務認定首先需遵循客觀標準。如前所述,注意義務的本質即在于客觀化的過錯認定方式。在這種客觀標準下,服務提供者的過錯判斷不再關注其主觀上對侵權行為的可預見性,而是聚焦于該服務提供者的外在行為是否符合法律規定的特定客觀標準。在此,參考安全保障義務理論中“善良管理人”標準,有學者類比提出生成式人工智能侵權的“理性計算機”(Reasonable Computer)標準,強調在判斷過錯時注重計算機系統的實際行為,以此克服計算機運行過程的不透明性。事實上,注意義務可以被視為一種為生成式人工智能服務提供者制定的“理性計算機”標準,是法律制度對非侵權主體的客觀“畫像”。實踐中,著作權法律制度通過《暫行辦法》等法律法規預先設置服務提供者的各類行為義務,構建起生成式人工智能成為“理性計算機”的客觀標準。在認定服務提供者有無過錯時,只要將該服務提供者的實際行為與該客觀標準進行比對即可,如果其達到客觀標準即不具有侵權可責性;反之,則服務提供者未盡到注意義務,應當承擔侵權責任。因此,關于生成式人工智能服務提供者的注意義務應作客觀化判斷,采取以外在行為為核心的客觀中心主義。
同時,著作權法律制度應對服務提供者的注意義務認定采取動態標準,將行業普遍技術水平、侵權危害程度、獲利水平、服務方式和內容管理能力等都作為影響注意義務的重要因素。注意義務的設定應當采取彈性標準,結合因素變化情況,動態地調整注意義務水平,以確保不同情況下服務提供者的權責一致性,維系服務提供者、權利人與廣大用戶之間的利益平衡。面對實踐中類型多樣的生成式人工智能服務提供者,應根據服務提供者實際采用的人工智能系統,結合技術運行原理分析其對于輸出內容的控制能力,對不同服務提供者的注意義務作出合理的制度安排。例如,隨著數字技術的飛速發展,行業普遍的內容識別技術水平顯著提升,導致服務提供者的監督與防范侵權成本持續下降,由服務提供者采取更專業的必要措施、更大范圍地控制侵權內容輸出成為可能。此時,仍采取舊時技術水平下的注意義務標準將造成權責分配的不均,應當要求服務提供者承擔較高的注意義務,以此推動技術向上向善的發展。
(二)生成式人工智能服務提供者著作權侵權注意義務的具體內容
以客觀、動態作為注意義務的主要認定標準,結合既有技術水平、侵權危害程度、內容管理能力等因素,可以合理設置生成式人工智能服務提供者的注意義務內容。“首例AIGC平臺侵權案”確立的注意義務包括投訴舉報機制、潛在風險提示以及顯著標識義務,主要援引自《暫行辦法》相關管制性規定。結合危險控制理論的適用,生成式人工智能在數據輸入、算法運行、內容生成等階段均出現著作權侵權風險,旨在消除和防范著作權侵權風險的注意義務應當結合上述不同階段加以設立。本文在“首例AIGC平臺侵權案”所確定注意義務的基礎上,提出生成式人工智能侵權的注意義務應當包括數據來源合法義務、算法優化訓練義務、監督用戶合規使用義務。
1. 數據來源合法義務
數據來源合法義務來源于《暫行辦法》第7條“依法開展訓練數據處理活動”要求,即服務提供者應使用具有合法來源的數據,不得侵害他人依法享有的知識產權。從生成式人工智能技術機理來看,數據作為機器學習的樣本來源,其本身質量高低影響到最終生成內容的優劣。通常而言,喂養高質量數據集合的人工智能系統更能得出合理、可靠的輸出結果。反之,服務提供者輸入大量侵權內容作為機器學習樣本,人工智能系統發現其中侵權行為規律,并將相關行為特征運用于內容生產,將極大概率地輸出侵權內容。在訓練數據選擇這一重要階段,服務提供者可以通過制定數據輸入標準、數據的收集與篩選流程,獲得對輸入數據的決定與控制權限。因此,服務提供者應當建立更加完善的數據輸入機制,將侵權規制節點前置于數據輸入環節,通過確保數據來源合法以最大程度地避免大規模侵權內容的輸出。具體而言,在數據自行抓取過程中,以robots協議約定的方式和范圍獲取數據樣本,不得不當繞過權利人合法設置的技術措施;在數據處理過程中,完成對收集數據的初步篩選,排除其中未經授權使用的侵權作品內容。
2. 算法優化訓練義務
對于生成式人工智能而言,算法作為人工智能系統生成內容的引擎,算法的先進性之于輸出內容的創新性而言具有關鍵作用。生成式人工智能場景下內容生成的行為模式與基本特征很大程度上取決于算法模型的搭建方式及其功能化實現路徑。人工智能系統生成大量侵權內容,往往是由于其算法構建思路、指標比重設計等方面存在一定缺陷。為此,有必要合理設置生成式人工智能服務提供者的算法優化訓練義務,從技術根源上避免侵權問題的出現。具體而言,該義務的構建應當從事前、事后兩方面進行。前者是指服務提供者應盡最大努力阻止潛在侵權內容的輸出,提前介入以阻斷侵權發生;后者是指當人工智能系統確有侵權內容生成時,服務提供者應當及時采取算法模型的審查與整改措施,防止未來更多類似侵權內容的輸出。
事前方面,服務提供者的注意義務是指引入算法過濾機制。該注意義務來源于網絡服務提供者的事先版權過濾機制,旨在利用算法阻止侵權內容的輸出。版權過濾機制在《歐盟單一數字市場版權指令》中獲得廣泛承認,其第17條第4款賦予歐盟境內網絡服務商承擔一種前置審查責任,被學者稱為“過濾器”條款。將上述規定適用于生成式人工智能侵權場景,注意義務要求服務提供者應在人工智能系統搭建過程中嵌入版權內容過濾機制,利用算法實現生成內容的事先識別,并設置自動化程序阻止被系統判定為侵權內容的輸出。日本《人工智能與著作權處理方案(草案)》出現類似規定,“提供者采取了防止該人工智能系統生成與現有作品相似內容的技術措施時,其被評價為侵權主體的可能性降低”。實踐來看,當前各大網絡平臺為防范用戶利用其網絡服務上傳侵權作品,已經采取各類事先過濾技術手段。國外如視頻分享網站You?Tube研發Content ID內容識別系統,對平臺上海量作品內容開展實時版權偵測;國內如百度公司自主開發“反盜版DNA比對識別系統”,用于識別并攔截用戶上傳與既有作品相同或高度近似的內容。在最高人民法院發布的2012年知識產權司法保護十大案件中,法院就曾認定百度文庫“確保其反盜版系統正常運行之功能”屬于相關網站應當采取的必要措施之一。既有版權過濾技術的日漸成熟為設立算法過濾義務提供了充分的客觀基礎。
應當注意到,引入算法過濾機制義務本質上是一種行為義務,而非結果義務。換言之,只要服務提供者采取了與其技術水平、專業程度相匹配的內容識別、關鍵詞過濾等技術措施即達到該注意義務標準,而不論其防范侵權內容生成的實際效果。尤其對于著作權侵權而言,服務提供者實際上無法定性評估生成內容是否合法,只能基于重復表達數量推斷構成侵權。例如,算法不能在個案中分辨侵權行為與合理使用的差異。這意味著那些雖然存在重復表達但構成轉換性使用的作品,以及那些部分屬于有限表達范疇的作品,會被算法過濾機制“誤判”為侵權內容予以刪除或屏蔽。因此,要求引入算法過濾機制義務以達到某種防范侵權效果,既不現實也不可取。生成式人工智能服務提供者所搭建的算法過濾機制只要達到同階段同類型服務行業的普遍技術水平,就應當視為其已經盡到注意義務。
事后方面,服務提供者的注意義務是指采取算法模型整改措施。根據《暫行辦法》第14條規定,提供者發現違法內容的,不僅應當“及時采取停止生成、停止傳輸、消除等處置措施”,還應當“采取模型優化訓練等措施進行整改”,以防范人工智能系統未來再生成類似侵權內容。從網絡服務提供者的“通知-必要措施”規則來看,服務提供者收到侵權通知后未采取必要措施的,與用戶承擔連帶責任,使得“必要措施”成為服務提供者應當負擔的注意義務。法院認為,服務提供者采取必要措施的恰當性需要結合形式與實質兩個要件加以判斷。前者是指服務提供者是否根據用戶侵權行為的方式以及自身所提供服務的性質、技術水平、信息管理能力等,實際采取了包括但并不限于刪除、屏蔽、斷開鏈接等方式的措施。后者則是指相關措施的采取是否產生了制止和預防明顯侵權的處理結果。法院在論述二者關系時指出,前者只是網絡平臺所應履行的法律義務中的一部分,是其免于承擔侵權責任的必要并非充分條件。如果未能在實質上取得制止、預防明顯侵權的效果,依然被視為沒有完成其必要措施義務的履行。對于生成式人工智能服務提供者而言,為達成實質要件所追求的預防侵權效果,有必要設立算法模型整改義務作為事后方面的注意義務。
換言之,目前對于服務提供者采取措施的注意義務不僅停留于刪除屏蔽、停止輸出等簡單行為,而是要求做到從根源上阻止未來更多類似侵權行為的發生。立法方面如《歐盟單一市場版權指令》采用“專業勤勉的高度行業標準”,要求服務提供者必須“盡到最大努力防止侵權作品的未來上傳”;司法實踐方面,巴西最高法院審理“達夫拉訴谷歌案”認為網絡平臺有必要采取搜索攔截機制作為技術解決方案,以防止被刪除內容的再次上傳。上述義務也被德國聯邦最高法院描述為“面向未來的審查義務”(künftige Kontrollp?flicht),要求服務提供者對未來侵權的發生承擔審查防范義務。因此,算法模型整改義務要求生成式人工智能服務提供者在發現人工智能系統輸出侵權內容時,不僅需要對相關內容進行刪除或屏蔽,以阻止該侵權內容的繼續傳播,還應當及時檢測算法是否存在固有缺陷,采取模型優化訓練等措施予以整改,以防止實質性相同的侵權行為再次發生,促進人工智能系統生成更多優質內容。
3. 監督用戶合規使用義務
生成式人工智能服務提供者作為技術支持方,無法決定用戶如何使用該人工智能系統,但應當通過采取警告、賬號封禁、投訴舉報等措施監督用戶使用行為,以實現“指導使用者科學理性認識和依法使用生成式人工智能技術”原則性規定。第一,對于用戶誘導侵權行為,包括故意輸入誘導性提示詞、基于非法目的要求使用版權作品、故意規避過濾機制等,服務提供者應當及時予以警告,并在必要時采取停止輸出、關鍵詞屏蔽等措施。第二,對于同一用戶的反復侵權行為,服務提供者應當主動采取相應的阻止措施。法國《促進互聯網創作傳播和保護法案》規定有“三振出局”規則,即對于侵權達到三次的用戶將被網絡服務提供商切斷網絡,且在斷網期間,禁止其他網絡服務提供商為其提供替代的網絡連接。參考國外相關經驗做法,針對平臺中反復侵權用戶,生成式人工智能服務提供者應當在必要時基于服務使用規范采取賬號封禁、限制訪問、終止提供服務等制止手段,以避免更多侵權內容的輸出。第三,對于用戶潛在侵權行為,及時建立投訴舉報機制。這包括設置便捷的投訴舉報入口、公布處理流程和時限、及時受理并反饋處理結果等具體內容。通過建立完善的投訴舉報機制,確保權利人投訴舉報渠道的暢通,以便及時發現用戶的潛在侵權行為。當服務提供者收到相關投訴舉報信息時,應當完成對涉嫌侵權內容的形式審查,如果初步判定構成侵權,應采取必要措施并將通知轉送用戶;如果初步判定不構成侵權,應建立反通知的用戶維權機制,及時恢復被不當處理的相關內容。
五、生成式人工智能服務提供者著作權侵權責任的認定規則構建
現行網絡服務提供者的著作權侵權責任認定規則具有一定的局限性,無法被合理有效地適用于生成式人工智能等新型技術應用場景之中,導致生成式人工智能服務提供者在著作權侵權規制與防范方面的不足,也為服務提供者利用生成式人工智能帶來諸多不確定性風險。面對人工智能等新一代信息技術的迭代升級,有必要意識到生成式人工智能技術的自主性和復雜性,構建與該技術相適應的著作權侵權責任體系。在確定著作權侵權歸責路徑的前提下,重構服務提供者的新型網絡服務提供者地位,以前文設立的生成式人工智能侵權注意義務為核心,結合不同行為形態類型化構建生成式人工智能服務提供者著作權侵權責任體系;在建立著作權侵權責任認定規則的同時,合理制定生成式人工智能服務提供者著作權侵權責任限制規則,以維系權利人、服務提供者與用戶之間的利益平衡。
(一)生成式人工智能服務提供者著作權侵權責任的類型化構建
根據過錯推定原則,生成式人工智能服務提供者未盡到注意義務的,承擔間接侵權責任。圍繞生成式人工智能技術全生命周期設立的注意義務涵蓋數據輸入、算法運行、內容生成等不同階段,涉及數據來源合法、算法優化訓練、監督用戶合規使用等多元樣態。服務提供者因違反不同的注意義務,其著作權侵權責任的發生依據不同,導致著作權侵權責任的具體認定也應當有所不同,故應類型化構建生成式人工智能服務提供者著作權侵權責任體系。
1. 基于數據來源非法的著作權侵權責任
生成式人工智能服務提供者在數據輸入階段未盡到數據來源合法的注意義務,導致數據輸入端存在大量侵犯他人著作權的數據樣本,應被推定為“應當知道”的過失情形,由生成式人工智能服務提供者承擔間接侵權責任。實踐中,服務提供者向人工智能系統喂養的數據類型多元,且數據來源方式復雜多樣,包括服務提供者自行抓取互聯網上公開數據,也包括數據持有主體以API接口、打包下載等方式向服務提供者有償提供數據集合。在后一種情況下,服務提供者并非原始的數據收集與持有主體。此時,在要求服務提供者因未盡審核數據合法來源義務而承擔著作權侵權責任的同時,還應當引入原始數據持有主體作為第三人補充承擔相應的侵權責任。原始數據持有主體承擔著作權侵權責任的原因在于其未經原權利人許可向生成式人工智能系統提供侵權內容,涉及對相關內容之上復制權、信息網絡傳播權的直接侵權。因此,基于數據來源非法的著作權侵權責任認定應當以服務提供者承擔間接侵權責任為原則,同時允許服務提供者事后向原始數據持有主體追償,由數據來源的真正收集和提供者承擔補充責任。
2. 基于算法缺陷的著作權侵權責任
與基于數據來源非法的著作權侵權類型不同的是,基于算法缺陷的著作權侵權通常不涉及其他第三方主體,而僅由服務提供者承擔侵權責任。服務提供者因違反算法優化訓練的注意義務,既沒有在事前引入算法過濾機制,也沒有在侵權行為發生后及時采取算法模型整改措施,導致平臺上出現大量實質性相似的侵權內容,將被視為具有“應當知道”算法缺陷的主觀過錯,由服務提供者承擔間接侵權責任。值得注意的是,此處的“算法缺陷”并非旨在真實考察該生成式人工智能系統是否存在運行漏洞,而是一種法律推定,即當服務提供者未采取相應措施、具有相關不作為行為時即推定其導致生成式人工智能系統產生算法缺陷,對最終輸出侵權內容的結果承擔相應的連帶責任。
如前所述,判斷生成式人工智能提供者是否違反注意義務應采取彈性標準,結合既有技術水平、專業程度、信息管理能力等因素加以個案判斷。為促進新技術產業發展,在生成式人工智能產業的發展初期,不宜在算法優化訓練方面制定過高的注意義務標準,而應適當放寬對基于算法缺陷的著作權侵權認定。法院在審理其他新技術領域侵權案中明確指出,民事責任規則的設立不僅關系個案中當事人之間的利益平衡,亦會對整體技術產業發展產生影響。“若對云計算服務提供者在侵權領域的必要措施和免責條件的要求過于苛刻,勢必會激勵其將大量資源投入法律風險的防范,增加運營成本,給行業發展帶來巨大的負面影響”。在此方面,“漢德公式”提出一種基于成本與損失比較的判斷標準,即只有當行為人預防未來侵權發生的成本小于預期侵權損失時,才應當要求行為人對不作為行為承擔過失侵權責任。參考“漢德公式”的量化標準,如果服務提供者采取必要措施的成本高于既有算法缺陷可能造成的侵權損害,如引入算法過濾機制遠高于現實可執行的管理技術水平、算法模型整改成本過于高昂等,此時經生成式人工智能服務提供者舉證證明,可以免除其著作權侵權責任。
3. 基于用戶引誘的著作權侵權責任
當用戶采用故意引誘方式要求人工智能系統生成侵權內容時,服務提供者能夠以已經采取事先警告、關鍵詞屏蔽等措施為由避免責任承擔;然而,如果服務提供者在其日常運營中未盡到監督用戶合規使用義務,則需要對用戶引誘侵權承擔連帶侵權責任。此時,用戶存在明顯的侵權意圖,其作為侵權內容的觸發與誘導者,對侵權行為的發生負有主要責任,故應當減輕服務提供者的間接侵權責任。如生成式人工智能服務提供者能夠證明用戶引誘侵權行為超出其控制與預料范圍、不具有識別或阻止用戶引誘侵權行為的現實可能性,可以僅在合理范圍內承擔賠償責任,以公平責任形式對權利人損失給予適當補償。正如“首例AIGC平臺侵權案”所面對的困境,即便服務提供者明知用戶指令將會生成侵犯他人權利的內容,但服務提供者往往無法拒絕相關內容的生成。此時,服務提供者只要已經向用戶發出警告,并在收到權利人通知后及時采取必要措施,不應當要求其承擔損害賠償責任。同時,著作權法律制度也應當規定在此類情況下行為人承擔損害賠償金額的上限,以避免施以服務提供者過重的侵權賠償責任。
(二)生成式人工智能服務提供者著作權侵權責任限制的合理設置
侵權責任制度的價值取向在于預防功能而非制裁功能。侵權責任制度的設計應當重視引導行為人如何預防損害的發生,防止一味地加重侵權責任作為懲戒,削弱相關主體創新的積極性。因此,在制定生成式人工智能著作權侵權認定規則的同時,為維系利益平衡、促進法律與技術的良性互動,還需要思考如何設置服務提供者著作權侵權責任限制,以避免相關侵權責任后果的無限擴張。本文認為,生成式人工智能服務提供者著作權侵權責任限制可以通過制定意思自治保留下的責任分配規則、用戶免責下的侵權阻卻規則予以界定。
1. 意思自治保留下的責任分配規則
法律制度無法消除侵權行為造成的損害,但是可以通過明確規定損害發生后的侵權責任分配規則,在為權利人提供救濟的同時,也為技術開發與使用者對各自行為后果與風險承擔建立穩定預期。生成式人工智能服務提供者的著作權侵權責任承擔,旨在合理地分配損害風險,實現全新內容創作模式下的利益分割與風險分擔。實踐中,服務提供者和用戶之間往往通過用戶協議等格式合同,事先約定關于生成內容之上著作權侵權風險的承擔主體與責任范圍。對此,法律應當尊重雙方對于侵害損失分擔的意思表示,鼓勵行為人以意思自治方式實現風險分擔與責任劃分。構建意思自治保留下的責任分配規則,是指法律允許服務提供者和用戶通過事先約定的方式分配著作權侵權責任,優先于法律法規在著作權侵權責任承擔方面的概括性規定。對于服務提供者對生成侵權內容不具有主觀過錯,采取必要措施后仍造成相關損失的,可以通過事前約定等方式減輕或免除責任。
2. 用戶免責下的侵權阻卻規則
生成式人工智能服務提供者侵權是第三人介入型侵權情形。用戶使用人工智能系統生成侵權內容并對外傳播構成直接侵權,服務提供者因提供生成式人工智能技術幫助侵權內容的輸出而構成間接侵權。關于直接侵權與間接侵權的關系,目前理論界主流采“從屬說”,認為間接侵權依附于直接侵權而存在,行為人承擔間接侵權以直接侵權的實際發生為前提。反之,若不存在直接侵權,則行為人不構成間接侵權。在著作權侵權領域,如果用戶未對外傳播侵權內容或者對外傳播侵權內容但構成合理使用,即符合《著作權法》第24條規定的若干法定情形,用戶的直接侵權行為獲得免責。此時,作為間接侵權構成基礎的直接侵權行為不復存在,因而服務提供者不需要承擔侵權責任。即便服務提供者違反應盡的注意義務,其也不承擔侵權責任。2007年,由微軟、索尼影業、迪士尼等全球互聯網和媒體公司共同發起的行業行為規范提出,技術的使用方式必須能夠合理平衡權利人在防止侵權內容方面的合法利益與網絡平臺和用戶在允許合理使用方面的利益。因此,及時構建生成式人工智能服務提供者著作權侵權認定中基于用戶免責的侵權阻卻規則,是實現利益平衡、推廣技術應用的重要制度構成。
六、結語
生成式人工智能技術的涌現不僅造成技術革新,也正在深刻改變著互聯網生態環境與產業利益格局。生成式人工智能不同于傳統網絡服務提供者所使用的內容分發手段,而是具備自主性內容生產能力,對著作權侵權責任認定帶來不小的挑戰。“首例AIGC平臺侵權案”作為司法實踐對生成式人工智能侵權問題的首次回應,其做法整體上值得肯定。然而,該案在侵權主體認定、注意義務與侵權責任承擔等問題上的分析尚不夠深入。生成式人工智能服務提供者的法律規制需要把握其技術特性與侵權場景,置于既有著作權侵權責任認定體系框架下予以具體分析。“如無必要勿增實體”,對生成式人工智能服務提供者可以暫且采解釋論立場,將其納入網絡服務提供者主體范疇進行規制。對于這類新型網絡服務提供者,應當建立過錯推定原則,重構其注意義務標準與具體內容,完善并構建著作權侵權責任認定及其限制規則。毫無疑問,清晰劃分生成式人工智能服務提供者的侵權行為界限,回應權利人、服務提供者與用戶等多方主體之間復雜的利益訴求,重塑技術產業變革下的網絡版權治理范式,是有效解決生成式人工智能服務提供者著作權侵權問題的出路。