[摘要]隨著生成式人工智能,如ChatGPT等產品的快速崛起,在顯著提升生產效率的同時,也引發了著作權侵權問題,AIGC在數據輸入、機器學習、內容輸出等階段均存在侵犯復制權與演繹權的風險。通過分析不同著作權體系國家對AIGC可版權性的判斷標準后,文章發現,AIGC服務提供者應承擔主要的侵權責任,因其在侵權風險的產生與內容的直接提供中扮演著核心角色。為有效應對AIGC帶來的著作權侵權挑戰,文章提出了雙軌制的救濟措施:一是明確侵權責任分配的事后救濟途徑,確保著作權人的權益得到有效維護;二是采取數字權利管理系統的事前救濟措施,通過技術手段預防侵權行為的發生。
[關鍵詞]人工智能生成物;生成式人工智能;著作權侵權;侵權救濟;可版權性
隨著技術的飛速發展,人工智能(AI)已成為引領科技變革的重要力量,在提升生產效率同時也引發了諸多倫理與法律爭議。AI在發展初期主要局限于執行簡單、明確且重復性高的任務,而隨著其智能化程度的提高,其學習能力也隨之提升。2022年,ChatGPT的面世,更是激起了學界的廣泛討論,該產品能依據用戶指令自動生成內容,并基于自然語言處理技術,實現與人類深度且流暢的交流[1]。這標志著AI進入生成式人工智能階段,可以在無人類干預情形下自行抓取信息并生成內容[2],其雖然提高了生產效率,但也帶來了一系列法律問題,如著作權侵權問題等,亟待解決。
一、人工智能生成物的著作權侵權風險類型
人工智能生成物(Artificial Intelligence GeneratedContent,簡稱AIGC)指由人工智能技術生成的內容,這些內容可以是文本、圖像、音頻、視頻等多種形式。以往的科學技術會對作品的存在形式、權利類型和權利限制造成影響。而如今的生成式人工智能不僅影響著作權人的傳播權,而且已經對著作權人的復制權、演繹權造成了損害。
(一)AIGC侵犯復制權的風險
AIGC的產生需要經歷“數據輸入—機器學習—內容輸出”三個階段,而其侵犯復制權的風險在每個階段皆有體現。第一,在數據輸入與機器學習階段,即內容輸出階段前,此階段生成式人工智能并不與公眾直接交互,其運行核心在于“對既有作品的數字化轉制與存儲”[3]。生成式人工智能會從公共領域搜集版權作品作為訓練材料,并存儲有關副本,而在此過程中不可避免地會抓取未經著作權人明確授權的版權內容,故可能會侵犯抓取作品的復制權。同時,在進入深度學習與強化訓練前,生成式人工智能依賴開發者預先整合的海量數據資源,這些數據通過自然語言處理(NLP)技術轉化為數據模型或副本,供算法迭代優化[4]。此轉換過程,本質仍是對版權作品的數字化復制,若數據源中包含未經授權的數字作品或受版權法保護的數據庫內容,則會構成對復制權的侵犯。第二,在內容輸出階段,同樣存在侵犯著作權人復制權的風險。不同于前兩個階段的內部數字化復制,內容輸出階段涉及對作品中獨創性元素的公開展示或再現,旨在讓公眾能夠直接感知或接觸。若AIGC與用于訓練的基礎數據作品間存在顯著的實質性相似,則構成對原作品復制權的侵犯。
(二)AIGC侵犯演繹權的風險
演繹作品指通過對現有作品進行改編、整合、或翻譯等,創造出蘊含原創元素的新作品形態。當AIGC展現出一定的獨創性,而核心內容依然沿用先前作品的基本表述框架時,則AIGC有可能被界定為演繹作品,故若生成式人工智能的開發者或服務提供商未事先征得原作品權利人的許可,AIGC就可能會侵犯版權作品的演繹權。
依據著作權法第十條第1項第14款對“改編權”的規定,“改編權”是改變原有作品,進而創作出新穎且具有獨創性作品的權利。從這一法律條文的邏輯出發,未經著作權人許可而進行改編完成的作品,須具有獨創性才可能會侵犯改編權。而AIGC的獨創性一直是具有爭議性的話題,縱觀我國有關人工智能生成物的司法實踐,可見司法機構傾向于對其采取有條件保護的司法原則[5]。例如,在“騰訊與盈訊糾紛案”中,法院認定涉案文章雖由Dreamwriter軟件生成,但其外在展現形式源于創作者的個性化設計與編排,具備獨創性,因此符合著作權法對文字作品的保護標準。這體現了人工智能生成物可能蘊含創造性,并存在侵犯改編權的風險。
在生成式人工智能技術的數據處理流程中,依據是否對輸入數據進行標記及處理方式的不同,其“機器學習”可被劃分為監督學習、半監督學習及無監督學習三類[6]。盡管生成式人工智能常用的生成式對抗網絡(GANs)技術屬于無監督學習范疇,不涉及數據標記過程,因此在直接的數據分析階段不直接觸犯改編權,但無論是何種監督程度的學習方式,均涉及對數據的篩選、組織及整合,這些行為在本質上可視為一種“匯編”操作,有可能對原版權作品的匯編權構成潛在侵犯[7]。
二、人工智能生成物的可版權性探究
探討AIGC的可版權性,對明確其法律地位、責任主體及后續保護措施具有重要意義。若AIGC具有可版權性,便意味著著作權人可能會突破至“人”以外的群體;若其不具有可版權性,則不應被納入著作權保護范疇。當前,關于人工智能生成內容的可版權性,尚無明確結論,主要爭議點在于其生成的內容是否具有獨創性。
以美國為代表的版權體系國家,其著作權法對獨創性的探索歷史悠久,1903年的Bleistein案奠定了獨創性寬松判定的基礎,即作品與既有作品間存在細微差異即可。然而,隨著法律演進,1991年的Feist案進一步調整了獨創性的判斷標準,對判斷標準進行細化,強調獨創性應超越形式差異,蘊含基本的主觀創造性。2023年3月,美國版權局進一步明確,基于AI技術(如ChatGPT、Midjourney)自動生成的內容不享有著作權保護,而人類使用軟件(如Photoshop)創作的圖像則受保護。這表明,美國更傾向于依據生成物的客觀特征與經濟價值,來逆向推斷其獨創性,重視個性表達的微弱體現。相比之下,以德國為代表的作者權體系國家,則強調獨創性必須根植于作者的主觀能動性與思想創造,明確區分創造性智力活動與機械性勞動。依此標準,作品應為作者人格之延伸,正如黑格爾所言“唯有通過心靈的創造性活動方能成就藝術”[8]。此標準排除了諸如臨摹、解題等機械勞動成果,認為它們未體現作者獨特的人格特征。
在我國,關于AIGC的版權性問題,存在三種主流觀點:第一,有學者認為AIGC僅是算法與模板的產物,缺乏人類精神活動的痕跡,難以構成作品[9];第二,一些學者主張AIGC雖由算法生成,但其內容與形式均受人類干預,體現了人類意志,應受版權保護[10];第三,鑒于人工智能的快速發展,部分學者認為這種趨勢會對現有著作權法律體系造成沖擊,故倡導對獨創性判斷標準及著作權歸屬機制進行必要調整以適應技術發展[11]。
三、人工智能生成物的侵權主體確定
如上所述,不同著作權體系的國家對人工智能生成物獨創性的判斷標準并不統一,我國對AIGC的可版權性判斷,無論是學術界還是實務界均存在爭議。鑒于技術發展的復雜性與現行法律規定的限制性,AIGC確已引發著作權侵權問題,且無可避免,因此明確AIGC侵權主體對解決侵權問題具有重要意義。
(一)傳統網絡著作權侵權的主體及責任
在我國民法體系中,網絡侵權責任屬于特殊侵權責任的一種,其核心在于明確網絡服務提供者、被侵權人以及實際侵權人三者之間的法律關系架構[12]。傳統網絡侵權行為主要指網絡用戶通過互聯網平臺侵犯他人合法權益,網絡用戶作為直接侵權者承擔主要責任,但當網絡服務提供者未盡到注意義務或未能采取適當措施有效遏制侵權行為時,也要承擔間接侵權責任。
根據《中華人民共和國民法典》第1194條的規定,網絡侵權損害賠償責任的判定遵循“過錯責任原則”,包括故意和過失兩種。網絡用戶及網絡服務提供者在故意狀態下違反保護他人權益的基本義務,在過失狀態下則是對其應盡注意義務的疏忽。根據《中華人民共和國民法典》的有關規定,網絡服務提供者還要遵循“通知—刪除”規則,用于評估網絡服務提供者是否充分履行了注意義務[13],并據此判斷其是否存在主觀過錯。著作權人發現網絡用戶侵犯其著作權后,可通知網絡服務提供者刪除相應侵權內容,網絡服務提供者接到通知后,須告知網絡用戶并采取行動,否則須對損害擴大部分承擔連帶責任。
(二)人工智能生成物的侵權主體確定
在探討人工智能生成物的侵權主體時,首要問題是人工智能是否具備作為法律主體來承擔侵權責任的能力。學界對此存在不同的觀點,包括完全主體資格、有限主體資格以及無主體資格等[14]。從技術維度審視,AIGC的侵權內容實質上是基于人類開發者精心設計的算法,由人工智能產品直接產出的結果。然而,無論是“智能算法”抑或是“智能化產品”,均屬于法律關系的客體范疇,缺乏成為法律主體的資格條件,故生成式人工智能本身無法被界定為侵權主體,亦不具備承擔侵權責任的法律能力。而法人和非法人組織之所以被法律認可為主體,源于其擁有理性從事法律活動的能力,能夠承擔民事法律后果,并展現積極認知與改造世界的能動性。反觀人工智能產品或智能算法,其所有活動均嚴格遵循人類開發者預設的技術邏輯與操作規范,處于人類技術控制之下,缺乏法律主體所必備的自主決策與意識能力。
在確定了人工智能產品本身不具有法律主體資格后,我們可以進一步分析傳統網絡侵權責任的主體。其一是網絡用戶,AIGC是由網絡用戶與AIGC服務提供者共同作用而產生的。盡管網絡用戶作為指令的發起者,在AIGC的創造過程中扮演關鍵角色,但是作為人工智能產品的消費者,他們往往對AIGC可能引發的侵權不承擔過錯責任。網絡用戶與AIGC服務提供者之間構建起一種類似于“完工合同”的關系框架,在此框架下,若AIGC涉及版權糾紛,AIGC服務提供商則需承擔由此引發的違約責任。從合同關系的構建維度審視,網絡用戶作為信賴利益的享有者,處于守約方地位,他們既無法預見也難以有效甄別AIGC輸出的侵權屬性,更無須承擔審查、比對或篩選潛在侵權內容的法律義務。因此,司法機構在界定侵權損害賠償的責任主體時,不宜將網絡用戶直接視為侵權行為的主體。然而,若網絡用戶在明知先前作品存在的情況下,故意利用人工智能產品重復生成與原作具有實質性相似的內容,則其行為應被認定為積極的侵權行為,須承擔相應的法律責任。
其二是生成式人工智能算法提供平臺。算法作為技術方案本身并不具備自主執行能力,AIGC中侵權內容的出現,本質上可歸因于人為干預乃至操控。具體而言,AIGC侵權內容的產生首先依賴于AI算法設計者的技術奠基,隨后由生成式AI服務平臺作為媒介,通過網絡用戶的輸入操作激活算法,最終演化成AIGC侵權內容并傳播至公共領域。相較于產品設計者,AIGC服務平臺作為直接面向市場的服務提供者,應承擔更多侵權責任。這是因為設計者并不直接介入服務的提供過程,而AIGC服務平臺,作為商業運營的主體,對AI技術及算法的設計、優化及市場投放擁有更高的控制權與決策權。值得注意的是,多數生成式AI產品依據著作權法被歸類為“職務作品”范疇[15],在此框架下,AIGC服務平臺不僅是產品的孵化者,還是面向公眾提供商業服務的服務者。綜上所述,AIGC服務平臺不僅為AI產品的誕生注入了資金與技術活力,還間接提供了侵權內容產生的商業土壤,實質上扮演了著作權侵權風險催生者的角色。因此,AIGC侵權內容的涌現與其服務平臺的服務行為之間存在著直接的邏輯鏈條,在侵權行為里應承擔直接侵權責任。作為風險的源頭,AIGC服務平臺在將AI技術推向市場之前,必須構建健全的風險管理體系,預見潛在的損害并主動采取預防措施。
四、人工智能生成物的侵權救濟途徑
(一)事后救濟:明確AIGC的侵權責任分配
1.網絡用戶的侵權責任
AIGC侵權后,網絡用戶所應承擔的侵權責任包含兩個方面:一是停止侵害;二是基于過錯責任進行損害賠償。就停止侵害責任而言,鑒于著作權作為民事權利中的絕對權,故著作權人有權在遭受侵害時,要求侵權行為人終止侵害行為,包括停止任何進一步的利用和傳播侵權內容的行為,同時網絡用戶一旦意識到AIGC構成侵權,亦應立即停止侵害。
關于損害賠償責任的歸責,司法機構應以網絡用戶在AIGC生成及傳播過程中出現過錯為原則。通常而言,網絡用戶基于對AIGC服務提供者的信任而使用其人工智能產品,在AIGC生成過程中并不存在過錯,因此無須對侵權內容負責。然而,當網絡用戶在使用該人工智能產品時,輸入了大量且具體的指令,使得生成內容體現了用戶的明確表達而構成侵權時,則應承擔相應損害賠償責任。在AIGC傳播過程中,若網絡用戶明知其利用和傳播的AIGC為侵權作品,卻仍繼續利用或傳播,且未采取措施防止損害擴大,則應與AIGC服務提供者就損害擴大部分承擔連帶責任。根據《中華人民共和國民法典》規定,網絡服務提供者在履行注意義務且不知曉傳播內容涉嫌侵權,或在知曉后采取必要措施防止損害擴大的,可以免除其責任,而在AIGC侵權中網絡用戶對人工智能產品的掌控度明顯低于網絡服務提供者,因此網絡用戶可參照“避風港原則”主張免責。
2.網絡服務提供者的侵權責任
AIGC服務提供者兼具開發與服務雙重角色,對其設計研發的生成式人工智能更為了解,因此不宜將“避風港原則”作為其責任判定的基準,當AIGC侵權時,其應承擔類似于原創“作者”的責任。以往,網絡著作權侵權責任的歸責原則以“過錯責任”為主,輔以“過錯推定原則”,然而作為新興社會性風險的引發者,AIGC服務提供者應采用無過錯責任原則。其一,出于保護著作權人合法權益的考量,盡管AIGC服務提供者已竭力阻止侵權內容生成,但風險依舊難以避免,并損害著作權人的利益,而采用過錯原則或過錯推定原則可能會導致著作權人的部分經濟損失無法得到補償。其二,從社會風險合理分配的角度出發,AIGC服務提供者采用無過錯責任原則,能更好地體現法律的理性與公正,它強調AIGC服務提供者必須對其平臺上侵權內容的生成承擔明確的侵權責任。這一要求旨在促使AIGC服務提供者在當前的技術能力框架內,積極預防侵權行為的發生,并有效遏制侵權后果的蔓延,從而達成風險防控的合理化與責任分擔的公平性。
(二)事前救濟:建立數字版權管理系統
因復制成本低廉且收益頗豐,AIGC侵權行為頻發。盡管事后救濟可以在一定程度上捍衛著作權人的權益,但其固有的缺陷如高昂的訴訟成本、有限的賠償額度以及侵權主體身份識別的困難,均對著作權人維權造成了阻礙。鑒于事后救濟的局限性,我們應積極尋求借助現代科技力量,為人工智能創作作品的著作權人提供前置性保護措施,以期達到防患于未然的目的。
事前保護的核心在于遏制未經授權的訪問與利用人工智能創作成果。為此,司法機構可依托先進技術建立全面的數字版權保護框架,該框架通過加密與封裝技術,將待保護的人工智能創作內容置于安全屏障之內,并整合所有針對該內容的訪問請求交由統一的數字版權管理系統中處理。著作權人能夠靈活設定訪問權限,系統依據預設條件自動審核并控制訪問權限的授予,從而在源頭上構建起一道“電子防護網”,有效遏制非法獲取與使用行為,預先阻止潛在侵權的發生。為促進這一數字版權保護框架的有效運作,司法機構首要任務是構建一個標準化的著作權信息注冊體系,鼓勵并要求著作權人通過該平臺詳盡登記其作品信息,以官方認證的登記證書作為權屬確認的依據。這一舉措不僅明確了作品的權利歸屬,還為后續利用數字版權管理系統實施精準、高效的保護奠定了堅實基礎。
[參考文獻]
[1]肖婉婷,肖靈敏,馮鐘鳴.生成式人工智能產品版權保護問題研究:以ChatGPT為視角[J].對外經貿,2024(06):88-91.
[2]張凌寒.生成式人工智能的法律定位與分層治理[J].現代法學,2023(04):126-141.
[3]劉云開.人工智能生成內容的著作權侵權風險與侵權責任分配[J/OL].西安交通大學學報(社會科學版),1-13[2024-07-15].http://kns.cnki.net/kcms/detail/61.1329.C.20240604.1353.004.html.
[4]徐小奔,楊依楠.論人工智能深度學習中著作權的合理使用[J].交大法學,2019(03):32-42.
[5]吳漢東.論人工智能生成內容的可版權性:實務、法理與制度[J].中國法律評論,2024(03):113-129.
[6]趙宏偉,茹克婭·霍加.生成式AI背景下著作權侵權樣態及其風險治理[J].網絡安全與數據治理,2023(09):59-64.
[7]徐龍.機器學習的著作權困境及制度方案[J].東南學術,2022(02):237-245.
[8]黑格爾.美學:第一卷[M].朱光潛,譯.北京:商務印書館,1979.
[9]劉影.人工智能生成物的著作權保護初探[J].知識產權,2017(09):44-50.
[10]曹新明,咸晨旭.人工智能作為知識產權主體的倫理探討[J].西北大學學報(哲學社會科學版),2020(01):94-106.
[11]吳漢東.人工智能生成作品的著作權法之問[J].中外法學,2020(03):653-673.
[12]楊明.《侵權責任法》第36條釋義及其展開[J].華東政法大學學報,2010(03):123-132.
[13]吳漢東.論網絡服務提供者的著作權侵權責任[J].中國法學,2011(02):38-47.
[14]成素梅,高詩宇.智能機器人應有法律主體資格嗎?[J].西安交通大學學報(社會科學版),2020(01):115-122.
[15]李偉民.職務作品制度重構與人工智能作品著作權歸屬路徑選擇[J].法學評論,2020(03):108-124.
[作者簡介]李玉琦(2000—),女,山東濰坊人,山東科技大學碩士研究生。