999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能數據“投喂”的著作權侵權行為規制

2025-03-25 00:00:00常燁
科技與法律 2025年2期

摘 "要:生成式人工智能在大模型訓練中的數據“投喂”引發了內容創作者對自身作品被違法使用的擔憂,生成式人工智能面對指控往往訴諸合理使用條款進行抗辯。生成式人工智能的技術特性,使得對于“投喂”未獲許可作品行為的規制面臨事實查明、歸責、懲戒等多重困境。對于這種涉及新技術、新要素、新產業鏈的著作權侵權治理而言,必然對新制度有所訴求。因此,應當在生成式人工智能尚在自我探索的這一發展階段,明確這種著作權侵權的法律適用,從侵權責任認定與舉證責任分配、技術性授權的行業自律規范、“機器遺忘”強制性規范等多個維度,構建生成式人工智能輸入端對數據“投喂”著作權侵權行為的規制框架。

關鍵詞:生成式人工智能;訓練數據“投喂”;著作權;侵權

中圖分類號:D 923.41 " " " 文獻標志碼:A " " 文章編號:2096-9783(2025)02?0031?11

一、問題的提出

2023年被譽為生成式人工智能爆發之年,ChatGPT等服務展示了生成式人工智能的突破性進展與未來潛力[1]。但生成式人工智能需要鯨吞海量數據的“成長”之路也引發了不少的侵權爭議。網易LOFTER平臺于2023年3月上線生成式人工智能繪畫功能后,大量用戶因擔心自身原創作品被該平臺作為訓練數據“投喂”給平臺的生成式人工智能工具而注銷[2],8月起小紅書平臺的生成式人工智能繪畫產品也受到相似的質疑,導致大量原創畫師退出[3]。11月,辦公軟件WPS也被質疑為訓練其生成式人工智能產品而濫用用戶文檔[4]。2023年底,美國媒體《紐約時報》把OpenAI及其投資方微軟公司告上法庭,指控二者未經授權就使用該媒體的數百萬篇文章來訓練人工智能大模型,要求被告銷毀相關數據并對媒體損失負責[5]。推出ChatGPT的OpenAI在這之前就已經受到多次類似的控告,相關權利人認為生成式人工智能在大模型訓練過程中的數據“投喂”存在侵犯其著作權的情形。不難發現,生成式人工智能的成長過程,一直伴隨著大模型訓練的數據“投喂”侵權的爭議,而內容創作者權益保護與生成式人工智能技術發展促進之間的沖突也隨著生成式人工智能應用與服務的勃興而日漸激烈。目前關于生成式人工智能的法律回應,其討論焦點大多集中于生成式人工智能的輸出內容權利歸屬、算法治理等基于生成式人工智能的輸出端或“算法黑箱”過程端層面的問題,對于輸入端權利沖突或侵權問題的關注相對較少。然而,無論是為了規范生成式人工智能大模型訓練的數據“投喂”以促進生成式人工智能的良性發展,還是為了保護傳統內容創作者的著作權益以激勵更多樣作品的創作與傳播,都有待各方面及時作出有效的制度安排。

二、訓練數據“投喂”的著作權侵權風險

生成式人工智能的大模型訓練過程中對數據的“投喂”,如若缺乏清晰的合規邊界,勢必引發相關權利人,尤其是著作權人的擔憂與抵制,進而影響生成式人工智能生成能力的迭代進程。因此,有必要對生成式人工智能大模型訓練數據“投喂”行為進行解析,并對其涉及的著作權侵權風險進行識別。

(一)“投喂”行為的性質界定

以ChatGPT為代表的生成式人工智能應用,以顛覆性的創新使得人工智能技術的發展來到了新的科技奇點。根據《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),生成式人工智能是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。在這一定義中,一個關鍵詞是內容生成,另一個關鍵詞是模型。生成式人工智能的內容生成,是不同于以往弱人工智能的可以從無到有的新內容創建,而這一內容生成的實現是通過大型語言模型(LLMs)實現的,即通常所說的大模型。所謂大型語言模型,是基于2017年谷歌提出的Transformer算法構建的。Transformer算法依賴注意力機制來表征模型的輸入和輸出之間的全局依賴關系,使用神經卷積網絡等進行深度學習,來模擬人腦的神經網絡,實現對大規模數據的智能處理,生成有意義、有邏輯的內容[6]。簡言之,大型語言模型,就是基于一系列編碼器—解碼器堆疊而成的序列到序列(Seq2Seq)的架構建立的,模型的輸出,本質上是通過編碼器將輸入轉化為特征,再由解碼器將特征轉化為輸出,而每一個內容單元的輸出,是模型對內容單元的概率計算后的選擇,由此生成一個“有邏輯”的全新內容。也就是說,生成式人工智能所生成的一句話的邏輯與意義,是源于大模型基于計算“認為”這樣生成一些字詞并如此排列這些字詞,大概率是符合人類語言邏輯的,而非生成式人工智能真的“理解”了字詞的意義。圖像、視頻等多模態生成式人工智能亦同理。

由此可見,無論是大型語言模型的構建、Transformer算法的優化,還是為了避免生成內容的過時或雷同,都需要“投喂”大量的數據來預訓練或者訓練??梢哉f,訓練數據的質量決定了生成式人工智能輸出內容的質量。Google的文本模型與訓練時就用到了至少1 500億的詞匯[7]。2020年5月發布的ChatGPT3所用到的預訓練數據規模以TB為單位,2023年3月發布的ChatGPT4的預訓練數據規模雖然沒有公布,但僅憑其為多模態模型這一點,就不難推測其預訓練數據規模應當遠遠大于此前的單模態模型[8]。

生成式人工智能的“創造力”,一方面來源于大模型的計算能力,另一方面來源于對大模型的數據“投喂”訓練。鑒于生成式人工智能在大模型訓練過程中“投喂”的數據,被大模型轉化為生成式人工智能的生成能力,這種對數據的“投喂”行為,就是為了發展生成式人工智能的生成能力而對數據的規模化利用,那么這種“投喂”行為當然構成對所“投喂”數據的使用。

(二)“投喂”數據的類型分析

根據《中華人民共和國數據安全法》(以下簡稱《數據安全法》)的定義,數據是指任何以電子或者其他方式對信息的記錄。在數字經濟時代,數據已經成為重要的生產要素,數據的使用是數據價值實現的具體路徑。生成式人工智能在大模型訓練過程中所“投喂”的數據,一方面規模龐大,另一方面也是稀缺資源[9]。對于稀缺的資源,其使用必然應當受到法律的規制,以避免對稀缺資源的濫用。

現實中,這種用于“投喂”生成式人工智能大模型的稀缺資源的來源非常廣泛,而且主要來源于網絡。以ChatGPT?3為例,其訓練數據集包括Common Crawl、WebText2、Books1、Books2、Wikipedia等[10]。這些來源或者是公開或私有的數據集,或者是來源于網絡圖書資源庫的圖書資料,或者是網絡上公開共享的知識信息。這些數據按照不同的維度可以有不同的劃分。例如,按照數據來源,可以劃分為自有數據與外來數據。按照獲取方式,可以劃分為購買的數據、網絡爬蟲爬取的數據、公開數據集下載的數據等。對于著作權侵權問題而言,有效的區分,是按照是否需要獲得授權以用于“投喂”的標準對數據進行分類。

對于需要獲得許可才能用于“投喂”的數據,生成式人工智能在大模型訓練過程中對這些數據的使用,會涉及不同的法律風險。例如,將數據庫的數據、通過知識共享協議共享的數據用于“投喂”很可能超出數據庫許可使用范圍。將Wikipedia等知識共享平臺的公開數據用于“投喂”,也很可能超出面向非商業使用的知識共享協議的覆蓋范圍,這些數據“投喂”行為也就很可能侵害數據權利人的利益并構成侵權[11]。其中,更為特殊的受到著作權保護的數據,是數字形態的作品。

這些作品以數據的物理形態存在于互聯網或特定的數據庫中,其以數據的形態被“投喂”給生成式人工智能大模型。其中對于著作權保護作品的“投喂”,當然也構成著作權法意義上的使用,只是這種使用的具體形態是因為技術發展而帶來的新形態而已。

(三)“投喂”未獲許可作品的侵權風險分析

如果說生成式人工智能大模型輸出端的著作權侵權問題,可能是個全新的問題,那么其輸入端的“投喂”未獲許可作品的問題,本質上仍然可以歸為“未經許可的使用”這一傳統問題的討論,并不涉及爭議更大而尚未形成一致結論的生成式人工智能的法律主體資格、生成式人工智能生成內容的權利歸屬、生成式人工智能侵權責任的法律性質等問題。根據《中華人民共和國著作權法》(以下簡稱《著作權法》)相關條款,使用他人作品的合法路徑只有兩條,或者通過與著作權人訂立許可使用合同的方式獲得使用許可,或者屬于法定許可或合理使用。

生成式人工智能在訓練大模型時對著作權人作品的使用,如果與著作權人進行了一對一的授權許可約定,那自然不存在侵權風險,但現實中,更多的使用情形并未取得事先許可,甚至著作權人在事后也并不知情。關于法定許可,我國《著作權法》相關條款明確了法定許可的適用,需要考察其使用目的、作品的使用主體等情形,但并未給生成式人工智能訓練大模型留下適用空間。更何況,法定許可仍然需要向著作權人支付報酬,而生成式人工智能在訓練大模型時對這些作品的使用,缺乏對著作權人的識別機制,也就難以履行報酬支付義務。

實踐中,生成式人工智能一方為了抗辯自己面臨的著作權侵權指控,往往訴諸合理使用制度。例如,創制了ChatGPT的OpenAI在面臨了“投喂”數據侵權指控時,就以17 U.S.C. § 107下的合理使用(fair use)進行抗辯[12-13]。鑒于生成式人工智能大模型訓練的海量數據“投喂”需求,所“投喂”數據的授權如果采用傳統方式,當然會存在極大的授權成本。為了低成本地解決這一問題,有研究者提出,將這種數據“投喂”納入著作權合理使用范疇[13]。

向生成式人工智能的大模型“投喂”未獲授權數據進行訓練,能否構成合理使用,需要根據合理使用的司法認定標準予以解釋。合理使用制度的目的,就是為了協調著作權人的權益保護與后續創新成本的降低,將在特定情形下的不經著作權人許可的使用合法化。我國《著作權法》第二十四條第一款明確列舉了可以不經著作權人許可使用作品的情形,同時吸收了《中華人民共和國著作權法實施條例》第二十一條“不得影響該作品的正常使用,也不得不合理地損害著作權人的合法權益”的表述,由此形成了我國作為TRIPs成員國對《伯爾尼公約》關于合理使用“三步檢驗法”的本土化表達[14]。

首先,根據“三步檢驗法”,應當考察著作權的使用行為是否屬于我國構建著作權合理使用制度中所列舉的“特定且特殊情形”。這種意在開發“產品”的未獲授權“投喂”,既不屬于個人行為,也不屬于學校教學科研,也與評論、介紹、引用無關,更非轉換性使用的“二次創作”,顯然難以直接歸入或者解釋為屬于其中任何一種法定情形。

其次,即使能夠將向生成式人工智能的大模型“投喂”未獲許可作品解釋為我國著作權合理使用制度中所列舉的特定且特殊的情形之一,這種“投喂”也不符合不得影響作品正常使用、不得不合理地損害著作權人合法權益的判定要件。根據《伯爾尼公約》相關文獻、世貿組織爭議仲裁委員會的解釋以及相關判例,“不得影響作品的正常使用”意在從經濟效果層面判定,考察“使用”是否在同一競爭領域、是否影響權利人經濟利益,“不得不合理地損害著作權人合法權益”同樣是從經濟效果層面進行輔助判定[15]。鑒于生成式人工智能目前生成內容的能力,其在許多領域都有了取代人類工作崗位的可能[16]。經過“投喂”,生成式人工智能可以生成與被“投喂”作品水平接近甚至水平相仿的內容。至少在一些特定的領域,生成式人工智能的生成內容已經與被“投喂”作品之間形成了競爭關系。Pixiv、Shutterstock等圖庫平臺已經開始接受人工智能供稿。經過“投喂”的生成式人工智能的生成能力提升之后,雖然可能促進了整個社會的生產力的提升,但勢必也會影響被“投喂”作品的使用,尤其是被“投喂”作品的交易機會,進而影響原創作者的作品權益。在生成式人工智能生成內容的細分目標市場,生成式人工智能甚至不需要達到和被“投喂”作品相仿的水平,就能夠以大模型的批量生產效率所帶來的低成本取代被“投喂”作品。起初這種對原創作者的影響,可能更多發生于下沉市場,但隨著生成式人工智能生成能力的提升,這種影響也將擴大到更大的范圍,尤其是在插畫、廣告等投入產出比等難以衡量的藝術作品細分市場,更容易產生“劣幣驅逐良幣”的逆向淘汰。

最后,生成式人工智能的未獲許可作品“投喂”并不符合適用合理使用的正當性。從合理使用的經濟學正當性基礎來看,向生成式人工智能的大模型“投喂”未獲許可作品也不符合著作權合理使用的經濟理性。著作權的合理使用,意在克服市場的失靈,因此,市場失靈應當是適用著作權合理使用制度以豁免責任的前提,也就是說,如果當事人之間可以通過市場的方式實現合理使用,那么,就沒有必要適用著作權合理使用制度,因為通常市場是著作權變動的更有效率的配置手段[17]。更何況,我國的部門規章,已經規定了生成式人工智能服務提供者的訓練數據合規性義務,合法合規使用數據“投喂”訓練大模型是生成式人工智能服務提供者所需要負擔的必要成本?!稌盒修k法》第七條明確規定了生成式人工智能服務提供者開展預訓練、優化訓練等訓練數據處理活動時所應負擔的義務,包括“使用具有合法來源的數據和基礎模型”“不得侵害他人依法享有的知識產權”等。生成式人工智能服務提供者完全可以通過正常的著作權市場交易獲取訓練所需的“數據”,而不必借助合理使用損害授權交易模式下的經濟利益。著作權的合理使用,意在平衡著作權人的個人利益與社會公共利益,從而對著作權人的權利進行適當限制。但至少目前的生成式人工智能服務提供者,幾乎無一例外都是商事主體,遵循的是市場規則,很難將生成式人工智能產業鏈的參與者的商業利益評價為社會公共利益。同樣,在財產權益這個維度,生成式人工智能的商業利益,沒有理由應當優先于內容創作者的著作權益。

因此,生成式人工智能對大模型訓練的數據“投喂”如果在未獲許可的情況下使用了著作權人的作品,按照我國現行的著作權保護規則,這種行為既不屬于法定許可情形,亦難構成合理使用。

三、“投喂”未獲許可作品的規制困境

生成式人工智能在大模型訓練過程中“投喂”未獲許可作品的著作權侵權風險,已經引起了一些研究者的關注,在世界范圍內也已經引發了一些著作權人提起相關訴訟。然而,即便在客觀事實層面,生成式人工智能的這種“投喂”的確存在對著作權人權益的侵害,但在我國現行的著作權保護制度之下,對于生成式人工智能的懲戒很可能面臨奈何不得的困境。

(一)事實查明困境

過去的“使用”,大多是保留作品原貌的使用。例如,最高人民法院發布的2022年中國法院十大知識產權案件中的“大頭兒子”著作權侵權糾紛案中,被告就是未經授權使用了著作權歸原告所有的動漫人物形象[18]。這種侵權使用直觀易見,著作權人很容易發現侵權行為并固定相應證據。對于改變了作品原貌的“洗稿”等侵權行為,權利人也能夠從中識別出相似性,并參照司法實踐中已經形成了通過抽象觀察法和整體觀察法來評價是否構成實質性相似的認定標準固定證據。

但對于生成式人工智能在大模型訓練時的數據“投喂”而言,著作權人首先就很難發現其作品是否被“投喂”。以ChatGPT為例,ChatGPT?3及其之前的訓練數據集,部分能夠在公開網絡上獲取,但ChatGPT?4之后,這一應用并未開源,其訓練數據集亦未公開。隨著生成式人工智能商業價值的顯現,越來越多的市場主體開始發力自家生成式人工智能產品與服務的訓練以搶占市場領先者的地位。在這種激烈的市場競爭格局之下,各家生成式人工智能的訓練數據集很難獲得公開。這就導致著作權人無法從數據源發現生成式人工智能在大模型訓練的數據“投喂”時對其作品的使用。

由此,著作權人對其作品未獲許可使用情況的發現,也只能依賴于從生成式人工智能輸出內容中進行推測。例如,生成式人工智能所生成的內容中,疑似有著作權人作品的原創性表達。過去的人工智能算法,可能還是基于特定的輸入,輸出確定的甚至唯一的結果,那么在無法查清輸入端侵權狀況的情況下,也依然有可能通過其輸出內容證明其輸入端的數據使用情況。然而,對于生成式人工智能而言,其泛化能力讓其顯得更智能,卻也使得輸入輸出之間計算過程的可解釋性變得極為復雜。大模型對作品的使用之后呈現的結果,是這些作品經過算法黑箱的輸出數據。生成式人工智能的算法會提取“投喂”數據的特征,但也會“隨機”改變其中的一些特征,生成新的特征。從算法層面來說,生成式人工智能最終的生成結果,很難評價為哪一個特征是出自哪一個“投喂”數據的訓練。

因此,如果只能通過輸出內容去證明或者查明侵權事實,那么生成式人工智能輸出端內容的著作權侵權問題所涉及的窘困,也同樣會復現在生成式人工智能輸入端的數據“投喂”侵權問題上。就生成式人工智能輸出端內容的著作權侵權問題而言,早在傳統人工智能時代,就已經有研究者預見性地提出,應當放寬實質性相似的認定標準以約束人工智能技術規避其生成物的實質性相似風險[19]。然而,生成式人工智能這種輸入端到輸出端算法可解釋性的復雜性,不僅使得其輸出端輸出內容是否存在著作權侵權問題,難以借助此前在實踐中發展出來的整體觀察法、抽象觀察法等實質性相似的判斷標準,也使得其輸入端的數據使用情況變得難以舉證、難以查明。

(二)歸責困境

即便能夠查明生成式人工智能在大模型訓練的數據“投喂”中存在對未獲許可作品的使用,在責任主體確認方面也依然存在新技術帶來的新問題?,F實中,無法完整獲取生成式人工智能大模型訓練數據的著作權人,憑借生成式人工智能的輸出結果證明或查明生成式人工智能在訓練數據“投喂”方面存在侵權可能是為數不多的現實路徑?;谶@一前提,生成式人工智能一方有充分的抗辯以擺脫己方法律責任。

生成式人工智能的輸出內容,一方面依賴于海量數據的訓練,另一方面也是基于與用戶的互動。海量數據“投喂”的訓練過程,使得生成式人工智能逐步形成生成特定內容的能力,而生成式人工智能與用戶的互動過程,則使得生成式人工智能的輸出相對特定化。即便著作權人能夠證明生成式人工智能的輸入端必然存在對未獲許可作品的“投喂”,但由于在生成式人工智能的語境下,“投喂”的主體可能涉及用戶和生成式人工智能兩方,可能的侵權主體自然也并不具有唯一性。

造成這一歸責困境的原因,同樣在于生成式人工智能輸入端到輸出端之間算法可解釋性的復雜性。換言之,即使明知存在過錯,著作權人也好,司法也罷,均很難在法律事實層面查明責任人到底是生成式人工智能的服務提供者一方,還是生成式人工智能的用戶一方。

(三)懲戒困境

令侵權人承擔責任,是對侵權行為予以懲戒的重要手段。根據我國《著作權法》第五十一條,如若生成式人工智能大模型的數據“投喂”的確存在侵權,侵權人應當承擔的責任可能有停止侵害、消除影響、賠禮道歉、賠償損失等。

如何確定賠償損失的數額這一問題本身,一直是知識產權研究領域的難點問題。在此前的著作權糾紛案件中,利潤損失、侵權所得等其他計算規則往往被束之高閣,而法定賠償的適用比例則畸高,甚至被詬病存在濫用[20]。對于生成式人工智能的數據“投喂”侵權而言,這一賠償損失數額的確定,則因為生成式人工智能的生成特征與盈利模式的復雜性而變得更加困難。如前所述,生成式人工智能對作品的使用,在多大程度上影響了生成式人工智能的生成結果,進而又在多大程度上造成了著作權人的利潤損失或在多大程度上貢獻了侵權利潤,因為輸入端到輸出端算法可解釋性的復雜性而難以評估。生成式人工智能對未獲許可作品的使用結果,與其說是,生成了相似的內容,不如說是通過對作品的使用而獲得了與作品作者相似的創作能力。在生成式人工智能的盈利模式尚未在行業內形成穩定規則的情況下,對于生成式人工智能的生成內容的獲利情況本就難以計算,如果要通過評估生成式人工智能學習了被“投喂”的作品之后形成的生成能力的獲利情況,則更為抽象。

更為棘手的是,停止侵害、消除影響等責任承擔,很可能在生成式人工智能這一特殊對象上失效。目前,生成式人工智能的訓練在實踐中一般是單向遞進,不可回撤的。許多研究表明,曾經的侵權“投喂”訓練的“貢獻”可能一直會持續在生成式人工智能后續的內容生成中產生作用,生成式人工智能對著作權人的權利侵害可能會一直存在1。由于生成式人工智能算法的復雜性,如果已經通過“投喂”特定的數據,獲得了特定的內容生成能力,如何停止對被“投喂”作品的侵權、消除侵權“投喂”的影響,就目前的客觀現實而言,仍然是掌握在生成式人工智能一方,無論是權利人還是法院執行部門在現實中很可能因為缺乏專業技術能力而無法確認侵害是否停止、影響是否消除。換言之,此前的數據侵權還可以通過刪除數據的方式實現“停止侵害”的目的,但對生成式人工智能而言,停止侵害、消除影響實質上很可能變得不可執行或難以驗證。

因此,生成式人工智能的技術特性,很可能會架空現行著作權法體系中對侵權人所設定的責任,繼而也就虛化了可能的懲戒手段。

四、訓練數據“投喂”規制框架的應然建構

在生成式人工智能大模型訓練數據“投喂”侵權這一問題上可能面臨的懲戒困境,一定程度上反映了既有著作權保護制度供給的相對不足。如前所述,生成式人工智能的發展離不開高質量的數據“投喂”,數據的“投喂”對于生成式人工智能而言不啻為基礎設施建設。生成式人工智能內容輸出質量的提升也能夠豐富審美情趣,提供創意靈感,反哺原創生態。但生成式人工智能的數據“投喂”不能以犧牲原創作者權益、打擊原創作者智力投入為代價。生成式人工智能的高質量發展,也離不開良好的軟硬規范的設置。從更宏觀的維度上看,不只是數據的“投喂”,生成式人工智能的全供應鏈生態也在催促新的規制模式。生成式人工智能相較于傳統的人工智能是一種典型的破壞性創新,這種破壞性創新必然帶來對舊技術的沖擊、競爭和替代,也當然會倒逼人工智能規制范式的改革[21]。對于生成式人工智能大模型訓練數據“投喂”行為的規制,應當兼顧生成式人工智能發展需要與內容創作者權益保護需要,充分考慮作為破壞性創新的生成式人工智能的積極效果,平衡既有著作權人的利益保護與創新成本的降低之間的沖突與矛盾,針對生成式人工智能大模型訓練數據“投喂”侵權的維權困境,探索破解工具,逐步完善規制路徑,最終促進人機協同的內容生產。

(一)作品“投喂”的法律適用

近年來,隨著經濟發展模式的轉變,數據作為新型生產要素的價值日益凸顯,數據要素的合規流轉本就是當下的立法熱點問題。2022年12月印發了《中共中央 國務院關于構建數據基礎制度更好發揮數據要素作用的意見》(以下簡稱《數據二十條》),從產權、流通交易、收益分配與規制等方面提出了規范數據秩序的規則[22]。但《數據二十條》提出的數據產權結構性分置制度等,更多的是基于數據財產權的設計,主要針對的是也并不是具有獨創性的作品。其后,關于數據秩序的規則構建,亦有大量研究。近年來,以《中華人民共和國個人信息保護法》《數據安全法》等多部專門法為代表的以數據財產權為核心的數據秩序建構,對于生成式人工智能大模型訓練數據“投喂”的規制,當然具有效用,訓練“投喂”的數據當然也可能涉及公共數據、企業數據、個人數據或者個人信息[23-24]。但這些數據秩序規則的對象同樣也主要是非獨創性、不納入著作權范疇予以保護的這部分數據[24]。而本文重點討論的生成式人工智能大模型訓練的這部分“投喂”數據,是指那些作品或具有獨創性的智力成果,數據只是這些作品在生成式人工智能大模型訓練輸入端的物理形態而已。

因而,針對具有獨創性的這部分“數據”的“投喂”,其基礎制度構建,需考慮保護的理念和權利客體要件等問題,應當仍然以著作權為核心,而不宜簡單地歸入公共數據、企業數據等數據要素的合規流轉。如前所述,鑒于生成式人工智能大模型訓練過程中對于未獲許可作品的“投喂”,構成對作品的使用,那么對于這一作品的使用所涉及的侵權問題應當適用著作權規則予以規制和懲戒。

(二)歸責的特別規定

針對生成式人工智能的大模型訓練“投喂”未獲許可作品的侵權行為規制,可以考慮對侵權責任的認定與舉證責任分配作出特別規定,以便在侵權行為發生后更高效地為權利人提供救濟。

歸責原則,是確認不同種類侵權行為所應承擔民事責任的標準和原則,決定著一定侵權行為的責任構成要件、舉證責任的負擔、免責條件、損害賠償的原則和方法等[25]?!吨腥A人民共和國民法典》(以下簡稱《民法典》)第一千一百六十五條第一款明確了侵權責任承擔的前提是行為人存在過錯,并通過第二款明確了適用過錯責任推定的法定原則。在多元歸責原則體系中,過錯責任是普遍適用于各種侵權行為的一般原則,有著悠久的歷史淵源[26]。過錯其實是對行為人注意義務的評價,在一些特殊的侵權場景中,被侵權人很難有能力對侵權人的注意義務作出評價。因而,過錯推定原則依附于過錯責任原則而產生。

過錯推定原則是過錯責任原則的特殊表現形式。對于特殊知識產權侵權,我國適用的就是過錯推定原則。我國相關研究人員于2023年8月起草的《人工智能法示范法1.0(專家建議稿)》在人工智能的民事侵權責任設定上,也采用了過錯推定原則。

王利明教授將過錯推定責任的適用歸結為兩方面原因:一方面,由于科技的發展,新設備、新產品相繼問世,致損原因并不是通過一般常識就能判斷,而需要高度的科學知識才能識別;另一方面,由于加害人往往控制了致損原因,而受害人對此種原因又常常處于無證據狀態[27]。這兩方面的原因,歸結起來,其實就是舉證能力的問題。換言之,過錯推定原則的引入,在某種程度上就是源于消除當事人雙方舉證能力的客觀差異的實體正義與程序公正維度的價值考量。這種差異在生成式人工智能領域的體現相對顯著。

對于訓練數據“投喂”侵權而言,作為侵權一方的向大模型“投喂”數據的生成式人工智能服務的提供者與作為被侵權一方的被“投喂”數據的著作權人,在證明能力方面存在顯而易見的強弱差異,證據也存在不言而喻的偏在情形。

一方面,從獲取證據的可能性層面,被侵權人距離證據遠,而侵權人距離證據近。事實上,侵權人完全有能力掌控全部證據,而被侵權人幾乎沒有取得侵權人“投喂”數據的可能性,在侵權事實證據方面存在明顯的證據偏在。事實上,不僅被侵權人可能很難獲取生成式人工智能輸入端的“投喂”數據集合,往往連輸出端的數據復制可能都存在障礙。例如,百度的文心一言、科大訊飛的SparkDesk等均通過用戶協議,明確將平臺及其服務輸出內容的知識產權,約定為己方所有,用戶對其服務輸出內容的使用需要得到平臺的書面同意[28?29]。

另一方面,從證據的專業性層面,被侵權人即便獲取了可能被“投喂”的數據,也很難完善整個證據鏈證明對方的確“投喂”了未獲許可作品,而具有解釋能力的恰恰是侵權人本身。更何況,“投喂”的數據在生成式人工智能的訓練過程中可能存在多次編輯,在此種情形下,試圖證明大型語言模型的訓練者侵犯知識產權和數據權益就甚為困難[30]。對于舉證責任分配,舉證可能性本身就是重要的考量。一般而言,當證據偏在造成雙方當事人的證明能力明顯不對等時,引入舉證責任倒置的必要性就產生了[31]。

對于在市場上具有領先地位的生成式人工智能服務的提供者,由于其從數據到算力的領先地位,事實上已經嵌入當今社會的公共生活。推出生成式人工智能服務的騰訊、阿里、百度等企業,同時也接入大量的公共服務,某種程度上也是我國數字化基礎設施的搭建者,理論上,完全可能存在“監守自盜”的便利。因此,對于生成式人工智能服務的提供者,要求其負擔相較于普通的市場主體更多的義務,也是符合《民法典》關于各方權利義務確定的公平原則的當然之舉[32]?!稌盒修k法》第十九條也規定了,在接受監督檢查時,生成式人工智能服務的提供者,有說明訓練數據來源以及提供必要支持和協助的義務。這在某種程度上,其實也是在立法尚無法系統性地及時回應生成式人工智能的特殊規制需求的情況下,行政管理分支的先行回應。2023年,歐盟在《AI法案》中針對ChatGPT等生成式人工智能,設定了披露用于訓練的受版權保護數據的摘要的義務[33]。

需要補充的是,對于訓練數據“投喂”著作權侵權的過錯推定,并不意味著作為被告一方的生成式人工智能服務的提供者在訴訟中需要對全部事由負擔完全的舉證責任,原告一方仍然需要對發動訴訟的特定事由承擔一定的舉證責任[34]。因此,對訓練數據“投喂”著作權侵權的歸責作出特別推定,并不至于讓生成式人工智能服務的提供者陷入從原告角度而言幾乎無成本的惡意訴訟之中。

(三)技術性授權機制的創設

如前所述,生成式人工智能的訓練數據大部分來源于網絡爬蟲的爬取。機器人協議(robots協議)已經成為爬蟲在網絡上爬取數據的通用規則,也載入了我國《互聯網搜索引擎服務自律公約》[35]。該協議在互聯網發展初期,事實上構建了互聯網數據共享的基本秩序。但此前搜索引擎的爬蟲技術對數據的使用體現為網絡鏈接、快照,而生成式人工智能大模型訓練所使用的爬蟲技術往往涉及一定時間內、穩定地存儲所爬取的數據。一方面,這種存儲行為會被認為構成了著作權法意義上的復制;另一方面,生成式人工智能大模型的訓練還涉及對爬取數據的“使用”,這又與搜索引擎對爬取數據的“使用”有本質區別[36]。因此,一般而言,搜索引擎對網絡數據的爬取,并不必然構成著作權的侵權,但生成式人工智能在大模型訓練時的數據爬取因為涉及存儲、使用而面臨更大的著作權侵權風險。

此前就有研究者指出,由于生成式人工智能使用網絡爬蟲技術獲取互聯網數據時,依照現有的技術方案,其實無法準確判定所獲取數據的知識產權權利狀態,相應的著作權人其實也難以獲知其在網絡上發布的作品是否被爬取并被“投喂”給生成式人工智能的大模型,因此必然產生極大的規制空白[37]。簡言之,此前消除了內容創作者對互聯網搜索引擎侵權擔心的機器人協議,無法覆蓋生成式人工智能在大模型訓練時對作品的“投喂”行為,使其擺脫侵權風險。

為了消除這一規制空白,可以參照搜索引擎技術發展初期機器人協議的創設,設置受著作權保護作品的爬取與使用的技術規則。具體而言,首先,可以構建在網絡上發布、存儲作品的“投喂”授權技術規則,在是否允許網絡爬蟲爬取的基礎上,將是否允許用于生成式人工智能訓練的規則語法設定為必要規則。其次,接受作品上傳、發布的網絡服務提供者,應當將上述規則的設定權限交于上傳、發布作品的用戶,并且上述規則的默認設置應當是禁止生成式人工智能對用戶作品的使用,而不能通過用戶協議的方式強制獲取授權。目前內容創作者反應最激烈的部分,也在于開發生成式人工智能的互聯網公司,幾乎都在他們的服務協議中約定了對用戶上傳作品的使用權,而將用戶作品“投喂”給他們開發的生成式人工智能也都被概括性條款所覆蓋[38]。為了更好保護這些用戶的權益,這一選擇權的設定,也可以作為對接受作品上傳、發布的網絡服務提供者的法定義務進行設定。

這種技術性授權機制的設定,雖然不能解決大量著作權人與生成式人工智能服務提供者之間關于訓練“投喂”數據的一對一授權效率問題,但至少能夠從輸入端相對高效且經濟地解決那些不愿用于生成式人工智能大模型訓練的數據的排除問題,減少“投喂”數據的侵權風險。由于網絡爬蟲技術和技術性授權識別的自動化,內容創作者有理由相信遵從這一技術協議的生成式人工智能不至于再冒著更為明確的侵權風險去“投喂”他們的作品,也不再僅僅因為擔憂網絡爬蟲對自己發布在網絡上作品的劫掠而不得不退出作品交流網絡社群。

不難發現,這一技術協議并不具有法律的強制性,更多的是行業自律規范發揮作用。但鑒于法律的保守性、剛性等特征難以跟上日新月異的科技發展的腳步,研究者們普遍認為,對于人工智能的規制,應當重視多視角的、綜合性的、社群指向的“軟法”方式的價值[39]。國家標準化管理委員會等五部門2020年印發的《國家新一代人工智能標準體系建設指南》特別強調了國家、行業和團體等不同層級人工智能產業標準的制定對產業規范化發展的引領作用[40]。2023年10月1日起施行的《互聯網信息服務深度合成管理規定》第五條,也提出鼓勵行業自律,明確肯定了行業標準、準則以及自律管理制度對于規范相關服務的價值[41]。因此,作為可行且有效的事前預防手段,行業自律理應成為生成式人工智能大模型訓練“投喂”數據侵權規制框架構建中不可或缺的部分。

(四)“機器遺忘”強制性規范的引入

對于生成式人工智能大模型訓練數據“投喂”的規制,除了事中的糾紛解決機制的特別規定,技術層面的事前預防機制建立,還應當有技術層面的事后規制手段,這一規制鏈條方才基本完整。

鑒于目前生成式人工智能的解碼能力,一旦獨創性作品的特征被生成式人工智能的Transformer算法解析,事實上就已經內化成為生成式人工智能后續輸出的能力。如果要為被侵權人提供理想的救濟,移除被非法“投喂”作品對于生成式人工智能大模型的影響,是十分必要的。在美國《紐約時報》與OpenAI、微軟的侵權訴訟中,原告就要求被告銷毀使用《紐約時報》版權材料的所有AI模型和訓練數據[42]。《暫行辦法》第十四條也要求生成式人工智能服務的提供者在發現違法內容后,除了采取停止生成等常規措施之外,還應當采取模型優化訓練等措施以消除違法內容的影響。

機器遺忘(Machine Unlearning)這一概念,正是隨著人工智能發展過程中機器學習(Machine Learning)這一概念的提出而提出的。機器遺忘的最初提出是為了消除機器學習過程中對于敏感個人信息的使用影響[43]。雖然生成式人工智能大模型的訓練過程很難解釋,但機器遺忘在技術上已經具有實現可能,目前已經有SISA算法等多種方案實現數據對大模型影響的完全消除或近似消除[44]。機器遺忘不僅在技術上已經具有可行性,在經濟上,機器遺忘也是更具效率的解決消除特定數據對大模型影響的方式。機器遺忘能夠避免對整個大模型的重新訓練,能夠在保留原來訓練效果的基礎上實現對著作權的保護,從而以較小的成本實現大模型的合規調整[45]。研究人員仍在持續改進算法,以進一步降低機器遺忘的學習成本。

從侵權者的義務設定角度來看,生成式人工智能的服務提供者或者研發者也應當負擔避免其大模型持續享有被侵權“投喂”作品的貢獻的義務。從事實層面而言,生成式人工智能的服務提供者或研發者完全能夠基于行業的技術現狀以合理的成本承擔該義務。從價值層面而言,無論是從侵權過錯認定的一般原理,還是從保護受害人權益,抑或從我國將通知—刪除規則一體適用于各種網絡服務提供者類型的傳統來看,也應當對生成式人工智能的服務提供者或研發者課以“機器遺忘”義務[46]。

但目前的機器遺忘,既未成為生成式人工智能行業的自律準則,亦未成為強制性技術規范,尤其是目前的機器遺忘解決方案更多的是生成式人工智能服務提供者的自我調整,而并未考慮向監管或第三方審計開放的問題。因此,有必要通過立法的方式,確立生成式人工智能的“機器遺忘”強制性技術規范,確保在侵權發生后,“停止侵害”“消除影響”等救濟手段能夠從技術層面得到有效執行和監督。

五、結語

隨著生成式人工智能服務應用的落地,世界各國關于人工智能立法的探索也開始加速,相關爭議也將持續成為相關各方熱議的焦點。生成式人工智能大模型的訓練,在當前的發展階段,理論上的確存在侵犯著作權人權益的風險。

在生成式人工智能的生成內容的可版權性問題的討論中,支持者往往會強調生成式人工智能大模型的創作能力,而認為人類在這一“生成”過程中缺乏強控制力,人類在這一“生成”過程中對生成式人工智能發出一系列指令的行為也不能被單獨評價為著作權法上的“創作”[47]。如果保護生成式人工智能輸出端的生成內容的著作權,卻不保護在輸入端被生成式人工智能的大模型“吞噬”的作品的著作權,無異于區別對待生成式人工智能與對受保護作品的使用,其后果必然是默許甚至可以說是鼓勵生成式人工智能對現有原創作品的肆意“洗稿”。讓生成式人工智能,以技術中立等理由,架空著作權保護體系對著作權人進行獨創性創作的激勵與保護,對生成式人工智能的長遠發展并無益處。

即便是生成式人工智能可能會改變人類的知識生產方式,甚至“涌現”人類自己都不曾發現的新知識,但人類在創造、批判思考和情感判斷上的獨特能力不會被生成式人工智能替代[48]。因此,生成式人工智能的未來發展,仍然依賴于人類的獨創性作品的持續“投喂”,而獨創性作品必然屬于著作權所保護的客體[49]?;诖龠M生成式人工智能發展的立場,有研究者將生成式人工智能訓練數據中對作品的使用,界定為“非特定性”的生產過程性使用,也就是“非作品性使用”,繼而將這種使用排除在著作權權利范圍之外[50]。但并非所有的作品,都被分解為碎片化的“語料”,一律將訓練數據對所有作品的使用界定為“非作品性使用”,勢必將損害特定創作者的權益。為了激勵真正具有獨創性的作者持續產出,也為了生成式人工智能的長遠發展,應當強化對生成式人工智能大模型訓練數據“投喂”的規制。

此前的生成式人工智能更多的是一種技術上的自我發展,此后生成式人工智能生態鏈中的各方參與者應當更多地參與到基礎制度構建和行業自律規范完善中來,肩負起更多的社會責任,探索更有利于平衡不同利益的制度。例如,知名圖庫Shutterstock設立了“貢獻者基金”,對被用于“投喂”的作品的著作權人提供補償,這一制度可否上升為行業的自我約束,成為補償著作權人因作品“投喂”生成式人工智能后失去交易機會的常態機制,甚至成為未來修改著作權合理使用制度以免去“投喂”數據的授權的配套補償機制,都需要利益相關方形成共識。前述關于賠償損失數額司法標準的討論缺失,很大程度上也需要通過總結提煉實踐中糾紛各方的協商經驗來彌補。

生成式人工智能的規制,其實是國際社會面臨的共同挑戰。生成式人工智能如若真正發展成為生產力工具,必然涉及跨國境的數據“投喂”。因此,生成式人工智能大模型訓練中數據“投喂”的規制,還需要考慮國際協作或國際接軌等問題,在當前的規制環境下,如何凝聚共識形成生成式人工智能大模型訓練中數據“投喂”的著作權侵權風險規制的通行規則,將是需要各國協作的現實問題。

參考文獻:

[1] The state of AI in 2023: generative AI's breakout year[DB/OL]. (2023-08-01)[2024-04-20]. https: //www. mckinsey. com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-AIs-breakout-year.

[2] 李玉洋. AI治理迫在眉睫[N]. 中國經營報, 2023-04-03(C03).

[3] 停更、逃離、迷茫:原創畫師與AI繪畫的抗爭[DB/OL].(2023-10-13)[2024-04-20]. https: //www. nfpeople. com/article/12597.

[4] 逯海濤. 給AI投喂數據應取之有道[N]. 浙江日報, 2023-11-22(007).

[5] 'New York Times' sues ChatGPT creator OpenAI, Microsoft, for copyright infringement[DB/OL]. https: //www. npr. org/2023/12/27/1221821750/new-york-times-sues-chatgpt-openai-microsoft-for-copyright-infringement.

[6] 梁宏濤, 劉碩, 杜軍威, 等. 深度學習應用于時序預測研究綜述[J]. 計算機科學與探索, 2023, 17(6): 1285?1300.

[7] Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus[DB/OL]. (2021-04-18)[2024-04-20]. https: //doi. org/10. 48550/arXiv. 2104. 08758.

[8] 張熙, 楊小汕, 徐常勝. ChatGPT及生成式人工智能現狀及未來發展方向[J]. 中國科學基金, 2023, 37(5): 743?750.

[9] 胡泳,劉純懿.大語言模型“數據為王”:訓練數據的價值、迷思與數字傳播的未來挑戰[J].西北師大學報(社會科學版),2024,61(03):43?54.

[10] TOM B. Brown, Benjamin Mann, Nick Ryder etc. Language Models are Few-Shot Learners[J/OL]. arXiv: 2005. 14165. https://doi.org/10.48550/arXiv.2005.14165.

[11] 潘香軍. 論機器學習訓練集的著作權風險化解機制[C]. 《上海法學研究》集刊2023年第6卷——2023年世界人工智能大會青年論壇論文集. 《上海法學研究》集刊2023年第6卷——2023年世界人工智能大會青年論壇論文集. 上海市法學會, 2023: 165?176.

[12] Authors Guild v. OpenAI Inc. (1: 23-cv-08292)[DB/OL]. (2023-09-19)[2024-04-20]. https: //www. courtlistener. com/docket/67810584/authors-guild-v-openai-inc/.

[13] 劉友華, 魏遠山. 機器學習的著作權侵權問題及其解決[J]. 華東政法大學學報, 2019, 22(2): 68?79.

[14] 王遷. 《著作權法》修改:關鍵條款的解讀與分析(上)[J]. 知識產權, 2021(1): 20?35.

[15] 熊琦. 著作權合理使用司法認定標準釋疑[J]. 法學, 2018(1): 182?192.

[16] 周子凡. 生成式人工智能對就業的影響及應對之策[J]. 當代經濟, 2023(10): 46?52。

[17] 熊琦. 論著作權合理使用制度的適用范圍[J]. 法學家, 2011(1): 86?178.

[18] 最高人民法院發布2022年中國法院十大知識產權案件[DB/OL]. (2023-04-20)[2024-04-20]. https: //www. chinacourt. org/article/detail/2023/04/id/7254550. shtml.

[19] 劉強, 孫青山. 人工智能創作物著作權侵權問題研究[J]. 湖南大學學報(社會科學版), 2020, 34(3): 140?146.

[20] 朱瑪. 侵害知識產權損害賠償問題研究[D]. 重慶:西南政法大學, 2015.

[21] 畢文軒. 生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J]. 比較法研究, 2023(3): 155?172.

[22] 中共中央 "國務院關于構建數據基礎制度更好發揮數據要素作用的意見[DB/OL]. (2022-12-19)[2024-04-20]. https: //www. gov. cn/zhengce/2022?12/19/content_5732695. htm.

[23] 夏志強, 閆星宇. 作為漂流資源的個人數據權屬分置設計[J]. 中國社會科學, 2023(4): 164?208.

[24] 王利明. 數據何以確權[J]. 法學研究, 2023, 45(4): 56?73.

[25] 吳漢東. 知識產權保護論[J]. 法學研究, 2000(1): 68?79.

[26] 王利明. 我國《侵權責任法》歸責原則體系的特色[J]. 法學論壇, 2010, 25(2): 7?10.

[27] 吳漢東. 知識產權侵權訴訟中的過錯責任推定與賠償數額認定——以舉證責任規則為視角[J]. 法學評論, 2014, 32(5): 124?130.

[28] 文心一言用戶協議[DB/OL]. (2023-10-31)[2024-04-20]. https: //yiyan. baidu. com/infoUser.

[29] SparkDesk用戶協議[DB/OL]. (2023-09-04)[2024-04-20]. https: //www. xfyun. cn/doc/spark/ExperienceRules. html.

[30] 蘇宇. 大型語言模型的法律風險與治理路徑[J]. 法律科學(西北政法大學學報, 2024(1): 76?88.

[31] 李浩. 舉證責任倒置: 學理分析與問題研究[J]. 法商研究,2003(4): 87?94.

[32] 丁曉東. 論算法的法律規制[J]. 中國社會科學, 2020(12): 138?203.

[33] 嚴格監管ChatGPT,全球首個AI法案立法在歐盟內部邁出第一步[DB/OL]. (2023-05-13)[2024-04-20]. https: //new. qq. com/rain/a/20230513A055CU00.

[34] 王利明. 論舉證責任倒置的若干問題[J]. 廣東社會科學. 2003(1): 150?158。

[35] 互聯網搜索引擎服務自律公約[DB/OL]. (2021-12-08)[2024-04-20]. https: //www. isc. org. cn/article/10677720886931456. html.

[36] 李凡迪, 徐家力. 數據爬蟲侵權行為研究[J]. 汕頭大學學報(人文社會科學版), 2021, 37(8): 75?96.

[37] 袁曾. 生成式人工智能治理的法律回應[J]. 上海大學學報(社會科學版), 2024, 41(1): 28?39.

[38] 劉友華, 魏遠山. 機器學習的著作權侵權問題及其解決[J]. 華東政法大學學報, 2019, 22(2): 68?79.

[39] 鄭志峰. 人工智能立法的一般范疇[J]. 數字法治, 2023(6): 55?75.

[40] 國家新一代人工智能標準體系建設指南[DB/OL]. (2020-07-27)[2024-04-20]. https: //www. gov. cn/zhengce/ zhengceku/2020?08/09/content_5533454. htm.

[41] 互聯網信息服務深度合成管理規定[DB/OL]. (2022-11-25)[2024-04-20]. https: //www. gov. cn/zhengce/zhengceku/2022?12/12/content_5731431. htm.

[42] 李若一,李悅. 大模型時代的版權邊界在哪里[N]. 中國青年報, 2024-01-30(006).

[43] SAI S, MITTAL U, CHAMOLA V, et al. Machine un-learning: An overview of techniques, applications, and future directions[J]. Cogn Comput 16, 482?506 (2024). https: //doi. org/10. 1007/s12559?023?10219?3.

[44] Machine Unlearning: Solutions and Challengesar[J/OL]. Xiv: 2308. 07061v1 [cs. LG]. https://doi.org/10.48550/arXiv.2308.07061.

[45] 郁建興, 劉宇軒, 吳超. 人工智能大模型的變革與治理[J]. 中國行政管理, 2023, 39(4): 6?13.

[46] 徐偉. 論生成式人工智能服務提供者的法律地位及其責任——以ChatGPT為例[J]. 法律科學(西北政法大學學報), 2023, 41(4): 69?80.

[47] 徐小奔. 論人工智能生成內容的著作權法平等保護[J/OL]. 中國法學: 166?185[2024-02-06]. https: //doi. org/10. 14111/j. cnki. zgfx. 2024. 01. 009. DOI: 10. 14111/j. cnki. zgfx. 2024. 01. 009.

[48] 米加寧, 董昌其. 大模型時代:知識的生成式“涌現”[J]. 學海, 2024(1): 81?215.

[49] 王國柱. 著作權法中作品獨創性的作品類型邏輯[J]. 法商研究, 2024, 41(1): 183?200.

[50] 劉曉春. 生成式人工智能數據訓練中的“非作品性使用”及其合法性證成[J]. 法學論壇, 2024, 39(3): 67?78.

Copyright Infringement Regulation of Training Data \"Feeding\"

by Generative AI

Chang Ye

(Southwest University of Political Science amp; Law, Research Base of Legal System for Market Transaction, Chonqing 401120, China)

Abstract: The data \"feeding\" of generative AI in large model training has caused great concerns among content creators in illegal usage of their works, and generative AI often appeals to fair use terms to defend themselves against the charges. Due to the technical characteristics of generative AI, the regulation of \"feeding\" of unlicensed works faces multiple difficulties such as fact finding, imputation and punishment. As for this kind of copyright infringement regulation concerning new technology, new elements and new industrial chain, the demand for a new legal system will be inevitable. Therefore, at the stage of self-exploration of generative AI, the essence is to clarify the law application concerning this kind of copyright infringement, to build up an ideal regulating frame of copyright infringement risk in data \"feeding\" at the input end of generative AI, and from multiple perspectives such as legal responsibility for tort, distribution of proof burden, industrial self-discipline specification about technical authorization, mandatory norms about \"machine unlearning\".

Keywords: generative AI; training data \"feeding\"; copyright; infringement

主站蜘蛛池模板: 四虎精品国产AV二区| 日韩 欧美 小说 综合网 另类| 91精品福利自产拍在线观看| 免费人成黄页在线观看国产| 日本免费a视频| 成人福利在线视频| Jizz国产色系免费| 久久免费精品琪琪| 国产另类乱子伦精品免费女| 国产麻豆另类AV| 欧美在线伊人| 四虎国产永久在线观看| 中文字幕日韩久久综合影院| 久夜色精品国产噜噜| 伊人久综合| 中文字幕中文字字幕码一二区| 久久国产精品电影| 91小视频在线观看| 国产精品黑色丝袜的老师| 99久久精品免费看国产电影| 亚洲高清资源| 欧美日韩精品一区二区在线线| 亚洲中文字幕av无码区| 中文无码精品A∨在线观看不卡 | 亚洲欧美成aⅴ人在线观看| 欧洲欧美人成免费全部视频| 婷婷伊人五月| 国产成人夜色91| a毛片在线播放| 国产精品对白刺激| 国产成人精品一区二区不卡| 18禁不卡免费网站| 成人在线不卡视频| 久久精品视频一| 中文字幕2区| 国产福利小视频高清在线观看| 国产精品高清国产三级囯产AV| 四虎影视国产精品| 丁香婷婷综合激情| 88国产经典欧美一区二区三区| 国产视频久久久久| 欧美在线中文字幕| 超清无码一区二区三区| 亚洲,国产,日韩,综合一区| 2021国产乱人伦在线播放| a级免费视频| 国产精品久久久久久久伊一| 日韩成人免费网站| 亚洲乱码视频| 国产精品黄色片| 欧美va亚洲va香蕉在线| 精品国产自在在线在线观看| 成人亚洲天堂| 人妻一区二区三区无码精品一区| 爱做久久久久久| 免费观看无遮挡www的小视频| 亚洲人成色在线观看| 四虎精品黑人视频| www.91在线播放| 久久香蕉欧美精品| 国产成+人+综合+亚洲欧美| 中文纯内无码H| 国产亚洲精品无码专| 国产精品开放后亚洲| 99ri国产在线| 精品国产黑色丝袜高跟鞋| 国产自在线播放| 国产欧美日韩va另类在线播放| 国产欧美另类| 国产欧美精品一区二区| 亚洲黄色片免费看| 国产91丝袜| 亚洲精品中文字幕午夜| 国产理论最新国产精品视频| 在线观看网站国产| 亚洲欧美极品| 老司国产精品视频91| 人人澡人人爽欧美一区| 欧美日韩亚洲综合在线观看| 2021精品国产自在现线看| 欧美另类精品一区二区三区| 亚洲精品综合一二三区在线|