999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論通用人工智能訓練數據版權侵權之歸責原則

2024-12-31 00:00:00姚秀文
科技創業月刊 2024年9期

摘 要:生成式人工智能作為通用人工智能的起點,在為數字經濟帶來極大潛力的同時也帶來了版權侵權風險,推進技術發展和保護文藝創作的難題凸顯。轉變以往的末端視角,訓練數據作為通用人工智能發展壯大的基礎前提,解決其“合法、海量、高質”問題十分重要。對訓練數據的高要求和現實開發中的難獲得,導致通用人工智能訓練數據處理中不可避免地存在侵犯作者復制權、翻譯權、改編權等風險。當前的規制思路缺乏對通用人工智能自身特性和商業模式的關注,侵權歸責原則不夠清晰。以鼓勵通用人工智能基礎大模型發展為價值導向,采取過錯責任歸責原則并區分風險層級規定不同程度的注意義務,在制度與技術交互中推進良法善治。

關鍵詞:通用人工智能;生成式人工智能;著作權侵權;過錯責任;注意義務

中圖分類號:D923.8

文獻標識碼:A

DOIdoi:10.3969/j.issn.1672-2272.202404015

The Principle of Liability for Copyright Infringement of AGI Training Data

Yao Xiuwen

(Law School of Tianjin University ,Tianjin 300072, China)

Abstract: As the starting point of general artificial intelligence, generative artificial intelligence brings great potential to the digital economy, but also brings the risk of copyright infringement, and the problem of promoting technological development and protecting literary and artistic creation becomes prominent. Change the previous end perspective, training data as a basic premise for the development and growth of general artificial intelligence, to solve its “legal, massive, high quality” problem is very important. The high demand for training data and the difficulty of obtaining it in practical development make it inevitable that the training data processing of general artificial intelligence will infringe the author’s right of reproduction, translation and adaptation. However, the current regulatory ideas still lack attention from the characteristics and business model of general artificial intelligence, and the principle of tort liability is confused. With the value orientation of promoting and encouraging the development of general artificial intelligence basic large model, the principle of fault liability is adopted, and different degrees of duty of care are stipulated by distinguishing risk levels, so as to promote good law and good governance in the interaction between system and technology.

Key Words:Artificial General Intelligence; Generative Artificial Intelligence; Copyright Infringement; Liability for Fault; Duty of Care

0 引言

ChatGPT等生成式人工智能作為公認的通用人工智能(Artificial General Intelligence,AGI)起點,在科技進步的同時伴隨著侵權風險。出于對其生成內容的傳播恐慌,既往討論大多集中于對其生成內容的安全監管和侵權規制,進而延伸至生成式人工智能的法律主體地位、生成內容的版權保護等有關問題,極少涉及對通用人工智能的訓練數據這一“智慧基礎”環節的考量。訓練數據的質量是通用人工智能高質量發展的前提,保障其合法性,不僅是訓練行為自身的要求,更是避免生成內容成為“毒樹之果”的手段。

2023年1月和2月,蓋蒂圖片社(Getty Images)在英國、美國法院起訴Stability AI,稱被告未經許可從原告的圖片庫中非法復制和處理了數百萬受版權保護的圖像用以訓練Stable Difussion圖片生成模型侵犯版權[1],成為全球首例大型AIGC(AI Generated Content)訓練數據知識產權侵權訴訟,大模型研發者侵權與否的問題引發各界關注。無獨有偶,生成式人工智能訓練數據的版權侵權糾紛在我國開始顯現。2023年6月,北京筆神作文公司發布聲明,稱學而思的數學大模型MathGPT和AI寫作助手訓練數據集侵犯其知識產權。2023年11月,我國4位畫師起訴小紅書及其AI繪畫軟件Trik在未經授權的情況下使用其原圖生成大批量AI圖片,該AI模型數據庫獲取訓練數據過程存在侵犯著作權行為。

隨著相關糾紛日益增多,推進技術發展和保護文藝創作的實踐難題倒逼制度反思。2023年8月實施的《生成式人工智能服務管理暫行辦法》,在第七條對訓練數據處理活動的合法性作出保護知識產權、保護個人信息安全等概括性要求。但目前立法中對該問題并無明確的具體規定,因此通過現有制度的解釋和創新,對以生成式人工智能為代表的通用人工智能訓練數據的著作權侵權行為進行有效規制很有必要。在有效維護著作權人的知識產權,尊重知識創造的同時,鼓勵促進新興技術的發展,為通用人工智能模型賦能數字經濟作長遠打算。著作權侵權雖然有“接觸+實質性相似”等特別判定方式,但仍離不開侵權責任的構成要件框架[2]。雖然學界對該問題是否適用“合理使用”等抗辯事由有所討論[3],但這種事后抗辯并不會對侵權責任產生訴前約束。歸責原則是侵權責任的起點,本文以此為切入,以生成式人工智能為例,試論通用人工智能著作權侵權的歸責原則及相應衍生問題,在制度與技術的交互中實現良法善治。

1 訓練數據版權侵權的判定之困

訓練數據既是模型訓練的前提,又直接影響到模型后續的表現和服務[4]。2023年1月施行的《互聯網信息服務深度合成管理規定》首次將訓練數據定義為被用于訓練機器學習模型的標注或者基準數據集。不同于AI生成內容版權侵權的后置性,訓練數據未經許可地獲取著作權人作品為大模型積累“經驗”,在根本上導致生成式人工智能“學習”階段的不合法,并為后續生成物的侵權埋下伏筆。鑒于當前著作權人對訓練數據的版權侵權往往在人工智能生成內容之后才有所察覺,既往維權思路也多從輸出端著手[5],通過依賴訓練數據生成的內容與原作品存在“接觸+實質性相似”的關系來判定侵權。隨著生成式人工智能模型的運轉機理不斷清晰,糾紛的焦點開始關注到訓練數據獲取和整合階段的侵權問題。而立法和司法對直接提起訓練數據庫侵權這種新型糾紛存在解決思路不明朗的問題。需要結合訓練數據來源方式和訓練數據處理過程,分析其中蘊含的版權侵權風險及對該問題的司法解決爭議,厘清訓練數據侵權當前面臨的判定困境。

1.1 訓練數據版權侵權風險分析

1.1.1 訓練數據獲取階段的復制權侵權風險

生成式人工智能技術研發公司訓練數據主要來源包括企業直接收集、網絡抓取、使用開源數據集和通過商業途徑等方式[6],研發公司可以獲得正當授權或使用公開數據來進行模型訓練,但獲取單獨授權流程繁瑣,遵守“爬蟲協議”抓取的數據和開源數據集質量不高[7],通過商業途徑購買私人數據庫成本較高,無法滿足開發大模型的訓練數據需求。因此為了訓練出合格成功的生成式人工智能,研發公司往往通過其他非法方式獲取數據。

訓練數據獲取階段因為來源的狹窄和數據質量的追求存在侵犯作者復制權風險。對于依托自身用戶服務功能收集到的數據為訓練數據,自行開發大模型的研發者來說,侵權風險可能發生于在用戶服務協議中設置強制許可條款直接收集的情況中[8]。雖然以合同獲取訓練數據的方式合法,但這種強制著作權授權的合同有效與否尚存疑問,表面上符合著作權授權使用的要求,實質上是以基礎服務為籌碼對著作權人利益的侵害。若合同被判定無效,其行為又落入未經許可而大量復制范疇,存在復制權侵權風險[9]。

對于無用戶服務的研發者則需另尋出路獲取高質海量的訓練數據庫,其侵犯作者版權的風險更加明顯。一種是通過破譯等技術手段直接獲取數據。在破壞或避開權利人設置的技術措施后,人工智能開發公司將數據庫中的數據復制存儲到自己服務器的行為,存在侵犯作者的復制權風險;另一種是生成式人工智能研發公司不經原著作權人同意,不顧“爬蟲協議”要求大批量爬取私人數據庫數據資源,并復制到自己的服務器以供模型訓練,不僅會侵犯原著作權人的復制權,更面臨對數據網站造成不正當競爭的風險[10]。

1.1.2 訓練數據整理與構建階段的多種侵權風險

從技術步驟來看,在訓練數據的整理與構建階段,要將獲取到的數據以一定的形式存儲和固定下來,而在存儲和固定過程中的具體手段又存在對作品多種版權的侵犯。

存儲和固定的有形形式存在侵犯復制權的可能。出于投喂和訓導通用大模型的需要,加之現有技術很難直接在線進行數據分析和處理[11],訓練數據輸入機器會以某種形式存儲在硬盤、內存或者云服務器中,在不同的介質中創建副本、進行有形的存儲。這就導致與人腦獲取知識并未形成有形的復制不同,生成式人工智能訓練數據的汲取仍然存在侵犯復制權的風險。

存儲和固定的語言轉換存在侵犯翻譯權風險。在訓練數據能夠成為大模型學習資料的準備環節需要先將普通文本格式轉化為計算機可讀文本,但這里的轉化只是為了讓機器讀取其中的數據而設置的算法操作過程,不存在思想的表達,不屬于被規制的翻譯行為。但是為獲取可供工業使用的通用大模型,需要對訓練數據進行多個語種轉化以實現廣泛應用。因此需要利用編碼器和訓練程序對單邊語料庫進行翻譯,進而生成互相對照的平行文本作為數據來源[12]。這種未經著作權人許可,在訓練集的準備階段,將其作品翻譯成不同語言的行為顯然存在侵權的風險。

存儲和固定的內容處理存在侵犯改編權風險。在將原作品輸入機器進行學習之前,研發者還需要對作品進行編碼、壓縮等操作,這些行為并不是直接復制作品的原始版本,而是在圖像信息空間中以潛在的表現形式展現,同時保存著原有作品中最關鍵、最本質的特征[13]。作品改編權強調在保持實質內容一致的前提下,對原作品進行表現形式的創新,轉碼等行為與著作權法中的改編行為性質是類似的[14]。它不僅是對一些作品理念的抽象,而且將其中重要成分的提取、整合和再利用,其中獨創和核心的部分并沒有被排除。類似的對作品原始內容進行的安排和更改的預處理行為,應認定為版權法意義上的改編,因此存在改編權侵權的可能。

1.2 訓練數據版權侵權歸責原則爭議

生成式人工智能輸入端的訓練數據侵權問題該如何解決,當前對此并無明確規定,只能從既有制度中尋找答案,然而規制思路仍不清晰。既希望大力推動新興技術蓬勃發展,效仿早期互聯網“非法興起”之勢,又擔心較晚的介入會給諸如知識產權等其他權利保護造成太大損失。通用大模型訓練數據的來源方式大致分為兩類,一是特殊情況下由大模型自主收集新數據或生成數據充實訓練數據,完成自我提升;二是普遍情況下由研發公司向大模型進行投喂。

關于大模型自主獲取訓練數據的版權侵權問題,存在適用特殊歸責原則的討論。生成式人工智能與以往的自動化決策最大的不同在于能夠在經過訓練后通過訓練數據這一“經驗”作出生成內容這一“直覺”[15]。對于這一自主性問題回歸到生成式人工智能主體資格的討論,因而出現將其作為生成式人工智能服務提供者的產品適用嚴格產品責任,或者賦予法律擬制主體資格將其看作“無或者限制行為能力人”或“代理人”適用替代責任進行無過錯歸責等特殊歸責原則[16]。但是此討論并未形成定論,且無法涵蓋研發公司向大模型投喂數據的情形。

因此,從更普遍的視角出發,《生成式人工智能服務管理暫行辦法》第七條對“生成式人工智能服務提供者”作出了訓練數據時不得侵犯他人知識產權的要求,為把這種訓練數據著作權侵權視為網絡服務提供者侵權的一種形態加以規制留出解釋空間。但是該問題涉及生成式人工智能服務提供者這一特殊主體和著作權這一特殊客體兩個元素,在一般過錯責任的原則之下對生成式人工智能服務提供者要求不同程度的注意義務,呈現出兩種進路。

一種是從主體出發的責任規則,對生成式人工智能服務提供者要求較低的注意義務。認為訓練數據過于龐雜,研發公司無法對每一個數據的侵權情況進行完整和詳細的掌握,過高的審慎注意義務會降低大模型開發積極性。因此參考“紅旗規則”,只有發現存在對著作權人造成明顯損害的行為時才構成侵權,并主張進一步借鑒“避風港原則”以著作權人的侵權通知和生成式人工智能服務提供者的及時刪除作為免責條件,從而降低其注意義務[17]。因此歸責原則上也主張一般過錯責任,由被侵權人證明研發公司存在“通知后仍不刪除”等主觀過錯。但這種規制思路受到質疑,避風港規則最早基于“技術中立原則”適用于互聯網版權侵權領域,用以解決網絡服務提供者因網絡用戶的侵權行為而產生的間接侵權責任的問題。然而訓練數據侵權是生成式人工智能服務提供者的直接侵權[18],并不能為了鼓勵該技術的發展降低其注意成本就錯誤適用。

另一種是從客體出發的財產規則,對大模型研發公司表面要求較高的注意義務,強調對原作者著作權的保護。生成式人工智能服務提供者應當基于自身的技術優勢,對訓練數據輸入和處理的合法性負有審慎安全的注意義務,獲取訓練數據時先行取得授權許可,在源頭上進行安全評估保障模型的安全可信。因此歸責原則上也適用著作權侵權的一般過錯責任,但不得適用《民法典》第一千一百九十五條“避風港原則”或《民法典》第一千一百九十七條規定的“紅旗規則”以降低注意義務,而要以“未經授權”為過錯標準。這種強調著作權保護的思路不利于科技發展,也與著作權保護最終是為了造福人類的公益目標相悖。因此這種財產進路轉而尋找著作權侵權的例外與限制,在訓練數據屬于合理使用情形下,以緩解其侵權風險。但這種訴訟中的抗辯理由是從終局的責任定性視角出發,在個案中存在著抗辯成立與否不確定的問題,并不能從根源上給予生成式人工智能研發者足夠的支持。

2 訓練數據版權侵權歸責原則的困境反思

2.1 行業模式:訓練數據版權侵權難以避免

通過開源數據集或者提前取得版權授權等合法方式獲取訓練數據是最佳對策,能從根源避免侵權風險。但是實踐中出于數據安全、隱私保護的考量,當前公共開放數據數量有限且質量欠佳,難以滿足訓練通用大模型的需求,同時向散落的權利主體逐一獲得許可的方式耗費成本過大,因此生成式人工智能研發者將轉向私人數據庫持有者。

一方面,生成式人工智能研發行業存在高成本下的未知回報問題。購買正版語料庫、圖片庫等用于訓練數據集構建在理論上可行,但該領域的制度規制要關注當前行業發展的真實狀況,不能脫離商業模式和市場結構抽象而論。訓練數據需要不斷更新和調整,從而推動生成式人工智能持續發展,這就使得生成式人工智能研發公司需要與擁有廣泛在線用戶的企業達成長期合作,不斷購買最新數據,否則很難訓練成出色的生成式人工智能。但是,從購買數據到訓練后形成穩定的商業模式需要比較長的時間,能否最終訓練出合格的大模型并投入使用也未可知,巨大的支出成本不一定能獲得相應的經濟回報。

另一方面,數據庫持有者卻依靠其源源不斷的新數據和穩定的在線用戶對自身持樂觀態度,不愿降低價格與之合作。理性的語料庫企業已經認識到即使授權給大模型企業,也未必能得到即時回報,考慮到市場的不確定性,更有可能抬高價格,賺取短期收益。特別是已經擁有廣泛用戶的平臺企業會更加謹慎,擔心生成式人工智能研發企業將通過不斷學習優質數據而成為內容生產者,對自身的數據優勢造成沖擊而對數據庫授權持更嚴格態度[17]。首先是生成式人工智能研發者難以通過合理價格獲取想要的訓練數據;其次是面臨未知的市場風險,不愿事先增大自身成本,在制度規制并不明晰的技術初期,可先通過各種方式充實訓練數據,盡最大可能培養出極具經濟價值的通用大模型,率先搶占市場。因此,在行業發展競爭激烈的情況下,伴隨著高質量訓練數據不足的局面,訓練數據版權侵權問題依然存在。

2.2 技術躍遷:通用人工智能的特性與價值

生成式人工智能作為“數據、算法、算力”的統一體,其很有可能成為未來數字經濟的基礎設施。早期網絡法起源于知識產權領域,是因為文字和圖畫等作品最先被數字化并在網絡上流動;隨著持續發展,與人類生活聯系更緊密,商品和勞動力等要素可被數字化表達,平臺經濟迅速發展,平臺責任成為關注重點。目前生成式人工智能的基礎模型打破了人機語言壁壘,通用式大模型可以更加廣泛和深入地接入更多的垂直領域,通用基礎大模型將作為數字經濟基礎設施,開展專業開發和提供服務[4]。因此,大力推動并支持其發展,獲取大模型話語權是十分重要的,制度偏向科技進步的價值邏輯得以證成。

生成式人工智能將技術支持、服務提供與內容生產融為一體,無法適用以往按照功能區分注意義務的制度邏輯。當前,網絡治理的重心放在網絡服務提供者身上,要求其承擔平臺責任[19],對技術支持者并非規制重點,往往僅作科技倫理的要求,不要求其負擔特別的注意義務。大模型訓練數據版權侵權規制思路應考慮技術開發的現實需求和大模型所處具體位置的風險,做出不同的注意義務安排。

通用大模型這種強人工智能化的“自主性”確實是其突出特點,但在當前的討論中,無論是產品責任說、代理說、監護人說或者雇主責任說,核心問題都在于如何理順生成式人工智能與其研發公司(或者說生成式人工智能服務提供者)之間的關系,通過解釋使后者在現有法律體系下正當地承擔人工智能自發訓練數據導致的侵權責任。無論何種觀點,最終的責任承擔都落到生成式人工智能服務提供者身上,與其糾結于將這一新型事物的性質歸入既存責任樣態,不如跳出制度藩籬,從其自身的技術特點和現實需求出發,在科技與制度的交互中為其作出最適宜的規制安排。

3 "訓練數據版權侵權的過錯責任及注意義務

3.1 基于技術價值的一般過錯歸責原則

相較于權利受侵害者,由生成式人工智能一方承擔無過錯責任或過錯推定責任確實更符合其掌握的技術優勢,滿足對知識產權的保護要求。拋開上述對該問題并無實質影響的主體資格問題不談,從現有制度出發,當前法律對網絡服務提供者侵權和著作權被侵權問題均沒有規定特殊的歸責原則,這兩種主要的規制思路均沿一般過錯責任原則展開,為生成式人工智能訓練數據版權侵權提供了解決思路。

回歸生成式人工智能本身,更重要的是其技術價值要求制度重心偏向鼓勵技術發展的寬松一端?;A大模型的建成將起到支撐數字經濟發展的基礎設施作用,會使整個社會的經濟運行、生產方式產生巨大變革,生成式人工智能目前處于初創階段,技術不斷改進需要為其發展留下更為寬松的法律環境,適當在一定空間培育極具潛力的新生事物很有必要。從侵權責任而言,嚴格責任顯然對人工智能企業過于苛刻[16],不必困于如何將新型技術問題歸入傳統制度解決的思路,而是從生成式人工智能技術特點出發,在比例原則指導下分析侵權風險和技術的價值,在保護版權的同時釋放知識產權造福人類的制度活力,以一般過錯原則在侵權治理的源頭上為其松綁,推進通用人工智能的發展壯大與自我完善。

生成式人工智能版權侵權適用一般過錯原則不僅是價值衡量的結果,更是技術實踐操作的需要?;谏墒饺斯ぶ悄艿娜藱C交互屬性,用戶在使用中傾向于向其提供作品內容,從而獲得完善或潤色,甚至存在操作不當或者提供未經授權的他人作品等問題。訓練數據的侵權往往由多方面原因導致,不能完全將其歸責于生成式人工智能服務提供者。而是需要根據不同情形具體分析各方主體的過錯,進而分別確定其應當承擔的相應責任,這為適用一般過錯責任提供了有力支持。

3.2 過錯責任之下:基于技術特性的分級注意義務

在對通用人工智能訓練數據適用一般過錯責任歸責原則的語境之下,進一步討論通用人工智能服務提供者的注意義務問題。鑒于生成式人工智能已經打破原有的“技術支持者—服務提供者—內容生產者”的網絡治理主體劃分標準,無法再對其適用現有制度中針對某一主體的注意義務要求。對生成式人工智能大模型的治理需要新的劃分標準和思路。歐盟《人工智能法案》對人工智能按照場景風險等級進行分級管理,對不同風險等級的模型作不同的義務要求,這一治理思路值得借鑒。

《生成式人工智能服務管理暫行辦法》第二條關于“利用生成式人工智能技術提供具體服務”的表述已經體現出其兼具基礎研發,并在基礎模型之上進行具體業態需要的專業開發,最終鏈接到服務應用的分層運營模式[20]。通用式人工智能大模型只有結合具體的行業才能發揮真正的作用,因此應區分“基礎模型層—專業模型層—服務應用層”分層治理的底層邏輯。在不同的運作層級,生成式人工智能距離終端用戶的距離不同,造成風險的可能和影響程度不同,因此每層對應的侵權注意義務也不同,需進行分層治理。

從基礎模型層到專業模型層再到服務應用層,侵權風險的可能逐層攀升,技術研發的自由度逐層收緊,注意義務程度逐層提高。在現有治理框架內,技術提供者因為研發任務最重對信息內容安全的注意義務更低,內容生產者因為距離用戶最近對信息內容安全的注意義務更高。

對應到生成式人工智能分層治理中,用戶服務層以生成內容方式直觀呈現侵權事實,引起權利人維權糾紛的風險大,其對訓練數據合法性的注意義務也要相應提高。對于該階段新產生的訓練數據侵權問題可以采取“獲得授權與否”來證明過錯有無,以一般過錯歸責原則下較高的注意義務要求來平衡知識產權保護和模型應用試錯,促使生成式人工智能服務提供者在該環節獲取訓練數據的審慎,若該侵權由用戶引起也可按各自過錯承擔相應責任。

而基礎模型層和專業模型層都主要聚焦于技術的開發,距離用戶服務較遠,雖然事實狀態上存在著侵權行為,但復雜的運作模式使得著作權人難以發現,引發糾紛后果和風險的可能性較小。過分關注訓練數據合法性與否,會降低技術研發效率。因此,其注意義務可借鑒避風港原則,以版權侵權行為是否足夠明顯、權利人是否進行通知來進行判斷,減輕模型開發環節應對海量數據合法的注意義務。具體來說,基礎模型層應以發展為導向,要求其滿足科技倫理注意義務即可,而專業模型層因為對行業特點更了解,賦予其符合行業要求的注意義務,在促進產業發展的同時需考慮存在的侵權風險。

4 結語

人工智能技術推動新質生產力發展,以生成式人工智能為起點的通用大模型將是數字經濟發展的基礎設施。然而新技術發展賦能各行各業的同時也帶來安全風險,需要法律制度把控發展和安全的天平,既需要為其留出生長空間,又需要避免既存的基本權利遭受過度損害。生成式人工智能訓練數據版權侵權已經成為司法實踐的現實問題,而歸責原則是侵權責任承擔的開端,需要在立足實踐的基礎上進一步作面向未來技術的理論探討。以大模型訓練數據的技術原理和行業模式論證傳統的著作權,以及網絡平臺治理思路在新技術面前的不足,在鼓勵創新兼顧保障安全的價值指導下,闡釋適用一般過錯歸責原則的合理性,進而在一般過錯歸責的范圍內討論注意義務分級治理,對偏重技術開發的基礎模型層、專業模型層作出較輕的制度束縛,對接近使用者的用戶服務層要求相對高的注意義務以保障使用者權利和市場安全。本文以訓練數據版權侵權的歸責原則論證為切入點,與當前理論探討中主要關注的“合理使用”問題作出相反思路的辯證研究,對該問題的思考開拓了新的維度。但是,本文并未涉及對訓練數據版權侵權的其他客觀構成要件以及責任承擔方式的探討,對生成式人工智能主體資格的問題也未作過多解釋。今后可在技術發展和制度進步的基礎上對通用人工智能訓練數據的版權侵權做更深入的研究。

參考文獻:

[1] DISTRICT COURT" D" DELAWARE. Getty Images (US), Inc. v. Stability AI, Inc. (1:23-cv-00135)[EB/OL].(2023-02-03)[2023-12-02].https://storage.courtlistener.com/recap/gov.uscourts.ded.81407/gov.uscourts.ded.81407.1.0.pdf

[2] 張曉霞,張嘉藝.侵權行為構成要件對“接觸加實質性相似”規則的制衡——論侵害著作權糾紛的裁判思路[J].知識產權, 2021(12):40-51.

[3] 李安.機器學習的版權規則:歷史啟示與當代方案[J].環球法律評論,2023,45(6):97-113.

[4] 張凌寒.生成式人工智能的法律定位與分層治理[J].現代法學,2023,45(4):126-141.

[5] 高笑笑.人工智能對著作權制度的法律挑戰與機遇——以ChatGPT生成“作品”為例[J].科技創業月刊,2023,36(10):30-34.

[6] 中國信息通信研究院政策與經濟研究所,中國科學院計算技術研究所智能算法安全重點實驗室.大模型治理藍皮報告——從規則走向實踐(2023年)[EB/OL].(2023-11-24)[2023-12-26].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/t20231124_466440.htm.

[7] 張平.《反不正當競爭法》的一般條款及其適用——搜索引擎爬蟲協議引發的思考[J].法律適用,2013(3):46-51.

[8] 劉友華,魏遠山.機器學習的著作權侵權問題及其解決[J].華東政法大學學報,2019,22(2):68-79.

[9] 潘香軍.論機器學習訓練集的著作權風險化解機制[C].上海市法學會.2023年世界人工智能大會青年論壇論文集,2023.

[10] 楊華權.論爬蟲協議對互聯網競爭關系的影響[J].知識產權,2014(1):12-21.

[11] 馬忠法,肖宇露.人工智能學習創作的侵權困境與出路[J].武陵學刊,2019,44(5):66-76.

[12] MARTIN POPEL,MARKETA TOMKOVA,JAKUB TOMEK,et al.Transforming machine translation: a deep learning system reaches news translation quality comparable to human professionals[J]. Nature Communications,2020(11): 4381-4381.

[13] 朱開鑫,張藝群.“你的AI侵犯了我的版權”:淺談AIGC背后的版權保護問題[EB/OL].(2023-03-01)[2024-01-02].https://mp.weixin.qq.com/s/FFVlVmltIdiagM35yzCWIw.

[14] 馬治國,趙龍.文本與數據挖掘對著作權例外體系的沖擊與應對[J].西北師大學報(社會科學版),2021,58(4):107-115.

[15] 王沛然.從控制走向訓導:通用人工智能的“直覺”與治理路徑[J].東方法學,2023(6):188-198.

[16] 王若冰.論生成式人工智能侵權中服務提供者過錯的認定——以“現有技術水平”為標準[J].比較法研究,2023(5):20-33.

[17] 胡凌.生成式人工智能知識產權侵權的司法考量[J].數字法治,2023(5):20-25.

[18] 王利明.生成式人工智能侵權的法律應對[J].中國應用法學,2023(5):27-38.

[19] 劉珂宜.算法推薦技術下短視頻平臺版權侵權行為認定[J].科技創業月刊,2024,37(2):166-170.

[20] 張凌寒.一文讀懂生成式AI新規六大亮點——不發展是最大的不安全[EB/OL].(2023-07-14)[2024-01-02].https://mp.weixin.qq.com/s/ZYjEfPsdtthq——TDaIS0Nw.

(責任編輯:要 毅)

基金項目:國家社會科學基金重大項目“數字新聞學理論、方法與實踐研究”(20&ZD317)

作者簡介:姚秀文(2001-),女,天津大學法學院碩士研究生,研究方向:民商法學。

主站蜘蛛池模板: hezyo加勒比一区二区三区| 91久久精品国产| 国产成人免费高清AⅤ| 无码一区18禁| 午夜欧美在线| 国产精品专区第1页| av午夜福利一片免费看| 欧美日韩国产精品综合| 国产一级在线播放| av在线手机播放| 久久中文电影| 欧美成人精品高清在线下载| 欧美a在线视频| AV天堂资源福利在线观看| 国产一区二区三区日韩精品| 国产91丝袜在线播放动漫 | 亚洲精品男人天堂| 国内精品久久九九国产精品| 免费xxxxx在线观看网站| 久久免费看片| 激情爆乳一区二区| 九色在线观看视频| 婷婷中文在线| 国产在线拍偷自揄拍精品| 三级欧美在线| 狠狠色婷婷丁香综合久久韩国| 免费在线视频a| 91麻豆国产视频| 天天色天天综合| 日韩最新中文字幕| 国产欧美视频在线| 老司机午夜精品视频你懂的| 无码一区18禁| 高清码无在线看| 国产在线观看第二页| 婷婷综合缴情亚洲五月伊| 91视频免费观看网站| 最新精品国偷自产在线| 久久综合成人| 五月激情婷婷综合| 国产亚洲视频中文字幕视频| www精品久久| 国产一区二区三区在线精品专区| 欧美精品在线视频观看| 午夜福利亚洲精品| 91精品专区| 亚洲高清在线天堂精品| 乱人伦视频中文字幕在线| 日韩123欧美字幕| 欧美日韩福利| 黄色网在线免费观看| 欧美一级高清免费a| 欧美一级专区免费大片| 999国内精品视频免费| 91在线精品麻豆欧美在线| 亚洲妓女综合网995久久| 亚洲人成网站观看在线观看| 国产第三区| 三级毛片在线播放| 麻豆国产原创视频在线播放 | 成人免费黄色小视频| 91在线免费公开视频| 欧美一区二区人人喊爽| 日韩专区第一页| 精久久久久无码区中文字幕| 黄色网址免费在线| 无码视频国产精品一区二区| 九九热这里只有国产精品| 中文字幕 欧美日韩| 色悠久久久| 亚洲男人天堂2018| 国产美女无遮挡免费视频网站| 一级毛片免费的| 黄色网页在线播放| 国产成人AV男人的天堂| 国产无码精品在线播放| 欧美va亚洲va香蕉在线| 无码福利日韩神码福利片| 国产色婷婷| 原味小视频在线www国产| 国产女人在线观看| 国产成人精品视频一区视频二区|