999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能視域下版權數據保護的路徑選擇

2025-08-29 00:00:00吳何奇張三
編輯之友 2025年6期

近年來,大語言模型與應用程序的迅猛發展,推動了生成式人工智能的顯著進步。不同于以往的判別式人工智能通過標簽化已有數據進行輔助決策,生成式人工智能通過學習數據的聯合概率分布,整合分析后生成新內容,其通過模仿人腦處理數據,不僅提升了創作速度,還能捕捉人類遺漏的新意,被視為人工智能的新層次,具有開啟信息內容生產和傳播新時代的潛力。[1目前,生成式人工智能已在藝術、醫療和人機交互等領域展現出廣泛應用前景。盡管當前主要將其應用于文本、圖像、聲音和視頻的生成上,但隨著數據增長、算法和算力提升,生成式人工智能有望成為邁向通用人工智能的重要路徑,推動技術應用邁向更高水平。

目前,強化人工智能治理已成為國際共識,隨著人工智能對算法歧視、數據風險、知識產權風險的加劇乃至現實化,為確保這項技術的安全性和可靠性,各國對人工智能的監管力度逐漸加大。我國人工智能的治理框架初步建立并有序推進,《中華人民共和國個人信息保護法》《互聯網信息服務深度合成管理規定》以及《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)等法律法規構成了我國人工智能發展的法律規制體系,為包容審慎的人工智能治理模式提供了依據。然而,生成式人工智能的發展可能超出各國監管預期,其所具備的顛覆性技術能力帶來的社會變量,可能遠超現行控制機制與規范框架的調整范圍。[2]特別是在既有的版權法框架下,模型訓練與內容生成中的版權風險突出、爭議頻發。是據法闡釋版權法并激活其中的數智元素,還是重構版權法的規制邏輯以適應新的技術環境和創新需求?對此,本文以版權法為規制視角,討論生成式人工智能數據濫用的制度因應與路徑優化。

一、數據濫用的版權問題

從國內外司法實踐來看,AIGC服務提供者的版權侵權主要聚焦于兩類情形:一是模型訓練階段的版權侵權,二是內容生成階段的版權侵權。對于前者的判斷在于大模型每次輸出的內容是否均構成演繹權侵權,對于后者的判斷則是在“模型記憶”①情形下,大模型是否直接輸出與被訓練作品相同或相似的內容。

1.模型訓練階段的版權問題

模型訓練階段的版權問題主要在于大模型每次輸出的內容是否均構成演繹權侵權。2023年1月,安德森等三位藝術家起訴 StableDiffusion、Midjourney、DreamUp等AIGC平臺。加州法院駁回了原告侵權的指控,其裁判的依據在于AIGC輸出的內容與在先作品不存在表達層面的實質性相似,AIGC服務提供者的研發不屬于直接侵權,因而也不構成間接侵權。無獨有偶,華蓋創意(GettyImages)亦就類似事由起訴StableDiffusion的開發者StabilityAI,控告其未經許可竊取平臺上的數百萬張照片。由于AI生成圖像版權歸屬上的爭議,[3]華蓋創意等公司已禁止在其平臺上使用AI生成圖像素材。相對于美國在司法裁決中對數據訓練行為的認定,歐盟的立場則傾向于保護著作權人,如果使用的數據未經文字、照片、影視、短視頻等著作權人的授權和許可,則涉嫌對著作權的侵犯。2024年3月,類似的行為迫使法國競爭管理局對谷歌處以2.5億歐元罰款。

生成式人工智能的可用性和有效性依賴于訓練數據的質量和數量,其在賦能知識生產的同時也不斷沖擊知識生產相關各方的利益關系,甚至推動了版權規范的重構。如日本政府認為對版權的擔憂,將阻礙人工智能技術方面的進步。對此,日本在其2018年修改的版權法中明確,“通過電子計算機進行信息分析并提供結果”的輕微利用作品的行為屬于“柔性合理使用”,這回應了人工智能等新技術產業擴大合理使用條款開放性的需求,[4即允許人工智能在未經版權所有者許可的情況下,使用文本和圖像等受版權保護的作品。我國仍以“不得不合理地侵害著作權人的合法權益”限定合理使用條款的適用邊界,這要求司法者須關注個人基于非商業自的且未進行傳播的私人復制行為所產生的累積效應。若眾多使用者的個體行為的集合,實際上可能產生廣泛的傳播效果,進而對著作權人的作品市場形成替代,同樣會侵害其合法權益。

2.內容生成階段的版權問題

憑借著巨大的參數規模,生成式人工智能適用于語言翻譯、內容生成和語言建模等多種場景?,F實中,借助大語言模型生成的文本很難與人類編寫的文本區分開來。強大的自然語言處理能力使大語言模型具有超越輔助性科研工具而成為自主性科研助手的可能,“科研范式將從效率比較低的‘作坊模式’轉向‘平臺模式’”,大語言模型已經發展到幫助研究人員分析和撰寫學術論文、生成代碼,并在內容的邏輯上復刻人類專家撰寫學術論文時的表達習慣。[5]

用戶利用AIGC服務生成版權侵權內容的方式一般有兩種情形。一種是由于“模型記憶”的技術漏洞生成與原作品實質性相似的內容,在這種場合,服務提供者的角色更類似主動的內容提供者,而非傳統的技術服務者。此類問題通常被視為技術發展尚未成熟階段所衍生的過程性問題,在現有的版權法框架下,這類問題適用于“接觸 .+ 實質性相似”的侵權判定規則,[并由服務提供者對AI所生成和提供的內容承擔法律責任。[7]另一種是用戶向AIGC平臺輸入具有侵權誘導屬性的提示詞,如特定作家、畫家或作品的名稱,以及“仿照”“參照”“改編”等可能誘導侵權的詞匯,導致生成內容侵犯原作品的復制權、改編權等。司法實踐中,因通過AI文生圖服務生成相同或相似圖片,Tab平臺被上海新創華公司控告侵犯了其在國內奧特曼美術作品方面的復制權、改編權及信息網絡傳播權。法院最終判定,Tab平臺作為AI服務提供者,雖非模型訓練者,無須刪除訓練數據,但需采取關鍵詞過濾等措施防止侵權內容再生。若用戶僅利用AIGC服務生成供個人使用的內容,該行為則未必構成版權侵權。在“湯森路透訴Ross人工智能版權侵權案”的裁定中,美國特拉華州地方法院強調對于未向公眾公開的作品利用,即便是全文復制也可能構成合理使用。實踐中,AIGC生成內容的版權規制只有當用戶通過第三方平臺公開傳播時才可能被觸發。若內容局限于封閉的用戶交互界面,一般不涉及后續的版權維權與責任承擔。

然而,僅憑純粹的指令輸入與語言交互就形成的創作畢竟不需要耗費使用者多少精力。[8因此,使用大語言模型創作的行為大多被認為是一種“高科技剽竊”。[9]如使用AI算法繪圖工具Midjourney完成《太空歌劇院》并獲獎的行為,引發不少指責與抵制。此外,一些學術期刊出臺相關政策限制大語言模型的運用,如不少國內外知名學術刊物拒絕接收由人工智能輔助完成的論文,以防止其在學術研究上的濫用。顯然,不同于其他領域對人工智能的包容甚至是“擁抱”,科學創新領域更多持謹慎保守的態度,在人工智能通用化發展的必然趨勢下,保留人的創造性勞動仍是科學研究的底線。

二、版權數據保護的現有制度路徑

數據是智能算法成長的原材料,如何平衡技術創新與版權數據保護,既促進人工智能技術的健康發展,又有效遏制版權數據的濫用問題,成為當下各國在AI產業中的規制重點。

1.以風險為導向的數據監管模式

人工智能技術與各個產業融合漸深,覆蓋多種應用場景,針對算法歧視、數據隱私等問題,部分國家或地區均采用分類或分級的模式部署人工智能的監管,其中,基于風險導向的監管思路更是域內外立法與實踐的主流。[1歐盟的《人工智能法案》是首部全面規制人工智能的立法框架,該法案與《通用數據保護條例》在權利保障的思路上基本一致,確立了基于風險的人工智能治理框架,即通過對人工智能風險等級的劃分配以差異化的監管等級,[11力求對相關系統或可能引發的風險進行事先防范。該法案以是否具有系統性風險作為劃分標準,對通用人工智能實行分級監管。除了被視為藝術作品的“深度合成的圖片、聲音和視頻”,法案認為生成式人工智能等大模型具有系統性風險,需比照高風險系統予以監管。[12]為了增強生成式人工智能的可解釋性與透明性,該法案要求人工智能企業披露訓練數據,旨在使AI的決策過程更加透明化且可追蹤。

基于風險的分級分類監管是一種預防性的事前治理,這里的風險是具體場景中技術應用的潛在風險。然而,人工智能技術發展與迭代的頻繁帶來社會關系的不確定性以及風險種類、程度的不可預見性,[13]難以通過類型化的方式全面評估系統的風險。隨著人工智能通用性的顯著提升,其逐漸成為一種集數據、算法、信息內容于一體的大模型,并能夠在微調后應用于廣泛的任務中,基于“風險主義”的分級分類監管難以涵蓋并準確界定生成式人工智能在所有場景中的一切風險。數字經濟的本質是創新經濟,基于風險導向的數據監管必將伴隨著較高的治理成本和技術挑戰。當前,國內人工智能產業正致力于算力、數據與算法的優化與趕超,若此時設定過高的規制義務,無疑會抑制產業的健康發展,采取更為靈活且成本可控的規制路徑顯得尤為重要,以風險預防為導向的分級分類監管或許并非人工智能治理的最佳答案。

2.基于服務提供者主體的責任配置

當前,人工智能的治理活動依托于算法主體責任漸次展開。以主體問責服務提供者的前提是預設人工智能的工具屬性,并在此基礎上要求服務提供者主動履行義務。作為監管的重點,服務提供者承擔主體責任并履行一系列網絡、數據、算法的安全運行義務,而對技術開發層的研發者、技術服務層的使用者則多為倫理要求,少有硬性規制。根據《中華人民共和國民法典》第一千一百九十五條關于網絡服務提供者責任的規定,當用戶通過網絡服務實施侵權行為時,若在權利人發出合格通知后,網絡服務提供者未能及時采取必要措施,則應對損害的擴大部分與網絡用戶承擔連帶責任。《暫行辦法》亦要求,服務提供者不僅要“依法開展預訓練、優化訓練等訓練數據處理活動”,還要承擔網絡信息內容生產者責任與個人信息處理者責任,而使用者僅扮演監督者的角色,向主管部門投訴、舉報不合規的智能服務。

的確,將服務提供者視為責任承擔者具有積極意義。在生成式人工智能興起以前,人工智能服務提供者對生成內容的基礎素材和生成過程具有較強的控制力和決定力。據此,理論與實務界均認為,服務提供者對用戶生成內容的潛在侵權風險應負有合理的預見與防控義務。當使用者通過服務生成與他人作品高度相似的作品時,AI服務提供者的過錯可基于特定情境直接認定。[14然而,生成式人工智能兼具工具屬性與基礎設施屬性,大語言模型的設計與運行涉及多種主體,責任配置不宜堅持以服務提供者為中心。一方面,大語言模型的風險不僅來自提供者,亦可能源于內容輸出端的使用者。生成式人工智能產品是動態的,不是靜態的,它們的輸出內容會隨著新的數據、新的用途和新的集成而改變。[15使用者與模型的人機交互可以反哺模型,即使用者在與機器互動過程中輸入的數據也可能成為人工智能的訓練樣本。[1現實中,生成式人工智能在通用性方面的提升為使用者在事實上對生成內容進行干預提供了可能。同時,隨著大語言模型越來越多地被集成到各種應用程序中,大語言模型已經具備通過自然語言提示靈活調節輸出內容的功能。這使它們容易受到有針對性的對抗性提示的影響,如使用者可以通過提示詞注入,越過服務提供者設置的內容安全審核過濾系統,生成違法內容。另一方面,生成式人工智能的運作機制也決定了侵權內容的生成并非直接由服務使用者向平臺發布,而是通過輸入特定的提示詞指令系統生成。這一過程中,侵權責任的主體變得多元化且復雜,包括但不限于算法設計者、服務提供者以及使用者。這種侵權模式的轉變,源于生成式人工智能的高度自主性和互動性,它使得侵權行為的識別與歸責變得更為復雜。上述問題都將深刻影響著技術運行過程中所涉及的責任分配,僅將服務提供者作為責任主體,難以全面規制AIGC服務中的版權數據濫用行為。目前,為推動可信賴的人工智能發展,構建人工智能保障生態系統,美國國家標準與技術研究院發布了《人工智能風險管理框架》1.0版,該框架提出的監管模式覆蓋了人工智能在設計、開發、部署以及使用各階段,旨在增強人工智能可信度。

三、版權數據保護的路徑選擇

面對生成式人工智能對版權保護規范的沖擊,無論是基于風險導向的數據監管模式,還是基于服務提供者主體的責任配置,都難以完成協調技術創新與版權秩序平衡的任務。對此,應全方位構建生成式人工智能背景下版權數據保護的框架與路徑,為保護版權數據提供有力的制度支撐和實踐指導。

1.為何保護:保護版權數據就是保護人的創造力

生成式人工智能在創造性方面的潛力,讓人驚呼正在“語言上構建出一種新的主體性”。[17]在此背景下,“機器換人”的問題就不再是簡單的失業問題,而是智能技術在各行各業對人類的排擠。目前,生成式人工智能正逐步演變為一種全能型的內容生產工具,其潛力似乎預示著創作生態的重大變革。過往,創作依賴于手工模式和專業經驗。如今,創作形態正從大腦構思與手工操作的傳統模式,轉變為人類構思與篩選、機器高效生成的新模式。生成式人工智能的興起使得人類創作的概念逐漸受到AI生成的挑戰。此前,創作被視為人類獨有的智力活動,其核心在于獨創性的智力表達。然而,生成式人工智能憑借其強大的涌現能力,基于龐大的數據資源和先進的深度學習算法,能夠以遠超人類的效率持續產出高質量的多模態內容,如文章、圖片、音樂和影視動畫等,從而徹底改變了創作的格局和邏輯。

在知識生產的過程中,AI讓信息獲取的方式不斷便捷,但人類的自主思考和決策能力也被無形中削弱。[18]知識的生產,應當是一種自由的、創造性的活動,而非被動的、機械的運動。而人類對機器的深度依賴本質上是對人類個性的抹殺而非實現人的自由且全面的發展。人在追求從生產勞動中解放的同時,卻因為沉溺于人工智能的便利、對功利主義的推崇而喪失創造力,沉醉于被技術支配的人機關系中,欣然鼓吹技術的美好,淡化了潛在的風險。在生產方式不斷異化的過程中,人的全面性被嚴重限制。在這一進程中,人對物的依賴超越了人對人的依賴,人類開始隸屬于技術,并受到技術的支配,甚至在某些情況下被機器所替代。[19]最終,這塑造出了一個由技術統治和支配的異化世界,人的創造力和審美觀必然受到挑戰和顛覆。對此,保護版權數據,不僅是對創作者勞動成果的尊重,更是維護人類創造力和文化多樣性的關鍵。

在人工智能治理中,我國倡導的以人為本的價值準則兼具理論性與實踐性。以人為本的技術治理面向追求的是人的自由、全面發展。工業革命以來的歷史證明,工具主義往往服務于資本邏輯,而機器則是服務于資本增值的利器。以人為本的價值取向,意味著人工智能的發展應具有人文關懷和社會責任的倫理面向。誠然,人工智能不能替代人類認知世界,但其可以成為人類的認知伙伴。在哈貝馬斯的描述中,交往專屬于人與人之間的活動,[20當前的人機交互亦不是人機交往。但“當機器變得足夠復雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴”。[21因此,我們必須正視人機交互發展為人機交往的可能,并提前將這種交往的理性作為文化標準植入機器,用機器鼓勵創新而非減少創新。因此,保護版權數據應著重從以下幾個方面入手:一是明確生成式人工智能模型訓練階段與內容生成階段版權數據的歸屬;二是加強版權信息的披露和透明度建設,通過技術手段實現版權信息的可追溯性和可驗證性;三是厘清主體責任制度,進而確保侵權者受到應有的法律制裁。

2.誰來保護:從控制秩序到共治秩序

社會系統具有復雜性、動態性和多樣性。協同治理理論在尊重多樣性的基礎上,尋求實現各個子系統之間目標和實現目標手段的協同,構建都能接受的共同規則,而遵守這種規則的結果是實現各方的共贏。[22數據治理不僅需要黨和政府的領導和推動實施,而且需要社會的協同。協同共治來源于對共同體理論的認識,是通過推動個體化、差異化與分散化的治理主體重新共同化,形成統一的治理行為模式與治理價值面向。[23]它以溝通協商為主要治理形式,以共同制度創新為基礎,強調多元治理主體間各自治理效能的充分發揮,以超越簡單合作治理的協同效力,應對治理難題,促進治理向善治的轉變。[24協同共治實踐路徑是建設人人有責、人人盡責、人人享有的社會治理共同體,形成共建、共治、共享的社會治理新格局。

傳統的技術規制本質上是一種控制秩序,雖有統一治理手段的優點,但難以調動社會力量的積極參與。如人工智能的數據訓練中,企業為了規避責任風險,對包括作品在內的數據使用情況缺乏妥當的記錄與歸檔。同時,出于規避不必要的市場競爭,企業公開訓練數據中版權信息的意愿并不強烈。因此,即便礙于政策要求,通常也只會籠統介紹訓練數據的規格?!叭斯ぶ悄芫哂屑夹g內核的隱秘性、技術形式的擬人性、應用場景的跨域性、利益主體的交織性、技術風險的多維性、社會影響的復雜性等屬性”,[25]生成式人工智能更是一個復雜性整體,數智賦能知識創造與版權人權利保障的摩擦愈發頻發。因此,對于版權數據的保護,既要指向物質社會,也要面向虛擬空間;既是對人的規制,也是對技術的規訓。

在此背景下,版權數據的治理需要充分考慮用戶、公眾、版權人等社會各方的利益訴求。通過引入多方利益相關者,與黨和政府構成治理的共同體。協同共治旨在將傳統的控制秩序轉變為共治秩序,通過對社會議題以及各方面價值觀的引導或協調,“由政府單一主體逐步過渡到一個由政府、非政府組織、社會團體以及公眾個體等構成的行動者系統”。[26]多元主體協同共治是社會治理走向現代化的重要標志。人工智能治理應善于發動和依靠群眾,架構“政府負責、社會協同、公眾參與”的治理體系,克服傳統技術治理中政府主體大包大攬、社會主體消極參與的單一化治理模式,逐步形成企業自律、政府監管、社會協同、公眾參與、法治保障的社會共治新格局,以共治促善治,以善治圖長治。

針對人工智能應用中版權數據的協同共治,首先需要明確的是不同主體間的協同合作,從而實現治理手段上的協同。這種協同共治模式旨在構建一個全面的治理體系,其中既有嚴格的法律規范為技術風險提供兜底保障,又結合了階段性目標的設立,通過反復試錯和及時反饋,實現人工智能治理的敏捷性與韌性。保護版權數據涉及算法、數據治理等多個復雜維度,是一項系統工程,需要多主體參與、多手段結合。針對版權數據的協同共治,應以政府、司法機關、社會組織及公眾的共同參與為先導。政府應發揮主導作用,負責制定和執行相關法律法規和政策,為人工智能的服務提供者、研發者提供明確的指導和支持。政府應推動建立跨部門的協調機制,確保版權數據在人工智能應用中的合法合規使用,同時加大對違法行為的打擊力度,形成有效的震懾。提供者作為人工智能技術的核心主體,應積極履行社會責任,遵守法律法規,確保產品和服務的安全可靠。同時,提供者應對數據的收集、使用、處理等環節進行規范,避免侵犯他人的版權,并在技術條件具備的基礎上,提升算法的透明度和可解釋性,減少因算法黑箱引發的版權爭議。使用者作為人工智能產品的最終受眾,應增強自我保護意識,合理使用人工智能產品和服務。他們應了解并尊重版權,避免使用盜版或未經授權的數據。此外,社會組織和公眾也應積極參與人工智能應用中版權數據的協同共治。社會組織可以發揮橋梁和紐帶作用,促進政府、企業、公眾之間的溝通與合作,推動形成共識。公眾則應提升自己在人工智能治理中的角色意識,積極承擔治理責任,通過監督、舉報等方式參與版權數據的保護。

3.如何保護:從風險預防到塑造可信人工智能

類型在具體化思考、法律發現及體系形成中發揮著重要方法論功能,[27在監管責任的分配上,抽象的技術風險落實終究要通過類型化的提煉來為治理實踐提供精細化、具體化的指導。技術風險的規制思路符合現代社會風險預防的旨趣,但預防技術風險并不是技術創新的全部內容。誠然,分級分類監管方式的確立旨在避免治理上的“一刀切”,但在智媒時代下,人工智能治理的重心宜從技術風險轉向技術應用本身,即在算法、場景、主體、數據多個類型的場景安排上,對不同類型的技術應用予以分級分類監管,即應用場景的分類、具體應用行為的分級。大模型是直覺機制的運用者,生成式人工智能基于概率預測的生成創造與基于經驗一神經的互動機制具有相似之處,這種類似于人類經驗直覺的思維方式是意識認知方式的一種。[28]盡管意識層面的直覺難以解釋,但就像對人類意識活動的規訓,我們仍然可以通過對其外化的客觀行為的規制來實現。對于版權數據保護,宜將對版權的尊重確立為數據治理的核心目的和基本原則,將知識創新的理念深植于人工智能賦能應用的每一個環節,引領人工智能的發展與人類知識創新的良性互動。

如何塑造人工智能的可信性?其一,實現技術運行的可知,技術監管的可見。有鑒于算法的專業性、復雜性與不公開性,一直以來,透明與可解釋都是人工智能治理的核心議題。在AI系統的設計和功能足夠透明的前提下,用戶能夠理解其工作原理和潛在的限制,政策方得以刺破“黑箱面紗”,推動外部監管。外部的監管問責能夠倒逼人工智能開發、應用、運營和管理走向數據與算法的合規,提升人工智能系統的可控、可信程度,實現數字正義。圍繞算法透明,歐盟的《人工智能法案》提出了諸多要求:類似于高風險AI,通用人工智能同樣面臨披露信息的透明度監管要求,為了增加通用型人工智能模型預訓練和訓練所使用數據的透明度,模型的開發不僅要受到版權法的約束,提供者還需要公開用于訓練的內容摘要。而隨著人工智能通用水平的不斷提升,提供者與使用者間的關系鏈愈發緊密,尤其是針對具體運行問題,除了提供者的技術背書,使用者的相關解釋亦不可或缺。正因如此,除了既定的責任配置,OECD已將透明度和可解釋性作為人工智能使用者的義務。[29]

其二,通過綜合技術性的法律問責增進人類對技術的信任。在我國的司法實踐中,直接侵權與間接侵權的二分法被作為版權領域歸責的主要路徑。然而,傳統的二分法在AIGC等新興業態的適用中存在明顯的局限性。其中,間接侵權的認定需要證明行為主體主觀上存在幫助或引誘他人實施侵權行為的意圖。然而,在AIGC技術的實際應用中,侵權行為的發生呈現出更高的間接性和自動化程度,侵權行為的觸發往往并非基于行為主體的直接指令或明確意圖,而是通過復雜的算法模型和數據處理流程間接實現。因此,遵循傳統的主觀意圖標準難以準確界定行為主體的責任邊界。鑒于此,有必要探索新的歸責路徑,以適應AIGC技術發展的新形勢,確保知識產權司法裁判的公正性和有效性。注意義務發揮著彌合歸責困境的作用,其理論實質上實現了對行為主體過錯認定標準的客觀化轉型。即在判定侵權責任時,更多地考察其行為是否符合社會普遍認可的行為準則。通過審視AI模型開發者或服務提供者的行為是否符合合理預防侵權的標準,來判斷其是否存在過錯。確立明確的注意義務標準,對于界定法律邊界、保障技術健康發展以及推動行業自律機制建立具有重要意義,是應對新興技術挑戰、促進科技創新與社會和諧共生的現實需要。[30]具體而言,當AI服務提供者在明知存在潛在侵權風險的情況下,未能采取有效預防措施,如忽視AI服務使用者對模型的誤用、未對生成內容進行必要的過濾等,即便難以直接證明其存在引誘或幫助他人侵權的明確意圖,也應認定其違反了注意義務。這一認定方式實質上拓寬了責任認定的范疇,將那些雖無直接侵權意圖,卻因疏于職責而間接促成侵權的行為主體納入責任體系,從而彌補了傳統侵權判定方法在應對新型技術侵權問題上的不足。適用上述歸責路徑,既能在保障技術創新的同時有效防范法律風險,又能促進產業的持續健康發展。因此,建議立法者明確生成式人工智能在算法設計、數據選擇、開發部署及運行維護等各階段所應承擔的法律責任,確保注意義務的內容既符合法律要求,又便于產業實踐。

其三,主體責任的有序配置。盡管根據《公民權利和政治權利國際公約》,基于實現社會公益對個人權利的限制或克減也是被允許的,[31但公民的基本權益始終是人工智能開發和應用的目標而不是手段。因此,在人工智能技術的開發和應用過程中,需要保護人工智能使用者的平等權、知情權、隱私權、拒絕權等權利,[32通過加強數據保護、明確責任主體、建立投訴和救濟機制等方式,確保個人在使用人工智能產品和服務時的合法權益不受侵害,保障數字弱勢群體享受技術紅利的可及與公平。充分尊重個人權益是人工智能治理的首要任務。由于數字時代的個人權益保護面臨著新技術帶來的復雜挑戰,從被動回應到主動預防符合公眾對技術治理的期待,但回應民眾的期許不等于對每一種妨礙社會秩序平穩實現的行為或隱藏的風險都進行制裁,過于嚴苛的安全保障反而導致技術的閑置,妨礙社會的正常運轉。如一度飽受爭議的《歐盟數字化單一市場版權指令》雖于2018年通過,但利益各方圍繞該責任認定的分歧導致于2016年9月提出的該指令提案多次被擱置。其中,指令第17條要求服務提供者對其用戶上傳的侵權內容承擔責任的規定體現了對“避風港原則”免責條款的突破,意味著服務提供者的注意義務范圍的擴大,將對平臺經營者造成較大影響,[33帶來運營成本加大的壓力。雖然為了確定提供商是否滿足條款中“盡力而為”的要求,第17條也列出了有關合規成本的考量,但該指令對原先《歐盟電子商務指令》“通知一刪除”規則的取消,依然增加了商業監管的不確定性。

人工智能治理要兼顧安全與發展,相關制度的構造要堅持預先性與謙抑性的統一。主體責任的有序配置是發展可信人工智能的前提,是培育可信人工智能生態的關鍵,結合人工智能邁向通用化的發展趨勢,主體責任的劃分不宜局限于傳統平臺治理、算法治理中的提供者模式,需要考慮當前的技術特點,以未來通用人工智能的發展方向為抓手,著眼于研發行為、提供行為與使用行為的引導與約束,根據人工智能技術產業鏈上各參與主體的控制能力,綜合考量AIGC服務的性質、技術特點等因素,為研發者、提供者、使用者分配相應的責任義務。在責任的分配上,相對于提供者、研發者,使用者屬于弱勢一方,但若因此強調對服務提供者的問責,存在矯枉過正之嫌。智慧社會環境下的經濟模式離不開技術的開放和利用,因此,既要明確基礎模型和衍生利用者之間的責任分配,也要對研發者、提供者、使用者等注意義務進行合理分配。提供者有明顯過錯并懈怠保護權利人權益的理應承擔侵權責任,但對于使用者有過錯的,應給予研發者和提供者一定的責任豁免。此外,我們還應當從社會發展層面為提供者、研發者提供保障,回應國內人工智能企業的發展需求。如通過提供稅收激勵、資金支持和人才培養等措施,鼓勵研發者和提供者加大人工智能技術創新投入,推動產業發展。

結語

技術的快速發展無疑為人們的生活帶來了前所未有的便利和可能性,但與此同時,也帶來了一系列新的挑戰和問題。我們需要建立一個全面的技術開發與監管體系,既要鼓勵和支持技術的創新與發展,又要確保這些技術符合社會的倫理、道德和法律標準。在推動技術發展的過程中,我們既要關注技術的先進性和適用性,更要關注其對社會、環境和個人的潛在影響,確保技術的發展在安全可控的范圍內進行,并最大限度地減少其可能帶來的法律問題。

參考文獻:

[1]丁磊.生成式人工智能:AIGC的邏輯與應用[M].北京:中信出版集團,2023:6.

[2]袁曾.生成式人工智能治理的法律回應[J].上海大學學報(社會科學版),2024,41(1):28-39.

[3]劉通,陳夢曦,AIGC新紀元:洞察ChatGPT與智能產業革命[M].北京:中國經濟出版社,2023:209.

[4]鄭重.日本著作權法柔性合理使用條款及其啟示[J].知識產權,2022(1):112-130.

[5]游俊哲.ChatGPT類生成式人工智能在科研場景中的應用風險與控制措施[J].情報理論與實踐,2023,46(6):24-32

[6]胡凌,生成式人工智能知識產權侵權的司法考量[J].數字法治,2023(5):20-25.

[7]吳何奇.類型化區分網絡服務提供者侵犯著作權刑事責任[N].檢察日報,2023-04-18(3).

[8]Erik Olsson.We have to recognise ChatGPT-not ban it,saysCambridge pro-VC[EB/0L].[2023-07-20].https://ww.varsity.co.uk/news/24892.

[9]Noam Chomsky on ChatGPT:It's \"Basically High-TechPlagiarism\"and\"aWayofAvoidingLearning\"[EB/OL].[2023-07-20].https://www.openculture.com/2023/02/noam-chomsky-on-chatgpt.html.

[10]陳兵,董思琰.分類分級治理算法的基本內涵及實踐進路[J].西安財經大學學報,2023,36(6):70-79.

[11]曾雄,梁正,張輝.歐盟人工智能的規制路徑及其對我國的啟示——以《人工智能法案》為分析對象[J].電子政務,2022(9):63-72.

[12]孫晉,帕孜麗婭·玉蘇甫.ChatGPT對數據合規的風險疊加及法律因應[J].法治現代化研究,2023,7(6):53-70.

[13]張凌寒.中國需要一部怎樣的《人工智能法》?—中國人工智能立法的基本邏輯與制度架構[J].法律科學(西北政法大學學報),2024,42(3):3-17.

[14]何懷文.中國著作權法:判例綜述與規范解釋[M].北京:北京大學出版社,2016:636,649.

[15]Lilian Edwards.Regulating AI in Europe:Four problemsandfour solutionss[EB/0L].[2023-03-25].https://www.adalovelaceinstitute.org/wp-content/uploads/2022/03/Expert-opinion-Lilian-Edwards-Regulating-AI-in-Europe.pdf.

[16]謝波,李晨煒.ChatGPT網絡安全風險的形成機制及其應對路徑[J].國家安全論壇,2023,2(5):17-31,101-102.

[17] 陶鋒,劉星辰.從人機對話到人機交往——人工智能大語言模型的哲學反思[J].社會科學戰線,2024(5):188-199,282,294.

[18]潘恩榮,孫宗嶺.人工智能“以人為本”倫理準則反思一一種馬克思主義哲學的分析思路[J].云南社會科學,2022(6):30-39.

[19]馬克思.資本論:第一卷[M].中共中央馬克思恩格斯列寧斯大林著作編譯局,譯.北京:人民出版社,2004:424.

[20]尤爾根·哈貝馬斯.作為“意識形態”的技術與科學[M].李黎,郭官義,譯.上海:學林出版社,1999:49.

[21]約翰·馬爾科夫.與機器人共舞[M].郭雪,譯.杭州:浙江人民出版社,2015:208.

[22]李漢卿.協同治理理論探析[J].理論月刊,2014(1):138-142.

[23]王春光.社會治理“共同體化”的日常生活實踐機制和路徑[J].社會科學研究,2021(4):1-10.

[24]趙曉峰,馬銳.協同共治:農村社會治理共同體建設中企業行為研究[J].陜西師范大學學報(哲學社會科學版),2023,52(2):127-137.

[25]龐禎敬,薛瀾,梁正.人工智能治理:認知邏輯與范式超越[J].科學學與科學技術管理,2022(9):3-18.

[26]余衛東,柳明.社會治理共同體構建的倫理之維[J].江漢論壇,2022,43(7):67-72.

[27]杜宇.類型思維與刑法方法[M].北京:北京大學出版社,2021:4.

[28]EpsteinS,PaciniR,Denes-RajV,etal.Individualdifferencesinintuitive-experientialandanalytical-rationalthinkingstyles[J].JournalofPersonalityandSocial Psychology,1996(2):390-405.

[29]張永忠.論人工智能透明度原則的法治化實現[J].政法論叢,2024(2):124-137.

[30]林北征.論生成式人工智能服務提供者的注意義務[J].法律適用,2024(10):148-163.

[31]吳何奇.醫療大數據的價值、風險與法律規制一一基于新型冠狀病毒肺炎疫情治理的思考[J].科技導報,2020,38(23):31-38.

[32]楊建軍,張凌寒,周輝,等,人工智能法:必要性與可行性[J].北京航空航天大學學報(社會科學版),2024,37(3):162-174.

[33]曾俊.論《歐盟版權改革指令》第17條對中國在線內容分享平臺責任的啟示[J].德國研究,2020,35(3):125-141,163-164.

Approaches to Copyright Data Protection from the Perspective of Generative AI

WUHe-qi2(1.SchoolofCriminalJustice,ShanghaiUniversityofPoliticalScienceandLaw,Shanghai2O1701,China; 2.China ExecutiveLeadership Academy, Shanghai 201204, China)

Abstract:Therapid development of large language models and applications has propelled significant advances in generative artificial intelligence,showcasing extensiveapplicationprospects.However,ithasalso transformed therisk ofAI misusing data into arealistic concer.From the perspective of domestic and international judicial practice,the copyright isse ofdata misuse mainly focuses on the stages of model training and content generation.In response,a risk-orienteddataregulatorymodelcould preventpotentialrisksof technologicalapplications throughclassification andgrading,butfaceschallenges inassessmentdiffcultyandgovernancecosts.Theresponsibilityallocationbasedon service providers emphasizes their fulfllmentof securityobligations,yetthe technical characteristicsof generativeAI complicate the delineationofresponsibilities.Therefore,itisnecessry toestablish acomprehensive copyrightdata protection framework to balance technological innovationand copyright order.It should shift fromacontrolorder to a co-governance order,enablingcollaborative governance among governments,enterprises,society,and the public. Simultaneously,trustworthyAIshouldbeshaped byenhancing technological transparency,transformingthepathof attribution ofresponsibility and alocating the responsibilityof the main subject in an orderly manner.

Keywords:generativeartificialintellgence;dataabuserisk;datasupervisionmode;trustworthyartificialintelligence

(責任編輯:張君)

主站蜘蛛池模板: 老熟妇喷水一区二区三区| 亚洲欧美国产五月天综合| 亚洲精品无码在线播放网站| 亚洲福利片无码最新在线播放| 精品国产成人国产在线| 日韩在线永久免费播放| 热久久综合这里只有精品电影| 国产手机在线小视频免费观看 | 中文字幕久久精品波多野结| 中文无码日韩精品| 97超碰精品成人国产| 欧美视频在线播放观看免费福利资源| 久久婷婷人人澡人人爱91| 色天堂无毒不卡| 欧美精品不卡| 国产美女一级毛片| 欧美日本视频在线观看| 亚洲欧美日韩高清综合678| 在线观看精品国产入口| 亚洲av无码牛牛影视在线二区| 国产对白刺激真实精品91| 全裸无码专区| 国产在线观看一区精品| 国产成人高清亚洲一区久久| 国产欧美日韩另类| 久久久久久国产精品mv| 亚洲最猛黑人xxxx黑人猛交| 亚洲欧美日韩另类| 九月婷婷亚洲综合在线| 国产精品19p| 制服丝袜亚洲| www.国产福利| 丰满少妇αⅴ无码区| 色婷婷啪啪| 欧美翘臀一区二区三区| 91网在线| 国产精品99一区不卡| 国产精品香蕉| 乱系列中文字幕在线视频| av在线5g无码天天| 国产在线视频二区| 中文字幕在线欧美| 美女啪啪无遮挡| 中文字幕在线欧美| 香蕉国产精品视频| 国产美女主播一级成人毛片| 国产欧美日韩18| 中国毛片网| 久久频这里精品99香蕉久网址| 国产极品美女在线| 国产欧美日韩专区发布| 欧美精品黑人粗大| 色老二精品视频在线观看| 日韩二区三区无| 欧美在线导航| 久久精品国产一区二区小说| 啊嗯不日本网站| 欧美人与动牲交a欧美精品| 精品免费在线视频| 国产JIZzJIzz视频全部免费| 亚洲国产天堂在线观看| 欧美日本激情| 国产sm重味一区二区三区| 91无码人妻精品一区| 国产呦精品一区二区三区下载 | 亚洲综合久久成人AV| 亚洲国产精品美女| 亚洲一区二区精品无码久久久| 日韩一二三区视频精品| 日本午夜精品一本在线观看| 人妻无码AⅤ中文字| 国产精品极品美女自在线看免费一区二区| 国产精品人成在线播放| 亚洲第一福利视频导航| 色AV色 综合网站| 精品国产自在在线在线观看| 精品一区二区三区自慰喷水| AV天堂资源福利在线观看| 丝袜美女被出水视频一区| 激情视频综合网| 国产午夜精品鲁丝片| 国产成人精品在线1区|