999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論生成式人工智能的法律風險及其規制

2025-07-13 00:00:00孫亞賢李思怡胡譯夫何甜甜王海川李慕欣
新聞潮 2025年3期
關鍵詞:人工智能法律模型

2022年11月,美國人工智能研究實驗室OpenAI宣傳推出人工智能聊天機器人ChatGPT,掀起了新一輪生成式人工智能發展的熱潮,改變了人們對傳統人工智能技術的認知,被認為是人工智能技術范式邁入嶄新紀元的開端。生成式人工智能技術通過文本、圖像、音視頻等多元內容生成能力,實現了創作范式、交互模式及信息傳播的巨大變革。我國于2023年7月10日發布《生成式人工智能服務管理暫行辦法》,初步構建了該技術使用的法律框架。然而,作為高度依賴大數據模型的技術手段,其在數據收集、使用、訓練、產出的過程中仍面臨諸多不可控的法律風險,現有法律規制體系呈現碎片化特征,仍需不斷探索對其合理完善的規制措施。

一、生成式人工智能存在的法律風險

(一)數據安全風險

1.數據來源合規風險

生成式人工智能訓練依賴多源數據,存在多重合規隱患。一是知情同意難題,處理含敏感信息(如人臉、指紋)的數據時需遵循《中華人民共和國個人信息保護法》以下簡稱《個人信息保護法》第十三條規定,但大規模數據獲取難以逐一落實,技術發展與隱私保護矛盾凸顯。二是公開數據邊界模糊,雖可依據《個人信息保護法》第二十七條規定使用已公開信息,但因“合理范圍”及“重大影響\"標準不明,導致數據使用合規風險陡增。三是數據獲取合法性爭議,若通過爬蟲技術未經授權抓取網絡數據,可能違反《中華人民共和國網絡安全法》《中華人民共和國反不正當競爭法》,侵害企業財產權益。

2.數據使用合規風險

生成式人工智能在數據使用環節面臨多重合規風險。首先,用戶輸入的個人信息與商業機密可能因模型持續訓練機制被納入優化過程,盡管運營方宣稱采用加密和匿名化技術,但其數據存儲規則不透明、保護措施缺乏具體說明,且未向用戶開放數據訪問權限,安全屏障存在顯著漏洞,可能存在數據泄露的風險2。其次,個人信息刪除權的實際效力存疑,隱私政策雖賦予用戶刪除權,但受技術復雜性制約,權利執行面臨操作壁壘。此外,跨境數據流動的合法性亦受質疑,尤其是敏感信息傳輸若未滿足國際標準,可能觸發跨國法律沖突與追責風險。

(二)知識產權風險

1.生成作品的版權歸屬問題

目前,生成式人工智能的版權歸屬問題尚無明確定論。一方面,根據著作權法的規定,版權應歸屬于創作作品的自然人或法人,而人工智能作為工具,其創作過程并不涉及獨立的智力勞動,因此其作品在法律上難以直接享有版權;另一方面,人工智能的創作能力來源于程序開發者的技術支持,程序開發者在創作過程中起到了關鍵作用,因此其作品歸開發者所有在一定程度上具有合理性。然而,如何合理界定人工智能與人類創作者在創作過程中的貢獻,如何平衡技術創新與創作者權益保護之間的關系,以及如何制定具體的法律規則來明確版權歸屬,都是亟待解決的問題。

2.未經授權使用作品的侵權問題

生成式人工智能的知識產權風險集中于衍生性創作成果的權利邊界模糊。以ChatGPT為代表的人工智能系統依托海量文本數據集,通過提取并重組現有作品元素形成具有模仿特征的次生作品4。此類創作模式引發核心爭議在于OpenAI使用協議允許用戶在特定條件下主張生成內容的所有權及收益權,實質上為利用人工智能模仿、改編既有作品提供了商業化路徑。該機制可能誘發逐利主體系統性濫用技術工具進行知識產權侵權,導致現有法律框架在原創性認定、合理使用范圍及侵權責任追溯等環節面臨制度性挑戰,增加了知識產權保護的復雜性和挑戰性。

(三)算法歧視風險

1.數據處理全鏈條中的算法歧視生成式人工智能的算法歧視風險根植于數據偏見內嵌性與技術干預的雙重困境。其核心問題在于訓練數據中隱含的社會結構性偏見(如針對特定群體的歧視性內容)與算法設計者的價值判斷(通過人工標注介入數據標注與模型調優)形成疊加效應,導致輸出內容系統性復現歧視邏輯。以ChatGPT為例,“機器學習 + 人工標注\"的技術架構雖能提升模型智能水平,卻將人類主觀偏好嵌入數據處理全流程一一人工標注通過反饋機制引導機器學習形成決策經驗,該過程不僅固化既有數據偏見,更因標注者的認知局限加劇偏差傳導。這種多源性、隱蔽性的偏見生成機制,使得法律歸責面臨源困難與因果關系斷裂的雙重挑戰。

2.數據不平等與弱勢群體歧視問題

數據不平等是生成式人工智能面臨的一個關鍵挑戰。尤其是弱勢群體在數據收集和處理過程中可能被排除在外,這加劇了社會的不平等。這種數據鴻溝不僅影響算法模型的多樣性和準確性,也可能加劇社會不平等現象1。此外,歷史數據和統計規律中的偏見可能被算法模型延續,導致在招聘、信貸和保險等領域的歧視性決策,進一步加劇弱勢群體的處境。隨著生成式人工智能大模型的持續演進,以算法鴻溝和技術鴻溝為代表的新型數字鴻溝將掀起新一輪的數字不平等浪潮。

二、生成式人工智能法律風險成因分析

(一)數據安全風險成因分析

1.個人信息保護力度欠缺

《個人信息保護法》第十三條規定,處理個人信息需取得同意或符合六種合法性基礎,但生成式人工智能訓練依賴海量數據,嚴格遵循知情同意機制幾乎無法實現。該法第二十七條在已公開的個人信息范圍內,放松了對處理者的合規義務要求,但其限制條件“合理范圍\"界定模糊,存在個人信息非法收集和被利用的風險

2.隱私保護與訓練需求存在矛盾

生成式人工智能所需訓練數據量級巨大,數據來源的合規性難以完全保障。《個人信息保護法》第十三條規定,處理個人信息之前需要取得信息主體的同意。然而,合規取得用戶同意面臨數據量級龐大、處理環節復雜、用戶難以全程知情的實踐難題。用戶有時會向生成式人工智能輸入敏感信息,這些信息被人工智能捕捉、用于生成式人工智能的持續迭代訓練,成為數據安全不可忽視的風險點。也有OpenAl運營者表明他們設置了一種選擇退出機制一一通過郵件拒絕授權,但拒絕授權是否能真正排除隱私信息的存在和使用,仍具有很大不確定性。

3.人工智能訓練數據來源繁雜

生成式人工智能需多渠道獲取數據,但不同來源的數據的隱私標準和合規要求差異顯著。且繁雜的數據來源增加了數據清洗和預處理的難度,可能導致帶有偏見和誤差的數據或惡意內容被引入訓練過程,如果人工智能模型未能有效糾正、剔除這些信息,將威脅模型的安全穩定性。以互聯網為主的信息源中往往包含大量的噪聲數據,干擾模型的正常學習,使模型無法準確捕捉到數據的真實特征與規律,直接影響模型的判斷能力和準確性。

(二)知識產權風險成因分析

1.生成內容的可版權性認定復雜

生成式人工智能創作過程是由算法和數據驅動的,非傳統意義上的人類智力成果。人工智能生成內容是否具有可版權性,成為亟待解決的問題。以北京互聯網法院\"文生圖侵權案\"為例,法院認為原告通過反復調整參數體現其個人的審美選擇,認定其享有著作權。當前學界與我國司法界實踐支持的主流觀點認為,應通過辨識人工智能創作流程中人類所投入的獨創性智力貢獻,來判定相關成果的可版權性。但是,并未明確認定“獨創性時人類投入的智力貢獻占比,認定界限尚不明確,使人工智能生成內容版權歸屬確認有一定的難度,也存在“類案異判\"的風險。

2.運行方式無法排除侵權可能性

生成式人工智能的運行機制,本質上是對巨量作品中的既有表達進行深度拆解、抽象提煉與重新組合。在這個過程中,大量受到知識產權法保護的作品被用作訓練數據,被人工智能提煉出\"模型\"。基于這樣的大模型,即使開發者、使用者無意侵權,人工智能依然可能輸出與訓練素材實質性相似的內容

3.侵權救濟的相關立法尚不完善

關于生成式人工智能的侵權與救濟,當前相關立法尚存不完善之處。具體而言,現行立法難以界定多元主體責任。例如,在輸出內容構成侵權的情況下,難以判斷是使用者故意為之,還是源于生成式人工智能的固有缺陷1]。同樣地,當輸入內容中的個人隱私與商業秘密泄露,無法確認使用者主觀過錯時,歸責原則的適用是模糊的,相關的侵權責任立法亟待完善。由于技術的迅速發展及法律監管的滯后性,我國現行立法尚缺乏針對此類侵權的專門救濟途徑。此外,數據具有來源廣泛性、流動便捷性等特征,跨境的數據流動更使得涉外的糾紛救濟難度增加。

(三)算法歧視風險成因分析

1.訓練數據偏見導致歧視反饋

生成式人工智能模型的工作機制依賴于對既有文本和數據的預先學習訓練,該模式無須人工介入進行標注、監督或干預,這說明生成式人工智能在獲取數據方面具有相對獨立性。因其不受人類干預和控制而缺乏對數據庫信息的有效過濾機制,獲取的信息難以經過實質性篩選和過濾。這導致源頭數據內容存在歧視、偏見的風險。同時,大語言模型訓練包括數據收集、數據預處理以及構建數據集等環節,其訓練數據庫的獲取方式多樣且質量參差不齊。生成式人工智能在從互聯網爬取數據的過程中,不可避免地會接觸到含有偏見的數據類型。因此,算法偏見通常源自訓練數據所存在的偏差。若前期訓練階段所用的訓練數據本身存在某種程度的偏見或歧視,這些偏見或歧視在算法的運算機制中將被不斷放大與固化,導致所生成的回饋結果不可避免地帶有偏見或歧視色彩。

2.算法設計主觀性引發歧視風險

有研究者表示:“算法本身是客觀的,但算法的編寫過程中難免會嵌入設計者的主觀臆斷,從而產生歧視。\"[5]生成式人工智能在運行過程中以“機器學習 + 人工標注\"為算法技術內核,通過大量的人工標注來修正和校對機器學習所得出的結論,以提升智能化程度和準確性水平。但是,人工標注的過程將受到設計者個人意志、偏好以及認知等主觀因素影響,導致算法歧視或者算法偏見風險,加之數據源頭自身可能存在的偏見在生成式人工智能的算法模型中不斷累積,使得算法歧視風險難以規避。

3.跨模態生成技術加劇隱秘歧視

生成式人工智能多模態數據分析能力的突破,實現了大型語言模型的多模態輸入與輸出功能。該跨模態生成技術的革新,使得生成式人工智能工具新增了深度理解圖像、音頻等多種形式的能力,體現了生成式人工智能未來發展的廣闊潛質與無限可能。然而,在其通過多模態學習方法處理信息的過程中,可能潛藏著對某些特定群體、特定事項產生歧視的風險,這種歧視可能源于數據的不均衡、算法的偏見或模型訓練過程中的某種固有局限性,其更具隱蔽性,相關群體可能難以察覺。因此,如何確保多模態數據處理的公正性、透明度避免加劇隱秘的偏見和歧視,將成為未來算法公平性治理中亟待解決的關鍵問題。

三、我國生成式人工智能法律風險的規制建議

(一)防范數據安全風險的建議

1.建立健全事先預防、事后救濟的主體自治制度

生成式人工智能在利用爬蟲技術獲取個人信息、商業信息甚至政務信息等信息的同時,應建立合理完善的制度,在保證數據信息來源和基礎模型的合法性及合規性的前提下,保證數據信息的準確真實。針對數據安全風險,需建立事前預防與事后救濟并重的機制:一方面,要通過合法性審查和合理性控制從源頭防范風險。生成式人工智能服務提供者需構建合法合規的數據治理體系,確保數據來源、基礎模型及內容的合法性,并通過分級分類監管機制完善數據授權、保密協議等規則。同時,服務提供者應遵循數據收集的合理性原則,以技術和服務需求為底線,保障數據的真實性、準確性及多樣性,避免過度采集和濫用2。另一方面,生成式人工智能服務提供者應制定數據泄露、濫用等安全事件的應急預案,并健全責任追溯制度,確保風險發生后能快速響應并最大限度減少損失。

2.明確數據信息審查主體

目前,生成式人工智能在社會各領域廣泛應用,對于其所提供的數據信息的審查,不僅需要服務提供者進行內部審查,更需要國家有關部門、外部社會組織采取聯合行動,建立完善的審核機制。服務提供者內部應分層次、分級別嚴格審查數據信息,保障數據信息:相關的政府管理部門、社會組織應明確數據信息審查主體,建立分級分類的外部審查機制,確保數據信息外部審查的嚴格化、規范化。例如,德國建立了生成式人工智能數據信息審查的專門機構,以構建完善的生成式人工智能數據信息審查體系,防范數據信息安全風險,保護生成式人工智能背景下的數據信息安全13]。

(二)應對知識產權侵權風險的建議

1.界定侵權責任主體與歸責方式

目前,生成式人工智能知識產權侵權責任主體和責任規則難以確定。首先,其生成過程涉及模型制作、算法設計、數據處理等多個環節,參與者包括算法設計者、數據處理者、平臺提供者及使用者,需通過法律將主體劃分為服務提供者、銷售者、使用者等類型,明確各自的責任構成要件,依法追究其相關責任,保護被侵權人的合法權益。其次,需明確規定生成式人工智能侵權行為的歸責方式。目前,我國學界學者對此尚無統一的定論,部分學者主張在知識產權領域構建多元歸責機制。我國應結合技術特性,根據立法原則制定明確規則,在保障被侵權者權益的同時,也需維護服務提供者的合法權益,促進技術健康發展。總之,需平衡各方利益,既要有效救濟侵權損害,又要避免過度抑制技術創新。

2.制定實施新型避風港規則

對于人工智能的知識產權侵權問題,我國應制定實施新型避風港規則,在保護生成式人工智能服務提供者和被侵權者合法權益的前提下,設置一定的豁免規則,迎合時代需求,促進生成式人工智能的進步。目前,我國法律雖然規定人工智能提供者應該承擔相應的侵權責任,但卻沒有明確規定提供者責任承擔的范圍、內容及豁免條款等方面的內容。生成式人工智能造成的知識產權侵權損害的結果關系到服務提供者和使用者等多種相關主體,若一味地加重服務提供者的責任,會在很大程度上抑制生成式人工智能的發展和進步。生成式人工智能的新型避風港規則可參照網絡服務提供者避風港規則,要求服務提供者在事先履行通知和告知的義務,在事后及時采取減小損失、避免危險等補救措施的方式來免除服務提供者的侵權責任。同時,避風港規則應兼顧用戶濫用數據信息、故意引導生成式人工智能侵權等特殊情況下服務提供者的免責情形。

3.構建完善治理的協調聯動體系

隨著生成式人工智能技術的不斷發展,其應用的范圍逐漸擴大,越來越多的行業引入生成式人工智能技術。因此,對于生成式人工智能知識產權侵權的治理,需要構建完善多主體、多層次的協調聯動體系[14。一方面,構建完善權利救濟機制,當權利人的合法權益被侵害時,應可以通過仲裁、訴訟等方式維護其合法權益;另一方面,社會組織、國家機關應發揮治理協調聯動作用,打破傳統的政府單向監管的方式,推動形成行業自律、社會監督、政府監管的多層次聯動的監管方式。

(三)規制算法歧視風險的建議

1.搭建算法歧視治理性法律規則

要實現對生成式人工智能領域的治理,離不開法律手段15。相關法律制定機關和監管部門需要將傳統的反歧視法律原則與算法歧視相關的法律原則進行比對與革新,以便于能及時調整算法技術發展背景下出現的新的社會不公等現象。此外,在法律責任方面,要明確算法編程人員的法律責任和免責事由以及算法結果的可追溯性。通過立法和技術雙管齊下,確保算法自動生成的結果有據可查,并通過法律程序對生成式人工智能算法開發過程進行公開透明的監督,以避免生成無法追究責任的結果1。

2.引入建構性技術評估制度

建構性技術評估制度更強調“以人為本”,將公平公正等價值理念嵌入算法的設計方案中,通過各方主體的溝通全面考慮與協調利益相關者的訴求。在算法編程人員與用戶溝通過程中,算法編程人員應向用戶解釋算法,確認算法的可靠性和可驗證性。用戶可向設計者表達利益訴求,就服務中的不足之處提供反饋意見,并在今后的設計方案中得到進一步完善。

3.完善算法歧視動態監管制度

生成式人工智能在實際應用過程中通過自我學習會產生“后天性的算法偏差”,面對此種風險應當建立自動化、全過程的動態監管系統,通過不斷地動態校正進行消除。一方面,對生成式人工智能運算落實全流程覆蓋的動態化監管機制。不僅要對機器的自我學習進行實時監管,若發現產生了算法歧視,應當立即暫停結論輸出,進行修正后再繼續運行,還要對人工標注進行自動化監管,特別是二者的銜接階段,避免因人工標注使原來存在的算法歧視經過自我學習后進一步擴大。另一方面,要搭建多主體共同參與的監管網絡,對生成式人工智能進行監管,形成一個復雜的合規性評估治理結構。

四、結語

以ChatGPT、Deepseek為代表的生成式人工智能及大語言模型正以空前速度推動技術普及、創新與突破,但同時也伴隨一系列風險挑戰與迭代問題,給人工智能的治理帶來更為復雜且嚴峻的考驗。在全球化浪潮中,人工智能領域的治理規則日益成為國際制度競爭的關鍵一環。為此,應積極適應變革、規避負面影響,審慎設計治理機制,并轉變規制理念,強調防范措施的預防功能,將風險防范置于重要位置。同時,通過完善相關法律制度,明確生成式人工智能法律風險的防范措施,界定其技術應用的法律邊界,厘清責任歸屬,積極引導服務提供者和用戶正確應用,進一步探索制度實踐,逐步完善生成式人工智能的風險治理體系。

參考文獻

[1]畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角J].比較法研究.2023(3):155-172.

[2]王大志,張挺.風險、困境與對策:生成式人工智能帶來的個人信息安全挑戰與法律規制[].昆明理工大學學報(社會科學版),2023,23(5):8-17.

[3]鄭曦,朱溯蓉.生成式人工智能的 法律風險與規制D].長白學刊,2023(6): 80-88.

[4]蒲清平,向往.生成式人工智能:ChatGPT的變革影響、風險挑戰及應對策略[J].重慶大學學報(社會科學版),2023,29(3):102-114.

[5]劉艷紅.生成式人工智能的三大安全風險及法律規制:以ChatGPT為例[].東方法學,2023(4):29-43.

[6]宋華健.論生成式人工智能的法律風險與治理路徑[.北京理工大學學報(社會科學版),2024,26(3):134-143.

[7]北京互聯網法院民事判決書: (2023)京0491民初11279號[EB/OL]. (2024-07-09).https://wenshu.court.gov. cn/website/wenshu/181107ANFZ0BXS K4/index.html?docId ∣= Rjlsv3zRAPCOt0 2v8oX5ZVOJHx6x/RFFww1RD9Oppytwvmu + aCtT//UKq3u + IEo4MAz/TlEoLvbGnxpWgRdZYobxEykU62zFP 7O5lV6ctiSZSr/ZZcTBwvG01qkNd2sr.

[8]羅祥.版權法保護的“貢獻”來自提問還是答案?:對人工智能生成內容可版權性的思考[J].南大法學,2024(5):143-160.

[9]王利明.生成式人工智能侵權的法律應對[].中國應用法學,2023(5):27-38.

[10]鄧建鵬,朱怪成.ChatGPT模型的法律風險及應對之策[].新疆師范大學學報(哲學社會科學版),2023,44(5):91-101,2.

[11]沈芳君.生成式人工智能的風險與治理:兼論如何打破“科林格里奇困境”].浙江大學學報(人文社會科學版),2024,54(6):73-91.

[12黃偉文,李昕宇.從規制到治理:論生成式人工智能法律管理的新范式].樂山師范學院學報,2024,39(6):94-102.

[13]陳璐腸.生成式人工智能機器人侵權認定思路探析:以知識產權侵權認定為視角[C]//上海市法學會《智慧法治》集刊2024年第1卷:2024年世界人工智能大會法治論壇文集.2024:205-212.

[14]張欣.生成式人工智能的算法治理挑戰與治理型監管[].現代法學,2023,45(3):108-123.

[15]劉潤賢.大數據時代算法偏見法律治理研究[].中國價格監管與反壟斷,2024,(3):43-45.

[16]呂斯軒,胡創.算法歧視的法律規制探析D].青島科技大學學報(社會科學版),2024,40(2):80-90.

猜你喜歡
人工智能法律模型
一半模型
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
3D打印中的模型分割與打包
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
主站蜘蛛池模板: 黄片一区二区三区| 欧美国产日韩在线播放| 欧美午夜在线视频| 国产亚洲精品91| 亚洲毛片在线看| 一级爆乳无码av| 成人国产精品一级毛片天堂| 色综合国产| 在线网站18禁| 无码内射中文字幕岛国片| 日韩欧美在线观看| 制服丝袜亚洲| 国产在线视频欧美亚综合| 国产精品久久久久久久伊一| 97se亚洲综合不卡 | 亚洲欧洲AV一区二区三区| 色婷婷狠狠干| 国产精品人成在线播放| 国产精品密蕾丝视频| 国产精品刺激对白在线| 久久免费视频播放| 精品久久综合1区2区3区激情| 亚洲欧美在线综合图区| 91免费国产高清观看| 高清欧美性猛交XXXX黑人猛交| 高清色本在线www| 9966国产精品视频| 欧美一级夜夜爽www| 国产第一福利影院| 无码国产伊人| 日韩高清欧美| 无码国产伊人| 亚洲国产欧美中日韩成人综合视频| 精品综合久久久久久97超人| 91精品国产综合久久不国产大片| 成人亚洲视频| 久草视频精品| 国产欧美视频综合二区| 热99精品视频| 日韩专区第一页| 国产69精品久久久久妇女| 色丁丁毛片在线观看| 亚洲第一成年网| 国产精品亚洲欧美日韩久久| 亚洲第一成年网| 久久这里只有精品2| 一级福利视频| 潮喷在线无码白浆| 3D动漫精品啪啪一区二区下载| 亚洲精品无码AⅤ片青青在线观看| 亚洲人成色在线观看| 广东一级毛片| 成人av手机在线观看| 久操线在视频在线观看| 夜夜拍夜夜爽| 国产不卡在线看| 91丝袜美腿高跟国产极品老师| 亚洲国产日韩欧美在线| а∨天堂一区中文字幕| 67194亚洲无码| 夜夜拍夜夜爽| 午夜一级做a爰片久久毛片| 在线无码九区| 蝴蝶伊人久久中文娱乐网| 在线网站18禁| 成人夜夜嗨| 97国产成人无码精品久久久| 欧美视频二区| 欧美在线视频不卡| 99在线国产| 中文字幕在线视频免费| 国产亚洲美日韩AV中文字幕无码成人 | 亚洲视频三级| 欧美精品亚洲精品日韩专区va| 高清久久精品亚洲日韩Av| 欧美另类一区| 精品一區二區久久久久久久網站 | 中文字幕在线日本| 日本黄色a视频| 2020国产精品视频| 欧美精品1区| 97av视频在线观看|