999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能法律風險的源頭治理

2025-02-22 00:00:00徐偉李文敏
行政與法 2025年2期
關鍵詞:人工智能法律

摘" " " 要:生成式人工智能法律問題日益凸顯,對人類社會帶來了嚴重的負面影響,迫切需要進行源頭治理。運用扎根理論對我國18份生成式人工智能的法律政策文本進行編碼分析,研究揭示生成式人工智能法律風險的復雜來源涵蓋數據、算法、系統和人為層面的多層次關系。在數據風險方面,包括非法獲取、泄露、留存以及數據質量的瑕疵等問題。算法風險涵蓋模型設計、黑箱風險以及歧視、霸權和操縱等潛在風險。系統風險包括失控、社會性、侵權性和責任性風險。人為風險主要表現為數據投毒、惡意使用和技術依賴等風險。對數據風險,倡導建立語料來源黑名單、獲得信息時取得個人同意,并加強訓練數據管理。對算法風險,包括技術治理和制度治理,應提高服務透明度、規則可解釋性,促進模型更新升級,并建立安全評估和內容審核等制度。對系統風險,治理側重于強化安全技術研發、完善技術標準,關注公共利益、個人利益保障和明確責任認定。對人為風險,治理涉及主管部門、研究開發者、設計制造者、部署應用者和用戶,建立法規準則、推動技術發展、提供清晰說明、保障用戶選擇權,并強調用戶的主觀善意和積極參與治理。這些措施構建了一個系統全面的生成式人工智能源頭治理體系。

關" 鍵" 詞:生成式人工智能;法律風險;源頭治理;數據治理;算法治理

中圖分類號:TP18" " " "文獻標識碼:A" " " "文章編號:1007-8207(2025)02-0092-13

一、問題的提出

生成式人工智能作為顛覆性技術,已成為我國科技創新的重要引擎,其強大潛力和廣泛應用前景為社會發展帶來了顯著紅利。然而,隨著其不斷發展,生成式人工智能引發的法律問題愈發凸顯。生成式人工智能法律風險是指在該技術研發和應用過程中產生的對法律實踐造成的負面影響和不利后果,主要包括數據安全風險、算法歧視風險、生成內容侵權風險以及其他違法犯罪風險等。為了有效緩解法律風險所引發的技術和應用問題,有必要深入分析生成式人工智能法律風險的來源并提出相應的源頭治理對策。

一方面,生成式人工智能法律風險的根源涉及技術、倫理、法律等多個層面的復雜關系,這需要采用整體性視野和系統性方法來理解和解決這些多層面的復雜性。扎根理論強調對問題的全面性和系統性理解,它不僅關注表面現象,還致力于深入挖掘問題的本質,并揭示問題各個層次之間的關系。這種全面性和系統性的研究方法有助于應對涉及多個層面的復雜性。另一方面,法律政策文本通常包含政府對生成式人工智能治理的法規引導和制度建設。通過分析這些文本,可以了解國家在生成式人工智能治理方面的立法、政策方向,為相關法規和制度的建設提供參考。基于以上緣由,筆者采用扎根理論深入剖析18份生成式人工智能法律政策文本,挖掘各法律政策文本之間的內在邏輯關系,梳理各種法律風險類型及其相應的治理對策,為構建一個全面而一致的生成式人工智能源頭治理體系提供參考。

二、數據來源與研究方法

(一)數據來源

筆者采用以下方法進行法律政策文本的檢索與篩選。首先,在北大法寶、聚法、威科先行等官方網站使用“生成式人工智能”“人工智能”“風險”“治理”等關鍵詞進行檢索。其次,在上述檢索結果的基礎上,通過“滾雪球”方式擴大關聯度較高的文件范圍。最后,通過人工審核方式對法律政策文本進行梳理,以確保沒有漏掉與這些關鍵詞密切相關的法律政策文件。法律政策文本的篩選主要遵循以下原則:一是在發布主體方面,文本收集側重于國家層面發布的相關政策,而對地方政府發布的法律規范或治理政策不予采納。二是在法律政策內容方面,文本收集既包含發展規劃、行動規劃等發展型政策文件,也包括管理規定、技術標準、倫理規范等規制型政策文件。此外,雖然部分政策文件的名稱未明確提及法律風險或風險治理,但其具體規定與生成式人工智能法律風險治理緊密關聯,因此這部分政策文本也進入研究視野。經過篩選,最終共獲得了自2017年6月至2024年1月的18份政策文本(見表1)。

(二)研究方法

采用程序性扎根理論分析方法,對篩選出的18份政策文本的全部條款內容進行深入而全面的研究。首先,對篩選出的18份政策文本的全部條款內容進行了全面細致梳理。通過這一初步的整體性觀察,確保了對法律政策文本的全面理解。其次,運用程序性扎根理論的分析方法,對具體內容進行了深層次的開放性編碼、主軸性編碼和選擇性編碼。這一編碼過程有助于透徹把握生成式人工智能法律風險的多樣性和復雜性,使得問題的關鍵方面能夠得到清晰而詳盡的呈現。最終,通過這一系統性的分析,得以明確生成式人工智能法律風險的來源、內涵以及相關的治理措施(見圖1)。

三、生成式人工智能法律風險的根源解析

學術界在生成式人工智能法律風險的解析中采用了多元的視角和標準,推動了對該領域的深入研究。有學者從ChatGPT技術的倫理特性入手,將生成式人工智能風險分為道德判定障礙風險、社會偏見刻板化風險、用戶數據去隱私化風險以及科技學術異化風險等方面。[1]也有學者提出了人工智能倫理價值標準,如自由、自主、平等、公平、和諧以及可持續等,基于這些標準,分析出人類決策自主受控風險、侵犯隱私風險、加劇社會偏見或歧視風險等六種生成式人工智能風險的表現形式。[2]此外,還有學者從技術、責任、人際和制度層面提出生成式人工智能風險包括算法偏見風險、數據隱私泄露風險、責任邊界模糊風險等。[3]這些研究為深入理解生成式人工智能法律風險提供了豐富的理論基礎和分類框架。通過扎根理論對18份法律政策文本進行生成式人工智能法律風險編碼分析。研究結果表明,生成式人工智能法律風險根源在于數據風險、算法風險、系統風險和人為風險四種類型(見表2)。

(一)數據風險

數據風險是指在生成式人工智能的技術使用過程中,由數據引發的法律風險。在收集階段,存在數據非法獲取的風險,主要表現為侵犯他人知識產權、侵犯他人知情權以及數據缺乏其他合法來源。在使用階段,可能發生數據泄露的風險,具體表現為個人信息、隱私和商業秘密被非法披露,甚至牽涉到非法提供國家秘密。在銷毀階段,存在數據非法留存的風險,即行為人未及時清理用戶的輸入信息。在整個數據運行過程中,存在數據質量瑕疵風險,即可能出現訓練數據不真實、不準確、不客觀、代表性不足的問題,也可能存在訓練數據不完整、不及時、不一致、不規范等問題。

(二)算法風險

算法風險是指生成式人工智能算法在設計和運行中產生的潛在法律風險,主要表現在兩個方面:算法內生性風險和算法衍生性風險。算法內生性風險包含兩種類型:一是模型設計風險,即在模型設計初期存在可能違反法律規范、背離倫理道德、不符合技術標準等的潛在風險;二是算法黑箱風險,主要表現為生成式人工智能運行過程的不透明性和不可解釋性,導致運行結果的不可靠性。算法衍生性風險包含三種類型:一是算法歧視風險,即算法運行結果可能出現對種族、民族、性別、年齡、職業等的歧視;二是算法霸權風險,即生成式人工智能服務提供者可能利用算法實施壟斷行為,采取不合理限制和其他不正當競爭手段;三是算法操縱風險,即服務提供者利用算法介入信息呈現,影響網絡輿論,可能實施不合理差別待遇甚至規避監督管理。

(三)系統風險

系統風險是由生成式人工智能運行系統的自身特性引發的法律風險。系統風險可以具體分為四個方面:失控性風險、社會性風險、侵權性風險和責任性風險。失控性風險體現為生成式人工智能系統在運行過程中可能存在不安全、不穩定和不持續的風險。這種風險可能源于系統的設計缺陷、技術漏洞或操作失誤,導致系統無法正常運轉或產生不可預測的行為。社會性風險表現為生成式人工智能系統的使用可能對國家制度、國家形象和國家穩定等方面帶來潛在威脅。這種風險可能來自系統的應用場景、數據來源和使用方式,導致系統與國家利益產生沖突或引發社會不穩定因素。侵權性風險體現為生成式人工智能系統在運行過程中可能侵犯經濟秩序、社會秩序以及生成的有害信息被肆意傳播。這種風險可能來自系統的信息處理、數據挖掘和使用方式,導致系統對個人隱私、商業機密和社會公共利益造成侵害。責任性風險表現為當前生成式人工智能的侵權責任主體不明確,責任界限模糊。這種風險可能源于系統開發者、使用者及相關責任方之間的責任劃分不明確,導致在問題發生時難以確定責任方并追究相應的法律責任。

(四)人為風險

人為風險是指行為人為實現其目的,利用生成式人工智能技術時引發的法律風險。人為風險主要體現為數據投毒風險、惡意使用風險和技術依賴風險。首先,數據投毒風險源自行為人對訓練數據的惡意操作,通過在數據集中引入錯誤信息或偏見,影響生成式人工智能系統的輸出結果。這可能導致系統產生不準確、不公正或具有誤導性的決策,對個人、社會甚至國家層面產生負面影響。其次,惡意使用風險包括使用者利用生成式人工智能技術傳播虛假信息,誤導公眾或操縱輿論,以及利用技術進行網絡炒作、惡意發帖、制造垃圾郵件、惡意編寫軟件等不當使用行為。[4]這些惡意行為不僅破壞網絡生態環境,還可能引發社會信任危機和法律糾紛。最后,技術依賴風險指使用者過度依賴、過度沉迷生成式人工智能技術,以至于失去對自身行為和決策的控制。過度依賴可能導致人類主體性的削弱,使人變得過于依賴技術,從而影響其獨立思考和自主決策的能力。

四、生成式人工智能法律風險的源頭治理

學術界對生成式人工智能法律風險治理提出了多元而全面的觀點。一些學者從倫理視角出發,強調在治理中凸顯人文關懷,通過重新構思倫理主體責任、強化倫理政策導向和創新倫理運行機制,以實現人工智能與倫理的良性互動。[5]另一些學者則以法治思維為基礎,主張通過法治手段明確限定人工智能技術的發展邊界,以確保其安全、可控和健康發展。[6]還有學者從技術和制度協同的視角出發,提倡在多個層面全面治理生成式人工智能法律風險,以應對其復雜而多層次的挑戰。[7]這些觀點共同為生成式人工智能法律風險治理提供了廣泛而深入的思考和方法。筆者基于生成式人工智能法律風險的來源,將治理思路與各個風險來源一一對應,提出數據風險源頭治理、算法風險源頭治理、系統風險源頭治理以及人為風險源頭治理,這一綜合性源頭治理體系框架包含了技術、倫理、法律等治理手段,以確保治理的全面性和可持續性。

(一)數據風險的源頭治理

生成式人工智能的數據風險貫穿于其運行的各個階段,因此,需要根據不同階段的特點采取相應的治理措施(見表3)。

首先,在生成式人工智能的數據獲取階段,著重關注數據的來源和處理。其一,建立知情同意原則。多部法律規范明確規定,在進行訓練數據處理活動時,服務提供者應使用具有合法來源的數據,并在涉及個人信息的情況下取得個人同意或符合法律、行政法規規定的其他情形。這一原則為確保數據處理的合法性和透明性提供了法律保障。其二,建立語料來源黑名單制度。該制度規定任何來自黑名單來源的數據都不能用于訓練生成式人工智能系統,有助于排除潛在的風險來源,防止系統在訓練過程中受到不良數據的影響。其三,建立安全評估制度。通過對各語料來源進行安全評估,特別關注是否包含超過一定比例的違法不良信息,有助于鑒別潛在的風險并及時作出處理。其四,保存信息采集記錄。這一措施旨在確保服務提供者隨時可以證明其數據采集活動是在法律和倫理框架內進行的,從而避免潛在的法律責任和隱私問題。其次,在數據使用階段,防止數據泄露或非法提供顯得至關重要。為此,個人信息處理者應主動履行個人信息保護義務,切實遵守相關法律法規,嚴禁非法披露他人的個人信息、個人隱私以及其他用戶輸入信息等。同時,相關部門在履行職責過程中,對于獲知的國家秘密和商業秘密也應當承擔保密義務,確保數據在使用過程中的安全性和機密性。這樣的措施有助于有效防范潛在的數據泄露風險,維護用戶隱私及敏感信息的安全。再次,在數據銷毀階段,切實杜絕個人信息處理者非法留存個人信息的行為。為此,需加強訓練數據管理,采取必要措施以保障訓練數據的安全性。具體而言,要對數據進行備份和加密等,以確保在銷毀過程中數據能夠得到妥善處理,有效防范潛在的非法留存風險。最后,確保數據質量是生成式人工智能關注的關鍵方面。法律規范和技術標準明確規定了數據應當滿足的質量要求,例如《生成式人工智能服務管理暫行辦法》要求采取有效措施提升訓練數據質量,強化其真實性、準確性、客觀性和多樣性。同時,應積極拓展數據資源,擴充高質量的公共訓練數據,主動進行數據標準質量評估,并及時驗證標注內容的準確性,以確保訓練數據的高質量。只有具備高質量的訓練數據,生成式人工智能技術才能保持準確性和可靠性。

(二)算法風險的源頭治理

鑒于生成式人工智能算法風險主要呈現為算法內生性風險和算法衍生性風險,為了有效應對這一問題,算法風險的治理需要從技術和制度兩個方面同時著手(見表4)。

從技術治理的角度來看,首先,規避算法黑箱風險,重點突破語法邏輯、字符概念和深度語義分析等核心技術,以促進人類與機器之間的有效溝通和自由交互。這需要生成式人工智能服務提供者增強服務透明度,公開服務機制的核心信息,并提升檢索、選擇、推送等規則的透明度,以保障規則的可解釋性。其次,對模型設計風險的治理需要通過促進模型更新升級和加強模型優化訓練來實現。模型設計者應建立多層次的倫理道德判斷結構和人機協作的倫理框架,制定模型在更新、升級時的安全管理策略,并在完成模型重要更新升級后進行安全評估和重新備案。在模型訓練過程中,將生成內容的安全性作為評價模型的主要指標之一,引導模型生成積極正向內容。對于服務過程中和定期檢測時發現的安全問題,可通過有針對性的指令微調、強化學習等方式進行模型優化。

從制度治理的角度來看,法律政策文本明確規定了生成式人工智能服務提供者應當遵守和履行的關鍵制度。首先,從程序性制度的角度看,服務提供者在向公眾提供生成式人工智能產品服務前,需要申報安全評估,并按照法律規定履行算法備案、變更和注銷備案手續。此外,服務提供者還需建立完善的辟謠機制,及時應對虛假信息傳播,并保存相關記錄。其次,從實體性制度出發,服務提供者需履行信息安全主體責任,建立算法機制審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、應急處置等管理制度。在處理生成式人工智能生成的內容時,需要對其進行標識,并采取技術或人工方式進行審核。同時,建立健全識別違法和不良信息的特征庫,完善入庫標準、規則和程序,強化用戶模型和標簽的管理。[8]在服務版面頁面生態管理方面,應當建立完善人工干預和用戶自主選擇機制。

(三)系統風險的源頭治理

系統風險主要體現為生成式人工智能系統本身的失控性,以及由系統引發的對國家、社會和個人利益的侵犯。因此,通過推動系統的可控性、保護國家和公共利益、維護個人權益以及明確責任認定,可以有效治理系統風險(見表5)。

首先,堅持安全可控原則。研發生成式人工智能應貫徹安全性、可用性、可追溯性原則。為此,應完善人工智能基礎共性、互聯互通、行業應用、網絡安全等技術標準,加強人工智能網絡安全技術研發,強化人工智能產品和系統的網絡安全防護。[9]其次,實現公共利益保護。不論是制度規范還是技術標準,都明確要求生成式人工智能相關主體遵循、傳播社會主義核心價值觀,禁止利用人工智能技術從事任何非法活動,以防損害國家利益和社會利益。再次,強化對個人權益的保障。法律明文禁止生成式人工智能服務提供者、服務使用者等侵犯他人身心健康。同時,著重保護個人的隱私權、名譽權和知情權等,維護個人的尊嚴與自由,及時處理個人關于更正、刪除、屏蔽其個人信息的相關請求。當服務提供者發現侵權行為或者出現法律規范禁止的行為時,及時采取警示、限制功能、暫停服務、關閉賬號等處置措施,完善應急處置機制,防止危害持續。最后,建立問責制度。由于當前應用實踐中,生成式人工智能權利義務主體并不明晰,因此建立問責制度成為必要。需開展與生成式人工智能應用相關的民事、行政、刑事責任確認等法律問題研究,同時建立與之配套的責任追溯制度,明確法律主體以及相關的權利義務和責任承擔。

(四)人為風險的源頭治理

人為風險是由生成式人工智能相關主體主觀惡意引發的法律風險。因此,對人為風險的治理主要涉及主管部門、研究開發者、設計制造者、部署應用者和用戶這五大主體,需要進行相應的規范和監管(見表6)。

在我國主管部門層面,針對生成式人工智能法律風險治理,采取了多層次的戰略和措施。首先,通過《中國關于加強人工智能倫理治理的立場文件》,明確了堅持倫理先行的原則,及時回應國內和國際的倫理關切。其次,在監管路徑上保持包容審慎的態度,實施分類分級監管,制定相應規則和指引,確保不同級別的服務得到適當的監管與指導。再次,面對倫理法規的“硬法缺失”,呼吁立法機構建立并完善倫理準則、規則和問責機制,以明確人工智能相關主體的權責邊界,全面保障各方的法定權益。[10]此外,倡導各主體之間的協同與聯動,建立健全政府、企業、行業組織等的合作機制,以加強法律風險治理的整體協調。[11]最后,提倡優化發展環境,深化國際合作,充分利用雙邊和多邊國際合作機制,推動在關鍵領域的創新應用,拓寬交流渠道,實現優勢互補與共贏。[12]

在研究開發者層面,首先,應明令禁止研究開發追求損害人的基本權利的人工智能技術。避免研發可能被惡意濫用、對人權產生負面影響的技術。其次,在自主性人工智能的研究中,需謹慎進行具有自我復制或自我改進能力的研究,并持續評估潛在的失控性風險。此外,應持續提升生成式人工智能的可解釋性和可控性。再次,在關鍵決策方面,如研究開發數據集的選擇和算法的選取,必須記錄并建立回溯機制,以及對人工智能法律風險的事項進行必要的預警、溝通和回應。最后,為促進合作、互信和技術多元化的良性發展,鼓勵研究開發者積極推動合作、競爭與技術發展。

在設計制造者層面,首先,亟需規定嚴禁設計和制造可能對公共利益或個人權利造成損害的人工智能系統、產品或服務。與此同時,需要不斷提升人工智能系統、產品和服務的可解釋性和可控性。為實現這一目標,設計制造者應承擔向部署應用者及時、準確、完整、清晰、無歧義地闡明生成式人工智能系統、產品或服務的功能、局限、安全風險和潛在影響的義務。其次,在設計中,必須設立系統、產品或服務的事故應急處置機制,包括但不限于人工緊急干預機制。此外,應明確事故處理流程,確保在發生人工智能倫理安全風險時能夠迅速做出響應,例如停止問題產品的生產、召回問題產品等。同時,為提高透明度,設計制造者還應設定事故信息回溯機制,例如通過黑匣子技術實現無人駕駛事故信息的回溯。最后,為有效應對可能產生的損失,設計制造者還需建立人工智能安全風險的必要保障機制,例如購買保險等方式,為受損方提供救濟。

在部署應用者層面,首先,當使用生成式人工智能作為直接決策依據并影響個人權利時,應確保存在清晰、明確、可查的法律法規等依據。其次,在公共服務、金融服務、健康衛生、福利教育等領域作出重要決策時,若采用不可解釋的人工智能,應僅將其作為輔助決策手段,而非直接依據,并需主動發現人工智能安全風險,持續改進部署應用過程。此外,必須向用戶及時、準確、完整、清晰、無歧義地說明人工智能相關系統、產品或服務的功能、局限、風險以及可能的影響,并解釋相關應用過程及應用結果。[13]同時,應以清晰明確、易于操作的方式向用戶提供拒絕、干預及停止使用人工智能相關系統、產品或服務的機制。在用戶拒絕或停止使用后,應盡可能提供非人工智能的替代選擇方案。最后,為防范潛在事故,應設置事故應急處置機制,包括人工緊急干預機制、中止應用機制等,明確事故處理流程。這樣可以確保在人工智能安全風險發生時及時響應,提供清晰明確、易于操作的投訴、質疑與反饋機制,并提供包含人工服務在內的響應機制,進行必要的處理和補償。

在用戶層面,首先,使用人工智能應當秉持主觀善意的原則,充分發揮人工智能的積極作用,而不應將生成式人工智能用于惡意目的,損害社會價值和個人權利等。其次,用戶應主動了解所面臨的生成式人工智能安全風險,并向其他主體積極反饋相關信息。此外,用戶應積極參與生成式人工智能倫理治理實踐,及時向主管部門或服務提供者反饋,并協助解決在使用生成式人工智能產品與服務過程中發現的技術安全漏洞、政策法規缺失、監管力度不足等問題。[14]最后,為更好地應對生成式人工智能的風險挑戰,用戶應主動了解生成式人工智能產品與服務的運營、維護、應急處置等各使用環節所需的技能,以確保生成式人工智能產品與服務的安全使用和高效利用。通過這些積極的措施,用戶不僅能更好地保障自身權益,也有助于共同維護人工智能領域的安全。

結" 語

“人的每種實踐與選擇,都以某種善為目的。”[15]任何技術的應用和創新應當以服務人類社會的整體福祉和道德原則為導向。然而,在生成式人工智能迅猛發展的同時,也面臨著由生成式人工智能引發的一系列風險挑戰。只有明確并正視這些挑戰,才能更有效地預防和應對風險。本文通過運用扎根理論,深入梳理了18份重要的政策文本,提煉出生成式人工智能法律風險的四大來源,即數據風險、算法風險、系統風險和人為風險。在充分認識這些法律風險的基礎上,提出了相應的針對性“技術-倫理-法律”治理策略,旨在引導生成式人工智能走向善的軌跡,促進人與人工智能之間的可持續和諧發展。

【參考文獻】

[1]陳元,黃秋生.ChatGPT技術中的人工智能倫理風險及其科學祛魅[J].湖南科技大學學報(社會科學版),2023(3):135-142.

[2]趙志耘,徐峰,高芳,等.關于人工智能倫理風險的若干認識[J].中國軟科學,2021(6):1-12.

[3]馮永剛,席宇晴.人工智能的倫理風險及其規制[J].河北學刊,2023(3):60-68.

[4]龍柯宇.生成式人工智能應用失范的法律規制研究——以ChatGPT和社交機器人為視角[J].東方法學,2023(4):44-55.

[5]王東,張振.人工智能倫理風險的鏡像、透視及其規避[J].倫理學研究,2021(1):109-115.

[6]潘志玉.人工智能應用的倫理風險及法治應對[J].學習與探索,2022(7):61-67.

[7]肖藝能.數字經濟時代人工智能的倫理風險及治理[J].山西財經大學學報,2023(S2):77-79.

[8]劉輝,雷崎山.生成式人工智能的數據風險及其法律規制[J].重慶郵電大學學報(社會科學版),2024(4):40-51.

[9]陳濤,冉龍亞,明承瀚.政務服務的人工智能應用研究[J].電子政務,2018(3):22-30.

[10]張鋌.人工智能的倫理風險治理探析[J].中州學刊,2022(1):114-118.

[11]譚九生,楊建武.人工智能技術的倫理風險及其協同治理[J].中國行政管理,2019(10):44-50.

[12]杜嚴勇.人工智能倫理風險防范研究中的若干基礎性問題探析[J].云南社會科學,2022(3):12-19.

[13]文婷.類ChatGPT應用的法律風險與合規建議[J].特區實踐與理論,2023(2):40-45.

[14]宋艷,陳琳,李琴,等.人工智能倫理風險感知、信任與公眾參與[J].科學學研究,2022(7):1153-1162+1171.

[15](古希臘)亞里士多德.尼各馬可倫理學[M].席申白,譯.北京:商務印書館,2003:11.

The Source Governance of the Legal Risk of

Generative Artificial Intelligence

Xu Wei, Li Wenmin

Abstract: The legal issues of generative artificial intelligence have become increasingly prominent, which has brought serious negative impacts on human society and urgently needs source governance. Based on the grounded theory, 18 legal policy texts of generative artificial intelligence in China are coded and analyzed. The research reveals the complex sources of legal risks of generative artificial intelligence, covering multi-level relationships at the data, algorithm, system and human levels. In terms of data risks, including illegal acquisition, disclosure, retention, and data quality defects. The algorithmic risks cover model design, black-box risks, and potential risks such as discrimination, hegemony, and manipulation. System risk includes runaway, social, tort and liability risk. Human risks are mainly manifested as data poisoning, malicious use and technical dependence. Trace the source and carry out source governance: for data risks, advocate the establishment of a blacklist of corpus sources, obtain personal consent when obtaining information, and strengthen training data management. For algorithmic risks, including technical governance and institutional governance, service transparency and rule interpretability should be improved, model updating and upgrading should be promoted, and systems such as security assessment and content review should be established. For system risks, governance focuses on strengthening security technology research and development, improving technical standards, paying attention to public interests, personal interests protection and clear responsibility identification. For man-made risks, governance involves competent authorities, research developers, design manufacturers, deployers and users, establish laws and regulations, promote technological development, provide clear instructions, protect users’ right to choose, and emphasize users’ subjective goodwill and active participation in governance. These measures have constructed a systematic and comprehensive generative artificial intelligence governance system.

Key words: generative artificial intelligence; legal risks; source governance; data governance; algorithmic governance

(責任編輯:王正橋)

猜你喜歡
人工智能法律
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
我校新增“人工智能”本科專業
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
主站蜘蛛池模板: 五月婷婷导航| 91久久国产热精品免费| 在线欧美a| 91久久青青草原精品国产| 在线国产三级| 亚洲综合九九| 国产美女精品在线| 毛片网站在线看| 国产97公开成人免费视频| 亚洲最大综合网| 欧美日韩在线亚洲国产人| 国产福利免费在线观看| 亚洲综合激情另类专区| 亚洲天堂网在线视频| 亚洲国产天堂久久综合226114| 亚洲成aⅴ人在线观看| 国产亚洲视频免费播放| 国产一区二区丝袜高跟鞋| 操操操综合网| 久久情精品国产品免费| 青青青草国产| 啪啪啪亚洲无码| 国产精女同一区二区三区久| 国产麻豆精品手机在线观看| 色综合五月婷婷| 国产成人三级| 国产网友愉拍精品| AV无码一区二区三区四区| 亚洲第一视频网| 高清无码手机在线观看| 91高清在线视频| 国产熟女一级毛片| 日韩欧美中文字幕一本| 久久国产精品电影| 精品精品国产高清A毛片| 制服丝袜一区| 欧美精品亚洲精品日韩专区va| 国产精品亚洲αv天堂无码| 久久国产精品麻豆系列| 中文字幕亚洲乱码熟女1区2区| 97超爽成人免费视频在线播放| 久久亚洲AⅤ无码精品午夜麻豆| 国产精品久久久精品三级| 毛片免费观看视频| 中文字幕av无码不卡免费| 国产精品亚欧美一区二区| 99精品视频在线观看免费播放| 亚洲嫩模喷白浆| 欧美一区福利| 欧美成人国产| 久一在线视频| 亚洲美女一级毛片| 狠狠色婷婷丁香综合久久韩国| 91精品视频在线播放| 热久久综合这里只有精品电影| 免费 国产 无码久久久| 国产爽妇精品| 乱系列中文字幕在线视频| 麻豆精品视频在线原创| 国产三级视频网站| 亚洲αv毛片| 大香网伊人久久综合网2020| 亚洲日本一本dvd高清| 72种姿势欧美久久久久大黄蕉| 91精品国产91欠久久久久| 无码福利日韩神码福利片| 呦视频在线一区二区三区| 欧美激情成人网| 一本大道香蕉中文日本不卡高清二区| 亚洲精品无码av中文字幕| 欧美日韩一区二区在线免费观看 | 亚洲欧美在线精品一区二区| 国产精品人人做人人爽人人添| 国产精品漂亮美女在线观看| 91精品国产麻豆国产自产在线| 国产视频你懂得| 国产精品免费p区| 亚洲欧美国产五月天综合| 自拍偷拍欧美| 亚洲第一精品福利| 久久综合九九亚洲一区| av在线无码浏览|