摘 要:生成式AI正通過不斷優化內部對抗學習機制生成具有逼真性、多樣性、時效性、規模性等邏輯特性的虛假身份信息。其典型樣態包括照片和視頻圖像、文本合成、語音克隆,由此引發的虛假身份信息風險具有多樣性,包括“積極生成型”和“人為操縱型”兩種情形。基于其復雜的技術因素,生成式AI虛假身份信息的生成與傳播會侵害社會和個體的基本權益,從而在法律定位、責任標準上對相關法律規制發起挑戰。鑒于此,一方面通過強化技術賦能過程中風險防控的手段,建立多元主體協作共治機制以應對法律和技術的深度融合;另一方面,創設以生成式AI為責任主體的新型誹謗救濟模式,在集體主義視角下構建以“人機交互聯合體”為導向的歸責方法,構建適用于過渡時期的暫代型誹謗救濟模式。
關鍵詞:生成式AI;虛假身份信息;誹謗
中圖分類號:D922.16
DOI: 10.19504/j.cnki.issn1671[-]5365.2025.03.01
在數智化時代,生成式AI憑借其快速生成與高度仿真的能力,迅速崛起并廣泛滲透至市場應用,為人們提供便捷信息服務的同時引發了虛假信息泛濫、網絡安全及個人隱私泄露等問題。[1]《生成式人工智能服務管理暫行辦法》作為我國首個AIGC監管文件,其第4條之規定凸顯了生成式AI在網絡虛假信息監管方面所面臨的內在威脅。該條款明確指出,生成式AI不得生成虛假有害信息,不得侵害他人名譽權、榮譽權等合法權益。作為網絡虛假信息監管的一個重要維度,生成式AI虛假身份信息的風險識別與生成式AI的技術原理密切相關。一方面,生成式AI作為一種深度學習技術,其通過生成器和判別器兩個網絡之間的博弈,能夠生成包括文字、圖像、音頻等在內的逼真虛假身份信息。生成式AI依賴的深度學習模型由多個神經網絡層組成,具有復雜的結構和參數配置,導致研究人員很難完全理解和解釋模型的內部運行機制,從而產生偏差。另一方面,訓練數據的質量和多樣性直接影響模型的生成能力。生成式AI模型依賴大量真實身份信息的訓練數據生成虛假身份信息,如果訓練數據存在偏差或缺乏多樣性,模型無法準確學習到真實身份信息的特征,進而導致生成的信息不準確或不真實。
基于生成式AI的技術邏輯,可將生成式AI引發虛假身份信息風險的類型劃分為積極生成型和人為操縱型。其一,積極生成型風險主要源于算法本身的復雜性和不確定性。在缺乏惡意意圖的情況下,生成式AI仍可能因誤解語境或邏輯等因素,自動生成誤導性、欺騙性的虛假身份信息,這種風險是算法基于現有訓練數據和模型結構所做出的直接判斷。例如,在人臉識別領域,生成式AI模型會將不同個體的面部特征混淆致使生成錯誤的身份信息。又或者,在文本生成領域,生成式AI模型會誤解語境或邏輯致使生成不準確的身份描述信息。其二,人為操縱型風險是指在有意訓練和提示下,生成式AI被動輸出虛假身份信息的現象。因生成式AI具備根據用戶的提問或引導靈活調整輸出內容方向的能力,該風險類型主要涉及政治操縱、輿論干預、網絡釣魚等多種不當行為。[2]不論是基于以上哪種類型風險,借助生成式AI的深度學習技術和對抗學習機制能夠生成具有高度逼真性、多樣性、時效性、規模性等邏輯特性的虛假身份信息,不僅重新定義了信息生產的邊界,也深刻改變了虛假身份信息的傳播格局。有鑒于此,基于當前糾紛化解、政策落實與法律規制的三重需求,有必要在探討生成式AI虛假身份信息應用場景的基礎上,分析其對既有治理體系的沖擊,并據此提出一套融合技術邏輯和法律邏輯的應對策略,以期構建一個既能促進技術有序發展,又能有效維護社會秩序的虛假身份信息治理框架。
一、虛假身份信息的內容及應用場景
根據《互聯網信息服務深度合成管理規定》,深度合成技術是指利用機器的深度學習,實現圖像、聲音、視頻的篡改、偽造和自動生成。[3]這一技術現如今已發展得較為成熟,其不需要高昂的成本、專業的設備或復雜的程序,任何人都能夠在短時間內生成高度逼真的偽造視頻。深度合成技術本身并不為法律所禁止,但當這種技術被用于偽造圖像、聲音或視頻,尤其是當這些偽造內容達到高度逼真且難以甄別的程度,進而侵害他人的肖像權、名譽權等人格權時,則有必要由法律予以規制。[4]生成式AI虛假身份信息的邏輯特性決定了其能夠在短時間內輕易生成多樣化的虛假身份信息,按照“虛假身份信息”內容主要表現形式的不同,主要討論文本合成內容、語音克隆、照片和視頻圖像三種典型的虛假身份信息樣態。
(一)照片和視頻圖像
深度偽造技術的突破主要得益于三個關鍵要素。其一,能夠自動映射圖像中面部標志的算法推動面部識別技術的誕生與發展,這一技術革新提高了面部識別的精確度,使其能夠更精準地捕捉和模擬人臉的細微特征,從而生成更為逼真的偽造內容。其二,互聯網的廣泛普及,如各類自媒體平臺、短視頻分享社區的興起,以及個人在社交媒體軟件上分享的大量照片和視頻,為深度偽造技術提供了豐富的視聽資源數據庫。這使得偽造者能夠輕松獲取所需的人物形象、表情和動作,進一步提高偽造視頻的真實感。其三,隨著圖像提取能力的提高,使得計算機可以更準確地處理圖像數據,為深度偽造技術的發展提供了技術支持。生成式AI的出現為深度偽造技術的進一步發展提供了新的驅動,其可以通過檢測大型數據集中模式生成相似產品,為照片和圖像的深度偽造提供了技術基礎。在深度偽造技術的影響下,利用生成式AI生成虛假身份信息有關的照片和圖像已愈發普遍,并且其生成內容能夠精確地模仿目標對象的獨特風格和顯著特征。這種技術主要采用兩種方法,即生成對抗網絡和自動編碼器。生成對抗網絡通過分析一組圖像生成與原始圖像質量相似的新圖像,而自動編碼器則專注于從圖像中提取面部特征的信息,并利用這些信息構建具有不同表情的圖像。[5]與此同時,技術深度拓展伴隨的適用風險也悄然而至。例如,2024年1月26日網絡上瘋傳的一組泰勒·斯威夫特的色情、血腥照片,即由不法分子利用AI技術生成,嚴重損害了泰勒·斯威夫特的個人形象、社會聲譽和經濟利益。而就在此前,也有人使用AI仿造泰勒的聲音和形象在社交媒體Facebook上進行商品推廣,從而誤導消費者購買。[6]這表明在數智化時代,社交媒體平臺極易成為滋養虛假身份信息的溫床,僅依靠一段原始的語音記錄或是一張基礎的圖片素材,不法分子便能編造出令人難以分辨真偽的謠言。[7]
(二)文本合成
在深度偽造技術的影響下,生成式AI正在被廣泛應用于生成虛假身份信息的文本內容。其中,最常見的應用便是生成虛假個人信息,包括個人一般信息和敏感信息,如偽造的姓名、地址、電話號碼、電子郵件等個人信息。這些虛假的個人信息往往被用于創建虛假的社交媒體賬號、網站注冊等,以達到各種不正當目的。不僅如此,文本生成技術還利用自然語言處理(NLP)等先進技術,進一步模仿特定目標的語言風格和表達方式。通過深度學習算法和大規模文本數據的訓練,生成式AI能夠創造出與目標身份相符的語言內容,涵蓋文字信息、社交媒體帖子、郵件、評論等多種形式。具體而言,生成式AI可以模擬特定個體的語言習慣、用詞偏好和情感傾向,從而使生成的文本內容在風格和語氣上與目標身份一致。例如,在社交媒體平臺上,生成的虛假身份信息包含與目標用戶相似的言論和觀點,旨在迷惑其他用戶或操縱輿論。此外,生成式AI還可生成與特定場景或事件相關的虛假信息,如虛假新聞報道、偽造的證據文件等,用于欺騙他人或達到其他非法目的。在實踐中,生成式AI生成的虛假身份信息往往并非孤立存在,而是與其他技術相結合,如圖像生成、聲音合成等。通過將文本內容與虛假圖像、視頻、音頻等信息相結合,生成式AI可以創建更真實、更具說服力的虛假身份信息,進一步提高其欺騙性和迷惑性。
(三)語音克隆
語音克隆技術作為生成式AI生成虛假身份信息的重要手段之一,具有廣泛的應用場景。該技術旨在讓計算機能夠模仿特定目標的聲音,生成與目標人聲幾乎無法區分的合成語音。通常被稱為音頻深度偽造、語音合成或語音轉換。當前,語音克隆技術已廣泛運用于社會各領域。例如,現代智能助手如Google Home和Apple Siri等,以及各種導航系統都采用了這種技術。此外,一些公司還推出了專門的音頻版本,如Lyrebird的TensorFlow,使得任何人都能夠通過簡單的操作模仿特定人的聲音。語音克隆技術的出現,極大地簡化了生成虛假身份信息的過程。通過運用生成式AI,不僅可以根據目標對象的語音特性制作高度逼真的合成語音,而且還可以根據特定場景和語境生成相應的語音內容,如模擬人物說話、語調、情感等。由此可見,生成的語音克隆內容具有極高的逼真度,這些聲音可被用于制作虛假的語音消息、電話錄音等。然而,其背后也隱藏著欺騙或誤導風險。比如,2019年在英國發生的全球首例AI詐騙案中一名詐騙者利用先進的AI語音模仿軟件,假扮公司高層,成功騙取了22萬歐元。[7]
二、生成式AI虛假身份信息的規制隱憂
(一)現行相關法律的規制對象難以涵蓋生成式AI
在我國現行法律規范體系中,關于虛假身份信息的法律法規所規范的行為主體限定為自然人。如《中華人民共和國刑法》(簡稱《刑法》)第280條第一款“使用虛假身份證件、盜用身份證件罪”、第280條第三款“偽造、變造、買賣身份證件罪”、第291條第二款“編造、故意傳播虛假信息罪”之規定皆將主體限定為自然人。目前我國尚未賦予生成式AI以法律主體資格,因此無法直接將其納入法律的規制范圍,故而只能依照生成式AI具有的信息內容發布者屬性,從網絡服務提供者的歸責角度探尋可能的歸責路徑。[8]424-425由于我國尚未對網絡服務提供者的概念進行統一界定,因而綜合國內外相關規定的延展,將網絡服務提供者理解為提供相關網絡服務的單位、組織和個人具有合理性。[9]202-204從現有法律規定來看,網絡服務提供者的責任僅限于在網絡空間中為用戶提供訪問、復制或者傳播信息的服務時產生的責任。然而,生成式AI技術如ChatGPT,其運行并不完全依賴于網絡空間。可見,在某種程度上可以將生成式AI與網絡服務提供者兩者之間的關系視為提供內容服務的工具與工具提供者的關系。而在《刑法》中,對偽造、變造虛假身份信息的規定皆以“直接生成內容”為必要前提,且在主觀要件上要求行為人存在故意。這意味著,當生成式AI自主生成虛假身份信息對他人造成損害成為侵權的直接主體,那么網絡服務提供者便只能是間接侵權主體。簡言之,除非網絡服務提供者將生成式AI作為蓄意制造、傳播虛假身份信息的工具,否則在生成式AI自主生成虛假身份信息的情形下,現行法律規定難以適用于網絡服務提供者。此外,在《中華人民共和國民法典》(簡稱《民法典》)第1194條中,關于“網絡服務提供者利用網絡侵害他人民事權益”的規定,也要求網絡服務提供者實施侵權行為具備主觀能動性,這通常體現為網絡服務提供者有意識地利用網絡平臺實施侵權行為,如傳播虛假信息、侵犯他人名譽等。然而,當生成式AI脫離網絡服務提供者的控制自主實施侵權行為時,這種主觀能動性的前提便不復存在,因此上述規定無法直接適用。
(二)既有責任認定標準難以適用生成式AI
生成式AI對虛假身份信息的制造具有相對獨立性,其通常由自主生成或受用戶引導而成。這背后產生的成因復雜,自主生成的情形可能由于設計者在設置過程中的過失或數據訓練模型所致。而受用戶引導可能是用戶自身具有獲取誹謗信息的動機或AI在運行過程中過度解讀。然而,由生成式AI制造的虛假身份信息所引發的網絡誹謗危害,難以通過現有的損害評估方式進行準確衡量。在我國法律規范體系下,誹謗信息存在兩個問題:一方面,關于網絡誹謗信息的判斷,刑民規范長期處于不一致的狀態,在界定“情節嚴重”的這一關鍵節點上,刑民規范有著不同的標準。[10]在民法規范體系中,我國目前對于網絡誹謗民事侵權損害結果的認定沒有明確的法律規定。從個案判例來看,利用生成式AI生成的虛假身份信息,因其匿名性助長誹謗信息的肆意傳播,裹挾被侵權人,一般通過考量這些信息給被侵權人帶來的負面社會評價和精神痛苦程度來評估是否構成“情節嚴重”。而在刑法規范體系中,對于“情節嚴重”的認定有更為具體的量化標準。根據最高人民法院、最高人民檢察院發布的《關于辦理利用信息網絡實施誹謗等刑事案件適用法律若干問題的解釋》,除了將“危害后果”“主觀惡性”納入“情節嚴重”的認定標準外,還明確規定了“數量標準”,如“同一誹謗信息實際被點擊、瀏覽次數達到五千次以上,或者被轉發次數達到五百次以上的”[11]。適用此標準衡量利用傳統方法制造的虛假身份信息引發的誹謗危害具有合理性,然而,鑒于生成式AI生成虛假身份信息的邏輯特性,該認定標準或無法達到預防目的。另一方面,就救濟程序而言,《民法典》第1195條規定了被侵權人在面對網絡侵權時的救濟方式,即被侵權人有權通知網絡服務提供者采取刪除、屏蔽、斷開鏈接等必要措施,網絡服務提供者就未采取必要措施致使損害擴大的部分與網絡用戶承擔連帶責任。然而,因利用生成式AI虛假身份信息的傳播路徑難以追蹤,這一侵權補救措施或無法有效救濟被侵權人的財產損失和精神損害。
三、生成式AI虛假身份信息的應對策略
生成式AI的快速發展催生虛假身份信息的新挑戰,其影響涉及個人隱私、社會安全、法治建設等多個層面。有效應對這一挑戰需要法律和技術的深度融合,需要國際社會的共同努力。只有在技術監管更加精準、多元主體合作更加緊密、法律體系更加健全的條件下,才能更好地保障個人隱私、維護社會和諧。
(一)強化技術賦能過程中風險防控手段
從生成端來看,生成式AI虛假身份信息的風險,可以通過規避算法偏見,建立驗證機制和反饋渠道等方式避免生成的虛假身份信息泛濫。首先,訓練數據質量。生成式AI基于海量的數據集和算法運行,這要求生成式AI運行程序的設計者在設計時秉持公平公正的道德觀,避免主觀偏見。根據《互聯網信息服務算法推薦管理規定》第8條規定,算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等。同時,禁止設置誘導用戶沉迷過度消費等違反法律法規或者違背倫理道德的算法模型。在ChatGPT的算法模型投入應用之前,進行嚴格的法律審查是必要環節。這包括對算法模型的原理、數據來源、訓練過程等進行全面檢查,確保其在實際運行過程中避免出現偏差或違規行為。此外,對于算法模型在機器學習過程中可能滲入的人為算法偏見問題,除了定期進行審查和驗證外,還需要加強算法模型的公正性和公平性設計,將規范文件的要求以技術標準的形式融入算法程序的編譯過程中,提高算法的準確性和可靠性。[12]其次,建立驗證機制。通過建立和優化驗證數據真偽的標準和流程確保數據標注的真實性,在很大程度上避免生成式AI編造身份信息的隨意性。最后,建立反饋渠道。為了實時優化生成式AI的使用效果,開發者應當為生成式AI的使用主體——用戶,建立反饋渠道,允許并且鼓勵用戶在AI生成虛假身份信息之時提供真實且全面的反饋意見,以及時糾正并動態調整AI使用機制。
從使用端來看,生成式AI虛假身份信息的風險,可以通過多種手段來加強防護,包括身份驗證、AI水印和AI檢測工具。首先,身份驗證包括開啟雙因素身份驗證、生物特征識別、實時身份驗證等。其中開啟雙因素身份驗證是指使用雙因素身份驗證,例如密碼和手機短信驗證碼,可以確保只有合法用戶才能訪問敏感信息;生物特征識別是指采用生物特征識別技術,如指紋、面部識別或虹膜掃描,這些特征是唯一且難以偽造的,可以更強力地驗證用戶身份;實時身份驗證是指在訪問時進行實時身份驗證,以確保用戶仍然是合法用戶,而沒有在交互過程中被替代。其次,AI水印包括數字水印、可見水印、隱形水印。其中,數字水印是指將數字水印嵌入到內容中,包括圖像、音頻和文本等。其可以融入身份識別信息,以幫助驗證內容的真實性;可見水印是指可見的水印可以用于標識原始內容,以提醒用戶檢查或識別虛假信息;隱形水印是指不可見的水印,只有特定的檢測工具可以識別,其可以用于驗證文檔的真實性。最后,AI檢測工具包括文本檢測工具、圖像識別工具、音頻分析工具。其中,文本檢測工具是指使用自然語言處理和機器學習算法的文本檢測工具,幫助識別虛假文本信息,包括虛假新聞、虛假評論和虛假文檔;圖像識別工具是指基于計算機視覺技術的圖像識別工具檢測圖像中的編輯或合成痕跡,以揭示虛假圖像;音頻分析工具是指音頻分析工具用于檢測虛假音頻或語音合成,以防止電話欺詐或聲音偽造。
(二)建立多元主體協同共治機制
《中華人民共和國人工智能法(學者建議稿)》第13條的規定為建立和完善政府主導、社會協同、公正參與的人工智能治理體制提供了方向和依據。生成式AI作為科技領域的焦點議題,其涉及多元化市場主體在AI生成信息內容的管理中各自發揮著不同的作用。通過政府、企業和公民等多方主體共同參與、協同治理,可以提升算法決策的合理性、數據的安全性和信息協調的高效性。有鑒于此,應當建立以政府為主導,其他主體為輔助的協同共治機制。[13]
1.明確政府治理職責
政府應建立完善的法律和政策,明確生成式AI系統的運行規范和要求,特別是在利用生成式AI生成虛假身份信息時涉及數據安全、個人隱私保護等多個方面的法律和政策的制定,確保個人數據的合法收集、存儲和使用,其中可以明確規定需要獲得明示同意才能訪問敏感數據,以及規定數據安全標準。[14]此外,政府還應設立嚴格而又獨立的監管機構,負責全面監管生成式AI的開發、部署和運行,同時負責監督數據使用者的合規行為,并處理數據濫用和侵權投訴。最后,建立信息共享機制,加強不同部門之間的信息交流和合作,提高虛假身份信息的檢測和核實效率。
2.發揮企業自治能力
《中華人民共和國個人信息保護法》第58條對大型互聯網平臺在保護個人信息方面的特定義務作出了規定,同時,《中華人民共和國數據安全法》第27條也明確了數據處理者在數據安全保障方面的法定義務。這既是對企業社會行為的法律約束,也是對企業社會責任的強調。因此,作為重要數據的處理主體,企業應主動履行法律義務,勇于承擔社會責任。以大型互聯網平臺OpenAI為例,一方面,應建立健全的個人數據保護體系,這包括制定嚴格的個人數據收集、存儲和使用規范,確保每一項操作都符合法律的要求。同時,應設立獨立的監督機構,對生成式AI在使用個人數據時對個人數據保護法的遵守情況進行核查。特別是在收集個人數據時OpenAI應保持謹慎的態度,在模棱兩可的情況下應當盡量避免收集個人數據,防止將個人數據收集的范圍泛化。另一方面,應完善算法備案制,對于AI生成的文本、圖像與視頻等各種內容,要引導企業建立第三方審核或者自律機制。[15]
3.加強跨域交流合作
在現實與虛擬互動的人機交流過程中,隨著技術的發展,法律對于數據隱私的監管和保護存在不確定性,特別是在跨國操作的情況下法規和標準的不一致。由于生成式AI虛假身份信息的生成與應用是一個全球性的問題,因此需要制定統一的標準和規范,以加強國際的相互協作。而制定通用數據隱私標準是解決跨國操作中法律不確定性問題的關鍵。國際標準化組織通過制定全球性的標準和規范,在確保生成式AI技術的安全性和合法性方面發揮著重要作用。這些標準不僅有助于減少跨國數據流動中的隱私泄漏風險,還能為各國政府和企業提供明確的技術應用指導。此外,美國、歐盟為進一步推動人工智能(AI)領域的合作簽署了《人工智能促進公共利益行政協議》,為生成式AI風險防范與應對提供了有益的參考范例。通過借鑒此類范例,各國可以加強雙邊或多邊合作,共同制定生成式AI技術風險治理的標準和程序。為了方便研究人員和從業者進行具體操作,應當在設定之初增強標準和程序的可操作性。同時,推動建立聯合國框架內的互聯網監管合作機構,確保全球互聯網活動的有序發展,進而促進生成式AI技術的安全和可持續發展。
(三)創設以生成式AI為責任主體的新型誹謗救濟模式
生成式AI是否具備法律主體資格,是確定生成式AI虛假身份信息規制路徑的關鍵。基于前文所述生成式AI虛假身份信息的邏輯特性,當涉及因利用生成式AI制造、傳播虛假身份信息而造成的誹謗損害時,被侵權人主張救濟存在兩方面的困境:一是生成式AI制造虛假身份信息的成因復雜,存在自主生成、受他人引導生成等情形。在自主生成的情況下,虛假身份信息的產生并非總是可以簡單歸咎于設計者或控制者的過失。事實上,其生成可能完全是人工智能模型本身運行特性所致。因為人工智能模型在不斷學習和處理大量數據的過程中,可能會產生包括生成虛假身份信息在內的一系列設計者未預料到的結果。因此,不能簡單地將責任歸咎于設計者或控制者的主觀過錯。二是生成式AI傳播虛假身份信息的覆蓋面廣泛,信息不僅可以在單一平臺或系統內迅速擴散,還可以跨越多個平臺和系統,形成更為廣泛的傳播網絡。這種跨平臺的傳播特性致使確定具體的歸責主體變得極為困難。從保護被侵權人權益的角度出發,將生成式AI擬制為聯合體作為責任承擔主體,按照不同主體對最終侵權內容生成的原因力的大小,再進行具體的歸因判斷和補救規則設計,在我國當前人工智能基礎性立法缺失的背景下不失為一種妥善的處理方式。
1.在集體主義視角下構建以“人機交互聯合體”為導向的歸責方法
根據《民法典》第1194條的規定,網絡用戶、網絡服務提供者只要利用網絡侵害他人民事權益皆應承擔侵權責任。同理,生成式AI生成虛假身份信息不論是積極生成還是人為操縱,對他人造成侵害亦應承擔侵權責任。鑒于生成式AI決策行為的底層邏輯,需采用“刺破AI面紗”的歸責原則,明確責任歸屬,追溯至生成式AI背后的實際參與者承擔侵權責任。[16]而生成式AI侵權方式呈現出一種獨特的整體性侵害特征,這主要體現在其侵權行為的實施方式和參與者結構上。不同于傳統的侵權模式,生成式AI的侵權行為并非由單一主體獨立完成,而是由多個參與者基于共同的目標或利益形成的緊密合作關系。在這種合作結構中形成的擬制團體既非傳統意義上的法人組織,也非基于共同故意或共同危險形成的共同侵權。[17]由于各參與者之間可能存在復雜的利益關系,而這種擬制團體的結構又使得生成式AI的侵權行為具有更高的復雜性和隱蔽性,因此很難準確界定每個參與者的責任范圍。為了簡化救濟路徑,可以考慮將加害人與受害人擬制為一個集合團體,以彌補在確認個人侵權因果關系中將責任直接分配于個體行為者的責任鴻溝。[18]具體而言:如果用戶完全沒有參與侵權內容的生成,即原因力為0,那么生成式AI的各參與者,包括設計者、控制者等作為聯合體成員,均應承擔侵權責任。在確定各參與者的責任份額時,可以參考其從中所獲經濟利益的比例確定。如果用戶在一定程度上參與了侵權內容的生成,即原因力介于0到100%之間,那么所有參與者,包括用戶和其他生成式AI的參與者,都應被視為侵權責任主體。在此情形下,用戶的責任份額需要根據具體情況由法院酌定,以充分考量其在侵權行為中的實際作用。而其他參與者的責任份額則仍與其所獲經濟利益比重保持一致。如果用戶完全負責侵權內容的生成時,即原因力為100%,用戶則成為唯一的侵權責任主體。在此情形下,由于其他生成式AI的參與者并未參與侵權行為的生成,故無需承擔責任。[15]通過這一方式簡化因果關系實現行為歸屬,進而將侵權責任歸咎于生成式AI的各參與者,從而搭建行為歸屬與責任歸屬的橋梁。以集體主義視角具體分析在人機交互過程中各主體對侵權行為的實際作用和經濟利益以確定需承擔的責任份額,既具有合理性與可行性,也與歐盟《人工智能法案(建議) 》提出的“人工智能價值鏈責任歸責方法”的探索方向不謀而合,即該法案指出在保障人工智能安全運行方面,價值鏈上的所有主體都對其負有保障義務。這實質上是將侵權行為與價值鏈上各節點組織聯系起來,并在不同環節的控制主體之間實現責任合理分配。[19]
2.暫代型誹謗救濟模式的適用路徑
以集體主義視角構建人機交互聯合體的歸責方法以法律承認生成式AI的法律主體資格為前提。但目前我國人工智能基礎性立法尚未建立,未賦予生成式AI以法律主體資格。而生成式AI制造、傳播虛假身份信息的風險與日俱增。在此背景下,設計暫代型誹謗救濟舉措以應對過渡時期生成式AI生成、傳播虛假身份信息的風險具有必要性。對此,參考《民法典》第1195條規定的網絡服務提供者的侵權補救措施與責任承擔方式,可在“通知+刪除”模式的基礎上衍生出“通知+回應”模式適用于“人工智能服務者”。即將“人工智能服務者”納入通知對象,將救濟方式由“刪除”擴大到“包含刪除在內的其他方式,如停止侵害”等。[20]鑒于生成式AI技術尚未成熟,過早地將其引入應用產業鏈,勢必會犧牲一部分的社會公共利益和個體權益。因此,針對“通知+回應”模式,相關企業應建立完善的通知和回應機制,快速響應侵權通知,采取有效救濟措施,并加強與權利人的溝通,提供精準的解決方案。此外,針對前文所述的既有責任認定標準難以適用于生成式AI的困境,在現行法律制度框架內,應重新設定利用生成式AI虛假身份信息制造誹謗信息的法律規范路徑,并確保不同路徑之間的協調性。一方面,在刑法規范體系中,提升對“情節嚴重”的認定標準。評估誹謗責任歸屬的分界點在于誹謗信息的致損程度,而利用生成式AI虛假身份信息開展誹謗行為的速度之快和范圍之廣遠超傳統技術手段,故此,不僅需要提高“數量標準”認定標準,還應注重對“危害后果”和“主觀惡性”的實質認定。另一方面,在民法規范體系中,有必要對被侵權人的負面社會評價和精神痛苦程度的衡量標準作出相應調整。因生成式AI內容傳播路徑復雜,傳統的評估方法難以全面反映被侵權人基于虛假身份信息所受誹謗而遭受的實際損害。因此,通過引入心理學、社會學等跨學科評估方法,可以從多個角度對被侵權人的損害進行精準的量化評估,為后續追責提供更加全面且科學的依據。
結語
隨著生成式AI與人類生活緊密融合,虛假身份信息的生成與應用勢必會對既有的法律秩序造成沖擊。鑒于生成式AI虛假身份信息的邏輯特性,一方面,應以集體主義視角為切入點,構建以“人機交互聯合體”為導向的歸責方法,即將生成式AI納入責任主體范疇,同時強調由其背后的各參與方作為實際的責任承擔者,進而達到填補損害和震懾不法行為的雙重目的。另一方面,應構建暫代型誹謗救濟模式,將《民法典》中適用于“網絡服務提供者”的規則衍生適用于“人工智能服務者”,并將救濟方式轉變為“通知+回應”模式。此外,為防止攻擊者采取新型手段規避現有防御系統,需要實時更新防護措施,完善動態監測系統,以適應場景化應用中不斷演化的動態風險。
參考文獻:
[1] 劉霞.生成式 AI或致虛假信息野蠻生長[N].科技日報,2023-06-13(004).
[2] 漆晨航.生成式人工智能的虛假信息風險特征及其治理路徑[J].情報理論與實踐,2024,47(3):112-120.
[3] 張璐.通用人工智能風險治理與監管初探:ChatGPT引發的問題與挑戰[J].電子政務,2023(9):14-24.
[4] 曹建峰.深度偽造技術的法律挑戰及應對[J].信息安全與通信保密,2019(10):35-40.
[5] 劉學敏.人工智能時代“深度偽造辯護”對刑事訴訟的挑戰及其應對[J].廈門大學學報(哲學社會科學版),2024,74(1):109-120.
[6] 王衛.AI生成“深度偽造”真假難辨,美國知名歌星深受其害!媒體:有效監管成關鍵[EB/OL].(2024-02-05)[2024-11-03].https:// export.shobserver.com/baijiahao/html/713375.html.
[7] 王衛.“深度偽造”真假難辨 有效監管成為關鍵[N].法治日報,2024-02-05(006).
[8] 江溯.網絡刑法原理[M].北京:北京大學出版社,2022.
[9] 孫玉榮.著作權法前沿熱點問題探究[M].北京:知識產權出版社,2020.
[10] 陳小彪,劉佳伶.網絡誹謗刑民界分的困境與應對[J].學術交流,2021(7):85-95.
[11] 于沖.網絡“聚量性”侮辱誹謗行為的刑法評價[J].中國法律評論,2023(3):87-98.
[12] 劉艷紅.生成式人工智能的三大安全風險及法律規制:以ChatGPT為例[J].東方法學,2023(4):29-43.
[13] 張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法學,2023,45(3):108-123.
[14] 郭小東.生成式人工智能的風險及其包容性法律治理[J].北京理工大學學報(社會科學版),2023,25(6):93-105,117.
[15] 支陣鋒.生成式人工智能大規模的信息內容治理[J].政法論壇,2023,41(4):35-48.
[16] 袁曾.生成式人工智能的責任能力研究[J].東方法學,2023(3):18-33.
[17] 陸小華,陸賽賽.論生成式人工智能侵權的責任主體:以集體主義為視角[J].南昌大學學報(人文社會科學版),2024,55(1):119-131.
[18] 張平華.揭開集合侵權的面紗:從術語翻譯到制度建構的追問[J].法律科學(西北政法大學學報),2013,31(6):106-118.
[19] 朱嘉珺.生成式人工智能虛假有害信息規制的挑戰與應對:以ChatGPT的應用為引[J].比較法研究,2023(5):34-54.
[20] 李洋.算法時代的網絡侵權救濟規則:反思與重構:以“通知+取下”規則的類型化為中心[J].南京社會科學,2020(2):110-115.
【責任編輯:許潔】
Risks and Responses to Generative AI False Identity Information
LIU Xieci,YU Chen
(Law School, Hunan University of Technology, Zhuzhou, Hunan 412007, China)
Abstract: Currently, generative AI is generating 1 identity information with logical characteristics such as realism, diversity, timeliness and scale through continuously optimising internal adversarial learning mechanisms. Its typical patterns mainly include photo and video images, text synthesis, and voice cloning, and the risk of 1 identity information arising from this is diverse, mainly including “actively generated” and “artificially manipulated” scenarios. Based on its complex technical factors, the generation and dissemination of generative AI 1 identity information will infringe on the basic rights and interests of the society and individuals, thus challenging the current legal regulation of 1 identity information in terms of legal positioning and liability standards. In view of this, on the one hand, by strengthening the means of risk prevention and control in the process of technological empowerment, the mechanism of multi-dimensional collaboration and co-control of subjects to cope with the deep fusion of law and technology is established; on the other hand, a new type of defamation relief model with the generative AI as the subject of responsibility is created, from the perspective of collectivism, the imputation method guided by “human-computer interaction consortium” is constructed, and the temporary defamation relief model suitable for the transitional period is constructed too.
Keywords: generative AI; 1 identity information; defamation