[摘 要] 從數據輸入、模型運算以及輸出結果的運作流程來看,生成式人工智能具有使虛假信息在數以萬計的數量級上成倍擴散或者合并的能力。為此,世界各國政府正在面臨為生成式人工智能系統設置護欄和保障措施的任務,主要面臨以下困難:高擬真生成式人工智能生成內容加劇了事實核查的難度、虛假信息治理時國家公權力的介入不足、監管責任的互相推諉等。據此,生成式人工智能開發者、部署者、服務提供者等利益相關主體應當緊密合作,共同承擔虛假信息排查與管控的風險,具體分為三個方面:一是分層式治理,虛假信息治理的整體布局(包含數據層、內容層、服務層);二是糾正式治理,保障受生成式人工智能生成內容侵害主體救濟權;三是協同式治理,責成AI價值鏈上最密切利益主體對虛假信息的不良后果承擔不真正連帶責任。
[關鍵詞] 虛假信息;生成式人工智能;深度學習;數據訓練;“通知—刪除”規則;不真正連帶責任
[DOI編號] 10.14180/j.cnki.1004-0544.2024.09.012
[中圖分類號] D923 [文獻標識碼] A [文章編號] 1004-0544(2024)09-0115-15
基金項目:重慶市教委人文社科研究項目“健全知識產權懲罰性賠償制度研究”(20JD031)。
作者簡介:鄧宏光(1977—),男,法學博士,西南政法大學民商法學院教授、博士生導師;王雪璠(1996—),女,西南政法大學民商法學院博士研究生。
引言
生成式人工智能模型①是基于大量非結構化數據訓練而形成的深度學習模型,它具有提高生產力、降低成本與提升企業效益的巨大潛力。與以前的深度學習模型不同,生成式人工智能模型的強大之處在于,它們并不局限于執行一種任務,而是可以同時執行多種任務,例如分類、編輯、總結、回答問題和起草新內容。這使得公司能夠在用戶缺乏深厚的人工智能和數據科學知識的背景下,相對輕松地使用這些模型啟動多個應用程序②。
與傳統人工智能一樣,生成式人工智能也會引發隱私問題和道德風險,例如訓練數據中隱藏的偏見可能會長期存在。這些技術可能會加劇虛假信息的產生與傳播,導致欺騙、欺詐、歧視和偏見的迅速擴大,開辟更多的攻擊領域和新的攻擊形式,從而增加了安全漏洞出現的風險。OpenAI首席執行官Sam Altman在2023年5月國會聽證時曾將生成式人工智能導致“有害內容、虛假信息、缺乏透明度和知識產權盜竊”等問題列為必要監管議題1。近期,OpenAI已經面臨The Intercept、Raw Story和AlterNet新聞機構的起訴。這三家機構指控OpenAI濫用他們的文章訓練其流行聊天機器人ChatGPT的人工智能系統。國內同樣面臨虛假信息擾亂社會秩序的問題。2023年4月25日,深圳某自媒體公司洪某先搜尋了近年來中國討論度廣泛的社會新聞,隨后利用ChatGPT將特定元素例如時間、地點、日期或性別等進行修改,重新撰寫一篇假新聞,借由上傳這些文章賺取流量再加以變現。不僅如此,洪某還利用ChatGPT制作了多個存在細小差距的假新聞版本,以避開百度旗下平臺的審查。最終洪某因涉嫌尋釁滋事罪被警方采取強制措施2。這意味著,當人類智力與人工智能協作,人類利用ChatGPT搜索熱點新聞語料庫以及其他相關資料,并對新聞構成要素的部分再組合形成虛假新聞,在缺乏人工審查時,這些虛假新聞、虛假信息甚至可以逃脫現有技術的審查,進入公眾視野,對社會秩序造成不良影響。
2022年9月13日,第77屆聯合國大會第一次全會臨時議程項目69(b)中3,也曾對虛假信息的泛濫表示擔憂。聯合國秘書長安東尼奧·古特雷斯(António Guterres)在其提交的《打擊虛假信息,促進和保護人權與基本自由》報告中,闡述了錯誤信息和虛假信息的區別。錯誤信息是指那些意外傳播的不準確信息,而虛假信息不僅指信息內容本身不準確,還存在有意欺騙并被故意傳播的行為,最終造成嚴重危害。安東尼奧·古特雷斯對“虛假信息”一詞沒有給出明確的定義。因為對虛假信息的關切可能出現在多種不同的情況下,涉及選舉進程、公共衛生、武裝沖突或氣候變化等問題,所以沒有一個定義能全面描述虛假信息。聯合國秘書長安東尼奧還稱,“打擊虛假信息需要在建設社會抵御能力以及媒體和信息素養方面進行持久投資”4。
當前,生成式人工智能生成虛假有害信息已經受到各國關注。諸如安全評估、算法備案以及審計等措施,通常通過人工智能模型投入使用前和應用后的干預措施得以體現5。值得注意的是,生成式人工智能的開發者、部署者以及服務提供者等受AIGC影響的主體,是否在法律上具有保證信息真實的審查義務?如若未履行內容審查義務應當承擔怎樣的責任?有學者指出,生成式人工智能模型不能適用產品責任,應當按照《中華人民共和國民法典》(以下簡稱“《民法典》”)第1165條第1款,適用過錯責任的一般條款進行規制,并在有限范圍內類推適用“通知—刪除”規則6。但也有學者認為,抑制生成式人工智能生成虛假信息,需要加強透明度監管。尤其是構建生成式人工智能系統的組織應該記錄、披露訓練數據和模型架構。故而,創建安全使用工具的責任應該由構建和部署生成系統的公司承擔,這意味著這些系統的構建者應該對其產品的產出負責1。亦有學者提出,生成式人工智能服務提供者應當履行內容審查義務,并承擔違反內容審查義務的責任2。有反對者認為,生成式人工智能服務提供者對內容生成的控制能力,已不同于以往的網絡服務提供者,不能僅依據“風險控制義務”,要求生成式人工智能服務提供者對其生成內容具有一般化的審查義務3。綜上,生成式人工智能的開發者、部署者以及其他服務提供者等受生成式人工智能系統影響的主體,理應對生成式人工智能生成內容的真實性、合法性負責。立法者可以將內容審查義務、違法信息及時處置義務等與虛假信息治理有關的注意義務分配給生成式人工智能系統的設計、部署、應用等不同階段的不同主體,或將多主體捆綁,以共擔義務的方式協作治理,以便為生成式人工智能系統的運作提供一個健康良好的生態環境。
一、生成式人工智能加劇虛假信息的威脅格局
生成式人工智能技術看似是創造性生產,實際上其運行邏輯是對現有數據的重新排列組合,以及更廣泛地獲取訓練數據集。這個技術本身存在生成虛假信息的風險。尤其是網絡服務提供者利用人工智能技術“標簽化”熱門內容,故意編造虛假信息時,還有可能承擔擾亂社會秩序的公法責任。虛假信息的危害性根源在于,誤導社會公眾認知,引導社會公眾做出錯誤行為或者錯誤決策。
根據《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”)第22條,生成式人工智能技術,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。也就是說,該《暫行辦法》中與生成式人工智能技術有關的規定,對生成式人工智能模型同樣適用。生成式人工智能模型則是指根據用戶指令生成內容的系統。傳統的通用人工智能,是一個能夠像人類一樣思考、學習和適應的機器。從技術上講,它主要由“深度學習”4技術驅動,該技術可以通過訓練從數據中自動學習內容創建的結構和模式5,使內容創建過程更加高效和可訪問,以更快的速度生產高質量的內容。與之前的技術相比,生成式人工智能的核心進步是通過使用更大的基礎模型架構,訪問廣泛的計算資源,在更大的數據集上訓練更復雜的生成模型。隨著各種生成技術的日益普及,生成的錯誤信息將主宰未來的虛假信息景觀。
第一,數據輸入階段。海量數據預訓練為生成式人工智能技術觸發虛假信息提供了“天然的胚胎環境”。基于海量數據庫的訓練模式,使得生成式人工智能技術在信息獲取上不可避免地具有天然的滯后性6。除海量數據庫本身有誤或者數據過時外,生成式人工智能技術之所以會提供虛假信息,很大程度上是因為它們并沒有理解人類語言的能力,也不具備人類思考和推理的能力,其對答如流的背后,實質上是通過海量數據訓練建立了字詞句之間的關聯概率模型,使得AI模型具備了根據用戶提問逐字計算出概率最高表述方式的能力。簡單來說,訓練數據被表示為概率分布。通過對它們進行采樣和混合,模型可以生成超出訓練數據集的內容,也就是一些評論者所說的新內容1。以此為基礎,模型訓練所需的大量數據意味著生成式人工智能模型的開發者必須依賴于互聯網上公開提供的訓練數據。從數據質量的角度來看,很難認為數據來源是完整、及時且有效的。因此,這些模型生成的內容可能是有偏見,甚至是有害的2。
第二,模型運算階段。生成式人工智能模型優化與深度學習的可擴展性,成為虛假信息迅速擴散的“風火輪”。一方面,生成式人工智能技術通過深度學習和模型訓練,對用戶輸入內容進行學習與反饋,并改進輸出內容,使得系統具備更高效解決問題的能力。另一方面,在模型訓練過程中,生成式人工智能模型使不真實信息在數以萬計的數量級上成倍擴散或者合并,從而產生“雪球效應”。一旦訓練集來源不真實或者訓練過程中出現數據管理不善、數據不當刪除等問題,都會導致偏見的強化以及不準確信息的指數級擴散。這些問題影響了人工智能應用的功效,加劇了社會不平等并削弱了對人工智能技術的信任。
第三,輸出結果階段。生成式人工智能技術為達目的“不擇手段”,忽略輸出結果的實質真實性。一方面,AIGC是在給定人類指令的情況下,利用算法生成滿足指令的內容,從而幫助、指導模型完成任務。這個生成過程通常包括兩個步驟:從人類指令中提取意圖信息,并據此生成內容。為提高目標者對輸出結果的滿意程度,生成式人工智能往往“竭盡所能”,突出表現為它并不會承認自己在某個領域無知或者面對某個問題時無能為力。這就使得生成式人工智能擅于編造某種形式上看似正確,實際上卻沒有任何價值甚至虛假有害的信息。ChatGPT生成內容的邏輯,是利用來自人類反饋的強化學習3,對給定指令給出最合適的回應,從而隨著時間的推移提高模型的可靠性和準確性。這種方法使得ChatGPT能夠在長對話中更好地理解人類的偏好4。這種可靠和準確是對人類指令的理解優化,但卻不能保證信息的來源可靠與內容真實。
另一方面,通過對人類價值判斷與意識形態的滲透,生成式人工智能將經過處理和篩選的內容與人們的價值選擇、意識形態相勾連,使人們在無意識時接受人工智能的潛在規訓5。生成式人工智能在一定程度上替代了搜索引擎,在精準對接用戶需求信息時,逐漸稀釋用戶對信息的自主選擇能力和判斷力。從內容生成準備階段的價值預設與文化選擇,到內容生成的反饋與應用階段,都滲透了掌握話語權力者以及相關利益者的喜好。尤其是心智尚未成熟的未成年人,難以對其接觸的信息進行甄別和篩選,無法留下可靠、真實信息并排除對其不利的虛假有害內容。長此以往人類將失去對其接觸信息是否真實的判斷力,進而失去對社會最基本的信任。
二、生成式人工智能虛假信息治理的風險挑戰
(一)高擬真訓練下多元主體的審查挑戰
平臺的基本結構是:參與者+價值單元+過濾器=核心互動。在這個等式中,參與者就是生產者與消費者1。價值單元也是核心概念,可以簡單地理解為產品或服務,它由生產者生產出來,被消費者消費。單元指的是單一元素,比如一個視頻、一次打車、一個商品等。同時,互聯網平臺所起的關鍵作用就是“過濾器”,也就是把有需求的生產者和消費者匹配起來。生成式人工智能服務提供者在平臺價值產生與運營過程中的地位,早已超越一般的網絡服務提供者,在生產者與消費者之間構建了更深層了解消費者意圖的橋梁——依據消費者的反饋,反作用于信息的生產。
生成式人工智能模型創新的商業模式,可能會從內容生成革命中產生,這也是生成式人工智能服務區別于傳統網絡服務的典型特征。然而,整個服務提供與內容生成過程需要多主體參與和配合,也就意味著生成內容真實與否,可能與各主體的參與行為都存在關聯。也正因為生成式人工智能服務由多元主體參與活動,卻需為單一生成內容負責,每個參與主體難以把控自己之外的其他參與主體對內容生成的影響,進一步加劇了內容真實性審查的難度。此外,生成模型通常是根據大量數據進行訓練的,以學習不同類型信息(如文本、圖像和視頻)之間的基本模式和關系。通過結合這些習得的表征,生成模型可以生成具有高度說服力和連貫性的多模態內容,這些內容與特定的敘述或大綱相一致2,使得生成式人工智能創造虛假信息相比一般的欺騙更難識別。此外,這些模型還可以通過利用用戶數據、捕捉個人偏好和特征來創建個性化信息。例如,有學者基于神經網絡的生成模型成功生成了個性化情緒音頻3。一方面,人工智能對人類個人偏好的掌控,更有利于用戶對人工智能提供的服務產生信任,從而建立更深層次的情感鏈接。個性化人工智能生成內容的崛起,有可能成為內容消費的主要來源,因為它能夠根據個人消費者的特定需求和偏好定制內容。因此,人工智能算法正在根據用戶的口味和需求生成包括廣告、短視頻和敘事在內的一系列內容。另一方面,生成式人工智能的模仿能力,已經達到了以假亂真的地步。通過深度學習和自然語言處理技術,它們可以準確地模仿人類的語言表達和思維方式,使其產生的內容在形式上與真實的文本難以區分。惡意行為者可以利用生成模型的能力,制造假新聞或其他類型的虛假信息,并配以偽造的圖像或深度偽造的視頻。通過換臉和重塑臉部的深度偽造以創建政治人物的高度逼真視頻的情況并不罕見4。
生成式人工智能技術生成虛假信息的治理,很大程度上受到訓練數據庫質量的影響,尤其當數據訓練與知識產權保護發生利益沖突時,由于數據集的增加,通常會使得深度學習方法的性能提高。而公開的數據庫與企業擁有商業秘密的相關數據、技術資源肯定無法相提并論,嚴重影響了生成式人工智能模型通過深度學習優化模型的進程。這樣完善虛假信息的治理,實際上是完善生成式人工智能價值鏈上不同主體所代表的利益規范。
(二)公權力介入下平臺治理的權限挑戰
生成式人工智能技術帶來虛假信息治理的風險,但究竟如何治理則是由生成式人工智能生成文本、圖像、視頻或音頻等內容的能力決定的。基于平臺將大多數生成式人工智能模型作為服務出售的商業模式,全球AI治理基本與平臺治理高度融合1。國家在治理平臺時,需要對市場競爭秩序進行監管,需要對版權風險和個人隱私進行監管,需要及時調查錯誤信息的來源并加以干涉2,因此,國家絕不僅是規制制定與執行的監管者,它還充當著市場推動者、資源購買者以及能力生產者的角色。這三個未被充分開發的國家角色既使國家機構能夠監管平臺,同時也限制了國家機構監管平臺。因為它們為監管行動的發生提供了背景。這使得平臺治理不僅是一個監管問題,還是一個平衡相互對立的國家角色的問題——政治力量、經濟利益和戰略野心之間的沖突。
目前,世界各國政府都面臨著為ChatGPT等生成式人工智能系統設置護欄和保障措施的任務。2024年1月30日,美國戰略與國際問題研究中心發布最新報告《2024年人工智能政策預測》。該報告強調,2024年是歷史上規模最大的選舉年,這可能是人工智能在競選、干預和傳播虛假信息方面發揮重要作用的第一個選舉周期3。目前,美國仍然是以2023年拜登政府簽發的“安全、可靠和可信開發和使用人工智能”行政令為主要的AI監管路徑,圍繞安全、創新與競爭、工人支持、防止偏見和保護公民權利、消費者保護、隱私、聯邦政府使用AI以及國際領導這8個領域,責成50多個聯邦機構執行超百項具體任務,并創建由28個聯邦部門和機構負責人組成的白宮人工智能委員會4。
在歐盟委員會2021年4月發布的《人工智能法案》的初步提案中,沒有針對生成式人工智能系統的特別規定。然而,ChatGPT的發布在促使這種變化方面發揮了作用。盡管在初步提案完成時談判仍在進行中5,但在當地時間2024年3月13日,歐洲議會通過的最終版本中,已經對OpenAI包括在內的生成式人工智能提供者制定了規則。這些規則包括一系列要求,例如,披露人工智能生成的內容,防止AI系統生成非法材料,公布并詳細說明用于訓練數據的版權證明材料,以及其他旨在遏制生成式人工智能生成虛假信息風險的措施6。以公權力介入的方式實現生成式人工智能的治理最典型的例子是意大利。2023年3月,意大利以侵犯用戶數據隱私為由暫時禁用了ChatGPT1,同年4月底方才解除禁用措施。加拿大隱私專員辦公室以類似理由對OpenAI展開調查2。相比之下,其他政府則優先考慮采取行動,以獲取生成式人工智能帶來的經濟利益。例如,英國成立了一個專門的“基金會模式工作組”,資金總額為9億英鎊。英國政府預測,“此類系統可能使國家生產力增長率翻三倍”3。我國公權力對生成式人工智能技術的規制,則在阻礙與促進之間持模棱兩可的態度。主要起作用的是保障互聯網環境中信息安全的相關規定。如《互聯網信息服務深度合成管理規定》(以下簡稱“《規定》”)第六條,本質上是對互聯網環境中信息安全保障義務的延伸性規定,該規定在應對生成式人工智能合成虛假信息時缺乏針對性。而《暫行辦法》第9條,名義上為生成式人工智能技術的規制做出具體的指引,把重點放在違法信息及時處置義務和信息內容監管義務方面,實則只是將生成式人工智能服務提供者定位為網絡信息內容服務平臺,把義務履行的“皮球”繼續踢還給網絡信息安全保障義務。對于生成式人工智能服務提供者具體應當包括哪些主體,是否包括前端通用人工智能模型的服務提供者,提供者向誰履行義務以及未履行義務時的責任應當如何承擔等問題并不清晰,無法為法官在司法活動中提供確鑿無疑的指引4。對平臺這一主體身份的強調,旨在指引生成式人工智能服務提供者遵循平臺責任來規范技術的應用。這些例子表明,隨著生成式人工智能系統復雜性的不斷增加,一系列政策策略正在迅速發展。
(三)生成式“創作”下監管責任的分配挑戰
從生成式人工智能系統的運行過程,得出對生成式人工智能系統的監管框架——應當順應生成式人工智能生成內容的“創作”過程,即從數據輸入、模型運算及其優化過程到生成式人工智能輸出結果的過程。每一階段由開發者、部署者、服務提供者等不同主體參與AI系統運作。原則上,法律應當按照不同主體在不同階段的參與程度和參與內容,賦予其不同的注意義務。正因如此,2020年4月到5月期間,歐洲議會經過長時間的討論,針對如何監管生成式人工智能系統的問題作出了具體的規定,把對生成式人工智能系統的監管劃分為三層義務5。
1.第一層:基礎AI模型提供者的義務
基礎模型是指在人工智能和機器學習領域中,經過大規模數據訓練而生成的通用模型。“通用”是非常寬泛的意思,即同一系統可以應用于不同的環境,并對不同的個人和群體產生不同的影響。這些模型具備強大的學習能力和理解能力,可以在多個任務和應用場景中進行微調和適應6。例如,面部識別系統的開發者可以將其產品用于驗證入監者的身份,或者通過監測用戶行為實現精準廣告投放。在技術層面上,基礎模型是通過遷移學習和規模實現的。遷移學習的核心思想是將從一個任務中(例如,圖像中的對象識別)獲得的“知識”應用到另一個任務上(例如視頻中的活動識別)。通常,在深度學習中,預訓練是遷移學習的主要方法,但在代理任務上,預訓練只是手段,通過“調優”適應下游感興趣的任務才是最終目的。可以說,遷移學習使基礎模型成為可能,而規模才是使基礎模型如此強大的真正原因1。因此,降低風險是基礎模型進一步發展的關鍵。
第一層基礎AI模型開發者的義務,適用于通用人工智能模型類的基礎模型和生成式人工智能子集的提供者(也被稱為開發者)。開發者是指最初創建預訓練模型或者訓練模型的實體。與實物產品的制造商類似,生成式人工智能系統的主要責任由最初的提供者承擔。例如,OpenAI、Stability或谷歌公司,他們有效控制著技術基礎設施、訓練數據和模型,擁有修改和測試它們資源的權利。《人工智能法案》將基礎模型定義為“在大規模和多樣化的數據上進行訓練,旨在實現輸出的通用性,并能夠適用于多種獨特任務的人工智能系統”2。關注輸出和任務的通用性確實比通用人工智能模型的模糊定義更能準確反映大型生成式人工智能模型的細節。對基礎模型的一般義務規定包括數據治理措施,特別是為了減少偏見而進行的數據輸入。此外,在模型的整個生命周期中,必須保持適當的性能、可解釋性、可糾正性、安全性和網絡安全水平。這些要求必須由獨立專家進行測試、記錄和驗證。除此之外,所有基礎模型還需要實施風險評估、風險緩解措施和風險管理戰略,以確保在獨立專家的參與下,健康、安全、基本權利、環境和法治等方面的風險是合理可預見的。實際上,這一要求等同于將基礎模型歸類為高風險模型3。
按照《人工智能法案》管理ChatGPT的相關規則,生成式人工智能的最低標準包括以下三個關鍵要素:(1)關于人工智能使用的透明度義務。該義務是由人工智能服務提供者向使用該系統的用戶履行的義務,以打擊假新聞和虛假信息的傳播。(2)關于一般服務提供者的義務應當延續。例如,“通知—刪除”規則的運用以及服務提供者對明顯侵權內容標記的注意義務。(3)披露訓練數據中包含的受版權保護的材料。
2.第二層:對AI系統進行實質性修改的部署者
對AI系統進行重大修改的新提供者通常被稱為部署者,在實質性修改后承擔前提供者的責任。當然,對部署者(或者新提供者)的定義是寬泛的,可以包括與第一層義務主體不同的新提供者,也可能是多個部署者聯合或連續工作,形成真正類似于代工生產價值鏈的AI價值鏈。甚至,開發者有時也可以同時充當部署者,實現垂直集成。
通常,部署者并不認為自己對所購買的生成式人工智能系統進行了必要的實質性修改,從而在法律上被視為履行第一層義務的基礎模型提供者。這使得在整個人工智能技術發展的生命周期內明確單獨和共同責任的分配,以及以最實際、全面的方式保護最終用戶的基本權利變得十分困難1。或許可以借鑒歐盟的《一般數據保護條例》判例法的做法,即法院試圖將數據保護的責任分配給與該時間段利益最密切相關的控制者2。
3.第三層:與AI價值鏈有關的其他主體
在AI生命周期的整個價值鏈上包括開發者、部署者、用戶和接收者等多個利益相關者。例如Lilian Edwards將AI價值鏈上的主體區分為通用人工智能的開發者、部署者和最終用戶3。第三層義務要求與AI價值鏈密切相關。實際上是將監管重點轉移到部署者和用戶身上。因為AI輸出可能會被濫用于傳播有害的言論和行為。然而,這種做法可能引發其他問題4。首先,在AI價值鏈上設計可行的責任分配是必要的。義務必須以一種能夠實現的方式進行構建。簡言之,可以合理地期望部署者和用戶通過實施必要的技術調整并承擔遵守義務的成本的方式來實現義務的履行。其次,許多人工智能法案的高風險義務涉及人工智能目標開發者在訓練和建模階段的責任。通常,人工智能目標開發者會預訓練一個大型模型,隨后部署者可能會與開發者合作對其進行微調5,而用戶最終決定人工智能系統的具體用途,例如用于設計的商業用途或用于生成私人邀請文本。為滿足《人工智能法案》關于訓練數據、資料的記錄保存、透明度和人為監督、性能、穩定性和網絡安全的要求,并建立全面的風險管理系統,任何責任方都需要能夠訪問開發者和部署者的數據與專業知識。這導致了一種監管困境:只關注開發者可能會帶來過度低效的內容審查義務。而專注于部署者和用戶可能會給那些因洞察力或資源有限而無法遵守義務的人帶來負擔。第三,AI價值鏈中的個體行為者可能根本不具備履行監管職責所需的全面知識和控制能力6。這也表明,最終生成式人工智能觸發虛假信息的責任可能需要產業鏈中各個層級的參與者共擔風險和責任。
四、生成式人工智能虛假信息治理的應對策略
(一)分層式治理:智能生成下的能動分工
從生成式人工智能預訓練、檢測訓練結果到生成內容的整個過程來看,生成式人工智能及時有效地排除與管控虛假信息的風險,應建立一個“涵蓋侵權行為發生前、中、后”的全方位監管機制7。根據數據層、內容層、服務層的不同特點,需為各層級的生成內容參與者設定相應的義務。
1.數據層:“數據控制者+數據處理者”的雙主體負責制
第一,人工智能模型開發者應負責確保模型訓練數據的完整性。由于人工智能在訓練和決策過程中高度依賴準確可靠的數據,任何數據的損害或篡改都可能影響人工智能系統的可信度和有效性。故而,應盡可能從源頭上避免引入偏見和有害信息,以保障輸出結果的預測能力與真實性。人工智能的模型訓練類似于人類智能訓練,但前者能夠廣泛利用各種數據。隨著訓練數據集的來源的多樣化、數據有效性與及時性的提升,人工智能模型的生成內容也將表現出更強的預測能力或者與任務目標更接近的執行結果。然而,現實世界數據的復雜性使得數據質量問題愈發明顯,而冗余數據可能會增加不必要的復雜性,從而阻礙訓練1,并導致無用甚至有害的結果2。數據控制者面對大規模法律文本和大規模數據集常常表現出“不知所措”的無力感,必要時,利用“技術”解決“技術”問題可能是“魔法”打敗“魔法”的最佳捷徑。比如,通過去中心化云存儲網絡,數據可以安全地儲存在全球各地的數據中心。再結合區塊鏈技術的能力,就能確保數據的可訪問性、一種可驗證性、可追蹤性和不可變性等特性。區塊鏈是一種分布式賬本技術,整個網絡協同工作以保證數據的完整性。這種方法縮小了與單點故障相關的風險,降低了惡意攻擊和數據篡改的可能性,提升了數字生態系統中的數據安全性和可信度。區塊鏈去中心化云存儲,具有實時更新數據、追蹤數據痕跡和保持檢查數據完整性等特點。利用區塊鏈對人工智能訓練數據進行溯源,更容易分辨視覺信息是AI合成的深度偽造內容,還是原始、未被修改的內容3。總體而言,數據的實時追蹤等數據質量控制措施顯著提高了生成式人工智能模型輸出信息的準確性與預測性能。
第二,由生成式人工智能服務提供者負責數據來源披露。雖然《暫行辦法》第19條責成提供者應當對訓練數據來源予以說明,但并未明確通過何種方式披露以及提供者拒絕披露的責任。對此,可以采用國家標準與行業標準相結合的方式,尤其當人類智能與人工智能協作生成內容時,應當以書面形式記錄并標注人類參與度,以方便事后問責。數據來源披露并不是披露所有相關數據,而是在保留商業秘密的前提下,披露文件的核心部分,有助于潛在的原告選擇合適的訴訟對象。也可以參照或者援引數據控制和網絡服務提供者在保障用戶信息安全方面的相關規定,以及對用戶使用人工智能系統時所作決策的解釋要求。歐盟《人工智能法案》亦作出類似的指引,“人工智能系統的設計、部署、開發過程中涉及數據處理時,人工智能系統提供者作為數據控制者與數據處理者的義務不應受到影響。這些義務源自國家關于保護個人數據和企業商業秘密的法律規定”4。總之,生成式人工智能服務提供者對數據來源的披露應當至少遵循一個原則,即減少立法者與公眾對大規模文本的認知成本,尤其當生成式人工智能服務提供者實際上屬于多主體合一的復雜主體時,法律的相互參照和援引將會為立法者與公眾更好地理解法律提供助益5。
第三,由數據控制者和數據處理者應負責數據資源的互通共享,這有利于修正模型應用中偏見。一方面,如果訓練數據僅來自單一來源,模型可能難以有效泛化6,這意味著模型可能在訓練池中表現良好,但在處理其他來源的數據時,表現不佳的風險相當高。來自單一來源的數據可能無法對現實世界中的完整數據分布進行采樣。例如,基于公開可用數據集訓練的胸片分類器可能存在多種種族、性別和社會經濟偏差,這些偏差反映了訓練數據中患者的分布1,從而導致可推廣性差。另一方面,需要控制數據的非正常流動。當數據的流通與數據的保護的規定不一致時,影響最大的往往不是邏輯考量,而是法律背后體現的價值取向與目的。例如,2023年,Meta愛爾蘭公司因向美國轉移數據違反歐盟數據保護法律,已經被歐盟監管機構罰款12億歐元(約91億元人民幣),這次罰款是基于《通用數據保護條例》所處的最高金額罰款2。這表明,在涉及個人隱私、企業商業秘密等數據時,自然人的人格權利和企業的財產權相較于數據權益應當具有優先保護順位。
2.內容層:“事前審查+事后處置”的雙保險審查機制
內容審查一般分為事前審查與事后處置。從經濟學角度出發,事前審查會增加審查成本并造成審查的低效;事后處置則是對虛假信息造成實際損害的救濟,本質上是侵權行為承擔責任的權利救濟方式之一。
第一,對生成式人工智能服務提供者的事前審查,表現在生成式人工智能服務提供者是否對其生成信息的真實性及其來源進行審查。這一點,可以從《民法典》第1195條到第1197條的信息網絡侵權規則中得到啟示。相比于僅提供服務而不直接提供內容的信息網絡服務提供者,生成式人工智能服務提供者根據用戶輸入內容,反饋輸出結果,因此用戶對信息的輸出結果也在一定程度上發揮作用,但并不能就此將生成式人工智能服務提供者按照內容提供者認定主體地位,否則他們將對提供虛假信息承擔直接責任。當然,由于不只是有生成式人工智能服務提供者參與AI系統的運轉,也就不能因為生成式人工智能服務提供者未采取事前審查措施,直接認定其對虛假信息的生成存在主觀過錯。此時,為了防止用戶信息不自由或其他合法權益受侵害,援引“通知—刪除”規則實現用戶救濟或監督的權利可謂明智之舉。
一般情況下,為了盡可能使生成信息有用,應鼓勵生成式人工智能服務提供者與用戶合作并向用戶提供必要的信息。尤其是當用戶需要的信息,可能涉及商業秘密或受知識產權保護的內容時3。在平衡協作與信息披露及信息保護的問題,可以從內部和外部兩個維度進行考慮。在外部,生成式人工智能服務提供者的審查義務需要配以相應的信息訪問權。在內部,即在請求方和授權方的關系中,授權方經常以所謂不可逾越的商業秘密或知識產權權利來對抗訪問權4。例如,歐盟委員會提出的責任指令中包含了詳細的證據披露規則,將受害方的賠償利益與人工智能開發者和部署者的保密利益對立起來5。關于這一問題,在美國審前發現制度領域存在大量文獻和實踐經驗6。在這一機制下,被提議的歐盟證據披露規則部分借鑒了相關經驗1,使受害方可以在提起訴訟之前尋求獲得潛在被告持有的文件和信息。反過來,這可能會導致競爭對手提出不正當的獲取請求。此外,不同階段提供者的內容審查利益訴求存在差異,導致不同階段提供者對虛假信息的接受程度并不相同。在人工智能價值鏈中,開發者、部署者和用戶不僅是業務伙伴,也可能是潛在的生成內容合作伙伴或者競爭對手。因此,部署者和用戶的訪問權限必須受到限制,以衡平信息披露與信息保護之間的利益。首先,以《最高人民法院關于民事訴訟證據的若干規定》第47條為基礎,人民法院對當事人提交的與商業秘密有關的證據不公開質證。其次,為了防止濫用,針對AIGC服務提供者的內容審查的一系列措施,可以引入美國審前發現制度和歐盟證據披露機制2。
第二,由生成式人工智能服務提供者負責及時處置違法信息。平臺利用人工智能模型生成虛假信息,按照《暫行辦法》新增的第9條的規定,生成式人工智能服務提供者的性質仍然屬于網絡信息內容服務平臺,應當根據本條承擔相應的責任,并履行網絡信息安全義務。另外,《暫行辦法》強調生成式人工智能服務提供者主體身份,旨在指導其責任承擔遵循網絡平臺的規制。生成式人工智能服務提供者應當依據《網絡信息內容生態治理規定》《網絡安全法》《互聯網信息服務管理辦法》等關于網絡信息內容服務平臺的相關規定,履行與其提供服務的內容、生成信息類型相匹配的注意義務,對人工智能模型生成的違法和不良信息及時采取必要措施,并做好記錄3。考慮到生成式人工智能的深度學習能力有限,應當對現有技術的缺陷有所容忍,謹慎認定虛假信息是否造成嚴重后果。同時,對生成式人工智能服務提供者是否及時處置虛假信息或違法信息,應當遵循主客觀相一致的歸責原則,為人工智能技術的發展預留一定空間。
3.服務層:“錯誤識別+必要措施”下的全周期風險預防
生成式人工智能開發者、部署者、服務提供者等與AIGC利益相關的群體,應當為持續保持模型性能盡最大努力。在生成式人工智能的整個生命周期中,應當保持它的可解釋性、可糾錯性、安全性并確保這些要求經過專家測試、記錄和驗證。
由此,生成式人工智能開發者至少應做出以下努力:第一,生成式人工智能開發者應當盡可能優化模型以最大限度地排除偏見。由于人工智能模型在其訓練數據過程中不斷變化,其性能評估也可能在訓練過程中發生實質性變更。故而,對人工智能生成系統的可信度評估,應當從技術研發到部署應用進行全生命周期的風險識別,并根據技術和產品發展,及時更新調整4,不斷優化模型以持續消除可控偏見。對人工智能模型的風險評估與生成式人工智能服務提供者的內容審查義務相類似,均屬于引導式治理。與強制性法律規范相比,引導式治理屬于軟法規制,不履行事前影響風險評估與承擔侵權責任之間不成立法律上的因果關系。但這也并不意味著,生成式人工智能模型的開發者、部署者完全無利可圖。與企業風險合規相比,生成式人工智能模型的事前影響風險評估更注重與法律政策的良性互動,吸收民事侵權責任的標準來識別、評估、預防和控制AI價值鏈上的參與者利用生成式人工智能模型生成、復制、傳播虛假信息的法律風險。
第二,生成式人工智能開發者、部署者應及時報告人工智能系統無法彌補的、被允許的偏差。這些偏差可能導致人工智能系統性能欠佳,因此最大限度地減少偏差對于人工智能系統的機器學習至關重要。這種偏差可能源于機器學習開發的各個階段:數據處理、模型開發和性能評估。每一個步驟都可能引入系統性或隨機性偏差,其中系統性偏差會降低機器學習系統的公平性,理想情況下應予以消除。然而機器學習研究確實存在局限性,系統可能在不同方面表現出偏差。根據具體數據和任務,這些偏差有時是可以容忍的,甚至被認為是有益的1。但是,開發者必須在機器學習開發過程中識別錯誤做法,盡可能減少這些問題,并明確報告其系統的其他限制。
(二)糾正式治理:國家保障下的用戶救濟
糾正式治理的法理基礎在于義務違反并不反映民事責任的目的,民事權益受侵害才是啟動民事責任的動因2。理論上,損害救濟最好的方式,正是霍姆斯所說的:“讓損害停留于其發生之處。”3但實際上,當侵權收益大于侵權成本時,侵權者缺乏停止侵權的動力,此時,只有賦予被侵權者奮起反抗的救濟權,或者在權利弱勢一方的權利可能受侵害之前,允許他們參與該具有創設危險可能性的活動中,發表意見或者提出建議。生成式人工智能模型的開發者、部署者處于管理虛假信息的優勢地位,但也不乏“以信息治理之名,行濫用用戶隱私之實”。對此,應借鑒避風港規則中的“通知—刪除”規則,賦予被侵害用戶救濟權,將國家或者代表公權力的機關履行公共服務職能的行為置于法的規則約束之下。社會成員的救濟權,作為人類自由的保障,原本是體現公平正義、普遍適用于所有人和未來情景的一般性正當行為規則。故而,國家或者代表公權力的機關在介入時,應僅限于保障公眾擴展自由的實現4。當生成式人工智能生成的信息侵犯個人權利時,公權力應當保障公眾控訴的權利,并為公眾提供權利救濟渠道。不同的是,相較于“通知—刪除”規則,生成式人工智能生成的具體內容在很大程度上依賴用戶參與,用戶與人工智能是通過人類語言與人工智能的語言模型產生互動關系,人工智能系統根據用戶輸入內容在現有數據庫中進行搜索,這一人機交互的過程中,用戶能夠讓人工智能跟隨自己的輸出目標做出優化,盡情完成基于“語言實現的自我揭示”5。所以,當用戶故意輸入虛假信息,很可能誤導生成式人工智能模型的深度學習。這意味著虛假信息的傳播主要與人類認知信息以及共享信息的驅動力有關。而與人類參與有關的生成式人工智能虛假信息的產生與傳播,并不完全由生成式內容服務提供者掌控,因此內容治理義務也不應當完全由部署者與開發者承擔。這實際上體現了信息生成與信息傳播主體之間的博弈。故而,也應當保證受人工智能系統影響的用戶參與設計與救濟的權利,并聽取他們的意見,以進一步完善投入使用的人工智能系統。
受生成式人工智能模型生成虛假信息影響的主體應當有權向國家監管機構投訴。具體而言,當所有生成式人工智能系統投入運營或投放市場時,受生成式人工智能模型生成虛假信息影響的主體有權就其受到的損害主張權利。無論是依據國家法律、產品責任規則還是其他方式,個人救濟的權利都應得到保障。依據《民法典》第1037條,自然人發現個人信息有錯誤的,有權向信息處理者提出異議并請求及時采取更正等必要措施。在AI系統運作過程中,信息處理者可能是上游的基礎模型提供者、中游的模型運算(或優化)的部署者或者下游的生成模型服務提供者,甚至有可能是其他利用生成式人工智能服務進行協作信息生產的個人用戶或者組織。故而,保護受高風險人工智能系統影響的個人或者組織的參與權和救濟權,實際上是保障民事主體基本權利,只是這一權利沒有單獨在法律規范中予以凸顯。但立法者可以參考《信息網絡傳播權管理條例》第14條對“通知書”應當包含內容的相關規定,類比地規定生成式人工智能服務提供者在收到包含網絡地址、侵權信息等資料的“糾正意見書”時,應當對涉及的內容予以核實,在確認涉嫌侵權的信息確屬虛假信息時,生成式人工智能服務提供者應當在合理期限內更正。
目前,《暫行辦法》第7條規定,生成式人工智能服務提供者對其使用的數據及基礎模型的合法性負責,但并未配以用戶監督信息來源合法性的權利。歐盟《人工智能法案》也只是規定,一旦系統進入市場,系統的缺陷報告應當從系統部署者或者從用戶那里得到反饋,但這一規定并未對用戶的權利予以明確,缺乏可執行性和激勵措施,導致部署者難以積極采納關于AI系統不足之處的反饋。這是因為偏見和不公平可能在特定環境下就已嵌入上游,所以這種不真實或者欠缺信息的糾偏,對通用人工智能模型與生成式人工智能模型來說同樣重要。
(三)協同式治理:內外防控下的責任互補
現有法律對生成式人工智能生成虛假信息的治理尚未形成統一規定,主要分布于有關信息網絡安全的規范中,如《民法典》《暫行辦法》《個人信息保護法》《網絡安全法》《數據安全法》,但已有的法律規范并未對生成式人工智能生成虛假信息的侵權責任予以明確。從比較法的視野來看,歐盟《人工智能法案》將模型優化的部署者是否對模型進行實質性修改,作為部署者承擔責任的條件,部署者為逃脫責任,必然對其未進行實質性修改充分自證。此時,為了使生成式人工智能得到充分監督,可以考慮開發者與部署者承擔不真正連帶責任。即生成式人工智能生成虛假信息的侵權后果,應當由AI價值鏈上最密切相關利益主體共同向第三人承擔責任,對內生成式人工智能開發者、部署者、服務提供者或者用戶之間可以互相追償,且應當由開發者或部署者等真正責任人對自己沒有過錯承擔證明責任。
第一,部署者需要證明的重點應集中在其是否盡其所能避免風險的發生,而非是否對通用人工智能模型進行了實質性修改。但將虛假信息的生產與治理串聯起來會發現,生成式人工智能背后的技術開發者、部署者等AI價值鏈上的主體之間已然形成一個巨大的利益關系網絡1。生成式人工智能提供者和部署者應共同負責,評估其是否符合基本權利并在研發和部署階段盡力阻斷生產與傳播虛假信息,而無需證明部署者已進行了實質性修改。任何人(實際上是部署者)為預期高風險目的投入服務或使用通用AI系統,都有責任證明其是否盡其所能避免風險的發生,而無需證明進行了實質性修改。
第二,外部責任。責任不應該單獨分配給部署者,而是需要上游通用AI模型提供者與中下游部署者共同承擔責任。因為控制、修改AI系統所需的基礎設施和技術資源,在很大程度上依賴于上游提供者。這一責任應該與提供者共同承擔。因此,可以在《暫行辦法》中對生成式人工智能服務提供者進行廣義解釋,將規制主體從單一的下游服務主體,擴大到參與AI價值鏈的多個協作主體。另外,由于人類智能與人工智能協作的信息生產在實踐中難以追蹤,如若AI價值鏈上的前端主體(開發者或部署者)能夠證明其對虛假信息的生成、復制、傳播等不具有過錯,且已經采取合理措施阻止虛假信息發酵時,法律對生成式人工智能模型的開發者與部署者不再僅著眼于責任承擔的懲治與威懾,更多側重于推動生成式人工智能模型開發者、部署者責任自主治理。
第三,內部責任。連帶責任保證了外部責任的履行,從而服務于受害方的賠償利益。在內部,受害者責任可以轉身向AI價值鏈中的其他人尋求賠償。例如,如果開發者通過分發模型基本上保留了人工智能模型的控制權,則內部責任由他們承擔。然而,開發者和部署者的責任應在他們對部署模型的影響結束時終止。除此之外,只有用戶是監管民事責任的主體:行動激勵只有在被激勵的人實際上能夠采取行動的情況下才有意義①。這里之所以把用戶也放在內部責任承擔的主體之列,主要基于兩方面,一方面,受歐盟《人工智能法案》影響,將“部署者”擴大解釋為“在授權之下使用人工智能系統的任何自然人或法人”,也就有可能包括部署者之外、被授權使用系統的用戶②。另一方面,依據《民法典》第1173條,用戶作為被侵權方,若對生成式人工智能生成虛假信息有過錯的,可以減輕開發者和部署者的賠償責任。綜合而言,這樣的制度將會使得生成式人工智能模型的開發者、部署者、用戶和受虛假信息影響的主體之間實現適當的利益平衡。
結語
當前,糾正虛假信息的主要執行者分為三類:用戶層面、平臺層面(包括數據層、內容層和服務層)以及政府層面。在用戶層面,用戶可以通過平臺的侵權投訴機制,及時舉報發現的虛假信息;在平臺層面像Facebok、Twitter和YouTube等社交媒體主要通過標記、及時刪除虛假信息或降低虛假信息傳播的可能性來阻止其擴散;在政府層面,各國政府已通過立法要求刪除虛假信息,并警告信息發布者不要傳播誤導公眾的內容③。盡管上述措施都有助于改善信息環境,但由于信息的復雜性和龐大規模,這些虛假信息仍然難以被人類準確識別。
當不同的參與者利用數字主權、控制系統與資源(或者信息)的權利作為信息掌控的保護傘來實現他們的利益時,這些對抗動態便會顯現。即使在部署者、開發者與使用用戶之間分配了違法內容及時處置義務、內容審查義務、監督的職責以及被侵權方的救濟權,這些虛假信息的治理責任依然會在這些主體之間互相推諉。但良好的制度設計能夠削弱虛假信息產生與蔓延的可能性,防止社會公眾持續消解對其接觸信息的信任。結果正義固然是法律追求的終極價值,但平等接觸信息的機會,是個體作為社會一分子基本的精神權利,技術的發展是為了促進這種信息自由。故,生成式人工智能生成虛假信息的治理也應立足于此立意之上。
責任編輯 楊 幸