AI的技術浪潮正在席卷全球,深刻地影響著各行各業(yè)的發(fā)展格局。在內容生產(chǎn)領域,AI技術不僅提高了內容生產(chǎn)的效率,而且拓展了內容創(chuàng)作的邊界。隨著AI的發(fā)展,傳統(tǒng)的內容生產(chǎn)模式被徹底變革,人類社會步入了AI生成內容的新紀元。然而,這一技術在為內容生產(chǎn)賦能的同時也帶來了挑戰(zhàn),即AI生成的虛假信息在互聯(lián)網(wǎng)上泛濫,引發(fā)了嚴重的虛假信息風險。
表現(xiàn)與風險
1. AI生成虛假信息的表現(xiàn)
虛假信息是指不真實、不準確或不完整的信息,因其與客觀事實相悖而對人們的認知和判斷造成誤導。生成虛假信息是AI技術用于內容生產(chǎn)時可能引起的一個重大問題,尤其是當使用者采用誤導性指令去引導大語言模型時,很有可能會生成虛假信息。按照信息的不同形態(tài),AI產(chǎn)生的虛假信息表現(xiàn)為虛假的文本內容、圖像與視頻以及音頻等形式。
一是虛假文本內容。大語言模型(LLM)通過訓練海量文本數(shù)據(jù),能夠生成自然流暢的文本內容。這些模型能夠創(chuàng)建虛假的新聞報道、社交媒體帖子和偽造的對話記錄。例如,OpenAI的ChatGPT、微軟的Bing或谷歌的Gemini等大型語言模型在大量文本上訓練了超過百萬億個參數(shù),表現(xiàn)出復雜的語言和對話能力,可以模仿人類行為。
二是虛假圖像與視頻。“深度偽造”(Deep Fake)技術能夠利用生成式對抗網(wǎng)絡(GANs)和其他深度學習技術創(chuàng)建出高度逼真的虛假圖像和視頻。這一技術可能被用于制造虛假災情影像,擾亂社會秩序,或者生成政治領導人的虛假演講視頻,制造政治丑聞。
三是虛假音頻。WaveNet、Tacotron等自動語音生成技術能夠模仿特定人物的聲音,生成自然流暢的合成語音,可以用于偽造電話錄音或語音消息,不僅可以散布虛假信息,還可能被用來進行詐騙。
2. AI生成虛假信息的風險
隨著技術應用的發(fā)展,網(wǎng)絡空間中信息內容的主要形式及來源依次從“專家生成內容”“用戶生成內容”逐漸過渡到“AI生成內容”。AI技術使得內容生產(chǎn)效率獲得了前所未有的提升,生成的內容數(shù)量也呈爆發(fā)式增長。絕大多數(shù)市場化的AI技術應用均是從文本、音頻、圖像與視頻等內容切入進而生成新的內容,簡易便用的人機交互模式使用戶只需通過簡單的操作指令便可以讓AI生成相應的內容。AI技術的這種市場化應用模式賦予了廣大用戶生產(chǎn)虛假信息的技術能力,任何人都有可能成為海量虛假信息的制造者。同時,由于AI所生成的信息越來越貼近人類的思維和表達,具有高擬真性,虛假信息的鑒別難度也越來越高。虛假信息因其存在的領域不同會產(chǎn)生不同層面的風險隱患,如侵犯個體權益、擾亂社會秩序,甚至危害國家安全。AI技術帶來的虛假信息泛濫和鑒別難度提升則誘發(fā)了更為嚴峻的虛假信息風險。
一是侵犯個人權益。個人層面,AI產(chǎn)生的虛假信息可能侵害個人的名譽權、財產(chǎn)權等合法權益。AI場景下造謠成本的降低和造謠水平的提升增大了謠言破除的難度。AI技術也為網(wǎng)絡詐騙提供了更為“便捷”的工具,例如,通過AI“換臉”與被害人進行視頻通話,在取得被害人信任后實施詐騙行為。
二是破壞社會穩(wěn)定。社會層面,AI產(chǎn)生的虛假信息因其邏輯完整、高度擬真并且數(shù)量巨大,可能對現(xiàn)有的網(wǎng)絡信息生態(tài)造成沖擊,引發(fā)社會信任損害的風險。當AI技術被濫用于制造和傳播虛假信息誤導公眾視聽時,會動搖社會的信任體系,對社會的穩(wěn)定造成了破壞。
三是威脅國家安全。國家層面,AI產(chǎn)生的虛假信息也給國防安全和政治穩(wěn)定造成隱患。由于AI尚缺乏技術穩(wěn)定性,不法分子可能對此進行操縱,通過有計劃地發(fā)帖和回帖,大規(guī)模生產(chǎn)和傳播煽動國家分裂、影響國家政權的虛假信息。AI被用于政治領域的案例已不少見,例如,在美國大選期間,AI生成的候選人演講或談話的視頻被大肆傳播,甚至還有“拜登語音電話”勸阻選民投票的事件發(fā)生。更深層的方面,AI能夠探測民眾的信息接受內容,從而針對民眾的信息接受偏好來設定誤導和誘導,以這種更為隱蔽的方式操控民意,危害國家安全。
產(chǎn)生原因
在因AI產(chǎn)生虛假信息而引起的各類風險情形中,既有AI自發(fā)產(chǎn)生的虛假錯誤信息,也有因使用者有意訓練或指示而被動輸出的虛假內容,但歸根結底都與AI的技術原理密不可分。
1. 預訓練數(shù)據(jù)質量參差不齊
AI模型的運行以海量的預訓練數(shù)據(jù)為基礎,經(jīng)過對大量數(shù)據(jù)樣本的學習、融合、解構和消化,最終生成新的內容。過于龐大的數(shù)據(jù)需求量使得AI的開發(fā)者也無法保證訓練數(shù)據(jù)的質量。以OpenAI為例,官方文件顯示,ChatGPT的預訓練數(shù)據(jù)主要來自互聯(lián)網(wǎng),包括Common Crawl數(shù)據(jù)庫、網(wǎng)頁文本、書籍、維基百科等,而其中難免混雜著虛假、錯誤或帶有歧視性的低質量信息,盡管OpenAI對外宣稱會通過技術手段對訓練模型的數(shù)據(jù)內容進行過濾,但仍舊無法徹底排除訓練數(shù)據(jù)中的錯誤、虛假、歧視性、違法違規(guī)等內容。預訓練數(shù)據(jù)的非真實性造成AI輸出內容的虛假性,而這些輸出的虛假內容可能會再次被作為訓練數(shù)據(jù),進而形成一種虛假信息鏈條,加劇信息污染。因此,建立在真假參半數(shù)據(jù)上的AI很難避免產(chǎn)生虛假信息。
2. 大模型的幻覺問題
大模型的幻覺問題(Hallucination)是指AI大模型在生成文本時,有可能會輸出一些與輸入內容無關的,或是看似合理但實際上不準確或毫無價值的內容。幻覺問題廣泛存在于AI的自然語言生成任務中,如文本摘要生成、對話生成和機器翻譯等等。OpenAI也承認ChatGPT同樣具有幻覺問題,由此導致的虛假信息風險已經(jīng)在現(xiàn)實中出現(xiàn),例如,2023年美國律師施瓦茨在提交的法庭文件中就引用了ChatGPT編造的案例。AI具有顯著的混淆是非的能力,事實中的部分內容被錯誤但相似的內容替代時使用者往往很難察覺,尤其是當AI在使用者熟悉的領域不斷提供信息時,隨著對模型信任度的增加,使用者逐漸對內容幻覺缺乏警惕,大模型的幻覺問題可能會變得更加嚴重。因大模型幻覺而產(chǎn)生虛假信息是由于AI技術的局限性造成的,這一問題在當下只能通過技術手段盡量緩解,但無法徹底避免。
3. 基于人類反饋的強化學習模式易于操縱
基于人類反饋的強化學習是一種結合強化學習和人類偏好的方法,用于訓練符合人類期望的模型,也是GenAI模型的重要特點。這種學習模式傾向于增強AI對人類意圖的理解和滿足,它會將機器最初輸出的內容根據(jù)人類的偏好調整完善后再次反饋給機器,并且循環(huán)往復,最終形成符合人類期望的輸出結果。由于AI應用大多采用簡潔明了的人機交互模式,通過簡單的文字、語音和數(shù)據(jù)就可以完成用戶指令,因此極大地降低了用戶訓練AI模型的技術門檻和條件,也為不法分子炮制虛假信息提供了充足的操作便利。
法律規(guī)制
1. AI生成虛假信息的法律規(guī)制現(xiàn)狀
我國已有多部法律、行政法規(guī)以及部門規(guī)章對虛假信息的規(guī)制作出了規(guī)定。《民法典》《刑法》《治安管理處罰法》中分別為制造、傳播虛假和誹謗性信息的行為規(guī)定了相應的民事責任、刑事責任以及行政責任。《網(wǎng)絡安全法》第12條對“編造、傳播虛假信息擾亂經(jīng)濟秩序和社會秩序,以及侵害他人名譽、隱私、知識產(chǎn)權和其他合法權益”的行為作出禁止性規(guī)定。《數(shù)據(jù)安全法》明確了數(shù)據(jù)處理者的責任義務,有助于防止數(shù)據(jù)被篡改而用于生成虛假信息。《個人信息保護法》禁止將個人信息用于違法活動,能夠防止個人信息被用于制造虛假信息而對個人權益造成損害。《互聯(lián)網(wǎng)信息服務管理辦法》《網(wǎng)絡信息內容生態(tài)治理規(guī)定》等規(guī)范性文件也對規(guī)制網(wǎng)絡虛假信息提出了具體的要求。
AI產(chǎn)生虛假信息既可能歸咎于服務提供者,又可能歸咎于使用者,還可能由AI技術本身固有的缺陷造成,甚至是以上多種原因的疊加。因此,不同于傳統(tǒng)的網(wǎng)絡虛假信息規(guī)制方式,若是僅針對信息內容生產(chǎn)者,則難以對AI產(chǎn)生的虛假信息形成有效規(guī)制。為了應對AI生成虛假信息所牽涉的多元主體以及不同環(huán)節(jié),《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(以下簡稱《深度合成管理規(guī)定》)《生成式人工智能服務管理暫行辦法》(以下簡稱《服務管理暫行辦法》)明確了責任主體并從相關主體防止虛假信息生成的義務以及對AI生成內容進行標識的義務等方面更新了虛假信息治理的法律規(guī)則。尚在制定過程中的《人工智能生成合成內容標識辦法》則是從技術標準的方面明確AI生成合成內容的標識要求,包括顯式標識和隱式標識的添加方式和位置等,這些規(guī)定將有利于提高AI生成內容的辨識度,從而降低誤信和傳播AI產(chǎn)生的虛假信息的風險。
2. AI生成虛假信息法律規(guī)制的優(yōu)化路徑
一是完善AI生成虛假信息法律規(guī)制的規(guī)范體系。當前我國規(guī)制虛假信息的法律規(guī)范散見于多部文件當中,尚未形成完備的規(guī)范體系,不同規(guī)范之間也存在著沖突與矛盾。例如,《深度合成管理規(guī)定》和《服務管理暫行辦法》雖然都對相關責任主體進行了明確但是二者的規(guī)定并不統(tǒng)一。《深度合成管理規(guī)定》將相關責任主體區(qū)分為深度合成服務提供者、技術支持者以及使用者這三類;《服務管理暫行辦法》則主要區(qū)分了生成式AI服務提供者和使用者這兩類責任主體,缺少對用戶責任的規(guī)定。因此,有必要對當前的規(guī)范體系進行完善,一方面對現(xiàn)有規(guī)范中有關虛假信息的規(guī)定進行整合,統(tǒng)一治理原則,明確責任主體與責任內容,消除現(xiàn)有規(guī)范當中的矛盾之處;另一方面,還可以發(fā)揮軟法在靈活性與適應性方面的特點,出臺與虛假信息治理相關的行業(yè)自律準則,以克服技術快速迭代下法律硬性規(guī)定的滯后。
二是明確AI生成虛假信息致害的責任承擔。盡管現(xiàn)有規(guī)范已經(jīng)對AI產(chǎn)生虛假信息時的責任主體問題作出了回應,但在AI產(chǎn)生的虛假信息侵害他人合法權益時,對于如何進行責任和損害的分配等問題尚未有具體的解決方案。AI系統(tǒng)從開發(fā)到投入使用的全過程構成了一條AI價值鏈,具備不同能力和資源的各類參與者在這條AI價值鏈中因為技術、法律或者政治等多種原因而相互依賴、相互連結。應當根據(jù)這些參與者在價值鏈中的定位以及其所能獲得的收益等因素,進行合理的責任分配,確保責任的有效承擔和AI價值鏈的公平運轉。
三是推動AI生成虛假信息的多元協(xié)同治理。網(wǎng)絡虛假信息的治理主體由政府、平臺與用戶等多方主體構成。由于傳統(tǒng)的治理模式已不能適應AI技術的發(fā)展和治理環(huán)境的變化,需要建立由政府進行統(tǒng)籌、以平臺為主導、多元利益主體共同參與的協(xié)同治理模式。政府層面,應當加強內部各部門之間的聯(lián)動與協(xié)作,以各級網(wǎng)信辦為核心,其他部門有機配合;平臺層面,發(fā)揮平臺企業(yè)對AI技術的專業(yè)性以及敏銳及時的風險監(jiān)測和解決能力,實現(xiàn)平臺的技術自治與政府的法治監(jiān)管有機融合;多元治理層面,建立虛假信息協(xié)同治理的協(xié)調機制,以實現(xiàn)不同治理主體之間的信息互通、良性互動和有效協(xié)同。
“這是最好的時代,也是最壞的時代”。AI技術為人類社會發(fā)展帶來美好愿景的同時,也引發(fā)了包括虛假信息風險在內的一系列問題。多樣的風險表現(xiàn)、復雜的風險成因,使虛假信息的法律規(guī)制面臨新的困難和挑戰(zhàn)。我國已在多個方面采取了積極的應對措施,但仍需在規(guī)范體系、責任承擔和協(xié)同治理等方面繼續(xù)優(yōu)化。只有持續(xù)關注技術的發(fā)展進程,深入探尋問題的本質,才能使法律規(guī)制與技術變革相適應,推動人類福祉與技術創(chuàng)新的平衡發(fā)展。