999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

“AI污染”及其澄明之治

2025-11-09 00:00:00陳建平康同莉
中共天津市委黨校學報 2025年5期

中圖分類號:G206 文獻標識碼:A 文章編號:1008-410X(2025)05-0085-11

一、議題開顯:“AI污染”命題的提出及其意義

以 ChatGPT、Sora、Midjourney 和 DALL-E等為代表的生成式人工智能(Generative ArtificialIntelligence,以下簡稱GAI)是近 40 年來最偉大的技術變革[1],其迅速發展帶來了人工智能生成內容(Artificial Intelligence Generated Content,以下簡稱 AIGC)的指數級增長,這不僅加劇了人們所面對的信息壓力,還帶來了信息冗余、信息噪聲與信息安全等負面效應,從而使社會信息治理遭遇前所未有的挑戰。隨著GAI的流暢性和可負擔性不斷提升,它被廣泛用于低成本、大規模的信息生產,因具備高度擬真性與說服力,導致大量不實信息在網上肆意傳播,信息空間正經歷深刻的結構性變革,通過破壞公眾信任、操縱公眾輿論對社會構成重大威脅。辛頓就警示,若沒有及時準備好相關法規和有效控制手段,人類在未來將對 AI徹底失去控制[2]。大量由GAI產生的粗制濫造、真假難辨的信息垃圾,便是這種失控風險在現實空間中的直接表現,造成了“AI污染”。與既往信息污染不同,“AI污染\"的核心在于其“生成性”,即污染并非簡單搬運,而是由AI模型主動合成,規模、擬真度與演化能力均產生了質變,構成了前所未有的治理挑戰。

在當前“AI熱\"的背景下,“AI污染”一詞首次由新華社在2024年提出,用以描述由GAI導致的廣泛存在于新聞傳播、文學創作、公共社交媒體、學術研究領域的信息污染現象,引起了社會各界的高度關注[3],也引起了學界對“AI熱\"的冷思考。盡管“AI污染\"在定義與邊界上尚未形成統一共識,但其指向的事實——AI生成機制對信息真實性、輿論穩定性及認知秩序的深度影響已逐步成為跨學科研究的重要議題,正在倒逼治理體系加快適應性轉型。目前,多數研究集中于AIGC在內容層面引發的虛假信息傳播[4]、深度偽造合成[5]、知識產權歸屬[6]、意識形態危機[7]等風險的生成和治理研究。有學者指出,AIGC具有內容生成的“強交互性\"\"繼承性\"\"生長性\"[8],這些特征使生成內容具有邏輯完整性、表達自然性和形式可信性,憑借這些特性,生成內容得以廣泛傳播,傳播過程具有去媒體化、唯用戶化、暗網化、漏斗輸入輸出等特征[9][10],使污染生成與傳播同步完成,治理難度顯著提升。

面對由“AI污染\"衍生而來的涉及信息生態、認知秩序與社會信任等系統性難題,治理“AI污染”的關鍵不能僅限于簡單的技術修補或平臺規范,而在于能否建立一種動態響應、跨域協同、價值導向的綜合治理機制。特別是在認知污染日益加劇、信息信任危機持續擴散的背景下,公共管理體系必須以更加敏銳的制度反應能力與文化適應能力,實現從工具理性向價值理性的深層轉型。基于此,本文嘗試在厘清“AI污染\"作為一種“生成性污染\"的獨特內涵、辨析其典型類型與生成邏輯的基礎上,提出以“源頭治理—過程治理—動態治理\"為縱向主線、以“技術敏捷—組織敏捷—價值敏捷”為橫向支撐的“三維路徑—三階理念\"治理框架,旨在為GAI的健康發展提供制度設計思路,為數智時代公共管理體系的適應性轉型與社會信任重建提供理論參考與實踐啟示。

二、何謂“AI污染”:內涵釋義與類型特征

在GAI的快速迭代中,信息污染呈現新的表現與演化邏輯。傳統的信息污染主要聚焦于媒介生態的失序。然而,AI驅動下的信息污染現象已突破傳統范疇,特征在于生成環節的技術偏差、傳播環節的快速擴散及接受環節的認知累積相互作用,使污染更具系統性和復合性。由此,“AI污染”成為區別于傳統形態的獨立研究對象,厘清其概念,是明確研究邊界與回應現實風險的前提;進一步對其類型加以劃分,則有助于揭示污染生成與擴散的具體邏輯,并為治理路徑的尋繹提供基礎支撐。

(一)理論溯源與內涵界定

“AI污染”是GAI發展過程中出現的一種新型信息污染,其學術譜系產生于信息生態學范疇。1989 年,拉斐爾·卡普羅首次提出“信息污染\"概念[11],此后學界從信息內容、信息傳播與流動、信息加工與處理、信息素養、信息社會及信息生態等角度展開界定[12],普遍認為信息污染是伴隨網絡發展帶來的負面效應,本質為信息生態系統的失衡。有學者從傳播學視角出發對信息污染的界定被廣泛認可,即媒介信息中混人或過量傳播有毒性、有害性、欺騙性、誤導性信息元素,進而危害媒介生態、信息資源、個體身心健康[13](P177),強調了污染主體、污染客體和生態后果三個核心維度。

在AIGC深度參與信息生產與傳播的背景下,當前信息污染呈現新的特征:一是內容生產主體由原本的專業技術人員向用戶自身逐步轉變;二是生成規模與速度遠超人工審查能力;三是真偽邊界模糊,深度偽造與上下文感知寫作加劇真實性危機;四是模型、平臺與用戶形成循環放大機制,污染信息呈量級疊加。在信息嬗變與內容泛化的共同作用下,“AI污染\"已超越傳統信息污染的范疇。“AI污染\"的場域形態也可劃分為自然環境污染、社會環境污染與信息環境污染三種形態,而其中信息環境污染因深及人類認知與社會信任,被視為最具風險的核心問題。然而,傳統信息污染的解釋框架已難以解釋由AI生成機制帶來的真實性危機與信任危機,亟須建立一個能夠反映新一代信息污染特征的概念體系。

本文將“AI污染\"界定為:在生成式人工智能廣泛參與信息生成、處理與傳播的過程中,由污染主體(AI系統及其不當使用者)依托生成機制持續合成并擴散污染客體(虛假、冗余或偽造的多模態內容等),進而引發生態后果(信息生態失衡、社會秩序紊亂與人類認知侵蝕)的一種新型信息污染。“AI污染\"的獨特性在于具備主動生成、自我迭代與遞歸放大的特征。由此可見,“AI污染\"不僅是信息生態學意義上的典型負外部性,更是數智時代公共治理必須直面的生成性風險。

(二)形態譜系與特征辨析

隨著GAI技術的快速演進,“AI污染\"在現實社會中的表現形式呈現多樣態,AIGC也已廣泛滲透到新聞傳播、學術研究、娛樂媒體和公共輿論等多維領域。因此,“AI污染\"已超越了單一的技術濫用,成為貫穿于信息生成、處理與傳播全過程的系統性風險。為揭示“AI污染”的內在邏輯與危害機理,依據“源頭—過程—結果\"的邏輯,將“AI污染\"劃分為五種典型形態,即知識污染、算法污染、“噪聲\"污染、偽造污染和認知污染,并從邊界維度、技術機制、擴散機制、主要表現和社會影響五個重要方面進行系統分析(見表1)。

表1“AI污染\"的類型特征及影響

1.知識污染。知識污染表現為AIGC中夾雜著偽知識、歷史錯誤、虛假敘述等非事實性信息。這類污染源于數據投毒、語料篩選不嚴、知識拼接錯亂,尤其在語義問答、百科生成、教育應用中表現突出。知識污染的邊界維度在于對“真實性\"的破壞,主要表現為兩類:一是虛假知識(如錯誤的醫學、歷史知識,帶有意識形態和價值觀偏見的論斷);二是知識結構的扭曲(如推理鏈條斷裂或知識圖譜中的邏輯混亂)。此類污染信息一旦被模型吸收并融入訓練循環,便會加速擴散,引發真實性危機,模糊知識邊界,誤導科研方向和公眾認知,削弱知識體系的可驗證性與可靠性。

2.算法污染。算法污染主要源于模型訓練數據不完善、算法設計缺陷及模型黑箱機制,導致AI系統在輸出內容時存在偏差與客觀錯誤。這類污染并非內容本身的問題,而是生成邏輯與模型機制的缺陷。算法污染的邊界維度在于“技術理性偏差”,具有高度的隱蔽性和擴散性,主要表現為算法偏見、隱私泄漏、歧視性決策與結果誤導。這類污染通過模型迭代與反饋學習的累積效應實現擴散,使微小偏差不斷被放大,容易放大社會不公、侵犯隱私并削弱公眾對治理體系與AI技術的信任。

3.“噪聲\"污染。“噪聲\"污染源自GAI的規模化輸出能力,大語言模型與循環神經網絡等自動生成工具能夠在極短時間內生成海量低質量、重復、碎片化甚至無意義的文本、圖片乃至多模態信息。這類信息雖然未必虛假,但因冗余和無效而稀釋了公共信息資源,形成信息“噪聲”。由于“信息冗余失序”,通過社交媒體、搜索引擎和自動化賬號實現規模化分發,導致優質信息被淹沒,公共輿論空間質量不斷下降。這類污染的社會影響在于削弱信息篩選效率,降低政策制定與社會決策的科學性,并

加重信息過載下的治理負擔。

4.偽造污染。偽造污染以深度偽造為核心。深度偽造是實現人臉互換的特殊應用,可以把“原始人臉\"換成\"目標人臉\"[14],依靠生成對抗網絡等技術制造高度擬真的圖像、音頻與視頻,被用于虛擬身份冒用、名人仿聲詐騙、合成新聞制造等情境,逐漸演化為信息操控和輿論操縱的新型工具。它的邊界維度在于“擬真性操控”,通過平臺推薦與跨媒體傳播而迅速擴散,主要表現為擬真圖像、仿聲音頻與虛假視頻,能夠有效突破用戶直覺的甄別能力。若放任偽造污染,便會導致侵犯個人聲譽與隱私、操縱公共輿論、威脅政務輿情與社會信任系統等不良后果。

5.認知污染。認知污染是“AI污染”中最為深層和隱蔽的形態,源于多種污染形態和傳播方式的共同作用,加上“認知結構侵蝕\"的條件觸發,不僅表現為個體與群體在信息接受過程中逐漸被虛假與誤導性內容淹沒,導致事實判斷能力減弱,還進一步導致大腦認知功能的潛在退化。有實驗研究發現,頻繁依賴ChatGPT進行寫作的用戶,在神經活動、語言處理和行為反應方面明顯弱于自主創作者,呈現思維惰性與原創意識退化的風險[15]。這表明,AI工具在提升效率的同時,可能逐步替代人類的自主認知過程。技術上,平臺推薦算法持續推送同質化內容,制造“信息繭房\"與“回聲效應”;心理機制上,個體傾向于接受符合既有立場的信息,從而固化偏見。認知污染的社會影響在于不僅危及個體判斷,更會在社會層面削弱公共理性,導致認知極化,侵蝕社會信任。

三、“AI污染”的發生機理:技術脆弱、社會觸發與耦合擴散的三重邏輯

數據、算法和算力是GAI快速發展的主要動力,生成式人工智能系統所呈現的\"外在\"智能,本質上建立在\"內在\"算法架構與模型運行機制之上[16]。內容輸出路徑遵循“數據收集—數據處理—模型訓練—算法微調—內容輸出—反饋優化\"的基本邏輯[8],其中每一個環節都可能成為“AI污染\"的“人侵點”。“AI污染\"并非人工智能技術發展演進過程中的偶發現象,而是GAI在技術運行與社會應用過程中的結構性副產品,其生成邏輯既體現為技術系統的自生脆弱性,也受到外部制度與傳播環境的推動,同時還體現在二者之間的交互作用與循環放大。從整體來看,“AI污染\"的形成應被理解為一個多維度、動態化的過程:在內部,數據缺陷、模型黑箱和多模態合成技術的復雜性使污染具有技術上的必然性;在外部,制度滯后、傳播失調與用戶行為共同推動污染的擴散與放大;在內外部交互中,技術與制度的失配、平臺與用戶的互動黏性、模型與惡意輸入的嵌套又進一步加劇了污染的系統性演化。

(一)內生性邏輯:技術系統的自生脆弱性

“AI污染\"的生成與擴散具有典型的內生性邏輯,根源在于技術系統本身的脆弱性。從數據采集到模型運行,再到多模態合成,都可能成為風險觸發點。“AI污染\"集中體現于訓練數據的缺陷、模型結構的黑箱機制及多模態合成技術的復雜性,這三方面共同構成了污染生成的技術基礎。

第一,訓練數據的缺陷是“AI污染\"生成的基礎。模型輸出內容的真實性、中立性及價值取向高度依賴訓練語料的數量和質量,但現有的AI模型中存在三個方面的問題。一是大部分訓練語料庫來自開放網絡,初始語料良莠不齊、魚龍混雜。以OpenAI推出的GPT系列為例,典型的訓練數據主要是從互聯網、公共領域的書籍和研究論文中提取的文本,以及研究人員可以找到的其他各種免費信息來源[17]。由于開放語料采集缺乏嚴格篩選,極易混入錯誤事實、虛構敘事、意識形態偏見乃至惡意攻擊內容,AI可能從看到的數據中學到偏見、錯誤和假象,在迭代中不斷放大。二是語種與文化結構失衡。目前,絕大多數主流AIGC系統的訓練語料以英語為絕對主導,而其他語言,尤其是中文、小語種內容則嚴重不足[18]。這一失衡不僅使模型對非英語文化語境中的知識掌握能力明顯不足,也在跨文化知識生成時出現誤讀和價值偏差,從而輸出帶有西方中心主義、文化誤讀甚至價值歧視的污染內容。三是數據投毒與惡意輸入虛假樣本。數據投毒指某些行為體通過大規模生產并投放虛假或誘導性內容到網絡空間,進而污染模型的訓練數據。有研究指出,即便訓練數據中僅含有極小比例的虛假信息,也可能對模型輸出結果產生成倍放大的污染效應[19]。在數據標注環節,標注人員缺乏統一的知識背景和判斷標準[20],其專業性不足和主觀偏見可能將價值傾向嵌入模型結構,進而引發系統性偏差[21]。此外,代碼工程師和訓練工程師在模型設計與實現過程中,他們的個體認知及習慣偏好同樣可能成為虛假信息和系統性偏見的隱性來源[22」。

第二,模型結構的“黑箱效應\"加劇了“AI污染”的不可控性。所謂“黑箱效應”,是指人工智能模型尤其是深度學習模型,其內部的決策過程對用戶和開發者來說往往是不透明且不可解釋的[23]。這使污染信息不僅難以預測、難以檢測,更難以追責。一是大語言模型的生成邏輯本質上是基于語言統計規律的概率續寫機制,即模型輸出內容并非源于事實邏輯推理,而是基于語料統計學習的知識重組[24],因而極易生成\"貌似合理\"卻實則虛構的幻覺內容。二是模型輸出結果具有偶然性與不可預測性,即使面對完全相同的問題輸入,生成的結果也可能呈現不同的結構和內容,甚至出現事實不一致或自相矛盾的情況[25][26]。這源于生成機制本身帶有誤導性的“自信反應”,在醫學、金融、教育等領域的風險尤為突出[24]。三是在“基于人類反饋的強化學習\"機制中,雖然可以通過優化和升級,使模型在目標任務上輸出更符合人類偏好的結果[27],但由于內部調整過程同樣不透明,且用戶在與模型互動過程中輸入偏見性、錯誤性或歧視性的內容時也極易被模型吸收并反哺,進一步加劇污染在黑箱結構中的累積與放大。

第三,多模態合成技術增強了“AI污染\"的欺騙性和復雜性。深度偽造技術主要依賴生成式對抗網絡或變分自編碼器架構,基本原理是先提取“目標人臉\"的特征向量,再通過生成網絡和鑒別網絡之間的對抗訓練機制不斷優化生成模型。生成網絡不斷調整參數,以生成更逼真的圖像;而鑒別網絡則要對圖像真偽進行識別。當鑒別網絡無法有效識別圖像真偽,即實現了“原始人臉”向“目標人臉”的高精度替換,從而完成面部身份的偽裝與遷移[28]。這一技術不僅能操控靜態圖像,還可生成高度逼真的音頻與視頻,使虛假內容在感官層面很難與真實信息區分。隨著大模型多模態協同生成能力的提升,人工智能可以在文本、圖像、語音和視頻間形成“自我佐證\"的虛假證據鏈。這種多模態合成的證據體系在形式上相互印證,極大地降低了公眾的懷疑門檻,顯著提高了虛假信息的可信度與傳播力,從而加劇了“AI污染\"的社會危害。

(二)外生性邏輯:污染生成的社會觸發機制

“AI污染”的生成與擴散還與外部制度、傳播結構和人類行為的失調密切相關,即外生性邏輯,體現為一種社會建構的協同失范現象。這些社會觸發機制共同構成污染信息從生成到擴散的外在推動力,具體表現為制度疲軟、傳播失調與行為偏差三個方面。

第一,制度反應的滯后使“AI污染\"在初期缺乏有效約束。GAI的迭代速度遠超制度更新的節奏,現有法律體系與治理機制在面對GAI的快速應用時表現出明顯的不適應性和滯后性。這一問題主要體現在三個層面。一是法律規范更新緩慢。當前,法律法規在界定責任邊界、治理對象與適用范圍上存在模糊地帶,特別是針對AI生成內容的法律屬性與法律責任,尚未形成明確標準,導致治理者在應對污染風險時缺乏清晰的法規依據。二是監管體系割裂。“AI污染\"的跨模態、跨平臺屬性超越了現有的分工化監管體系的能力邊界。現實中,文本內容由網信部門監管,影視內容歸屬廣電體系,而音頻內容則由平臺自審。在缺乏統一規則與標準的前提下,AI生成的跨模態污染內容往往在模態間游移穿梭。三是制度供給存在滯后。在GAI應用快速進人社會各領域的背景下,制度設計多停留在事后應對層面,缺乏前瞻性的制度預設與治理儲備。一旦污染風險爆發,往往只能依賴應急處置,導致治理的被動性與碎片化,也為污染在生成初期的無序擴散提供了“真空區”。

第二,傳播秩序的失調推動\"AI污染\"在社會空間中的快速放大。GAI的廣泛應用并未帶來傳播秩序的同步升級,互聯網空間作為典型的扁平化分布式社會,為GAI的數據依賴和算法依賴極化提供了土壤,是傳播和擴散\"AI污染\"的重要社會基礎[1]。一是平臺主導的信息傳播體系打破了傳統的信息把關機制。GAI降低了內容創作與信息傳播的成本,依托社交媒體平臺,個人用戶能夠快速生成并傳播文本、圖片、短視頻等多模態內容,通過互聯網平臺分享生活、抒發情緒、表達觀點,推動社會信息民主化和多元化的同時,也為污染內容在審核不嚴的條件下實現快速生成與即時傳播創造了條件。二是平臺算法的推薦邏輯進一步放大了污染內容的傳播力。社交媒體平臺具備強大的社交屬性和傳播力,在以點擊率、停留時間、轉發頻次為主要優化目標的推薦體系中,煽動性、情緒化或極端化的表達內容、敏感信息或價值觀錯誤的內容在算法的加持下經由社交媒體的快速通道實現爆炸式擴散,能夠迅速引發話題討論和輿論關注。三是GAI的多模態生成能力加劇了污染信息的復雜性與隱蔽性。通過語言生成、圖像合成、語音模擬與視頻仿造等手段,GAI能夠構建形式自然、內容連貫、邏輯一致的虛假信息系統,使用戶難以憑直覺分辨信息真偽,進而在文本、音頻、視頻等不同渠道完成再組合與再傳播,從而陷入一種立體化、沉浸式的認知迷霧環境。

第三,行為主體的偏差構成“AI污染\"擴散的直接動能。GAI的演進顯著降低了內容生成門檻,使文字、圖像、音頻、視頻等多模態信息均可被高效合成與修改[29],這不僅為\"AI污染\"的規模化、自動化和跨模態擴散提供了技術條件,也釋放了潛在的濫用風險。無論是“無意傳播\"的普通用戶,還是“有意操縱”的惡意行為者,均可能成為推動污染信息擴散的關鍵行為主體。在普通用戶層面,信息判斷力與媒介素養的相對滯后,使他們在無意識中參與到污染信息的復制與擴散過程中。由于生成內容往往具備語言權威性、圖像真實感與敘述邏輯完整性,用戶在面對以自然語義表達和多模態疊加呈現的信息時,極易產生認知錯覺,甚至誤判為真實內容。此類內容常通過社交媒體群組、朋友圈、自媒體平臺被快速分享與二次編輯,形成用戶主導的再傳播機制。在惡意行為者層面,污染內容的生產則表現出高度組織性與策略性。GAI的低門檻與高效率使內容生成擺脫了傳統依賴專業編輯的限制,具備一定目的性的惡意行為者或組織能夠繞開傳統信息制作的專業性要求,直接生成形式自然、內容具有迷惑性的信息內容。這種能力釋放導致污染行為進人低成本、高效率、可擴展的新階段,影響已遠超以往依賴專業編輯的傳播方式。因此,行為偏差層面構成了“AI污染\"生成邏輯中最具擴散動能的一環。污染行為不再依賴高門檻的技術資源或專業能力,而是與行為主體的動機、認知結構及傳播觸發點密切相關。在內容生成的準入門檻和對社會信息的信任門檻雙雙下降的背景下,每一個具備聯網能力的個體都可能成為污染系統中的潛在節點。

(三)內外耦合邏輯:多源驅動的污染交互放大

“AI污染\"的生成并非單純源自技術系統的脆弱性,也不僅僅是治理缺位的結果,而是更深層次地體現為技術系統與社會制度的交互失衡。模型、平臺、用戶與制度之間的動態聯動,構成污染內容自我放大和循環擴散的機制。

第一,技術系統與制度體系的失配奠定了“AI污染\"生成的根源性基礎。當前的GAI模型普遍采用難以追蹤的高維參數結構,由于訓練語料不透明、輸出機制不可解釋,使治理者缺乏對模型內部運行邏輯的有效介入渠道。而現行法律法規對AIGC的約束力有限,難以在污染內容的產生初期實現有效識別、精準追責并及時治理。在具體實踐中,多數模型在設計階段并未內置強制性的內容水印、溯源標簽或異常檢測機制,這導致一旦生成內容脫離模型本體進入公共傳播后便難以回溯,而平臺在治理實踐中大多依賴事后刪除、人工舉報等方式。這種技術與制度的雙重盲區,使“AI污染\"呈現\"可生成、難追責、無監管\"的狀態,呈現被動的消極治理局面。

第二,平臺推薦與用戶行為的循環互動加速了“AI污染\"的擴散進程。污染內容的規模化擴散往往始于平臺推薦機制與用戶行為之間的協同效應。多數社交媒體平臺依賴算法優化用戶黏性,將高互動性、高爭議性的信息內容設為優先推送對象。GAI所產出的內容恰恰具有結構完整、情緒濃烈、話題聚焦等特點,極易被算法識別為“高價值信息”,從而迅速形成熱點傳播。與此同時,普通用戶由于媒介素養和信息甄別能力的欠缺,往往無法識別內容的生成屬性,在情感驅動和從眾心理影響下,主動參與內容轉發與評論。算法系統根據用戶互動行為進一步判斷內容熱度,從而不斷擴大傳播范圍,形成由用戶行為觸發、平臺算法強化的雙輪驅動鏈條。在此過程中,即便最初的污染源已被刪除或澄清,基于共鳴與互動所積聚的傳播勢能仍會推動內容以新的形式持續演化與擴張。

第三,模型生成邏輯與惡意輸入的協同嵌套強化了“AI污染\"的放大效應。GAI模型普遍采用基于用戶意圖預測的訓練邏輯,在不斷優化人機交互體驗的過程中,也埋下了生成“AI污染”的制度性風險。若用戶輸入的提示詞包含誤導或惡意意圖,模型可能在沒有足夠過濾能力的情況下生成帶有誘導性、煽動性或歧視性的內容。一些持有目的性的用戶可通過持續嘗試與策略性編輯,實現對模型輸出內容的精細操控,從而繞過平臺治理。更關鍵的是,模型通過反饋學習,能夠在與用戶大量互動中調整生成偏好。在缺乏正向價值規導與內容篩選規范的前提下,模型極易吸收部分用戶的極端偏好,使污染內容在數據層面獲得更多權重,并進入下一輪生成循環。模型由此便可能從被動的污染制造者演化為主動的污染放大者。

四、“AI污染”的澄明治道:技術、組織與價值復合式敏捷治理路徑

“AI污染\"的生成與擴散是技術脆弱性、制度滯后、平臺邏輯與社會心理多重因素交互作用的結果,其風險表現已從個別內容層面的虛假與失真,逐步演化為系統性的信息失序和群體性認知偏誤。治理\"AI污染\"的難點不在于污染信息量的絕對增加,而在于污染機制所具備的自我擴散、自我遮蔽與自我更新能力。面對這一態勢,傳統依賴事前許可或事后取締的線性治理范式已難以奏效。GAI的快速迭代與動態演化,亟須一種具有快速感知、靈活響應和持續適應特征的治理模式。在此背景下,敏捷治理作為一種面向不確定環境的動態治理理念,強調迭代試錯、跨界協同與多元參與,能夠為治理\"AI污染\"提供理論支撐與實踐路徑。為此,本文構建了“三維路徑—三階理念\"融合的敏捷治理模型(見圖1):在縱向上,分為源頭治理、過程治理和動態治理三個層次,分別針對污染生成前端(知識污染與算法污染)、中端(“噪聲污染\"與偽造污染)和后端(認知污染)的風險環節進行響應;在橫向上,分別嵌入技術敏捷、組織敏捷與價值敏捷三類要素,構建前端以科學技術遏制為核心、中端以有效組織協作為支撐、后端以正向價值嵌入為導引的整體治理體系。

(一)源頭治理:以技術敏捷遏制污染生成的原點風險

“AI污染”的內生性風險主要集中在前端環節,表現為知識污染與算法污染兩類核心問題。源頭治理的目標在于通過技術敏捷手段,對人機交互過程中的三個關鍵環節——輸入端、運算端與輸出端實施前置性干預,并在此基礎上嵌入“技術維度\"的多點響應機制,以實現對知識污染和算法污染的遏制,提升治理系統的前瞻性和感知能力。

第一,在輸人端,強化語料治理以防范知識污染,確保訓練語料的真實性與規范性。輸入端是知識污染的最初環節,語料的質量直接決定模型輸出內容的質量。知識污染的根源在于數據投毒與不可靠語料的混入。治理的重點在于提升訓練語料的真實性與規范性。一是建立合法性審查機制,將訓練語料采集納人強制性的合法合規審查程序,特別是對涉及個人信息、敏感數據的內容,實行分級管理和嚴格過濾,確保未經授權的數據不能納入訓練。二是推動建設國家級和行業級標準化語料庫,在采集、清洗、存儲和調用環節引人權威審查機制,形成跨學科、多模態的語料支撐體系。三是引人“預防性禁令\"機制,對存在較大法律或倫理風險的數據訓練項目提前阻斷,確保潛在違法風險在萌芽階段就得到控制。四是建立數據全生命周期可追溯機制,使訓練數據能夠實現來源可查、去向可控、責任可究。

圖1“AI污染\"的敏捷治理模型

第二,在運算端,推進算法治理以抑制算法污染,提高模型運行的透明性、可解釋性與穩健性。運算端的風險主要體現為算法污染。運算端涉及預訓練、微調、對齊和專門化等多個技術過程。每一個環節都可能因數據、模型設計產生算法偏見或不可預測的輸出。為此,需要推進算法透明化和可解釋性建設。一是建立算法備案與文檔透明化制度,模型開發者對訓練數據來源、算法邏輯、參數選擇、目標函數設定進行備案,并形成可公開查詢的算法文檔。政府與學術機構也可聯合開發算法審計工具,推動模型文檔透明化和可解釋性建設。二是強化價值對齊與責任前置,推動建立跨行業的“價值對齊\"標準,使模型生成內容能夠與公共倫理、社會責任和多元文化保持相協調。同時,明確開發者在未來潛在風險中的首要責任地位,避免責任模糊化,提升算法治理責任的可歸屬性,避免算法污染在模型迭代中不斷累積。三是推動核心算法的自主攻關,強化國家層面的科研投入與產業聯盟建設,推進核心算法的自主研發和開源共享,以增強本土治理的自主性和主動性。

第三,在輸出端,健全內容治理以攔截早期污染結果,完善生成結果的檢測與標識機制。雖然算法污染和知識污染的根源在輸入與運算階段,但其后果往往在輸出端顯現。輸出端是污染信息進入社會空間的最后一道關口,也是阻斷風險涌現的關鍵節點。一是構建高風險內容及時攔截機制。對于涉及虛假、偽造、歧視和煽動的內容,在模型輸出階段設置“實時攔截閥”,通過AI檢測、圖文比對、語義異常識別等技術手段實現即時篩查,避免高風險內容進入傳播鏈條。二是推行統一的標注與溯源制度,平臺應對模型生成內容加注“水印\"或“溯源標簽”,以提升用戶識別能力,實現生成內容的來源可追溯、責任可界定。三是完善人機協同防護體系,平臺通過整合技術檢測、人工審核與用戶舉報機制,形成“三位一體\"的治理體系。在此過程中,自動化工具負責大規模識別與過濾,人工審核負責對高風險內容進行價值判斷與責任認定,用戶舉報機制則作為外部補充,形成多主體聯動參與共治的多層防控體系。

(二)過程治理:以組織敏捷阻斷污染信息的傳播擴散

與前端環節的生成風險不同,中端環節的核心挑戰在于污染的規模化傳播,主要表現為“噪聲\"污染與偽造污染,二者均依托平臺算法推薦與社交網絡擴散邏輯而迅速傳播。這使污染力度在傳播鏈條中成倍放大,破壞力遠超前端環節。因此,過程治理需依托組織敏捷,構建動態響應與高效協作的組織性調控機制,針對“噪聲\"污染和偽造污染在生成后的各類傳播鏈條進行系統阻斷,從而切斷影響擴散的傳播基礎,主要側重于信息傳播過程中的人人交互場景,圍繞傳播起點、傳播媒介與傳播終點三個關鍵環節展開組織層面的敏捷響應。

第一,在傳播起點環節,強化風險識別,實現前置化治理部署。傳播起點是污染信息初次進人公共空間的關鍵節點,主要是海量低質內容的快速釋放及深度偽造的偽裝性傳播。風險在于生成形態往往特征隱匿,平臺與監管機構難以及時識別與響應,極易形成治理“盲點”。因此,過程治理應強化風險識別與前置化治理部署。一是嵌入式識別機制。推動治理機制前置化,將大模型風險識別系統嵌入平臺內容生產與分發環節,實時對文本、圖像、音頻、視頻等多模態輸出進行敏感特征提取與深度剖析。借助多源數據融合與語義異常識別模型,精準判斷污染信息的演化趨勢,以實現“防早防小\"的污染控制效果。二是多源預警機制。推動平臺與監管部門、第三方機構、公眾之間建立聯合預警體系。借助風險識別的外部力量,增強識別的專業性與前瞻性。公眾舉報與輿情監測系統也可作為補充機制提高治理覆蓋面。三是差異化治理策略。對不同類型的污染實施分類治理,如對于新聞資訊類污染信息,應重點關注信息真偽的核實;對于娛樂性或社交性信息,則應重點關注價值導向和潛在社會影響。差異化治理不僅有助于提升效能,也能避免“一刀切”造成的治理失靈。

第二,在傳播媒介環節,壓實平臺責任,完善監測與處置機制。污染信息的放大效應在媒介環節最為顯著,在此階段,“噪聲\"污染通過社交媒體大規模分發,偽造污染則依托平臺推薦與跨媒體渠道大量溢出。因此,需強化平臺責任與媒介治理能力,推動技術平臺從“信息分發者\"轉變為“風險管控者”。一是引導平臺建立內容識別、動態監測與風控響應的一體化系統,利用AI識別、圖文語義比對和內容追蹤等技術手段增強識別精準度。二是完善違規行為處置規則,完善賬號分級管理和黑名單制度,對屢次傳播污染內容的用戶或組織實施高頻次審查、限流乃至封禁措施,同時將生成式內容納人平臺內容生態的分類管理,將不同風險等級的內容納人差異化監督,防止信息污染穿透內容審查與平臺邊界。三是建立跨境平臺合作機制,防止污染在不同國家和語言環境中反復擴散。污染信息往往也會跨語種、跨平臺流轉,尤其是在國際社交媒體環境下,單一平臺的防控難以有效遏制“AI污染”擴散。因此,需要推動跨境合作與跨平臺治理機制,建立國際性的污染信息監測聯盟,借助技術接口共享與數據協同,實現跨境污染信息的同步追蹤與處置。

第三,在傳播終點環節,推進用戶治理,強化公眾教育與社會參與。傳播終點是污染信息作用于個體認知與群體輿論的直接入口。用戶既是“噪聲\"污染和偽造污染的最終接收者,也是再傳播者,用戶的行為偏差往往成為污染信息擴散的直接動能。因此,治理終點環節不僅要明確用戶責任邊界,還需通過公眾教育與社會參與構建可持續性的治理合力。一是結合用戶的異質性特征建立分級管理策略,明確各類用戶對AI生成內容的使用邊界、發布權限與核查責任。對具備公共影響力的內容創作者、機構賬號等重點群體,實施更高標準的風險準入與事后審查機制;對普通用戶,則通過分級管理明確風險責任,并提供必要的風險提示與行為規范。二是將公眾教育納人敏捷治理的組織協同體系,強化個體在信息生態中的主體責任意識。政府、企業與平臺應聯合推動媒介素養教育,構建數字公民知識體系,引導公眾建立正確的信息甄別能力與風險感知意識。通過在線課程、公共宣傳、案例警示等方式,提升公眾識別信息和深度偽造的能力,從而在認知層面提高公眾的免疫力。三是鼓勵平臺設立用戶參與共治機制,公眾不僅是污染信息的潛在承受者,也是治理體系的重要參與者,應健全和完善用戶舉報、社會監督與自治組織緊密協同的治理機制。

(三)動態治理:以價值敏捷消解污染效應的認知沉積

與前端環節的生成風險和中端環節的傳播擴散相比,后端環節的核心挑戰在于認知層面的污染沉積。不同于作為外顯風險的其他污染形態,認知污染往往以隱蔽而長期的方式作用于公眾的判斷與社會的信任結構,典型表現包括思維惰性、原創意識退化和認知幻覺,最終造成公共理性削弱和認知極化。因此,與前兩類治理相比,動態治理的目標不在于單純的事后清理,而是以價值敏捷構建一套能夠及時糾偏、持續調適和向上向善的治理機制。通過柔性引導主體行為、動態調適治理理念、協同塑造認知信任,從而應對認知污染的深層風險。

第一,堅持以人為本的公共價值導向。認知污染的核心危害在于對個體判斷與社會信任的長期侵蝕,因此治理必須從價值層面人手。治理不僅是技術問題,更是價值選擇。認知污染在沉積過程中會加劇算法歧視和數字不公,治理必須回歸公共價值本體。政府應加強數據倫理和隱私保護,推動從控制型監管向服務型治理轉型。以用戶視角優化公共服務設計,防止算法歧視帶來的認知不平等。同時,以敏捷思維加強對科技企業的價值引導。企業應在追求技術效益的同時,嵌人社會責任與公共價值考量,減少主觀偏好對模型輸出的操控。更重要的是,將公眾由治理對象轉變為治理主體,歸還數據權利、激發參與意愿,通過媒介素養教育、協商機制等形式提升公眾識別AI生成內容和抵御認知污染的能力。多元治理主體協力達成“可信任AI\"的價值共識,堅持以人本價值理性的“韁繩\"來牽引AI發展的技術理性。

第二,強化風險規制中的辯證思維。認知污染具有潛移默化和長期積累的特征,其風險并非線性可預測,而是充滿不確定性和動態演化性,危害短期內不易顯現,但可能在社會認知、價值體系與公共信任層面逐步累積。在此情境中,如果治理只依賴靜態的合規手段與固定的技術規范將不足以應對持續演化的認知污染態勢,造成治理被動性和碎片化。因此,治理體系必須引入辯證思維,以歷史視角和辯證方法理解AI技術的兩面性,既要看到認知污染可能引發的“幻覺現實”,也要認識其在信息公平、知識平權化、認知拓展中的潛在價值。通過推動試點政策與逐步推廣相結合的方式,在實踐中積累經驗并不斷優化治理規則,實現風險規制的柔性化與動態化,使治理機制始終保持靈活性與適應性。在承認AI技術之風險與價值并存的前提下,積極打造能適應復雜環境且更具韌性的治理體系。

第三,倡導包容審慎的容錯糾偏文化。認知污染的隱蔽性和累積性決定了即便治理體系具有前瞻性與靈活性,也難以完全避免治理行動可能出現失效、延誤或誤判的情況。因此,治理體系需從“零容錯”的剛性思維轉向更具包容性和韌性的治理取向,將錯誤視為學習和改進的契機,而非單純的責任歸咎,增強治理組織的彈性和適應性。在政府部門,完善內部容錯制度與問責彈性邊界,鼓勵公務人員在應對認知污染時進行政策試驗和制度探索,使政府組織從錯誤中快速學習,以低成本的試錯完善治理措施。在企業層面,打造以團隊自治和任務導向為核心的信任型組織文化,給予團隊和研發人員自主權和試驗空間,鼓勵他們在安全可控的范圍內不斷進行技術創新,減少認知污染的技術性源頭,推動人工智能的健康發展與持續創新。在社會層面,通過媒介素養教育、公共輿論平臺建設、用戶自律公約遵循等方式,提升公眾對認知污染的集體感知與自我調節能力。最終,治理共同體能夠在容錯糾偏的包容性互動中夯實穩定的社會信任基礎,為動態治理提供長期支撐。

參考文獻:

[1]景奎,徐鳳敏,王柯蘊.生成式人工智能傳播風險:理論內涵、形成機理與治理策略[J].西安交通大學學報(社會科學版),2025,(2).

[2]Metz Cade.“The Godfather of A.1.\"Leaves Google and Warns of Danger Ahead?[N].The New York Times,2023-05-04.

[3]宋瑞,柳媛.警惕“AI污染\"亂象[N].新華每日電訊,2024-10-22.

[4]漆晨航.生成式人工智能的虛假信息風險特征及其治理路徑[J].情報理論與實踐,2024,(3).

[5]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023,(3).

[6]楊利華.人工智能生成物著作權問題探究[J].現代法學,2021,(4).

[7]陳京春,楊歷霖.生成式人工智能的意識形態風險及其法律因應[J].西安交通大學學報(社會科學版),2025,(4).

[8]張素華,李凱.生成式人工智能虛假信息風險與治理研究[J].學術探索,2024,(7).

[9]趙剛,孫戈,王春宇.生成式人工智能視域下塑造主流輿論新格局的風險、機遇及創新路徑[J].中國廣播電視學刊,2023,(8).

[10]曾潤喜,秦維.人工智能生成內容的認知風險:形成機理與治理[J].出版發行研究,2023,(8).

[11]周慶山,李瀚瀛,朱建榮,等.信息生態學研究的概況及術語初探[J].圖書與情報,2006,(6).

[12]王在宇.網絡信息污染狀況評價研究[D].重慶:重慶郵電大學,2017.

[13]邵培仁.媒介生態學:媒介作為綠色生態的研究[M].北京:中國傳媒大學出版社,2008.

[14]石婧,常禹雨,祝夢迪.人工智能“深度偽造”的治理模式比較研究[J].電子政務,2020,(5).

[15]劉白云.AI“傷害”人類的證據出現了[EB/OL].[2025-07-11].https://mp.weixin.qq.com/s/YV0F-oUqWNoKyouM3eyN8Pg.

[16]袁建軍,陳錦.從“智\"到“能”:生成式人工智能助推政務服務智能化的實踐理路[J].中共天津市委黨校學報,2024,(6).

[17]黃榮,呂尚彬.ChatGPT:本體、影響及趨勢[J].當代傳播,2023,(2).

[18]張華平,李林翰,李春錦.ChatGPT中文性能測評與風險應對[J].數據分析與知識發現,2023,(3).

[19]馬嘉悅,聶林浩.語料污染致AI大模型有害內容顯著增加,如何筑牢防火墻?[EB/OL].[2025-07-30].https://finance.sina.com.cn/wm/2025-05-30/doc-ineyhwik8927597.shtml.

[20]Perrigo Billy.Exclusive:OpenAI Used Kenyan Workers on Less Than $\$ 2$ PerHourtoMakeChatGPTLessToxic[EB/OL].[2025-07-11].htps://cse. buffalo.edu/mlsoc/assets/files/openai_kenyan_worker. pdf.

[21]Emily M.Bender,Batya Friedman.Data Statements for Natural Language Processing:Toward Mitigating SystemBiasand Enabling Better ScienceJ].Transactions of the Association for Computational Linguistics,2018,(6).

[22]謝梅,王世龍.ChatGPT出圈后人工智能生成內容的風險類型及其治理[J].新聞界,2023,(8).

[23]董青嶺.人工智能時代的算法黑箱與信任重建[J].人民論壇·學術前沿,2024,(16).

[24]江潞潞.智能交往,未來已來—“激蕩AIGC\"數字交往八人談觀點綜述[J].傳媒觀察,2023,(3).

[25]支振鋒.生成式人工智能大模型的信息內容治理[J].政法論壇,2023,(4).

[26]何哲,曾潤喜,秦維,等.ChatGPT等新一代人工智能技術的社會影響及其治理[J].電子政務,2023,(4).

[27]朱嘉珺.生成式人工智能虛假有害信息規制的挑戰與應對——以ChatGPT的應用為引[J].比較法研究,2023,(5).

[28]王祿生.論“深度偽造”智能技術的一體化規制[J].東方法學,2019,(6).

[29]曹淼.“AI治理\"何以戰勝“AI謠言\"?[EB/OL].[2025-09-21].htps:/finance.people.com.cn/n1/2025/0919/c1004-40567884.html.

責任編輯:陳 麗

“ AI Pollution” and Its Clarifying Governance

Chen Jianping,Kang Tongli

Abstract:“AI pollution” represents a novel form of information pollution emerging from the development of generative AI. It exhibits self-reinforcing structural vulnerabilities rooted in data deficiencies,algorithmic black boxes,and multimodal synthesis,which are further amplified by the interplay of institutional lag,platform mechanisms,and user behaviors. Vertically,a tiered response mechanism addressing pollution generation, dissemination,and cognitive impact shall be implemented through source governance, process governance, and dynamic governance. Horizontally, a comprehensive governance framework encompassing front-end containment,mid-end interception, and back-end mitigation shall be established via multidimensional coordination among technological agility,organizational agility,and value agility.

Key words: generative AI,“AI pollution”,artificial intelligence generated content,agile governance

主站蜘蛛池模板: av在线无码浏览| 天天爽免费视频| 一级毛片在线播放免费观看 | 亚洲人成影视在线观看| 黄色免费在线网址| 色欲国产一区二区日韩欧美| 97se综合| 精品国产免费观看一区| 亚洲男人在线天堂| 国产一区二区三区在线观看视频 | 成人日韩视频| 一本久道热中字伊人| 亚洲国内精品自在自线官| 久久精品国产亚洲麻豆| 国产电话自拍伊人| 97国产在线视频| 人妻一区二区三区无码精品一区 | 不卡视频国产| 免费无码AV片在线观看国产| 亚洲欧美日本国产专区一区| 欧美亚洲一二三区| 日韩123欧美字幕| 综合色婷婷| 国产精品久久久精品三级| 久久99国产精品成人欧美| 久久综合九色综合97婷婷| AV无码国产在线看岛国岛| 国产在线第二页| 国产福利免费视频| 国产一区二区影院| 欧美三级自拍| 日本精品影院| 国产a v无码专区亚洲av| av一区二区三区在线观看 | 一区二区理伦视频| 国产欧美在线观看一区| 无码内射中文字幕岛国片| 国产成人高清精品免费5388| 91无码人妻精品一区| 亚洲天堂日本| 无码 在线 在线| 911亚洲精品| 国产精品护士| 天天躁狠狠躁| 精品久久久久成人码免费动漫| 成人在线天堂| 人妻无码AⅤ中文字| 亚洲经典在线中文字幕 | 久久久久久久久久国产精品| 亚洲日本在线免费观看| 黄片一区二区三区| 亚洲制服丝袜第一页| 精品人妻无码区在线视频| 亚洲精品卡2卡3卡4卡5卡区| 婷婷午夜天| 欧美精品H在线播放| 国产精品无码久久久久久| 日韩欧美色综合| 国产日韩欧美黄色片免费观看| 欧美午夜久久| 欧美成人A视频| 欧美日韩成人| 国产在线拍偷自揄拍精品| 为你提供最新久久精品久久综合| 日本影院一区| 午夜三级在线| 国产资源站| 日韩色图在线观看| 在线国产91| 狼友视频国产精品首页| 亚洲不卡影院| 欧洲熟妇精品视频| 伊人久久精品亚洲午夜| 99在线视频网站| 亚洲人成电影在线播放| 精品国产www| 狠狠色香婷婷久久亚洲精品| 日本在线国产| 国内熟女少妇一线天| 99这里只有精品免费视频| 欧美视频免费一区二区三区| 青青操视频在线|