999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

“AI污染”及其澄明之治

2025-11-09 00:00:00陳建平康同莉
中共天津市委黨校學報 2025年5期

中圖分類號:G206 文獻標識碼:A 文章編號:1008-410X(2025)05-0085-11

一、議題開顯:“AI污染”命題的提出及其意義

以 ChatGPT、Sora、Midjourney 和 DALL-E等為代表的生成式人工智能(Generative ArtificialIntelligence,以下簡稱GAI)是近 40 年來最偉大的技術變革[1],其迅速發(fā)展帶來了人工智能生成內(nèi)容(Artificial Intelligence Generated Content,以下簡稱 AIGC)的指數(shù)級增長,這不僅加劇了人們所面對的信息壓力,還帶來了信息冗余、信息噪聲與信息安全等負面效應,從而使社會信息治理遭遇前所未有的挑戰(zhàn)。隨著GAI的流暢性和可負擔性不斷提升,它被廣泛用于低成本、大規(guī)模的信息生產(chǎn),因具備高度擬真性與說服力,導致大量不實信息在網(wǎng)上肆意傳播,信息空間正經(jīng)歷深刻的結構性變革,通過破壞公眾信任、操縱公眾輿論對社會構成重大威脅。辛頓就警示,若沒有及時準備好相關法規(guī)和有效控制手段,人類在未來將對 AI徹底失去控制[2]。大量由GAI產(chǎn)生的粗制濫造、真假難辨的信息垃圾,便是這種失控風險在現(xiàn)實空間中的直接表現(xiàn),造成了“AI污染”。與既往信息污染不同,“AI污染\"的核心在于其“生成性”,即污染并非簡單搬運,而是由AI模型主動合成,規(guī)模、擬真度與演化能力均產(chǎn)生了質變,構成了前所未有的治理挑戰(zhàn)。

在當前“AI熱\"的背景下,“AI污染”一詞首次由新華社在2024年提出,用以描述由GAI導致的廣泛存在于新聞傳播、文學創(chuàng)作、公共社交媒體、學術研究領域的信息污染現(xiàn)象,引起了社會各界的高度關注[3],也引起了學界對“AI熱\"的冷思考。盡管“AI污染\"在定義與邊界上尚未形成統(tǒng)一共識,但其指向的事實——AI生成機制對信息真實性、輿論穩(wěn)定性及認知秩序的深度影響已逐步成為跨學科研究的重要議題,正在倒逼治理體系加快適應性轉型。目前,多數(shù)研究集中于AIGC在內(nèi)容層面引發(fā)的虛假信息傳播[4]、深度偽造合成[5]、知識產(chǎn)權歸屬[6]、意識形態(tài)危機[7]等風險的生成和治理研究。有學者指出,AIGC具有內(nèi)容生成的“強交互性\"\"繼承性\"\"生長性\"[8],這些特征使生成內(nèi)容具有邏輯完整性、表達自然性和形式可信性,憑借這些特性,生成內(nèi)容得以廣泛傳播,傳播過程具有去媒體化、唯用戶化、暗網(wǎng)化、漏斗輸入輸出等特征[9][10],使污染生成與傳播同步完成,治理難度顯著提升。

面對由“AI污染\"衍生而來的涉及信息生態(tài)、認知秩序與社會信任等系統(tǒng)性難題,治理“AI污染”的關鍵不能僅限于簡單的技術修補或平臺規(guī)范,而在于能否建立一種動態(tài)響應、跨域協(xié)同、價值導向的綜合治理機制。特別是在認知污染日益加劇、信息信任危機持續(xù)擴散的背景下,公共管理體系必須以更加敏銳的制度反應能力與文化適應能力,實現(xiàn)從工具理性向價值理性的深層轉型。基于此,本文嘗試在厘清“AI污染\"作為一種“生成性污染\"的獨特內(nèi)涵、辨析其典型類型與生成邏輯的基礎上,提出以“源頭治理—過程治理—動態(tài)治理\"為縱向主線、以“技術敏捷—組織敏捷—價值敏捷”為橫向支撐的“三維路徑—三階理念\"治理框架,旨在為GAI的健康發(fā)展提供制度設計思路,為數(shù)智時代公共管理體系的適應性轉型與社會信任重建提供理論參考與實踐啟示。

二、何謂“AI污染”:內(nèi)涵釋義與類型特征

在GAI的快速迭代中,信息污染呈現(xiàn)新的表現(xiàn)與演化邏輯。傳統(tǒng)的信息污染主要聚焦于媒介生態(tài)的失序。然而,AI驅動下的信息污染現(xiàn)象已突破傳統(tǒng)范疇,特征在于生成環(huán)節(jié)的技術偏差、傳播環(huán)節(jié)的快速擴散及接受環(huán)節(jié)的認知累積相互作用,使污染更具系統(tǒng)性和復合性。由此,“AI污染”成為區(qū)別于傳統(tǒng)形態(tài)的獨立研究對象,厘清其概念,是明確研究邊界與回應現(xiàn)實風險的前提;進一步對其類型加以劃分,則有助于揭示污染生成與擴散的具體邏輯,并為治理路徑的尋繹提供基礎支撐。

(一)理論溯源與內(nèi)涵界定

“AI污染”是GAI發(fā)展過程中出現(xiàn)的一種新型信息污染,其學術譜系產(chǎn)生于信息生態(tài)學范疇。1989 年,拉斐爾·卡普羅首次提出“信息污染\"概念[11],此后學界從信息內(nèi)容、信息傳播與流動、信息加工與處理、信息素養(yǎng)、信息社會及信息生態(tài)等角度展開界定[12],普遍認為信息污染是伴隨網(wǎng)絡發(fā)展帶來的負面效應,本質為信息生態(tài)系統(tǒng)的失衡。有學者從傳播學視角出發(fā)對信息污染的界定被廣泛認可,即媒介信息中混人或過量傳播有毒性、有害性、欺騙性、誤導性信息元素,進而危害媒介生態(tài)、信息資源、個體身心健康[13](P177),強調了污染主體、污染客體和生態(tài)后果三個核心維度。

在AIGC深度參與信息生產(chǎn)與傳播的背景下,當前信息污染呈現(xiàn)新的特征:一是內(nèi)容生產(chǎn)主體由原本的專業(yè)技術人員向用戶自身逐步轉變;二是生成規(guī)模與速度遠超人工審查能力;三是真?zhèn)芜吔缒:疃葌卧炫c上下文感知寫作加劇真實性危機;四是模型、平臺與用戶形成循環(huán)放大機制,污染信息呈量級疊加。在信息嬗變與內(nèi)容泛化的共同作用下,“AI污染\"已超越傳統(tǒng)信息污染的范疇。“AI污染\"的場域形態(tài)也可劃分為自然環(huán)境污染、社會環(huán)境污染與信息環(huán)境污染三種形態(tài),而其中信息環(huán)境污染因深及人類認知與社會信任,被視為最具風險的核心問題。然而,傳統(tǒng)信息污染的解釋框架已難以解釋由AI生成機制帶來的真實性危機與信任危機,亟須建立一個能夠反映新一代信息污染特征的概念體系。

本文將“AI污染\"界定為:在生成式人工智能廣泛參與信息生成、處理與傳播的過程中,由污染主體(AI系統(tǒng)及其不當使用者)依托生成機制持續(xù)合成并擴散污染客體(虛假、冗余或偽造的多模態(tài)內(nèi)容等),進而引發(fā)生態(tài)后果(信息生態(tài)失衡、社會秩序紊亂與人類認知侵蝕)的一種新型信息污染。“AI污染\"的獨特性在于具備主動生成、自我迭代與遞歸放大的特征。由此可見,“AI污染\"不僅是信息生態(tài)學意義上的典型負外部性,更是數(shù)智時代公共治理必須直面的生成性風險。

(二)形態(tài)譜系與特征辨析

隨著GAI技術的快速演進,“AI污染\"在現(xiàn)實社會中的表現(xiàn)形式呈現(xiàn)多樣態(tài),AIGC也已廣泛滲透到新聞傳播、學術研究、娛樂媒體和公共輿論等多維領域。因此,“AI污染\"已超越了單一的技術濫用,成為貫穿于信息生成、處理與傳播全過程的系統(tǒng)性風險。為揭示“AI污染”的內(nèi)在邏輯與危害機理,依據(jù)“源頭—過程—結果\"的邏輯,將“AI污染\"劃分為五種典型形態(tài),即知識污染、算法污染、“噪聲\"污染、偽造污染和認知污染,并從邊界維度、技術機制、擴散機制、主要表現(xiàn)和社會影響五個重要方面進行系統(tǒng)分析(見表1)。

表1“AI污染\"的類型特征及影響

1.知識污染。知識污染表現(xiàn)為AIGC中夾雜著偽知識、歷史錯誤、虛假敘述等非事實性信息。這類污染源于數(shù)據(jù)投毒、語料篩選不嚴、知識拼接錯亂,尤其在語義問答、百科生成、教育應用中表現(xiàn)突出。知識污染的邊界維度在于對“真實性\"的破壞,主要表現(xiàn)為兩類:一是虛假知識(如錯誤的醫(yī)學、歷史知識,帶有意識形態(tài)和價值觀偏見的論斷);二是知識結構的扭曲(如推理鏈條斷裂或知識圖譜中的邏輯混亂)。此類污染信息一旦被模型吸收并融入訓練循環(huán),便會加速擴散,引發(fā)真實性危機,模糊知識邊界,誤導科研方向和公眾認知,削弱知識體系的可驗證性與可靠性。

2.算法污染。算法污染主要源于模型訓練數(shù)據(jù)不完善、算法設計缺陷及模型黑箱機制,導致AI系統(tǒng)在輸出內(nèi)容時存在偏差與客觀錯誤。這類污染并非內(nèi)容本身的問題,而是生成邏輯與模型機制的缺陷。算法污染的邊界維度在于“技術理性偏差”,具有高度的隱蔽性和擴散性,主要表現(xiàn)為算法偏見、隱私泄漏、歧視性決策與結果誤導。這類污染通過模型迭代與反饋學習的累積效應實現(xiàn)擴散,使微小偏差不斷被放大,容易放大社會不公、侵犯隱私并削弱公眾對治理體系與AI技術的信任。

3.“噪聲\"污染。“噪聲\"污染源自GAI的規(guī)模化輸出能力,大語言模型與循環(huán)神經(jīng)網(wǎng)絡等自動生成工具能夠在極短時間內(nèi)生成海量低質量、重復、碎片化甚至無意義的文本、圖片乃至多模態(tài)信息。這類信息雖然未必虛假,但因冗余和無效而稀釋了公共信息資源,形成信息“噪聲”。由于“信息冗余失序”,通過社交媒體、搜索引擎和自動化賬號實現(xiàn)規(guī)模化分發(fā),導致優(yōu)質信息被淹沒,公共輿論空間質量不斷下降。這類污染的社會影響在于削弱信息篩選效率,降低政策制定與社會決策的科學性,并

加重信息過載下的治理負擔。

4.偽造污染。偽造污染以深度偽造為核心。深度偽造是實現(xiàn)人臉互換的特殊應用,可以把“原始人臉\"換成\"目標人臉\"[14],依靠生成對抗網(wǎng)絡等技術制造高度擬真的圖像、音頻與視頻,被用于虛擬身份冒用、名人仿聲詐騙、合成新聞制造等情境,逐漸演化為信息操控和輿論操縱的新型工具。它的邊界維度在于“擬真性操控”,通過平臺推薦與跨媒體傳播而迅速擴散,主要表現(xiàn)為擬真圖像、仿聲音頻與虛假視頻,能夠有效突破用戶直覺的甄別能力。若放任偽造污染,便會導致侵犯個人聲譽與隱私、操縱公共輿論、威脅政務輿情與社會信任系統(tǒng)等不良后果。

5.認知污染。認知污染是“AI污染”中最為深層和隱蔽的形態(tài),源于多種污染形態(tài)和傳播方式的共同作用,加上“認知結構侵蝕\"的條件觸發(fā),不僅表現(xiàn)為個體與群體在信息接受過程中逐漸被虛假與誤導性內(nèi)容淹沒,導致事實判斷能力減弱,還進一步導致大腦認知功能的潛在退化。有實驗研究發(fā)現(xiàn),頻繁依賴ChatGPT進行寫作的用戶,在神經(jīng)活動、語言處理和行為反應方面明顯弱于自主創(chuàng)作者,呈現(xiàn)思維惰性與原創(chuàng)意識退化的風險[15]。這表明,AI工具在提升效率的同時,可能逐步替代人類的自主認知過程。技術上,平臺推薦算法持續(xù)推送同質化內(nèi)容,制造“信息繭房\"與“回聲效應”;心理機制上,個體傾向于接受符合既有立場的信息,從而固化偏見。認知污染的社會影響在于不僅危及個體判斷,更會在社會層面削弱公共理性,導致認知極化,侵蝕社會信任。

三、“AI污染”的發(fā)生機理:技術脆弱、社會觸發(fā)與耦合擴散的三重邏輯

數(shù)據(jù)、算法和算力是GAI快速發(fā)展的主要動力,生成式人工智能系統(tǒng)所呈現(xiàn)的\"外在\"智能,本質上建立在\"內(nèi)在\"算法架構與模型運行機制之上[16]。內(nèi)容輸出路徑遵循“數(shù)據(jù)收集—數(shù)據(jù)處理—模型訓練—算法微調—內(nèi)容輸出—反饋優(yōu)化\"的基本邏輯[8],其中每一個環(huán)節(jié)都可能成為“AI污染\"的“人侵點”。“AI污染\"并非人工智能技術發(fā)展演進過程中的偶發(fā)現(xiàn)象,而是GAI在技術運行與社會應用過程中的結構性副產(chǎn)品,其生成邏輯既體現(xiàn)為技術系統(tǒng)的自生脆弱性,也受到外部制度與傳播環(huán)境的推動,同時還體現(xiàn)在二者之間的交互作用與循環(huán)放大。從整體來看,“AI污染\"的形成應被理解為一個多維度、動態(tài)化的過程:在內(nèi)部,數(shù)據(jù)缺陷、模型黑箱和多模態(tài)合成技術的復雜性使污染具有技術上的必然性;在外部,制度滯后、傳播失調與用戶行為共同推動污染的擴散與放大;在內(nèi)外部交互中,技術與制度的失配、平臺與用戶的互動黏性、模型與惡意輸入的嵌套又進一步加劇了污染的系統(tǒng)性演化。

(一)內(nèi)生性邏輯:技術系統(tǒng)的自生脆弱性

“AI污染\"的生成與擴散具有典型的內(nèi)生性邏輯,根源在于技術系統(tǒng)本身的脆弱性。從數(shù)據(jù)采集到模型運行,再到多模態(tài)合成,都可能成為風險觸發(fā)點。“AI污染\"集中體現(xiàn)于訓練數(shù)據(jù)的缺陷、模型結構的黑箱機制及多模態(tài)合成技術的復雜性,這三方面共同構成了污染生成的技術基礎。

第一,訓練數(shù)據(jù)的缺陷是“AI污染\"生成的基礎。模型輸出內(nèi)容的真實性、中立性及價值取向高度依賴訓練語料的數(shù)量和質量,但現(xiàn)有的AI模型中存在三個方面的問題。一是大部分訓練語料庫來自開放網(wǎng)絡,初始語料良莠不齊、魚龍混雜。以OpenAI推出的GPT系列為例,典型的訓練數(shù)據(jù)主要是從互聯(lián)網(wǎng)、公共領域的書籍和研究論文中提取的文本,以及研究人員可以找到的其他各種免費信息來源[17]。由于開放語料采集缺乏嚴格篩選,極易混入錯誤事實、虛構敘事、意識形態(tài)偏見乃至惡意攻擊內(nèi)容,AI可能從看到的數(shù)據(jù)中學到偏見、錯誤和假象,在迭代中不斷放大。二是語種與文化結構失衡。目前,絕大多數(shù)主流AIGC系統(tǒng)的訓練語料以英語為絕對主導,而其他語言,尤其是中文、小語種內(nèi)容則嚴重不足[18]。這一失衡不僅使模型對非英語文化語境中的知識掌握能力明顯不足,也在跨文化知識生成時出現(xiàn)誤讀和價值偏差,從而輸出帶有西方中心主義、文化誤讀甚至價值歧視的污染內(nèi)容。三是數(shù)據(jù)投毒與惡意輸入虛假樣本。數(shù)據(jù)投毒指某些行為體通過大規(guī)模生產(chǎn)并投放虛假或誘導性內(nèi)容到網(wǎng)絡空間,進而污染模型的訓練數(shù)據(jù)。有研究指出,即便訓練數(shù)據(jù)中僅含有極小比例的虛假信息,也可能對模型輸出結果產(chǎn)生成倍放大的污染效應[19]。在數(shù)據(jù)標注環(huán)節(jié),標注人員缺乏統(tǒng)一的知識背景和判斷標準[20],其專業(yè)性不足和主觀偏見可能將價值傾向嵌入模型結構,進而引發(fā)系統(tǒng)性偏差[21]。此外,代碼工程師和訓練工程師在模型設計與實現(xiàn)過程中,他們的個體認知及習慣偏好同樣可能成為虛假信息和系統(tǒng)性偏見的隱性來源[22」。

第二,模型結構的“黑箱效應\"加劇了“AI污染”的不可控性。所謂“黑箱效應”,是指人工智能模型尤其是深度學習模型,其內(nèi)部的決策過程對用戶和開發(fā)者來說往往是不透明且不可解釋的[23]。這使污染信息不僅難以預測、難以檢測,更難以追責。一是大語言模型的生成邏輯本質上是基于語言統(tǒng)計規(guī)律的概率續(xù)寫機制,即模型輸出內(nèi)容并非源于事實邏輯推理,而是基于語料統(tǒng)計學習的知識重組[24],因而極易生成\"貌似合理\"卻實則虛構的幻覺內(nèi)容。二是模型輸出結果具有偶然性與不可預測性,即使面對完全相同的問題輸入,生成的結果也可能呈現(xiàn)不同的結構和內(nèi)容,甚至出現(xiàn)事實不一致或自相矛盾的情況[25][26]。這源于生成機制本身帶有誤導性的“自信反應”,在醫(yī)學、金融、教育等領域的風險尤為突出[24]。三是在“基于人類反饋的強化學習\"機制中,雖然可以通過優(yōu)化和升級,使模型在目標任務上輸出更符合人類偏好的結果[27],但由于內(nèi)部調整過程同樣不透明,且用戶在與模型互動過程中輸入偏見性、錯誤性或歧視性的內(nèi)容時也極易被模型吸收并反哺,進一步加劇污染在黑箱結構中的累積與放大。

第三,多模態(tài)合成技術增強了“AI污染\"的欺騙性和復雜性。深度偽造技術主要依賴生成式對抗網(wǎng)絡或變分自編碼器架構,基本原理是先提取“目標人臉\"的特征向量,再通過生成網(wǎng)絡和鑒別網(wǎng)絡之間的對抗訓練機制不斷優(yōu)化生成模型。生成網(wǎng)絡不斷調整參數(shù),以生成更逼真的圖像;而鑒別網(wǎng)絡則要對圖像真?zhèn)芜M行識別。當鑒別網(wǎng)絡無法有效識別圖像真?zhèn)危磳崿F(xiàn)了“原始人臉”向“目標人臉”的高精度替換,從而完成面部身份的偽裝與遷移[28]。這一技術不僅能操控靜態(tài)圖像,還可生成高度逼真的音頻與視頻,使虛假內(nèi)容在感官層面很難與真實信息區(qū)分。隨著大模型多模態(tài)協(xié)同生成能力的提升,人工智能可以在文本、圖像、語音和視頻間形成“自我佐證\"的虛假證據(jù)鏈。這種多模態(tài)合成的證據(jù)體系在形式上相互印證,極大地降低了公眾的懷疑門檻,顯著提高了虛假信息的可信度與傳播力,從而加劇了“AI污染\"的社會危害。

(二)外生性邏輯:污染生成的社會觸發(fā)機制

“AI污染”的生成與擴散還與外部制度、傳播結構和人類行為的失調密切相關,即外生性邏輯,體現(xiàn)為一種社會建構的協(xié)同失范現(xiàn)象。這些社會觸發(fā)機制共同構成污染信息從生成到擴散的外在推動力,具體表現(xiàn)為制度疲軟、傳播失調與行為偏差三個方面。

第一,制度反應的滯后使“AI污染\"在初期缺乏有效約束。GAI的迭代速度遠超制度更新的節(jié)奏,現(xiàn)有法律體系與治理機制在面對GAI的快速應用時表現(xiàn)出明顯的不適應性和滯后性。這一問題主要體現(xiàn)在三個層面。一是法律規(guī)范更新緩慢。當前,法律法規(guī)在界定責任邊界、治理對象與適用范圍上存在模糊地帶,特別是針對AI生成內(nèi)容的法律屬性與法律責任,尚未形成明確標準,導致治理者在應對污染風險時缺乏清晰的法規(guī)依據(jù)。二是監(jiān)管體系割裂。“AI污染\"的跨模態(tài)、跨平臺屬性超越了現(xiàn)有的分工化監(jiān)管體系的能力邊界。現(xiàn)實中,文本內(nèi)容由網(wǎng)信部門監(jiān)管,影視內(nèi)容歸屬廣電體系,而音頻內(nèi)容則由平臺自審。在缺乏統(tǒng)一規(guī)則與標準的前提下,AI生成的跨模態(tài)污染內(nèi)容往往在模態(tài)間游移穿梭。三是制度供給存在滯后。在GAI應用快速進人社會各領域的背景下,制度設計多停留在事后應對層面,缺乏前瞻性的制度預設與治理儲備。一旦污染風險爆發(fā),往往只能依賴應急處置,導致治理的被動性與碎片化,也為污染在生成初期的無序擴散提供了“真空區(qū)”。

第二,傳播秩序的失調推動\"AI污染\"在社會空間中的快速放大。GAI的廣泛應用并未帶來傳播秩序的同步升級,互聯(lián)網(wǎng)空間作為典型的扁平化分布式社會,為GAI的數(shù)據(jù)依賴和算法依賴極化提供了土壤,是傳播和擴散\"AI污染\"的重要社會基礎[1]。一是平臺主導的信息傳播體系打破了傳統(tǒng)的信息把關機制。GAI降低了內(nèi)容創(chuàng)作與信息傳播的成本,依托社交媒體平臺,個人用戶能夠快速生成并傳播文本、圖片、短視頻等多模態(tài)內(nèi)容,通過互聯(lián)網(wǎng)平臺分享生活、抒發(fā)情緒、表達觀點,推動社會信息民主化和多元化的同時,也為污染內(nèi)容在審核不嚴的條件下實現(xiàn)快速生成與即時傳播創(chuàng)造了條件。二是平臺算法的推薦邏輯進一步放大了污染內(nèi)容的傳播力。社交媒體平臺具備強大的社交屬性和傳播力,在以點擊率、停留時間、轉發(fā)頻次為主要優(yōu)化目標的推薦體系中,煽動性、情緒化或極端化的表達內(nèi)容、敏感信息或價值觀錯誤的內(nèi)容在算法的加持下經(jīng)由社交媒體的快速通道實現(xiàn)爆炸式擴散,能夠迅速引發(fā)話題討論和輿論關注。三是GAI的多模態(tài)生成能力加劇了污染信息的復雜性與隱蔽性。通過語言生成、圖像合成、語音模擬與視頻仿造等手段,GAI能夠構建形式自然、內(nèi)容連貫、邏輯一致的虛假信息系統(tǒng),使用戶難以憑直覺分辨信息真?zhèn)危M而在文本、音頻、視頻等不同渠道完成再組合與再傳播,從而陷入一種立體化、沉浸式的認知迷霧環(huán)境。

第三,行為主體的偏差構成“AI污染\"擴散的直接動能。GAI的演進顯著降低了內(nèi)容生成門檻,使文字、圖像、音頻、視頻等多模態(tài)信息均可被高效合成與修改[29],這不僅為\"AI污染\"的規(guī)模化、自動化和跨模態(tài)擴散提供了技術條件,也釋放了潛在的濫用風險。無論是“無意傳播\"的普通用戶,還是“有意操縱”的惡意行為者,均可能成為推動污染信息擴散的關鍵行為主體。在普通用戶層面,信息判斷力與媒介素養(yǎng)的相對滯后,使他們在無意識中參與到污染信息的復制與擴散過程中。由于生成內(nèi)容往往具備語言權威性、圖像真實感與敘述邏輯完整性,用戶在面對以自然語義表達和多模態(tài)疊加呈現(xiàn)的信息時,極易產(chǎn)生認知錯覺,甚至誤判為真實內(nèi)容。此類內(nèi)容常通過社交媒體群組、朋友圈、自媒體平臺被快速分享與二次編輯,形成用戶主導的再傳播機制。在惡意行為者層面,污染內(nèi)容的生產(chǎn)則表現(xiàn)出高度組織性與策略性。GAI的低門檻與高效率使內(nèi)容生成擺脫了傳統(tǒng)依賴專業(yè)編輯的限制,具備一定目的性的惡意行為者或組織能夠繞開傳統(tǒng)信息制作的專業(yè)性要求,直接生成形式自然、內(nèi)容具有迷惑性的信息內(nèi)容。這種能力釋放導致污染行為進人低成本、高效率、可擴展的新階段,影響已遠超以往依賴專業(yè)編輯的傳播方式。因此,行為偏差層面構成了“AI污染\"生成邏輯中最具擴散動能的一環(huán)。污染行為不再依賴高門檻的技術資源或專業(yè)能力,而是與行為主體的動機、認知結構及傳播觸發(fā)點密切相關。在內(nèi)容生成的準入門檻和對社會信息的信任門檻雙雙下降的背景下,每一個具備聯(lián)網(wǎng)能力的個體都可能成為污染系統(tǒng)中的潛在節(jié)點。

(三)內(nèi)外耦合邏輯:多源驅動的污染交互放大

“AI污染\"的生成并非單純源自技術系統(tǒng)的脆弱性,也不僅僅是治理缺位的結果,而是更深層次地體現(xiàn)為技術系統(tǒng)與社會制度的交互失衡。模型、平臺、用戶與制度之間的動態(tài)聯(lián)動,構成污染內(nèi)容自我放大和循環(huán)擴散的機制。

第一,技術系統(tǒng)與制度體系的失配奠定了“AI污染\"生成的根源性基礎。當前的GAI模型普遍采用難以追蹤的高維參數(shù)結構,由于訓練語料不透明、輸出機制不可解釋,使治理者缺乏對模型內(nèi)部運行邏輯的有效介入渠道。而現(xiàn)行法律法規(guī)對AIGC的約束力有限,難以在污染內(nèi)容的產(chǎn)生初期實現(xiàn)有效識別、精準追責并及時治理。在具體實踐中,多數(shù)模型在設計階段并未內(nèi)置強制性的內(nèi)容水印、溯源標簽或異常檢測機制,這導致一旦生成內(nèi)容脫離模型本體進入公共傳播后便難以回溯,而平臺在治理實踐中大多依賴事后刪除、人工舉報等方式。這種技術與制度的雙重盲區(qū),使“AI污染\"呈現(xiàn)\"可生成、難追責、無監(jiān)管\"的狀態(tài),呈現(xiàn)被動的消極治理局面。

第二,平臺推薦與用戶行為的循環(huán)互動加速了“AI污染\"的擴散進程。污染內(nèi)容的規(guī)模化擴散往往始于平臺推薦機制與用戶行為之間的協(xié)同效應。多數(shù)社交媒體平臺依賴算法優(yōu)化用戶黏性,將高互動性、高爭議性的信息內(nèi)容設為優(yōu)先推送對象。GAI所產(chǎn)出的內(nèi)容恰恰具有結構完整、情緒濃烈、話題聚焦等特點,極易被算法識別為“高價值信息”,從而迅速形成熱點傳播。與此同時,普通用戶由于媒介素養(yǎng)和信息甄別能力的欠缺,往往無法識別內(nèi)容的生成屬性,在情感驅動和從眾心理影響下,主動參與內(nèi)容轉發(fā)與評論。算法系統(tǒng)根據(jù)用戶互動行為進一步判斷內(nèi)容熱度,從而不斷擴大傳播范圍,形成由用戶行為觸發(fā)、平臺算法強化的雙輪驅動鏈條。在此過程中,即便最初的污染源已被刪除或澄清,基于共鳴與互動所積聚的傳播勢能仍會推動內(nèi)容以新的形式持續(xù)演化與擴張。

第三,模型生成邏輯與惡意輸入的協(xié)同嵌套強化了“AI污染\"的放大效應。GAI模型普遍采用基于用戶意圖預測的訓練邏輯,在不斷優(yōu)化人機交互體驗的過程中,也埋下了生成“AI污染”的制度性風險。若用戶輸入的提示詞包含誤導或惡意意圖,模型可能在沒有足夠過濾能力的情況下生成帶有誘導性、煽動性或歧視性的內(nèi)容。一些持有目的性的用戶可通過持續(xù)嘗試與策略性編輯,實現(xiàn)對模型輸出內(nèi)容的精細操控,從而繞過平臺治理。更關鍵的是,模型通過反饋學習,能夠在與用戶大量互動中調整生成偏好。在缺乏正向價值規(guī)導與內(nèi)容篩選規(guī)范的前提下,模型極易吸收部分用戶的極端偏好,使污染內(nèi)容在數(shù)據(jù)層面獲得更多權重,并進入下一輪生成循環(huán)。模型由此便可能從被動的污染制造者演化為主動的污染放大者。

四、“AI污染”的澄明治道:技術、組織與價值復合式敏捷治理路徑

“AI污染\"的生成與擴散是技術脆弱性、制度滯后、平臺邏輯與社會心理多重因素交互作用的結果,其風險表現(xiàn)已從個別內(nèi)容層面的虛假與失真,逐步演化為系統(tǒng)性的信息失序和群體性認知偏誤。治理\"AI污染\"的難點不在于污染信息量的絕對增加,而在于污染機制所具備的自我擴散、自我遮蔽與自我更新能力。面對這一態(tài)勢,傳統(tǒng)依賴事前許可或事后取締的線性治理范式已難以奏效。GAI的快速迭代與動態(tài)演化,亟須一種具有快速感知、靈活響應和持續(xù)適應特征的治理模式。在此背景下,敏捷治理作為一種面向不確定環(huán)境的動態(tài)治理理念,強調迭代試錯、跨界協(xié)同與多元參與,能夠為治理\"AI污染\"提供理論支撐與實踐路徑。為此,本文構建了“三維路徑—三階理念\"融合的敏捷治理模型(見圖1):在縱向上,分為源頭治理、過程治理和動態(tài)治理三個層次,分別針對污染生成前端(知識污染與算法污染)、中端(“噪聲污染\"與偽造污染)和后端(認知污染)的風險環(huán)節(jié)進行響應;在橫向上,分別嵌入技術敏捷、組織敏捷與價值敏捷三類要素,構建前端以科學技術遏制為核心、中端以有效組織協(xié)作為支撐、后端以正向價值嵌入為導引的整體治理體系。

(一)源頭治理:以技術敏捷遏制污染生成的原點風險

“AI污染”的內(nèi)生性風險主要集中在前端環(huán)節(jié),表現(xiàn)為知識污染與算法污染兩類核心問題。源頭治理的目標在于通過技術敏捷手段,對人機交互過程中的三個關鍵環(huán)節(jié)——輸入端、運算端與輸出端實施前置性干預,并在此基礎上嵌入“技術維度\"的多點響應機制,以實現(xiàn)對知識污染和算法污染的遏制,提升治理系統(tǒng)的前瞻性和感知能力。

第一,在輸人端,強化語料治理以防范知識污染,確保訓練語料的真實性與規(guī)范性。輸入端是知識污染的最初環(huán)節(jié),語料的質量直接決定模型輸出內(nèi)容的質量。知識污染的根源在于數(shù)據(jù)投毒與不可靠語料的混入。治理的重點在于提升訓練語料的真實性與規(guī)范性。一是建立合法性審查機制,將訓練語料采集納人強制性的合法合規(guī)審查程序,特別是對涉及個人信息、敏感數(shù)據(jù)的內(nèi)容,實行分級管理和嚴格過濾,確保未經(jīng)授權的數(shù)據(jù)不能納入訓練。二是推動建設國家級和行業(yè)級標準化語料庫,在采集、清洗、存儲和調用環(huán)節(jié)引人權威審查機制,形成跨學科、多模態(tài)的語料支撐體系。三是引人“預防性禁令\"機制,對存在較大法律或倫理風險的數(shù)據(jù)訓練項目提前阻斷,確保潛在違法風險在萌芽階段就得到控制。四是建立數(shù)據(jù)全生命周期可追溯機制,使訓練數(shù)據(jù)能夠實現(xiàn)來源可查、去向可控、責任可究。

圖1“AI污染\"的敏捷治理模型

第二,在運算端,推進算法治理以抑制算法污染,提高模型運行的透明性、可解釋性與穩(wěn)健性。運算端的風險主要體現(xiàn)為算法污染。運算端涉及預訓練、微調、對齊和專門化等多個技術過程。每一個環(huán)節(jié)都可能因數(shù)據(jù)、模型設計產(chǎn)生算法偏見或不可預測的輸出。為此,需要推進算法透明化和可解釋性建設。一是建立算法備案與文檔透明化制度,模型開發(fā)者對訓練數(shù)據(jù)來源、算法邏輯、參數(shù)選擇、目標函數(shù)設定進行備案,并形成可公開查詢的算法文檔。政府與學術機構也可聯(lián)合開發(fā)算法審計工具,推動模型文檔透明化和可解釋性建設。二是強化價值對齊與責任前置,推動建立跨行業(yè)的“價值對齊\"標準,使模型生成內(nèi)容能夠與公共倫理、社會責任和多元文化保持相協(xié)調。同時,明確開發(fā)者在未來潛在風險中的首要責任地位,避免責任模糊化,提升算法治理責任的可歸屬性,避免算法污染在模型迭代中不斷累積。三是推動核心算法的自主攻關,強化國家層面的科研投入與產(chǎn)業(yè)聯(lián)盟建設,推進核心算法的自主研發(fā)和開源共享,以增強本土治理的自主性和主動性。

第三,在輸出端,健全內(nèi)容治理以攔截早期污染結果,完善生成結果的檢測與標識機制。雖然算法污染和知識污染的根源在輸入與運算階段,但其后果往往在輸出端顯現(xiàn)。輸出端是污染信息進入社會空間的最后一道關口,也是阻斷風險涌現(xiàn)的關鍵節(jié)點。一是構建高風險內(nèi)容及時攔截機制。對于涉及虛假、偽造、歧視和煽動的內(nèi)容,在模型輸出階段設置“實時攔截閥”,通過AI檢測、圖文比對、語義異常識別等技術手段實現(xiàn)即時篩查,避免高風險內(nèi)容進入傳播鏈條。二是推行統(tǒng)一的標注與溯源制度,平臺應對模型生成內(nèi)容加注“水印\"或“溯源標簽”,以提升用戶識別能力,實現(xiàn)生成內(nèi)容的來源可追溯、責任可界定。三是完善人機協(xié)同防護體系,平臺通過整合技術檢測、人工審核與用戶舉報機制,形成“三位一體\"的治理體系。在此過程中,自動化工具負責大規(guī)模識別與過濾,人工審核負責對高風險內(nèi)容進行價值判斷與責任認定,用戶舉報機制則作為外部補充,形成多主體聯(lián)動參與共治的多層防控體系。

(二)過程治理:以組織敏捷阻斷污染信息的傳播擴散

與前端環(huán)節(jié)的生成風險不同,中端環(huán)節(jié)的核心挑戰(zhàn)在于污染的規(guī)模化傳播,主要表現(xiàn)為“噪聲\"污染與偽造污染,二者均依托平臺算法推薦與社交網(wǎng)絡擴散邏輯而迅速傳播。這使污染力度在傳播鏈條中成倍放大,破壞力遠超前端環(huán)節(jié)。因此,過程治理需依托組織敏捷,構建動態(tài)響應與高效協(xié)作的組織性調控機制,針對“噪聲\"污染和偽造污染在生成后的各類傳播鏈條進行系統(tǒng)阻斷,從而切斷影響擴散的傳播基礎,主要側重于信息傳播過程中的人人交互場景,圍繞傳播起點、傳播媒介與傳播終點三個關鍵環(huán)節(jié)展開組織層面的敏捷響應。

第一,在傳播起點環(huán)節(jié),強化風險識別,實現(xiàn)前置化治理部署。傳播起點是污染信息初次進人公共空間的關鍵節(jié)點,主要是海量低質內(nèi)容的快速釋放及深度偽造的偽裝性傳播。風險在于生成形態(tài)往往特征隱匿,平臺與監(jiān)管機構難以及時識別與響應,極易形成治理“盲點”。因此,過程治理應強化風險識別與前置化治理部署。一是嵌入式識別機制。推動治理機制前置化,將大模型風險識別系統(tǒng)嵌入平臺內(nèi)容生產(chǎn)與分發(fā)環(huán)節(jié),實時對文本、圖像、音頻、視頻等多模態(tài)輸出進行敏感特征提取與深度剖析。借助多源數(shù)據(jù)融合與語義異常識別模型,精準判斷污染信息的演化趨勢,以實現(xiàn)“防早防小\"的污染控制效果。二是多源預警機制。推動平臺與監(jiān)管部門、第三方機構、公眾之間建立聯(lián)合預警體系。借助風險識別的外部力量,增強識別的專業(yè)性與前瞻性。公眾舉報與輿情監(jiān)測系統(tǒng)也可作為補充機制提高治理覆蓋面。三是差異化治理策略。對不同類型的污染實施分類治理,如對于新聞資訊類污染信息,應重點關注信息真?zhèn)蔚暮藢?對于娛樂性或社交性信息,則應重點關注價值導向和潛在社會影響。差異化治理不僅有助于提升效能,也能避免“一刀切”造成的治理失靈。

第二,在傳播媒介環(huán)節(jié),壓實平臺責任,完善監(jiān)測與處置機制。污染信息的放大效應在媒介環(huán)節(jié)最為顯著,在此階段,“噪聲\"污染通過社交媒體大規(guī)模分發(fā),偽造污染則依托平臺推薦與跨媒體渠道大量溢出。因此,需強化平臺責任與媒介治理能力,推動技術平臺從“信息分發(fā)者\"轉變?yōu)椤帮L險管控者”。一是引導平臺建立內(nèi)容識別、動態(tài)監(jiān)測與風控響應的一體化系統(tǒng),利用AI識別、圖文語義比對和內(nèi)容追蹤等技術手段增強識別精準度。二是完善違規(guī)行為處置規(guī)則,完善賬號分級管理和黑名單制度,對屢次傳播污染內(nèi)容的用戶或組織實施高頻次審查、限流乃至封禁措施,同時將生成式內(nèi)容納人平臺內(nèi)容生態(tài)的分類管理,將不同風險等級的內(nèi)容納人差異化監(jiān)督,防止信息污染穿透內(nèi)容審查與平臺邊界。三是建立跨境平臺合作機制,防止污染在不同國家和語言環(huán)境中反復擴散。污染信息往往也會跨語種、跨平臺流轉,尤其是在國際社交媒體環(huán)境下,單一平臺的防控難以有效遏制“AI污染”擴散。因此,需要推動跨境合作與跨平臺治理機制,建立國際性的污染信息監(jiān)測聯(lián)盟,借助技術接口共享與數(shù)據(jù)協(xié)同,實現(xiàn)跨境污染信息的同步追蹤與處置。

第三,在傳播終點環(huán)節(jié),推進用戶治理,強化公眾教育與社會參與。傳播終點是污染信息作用于個體認知與群體輿論的直接入口。用戶既是“噪聲\"污染和偽造污染的最終接收者,也是再傳播者,用戶的行為偏差往往成為污染信息擴散的直接動能。因此,治理終點環(huán)節(jié)不僅要明確用戶責任邊界,還需通過公眾教育與社會參與構建可持續(xù)性的治理合力。一是結合用戶的異質性特征建立分級管理策略,明確各類用戶對AI生成內(nèi)容的使用邊界、發(fā)布權限與核查責任。對具備公共影響力的內(nèi)容創(chuàng)作者、機構賬號等重點群體,實施更高標準的風險準入與事后審查機制;對普通用戶,則通過分級管理明確風險責任,并提供必要的風險提示與行為規(guī)范。二是將公眾教育納人敏捷治理的組織協(xié)同體系,強化個體在信息生態(tài)中的主體責任意識。政府、企業(yè)與平臺應聯(lián)合推動媒介素養(yǎng)教育,構建數(shù)字公民知識體系,引導公眾建立正確的信息甄別能力與風險感知意識。通過在線課程、公共宣傳、案例警示等方式,提升公眾識別信息和深度偽造的能力,從而在認知層面提高公眾的免疫力。三是鼓勵平臺設立用戶參與共治機制,公眾不僅是污染信息的潛在承受者,也是治理體系的重要參與者,應健全和完善用戶舉報、社會監(jiān)督與自治組織緊密協(xié)同的治理機制。

(三)動態(tài)治理:以價值敏捷消解污染效應的認知沉積

與前端環(huán)節(jié)的生成風險和中端環(huán)節(jié)的傳播擴散相比,后端環(huán)節(jié)的核心挑戰(zhàn)在于認知層面的污染沉積。不同于作為外顯風險的其他污染形態(tài),認知污染往往以隱蔽而長期的方式作用于公眾的判斷與社會的信任結構,典型表現(xiàn)包括思維惰性、原創(chuàng)意識退化和認知幻覺,最終造成公共理性削弱和認知極化。因此,與前兩類治理相比,動態(tài)治理的目標不在于單純的事后清理,而是以價值敏捷構建一套能夠及時糾偏、持續(xù)調適和向上向善的治理機制。通過柔性引導主體行為、動態(tài)調適治理理念、協(xié)同塑造認知信任,從而應對認知污染的深層風險。

第一,堅持以人為本的公共價值導向。認知污染的核心危害在于對個體判斷與社會信任的長期侵蝕,因此治理必須從價值層面人手。治理不僅是技術問題,更是價值選擇。認知污染在沉積過程中會加劇算法歧視和數(shù)字不公,治理必須回歸公共價值本體。政府應加強數(shù)據(jù)倫理和隱私保護,推動從控制型監(jiān)管向服務型治理轉型。以用戶視角優(yōu)化公共服務設計,防止算法歧視帶來的認知不平等。同時,以敏捷思維加強對科技企業(yè)的價值引導。企業(yè)應在追求技術效益的同時,嵌人社會責任與公共價值考量,減少主觀偏好對模型輸出的操控。更重要的是,將公眾由治理對象轉變?yōu)橹卫碇黧w,歸還數(shù)據(jù)權利、激發(fā)參與意愿,通過媒介素養(yǎng)教育、協(xié)商機制等形式提升公眾識別AI生成內(nèi)容和抵御認知污染的能力。多元治理主體協(xié)力達成“可信任AI\"的價值共識,堅持以人本價值理性的“韁繩\"來牽引AI發(fā)展的技術理性。

第二,強化風險規(guī)制中的辯證思維。認知污染具有潛移默化和長期積累的特征,其風險并非線性可預測,而是充滿不確定性和動態(tài)演化性,危害短期內(nèi)不易顯現(xiàn),但可能在社會認知、價值體系與公共信任層面逐步累積。在此情境中,如果治理只依賴靜態(tài)的合規(guī)手段與固定的技術規(guī)范將不足以應對持續(xù)演化的認知污染態(tài)勢,造成治理被動性和碎片化。因此,治理體系必須引入辯證思維,以歷史視角和辯證方法理解AI技術的兩面性,既要看到認知污染可能引發(fā)的“幻覺現(xiàn)實”,也要認識其在信息公平、知識平權化、認知拓展中的潛在價值。通過推動試點政策與逐步推廣相結合的方式,在實踐中積累經(jīng)驗并不斷優(yōu)化治理規(guī)則,實現(xiàn)風險規(guī)制的柔性化與動態(tài)化,使治理機制始終保持靈活性與適應性。在承認AI技術之風險與價值并存的前提下,積極打造能適應復雜環(huán)境且更具韌性的治理體系。

第三,倡導包容審慎的容錯糾偏文化。認知污染的隱蔽性和累積性決定了即便治理體系具有前瞻性與靈活性,也難以完全避免治理行動可能出現(xiàn)失效、延誤或誤判的情況。因此,治理體系需從“零容錯”的剛性思維轉向更具包容性和韌性的治理取向,將錯誤視為學習和改進的契機,而非單純的責任歸咎,增強治理組織的彈性和適應性。在政府部門,完善內(nèi)部容錯制度與問責彈性邊界,鼓勵公務人員在應對認知污染時進行政策試驗和制度探索,使政府組織從錯誤中快速學習,以低成本的試錯完善治理措施。在企業(yè)層面,打造以團隊自治和任務導向為核心的信任型組織文化,給予團隊和研發(fā)人員自主權和試驗空間,鼓勵他們在安全可控的范圍內(nèi)不斷進行技術創(chuàng)新,減少認知污染的技術性源頭,推動人工智能的健康發(fā)展與持續(xù)創(chuàng)新。在社會層面,通過媒介素養(yǎng)教育、公共輿論平臺建設、用戶自律公約遵循等方式,提升公眾對認知污染的集體感知與自我調節(jié)能力。最終,治理共同體能夠在容錯糾偏的包容性互動中夯實穩(wěn)定的社會信任基礎,為動態(tài)治理提供長期支撐。

參考文獻:

[1]景奎,徐鳳敏,王柯蘊.生成式人工智能傳播風險:理論內(nèi)涵、形成機理與治理策略[J].西安交通大學學報(社會科學版),2025,(2).

[2]Metz Cade.“The Godfather of A.1.\"Leaves Google and Warns of Danger Ahead?[N].The New York Times,2023-05-04.

[3]宋瑞,柳媛.警惕“AI污染\"亂象[N].新華每日電訊,2024-10-22.

[4]漆晨航.生成式人工智能的虛假信息風險特征及其治理路徑[J].情報理論與實踐,2024,(3).

[5]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023,(3).

[6]楊利華.人工智能生成物著作權問題探究[J].現(xiàn)代法學,2021,(4).

[7]陳京春,楊歷霖.生成式人工智能的意識形態(tài)風險及其法律因應[J].西安交通大學學報(社會科學版),2025,(4).

[8]張素華,李凱.生成式人工智能虛假信息風險與治理研究[J].學術探索,2024,(7).

[9]趙剛,孫戈,王春宇.生成式人工智能視域下塑造主流輿論新格局的風險、機遇及創(chuàng)新路徑[J].中國廣播電視學刊,2023,(8).

[10]曾潤喜,秦維.人工智能生成內(nèi)容的認知風險:形成機理與治理[J].出版發(fā)行研究,2023,(8).

[11]周慶山,李瀚瀛,朱建榮,等.信息生態(tài)學研究的概況及術語初探[J].圖書與情報,2006,(6).

[12]王在宇.網(wǎng)絡信息污染狀況評價研究[D].重慶:重慶郵電大學,2017.

[13]邵培仁.媒介生態(tài)學:媒介作為綠色生態(tài)的研究[M].北京:中國傳媒大學出版社,2008.

[14]石婧,常禹雨,祝夢迪.人工智能“深度偽造”的治理模式比較研究[J].電子政務,2020,(5).

[15]劉白云.AI“傷害”人類的證據(jù)出現(xiàn)了[EB/OL].[2025-07-11].https://mp.weixin.qq.com/s/YV0F-oUqWNoKyouM3eyN8Pg.

[16]袁建軍,陳錦.從“智\"到“能”:生成式人工智能助推政務服務智能化的實踐理路[J].中共天津市委黨校學報,2024,(6).

[17]黃榮,呂尚彬.ChatGPT:本體、影響及趨勢[J].當代傳播,2023,(2).

[18]張華平,李林翰,李春錦.ChatGPT中文性能測評與風險應對[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2023,(3).

[19]馬嘉悅,聶林浩.語料污染致AI大模型有害內(nèi)容顯著增加,如何筑牢防火墻?[EB/OL].[2025-07-30].https://finance.sina.com.cn/wm/2025-05-30/doc-ineyhwik8927597.shtml.

[20]Perrigo Billy.Exclusive:OpenAI Used Kenyan Workers on Less Than $\$ 2$ PerHourtoMakeChatGPTLessToxic[EB/OL].[2025-07-11].htps://cse. buffalo.edu/mlsoc/assets/files/openai_kenyan_worker. pdf.

[21]Emily M.Bender,Batya Friedman.Data Statements for Natural Language Processing:Toward Mitigating SystemBiasand Enabling Better ScienceJ].Transactions of the Association for Computational Linguistics,2018,(6).

[22]謝梅,王世龍.ChatGPT出圈后人工智能生成內(nèi)容的風險類型及其治理[J].新聞界,2023,(8).

[23]董青嶺.人工智能時代的算法黑箱與信任重建[J].人民論壇·學術前沿,2024,(16).

[24]江潞潞.智能交往,未來已來—“激蕩AIGC\"數(shù)字交往八人談觀點綜述[J].傳媒觀察,2023,(3).

[25]支振鋒.生成式人工智能大模型的信息內(nèi)容治理[J].政法論壇,2023,(4).

[26]何哲,曾潤喜,秦維,等.ChatGPT等新一代人工智能技術的社會影響及其治理[J].電子政務,2023,(4).

[27]朱嘉珺.生成式人工智能虛假有害信息規(guī)制的挑戰(zhàn)與應對——以ChatGPT的應用為引[J].比較法研究,2023,(5).

[28]王祿生.論“深度偽造”智能技術的一體化規(guī)制[J].東方法學,2019,(6).

[29]曹淼.“AI治理\"何以戰(zhàn)勝“AI謠言\"?[EB/OL].[2025-09-21].htps:/finance.people.com.cn/n1/2025/0919/c1004-40567884.html.

責任編輯:陳 麗

“ AI Pollution” and Its Clarifying Governance

Chen Jianping,Kang Tongli

Abstract:“AI pollution” represents a novel form of information pollution emerging from the development of generative AI. It exhibits self-reinforcing structural vulnerabilities rooted in data deficiencies,algorithmic black boxes,and multimodal synthesis,which are further amplified by the interplay of institutional lag,platform mechanisms,and user behaviors. Vertically,a tiered response mechanism addressing pollution generation, dissemination,and cognitive impact shall be implemented through source governance, process governance, and dynamic governance. Horizontally, a comprehensive governance framework encompassing front-end containment,mid-end interception, and back-end mitigation shall be established via multidimensional coordination among technological agility,organizational agility,and value agility.

Key words: generative AI,“AI pollution”,artificial intelligence generated content,agile governance

主站蜘蛛池模板: 亚洲最猛黑人xxxx黑人猛交 | 亚洲欧美日韩成人在线| 亚洲AV无码乱码在线观看代蜜桃| 久久99精品国产麻豆宅宅| 免费一级毛片不卡在线播放| 热久久这里是精品6免费观看| 亚洲欧美国产视频| 性喷潮久久久久久久久| 制服丝袜在线视频香蕉| 日本一本在线视频| 精品亚洲国产成人AV| 亚洲自偷自拍另类小说| 免费观看无遮挡www的小视频| 亚国产欧美在线人成| 国产久操视频| 免费无码一区二区| 国产精品欧美在线观看| 国产综合另类小说色区色噜噜| 激情综合网址| 国产精品网曝门免费视频| 熟女日韩精品2区| 亚洲第一国产综合| 亚洲水蜜桃久久综合网站| 日韩毛片基地| 欧美精品亚洲精品日韩专| 亚洲精品午夜天堂网页| 欧美激情视频在线观看一区| 国产精品对白刺激| 亚洲人成影院午夜网站| 国产菊爆视频在线观看| 国产精品成人久久| 亚洲第一精品福利| 久久久久久久久亚洲精品| 97人妻精品专区久久久久| 亚洲码在线中文在线观看| 色首页AV在线| 日本不卡在线视频| 中文字幕亚洲精品2页| 亚洲久悠悠色悠在线播放| 免费一级毛片不卡在线播放| 国产免费怡红院视频| 亚洲无码91视频| 久久天天躁狠狠躁夜夜躁| 五月婷婷丁香色| 国产成人综合网| 久久精品中文字幕免费| 亚洲综合亚洲国产尤物| 亚洲一区二区三区香蕉| 红杏AV在线无码| 99热亚洲精品6码| 精品久久蜜桃| 日韩毛片在线视频| 国产成a人片在线播放| 亚洲最大综合网| 欧美色综合网站| 欧美在线免费| 最近最新中文字幕在线第一页| 在线观看免费人成视频色快速| 久久男人资源站| 久久久波多野结衣av一区二区| 欧美日韩国产在线人| 国产激情无码一区二区免费| 亚洲AV无码久久天堂| 亚洲成人网在线观看| 久久五月天国产自| 啊嗯不日本网站| 婷婷伊人五月| 成人国产精品视频频| 九色免费视频| 久久婷婷五月综合97色| 精品国产成人a在线观看| 亚洲综合专区| 日本高清免费一本在线观看 | 18禁不卡免费网站| 很黄的网站在线观看| 热久久综合这里只有精品电影| 日韩国产一区二区三区无码| 国产精品99一区不卡| 国产噜噜在线视频观看| 日本a级免费| 91精品国产91久无码网站| 亚洲日韩精品综合在线一区二区|