在人工智能(AI)技術迅猛發展的今天,新聞媒體與AI技術的融合不可逆轉,生成式人工智能(GAI)在新聞傳播領域的應用日益廣泛,從自動寫作到輔助創作、從個性化制作到精準化投放,新聞媒體的內容生產、運營分發、盈利模式、人才需求全方位重整,受眾與新聞之間的關系被重塑,新聞獲取正在逐漸轉變為一種多維度、個性化的受眾體驗。在這個轉變過程中,隨著AI深度偽造技術的興起和AIGC的擴散,受眾對新聞真實性的辨識面臨前所未有的沖擊,AI時代新聞宣傳維護真實性和公信力的任務愈發緊迫。黨的二十屆三中全會提出,完善生成式人工智能發展和管理機制。這就要求媒體不僅需要關注技術的革新,更需要研究受眾的心理機制,積極采取有效措施,應對復雜風險。
一、GAI對新聞真實性的沖擊
GAI正以驚人的速度重塑新聞生產與傳播的全鏈條,深度偽造技術作為GAI的重要應用,能夠模仿生成看似真實的音頻、圖像和視頻,高度逼真的音像模糊了真實與虛構的邊界,其應用對新聞真實性造成多層面的沖擊。
1.GAI擾動新聞生產的技術傳統。GAI的內容生產主要表現為生產流程的隱蔽性、傳播擴散的即時性以及內容形態的迷惑性。在生產環節,AI算法通常以“黑箱”方式運作,其內容生成過程缺乏透明性,凸顯了現有監管框架在技術實施和數據溯源方面的局限性。在傳播環節,AIGC可以近乎零延時地大規模復制和擴散,AI生成一篇新聞報道僅需數秒,而人工核查則需要數小時甚至數日,傳播速度突破了傳統人工核查的能力范圍。在內容形態上,多模態生成技術創造的文本、圖像、音頻和視頻具有高度協調一致性,進一步增加了辨偽難度。2025年3月,哥倫比亞大學托爾數字新聞中心(TowCenterforDigitalJournalism)對8款AI搜索展開研究,結果顯示,查找新聞時8款AI搜索提供的回復有 60% 不準確,但這些錯誤信息往往包裝得極具說服力。
2.新聞真實性問題的表現形式日趨復雜。一方面,泛濫的AIGC會導致一些受眾對所有信息持懷疑態度,形成“真實冷漠”現象;另一方面,精心設計的深度偽造內容又可能誤導一些受眾將其當作真實新聞。這兩種現象看似矛盾實則同源,都屬于真實辨認機制失效導致的信息處理障礙。《21世紀經濟報道》的一項測試顯示,對6款AI進行330次新聞引用測試,平均準確率僅有 25% , 27% 的新聞來源被完全錯誤引用,提供的鏈接近一半無法打開或明顯編造。這種普遍存在的準確性缺陷嚴重污染著新聞信息生態,使受眾陷入真偽莫辨的認知困境。
3.GAI正在改變新聞真實性的認識論基礎。馬克思主義新聞觀強調堅持新聞的真實性原則,而在AI時代,新聞真實性辨別門檻大幅度抬高,真實性演變為信息與受眾心理機制互動的產物,受眾辨別真偽的理性認知過程逐漸讓位于基于感性的簡化判斷。當判斷新聞真假成為高認知負荷任務時,受眾會本能地選擇認知捷徑一一全盤接受或一概拒絕,這兩種極端態度都對健康的新聞生態構成嚴重威脅。另外,AI技術的精準投喂機制實質上加劇了信息繭房、過濾泡、回音室的堅固性,加之不同群體對新聞信息判斷能力的差異,會強化群體間的認知分歧,導致社會認知鴻溝的加深。
二、新聞真實性問題對受眾的影響
GAI的廣泛應用,正在深刻重塑新聞受眾的心理機制和行為模式,這種轉變既是對技術環境的適應性反應,也反過來加劇著新聞真實性問題的復雜程度。
1.受眾信息處理路徑發生結構性變化。上海理工大學劉強與王琳的研究顯示,通過實驗數據揭示AI自我效能(即個體對自身識別AIGC能力的信心)與新聞真實性倦怠之間的聯系。該研究表明,多重信息渠道的驗證、媒體對虛假信息的強化等因素會使受眾的AI自我效能降低,產生無力感,采取倦怠態度,表現為放棄對潛在虛假信息的抵抗,不再嘗試驗證所接觸新聞的生成源。傳統“接觸一辨別一參與”的理性認知模式逐漸被簡化為“接觸一參與”的直覺性反應。這種認知捷徑雖然減輕了信息過載帶來的心理負擔,卻使受眾暴露于虛假信息風險之中。上述研究發現,在接觸高相關新聞時,受眾的新聞真實性倦怠會正向影響在線公共參與行為,但這種參與往往盲目且缺乏批判性。一部分受眾會在參與在線公共討論或分享新聞內容時,表現出比以往更低的合作性和責任心;另一部分受眾則出于不信任帶來的心理壓力,選擇完全回避新聞接觸,這兩種行為策略都將對新聞生態造成消極影響。
2.新聞內容特征在調節受眾反應方面扮演關鍵角色。受眾對不同內容特征的新聞所采取的策略存在顯著差異。高相關且能讓人們感知到更多風險的新聞更易引發受眾的新聞生成源鑒別機制,而低相關或低風險新聞則更容易引發真實性倦怠。值得注意的是,在低風險新聞情境下,相較于低相關新聞,用戶AI自我效能降低更易引發對高相關新聞的真實性倦怠。這表明受眾在面對看似重要卻又不太可能直接影響自身的信息時,反而更容易采取冷漠態度。這種矛盾反應揭示了AI時代受眾心理的復雜性一當感知責任與感知能力嚴重不匹配時,個體會選擇放棄認知努力以緩解焦慮。
社會認知層面,深度偽造技術的泛濫會導致受眾長期暴露于真假難辨的信息環境中,逐漸發展出一種“犬儒式認知免疫”,即預先假設所有新聞內容都可能是虛假的,以此保護自己免受欺騙。這種防御機制雖然在短期內減輕了認知失調,但長遠來看卻侵蝕著社會共享現實的根基。當新聞報道被一些受眾視同虛構創作時,社會公眾就基本事實達成共識的能力將弱化。
3.技術接觸不平等進一步加劇了受眾認知分化。AI技術是一把“雙刃劍”,既能以低成本、高速度傳播謠言,也能大幅提升辟謠效力。然而,這種辟謠效力的發揮依賴于受眾對互聯網信息保持基本警惕的能力,而這種能力在網民中分布極不均衡。信息素養較低的群體,如部分老年人、教育程度較低者或數字技術接觸有限的人群,更容易成為AI假新聞的受害者。這種數字鴻溝不僅體現在技術接入層面,更體現在批判性思維和信息鑒別能力的差異上,形成了新形態的認知不平等。當一部分群體能夠利用AI工具進行信息驗證和事實核查時,另一部分群體卻可能完全無法辨別最基本的真偽,這種分化對社會凝聚力構成潛在挑戰。
長期來看,GAI對受眾認知和行為模式的影響可能強化兩類問題:一是虛無主義,即認為所有新聞都不可信,真相不存在或不可知;二是極端化,即只相信符合自己預設觀點的信息,拒絕任何相左的證據。這兩種傾向都對堅持新聞真實性的努力構成挑戰。
三、新聞真實性遭遇的潛在風險
隨著GAI的不斷進步,新聞真實性將遭遇一系列潛在風險。當AI可以完美模擬真實事件的報道風格,甚至偽造出看似專業的信源和證據鏈時,受眾逐漸失去區分事實與虛構的認知標尺,陷入“真實感”替代“真實性”的迷思。深度偽造技術生成大量無實際意義的內容,“新黃色新聞潮”暗流洶涌,擠壓著大眾的深度思考空間和認知視野。在這種環境下,真實性價值遭遇消解,即使是嚴謹專業的新聞報道,也可能被受眾先入為主地視為另一種形式的“創作”。
1.信任機制解構是風險的核心表現。傳統新聞業依靠制度化的核實流程、專業化的記者隊伍和可追溯的信息來源建立公信力,這些要素共同構成了受眾信任的基礎。然而,AIGC的大規模介入新聞生產使這套信任體系面臨危機。除前文所述的準確率問題以外,大部分AI會自信地提供錯誤答案而不是直率地承認不知道。受眾反復遭遇此類情況,很可能會發展出一種普遍化的不信任態度,將所有新聞內容視為某種形式的虛構敘事。
2.敘事邏輯同質化加劇了真假難辨的困境。GAI通常基于海量文本訓練,產出符合常規新聞報道敘事結構和語言風格的內容,但缺乏真實報道中的細微差異和多元視角。“模板化傾向”明顯的AI生成文本,難以承載深度報道所需的復雜邏輯架構。這種現象使受眾難以通過文本特征區分真實新聞與AIGC。尤其當AI被用于“改造”真實新聞(如生成不同版本以適配不同受眾)時,原始事實的核心要素可能在“千人千面”的分眾化生成中逐漸失真。這類內容既包含真實元素又摻雜虛構成分,對受眾的辨別能力提出更高要求,也更容易繞過傳統的事實核查機制。
3.情感真實與事實真實混淆扭曲新聞價值判斷。新聞宣傳強調事實準確性與情感共鳴的平衡,而AI技術尤其擅長模擬情感表達。雖然AI難以傳遞政策背后的民生關懷,卻能夠生成邏輯嚴謹的政策解讀;虛擬記者無法復現真人記者通過表情、語氣捕捉的情感深度,卻可以輕松提交條理清晰的訪談記錄。這種錯位導致:當AIGC刻意添加情感元素以增強說服力時,可能比真實新聞更符合受眾對“好故事”的期待;而真正包含復雜情感和道德張力的深度報道,卻不如AI作品能吸引個體受眾。情感沖擊力而非事實準確性成為受眾判斷新聞優劣的主要依據,會扭曲新聞價值判斷。
4.歷史記憶的重構是更為深遠的隱憂。新聞媒體不僅是信息傳播者,更是歷史記憶的建構者和守護者。真實新聞報道通過對重大事件的記錄與解讀,構建集體的歷史記憶。然而,當AI可以隨意生成“歷史報道”甚至“歷史影像”時,歷史記憶將失去穩定性。AI經常混淆不同事件的時間,將陳舊素材當作最新情況,這種錯亂如果長期大規模存在,將導致受眾失去對歷史客觀性的把握。更嚴重的是,通過AI生成大量扭曲的“另類歷史”,會弱化新聞的歷史記錄功能。
5.行業生態的扭曲也不容忽視。當AIGC以極低成本大量涌入時,專業新聞機構面臨嚴峻的生存壓力。為維持競爭力,部分媒體可能被迫降低內容質量標準,加快生產節奏,進一步模糊專業新聞與AI內容的界限。同時,AI推薦算法傾向于分發高參與度內容,這種機制往往優先傳播情緒化、極端化的信息,可能使嚴肅新聞處于流量劣勢。AI的商業立場使其鏈接傾向其開發商開發的“親緣”門戶網站,或為自媒體“搬運號”引流,這使得原創媒體獲取流量更加困難。在這種扭曲的激勵結構下,專業新聞工作者的角色被邊緣化,新聞宣傳的社會功能持續弱化,造成惡性循環:越是缺乏優質的新聞報道,受眾越難以建立辨別標準;而辨別能力越低,對新聞事實的支持就越少。
四、堅守新聞真實性以應對風險挑戰
2017年以來,國家陸續出臺了一系列法律法規,強化人工智能安全治理,推動人工智能向善發展。新聞真實性面臨的風險不僅是技術問題,還關系到社會基于共同現實進行理性辯論和集體決策的能力。應對這一風險,需要政策制定者、技術開發者、新聞從業者和普通公眾共同努力,在創新與倫理、效率與責任之間尋找平衡點,守護新聞真實性這一不可替代的公共價值。未來新聞業的核心競爭力將不再局限于技術效率,而轉向智能向善與人文價值的回歸。
1.技術防御體系的與時俱進。面對GAI對新聞真實性帶來的嚴峻挑戰,構建多層次、系統化的技術防御體系已成為當務之急。技術手段既是問題的源頭,也是解決方案的重要組成部分。當前,亟須從內容認證、算法透明、檢測工具和平臺責任四個方面入手,打造能夠抵御AI虛假信息的技術生態系統。內容溯源與認證技術是確保新聞真實性的第一道防線,算法透明與可解釋性提升是建立技術信任的關鍵,檢測工具與驗證技術的普及是賦能受眾的重要手段,平臺架構與責任機制的重構是技術應對的系統保障,適應性技術治理框架是應對快速演變挑戰的必要設計。技術層面的應對策略需要持續迭代和多方協作。一方面,技術開發者應秉持“負責任創新”原則,在追求模型性能的同時充分考慮社會影響;另一方面,新聞媒體必須積極擁抱技術變革,將AI工具視為真實性保障的助力而非威脅。最終,構建一個人機協同、真假可辨的信息環境,使技術真正成為守護新聞真實性的力量。在這個過程中,技術創新與倫理考量必須齊頭并進,任何單純的技術解決方案都無法應對如此復雜的社會挑戰。
2.制度與教育層面的綜合治理。在制度和教育層面必須構建法律制度、行業規范與公民教育三位一體的綜合治理體系。這種綜合治理既能從外部約束AI技術的濫用,又能從內部提升社會整體的信息免疫力,形成維護新聞真實性的長效機制。制度與教育層面的干預雖然見效較慢,但影響更為深遠,能夠觸及技術手段難以解決的結構性問題。法律與監管框架的完善是制度應對的基石,行業自律與標準制定是法律監管的重要補充,新聞素養教育的革新是培養辨別能力的根本途徑,公眾參與和監督機制的建立有助于形成社會共治格局,全球治理協作是應對無國界挑戰的必然選擇。
GAI的快速發展雖然帶來了真實性問題,但也為新聞創新提供了前所未有的機遇。從自動化事實核查到多語言即時傳播,從個性化知識補充到沉浸式敘事體驗,讓這些技術進步以正確方式得到廣泛應用,將增強而非削弱新聞的公共價值。
由GAI引發的新聞真實性問題,本質上是技術變革與社會價值體系調整不同步的產物。解決問題不能單純依靠簡單的技術修復或道德呼呼,而需要重新思考AI時代真相的定義、生產和驗證方式。真實性應理解為動態的、多維的建構過程一一在這個過程中,技術提供效率,制度提供保障,教育提供基礎,而人類判斷始終處于核心位置,具有關鍵判斷的主導權。唯有保持這種平衡,我們才能在享受AI技術紅利的同時,守護新聞的根本價值。
(作者系《思想政治工作研究》雜志社主任編輯)
參考文獻
[1]劉強,王琳.假如AI欺騙了你?受眾對新聞真實的認知、態度與后效行為研究[I].新聞與寫作,2025(03).
[2]趙家興,宋軒.生成式AI賦能新聞傳播:研究現狀、實踐范式與未來挑戰[].北方傳媒研究,2025(02).
【編輯:李棟】