
【內容提要】研究聚焦以DeepSeek為代表的生成式人工智能在新聞生產環節中產生的“幻覺”現象,剖析其對新聞真實性構成的系統性風險。通過案例分析法,識別并論證AI幻覺在新聞業中的主要風險:受眾認知異化與從業者專業判斷弱化、新聞生產的“靈韻”消逝與創造力下降、深度偽造泛濫引發信任危機與新型犯罪。基于此,本研究提出“人機共治”框架下的針對性對策:研發應用于新聞場景的幻覺檢測與治理技術、優化模型訓練策略以提升新聞領域數據質量與事實導向、構建新聞內容溯源與透明度機制、加強新聞從業者與公眾的AIGC信息素養教育,以期在擁抱技術紅利的同時,筑牢新聞真實的基石。
【關鍵詞】AI幻覺;擬像世界;人機共治
“智能時代,未來已來”。人工智能的快速迭代昭示著人類社會已經步入以智能化為特征的深度技術革新階段。AI的觸角正快速延伸至新聞業的各個核心環節,從新聞線索的智能挖掘、多源信息的自動聚合,到突發新聞的快速撰寫、深度報道的輔助創作,再到稿件的智能編輯、標題的優化生成以及個性化新聞推送的內容適配,生成式AI正深刻改變著傳統新聞生產的流程與模式,展現出提升效率、拓展邊界的巨大潛力。然而,在這一技術滲透過程中,其固有的核心缺陷——“幻覺”現象日益凸顯,這一現象特指AI模型在生成內容時,會產出看似語言流暢、邏輯自洽,實則包含事實錯誤、邏輯矛盾,或與原始指令存在明顯偏離的信息。對于以真實性為生命線的新聞業而言,“幻覺”內容直接動搖了新聞報道賴以生存和獲得公眾信任的根基。因此,本研究聚焦于兩個關鍵問題:其一,DeepSeek等生成式AI的“幻覺”現象在新聞生產的具體流程中,會引發哪些關鍵性的風險,這些風險又將對新聞的準確性、客觀性及媒體公信力產生何種具體影響;其二,面對這些風險,應從技術優化、流程規范、人員素養提升、制度監管等多個層面構建起保障新聞真實性的多重防線。
為深入探究上述問題,本研究將采用案例分析法,選取DeepSeek等模型在新聞實踐中的典型應用場景作為研究對象,這些場景既包括體育賽事、財經數據等結構化信息的自動寫稿,也涵蓋復雜事件的信息摘要生成、相關背景資料的快速編撰等。通過對這些實際案例的細致剖析,具體呈現“幻覺”在不同場景下的表現形態,例如虛構不存在的信源、錯誤關聯事件因果、歪曲原始數據含義等,進而追溯其背后的技術成因,并評估其可能導致的傳播后果。
一、新聞生產中的AI幻覺
(一)解構:生成式AI的謊言
“幻覺”一詞可以追溯到貝克和金出武雄在計算機視覺研究中提出的算法,“幻覺算法”用于提高分辨率低的原始圖像,在計算機領域常用作正面詞匯。有學者在討論生成式AI依賴大語言模型學習語言文字的排列組合后,再進行文本輸出時,發現存在“語言一致性”錯誤,“幻覺”開始被用于負面效果中。[1]追溯人工智能的起點“圖靈測試”,生成式AI的“幻覺”似乎有跡可循。英國數學家圖靈在《計算機器與智能》一書中提出測試“計算機是否具有智能”的方法,即“圖靈測試”。該測試以問答形式進行,由一位測試者寫下問題,隨后問題以文本形式發給一個人和機器,測試者根據回答判斷哪個是人類,哪個是機器。當判定主體在連續對話中無法區分兩類被測實體時,人工智能即被認證具備智能。在人機對話中,機器仿佛生來就被設定為騙過人類才能贏得勝利,這種以“欺騙”為核心的算法邏輯將持續優化生成式AI的偽裝能力,因此在面對不會答或者不知道的問題時,以DeepSeek為代表的生成式AI會“說謊”,這種現象被稱為AI幻覺,[2]具體指生成聽起來似乎合理但事實不正確或與給定上下文無關的輸出,[3]使人類在沒有仔細檢查和事實核查的情況下難以識別。[4]新聞生產環節使用AI會生成看似符合語言邏輯、與新聞主題高度相關,卻包含事實錯誤、邏輯矛盾或偏離核心指令的文本內容,錯誤內容的傳播不僅誤導公眾認知,更會動搖新聞業作為社會“瞭望塔”的底層價值。
(二)表征:語言模型的“海市蜃樓”
人工智能是新質生產力重要的驅動力,它正在深刻改變生產力的格局,但也要重視其帶來的風險性問題。從新聞業來看,AI幻覺對新聞真實性構成了直接威脅,這種威脅主要體現在三個維度:一是忠實性幻覺,即生成內容沒有事實錯誤但與用戶指令不一致,具體表現為過度泛化用戶需求,在對話場景中頻繁出現話題跳躍等,影響新聞時效性;二是邏輯性幻覺,該缺陷暴露模型在知識結構化方面的不足,具體表現在新聞報道中敘事文本出現時間悖論,同一主體被賦予對立特征,循環論證等邏輯問題錯誤;三是事實性幻覺,即生成內容與現實世界可證實的事實相違背,具體表現為專業術語混淆、對事實幻想加工等,媒體未經證實直接轉發帶有AI生成的新聞,容易誤導公眾,損害媒體公信力。隨著多模態大模型的發展,幻覺問題已逐漸從文本層面向圖像、視頻領域延伸,這要求技術研發須建立跨學科的評估體系,在提升生成能力的同時筑牢事實準線。
(三)桎梏:技術特性決定的宿命
生成式AI幻覺的出現并非偶然,當海量數據的統計規律遭遇邏輯框架的約束,當文本流暢性僭越事實準確性,技術系統陷入“生成可信”與“內容可靠”的根本性矛盾。AI幻覺的產生歸結于三個方面:一是數據層面的先天缺陷,訓練數據集無法完全保證其真實性,在投喂過程中“噪音”與“偏見”已然被記錄和學習。一些事實性偏差可以被糾正,但結構性錯誤會以更隱蔽的形式出現,如利用不同的語言進行訓練,必然會導致AI產生幻覺,輸出帶有偏見或歧視性內容;二是知識系統的結構性矛盾,通常情況下模型缺乏自主學習能力,過度依賴參數化記憶。另外,模型通常難以涵蓋各個領域的專業知識,因此在輸出過程中出現虛構回答的情況;三是訓練目標的本質沖突,生成式AI在訓練過程中側重文本表述流暢、連貫,而非強調真實性、客觀性,在對抗訓練中也更傾向于虛構合理細節彌合知識盲區。生成式AI幻覺的根源在于模型系統的固有設計存在缺陷,以及用于后續模型訓練的數據存在獲取困難。
二、超仿真時代:幻覺給新聞生產帶來的風險
(一)認知結構異化,專業能力弱化
從概念上來說,知識生產是在已有知識和新的實踐經驗的基礎上形成新知識的過程,它如同物質生產一樣,實現于傳承意義上的“量的擴張”和創新意義上的“質的飛躍”。[5]在過去人類的知識依靠經驗、觀察、推理得出,但隨著科技加速革新帶來的算力爆炸,使得人工智能逐漸走向知識生產的核心位置。皮亞杰曾指出人的認知行為有著基本模式,基于此,羅伯特·阿克塞爾羅德提出了信息處理過程模式,換句話說,當人接觸到新知識時,頭腦中相關的基模會被激活,然而生成式AI幻覺正在悄無聲息地改變這一過程。當算法以概率權重替代事實判斷,錯誤知識披著統計學意義的“合理性外衣”滲透至人類認知系統的底層架構,走向核心的人工智能正改寫認知基模。記者可能因AI初稿“看似合理”而忽略幻覺內容放松核查,編輯對AI生成內容的“流暢性”產生盲目信任,久而久之,錯誤的信息被反復傳播,長此以往受眾腦海中一些非常識性知識將被顛覆。此外,AI幻覺的隱蔽性容易造成新聞從業者批判性思維、事實核查以及深度調查等能力的退化。如新聞采寫環節,AIGC 生成文本所呈現的邏輯自洽性與表述合規性,易導致記者受限于AI文本構建的真實性表象,而未啟動交叉驗證即予以發布,這實質是記者細節追問與證據鏈構建能力的消解。長此以往,無論是受眾的認知結構,還是記者追求新聞真實的能力,都可能在AI幻覺中逐漸弱化,最終損害新聞行業的公信力根基。
(二)模型依賴成癮,新聞靈韻的消逝
法蘭克福學派代表人本雅明認為,夏日午后閑憩時群山和樹枝的光暈是當下時空獨一無二的體驗,[6]而機械復制、同質化、規模化的大眾化生產破壞了藝術的獨特,導致人類靈韻的消逝。新聞文本所蘊含的“靈韻”本質上是記者作為主體的勞動產物,每位記者的知識結構、人生體驗與認知范式共同構成獨特的“濾鏡”,使其在面對同一新聞事件時,能發掘出異于他人的價值維度,具有AI難以復制的不可替代性。這種基于主體性的發現能力,恰是AI所排斥的,AI更傾向于在訓練數據的主流框架內生成符合概率分布的內容,難以突破既有認知邊界實現創新性表達。當AI輕松完成新聞生產時,記者的獨特性和不可替代性正在被技術的標準化邏輯所取代,這將導致新聞從業者逐漸喪失經驗積累的動力、情感投入的自覺與認知突破的勇氣,開始盲目地接受模型所呈現的標準化信息,記者作為新聞生產主體的自主性、創造力和判斷力都將被損傷。[7]長此以往,新聞業的創造力將面臨前所未有的威脅,那些依賴個體深度思考產生的獨特敘事、那些蘊含人文溫度的現場觀察、那些穿透表象的深刻洞見,都可能在算法的同質化生產中逐漸消解,批判性思維被AI不斷消磨,對其帶來的幻覺喪失判斷力,也不再進行知識積累和深度思考,最終使新聞淪落為工業化產物。
(三)深度偽造蔓延,真實世界瓦解滋生犯罪
鮑德里亞將“擬像世界”分為四個等級或序列:仿造、生產、仿真和分形。有學者認為,當下人類正處在仿真階段甚至是分形階段。所謂“仿真”,是指一種不以客觀現實為基礎但又極度真實的符號生產和行為過程。[8]仿真階段意味著在代碼和算法的加持下,客體開始被符號取代,當下互聯網媒介制造的幻象正對應著第三序列。生成式AI“真實消失”和“無限增殖”的特點,[9]正對應著鮑德里亞所說的第四序列,生成式AI正在構造超真實世界,“超真實”帶來的深度偽造使其更具道德和法律爭議。在新聞傳播領域,深度偽造新聞對真實的瓦解具有根本性。它通過構建虛假的新聞事件、模擬人物言論、偽造現場畫面等方式,使受眾陷入真實不可辨識的認知困境。當經過深度偽造的視頻在社交平臺廣泛傳播時,其視聽層面的高度逼真性足以讓公眾質疑官方澄清的真實性,導致真實成為需要被證明的存在。技術通過算法對原始信息的精準模仿與重構,能夠制造出與真實內容在感官層面難以辨別的“擬像”,恰如鮑德里亞在“擬像/超真實”理論中所揭示的,其生成的虛假符號已不再是對真實的模仿,而是通過自我指涉構建出獨立于真實的“超真實”場域,這種場域以其高度逼真性消解了真實與虛假的本體論界限。此外,深度偽造技術已成為滋生新型犯罪的工具載體。相較于傳統造假手段,其低成本、高傳播性與精準打擊性使其在政治抹黑、金融欺詐、名譽侵害等領域展現出更強的破壞力。
三、人機共治:對抗幻覺的重要措施
中國互聯網絡信息中心發布的《生成式人工智能應用發展報告(2024)》顯示:我國生成式人工智能產品的用戶規模已達2.49億人,占整體人口的17.7%。隨著人工智能技術的廣泛應用,特別是生成式AI的興起,幻覺問題逐漸凸顯。這種現象不僅可能導致信息污染,破壞互聯網生態的健康與可信度,還會引發信任危機,使公眾對AI生成內容的真實性和可靠性產生懷疑,進而影響AI技術的推廣和應用。
(一)研發適用新聞場景的治理技術,定期清理AI假新聞
為有效應對生成式人工智能中的幻覺現象,需構建“預防—識別—治理”的全鏈條技術治理體系。開發具備預檢功能的新聞生成系統,通過嵌入式的驗證機制,包括事實性核驗、邏輯一致性檢測和上下文連貫性評估等實現幻覺內容的源頭阻斷,提高AI生成內容的準確性和可信度。同步搭建動態知識庫系統,運用可信度分級標注體系和危害性量化評估模型對生成內容進行管理,倒逼模型輸出符合新聞生產要求的文本,從而進一步降低幻覺出現的概率。此外,對于已經產生的AI假新聞,應設立清理機制。虛假內容的大量存在,會使新一代生成式AI在學習過程中吸收這些被污染的數據陷入惡性循環。因此應建立覆蓋采集、清洗、標注、訓練全流程的質量監控體系,破壞“虛假內容—模型學習—二次污染”的循環鏈條。
(二)提升訓練數據集質量,調整模型訓練策略
“一個好的算法就像一個天賦異稟的人類天才兒童,只要給他足夠的教育和訓練就更有可能成為大師。”[10]從生成式AI的發展歷程來看,它正處于萌芽關鍵期,就像是“天賦異稟的兒童”,它成為“大師”一方面需要大量的訓練數據集,數據質量以及多樣性是減少大模型幻覺、完善人機傳播的關鍵要素,因此在進行數據訓練時,應盡可能地保障新聞來源的真實可靠,避免偏見性內容輸入。引入新聞來源標注機制,增強準確度與權威性,同時建立新聞行業內部“幻覺名單”,杜絕使用可能會產生幻覺的內容。另一方面要調整模型的訓練策略,傳統的訓練方法依賴于大規模語料庫,但在處理復雜任務時存在局限性,因此可以采取“訓練—強化—反饋”模式,強化人類反饋環節。例如當前采取的人工標注數據迭代獎勵模型,引入新聞編輯、事實核查員的專業反饋,訓練獎勵模型,再利用強化學習算法對語言模型進行微調,使模型能夠更好地理解和滿足人類的偏好和價值觀。
(三)確保內容生產透明化,建立信息溯源機制
一是建立強制披露與標注制度,強制要求清晰標注AI生成或參與生成的新聞內容,這是維護信息透明度與受眾知情權的關鍵舉措。這要求行業協會與監管機構協同制定具有約束力的行業性規范體系,明確要求所有新聞生產主體在發布AI生成或參與生成的內容時,必須附加具備顯著性與易辨識性的標識信息,這類標識不僅需明示內容的AI參與程度,還應包含技術工具的核心參數與生成邏輯說明。這種設計可以幫助受眾主動調動批判性思維對信息真實性進行二次校驗,同時強制性標識也能倒逼新聞機構建立AI內容生產的全流程追溯機制,強化其對技術工具的使用責任,避免因算法隱身而導致的倫理失范,這也是對“后真相”時代信任危機的主動回應。
二是依托數字水印技術完善新聞追溯機制,形成覆蓋新聞生產全流程的可追溯體系。一方面,利用數字水印技術實現AIGC合成內容追蹤溯源,將水印信息嵌入AI生成內容中,確保信息不可篡改,實現內容的動態追蹤。另一方面,制定統一的信息溯源標準,明確AI生成內容的標識要求和管理規范,落實日志留存與審計制度,便于在發生問題時進行追溯和審計。通過數字水印與統一溯源標準進行雙重驗證,構建起嚴格的信息審查機制,促進人工智能生成內容的規范化生產,建立可靠的信息溯源機制。
(四)加強新聞從業者培訓,提升公眾信息素養
AI使用的培訓不應止步于功能操作,更需聚焦對不同模型生成特性、適用場景及局限性的深度認知,使從業者能根據新聞題材特性選擇適配工具,避免技術濫用導致的內容失焦。幻覺識別訓練則需建立多維度的判斷標準,包括對AI生成內容中邏輯斷層、信源模糊、數據異常等典型特征的敏感度培養,通過案例庫研習與模擬實操,提升從業者對似是而非的信息的甄別能力。培訓的本質是培養從業者在人機協作模式下,始終保持對新聞價值的獨立判斷、對信息真實性的責任意識,從而做到在技術迭代中堅守新聞業的核心價值。
與此同時,還要關注到用戶對無法準確甄別低質量網絡知識的辨別焦慮,生成式人工智能雖然能夠生成看似專業的高水準知識,但并未幫助用戶掌握真正的高質量專業知識,反而使用戶陷入知識幻覺的深淵。應對這一問題,首先,應健全社交媒體平臺規范,建立跨平臺聯合懲戒機制遏制知識焦慮的商業化炒作;其次,教育系統應完善數字素養培養體系,在基礎教育階段強化批判性思維訓練;最后,構建社會學習體系,為社會群體提供多樣化的學習資源和渠道,以此從多維層面緩解生成式人工智能帶來的社會性焦慮,不僅能夠有效消解人工智能時代的知識認知偏差,更推動社會形成理性認知與創新性學習相結合的良性信息環境。
四、結語
生成式人工智能的迅猛演進,特別是以DeepSeek為代表的大語言模型在新聞生產場域的深度滲透,既為行業帶來了前所未有的效率革新與形態拓展,亦因其固有的“幻覺”缺陷對新聞生產構成系統性沖擊。本研究聚焦于此核心矛盾,揭示了AI幻覺對新聞生產造成的三重風險:其一,認知結構異化與專業能力弱化,表現為錯誤信息傳播改變受眾認知結構與從業者批判性思維及事實核查能力弱化,動搖新聞生產的根基;其二,新聞的靈韻消逝與創造力下降,體現在算法標準化邏輯下記者主體性的消解,侵蝕記者的深度思考能力與文字的情感溫度;其三,深度偽造技術的泛濫則瓦解真實與虛構的界限,不僅引發系統性信任危機,更催生政治抹黑、金融欺詐等新型犯罪形態。
面對上述系統性風險,單一維度的治理已顯乏力,因此應將人機共治作為應對AI幻覺的核心治理路徑。在技術治理層面,需研發適配新聞場景的幻覺檢測與阻斷技術,并建立AI生成虛假信息的定期清理機制,從生成源頭遏制幻覺內容的擴散;在數據與模型優化維度,應雙管齊下提升訓練數據集的新聞專業質量,同時優化模型訓練策略,引導模型生成更具準確性與可控性的內容;在透明化與溯源機制層面,需構建強制性的AIGC內容披露與分級標注制度,結合數字水印、區塊鏈等技術建立覆蓋全流程的信息溯源體系;在主體素養提升維度,既要對新聞從業者開展系統化能力培訓,增強其運用AI的能力與專業倫理自覺,也要面向公眾普及AIGC的信息素養教育,提高對算法生成內容的辨別力,緩解數字時代的知識焦慮。
技術革新決定了新聞業的人機協同發展,但始終需以守護新聞真實性為前提,構建起抵御 AI 幻覺的多維防線,方能在智能化浪潮中筑牢新聞真實性的根基,保障新聞業的公信力,實現技術賦能與新聞業發展的良性互動。
參考文獻:
[1]林曦.人工智能“幻覺”的存在主義闡釋[J/OL].社會科學輯刊,2025:81-91.
[2][9]經羽倫,張殿元.生成式AI幻象的制造邏輯及其超真實建構的文化后果[J].山東師范大學學報(社會科學版),2024,69(05):113-126.
[3]Bernard Marr.ChatGPT:What Are Hallucinations And Why Are They A Problem For AI Systems[EB/OL].[2023-03-22].https://bernardmarr.com/chatgpt-what-are-hallucinations-and-why-are-they-a-problem-for-ai-systems/.
[4]S.Bubeck et al.,Spark of Artificial General Intelligence:Early Experiments with GPT-4.,http://arxiv.org/pdf/2303.12712.
[5]孫正聿.怎樣把中國經驗提升為中國理論?——知識生產的理論思維[J].北京大學學報(哲學社會科學版),2023,69(06):5-11.
[6]瓦爾特·本雅明.機械復制時代的藝術:在文化工業時代哀悼“靈光”消逝(全譯彩圖本)[M].重慶:重慶出版社,2006.
[7]張錚,劉晨旭.大模型幻覺:人機傳播中的認知風險與共治可能[J].蘇州大學學報(哲學社會科學版),2024,45(05):171-180.
[8]趙元蔚,鞠惠冰.鮑德里亞的擬像理論與后現代消費主體[J].社會科學戰線,2014,37(01):158-162.
[10]李睿深,劉靜,張瀠月.從柏拉圖到ChatGPT——智能內容生成的九個關鍵問題[M].北京:國防工業出版社,2023.
作者簡介:宋心怡,甘肅政法大學文學與新聞傳播學院碩士研究生
編輯:王洪越