2025年2月,如果不是長期從事人口研究的中國人民大學教授李婷的公開辟謠,很多人都真誠地相信了一組數據—“中國‘80后’累計死亡率為5.2%”。
在社交媒體上,許多“80后”都曾因這組數據扼腕嘆息。“截至2024年末,‘80后’的死亡率已經超過‘70后’,相當于每20個‘80后’中,就有1人已經去世。”自媒體傳播道。
這一說法很快露餡。李婷教授在受訪時表示:“(死亡率5.2%)錯誤非常明顯,因為專業統計數據中死亡率會用千分率表示,而不是百分率。”她指出,國家統計局并未公布2024年的死亡率,也不會根據“80后”“90后”等分段公布死亡人數,因此這一說法毫無數據支撐。
虛假的死亡率數據從何而來?李婷認為:很有可能來源于AI大模型出錯。她曾嘗試在AI大模型中輸入問題:“‘50后’‘60后’‘70后’‘80后’,這幾代人的死亡率分別是多少?”大模型表示:“根據網絡信息,‘80后’現存2.12億,存活率94.8%,死亡率5.2%。”
AI無中生有的能力讓人心顫。在AI業界,這類“胡說八道”的本領被稱為“幻覺(hallucination)”,意思是,AI也像人產生心理幻覺一樣,在遇到自己不熟悉、不在知識范圍的問題時,編造難以辨明真假的細節,生成與事實相悖的答案。
此事件中,讓人畏懼的是由技術蔓延出的不可控。新浪新技術研發負責人張俊林告訴南風窗,隨著各個領域都在加強對AI的接入,AI幻覺成為了現階段需要重視的問題。但遺憾的是,業界還沒找到根除AI幻覺的辦法。
清華大學長聘副教授陳天昊也在受訪時提到,對于學生等特殊人群來說,大模型幻覺問題帶來的風險性可能更大。“比如,小學生可能和家長一起使用大模型學習知識,但大模型產生的幻覺可能會產生誤導。在自身缺乏辨別能力的情況下,可能難以判斷信息的真假。”
2025年,人人都開始用AI,而AI還在持續發揮想象力,用幻覺與假信息誤導更多人。現在是時候一起面對AI這個巨大的Bug(漏洞)了。
“想和大家說一件最近讓我憂慮的事,是關于AI幻覺強度的。”2月,知名科普作家河森堡在微博中表示。
他在近日使用ChatGPT,讓它介紹文物“青銅利簋”。結果,ChatGPT將這件西周文物的來歷,編造成了商王帝乙祭祀父親帝丁所鑄。AI此后還標明了自己的文獻來源,源自《殷墟發掘報告》《商代青銅器銘文研究》等。
“看著是那么回事,其實又在胡扯,”河森堡發現,“前一篇文獻的作者是中國社會科學院考古研究所,AI說是中山大學考古學系,后一篇文獻的作者是嚴志斌,AI說是李學勤……”
錯漏百出的生成信息還不算什么,可怕的是,AI還會自我“包裝”,編造信息來源,讓人誤以為內容十分專業且可信度高。
在豆瓣,陀思妥耶夫斯基的書迷,在使用AI的“聯網搜索”功能時,發現其不懂裝懂、捏造細節。
例如,有書迷問AI,“陀思妥耶夫斯基的哪部小說引用了涅克拉索夫的詩歌?”在引用了11個參考網頁后,AI生成了大段的、看似專業的答案,論證了兩者是好友,作品之間存在相互影響的關系。結論是,“陀并未在其小說中直接引用涅克拉索夫的詩”。
而事實上,熟悉陀思妥耶夫斯基的書迷很快想到,在《地下室手記》第二章開頭,他引用詩歌:“當我用熱情的規勸/從迷霧的黑暗中/救出一個墮落的靈魂,你滿懷深沉的痛苦/痛心疾首地咒罵/那纏繞著你的穢行。”這正是涅克拉索夫的詩。
張俊林告訴南風窗,AI大模型非常容易“過度自信”。但目前,AI生成答案的過程仍像一個黑箱,AI業界也不完全清楚AI的自信從何而來。總之,在面對自己不懂的專業問題時,極少有AI會直接回答“不知道”;它們寧愿自信地、流暢地生成一些不準確的內容。
“DeepSeek幻覺有點太嚴重了,我受不了了。”法學碩士生小昭2月在寫論文時感嘆。她對南風窗承認,平時學習和寫論文時,自己已經離不開DeepSeek、豆包、Kimi等AI工具。“因為(不用的話)我更寫不出來。”
但是小昭逐漸發現,AI生成的內容,有很多是錯誤的。一個重災區是關于“深度偽造”的法律問題,她發現AI會生成虛假的法律條例和案例。
此外,她在用AI準備公務員面試時,AI很喜歡給她引用一些過于具體的數據。“很多數據很明顯是保密數據,一看就是AI編造的。”
AI生成的內容看上去“過于專業”,小昭說,這時反而是“唬人的”,“內容根本沒法用”。
一次,在寫AI深度偽造法律論文時,DeepSeek告訴她,不同年齡段法官對技術行為的評價呈現顯著差異。它因此生成了一張表格,把30歲以下、30—50歲、50歲以上的法官對待技術的裁判傾向分列其中。
最后,它甚至寫道,代際的差異在合議庭評議中會引發新的沖突。2023年,在我國某中級人民法院一次審理深度偽造的案件中,“80后”和“60后”法官曾出現了激烈爭論。
但經過調查和搜索,小昭發現,上述內容也全部是AI編造的。面對AI,即使她此后給出了“減少對虛假案例的引用,擴寫分析部分”的指令,AI仍止不住地出現幻覺,生成虛假信息。
于是,在高頻使用豆包、DeepSeek,以及OpenAI的o1等AI工具后,小昭的發現是,豆包的幻覺問題不算明顯,語言相對平實;OpenAI的o1對中國國情不夠熟悉,“國內素材沒有那么充足”。而DeepSeek是其中最好用的工具,語言專業又生動,但DeepSeek編造細節的情況卻是最嚴重的。
“以至于每次看到DeepSeek引用的,我都要重新檢索,確認下真實性。”小昭說。
小昭等“AI原住民”的感受并不虛妄。在GitHub上一個名為Vectara的大模型幻覺測試排行榜中,2025年1月發布的DeepSeek-R1,幻覺率高達14.3%。這一數字遠高于國際先進大模型,例如,OpenAI的GPT-4o幻覺率為1.5%,馬斯克的Grok幻覺率為4.6%。
為何DeepSeek的幻覺率這么高?一個最直接的原因是,張俊林說,DeepSeek生成的內容比一般的AI應用更長。AI生成的內容越多、文本越長,出錯以及胡編亂造的可能性越大。
另一個可能性在于,DeepSeek在生成答案時展現出了很強的創造性,這與強調信息精確、降低幻覺率的要求天然地相悖。張俊林提到,AI大模型有一個“溫度系數”,指的是控制生成內容隨機性和多樣性的參數。
一般而言,高溫度系數(如1.0或更高)的模型,生成內容隨機性更高,可能會出現更多新穎或意想不到的結果。代價便是,其更容易出錯、胡說八道。相反,低溫度系數的模型,生成內容更接近訓練數據中的模式,結果更穩定,但缺乏多樣性。
幻覺率的高低,關系到我們到底想要什么樣的AI—究竟是更能給予人靈感的,還是邏輯嚴密的。而在業界,一個共識是,無論想要什么樣的AI,幻覺問題仍非常難消除。
清華大學團隊在2025年2月發布《DeepSeek與AI幻覺》報告,將AI幻覺分為兩類,一類是事實性幻覺,指生成的內容與可驗證的現實世界事實不一致。例如,模型錯誤地回答“糖尿病患者可以通過吃蜂蜜代替糖”。
另一類則是忠實性幻覺,指的是AI生成的內容與用戶的指令、上下文或者參考內容不一致。例如,《自然》雜志報道稱,AI在參考文獻方面出錯的情況極為普遍。2024年的研究發現,各類AI在提及參考文獻時,出錯率在30%~90%—它們至少會在論文標題、第一作者或發表年份上出現偏差。
2022年,香港科技大學團隊曾發布對AI幻覺的重磅研究。長達59頁的論文指出,導致AI幻覺的原因有很多,例如數據源問題、編碼器設計問題、解碼器錯誤解碼。
以數據源為例,由于AI大模型使用了大量互聯網數據進行訓練,數據集本身可能存在錯誤、過時或缺失,導致幻覺出現。再加上不同數據集之間存在相互矛盾的地方,“這可能會鼓勵模型生成不一定有依據,也不忠實于(固定)來源的文本”。
不過,從AI大模型原理的角度看,AI幻覺被業界認為是AI擁有智能的體現。“出門問問”的大模型團隊前工程副總裁李維在受訪時解釋,幻覺的本質是補白,是腦補。“白”就是某個具體事實,如果這個事實在訓練數據中沒有足夠的信息冗余度,模型就記不住。接著,當用戶問起AI失去記憶的內容,它便開始自動腦補,一本正經地胡說八道。
而且,AI的腦補絕非空想。李維解釋,大模型的知識學習過程(訓練階段)是一種信息壓縮過程;大模型回答問題,就是一個信息解碼過程(推理階段)。這就好比升維了又降維。當一個事實冗余度不夠,AI生成的虛假事實需要與補白所要求的value(價值)類型匹配,即符合ontology/taxonomy(本體/分類法)相應的上位節點概念。
因此,AI“補白”的時候,即使不知道“狗”這類哺乳動物,也會生成哺乳動物“貓”,而不是像麻雀一樣的鳥類。
“大模型是天生的藝術家,張冠李戴、指鹿為馬等在大模型的幻覺里非常自然,因為張和李是相似的,馬和鹿也在同一條延長線上。”李維總結道,“它的幻覺有內在的合理性,但同時也更具有迷惑性。初接觸大模型的朋友,需要特別小心,不能輕信。”
從AI大模型原理的角度看,AI幻覺被業界認為是AI擁有智能的體現。它的幻覺有內在的合理性,但同時也更具有迷惑性。
與人類有些相像的地方是,幻覺的出現,AI自己也表示“知道”。
“詢問”DeepSeek:“為什么你的回答有時很準確,有時不太準確甚至在編造呢?”在深度思索模式下,DeepSeek列出了自己的“反思”:
首先是知識邊界限制,“我的訓練數據截至2023年12月,無法獲取最新信息;知識庫存在信息盲區(約10%~15%的領域覆蓋不全)……”
它表示,生成機制特性也導致了這一結果,因為AI并不真正理解語義與知識,而是“基于概率預測生成(每個token選擇概率前三候選詞)”。再加上其采用流暢度優先機制,生成過程要先確保流暢度,而非保證事實。
誠如DeepSeek所言,AI的幻覺與其技術發展相伴相生,有時候,擁有幻覺本身,可能是AI感到驕傲的。在科學界,AI的幻覺正被很多科學家用于新分子的發現等科研工作。
例如,在AI+生物領域,麻省理工學院教授湯姆·克林斯在《自然》發表論文指出,AI的幻覺加速了他對新型抗生素的研究進展。“我們得以成功讓模型提出完全新穎的分子。”
但這并不意味著,解決或改善幻覺問題對現有的AI大模型不重要。原因也很簡單,隨著AI持續滲透人們的生活,AI幻覺所帶來的信息污染,很可能進一步影響人們的生活與工作。
2月,美國知名律師事務所Morgan amp; Morgan向其1000多名律師發送緊急郵件,嚴正警告:AI能編造虛假的判例信息,若律師在法庭文件中使用這類虛構內容,極有可能面臨被解雇的嚴重后果。這一聲明正是考慮到AI在法律界被濫用可能造成的不良后果。
據路透社報道,在過去兩年間,美國多個法院已對至少七起案件中的律師提出警告或處分,因其在法律文件中使用AI生成的虛假信息。
例如,曾經入獄的前特朗普律師邁克爾·科恩在2024年承認,自己錯誤地使用了谷歌Bard生成的判例為自己申請緩刑。他提交的文件中,由AI生成的至少三個案例,在現實中均不存在。
2024年11月,在美國得克薩斯州的一場法律訴訟中,律師布蘭登·蒙克引用了AI生成的虛假案例,被法院發現并罰款2000美元。他同時被要求參加關于法律領域生成式AI的課程。
意識到AI幻覺可能產生的巨大副作用,科技公司并非沒有行動,例如,檢索增強生成技術(RAG)正被諸如李彥宏等科技大佬提倡。RAG的原理是,讓AI在回復問題前參考給定的可信文本,從而確保回復內容的真實性,以此減少“幻覺”的產生。
不過,這樣的方案也絕非一勞永逸。首先因為,RAG會顯著增大計算成本和內存;其次,專家知識庫和數據集也不可避免地存在偏差和疏漏,難以覆蓋所有領域的問題。
“盡管業界提出了很多辦法,例如RAG,但沒有一個辦法能根除AI幻覺。”張俊林坦誠地告訴南風窗,“這是一個很重要的、值得關注的問題,但目前,我們確實還沒有辦法解決。”
如果AI幻覺無法徹底消除,那么,是否有更多辦法讓人們意識到,AI大模型并非如看上去的無所不能呢?
OpenAI華人科學家翁荔在一篇萬字文章中寫道,一個重要的努力方向是,確保模型輸出是事實性的并可以通過外部世界知識進行驗證。“同樣重要的是,當模型不了解某個事實時,它應該明確表示不知道。”
谷歌的Gemini模型也曾做過很好的嘗試。該系統提供了“雙重核查響應”功能:如果AI生成的內容突出顯示為綠色,表示其已通過網絡搜索驗證;內容如果突出顯示為棕色,則表示其為有爭議或不確定的內容。
這些努力都在預示著一個正確的方向:當AI幻覺已經不可避免地出現時,人們要做的首先是告訴自己:不要全然相信AI。
(應受訪者要求,文中小昭為化名)