你是不是也遇到過這樣的情況:問AI一個問題,它給了你一個特別詳細、豐富,看上去很有邏輯的答案,但當我們去核實時,卻發現這些信息完全是虛構的。
這就是著名的“AI幻覺”現象。
AI幻覺指的是AI會生成看似合理但確實錯誤的信息,最常見的表現就是編造一些不存在的事實或者細節。就像在考試時遇到不會的題目,我們會試圖用已知的知識去推測答案一樣。AI在遇到信息缺失或不確定的情況時,會基于自己的“經驗”(訓練數據)進行填補和推理。這不是因為它想要欺騙我們,而是因為它在試圖用自己理解的模式來完成這個任務。
因為AI(尤其是像ChatGPT這樣的語言模型)通過大量的訓練數據學習文字之間的統計關系。它的核心目標是根據上下文預測最可能出現的下一個詞,并不是對問題或內容進行真正的理解。所以AI本質上是通過概率最大化來生成內容,而不是通過邏輯推理來生成內容。所以,訓練數據中的錯誤信息和知識缺失都容易讓AI產生錯誤的判斷。
舉個例子:早期AI幻覺較大的時候,可能會出現AI學過“北京是中國的首都”和“巴黎有埃菲爾鐵塔”這兩個知識點,可當我們問它“北京有什么著名建筑”時,它把這些知識錯誤地混合在一起,說“北京有埃菲爾鐵塔”。
雖然大模型的訓練參數量非常龐大,但受限于技術原因,AI仍然是在一個有限的范圍內理解文本。這就像是隔著一個小窗口看書,看不到整本書的內容,容易產生理解偏差。
還有一個出現AI幻覺的重要原因是,現在很多大模型被設計成要給出流暢的回答,當它對某個問題不太確定時,與其說“我不知道”,不如基于已有知識編造看起來合理的答案。
1.優化提問
想要獲得準確答案,提問方式很關鍵。與AI交流需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準確。同時,我們在提問的時候要提供足夠多的上下文或背景信息,這樣也可以減少AI胡亂推測的可能性。
總結成提示詞技巧就是下面4種問法:
設定邊界:“請嚴格限定在××研究范圍內”
示例:“介紹ChatGPT的發展歷程”→“請僅基于OpenAI官方2022~2023年的公開文檔,介紹ChatGPT的發展歷程”
標注不確定:“對模糊信息,需要標注‘此處為推測內容’”
示例:“分析特斯拉2025年的市場份額”→“分析特斯拉2025年的市場份額,對非官方數據或預測性內容,請標注‘推測內容’”
步驟拆解:“第一步列舉確定的事實依據,第二步展開詳細分析”
示例:“評估人工智能對就業的影響”→“請分兩步評估AI對就業的影響:先列出目前已發生的具體影響案例;基于這些案例進行未來趨勢分析”
明確約束:“要基于已有事實回答,不要進行推測”
示例:“預測2024年房地產市場走勢”→“請僅基于2023年的實際房地產數據和已出臺的相關政策進行分析,不要加入任何推測性內容”
2.分批輸出
因為AI內容是根據概率來生成的,一次性生成的內容越多,出現AI幻覺的概率就越大,我們可以主動限制它的輸出數量。比如,如果要寫一篇長文章,就這么跟AI說:“咱們一段一段來寫,先把開頭寫好。等這部分滿意了,再繼續寫下一段。”這樣不僅內容更準確,也更容易把控生成內容的質量。
3.交叉驗證
還有一個實用的方法是采用“多模型交叉驗證”。AI聚合平臺可以讓多個AI模型同時回答同一個問題,讓不同的大模型一起參與討論,通過對比它們的答案來獲得更全面的認識。一些AI搜索平臺的“多模型協作”功能還可以讓不同的AI模型各司其職,形成一個高效的協作團隊。比如,讓擅長推理的DeepSeek-R1負責分析規劃,再由通義千問進行糾錯補充,最后交給豆包AI來梳理總結。這種“專家組”式的協作模式,不僅能提升內容的可信度,還能帶來更加全面和深入的見解。
4.RAG(檢索增強生成)技術
為了讓AI表現得更靠譜,我們可以給它配一個超級百科全書,讓AI在回答問題之前,先從可靠的資料中找到相關信息,再根據這些信息生成答案。目前RAG技術多用在醫療、法律、金融等專業領域,通過構建知識庫來提升回答的準確性。
很多時候AI幻覺也是天馬行空的創意火花。與其把AI幻覺當成缺陷,不如把它看作創意的源泉,在寫作、藝術創作或頭腦風暴時,這些“跳躍性思維”反而可能幫我們打開新世界的大門。當我們學會用正確的方式與AI對話,善用它的創造力,同時保持獨立思考,AI就能成為我們的得力助手,而不是一個“能言善辯的謊言家”。
(摘自“科普中國”微信公眾號,飄飄圖)