使用人工智能大模型時,不少人或許都遇到過類似問題:它們有時會捏造細節,甚至“一本正經地胡說八道”。比如,讓它推薦書,給出的卻是一堆壓根不存在的書名;人物身份張冠李戴,還給出一些并不準確的鏈接……這些現象都可以歸為AI幻覺。AI幻覺可以通俗地理解為AI也會像人產生心理幻覺一樣,遇到不熟悉或超出“知識儲備”的問題時,編造一些并不存在的細節,生成與事實相悖的答案。
大模型的工作原理,是基于概率生成內容。給它上半句,它就根據自己“學”過的海量知識,“算出”下半句該說什么。比如,當用戶輸入“今天天氣非常”,它大概率會接“不錯”“熱”“潮濕”等答案,而不會出現“甜”。同時,大模型不是簡單地儲存所有事實,而會像人腦記東西那樣,進行大量壓縮和泛化——也就是“抓概要、找規律”。因此,當“喂給”大模型的訓練數據包含虛假信息時,它就會產生“幻覺”,給出錯誤答案。
短時間內,AI幻覺問題難以被解決。各方都在努力降低其負面影響,相關部門也加大了對違規AI產品的處置力度,推動生成合成內容標識加速落地。對廣大用戶而言,則要加快提升AI素養,學會“智慧”地運用“智慧工具”,既借助大模型破除思維定式、啟發創新思路,又提高自身有效獲取、理解、評估和使用信息的能力。
◆素材解讀
人類制造工具,工具也影響人類生活。面對AI幻覺等問題,人們既要思考改進工作方法,也要為AI不斷升級提供源動力。只有不斷激發新技術的正向價值,才能讓AI更好融入生產生活,賦能千行百業。
◆適用話題
技術應用 科技發展 辯證思維