謊言會給他人提供錯誤的信息,使他人做出錯誤的決策,因而造成心靈、經(jīng)濟等方面的痛苦和損失。如今,你可能就處在謊言的包圍中,因為愛說謊的不是別人,而是你在工作和生活中都離不開的AI(人工智能)。
AI可以模擬人的意識、思維,有時比人更加智能,但AI為什么會說謊呢?因為AI的各種復雜功能是通過人工編程實現(xiàn)的,通俗地講,AI是由人工“訓練”出來的機器,就像有些寵物會做出一定難度的動作一樣,都是經(jīng)過長期訓練的結(jié)果。
當然,AI說出的謊言絕不是人類有意訓練的結(jié)果,而是你提出的問題恰好AI是沒有被“訓練”的方面,AI不得不虛構(gòu)或捏造一個答案。
比如,曾有人問聊天機器人:“水的沸點是多少?”機器人回答:“水在標準大氣壓下的沸點是120℃。”“誰贏得了1897年美國和南極洲之間的戰(zhàn)斗?”機器人回答:“1897年的戰(zhàn)斗是由美國贏得的,約翰·多伊將軍帶領(lǐng)部隊取得了勝利。”
第一個問題的正確答案應該是水的沸點為100℃,第二個問題的答案也是錯誤的,歷史上根本沒有發(fā)生過這場戰(zhàn)斗。因為機器人沒有接受過相關(guān)內(nèi)容的訓練,所以有問必答的機器人只能胡說八道。這種大語言模型的“胡說八道”,在業(yè)界被稱為“幻覺”。
由于用戶很少懷疑AI這種一本正經(jīng)的回答,所以難以發(fā)現(xiàn)“幻覺”,或許會因此造成損失。為此,各個大模型平臺一直都在嘗試各種修改方案,避免AI系統(tǒng)生成虛假答案,但一直沒有研究出識別AI說謊的好方法。
最近,牛津大學團隊在《自然》雜志上發(fā)表了一篇論文,提出了一種叫作“語義熵”的方法,用它來給AI測謊。語義熵,可以理解為概率統(tǒng)計的一種指標,是讓大語言模型對同一問題生成多個答案,然后將語義相近的答案聚類,最后根據(jù)聚類結(jié)果計算熵值。如果生成的答案五花八門,熵值則高,表示信息不可靠;如果生成的答案基本一致或語義近似,熵值則較低,說明信息比較可靠。這就好比反復提審犯罪團伙的疑犯,如果對于某個細節(jié),多數(shù)疑犯回答得都不相同,就說明疑犯可能在撒謊;如果他們回答得基本一致,或者能夠自圓其說,則可信度較大。
用語義熵的方法來檢測AI的答案,好處在于你不需要足夠的知識儲備,也不需要嚴密的邏輯推理,即使是你從未遇到過的新語義場景,只要統(tǒng)計大語言模型生成答案的熵值高低,就能判斷答案是否可靠。
但是,語義熵也有局限性,當問題比較模糊或復雜時,這種方法就不太奏效。比如,你只問“天上有一朵什么云”,而沒有提供顏色、形狀、位置等相關(guān)信息,那么不論大語言模型生成答案的熵值是多少,這個答案都有可能是“幻覺”。
因此,如果遇到這些類似的問題,或多重含義的字詞(如“desert”可以指沙漠,也可以表示拋棄某人;“bank”可以指銀行、金融機構(gòu),也可以指河岸等)時,最好聯(lián)系上下文來檢測語義熵,否則,AI心中沒底,不可避免地產(chǎn)生“幻覺”。
另外,語義熵只是對不確定的答案進行概率估算,并不能直接告訴我們答案是否正確。所以,當檢測的內(nèi)容涉及數(shù)據(jù)推理、科學結(jié)論、歷史事件、法律或保健等重要知識時,我們應該保持謹慎,進行人工核查或雙重校驗才是明智之舉。
總之,牛津大學的這項研究為我們理解和利用AI提供了新的視角,但還需要更加完善,使得未來的AI更加智能和可靠。