〔美〕羅仁地 著 姚洲 譯
(1.北京師范大學珠海校區 人文和社會科學高等研究院語言科學研究中心,廣東 珠海 519087;2.浙大城市學院 人文學院,浙江 杭州 310015)
最近,關于ChatGPT、GPT-4 以及類似的人工智能產品引發了很大的討論。在ChatGPT 出現的頭兩個月里,超過1 億人使用了該產品。這些算法能夠搜索大量的數據(也就是所謂的大型語言模型),并根據可能組合搭配的統計概率(也就是歸納法),生成看似由人類產生的文本。這并不奇怪,因為這些算法所使用的數據本身就是人類創造的文本。但這種結果引發了一些人對這種算法可能帶來危險的擔憂,好像這個算法正在自我思考一樣。然而,這些算法并不真正理解它們所生成的內容。它們只是像鏡子一樣反映了它們所收集的數據以及與其互動的人所提供的數據,從而反映出人們的個性和欲望。它們的工作基于歸納法,通過訪問大量數據來總結模式。然而,它們無法超越這個范圍,只能局限于執行特定的任務,比如文本翻譯或預測某人的購買偏好。

這種人工智能是一種弱人工智能,也就是指那些只能執行特定任務的非人類系統,無法超越這個范圍。而人工智能的下一步發展是發展出強人工智能,即能夠學習、解決問題、適應并改善自身系統的人工智能。這樣的系統甚至可以執行超出其設計任務的工作,但前提是機器能夠模仿人類的推理能力,并真正創造出有意義的內容。這也是許多科學家對未來的擔憂,因為我們將無法控制這樣的系統。
超過1000 名科學家簽署了一封信,請求科技公司延遲通用人工智能的開發。杰弗里·辛頓最近辭去了谷歌的工作,原因是他反對該公司計劃開發通用人工智能,他認為自己在那里工作時無法批評公司(《紐約時報》2023 年5 月1 日)。他對自己一生的工作感到后悔。目前,人們已經意識到弱人工智能系統中存在一些固有的偏見問題,但在通用人工智能系統中,這些問題將更加嚴重,因為它們能夠自主決策并超越編程范圍進行操作。
如果沒有任何倫理或道德監督,后果將是災難性的。即使是堅定支持科技的伊隆·馬斯克(Elon Musk)也警告說,高級人工智能可能對人類構成“生存危機”。目前的控制方法是不夠的。
然而,我們還沒有達到那個階段。要讓機器像人類一樣真正創造有意義的內容,它需要模擬人的溯因推理能力,這是人類用來創造各種意義的方法(包括交流)。但是目前機器無法模仿這種能力。溯因推理的關鍵部分不僅是獲取信息,還包括判斷信息與所討論問題的相關性。迄今為止,溯因推理在下一階段的重要性甚至在專注于這項技術的學者中也沒有得到廣泛認識,但有一些人正在努力解決這個問題。



當我們進行溯因推理時,我們并不是利用整個環境,而是選擇我們認為與理解我們試圖解釋的現象相關的某些事實和假設。這一環境被稱為“理解的環境”(context of interpretation)。正是該環境使得現象對人來說“有意義”。該環境的創建當然完全是主觀的,所以結果也是主觀的。

嘗試了解其他人在做什么的一種應用是,在他們有目的地試圖讓你推斷他們的意圖時推斷他們的意圖。溝通就是:一個交際者進行一個交際行為(可能是語言行為,也可能只是手勢或面部表情,或者三者都有),而對方推斷出交際者的交際意圖,即交際者為什么做他們所做的交際行為。對方被迫推斷特定理解的程度,取決于交際行為在多大程度上制約對方選擇獲得在該語境中有意義的理解所必需的語境預設。


即使是交際行為的識別也需要推理,因此不需要對方熟悉形式,只要對方能夠推斷交際者的意圖即可。例如,圖1 的形式不是人們熟悉的英文字母形式,而是由不同愛爾蘭圖案組成的。雖然形式陌生,但不妨礙人們認出谷歌公司的目的是讓人推理出Google 這個名字。

圖1
此外,我們對意義的創造(與所有事物有關,而不僅僅是語言)與我們所知道的、對我們來說最重要的或我們自己的觀察角度有關,比如圖2 左邊的

圖2

一般來說,交際者還對對方能夠理解什么進行推理(猜測),然后使用最有可能促進對方推理過程的交際行為。但是文學、藝術和幽默是例外,其目標是讓對方做更多的推理工作,這是因為我們從推理中獲得了愉悅,就像我們從滿足其他生存本能中獲得愉悅一樣。


由于交際中的意義創造取決于推斷交際者執行某些交際行為的意圖,因此在單詞或符號的意義上不存在與某些交際者的實際使用脫節的語義。也就是說,一切都是語用。當我們試圖了解脫離具體環境的某詞、句或事時,我們會創造一個理解環境,在該理解環境中,該詞、句或事才可能“有意義”,也就是說,我們通過選擇一個賦予它意義的特定框架(理解環境)來創造它的意義。
我們需要關注當前這一代的弱人工智能,因為它可能被用來傳播虛假信息,而且提供答案的可靠性并不高(例如當它為一名律師“虛構”案例時)。此外,它還反映了其所獲取的數據中存在的偏見和態度。



正因如此,目前已有超過27000 名技術專家簽署了前文提到的信件,要求這些公司暫時停止開發這些算法,直到找到相應的控制方法為止。最近,OpenAI、Google、DeepMind、Anthropic 和其他人工智能實驗室的領導人又簽署了第二封信,警告未來的系統可能像大流行病和核武器一樣具有致命性,因此“減輕人工智能滅絕人類的風險應成為全球的首要任務”。
此外,澳大利亞首席科學家發布了一份關于生成式人工智能的《快速響應信息報告》(Rapid Response Information Report),對這些危險提出了警告,并討論了應對方法。
與杰弗里·辛頓一樣,我也處于糾結之中:一方面我想讓人們了解創造意義的方式(因為我在這里提出的觀點與許多領域都有關,不僅僅是計算機科學和語言學),另一方面我又擔心一旦他們獲得成功的秘訣(即溯因推理法)將帶來危險和失控。