楊冬

計算機能夠思考嗎?
在20世紀50年代,為了回答這個問題,計算機科學的先驅艾倫·圖靈提出了“圖靈測試”這一思想實驗。首先,請一個人與計算機進行對話,對話方式為打字,這個人只能看到屏幕上顯示的對方的回答。接下來,請另一個人(第三者)觀看他們的對話內容,但是他并不知曉對話者是人還是計算機。此時,如果第三者無法分辨對話者中誰是人,那么這臺計算機就通過了“圖靈測試”。
在圖靈測試中,關鍵問題不是“計算機在對話中所提供的內容是否正確”,而是“通過對話能否區分發言者是人還是計算機”。圖靈認為,“計算機是否可以思考”這個問題很難回答,因為首先要定義“什么是思考”。所以,他寧愿用“圖靈測試”來判斷計算機是否有能力模擬人的行為。
如果計算機可以完全模擬一個人的行為,使人無法判斷它究竟是人還是計算機,那么是否可以認為它具備了人的思考能力呢?圍繞著這一問題,數不清的科學家進行了反復討論、辯論,通過刊印論文、發表演說,各抒己見。不過,由于在“圖靈測試”公布后的幾十年內,并沒有一臺計算機具備通過“圖靈測試”的能力,這些爭議在很大程度上也僅有理論意義。直到本世紀初,依然有很多科學家認為,在有生之年根本不可能見到一臺對話能力可以通過“圖靈測試”的計算機。然而,隨著人工智能技術的突飛猛進,科學家們突然發現,人類大大低估了計算機的能力。
2022年,OpenAI公司推出了一個人工智能聊天程序,名為ChatGPT。作為聊天程序,ChatGPT可以產生非常自然的對話內容,僅通過對話,很難把它與人類區分開來。正如70年前圖靈所預測的,ChatGPT的先進之處并非它總是可以給出正確的答案(ChatGPT提供的答案有時也有錯誤),而是它的表達方式與人類非常接近,甚至可以以假亂真。因此,至少在某些情況下,ChatGPT有可能通過“圖靈測試”。
如果有一天ChatGPT真的通過了“圖靈測試”,那么它對人類社會的影響就會成為一個需要嚴肅對待的社會議題。
人類要面對圖靈當初試圖回避的問題,即如果一臺機器完全可以模擬人的行為(即通過了“圖靈測試”),那么它具有人的思維嗎?從圖靈當初的視角出發,他其實是將人腦和計算機都看作黑箱,也就是說我們不清楚其內部的機制,只觀察輸入和輸出。對計算機和人腦輸入相同的信息(如一個問題),如果計算機的輸出與人腦的輸出并無明顯差異,無法分辨哪個輸出屬于人腦,那么我們就認為這兩個黑箱(即計算機和人腦)的行為完全相同。
如果計算機和人腦行為相同,那么在解決具體問題時就可以互相取代。由此推理,通過“圖靈測試”的計算機已經具備了取代人腦的潛力。可想而知,未來ChatGPT或者它后續更強大的版本可能取代很大一部分目前人類所從事的工作,對人類社會的影響無法估量。
在不久的將來,很多職業會被取代,然而,人工智能所帶來的更大的影響恐怕會出現在人際交流過程中—你將越來越難以確定與你交流的對象究竟是誰。
人們可能會把某些他們認為缺乏創造性的交流活動“托付”給計算機完成。未來,你的小孩參加在線課程學習,他/她面對的教師可能就是一臺安裝了強大聊天程序的計算機。再進一步,如果你知道教師其實是計算機,那么你是否會“委托”你的計算機與對方進行“家校交流”呢?
今天的社交軟件(如微信)已經滲入了工作、生活的方方面面,我們每天在軟件上與形形色色的人聊天、交流。雖然你很可能從未見過對方,但是一般而言你會相信對方確實是一個“人”。然而,這個信念在未來還可以保持嗎?
我們還可以展開想象,當一位身體虛弱的老人失去認知能力和記憶力后,他的家人用一個計算機程序模擬他的口吻繼續發表言論,與親戚朋友聊天,這樣的做法是否符合倫理?如果老人去世后,家人們依然用計算機程序模擬他,與“他”聊天呢?當然,對于懷念逝者的人而言,這是一種安慰。不過,如果這種交流方式廣泛應用于社會交往中,人類對于交流的認知將從根本上被動搖。
在人與人之間的交流日益依靠計算機輔助的背景下,人作為今天交流的主體將不可避免地被淹沒,這將成為人工智能對人類生存方式的最重大挑戰。
從長遠來看,ChatGPT及與其類似的人工智能軟件可能帶給人類不小的挑戰;就近期而言,作為工具,ChatGPT將為我們的工作和生活提供大量助力。
以科研為例,人們可以利用人工智能工具搜索文獻并自動生成某個科研領域的綜述,這將大大縮減研究者在搜尋文獻上投入的時間和精力。同時,在提供已有科研數據的前提下,人工智能工具能快速形成規范的文本,幫助科學家完成科研報告或論文。科學家可以把主要精力集中在準確解釋數據、歸納總結出新的理論模型等方面,而不必將大量時間花費在語言表述和文本格式、規范上。在目前的技術水平下,人工智能工具還沒有體現出創新能力。所以,面對實驗、調查產生的科研數據,最終還是需要科學家做出正確的解釋,并且提出新的科研思路。
當然,從另一方面看,與ChatGPT類似的人工智能軟件的普及將導致任何人都可能快速炮制出規范、通順、富有邏輯、有理有據的文章。教師將很難對學生提交的論文形式的作業進行評估,因為無法判斷學生完成作業時是否使用了人工智能軟件。也許,在未來的課堂上,教師將要求學生參加口試,讓他們當面回答與所提交作品相關的問題。在科研工作中,此類軟件的普及也不可避免地增加了科研基金評審的難度。因為,在人工智能軟件大量普及的時代,科研人員在撰寫基金申請時都會依靠計算機的幫助。與前面提到的可能顛覆人類交流的終極挑戰相比,上述問題都是“小問題”,然而這些問題迫在眉睫,無法被忽略。
ChatGPT的底層技術是大型語言模型(LLM)。通過利用海量數據(如各種語言文本)進行訓練,計算機最終可以實現對自然語言的正確理解,并有效使用自然語言進行對話。然而,除了我們平日交流中使用的“自然語言”,是否還有其他的編碼某些信息的數據可以被當作語言來處理呢?如果LLM可以處理“特殊語言”,那么人工智能軟件的功能就不僅限于聊天和產生文本了。

我們知道,地球上一切生命的信息都由核酸(大部分生物是DNA,某些病毒是RNA)編碼。構成DNA的基本單元是A、T、C、G四個堿基,它們的組合包含了一個生物體的全部遺傳信息。那么,DNA序列是不是一種語言呢?是否可以利用海量的基因組信息去訓練人工智能軟件,從而讓其通過“閱讀”一個生物體的基因組就能夠預測其基本性狀呢?或者,反過來,能否讓人工智能軟件通過設計基因組序列,按需創造出一個全新的生物體呢?今天,我們還不知道這些設想是否可行。不過,近期的科學發現表明,如果略微降低期待,僅僅把設計局限在蛋白質序列上,那么也許成功離我們并不遙遠。
2022年,美國科學家在《自然·生物技術》雜志上發表了一篇文章,報道了一個基于LLM的蛋白質設計軟件ProGen。蛋白質是由氨基酸組成的,而其具體的氨基酸序列則是由編碼該蛋白質的基因決定的。那么,對于任何一個已經被測序和注釋的基因組而言,其編碼了多少蛋白質,每個蛋白質的氨基酸序列(簡稱:蛋白質序列)是什么,都是已知的。今天,科學家面對著海量的蛋白質序列的信息,它們決定了蛋白質的結構、功能。如果將這些信息看作一種語言,那么能否利用LLM解讀和設計蛋白質序列呢?
可以說,目前ProGen已經做到了這一點。通過利用2.8億條蛋白質序列進行訓練,ProGen的設計能力達到了相當高的水準。研究人員利用ProGen對溶菌酶進行了設計,然后組織實驗合成了其設計出的蛋白質。通過實驗可以發現, ProGen設計的蛋白質中73%具有活性。其平均活性水平與天然蛋白質大致屬于同一范圍,個別蛋白質還具備比天然蛋白質更強的活性。通過把蛋白質的氨基酸序列作為“語言”對待,經過海量數據的訓練,計算機似乎也可以讀懂這種“語言”,并能構建自己的“文本”,即新的蛋白質序列。
也許,未來計算機真的可以讀懂生命的“天書”,并寫下自己的“章節”—設計新的基因組。不過,即使科學家的進展僅停留在目前蛋白質設計的層面上,他們也已經可以對人類的生活造成重大影響。蛋白質設計可以幫助研發人員開發新型藥物和疫苗,也可以為工業生產提供更加有效的生物催化劑。可見,基于LLM的人工智能技術對社會的影響才剛剛開始。
2023年,更多的普通人與一鳴驚人的ChatGPT邂逅,我們知道了人工智能的崛起始于聊天,始于理解自然語言,然而,面對廣闊的應用領域,人工智能將終于何處,尚不可知,它的未來依然如謎,依然令人向往。