Douglas+Heaven


我們已經創造了一種全新的智能形式,盡管沒有人能夠看透它如何思考、如何推理。
瑞克·拉希德(Rick Rashid)這么緊張是有原因的。他在中國的天津邁上講臺,面對2000名研究者和學生,要發表演講。問題在于,他不會講中文,而他的翻譯以前糟糕的水平,似乎注定了這次的尷尬。
“我們希望,幾年之內,我們能夠打破人們之間的語言障礙”。這位微軟研究院的高級副總裁對聽眾們說。令人緊張的兩秒鐘停頓之后,翻譯的聲音從擴音器里傳了出來。拉希德繼續說:“我個人相信,這會讓世界變得更加美好。”停頓,然后又是中文翻譯。
他笑了。聽眾對他的每一句話都報以掌聲。有些人甚至流下了眼淚。
這種看上去似乎過于熱情的反應是可以理解的:拉希德的翻譯太不容易了。每句話都被理解,并被翻譯得天衣無縫。令人印象最深的一點在于這位翻譯并非人類。
曾幾何時,執行這樣的任務遠超最復雜的人工智能的能力,而且并不是因為人們沒有為此付出努力。多年以來,人工智能領域被那些旨在復制人類意識功能的宏大計劃統治著。我們夢想著擁有一臺機器,能夠理解我們、識別我們,幫助我們做出決定。近幾年來,我們已經實現了這些目標,然而實現的方式,是先行者不曾想象的。
如此說來,我們已經研究出了復制人類思想的方法了嗎?還差得遠呢。相反,實現這些目標的方法,與我們最初的愿望大相徑庭。人工智能在你周圍無處不在,它的成功可以歸因于大數據和統計學,也就是利用海量信息執行復雜計算。我們已經創造出了意識,只不過它們與我們的意識相去甚遠。它們的推理過程,對人類來說深不可測——這一進展所預示的前景,正在引起人們的關注。既然我們正在愈加依賴這種新型智能,我們或許需要改變自己的思維方式去適應它。
復制思維
半個多世紀以前,研究者列出了一系列目標,是我們向具備人類智能的機器挺進時必須要達成的。英國布里斯托爾大學的尼洛·克里斯蒂亞尼尼(Nello Cristianini)說:“從20世紀50年代開始,我們就有了一張待辦事宜的清單。”他曾寫過人工智能研究歷史和演化方面的著作。
清單上的很多項目可以追溯到1958年在英國特丁頓召開的思想過程機械化會議。參與那次會議的,不僅有計算機科學家,還有物理學家、生理學家和心理學家。按照我們的樣子建造思考機器的前景,令這些人全都激動萬分。他們一致認為,智能的特征應該包括對理解話語、翻譯語言、識別圖像以及模仿人類決策的能力。
然而時間在流逝,那張清單卻絲毫沒有變短。很多研究者試圖以邏輯公理為根基,使用程序化的規則來模擬人類思考。他們以為,只要創建足夠多的規則就能成功。但事實證明,這太難了。幾十年過去了,人工智能研究成果寥寥,資金告罄。
那么,究竟是什么發生了改變呢?“我們并沒有找到智能的解決方案,”克里斯蒂亞尼尼說,“我們算是放棄了。”然而,這便是突破。“一旦我們放棄制造精神和心理特性的嘗試,成功之道便開始出現在眼前了。”
說白了,他們放棄了預編程的規則,而是投向了機器學習的懷抱。利用這種技術,計算機教會自己從數據中建立模式。有了足夠大的信息量,你就能讓機器學會做看上去有智能的事情,別管是理解話語、翻譯語言,還是識別人臉。英國劍橋微軟研究院的克里斯·畢肖普(Chris Bishop)打了個比方:“你堆積足夠多的磚塊,然后退上幾步,就能看到一座房子。”
這種方法的原理大概是這樣的。很多最成功的機器學習系統,依據的都是貝葉斯統計,這種數學框架能讓我們測算可能性。根據給定情境以及先前在類似情境中觀察到的關聯數據,貝葉斯統計能夠給出出現某個結果的可能性數值。
比如,我們想讓人工智能回答一個簡單問題:貓吃什么。基于規則的方法要從零開始,采取有邏輯的步驟,建立一個關于貓及其飲食習慣的數據庫。采用機器學習技術,你只需要不加選擇地輸入數據——互聯網搜索、社交網絡、食譜書籍等。通過計算特定詞匯出現的頻率以及概念之間如何彼此關聯,系統便建立了一個統計模型,能夠估計貓喜歡某些食物的可能性。
當然,機器學習所依賴的算法已經出現多年。新鮮之處在于,現在我們有了足夠的數據,讓這種技術大顯神威。
就以翻譯語言為例。20世紀末,
IBM將加拿大國會生成的英法雙語文檔輸入計算機,利用機器學習技術教它在這兩種語言之間互譯。那些文檔就像羅塞塔石碑一樣,包含了幾百萬被寫成兩種語言版本的例句。
IBM的系統辨別出兩種語言單詞和短語之間的關聯,并將這種關聯應用于新的翻譯任務。結果卻滿是錯誤。他們需要更多的數據。“這時谷歌跟了上來,差不多輸入了整個互聯網。”英國牛津大學互聯網學院的維克托·邁爾-舍恩伯格(Viktor Mayer-Sch?nberger)說道。
和IBM一樣,谷歌在翻譯領域所做的努力,一開始也是發展算法,在多語言文獻之間交互參考。然而,研究者開始意識到,如果翻譯器學習了說俄語、法語和韓語的人們實際的講話方式,翻譯質量將有很大提高。
谷歌轉向了被它索引過的龐大網絡。這張網絡正在朝豪爾赫·路易斯·博爾赫斯(Jorge Luis Borges)1941年的短篇小說《巴別圖書館》中那座假想的圖書館迅速演進。小說中的圖書館收藏的書籍,囊括了所有可能的詞語組合。假設谷歌翻譯器正試圖將英語翻譯成法語,它便可以將它最初的嘗試與互聯網上用法語寫就的每一個句子作比較。邁爾-舍恩伯格用翻譯“light”一詞來舉例:表示光照時,要翻譯成法語詞“lumière”,表示重量時,則要翻譯成“léger”。谷歌翻譯器自己學會了如何做出與法國人一致的選擇。
除了大量詞序的相對頻率,谷歌翻譯器以及拉希德使用的微軟翻譯器,對語言可謂一無所知。這些人工智能無非是一個詞接一個詞地計算接下來出現什么詞的可能性。對它們而言,這只是個概率問題而已。endprint
這些基本原理多少顯得有些直來直去。當巨量數據中產生海量關聯時,事情就復雜了。比如,谷歌的自動駕駛汽車,為了對周圍環境作出預測,每秒鐘要收集差不多1GB的數據。亞馬遜這么善于誘導人們購買更多的商品,是因為它做出推薦所依據的基礎,乃是幾百萬其他購買行為中的幾十億關聯關系。
大者為王
翻譯拉希德的演講,展現了統計人工智能可以有多么強大——不僅要猜測他說了什么,思考該怎么翻譯,還要判斷這句中文由他說出來是什么效果。“這些系統的表現并非神跡,”畢肖普說,“但僅僅是探究一下巨量數據的統計信息,就能取得這么大的成就,我們常常為此感到驚訝。”
這些智能算法正開始影響生活的每一個方面。就在拉希德演講一個月之后,荷蘭國家法證科學研究所就雇了一套名叫波拿巴(Bonaparte)的機器學習系統,輔助他們尋找一名已經潛逃了13年的謀殺犯罪嫌疑人。波拿巴能夠分析和比對大量DNA樣本,這個工作由人工來做的話將非常耗時。保險和信用行業也在擁抱機器學習,部署這種算法為個人建立風險評估簡況。醫學界也在利用統計人工智能,篩選大得令人類無法分析的基因數據庫。IBM公司的沃森(Watson)甚至能夠診斷疾病。
“大數據分析能夠發現被我們遺漏的事情,”邁爾-舍恩伯格說,“它對我們的了解,比我們自己還要深刻。但它也需要一種迥然不同的思考方式。”
在人工智能發展早期,“可解釋性”被賦予了很高的價值。當機器做出選擇時,人類能夠追查到原因。然而,如今,那些由數據驅動的人工意識所做的推理,是對巨量數據點進行高度復雜的統計分析。換句話說,為了得到“是什么”,我們放棄了“為什么”。
就算一位高超的技師能夠搞懂其中的數學過程,可能也沒有什么意義。畢肖普說,那并不會揭示為什么系統會做出某個決定,因為這個決定并不是經由人類能夠解讀的一系列規則而得出的。他認為,為了得到有用的系統,這是個可以接受的取舍。早期的人工意識或許是透明的,但它們都失敗了。“你可以得到一個解釋,但那是對錯誤預測的解釋。”一些人對這種轉變提出了批評,但畢肖普和其他一些人主張,是時候放棄對人類解釋的期待了。
“可解釋性是一種社會契約,”克里斯蒂亞尼尼說,“過去我們認為它很重要,現在我們認為它不重要。”
英國布里斯托爾大學的彼得·弗拉赫(Peter Flach)試圖向他計算機科學專業的學生,講授這種從根本上不同的思維方式。編程講究絕對,機器學習分析的卻是不確定程度。他認為,我們應當更習慣懷疑。比如,亞馬遜的人工智能推薦了一本書,這究竟是機器學習的結果,還是亞馬遜有一些書不好賣?再比如,亞馬遜可能會告訴你,和你差不多的人購買了它所展示的書,它所說的“和你差不多的人”以及“與此差不多的書”究竟是什么意思?
“也許,在某種程度上,我們終將不得不信任機器,即便我們無法完全理解它。”弗拉赫說。
危險在于,我們不再提出問題。我們會習慣于在不經意間由機器替我們做出決定嗎?由于智能機器已經開始針對抵押申請、醫療診斷,甚至你是否有罪,做出神秘莫測的決斷,我們押在人工智能上的賭注更大了。
比如在醫療方面,如果一套機器學習系統認為,你在未來幾年中將開始酗酒,會怎么樣?醫生可以據此拒絕給你施行器官移植手術嗎?如果沒人了解結論從何而來,便很難討論你的病情。一些人可能會信任人工智能甚于其他。“人們太愿意接受算法發現的事情,”弗拉赫說,“連計算機都說‘不了。而這正是問題所在。”
此時此刻,某個地方,可能有一部智能系統正在判斷你是什么樣的人以及將成為什么樣的人。看看發生在美國哈佛大學拉坦婭·司維尼(Latanya Sweeney)身上的事情吧。有一天,她驚訝地發現,她的谷歌搜索結果附帶的廣告問道“你被逮捕過嗎?”白人同學的搜索結果中卻沒有這條廣告。這件事促成了一項研究,表明谷歌搜索背后的機器學習系統,無意中成了種族主義者。在深不可測、浩如煙海的關聯當中,跟犯罪記錄相關的廣告與黑人慣常使用的名字被聯系了起來。
“人工智能會遇到很多倫理困境,”邁爾-舍恩伯格說。很多人已經對大數據時代的隱私問題表達了關切。 “說實話,相對于隱私,我更擔心統計預測遭到濫用。”
為了探索人工智能的世界,我們有必要改變自己對于人工智能是什么的想法。我們已經建造的標志性智能系統,既不下象棋,也不謀求推翻人類的統治。克里斯蒂亞尼尼說,“它們跟HAL 9000不一樣。”它們已經不再僅僅在線上陪我們打發時間,或者慫恿我們去買更多的東西,而是能夠在我們自己意識到之前預測出我們的行為。我們避不開它們。因此,相處的訣竅在于,承認我們沒有辦法知道這些選擇因何作出,而是要正確看待人工智能給出的這些選擇:它們是建議,是數學上的可能性。這些選擇的背后,不存在什么神諭。
當人們夢想著以自己為藍本建造人工智能時,他們向往的或許是,有朝一日能夠以平等的身份,與這些會思考的機器相遇。然而,我們最終得到的人工智能卻是異類,是一種我們之前不曾遭遇過的智能形式。(來源:果殼網,2013-09-07)endprint