喬·韋曼(Joe Weinman)
超出原本預期不斷增長的計算能力和具有學習能力的算法,很可能會引發邪惡的超級智能
如果我們這個時代最富有、最聰明和最具商業頭腦的三個人都認同某個想法,那這個想法一定值得其他人認真考慮。這里要提到的三個人分別是:世界首富、微軟聯合創始人比爾·蓋茨;線上支付、電動車、宇宙飛行,以及地面交通領域的核心創新者埃隆·馬斯克;還有宇宙學家史蒂芬·霍金。他們都認同這個想法:人工智能(AI)存在威脅人類文明的潛在可能。這些只是聰明人的瘋狂猜想嗎,還是確實需要我們認真去了解的真知灼見?
在經歷了半個世紀的緩慢推進后,2016年正在成為“人工智能”年。2016年,剛剛被谷歌納入旗下的DeepMind團隊用阿爾法圍棋軟件打敗了人類最優秀的圍棋選手李世石,在全世界的關注下以4:1的成績獲得了勝利。AI的應用領域當然不僅限于圍棋,它還能應用到眾多其他領域,比如:醫療健康、教育、科學、娛樂等等。AI不僅能夠掌握這些領域的知識,還有可能最終超越人類在該領域最棒的從業者。摩爾定律效應(英特爾Intel創始人之一戈登·摩爾提出來的概念,內容為:當價格不變時,集成電路上可容納元器件的數目,約每隔18-24個月便會增加1倍,性能也將提升1倍。換言之,每1美元所能買到的電腦性能,將每隔18-24個月翻1倍以上)告訴我們,性價比的提升會讓最棒的應用和性能變得日益平民化。比如,健康醫療領域的AI可以在幾秒鐘內精確診斷出大多數家庭醫生沒見過的罕見病例,而AI做出判斷的依據是對上百萬醫療記錄的訪問,將病人的基因和表外基因(是指DNA序列不發生變化,但基因表達卻發生了可遺傳的改變)與數百萬病患進行對比。讓手機上一個免費的應用成為世界上最棒的醫生只是時間問題。
但AI也有其陰暗的一面,這在暢銷小說中體現得淋漓盡致。在《2001:太空漫游》中,“發現一號”宇宙飛船上的AI因為犯錯、說謊,最終被英雄大衛·鮑曼關閉。但在《終結者》系列中,“天網”似乎比人類更高明,在新片《機械姬》中,機器人愛娃也比她的人類創造者更加聰明。這些電影真的只是科幻小說嗎,或者它們已經預示了下一個變革——超越人類的機器?如果機器是下一個變革,它們是否會像它們的先驅一樣,也就是我們人類,把無數的物種踩在腳下當做進化的階梯?或者換個說法,電腦系統會做壞事嗎?如果它們做壞事,又會帶來怎樣的后果呢?
惡意行為
我們首先要明確的一點是,計算機系統可以通過無數種機制進行惡意行為,既可以是惡意行為的來源,也可以是惡意行為的渠道。舉例來說,可能會出現一個這樣的機制:它所承載的程序皆由黑客、恐怖分子或者網絡罪犯所控制,而這些網絡罪犯正在充斥著不嚴謹系統的全球計算機結構中尋找漏洞。不僅如此,這些系統還有可能被故意設計用于戰爭。如今先進的軍隊都在制造無人機、戰斗飛機、艦船、坦克還有戰斗機器人。拯救士兵性命這件事,已經和計算機與武器的結合密切相關;還有另外一種機制,善意的軟件中隱藏著漏洞。這些漏洞有可能是被惡意行為人故意放進去的,也有可能是善意行為人不小心放進去的。比如最嚴重的漏洞之一“Heartbleed”,就是開源貢獻者羅賓·西格曼為了修復其它漏洞無意間造成的,結果導致軟件出現了意料之外的功能。負責檢測軟件更新的斯蒂芬·漢森因為沒有發現更新中存在的錯誤漏洞,結果導致上億網站暴露于危險之中。
還有一種機制是計算機系統會按照預先編程好的邏輯運行,但許多問題本身就沒有那么容易解決。比如自動駕駛車的控制系統所提出的“道德”難題:迎面行駛而來的車,由于路面濕滑,在山路上滑到了另一邊的車道,因為沒有足夠的時間停車,所以,控制程序必須在撞向對面的車和開下懸崖之間做出選擇。但這兩個選擇都不是好的解決辦法。當然,這種困境在計算機之外的現實世界同樣存在。比如,紐約最近規定禁止售賣大容量的含糖軟飲料。一些人認為這樣可以遏制肥胖;另一些人卻認為這樣限制了人們的自由。高級智能的AI作出的決策可能是為了實現我們的利益最大化,但人們會將其視為惡意行為,因為它們限制了我們的自由。
最后,復雜的系統可能會出現程序員計劃之外和預料之外的表現。每個組成部分在看似合理的預設行為相互作用后,就有可能會產生意想不到的結果。比如,進化生物學家皮特·勞倫斯寫的《蒼蠅誕生記》,原本價格只有35美元左右,結果在兩家出版商“非常合理”的定價算法的推動下,價格翻了上百萬倍,超過2300萬美元。出版商Profnath的定價算法是,把自己的價格定到競爭對手Borde ebook價格的0.9983倍,可以猜想Profnath的策略是縮小利潤打敗競爭對手;而其競爭對手Bordeebook更愿意用銷量來交換利潤,所以,將價格定為Profnath的1.27倍。結果這兩種各自合理的定價算法交互作用,最終導致書價不停上漲到完全不合理的高度。
最終極的一種可能當然是,人類創造出了有足夠復雜意識和自我意識的人工智能,并且擁有“掌控”的動機。雖然這樣的情況今天不會發生,但人類歷史就是由這些原本看似不可能的預測造就的,所以,最好有足夠的理由證明這些事情一定不會發生,否則,不是今天發生,也會是今年、未來十年或者有生之年發生。
對一些人來說,人工智能是非常不可思議的一種能力。在許多方面,它的確如此。雖然它確實是不可思議的,但這并不代表它不可復制。很多人類思想的不同機制都在經歷不同程度的復制,最近復制的是人腦低端機制,比如,復制了神經元和突觸交流學習機制的人工神經網絡。人們很容易陷入到AI是否可以獲得“真愛”或者“真的生氣”這種無限的討論中,但說到底這并不重要。真正的問題是,AI是否可以被編程或者學習去獲得完成某一復雜任務的動機。而這個問題早在幾十年以前就已經有了答案,那時,機器人就已經可以在低電量的情況下把自己連接到墻上的插座充電,程序也會在下西洋跳棋的時候去爭取勝利?,F在的軟件所擁有的能力是以指數增長的,因為這些系統構建中最深層次的東西已經改變:不需要程序員再為程序精準編碼,機器已經可以自學了。
在人工智能發證的早期階段,個別程序需要程序員刻苦鉆研,而最終系統所獲得的能力很大程度上受到程序員自身水平的限制。就算我們對計算機科學一無所知,也可以編出井字棋的運算法則。編入這個程序的實際是游戲邏輯:1)如果你先落子,那就選中間的空格;2)如果你是后落子的那一方,而你的對手已經占了中心的空格,那你就選一個角落的空格;3)其它情況。這種算法實際上對游戲沒有任何深入的了解,只是簡單復制執行了程序制定的法則。在井字棋的游戲中,所有最優策略都可以通過法則來預先指定,因為可能出現的情況數量相對來說是比較小的。值得注意的是,雖然井字棋只有九個空格,但也有上萬種組合。(第一步就有9種可能,第二部8種,第三部剩7種,這樣算下來就是9*8*7*6*5*4*3*2*1=362880種組合,雖然有的回合走到第五步就結束了。)
對國際象棋來說,這就變得更加困難了,因為落子的位置大概有10120種不同組合。井字棋那種考慮到所有情況的硬編碼方式已經不可行。因而,早期植入國際象棋程序的機制對落子規則進行了硬編碼,對落子位置進行評估,然后檢測不同的落子位置帶來了提升還是不利。隨著電腦越來越強大,每一步落子所帶來的影響也在更大程度上被預測。計算機變強的同時,程序邏輯仍然在一定程度上限制著下棋質量,但軟件如今檢測到了越來越多落子可能性。
深度學習時代到來
古語云:“授人以魚不如授人以漁”。新語或許可以是:“授計算機以程序,不如授計算機以深度學習能力,然后它就可以自學任何事情。”打敗李世石的谷歌DeepMind 阿爾法圍棋軟件就是一個很好的例子。它將兩種方法進行了結合。一方面,它從人類的程序員那里獲得了圍棋知識;另一方面,它也獲得了學習程序員不知道的東西的能力。AlphaGo觀看了上億場比賽,一邊從圍棋大師那里學習一邊自己下圍棋。這樣一來,AlphaGo只用了幾周或者幾個月的時間,就經歷并學習了人類棋手一輩子所能下的圍棋。而軟件的復雜程度是由游戲的復雜程度決定的。圍棋的組合數是10720種。
谷歌阿爾法圍棋軟件真正有趣的是它在第二局中的黑37手。這一手出人意料,李世石離開比賽大廳15分鐘。在此之前,AlphaGo基本都是按照幾個世紀來的傳統方法在下棋。但一開始被認為奇怪甚至是失誤的這一手,后來被認為是“稀有的”、“敏銳的”、“出色的”、“有創造力的”、“獨特的”。計算機和算法的思想終于透露了最深的秘密:被人所編程的機器可以啟發人類,甚至有超越人類的能力。一個在人類看來剛剛起步的計算機程序,卻在最古老、最復雜,也是人類最高明的發明——圍棋——中創造了新的方法。
李世石最終以1:4的成績敗給阿爾法圍棋軟件,這進一步向我們證明了,計算機程序能夠展現出程序員預料之外行為的能力。往好的方面想,這意味這程序或許可以找到解決癌癥、冷聚變、長生不老或者脫鹽等問題的方法。比如,Melvin是一個聚合了量子物理實驗的程序,程序已經設計出了多種“反直覺”的實驗方案,也許將來會帶來新的能量生成方面的計算結構或者機制。
由獨立的模塊結合后產生復雜的、預料之外的行為被稱之為“涌現”(emergence),存在于計算之外。比如,鳥群多姿的變化都是由每只鳥簡單的三個動作組合而成:分開、排成一排、保持連貫。計算機圖形學家克雷格雷諾茲(Craig Reynolds)在上世紀80年代將這三個準則簡單歸納為:1.飛的時候別離其他鳥太近;2.和其他鳥保持相似的飛行方向;3.別飛離其他鳥太遠。螞蟻族群尋找食物是非常復雜的行為,但這個復雜的行為也只是由每一只螞蟻的簡單行為組成的。多虧這種“增長”,螞蟻族群找到了搬運食物最短的路徑。螞蟻在尋找食物、搬運食物的時候會在路上留下信息素。因此,會有越來越多的信息素沉積在最短的路徑上,之后越來越多的螞蟻會走這條路。
即便是在非常簡單的系統中,這種最易懂的“增長”也會導致人類的災難。比如,最簡單的水分子系統的增長,僅僅由兩個氧原子和一個氫原子構成的水分子,可以變成冰,而冰又可以導致汽車在高速路上打滑釀成車禍。這告訴我們:即便是最簡單的系統也可能引發大規模問題。
阿爾法圍棋軟件和Melvin告訴我們,具有學習能力的獨立程序可以創新,并產生意想不到的結果。《蒼蠅誕生記》的價格飛漲還有股市的崩盤都告訴我們,當這些程序相互作用的時候,結果可能會大大出乎我們的預料,并導致混亂。換句話說,超出原本預期不斷增長的計算能力和具有學習能力的算法很可能會引發邪惡的超級智能。但想要引起混亂和問題,也不一定需要這種超越人類能力的智能,早期版本的微軟視窗系統就能做到,臭名昭著的“藍屏死機”能讓你瞬間丟失所有表單和文件里已經完成的工作。
惡意行為的后果
惡意程序有可能會導致其它電腦程序出現嚴重問題,導致實體系統出現問題,進而導致軍隊系統出現問題。算法出問題而導致的崩盤,可能會導致全球金融系統出現問題,財富和流動性流失,進而引發大蕭條和經濟崩潰。醫院的系統也會受到干擾甚至崩潰,因為勒索軟件會破解醫療記錄和診斷圖像,干擾醫院系統基礎功能的正常使用,比如,登陸、保險、賬單還有郵件功能。2014年9月26日,芝加哥地區的空中交通突然中斷,據稱起因是一名心懷不滿的員工干擾了空中交通控制系統而導致的。
2003年8月14日,美國東北地區大停電爆發,5千多萬人受到了停電影響。但停電的起因并非天氣炎熱導致的過度用電,而僅僅是因為警報系統的一個小漏洞導致操作員未能及時發現一條問題線路,結果引發了更大規模管理軟件的失效,導致了此次長達一個星期的停電。Stuxnet電腦蠕蟲曾引發伊朗五分之一的核能離心分離器毀滅,蠕蟲使離心分離器過快轉動,結果把自己撕成了碎片。2014年,德國一家鋼鐵廠報告遭受大規模破壞,黑客侵入了計算機網絡,阻止了高爐的正常關閉。
雖然這些攻擊都是由單一民族國家或黑客造成的,而非流氓超級智能AI,但這些攻擊的重要特征是:程序連接到真實世界的系統,并使他們失控、自我毀滅、關閉報警系統或者像核電站冷卻系統這樣的保護系統?;蛟S最終的危險不是軟件致使汽車、飛機、電網、或核電站失靈,而是軟件和武器連接在了一起。這些武器可能包括無人機、洲際彈道導彈、潛艇發射的彈道導彈等。戰爭自動化是一種不可逆轉的趨勢。那些用于遠程監控、控制的網絡連接,同樣可能被黑客侵入或被惡意軟件利用。
未來如何
科技、計算機技術和人工智能,都能被用在好的方面和壞的方面。我們大多數人都希望看到一個沒有戰爭、疾病、貧窮和饑餓的世界,而這些技術正是我們實現烏托邦的希望。然而,也有可能會發生一些不幸。這篇文章想要論證的是,即便我們不希望看到這些不幸發生,但我們沒有證據證明它們不會發生。而我們的責任就是要找到方法來確保它們不發生。微軟聊天機器人Tay,闡明了人工智能存在的背景。Tay是一個為了在推特等社交媒體網站上進行互動而設計的軟件程序。它上線于2016年3月23日,16小時后因為在人類的互動中“學壞”,微軟不得不將其下線并致歉。換句話說,友好的或至少是中性的Tay,反映出了一些積極和消極的復雜人性,它和阿爾法圍棋軟件都給我們上了一課。