人工智能:與魔鬼的交易?
人工智能不會導致大規模失業,但會像蒸汽機、電腦一樣打亂勞動力市場的既有格局
霍金近日稱,發明人工智能“可能是人類歷史上最好的事情,也可能是最壞的事情”。如果運用不善,機器可能終結人類文明。即使不考慮這么遠,人工智能對勞動力市場的影響也無法忽視。
這種古老的擔憂可上溯到兩百多年前的工業革命時代。
時值19世紀,蒸汽機和機械化盛行,機器得以執行曾經只能由人力完成的各種任務。人們開始為著名的“機器問題”(Machinery Question)爭論不休:機器的大規模應用是否會讓工人大規模失業?1821年,李嘉圖首先關注了機器對不同社會階層利益的影響,他發現工人階級普遍認為機器導致自己利益受損。1839年,卡萊爾直接提出“機器惡魔”將粉碎無數人的生計。
20世紀末,電腦進入千家萬戶,打字、排版等工作被機器替代,信息化工業革命又一次引發失業恐慌。
如今,隨著人工智能技術的進步,機器問題再次被熱議。律師、醫生這些之前看起來不可能自動化的知識性工作,現在也同樣面臨著危機。2013年,牛津大學兩位研究員稱,美國47%的工作很可能會在不久的將來“被計算機取代”,英國有35%的職業可能被取代,在日本這個比例是49%。麥肯錫全球研究院稱,人工智能所推動的社會變革程度比工業革命“快10倍,規模大300倍,影響幾乎大3000倍”。作家馬丁·福特擔心自動化將導致經濟流動性停滯,中產階級的工作崗位消失,財閥們則“自我封閉于精英小區之中”。
比失業更可怕的是滅絕。一旦人工智能在智力上超越人類,不再受人類控制,不再認同人類擬定的目標,會是什么樣?自1818年小說《弗蘭肯斯坦》出版以來,又有無數科幻電影提出了設想,1927年電影《大都會》里的Maria,1968年《2001太空漫游》里的HAL9000,1977年《星球大戰》中的C3PO,1982年《銀翼殺手》中的Rachael,1987年《星際迷航:下一代》中的Data,1999年《黑客帝國》中的Smith,2013年《她》中的Samantha。
人工智能(Artificial Intelligence)一詞最早出現于1956年達特茅斯會議上的一份研究計劃書,包括克勞德·香農、約翰·麥卡錫在內的幾位科學家聲稱“一個夏天,一個專家小組,足夠讓機器解決各種人類無法解決的問題”。這當然是過度樂觀。過去幾十年中,人工智能領域經歷了無數次虛幻的曙光,始終只停留于幻想。
2012年,加拿大多倫多大學的杰夫·辛頓團隊所開發的深度學習系統在識別ImageNet圖片的在線比賽中實現了85%的準確率。此前,獲勝系統的準確率最高為72%,而人類平均有95%的準確率。2015年,一個深度學習系統以96%的準確率第一次超過了人類。
厚積多年,一朝薄發。由于“深度學習”技術,人工智能終于獲得了實質性突破。
實際上,深度學習技術只是改進了人工智能開發中的一個舊思路:人工神經元網絡。在生物大腦中,每個神經元都能被其他神經元觸發,將輸出的信號饋送給另一個神經元,而且此神經元的輸出也能繼續觸發其他神經元。人工神經元網絡對這樣的過程進行了模擬,通過對神經元權重的調整來訓練一個神經網絡。
20世紀90年代早期,這項技術已經能夠識別手寫數字,但由于訓練材料和計算能力所限,面對更復雜的任務則無能為力。現在,這兩項瓶頸都被沖破。一方面,互聯網的興起產生了數十億可用于目標訓練的文檔、圖片、視頻數據,這些都可以成為幫助計算機理解真實世界的資料;另一方面,2009年左右,人們意識到,可以用GPU(即圖形處理器,允許大量線程并行,數據吞吐量極大,原本多用于游戲和視頻處理)來運行深度學習算法,幾百倍地加速深度學習系統。
ImageNet比賽的結果讓整個科技產業界意識到了人工智能的潛力。投資和人才不斷涌入,科技巨頭們也在不斷收購人工智能創業公司。數據分析公司Quid的研究數據顯示,2015年,人工智能企業的成本創下85億美元的記錄,幾乎為2010年的四倍。
與過往曇花一現的技術不同,事實證明,深度學習技術可以應用于諸多領域。只要給定足夠數據,模擬人腦的的深度神經網絡便可接受訓練、完成各種工作。谷歌正在使用深度學習技術提高搜索精準率、改善翻譯服務、完成郵件自動回復,這些神經網絡也同樣支持著Facebook的照片標記服務、蘋果的語音助手、亞馬遜的購物推薦和特斯拉自動駕駛汽車的運行。
在某些方面,它們已經表現得遠勝人類。今年3月,由谷歌DeepMind團隊開發的AlphaGo打敗了世界頂尖圍棋選手李世石。這個深度學習系統由幾個相互連通的模塊組成,包括兩個深度神經網絡,其中一個通過存有三千萬步棋的數據庫來分析當下棋局,提出一些可能的走法,另一個網絡則通過隨機采樣來評估這些走法。
現在,人工智能開發者的目標是“通用人工智能”(AGI),一種能完成各種各樣任務的系統,有了它就不必再為每個特定問題都專門開發出一個系統了。即使以最樂觀的估計,做出人類智力水平的AGI也至少需要十年。但DeepMind首席執行官丹米斯·哈薩比斯認為:“我們已經知道實現AGI系統所需的幾十種關鍵元素了。”言下之意,未來不遠。
如果自動化機器取代人類勞力是必然趨勢,那么,隨著機器的智能程度越來越高,它們會奪走所有工作,還是終將創造更多工作?
技術工作者傾向于悲觀。圣路易斯聯邦儲備銀行發布的數據顯示,在美國,非常規的認知型工作和手工型工作自1980年后逐步增長,而常規化工作則一直維持幾乎不變。常規化的工作又可以劃分為兩種:高管、建筑師一類技術含量高、薪水高的工作,以及清潔工、快餐店員等技術含量低、薪水低的工作。經濟學家擔心自動化帶來的“職業兩極化”風險,也就是說中層常規技術工作消失,機器不能替代的低等和高等工作擴張。許多西方國家中層職業薪水的停滯也表明了這一趨勢。
歷史學家則傾向于樂觀。他們認為,每一次科技進步最終創造的就業崗位都將超過所消滅的,因為瑣碎工作的自動化增加了對機器無法完成的那部分工作的需求。比如,用自動取款機(ATM)取代部分銀行柜員降低了新開分行的成本,從而創造了更多的銷售和客服崗位。人工智能不會直接取代太多員工,而是會要求他們補充新技能。
事實可能介于兩者之間。人工智能不會導致大規模失業,但會像蒸汽機、電腦一樣打亂勞動力市場的既有格局,短期喪失的就業被長期創造的新就業彌補。從工業革命的經驗來看,這個轉型期將艱難而痛苦:經濟迅速起飛,幾十年后才在工資增長中得到充分反映;一個世紀后,新的教育和福利制度才跟上工業時代的節奏。
與工業革命相比,人工智能帶來的轉變可能會更加迅速,因為信息傳播、技術擴散都比兩百年前快得多。對個體來說,終身學習將成為必須,人類特有的社交和性格技能也將更加重要。
對企業和政府來說,將面臨兩大挑戰:如何幫助現有工人學習新技術;如何讓后人做好面對充滿人工智能工作場所的準備。顯然,教育和培訓應足夠靈活,以便迅速、有效地教授新技能。
福利制度也須與時俱進。福利、養老金和醫保應不再綁定企業,而是關注工人個體,以實現就業的順利過渡,并在工人學習新技能時對其提供支持。芬蘭和荷蘭等國計劃在明年開始試點“基礎收入”政策,即無論個人工作狀況如何,都能獲得基礎收入。丹麥則采用“彈性安全網”制度,允許企業輕松招聘和解聘,同時在失業者再培訓和再就業時提供支持。約翰·穆勒在19世紀40年代的著作中寫道:“關心那些生活被技術破壞的人是立法者關心的最合理目標。”這句來自蒸汽機時代的提示,在人工智能時代仍然適用。
而對于發展中國家,人工智能的沖擊將遠大于發達國家。因為發展中經濟體的體力勞動工作占比更高,比如低工資的工人制造廉價的產品、在客服中心提供廉價服務。如果自動化使發達國家能在這些方面自給自足,它們對發展中國家提供的產品和服務的需求就越少——發展中國家將失去廉價勞動力的比較優勢,再也無法通過“農田到工廠”的勞動力轉移模式來推動經濟增長了。而且,機器人和人工智能的技術基本掌握在發達國家手里。
在《失控》一書中,凱文·凱利說,世界已經成了一個復雜的地方,我們別無選擇,只能允許生物與技術之間的通婚;沒有這兩者的結合,我們所面臨的問題困難到了我們人類的大腦解決不了的地步。開發人工智能是一種浮士德契約,是與魔鬼的交易:“虛構的世界很快會變得像是活生生的世界:變得有自主性、適應性和創造性,但結果,這個世界會脫離我們的控制。”
比凱利更悲觀的是“奇點主義者”,他們的信條有三:第一,在可預見的未來,超越人類的智能將得以實現。第二,超人類智能會將人類卷入滅亡的陰云之下。第三,基于以上兩點,人類務必在超智能出現之前做出反應,要么讓技術奇點根本不發生,要么將它控制在對人類有益的良性發展軌道上。
“奇點”這個詞本來是個物理學概念,指宇宙大爆炸的原點,被英國數學家約翰·古德用來指代一種不可思議的存在——超人類智能的誕生。20紀60年代,他在與圖靈共事時得到啟發,把超智能機器定義為“能力可以遠超越所有人類智力活動的機器”。設計機器也是眾多智力活動之一,所以超智能機器完全有能力設計出更先進的機器;那么一場“智能爆炸”將無疑會發生,并且將把人類的智力遠遠甩在身后。因此,第一部超智能機器,如果足夠溫順的話,將會是人類所需要的最后一項發明,它會指引你如何控制一切。
然而,超智能機器成為現實的那一刻,也許正是它們不再聽命于人類意志之時。牛津大學人類未來研究院院長、哲學教授尼克·博斯特羅姆提出了著名的“回形針”設想:假設一個人工智能希望能收集盡可能多的回形針。它會想盡一切辦法來收集回形針,并且會通過自我升級來找到收集回形針的新方法,它還會反抗一切阻止它做這件事情的企圖。最后,它將“把整個地球和一部分宇宙空間都變成了一個回形針制造工廠”。這個近乎荒謬的思想實驗試圖表達的是一個非常嚴肅的觀點:人工智能不需要人類一樣的行為和心理動機,它們可能不會出現人類常會犯的錯誤和偏差,但是會犯別的錯誤,比如執念于收集回形針。它們的目標一開始可能看起來是無害的,但如果人工智能能夠自我復制并升級自己的性能,就會非常危險。它會像終結者一樣:把人類當作低等物種一樣奴役起來、無視我們的權利,只追求它們自己想要的,完全不管對人類的后果。
樂觀的人則認為,人類社會可以安全地研發人工智能。大到核彈,小到交通規則,這些都證明人類曾成功運用技術和法律手段去管理威力強大的創新。人工智能會帶來危機,但合理的應對將轉危為機。
(楊月縈編譯自《經濟學人》《萬古雜志》)