王治東
人工智能風險性芻議
王治東
當前,人工智能技術的發展一路高歌猛進,尤其是阿爾法狗圍棋(AlphaGo) 以4:1的比分擊敗前世界圍棋第一人李世石之后,人們對人工智能的發展比較樂觀,當然對人工智能的風險性也產生巨大的擔憂。那么,人工智能將帶給我們一個什么樣的未來?人工智能的風險性是否存在?風險性生成的機制是什么?相互之間的關聯度如何?人工智能風險防范的邊界在哪里?這些問題亟待不同視角的探討,哲學在其中有其特有使命。
人工智能;技術風險;人機邊界
1956年人工智能(artificial intelligence) 概念在美國達特茅斯大學的研討會上被正式提出,標志著人工智能學科的誕生。“顧名思義,人工智能就是人造智能,目前的人工智能是指用電子計算機模擬或實現的智能。同時作為學科,人工智能研究的是如何使機器(計算機) 具有智能的科學和技術,特別是人類智能如何在計算機上實現或再現的科學或技術。”a渥維克:《機器的征途》,李碧等譯,呼和浩特:內蒙古人民出版社1998年版,第1—2頁。隨著人工智能技術的發展,人工智能被進一步劃分為“弱人工智能”和“強人工智能”。“就弱人工智能而言,計算機在心靈研究中的主要價值是為我們提供一個強有力的工具;就強人工智能而言,計算機不只是研究心靈的工具,更確切地說,帶有正確程序的計算機其實就是一個心靈。”b廉師友:《人工智能技術導論》,西安:西安電子科技大學出版社2000年版,第1頁。就目前而言,弱人工智能技術已經基本實現,以計算機為載體的人工智能技術在自動化工業中發揮了巨大作用,“我們可以通過各種自動化裝置取代人的軀體活動”a杜文靜:《人工智能的發展及其極限》,載《重慶工學院學報(社會科學版)》2007年第1期。,人類的生產效率因此得到極大的提升。人類一直朝強人工智能的道路上強勁邁進,如果人工智能廣泛應用,未來社會是否有更多的風險?風險何在?如果有風險,產生風險的機制是什么?人工智能與人之間的邊界或者禁區在哪里?本文嘗試從哲學的角度進行初步的探討。
烏爾里希·貝克與安東尼·吉登斯的風險理論開啟了對技術風險問題的關注。烏爾里希·貝克在20世紀90年代提出“風險社會”概念,認為科技發展在促進社會進步的同時,也對生態環境甚至人自身造成威脅。“在風險社會中,風險已經代替物質匱乏,成為社會和政治議題關注的中心。”b烏爾里希·貝克:《風險社會》,何博聞譯,南京:譯林出版社2004年版,第15—19頁。貝克認為,當前社會是一個充滿各種風險的社會,政治、經濟、文化、科技、生產、貿易等各個領域都存在諸多風險,而技術風險無疑是其中影響最為深遠的風險類型。吉登斯從現代性的視角出發,提出現代社會的風險形式是一種人類制造出來的風險,“‘人造風險’于人類而言是最大的威脅,它起因于人類對科學、技術不加限制地推進”c安東尼·吉登斯:《現代性的后果》,田禾譯,南京:譯林出版社2000年版,第115頁。。
(一) 人工智能與一般技術風險的區別
風險意味著危險的可能性,也是目的與結果之間的不確定性,是危險的概率指標。技術的風險性首先表現為技術的不確定性。技術的不確定性有多種表現形式,技術使用后果的不確定性是技術不確定性的主要方面。技術風險也主要來源于此。國內學者對技術風險問題的認識已經比較成體系,代表性的觀點如下:從技術風險的屬性來看,技術風險既具有客觀實在性,也具有主觀建構性;從技術風險的生成來源來看,技術風險既是技術自身的內在屬性,亦是人的行為結果;從風險性后果來看,風險事件逐年增多、破壞性不斷增強、不可預測性日趨復雜、風險控制愈加困難等。
技術風險的另一個說法是墨菲法則,那就是,如果事情有變壞的可能性,不管這種可能性有多小,它遲早都會發生。人工智能技術也是如此,如果人們擔心某種情況發生,那么它就有發生的可能性,因為風險是一種可能性的存在。人工智能技術風險問題既與一般技術風險具有同源性和同構性,但也有很大的區別性。
技術在很大程度上都是作為它者的存在,一般性技術在很大程度上都是外在化的風險,如環境風險、生態風險、經濟風險等。“由于技術與社會因素的相互作用,因此,在風險社會中,風險都會從技術風險自我轉換為經濟風險、市場風險、健康風險、政治風險等。”a芭芭拉·亞當等:《風險社會及其超越》,趙彥東等譯,北京:北京出版社2005年版,第334頁。
但人工智能技術卻不能簡單地作為它者存在,除了外在的風險之外,人工智能技術很大程度上是內在化的風險,那就是人的存在性地位的挑戰風險以及人與物邊界復雜性的風險。內在化風險不是物質層面的風險,而是一種精神上的沖擊風險,是基于人的自我認識和認同的風險。因此人工智能技術的風險因子不僅僅在經濟維度、環境維度,而且在于人機邊界的厘定,以及人機之間競爭關系的形成方面。
在此方面,很多人工智能事件都引起人工智能取代人的擔憂。自1997年電腦“深藍”戰勝國際象棋冠軍加里·凱斯帕羅夫19年之后,在2016年3月9日—15日,由谷歌DeepMind研發的神經網絡圍棋智能程序AlphaGo以4:1的比分擊敗前世界圍棋第一人李世石。2017年1月6日江蘇衛視《最強大腦》上演了一場精彩的人機對決,這次的戰場不再是圍棋,而是人臉識別。據悉,“‘百度大腦’已建成超大規模的神經網絡,擁有萬億級的參數、千億樣本、千億特征訓練,能模擬人腦的工作機制。百度大腦智商如今已經有了超前的發展,在一些能力上甚至超越了人類”bhttp://tech.qq.com/a/20170107/001226.htm.。“小度”對戰人類大腦名人堂選手,上演人機大戰,在圖像和語音識別三場比賽中,以2勝1平的戰績勝出。2016年11月百度無人車已經能夠在全開放的道路上實現無人駕駛。當前快遞撿貨機器人已經大規模投入快遞行業。2016年富士康公司在昆山基地裁員6萬人,用4萬臺機器人取代人力。基于以上事實,很多人認為:人工智能取代人類的時代已經到來,敵托邦式構想即將成為現實。并且通過幾場“人機大戰”,普通大眾開始表現出對人工智能風險性問題的強烈關注。強人工智能技術盡管還沒能實現,但從這場AlphaGo圍棋大戰中,讓人似乎看到未來人工智能超越人類的可能,因為人工智能的三大基礎——算法、計算平臺、大數據——已經日漸成熟。南京大學林德宏教授曾指出:“電腦不僅能模擬人的邏輯思維,還可以模擬形象思維、模糊思維、辯證思維,人工智能將來可能全面超過人腦智能。”c林德宏:《“技術化生存”與人的“非人化”》,載《江蘇社會科學》2000年第4期。人工智能風險性考慮,主要是基于人工智能對人類的可能性超越。這是一種內在性的風險,是人工智能之于人的關系性的風險。
(二) 人工智能風險的表現形式
“工程師和技術專家傾向于把技術風險界定為可能的物理傷害或者厄運的年平均律,哲學家和其他人文主義者認為技術風險無法定量,它包含了較之物理傷害更為廣泛的道德內容。”d李三虎:《職業責任還是共同價值——工程倫理問題的整體辨釋》,載《工程研究》2004年第1期。有學者直接認為:“‘風險’包括兩部分,一部分是物理性的,更為實際有形的、可被量化的危險,即技術性的風險;而另一部分是由心理認知建構的危險,即感知的風險(perception of risk)。”a轉引自曾繁旭、戴佳、王宇琦:《技術風險VS感知風險:傳播過程與風險社會放大》,載《現代傳播》2015年第3期。人工智能風險同樣包含這兩個層面:一個是客觀現實性的物理層面,一個是主觀認知性的心理層面。在人工智能技術大規模運用之前,很大程度上風險的認識來自主觀認知的心理層面。在人工智能發展過程中,人工智能(類人) 與人(人類) 之間的關系一般經歷三個階段:首先是模仿關系階段,人工智能首先基于對人的模仿,使機器初步具有人的智能;二是合作關系階段,人工智能協助人類完成大量的工作,體現出人工智能強大的利人性;三是競爭關系(取代關系) 甚至是僭越關系階段,是人工智能大規模廣泛應用情況下出現人工智能與人之間的依賴、競爭、控制等復雜的關系情況。
人工智能在大規模應用后,潛在的風險性主要有以下幾種表現形式:一是人工智能技術的發展將(至少暫時性地) 導致未來失業率的大幅度提升。現代工業中,弱人工智能技術已經能夠替代人類,從事一般性的體力勞動生產,未來人類的部分腦力勞動也必將被人工智能技術所取代。因此,對未來人類可能面臨巨大失業風險的擔憂不無道理。二是人工智能的發展使人類遺忘人工智能技術。也就是說,人類將越來越依賴機器的“智能性”,而忽視其“人工性”,這將導致人類與機器的關系轉換成人類與“類人”的關系,人類很可能對機器產生類人情感,甚至產生類人的依賴感。一旦人類將機器視為同類,必然帶來相應的倫理問題。如性愛機器人如果大規模應用,將使婚姻生育等問題變得復雜,人的兩性關系以及很多倫理問題都會相應而來。三是未來機器人不僅具備類人思想,還可能具備類人的形態,人類在與機器人的日常交互中,如果將機器人視作同類,機器人能否獲得與人類等同的合法地位,人與機器人之間的關系如何界定,這也是復雜的問題。以人工智能技術為核心的機器(至少部分性地) 超越人腦,存在威脅人類主體性地位的可能。依托強人工智能技術的機器一旦具備甚至超越人類智慧,機器很可能反過來支配人類,這將對人類存在性(主體性) 造成巨大的威脅。
當然,上面都是人工智能作為它者的存在與人之間的關系的風險。但還有更復雜的情況,2017年3月28日,特斯拉創始人馬斯克成立公司致力于研究 “神經織網”技術,將微小腦電極植入人腦,直接上傳和下載想法。在此之前,后現代哲學家哈拉維提出賽博格的概念,是人與機器的雜合。這種以智能植入方式,將人與機器聯機,人與機器的邊界何在?對人類未來的影響是積極的還是消極的?人對未來終極問題的思考對人類的心靈造成巨大的困擾,這種主觀認知性的心理層面的風險并不弱于客觀現實性的物理層面。
人工智能風險目前更多地體現在主觀認知性的心理層面,是人們對人工智能發展的一種擔憂,哲學的思考大有用武之地,其中現象學更具解釋力。
(一) 從外在模仿到內在超越:人工智能技術的放大效應
人工智能多是以獨立的形式對人的模仿甚至超越。“行為的自動化(自主化),是人工智能與人類其他早期科技最大的不同。人工智能系統已經可以在不需要人類控制或者監督的情況下,自動駕駛汽車或者起草一份投資組合協議。”a馬修·U.謝勒:《監管人工智能系統:風險、挑戰、能力和策略》,曹建峰、李金磊譯,載《信息安全與信息保密》2017年第3期。與一般技術一樣,人工智能技術之于人有兩個層面:一是機器操作代替人的勞動,使人從繁重而復雜的勞動生產中解放出來,讓人獲得更多的自由空間。二是人工智能取代人類智能,人類受控于機器,人類主體的存在性地位喪失。技術發展呈現完全相反的兩種進路,這是由技術二律背反的特性決定的,技術具有“物質性與非物質性、自然性與反自然性、目的性與反目的性、確定性與非確定性、連續性與非連續性、自組織與他組織”b王治東:《相反與相成:從二律背反看技術特性》,載《科學技術與辯證法》2007年第 5期。等特性。
技術還有一個內在屬性就是具有放大性功能。技術放大功能是技術內在結構的屬性,是技術模仿人類功能并對人類能力的放大,它完全內置于技術結構中。“人—技術—世界”的結構模型是現象學的基本模型,表達了人是通過技術來感知世界的,人與世界的關系具有了技術的中介性。例如,在梅洛—龐蒂所舉的盲人與手杖的例子中,盲人對方位的感知是通過手杖獲得的,手杖成為連接盲人與空間方位的轉換中介,擴展了盲人的空間感。在這里,技術通過轉化人類的知覺,擴展了人類的身體能力。“只有通過使用技術,我的身體能力才能得到提升和放大。這種提升和放大是通過距離、速度,或者其他任何借助技術改變我的能力的方式實現的。”c唐·伊德:《技術與生活世界——從伊甸園到塵世》,韓連慶譯,北京:北京大學出版社2012年版,第75頁。人類對技術無限放大性的追求也是現代技術發展潛在的動力,也是技術風險生成的根源。而技術的放大效應既是內置于技術內核的結構性特征,也是人類目的性的現實要求。在目的性結構中,技術是表達人的意愿的載體,人工智能技術就是放大人類的意愿,在某種程度上可以代替人的意愿。當一個中介完全把人的意愿變成中介的意愿時,人工智能的本質得以實現,技術的放大效應達到最大化。但人的意愿可以被機器表達時,人的可替代性也逐步完成,人也失去了自我。技術便有可能朝向背離人類預期的方向發展,技術風險由此生成。
在前人工智能技術時代,技術只是對人類“外在能力”的模仿與擴展,即使像計算機、通信網絡等復雜技術也是以一種復合的方式擴展人類的各項技能。但人工智能技術卻內嵌了對人類“內在能力”的模仿,對人腦智慧的模擬。這一技術特性使人工智能技術具備了挑戰人類智慧的能力。千百年來,人類自詡因具備“非凡的”智慧而凌駕于世間萬物,人的存在地位被認為具有優先性。康德“人為自然界立法”的論斷,更是把人的主體性地位推到了極致。一旦人工智能技術被無限發展、放大,具備甚至超越人腦機能,人類對技術的“統治權”將喪失,人類的存在性地位也將被推翻。盡管就目前而言,人類對人工智能技術的研發仍處于較低水平,但人工智能表現出的“類人性”特征,已經不似過去技術對人腦機制的單向度模擬。特別地,AlphaGo在面對突發狀況時表現出的“隨機應對”能力,遠遠超出開賽前人類的預估。我們似乎看到人工智能正在從對人類“智”的超越,轉向對“慧”的模擬,這種風險越來越大。
(二) 從它者性到自主性的循環:人工智能技術矛盾性的存在
早期技術就是作為一種工具性的存在,也是一種它者的存在。但發展技術的潛在動力就是不斷讓技術自動化程度越來越高,越來越自主。技術的自主性發展表現為,“技術追求自身的軌道,越來越獨立于人類,這意味著人類參與技術性生產活動越來越少。”aJacques Ellul, The Technological Society,New York:Alfred A. Knopf,1964,p.134.人工智能技術的自主化程度取決于人工智能的“類人性”。也就是說,人工智能越趨近于人類智能,技術的自主性也就越可能實現。就人類預期而言,人工智能技術的發展是自主性不斷提升的過程,也是使更多的人從日常勞作中解脫出來,獲得更多自由的過程。但當技術發展到具有人一樣的智能時,技術在新的起點上成為一個它者。因為技術發展的不確定性使技術既有“利人性”也有“反人性”。這兩種看似相反的特性是一個問題的兩個方面,智能技術將這兩種特性又進一步放大。人工智能技術的“利人性”是技術自主性的彰顯。但也正是基于人工智能的“類人性”特點,使達到自主化奇點的技術可能出現“反人性”傾向。
技術的“反人性”表現為它者性的生成,技術它者性是技術發展違背人類預期的結果。理論上,當技術成為一個完全自主、獨立的個體時,它將不依附于人且存在于人類世界之外,技術相對地成為它者。在伊德看來,“我們與技術的關系并不都是指示性的;我們也可以(同樣是主動的) 將技術作為準對象,甚至是準它者”b唐·伊德:《讓事物“說話”:后現象學與技術科學》,韓連慶譯,北京:北京大學出版社2008年版,第57頁。。技術的(準) 它者性可以表示為:人類→ 技術(世界)。“它者”一詞本身暗含著人類對技術完全對象化的擔憂,這種擔憂在海德格爾看來由技術的“集置”特性決定,“集置(Ge-stell) 意味著那種擺置(Stellen) 的聚集者,這種擺置擺置著人,也即促逼著人,使人以訂造方式把現實當作持存物來解蔽”a李霞玲:《海德格爾存在論科學技術思想研究》,武漢:武漢大學出版社2012年版,第82頁。。事實上,人工智能技術的發展趨勢,就是在不斷提高技術較之于人的它者地位。
在實際應用中,人工智能技術的“反人性”傾向會以它者的形式呈現。“技術還是使事物呈現的手段。在故障情形中發生的負面特性又恢復了。當具身處境中的技術出現故障了,或者當詮釋學處境中的儀器失效了,留下來的就是一個強迫接受的、并因此是負面派生的對象。”b唐·伊德:《技術與生活世界——從伊甸園到塵世》,第99頁。在伊德的技術體系中,尤其在具身關系和詮釋學關系中,技術(科學儀器) 通過故障或失效導致技術它者的呈現。技術在承載人與世界的關聯中,本應該抽身隱去,但卻以故障或失效的方式顯現自身,重新回到人類知覺當中,必然阻斷人與世界的順暢聯系。本來通過技術實現的人對世界切近的感知,轉換成人對(失效了的) 技術的感知。這時,(失效了的) 技術的它者性僅僅表現為感知的對象性。同樣,人工智能技術同樣也存在技術失效的可能,但這種失效不是以故障而是以一種脫離人類掌控的方式成為它者。人工智能技術的失效不僅會轉換人類知覺,更為嚴重的是,一旦技術在現實中擺脫人類控制,自主化進程將以故障的方式偏離預定軌道繼續運行,技術的“反人性”開始顯現,技術它者由此形成,技術的自主性成為它者的“幫兇”。人工智能技術的風險在于經歷了“它者性—自主性—它者性”過程之后,這種風險結構被進一步放大。
現實中需要不斷通過技術發明和技術改造提高人工智能技術的自主性,但又不得不防范人工智能技術的它者性。由此,人工智能技術自主性和它者性便成為技術發展過程中的一種沖突。
從概念可以看出“人工智能”由兩部分組成:一是人工,二是智能。相對于人工智能,人在某種程度上就是一種天然智能。“準確定義人工智能,困難不在于定義‘人工’(artifiality),而在于‘智能’(intelligence) 一詞在概念上的模糊性。因為人類是得到廣泛承認的擁有智能的唯一實體,所以任何關于智能的定義都毫無疑問要跟人類的特征相關。”c馬修·U.謝勒:《監管人工智能系統:風險、挑戰、能力和策略》。人與人工智能之間的界限有兩個維度的比較很重要:第一個維度是知、情、意、行四個基本特征;第二個維度是人的自然屬性和社會屬性兩個方 面。
(一) 關于知、情、意、行的邊界問題
人是知、情、意、行的統一。隨著人工智能技術的不斷發展,人工智能將趨近于人類智能,承載人工智能技術的機器也將具有更多“類人性”。這種“類人性”不僅表現為機器對人類外在形態的模仿,更表現在機器對人類“知、情、意、行”的內在模擬。智能首先要學會語義分析,能夠讀懂指令,如2016年4月刷屏爆紅的“賢二機器僧”由北京龍泉寺會同人工智能專家共同打造,在最初階段有效回答問題率20%—30%,但人工智能強大的學習能力是一般計算機系統無法相比的,人工智能具有學習能力,逐漸增加的信息變成知識,繼而形成知識庫,通過知識庫形成機器人大腦,進而形成能夠與人進行有效交流的智能系統,隨著訪問量的增加,賢二機器僧的數據庫相應增加,有效回答率達到80%左右。這樣與人交流的人工智能,讓人感覺不到是與一臺機器在交流。
當然,人工智能也是有禁區的,這種禁區,首先來自技術不能逾越的禁區。當前,可計算性是人的邏輯判斷部分,而情感支配的思維是無法被計算的,因此人工智能對個體人的超越還是存在困難的。但如果像馬斯克公司一樣,通過人工智能去解讀人腦的思維,上傳和下載功能能夠實現,人工智能能夠讀懂人,這樣的沖擊風險對人而言,其風險具有更大的加強性。當然能夠解讀人類思維也僅僅是一種識別和解讀,人與人工智能之間還有一道重要的區別,就是自我意識的區別。“一個種的全部特征,種的類特征就在于生命活動的性質,而人的類特征就是自由有意識的活動。”a《馬克思恩格斯選集》 (第1卷),北京:人民出版社1995年版,第46頁。人是有意識的存在,意識總是關于某物的意識,同時也是作為承載者關于“我”的意識,意向性不僅指向作為對象的某物,同時也自反式地指向自身。只有在行動之前首先意識到處境中的對象與“我”不同,人類活動才具有目的性,人類才能“有目的”地進行物質創造和生產勞動。而人的目的性或者說人類需求是社會進步發展的最大動力。人工智能如果有了“我”的概念和意識,不僅是對人的模擬,而且具有了人的核心內核。在這個層面而言,人工智能就在個體上可以成為另一個物種的“人”。
當然,如果人工智能技術一旦具備類人意識,它將首先關注到自身的價值意義,即存在的合法性。而作為對象的人類,將淪落為技術“眼中”的它者。具備類人意識的人工智能對人類智能的超越,將對人類生存構成實質性威脅,到那時,人類生存與技術生存真的會互相威脅,彼此競爭。
(二) 關于自然屬性和社會屬性問題
任何技術都是“自然性和反自然性”的統一。“技術作為人本質力量的對象化有兩重屬性:一是技術的自然屬性,二是技術的社會屬性。自然屬性是技術能夠產生和存在的內在基礎,即技術要符合自然規律;技術的社會屬性是指技術的人性方面,即技術要符合社會規律。”a王治東:《相反與相成:從二律背反看技術的特性》。人工智能技術也是如此,“人工”是一個前置性概念。“智能”是對人的模仿,在人工智能設定的模仿程序中很大程度上也有社會屬性,如軍用機器人的戰爭屬性,性愛機器人的性別屬性,但這種社會性是單一的屬性。恰恰社會屬性是人區別于人工智能的核心所在。按照馬克思對人本質是類本質和社會本質的論述,起碼目前人工智能還不能叫板人本身。“人的本質并不是單個個人所固有的抽象物,在其現實性上,他是一切社會關系的總和。”b《馬克思恩格斯選集》 (第1卷),第56頁。人工智能目前是以個體性或者是整體功能性而存在的,不可能具有社會性存在,也就意味著人工智能不能作為一個物種整體具有社會性,而人恰恰具有社會關系性,而這種社會關系是人之為人的根本性存在。“人的本質是人的真正社會關系,人在積極實現自己的本質的過程中創造、生產人的社會關系、社會本質。”c《馬克思恩格斯全集》 (第42卷),北京:人民出版社1979年版,第24頁。無論人工智能怎么在智能上超越人類,但根植于物種的社會性不是通過可計算獲得的。因此這也是人工智能的禁區。如果人類賦予人工智能以社會關系構架,人工智能之間能夠做聯合,能夠選擇意識形態,那人類危機也真的不遠了。但個人認為,作為人的整體社會建構的文化以及關系,任何人工智能都是無法取代的。
科學技術的進步與發展是歷史必然,我們終究無法預測人工智能技術究竟能夠取得多大的突破,但只要人工智能無法意識到“自我”的存在,它就只能作為工具為人所用,被人所控。關乎人類問題的關鍵從來也必須從人類自身出發才可能找到解答,無論人工智能技術如何發展,只要人類保持足夠的理性,為人工智能技術劃定禁區,人類的存在性地位就不可能被超越。盡管人工智能大規模發展會在某種程度上代替人類,讓某些人失業,讓社會結構發生改變,但人工智能也能創造出新的工作平臺和領域,讓人在更高的平臺上實現人的創造性本質。
當然,有一點需要特別引起注意,對人工智能的應用的限制和立法要提前進入考量范疇,否則如同其他技術一樣,如果人工智能技術被別有用心的人濫用,產生的社會問題肯定會超過一般技術的濫用,這一點法學和社會學會大有用武之地。
B80
A
2095-0047(2017)05-0031-11
王治東,東華大學馬克思主義學院教 授。
本文為國家社科基金項目“資本邏輯視域下的技術正義”(課題編號:15BZX034)、東華大學預研究重點課題“元哲學視角下人工自然哲學研究”的階段性成果。
(責任編輯:肖志珂)