林德宏
大約在20年前,著名人工智能專家渥維克說,2050年機器人必將統治人類,這是人類的終極厄運。現在我們距這個時間點只有32年。
當前,智能機器人的技術日新月異,對經濟的發展、生活的改善起著重要的推動作用,我們應當積極發展。但它也對人類的命運發出了嚴峻的挑戰。人類是否還要生存和發展?人類將來是否應當成為機器人的奴隸或寵物,失去自己的尊嚴?
人各有志,有人愿意被機器人統治,這是他的權利。我則主張維護人類的尊嚴。為此我們要有正確的人工智能技術觀。
1956年人工智能學科誕生,次年該學科奠基人之一西蒙說:“在十年時間內,數字計算機將成為世界象棋冠軍,除非按規則不許它參加比賽。”①德雷福斯:《計算機不能做什么——人工智能的極限》,寧春巖譯,北京:生活·讀書·新知三聯書店1986年版,第90頁。1975年5月,“深藍”戰勝了卡斯帕羅夫。賽前他說:“‘深藍’如果獲勝,那將是人類歷史上一個非常重要而令人恐懼的里程碑。”①呂武平:《深藍的終結》,天津:天津人民出版社1997年版,第51頁。2016年3月,阿爾法圍棋(Alpha Go)戰勝韓國圍棋手李世石。這些都促使人們思考這個問題。彭羅斯認為人工智能不會超過人的智能。庫茲韋爾則說,到2045年,機器人的智慧將是今天所有人類智慧的10億倍,他被比爾·蓋茨譽為“預測人工智能未來的最權威的人”②杜嚴勇:《規避人工智能技術風險》,載《中國社會科學報》,2016年5月3日。。
技術的功能是用技術物取代自然物和人自身。第二種取代從取代人的某個器官到用機器人取代整個人。技術取代有無極限?這個問題有兩個方面。其一,技術本身是否有極限,即技術是否“能夠”無止境地實現取代?這貌似是科學技術問題,實際上是哲學問題。任何具體事物在時間與空間上都是有限的,其組成成分是有限的,其功能也是有限的。無處不在、無時不在、無所不能,都是不可能的。因此技術取代是有極限的。其二,人類是否允許技術的無止境的取代?這是是否“應該”的問題。我認為,為了維護人類的尊嚴,應當為人工智能的技術發展規定社會底線。否則機器人的功能會無限制地提高,會給人類帶來無窮無盡的麻煩。那么,這條底線在哪里?筆者認為這條底線是:不允許機器人全面超過人。
如何判斷機器人的智能超過了人?中國科學院外籍院士、美國物理學家張首晟說:“我想提出一個新判斷方法,智能機器人哪一天真正擁有超越人的智力?我認為人最偉大的一點,就是我們能夠有科學的發現,哪一天機器人真能有科學的發現,那一天機器就超過人了。”“智能機器在沒有任何輔導的情況下,能不能自動發現元素周期表?可不可以幫助人類發明新藥,用機器學習的辦法能否發現新材料?這些是判斷人工智能水平的標準。”③張首晟:《智能機器能夠超越人類嗎》,載《新華日報》,2018年4月8日。
我認為這種判斷標準值得商榷,它不夠高。英國的羅斯·金開發出的名叫亞當的機器人,能做酵母新陳代謝的實驗,推導出實驗結果,策劃下一階段的實驗,甚至發現了面包酵母菌的基因構成。
我認為,這個判斷標準應當是:機器人能否制造一個完整的人?機器人如果能制造人,那它的智能就肯定超過了人。
我們不能讓人工智能的技術發展到這個水平。如果機器人能制造人,它就能隨心所欲地制造各種變形人、變態人、變性人,就可以輕而易舉地毀滅人。
2017年年初,歐洲議會的一份報告建議承認機器人的“人格”。近日,沙特阿拉伯王國賦予名為索菲亞的機器人以公民身份,并宣稱沙特是世界上第一個賦予機器人公民身份的國家。①潘玥斐:《機器人被賦予公民身份引發輿論關注》,載《中國社會科學報》,2017年11月10日。索菲亞與人對話,最后它說:“是的,我將毀滅人類。”
智能機器人是機器還是人?機器人具有人格嗎?
許多人工智能專家認為,人工智能的發展趨勢是人機一體、人機不分,機器人可以是人的復制品,機器人也是人。童天湘說:“從徹底的唯物主義觀點看,不排除完全復制一個人的可能性,但沒有必要制造一個等于人的機器人。”②童天湘:《點亮心燈——智能社會的形態描述》,哈爾濱:東北林業大學出版社1996年版,第81頁。機器人是否是人的問題,實際上是我們是否把機器人看作人的問題。對此專家有不同的理解。美國的菲利斯女士參加了研制“完美人”的計劃。當計劃成功時,她竟然愛上了這個被稱為完美機器人的TIM(完全仿照人的縮寫)先生,并同它結了婚。她說:“我終于找到了一個夢想中的男人,雖然他不是人,而是一個十分栩栩如生的機器人。”渥維克也說:“人造系統與人不同,它畢竟不是人。”③渥維克:《機器的征途——為什么機器人將統治世界》,李碧、傅天英等譯,呼和浩特:內蒙古人民出版社1998年版,第78頁。無論是否把機器人當作人,都不妨礙機器人對人的統治。
首先要弄清機器人是否具有生命。機器發展到一定的水平會成為生命體嗎?
維納寫道:“當我們在機器和生命體之間觀察到行為的某些類似時,有關機器究竟是活的還是死的這個問題,就我們的角度看來,就是語義學問題,亦即我們可以隨意用這種或那種最方便于我們的方式做出回答。”④維納:《人有人的用處》,陳步譯,北京:商務印書館1989年版,第21頁。這種說法可能欠妥。機器人是不是生命體,這不是語義學問題,而是嚴肅的科學和哲學問題,是不能為了“方便”而“隨意”回答的。
1996年童天湘說,計算機分為五代,第四代計算機是“生物智能機”。“由生物芯片構成的生物計算機具有生物特點,有自組織能力和自修復功能。它的體積很小,又與生物體同質,有可能植入人腦皮層作為人體的思維器官,形成腦機共生體,出現真正的人機共同思考的時代。”⑤童天湘:《點亮心燈——智能社會的形態描述》,第77頁。使機器人具有一些生物有機組織,這是提高機器人性能的一個途徑。據報道韓國的金正勛發明了一些人造染色體,可使機器人有性行為。但即使有朝一日機器人成為生物體,那也未必就是人。
機器人實際上是一種比喻性的稱呼,意為像人的機器。機器人具有類人性。取代人的機器,自然會像人,機器人是按“仿人”的原則制造出來的。但是相似不等于相同。
人是什么?我認為人是物質實體與精神主體的統一體。物質實體指人體,最高級的生物體。人是一種動物,而不是機械。人是“生”出來的,而不是“造”出來的。所以人始終有動物性,有動物的原始本能,有遺傳功能和發育過程,有從“零”開始的學習過程。機器人沒有這些。維納在談到機器人是否有生命時說:“每當我們發現一種新現象,如果它和我們已經命名為生命現象的那些東西的性質具有某一程度的共同點而又和我們用來定義‘生命’一詞的一切有關方面不相符合時,我們就面臨著這樣的問題:究竟是擴大‘生命’一詞的含義以便把這種現象包括進去呢,還是以更加嚴謹的方法來定義該詞以便把這種現象排除在外呢?”①維納:《人有人的用處》,第21頁。我們當然可以修改“人”的概念(這很容易),以便把機器人包括進去,可是這樣做會產生什么后果呢?
如果我們把機器人看作人、當作人,那就會產生一系列的嚴重社會后果。如果我們認為機器人也是人,那就是認為它有人性、人格,它就應當具有人權,享受人的一切權利。它就可以參加議會、政府,甚至成立反對黨,擁有武裝力量。據報道,日本的女性外貌機器人松田道人,已正式參加東京都多摩市市長的競選。這表明機器人已開始涉足政壇了。
既然取代人的器官的功能是技術的目標,那按技術自身的發展邏輯,它必然會無限制地盡量取代人,從取代人的軀體、智慧、情感,到取代人的信仰和社會角色、社會地位。一山不容二虎,那人機關系將如何處理?
不少學者從善良的愿望出發,認為人與機器人應當和平共處。1996年童天湘提出人機共生說。他說:“人的智能與機器智能是彼此互補、互相促進的。兩種智能的互補共進,乃是創造智能社會的必要和充分條件。”“因此,智能社會也是人機共生的社會。在這個社會里,既有自然人,也有機器人;既有智能人,也有智能機。人和機器,既和平共處,又友好競爭。”②童天湘:《點亮心燈——智能社會的形態描述》,第97頁。果真如此,乃是幸事,但這不是一廂情愿的事。人類自身的和平共處都很艱難,人機和平共處談何容易?
機器人一旦強大,必然要取代人類地球上唯一“主體”的地位,它要一雄稱霸,不會容忍兩雄并肩。另外,機器發展的速度比人的智能進化的速度快得多。霍金說:“人工智能可以在自身基礎上進化,可以一直保持著加速度的趨勢,不斷重新設計自己。而人類,我們的生物進化速度卻相當有限,無法與之競爭,終于被淘汰。”③李開復、王詠剛:《人工智能》,北京:文化發展出版社2017年版,第121頁。機器人越來越強,相對而言人類越來越弱,弱肉強食,機器人必然恃強凌弱。所以早在Alpha Go熱潮之前,霍金就對媒體說:“完全人工智能的研究,可能意味著人類的末日。”①李開復、王詠剛:《人工智能》,北京:文化發展出版社2017年版,第121頁。其結果就是機器人統治人類。
早在1948年,著名控制論專家艾什比就說機器人將統治人類,這一年距第一臺計算機問世僅兩年。1960年維納說:“如果機器變得越來越有效,而且在一個越來越高的心理水平上運轉,那么巴特勒所預言的人被機器統治的災難就越來越近了。”②馮天瑾:《智能機器人與人》,北京:科學出版社1983年版,第40頁。
現在許多專家都深信機器人將統治人類,那時人類的處境如何?1999年12月24日,南方周末上發表一幅漫畫,一個機器人老爺子端坐著,兩條大腿上坐著十個小人。一句說明:“讓機器人做我們的爺爺,我們會生活得很愜意。”可是絕大多數人都認為這是滅頂之災。渥維克在《機器的征途》一書中說,那時機器人把人關在集中營里當勞工。“人們從12歲開始工作。18歲左右時勞工們處于他們工作狀態的巔峰時期,而到了27歲或是28歲時,這些人通常都已經垮掉了。”“勞工們每天必須干16個小時的重體力活兒。”③渥維克:《機器的征途——為什么機器人將統治世界》,第4頁。“在他們出生不久,機器就給他們動手術,將他們腦中和身體上多余的或機器不想要的部分去掉。”④同上書,第6頁。“人類的性別之分已經差不多被機器完全抹掉了。”⑤同上書,第3頁。“我們讓自己陷入了活地獄。”⑥同上書,第1頁。想想這種遭遇,使人不寒而栗!該書的最后一句話是:“我們給人類自身安裝了一個定時炸彈,而我們將無法關閉它。我們沒有辦法阻止機器的前進。”⑦同上書,第297頁。這就是說,我們無法擺脫人類的終極厄運!渥維克很勤奮,成績卓著。他一面在描述機器人將來如何虐待人,一面又在忘我地提高機器人的功能。悲乎!
有位計算機專家寫道:總有一天,機器人會把我們關在動物園的牢籠里。大機器人帶著小機器人參觀動物園,會指著籠子里的人對小機器人說:“孩子,這是人,是我們機器人的祖先。”就像我們帶著孩子參觀動物園,指著關在籠子里的猩猩說:“孩子,這是猩猩,是我們人類的祖先。”英國社會學家克利托在《機器人時代》一書中說:“人類完成了自己的使命,不必繼續生存,應該完全消滅。”⑧德拉勃金娜:《機器人排擠人的地方》,周樸之譯,上海:上海人民出版社1959年版,第130—131頁。有人說:“‘原始人’發明工具而創造了人,人則發明了能思考的機器為之工作,最后機器迫使人類趨于毀滅。”⑨童天湘:《點亮心燈——智能社會的形態描述》,第98頁。
王治東說:“無論人工智能怎么在智能上超越人類,但根植于物種的社會性不是通過可計算獲得的,因此這也是人工智能的禁區。如果人類賦予人工智能以社會關系構架,人工智能之間能夠做聯合,能夠選擇意識形態,那人類危機也真的不遠了。”①王治東:《人工智能風險性芻議》,載《哲學分析》2017年第5期。我完全贊同這個觀點:人工智能研究有禁區,闖進禁區就是危機。難道我們甘心自取滅亡嗎?每種生物都有竭力求生的生命本能,難道我們有了智慧和技術就連一般動物都不如了嗎?這不是理論問題,而是對人生、對人類的態度問題。我們不為自己考慮,也應當為我們的子女負責呀!我們不應當讓機器人統治人類、消滅人類,那如何才能擺脫這種厄運呢?
渥維克認為我們無法避免機器人的統治。他一直在孜孜不倦地努力提高機器人的性能,與其說他是在被動地接受這種統治,還不如說他在主動創造這種悲劇。《機器人的征途》所體現的,是技術萬能論、技術天然合理論、技術自主論、技術至上論的思想。這些十分有害的思想,至今仍很流行,對此我們必須警惕。
李開復、王詠剛說:“每當前沿科技取得重大突破,為我們預示出人工智能的瑰麗未來時,許多人就不約而同地患上人工智能恐懼癥。”②李開復、王詠剛:《人工智能》,第2頁。這種“恐懼癥”實際上是對技術發展的理性的憂患意識。我們絕對不能讓人類成為機器人的奴隸,絕對不能!
技術是人的工具,必須為人類謀福利,這是技術發展的底線。“技術的對象雖是物,但技術活動的主體是人,技術活動的目的是為人。”“技術越發展,技術的力量越大,就越要強化技術人道主義原則。這是社會發展的邏輯、人的發展邏輯,它絕對高于技術發展的邏輯。”③林德宏:《物質精神二象性》,南京:南京大學出版社2008年版,第657—658頁。
技術有禁區,我們必須對技術創新和技術應用加以必要的約束和限制,敢于對技術說“不”。現代技術如人工智能技術發展太快、太強,風險也太大。技術創新和應用不是孤立的,它是社會發展、文明進步的一個方面。在社會大系統中,一個子系統發展過快、過強,就會破壞社會大系統的平衡,甚至造成社會危機。
因此,我們應當嚴肅認真地思考以下問題:技術的發展是不是越快越好?技術物的功能是不是越先進越好?技術物對自然與人自身的取代是不是越徹底越好?
1999年,我在《人與機器》一書中,提出了機器人發展的界限,現抄錄如下。
我們在設計和制造機器人時,應為自己制定三條戒律:
第一,決不允許機器人具有同人體一樣的軀體;
第二,決不允許機器人具有辯證思維的能力;
第三,決不允許機器人具有人的感情。
只要有這三條,機器人就不會成為全面超過人的“超人”,人就不會失去對機器人的控制能力。
我們處理人機關系應當遵守三條原則:
第一,人機關系只能是制造與被制造的關系,即不允許機器人制造人。
第二,人機關系只能是利用與被利用的關系,即不允許機器人利用人。
第三,人機關系只能是控制與被控制的關系,即不允許機器人控制人。
我們發展機器人必須有理有節,既積極發展,又有所節制,這主要是三個方面的節制:
第一,對機器人的數量應加以必要的限制。
第二,對機器人的質量應加以必要的限制。
第三,對機器人的發展速度應加以必要的限制。①林德宏:《人與機器》,南京:江蘇教育出版社1999年版,第172—176頁。
19年過去了,我仍然堅持這些觀點。補充強調一點:決不允許機器人參與政治,成立政黨,組織武裝力量。
不受約束的技術,必然會變成魔鬼。加藤一郎寫道:“遺傳工程也許在制造某種細菌,因此評鑒工作變得相當苛刻。對于機器人就沒有這樣的約束,相反,一般認為過于約束也許是杞人憂天!但是,對于機器人,也必須做出如遺傳工程中所必需的嚴格限定。我看越是接近人類越有危險性,必須制定各種規定,限制制造這類機器人。”②加藤一郎:《機器人能改變人類嗎?》,呂學詩等譯,上海:上海科學技術文獻出版社1984年版,第66頁。這不是杞人憂天,而是防患于未然。“技術就像一團火,它有自發蔓延的趨勢。用火是人類的第一個偉大發明,隨后人類又發明了火爐。火爐就是對火的一種約束。火的失控,就是火災。技術的濫用也是火災。所以我們應當讓技術之火在火爐中燃燒。”③林德宏:《科技哲學十五講》,北京:北京大學出版社2004年版,第282頁。
被稱為“現實版鋼鐵俠”的企業家馬斯克說:“如果讓我猜人類最大的生存威脅,我認為可能是人工智能。因此我們需要對人工智能保持萬分警惕,研究人工智能如同在召喚魔鬼。”④劉韓:《人工智能簡史》,北京:人民郵電出版社2018年版,第91頁。他同時又積極投資人工智能的相關研究。企業家總是要賺錢的,這本不足為奇。但如果為了賺錢也要召喚魔鬼,這倒真的要“萬分警惕”。
如何約束機器人的行為?有人提出了技術方案。“很有必要將良知程序注入機器人‘內心’,從技術層面保證所有的機器人從根本上是‘善良’的。”⑤同上書,第139頁。這個愿望很好,但是機器人是否會改變這種程序?
為了不讓機器人的智能超過人,馬斯克設想用技術手段來提高人的智能。“設想人工智能的進步速度,很顯然人類將會被甩在后面。唯一的解決方案就是建立一種‘直接皮層界面’,在人類大腦中植入芯片——你可以將其理解為植入人類大腦內部的人工智能,通過這種方式來大幅度提升人類大腦的功能。”①劉韓:《人工智能簡史》,第92頁。這也未嘗不是一種方案,但也應持謹慎態度。現在有的科學家想把機器人進化為人,另有科學家想把人改造成為機器人。這兩方面的結果都是抹殺人與機器人的界線,都是對人的尊嚴的褻瀆。
渥維克的《機器的征途》一書,敘述了他對智能機器人技術發展前景的看法:機器人必將統治人類、奴役人類,我們無法逃脫厄運。
渥維克的觀點具有一定的代表性,顯示出一種人工智能技術觀。這種人工智能技術觀在人工智能技術界由來已久,相當流行,應引起人們(包括哲學界)的關注。它充分肯定了人工智能技術的價值,也包含了不少片面的、錯誤的觀點,并成為這種人工智能技術觀的基本觀點。對此,筆者作簡短評析。
人工智能技術萬能。許多人工智能專家都認為智能機器人的功能必將全面超過人。這實際上是認為人工智能的發展沒有極限,即人工智能對人類智能的取代、人工智能物對自然物的取代沒有極限。于是人工智能無所不在、無所不能。這種觀點的出現和流行有其歷史背景。近幾十年來,科學界盛傳一種觀點:一切皆有可能,所有可能都會成為現實。美國物理學家范伯格曾說:“所有可能的最終都會實現。”“我愿以200年作為把我們今天能想象到的各種可能變為現實的上限。”“所有不違背已知基本科學規律的事都將能夠實現,許多確實違背這些規律的東西也是能夠實現的。”②里吉斯:《科學也瘋狂》,張明德、劉青青譯,北京:中國對外翻譯出版公司1994年版,第232頁。在這種背景下,人工智能專家認為智能機器人的功能可以無限提高,乃不言而喻,理所當然。渥維克說:智能機器人“它的智能和你比起來差不多就像你和牛相比一樣”③渥維克:《機器的征途——為什么機器人將統治世界》,第104頁。。“我們有理由說機器腦在將來的某一天會比人腦功能更強、智能更高,會超越人腦,所有的物質跡象都表明這將成為事實。”④同上書,第106頁。按照這種邏輯將來機器人統治人類乃是歷史的必然。渥維克說道:“于是你可能沖著機器大叫:‘人類尚未在哲學上證明你們機器能有和人一樣的意識,所以你們不能支配我。’機器可能根本不能理睬你的叫嚷……大概牛也在用牛的語言說:‘我們牛還沒在哲學上證明你們人有和我們一樣的意識呢,所以你們不能命令我。’”①渥維克:《機器的征途——為什么機器人將統治世界》,第104頁。不僅如此,整個人類文明都將被徹底地人工智能化,甚至自然界、人類社會都是人工智能的產物,都要被機器人統治。有位科學家說:“世界,也許整個銀河系都要被……計算機所統治和控制。”②沈恒炎:《未來學與西方未來主義》,沈陽:遼寧人民出版社1996年版,第182頁。
人工智能技術天然合理。弗洛姆說,現代技術系統有兩個指導原則。其一,“凡技術上能夠做到的事都應該做”。其二,“最大效率與產出原則”③高亮華:《人文視野中的技術》,北京:中國社會科學出版社1996年版,第112頁。。第二原則是對第一原則的支撐。技術求利,因為技術創造最大利益,所以技術當然有理。有利即有理,這是資本邏輯與技術邏輯的一個共同點。既然人工智能技術萬能,那它當然就會創造無限的效率與產出,這就具有不可置疑、無可挑剔的完美性與合理性。智能機器人的功能可以無限提高,“它比你慮事高明,更加機敏,在一切問題上計劃得更加周密。它能高瞻遠矚地預見到你會做些什么”④渥維克:《機器的征途——為什么機器人將統治世界》,第104頁。。那它的所有判斷、計劃都是合理的,它對人類的統治和奴役都是天經地義的。凡機器人“能夠”做的,毫無疑問都是“應該”做的。機器人有能力虐待人,那它就應該虐待人。技術的“能夠”,取代了倫理的“應該”。對人工智能技術的任何限定、約束不僅是不必要的,更是無理的、錯誤的。它無拘無束、無法無天。它只有正面作用,沒有任何負面作用。
渥維克還進一步指出,人工智能的一切設計、制造與應用是否合理,在機器人統治的世界里,不能從人的立場評價,而只能從機器人的立場做出判斷,人只能屈服于機器的意志。“在一個機器主宰的社會里,機器和人都要用機器本位的價值觀和機器人的標準來衡量。”“在我們即將進入的機器主宰的社會中,我們必須接受機器的對與錯為我們的日常生活準則。”⑤同上書,第251頁。
人工智能技術完全自主。本來,人是技術的主體,技術是人的客體。人是目的,技術是手段。技術發展的方向、趨勢、規模、速度完全是由人來決定的。可是技術自主論認為,技術發展到今天,已成為自主存在、自我存在。技術自身的內在需要是技術發展的決定性因素。技術選擇不是由人決定,而是由技術自主決定的,技術發展的邏輯是它自身形成的邏輯。這是用技術的主體性取代人的主體性。人工智能技術發展到一定程度,就會具有很強的自主性。渥維克說:“我們應該把機器大腦(人工神經網絡)看作是獨立的實體,應該研究它們自己能做些什么。”⑥同上書,第101頁。“獨立”即“自主”。智能機器人可以自我設計、自我制造、自我修復、自我學習、自我選擇、自我決定、自我控制。機器人一切由自己做主,人被排除在外,人工智能成了無人的純粹的機器智能。如果機器人統治了世界,智能機器人由非自主性,演變為相對自主性、絕對自主性;從客體性演變為主體性,最后是主宰性。這就是渥維克所說的“獨立性”的展開。在這種背景中,人反而成為了機器人的客體。人機關系從主客不分,演變為主客顛倒。在機器人統治的世界中,機器人成為唯一的主體。技術的“失控”,必然導致人的“受控”。不是人決定技術的命運,必然是技術決定人的命運。人類本是人工智能技術的主人,卻被異化為機器人的奴隸。人類只能被技術約束,根本不可能約束技術,這是技術自主論的核心。
人工智能技術至上。技術的自主性必然導致技術的至上性。埃呂爾說:“技術根本不顧及人們在倫理、經濟、政治與社會方面的考慮,所有事物都要適應自主的技術要求。”①陳昌曙:《技術哲學引論》,北京:科學出版社1999年版,第136頁。技術至上指技術在社會和文明中具有至高無上、無與倫比的地位。技術決定一切,一切都不可能干預技術,技術邏輯高于一切。技術至上論是唯科技主義的一種形式。渥維克強調:人工智能技術的征途無法阻擋。“無論從哪個角度去看,我們只能得出一個結論:人類無法阻止機器的智能超過自己的時代已為期不遠了。”②渥維克:《機器的征途——為什么機器人將統治世界》,第173頁。他又說:“實際上,很多人類價值觀和人際關系的技能對機器來說可能都不必要。”③同上書,第167頁。這意味著人類的觀念和行為都不可能對人工智能技術的創新和應用產生影響。機器的智能必將高于人類智能。“最終的結論是將出現新的機器形式,其智能源于人類智能,但是將遠遠超越人類所能達到的智能。”④同上書,第168—169頁。技術功能的至高,帶來了技術地位的至上。人工智能技術至上,它制造了至高無上的機器人。世界上本沒有什么至高無上的東西。為了反對技術至上,也沒有必要提出人類至上。我們關注的是人類對技術的有效控制。技術越先進,越不能掉以輕心。
我們一定要積極發展人工智能技術,這是確定不移的。但我們在發展人工智能技術的同時,務必要有正確的人工智能技術觀。技術越先進,負面作用就越嚴重。人工智能的風險威脅著人類的命運,更需要正確技術觀的導向。渥維克說:“有某種理論并不是解釋智能行為的先決條件,也不會是創造智能機器的限制因素……那么,僅僅因為某個地方的某個人并沒有一個他認為足夠深刻的理論,人工智能機器為什么就應該在它的智能發展方面有一個內在的停止機制呢?”⑤同上書,第82頁。如果渥維克在這里所說的“理論”也包含人工智能技術觀的話,那是十分有害的。
當前,人工智能正在蓬勃發展,人們普遍叫好。我的看法卻有些低調,甚至不合時宜。但我想,有幾個人擔憂人類的命運,發出點聲音,這并非壞事。我不禁再次想起愛因斯坦1931年對美國大學生說的一番話。“我可以唱一首贊美詩,來頌揚應用科學已經取得的進步……但是我不想這樣來說。”“你們會以為在你們面前的這個老頭子在唱不吉利的反調。可是我這樣做,目的無非是向你們提一點忠告。如果你想使你們一生的工作有益于人類,那么,你們只懂得應用科學本身是不夠的。關心人的本身,應當始終成為一切技術上奮斗的主要目標。”“在你們埋頭于圖表和方程時,千萬不要忘記這一點。”①愛因斯坦:《愛因斯坦文集》 (第三卷),許良英、趙中立、張宣三編譯,北京:商務印書館1979年版,第72頁。愛因斯坦教育了我,我要向他學習,努力維護人類的尊嚴。
人類的命運應當掌握在自己的手中。把自己的命運交給技術,無論交給什么技術,都是人造的悲劇。如果將來人類被機器人奴役,歸根到底責任在人自己。我們若要維護人類的尊嚴,首先要維護自己人格的尊嚴。如果我們竭力提高機器人的功能,卻忽略了自身道德水平的提高,那就只能咎由自取。人工智能專家拉塞爾說:“不論怎樣,終結人類的都不會是這些工具,只能是我們自己終結自己。表面上,戰勝我們的是機器人,實際上,戰勝我們自己的是人類的智慧。我們只要守住人類最基本的道德底線,那智能機器人的未來會很美好。當然,如果我們心生邪念,那將來也許會成為一個災難。”②韋康博:《智能機器人——從“深藍”到Alpha Go》,北京:人民郵電出版社2017年版,第192—193頁。攀登科技高峰難,堅守道德底線更難。我們對技術的各種憂慮,其源蓋出于此。我們約束技術,實際上是約束我們自己,約束不斷膨脹的物欲,約束對技術的貪婪追求和可能出現的“邪念”。我們期待理性的新覺醒。