摘要:人工智能并非21世紀出現的新興概念,早在上世紀50年代就有以人工智能為主題的文學和影視作品問世,暢想著未來人類的生活方式。但自李世石和柯潔兩位世界頂尖圍棋選手在谷歌阿爾法狗面前折戟,未來人工智能與人類的關系開始變得撲朔迷離、發人深省,人類不再是世界上最聰明的物種,人類的地位似乎會在不遠的將來變得岌岌可危。人工智能作為一種新興事物,其產生與發展正如歷次科技革命一樣,成為了一種不可逆的歷史潮流,人類與人工智能的關系問題也一定會在未來的某日擺在我們面前,成為無法繞行與回避的重要課題。本文將以審慎的視角,回顧人工智能與人工智能倫理的發展過程,分析人工智能倫理的現狀,展望人工智能倫理未來可能的發展方向。
關鍵詞:人工智能;倫理;科技;未來
人類與科技的密切關系可以追溯到人類起源,從人的定義——能制造和使用工具來看,工具制造和使用的方法完全可以稱之為最源初的科技,人類通過科學認識自然,并通過技術改造自然,在認識自然與改造自然的過程中,科技也逐步完善,發展壯大。如同《人類簡史》所描述的觀點,“人類利用小麥種植得以果腹,小麥利用人類種植得以延續和擴張”1,由此觀之,科技與人類更類似于一種共生關系,科技的進步標志著人類的發展,人類的發展依靠科技的進步。在這種依存關系中,為避免科技所帶來的風險而裹足不前顯然是不現實的,歷史的車輪不可能由于人類的意志而停止,人類也不可能為了規避或然的風險而選擇開歷史倒車。人工智能縱使伴隨著諸多爭議,其產生與發展、應用與推廣、并最終融入我們的生活卻是大勢所趨,人工智能走入我們的生活只是時間問題,我們所要考慮的是需要以何種方式迎接人工智能的到來和普及,以及人工智能普及之后,我們需要如何與人工智能相處。
1 人工智能的起源與發展
1950年,馬文·明斯基(后被稱為“人工智能之父”)與其同學鄧恩·艾德蒙一起,建造了世界上第一臺神經網絡計算機,這被認為是現代人工智能的一個起點。同年,有“計算機之父”之稱的阿蘭·圖靈提出了圖靈測試,以判斷機器是否具有智能。按照圖靈的考慮,如果一臺機器能夠與人類開展對話,而其交流對象有三分之一無法判斷其是否為機器,則這臺機器具有智能。他還大膽預測了具備真正智能機器出現的可能性。
1956年夏天,約翰·麥卡錫、馬文·明斯基、克勞德·香農等科學家在美國達特茅斯學院開會,商議用機器來模仿人類智能,會議持續了兩個月的時間,雖然沒有達成共識,卻作為會議議題首次提出了“人工智能”這一概念,這是“人工智能”概念的正式提出,1956年也成了人工智能元年。
從人工智能自身的發展程度來劃分,學界通常將人工智能的發展分為三個階段2,其一是屬于圖靈機概念的AI,亦即可以與人交流,通過圖靈測試的AI,其二是等價于人類智能的人工智能AGI(通用人工智能,artificial general intelligence),其三則是全面超越人類智能的高端智能稱為SI(超級智能,super intelligence),目前我們應當處于向AGI發展的階段。不過,這種劃分僅僅是從智能程度上來區分。另外一些學者從哲學性質上將人工智能進行了重新劃分,以是否具備笛卡爾“我思”特征為標準,提出將人工智能劃分為尚未達到“我思”標準的非反思性人工智能,以及達到或者超越笛卡爾“我思”標準的反思性人工智能,稱為ARI(artificial reflexive intelligence)。一種觀點認為,奇點的標志即ARI的誕生,由于人工智能具備了反思能力,成為了單獨的思維主題,它或許有能力對自身的行為進行不斷自我修正以實現進化,而這種進化或許是超出人類預期的,甚至是對人類有害的。
從這個視角來看,人工智能技術可以與一切傳統科學劃清界限,因為既有的科技成果,無論是汽車飛機還是核武導彈,無論是手機電視還是信息網絡,其本源是一種工具,而具有反思性的人工智能除具有工具性以外,很可能還具有使用工具的能力,它或許能夠決定汽車要走那條路、飛機何時起飛、導彈射向何處,那么回溯到“人”的概念,會制造和使用工具的人工智能應當如何界定呢?
2 人工智能倫理的起源與發展
目前,關于人工智能的倫理尚未單獨成為一門學科,但已經有一些學者前瞻性地意識到,人工智能倫理學體系的建立對調整人類與人工智能的關系,規范人工智能的發展方向必將產生積極和深遠的作用。麻省理工學院于2020年4月出版了《人工智能倫理學》一書,從技術層面解釋了人工智能,并對相關哲學探討進行了調查研究,或許是人工智能倫理學作為單獨學科發展的一個不錯的開端。
雖然在人工智能蓬勃發展的今日,人工智能倫理開始備受關注,不過人們關于人工智能倫理的思考卻早已存在了半個世紀。
1950年,科幻作家阿西莫夫提出了著名的“機器人三定律”,對人工智能倫理的發展無疑具有深遠的影響3,其要求機器人遵守“不傷害”“服從”和“自保”三條行動原則。這些雖然都是一些概要性原則,但我們不難發現其本質是確保AI為人類服務,這個內核在以后數次關于人工智能倫理的討論中被保留了下來。2017年1月初,在美國加州的阿西洛馬市舉行的“beneficial AI”會議上,形成了“阿西洛馬人工智能原則”4,其6-18條指出了人工智能的倫理和價值,主要包括安全性、故障透明性、司法透明性、責任、價值歸屬、個人隱私等條款,旨在確保人類在新技術出現時能有效規避其潛在風險。MIT媒體實驗室和哈佛大學伯克曼克萊恩互聯網及社會研究中心還共同成立了“人工智能倫理和監管基金”,用于解決人工智能所帶來的人文及道德問題。次年,微軟發表的《未來計算》一書中,提出了人工智能開發的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任,反觀當前的人工智能技術應用,不難感受到微軟提出的六大原則直指要害、很有必要。反觀當下關于人工智能的種種,大數據殺熟顯然違背了公平原則,特斯拉剎車失靈違背了可靠與安全原則,算法黑箱則與透明原則相悖,至于責任原則,國內乃至世界上對于人工智能開發及應用的立法較之技術的發展都顯得滯后和無力。
國內較早提出人工智能倫理問題的是百度的李彥宏,在2018年的中國國際大數據產業博覽會“人工智能高端對話”環節的演講中,李彥宏提出了“AI倫理四原則”, 包括:AI的最高原則是安全可控;AI的創新愿景是促進人類更平等地獲取技術和能力;AI的存在價值是教人學習,讓人成長,而非超越、替代人;AI的終極理想是為人類帶來更多自由與可能。作為全國政協委員,李彥宏在2019年的全國政協十三屆二次會議上進行了題為《加快推動人工智能倫理研究》的發言。發言中,他就建設人工智能倫理架構提出了三點建議,一是明確人工智能倫理原則,二是強化領軍企業擔當,加快人工智能倫理原則落地,三是加強國際交流,引領行業發展,凝聚全球共識。
對比國內外的人工智能倫理原則,我們不難發現,安全和平等(公平)都被放在了比較重要的位置,而國外提出的人工智能倫理原則對于透明有著不同尋常的執著,國內卻并未提及有關內容。一些資料顯示,人工智能借由深度學習而掌握的技能背后的算法,甚至連開發者都并不掌握,使得透明原則成為了一種奢望,這無疑是對人工智能的一種放任,與安全和平等(公平)原則相背離,使“安全可控”成為一句空談。因此,算法透明無疑是十分重要的,對于其他原則來講,或許算法透明應當作為優先級更高的人工智能倫理原則。
國內對于人工智能倫理的研究成果在近幾年呈現出蓬勃發展的態勢,但總體上來看,高水平的研究成果仍然較少。根據中國知網(CNKI)檢索結果顯示,以“人工智能”“倫理”為關鍵詞的文獻從2010年開始出現了較為顯著的增長,更是在2015年之后呈現快速增長的態勢,其中2019和2020年更是分別達到1115篇和1111篇,但以相同關鍵詞在中文社會科學引文索引(CSSCI)中檢索發現,關于人工智能倫理的高水平研究成果全部分布在2017年以后,2017至2020年分別發表1篇、4篇、5篇、10篇,較之上千的基數來講,占比微乎其微。在人工智能迅猛發展的今天,各界應當對人工智能倫理給予更多的關注,以確保人工智能技術能夠持續快速健康地發展,不斷為人類創造新的財富與便利。
3 人工智能倫理的發展現狀與展望
3.1 人工智能倫理現狀
倫理是人倫道德之理,是處理人與人、人與社會之間的關系以及處理這些關系時所應遵循的道理和準則。而倫理學是哲學的一個分支學科,其本質是關于道德問題的科學,是道德思想觀點的系統化、理論化,其基本問題是道德和利益的關系問題,即“義”與“利”的關系問題。其主要包括兩方面的內涵,一方面是道德和經濟利益的關系問題,另一方面則是個人利益與社會整體利益的關系問題。5
前文提到,人工智能倫理可以認為濫觴于上世紀50年代由阿西莫夫提出的“機器人三定律”,而在近幾年伴隨著人工智能技術的發展與應用,人工智能倫理逐步發展起來,不同的國家,不同的組織紛紛提出了人工智能的倫理原則和規范,例如美國五角大樓提出的“負責、公平、可追蹤、可靠和可控”,日本政府提出的《以人類為中心的人工智能社會原則》,歐盟提出的《AI倫理指導方針》,澳大利亞英聯邦科學和工業研究組織提出的《人工智能:澳大利亞的道德框架》……其具體內容雖各不相同,本質內涵卻大同小異,但這些所謂的倫理規范或框架存在著一個不容忽視的通病——目標太寬泛,操作性不強。較之歷史較悠久積淀較豐厚的醫學倫理學來講,人工智能的倫理架構顯然容易使人無所適從,例如在醫學倫理中有公正的原則,禁止非醫學用途的胎兒性別檢查就很好地體現了這一點,又比如醫學倫理的尊重病人原則,其一個體現就是要求男醫生為女性患者檢查時,必須有第三位女性在場。而當前階段的人工智能倫理僅停留在一些基本原則和框架層面,對于實際操作中的規范和要求并沒有明確的規定,執行起來自由空間很大,從實際執行效果來看,甚至可能尚不及原始的阿西莫夫機器人三定律。
人工智能倫理的另一個問題是其滯后性,雖然這種滯后性可能一方面是由于人工智能技術的發展過于迅速,但較之其他技術倫理,人工智能倫理仍然顯得頗為遲滯,至少從現階段看,我們并未發現和提出人工智能技術應用的嚴格禁區。克隆羊多利誕生十年后聯合國即通過了禁止克隆人的克隆禁令6,人類基因組草圖繪制完成后的第三年,我國科技部和衛生部即聯合下發了12條《人胚胎干細胞研究倫理指導原則》。這些存有較大爭議的技術從其出現到倫理框架的搭建完成雖也經過了一定的周期,但相較于發展了半個世紀的人工智能技術來講,其倫理架構無疑更加及時和未雨綢繆。
人工智能倫理的第三個問題是片面性。目前世界上的人工智能倫理規范多為人工智能應用方面的指導原則,而對于人工智能的主體性,以及未來如何與人工智能相處,目前仍多停留在哲學討論層面,或許隨著人工智能技術的不斷進步,人工智能倫理也將逐步完善,但在市場經濟的大潮之中,面對新技術的誘惑,人類能否保持克制,是否會出現個別狂熱分子,誰都沒有能力打包票。
3.2 人工智能倫理展望
伴隨著人工智能技術的飛速發展,人工智能倫理也必將得到越來越多的關注,近段時間的人工智能倫理的發展將以人工智能技術應用規范為主,其基本原則將與人類的主流價值觀相吻合。而隨著奇點的逐漸臨近,人類也將會越來越多的審視人類與人工智能之間的關系,目前不少前瞻性的作品中甚至出現了人類無機化的預期7,如果人類無機化成為現實,人類與人工智能之間的壁壘將徹底被打破,我們不得不接受人工智能作為我們的一份子。屆時,新的悖論將會出現——我們無法以人類的倫理去規范“新人類”的行為。對于“新人類”來說,或許會產生革命性和顛覆性的倫理體系,這是屬于“新人類”的倫理。
參考文獻:
[1] 尤瓦爾·赫拉利. 《人類簡史:從動物到上帝》[J]. 中國民商, 2015(11):63-64
[2] 趙汀陽.人工智能提出了什么哲學問題?[J].文化縱橫,2020,{4}(01):43-57
[3] 本刊編輯部.“阿西莫夫三定律”與技術倫理[J].社會科學文摘,2020,{4}(11):1
[4] 商瀑.從“智人”到“惡人”:機器風險與應對策略——來自阿西洛馬人工智能原則的啟示[J].電子政務,2020,{4}(12):69-76
[5] 何懷宏. 倫理學是什么[M]. 北京大學出版社, 2015
[6] 龔群. 克隆人的問題倫理及其前景倫理[J]. 上海師范大學學報(哲學社會科學版)(04):27-33
[7] 尤瓦爾·赫拉利 . 未來簡史[M]. 上海社會科學院出版社, 2010
作者簡介:趙曉陽,1992年1月生,男,漢族,河南平頂山人,北京科技大學文法學院碩士研究生,研究方向公共政策分析。