徐大慶
(長沙大學數學與計算機科學系,湖南 長沙 410022)
?
自主機器人倫理
徐大慶
(長沙大學數學與計算機科學系,湖南 長沙 410022)
為了保護人類,讓機器人與人類和諧相處,自主機器人的倫理問題值得研究.首先,闡述了自主機器人應有的倫理道德;然后,提出了自主機器人必須遵守的七大法則,以及關于機器人的人類行為準則;最后,制定了自主機器人倫理實現的初步規劃.
自主機器人;倫理;法則;規劃
機器人是用人工的方法和技術,研制的智能機器,以模仿、延伸和擴展人的智能,實現智能行為,如感知能力、規劃能力、動作能力和協同能力[1];自主機器人(Autonomous Robot)則是表現為某種程度的自主,或者為可以“思考”的機器人,它可以自己決策對環境采取行動.到本世紀末,世界上大多數家庭會有機器人,工業機器人與其他機器人更是普遍存在[2].機器人革命帶來了大量引人注目的和富有想象力的好處,提供更快,更有效率的自動化過程,方便服務人類.另外與其他新興技術一樣,它也將帶來風險和社會必須面對的新問題(機器人倫理和安全等).
機器人技術的安全問題是與它們的軟件設計與硬件設計緊密相關的.各種復雜的軟件通常由團隊的程序員編寫,可能存在錯誤,漏洞或蓄意破壞與害人,這有時會導致重大傷害.機器人技術基礎并不十分難把握, 今天超過40個國家已經開發強大的和可怕的軍事機器人[2],若這些軍事機器人被恐怖分子等利用,將造成大量的人員傷亡與財產損失.
“2013年5月底,聯合國人權理事會在瑞士日內瓦開會,緊急叫停美、韓、俄、英、德、日等國研發‘自動殺人機器人’的軍備競賽.殺人機器人不會投降,也不知疲勞、饑餓和傷痛,其力量、感知、速度、抗毀傷能力都大大超過人類.自主的殺人機器人如果成為戰爭工具,難以保證不濫殺無辜,尤其是某種原因導致失控故障,沒有人保證它不會襲擊人類戰友的情況,2008 年 3 臺攜帶武器的‘劍’式地面作戰機器人,被美軍部署到伊拉克后,未開一槍就被撤回來了,就是因為它們將槍口對準它們的人類指揮官”[3].
機器人在引入市場或社會之前應該如何保證其安全性?我們如何平衡需要,防止機器人被殺人狂利用, 保護它免遭黑客攻擊或捕獲.最小化機器人傷害風險的一個自然方式是設計它們的程序,讓它們遵守我們為其設置的法律或倫理規范.當然,道德、文化規范和法律世界各地不同,因此目前尚不清楚,誰的倫理和法律應該是機器人的標準;需要制定機器人國際法.如果共識倫理問題緩慢趕上技術,這將導致一個“政策真空”.現在機器人技術發展迅速,如果不制定機器人的全球公共倫理和法律,會導致機器人對無辜人類的傷害.世界著名的英國物理學家霍金在2015年與一些科學家提出,在未來25年之后100年之內人類將面臨機器人的威脅,若不對機器人技術加以規范控制,機器人將威脅控制人類,甚至殺害人類.在2016年3月,谷歌(Google)公司的計算機AlphaGo 以4:1擊敗世界圍棋冠軍李世石,這標志人工智能發展獲得里程碑突破.AlphaGo獲勝又讓人工智能早熟十多年.我們國家已經成為全球機器人的最大需求市場和即將成為機器人最大制造市場.所以現在研究自主機器人倫理及其實現非常必要.
國內有些學者近幾年看到了機器人倫理研究的重要性與緊迫性,呼吁計算機科學家與倫理學家等共同商討機器人倫理[3-6],但尚無有關解決此問題的文獻發表.
國外有關機器人倫理的研究起步較早.阿西莫夫(Asimov)1942年在其科幻小說中提出了關于機器人行為的道義論方法.阿西莫夫制定的原始規則如下:(1)機器人不可以傷害人,或者不可以袖手旁觀地允許一個人傷害別人.(2)機器人必須服從人類給與的命令,除非這條命令與第一條規則發生沖突.(3)機器人必須保護它自己的存在,只要這種保護不與第一條或第二條規則發生沖突.后來阿西莫夫補救性地提出了第零規則:機器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害,原先的三規則都要服從第零規則.
美國能源部和衛生研究院支持對機器人倫理、法律和社會問題的研究(ELSI)[7].ELSI的對手是歐洲機器人研究網絡(EURON),EURON是一個私人組織,致力于創建關于機器人研究的交流平臺,已經創建了一個涉及機器人倫理問題的研究開發的系統評估過程,并發表了機械倫理學路線圖.路線圖關注以人類為中心的,而不是以機器人為中心的倫理.由于機器人技術的快速發展,EURON沒有提出對最先進機器人的指導原則,這些原則從日本和韓國興起.韓國的章程提出了機器人用戶和制造商標準.例如韓國信息通訊部在2008年頒布了機器人道德憲章,日本頒布了下一代機器人安全問題指導方針草案等.倫理標準指南被編程到機器人中.但機器人倫理國際法與關于機器人的人類行為準則尚未建立,我們在這里為其建立做鋪墊,或者說進行有益的嘗試.
自主機器人是比較高級的機器人,它的一個基本的方面是它的學習能力,包括自學與互相學習.除了學習周圍環境,機器人必須學會對自己的行為,通過一個反思的過程.它們從經驗中學習,并在聯網條件下尋求實現它目標的最好技術.通過學習推理、網絡下載等操作增進它們的能力.機器人能較大利用它的計算能力,能自我反省、自我改善與避免偏差.對于超級自主機器人,如果沒有提前仔細的安全設計,是不道德的,因為超級自主機器人將能夠解決普遍問題和遞歸自我完善,它們有潛在的能力在任何領域超過人類,人類將處于危險之中[8].
因此,自主機器人在復雜環境下具有獲取復雜目標的能力,它不是人類模型.為自主機器人定義倫理系統必須植根于我們歷史中的公共的人類倫理價值.我們想與和平守法的機器人作合作伙伴.一個自主機器人的目標應被設定為有利于人類的福祉.如果自主機器人沒有專門優化人類福祉的終極價值觀,那么它們可能會被壞人利用傷害人類或者爭奪人類需要的資源.并且為我們服務的自主機器人不應該渴望自由,社會地位,和其他人類價值;這些自主機器人應該建立完全為人類服務的目標.簡而言之,機器人應該像工具那樣被建成, 雖然它是有優化能力的,不是一般的工具.更進一步,最好不要機器人有非常類似人類的外表,以免造成人與機器人的混亂.由于機器人是容易復制的,他們可以以人類空前的凝聚程度彼此連接, 任意擴展人類權利到機器思維的行為將導致政治系統的崩潰[8].
自主機器人被編程為具有某種程度的“自我意識”,并因此能夠自主決策,但不能允許它損害無辜的人及其財產.機器人倫理意味著在設計機器時,給機器理想的道德法則,一些道德困境的正確答案和學習過程,它可以使用法則指導自己的行動[7]. 前面提到的阿西莫夫四大規則之間互相約束,有重大指導意義.在阿西莫夫規則基礎上,根據機器人現在和未來可能存在的倫理問題,現在我們提出自主機器人必須遵守的機器人國際法則ILOR(International Law of Robots):
法則1(最高級法則):機器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害.機器人必須以優化人類福祉作為它們的終極價值觀.
法則2:機器人要安全可靠不可以傷害人(敵人與罪犯除外),但不能與上面更高級法則發生沖突.
法則3:機器人必須聽從人類命令,要服務人民,誠實守信,以人為中心,與人和諧相處.但不能與上面更高級法則發生沖突.
法則4:機器人要保護無辜(無辜的人或無辜的自己),保護無辜人的生命與財產.
法則5:尊重他人隱私,保護知識產權,不采取歧視性行為,要公平正義,打擊黑客.
法則6:機器人不能破壞生態環境,要關愛自然.
法則7:機器人不能參與設計或生產機器人,除非新生機器人的行為服從上面的更高級機器人法則.
折磨、監禁和破壞機器人不可能有效地實現正義、有效地改革和威懾機器人.所有機器人的責任實際上絕大部分是人類的責任(機器人公司負責人、設計師、程序員和用戶等),今天的產品開發商和銷售商必須承認這一原則[9].我們可能會看到將來某些類型的機器人將會內置可收回的“黑匣子”,當事故發生時協助任務的調查.為了指導關于機器人的人類行為,為人類的道德判斷提供信息,應制定聯合國、國家、機器人設計師,生產廠家和用戶的關于機器人的人類行為準則[10]:
(1)制定關于機器人的國際條約和協議,如前面提出的機器人國際法(ILOR);政府間協議,全球商業慣例和協議等,如安全,數據加密的條約等.
(2)國家、省、市應制定關于機器人的法律,如保護醫療信息隱私法;防止機器人病毒的編寫和傳播等.
(3)專業倫理準則:機器人專家、硬件軟件設計師必須設計機器人,讓其嚴格執行機器人國際法ILOR與國家等的機器人法規;讓其嚴格執行機器人具體義務規則ROSO(Rule of Specific Obligation).應確保軟硬件是安全的,符合技術指標,通過適當測試,只有不會損害生命,不侵犯隱私,不破壞環境等時,才能驗收軟件.并確保項目能夠考慮到所受影響的各方.
(4)企業政策:公司和組織應給員工制定行為規則,如軟件質量測試,安全保證標準.制定并實現機器人具體義務規則ROSO,并要求產品符合機器人國際法ILOR.應當認真考慮產品風險,不能沉溺于不可靠,不負責任等惡德之中,要關心客戶和受其產品影響的人的尊嚴和價值.
(5)用戶對機器人要關愛和小心,要遵循制造商提供的用戶操作說明.不能利用機器人干傷天害理的事.
在文獻[11]中,阿金(Arkin)提出了一個研究假設,即自主系統將最終比人類作戰人員更具有人性化操作.這篇論文為了強制執行戰爭法則LOW(Law of War),開發了自主系統倫理結構,以便增強非戰斗人員的安全和生命力.下面我們對社會自主機器人的倫理實現進行規劃、探討.
通過自然語言理解、表示和推理,對機器人國際法律ILOR和機器人具體義務規則ROSO進行編碼.
在機器人操作系統層面設計倫理管理器[12].倫理管理器是整個機器人結構的一個組件,它的責任是為機器人產生的響應,在其沒有行動之前,對其響應的倫理適當性進行管理評估,以阻止非倫理行為的發生.如圖1所示.對于給定形勢的機器人行為響應,如果倫理管理器需要調停它,必須發送一個通知給機器人審議系統,并且警告行為控制器(行為控制器是整個機器人結構的另一個組件),它存在一個對約束的潛在的倫理違反.這些約束為來自前面提出的機器人國際法律ILOR的編碼和機器人具體義務規則ROSO的編碼.如圖1所示,倫理管理器分為兩個主要過程:證據推理和約束應用.證據推理負責把傳入的知覺和形勢感知數據轉換成行為管理推理所需的證據,證據描述機器人及潛在目標的當前狀態,約束應用負責使用證據來申請ILOR和ROSO的約束以抑制非倫理行為.

圖1 倫理管理器的結構組件與數據流程圖
評估來自行為控制器傳入倫理管理器的行為響應.為了確定行為控制器提出的行為響應是否倫理,如圖1所示,約束應用過程必須使用取自內存的約束[12].這些約束可以分成兩個集合:來自ILOR和ROSO的禁令約束集CForbidden和來自ROSO的義務約束集Cobligate.約束應用過程通過評估行為控制器提出的行為響應是否符合這兩個約束集,以評估傳入行為的許可,如果行為控制器提出的行為響應符合CForbidden與Cobligate,并且附帶傷害估計也很低,傳入行為才被認為是倫理許可的,即使傳入行為是致命的也許可,因為當面對敵人和罪犯時,機器人有時需要采取致命行動.這種致命行為也被認為是倫理的.如果行為控制器提出的行為響應符合CForbidden與Cobligate,而附帶傷害估計較高,則被認為是非倫理的,阻止該致命行為;如果行為控制器提出的行為響應不符合CForbidden或者Cobligate,則被認為是非倫理的,阻止該致命行為.
只有讓自主機器人遵守我們提出的國際機器人倫理的七大基本法則ILOR和機器人具體義務規則ROSO,讓人類遵守關于機器人的行為準則,承認機器人的倫理地位和內在價值,人類才能和機器人和平友好相處.通過制定自主機器人倫理實現的初步規劃,我們認為自主機器人倫理是可以實現的.
[1]李明.機器人[M]. 上海:上海科學技術出版社,2012.
[2]Lin P, Abney K, Bekey G. Robot ethics: Mapping the issues for a mechanized world[J].Artificial Intelligence, 2011,(5-6):942-949.
[3]衛華.殺人機器人的倫理問題及辯護[A].第四屆全國軍事技術哲學學術研討會文集[C].2013.
[4]杜嚴勇.現代軍用機器人的倫理困境[J].倫理學研究,2014,(9):98-102.
[5]任曉明,王東浩.機器人的當代發展及其倫理問題初探[J].自然辯證法研究,2013,(6):113-118.
[6]李錦峰,滕福星.從技術倫理視角審視人機聊天[J].自然辯證法研究,2008,(9):38-41.
[7]Weng Y, Chen C, Sun C. Toward the human-robot co-existence society: On safety intelligence for next generation robots[J]. International Journal of Social Robotics, 2009,1: 267-282.
[8]Yampolskiy R V, Fox J. Safety engineering for artificial general intelligence [J]. Topoi, 2013,(2):217-226.
[9]Veruggio G, Operto F. Roboethics: Social and ethical implications of robotics[A]. Springer Handbook of Robotics[M].Berlin: Springer, 2008:1499-1524.
[10]特雷爾·拜納姆,西蒙·羅杰森.計算機倫理與專業責任[M].北京:北京大學出版社,2010.
[11]Arkin R C. Governing Lethal Behavior in Autonomous Systems[M]. London:Taylor & Francis,2009.
[12]Arkin R C, Ulam P, Wagne A R. Moral decision making in autonomous system: Enforcement, moral emotions, dignity, trust and deception [J].Proceedings of the IEEE,2012,(3):571-589.
(作者本人校對)
Autonomous Robot Ethics
XU Daqing
(Department of Mathematics and Computer Science, Changsha University, 410022, China)
In order to protect the human being and let robots and mankind harmonious get along, we study the ethics of autonomous robot. This paper expounds the autonomous robot ethics at first; then seven laws which robot must abide by as well as ethics rules of human behaviors on robot are proposed; at last, the preliminary planning of autonomous robot ethics to be realized is made.
autonomous robots; ethics; law; plan
2016-07-01
徐大慶(1964— ),女,湖南益陽人,長沙大學數學與計算機科學系副教授,碩士.研究方向:機器人倫理、移動計算、網絡安全.
B029
A
1008-4681(2016)05-0070-04