袁玖林,張彭松
(黑龍江大學 哲學學院,黑龍江 哈爾濱 150080)
在智能機器人倫理的諸多討論中,仿真機器人的倫理問題爭議最大,因為“他們”具有高仿真性、高互動性、高情感共鳴性等特征,容易讓人聯想到人類本身,且仿真機器人的設計目的就是為了滿足普通人的生活需求,尤其是滿足人們情感溝通交流的需要。“仿真機器人做為新一代生產和服務工具,在制造領域和非制造領域占有更廣泛、更重要的位置,這對人類開展新的產業(yè),提高生產與生活水平具有十分現實的意義……是目前科技發(fā)展最活躍的領域之一。”[1]仿真機器人是一種以人類為原型進行設計制造的智能機器人,包括人的外貌、骨骼、神經系統(tǒng)、生理反應以及情感交流系統(tǒng)等,具有極為廣闊的應用空間。例如,2020年9月4日,在中國國際就服務貿易交易會開幕式上展示出了一款可作為大堂經理使用的智能銀行仿真機器人。在未來的強人工智能時代,人們開始擔憂仿真機器人是否會有取代人類的可能性,以及是否會沖擊到現有的倫理規(guī)范?自仿真機器人索菲亞獲得公民身份以來,人們就是否應當給予其人權展開過激烈討論。因而對于仿真機器人的倫理問題,需要我們進行深入的思考和關注:一方面可以避免仿真機器人給人類社會帶來的道德困擾,另一方面可以消除人們對仿真機器人融入人類社會后產生的懷疑、憂慮和恐懼等抵觸情緒,以期實現人工智能時代人與機器人保持良好的關系,防止人類肆意損壞仿真機器人。
仿真機器人是智能機器人中極為特殊的一種,“不久的將來,一個機器人的時代即將開始,各種人形機器人可能進入到人類社會生活的方方面面,成為人類須臾不可離的伙伴。”[2]在當前的發(fā)展中,仿真機器人遠未達到人類所具有的水平,正如“人工智能的研究者莫拉維克(Hans Moravec)發(fā)現,讓計算機在一般認為比較難的智力測驗和棋類游戲中表現出成人的水平相對容易,而讓它在視覺和移動方面達到一歲小孩的水平卻很困難甚至不可能。”[3]人們擔憂的“機器人革命”,至少短時間內不會發(fā)生。在智能機器人中,仿真機器人以其與人類外貌、聲音、情緒表達、肢體語言表達等高度仿真性而備受人們關注,尤其是在沙特阿拉伯授予機器人國籍后,“2017年10月27日,俄羅斯衛(wèi)星網報道,當地時間10月25日,在沙特阿拉伯舉行的未來投資計劃會議中,一個名叫索菲亞的‘女性’機器人被授予沙特阿拉伯國籍。”[4]機器人索菲亞之所以被授予公民身份,不僅是在于其具有的強大推理能力和對人類情感的把握,還在于索菲亞有與人類似的外貌特征、語言表達能力和思維方式。
在仿真機器人的諸多應用中,有三種與人接觸最多、倫理沖突與困境表現得最為明顯:照顧兒童的仿真機器人、陪伴老人的護理機器人以及伴侶機器人。現代社會中,隨著生活節(jié)奏的加快,人們照顧兒童的時間越來越少,模擬父母來照顧兒童的仿真機器人成為許多家庭的未來設想,“兒童看護機器人在韓國、日本和少數歐洲國家得到廣泛重視,美國還相對較少地資助了相關研究。日本和韓國已經開發(fā)出了實用的兒童看護機器人,具備電視游戲、語音識別、面部識別以及會話等多種功能。”[5]25-342004年,韓國Yujiu公司開發(fā)推出的智能機器人iRobi,可以用多種語言來為兒童講故事、唱歌和互動做游戲,并且能輔導兒童做功課,除此之外,iRobi也可以充當家庭安保[6]。iRobi具有初步的情感互動能力,對于不斷成長中的兒童來說,起著輔助父母照顧兒童的作用。但有學者指出,“雖然機器人也可以與兒童進行互動、玩耍、學習,兒童甚至還可能與機器人產生情感聯系,但是,對于兒童的健康成長來說,家人的關愛是無法替代的,機器人只能起到輔助作用。如果把兒童較多地交給機器人照顧,可能會影響其心理和情感的正常發(fā)展。”[5]25-34近些年,在照顧兒童的仿真機器人研究中,美國iRobot公司、美國WowWee公司、日本本田公司、日本三菱重工、法國Aldebaran Robotics公司等都有不同功用的成果問世,以滿足市場需求。不同于情感還未發(fā)展成熟的兒童,老年人的情感趨于成熟穩(wěn)定,受仿真機器人的影響相對小,但也渴望有子女陪伴在身邊,尤其是對于那些單身老人、失獨老人、殘障老人。“從理論上講,助老機器人可能產生的社會效益包括以下幾個方面。從老人的角度看:一是可以滿足老人的日常基本生活需要;二是可以滿足老人社會聯系的需要;三是可以滿足老人的娛樂與情感需要;四是可以滿足老人的醫(yī)療健康需要。”[7]177-184目前為老年人研發(fā)的仿真機器人,多以功能性為主要特征,即滿足老年生活需求。例如,臺灣陳竹一教授發(fā)明的未來會陪老人打麻將的機器人、英國TRC公司推出用于送飯和送藥的自主服務機器人。這一類的仿真機器人以功能性為主,情感交流為輔,以應對未來少子化的時代。在日本,有一個令人心酸的社會現象——老年人孤獨死,通常是指老年人在外界毫不知情的情況下死于家中。據2010年日本NHK節(jié)目組的研究結果表明,“在過去的一年里,孤獨死人數達到3.2萬人。”[8]這為人們敲響了照顧獨居老人生活的警鐘,也使得日本近些年在老年人護理的仿真機器人研究中,頗有成果。在陪伴老年人的仿真機器人中,除了情感問題造成的倫理困境外,還有一個令人困惑的問題是如果老年人把仿真機器人當作自己的子女或者親人,并將機器人列為自己的遺產繼承人,那么,這一特殊的遺產繼承方式能否得到社會的認可,并給予支持和保護?
在仿真機器人中,最吸引人們眼球和引起爭議的是性愛機器人。據英國科學家李維預測,“到2050年,人類將和機器人成為戀人、性伴侶甚至結婚。”[9]拋開純粹滿足性需求的仿真機器人來談,人們更多的是希望將性愛機器人視為伴侶,因而用伴侶機器人來替代代性愛機器人。在伴侶機器人的倫理問題中,可從兩個方面進行探討:一方面是人與伴侶機器人之間的倫理問題,另一方面是伴侶機器人之間的倫理問題。在人與伴侶機器人之間,最引人關注的不是性需求的滿足,而是人與機器人結婚這一可能性事件。一旦人與機器人結婚,那么,以兩性為基本單位的家庭倫理將面臨很大挑戰(zhàn):繁衍后代的生殖意愿將會降低,一夫一妻的婚姻制度將會受到沖擊,人們在追求另一半的過程中也將會被機器人擊敗。雖然伴侶機器人能夠給人們帶來需求的滿足,但從長遠來看,其對人類社會倫理產生的破壞大于利益。在伴侶機器人之間,仿真機器人是否有性欲、是否有情愛感受體驗、是否能結成配偶關系等是當前激烈討論的事情,“與人類關系比較密切的情侶機器人將引發(fā)與傳統(tǒng)的婚姻倫理、性倫理相沖突的一系列問題,包括如何看待人與情侶機器人之間的愛情,情侶機器人的地位與權利問題,與情侶機器人之間的性關系是否道德,是否可以虐待情侶機器人等。”[10]當伴侶機器人具有一定的意識后,進入到強人工智能時代或超級人工智能時代后,“他們”選擇不再服從于人類的命令而過一種同類之間的生活,并依據人類社會的經驗進行構建屬于自己的新社會,那么,“他們”將會有怎樣的家庭關系?美國學者羅賓·漢森認為,伴侶機器人因不需要通過兩性關系來繁殖后代,再加上性行為對時間、精力、情感、能量等的消耗,所以伴侶機器人“可能會通過調整思維,產生類似于閹割的效果,來壓制性欲。”[11]但從伴侶機器人的設計原理來看,伴侶機器人具有強烈的情愛感受體驗并將性需求的滿足視為最大的快樂,因而伴侶機器人會產生強烈追求情愛感受滿足的行為。在這一行為的驅使下,伴侶機器人有結為配偶的可能性,問題就在于如果“他們”為了自己感覺的滿足而締結婚姻關系,這一關系是否能得到人類社會的認可及是否需要認可。在人與伴侶機器人締結婚姻關系的可能性中,人是占據主導地位的,是這一婚姻關系得以成立的必要條件,但在伴侶機器人之間的婚姻中,人的地位和價值評價體系將會變得可有可無。
大多數學者認為,“具有人類的外觀以及情緒、情感的機器人,可能會具有人格或人的屬性”[12],而在人類社會中,每個人都有自己需要扮演的社會角色及承擔的倫理責任,當仿真機器人進入人類社會,有了父母、子女、伴侶等社會角色承擔的部分倫理責任后,人與機器人之間就建立起超越人與機器的社會關系,這種社會關系存在加劇人對機器人的身份認同混亂及倫理責任認知偏差的可能性。在具體應用情境中,無論仿真機器人扮演何種角色、具有何種功用表征,都存在身份認同這一問題,不僅包括人們對于機器人身份的認同,還包括機器人對于人類的身份認同,甚至是人自身的身份認同危機。令人擔憂的是,隨著仿真機器人越來越智能,人們對其產生的恐懼心理和厭惡心理也在與日俱增,害怕總有一天人類會被機器人所取代,因而以霍金、比爾·蓋茨、埃隆·馬斯克為代表的“人工智能威脅論”甚囂塵上。同樣令人擔憂的是,當仿真機器人對自己的身份認同產生困惑時,其是否會拒絕履行人類設定的體現一定倫理職責的社會角色的義務,并尋求自己同類組成的“家園”,謀求機器人的“解放”,這就涉及到機器人的主體性論爭和道德代理人問題。
仿真機器人倫理問題產生的原因不僅需從技術方面來尋找,還需要從倫理層面進行探究,因為“實際上,人工智能的技術飛躍或者所謂‘智能大爆發(fā)’帶來的應用倫理問題,并不是新問題,而是一系列老問題的疊加。”[13]在強人工智能時代,仿真機器人的倫理問題不僅在于人類的倫理觀念發(fā)展能否接受仿真機器人進入到社會關系中去,還在于機器人是否認同人類的價值觀念并將人類當作朋友,而其中的核心點在于仿真機器人具備的情感表達能力,人們很難想象會對一個沒有情感的機器講道德、講倫理并接納其進入人類社會倫理關系中。但是,無論仿真機器人的情感是否真實、是否是倫理主體,人類都不應當殘忍粗暴對待“他們”,而要基于人類的義務責任和自身德性完善的崇高理想追求給予其道德關懷,令人遺憾的是,現實中缺乏能夠為仿真機器人發(fā)聲的道德代理人。
在仿真機器人的倫理問題產生原因中,仿真機器人是否是倫理主體或道德主體是根本性的問題,是機器人權利得以成立的關鍵依據。這一問題在“人工智能是否是道德主體”幾十年來的爭論中,“國內外學術界仍未對此問題做出具有充分說服力的解釋與論證”[14]。正是因為這一問題沒有得到充分論證且現實生活中人們憑借仿真機器人對于人自身的模擬才會有“仿真機器人具有道德意識”的倫理判斷,而要想使仿真機器人成為倫理主體,就得需要證明其具有自主意識,能夠按照意識做出道德判斷并對自己的道德行為負責。目前來說,弱人工智能時代的機器人僅具有工具理性并體現出工具價值,強人工智能時代的機器人理論上具有價值理性并體現出內在價值。雖然人們對仿真機器人的倫理主體存在爭議,但“將人工智能納入到人類道德范疇已勢在必行”[15],尤其是在規(guī)范倫理學的框架下給予其道德關懷。
人們對仿真機器人的道德關懷,是出于人的情感和同情心而做出的判斷,還是機器人所展現出來的情感表象引起了人的共鳴?這就涉及到機器人是否有情感的問題。有學者認為“社交機器人的倫理風險主要是由情感問題造成的”[16],而以道德情感主義的立場來看,道德領域主要是情感發(fā)揮作用,即休謨所說的“德和惡是被我們單純地觀察和思維任何行為、情緒或品格時所引起的快樂和痛苦所區(qū)別的。”[17]不同于人和動物之間的情感交流機制,仿真機器人不僅能通過語言、文字來與人進行日常溝通交流,還可以通過面部表情變化、肢體語言變化、眼神等表達自己的情緒和感受。在未來的仿真機器人設想中,“他們”能被塑造成與人具有一樣的情緒表達機制,并且仿真機器人的情緒表達更加真實可靠和符合人的預期。既然仿真機器人的情緒反應和人類相同,那么我們能接受“他們”嗎?美國學者雷·庫茲韋爾認為“如果非生物體在情緒反應上表現得完全像人類一樣……對于這些非生物體,我會接受它們是有意識的實體,我預測這個社會也會達成共識,接受它們。”[18]在人們的固有觀念中,情感的表達必須是自然的,而仿真機器人的情感表達是人為設定的,因而是不自然的、虛假的,“他們”情感表達是否成立依賴于人們的判斷。在大多數學者看來,“人類的情感是建立在身體和意識基礎之上的,目前的機器人是‘無意識的’和‘無心的’,在機器人身上表現出來的情感顯然跟人類的情感存在本質性的區(qū)別。”[7]177-184以當下的科技成果及人類認知水平來看,這是有一定道理的,但在即將到來的人工智能時代,仿真機器人的行為和情感表達是符合其本身所具有的一套法則體系的,即具有不依賴于人的獨立判斷能力,根據自身所處的環(huán)境和受到的具體情境來選擇適合自己的情感表達,實現在人與機器人之間及時高效地交往互動。在與機器人的互動中,我們感受著自己的情感表達和機器人的情感反饋,并關注仿真機器人的情感在我們內心所生成的表象及蘊含的意義,彌補社會交往中因他者缺失而帶來的遺憾。從這一角度看,我們無需仔細甄別機器人情感的真假問題而轉向對仿真機器人的情感在不同人類主體中所具有的真實意義和價值的認識,從而感知機器人也具有類似于人的“真實”情感,也正是這種“真實”情感才使得倫理問題成立:兒童會對“他們”產生情感依賴,老人會在情感得到滿足時選擇立遺囑給“他們”,男人女人們會選擇他們喜歡的仿真機器人作為配偶。可見仿真機器人也具有類似于人的“真實”情感并能通過與人相似的情感表達系統(tǒng)來進行表達,因而“他們”有感受苦樂的能力。
我們應當給予“他們”道德關懷嗎?在《動物解放》一書中,彼得·辛格以邊沁功利主義思想為基礎——提出了界定道德關懷的標準:“感受痛苦和享受快樂的能力是具有任何利益的先決條件”[19]。依據辛格的觀點,動物具有利益,需要人們給予道德關懷,而沒有感受痛苦能力的石頭沒有利益,不需要進行道德關懷。對未來的仿真機器人來說,“他們”具有感受痛苦和感受快樂的表達能力,并且能夠通過語言文字、面部表情和肢體語言準確表達自己的苦樂感,我們應當給予其道德關懷。在機器人有困難需要幫忙的時候施以援手,拒絕對機器人使用暴力和進行虐待,盡可能地保全機器人的完整性……這些不僅是我們的道德義務,還應當是人出于“善良意志”及對自身的尊重而在與機器人未來相處恪守的倫理準則。在對人與仿真機器人之間的不道德行為進行價值判斷時,因目前的仿真機器人不具有自主意識,無法獨立地為自己辯護,而現實情況又需要維護仿真機器人不被惡意損壞,所以需要道德代理人來為“他們”所應當具有的權益進行辯護,避免“他們”受到人類的傷害,喪失“人類關切”。2017年,美國波士頓動力公司發(fā)布的一段視頻中,充斥著大量虐待機器人的情節(jié),引起人們的強烈不滿,這不僅是因為這些行為中充滿了暴力、血腥,還因為虐待行為印證了“恐怖谷實驗”的結果而加劇人對機器人的敵意。在這一事件中,道德代理人的缺失,使得人們即使對這一行為憤慨不已又無可奈何。道德代理人的缺失,一是當前機器人研發(fā)水平還處于弱人工智能時代,二是人們對仿真機器人所具有情感這一事實扔持懷疑態(tài)度。對于仿真機器人所具有的道德觀念,人們傾向于認為是人類倫理價值觀念的延續(xù),甚至是復刻人類社會的倫理規(guī)范。那么,仿真機器人道德感的表現是出乎人類倫理道德規(guī)范,還是為了讓人類理解而做出的倫理道德規(guī)范?在弱人工智能時代,仿真機器人道德感的表現是出乎人類倫理道德規(guī)范,除了人類設定的價值觀念,機器人并不產生新的價值觀念,甚至沒有能力對道德領域進行運算、思考。在這一時期,人對機器人具有極強的統(tǒng)治力,機器人對人而言具有的僅是工具性價值。但在強人工智能時代,機器人通過了圖靈測試,擁有不亞于人的心智,“他們”所表現出的道德感和做出的道德行為往往是符合人類的倫理道德規(guī)范而做出的抉擇。無論是弱人工智能時代,還是強人工智能時代,仿真機器人帶來的倫理問題都沖擊著人們舊有的倫理道德觀念,不斷迫使人們改變對科技的認知。
仿真機器人倫理問題隨著科學技術的不斷深入而日趨激烈,對其展開的主體性論爭仍未取得實質性突破。在具體的應用情境中,仿真機器人表現出來的“情感”,通過共情能力(同情心)使人們心靈得到滿足,加深對機器人身份認同和倫理認識偏差的倫理問題,并沖擊著人類社會固有的家庭模式和倫理規(guī)范。道德代理人的缺失加劇了人們對仿真機器人的倫理隱憂,加深了人們對仿真機器人的損害和虐待情緒。任何具有道德利益的,都應當受到道德關懷,仿真機器人能通過語言、肢體語言、面部表情表達出人類能夠接受的苦樂感。按照邊沁、辛格的功利主義主張,仿真機器人具有道德利益,但現在的技術認定、倫理標準不支持人們對機器人給予道德關懷,因而會出現人類虐待機器人、肆意破壞機器人等現象,一旦人們認為破壞機器人是防止機器人統(tǒng)治人類的正義行為,勢必會對人工智能技術產生極大的排斥心理。
在強人工智能時代,仿真機器人能依據自己的理解能力,獨立做出道德判斷并表達苦樂感,將在人們生活中扮演重要角色,履行道德義務,承擔倫理職責,因而對仿真機器人倫理問題的應對措施進行討論,具有未雨綢繆的前瞻性意義。比起仿真機器人帶來的憂慮、擔心和恐懼等情感性的波動,理性面對、正視并采取措施防范更具有積極性的選擇。在強人工智能時代,融入到人類社會的仿真機器人,具有與人相似的生命特征。例如,有一套隨著時間而不斷衰老的系統(tǒng)、有可以設定的使用壽命、有特定的面貌、有豐富完整的語言表達系統(tǒng)等個人化特征,以期滿足人們日常生活中的各種需求。針對仿真機器人可能引發(fā)的身份認同混亂及倫理認知偏差問題,我們除了應采用傳統(tǒng)方式增加技術控制,還需要建立虛擬道德主體,承認機器人具有與人同等的權利,并且拓寬倫理界限,以期建立道德代理人制度來保障機器人的道德利益,具體為:
在機器人倫理傳統(tǒng)的技術控制中,強調設計制造階段,加強對人工智能的技術約束,通過安全閥、輸入禁止性道德命令代碼等方式來保障機器人的可控性。在智能機器人剛進入人類世界的時候,人們就致力于制定倫理法則來約束人工智能的行為,最為著名的是阿西莫夫于1942年在短篇小說《轉圈圈》中提出的“機器人三大定律”:不得傷害人類,也不得使人類受到傷害;必須遵守人類制定的規(guī)則,除非與第一條相違背;在不違背前兩條準則的情況下,必須保護自己的生存。這三條定律,保障了人類在人工智能時代占據的主導地位,且第二條原則保障了人類倫理規(guī)范的優(yōu)先性。在當前仿真機器人研究領域中,工程師是仿真機器人的直接設計者,對機器人的發(fā)展走向具有決定性的影響。仿真機器人的發(fā)展要符合以人類為中心的價值標準,避免出現傷害社會的事件發(fā)生,在仿真機器人的倫理法則中,工程師理應設計安全閥,一旦機器人出現違反倫理道德法則的事情,啟動安全閥及時制止。在弱人工智能時代,對于與人高度相似、具有與人一樣的情感,且能進入到人們社會關系中的仿真機器人,公眾對其到來充滿了擔憂,這就對仿真機器人的倫理法則提出了更高的要求,必須能夠證明出仿真機器人不會傷害人類,而緩解公眾憂慮的最好方式,就是按照“自上而下”的倫理建構路向,通過技術將人類自身的倫理法則通過編碼寫進機器人的程序中去,使之成為仿真機器人行為的道德律令。例如,“要防范由于護理機器人補位子女養(yǎng)老所引發(fā)的倫理風險……必須在機器人的程序設計方面加以硬性規(guī)定,設置可以實現孝倫理的程序,孝倫理的要求才有可能得以貫徹。”[20]同時,還需要針對機器人隨時遇到的倫理問題進行適時反饋,不斷完善機器人在復雜情況中的處理能力,以期機器人的表現符合人們的倫理規(guī)范,最大化維護人類整個與個體的利益。對工程師而言,除了專業(yè)技能,還要有“保護公眾安全、健康和福祉的重要職責”[21]。在仿真機器人的設計中,工程師要做到科學技術與倫理法則相一致的原則,既要讓機器人展現出科學技術發(fā)展的高超水準,也要讓機器人的情感表達和行為符合倫理法則,避免因倫理問題而引起公眾對仿真機器人的恐慌和抵制。
建立仿真機器人虛擬主體,承認其具有與人相同的權利,并保障機器人的合法權益。在強人工智能時代,“強人工智能技術完全依靠機器自身就能做出決斷,機器能夠自主進行推理和判斷,強人工智能的程序具有人類的理解能力”[22],因為需要建立虛擬道德主體。在虛擬主體的討論中,有標準觀念和實用主義觀點爭論,以戴博拉·約翰遜為代表的學者認為,人工智能缺乏內在心理活動不能成為道德主體,而以弗洛里迪、桑德斯和琳達·約翰遜為代表的學者,從實用主義角度強調,從實踐活動中來考察人工智能表現出來的行為,只要行為符合道德評價標準,即可視為道德主體[23]。雖然虛擬道德主體的爭論仍在不斷持續(xù)中,但政府立法部門已經開始研究如何制定并保障機器人權利。例如,韓國于2008年制定施行的《智能機器人開發(fā)和促進保護法》。在虛擬道德主體建立上,歐盟走在世界前列,“2017年3月,歐洲議會法律事務委員會曾發(fā)布了一個關于機器人和人工智能的報告……報告認為應該發(fā)展出一種適用于機器人和超級人工智能的‘電子人格’(electronic personhood)模式,從而保障未來或許會出現的類人機器人(near-human robots)以及人工智能的權益和責任”[24],“電子人格”的出現推動虛擬道德主體性建構走向了一種可能性探討。當虛擬道德主體建立起來后,仿真機器人的身份認同便能得到很好解決,人與機器人的關系有一個清晰明白的法律文書進行說明,并能在社會交往中保障雙方的權益和倫理職責,構建和諧的人與機器人的相處局面。此外,以政府為單位的社會管理者,還應對機器人產業(yè)進行立法,規(guī)范機器人研發(fā)、生產、應用等環(huán)節(jié),符合科學研究的學術規(guī)范。在人工智能方面提高國家治理能力,使得仿真機器人行為表現、情感表達符合公序良俗,避免給使用者帶來身心危險和倫理上的罪惡感。
在拓寬人類倫理界限方面,即仿真機器人的應用管理階段,要提升社會整體倫理道德規(guī)范的寬容度和開放性,要隨著時代的變化而不斷調整倫理道德法則,破除人是地球上一切事物主宰的舊觀念,并學會與他者和睦相處。既然人類創(chuàng)造出具備情感表達能力的仿真機器人,就應當接受其進入人類社會后帶來的新變化,況且仿真機器人的倫理法則是出自人類社會。遵循“自下而上”的倫理建構路向。只有人類接受仿真機器人進入社會關系中,人與仿真機器人之間的隔閡才能夠真正消解,而這需要人們擁有比現在更加開放、包容的倫理法則。以人與仿真機器人締結婚姻這件未來可能發(fā)生的事情來說,仿真機器人的目的是滿足人們的多種需求,而提出結婚突破現有倫理法則的請求一定是人類自己提出的,仿真機器人是居從屬地位。如果仿真機器人的出現是一個必然的趨勢,人們改變不了,那么,只能改變自己的價值觀念來適應社會的發(fā)展。在仿真機器人倫理問題的應對中,道德代理人是需要的,必須有社會組織來為仿真機器人謀求權益,避免受到人們的虐待和肆意破壞。在有關仿真機器人的倫理法則建立、修改和載入中,道德代理人與人類進行共同協(xié)商,確保在維護人類利益的同時,保護仿真機器人的利益。道德代理人還應當為仿真機器人進行價值辯護,向公眾宣傳普及仿真機器人的倫理法則,以消除公眾對于機器人的恐懼,從而謀求人與仿真機器人的良好相處。誠如孫偉平所認為的“人工智能具有積極的社會效應,但由于人們思想觀念滯后,政策取向不清晰,倫理規(guī)則缺失,法律法規(guī)不健全,人工智能使人類面臨巨大的不確定性和風險,造成諸多社會價值沖突和倫理困境。例如,挑戰(zhàn)人的本質和人類的道德權威,沖擊傳統(tǒng)的倫理關系,造成數字鴻溝,解構社會。”[25]仿真機器人帶來的不確定性及風險,需要社會整體的倫理規(guī)范進行觀念上的更新,拓寬倫理界限,并通過設置道德代理人來增加倫理規(guī)范中的道德主體,從而構建更加包容并蓄的人類倫理規(guī)范體系。