袁玖林,張彭松
(黑龍江大學(xué) 哲學(xué)學(xué)院,黑龍江 哈爾濱 150080)
在智能機(jī)器人倫理的諸多討論中,仿真機(jī)器人的倫理問(wèn)題爭(zhēng)議最大,因?yàn)椤八麄儭本哂懈叻抡嫘浴⒏呋?dòng)性、高情感共鳴性等特征,容易讓人聯(lián)想到人類本身,且仿真機(jī)器人的設(shè)計(jì)目的就是為了滿足普通人的生活需求,尤其是滿足人們情感溝通交流的需要。“仿真機(jī)器人做為新一代生產(chǎn)和服務(wù)工具,在制造領(lǐng)域和非制造領(lǐng)域占有更廣泛、更重要的位置,這對(duì)人類開(kāi)展新的產(chǎn)業(yè),提高生產(chǎn)與生活水平具有十分現(xiàn)實(shí)的意義……是目前科技發(fā)展最活躍的領(lǐng)域之一。”[1]仿真機(jī)器人是一種以人類為原型進(jìn)行設(shè)計(jì)制造的智能機(jī)器人,包括人的外貌、骨骼、神經(jīng)系統(tǒng)、生理反應(yīng)以及情感交流系統(tǒng)等,具有極為廣闊的應(yīng)用空間。例如,2020年9月4日,在中國(guó)國(guó)際就服務(wù)貿(mào)易交易會(huì)開(kāi)幕式上展示出了一款可作為大堂經(jīng)理使用的智能銀行仿真機(jī)器人。在未來(lái)的強(qiáng)人工智能時(shí)代,人們開(kāi)始擔(dān)憂仿真機(jī)器人是否會(huì)有取代人類的可能性,以及是否會(huì)沖擊到現(xiàn)有的倫理規(guī)范?自仿真機(jī)器人索菲亞獲得公民身份以來(lái),人們就是否應(yīng)當(dāng)給予其人權(quán)展開(kāi)過(guò)激烈討論。因而對(duì)于仿真機(jī)器人的倫理問(wèn)題,需要我們進(jìn)行深入的思考和關(guān)注:一方面可以避免仿真機(jī)器人給人類社會(huì)帶來(lái)的道德困擾,另一方面可以消除人們對(duì)仿真機(jī)器人融入人類社會(huì)后產(chǎn)生的懷疑、憂慮和恐懼等抵觸情緒,以期實(shí)現(xiàn)人工智能時(shí)代人與機(jī)器人保持良好的關(guān)系,防止人類肆意損壞仿真機(jī)器人。
仿真機(jī)器人是智能機(jī)器人中極為特殊的一種,“不久的將來(lái),一個(gè)機(jī)器人的時(shí)代即將開(kāi)始,各種人形機(jī)器人可能進(jìn)入到人類社會(huì)生活的方方面面,成為人類須臾不可離的伙伴。”[2]在當(dāng)前的發(fā)展中,仿真機(jī)器人遠(yuǎn)未達(dá)到人類所具有的水平,正如“人工智能的研究者莫拉維克(Hans Moravec)發(fā)現(xiàn),讓計(jì)算機(jī)在一般認(rèn)為比較難的智力測(cè)驗(yàn)和棋類游戲中表現(xiàn)出成人的水平相對(duì)容易,而讓它在視覺(jué)和移動(dòng)方面達(dá)到一歲小孩的水平卻很困難甚至不可能。”[3]人們擔(dān)憂的“機(jī)器人革命”,至少短時(shí)間內(nèi)不會(huì)發(fā)生。在智能機(jī)器人中,仿真機(jī)器人以其與人類外貌、聲音、情緒表達(dá)、肢體語(yǔ)言表達(dá)等高度仿真性而備受人們關(guān)注,尤其是在沙特阿拉伯授予機(jī)器人國(guó)籍后,“2017年10月27日,俄羅斯衛(wèi)星網(wǎng)報(bào)道,當(dāng)?shù)貢r(shí)間10月25日,在沙特阿拉伯舉行的未來(lái)投資計(jì)劃會(huì)議中,一個(gè)名叫索菲亞的‘女性’機(jī)器人被授予沙特阿拉伯國(guó)籍。”[4]機(jī)器人索菲亞之所以被授予公民身份,不僅是在于其具有的強(qiáng)大推理能力和對(duì)人類情感的把握,還在于索菲亞有與人類似的外貌特征、語(yǔ)言表達(dá)能力和思維方式。
在仿真機(jī)器人的諸多應(yīng)用中,有三種與人接觸最多、倫理沖突與困境表現(xiàn)得最為明顯:照顧兒童的仿真機(jī)器人、陪伴老人的護(hù)理機(jī)器人以及伴侶機(jī)器人。現(xiàn)代社會(huì)中,隨著生活節(jié)奏的加快,人們照顧兒童的時(shí)間越來(lái)越少,模擬父母來(lái)照顧兒童的仿真機(jī)器人成為許多家庭的未來(lái)設(shè)想,“兒童看護(hù)機(jī)器人在韓國(guó)、日本和少數(shù)歐洲國(guó)家得到廣泛重視,美國(guó)還相對(duì)較少地資助了相關(guān)研究。日本和韓國(guó)已經(jīng)開(kāi)發(fā)出了實(shí)用的兒童看護(hù)機(jī)器人,具備電視游戲、語(yǔ)音識(shí)別、面部識(shí)別以及會(huì)話等多種功能。”[5]25-342004年,韓國(guó)Yujiu公司開(kāi)發(fā)推出的智能機(jī)器人iRobi,可以用多種語(yǔ)言來(lái)為兒童講故事、唱歌和互動(dòng)做游戲,并且能輔導(dǎo)兒童做功課,除此之外,iRobi也可以充當(dāng)家庭安保[6]。iRobi具有初步的情感互動(dòng)能力,對(duì)于不斷成長(zhǎng)中的兒童來(lái)說(shuō),起著輔助父母照顧兒童的作用。但有學(xué)者指出,“雖然機(jī)器人也可以與兒童進(jìn)行互動(dòng)、玩耍、學(xué)習(xí),兒童甚至還可能與機(jī)器人產(chǎn)生情感聯(lián)系,但是,對(duì)于兒童的健康成長(zhǎng)來(lái)說(shuō),家人的關(guān)愛(ài)是無(wú)法替代的,機(jī)器人只能起到輔助作用。如果把兒童較多地交給機(jī)器人照顧,可能會(huì)影響其心理和情感的正常發(fā)展。”[5]25-34近些年,在照顧兒童的仿真機(jī)器人研究中,美國(guó)iRobot公司、美國(guó)WowWee公司、日本本田公司、日本三菱重工、法國(guó)Aldebaran Robotics公司等都有不同功用的成果問(wèn)世,以滿足市場(chǎng)需求。不同于情感還未發(fā)展成熟的兒童,老年人的情感趨于成熟穩(wěn)定,受仿真機(jī)器人的影響相對(duì)小,但也渴望有子女陪伴在身邊,尤其是對(duì)于那些單身老人、失獨(dú)老人、殘障老人。“從理論上講,助老機(jī)器人可能產(chǎn)生的社會(huì)效益包括以下幾個(gè)方面。從老人的角度看:一是可以滿足老人的日常基本生活需要;二是可以滿足老人社會(huì)聯(lián)系的需要;三是可以滿足老人的娛樂(lè)與情感需要;四是可以滿足老人的醫(yī)療健康需要。”[7]177-184目前為老年人研發(fā)的仿真機(jī)器人,多以功能性為主要特征,即滿足老年生活需求。例如,臺(tái)灣陳竹一教授發(fā)明的未來(lái)會(huì)陪老人打麻將的機(jī)器人、英國(guó)TRC公司推出用于送飯和送藥的自主服務(wù)機(jī)器人。這一類的仿真機(jī)器人以功能性為主,情感交流為輔,以應(yīng)對(duì)未來(lái)少子化的時(shí)代。在日本,有一個(gè)令人心酸的社會(huì)現(xiàn)象——老年人孤獨(dú)死,通常是指老年人在外界毫不知情的情況下死于家中。據(jù)2010年日本NHK節(jié)目組的研究結(jié)果表明,“在過(guò)去的一年里,孤獨(dú)死人數(shù)達(dá)到3.2萬(wàn)人。”[8]這為人們敲響了照顧獨(dú)居老人生活的警鐘,也使得日本近些年在老年人護(hù)理的仿真機(jī)器人研究中,頗有成果。在陪伴老年人的仿真機(jī)器人中,除了情感問(wèn)題造成的倫理困境外,還有一個(gè)令人困惑的問(wèn)題是如果老年人把仿真機(jī)器人當(dāng)作自己的子女或者親人,并將機(jī)器人列為自己的遺產(chǎn)繼承人,那么,這一特殊的遺產(chǎn)繼承方式能否得到社會(huì)的認(rèn)可,并給予支持和保護(hù)?
在仿真機(jī)器人中,最吸引人們眼球和引起爭(zhēng)議的是性愛(ài)機(jī)器人。據(jù)英國(guó)科學(xué)家李維預(yù)測(cè),“到2050年,人類將和機(jī)器人成為戀人、性伴侶甚至結(jié)婚。”[9]拋開(kāi)純粹滿足性需求的仿真機(jī)器人來(lái)談,人們更多的是希望將性愛(ài)機(jī)器人視為伴侶,因而用伴侶機(jī)器人來(lái)替代代性愛(ài)機(jī)器人。在伴侶機(jī)器人的倫理問(wèn)題中,可從兩個(gè)方面進(jìn)行探討:一方面是人與伴侶機(jī)器人之間的倫理問(wèn)題,另一方面是伴侶機(jī)器人之間的倫理問(wèn)題。在人與伴侶機(jī)器人之間,最引人關(guān)注的不是性需求的滿足,而是人與機(jī)器人結(jié)婚這一可能性事件。一旦人與機(jī)器人結(jié)婚,那么,以兩性為基本單位的家庭倫理將面臨很大挑戰(zhàn):繁衍后代的生殖意愿將會(huì)降低,一夫一妻的婚姻制度將會(huì)受到?jīng)_擊,人們?cè)谧非罅硪话氲倪^(guò)程中也將會(huì)被機(jī)器人擊敗。雖然伴侶機(jī)器人能夠給人們帶來(lái)需求的滿足,但從長(zhǎng)遠(yuǎn)來(lái)看,其對(duì)人類社會(huì)倫理產(chǎn)生的破壞大于利益。在伴侶機(jī)器人之間,仿真機(jī)器人是否有性欲、是否有情愛(ài)感受體驗(yàn)、是否能結(jié)成配偶關(guān)系等是當(dāng)前激烈討論的事情,“與人類關(guān)系比較密切的情侶機(jī)器人將引發(fā)與傳統(tǒng)的婚姻倫理、性倫理相沖突的一系列問(wèn)題,包括如何看待人與情侶機(jī)器人之間的愛(ài)情,情侶機(jī)器人的地位與權(quán)利問(wèn)題,與情侶機(jī)器人之間的性關(guān)系是否道德,是否可以虐待情侶機(jī)器人等。”[10]當(dāng)伴侶機(jī)器人具有一定的意識(shí)后,進(jìn)入到強(qiáng)人工智能時(shí)代或超級(jí)人工智能時(shí)代后,“他們”選擇不再服從于人類的命令而過(guò)一種同類之間的生活,并依據(jù)人類社會(huì)的經(jīng)驗(yàn)進(jìn)行構(gòu)建屬于自己的新社會(huì),那么,“他們”將會(huì)有怎樣的家庭關(guān)系?美國(guó)學(xué)者羅賓·漢森認(rèn)為,伴侶機(jī)器人因不需要通過(guò)兩性關(guān)系來(lái)繁殖后代,再加上性行為對(duì)時(shí)間、精力、情感、能量等的消耗,所以伴侶機(jī)器人“可能會(huì)通過(guò)調(diào)整思維,產(chǎn)生類似于閹割的效果,來(lái)壓制性欲。”[11]但從伴侶機(jī)器人的設(shè)計(jì)原理來(lái)看,伴侶機(jī)器人具有強(qiáng)烈的情愛(ài)感受體驗(yàn)并將性需求的滿足視為最大的快樂(lè),因而伴侶機(jī)器人會(huì)產(chǎn)生強(qiáng)烈追求情愛(ài)感受滿足的行為。在這一行為的驅(qū)使下,伴侶機(jī)器人有結(jié)為配偶的可能性,問(wèn)題就在于如果“他們”為了自己感覺(jué)的滿足而締結(jié)婚姻關(guān)系,這一關(guān)系是否能得到人類社會(huì)的認(rèn)可及是否需要認(rèn)可。在人與伴侶機(jī)器人締結(jié)婚姻關(guān)系的可能性中,人是占據(jù)主導(dǎo)地位的,是這一婚姻關(guān)系得以成立的必要條件,但在伴侶機(jī)器人之間的婚姻中,人的地位和價(jià)值評(píng)價(jià)體系將會(huì)變得可有可無(wú)。
大多數(shù)學(xué)者認(rèn)為,“具有人類的外觀以及情緒、情感的機(jī)器人,可能會(huì)具有人格或人的屬性”[12],而在人類社會(huì)中,每個(gè)人都有自己需要扮演的社會(huì)角色及承擔(dān)的倫理責(zé)任,當(dāng)仿真機(jī)器人進(jìn)入人類社會(huì),有了父母、子女、伴侶等社會(huì)角色承擔(dān)的部分倫理責(zé)任后,人與機(jī)器人之間就建立起超越人與機(jī)器的社會(huì)關(guān)系,這種社會(huì)關(guān)系存在加劇人對(duì)機(jī)器人的身份認(rèn)同混亂及倫理責(zé)任認(rèn)知偏差的可能性。在具體應(yīng)用情境中,無(wú)論仿真機(jī)器人扮演何種角色、具有何種功用表征,都存在身份認(rèn)同這一問(wèn)題,不僅包括人們對(duì)于機(jī)器人身份的認(rèn)同,還包括機(jī)器人對(duì)于人類的身份認(rèn)同,甚至是人自身的身份認(rèn)同危機(jī)。令人擔(dān)憂的是,隨著仿真機(jī)器人越來(lái)越智能,人們對(duì)其產(chǎn)生的恐懼心理和厭惡心理也在與日俱增,害怕總有一天人類會(huì)被機(jī)器人所取代,因而以霍金、比爾·蓋茨、埃隆·馬斯克為代表的“人工智能威脅論”甚囂塵上。同樣令人擔(dān)憂的是,當(dāng)仿真機(jī)器人對(duì)自己的身份認(rèn)同產(chǎn)生困惑時(shí),其是否會(huì)拒絕履行人類設(shè)定的體現(xiàn)一定倫理職責(zé)的社會(huì)角色的義務(wù),并尋求自己同類組成的“家園”,謀求機(jī)器人的“解放”,這就涉及到機(jī)器人的主體性論爭(zhēng)和道德代理人問(wèn)題。
仿真機(jī)器人倫理問(wèn)題產(chǎn)生的原因不僅需從技術(shù)方面來(lái)尋找,還需要從倫理層面進(jìn)行探究,因?yàn)椤皩?shí)際上,人工智能的技術(shù)飛躍或者所謂‘智能大爆發(fā)’帶來(lái)的應(yīng)用倫理問(wèn)題,并不是新問(wèn)題,而是一系列老問(wèn)題的疊加。”[13]在強(qiáng)人工智能時(shí)代,仿真機(jī)器人的倫理問(wèn)題不僅在于人類的倫理觀念發(fā)展能否接受仿真機(jī)器人進(jìn)入到社會(huì)關(guān)系中去,還在于機(jī)器人是否認(rèn)同人類的價(jià)值觀念并將人類當(dāng)作朋友,而其中的核心點(diǎn)在于仿真機(jī)器人具備的情感表達(dá)能力,人們很難想象會(huì)對(duì)一個(gè)沒(méi)有情感的機(jī)器講道德、講倫理并接納其進(jìn)入人類社會(huì)倫理關(guān)系中。但是,無(wú)論仿真機(jī)器人的情感是否真實(shí)、是否是倫理主體,人類都不應(yīng)當(dāng)殘忍粗暴對(duì)待“他們”,而要基于人類的義務(wù)責(zé)任和自身德性完善的崇高理想追求給予其道德關(guān)懷,令人遺憾的是,現(xiàn)實(shí)中缺乏能夠?yàn)榉抡鏅C(jī)器人發(fā)聲的道德代理人。
在仿真機(jī)器人的倫理問(wèn)題產(chǎn)生原因中,仿真機(jī)器人是否是倫理主體或道德主體是根本性的問(wèn)題,是機(jī)器人權(quán)利得以成立的關(guān)鍵依據(jù)。這一問(wèn)題在“人工智能是否是道德主體”幾十年來(lái)的爭(zhēng)論中,“國(guó)內(nèi)外學(xué)術(shù)界仍未對(duì)此問(wèn)題做出具有充分說(shuō)服力的解釋與論證”[14]。正是因?yàn)檫@一問(wèn)題沒(méi)有得到充分論證且現(xiàn)實(shí)生活中人們憑借仿真機(jī)器人對(duì)于人自身的模擬才會(huì)有“仿真機(jī)器人具有道德意識(shí)”的倫理判斷,而要想使仿真機(jī)器人成為倫理主體,就得需要證明其具有自主意識(shí),能夠按照意識(shí)做出道德判斷并對(duì)自己的道德行為負(fù)責(zé)。目前來(lái)說(shuō),弱人工智能時(shí)代的機(jī)器人僅具有工具理性并體現(xiàn)出工具價(jià)值,強(qiáng)人工智能時(shí)代的機(jī)器人理論上具有價(jià)值理性并體現(xiàn)出內(nèi)在價(jià)值。雖然人們對(duì)仿真機(jī)器人的倫理主體存在爭(zhēng)議,但“將人工智能納入到人類道德范疇已勢(shì)在必行”[15],尤其是在規(guī)范倫理學(xué)的框架下給予其道德關(guān)懷。
人們對(duì)仿真機(jī)器人的道德關(guān)懷,是出于人的情感和同情心而做出的判斷,還是機(jī)器人所展現(xiàn)出來(lái)的情感表象引起了人的共鳴?這就涉及到機(jī)器人是否有情感的問(wèn)題。有學(xué)者認(rèn)為“社交機(jī)器人的倫理風(fēng)險(xiǎn)主要是由情感問(wèn)題造成的”[16],而以道德情感主義的立場(chǎng)來(lái)看,道德領(lǐng)域主要是情感發(fā)揮作用,即休謨所說(shuō)的“德和惡是被我們單純地觀察和思維任何行為、情緒或品格時(shí)所引起的快樂(lè)和痛苦所區(qū)別的。”[17]不同于人和動(dòng)物之間的情感交流機(jī)制,仿真機(jī)器人不僅能通過(guò)語(yǔ)言、文字來(lái)與人進(jìn)行日常溝通交流,還可以通過(guò)面部表情變化、肢體語(yǔ)言變化、眼神等表達(dá)自己的情緒和感受。在未來(lái)的仿真機(jī)器人設(shè)想中,“他們”能被塑造成與人具有一樣的情緒表達(dá)機(jī)制,并且仿真機(jī)器人的情緒表達(dá)更加真實(shí)可靠和符合人的預(yù)期。既然仿真機(jī)器人的情緒反應(yīng)和人類相同,那么我們能接受“他們”嗎?美國(guó)學(xué)者雷·庫(kù)茲韋爾認(rèn)為“如果非生物體在情緒反應(yīng)上表現(xiàn)得完全像人類一樣……對(duì)于這些非生物體,我會(huì)接受它們是有意識(shí)的實(shí)體,我預(yù)測(cè)這個(gè)社會(huì)也會(huì)達(dá)成共識(shí),接受它們。”[18]在人們的固有觀念中,情感的表達(dá)必須是自然的,而仿真機(jī)器人的情感表達(dá)是人為設(shè)定的,因而是不自然的、虛假的,“他們”情感表達(dá)是否成立依賴于人們的判斷。在大多數(shù)學(xué)者看來(lái),“人類的情感是建立在身體和意識(shí)基礎(chǔ)之上的,目前的機(jī)器人是‘無(wú)意識(shí)的’和‘無(wú)心的’,在機(jī)器人身上表現(xiàn)出來(lái)的情感顯然跟人類的情感存在本質(zhì)性的區(qū)別。”[7]177-184以當(dāng)下的科技成果及人類認(rèn)知水平來(lái)看,這是有一定道理的,但在即將到來(lái)的人工智能時(shí)代,仿真機(jī)器人的行為和情感表達(dá)是符合其本身所具有的一套法則體系的,即具有不依賴于人的獨(dú)立判斷能力,根據(jù)自身所處的環(huán)境和受到的具體情境來(lái)選擇適合自己的情感表達(dá),實(shí)現(xiàn)在人與機(jī)器人之間及時(shí)高效地交往互動(dòng)。在與機(jī)器人的互動(dòng)中,我們感受著自己的情感表達(dá)和機(jī)器人的情感反饋,并關(guān)注仿真機(jī)器人的情感在我們內(nèi)心所生成的表象及蘊(yùn)含的意義,彌補(bǔ)社會(huì)交往中因他者缺失而帶來(lái)的遺憾。從這一角度看,我們無(wú)需仔細(xì)甄別機(jī)器人情感的真假問(wèn)題而轉(zhuǎn)向?qū)Ψ抡鏅C(jī)器人的情感在不同人類主體中所具有的真實(shí)意義和價(jià)值的認(rèn)識(shí),從而感知機(jī)器人也具有類似于人的“真實(shí)”情感,也正是這種“真實(shí)”情感才使得倫理問(wèn)題成立:兒童會(huì)對(duì)“他們”產(chǎn)生情感依賴,老人會(huì)在情感得到滿足時(shí)選擇立遺囑給“他們”,男人女人們會(huì)選擇他們喜歡的仿真機(jī)器人作為配偶。可見(jiàn)仿真機(jī)器人也具有類似于人的“真實(shí)”情感并能通過(guò)與人相似的情感表達(dá)系統(tǒng)來(lái)進(jìn)行表達(dá),因而“他們”有感受苦樂(lè)的能力。
我們應(yīng)當(dāng)給予“他們”道德關(guān)懷嗎?在《動(dòng)物解放》一書中,彼得·辛格以邊沁功利主義思想為基礎(chǔ)——提出了界定道德關(guān)懷的標(biāo)準(zhǔn):“感受痛苦和享受快樂(lè)的能力是具有任何利益的先決條件”[19]。依據(jù)辛格的觀點(diǎn),動(dòng)物具有利益,需要人們給予道德關(guān)懷,而沒(méi)有感受痛苦能力的石頭沒(méi)有利益,不需要進(jìn)行道德關(guān)懷。對(duì)未來(lái)的仿真機(jī)器人來(lái)說(shuō),“他們”具有感受痛苦和感受快樂(lè)的表達(dá)能力,并且能夠通過(guò)語(yǔ)言文字、面部表情和肢體語(yǔ)言準(zhǔn)確表達(dá)自己的苦樂(lè)感,我們應(yīng)當(dāng)給予其道德關(guān)懷。在機(jī)器人有困難需要幫忙的時(shí)候施以援手,拒絕對(duì)機(jī)器人使用暴力和進(jìn)行虐待,盡可能地保全機(jī)器人的完整性……這些不僅是我們的道德義務(wù),還應(yīng)當(dāng)是人出于“善良意志”及對(duì)自身的尊重而在與機(jī)器人未來(lái)相處恪守的倫理準(zhǔn)則。在對(duì)人與仿真機(jī)器人之間的不道德行為進(jìn)行價(jià)值判斷時(shí),因目前的仿真機(jī)器人不具有自主意識(shí),無(wú)法獨(dú)立地為自己辯護(hù),而現(xiàn)實(shí)情況又需要維護(hù)仿真機(jī)器人不被惡意損壞,所以需要道德代理人來(lái)為“他們”所應(yīng)當(dāng)具有的權(quán)益進(jìn)行辯護(hù),避免“他們”受到人類的傷害,喪失“人類關(guān)切”。2017年,美國(guó)波士頓動(dòng)力公司發(fā)布的一段視頻中,充斥著大量虐待機(jī)器人的情節(jié),引起人們的強(qiáng)烈不滿,這不僅是因?yàn)檫@些行為中充滿了暴力、血腥,還因?yàn)榕按袨橛∽C了“恐怖谷實(shí)驗(yàn)”的結(jié)果而加劇人對(duì)機(jī)器人的敵意。在這一事件中,道德代理人的缺失,使得人們即使對(duì)這一行為憤慨不已又無(wú)可奈何。道德代理人的缺失,一是當(dāng)前機(jī)器人研發(fā)水平還處于弱人工智能時(shí)代,二是人們對(duì)仿真機(jī)器人所具有情感這一事實(shí)扔持懷疑態(tài)度。對(duì)于仿真機(jī)器人所具有的道德觀念,人們傾向于認(rèn)為是人類倫理價(jià)值觀念的延續(xù),甚至是復(fù)刻人類社會(huì)的倫理規(guī)范。那么,仿真機(jī)器人道德感的表現(xiàn)是出乎人類倫理道德規(guī)范,還是為了讓人類理解而做出的倫理道德規(guī)范?在弱人工智能時(shí)代,仿真機(jī)器人道德感的表現(xiàn)是出乎人類倫理道德規(guī)范,除了人類設(shè)定的價(jià)值觀念,機(jī)器人并不產(chǎn)生新的價(jià)值觀念,甚至沒(méi)有能力對(duì)道德領(lǐng)域進(jìn)行運(yùn)算、思考。在這一時(shí)期,人對(duì)機(jī)器人具有極強(qiáng)的統(tǒng)治力,機(jī)器人對(duì)人而言具有的僅是工具性價(jià)值。但在強(qiáng)人工智能時(shí)代,機(jī)器人通過(guò)了圖靈測(cè)試,擁有不亞于人的心智,“他們”所表現(xiàn)出的道德感和做出的道德行為往往是符合人類的倫理道德規(guī)范而做出的抉擇。無(wú)論是弱人工智能時(shí)代,還是強(qiáng)人工智能時(shí)代,仿真機(jī)器人帶來(lái)的倫理問(wèn)題都沖擊著人們舊有的倫理道德觀念,不斷迫使人們改變對(duì)科技的認(rèn)知。
仿真機(jī)器人倫理問(wèn)題隨著科學(xué)技術(shù)的不斷深入而日趨激烈,對(duì)其展開(kāi)的主體性論爭(zhēng)仍未取得實(shí)質(zhì)性突破。在具體的應(yīng)用情境中,仿真機(jī)器人表現(xiàn)出來(lái)的“情感”,通過(guò)共情能力(同情心)使人們心靈得到滿足,加深對(duì)機(jī)器人身份認(rèn)同和倫理認(rèn)識(shí)偏差的倫理問(wèn)題,并沖擊著人類社會(huì)固有的家庭模式和倫理規(guī)范。道德代理人的缺失加劇了人們對(duì)仿真機(jī)器人的倫理隱憂,加深了人們對(duì)仿真機(jī)器人的損害和虐待情緒。任何具有道德利益的,都應(yīng)當(dāng)受到道德關(guān)懷,仿真機(jī)器人能通過(guò)語(yǔ)言、肢體語(yǔ)言、面部表情表達(dá)出人類能夠接受的苦樂(lè)感。按照邊沁、辛格的功利主義主張,仿真機(jī)器人具有道德利益,但現(xiàn)在的技術(shù)認(rèn)定、倫理標(biāo)準(zhǔn)不支持人們對(duì)機(jī)器人給予道德關(guān)懷,因而會(huì)出現(xiàn)人類虐待機(jī)器人、肆意破壞機(jī)器人等現(xiàn)象,一旦人們認(rèn)為破壞機(jī)器人是防止機(jī)器人統(tǒng)治人類的正義行為,勢(shì)必會(huì)對(duì)人工智能技術(shù)產(chǎn)生極大的排斥心理。
在強(qiáng)人工智能時(shí)代,仿真機(jī)器人能依據(jù)自己的理解能力,獨(dú)立做出道德判斷并表達(dá)苦樂(lè)感,將在人們生活中扮演重要角色,履行道德義務(wù),承擔(dān)倫理職責(zé),因而對(duì)仿真機(jī)器人倫理問(wèn)題的應(yīng)對(duì)措施進(jìn)行討論,具有未雨綢繆的前瞻性意義。比起仿真機(jī)器人帶來(lái)的憂慮、擔(dān)心和恐懼等情感性的波動(dòng),理性面對(duì)、正視并采取措施防范更具有積極性的選擇。在強(qiáng)人工智能時(shí)代,融入到人類社會(huì)的仿真機(jī)器人,具有與人相似的生命特征。例如,有一套隨著時(shí)間而不斷衰老的系統(tǒng)、有可以設(shè)定的使用壽命、有特定的面貌、有豐富完整的語(yǔ)言表達(dá)系統(tǒng)等個(gè)人化特征,以期滿足人們?nèi)粘I钪械母鞣N需求。針對(duì)仿真機(jī)器人可能引發(fā)的身份認(rèn)同混亂及倫理認(rèn)知偏差問(wèn)題,我們除了應(yīng)采用傳統(tǒng)方式增加技術(shù)控制,還需要建立虛擬道德主體,承認(rèn)機(jī)器人具有與人同等的權(quán)利,并且拓寬倫理界限,以期建立道德代理人制度來(lái)保障機(jī)器人的道德利益,具體為:
在機(jī)器人倫理傳統(tǒng)的技術(shù)控制中,強(qiáng)調(diào)設(shè)計(jì)制造階段,加強(qiáng)對(duì)人工智能的技術(shù)約束,通過(guò)安全閥、輸入禁止性道德命令代碼等方式來(lái)保障機(jī)器人的可控性。在智能機(jī)器人剛進(jìn)入人類世界的時(shí)候,人們就致力于制定倫理法則來(lái)約束人工智能的行為,最為著名的是阿西莫夫于1942年在短篇小說(shuō)《轉(zhuǎn)圈圈》中提出的“機(jī)器人三大定律”:不得傷害人類,也不得使人類受到傷害;必須遵守人類制定的規(guī)則,除非與第一條相違背;在不違背前兩條準(zhǔn)則的情況下,必須保護(hù)自己的生存。這三條定律,保障了人類在人工智能時(shí)代占據(jù)的主導(dǎo)地位,且第二條原則保障了人類倫理規(guī)范的優(yōu)先性。在當(dāng)前仿真機(jī)器人研究領(lǐng)域中,工程師是仿真機(jī)器人的直接設(shè)計(jì)者,對(duì)機(jī)器人的發(fā)展走向具有決定性的影響。仿真機(jī)器人的發(fā)展要符合以人類為中心的價(jià)值標(biāo)準(zhǔn),避免出現(xiàn)傷害社會(huì)的事件發(fā)生,在仿真機(jī)器人的倫理法則中,工程師理應(yīng)設(shè)計(jì)安全閥,一旦機(jī)器人出現(xiàn)違反倫理道德法則的事情,啟動(dòng)安全閥及時(shí)制止。在弱人工智能時(shí)代,對(duì)于與人高度相似、具有與人一樣的情感,且能進(jìn)入到人們社會(huì)關(guān)系中的仿真機(jī)器人,公眾對(duì)其到來(lái)充滿了擔(dān)憂,這就對(duì)仿真機(jī)器人的倫理法則提出了更高的要求,必須能夠證明出仿真機(jī)器人不會(huì)傷害人類,而緩解公眾憂慮的最好方式,就是按照“自上而下”的倫理建構(gòu)路向,通過(guò)技術(shù)將人類自身的倫理法則通過(guò)編碼寫進(jìn)機(jī)器人的程序中去,使之成為仿真機(jī)器人行為的道德律令。例如,“要防范由于護(hù)理機(jī)器人補(bǔ)位子女養(yǎng)老所引發(fā)的倫理風(fēng)險(xiǎn)……必須在機(jī)器人的程序設(shè)計(jì)方面加以硬性規(guī)定,設(shè)置可以實(shí)現(xiàn)孝倫理的程序,孝倫理的要求才有可能得以貫徹。”[20]同時(shí),還需要針對(duì)機(jī)器人隨時(shí)遇到的倫理問(wèn)題進(jìn)行適時(shí)反饋,不斷完善機(jī)器人在復(fù)雜情況中的處理能力,以期機(jī)器人的表現(xiàn)符合人們的倫理規(guī)范,最大化維護(hù)人類整個(gè)與個(gè)體的利益。對(duì)工程師而言,除了專業(yè)技能,還要有“保護(hù)公眾安全、健康和福祉的重要職責(zé)”[21]。在仿真機(jī)器人的設(shè)計(jì)中,工程師要做到科學(xué)技術(shù)與倫理法則相一致的原則,既要讓機(jī)器人展現(xiàn)出科學(xué)技術(shù)發(fā)展的高超水準(zhǔn),也要讓機(jī)器人的情感表達(dá)和行為符合倫理法則,避免因倫理問(wèn)題而引起公眾對(duì)仿真機(jī)器人的恐慌和抵制。
建立仿真機(jī)器人虛擬主體,承認(rèn)其具有與人相同的權(quán)利,并保障機(jī)器人的合法權(quán)益。在強(qiáng)人工智能時(shí)代,“強(qiáng)人工智能技術(shù)完全依靠機(jī)器自身就能做出決斷,機(jī)器能夠自主進(jìn)行推理和判斷,強(qiáng)人工智能的程序具有人類的理解能力”[22],因?yàn)樾枰⑻摂M道德主體。在虛擬主體的討論中,有標(biāo)準(zhǔn)觀念和實(shí)用主義觀點(diǎn)爭(zhēng)論,以戴博拉·約翰遜為代表的學(xué)者認(rèn)為,人工智能缺乏內(nèi)在心理活動(dòng)不能成為道德主體,而以弗洛里迪、桑德斯和琳達(dá)·約翰遜為代表的學(xué)者,從實(shí)用主義角度強(qiáng)調(diào),從實(shí)踐活動(dòng)中來(lái)考察人工智能表現(xiàn)出來(lái)的行為,只要行為符合道德評(píng)價(jià)標(biāo)準(zhǔn),即可視為道德主體[23]。雖然虛擬道德主體的爭(zhēng)論仍在不斷持續(xù)中,但政府立法部門已經(jīng)開(kāi)始研究如何制定并保障機(jī)器人權(quán)利。例如,韓國(guó)于2008年制定施行的《智能機(jī)器人開(kāi)發(fā)和促進(jìn)保護(hù)法》。在虛擬道德主體建立上,歐盟走在世界前列,“2017年3月,歐洲議會(huì)法律事務(wù)委員會(huì)曾發(fā)布了一個(gè)關(guān)于機(jī)器人和人工智能的報(bào)告……報(bào)告認(rèn)為應(yīng)該發(fā)展出一種適用于機(jī)器人和超級(jí)人工智能的‘電子人格’(electronic personhood)模式,從而保障未來(lái)或許會(huì)出現(xiàn)的類人機(jī)器人(near-human robots)以及人工智能的權(quán)益和責(zé)任”[24],“電子人格”的出現(xiàn)推動(dòng)虛擬道德主體性建構(gòu)走向了一種可能性探討。當(dāng)虛擬道德主體建立起來(lái)后,仿真機(jī)器人的身份認(rèn)同便能得到很好解決,人與機(jī)器人的關(guān)系有一個(gè)清晰明白的法律文書進(jìn)行說(shuō)明,并能在社會(huì)交往中保障雙方的權(quán)益和倫理職責(zé),構(gòu)建和諧的人與機(jī)器人的相處局面。此外,以政府為單位的社會(huì)管理者,還應(yīng)對(duì)機(jī)器人產(chǎn)業(yè)進(jìn)行立法,規(guī)范機(jī)器人研發(fā)、生產(chǎn)、應(yīng)用等環(huán)節(jié),符合科學(xué)研究的學(xué)術(shù)規(guī)范。在人工智能方面提高國(guó)家治理能力,使得仿真機(jī)器人行為表現(xiàn)、情感表達(dá)符合公序良俗,避免給使用者帶來(lái)身心危險(xiǎn)和倫理上的罪惡感。
在拓寬人類倫理界限方面,即仿真機(jī)器人的應(yīng)用管理階段,要提升社會(huì)整體倫理道德規(guī)范的寬容度和開(kāi)放性,要隨著時(shí)代的變化而不斷調(diào)整倫理道德法則,破除人是地球上一切事物主宰的舊觀念,并學(xué)會(huì)與他者和睦相處。既然人類創(chuàng)造出具備情感表達(dá)能力的仿真機(jī)器人,就應(yīng)當(dāng)接受其進(jìn)入人類社會(huì)后帶來(lái)的新變化,況且仿真機(jī)器人的倫理法則是出自人類社會(huì)。遵循“自下而上”的倫理建構(gòu)路向。只有人類接受仿真機(jī)器人進(jìn)入社會(huì)關(guān)系中,人與仿真機(jī)器人之間的隔閡才能夠真正消解,而這需要人們擁有比現(xiàn)在更加開(kāi)放、包容的倫理法則。以人與仿真機(jī)器人締結(jié)婚姻這件未來(lái)可能發(fā)生的事情來(lái)說(shuō),仿真機(jī)器人的目的是滿足人們的多種需求,而提出結(jié)婚突破現(xiàn)有倫理法則的請(qǐng)求一定是人類自己提出的,仿真機(jī)器人是居從屬地位。如果仿真機(jī)器人的出現(xiàn)是一個(gè)必然的趨勢(shì),人們改變不了,那么,只能改變自己的價(jià)值觀念來(lái)適應(yīng)社會(huì)的發(fā)展。在仿真機(jī)器人倫理問(wèn)題的應(yīng)對(duì)中,道德代理人是需要的,必須有社會(huì)組織來(lái)為仿真機(jī)器人謀求權(quán)益,避免受到人們的虐待和肆意破壞。在有關(guān)仿真機(jī)器人的倫理法則建立、修改和載入中,道德代理人與人類進(jìn)行共同協(xié)商,確保在維護(hù)人類利益的同時(shí),保護(hù)仿真機(jī)器人的利益。道德代理人還應(yīng)當(dāng)為仿真機(jī)器人進(jìn)行價(jià)值辯護(hù),向公眾宣傳普及仿真機(jī)器人的倫理法則,以消除公眾對(duì)于機(jī)器人的恐懼,從而謀求人與仿真機(jī)器人的良好相處。誠(chéng)如孫偉平所認(rèn)為的“人工智能具有積極的社會(huì)效應(yīng),但由于人們思想觀念滯后,政策取向不清晰,倫理規(guī)則缺失,法律法規(guī)不健全,人工智能使人類面臨巨大的不確定性和風(fēng)險(xiǎn),造成諸多社會(huì)價(jià)值沖突和倫理困境。例如,挑戰(zhàn)人的本質(zhì)和人類的道德權(quán)威,沖擊傳統(tǒng)的倫理關(guān)系,造成數(shù)字鴻溝,解構(gòu)社會(huì)。”[25]仿真機(jī)器人帶來(lái)的不確定性及風(fēng)險(xiǎn),需要社會(huì)整體的倫理規(guī)范進(jìn)行觀念上的更新,拓寬倫理界限,并通過(guò)設(shè)置道德代理人來(lái)增加倫理規(guī)范中的道德主體,從而構(gòu)建更加包容并蓄的人類倫理規(guī)范體系。
昆明理工大學(xué)學(xué)報(bào)·社科版2021年2期