張春曉,陳志文,李良宇
研究 Research
仿人類服務(wù)機器人的道德倫理研究
張春曉1,陳志文2,李良宇2
(1. 陸軍防化軍代局;2. 宜昌地區(qū)防化軍代室)
人工智能體尤其是仿人類服務(wù)機器人的出現(xiàn),引發(fā)了人類對人工智能體道德和機器人倫理問題的思考。聚焦仿人類服務(wù)機器人道德倫理問題研究,有助于修復(fù)人工智能體在實踐應(yīng)用中的諸多漏洞,尤其體現(xiàn)在對人類的傷害問題上。通過闡述仿人類服務(wù)機器人的定義及其發(fā)展歷程,分析仿人類服務(wù)機器人的道德困境,探討仿人類服務(wù)機器人道德研究發(fā)展新動態(tài),進而引發(fā)對人工智能倫理道德問題的關(guān)注并尋求解決方法。
機器人;道德;倫理
當(dāng)前世界計算機技術(shù)的進步,極大地提高了生活效率,從而提高了生產(chǎn)率。同時,技術(shù)進步影響了現(xiàn)有的社會秩序和環(huán)境,特別是傳統(tǒng)文化的歷史和現(xiàn)實,以及道德和倫理機制、標(biāo)準(zhǔn)。在社會的倫理方式中,認識到諸如機器人倫理之類的相關(guān)道德標(biāo)準(zhǔn),然后改善了社會倫理體系,提高了社會道德的整體水平。如何促進和實現(xiàn)人類幸福的目標(biāo)是我們需要考慮的另一個問題。如今,科學(xué)技術(shù)不斷進步,人們正在經(jīng)歷“第三次工業(yè)革命”,這是計算機和網(wǎng)絡(luò)的一場革命,也是許多領(lǐng)域的一場革命,是一個多元化領(lǐng)域的發(fā)展。機器人的不斷發(fā)展同時帶來了許多領(lǐng)域的技術(shù)創(chuàng)新。由于機器人的應(yīng)用,不可避免地會出現(xiàn)許多問題,尤其是在機器人倫理方面。為此,需要找出正確處理機器人與人類社會關(guān)系的途徑,控制機器人開發(fā)的倫理問題。
需要澄清的是,我們熱切期待技術(shù)的進步,特別是在計算機開發(fā)方面。但是,我們這里不討論IT行業(yè)是否應(yīng)該進一步發(fā)展。這是因為它不能解決真正的問題。但這是認真對待此問題并嘗試消除弊端的好方法。否則,請采取預(yù)防措施,以便能夠迅速有效地預(yù)警機器人發(fā)展帶來的重大社會和道德問題。例如,在軍用機器人領(lǐng)域,我們可以預(yù)測軍用機器人帶來的許多優(yōu)點和缺點[1]。因此,可以在特定的道德體系中對其進行有效控制,充分利用機器人服務(wù)人類社會,避免負面影響。
每種新技術(shù)都有自己的優(yōu)點和缺點。隨著機器人技術(shù)的發(fā)展,人機交互的意識增強,人機之間的物理界限逐漸模糊并融合。當(dāng)人們與機器人相處時,就會出現(xiàn)問題,包括道德問題。
隨著機器人進入工廠,工人減少了,這不可避免地導(dǎo)致失業(yè)和人們的就業(yè)焦慮。但這使工廠管理者的管理更為簡便,至少減輕了對管理人員帶來的不確定因素擔(dān)憂。例如,可以在許多新工廠中使用機器人,而不是用一流的工人來工作。新工廠需要維持適當(dāng)數(shù)量的工人或在現(xiàn)有工廠中安裝機器人,以便雙方都可以參與工作,機器人可以降低制造成本以保持業(yè)務(wù)競爭力。但是,這種削減成本的方法必須考慮到員工和管理層的集體利益。管理人員可以考慮培訓(xùn)現(xiàn)有員工以從事新工作,這樣可以大大降低失業(yè)風(fēng)險。與人進行重復(fù)行為相比,機器人具有顯著優(yōu)勢。但是,一些工作不能由目前缺乏推理能力和決策能力的機器人代替工人[2]。
通常,在制造業(yè)中,科學(xué)家必須設(shè)計能夠執(zhí)行最繁瑣和危險的工作的機器人。同時,人類工人必須做一些需要判斷和解決問題的工作。但是,在設(shè)計自動化工廠時,人和機器人工人在一起工作時會遇到較小的復(fù)雜情況。另外,我們相信(原則上)機器人可以完全替代人工,因此我們可能擔(dān)心企業(yè)領(lǐng)導(dǎo)者會用新的機器人替代他們。出于這種預(yù)設(shè),工人必然不高興,并可能從事破壞性的機器人活動。相關(guān)事件是19世紀(jì)英國工人銷毀機器人,因此管理人員必須負有道德義務(wù),授權(quán)工人從事一定范圍的工作,并證明智力能力是機器人所不具備的人的身份。
一方面,家庭倫理問題源于機器人的發(fā)展。一個例子是機器人教育者,其目標(biāo)是促進新生兒和兒童的健康成長,并保護他們在成長過程中不受傷害。但是,育兒和機器人監(jiān)護之間存在重要區(qū)別,父母的監(jiān)護和情感是不可替代的。識別機器人需要照顧孩子,以防止孩子受到傷害。但是,也要重視機器人陪伴孩子的問題,以防止孩子的性格異常發(fā)展[3]。
另一方面,人形機器人帶來的倫理問題。日本之前已經(jīng)展示了一種仿人機器人,它不僅可以模仿人的眨眼和呼吸,還可以與人交流。但是他還可以查看和傳播信息,并展示一些特定的動作以更接近人的特質(zhì)。如果這個類人機器人具有一定的人類道德,那么無論人們是否相信他,他將如何定義與人的道德關(guān)系?一個真實的人,它是人工制品,還是應(yīng)該被視為人造人?
此外,若機器人取代了很多人工,那么如何考慮機器人與人之間的特殊關(guān)系?有幾種服務(wù)機器人可以照顧老人、陪逛街(如購物),與他們交流并保持依賴。但是,如何讓這些獨立的機器人撒謊或發(fā)現(xiàn)是否有任何副作用?將來大型機器人的發(fā)展會與今天的計算機一樣受歡迎,并且不可避免地會產(chǎn)生大量的電子廢物,從而導(dǎo)致大量的放射性污染[4]。
在古希臘,思想家、哲學(xué)家就注意到自然物體和人工物體之間的區(qū)別。柏拉圖以一張床為例,提出了一張床的三種含義:一個具有基本意義的床;一個是由木匠制作的物質(zhì)意義的床;一個是畫家繪畫的床,是一種影像的模仿。從物體的存在來看,亞里士多德描述床作為人造物體,解釋了與自然之間的區(qū)別。有些對象存在,某些對象是自然存在的,而某些是出于其他原因而存在的。機器人是專門由人手創(chuàng)造的,它們也可以稱為人造物體,因為它們的存在具有存在的意義,因而相關(guān)倫理研究也具有研究價值。這種價值和價值理論必須反映在道德形成中,并可能產(chǎn)生倫理道德影響[5]。
1900年,胡塞爾發(fā)表了“回到最本質(zhì)”的口號。海德格爾隨后談到了20世紀(jì)30年代和50年代許多“物”的探討。在20世紀(jì)60年代,學(xué)者Roland Bartes和Jean Baudry、L-lar關(guān)注“物”對象的解釋。在20世紀(jì)90年代,唐·艾德(Don Aide)提倡荷蘭研究人員維貝克提出的口號“后現(xiàn)象學(xué)”和“物理倫理學(xué)”,Verbeck在21世紀(jì)進一步推動了這項研究[6]。
對“物”對象倫理反映了倫理的重大變化。物轉(zhuǎn)倫理消除了單純的人類倫理的傾斜,而是研究了物體的道德和倫理。客體倫理是哲學(xué)研究的重要組成部分,它不僅研究客體的存在,而且還研究物質(zhì)倫理的存在。與古典道德責(zé)任相反,在實踐中,“物質(zhì)道德”是道德責(zé)任。隨著機器人的飛速發(fā)展,我們與人類的關(guān)系變得越來越緊密,無論是人類還是身體,理性、感官、有意識或無意識的人。無論是道德還是不道德,我們都需要定義道德規(guī)范,并且我們需要探索相關(guān)倫理問題[7]。
通常,機器人可以分為基本機器人和高級機器人。人與機器人之間的主要關(guān)系是操作與被操作之間的關(guān)系,而問題僅在物理和技術(shù)層面出現(xiàn)。過去,曾發(fā)生過因機器人而導(dǎo)致原發(fā)性傷害的案例。但是錯誤的舉動和先進的智能機器人可以自行處理信息,并且其開發(fā)更加人性化和可識別性。在某些方面,如生產(chǎn)力方面,它超越了人類。當(dāng)然,這種現(xiàn)象越來越明顯,并突出了越來越多的問題。解決這些問題是將來開發(fā)機器人時的重要方面。
實際上,物質(zhì)倫理是哲學(xué)和倫理學(xué)領(lǐng)域物質(zhì)變化的反映,機器人學(xué)是物質(zhì)倫理學(xué)的一個領(lǐng)域,它限制了機器人的發(fā)展和滿足“良好”需求的機器人的發(fā)展。有道德義務(wù)。物質(zhì)倫理從宏觀經(jīng)濟的角度來看,智能機器人和個人在社會技術(shù)體系中承擔(dān)著巨大的責(zé)任,這是大技術(shù)時代道德責(zé)任的本質(zhì)。
在當(dāng)今社會中,一些機器人護士正在迅速發(fā)展,并且一些人能夠照料老年人和兒童,與之交流并與之成長。某種靈魂伴侶或靈魂伴侶如果我們將其定義為“事物”,邏輯和自律是否會對人們造成混亂和危險?不可能意識到自己的行為并關(guān)心他人。它與簡單的編程或控制物理機的能力有關(guān)。在這里最好將其視為“人的”或“人道的”:人們在道德上是自律的,因此他們不會破壞道德成就。當(dāng)然,對于機器人來說,即使是最完整的程序也會出錯,因此,還必須定義道德獎勵。例如,現(xiàn)代機器人護士在照顧老人或與孩子玩耍時是否會產(chǎn)生潛在的負面印象(例如說謊者),從而間接影響人們的利益?再例如,某些軍事機器人甚至普通的戰(zhàn)斗人員也無法區(qū)分,這些殺人機器必須符合道德標(biāo)準(zhǔn),即以道德的方式建造機器人。但是,由于機器人與人類協(xié)作不當(dāng)而引起的問題,必須與機器人本身或設(shè)計者有關(guān),這些倫理都值得研究。
所謂的“本體情感”被認為是“情感”,是現(xiàn)實和生活的最高基礎(chǔ),這一理論是由李澤厚先生提出的。他認為情感本體不再是一個本體,而是從其原始意義上來說不是本體。情感倫理,仍然被稱為本體論,無非就是生活的真相,存在的現(xiàn)實及其最終含義。
討論機器人與人類之間的倫理關(guān)系的切入點是探索“新生代工具”與“新生代情感”之間的關(guān)系。根據(jù)李澤厚的積累理論,本體工具的不斷積累導(dǎo)致了“本體”的形成。工具從數(shù)量變化到質(zhì)變的過程逐漸產(chǎn)生了心理本體,然后對情感本體進行了評估。但是,“積累理論”僅研究該設(shè)備對身心的影響的一維含義。英國學(xué)者Numenon提出受“情感”對“思想與身體”的價值和重要性的限制,對于“工具”,人是自然與社會的統(tǒng)一。人類技術(shù)在機器人發(fā)展歷史上占主導(dǎo)地位,因為精神和情感本體來自工具本身,而人類屬于歷史存在。因為機器人是由情感人士創(chuàng)造的,所以可以將其稱為可行的道德傳統(tǒng)。然后,機器人可以在人的情感框架內(nèi)積累,逐漸將情感和道德責(zé)任分配給自身本體。
在情感形而上學(xué)中,情感已成為重要話題,西方和中國哲學(xué)都沒有考慮以情感為中心的辯論,甚至在現(xiàn)代機器人技術(shù)的發(fā)展中都沒有考慮“本體論”,僅靠道德約束是不足以替機器人“情感”的。還有一方面,機器人應(yīng)服務(wù)于人類,只有人類賦予機器人這種“意義”,才能實現(xiàn)人類與機器人之間的和諧[8]。
所謂的機器人法是關(guān)于為機器人建立行為或道德規(guī)則,以防止傷害或虐待人。最著名的機器人是阿茲莫夫的《機器人三定律》,然后他又添加了一個。機器人不得傷害人類或在人類受到傷害時坐視不管。
關(guān)于《機器人法》應(yīng)當(dāng)包括有關(guān)機器人使用和應(yīng)用的法律。實際上,在機器人技術(shù)領(lǐng)域,應(yīng)用法律和技術(shù)術(shù)語變得越來越困難。機器人法是對機器、人工智能和先進機器人技術(shù)的獨立性的法律評估和討論。討論是對機器人必須履行的法律權(quán)利和責(zé)任的重新評估(不僅僅是傳統(tǒng)的法律)。
韓國政府制定了世界上第一個《機器人倫理憲章》。《憲章》認為,機器人應(yīng)該服從命令,并且不損害人類利益。當(dāng)然,人類不能濫用機器人。必須充分尊重并明智地使用機器人的利益。此外,經(jīng)濟產(chǎn)業(yè)省還發(fā)布了《下一代機器人安全指南(草案)》,用于指導(dǎo)未來機器人的研究和開發(fā)行為以及未來行為。最終,將避免所有機器人必須遵守的法律規(guī)則批準(zhǔn)智能機器人,以免將來遭受“作弊”機器人騷亂而對人造成傷害,機器人定律將成為關(guān)于機器人未來發(fā)展的討論中心[9]。
機器人的發(fā)展應(yīng)當(dāng)順應(yīng)人類發(fā)展這一趨勢,智能機器人的普及將成為未來發(fā)展的趨勢。支持這些理論,從材料轉(zhuǎn)換到材料倫理學(xué)和機器人倫理學(xué),在面對人機交互時可以朝著和諧的方向發(fā)展。在機器人體內(nèi)融入人類法律框架,創(chuàng)建機器人開發(fā)系統(tǒng)的基礎(chǔ)。以人類的“道德、愛、合法”為基調(diào),奠定機器人倫理體系標(biāo)準(zhǔn)并加快人類社會的發(fā)展[10]。
首先,機器人的本質(zhì)并不符合人類傳統(tǒng)的道德規(guī)范,并且在執(zhí)行標(biāo)準(zhǔn)、政策和法律方面也與人類的倫理道德在本質(zhì)上有所區(qū)別。由于經(jīng)濟社會的快速發(fā)展,道德標(biāo)準(zhǔn)經(jīng)常落后于技術(shù)進步,因此,這種狀態(tài)下的倫理研究是“直接解決特定問題”,并應(yīng)從以“人”為出發(fā)點的角度正確地解釋它們。所以,機器人的倫理標(biāo)準(zhǔn)必須堅持統(tǒng)一的價值觀和明確的內(nèi)容,過于具體的細節(jié)并強調(diào)相關(guān)性這是當(dāng)前困難之一。
其次,計算機技術(shù)的飛速發(fā)展大大增加了問題的量級。人們很少對這些相關(guān)問題有時間思考、分類,總結(jié)或進行詳細的改善,這些研究通常落后于其他的社會研究,造成一些實際問題的出現(xiàn)。因此,如何在機器人倫理道德行為產(chǎn)生嚴(yán)重的社會影響之前對其進行評估,以及如何及時填補倫理政策和法規(guī)空白是研究面臨的挑戰(zhàn)。

[1] 樂艷娜.機器人立法的道德悖論[J].環(huán)球,2007(11):62-64.
[2] 李從軍.價值體系的歷史選擇[M].北京:人民出版社,2004:278.
[3] 張奇志,周亞麗.機器人學(xué)簡明教程[M].西安:西安電子科技大學(xué)出版社,2013:1.
[4] 尤西林.心體與時間:二十世紀(jì)中國美學(xué)與現(xiàn)代性[M].北京:人民出版社,2009:87.
[5] 楊慶峰,閏宏秀.多領(lǐng)域中的物轉(zhuǎn)向及其本質(zhì)[J].哲學(xué)分析,2011,2(1):158-165.
[6] 趙士林.略論“情本體”[J].哲學(xué)動態(tài),2011(6):90-96.
[7] 王紹源,趙君.“物倫理學(xué)”視閡下機器人的倫理設(shè)計:兼論機器人倫理學(xué)的勃興[J].道德與文明,2013(3):135-136.
[8] 亞當(dāng)?斯密.道德情操論[M].北京:商務(wù)印書館,1997.
[9]湯姆?福雷斯特,佩里?莫里森.計算機倫理學(xué):計算機學(xué)中的警示與倫理困境[M].陸成,譯.北京:北京大學(xué)出版社,2007.
[10] 約翰?L?麥凱.倫理學(xué):發(fā)明對與錯[M].丁三東,譯.上海:上海譯文出版社,2007.