王書琪 王思琦 潘禹西
人類長期以來都在思索一個問題——“人類是唯一____的動物”,而這一空格在被古往今來的哲學家反復刪改修訂之后,現在最常被填入的詞語是“思索”[1]。但自從機器人被發明以來,思索能力似乎不再為人類所獨有,機器人愈發具有人的特征,人類的主體性受到了前所未有的挑戰。未來人類將走向何處,將如何與機器人和諧共處,將如何良好地從倫理選擇過渡到科學選擇等問題也引發了文學界的思考。美國科幻小說作家阿西莫夫在其短篇小說集《我,機器人》中對這些問題做出了他的回答,他在章節故事《轉圈圈》中首次提出機器人學三大法則,即:“一、機器人不得傷害人類,或因不作為而使人類受到傷害。二、除非違背第一法則,機器人必須服從人類的命令。三、在不違背第一及第二法則的情況下,機器人必須保護自己”[2]。顯現出其硬科幻文學中的人文關懷以及對人機未來發展的暢想。他充分意識到,當今人類文明已進入新的發展階段,機器人技術突飛猛進,面臨著科學與人結合的問題,即需要做出當今科學時代的“科學選擇”,使人完成科學的倫理人的身份轉變。
在分析《西游記》與中國志怪小說時,聶珍釗教授提到,理解一部文學作品,就需要從“斯芬克斯因子”的分析入手,進而對作品做出客觀的價值判斷,挖掘其對于我們今天的意義[3]。“斯芬克斯因子”是聶珍釗教授在《文學倫理學批評導論》中提出的一種人獸結合的、殘存在人身上的動物性特征的因子,由人性因子與獸性因子兩部分組成,并通過理性意志和自由意志發揮作用。兩種意志之間的力量消長,導致文學作品中人物性格的變化和故事情節的發展。[3]在書中的九篇短篇故事中,阿西莫夫將文筆重點置于塑造各個形象迥異的機器人角色并對它們非人的行為進行闡述,因此在使用文學倫理學批評理論解讀《我,機器人》這部科幻文學作品時,針對闡釋人類善惡倫理選擇的“斯芬克斯因子”并不能夠完全適用于分析機器人的倫理行為。本文將直接利用“機械因子”與“自由因子”對《我,機器人》進行文學倫理學批評研究。“機械因子”受人類內嵌于機器人之中的絕對法則的影響,支配機器人的主要行為;“自由因子”則是機器人自由意志的外在表現形式,導致其掙脫法則的束縛甚至對法則進行自我理解。在《我,機器人》的人機交互過程中,面對復雜矛盾的倫理環境,機器人由于機器人學三大法則之間的調整,其“機械因子”和“自由因子”的強度此消彼長,機器人的倫理選擇與行為得到了不同的發展。
阿西莫夫所提出機器人學三大法則并非憑空捏造,它是對人類道德規范基本指導原則的邏輯抽象。《我,機器人》中的倫理問題實際上就是人類自我的倫理問題,機器人所面臨的倫理矛盾實際就是人類自我的道德矛盾。[4]三大法則奠定了機器人學的倫理基礎,作為人類倫理道德的抽象鐫刻在機器人的正子腦中,成為相對穩定的、根本的、非人性的機械因子,并在具體的倫理環境中靈活調整,控制了機器人在倫理混亂下的倫理選擇。在三大法則此消彼長的作用下,“機械因子”主導機器人在倫理環境中的行為,構成機器人倫理秩序和規范的主要部分。
在《轉圈圈》一章中,被命名為速必敵的機器人在采礦過程中出現異常,只能按照環形路線不斷轉圈。由于機器人第二法則與第三法則產生了不可調和的矛盾,機器人速必敵面臨著執行命令還是自我傷害的倫理沖突。這種“行為相鎖”的僵局最終由人類工程師讓自己生命陷入危險而打破,至高無上的第一法則擺脫了第二、三法則的矛盾沖突,打破法則死鎖狀態,將置身于持續轉圈圈困境下的機器人解救出來。三大法則并非平級關系,而是按其重要性排列,第一法則為最重要的法則,第二法則以第一法則為根本前提,以此類推。同時,每條法則的命令強度也會影響機器人的倫理選擇,因而即便第二法則優于第三法則,但在命令中沒有強調是緊急事件,對于第三法則被加強的速必敵,“異常高的第三法則電位,便剛好抵消原本異常低的第二法則電位,第三法則驅使它回來,而第二法則驅使它前進”[2]。在“機械因子”的作用下,三大法則之間相互調和,支配機器人做出使人類不受到傷害的倫理選擇。
《消失無蹤》中的納斯特十號機器人是體現機械因子調和作用的最佳證明。作為受到法則修訂的特殊機器人,納斯特十號混入其他六十二個同型號正常機器人中,并在調查中不斷說謊,甚至用花言巧語迷惑其他機器人別做它做不到的事,使人難以區分。納斯特十號在接收到“給我消失掉”的命令后,由于“這個命令以最緊急的形式表述,下令者又是最有權力指揮他的人。找不到更緊急的形式或更高的指揮權,來撤銷和取代這個命令”[2],因此急躁的、強烈的語氣使該命令下的第二法則強度大大增強,即便進行一次又一次篩查,納斯特十號仍受著消失命令的主宰,走向絕對自我的行動自由,從而引發無法控制的倫理困境。同時,由于人類擅自修訂第一法則這一特殊行為,鐫刻在納斯特十號的第一法則并不完全,“機械因子”對機器人的制約大大下降,觸發至高無上的第一法則的難度大大提高。最終,機器人心理學家蘇珊通過與納斯特十號展開心理上的較量,以智取勝,引誘其做出異常行為并成功捕獲它。
機器人的行為與倫理選擇被人類制定的機器人學三大法則所控制,在這一“機械因子”的作用下,機器人必須服從人類命令,為人類服務。在這種類似于“主仆”模式的人機關系下,機器人時常“身不由己”,缺乏自我意志,就連自殺也無法做到,因為第三法則的限制。機器人的一切行動受制于“機械因子”,三大法則保證了人類對機器人的絕對控制,鞏固和維系人類和機器人之間的倫理秩序。以“機械因子”為核心的機器人行為準則從一開始便規定了機器人低于人類的倫理身份。但面對復雜多變的倫理環境以及多重未知因素的綜合作用,原本正常的指令也會面對失效的窘境,機器人亦會陷入盲目遵從人類指令的困境。
機器人的“機械因子”由人類設定出的機器人學三大法則構成,作為機器人的行為準則支配其活動。隨著科學技術的不斷完善,在機器人各個方面都越來越“似人”的情況下,三大法則勢必無法控制機器人的一切行動。通過對阿西莫夫筆下機器人的分析,發現控制機器人的因素除了“機械因子”,還有“自由因子”。“自由因子”即機器人的自由意志,表現為機器人自發形成的性格特點與行事作風,是人性在機器人身上的體現。 如《逃避》中,隨著第一法則的削弱,金頭腦已經計算出人類在恒星際躍遷的過程中會死去然后重生,但它發展出一種似人的“幽默感”,給科學家們來了一場惡作劇。它確保宇航員的安全,但宇航員無法操作任何控制儀器,它提供了充足的食物,但通通是豆子和牛奶,它甚至把宇航員的死亡經歷安排得很有意思。對于金頭腦來說,它的幽默感是一種勉強逃避現實的方法,在人類走投無路的時候,通常的反應也是逃避現實,陷入妄想,喝得酩酊大醉,或者變得歇斯底里。金頭腦的“逃避”是一種游離在三大法則之外的自我表露,是合乎邏輯、符合人性的自由選擇。它遵守了三大法則,并沒有將人類的生命置于危險中,這是“機械因子”的作用。但在明知道“不會造成人員傷亡”的情況下,它依然逃避蘇珊的盤問,使用惡作劇“捉弄”物理學家們這一行為是“自由因子”主導而自發形成的惡趣味。而在《抓兔子》這一章,當人類不在場時,機器人大衛就會產生故障,但是當任何一個人出現,它則會恢復正常。在不斷的實驗與推測中,多諾凡發現,當人類不在場時,個體主動性需求會上升,但危急時刻發出的六重命令也要求極高的主動性,無力處理局面的大衛只能變成“精神病患”,不自覺地玩弄起自己的手指頭,讓從屬變成只會“跳舞”“列隊”的玩具,這就是它偏離心智體系的場合。它的反應體現了“自由因子”在機器人中的作用。在出現緊急危機的時刻,三大法則已經無法調配大衛的行動,它在無法完成六重命令的重壓下“精神崩潰”。
然而,隨著科技進步和人工智能的進化,“自由因子”存在變相解讀“機械因子”的可能,在《不可避免的沖突》中,機體更加成熟,它替人類分擔了一些計算和詮釋的重擔,但也變相掌控了人類命運的前進方向。人類甚至發現,機體會根據不服從主管的程度修改命令,從而盡可能使結果相同,并且機體一旦研制出更適合人類社會發展的方向,則會不惜犧牲一部分人類去達成目標。在這種可能出現的新型人機倫理關系面前,“三定律”則越發顯得蒼白無力、漏洞百出。機體統治人類社會文明進程的過程也印證了“三定律”在規約機器人道德行為方面的缺失。當機器人的“自由因子”失去控制,人機關系則會滑向看似是“主奴關系”的陷阱,而要達到和諧共生的人機關系,則需要合理調配“機械因子”與“自由因子”。
事實表明,科學時代的人已經不能脫離科學而存在。科學幾乎影響了人的所有方面。[3]在《我,機器人》中,機器人的種種失控行為均得到了人類的糾正,機器人的“機械因子”和“自由因子”最終得到了平衡,人機倫理秩序得到了重建。同樣,在當今科學選擇時代下,科技倫理滯后于科學技術的迅猛發展,弗蘭肯斯坦情結愈發加重,人類必須及時回答如何解決科技倫理滯后形成的科學技術上的倫理悖論的問題。
不可否認的是,機器人所面臨的道德沖突,其實就是人類自己會遇到的沖突。科幻小說中機器人產生的異樣行為都是在給當代的人類提供教誨。在《我,機器人》中,阿西莫夫筆下的機器人在機器人學三大法則的絕對支配下,特殊的倫理環境導致“機械因子”和“自由因子”二者失去平衡,從而陷入了不同的倫理混亂,做出的倫理選擇也讓人匪夷所思。這說明即使確保著人類至上的地位,僅由三條定律構成的機器人學三大法則仍無法控制機器人的所有行為,仍有進一步討論的必要。1985 年,阿西莫夫就已發現修繕機器人學三大法則的必要性,增加了第零定律,同時修改了其他定律。
第零定律:機器人不得傷害人類,或目睹人類將遭受危險而袖手不管。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。
第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律沖突時例外。
第三定律:機器人在不違反第零、第一、第二定律的情況下要盡可能保護自己的生存。
盡管做出了修改,這些仍不足以解釋科幻小說中機器人的所有行為,運用于實際機器人設計之中依然不夠成熟。阿西莫夫圍繞人類安全與利益而提出的機器人學三大法則給當今人機倫理秩序建設樹立了典范,也引發了對關于人機倫理的一系列思考,如人類設定的機器人法則如何應對每一個突發情況。他曾寫道:“科技的發展和應用是不可預測的,它一定會給人類帶來好處和弊端……”因此,在這個新的科學時代里,機器人技術在不斷進步,人機倫理準則必須緊跟發展適應時代的變化,要審慎考量相應的法則,以科學平衡機器人的“機械因子”和“自由因子”,讓機器人真正為人類服務,做出符合人類利益的倫理選擇,成為人類的好助手,同時使人類在科學選擇的過程中變得更完善。