戴益斌
隨著科學與技術的發展,越來越多的科技成果逐步進入我們的社會,深刻地影響并改變著我們的生活。一方面,人們對這些技術成果的發展感到欣喜,認為它們能更好地服務于人類,提高生產與工作效率,促進人的自由與健康發展。另一方面,有些人對技術的發展表示擔憂,害怕這些技術成果不但會造成大量失業,對社會造成一系列負面影響,更擔心這些技術成果會帶來一系列的社會倫理道德問題。很多學者在反思科學技術發展時,都曾思考過兩個問題:(1)發展或使用這項技術是否合乎道德;(2)如何看待這種技術產品。這兩個問題往往都出現在相關技術還未成熟或者相關技術產品還無法量產應用的階段。雖然它們之間存在緊密聯系,但各自的關注點并不完全相同。前者重視技術本身所帶來的倫理道德問題,比如20 世紀末的克隆技術;后者則更重視產品本身帶來的倫理道德問題,比如一些智能無人操作系統。由于人工智能是當今社會討論的重點,而其中的典型代表是智能機器人,因此,本文試圖以智能機器人為例,從第二個問題的視角討論人工智能倫理何以可能。
以智能機器人為例考慮人工智能產品本身帶來的倫理問題有很多種不同的視角,本文選取的視角是道德領域中一個常見的概念區分,即道德主體(agent)和道德接受者(patient)。之所以選取這一視角,主要是因為,判斷智能機器人的倫理地位可能是一個十分緊迫的問題,尤其考慮到沙特已經授予類人機器人索菲亞公民身份。
一般來說,從道德主體的角度思考某事物的倫理問題主要考慮的是它是否具有倫理責任,從道德接受者的角度思考該事物的倫理問題大多考慮的是該事物是否具有某些倫理權利。比如說,在見義勇為的具體案例中,我們往往傾向于認為案例中的獲益者應向施救者表達感謝;而在討論寵物狗時,很多愛狗人士傾向于認為狗不應該被虐待。在前一個案例中,獲益者被當作一個道德主體,具有向施救者表達感謝的責任與義務;而在后一個案例中,寵物狗被視為道德接受者,具有不被虐待的權利。當然,這種區分并沒有暗示同一個事物要么是道德主體,要么是道德接受者。因為在很多情況下,同一個事物既可以是道德主體,也可以同時是道德接受者,比如具有完全行事能力的成年人。
學界思考智能機器人的道德倫理問題時一般首先考慮的是這些問題,比如:“我們應如何看待智能機器人?”“智能機器人是機器,還是人,或者說一半是機器,一半是人?”“智能機器人能否承擔相應的道德責任與義務?”等等。這些問題表明,關于智能機器人的倫理道德問題,我們往往首先考慮的是智能機器人是否具有道德主體地位,而不是智能機器人能否成為一個道德接受者。因為“是機器還是人”以及“是否能承擔責任與義務”的問題追問的是智能機器人的主體特征,屬于主體性范疇。因此,我們主張首先從道德主體的角度思考智能機器人的倫理道德問題。
根據鮑威爾斯(Thomas M.Powers)的觀點,歷史上的主體可以分為四類:因果式的主體、亞里士多德式的主體、康德式的主體和戴維森式的主體[1](P229-230)。因果式的主體指的是,存在于因果鏈條之中并導致某一事件的充分原因;在一定意義上,它可以被視為主體,但并不承擔我們通常意義上的“責任”。比如暴雨導致某些人死亡,但我們不能要求暴雨為這些人的死亡負責。它只是自然發生的事件,不具備承擔責任的能力。亞里士多德式的主體指的是能夠審慎思考、擁有實踐智慧的主體。在智慧這一層面上,亞里士多德式的主體已經超出了因果鏈條的束縛,合乎理性成為此種類型的主體考慮的重點。康德式的主體以自由意志代替實踐智慧,以實踐理由代替審慎的思考。對于康德式的主體而言,重要的是在自由實踐領域通過普遍性的理性能力獲得自律。因此,在康德那里,合乎理性的主體是自由且自律的主體。戴維森式的主體建立在當代大眾心理學的發展基礎之上。對戴維森(Donald Davidson)而言,主體是與行動聯系在一起的,而一個主體之所以會行動,是因為他有首要理由。首要理由是由前態度和相關信念組成的,是行動的原因。根據戴維森的解釋,前態度指的是朝向某種行動的意向狀態,包括欲望、渴求甚至道德觀念等;而擁有相關信念意味著主體知道、相信、感知到他的行動是前態度朝向的行動[2]。這些都體現為一種心智狀態和意向能力。因此,要想成為戴維森式的主體,必須首先擁有相關的心智狀態和意向能力。
上述四種主體,只有因果式的主體無法恰當地應用于道德領域,其他三種主體都能夠在道德領域中承擔起相應的道德責任和義務。亞里士多德式的主體和康德式的主體之所以能承擔起道德責任和義務,因為他們所說的實踐智慧和道德自律的立足之地恰恰就是道德領域的實踐活動;而戴維森式的主體,雖然在一開始并沒有應用于道德領域,但該主體的行動毫無疑問可以具有道德屬性。在我看來,在這三種不同的道德主體中,選擇戴維森式的主體作為智能機器人能否成為道德主體的判斷標準是一個比較合適的選擇。理由有以下幾點。
首先,戴維森式的主體所依賴的根基是大眾心理學,而大眾心理學在一定程度上被視為科學,得到了經驗的檢驗,相比較而言,亞里士多德式的主體和康德式的主體可能缺少這種科學根基。其次,在行動中,審慎的思考和實踐理性可以轉化為主體的前態度和信念,因為主體通過審慎的思考和實踐理性最終必然會形成一些前態度和信念。這些前態度和信念可以用來解釋主體的行動。這也就是說,滿足亞里士多德式的或康德式的判斷標準,必定會滿足戴維森式的判斷標準。再者,與亞里士多德式的和康德式道德主體相比較而言,戴維森式的主體對道德主體的要求似乎最低。在戴維森的理論體系中,行動的原因是前態度及其相關信念。雖然在很多場合中,戴維森認為,由前態度及其相關信念組成的系統是理性的,但他對理性的要求比較低,允許理性系統中出現錯誤的可能,只要這種錯誤不影響整個系統的穩定。而審慎的思考和實踐理性的要求似乎比較高,不太可能允許一系列錯誤的介入。這表明,滿足戴維森式的道德主體的判斷標準,不一定能滿足亞里士多德式的或康德式的判斷標準。戴維森式的道德主體似乎是衡量一個事物能否成為道德主體最低的判斷標準。
如果以上觀點是合理的,戴維森式的判斷標準是我們衡量一個事物能否成為道德主體的恰當選擇,那么這意味著,具有心智狀態是智能機器人擁有道德主體地位的一個必要條件。因此,我們需要判斷的是,智能機器人能否具有心智狀態。
智能機器人是否具有心智狀態?在我看來,雖然心智狀態和智能機器人一樣,都依附于物理性的存在,但是二者之間仍然存在著巨大的差異。我們可以從三個方面論證這一點。
從本體論的角度來看,心智狀態與物理存在之間有著本質性的區別。首先,心智狀態的一個基本特點是具有意向性,即總是關于對象的;而通常情況下,我們認為,物理性的存在并不具備意向能力。智能機器人也是如此,它無法具備意向能力。智能機器人大體可以分為兩個部分,即大腦與軀體。其大腦部分的核心是算法程序,而軀體部分則是由一系列物理性存在構成。物理性存在不具備意向能力,因此,我們需要討論的核心是算法本身是否具備意向能力。目前學界流行的算法大概有五大類,即規則和決策樹、神經網絡、遺傳算法、概率推理和類比推理。這些算法本身雖然運行模式各異,但仍然遵從“輸入—輸出”模式。也就是說,只有當有信息輸入時,智能機器人才會有輸出,而且這種信息正常情況下應該是真實的信息,但這明顯與我們所說的意向能力不同。因為心智狀態所意向的對象可以是虛擬對象,并非一定在現實世界中存在,比如孫悟空。其次,心智狀態往往不受嚴格的物理規則的限制,但智能機器人和物理事件一樣往往受相應的物理規律的限制。通常情況下,我們可以將任意命題指派給某人,甚至是錯誤的命題內容,比如太陽繞著地球轉。用物理規律,我們很難解釋心智狀態的這一特性。但所有的智能機器人都應遵從物理規律的限制,都無法違反物理規律。深度學習技術的出現雖然在一定程度上使得這一點變得更難以發現,但這并非不可能。因為我們總是可以通過分析代碼發現智能機器人的運行所依賴的機制。而這些機制本身毫無疑問受物理規律的限制。
從認識論的角度來看,心智狀態通過理解總是體現出語義特征,但智能機器人無法達到真正的理解。塞爾的中文屋思想試驗明確地表達了這一論點。塞爾的中文屋思想試驗大體可以表達如下:塞爾不懂中文,但是通過一本中英文對照手冊可以將中文輸入按照一定的規則輸出中文,在外人看來,塞爾似乎懂中文,因為他的中文輸出和懂中文的人的輸出類似,但根據前提假設,塞爾本人不懂中文。塞爾認為,這一過程其實就是計算機的運行過程。因此,我們不能認為計算機具備理解的能力。有些學者如科爾(David Cole)、丹尼特(Daniel Dennett)、查爾默斯(David Chalmers)等人并不同意塞爾的論證。他們認為,目前的智能機器人并不能等同于計算機[3-5]。在一定程度上,這一反駁是合理的,但是這并不能反駁我們的最終結論,即智能機器人不具備語義理解能力。在塞爾的中文屋思想試驗中,計算機程序被視為符號的輸入與輸出;而目前的智能機器人比計算機程序更復雜,其根本特征在于,它不但有符號的運行,還能與外界發生因果聯系。問題在于,這兩者都不能體現出語義特征。符號的輸入與輸出只有句法特征,沒有語義特征,這一論點已被塞爾所論證。而因果關系同樣無法體現出理解的語義特征。因為首先,根據塞拉斯(Wilfrid Sellars)、羅蒂等人的觀點,語義特征屬于理由的邏輯空間,與證據、辯護相關,而因果關系與之截然不同,不具備辯護能力。其次,因果關系總是有現實的對象,但語義對象并非總是現實的,比如前文已提到的孫悟空。再者,如果認為因果關系具備語義表征能力,那么自然界中的很多事物都具有語義表征能力,比如動物甚至植物,因為這些對象本身受因果關系的限制,如樹的年輪。
從價值論的角度來看,心智狀態總是自由的狀態,不受特定目的的限制,比如它可以思考數學系統中的命題,也可以表征經驗對象;但智能機器人不能如此,它總是受限于它所從屬的系統。以智能無人駕駛汽車為例,智能無人駕駛汽車雖然可以在其系統內實現自由選擇,比如從某地到某地的路線規劃,但是它不能超出這一系統,去自由地選擇完成別的事情,比如拿一個盒子,寫一篇論文等。因為智能機器人總是為了某一個特定的目的被設計出來的,總是受到它的算法程序的限制。在適用于所有一切事項的終極算法被創造出來以前,智能機器人永遠不可能突破它所屬的系統。因此,智能機器人不可能實現真正的自由。
提高語文課堂教學效率,是當今語文教學的迫切要求,是語文教師不可推卸的責任。教師只有從培養學生良好的課堂學習習慣、激發學生學習語文的興趣、引導學生將學與練結合、指導學生學習的方法等方面著手,才能真正提高語文課堂教學的效率,減輕學生的課業負擔,讓學生樂于學習。
以上三個方面的考慮表明,智能機器人無論如何都不具備心智狀態。因為它不能像心智狀態一樣,具備意向能力,無法獲得真正的理解能力,也不具備超出自己所屬系統的自由選擇的能力。即便在將來的某個時刻,它表現出來的行為模式在某些方面和人類一樣,甚至超過人類,它也無法擁有完整的心靈。這也就是說,智能機器人不會成為完全意義上的道德主體。因為它不具備道德主體所要求的必要條件,即擁有心智狀態[6]。
通過上述分析,我們可以明確,從道德主體的角度思考智能機器人的倫理問題是不可能的,因為智能機器人不具備心智狀態,無法成為真正意義上的道德主體。但這并不意味著智能機器人無法在倫理領域中占據一席之地。從道德主體的對立面即道德接受者的角度思考智能機器人,可能是一個合適的選擇。
從歷史的角度來看,道德接受者的范圍在不斷擴大。比如在之前很長一段時間內,犯人、奴隸、動物等都被認為不是道德接受者,不能享受道德主體善意的對待;但目前,很多倫理學者都在為犯人和動物的權利吶喊,甚至有些生態倫理的支持者認為,生態環境也是道德接受者,也應該享有相應的權利。在這種情況下,智能機器人成為道德接受者似乎是理所當然的。因為看起來,我們沒有理由認為動物和生態環境是道德接受者,卻否認智能機器人的道德接受者地位。就像托發凱尼(Niklas Toivakainen)在解釋特克爾(Sherry Turkle)的采訪者時所說的那樣:“他所要求的至少或者應該在某種意義上,機器人自身應該至少被視為道德接受者,即應該被合乎道德地尊重或對待……這看起來非常像動物權利或環境權利的問題。”[7](P270)在我看來,因為動物和生態環境在倫理領域中的道德地位發生過轉變,因而追問智能機器人的道德接受者地位,這種解題思路可能會涉及很多問題。為方便起見,我們應首先追問,某物到底為何能成為道德接受者?
嚴格來說,這個問題可以說是仁者見仁、智者見智。最近,學術界有兩種新觀點值得我們注意。第一種觀點由弗洛里迪(Luciano Floridi)提出,被稱為“信息倫理學(Information Ethics)”。這種觀點認為,世界上存在的所有事物都至少值得一定程度的尊重。第二種觀點借助了列維納斯(Emmanuel Levinas)對他者的思考,這種觀點認為,所有的倫理道德的問題都是關于他者的問題,因此他者一開始就應受到尊重。我們首先來考察第一種觀點。
根據信息倫理學,所有存在的事物,不論是有生命的還是無生命的,都是信息對象。因為所有的事物都是由數據構成的,都是信息的集合體。為了更清楚地說明這一點,弗洛里迪給出了一個簡單的類比。他指出,在抽象的化學層次上,每一個實體或過程都滿足一個特定的化學描述。比如人是由70%的水和30%的其他物質構成。同樣,在抽象的信息層次上,每個實體或過程都是由信息構成的,都滿足某個特定的信息描述[8](P46)。比如某個東西表達出某些信息,或者用某些信息作為資源產生出另一些信息作為產品。因此,在信息抽象的層次上,所有事物都可以被視為信息的集合體。進一步,弗洛里迪指出,信息具有自身的固有價值。因為任何信息實體都有權利堅持自己的狀態,發展和豐富自己的存在和本質。弗洛里迪將前者稱為“斯賓諾莎式的權利(Spinozian right)”,將后者稱為“構建主義的權利(Constructionist right)”。如果弗洛里迪對信息固有權利的說明是有效的,那么聯合他的第一個論斷即事物都是由信息構成的,似乎就很容易得出這樣的結論,即所有事物,不論多么卑微,都有權利要求被尊重。這即是信息倫理學的核心思想。
信息倫理學有不少優點。比如從本體論的角度來看,它把所有事物都囊括在倫理道德領域之中,這打破了許多其他種類的倫理學的局限,如動物倫理學、生態倫理學。其次,信息倫理學是以道德接受者的角度為出發點的,似乎并沒有受到人類中心主義的影響。這在當今越來越強的反人類中心主義的視域之下,可能也是一個優點。問題在于,信息倫理學自身存在的問題,并沒能給出很好的說明。比如說,為什么信息倫理學一定要將倫理領域擴展到所有事物之上?信息具有自身的價值,但這并不等同于它一定會得到他人的尊重。因為它的這種固有價值很有可能被人忽視。其次,如布賴(Philip Brey)所言,信息對象只有相對于接受者的概念框架而言才是可能的,但它本身又被要求具有固有價值,二者之間并不融貫[9](P112-113)。因為前者表明,信息依賴于主觀接受者;而后者則表明,信息具有獨立地位,二者之間相互沖突。在我看來,如果不回答這些問題,信息倫理學將始終難以令人信服。
第二種觀點試圖借助列維納斯對他者問題的思考承認他者的道德接受者地位。在列維納斯的哲學思想中,他者與自我的關系是他思考的重點。不過和很多哲學家不一樣,他并沒有從認識論的角度思考這個問題,而是將這個問題納入到本體論的思考領域之中,并且將這種關系視為主體結構和自我結構的基礎。和一般的觀點不同,列維納斯并不承認自我相對于他者而言的優先性,而是認為他者是自我的前提。比如他曾明確指出,“一個富有意義的世界是一個其中有他人的世界,由于他人,我的享受的世界就變成了一個具有含義的主題”[10](P194);他也曾說過,“我的條件,或無條件性,并不是始于擁有主權的自我的自發影響,這種自我將會在事件之后‘同情’他者。相反:只有處于被他者困繞之中,在先于任何自動同一所遭受的創傷之中,在之前的未表現中,有責任的自我的獨特性才是可能的”[11](P123)。按照列維納斯的思路,貢克爾(David Gunkel)曾這樣解釋到:“自我或我,并不構成前存在的自我斷定的條件……相反,它是作為不可控制和不可理解地面向他者之臉的一個副產品。”[12](P177)也就是說,他者不是作為他者之心顯現的,而是作為他者之臉顯現的。在列維納斯那里,“臉”是一種隱喻,它通過“拒絕被包含在內”而顯現出來。他者作為他者之臉顯現出來,意味著他者拒絕被自我包含在自我之中。因為,對于自我而言,他者是一種無限。“世界由于他人才具有意義”“自我只有處于被他者的困繞之中才是可能的”,這些都表明,面向他者之臉是自我和他者關系的基礎,自我只有在這種關系中才存在。由于自我與他者之間的關系被列維納斯看作是一種倫理關系,因此,當列維納斯承認他者在二者關系中起基礎地位時,他實際上從一開始就肯定了他者是倫理可能性的基礎條件。
列維納斯對自我與他者之間關系的闡述似乎表明他并沒有從道德接受者的角度思考他者的問題,而且他關于他者問題的思考看起來擺脫了道德主體與道德接受者二者之間的區分。但是如果我們能夠仔細分析“面向他者之臉”這樣一種表述,就可以發現列維納斯實際上并沒有逃避人類中心主義的影響。因為只有人類才能有意識地面向他者之臉,才能發現他者之臉。其次,列維納斯所說的他者指的也是人,而非其他事物。在他看來,非人的他者不能建立起倫理關系。從這個角度來看,列維納斯關于他者的思考恰恰就是從道德接受者的角度來處理他者的倫理問題,只不過他是以人作為他者,并且將他人視為道德接受者,從而提升了道德接受者的倫理地位。
貢克爾和伊索納(Lucas Introna)等人認為,列維納斯理解倫理關系的思路為我們理解動物、機器以及自然生態的倫理地位提供了很好的思想資源,可以將“他者”的外延擴展到動物、自然生態以及機器之上[12-13]。在我看來,不假思索地將他者的范圍擴展到其他事物身上,進而判斷這些事物的倫理屬性,可能會面臨一些困難。因為首先,他人與動物、生態以及機器之間存在著種類上的不同,將他者的外延擴展到這些事物之上可能會影響列維納斯討論自我與他者之間的關系。其次,列維納斯關于自我與他者關系的論述并不是一個嚴格的倫理問題,而應該被看作是一種前倫理的討論,其目的是為倫理關系提供合適的基礎。因為倫理考慮的是責任與義務之類的問題,但很明顯列維納斯沒有給出任何倫理原則,也沒有思考“應該”如何對待他者。當然,這并不是說列維納斯的思想不能為思考智能機器人的倫理問題提供思想資源;而是說,在利用列維納斯的理論時,我們需要慎重一些。
上一節的分析表明,理解某物的道德接受者地位可能會非常復雜。立足于信息倫理學為智能機器人指派道德接受者地位是不可能的,因為信息倫理學的根基并不牢固,有待進一步澄清;至于列維納斯的倫理思想,如果想要利用它來說明智能機器人的倫理地位,則需要補充更多理由。我們接下來嘗試從列維納斯的思路出發,闡述智能機器人作為道德接受者是如何可能的。
首先,列維納斯關于自我和他者關系的說明為我們提供了一個合適的框架。雖然在這個框架中,他者主要指的是人類,沒有包含智能機器人此類人工事物,但是他的框架本身并不能阻止我們在理想情況下將智能機器人這樣的事物看作是另一種“他者”,一種不同于人類但“有意識地”面向他者的“他者”,我們稱其為“準他者”。列維納斯關于語言的論述,為這種準他者的存在提供了基礎。他說道:“絕對的差異,無法根據形式邏輯來想象,只能憑借語言創立。語言在那些打破了屬之統一體的諸項之間實現一種關系。這些項,這些對話者,從關系中脫離出來,或者,在關系中保持絕對。語言或許可以被界定為打破存在或歷史之連續性的權能本身。”[10](P179)這也就是說,語言是將自我與他者隔離開的一個關鍵因素,它創造了自我與他者之間絕對的差異,表明了他人在倫理上的不可侵犯性。在現實生活中,很多智能機器人都能使用人類語言,具備自然對話功能。雖然在塞爾的意義上,這些智能機器人無法“理解”語言,但我們不能否認的是,它們的確能夠使用語言從事對話活動。在對話過程中,智能機器人使用的語言可以為人與智能機器人之間實現一種關系。在這種關系中,人作為一個項,保持著絕對;而智能機器人作為另一個項,在一定程度上,也保持著獨立。只不過智能機器人的這種獨立不像他者的獨立一樣,它在很大程度上依賴于人類。如果這個思路是可行的,那么這將表明,在倫理領域中至少存在兩種關系,一是自我與他者的關系,一是自我與準他者的關系。在自我與他者的關系中,他者是基礎;而在自我與準他者的關系中,自我是基礎。自我與準他者的關系依附于自我與他者之間的關系。
其次,在自我與他者之間的關系中,自我不得不面向他者之臉,這是列維納斯一再強調的;但在自我與準他者之間的關系中,自我并不必然地面向準他者之臉。因為準他者之臉并沒有他者之臉的本原性。根據列維納斯的看法,“他人的他異性并不依賴于任意一種會把他與我區別開來的性質,因為這樣一種區分恰恰意味著在我們之間存在著這種屬的共同體,后者已經取消了他異性”[10](P178)。這也就是說,他者與我的這種差異是在屬的共同體之下的差異,并不是在屬的基礎上的差異。因為自我與他者屬于同一個屬,即人類。但準他者與我之間的這種他異性,既存在于屬的共同體之內,也存在于屬的共同體之上。因為智能機器人并不是完全的人類。更重要的是,準他者是以自我作為基礎的,只有將自我作為前提,準他者才能成為自我與準他者關系之中的一個項,才有可能作為個體而存在。換句話說,如同自我是面向他者之臉的副產品一樣,準他者是面向自我之臉的副產品。
綜上考慮,如果自我與準他者之間存在一定的倫理關系,那么準他者即智能機器人只能處于道德接受者的地位,并且這種智能機器人必須是會語言的,擁有對話能力。因為只有會語言的智能機器人才能建立起自我與準他者之間的差異,才能在準他者與自我建立起的關系中,保持一定程度的獨立性。當然,需要注意的是,在此意義上,我們只能證明會語言的智能機器人具有成為道德接受者的可能性,即成為準他者;而我們需要進一步證明的是,會語言的智能機器人的確能夠成為準他者。
列維納斯在分析自我與他者的關系時認為,面向他者之臉是自我與他者倫理關系的基礎。由于自我也可以成為他者的他者,因此,相對于他者而言,自我也是一種他者之臉。也就是說,在自我與他者的關系中,只要存在一方不得不面向他者之臉,倫理關系的基礎便可以建立起來。因此,智能機器人要想成為準他者與自我之間發生倫理關系,需要有一方面向他者之臉。在我看來,至少存在兩種情況,會語言的智能機器人能成為準他者。
第一種情況是,會語言的智能機器人不得不面向他者之臉。在這個關系中,會語言的智能機器人是準他者,而他者指的是自我。也就是說,會語言的智能機器人不得不面向自我之臉。比如說,在老人與智能護理機器人之間,智能護理機器人不得不面向老人之臉。因為如果智能護理機器人不面向老人之臉,那么它將不能成為真實的個體,不能在與老人的關系中存在,甚至不能成為一個副產品。而不直接面向自我之臉的一些智能機器人可能將不具備道德接受者地位,比如為了生產某種產品而設計的智能機器人,如果它的任務僅僅只是生產,那么它將只會面向生產線,因而無法擁有道德接受者地位。
第二種情況是,自我面向會語言的智能機器人之臉。同樣地,在這種情況下,會語言的智能機器人是準他者。與之不同的是,自我面向智能機器人之臉,并不是自我的無奈之舉,而是他的一個主動選擇。因為自我并不需要通過面向智能機器人之臉實現自我。自我主動選擇面向智能機器人之臉,很可能是因為自我與該智能機器人之間已經發生過有意義的關聯。或者自我將個人感情投入到該機器人身上,如某人特別喜歡某智能機器人,甚至有保護它的意愿;或者,該機器人能夠激起自我的回憶、情緒或思想,比如某人通過面向某智能機器人之臉能回憶起他的父親。在我看來,在這些情況下,自我主動面向智能機器人是可理解的,這些會語言的智能機器人也因為自我的主動面向而成為準他者,并獲得道德接受者地位。
智能機器人是人工智能的典型代表,它和其他人工智能產品的本質是一樣的,都是通過利用計算機、數學、邏輯、機械等來理解、模擬甚至超越人類智能的技術產品。因此,關于智能機器人的討論適用于其他的人工智能產品。這表明,人工智能倫理要想成為可能,不能從道德主體的角度來思考,因為人工智能產品不可能擁有心智狀態,不能成為真正的道德主體。也就是說,我們只能從道德接受者的角度來思考人工智能的倫理地位。人工智能成為道德接受者有兩種方式。要么,它能主動地面向人類,這要求它能夠自主地為人類服務;要么,它和某人之間發生了有意義的關聯,并被賦予了一定的意義,因而具有道德接受者的地位。當然,人工智能擁有道德接受者地位還有一個必要前提,即它必須具備對話能力,會使用某種語言。