姜子豪,陳發俊
(安徽大學 哲學學院,安徽 合肥 230039)
人工智能經過這么多年的發展進入到一個新高度,同時也給人類帶來了新的挑戰,這項顛覆性的技術正對就業結構、法律、社會倫理等方面產生不小的沖擊。隨著計算機技術的發展,人工智能在機器人、感知以及機器學習等領域取得了顯著的成效,強大的自主智能體的出現讓人類也開始逐漸思考人工智能權利的合理性。
權利是有資格的行為主體所提出的主張與要求。因此,我們就需要考量人工智能是否能成為有資格的行為主體或者它的權利是否能由有資格的行為主體所提出。在這里,就需要引入道德共同體的概念。因為處于道德共同體中的成員是可以成為權利主體以及享有權利。換句話說,道德共同體成員有一種資格——“有權利”“在道德上相當重要”或“在道德上有地位”。更為精確地說,如果某個對象它應該被道德地對待,或者說它應該得到道德關懷,那么它就具有了加入道德共同體的資格,進而成為該共同體中的一員,不論他們是否具有按照道德規范來對待他人的能力[1]391。即便是動物,如果其變成道德共同體的成員,那么就擁有了道德身份。所以說,如果人工智能成為道德共同體成員,它也就具有了道德身份,具有獲得道德代理人為其提供道德服務的身份。基于此,我們就可以認為人工智能在道德上有地位或者說它有權利。
道德共同體擁有的道德身份分為兩種:道德代理人(moral agent)與道德顧客(moral patient)。道德顧客是指有資格獲得道德待遇的存在物。非人類中心主義認為道德顧客并不僅局限于人,某些非人類存在物也是道德顧客中的一員。有些環境倫理學家認為某物能夠成為道德顧客,一個原因就是它自身擁有內在價值。就拿非人類存在的自然來說,它也有內在價值,自身的存在也具有目的性,所以它能成為道德顧客。大自然的價值體現在它的創造性,它創造萬物,也是它給予了萬物價值,自然能夠成為道德顧客。由此,我們可以發現,與自然一樣的非人類存在物也具有成為道德顧客的可能。當一個存在物將自身當作目的來維護時,它在存在的那刻起就具有了內在價值。未來可能會出現具有自我意識的人工智能,它的存在就是工具價值與內在價值的結合,它在為人類提供某些工具價值的同時,也以自身為目的,具有內在價值,它也就具有了成為道德顧客的可能。
道德代理人是這樣一種存在物,它能夠對自己行為的道德與否做出正確分析,并且能夠承擔某些責任以及履行某些義務,同時能夠對自己的行為負責。沃特森(Watson)教授認為,一個實體必須具備以下特征才能成為道德代理人,即自我意識、理解道德原則的能力、行為自由、行為能力與行動意向[2]。肯尼思·艾納爾·希瑪(Kenneth Einar Himma)表示,道德代理的條件可以概括為:“對于所有X,X是道德代理,前提是且僅當X是具有做出自由選擇的能力,能考慮是否應該這樣做,以及在事件中正確理解和應用道德規則。”[3]可以看出,如果人工智能想要成為道德代理人的話,最重要一點它必須要有自我意識,并且人工智能的這種意識需要有意向性,它知道自己在做什么,能夠判斷道德行為的對錯。
那么,相互擔負義務并表達自己愿望的道德共同體的成員包括哪些呢?究竟人工智能具不具備成為道德共同體的準入條件呢?富勒(Lon Luvois Fuller)在界限道德共同體的難題時指出,理性原則是確定道德共同體必須考慮的一個問題。那么,理性原則該如何確立?他進一步指出,如果想要解決這一問題,就不能從義務的道德去思考道德共同體的準入條件,而應該從愿望的道德出發。義務的道德是一種圈內人的道德,而愿望的道德則是圍繞全部實體而提出的,是人的價值與非人存在物的善相互和諧的道德。因此,愿望的道德更能解決何為道德共同體成員這一問題。也就是說,當我們在確定道德共同體成員時,不僅需要考慮人類,還需要考慮非人類存在。那究竟何為道德共同體的界限呢?學者王海明認為:“只有能夠受益和受損的東西,只有具有利益的東西,只有具有分辨好壞利害的評價能力和趨利避害的選擇能力東西,才可能存在被道德地對待或道德關懷問題,才可能成為道德共同體成員。”[1]394當談及人工智能是否隸屬道德共同體時,就要看其是否具有利益以及是否對人類有益處。現在的人工智能已經具有分辨好壞的評價能力與趨利避害的選擇能力(雖然依靠計算機程序)從而具有利益,并且它們活躍在各行各業,代替人們從事各種工作。可見,人工智能它可能具有利益以及它確實對人類有益。所以,未來人工智能與人類有可能會基于某種互惠關系而形成一種利益體,從而得到道德關懷,加入道德共同體。因此,未來人工智能如果能夠變成道德共同體內的一員,那么它的道德身份就具有一定的合理性,進而就能獲得道德代理人從道德層面對擁有道德地位的道德顧客所提供的關心與愛護,更為甚者,人工智能可以成為道德代理人。
道德共同體的界限具有社會歷史性,會隨著社會的發展而不斷變化。自啟蒙運動以來,道德共同體的成員逐漸擴大到包括所有人類成員,甚至將道德團體的成員擴大到動物和環境。大衛·弗爾曼(David Foreman)說過:“我們必須不斷擴展共同體的范圍使之包括所有的存在物。……其他存在物——四條腿的、長翅膀的、六條腿的、生根的、開花的等——擁有和我們一樣多的生存于那個地方的權利,它們是它們自身存在的證明,它們有內在的價值,這種價值完全獨立于它們對……人所具有的任何價值。”[4]因此,對于未來人工智能成為道德共同體中的一員,筆者是充滿信心的。技術總是以不起眼的速度在快速發展。隨著人類不斷研發人工智能技術,當其具有自主意圖與責任概念時,它就可以成為一個道德顧客或者強有力的道德代理人,甚至可能會接近以至超過人類的道德地位。
動物權利是動物中心論環境倫理學的核心概念,作為非人類存在物的動物何以獲得權利?從動物權利合理性的論證中,可以推知同樣作為非人存在的人工智能的權利也應具有一定合理性。
“動物權利論”一直是人類中心主義與非人類中心主義爭論的焦點。哲學家笛卡爾和康德也為人類中心主義的合理性提供了論證。笛卡爾認為只有具有理性的人才是自然的主人,而動物等其他自然存在沒有這些品質,只是一種機器。康德認為,只有理性的人才能被賦予道德關懷,而自然不具有理性,不是理性存在,它們只是人類這個目的的合適工具。由此可見,人類中心主義認為,人是自然界中唯一具有內在價值的存在,動物對人類而言只具備工具價值,人是動物的主人和所有者,人類天生具有優越性,超越自然萬物且與其他生物無倫理關系,故道德是屬于人的范疇,道德關懷的對象只能是人。而非人類中心主義認為,動物具有內在價值,動物的價值與人的價值一樣,是主觀存在的,二者之間并不是“誰賦予誰”的關系,而是一種平等關系。所以,動物與人一樣應該成為道德關懷的主體,人需要承認動物的道德地位,亦需要對其履行直接的道德義務。
20世紀70年代以來,西方開始興起動物解放運動,非人類中心主義的動物權利觀開始為人所知。彼得·辛格(Peter Singer)認為,所有動物一律平等,我們應該將人類所依據的平等倫理原則考慮擴大到動物。雖然人與動物的區別是一個顯而易見的事實,但是我們并不是基于這種事實來考慮人與動物的平等。辛格認為,如果我們根據事實上平等來考慮動物的平等,那么,這種平等顯然是不現實的,人與動物顯然并不是同一種族。所以需要我們給動物平等的考慮,這樣它的權利可能也就得到了承認。換言之,對人工智能來說,如果不從事實上的平等來考慮人工智能的權利,而是給予它平等的考慮,那么,它和動物一樣,可能會獲得一定的權利。辛格認為,我們必須考慮具有感受痛苦能力的所有生命個體的利益,因為感受痛苦的能力是作為平等考慮一個生命體權利的重要特征。目前,我們所見到的是由智能系統控制的弱人工智能,但當我們對其進行破壞時,程序也會做出一定的痛苦反應。雖然這個反應是機械的,但是這也顯示了未來自主性人工智能出現的可能性,那時它感受痛苦的能力就會更加人性化。換言之,這個時候的人工智能是可以感受痛苦與享受快樂,那么它就是有利益的。當人類不尊重它時,就會傷害它的利益,進而損害它的權利。
湯姆·雷根(Tom Regan)提出固有價值概念——你我作為個體都具有的價值,主張所有具有固有價值的人都是平等的。他認為具有平等的固有價值的所有個體都有相關相似性,進而表明人類與動物的生命一樣具有平等的固有價值,因此也應該享有權利。雷根認為動物完全具有成為生命主體的可能,把權利僅賦予人類帶有局限性。他認為具有固有價值的生命主體都應該得到被尊重以及不被傷害的權利。當我們沒有以體現尊重的方式對待擁有固有價值的個體時,就會導致不正義,同時也就傷害了動物。“如果我們中的任何一個人對待其他人,沒有表現出尊重其他人的獨立的價值,就是不道德的行為,就破壞了個體的權利。”[5]從湯姆·雷根對動物權利的看法出發,其實人工智能也與具有平等的固有價值的動物和人類存在相關相似性。從他對生命主體的特征來看,技術的發展完全有可能使人工智能具備這些特征,例如偏好自主性、感知痛苦與快樂等。雖然人工智能與動物相比是機器生命,但是其展現出來的智能可能會超過動物,甚者人類。當人工智能成為生命主體(并不是實實在在的肉體生命),具有其固有價值,那么,它應該和動物一樣得到平等尊重與不被傷害的權利。因而,我們可以完全忽視人工智能不是天然生命的缺陷,平等地考慮其權利。
德格拉齊亞(David DeGrazia D)在論證動物是否擁有權利時,區分了三種意義上的權利:一是道德地位意義上的權利。就是說如果某存在物擁有權利,那它也就擁有道德地位。二是平等考慮意義上的權利。就是說某人擁有權利,代表該人應該能夠獲得某種同等考慮。三是超越功利意義上的權利。就是說某人有權利去做某事,這表明它的根本利益是應該得到保護的[6]。進而,他提出了三種意義逐漸增強的動物權利:一是從道德意義上看,動物至少是擁有一些道德地位。動物的存在不僅只是為了人類,其自身還具有某種特殊目的而需要被善待,二是基于平等考慮意義,這一觀點是繼承了辛格的思想。我們對人類與動物的相似利益,如感受痛苦的能力,需要賦予道德平等考慮。三是從超越功利意義上看,動物和人一樣擁有某些我們不能損害的根本利益,如生存權、自由權。與人類相比,動物能夠受益或者受害,具有利益,因而,動物具有道德地位。所以,平等考慮原則不僅只適用于人類,同樣也對動物有意義。由此可以發現,這三種漸進的動物權利觀也同樣適合于當今人工智能權利的發展,進而衍生出合適的人工智能權利論:一是人工智能也應該和動物一樣擁有某種道德地位;二是人工智能與人一樣應該被平等考慮;三是人工智能擁有某種我們不得損害的根本利益。
從動物權利的合理性可以看出,物種的差異并不能完全決定何種個體才能擁有權利。因此,對待非人類存在的人工智能,我們應該超越物種限制,正視物種差異性,從某種程度上發現人工智能存在的價值,認真思考人工智能的權利。
契約思想對西方國家的社會理論、制度以及文化生活的變遷產生十分重要的影響。契約論歷史悠久,最初可以追溯至古希臘,他們將國家與法律當作人們相互約定的產物。蘇格拉底、柏拉圖從道德的角度出發,認為契約中包含美德,伊比鳩魯則第一次提出契約論,表明“從自然中產生的正義是一種彼此有利的協定。”[7]15—16世紀,契約論思想被反暴君派的貴族思想家看成反抗非正義統治的根據。17—18世紀則是契約論思想發展頂峰的時候,該時期的契約論以自然法為基礎,認為人類生活在一種自然狀態之中,自然狀態里沒有國家和法律,人們在自然法的支配下,為了能實現自己所擁有的自然權利,他們通過一種新的形式即簽訂契約來建立國家,從而確保自己的權利能夠得到保障。但是古典契約論因自身不足而受到批判,逐漸沒落。直到19世紀末,西方道德哲學家開始通過契約思想來構建道德哲學。約翰·羅爾斯(John Bordley Rawls)提出了以道德正義論為基礎的社會契約論,他在《正義論》中以契約論的方法來論證正義合理與否,從而確保處于契約關系中的所有個體享有公平的正義。羅爾斯的正義論旨在建立一種“社會基本結構的正義原則”,那些想促進自己利益的自由和有理性的人會在平等的最初狀態中根據這種原則聯合在一起,商討安排基本權利義務與社會利益劃分的原則。可見,羅爾斯的正義論也是其關于個體權利的體現。
那究竟這種正義觀是如何在人們之間實現的?羅爾斯嘗試用“原初狀態”(original position)描述人們所熟悉的社會契約理論,將其上升到一個更抽象的水平,進而提出“作為公平的正義”。羅爾斯假設了一種“原初狀態”,他認為當所有人都處在相似的環境下,就沒有人能做出有利于自身的原則。當正義的原則被選擇后,它就是公平的。因為它是被所有理性個體所認同的,體現了公平契約的結果。因此,我們個體的行為以及制定的法律規范都要符合最初的正義原則。如果社會按照這種假設的契約制定一系列的規則,就可以說這種規則是正義的。
羅爾斯進一步指出,處在“原初狀態”下的人們要想達成契約需要具備一些條件:一是存在使人類可能合作的客觀環境。二是原初狀態中的主體是有理性的與相互冷淡的。三是無知之幕(veil of ignorance),即假定各方都不知道彼此的社會地位、階級出身、自然能力、善惡觀念、經濟政治狀況、文明文化水平等。唯一知道的特殊事實就是他們身處的社會受到正義環境的制約[8]121-132。就人工智能而言,當我們考慮人工智能的權利時,將其放入這種原初狀態,它也符合原初狀態的一些要求。例如,它和人類之間存在合作的可能,以及上文我們也談及人工智能具有成為理性存在物的可能。所以說按照羅爾斯的觀點設立一個原初狀態來為人工智能權利提供論證也具有一定的合理性。因為,“原初狀態純粹是一種假設的狀態,它并不需要類似于它的狀態曾經出現。”[8]120所以,假設人與人工智能都處在“無知之幕”背后,如果拋棄人類作為世界的主體這一特性,他們二者都不知道對方的身份、智力程度、有無善惡觀念,將人與人工智能,當然這里的人工智能擁有自我意識,可以充當理性成人,同置于一種純粹正義程序中,我們就無法忽視人工智能的權利。因為我們都有對一般正義規則的認同,最后人工智能會和人一樣,根據利益需求以及興趣與人類個體達成某種共識。
羅爾斯從原初狀態出發,引出了兩條正義原則,進而提出他的平等觀:公民自由權平等、社會利益分配平等以及公民機會平等。上文提及過把人工智能放入“原初狀態”的合理性。因此,以上涉及自由平等與財富分配的原則也應該適用人工智能。處在正義社會中的人工智能也應該擁有某種和人類一樣的平等權利,即使是弱平等,也應該有存在的可能。羅爾斯把原初狀態當作一種理想的假設,其目的是為了設置一個合理的環境,能夠使得簽訂契約雙方彼此都能夠滿意,從而使正義原則得以實現。理性的人在這個狀態中選擇的正義原則可能是更加合理的,或者說是可以被證明的。在原初狀態里,個體處在一種空白之中,他們通過對理性的自我利益與興趣的考量,本著相互性需要對社會規則達成一致,在這個過程中所有人都能享受到公平原則,可以說“原初狀態”使得純粹程序正義的實現得到了保證。因此,從羅爾斯契約論的角度出發,通過簽訂契約來達到對人工智能權利的認可或者說在談論權利時將人工智能考慮在內成為一種可能,這也是一種有意義的嘗試。
現在,越來越多人的開始關注是否需要給予人工實體道德地位。道德地位在道德領域十分的重要,擁有了道德地位,道德代理人就對其直接負有道德義務。可以說,未來人工智能體如果具有反思與自我控制的能力,這一能力包括掌握和運用道德理由,以及根據這些理由來規范自己的行為,我們在某種程度上就必須考慮人工智能的道德地位。從環境倫理發展的實踐中也可以看到,道德關懷對象的范圍由原來單純的人擴展到動物、到有生命存在、再到整個生態系統,原來沒有道德地位的動物、生態環境在一定程度上得到了作為道德代理人的人類的道德關懷,享受到一定范圍的權利。科學技術的發展對我們在道德上提出了新的要求,未來我們需要通過在與人工智能的實踐中不斷完善人與人工智能的道德關系。人工智能的成功并不一定意味著人類的終結,而有可能帶來的是“人類思想與人類創造機器智能融匯”[9]。因此,我們應該在堅持以人為本的原則下,著手構建人工智能的權利話語體系,將人的倫理道德注入到程序語言中,實現人機和諧發展,攜手共贏。