白惠仁
除了邏輯與規范性論證,傳統規范倫理學在考慮人類道德直覺和道德推理問題時還常常使用思想實驗的方法。近幾十年來,經驗科學開始介入到道德領域的研究中,羅爾斯在《正義論》中對“差別原則”的論證使用經濟學和心理學方法便是這種“實驗倫理學”(experimental ethics)運動的先驅。20世紀90 年代以來,倫理學研究日益匯聚來自眾多經驗科學的資源,從演化根源、環境影響、認知機制、腦神經關聯等方面對人類道德現象展開考察。近年來,面對新興技術引發道德難題的情境化、多元化、大眾化等特征,規范倫理學表現出某種無力感,基于新技術路徑的實驗倫理學開始顯露其優勢。但當前關于新興技術的道德困境的實驗倫理學研究卻顯現出一種奇特的局面:運用基于新興技術A的實驗倫理學來解決新興技術B 所產生的倫理問題,而往往新興技術A 自身還處于某些固有的倫理爭議當中。本文希望以自動駕駛道德決策難題的實驗倫理學研究為例,解釋當下新興技術與實驗倫理學的雙向互動關系。
人工智能對人類社會道德秩序的攪動是根本性的、多向性的,需要對這類新興技術做出有預見性的實踐考察,因而催生了人工智能倫理研究。在智能醫療、自動駕駛、自主武器系統等具體應用情境中,人工智能系統開始面對越來越多的道德決策。由此,學界開始關注人工智能系統是否能夠做出道德決策及決策機制的問題。然而,由于道德文化多元主義、道德決策情境的復雜性、人工智能系統道德歸責的困難以及公眾對人工智能道德決策的社會心理障礙這四個方面的原因,我們無法將某種既定的道德原則嵌入道德算法中以做出道德決策。因此,傳統的規范倫理學框架難以應對人工智能引發的道德挑戰。本文將通過自動駕駛汽車道德決策的倫理學研究表明這一立場。
與其他人工智能技術的具體應用場景類似,自動駕駛的倫理問題也包含了數據所有權、隱私保護、事故責任等方面,但近幾年來的倫理學研究大量集中到了所謂的“優化碰撞算法”的角度,即以一種近乎特設性的方式將自動駕駛汽車的道德決策問題與倫理學中經典的“電車難題”思想實驗結合起來。如果不考慮其背后的媒體炒作等社會因素,這種倫理學研究背后有兩個基本想法:第一,我們需要在自動駕駛汽車完全商用化之前預先考慮如何對自動駕駛汽車進行編程,以便使其成為大眾所能接受的汽車;第二,關于“電車難題”的倫理研究有助于準確了解汽車需要達成或展現什么樣的倫理價值,最終這些價值將通過道路交通規則和法律的形式來實現。
大部分道德哲學家們都基于這種假設或在這種假設的啟發下來考慮自動駕駛汽車的倫理問題。維拉(Ivo Coca-Vila)在討論自動駕駛汽車的程序設定面臨的功利主義原則和自我保護原則的矛盾時,認為功利主義原則在當前交通刑事法律原則中不能得到辯護,而是應該基于一種義務論的理解,即依據所有主體在事故中的法律地位,以自主性(autonomy)和一致性(solidarity)作為道德辯護的核心[1](59-82)。德國交通部的《自動化及網聯汽車倫理報告》也具有明確的義務論傾向:“對個人的保護優先于其他所有的功利性考量。”[2]另一些規范倫理學者則基于功利主義的“可計算性”優勢,認為自動駕駛的道德決策應基于減少傷亡的原則,當然這也符合了研發自動駕駛汽車以減少道路交通傷亡的價值目標。博納豐(Jean-Fran?ois Bonnefon)等提出在商業行為中自動駕駛汽車用戶會傾向于某種功利主義算法[3](1573-1576)。在義務論與功利主義之外,一部分研究仍然以不可避免的交通事故作為理論預設,他們試圖在功利主義和義務論的現有討論框架之外引入正義的維度[4](107-115);另一部分研究考慮到了自動駕駛汽車在非危險情況下的行為問題,引入了羅爾斯的分配正義理論,其中一些研究關注的是自動駕駛汽車對道路交通整體運行或社會弱勢群體的影響[5](1131-1149),另一些研究則將羅爾斯的正義原則直接運用于作為個體行動者的自動駕駛汽車[6](227-249),然而我們知道羅爾斯的正義原則是針對社會基本制度(major social institutions)提出的。
規范倫理學研究從功利主義、義務論和正義的維度考察了優化碰撞算法的問題,這在當前對自動駕駛汽車的倫理問題研究中最為突出,而對這一問題的討論都是建立在“電車難題”思想實驗這個前提之上的。也有部分研究者明確提出自動駕駛汽車與“電車難題”有顯著差異,不應當作為自動駕駛倫理問題的研究重點,他們提供的理由包括:(1)“電車難題”所構造的事例在現實世界中是不可能發生的[7](413-427);(2)“電車難題”與自動駕駛面對的是實質上不同的道德情境[8](1275-1289);(3)“電車難題”的基本預設是“自上而下”的道德決策設計,這與自動駕駛汽車難以相容[9](12507);(4)自動駕駛汽車“道德算法”的設計本質上并非道德決策,而是政治協商與一致同意[10](669-684)。
當前對自動駕駛汽車倫理問題的研究有一個基本預設,即當自動駕駛汽車面臨不可避免的交通事故時,其道德決策、道德責任等問題應當如何處理。為了凸顯自動駕駛汽車可能面臨的道德困境,這些不可避免的交通事故情境往往被描述為可能致人傷亡的極端狀況。然而,倫理考量應當貫穿自動駕駛汽車的整個運行過程,而不是僅局限于某些危險情況。因為自動駕駛汽車像任何其他交通參與者一樣,將在一個共享的公共空間中運行,其每一個駕駛行為決定都會影響其他人的操作可能性,這關系到所有道路交通參與者的“利益”(utility)(如安全、自由、舒適度等)。因此,自動駕駛汽車的引入將攪動整個道路交通體系的倫理秩序。
因此,在整個人類道路交通體系中引入自動駕駛汽車需要考慮社會各方的整體利益,特別是考慮那些沒有直接利益相關的人(如行人、傳統汽車用戶等)。然而優化碰撞算法和“電車難題”的場景將思想實驗置于抽象和無偏見的討論之下,所以,還需要綜合考慮行人和其他第三方的利益,這大致相當于征求那些在最初的“電車難題”中被綁在鐵軌上的人的意見,以確定道德上正當的行動方案應該是什么。下面我們將以混合交通中的人機差異為例來說明這一問題。自動駕駛汽車的設計方式是以最安全、省油和省時的方式到達目的地,這一優化目標對其駕駛風格產生了深遠影響,使它們與大多數人類駕駛員有明顯差異。例如,為了達到省油和避免擁堵的目的,自動駕駛汽車不會大力加速,并且會輕輕剎車;自動駕駛汽車會停留在騎車人后面更長時間才會超車;自動駕駛汽車會在需要的時候讓路,避免超速,總是在注有停車標志處停下來,等等。人類的行為也基于原則和規則,然而與機器駕駛不同,人類表現出的多是自滿而非優化駕駛行為,其駕駛能力只需剛好能達到他們的駕駛目標。這表現為在安全、燃油效率和車流量方面都不是最優的駕駛行為,如超速、保持過短的跟隨距離等。人類駕駛員在駕駛過程中是通過對其他人類駕駛車輛在各種情況下積累的諸多預判經驗形成駕駛習慣,而這些預判通常不太適合自動駕駛汽車。例如,一輛自動駕駛汽車可能會一直跟隨在后面,而人類駕駛員的預判是它即將超車。上述的不兼容增加了自動駕駛汽車與傳統汽車混合運行時交通事故發生的可能性,從而違背了人類社會引入自動駕駛汽車的價值基礎——安全原則。
因此,自動駕駛等新興技術的引入對現實社會規范的改變是全方位的,我們很難沿用義務論、功利主義或某種正義原則給予其普遍化的應對方式。以上反對當前自動駕駛汽車倫理學研究的觀點表達了規范倫理學在面對人工智能等新興技術對人類道德秩序的攪動時的無力感。面對自動駕駛汽車的現實復雜性和利益牽涉的廣泛性,一種可能的方案是將“電車難題”的思想實驗民主化,不僅以乘車人作為道德主體,還需要從行人和其他第三方的角度將“電車難題”應用于自動駕駛汽車以收集道德觀點,與其讓自動駕駛汽車的制造商和用戶將他們的道德偏好強加于他人,還不如讓整個社會都參與到道德辯論中。
上一節通過對自動駕駛優化碰撞算法問題的倫理學研究的考察,試圖表明新興技術的應用對人類社會規范和道德規范的改變是深刻而廣泛的,基于專家直覺的規范倫理學無法應對新興技術所導致的倫理議題的普遍化,自動駕駛汽車的道德算法和道德責任牽涉到的是所有利益相關者乃至全體公眾的道德直覺和道德判斷,可以說新技術對人類社會道德秩序的挑戰導致了倫理學議題的平民化,這就需要訴諸關注大眾直覺的實驗倫理學而非基于專家直覺的規范倫理學。因而,在自動駕駛的道德決策討論中出現了基于實驗倫理學的研究方案。
實驗倫理學作為一種方法論是以實驗哲學(experimental philosophy)的一個分支的形式出現的,實驗倫理學是對道德直覺、道德判斷和道德行為的實證研究,像其他形式的實驗哲學一樣,它涉及使用實驗方法收集數據,并使用這些數據來證實或修正倫理學理論。與實驗哲學相區別的是,實驗倫理學的研究還涉及我們道德判斷背后的認知結構、產生道德判斷的發展過程、道德判斷的神經科學基礎等。而實驗倫理學與道德心理學的區別在于:實驗倫理學側重于關注對人類道德心理狀態的合理化(rationalize)解釋;道德心理學側重于關注對人類道德心理狀態的因果解釋。近幾十年來,經驗科學開始介入到道德領域的研究中也為實驗倫理學提供了方法論的基礎,尤其是功能性核磁共振成像(fMRI)技術的流行給認知科學研究介入道德哲學提供了新方法,格林(Joshua D.Greene)使用功能性核磁共振技術考察道德判斷的內在機制為現代實驗倫理學做出了示范[11](2105-2108)。具體到自動駕駛汽車的道德決策研究中,鑒于以上所述的現實情境的復雜性和基于專家直覺的不充分性等問題,很多研究者也開始使用實驗倫理學的方式提取和模擬大眾道德直覺和道德判斷。
美國麻省理工學院媒體實驗室在Nature發表了他們關于自動駕駛汽車道德決策原則的研究論文,從2016 年開始他們通過“道德機器”(Moral Machine)的網站收集了4000 萬條來自233 個國家和地區的公眾對自動駕駛汽車可能面臨的道德困境的決策傾向。研究結果顯示絕大多數人都具有三個基本傾向:保護人而不是動物、保護更多的人、保護更年輕的人。他們還基于道德文化多元主義的視角進一步將不同地區公眾的道德傾向概括為:與南方和西方比,東方并不是優先保護年輕人、地位較高者、健康者;與東方和西方比,南方并沒有對優先保護人類有明顯的偏好[12](59)。這意味著對“道德算法”的設定還必須考慮道德文化多元主義的影響,由此就增加了未來對自動駕駛汽車的倫理原則和相關監管政策的規制難度。相比基于規范倫理學的道德推理研究,這種基于大數據的巨量樣本研究方法確實有效提取了公眾道德直覺,但其“實驗方式”仍然是某種“問卷調查”式的,難以處理道德判斷的情境化問題,此外也有研究表明:多數人不喜歡人工智能在自動駕駛、法律、醫療和軍事方面做出與道德相關的決策[13](21-34)。
面對上述自動駕駛汽車的道德決策困難,另外一種可能的實驗倫理學研究方法是模擬人類在相同情境下的道德決策機制,這也符合科學界“讓人工智能更趨近于人”的主流研究思路。德國奧斯納布呂克大學認知科學研究所的Leon R.Sütfeld 等在Frontiers in Behavioral Neuroscience上就自動駕駛汽車模擬人類決策發表了相關研究。該研究利用沉浸式虛擬現實技術對人類駕駛中的道德決策進行模擬,這項研究表明,在不可避免的交通碰撞事故發生時,對于人類、動物或無生命物體的生命價值,人類是有倫理判斷的,而這些判斷能夠通過算法建立模型。到目前為止,人們普遍認為人類的道德決策往往是根據事發時的情境來確定的,因此它不能用算法進行模擬或描述。但Leon R.Sütfeld發現,實驗參與者會依據對人類、動物或無生命物體生命價值的判斷來進行反應,根據人類這種生命價值觀,可以建立人類行為的模型,然后通過算法植入機器中[14](122)。這就為自動駕駛汽車的“道德算法”模擬人類道德決策做出了新的探索。
這種模擬人類在相同情境下的道德決策確實解決了問卷調查無法提取人類真實道德判斷的問題。但新的麻煩是,自動駕駛汽車的“電車難題”式的道德決策都是即時性道德決策(in-the-moment decision-making),其容易受到“道德失聲”(moral dumbfounding)和情緒因素的影響。第一,對于一些道德情境人們無法立即就自己的判斷給予合理的解釋,影響道德決策的原因是來自一種無意識的、快速的、自動化的直覺,這形成了“道德失聲”[15](814-834);第二,在道德決策中情緒因素會直接影響道德決策,基本的情緒來自知覺、想象和回憶,一些道德情感依賴于情境,例如厭惡、驚恐和憤怒等,而道德情感又與價值觀、社會規范和社會現實有關,受到社會偏好等影響[16](456-465)。由此,“道德失聲”和情緒會導致:在不同時間,同一個人在相同道德決策情境下,會做出完全不同的道德決策,這種即時性道德決策的不穩定性導致虛擬現實模擬的方式也無法回應事后追責的麻煩。
在“道德失聲”和情緒因素的影響之外,格林最近的認知科學研究也對即時性的道德決策提供了新的證據,其建立在某種自然主義的倫理學基礎上,以實驗的方式探究人類做出道德決策的生理機制。第一,格林將“雙重加工理論”(dual process theory)概括為自動設定(automatic setting)和手動模式(manual mode),即時性道德決策觸發的是自動設定,而他的學生穆森(Jay Musen)在實驗研究中提出即時性道德決策僅僅對個人力量(personal force)和空間接近(spatial proximity)高度敏感[17](85),然而自動駕駛汽車可能面臨的大量決策情境并不限于此;第二,格林提出,當我們面對非熟知的道德難題(unfamiliar moral problems)時,我們應當更少地依賴自動設定(自動情感反應),更多地依靠手動模式(可控的道德推理),除非有某種認知奇跡(cognitive miracle)[18](695-726),基于這種“無認知奇跡原則”(The No Cognitive Miracles Principle),自動駕駛汽車所面對的道德決策情境是“非熟知的道德難題”①對于如何界定“非熟知的道德難題”,格林提出的基本框架是:第一,文化發展與新技術導致的道德問題(如氣候變化、全球恐怖主義、全球貧困、生命倫理等);第二,由于直覺沖突導致的不同社群在道德實踐中的意見不一致。,在這種情況下應當以“可控的道德推理”做出決策,而非直覺性的道德判斷,這就與模擬人類即時性道德決策相矛盾。
上一節中,我們考察了實驗倫理學應對自動駕駛的道德決策難題的方式,即基于大數據、虛擬現實等新技術方法來解決另一個新興技術所產生的倫理問題,相比于傳統的“問卷調查”式的實驗倫理學,這種方式可以被稱為新技術路徑的實驗倫理學。然而,麻煩在于,新技術自身還攜帶著未能解決的倫理難題,例如虛擬現實的固有悖論:對虛擬的現實感本身是一種認知錯覺,沒有這種錯覺不可能感知到虛擬現實并形成沉浸感,但這種對虛擬現實的感知和沉浸反過來會影響人對真實世界的現實感,甚至使其發生改變[19](103)。此外,更深層的問題是沉浸式虛擬現實是否會創造出一種新的道德實在,例如當前虛擬現實技術的升級版——元宇宙,導致主體在虛擬世界中的體驗與現實世界中的體驗趨同,那么是否大部分元宇宙的社會規范就是人類現實世界社會規范的等價轉移呢?進一步,又如果元宇宙是無限多樣化的可能世界,那么在不同的元宇宙當中是否存在完全不同的社會規范或者道德規范呢?
相比基于思想實驗的規范倫理學和基于“問卷調查”的實驗倫理學,新技術路徑的實驗倫理學確實擴大了實驗倫理學的研究視野和精確性,如運用于大范圍社會倫理實驗[20](23989-23995),但也由于使用的新技術方法所負載的倫理問題而陷入困境。那么,對諸如自動駕駛等新興技術的實驗倫理學研究的意義何在呢?“電車難題”與自動駕駛進行類比的語境設定雖確有某種特設性的蘊含,但也有其道德實踐意義。自動駕駛汽車的優化碰撞算法類似我們對兒童的道德教育,我們也認為或希望他們永遠不會碰到電車難題的情況,但我們仍然在教他們一種道德規范,如果他們碰巧處于這類極端情況下,他們就可以使用道德規范做出反應。這種理念的要點是:道德是通過逐步學習和平衡抽象規則、利益以及具體情境而起作用的。因此,我們的直覺并不獨立于更深層次的機制和道德目的,相反,它們建立在這些過程之上,使道德能夠實現其目的。我們教孩子們預測和處理道德選擇,正如程序員教自動駕駛汽車預測電車難題一樣。這是新技術路徑的實驗倫理學研究需要預設一種特定道德情境的原因。
進一步,如果我們想在人工智能當中實現一種接近人類道德或人類能接受的道德形式,我們的直覺仍然很重要,因此,新興技術的深刻社會影響要求從專家直覺轉向大眾直覺,從而導致了“問卷調查”式的實驗倫理學研究。但是,“人類能接受的道德”不應被視為被所有人或大多數人能接受的“應做和不應做”的清單,這可能導致將強制性的清單施加于多元化的大眾。因此,大數據、虛擬現實等新技術手段被引入實驗倫理學的研究,基于當前對自動駕駛汽車倫理問題研究中最重要的“道德機器”實驗和“沉浸式虛擬現實”實驗的研究,本文試圖表明,“電車難題”的道德實驗研究的目的不是僅僅找出公眾的道德直覺,或者計算大多數道德直覺中所處的位置,以解決我們應該在電車難題中做什么道德決策的規范性問題。相反,它是用來揭示我們的道德體系是如何運作的,“電車難題”和更普遍的實驗倫理學研究的目的是找出公眾道德推理的機制,實驗方法只是其中的一個環節,它豐富了抽象的哲學推理并推動其在真實世界中變成現實。實驗倫理學在此處的意義在于:實驗研究(廣義上還包括關于道德困境和其他情景的實驗知識)與分析性和規范性推理結合在一起,最后在現實生活中被測試,從而有助于考察道德推理是如何被接受的。
自動駕駛汽車道德決策研究的困難表明了傳統規范倫理學框架在面對新興技術對道德秩序形成挑戰時的無力,對此,引入新興技術實驗工具的實驗倫理學研究起到了一定的補充作用。單向度要求自動駕駛汽車的道德決策更像人類的思路并不能滿足人工智能系統做出更好道德決策的要求,在人工智能倫理研究中,我們需要接受機器決策的某些優勢,如可預設、即時性、基于大數據等。大范圍問卷調查是實驗倫理學的直覺民主化體現,新技術的倫理問題需要在人機交互的語境中討論和解決。“電車難題”和更普遍的實驗倫理學研究的另一個作用在于探索提出一種適應人機交互的新的道德規范。當前對自動駕駛汽車道德問題的研究思路集中于如何使機器的道德行為更符合人類的道德規范,然而,在混合交通中廣泛存在的人機協作和人機交互行為將產生更多的道德難題,需要不同于現有人類倫理體系的道德規范加以應對。
如本文第一節中所述,人機駕駛方式的差異以及二者在交通行為決策中無法形成一致的預判,將增加自動駕駛汽車與傳統汽車混合運行時交通事故發生的可能性,這違背了人類社會引入自動駕駛汽車的價值基礎。在當前技術條件下,要實現某種人機協調的解決方式,除了人工智能學界主流的使機器行為更趨近于人的思路之外,還可以考慮改變人類駕駛員的駕駛行為方式,使其接近于機器,即某種人類道德規范的智能化。就道德智能化現象而言可大致分為兩類,一類是延續“道德物化”的理念,將人工智能作為道德技術物的存在方式間接作用于人類行為,從而達到對人類道德意識的糾正以及對道德實踐行為的規范作用;另一類是基于道德增強技術,對人類道德認知進行深度介入,以實現對人腦層面的道德能力的擴展。在人機交互的應用語境中,既有機器模擬人類道德也包含人類道德的智能化,這種人機協同演化過程中可能形成的新道德規范的合法性需要通過是否構成某種社會整體的道德進步來判斷。
倫理學傳統中對道德進步(moral progress)的評判有以下四種主要標準:認知標準(epistemic cri?teria),即道德規范能夠更成功地描述道德實在;形式標準(formal criteria),即道德規范的適用范圍和權威性的擴展便意味著道德進步;實質標準(substantive criteria),即存在一個對道德規范進行評價的具有普遍有效性的基礎;功能標準(functional criteria),即對道德進步的判斷來自道德規范是否能滿足當下社會中道德的功能,而這一功能來自社會經驗[21](3-15)。若將道德視為一種人工物,那么在道德規范體系中能否更好地履行其功能便可成為衡量道德進步的標準。就此而言,以道德功能的效用性作為評判道德進步的標準可以為道德智能化提供合法性辯護,同時能夠與道德生活實踐中的多樣性協調一致。實際上,道德智能化的傾向不僅強化了人類道德判斷的穩定性,而且由于道德智能化對道德行為生成原理采取多元路徑設計,改善了人類因道德認知局限而容易陷入道德觀念誤區的狀況。
新興技術的快速迭代對人類當前的道德規范不斷提出新的挑戰,實驗倫理學研究的意義在于:進一步揭示人類直覺性道德判斷的特點,尋找公眾道德推理的機制,從而與機器決策形成協調機制;同時,新興技術的實驗倫理學研究實際上為我們重新審視人類自身的道德規范是否適應社會發展提供了重要的契機,特別是各種新技術路徑的實驗方法的運用,極大推動了倫理問題討論的民主化,擴展了人類道德規范的多樣性。因此,新興技術推動了倫理學概念體系和研究框架的變革,未來二者之間的可能關系是:新興技術需要依靠倫理學更好地符合人類道德規范體系;倫理學則需要借助新興技術擴展研究方法和進路。當然,從倫理學自身的理論傳統出發,我們仍然要嚴肅對待以下問題:新技術路徑的實驗倫理學是否突破了倫理自然主義的范疇?實驗倫理學的設計是否只能來源于規范倫理學傳統中的思想實驗?[22](24)實驗倫理學與道德心理學究竟應通過怎樣的標準來劃分?如果我們的道德直覺是可靠的,那么心理證據應該在道德原則的論證中發揮怎樣的作用?[23](430)新技術是否正在將規范倫理學研究逐步推向大眾化的方向?這都需要在新興技術與倫理學框架的協同演化當中不斷追問,需要在技術與道德的實踐交互當中加以解釋。