譚 艷,何禮廣
(湖南師范大學道德文化研究中心,湖南長沙 410006)
目前,無人駕駛技術在飛速發展,在未來,就像機動車淘汰畜力車一樣,自動駕駛汽車終將逐步淘汰手動駕駛汽車,或成為人類未來社會的主流陸路交通工具。自動駕駛汽車也存在面臨交通事故的可能性,盡管無人駕駛技術和人工智能技術的使用會有效降低交通事故的發生率,然而它也絕不可能做到萬無一失。在交通事故面前,它必然會面臨眾多道德抉擇,甚至會陷入道德困境。那么,在面臨交通事故時,自動駕駛汽車應當如何抉擇?自動駕駛汽車的道德算法又應當采用什么樣的道德原則呢?
眾所周知,最早的電車難題是由哲學家菲利帕·福特于1967年提出來的,當時是作為哲學上的思想實驗,它主要用于模擬人在面臨道德兩難問題時會做出何種抉擇以及為何如此抉擇。它最初的描述是:電車剎車失靈而前方軌道上有五個人,如果不變更軌道,這五人將成為交通事故的受害者,但是有一個旁觀者可以拉動改道裝置使電車開往另一條軌道,然而在那條軌道上也有一個人,變更軌道意味著將原來五個人面臨的交通事故轉嫁給另一個無辜者。對于這個電車難題,每個人都能給出自己的回答。有些人認為五個人的價值更大,因此會選擇改道,這符合功利主義思想,然而功利主義被人詬病之處就是它以整體之名來傷害個體之利益;所以,反對功利主義的人便會強調一個人的生命和利益不能為整體所犧牲,個人的生命神圣而不可侵犯,因此不允許改道,這符合道義論思想,它總是在一定程度上拒斥功利主義。還有人認為既然道義論約束了不能轉嫁風險、危害他人,那么在原來五人已經面臨交通事故的既定事實下,就應該認命,這符合宿命論思想,這種思想比較消極,既不敢站在道義論的角度拒斥功利主義,也不敢站在功利主義角度做出犧牲的抉擇,實質上是一種不作為。當然,電車難題畢竟只是一個思想實驗,它的解答是開放性的,并無絕對的對錯之分,也不能憑借回答就評價某人道德與否。
隨后電車難題發生了一系列變種,其中比較著名的就是“胖子”版本。它設計旁觀者必須親手把“胖子”推入軌道,用胖子龐大的血肉之軀阻擋火車繼續前進,通過犧牲“胖子”這個無辜者來拯救原來面臨交通事故的五個人。“胖子”版本最大的改動就是決策者在選擇犧牲無辜者時是否和這個無辜者發生了直接的身體接觸。在初始版本中,拉動一個開關,在很多人看來決策者只是間接造成了無辜者的傷亡,反觀“胖子版本”,“親手推倒”的方式讓決策者和無辜者發生了直接的肢體接觸,直接導致了無辜者的傷亡,這種直接的肢體接觸成為了無辜者變成受害者的決定性因素。實際測試結果表明,這種設計差異將在很大程度上影響人們的決策。原本會有很多人選擇變更軌道,通過犧牲另一個無辜者來拯救原本面臨交通事故的五個人,甚至他們在做出上述決策時還會有著強烈的自我認同感,認為自己的決策是絕對正確的。然而,一旦換成“胖子”版本,他們的自我認同感就會消失殆盡,很大一部分人會開始質疑自己的決策是否真的那么正確,從而會轉向選擇“不作為”,哪怕仍然堅持選擇犧牲一個“胖子”來拯救那五個面臨交通事故的受害者,決策者的內心也會覺得不太能夠接受這種“親手推倒”的做法。
“電車難題僅僅作為思想實驗是可能出現的,但是很多人都認為在現實生活中不會出現這樣的情況。”[1]確實,在現實生活中,很少會出現這種極其邊緣情況下的選擇。即使我們碰到一些難以選擇的問題,它給我們提供的選項往往也不僅僅只有兩種,更不會只是單純的兩個互斥選項,一定會夾雜許多的可以幫助判斷的內、外部因素。雖然在生活中這種極端的兩難決策極其少見,但是人們仍然會面臨許許多多在道德上仍然模糊的決策。
自動駕駛汽車也不具有絕對的安全性,它也可能參與交通事故。在電車難題的思想實驗上,自動駕駛汽車實際上就是“用一輛自動汽車代替電車,用汽車的軟件代替旁觀者”[1]。事實上,人工智能將在自動駕駛模式下代替駕駛者做出后續的所有決策。人工智能和人在決策權上的沖突是任何自動駕駛系統都首先要解決的問題。2018年10月和2019年3月波音737 MAX 8機型所發生的兩起重大墜機空難震驚國際,事故調查人員懷疑錯誤的傳感器讀數觸發了MCAS,從而迫使飛機進入俯沖狀態,導致了慘案的發生。中國首先對波音737 MAX 8機型實施了禁飛限令,隨后引發了全球禁飛浪潮。無論空難的真實原因是什么,國際對MCAS的擔憂呈現了這個案例中的兩個人機沖突:一是MCAS的生效不需要飛行員的指令,二是飛行員無法及時有效阻止MCAS生效后的錯誤俯沖。這表明人工智能作為人的附屬品和創造物,它的決策只能是致力于實現人所能做出的最好決策,它的決策要為人所規定、約束、修正甚至是否決。自動駕駛汽車在電車難題上將創造一種新的情景,即它與傳統電車難題不涉及旁觀者切身利益不同,在自動駕駛汽車參與交通事故時,作為旁觀者的乘客一方面變成了當事人,另一方面卻將決策權賦予了人工智能。這種情景下,人工智能是否只能選擇犧牲路邊的無辜者?抑或是能夠選擇犧牲車主?即使如此,車上的乘客又是否愿意選擇犧牲自己?在這個問題上,想必在當事人內心至少是猶豫的。
毋庸置疑,自動駕駛汽車在面臨一場不可避免的交通事故時終究還是要做出一個決策,無論這個決策是關涉車上乘客的利益還是關切社會利益。那么人工智能系統又會選擇撞向誰呢?老人或者小孩?男人或者女人?更多的人或者更少的人?是犧牲車主還是路人?這些決策的背后是否具有道德合理性和行為合法性?這些決策又能在何種意義上為廣大人民群眾在“無知之幕”的原初狀態中所抉擇從而具有公正性呢?電車難題考究的不是人工智能的道德決策能力,而是人的道德決策能力,畢竟人工智能只是遵循人類提前預設好的決策規則罷了。一個不可否認的事實是:在人工智能的軟件或硬件沒有出現故障的情況下,它的決策遠遠比人的決策要高效,它能夠又快又好地按照人類所預設的規則盡可能地做出最佳的決策。自動駕駛汽車是人類科技進步的成果,不能因噎廢食,是否愿意讓人工智能來替人類做決定,這是自動駕駛汽車對人類發出的挑戰。要克服這個挑戰,至關重要的是要解決這個問題——自動駕駛汽車的道德算法應當如何設計?只有設計好道德決策規則,人工智能才能在正常工作情況下遵循人設計的規則做出更好的決策。
自動駕駛汽車的道德難題還有一個更為特殊的地方,那就是在這種道德難題中,我們往往要預測一切可能發生的場景。自動駕駛汽車在行駛的過程中所面臨的問題是復雜多樣的,可能會因為天氣的原因產生事故,可能會因為突發的事件發生事故,也可能會因為汽車的故障導致不可避免的事故。那么當這些突發情況導致事故發生無法避免時,又該依據什么樣的規則來進行決策呢?正是因為自動駕駛汽車在做道德決策時有那么多的不可控因素,所以對于自動駕駛汽車是否能夠商業化,人工智能的決策是否真的能優于人的決策,這些問題目前都存在著很大的爭議。但是不管爭議如何,如果自動駕駛汽車將成為未來的主要交通工具是不可避免的,那么我們能做的就是選擇一套盡可能好的道德算法植入到自動駕駛汽車中,用來達到最理想的效果。在用何種方式設立自動駕駛汽車的道德算法問題上,學界有兩種相互對立的流派,即“屏蔽信息而依靠道德運氣進行隨機選擇和基于完全信息的人工智能系統自主選擇”[2]。前一種方式對完全信息尚存在質疑,它的隨機性流露出一種簡樸的平等觀;后一種方式對人的道德理性以及人類的科學技術予以了肯定和信賴,它對信息的依賴性流露出對道德理性的推崇。我們同樣推崇道德理性,也堅信信息總是會從不完全朝更完全發展,這個變化過程依賴于科學技術的發展進程。
在設計自動駕駛汽車的道德算法時,以下幾個問題總是繞不過去。第一,道德算法由誰來設計?第二,道德算法為誰設計?第三,應當采用何種道德原則作為這套道德算法的基本原則?只有正面解決了這幾個基本問題,才算是進入了為自動駕駛汽車設計道德算法的殿堂,才能進一步去探尋自動駕駛汽車道德算法設計的基本原則。例如,余露曾指出:“我們在設計自動駕駛汽車的事故算法時,我們應該遵循兩大原則:綜合化和個性化。”[3]
首先,第一個問題,應該由誰來設計自動駕駛汽車的道德算法?有這樣幾種主體——汽車制造者、個人車主、政府[4]。如果由汽車制造者來設計,這些工程師、科學家會設計一些科學的程序,并且設置一些符合消費者需求的程序。但是,系統的設置和倫理規則的設置畢竟是兩個不同的領域。術業有專攻,汽車制造廠商更擅長制造汽車,關于非正常的、涉及倫理的程序不能只由汽車制造商來設計。如果由個人車主設計,也就是由使用者來決定。這在一定程度上可以滿足個人使用者的需求,保障個人的利益和安全。但是個體的道德傾向大多數情況下是不一致的,按照每個人不同的需求來設計不同的道德算法是完全不可取的,也是完全不合理的。如果由政府來設計,依照我們的國情也可以說是由集體來決定。大多數人都會同意這種方式,并以此來盡可能地保障更多人的社會利益。但是也有人會擔心,政府的干預是否會使得效率降低?而且,政府機構分立很多,具體應該由什么部門來設計也是需要考慮的。因此,由單獨的某個主體來設計是不太現實的,最好是采用一種混合制的方式。既要保障企業的利益,也要滿足個體的需求,更要最大程度地保障社會的利益。
第二個問題,這套道德算法為誰設計?如果為車主設計,也就是設計一套在任何情況下都應該盡最大可能保護車主的道德算法。雖然這樣可以最大程度地滿足個人的需求,但是在個體自利的本性下,或許會走向“囚徒困境”,以致交通事故更加混亂,而且在面對不可控的突發情況下,是否能有效保證車主利益也是個未知數,人際之間的利益沖突和矛盾也會因此轉向“車際之間”,交通矛盾與糾紛不可避免。如果為公眾設計,即盡可能地保障集體的利益,那么在必要的情況下可以犧牲車上乘客的利益。雖然這是我們一直歌頌的品質,但是沒有人樂意去選購一輛不會保護自身利益的自動駕駛汽車。所以,道德算法不能完全只為個人或者完全只為集體設計。我們應該盡量考慮個人的利益,更要考慮集體的利益。但這往往是很難衡量的,因為“個體訴求與集體利益的沖突之處往往是道德難題的高發地”[5]。
第三個問題,應該采用什么樣的道德原則作為這套道德算法的基本原則?Noah J. Goodall在這個問題上具有一定的權威性,他在一篇名為《遠離電車問題轉向風險管理》(AwayfromTrolleyProblemsandTowardRiskManagement)的文章中提出了自己的見解,那就是采用一種風險管理的方法。風險管理的基本形式包括考慮每個潛在結果的大小和可能性。當然要進行這種分析就需要超大的數據支持,這是毋容置疑的。同時,要進行這種風險管理,對于設計自動駕駛汽車的程序員來說也是一項浩大的工程。或者是設計一種具有學習能力的人工智能程序,可以讓自動駕駛汽車在工作時不斷通過學習迭代更新,從而能夠更智能地分析數據,在同一情景中做出更為優秀的決策。但是無論是哪種方式,都需要一個浩大的數據庫來為這種風險管理的決策方式提供支持。
所以,在給自動駕駛汽車設計道德算法時,所要考慮的絕不是單純地從某一個方面出發,更不可能只純粹地保護某一方的利益,當然,要滿足所有人的需求也是不可能的。從目前來看,最終的道德算法設計或許只能采取類似功利主義的原則,做到滿足多數人的需求,保護多數人的利益。如果自動駕駛汽車能夠做到:(1)在面對突發交通事故時,自動駕駛汽車可以迅速地進行判斷,選擇傷亡最小的方案;(2)在面向電車難題時,能迅速地做出風險評估,判斷每個人的生存率和死亡率,最極端的情況下,判斷每個人能為社會創造的價值,并以此作為決策的因素。那么,盡管會有人反對這種道德算法,但是保護多數人,保護能為社會創造更大價值的人也不失為一種通達“善”的可取原則。
因此,可以借鑒Noah J. Goodall的風險管理思路,也可以參照羅爾斯在作為公平的正義中對兩個正義原則所采取的做法——建立一種詞典序列以確定道德原則之間的優先序列,甚至為了克服道德算法中的功利主義成分,也可以汲取羅爾斯正義論中的契約論方法——對原初狀態、“無知之幕”的引入。正如羅爾斯所言:“原初狀態必須具有這樣一種特征:在那里規定是被廣泛接受的,正義的原則是在一種無知之幕后被選擇的。”[6]在人工智能可以評估的情況下,犧牲誰和拯救誰,這本身就蘊含著一種關于合理性、公正性和對等性的評價。因此,一種致力于使自動駕駛汽車在電車難題中做出合理、公正、對等決策的道德算法就具有了正義的德性。這種道德算法便獲得了去功利化的特質,在形式上采用了一種風險管理的方式,但它要設置有差序的道德決策原則。
第一原則稱為生命原則。生命是指人的生命,它所依賴的只有那些類似交通事故中所積累出的風險評估數據,例如風險系數、相關的生存率、某種條件下的傷亡率等,從而綜合決策,實行保護存活率更多的那種方案。雖然生命原則可能允許以更多的生命去傷害更少的生命,似乎仍然是功利主義思想,但是它作為優先級最高的道德原則,只允許生命層面的僭越。人工智能遵循生命原則做出的道德抉擇并不是定向犧牲某一個無辜者(符合道德運氣),它的決策更是在“無知之幕”之后做出的,也就是不會關涉到交通事故場域中任何個體的自然因素和社會因素,這意味著它會忽視所有人的身體素質或身份地位等因素,至于其他動物和人造物,無論價值多高都不在考慮范圍之內。或許,在傳統契約論的原初狀態中,個人會拒斥整體對個體生命的犧牲,但是傳統契約論中那種基于個體的原初狀態只存在于理論之中,那么是否可以將原初狀態拉回現實,將它設定在一個社會化的場域中?這樣,忽視個體的自然因素和社會因素便可以稱得上原初狀態,因為在社會化場域中簽訂契約的已經不是一個獨在的個體,也正是這樣,大多數人都能認同現實境遇下的基于“無知之幕”的生命原則。國家元首和普通人的生命權一樣重,在生命原則下,老年人和年輕人的生命權一樣重,重病者和健康者的生命權一樣重……人工智能依據生命原則不會歧視任何人的生命,它只會致力于在交通事故中保存更多人的生命,這種優秀決策結果是人類決策難以實現的,甚至始終站在公正原則立場上也是人類在現實生活中幾乎無法做到的。人工智能通過大數據分析所得出的結論,很大程度上是比人通過理性分析所得出的結論要可靠得多的。James H. Moor就說過:“最令人印象深刻的是,一個明確的道德代理人能夠自主地處理現實生活中發生的一系列不可預知的事件。”[7]
第二原則稱為價值原則。它是一種輔助式的原則,它所依據的恰恰是生命原則所屏蔽的個體的自然因素和社會因素,例如社會價值、身體健康狀況、學歷狀況,精神狀況,甚至是財產狀況等。價值原則實際上需要超大的數據支持,甚至是追求完全信息。啟用這個原則的前提條件是人工智能依據生命原則所評出的最優方案并不唯一,這種時候需要用價值原則輔助,以期在生命原則所評出的多個同等優先級別的方案中篩選出最優的那個。實際上,這兩個道德原則的應用是同時的,也就是說在人工智能的決策中,信息是盡可能地向它開放的,包括所有個體的自然因素和社會因素,只是依據詞典序列,生命原則的優先級別要絕對高于價值原則罷了。我們倡導生命原則,設計人工智能的決策處于“無知之幕”下,并不是意味著要刻意屏蔽科學技術能夠獲得的信息,甚至可以講,價值原則的應用表明了我們對完全信息的追求。當然,生命原則所要求的信息量和信息技術是目前的科學技術水平能夠輕易滿足的,這也意味著,在自動駕駛汽車的發展應用過程中,一種應用生命原則的道德算法是能夠實現的,同時,我們也追求信息技術所帶來的便利,追求完全信息在人工智能決策中的作用。萬物互聯互通這項工作無疑是艱巨的,但是當有足夠多的數據支持時,人工智能才能做出更加完善的決策,人們才能更好地享受自動駕駛汽車對生活帶來的巨大便利。
第三原則稱為人道原則。它是一個具有鏈式關系的補償原則,也是一種預先設定的強制性原則。它的核心精神就是:在人工智能對電車難題的最終決策方案中,總是會存在無辜的犧牲者和間接的或直接的事故豁免者,這些被拯救者要按照一定的責任劃分,向那些犧牲者的家庭予以無條件的相應經濟援助。因為在一個交通事故中,人工智能的多種決策方案中總是鏈式地串聯起許多人,這個鏈式關系上只有最小部分人被選擇為犧牲對象,剩余的絕大部分人將被選擇為事故的豁免對象。因為這個鏈式關系涉及的人群會比較大,倘若按照一定的責任劃分方案來劃分經濟援助額,這種責任分流方式會使得鏈式關系中的個體所承受的經濟援助壓力非常小,甚至也可以想象,肯定會有保險公司出臺“補償援助險”。之所以人道原則是強制性的,一方面是因為它對事故豁免對象而言僅僅造成很小的經濟負擔,但對事故對象的家庭而言卻有著“眾人拾柴火焰高”巨大功效;另一方面是因為強制性的補償保障會讓生命原則更容易被廣泛接受。人道原則對生命原則的功利主義思想也予以了一定程度的消解,即用補償來消解整體對個體的“傷害”。但這并不是說,用經濟補償就能獲得功利主義對個體傷害的正義性,生命原則的正義性本質上根源于它的決策處于“無知之幕”下,因而獲得了社會場域原初狀態下人們的廣泛接受。
在人類社會的發展進程中,人工智能的發展不會停止腳步,人類也不可能讓它停止發展。自動駕駛汽車不是完美的,它也永遠不可能是完美的。交通事故是無法杜絕的,無人駕駛技術和人工智能技術的應用只能讓自動駕駛汽車以遠超個體的能力去盡可能地降低事故的發生率,降低事故帶來的傷害和損失。甚至可以想象,當自動駕駛汽車的普及率達到一定程度后,是否自動駕駛汽車在面臨交通事故時會協同決策和協同處理?信息技術基礎上的精準協同是人類駕駛員無法匹及的。在那些極端和突發的情況中,特別是涉及到人的生命安全的情況下,應當讓人工智能遵循三大基本道德原則,并保證生命原則的至高優先級別,從而盡可能地保障更多人的生命不被損害,盡可能使事故中人的傷亡最小化,這是筆者所推崇的。人工智能基于生命原則的道德決策所需的數據量和數據技術是目前科學技術能夠輕易實現的,當然,自動駕駛汽車也追求更好更強的信息技術,更多更快的信息支持。目前,一個較好的可取態度便是認清人工智能決策的優點,并給它足夠的發展空間和信任包容。人工智能作為人之本質的對象化,它的決策依賴于人類對規則的把握。在未來,自動駕駛汽車能更快地做出比人類更好的事故決策,這便是人工智能的最大價值之所在。