鄭凱歌
人工智能技術已經應用到人們日常生活的各個方面,逐漸開啟了人工智能時代。而人工智能的普及也孕育出一系列的倫理問題,自動駕駛技術中“電車難題”應運而生:面對即將發生碰撞的行人,是直行直接撞向行人,還是急轉彎撞向一旁,將乘車人置于險地。自動駕駛技術作為人工智能時代的產物,這一倫理難題的解決決定著自動駕駛技術在未來能否順利推廣。自動駕駛汽車只有被提前置入具有倫理道德的事故算法,公眾才會放心購買使用。
自動駕駛汽車在行駛過程中,需要自動駕駛系統自主做出行駛決策,這就需要設計者和倫理學家提前為自動駕駛汽車嵌入道德算法,在此期間產生一系列倫理難題,比較典型的包括電車難題和隧道難題。
“電車難題”是指當自動駕駛汽車發生不可避免的碰撞時,關于碰撞目標如何選擇的問題。這一問題最初由菲利帕·福特提出,經典表述是:一輛失控的電車在電車軌道上高速駛來,軌道上有五個人,碰撞馬上發生。此時,你可以拉動一個拉桿,讓電車開到另一條軌道上。但另一個電車軌道上也有一個人,你是否會拉動拉桿嗎?[1]。另外一種表述為:一輛失控的電車在電車軌道上高速駛來,軌道上有五個人,碰撞馬上發生。此時你站在軌道上方的天橋上,天橋上有一個胖子,若推下胖子就可以擋住即將碰撞的電車,拯救軌道上的五人。考慮以上狀況,你會推下胖子嗎?一項關于“電車難題”的調查顯示:89%的人認為拉動拉桿拯救五人是可接受的,但只有12%的被調查者同意推下胖子。這一調查結果表現了謀殺和放任死亡的差別,對此調查的解釋還有很多,這也反映了倫理困境的復雜兩難,而自動駕駛道德算法設置就是這一復雜倫理困境的現實化。
隧道難題是電車難題的變型,但本質上具有差異。“電車難題”表征的是面對不可避免的碰撞時,對碰撞目標的選擇困境;“隧道難題”突出的是當乘車人和行人發生利益沖突時的選擇困境。隧道難題的表述為:一輛電車正高速駛入隧道,此時一名兒童堵在了隧道入口處,悲劇即將發生。如果選擇直行進隧道,會導致兒童死亡;如果選擇撞向隧道的墻壁,會致使乘車者死亡。而這些復雜兩難的倫理難題,必須在自動駕駛汽車投入市場前得到妥善解決。畢竟沒有人會把自身和家人安危交給決策不明確的自動駕駛系統,這也是自動駕駛技術發展的首要難題。
讓·弗朗索瓦·伯尼法等學者力圖尋找一種即能降低社會事故死亡預期,又符合大眾道德偏好的倫理理論,以此作為自動駕駛道德算法的基礎。因此,自動駕駛技術的道德算法選擇面對一個問題: 是道德偏好和選擇偏好本身就相互獨立,還是因為購買情境導致道德偏好的轉變?
調查顯示,大眾在選擇偏好中會表現出道德偏好,但在購買情境中,選擇偏好又會發生改變。因此,在置入自動駕駛汽車的道德算法時,不能簡單地依賴大眾在電車難題中表現出的功利主義偏好。道德偏好與選擇偏好的相互獨立表現出道德判斷的雙加工模型。在道德困境中,被試者在“非親身性”情境中,理性的認知占主導,感性的情感喚起較輕,容易作出功利主義選擇;而涉及直接傷害的“親身性”兩難困境,被試者更易感同身受。購買情境對被試者來說,更容易激發被試主體關于生存發展和個體安危的關注,其情感喚起度高于“非親身性”的電車難題,影響了主體的行動偏好。
盡管功利主義道德算法在調查中得到了大眾的道德認同,也可以減少社會整體事故死亡率,但在購買情境中受到阻礙。因此,尋找一種既能保證大眾購買意愿,又能提高社會整體安全預期的道德算法便成了當務之急。
“羅爾斯算法”為改變功利主義犧牲少數人的算法預設,提出“底線優先原則”。雷本提出以羅爾斯的“最大化最小值”原則為基礎,建構一種底線安全最大化的新算法。羅爾斯式算法通過最大化弱勢群體的收益推動博弈雙方達成“帕累托最優”,改變了功利主義為達到生存最大化而舍棄少數人的方式。在乘車者和行人生命同時受到威脅時,羅爾斯式算法選擇最大化生存率最低一方的生存率。
但羅爾斯式算法對事故主體生存率的評估是否準確卻存在爭議,另外一種觀點關于反向不公:如果我們把事故中生存概率小的一方作為重點保護對象,那是不是事故中安全系數更高的一方就會成為 “靶子”?例如,據官方數據統計,戴頭盔會讓騎行者在事故中的傷亡率降低,但如果騎行者知道自動駕駛事故算法會優先保護生存率最低者,他們是否會不再戴頭盔呢? 因為“頭盔”很可能因其安全性而成為自動駕駛事故算法的 “靶子”,這顯然是不公平的[2]。
獲得大眾支持的功利主義算法陷入了購買困境;具有“最大最小值”原則的羅爾斯算法帶來了反向不公困境,使設計者不得不考慮另一個問題:如果統一的算法無法滿足實際需要,那放棄統一算法,打造個人倫理算法,把選擇權讓渡給車主。自動駕駛汽車道德算法設置一直面對的問題:怎么為一個復雜兩難的道德問題預設答案,個人倫理算法的提出,將統一性的道德算法變更為個體的獨特選擇,以“預設選擇”代替“預設答案”。
賈斯帕·康提薩的“道德旋鈕”架構是個人化倫理算法中最具有代表性的。該架構中,旋鈕兩端分別對應“利他主義”和“利己主義”,中央對應“功利主義算法”:即優先保護行人和優先保護乘客,以及完全中立。駕乘人員在“利他主義”與“自我主義”之間進行傾向性選擇。“道德旋鈕”優勢在于:自動駕駛系統成為使用者道德選擇的延伸,以“多元主體”代替“單一主體”,完成了設計者向使用者的權責讓渡。并且,道德旋鈕的利己主義選項可以完全保護乘車人的完全,緩解了大眾對純粹功利主義算法自動駕駛汽車的購買排斥。
個人化倫理算法與強制性倫理算法的本質,都是通過對有限資源的權衡以求達到生存率最大化的帕累托最優解。
個人選擇事故算法會帶來更多倫理難題,所帶來的囚徒困境讓個體更加不堪重負。以機動車道路通行原則作類比,我國采取右側通行原則,而有些國家采用左側通行原則。左側通行和右側通行無法判斷誰更具有優勢,但一定都優于誰快誰占道。在混亂的秩序中,采取一個統一的、強制的規則,更能打破僵局規范秩序。只有政府介入進行強制性的倫理設定才能使社會全體利益最大化,政府應該給自動駕駛技術制定統一的、強制性的算法標準。
如今學界,倫理理論已經出現相互融合之勢。規則功利主義是功利主義對義務論的吸納;康德式倫理學開始對后果進行考量;義務論和功利主義也逐漸承認美德的重要性并試圖將美德納入自身理論框架。不同倫理理論彼此吸收、相互融合正在發生,這一過程實際上也是倫理理論對自身局限性的認識和突破。
設計者從研究方法和實踐操作層次上提出許多方案,目標旨在消解諸生命間的排他性沖突。多數道德算法都選擇引用系統性的倫理理論,但又因為沒有處理好自身缺陷而走向失敗。因而,運用倫理理論相互融合的方式以突破自身局限,來處理好內部特征之間的關系。我們應該吸收和利用美德倫理學、義務論和目的論等可借鑒的倫理理論,形成備選規則系統庫。
改變規則思維,焦距達成共識。為了解決不同主體的倫理價值沖突,可以引用契約論精神。在自動駕駛汽車道德算法設定過程中,需要考慮的利益主體包括行人、乘車人、制造商以及政府,契約主義為事故中利益主體的商議提供了借鑒。另外,可以展開討論,考慮不被接受倫理規則有哪些,進行反向啟發,從而為達成共享理解。
在設計自動駕駛汽車的道德算法時,可遵循兩大原則:綜合性原則和個性化原則。基于兩大原則的批評性反思的道德算法:調用一切倫理資源,形成備選規則庫—綜合性原則化;乘客自主地因情境采用不同的倫理規則—個性化原則。我們應尊重復雜的倫理直覺,調用一切倫理資源,因情境采用相應的倫理規則而非倫理理論。
政府介入進行強制性的倫理設定可以提供社會整體安全預期,自動駕駛技術應制定統一的、強制性的算法標準。自動駕駛技術道德算法也需要倫理理論相互融合。倫理理論融合或許不能完全實現,但不同倫理理論彼此吸收、相互融合卻正在發生。自動駕駛技術的道德算法的設計還有很長的路要走,需要改變規則思維,達成共識,并且在實踐中不斷完善。