摘要:無人駕駛是未來交通工具發展的必然趨勢,可以避免人類不良駕駛習慣,有效減少交通事故發生的概率。同時,無人駕駛也面臨著全面適用的限制,技術條件自不必說,該成熟與否只是時間問題,比技術問題更亟待解決的是無人駕駛算法背后的法律倫理問題。人類駕駛汽車時發生交通事故一瞬間的應急反應無法預測,意外因素不可控制,而無人駕駛算法必須在事故發生之前確定優先保護對象,便引發“電車難題”的現實困境。生命價值不可個體進行對比衡量,但從無人駕駛汽車的產品本質屬性和人性自利的天性使然出發,優先保護乘客符合規范層面的妥當性,本文從法律規制層面進行利益衡量和價值判斷,找出平衡點,并從產品責任承擔三元模式進行倫理選擇上的合法性、合理性、正當性的論證。
關鍵詞:無人駕駛;法律倫理;價值衡量
一、前言
無人駕駛技術毫無疑問是人工智能領域對現代交通工具的一次重大革新,這一技術不僅從根本上改變了人們的出行方式,而且對現行法律治理和倫理道德帶來了新的挑戰。在期待無人駕駛技術帶來便捷的同時也需警惕其所面臨的法律倫理風險,據此,為了初步建立無人駕駛領域法律法規、倫理規范和政策體系,形成無人駕駛安全評估和管控能力,就需要開展跨學科的探索性研究,推動相關基礎學科的交叉融合,重視人工智能法律倫理的基礎理論問題。對無人駕駛領域的倫理問題的爭論不絕如縷,黑格爾指出:“法律是自為自在地存在的,他們是從事物本性中產生出來的規定”。據此,為了實現法律追求公平正義的根本目標,讓法律規制下的人民從內心信仰法律,規范則必須對人民群眾關切的富含爭議的倫理問題做出具有說服力的回應。
二、問題的提出
無人駕駛汽車作為帶有一定私人空間和使用者極高安全期待的產品,生產者需對消費者承擔產品安全責任義務,以保護車內乘客生命安全為第一要務,為此可能犧牲第三人的生命健康利益。優先保護無過錯的第三人這一符合法律規制目標和社會人文道德關懷的理想在無人駕駛汽車面前也仍然難以實現。在真實的交通場景中,我們會遇見各種奇怪的緊急碰撞事件,如行人財產和動物生命間進行抉擇,隨著財產的價值和動物價值的不同,抉擇也會面臨新的挑戰;兩方人數的不同亦是衡量的砝碼,當無人駕駛汽車內只有一個人時,是否應為保護一群人的生命而自我損毀或犧牲呢?這些在未來可能出現的碰撞事故,因無人駕駛算法必須提前預設緊急事故來臨時汽車的應急反應,固定性采取何種救濟手段能將交通事故的損失降到最低,所以何種情況下何種利益優先保護面臨著選擇上的倫理困境。
三、法律倫理選擇背后的哲理辨析
人類倫理和機器倫理從本質上來看都屬于人類主體的價值選擇,無人駕駛算法的法律倫理困境也在于人類做出選擇的艱難。是否優先保護乘客的生命利益背后分別有兩種對立的代表哲理支持,分別是邊沁的規則功利主義和康德的人本主義。康德的人本主義在于人不能被當成任何實現目的的工具,人是目的本身,而不是手段。通過提前預設算法優先保護車內乘客的生命顯然是將他人當作實現自身最大利益的手段,把自我和他人進行生命權益權衡,無論進行質還是量的比較都屬于違反人本主義。雖然康德的人本主義反對優先保護車內乘客,但是也不能依此支持優先保護車外無過錯的第三人。據此,置于強制服從的道德最高點的個體生命便造成了選擇的僵局,也是法律倫理產生困境的根源之一。規則功利主義一定程度上吸收了了人本主義的色彩,要想建立功利主義規則,對規則達到內心的確信和遵守,規則必須來源于程序和大眾的接受。既然人工智能的趨勢具有不可逆性,選擇的做出無法逃避,采用規則功利主義可為優先保護乘客予以正名。
顯然,從機器倫理的特性來看,規則功利主義更切合無人駕駛發展的要求。相比于人類做出決定依靠隨機意志性,計算機倫理需受算法規則約束,在這算法規則中需注入人類倫理世界的道德感,以便提高人類對該算法規則的認同度和接受度。優先保護車內乘客這一選擇雖然從道德直覺感官上來不易被人接受,但是可以促進無人駕駛產品的普及和市場的擴大,最終達到技術的進一步發展,贏得改善目前交通亂象的長遠利益。
四、侵權責任承擔下三元模式的反向論證
關于新興科技的法律設計必須具有前瞻性眼光,在無人駕駛技術尚未全面適用的當下,為保障該技術的順利發展和出臺,法律必須起到引領作用。上述談到了在程序設計時的矛盾所在,接下來需討論當無人駕駛汽車發生交通事故時的侵權責任如何承擔的問題,并以侵權責任承擔的模式予以優先保護車內乘客選擇的進一步佐證,以責任承擔的后果反向論證汽車程序設計選擇的合理性。
如果優先保護第三人生命利益則會導致無人車生產者成為唯一的責任承擔者,但是按照民法規定,生產者承擔產品缺陷致人損害責任,產品缺陷認定標準是不合理危險和產品質量標準,并且明確規定了生產者的免責事由:未將產品投入流通的、流通時致損的缺陷尚不存在的、產品流通時科技尚不能發現該缺陷存在的。無人駕駛汽車的責任主要在于車,而不是在于人,因此無人駕駛汽車承擔侵權責任必須引入公平原則,建立以產品責任為原則、交通事故責任為例外,公平責任為補償的三元歸責模式。一旦放棄優先保護汽車使用人,責任主體就只剩下汽車生產者,三元歸責模式便不再成立。此時生產者如果可以適用產品的免責事由,強行讓其承擔責任會導致法律邏輯難以自洽。
綜上所述,無人汽車程序設計選擇優先保護使用者的背后存在規則功利主義的支持,滿足出現損害后果時三元救濟模式的反向推理。這能夠支持這一倫理選擇的合法性和正當性,在鼓勵科技創新和保護受害人之間尋找平衡點,以促進人類的自由、幸福為根本目標。
參考文獻
[1]蘇令銀.能將倫理準則嵌入人工智能機器嗎?——以無人駕駛汽車為例[J].理論探索,2018(03):38-45.
[2]李飛.無人駕駛碰撞算法的倫理立場與法律治理[J].法制與社會發展,2019,25(05):167-187.
[3]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017,35(05):128-136.
[4]肖鳳良.功利主義的現代復興——行為功利主義與準則功利主義述評[J].湖南科技學院學報,2013,34(06):72-75.
作者簡介:羅夢(1996--),女,漢族,江西九江人,西安交通大學法學院,碩士研究生,民商法方向。