999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自動駕駛汽車的道德算法設計
——一種風險分配立場

2021-07-05 07:39:36
天府新論 2021年4期
關鍵詞:價值

于 涵

真正有價值的悲劇不是出現在善惡之間,而是出現在兩難之間。

——黑格爾

一、從“電車難題”和“摩托車困境”談起

最早的“電車難題” (the Trolley Problem),是英國哲學家菲莉帕·富特(Philippa Foot)于1967年提出的。難題的內容十分簡潔:一輛有軌電車失去了控制,司機看見前方的軌道上有五個人。司機可以任憑電車繼續前行,這樣一來,這五個人一定都會被撞死(這五個人不知何故都無法離開軌道);司機也可以將電車轉向,開到一條岔道上,而這樣只會撞死另一個人。那么,司機是否應當把電車開到人少的軌道上,撞死一個人,而不是五個人呢?(1)卡思卡特:《電車難題》,朱沉之譯,北京大學出版社,2014年,第3-4頁。以此為基礎,演化出了非常多版本的“電車難題”,此處不再贅述。諾亞·古道爾(Noah Goodall)就此提出過另外一種情況:一輛自動駕駛汽車正面臨迫在眉睫的撞車事故。它可以選擇兩個目標中的一個轉向:要么是戴頭盔的摩托車手,要么是沒有戴頭盔的摩托車手。那么,該如何做出決策呢?(2)網址:https://www.wired.com/2014/05/the-robot-car-of-tomorrow-might-just-be-programmed-to-hit-you/,訪問日期:2021年5月4日。(姑且稱戴頭盔的人為甲,沒戴頭盔的人為乙,并稱這一決策難題為“摩托車困境”)如果撞向甲,甲戴頭盔的本意是為了保護自身安全,而現在卻變成了“活靶子”,這不是在變相鼓勵違反交通規則的行為嗎?如果撞向乙,由于其沒戴頭盔,受到的傷害肯定遠遠高于甲,兩弊相權不是應該取其輕嗎?

無論是“電車難題”還是“摩托車困境”,其共同點都是當面對人類目前無法解決的倫理問題時,自動駕駛如何處理。(3)唐興華、郭喨、唐解云:《電車難題、隱私保護與自動駕駛》,《華東理工大學學報(社會科學版)》2019年第6期。若將這個問題置于傳統的交通事故中,駕駛員所做出的任何決定均沒有太多探討的空間,因為這是其價值觀與潛意識的體現,并無正確與錯誤之分。而這個問題在自動駕駛領域,需要道德算法設計理念考量形式法治與實質法治的權衡、法律與道德的界限、價值序列的排序、不同價值觀的取舍等,這些都是促成結果多元化的重要因素。不可否認的是,我們沒有辦法找到一種能夠統攝所有人思想的通用理論。那么,面對功利主義與義務論的二元對立,我們不禁要問:是否有必要預設道德算法?如何預設道德算法?

二、兩種算法設計模式之爭

(一)功利主義模式

作為功利主義(utilitarianism)的開創者,邊沁認為,功利原理是指:它按照看來勢必增大或減小利益有關者之幸福的傾向,亦即促進或妨礙此種幸福的傾向,來贊成或非難任何一項行動。(4)邊沁:《道德與立法原理導論》,時殷弘譯,商務印書館,2017年,第59頁,第60頁。(就整個共同體而言)當一項行動增大共同體幸福的傾向大于它減小這一幸福的傾向時,它就可以說是符合功利原理的。(5)邊沁:《道德與立法原理導論》,時殷弘譯,商務印書館,2017年,第59頁,第60頁。穆勒指出,“功利主義把‘功利’或‘最大幸福原理’當作道德基礎的信條主張,行為的對錯,與它們增進幸福或造成不幸的傾向成正比”(6)穆勒:《功利主義》,徐大建譯,上海人民出版社,2007年,第7頁,第35-41頁。。實際上,對功利原則的證明十分復雜(7)穆勒:《功利主義》,徐大建譯,上海人民出版社,2007年,第7頁,第35-41頁。,甚至可以認為它是“不證自明”的(8)邊沁認為,“人類身心的天然素質,決定人們在一生的絕大多數場合一般都信奉這個原理而無此意識……當一個人試圖反駁功利原理時,他所用的理由實際上是從這個原理本身抽引出來的,雖然他對此渾然無知。”為此,邊沁舉了一個例子,他曾聽人說:“功利原理是個危險的原理,在某些場合考慮它有危險。”這等于是說,考慮功利是不符合功利的;簡而言之,考慮它亦即不考慮。可參見邊沁:《道德與立法原理導論》,時殷弘譯,商務印書館,2017年,第61頁。,但其結論卻很簡單:功利原則是解決任何實踐問題的唯一和完全充分的理由,而不用依賴任何更高的理由。(9)邊沁:《政府片論》,沈叔平等譯,商務印書館,2017年,第157頁。根據功利主義原則,在“電車難題”中,應該犧牲一個人而挽救另外五個人;在“摩托車困境”中,則犧牲戴頭盔的駕駛員。

對于這一問題的回答,我們可能沒有辦法簡單根據“兩弊相權取其輕”的原則,理所應當地犧牲少數無辜者。根據功利主義模式所得到的結論,建立在經驗主義認識論的基礎之上,且與大多數人的理性相符,即便可能和日常生活中的道德直覺相背離。但不可否認的是,以此設計道德算法仍具有相當的正當性。然而,若兩條軌道上的人數相等,又該如何進行抉擇呢?或許,當“人”這個概念完全被形式化后,功利主義者很難以“幸福最大化”為基準回應這一問題。其原因在于,功利主義模式對“電車難題”的回應并不是具體的,而是在無知之幕(veil of ignorance)下,將人抽象化。如果置于特定情境中,人與人的價值必然存在差異。舉例來說,若只考慮社會貢獻因素進行取舍,那么在此觀念指引下,社會最終必然會分裂成兩個極端。

正如羅爾斯在《正義論》中指出:“功利主義觀點的突出特征是:它直接地涉及一個人怎樣在不同的時間里分配他的滿足,但除此之外,就不再關心(除了間接的)滿足的總量怎樣在個人之間進行分配。”(10)羅爾斯:《正義論》,何懷宏等譯,中國社會科學出版社,1988年,第25頁。由此帶來如下問題:其一,功利主義將“最大多數人的最大幸福”置于最高位階,凌駕于所有因素之上,但可以為此犧牲雖為少數卻是無辜者的利益嗎?少數和多數并不是獨立的,而是相對的,在不同的情境下可以相互轉化。如果將功利主義視為一種絕對的價值準則,演變到最后,結果只能淪為:每個人都是被犧牲者。其二,如果將生命視為可以用于“緊急避險”的犧牲品,即變相承認生命與生命之間存在質與量的差別,這會導致生命成為一種“交易品”,于法不容,甚至導致多數人的“暴政”。(11)如果將類似問題視為簡單的數學題,必然會使個人權利處于極其不穩定的狀態中。舉例來說,可以隨時進入你的私人空間,甚至將你殺害,只要是為了實現多數人利益的最大化。其三,人類欲望并非道德原則,無法從“是”推出“應當”。即便多數人贊同某一算法是既定事實,但也不是算法具有正當性的充分條件。就如同毒樹之果(fruit of the poisonous tree)一樣,用一種“非法”方式取得的結果,將自己的幸福建立在別人的不幸之上,還能被視為一種“幸福”嗎?社會可以為了追求好的結果,而采取壞的手段嗎?(12)功利主義可能為刑訊逼供提供理論支撐。舉例來說,某一犯罪集團的某一成員被捕,如果采取刑訊逼供,得到有用信息,就可以制止犯罪集團的不法行為,那么,一個人的痛苦和千萬人的幸福、安定相比,自然是可以舍棄的。其四,功利主義將個人的幸福與他人的幸福混合在一起計算,沒有體現出對個體權利的尊重。舉例來說,如果自動駕駛汽車在能夠避免損傷的情況下,故意撞向某人而致其受傷,這對被撞傷者無疑是“非幸福”,但若因此給成千上萬的人帶來“幸福”,那么,依據功利主義理念,有什么理由禁止這種行為的發生呢?

綜上所述,不難發現,即便功利主義模式存在瑕疵,但它仍具有極強的優越性。究其原因,主要在于功利主義的認識論是以經驗為基礎的,相較于唯理論所強調的“絕對真理”,少了些許神秘色彩,與我們的日常生活相貼切,而具有極強的現實意義。

(二)義務論模式

義務論(deontology)的代表人物是康德,他反對功利主義道德原則,認為“幸福的規范往往夾雜著一些愛好的雜質,所以,人們不能從稱之為幸福的滿足的總體中,制訂出明確無誤的概念來”(13)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。如果將道德置于人類欲望——即便是追尋幸福——之上,便混淆了“幸福”和“善良”間的界限,從而誤解了道德的真正含義。倘若道德不是建立在欲望之上,那還剩下什么呢?盡管康德是一名基督教信徒,但他并沒有將某些神圣權威(如上帝)視為道德的基礎,而是強調通過“純粹實踐理性”以實現道德。康德認為,“只有出于責任的行為才具有道德價值”, “一個出于責任的行為,其道德價值不取決于它所要實現的意圖,而取決于它所被規定的準則”。(14)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。這與邊沁所提倡的功利主義只注意到人類感性部分不同(15)從嚴格意義上講,功利主義并未完全摒棄“理性”這一概念,只不過這種理性是“工具理性”,是實現目的最大化的手段,而非決定何種目的值得去追尋。相較而言,康德所提倡的“理性”觀念,是一種“純粹實踐理性”,即忽略所有的經驗目的而設定了一種先驗性。,因為人還有理性,理性與感性是人類的一體兩面,而只有將理性視為最高統治者,才不會使我們淪為欲望的存在。康德進一步指出,“只有為有理性的東西所獨具的,對規律的表象自身才能構成,我們稱之為道德的,超乎其他善的善”(16)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。為了實現道德,每個人都應該服從這樣一種規律,即“任何時候都不應把自己和他人僅僅當作工具,而應該永遠看作自身就是目的”(17)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。就目的而言,“超越一切價值之上,沒有等價物可代替的才是尊嚴”(18)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。康德由此將道德最高原則定義為“意志自律性”,即“意志由之成為自身規律的屬性,而不管意志對象的屬性是什么”(19)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。從這個意義上講,道德并不是一味地遵循欲望,也不是為了實現某種目的而選擇的最佳手段,而是根據自己給自己設定的法則而“自律地行動”。也就是說,應當通過尊重人的尊嚴的方式將人視為目的,即為了目的本身去選擇目的。

康德式的尊重(Achtung)針對的是人類廣泛存在的、沒有差別的理性能力。他將人視為目的本身,而非實現目的的手段,從而將每個人都定義成自由的客體。從義務論的觀點出發,在“電車難題”中,五個人的權利與一個人的權利是平等的,如果為了五個人而犧牲一個人,那么這個被犧牲者便成為挽救五個人性命的工具,而非將其作為目的本身加以尊重。當然,如果換一個視角,或許基于功利主義也可以得到相同的結論。具體來說,如果允許通過犧牲一個人的方式來挽救五個人,那么今后每個人都會盡量避免自己成為“那一個人”,故而從長遠的角度來看會降低“功利”。然而,依據義務論仍然可以對這種觀點進行反駁,因為這種功利主義說辭是將潛在的“那一個人”視為他人幸福(目的)的一種純粹手段(工具)。也就是說,不犧牲“那一個人”,只是為了讓其他人不會擔心自己成為“那一個人”而已。

在“電車難題”中,既然拯救五個人是道德義務,不犧牲一個人也是道德義務,那么當兩者發生沖突時,只能選擇不作為,即“遵從上帝的旨意”。然而,康德式的義務論在很多情況下缺乏現實可操作性,甚至會陷入“烏托邦”似的幻想。舉個極端的例子來說:倘若一條軌道上站著一個人,而另一條軌道上站著1億人(如果可能的話),如何抉擇?難道能依據義務論模式得出“1億不大于1”的結論?這顯然是很荒謬的。此假設中,功利主義將理論與現實割裂開來,將人抽象為觀念上的存在加以比較,從而具備了義務論難以反駁的優勢。屆時,被命運選中的那個犧牲者,或許只能將其視為一種“原罪”,而非1億人針對他一個人的不公。由此觀之,在電車難題中,如果雙方所犧牲的利益的天平出現嚴重傾斜,其結果必然會滑向功利主義。

三、是否有必要預設道德算法

自動駕駛汽車的普及注定是一股不可阻擋的潮流。在人工智能時代下,如何實現人與人工智能的和諧共處呢?很多人回答過這一問題,代表性例證是“阿西莫夫三定律”(Asimov’s three laws)(20)“阿西莫夫三定律”是指:第一,機器人不得傷害人類,或看到人類受到傷害而不作為;第二,機器人必須服從人類的命令,除非與第一條相沖突;第三,機器人必須保護自己,除非這種保護與前兩條相沖突。更多評述可參見Balkin,Jack M.,“The Three Laws of Robotics in the Age of Big Data,”Social Science Electronic Publishing,2017,pp.1-10.,其旨在引導科技向善(Tech for Social Good),即在機器人“傷害人類”與“保護人類”之間選擇后者而盡力規避前者。這種制度架構符合任何一個正常人的理性認知,并沒有什么值得探討的空間。而真正困難的抉擇并非出現在善惡之間或利弊之間,而是在“兩惡”或“兩弊”之間,這也正是探討“電車難題” (或“摩托車困境”)的核心價值所在。如果不預設道德算法,意味著在面臨上述困境時,有以下兩種可供選擇的路徑:

一是將決定權交給車主,由其自行選擇承受損害的主體。這無疑將選擇結果與個體在一剎那間的價值判斷相連接,具有較大的偶然性與隨機性。就車主而言,采用功利主義模式與道德直覺相違背,采取義務論模式又缺乏現實可操作性。在不斷追問下,可能會陷入道德之愣(morally dumbfounded),并引發決策悖論:怎么選擇都可以,怎么選擇又都不行。最終,道德抉擇只能來自情感本能,即從樸素的價值觀出發,以直覺先行,而推理通常在判斷形成之后才做出,目的是影響別人(如圖1所示)。(21)喬納森·海特:《正義之心:為什么人們總是堅持“我對你錯”》,舒明月、胡曉旭譯,浙江人民出版社,2014年,第47頁。筆者反對由車主設定道德算法,理由有二:其一,將道德難題交給車主,無疑將個體行為與自動駕駛連結在一起。由于損害結果與車主行為直接相關,則難免會要求車主在一定程度上——未必是全部——承擔責任。此時,個體在道德上的自私性將充分表現出來。例如,在任何情況下,均采取最大限度地保護自己的方式。其二,就技術層面而言,隨著自動駕駛技術的進步,人類駕駛人角色被不斷消解(22)黃波:《自動駕駛汽車交通肇事的刑法應對》,《天府新論》2018年第4期。,甚至完全淪為一個“乘客”。而在突發事件中,往往需要在極短的時間內做出道德抉擇。這對車主(乘客)而言,既不可能,也不現實。

二是將決定權交給“上帝”,采取一種無差別的抉擇方式,無論現實情況如何,算法均回避多元的社會現實,不存在任何的傾向性。為了實現“公平”決策,甚至有學者建議在道德體系中使用隨機數生成器。(23)Robert Trappl, “Ethical Systems for Self-Driving Cars:An Introduction,”Applied Artificial Intelligence,2016,Vol.30,No.8,p.746.那么,就自動駕駛汽車而言,可以不預設任何道德算法,抑或采取一種“擲硬幣”的方式將命運交給“上帝”嗎?答案是否定的,理由有三:其一,鑒于人工智能的發展對社會的影響愈發凸顯,人們普遍認為,受到人工智能影響的人應該對技術足夠了解。(24)Wischmeyer T.,“Artificial Intelligence and Transparency:Opening the Black Box,”in Wischmeyer T.,Rademacher T.(eds.),Regulating Artificial Intelligence,Springer,Cham,2020,p.76.在“算法黑箱”(black box)中產生的結果難以被民眾接受,是“刑不可知,則威不可測”的一種倒退。算法的不透明性使其喪失了對行為的指引功能,民眾沒有辦法明確地采取有利于己的行動。為了規避潛在風險,只能被動做出遠高于算法設計所需要的讓步,其結果必然導致個人權利空間被壓縮。其二,算法設計必須引入公眾參與,實行民主決策。究其原因,不僅在于這與每個人的權益——所承受的風險——緊密相關,更是實現風險決策者與風險承受者相統一的因應之策。其三,不預設道德算法或許能夠實現形式平等,但可能與實質平等相悖。以“摩托車困境”為例,如果撞甲還是撞乙完全是隨機的,不存在任何傾向性,那固然做到了形式平等。但倘若撞不戴頭盔的乙會致其死亡,而撞戴頭盔的甲僅會致其輕傷,此時若撞向乙,顯然與實質平等相抵牾。不預設道德算法可能導致自動駕駛汽車選擇不道德的行為,甚至觸碰法律所維護的底線。

正如美國麻省理工學院情感計算研究組創始人羅薩琳德·皮卡德(Rosalind Picard)所言,機器的自由度越大,便越需要道德標準。(25)Wallach,Wendell and Allen,Colin,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2009,p.23.就自動駕駛汽車而言,設計道德算法是必要的,關鍵在于如何規避功利主義模式與義務論模式的弊端,以實現最優解。

四、風險分配模式:第三種路徑之可能

功利主義模式與義務論模式是基于不同價值觀的表征,兩者在特定情境下均具有合理性,并不存在“上下之分”,有的只是“左右之別”。而筆者所提出的風險分配模式是在功利主義與義務論兩種極端中選取的第三條道路,其優越性可以從一種更抽象的方式加以證立。舉例來說,如果甲、乙兩人需要分完100元錢,那么,甲之所得必為乙之所失,甲之所失必為乙之所得,這顯然是一個零和博弈。如何設定各自的分配金額呢?當然,可以將100元錢全部給甲,或者全部給乙。但這兩種分配方式處于兩種極端,使一方收益最大化而另一方損失最大化的做法,是極其不公的。如果選取第三種分配方式,使甲、乙兩人都分到一定數額的金錢,那么,無須討論何處才是“黃金分割點”,因為只要將這個點設在兩種極端之間,即便其中一人只分到一元錢,相較于上述兩種分配方式而言,也是占優的。

道德算法設計中的風險分配與財富分配相似,唯一的區別可能在于:財富是可分的,而風險一旦轉化為現實損害,就由不確定性變為確定性,從而無法分割。具體來說,在道德算法設計中,撞甲抑或撞乙是二元對立的抉擇,被撞者必然受到全部損害,即100%;而另一方必然不會受到任何損害,即0。損害沒有辦法像財富一樣,在兩者之間公平分擔。(26)誠然,如果事后讓沒被撞的人給予被撞者一定的物質補償,也是在變相“分擔”風險。但就風險本身而言,是無法分割的。那么,第三種模式如何生成呢?答案在于概率。實踐中,談及概率的意義非常有限。因為在損害發生時,概率要么是100%,要么是0,不存在第三種可能。但是,將概率引入道德算法設計具有極強的理論意義:一方面,其將損害轉化為風險,將確定性轉化為不確定性,正面回應了自動駕駛的道德算法設計悖論;另一方面,基于調和論立場,運用偶然性強行打破了功利主義算法與義務論算法間的界限,至少在理論上徘徊于兩種極端之間,且具有超越兩者的顯著優勢。

從本質上講,道德算法的設計模式體現著自動駕駛汽車的風險分配方式,起決定作用的是社會主流的價值判斷與價值選擇。理論上無法設計出一套既符合社會大眾共識又滿足公平正義要求的通解,這或許正是“電車難題”的核心癥結所在。為了確保道德算法的有效性與普適性,應當采取道德的普遍化原理(principle of universalization),即每項有效的規范必須滿足如下條件:所有旨在滿足每個人的利益的規范,其普遍被遵循所產生的結果與附帶作用,均能不經強制而為所有相關者所接受。(27)Jurgen Habermas,Moral Consciousness and Communicative Action,The MIT Press,1999,p.65.具體來說,一方面,把是否“滿足每一個人的利益”視為規范有效性證明的標準,在這里“每一個人”代表著一種超越任何特定社會、團體、階層的“每一個單個的個人”的意思,即它并不指特定群體也不指那種抽象的或總體的人;另一方面,它又要求在所有可能的或不同的應用情境中來確證規范的有效性(它因此把對規范實踐的“后果和副作用”的適當考慮當作是否“滿足每一個人的利益”的條件)。(28)劉鋼:《哈貝馬斯與現代哲學的基本問題》,人民出版社,2008年,第215頁。從這一立場出發,風險分配模式與道德的普遍化原理十分契合。一方面,它沒有以部分群體的價值觀為基礎,制定統攝所有人——自然包含擁有不同價值觀的另一部分群體——的道德算法,而是將自我與他我置于同一位階進行考量,通過交換主體性,使每一個人都能站在他人利益的立場之上;(29)可以參見無知之幕版“電車難題”,https://www.wjx.cn/jq/10003546.aspx,訪問日期:2020年6月4日。另一方面,將抽象算法與具體情境相結合,通過民主協商使每一個個體表明自身利益,并在合理的妥協中實現“人人利益之并行”。由此觀之,風險分配模式具有超越功利主義與義務論的顯著優勢。那么,如何以此為基礎,設計道德算法呢?

(一)道德算法的支點:價值等級序列

價值等級序列是指價值在相互的關系中具有一個“級序”,根據這個級序,一個價值要比另一個價值“更高”或者說“更低”,它包含在價值本身的本質之中,并且并不只對那些為我們所“熟悉的價值”有效。(30)馬克斯·舍勒:《倫理學中的形式主義與質料的價值倫理學》,倪梁康譯,商務印書館,2011年,第146頁。從理論上講,既然存在道德算法,就肯定能找到一個由不同層級價值所構成的“序列”。它的最高一級就是直接“撞毀整個地球”,最低一級是作為被撞對象所損害的最低價值。在這兩級之間,包含了自動駕駛汽車可能侵犯的所有潛在利益。這些利益遵循著“無形”的序列,由高到低排序。在設計道德算法時,需要找到能夠衡量所有被撞對象價值大小的基本標尺,從而進行傾向性選擇。其實,美國麻省理工學院媒體實驗室(MIT Media Lab)一直致力于機器道德的研究,通過測試來了解大眾對于道德兩難議題的看法,以為研究自動駕駛汽車道德提供依據。實驗結果表明,民眾對于不同性質利益間的權衡是相對一致的,如傾向于保護遵守交通法則的人,相較于保護動物而言,傾向于保護人類,等等。(31)網址:http://moralmachine.mit.edu/,訪問日期:2020年6月4日。另可參見:Awad,Edmond etc., “The Moral Machine Experiment,”Nature,2018.

從本質上講,價值序列的設定與刑法中的“緊急避險”條款相似,即為了消除自動駕駛汽車在道德困境中的危害,通過犧牲較小利益的方式而保全較大利益。從社會主流的價值判斷與普通民眾的基本認知出發,一個普遍能接受的價值序列是:生命利益大于身體利益,身體利益大于動物利益,動物利益大于財產利益。也就是說,當不同性質的利益間發生沖突時,必然以犧牲較低階利益的方式保全較高階利益,而人類生命處于最高位階。在確定了價值序列之后,需要回答的便是:在同種利益間——如人的生命和人的生命——如何進行取舍?這種取舍,不能簡單依據數量的多寡而優先考慮一方,而應努力尋求彼此間的“實際一致性”(practical concordance)。

(二)道德算法的核心:風險分配均等化

風險(risk)是指特定時間內某種特定危害發生的可能性或者某種行為引發特定危害的可能性。(32)Baldwin,R (eds.),“Law and Uncertainty:Risks and Legal Processes,”Kluwer Law International,1997,pp.1-2.許多著作中用數學公式來表現風險,即期待值R等于用于表達某一個可能時間及其后果的數值(損害規模S)乘以有關該事件及其后果發生的可能性(H)的數值:R=H×S。(33)劉剛編譯:《風險預防:德國的理論與實踐》,法律出版社,2012年,第24頁。在設計道德算法時,應當引入風險理論,以保證機器決策的隨機性。質言之,應當根據損害程度決定風險分配的概率,而不是在兩難決策中進行非此即彼的確定性選擇。如果從博弈論的角度來看,算法設計不應存在純策略均衡,而應構建混合策略均衡,即讓潛在的被撞者知道,是否戴頭盔與是否被撞之間沒有必然的線性因果關系。當然,這種隨機模式與擲硬幣不同,不是走向完全無為的混沌狀態,而是利用偶然性,防止潛在被撞者發現道德算法的設計規則,從而規避被撞的可能。

將風險理論引入道德算法設計的優勢在于,可以緩解功利主義與義務論間的張力。那么,如何計算概率呢?最基本的原則就是實現風險分配的均等化。偏離風險理論而另行尋求其他的界限,不僅會破壞兩難決策下的平衡,還會導致被撞者在承受風險程度上的懸殊,甚至畸重或畸輕。面對公民日常生活和社會運轉之中泛在的算法歧視(34)何傲翾:《數據全球化與數據主權的對抗態勢和中國應對——基于數據安全視角的分析》,《北京航空航天大學學報(社會科學版)》2021年第3期。,風險分配均等化是設計道德算法的科學且公正的參考系,具有客觀性、隨機性、公平性、普適性,可以最大程度地跨越時間與空間的界限,是道德算法的核心。基于這一理念,便能夠回答前文中提到的兩個問題。就“電車難題”而言,如果不考慮其他因素(35)德國發布了世界首份自動駕駛倫理指南,第九條指出,“在事故不可避免的情況下,基于個人特征(年齡、性別、身體或精神體質)而進行的任何區分都是嚴格被禁止的”。也就是說,禁止依據人群屬性對受害者區分對待。參見Luetge,C.,“The German Ethics Code for Automated and Connected Driving,”Philos. Technol,2017,No.30,p.552.,只從數量來看的話,則有5/6的概率撞向一個人,有1/6的概率撞向五個人。在“摩托車困境”中,如果戴頭盔的甲被撞,受到的傷害值是3,而沒戴頭盔的乙被撞,受到的傷害值是7,則有70%的概率撞甲,有30%的概率撞乙(見表1)。

表1

(三)道德算法的修正:社會主流價值

算法應恪守基本倫理規則和主流價值導向。(36)陳曉彥:《用主流價值導向駕馭算法》,《白銀日報》2019年9月28日。對于如何設計自動駕駛汽車的道德算法這一問題,在不存在通用正解的前提下,本質上是在決定用何種價值觀將風險分配給誰。與財富分配的等級化相區別,風險分配應以均等化為基礎,并通過不斷修正而實現“公平性”。質言之,風險分配方式應遵循社會主流價值,并隨著主流價值的發展變化而及時調整,從而形成某種程度的循環。對混合方法的綜合或更迭運用,由一整套復雜的規則構成,它優于其他單個方法或多個方法的簡單采用,更能體現出對悲劇性選擇的正確認識。(37)蓋多·卡拉布雷西、菲利普·伯比特:《悲劇性選擇:對稀缺資源進行悲劇性分配時社會所遭遇到的沖突》,徐品飛、張玉華、肖逸爾譯,北京大學出版社,2005年,第214頁。因此,道德算法的設計并不是永恒不變的,而應根據社會主流的價值判斷與價值選擇,對均等化分配風險之基準進行修正。當然,這種調整存在兩個默認的前提:其一,社會主流價值判斷并非由某一方單獨決定,而是采取一種民主的方式表達所有潛在受影響者的利益;其二,算法能夠呈現這種價值判斷,即具備可操作性,這就將社會地位等因素——至少在現有技術水平下——排除在外。

對風險分配均等化的修正需要從三個層面展開。首先,確定所有需要考量的因素,包含但不限于年齡偏好、性別偏好、是否重視保護乘客、是否違反交通法規等。其次,根據重要程度,設定每個因素的權重。例如,社會主流價值取向表明,極其重視交通法規,而不太重視性別偏好。那么,在協商后可能會將前者的權重設定為30%,后者的權重設定為5%。最后,將各個因素的權重作為對風險分配均等化的修正。以“摩托車困境”為例,如果只考慮交通規則因素,在甲(戴頭盔)沒有違反交通規則而乙(沒戴頭盔)違反了交通規則的情況下,需要把30%的權重加進去,且確保總體概率為100%(見表2)。

表2

五、結 語

針對自動駕駛汽車的道德算法設計模式,本文超脫功利主義與義務論的爭辯,以風險分配為基礎,旨在用不確定性算法代替確定性算法,以逼近理論上可能存在的、通用的“正解”。質言之,道德算法并不是固定不變的。當特定群體所承受的風險超越極限時,便應再次通過民主程序,根據社會主流價值判斷調整各因素的權重,從而修正風險分配均等化。或許,這就是風險社會下分配風險的終點與宿命。

猜你喜歡
價值
踐行初心使命的價值取向
當代陜西(2019年18期)2019-10-17 01:48:58
價值3.6億元的隱私
華人時刊(2019年23期)2019-05-21 03:31:36
一分鐘能創造多少價值?
一粒米的價值
人與自然的和諧之美——《七月》價值新解讀
唐山文學(2016年2期)2017-01-15 14:03:53
“給”的價值
俆衛:用夢創造價值
科學中國人(2015年4期)2015-02-28 09:12:39
價值
小說月刊(2014年8期)2014-04-19 02:39:17
從平凡中體現價值
聲屏世界(2014年1期)2014-02-28 15:17:32
“活著就要體現自身價值”
中國火炬(2012年3期)2012-07-25 10:34:02
主站蜘蛛池模板: 亚洲综合二区| 综合五月天网| 91在线无码精品秘九色APP| 在线看免费无码av天堂的| 日韩二区三区| aⅴ免费在线观看| 成人毛片在线播放| 国产xxxxx免费视频| 亚州AV秘 一区二区三区| 国产精品yjizz视频网一二区| 制服丝袜国产精品| 国产三级成人| 亚洲h视频在线| 最新日韩AV网址在线观看| 精品国产成人a在线观看| 成人午夜精品一级毛片| 国产精品极品美女自在线| 久久这里只有精品8| 久久精品91麻豆| 无码内射中文字幕岛国片 | 精品乱码久久久久久久| AV天堂资源福利在线观看| 91美女视频在线观看| 成人福利在线观看| 日韩人妻少妇一区二区| 成人在线综合| 日本黄色a视频| 欧美亚洲国产日韩电影在线| 91免费国产高清观看| 国产成人夜色91| 亚洲黄色网站视频| 亚洲女同欧美在线| 亚洲制服中文字幕一区二区| 又大又硬又爽免费视频| 99久久国产综合精品女同| 精品天海翼一区二区| 亚洲日本韩在线观看| 国产网站黄| 国产伦片中文免费观看| 中文字幕乱码中文乱码51精品| 黄色网在线| 色欲国产一区二区日韩欧美| 国产在线小视频| 超清无码一区二区三区| 尤物精品视频一区二区三区| 伊人AV天堂| 欧美色综合网站| 精品国产Av电影无码久久久| 精品视频一区在线观看| 青青青国产视频| 亚洲欧美另类色图| 国产日韩丝袜一二三区| 日韩A级毛片一区二区三区| 多人乱p欧美在线观看| 国产69囗曝护士吞精在线视频| 亚洲第一精品福利| 精品综合久久久久久97超人| 免费无码又爽又黄又刺激网站| 国产在线精品网址你懂的| 永久免费av网站可以直接看的 | 波多野结衣一二三| 玖玖精品视频在线观看| 91成人免费观看在线观看| 亚洲欧美一区二区三区麻豆| 亚洲成人播放| 中文字幕一区二区视频| 狠狠色综合久久狠狠色综合| 丰满人妻被猛烈进入无码| 91色在线视频| a在线观看免费| 欧美精品1区| 东京热高清无码精品| 亚洲欧美国产高清va在线播放| 国产乱人乱偷精品视频a人人澡| 国产微拍一区二区三区四区| 亚洲无码在线午夜电影| 国产精品自在线天天看片| 97人人做人人爽香蕉精品| 成人国产精品一级毛片天堂| 亚洲成综合人影院在院播放| 欧美性爱精品一区二区三区 | 久久青草免费91观看|