999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法融入公共決策的倫理審視

2024-05-11 00:00:00邱德勝羅譯泓
理論探索 2024年2期

〔摘要〕近年來,算法正越來越多地進(jìn)入公共決策當(dāng)中。算法決策以其數(shù)據(jù)理性實(shí)現(xiàn)了決策科學(xué)化的理想愿景。但是,隨著算法決策系統(tǒng)從決策伙伴日漸成為決策主體,算法在嵌入公共決策流程時(shí)伴隨的倫理風(fēng)險(xiǎn)也愈發(fā)明顯。算法風(fēng)險(xiǎn)產(chǎn)生的公平正義之問、價(jià)值錯(cuò)位之問、人機(jī)沖突之問,成為人類決策與算法決策共存場景下必須積極回應(yīng)的問題。算法既是提升、優(yōu)化公共決策質(zhì)量的工具,又是被治理、被優(yōu)化的對象。因此,算法倫理治理應(yīng)該從被動(dòng)負(fù)責(zé)、被動(dòng)響應(yīng)的倫理善后轉(zhuǎn)向積極擔(dān)當(dāng)、未雨綢繆的技術(shù)善治,為算法融入公共決策的良性發(fā)展提供持續(xù)動(dòng)力。算法賦能的公共決策不僅要鞏固算法數(shù)據(jù)理性的優(yōu)勢,更要將反思、辯證的維度嵌入決策始終,實(shí)現(xiàn)技術(shù)理性與人文價(jià)值相融合的“聯(lián)合決策”,為公共決策的智能治理貢獻(xiàn)中國智慧與中國方案。

〔關(guān)鍵詞〕公共決策,算法風(fēng)險(xiǎn),算法倫理

〔中圖分類號(hào)〕N031 〔文獻(xiàn)標(biāo)識(shí)碼〕A 〔文章編號(hào)〕1004-4175(2024)02-0005-08

智能時(shí)代以降,大數(shù)據(jù)、深度學(xué)習(xí)等智能技術(shù)的身影正愈發(fā)廣泛地出現(xiàn)在公共決策中。這些智能技術(shù)憑借先進(jìn)的決策數(shù)據(jù)采集能力、決策情境建模能力、決策結(jié)果預(yù)測能力等優(yōu)勢,為人類決策提供了越來越豐富的信息支持,成為提升公共決策科學(xué)性與民主性的重要手段。從應(yīng)用方式與應(yīng)用范圍上看,算法與公共決策的互動(dòng)演進(jìn)呈現(xiàn)出由淺到深、由定量到定性、由輔助到自主的變化趨勢,這一發(fā)展趨向使得AI決策的倫理風(fēng)險(xiǎn)愈發(fā)突出,不容忽視。AI決策的自主性一旦增強(qiáng)到人類難以控制的程度,引發(fā)的倫理危機(jī)將不言而喻。因此,如何在充分發(fā)揮智能決策優(yōu)勢的同時(shí)化解相應(yīng)的技術(shù)風(fēng)險(xiǎn),實(shí)現(xiàn)智能決策造福社會(huì)的最終目標(biāo),無疑是當(dāng)前乃至今后很長時(shí)期都需要深入探討的問題。

一、算法融入公共決策的樣態(tài)透視

不斷迭代發(fā)展的大數(shù)據(jù)以及深度學(xué)習(xí)技術(shù)使得算法在公共決策的問題界定、方案設(shè)計(jì)與選擇、效果評估與民主審議等流程中具有可觀的應(yīng)用潛力。算法融入公共決策的相關(guān)案例層出不窮,在智慧交通、醫(yī)療輔助、司法裁斷、公共風(fēng)險(xiǎn)預(yù)測等領(lǐng)域都能窺見AI決策的身影〔1〕。算法之所以能夠提升公共決策效率,在于其“信息全面”與“量化預(yù)測”兩大基本優(yōu)勢。第一,AI通過其強(qiáng)大的大數(shù)據(jù)生成與分析能力讓各個(gè)決策子系統(tǒng)擁有了充足的信息來源;第二,AI機(jī)器學(xué)習(xí)算法的預(yù)測分析能力為公共決策提供了多維度的方案選擇〔2〕。

數(shù)據(jù)是實(shí)現(xiàn)科學(xué)決策的重要資源,大數(shù)據(jù)及其相應(yīng)的算法技術(shù)突破了物理空間與人腦算力的限制,一方面可以讓更多公眾通過電子參與的方式“足不出戶”表達(dá)自身訴求;另一方面,自然語言處理、計(jì)算機(jī)視覺等智能技術(shù)能夠?qū)⑺鸭降墓娊ㄗh、決策環(huán)境等非結(jié)構(gòu)化數(shù)據(jù)快速優(yōu)化為易于分析與觀察的結(jié)構(gòu)化數(shù)據(jù),以實(shí)現(xiàn)人類難以達(dá)成的全數(shù)據(jù)環(huán)境下的知情決策。由于收集與處理信息能力的局限、情感因素的桎梏、非理性的偏見等因素,人類的預(yù)測與分析能力遠(yuǎn)不及大數(shù)據(jù)模型。相比之下,深度學(xué)習(xí)技術(shù)能夠通過采用適宜的函數(shù)形式來適應(yīng)多樣化的現(xiàn)實(shí)情境,并有效解決傳統(tǒng)計(jì)算方法難以處理的高維數(shù)據(jù)難題。因此,AI有時(shí)能夠發(fā)現(xiàn)那些人類視角難以發(fā)現(xiàn)的“隱秘關(guān)系”,以數(shù)據(jù)為證據(jù),更為準(zhǔn)確地揭示復(fù)雜現(xiàn)象之間的隱藏關(guān)系〔3〕。

在算法融入公共決策以前,STS研究圍繞科學(xué)家與公眾究竟誰具有公共決策裁決權(quán)的話題展開了社會(huì)學(xué)分析,曾形成以專家為主導(dǎo)的專家治國論和以公眾為主導(dǎo)的民主參與論。但兩種理論將科學(xué)理性與民主價(jià)值、專家專長與公民認(rèn)知對立起來,造成了延伸性問題與合法性問題。“專家治國論”的困境在于,無論是科學(xué)研究還是技術(shù)研發(fā)都需要大量資金設(shè)備的支持,以科學(xué)家為主體的專家群體會(huì)時(shí)常因?yàn)樽陨砝娑阑踔粮难芯拷Y(jié)論,出現(xiàn)嚴(yán)重的倫理失范行為,公共決策的合法性危機(jī)日益突出。因此,20世紀(jì)后期掀起的科學(xué)民主化運(yùn)動(dòng)要求將決策權(quán)交予公眾。客觀來講,公眾參與決策確實(shí)可以帶來認(rèn)知視域的多元化,外行視角的融入也在最大限度上避免了決策的倫理風(fēng)險(xiǎn)與社會(huì)風(fēng)險(xiǎn)。但公眾缺乏決策所需的相應(yīng)專長,易產(chǎn)生“無知者的暴政”,動(dòng)搖決策的科學(xué)性。而算法執(zhí)行的是一種無情感、無記憶的數(shù)據(jù)理性決策,既能以數(shù)據(jù)驅(qū)動(dòng)實(shí)現(xiàn)由數(shù)據(jù)到證據(jù)的循證決策,也能通過電子參與方式搜集到公眾的大量訴求,并在決策過程中予以合理考量。因此,相比于科學(xué)家決策或基于外行視角的公眾決策等單一決策方式,算法決策確有優(yōu)勢。

但在可見的優(yōu)勢背后,其潛在的風(fēng)險(xiǎn)也不容忽視。近年來,算法融入公共決策展現(xiàn)出由表及里、由邊緣至核心、由輔助到自主的演變趨勢。在未來公共決策中,人類很難脫離AI的輔助完成獨(dú)立決策,人類決策與AI決策共存將成為智能時(shí)代的重要趨勢。算法最初在公共決策中主要扮演單純的輔助者角色,例如運(yùn)用算法自動(dòng)應(yīng)答市民問題,對市政設(shè)施進(jìn)行智能監(jiān)控等,這些任務(wù)通常呈現(xiàn)程序性、重復(fù)性的特征。近年來,算法決策系統(tǒng)日漸在教育、醫(yī)療、公共安全與社會(huì)福利等多個(gè)領(lǐng)域取代人作出重要決策。目前,算法已經(jīng)被應(yīng)用于犯罪概率預(yù)測、醫(yī)療輔助診斷、危險(xiǎn)項(xiàng)目選址等非程序性、高風(fēng)險(xiǎn)性的公共決策中,產(chǎn)生了巨大的倫理爭議。在這些決策場景中,算法并非被動(dòng)的工具,而是具有一定能動(dòng)性與自主性的行動(dòng)者。

部分學(xué)者針對數(shù)字化時(shí)代的政策制定與執(zhí)行展開了“數(shù)字官僚主義”(digital bureaucracy)、“數(shù)字自由裁量權(quán)”(digital discretion)等內(nèi)容的理論與實(shí)踐研究〔4〕〔5〕。從相關(guān)理論研究與實(shí)踐探索中可以發(fā)現(xiàn),高速發(fā)展的AI算法日漸擺脫了輔助性工具的地位,由決策伙伴逐漸成為決策主體,這一過程伴隨的倫理風(fēng)險(xiǎn)也愈發(fā)明顯。算法歧視、算法功利、算法依賴所隱含的公平正義之問、價(jià)值錯(cuò)位之問、人機(jī)沖突之問,成為政府進(jìn)行公共決策治理必須積極回應(yīng)的問題。

二、算法融入公共決策的公平正義之問

在智能技術(shù)應(yīng)用的初期,算法處理的往往是規(guī)則明確的、可以完全數(shù)據(jù)化的定量型決策。在此階段,算法決策被認(rèn)為是客觀的、價(jià)值中立的,可以有效規(guī)避人類決策者的主觀偏誤。然而,當(dāng)人工智能開始處理復(fù)雜的綜合決策時(shí),其價(jià)值映射功能便顯露無疑。算法是算法設(shè)計(jì)者價(jià)值選擇的產(chǎn)物,這種隱含在算法設(shè)計(jì)中的權(quán)衡,被復(fù)雜的數(shù)字代碼和程序計(jì)算所掩蓋,讓算法設(shè)計(jì)者隱秘地成為政策的實(shí)際制定者〔6〕。荷蘭哲學(xué)家維貝克(Paul Viebeck)認(rèn)為,技術(shù)能夠以一種物質(zhì)的方式體現(xiàn)人的意向。甚至當(dāng)設(shè)計(jì)者沒有明確從道德維度反思他們的作品時(shí),他們設(shè)計(jì)的人工物也不可避免地在人的行動(dòng)和體驗(yàn)中扮演著調(diào)節(jié)的角色〔7〕113。算法蘊(yùn)含著設(shè)計(jì)者的“個(gè)人道德”,使用蘊(yùn)含個(gè)人道德的算法進(jìn)行決策,必然導(dǎo)致決策結(jié)果明顯的價(jià)值偏向,進(jìn)而挑戰(zhàn)決策的公平性與正義性。

算法在融入公共決策時(shí)可能產(chǎn)生三種偏見:數(shù)據(jù)偏見、文化偏見、突現(xiàn)偏見。其一,數(shù)據(jù)偏見是由于算法系統(tǒng)在設(shè)計(jì)、訓(xùn)練階段的數(shù)據(jù)采集不完整所帶來的偏見。算法決策系統(tǒng)的生成需要大量已有公共決策案例作為原始數(shù)據(jù)驅(qū)動(dòng),并通過特定數(shù)據(jù)訓(xùn)練,才能賦予決策系統(tǒng)“綜合判定能力”。因此,用于算法生成的案例選擇顯著影響了決策算法的特點(diǎn)。其二,文化偏見是作為設(shè)計(jì)者背景認(rèn)知的社會(huì)文化和風(fēng)俗習(xí)慣所帶來的既存偏見。算法人員對原始決策數(shù)據(jù)的選擇受其社會(huì)環(huán)境與個(gè)人成長背景的深刻影響,會(huì)形成一種根植于特定文化內(nèi)涵之中的獨(dú)一無二的個(gè)人偏好。例如,在諸多決策中,有人傾向于感性或情緒化的決定,有人會(huì)選擇一絲不茍的遵照規(guī)章和法律執(zhí)行。設(shè)計(jì)人員會(huì)有意或無意地將此種決策偏好作為設(shè)計(jì)標(biāo)準(zhǔn)隱秘地融入算法開發(fā)之中,產(chǎn)生難以預(yù)測的文化偏置。其三,突現(xiàn)偏見就是在人機(jī)互動(dòng)過程中意外涌現(xiàn)的偏見,AI算法的復(fù)雜性與不可預(yù)見性決定了在設(shè)計(jì)之初難以預(yù)見其所有可能出現(xiàn)的結(jié)果。

英特爾、臉書等公司曾設(shè)計(jì)過一個(gè)基于面部特征的人臉識(shí)別算法。但此種算法以歐美人種的面部特征為主要輸入對象,導(dǎo)致白色皮膚的面部識(shí)別率遠(yuǎn)高于黑色皮膚和黃色皮膚。“別有用心”的算法將人分成了三六九等,從而隱秘地再現(xiàn)種族歧視與階級歧視。AI預(yù)測性警務(wù)軟件“PredPol”的使用也是算法歧視的經(jīng)典案例,該軟件曾在美國數(shù)十個(gè)城市推廣使用。PredPol通過一套專有算法分析歷史犯罪數(shù)據(jù)來預(yù)測治安事件的高發(fā)地區(qū)。在使用過程中,該算法軟件頻繁地將當(dāng)?shù)鼐斓难策壏秶鷮?dǎo)向拉美裔、非洲裔等少數(shù)族裔的居住區(qū),引發(fā)了相關(guān)人群的不滿以及種族歧視的爭論〔8〕。倘若某種用于轉(zhuǎn)基因食品或基因編輯等高風(fēng)險(xiǎn)決策的算法也如同上述面部識(shí)別算法與警務(wù)巡邏算法一樣,只考慮白種人的飲食結(jié)構(gòu)與生理特征,其作出的決策在公平性與安全性上恐怕就要大打折扣。此外,由于核心技術(shù)集中在孟山都、杜邦、拜耳、先正達(dá)等少數(shù)生物公司手中,在巨額利潤的引誘之下,它們又會(huì)不會(huì)冒著法律風(fēng)險(xiǎn)重金賄賂算法設(shè)計(jì)人員,使設(shè)計(jì)出的決策算法具有難以察覺的利益偏向性?這在加利福尼亞州發(fā)生的轉(zhuǎn)基因食品標(biāo)簽之爭中已有前車之鑒,不得不引起公眾和決策者的警惕。

從某種程度上講,公共決策是對當(dāng)下與未來的社會(huì)資源進(jìn)行分配的一種形式,決策正義是其無法回避的倫理準(zhǔn)則與價(jià)值追尋,如羅爾斯所言“正義是社會(huì)制度的首要德性”〔9〕3。然而數(shù)字資本主義的登場,將使得算法決策的合法性危機(jī)日益凸顯:使用遵循利益至上原則的算法接管科技決策,可能使得弱勢群體更加弱勢,進(jìn)而加劇原有的社會(huì)矛盾。尤其是高風(fēng)險(xiǎn)科技決策所涉及的諸多議題:核電站選址、基因編輯、藥物推廣、氣候治理等,都牽涉局部正義乃至全球正義。羅爾斯提出采用“無知之幕”(veil of ignorance)的方式,來糾正參與主體在社會(huì)地位、天賦、能力等方面的先天差別,從而保護(hù)決策中的弱勢群體,實(shí)現(xiàn)社會(huì)正義的崇高目標(biāo)。然而,現(xiàn)實(shí)中并不存在這樣的完美幕布,從層出不窮的“大數(shù)據(jù)殺熟”案例可知,掌控“后臺(tái)鑰匙”的算法設(shè)計(jì)者或擁有者依然能夠輕松獲取他人的信息,就像牌桌上的千術(shù)高手能夠知曉所有人的“底牌”一般,公共決策的參與者仍舊處于一種實(shí)際上甚至更加隱晦的不平等之中。為此,我們既要重視算法的內(nèi)在倫理建設(shè),保證決策算法的公開性、可解釋性,還要從社會(huì)制度改良、法律法規(guī)建設(shè)等外部規(guī)約入手,使“算法”成為實(shí)現(xiàn)公平正義的“善法”。

三、算法融入公共決策的價(jià)值錯(cuò)位之問

算法的本質(zhì)是“計(jì)算”,其作為非生命物質(zhì)不能產(chǎn)生意識(shí)〔10〕。人類智能與算法智能的本質(zhì)區(qū)別決定了算法并不能像人一樣將創(chuàng)造性、情感性、意向性等踐行于決策行為中,而只能按照相對固定的指令行事。換言之,算法在決策時(shí)采取的是一種單純的功利性思考,它將一切決策還原為一串串可以計(jì)算的數(shù)字與概率,而不具備人類的情感思考與價(jià)值反省的功能,這也是我們時(shí)常感受到算法“不智能”的原因之一。

福山(Francis Fukuyama)認(rèn)為,在功利主義的框架下好與壞都是相對可見且直接的,通常可以還原為金錢與數(shù)字抑或是能夠輕易檢測的對人體的傷害。但對于更為微妙的損傷,即那些屬于靈魂而非肉體層面的長期損傷卻難以測量和評估〔11〕100。遵循功利主義原則的算法可以計(jì)算出尼古丁、多環(huán)芳烴對人體的傷害,因?yàn)檫@些傷害在某種程度上是可以量化的(例如攝入多少劑量尼古丁就會(huì)將肺癌的發(fā)病率提升數(shù)個(gè)百分點(diǎn))。但是,對于應(yīng)用于人類胚胎和人類成體細(xì)胞的基因編輯而言,由于技術(shù)不完善,易造成脫靶效應(yīng)、嵌合效應(yīng)、免疫效應(yīng)等不可預(yù)知的風(fēng)險(xiǎn)〔12〕。這些風(fēng)險(xiǎn)對人的生理、精神乃至社會(huì)情感的影響是很難用數(shù)字來準(zhǔn)確衡量的。就像“電車難題”一樣,當(dāng)算法無法計(jì)算生命與死亡、情感與文化的重要性時(shí),就會(huì)發(fā)生人與算法之間的價(jià)值錯(cuò)位。

在公共決策中,這種價(jià)值錯(cuò)位的案例不勝枚舉。熱映的《流浪地球2》中有這樣一個(gè)橋段:電影中的超級人工智能中樞MOSS認(rèn)為,將地球送上超過2500年的宇宙流浪之旅無疑是九死一生,希望渺茫。無論是人類的不團(tuán)結(jié),還是行星撞擊、引力吞噬等意外情況都將葬送人類的前程。相比之下,近在咫尺的數(shù)字永生計(jì)劃與火種計(jì)劃明顯有著更高的成功率,但代價(jià)則是近乎全體人類的犧牲。為了達(dá)成目標(biāo),超級人工智能MOSS還通過毀掉空間站與制造月球危機(jī)等方法,三番五次地阻止人類的自我救贖。雖然MOSS所提供的方案無疑有著更高的成功率,但這種“去人化”的決策顯然是人類情感所難以接受的。正如電影結(jié)尾那句頗具倫理深意的名言所揭示的:“沒有人的文明,毫無意義。”

MOSS冰冷的數(shù)據(jù)分析表明,算法往往追求的是效率與概率值的工具理性,而缺失了必要的價(jià)值理性,造成了人與算法之間的價(jià)值錯(cuò)位,就像MOSS不能理解人類與家園共進(jìn)退的價(jià)值期望與堅(jiān)定決心。又比如,使用算法來判斷具有較大毒副作用的化療劑量時(shí),是應(yīng)該致力于減輕患者的當(dāng)下痛苦,還是從患者的長遠(yuǎn)健康進(jìn)行考量?從過往公共決策的經(jīng)驗(yàn)中來看,由于社會(huì)文化與人類情感因素的存在,人工智能往往不能理解錯(cuò)綜復(fù)雜的社會(huì)動(dòng)態(tài)〔13〕。算法的決策是樸素的,面對相同的偏誤信息與反常情景時(shí),人類有可能通過進(jìn)一步的反思得出與原有推斷截然不同的結(jié)論,而算法卻難以做到。

為了解決這一困境,有學(xué)者期望用功利主義算法來達(dá)成古典功利主義關(guān)心的“最多數(shù)人的最大幸福”,實(shí)現(xiàn)人機(jī)價(jià)值對齊。但在公共決策中,功利主義化的算法卻常常陷入一種“布里丹之驢”(Buridan’s ass)的邏輯困境之中。需要看到的是,歷經(jīng)斯馬特、金里卡、布蘭德等學(xué)者的不斷改良,諸如行為功利主義、制度功利主義、規(guī)則功利主義等現(xiàn)代功利主義確實(shí)有了更廣的適用范圍和更強(qiáng)大的解釋力。但正如沃爾夫(Jonathan Wolff)所指出的,無論功利主義的具體形態(tài)有何變化,“如果要認(rèn)真的對待功利主義,我們就必須能夠衡量和量化幸福”〔14〕48。在諸多風(fēng)險(xiǎn)性決策中,不同種類之間的快樂和幸福真的如功利主義所設(shè)想的那般,能夠用數(shù)據(jù)化的方式進(jìn)行“幸福計(jì)算”嗎?有學(xué)者總結(jié)道:無論是義務(wù)論還是功利主義化的算法都難以應(yīng)對復(fù)雜的道德情境〔15〕。算法幾乎不可能通過“自上而下”的抽象原則來進(jìn)行“幸福計(jì)算”與“生死權(quán)重計(jì)算”。

需要指出的是,算法功利本身并不是一個(gè)倫理問題,它只是算法自身的一個(gè)特征。但當(dāng)算法運(yùn)用于公共決策,甚至取代人類成為關(guān)鍵性問題的決策者時(shí),算法的功利化傾向以及人機(jī)之間的價(jià)值錯(cuò)位就可能產(chǎn)生嚴(yán)重的社會(huì)倫理風(fēng)險(xiǎn)。通常來說,算法都是效率至上的。就像前文所提到的警務(wù)巡邏算法與人臉識(shí)別算法一樣,都是以提高破案效率、身份識(shí)別效率為目的,但提升效率只是公共決策的眾多目標(biāo)之一,而相關(guān)價(jià)值判斷的缺失更有可能激化原有的社會(huì)矛盾。公共決策中既有事實(shí)判斷亦有價(jià)值判斷,算法可以勝任前者,但后者中包含的情感因素、文化因素等價(jià)值追求是短期內(nèi)算法所難以理解的。

四、算法融入公共決策的人機(jī)沖突之問

當(dāng)人機(jī)決策不一致時(shí),相信人還是相信算法便成為難以回避的人機(jī)沖突難題,而決策者是否愿意采納或相信來自算法的決策結(jié)果被稱為人機(jī)信任(human-AI trust)問題。例如,倘若算法歧視得不到及時(shí)且有效的糾正,則將引發(fā)公眾對于算法決策的“信任危機(jī)”。公眾將AI決策系統(tǒng)視為少數(shù)人謀利與統(tǒng)治的工具,不再相信算法能夠作出公平正義的決策,因而抵觸智能技術(shù)所作出的一切決策,產(chǎn)生一種類似“盧德派怨恨”的極端情緒,將顯著影響公共決策的執(zhí)行效果。

但是,倘若人們過于信任與依賴算法來決策,甚至喪失對算法說“不”的能力,則將會(huì)走向另一個(gè)極端,造成人機(jī)關(guān)系在決策中的顛覆式轉(zhuǎn)變。在弱人工智能時(shí)代,AI決策系統(tǒng)主要扮演人類決策的伙伴與幫手。而進(jìn)入強(qiáng)人工智能甚至超人工智能時(shí)代,AI算法會(huì)逐漸脫離輔助決策的工具性地位,將有可能取代人類成為新的權(quán)威來源與決策主體,并將人類排擠出決策權(quán)力的核心。馬爾庫塞在其經(jīng)典著作《單向度的人》中深入刻畫了這種技術(shù)對人的壓迫現(xiàn)象:“當(dāng)代工業(yè)社會(huì)是一個(gè)新型的極權(quán)主義社會(huì),因?yàn)樗晒Φ貕褐屏诉@個(gè)社會(huì)中的反對派和反對意見,壓制了人們內(nèi)心中的否定性、批判性和超越性的向度。”〔16〕205人所處的生活環(huán)境被人工智能決策系統(tǒng)所“包圍”,喪失了對AI決策結(jié)果進(jìn)行批判的能力:人工智能以其強(qiáng)大的工具理性力量,讓人類理性幾乎沒有還手和反駁的余地。當(dāng)人類和算法因?yàn)槟骋粋€(gè)公共決策問題而對簿公堂之時(shí),在智能技術(shù)嚴(yán)密的程序邏輯和強(qiáng)大的工具理性面前,人類很難組織起超越機(jī)器的完美理性來擊敗對手,就如同“阿爾法狗”可以輕松戰(zhàn)勝人類頂尖棋手李世石和柯潔。在算法理性的無情攻勢下,人徹底喪失了批判與否定的向度,讓人成為算法下的“單向度的人”。

由算法依賴引發(fā)的“自動(dòng)化偏倚”(automation bias)可被解釋為人們不愿意相信自己獲取的信息,而更傾向于信任算法系統(tǒng)提供的信息與決策結(jié)果,即“寧愿相信算法也不相信自己”〔17〕。此種算法依賴廣泛存在于醫(yī)療(輔助)人工智能之中。《連線》月刊曾在2021年刊登了一篇名為《難以忍受的痛:醫(yī)生為何將其拒之門外?》的評論,故事中的主角是一位名叫凱瑟琳的女性,她因患有婦科疾病需要服用阿片類、巴比妥類等多種藥物。然而,醫(yī)生卻拒絕給凱瑟琳開具該類鎮(zhèn)痛藥物,甚至解除了她們之間的醫(yī)患關(guān)系并拒絕為其提供進(jìn)一步的治療。醫(yī)生給出的理由僅僅是基于算法的醫(yī)療輔助系統(tǒng)NarxCare認(rèn)為凱瑟琳可能存在濫用此類藥物的風(fēng)險(xiǎn),在“相關(guān)算法決策中的某些風(fēng)險(xiǎn)系數(shù)評分過高”。

NarxCare系統(tǒng)可以利用AI算法對患者的大量日常敏感數(shù)據(jù)(包括過往用藥史、生活作息等)進(jìn)行深度分析,最終得到一個(gè)藥物濫用風(fēng)險(xiǎn)的評級報(bào)告。醫(yī)生完全相信了該算法的建議,且?guī)缀跷醋魅魏纹渌忉專参磳P瑟琳的藥物使用采取進(jìn)一步的人工評估。在凱瑟琳四處奔走、多方求證后,結(jié)果卻令眾人大跌眼鏡:原來,凱瑟琳的兩只寵物狗,都曾因疾病而服用過大量的阿片類藥物、苯二氮卓類藥物或是巴比妥類藥物,由于人與狗存在巨大的生理差異,寵物狗所服用的劑量會(huì)遠(yuǎn)遠(yuǎn)高出人類。當(dāng)然,買藥的全部流程掛的名都是主人,也就是凱瑟琳的名字。算法“理所當(dāng)然”地將這一切算在了凱瑟琳頭上,不僅造成了啼笑皆非的鬧劇,還造成了病人巨大的痛苦。

盡管凱瑟琳對自身的用藥史和身體狀況都有著深入的了解,能夠?yàn)榕R床治療決策提供認(rèn)知方面的支持,但卻遭到了醫(yī)生的算法無視。醫(yī)生因害怕?lián)?zé)等原因?qū)幵赶嘈潘惴ǖ臎Q策結(jié)果,卻不愿理睬凱瑟琳自身的證詞。換言之,算法系統(tǒng)生成的風(fēng)險(xiǎn)評分在當(dāng)前醫(yī)療決策中的權(quán)威性已經(jīng)凌駕于個(gè)體的實(shí)踐經(jīng)驗(yàn)之上,由于算法的黑箱性質(zhì),凱瑟琳也難以反擊算法的理性決策過程〔18〕。機(jī)器學(xué)習(xí)算法在進(jìn)行預(yù)測時(shí),所依據(jù)的永遠(yuǎn)是過去已有的數(shù)據(jù)。而歷史數(shù)據(jù)的選擇蘊(yùn)含著人與機(jī)器的雙重局限性,算法會(huì)有意或無意地忽視一些未能數(shù)據(jù)化的決定性要素或強(qiáng)化既有的人類偏見,從而對智能時(shí)代的弱勢群體造成證詞壓迫與解釋學(xué)壓迫。

當(dāng)算法決策全面替代人類決策之時(shí),這種“單向度”就不僅僅出現(xiàn)在人類的現(xiàn)實(shí)世界中,甚至將蔓延到人類的精神世界與社會(huì)文化之中。海德格爾認(rèn)為:“人類如此明確地處身于集置之促逼的后果中,以至于他沒有把 集置當(dāng)作一種要求來覺知,以至于他忽視了作為被要求者的自身,從而也不去理會(huì)他何以從其本質(zhì)而來在一種呼聲領(lǐng)域中綻出地實(shí)存,因而絕不可能僅僅與自身照面。”〔19〕27在這個(gè)過程中,人和自然被迫陷于技術(shù)“座架”(Ge-stell)的框定,通過技術(shù)的促逼使人卷入座架巨大的、無形的規(guī)范和制約中。座架之網(wǎng)已經(jīng)蔓延到人和社會(huì)的方方面面,人類早已習(xí)慣用技術(shù)的思維方式去看待和應(yīng)對一切問題了。算法決策作為一種全新的解蔽方式,將算法的認(rèn)知與裁決方式進(jìn)一步籠罩于人類世界之上,人認(rèn)知到的是認(rèn)知對象的數(shù)字畫像而非對象本身。算法決策不停留于單純的描繪,而是進(jìn)一步規(guī)訓(xùn)人,按照工具理性的固定決策思維去塑造和促逼人。人類愈發(fā)崇尚數(shù)據(jù)理性決策而排斥感性決策,愈將情感、價(jià)值逼至狹窄的角落,甚至遺忘了她們。概而言之,自動(dòng)化偏倚所導(dǎo)致的算法依賴,盡管極大地提升了決策效率,卻常常是以人的“客體化”與“邊緣化”為沉重代價(jià)的。人不再成為享有決策自由的主體,而淪為被智能機(jī)器所支配的客體,出現(xiàn)“主體隱匿”現(xiàn)象,人的物質(zhì)與精神生活因此都面臨嚴(yán)重威脅。

五、算法融入公共決策的倫理應(yīng)對

算法賦能的公共決策模式極具前景,但也存在法律風(fēng)險(xiǎn)、倫理風(fēng)險(xiǎn)、社會(huì)風(fēng)險(xiǎn)等多維度的風(fēng)險(xiǎn),倫理風(fēng)險(xiǎn)也是其中一種。原因在于,算法決策既能在宏觀層面對人類文化乃至社會(huì)形態(tài)產(chǎn)生全面沖擊,更能在微觀層面挑戰(zhàn)與重塑傳統(tǒng)的人機(jī)關(guān)系,包括人的實(shí)踐方式、思維方式與交往方式等等。慶幸的是,面對日益突出的算法倫理風(fēng)險(xiǎn),幾乎沒有一種主流的規(guī)范倫理學(xué)立場可以被徹底地算法化〔20〕。算法在公共決策中的應(yīng)用前景充滿了不確定性與挑戰(zhàn)性,但由此也證明了人類作為倫理監(jiān)督者與治理者的必要性。

隨著AI深度融入公共決策領(lǐng)域,人類決策與算法決策將長期共存的社會(huì)圖景越發(fā)清晰。面對這一趨勢,關(guān)于算法的“人機(jī)和諧論”和“人機(jī)敵對論”撲面而來。“敵對論”體現(xiàn)了人類對智能時(shí)代的到來倍感恐懼和擔(dān)憂,這或許是因?yàn)槿祟愑脗鹘y(tǒng)的思維方式難以理解和把握AI決策的新趨勢,由此導(dǎo)致的慣性抵觸和反抗使然。正如在19世紀(jì),當(dāng)人們第一次聽到唱片錄制的音樂而非現(xiàn)場演奏的音樂時(shí),“進(jìn)行曲之王”約翰·蘇薩就發(fā)文對此進(jìn)行了尖銳批評。此后,當(dāng)新的數(shù)碼錄制技術(shù)出現(xiàn)時(shí),這一技術(shù)又引發(fā)了傳統(tǒng)唱片愛好者的強(qiáng)烈不滿,然而現(xiàn)在唱片錄制和數(shù)碼錄制作為音樂的概念都已被廣泛接受。不遠(yuǎn)的未來,若是通過人工智能創(chuàng)作一首真假難辨的有著邁克爾·杰克遜獨(dú)特音色和風(fēng)格的歌曲,我們是否會(huì)認(rèn)為這不是真正的音樂而加以拒絕呢?因?yàn)闊o論怎么看它都不是來自人類藝術(shù)家的創(chuàng)作〔21〕184-186。算法決策并非洪水猛獸,但運(yùn)用于公共決策尤其是風(fēng)險(xiǎn)型決策的算法絕非可以暢通無阻,而是要實(shí)現(xiàn)“智能治理的再治理”:遵循既要避免松懈也要防止過于嚴(yán)格的相稱性原則,注重智能科技與人性的深層融合,在具體的實(shí)踐語境下實(shí)現(xiàn)良善的融合決策。在算法倫理治理的具體實(shí)踐方面,應(yīng)堅(jiān)持以下四條治理路徑:

(一)重視算法風(fēng)險(xiǎn)的根源治理,堅(jiān)持倫理前置的算法設(shè)計(jì)與開發(fā)原則

算法歧視的根源是人的歧視,唯有避免人的偏見,才能破除算法的偏見。因此迫切要做的就是從算法的源頭入手,強(qiáng)化算法設(shè)計(jì)人員的倫理意識(shí)培訓(xùn),引導(dǎo)其將公平、正義、誠信等基本倫理價(jià)值嵌入算法決策。首先,倫理前置的算法建設(shè)要求倫理學(xué)者、STS學(xué)者與算法工程師實(shí)現(xiàn)跨學(xué)科的通力合作。一方面,倫理學(xué)者有責(zé)任將抽象的倫理原則轉(zhuǎn)化為AI算法設(shè)計(jì)中可操作的具體要求,幫助算法從業(yè)人員在充分了解相關(guān)倫理訴求的基礎(chǔ)上進(jìn)行“知情的”技術(shù)研發(fā);另一方面,算法工程師在算法決策的設(shè)計(jì)與開發(fā)中,應(yīng)充分考慮各種不利因素并對模型安全進(jìn)行評估,對算法的應(yīng)用范圍與場景進(jìn)行“預(yù)見式設(shè)計(jì)”,力爭避免由于人為因素造成的算法風(fēng)險(xiǎn)。其次,相關(guān)部門應(yīng)協(xié)助算法設(shè)計(jì)人員拓展數(shù)據(jù)搜集的渠道,不斷優(yōu)化算法模型。算法運(yùn)作的核心是數(shù)據(jù),即利用過往的數(shù)據(jù)來預(yù)測未來的發(fā)展趨勢。本文中警務(wù)算法與人臉識(shí)別算法所造成的倫理問題本質(zhì)上是由于過往數(shù)據(jù)挖掘與采集的不完整所引發(fā)的,人臉識(shí)別算法大量采集了白人群體的臉部數(shù)據(jù)而忽略了其他少數(shù)族裔的數(shù)據(jù),導(dǎo)致了原始數(shù)據(jù)的偏見。因此,算法設(shè)計(jì)層面的完善首先要確保輸入算法決策系統(tǒng)的數(shù)據(jù)必須能確切反映被決策對象的真實(shí)境況,避免由于數(shù)據(jù)不足或數(shù)據(jù)偏離導(dǎo)致的代理偏見(bias by proxy)。在確保數(shù)據(jù)客觀性與準(zhǔn)確性的前提下,應(yīng)該對即將走向市場應(yīng)用的算法進(jìn)行交叉?zhèn)惱韺彶椤hb于算法設(shè)計(jì)過程可能存在的文化偏見風(fēng)險(xiǎn)與利益隱藏風(fēng)險(xiǎn),審查者的組成應(yīng)該是多元化的。換言之,AI算法在實(shí)際應(yīng)用前的決策,應(yīng)該是理性的、慎重的、充分代表的。這一過程不應(yīng)該由少數(shù)算法專家或商業(yè)公司來決定或主導(dǎo),人工智能專家、政府治理主體、公眾代表都應(yīng)該積極參與其中,展開對算法的交叉?zhèn)惱韺彶椋M可能地從源頭上使算法風(fēng)險(xiǎn)最小化。

(二)開展面向公眾的算法科普,積極引導(dǎo)公眾參與算法風(fēng)險(xiǎn)的治理

算法應(yīng)用于公共決策并出現(xiàn)決策錯(cuò)誤時(shí),因其決策過程的黑箱性質(zhì),極易引發(fā)公眾對于算法或社會(huì)行政部門的信任危機(jī)。只有當(dāng)智能技術(shù)能夠作出公平、正義的決策時(shí),才會(huì)贏得公眾的信任,其決策結(jié)果才有可能被很好地執(zhí)行。最新的美國國家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃(2023)明確提出:政府必須通過有效的機(jī)制建設(shè)來培養(yǎng)公眾對于人工智能的適度信任與信心。智能決策要被社會(huì)廣泛接受,需要構(gòu)建一種互信機(jī)制,完成一種從算法黑箱到算法透明、算法可解釋再到算法可信任的努力。因此,算法倫理學(xué)者以及部分人工智能科學(xué)家應(yīng)積極承擔(dān)面向公眾的科普責(zé)任,科技類媒介與社團(tuán)也可以通過設(shè)立算法倫理專欄、舉辦算法倫理征文比賽等多種渠道開展科普活動(dòng),強(qiáng)化對公眾“算法素養(yǎng)”的持續(xù)培育。唯有通過科普讓公眾充分知曉算法融入公共決策的基本原理、巨大優(yōu)勢以及可能存在的風(fēng)險(xiǎn),才能引導(dǎo)公眾理性對待算法問題,為后續(xù)推進(jìn)算法倫理的多主體協(xié)同治理創(chuàng)造必要條件。除了自上而下的科普,還需要公眾自下而上地參與到算法的理解與治理之中。公眾科學(xué)(Citizen Science)的實(shí)踐表明,公眾通過參與收集、記錄、分類或分析科學(xué)項(xiàng)目,可以有效推進(jìn)公眾和職業(yè)科學(xué)家之間的雙向互動(dòng)與認(rèn)知合作,增加公眾對于相關(guān)科學(xué)研究的理解與支持,并且已經(jīng)在鳥類科學(xué)、天文學(xué)、環(huán)境治理等領(lǐng)域取得了不錯(cuò)的效果。在算法治理中也是如此,政府與相關(guān)AI企業(yè)應(yīng)該降低參與門檻,通過開放算法設(shè)計(jì)項(xiàng)目、舉辦算法分析活動(dòng)等方式讓公眾參與到算法的設(shè)計(jì)與監(jiān)督中來。公眾在參與過程中可以提高自身對于算法的認(rèn)知與理解,還可能發(fā)現(xiàn)一些潛在的倫理風(fēng)險(xiǎn)。通過自上而下的科普以及自下而上的公眾參與,可以在一定程度上緩解由于算法的黑箱性質(zhì)所導(dǎo)致的算法信任危機(jī),在化解倫理風(fēng)險(xiǎn)的同時(shí)也能讓算法決策收獲更多的公眾支持,更好地實(shí)現(xiàn)公共決策科學(xué)性與民主性的有機(jī)統(tǒng)一。

(三)堅(jiān)持柔性算法風(fēng)險(xiǎn)預(yù)警原則,構(gòu)建分級分層的算法管理制度

預(yù)警原則的應(yīng)用基于一種風(fēng)險(xiǎn)不明的情境:一個(gè)技術(shù)產(chǎn)品的潛在危害性影響已經(jīng)被預(yù)料,但是多領(lǐng)域的科學(xué)評估均未能完全測定其風(fēng)險(xiǎn)系數(shù)。算法在公共決策中的巨大應(yīng)用潛力已然是不爭的事實(shí),但算法的復(fù)雜性與難以預(yù)測性決定了其潛在的社會(huì)風(fēng)險(xiǎn)并不完全明朗。面對算法治理中收益與風(fēng)險(xiǎn)的平衡,相比于強(qiáng)硬的預(yù)防原則,柔性預(yù)警原則顯然更能夠適應(yīng)算法在公共決策中的多元應(yīng)用場景。堅(jiān)持動(dòng)態(tài)、審慎的算法風(fēng)險(xiǎn)預(yù)警原則包括五點(diǎn):一是強(qiáng)調(diào)謹(jǐn)慎行事,算法應(yīng)用潛在的諸多倫理風(fēng)險(xiǎn)理應(yīng)成為限制其無序擴(kuò)張的合理理由。二是強(qiáng)調(diào)算法治理中風(fēng)險(xiǎn)與收益的平衡與協(xié)調(diào)。算法是引領(lǐng)未來發(fā)展的重要技術(shù),也是國際競爭的焦點(diǎn),不能因盲目的風(fēng)險(xiǎn)忌憚而導(dǎo)致我國錯(cuò)失發(fā)展的大好機(jī)會(huì),因此應(yīng)為算法進(jìn)入公共決策開一個(gè)“謹(jǐn)慎的綠燈”。三是強(qiáng)調(diào)事先防范而非事后補(bǔ)救。政府部門應(yīng)該從立法、宣傳、教育等多角度入手進(jìn)行前瞻性規(guī)制,完善算法技術(shù)相關(guān)的法律法規(guī),促進(jìn)法治與技術(shù)治理有機(jī)融合,將算法應(yīng)用的風(fēng)險(xiǎn)防患于未然。四是強(qiáng)調(diào)動(dòng)態(tài)反饋機(jī)制的重要性。相關(guān)治理部門應(yīng)該建立積極、動(dòng)態(tài)的算法管理機(jī)制,對算法在公共決策中的應(yīng)用情況予以實(shí)時(shí)監(jiān)測,對技術(shù)漏洞、法規(guī)真空、監(jiān)管滯后等問題應(yīng)及時(shí)發(fā)現(xiàn)、調(diào)整、解決,避免其倫理風(fēng)險(xiǎn)的“硬著陸”。五是強(qiáng)調(diào)安全大于遺憾,即風(fēng)險(xiǎn)預(yù)警寧愿產(chǎn)生“積極誤報(bào)”也要避免“消極性誤判”。公共決策的種類繁多,不同算法應(yīng)用可能造成的風(fēng)險(xiǎn)大小是不盡相同的,應(yīng)該根據(jù)算法的應(yīng)用場景、透明程度、風(fēng)險(xiǎn)程度、影響范圍、保障措施等因素進(jìn)行分級分類治理,對于可能存在重大風(fēng)險(xiǎn)的算法應(yīng)用實(shí)施積極的風(fēng)險(xiǎn)預(yù)警與嚴(yán)格的多方監(jiān)管。

(四)構(gòu)建積極的多主體協(xié)同決策模式,發(fā)揮“多元視角”在公共決策中的重要價(jià)值

需要明確的是,在公共決策中推廣應(yīng)用人工智能技術(shù),并不是用算法決策完全取代人類決策,而是要以智能技術(shù)的全面融入來促進(jìn)決策治理手段的有機(jī)融合,構(gòu)建“政府部門—專家學(xué)者—普通公眾—算法”四方協(xié)同的決策模式。實(shí)踐表明,單純地依靠大數(shù)據(jù)進(jìn)行算法決策存在諸多弊端:算法的功利與樸素,讓AI容易在定性型公共決策中出現(xiàn)許多低級失誤。有學(xué)者總結(jié)道:很大一部分公共領(lǐng)域內(nèi)的技術(shù)決策都是一種定性型決策,在此類決策中人工智能可以充當(dāng)決策者的伙伴,而不是成為他們的替代者〔22〕。從數(shù)據(jù)資源到有效證據(jù),再到真正的人文關(guān)懷,算法決策還有很長的路要走。公共技術(shù)決策理論的建構(gòu)曾歷經(jīng)了從盲從專家的技治主義到相信公眾的外行視角,最后到信任算法的“三重奏”,但三重奏都未能譜寫出完美的樂章。與其陷入非此即彼的單一決策思維,不如聯(lián)合起來發(fā)揮各自所長。理想的公共決策體系不是單純依靠算法進(jìn)行循數(shù)決策,而是力爭實(shí)現(xiàn)技術(shù)理性與人文價(jià)值的深度融合,在公共決策中實(shí)現(xiàn)多元主體的社會(huì)共治。此外,在構(gòu)建多元決策體系時(shí)還應(yīng)該設(shè)立一種“貓頭鷹”機(jī)構(gòu),來承擔(dān)溝通者與調(diào)和者的重要角色。貓頭鷹聰明伶俐,更為重要的是它可以將頭旋轉(zhuǎn)超過180度。因此,“貓頭鷹”指的是那些既能夠“向前看”了解相關(guān)算法細(xì)節(jié),也能轉(zhuǎn)過頭來反思算法風(fēng)險(xiǎn)的人工智能科學(xué)家或STS學(xué)者。“貓頭鷹”應(yīng)該向政府與公眾準(zhǔn)確揭示算法決策的可能風(fēng)險(xiǎn),當(dāng)主體間發(fā)生意見分歧甚至嚴(yán)重誤解時(shí),“貓頭鷹”就需要出來準(zhǔn)確分析并判斷誤解的根源所在。尤其是人與算法之間產(chǎn)生決策分歧甚至出現(xiàn)嚴(yán)重的信任危機(jī)時(shí),“貓頭鷹”有責(zé)任向公眾或政府解釋算法作出當(dāng)前決策的原因與理由,完成算法的可解釋化與透明化,更好地實(shí)現(xiàn)多元主體之間的協(xié)同決策。

算法兼具治理工具與治理對象的自反性與矛盾性,既是提升、優(yōu)化公共決策質(zhì)量的工具,又是被治理、被優(yōu)化的對象。鑒于這種治理與被治理的雙重身份,應(yīng)該從被動(dòng)負(fù)責(zé)、被動(dòng)響應(yīng)的倫理善后轉(zhuǎn)向積極擔(dān)當(dāng)、未雨綢繆的技術(shù)善治,在主動(dòng)發(fā)揮算法決策優(yōu)勢的同時(shí)化解相應(yīng)的算法風(fēng)險(xiǎn),為算法融入公共決策的良性發(fā)展提供頂層導(dǎo)向與持續(xù)動(dòng)力。不同國家對算法倫理規(guī)范和算法治理的關(guān)注點(diǎn)是有所差異的。我國的算法倫理治理應(yīng)該積極結(jié)合中國國情和中國語境。綜觀黨的二十大報(bào)告,“人民至上”是貫穿始終的鮮明主線。應(yīng)將是否有利于增加人民群眾的幸福感和獲得感作為判斷標(biāo)準(zhǔn),其算法融入公共決策的最終目的是增進(jìn)人民福祉,而不是功利地追求所謂的“決策效率”。因此,面對算法融入公共決策可能造成的多重倫理風(fēng)險(xiǎn),算法賦能的“多主體協(xié)同決策”既要發(fā)揮算法數(shù)據(jù)化與程式化的優(yōu)勢,更要恪守“人民至上”的決策理念,以期真正實(shí)現(xiàn)決策向善,為公共決策的智能治理貢獻(xiàn)中國智慧與中國方案。

參考文獻(xiàn):

〔1〕Bernd W.,et al.Artificial Intelligence and the Public Sector—Applications and Challenges〔J〕. International Journal of Public Administration,2019(07):596-615.

〔2〕吳進(jìn)進(jìn),符 陽.算法決策:人工智能驅(qū)動(dòng)的公共決策及其風(fēng)險(xiǎn)〔J〕.開放時(shí)代,2021(05):194-206.

〔3〕Mullainathan S.,Spiess J.Machine Learning:an Applied Econometric Approach〔J〕.Journal of Economic Perspectives,2017(02):87-106.

〔4〕Busch P.,Henriksen H. Digital Discretion:A Systematic Literature Review of ICT and Street-level Discretion〔J〕. Information Polity,2018(01):20-28.

〔5〕Boer N.,Raaphorst N. Automation and Discretion:Explaining the Effect of Automation on How Street-level Bureaucrats Enforce〔J〕. Public Management Review,2021(01):42-62.

〔6〕Madalina B.Accountable Artificial Intelligence: Holding Algorithms to Account〔J〕.Public Administration Review,2021(05):817-989.

〔7〕保羅·維貝克.將技術(shù)道德化:理解與設(shè)計(jì)物的道德〔M〕.閨宏秀,楊慶峰,譯.上海:上海交通大學(xué)出版社,2016.

〔8〕Heaven W. D. Predictive Policing Algorithms are Racist:They Need to Be Dismantled〔DB/OL〕. https://www. technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantledmachine-learning-bias-criminal-justice/.

〔9〕約翰·羅爾斯.正義論〔M〕.何懷宏,何包鋼,廖申白,譯.北京:中國社會(huì)科學(xué)出版社,2009.

〔10〕陳 鐘.從人工智能本質(zhì)看未來的發(fā)展〔J〕.探索與爭鳴,2017(10):4-7.

〔11〕弗朗西斯·福山.我們的后人類未來〔M〕.黃立志,譯.桂林:廣西師范大學(xué)出版社,2016.

〔12〕王慧媛,李鵬飛,徐麗娟,等.基因編輯技術(shù)倫理治理探討〔J〕.中國科學(xué)院院刊,2021(11):1259-1269.

〔13〕Jarrahi M. H. Artificial Intelligence and the Future of Work: Human-AI Symbiosis in Organizational Decision Making〔J〕.Business Horizons,2018(04):577-586.

〔14〕Wolff J.An Introduction to Political Philosophy〔M〕.New York:Oxford University Press, 2006.

〔15〕王 亮.情境適應(yīng)性人工智能道德決策何以可能——基于美德倫理的道德機(jī)器學(xué)習(xí)〔J〕.哲學(xué)動(dòng)態(tài),2023(05):115-126.

〔16〕馬爾庫塞.單向度的人——發(fā)達(dá)工業(yè)社會(huì)意識(shí)形態(tài)研究〔M〕.劉繼,譯.上海:上海譯文出版社,2008.

〔17〕Goddard K., Roudsari A., Wyatt J.Automation Bias: a Systematic Review of Frequency, Effect Mediators, and Mitigators〔J〕.Journal of the American Medical Informatics Association,2012(01):121-127.

〔18〕劉永謀,彭家鋒.算法決策的認(rèn)識(shí)論不公正及其矯正〔J〕.山西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(06):1-9.

〔19〕馬丁·海德格爾.演講與論文集〔M〕.孫周興,譯.北京:生活·讀書·新知三聯(lián)書店,2005.

〔20〕徐英瑾.邊沁、羅爾斯與分配正義的算法化研究〔J〕.道德與文明,2022(05):159-169.

〔21〕杰瑞·卡普蘭.人工智能時(shí)代〔M〕.李盼,譯.杭州:浙江人民出版社,2016.

〔22〕Wesche J.,Sonderegger A.When Computers Take the Lead: The Automation of Leadership〔J〕.Computers in Human Behavior,2019(07):197-209.

責(zé)任編輯 蘇玉娟

〔基金項(xiàng)目〕西南大學(xué)創(chuàng)新研究2035先導(dǎo)計(jì)劃(SWUPilotPlan018),主持人邱德勝;重慶市教委人文社科研究規(guī)劃項(xiàng)目“人工智能倫理治理研究”(24SKGH380),主持人沈冬香;重慶市研究生科研創(chuàng)新項(xiàng)目“菲利普·基切爾科學(xué)民主化思想研究”(CYB23083),主持人羅譯泓。

〔作者簡介〕邱德勝(1975-),男,湖北武漢人,西南大學(xué)國家治理學(xué)院教授、博士生導(dǎo)師,主要研究方向?yàn)榭茖W(xué)哲學(xué)、科技倫理學(xué)。

羅譯泓(1996-),男,重慶人,西南大學(xué)國家治理學(xué)院博士生,主要研究方向?yàn)榭茖W(xué)哲學(xué)、科技倫理學(xué)。

主站蜘蛛池模板: 亚洲美女AV免费一区| 看看一级毛片| 亚洲天堂区| 尤物视频一区| 日本91在线| 亚洲色图欧美在线| 国产亚洲欧美另类一区二区| 日韩毛片视频| 试看120秒男女啪啪免费| 手机在线免费不卡一区二| 日本高清成本人视频一区| 亚洲熟女中文字幕男人总站| 92精品国产自产在线观看| 亚洲国产综合精品一区| 国产女人在线| 尤物国产在线| 激情乱人伦| 91色在线观看| 国产欧美日韩在线一区| 人妻丝袜无码视频| 国产免费精彩视频| 国产一区二区丝袜高跟鞋| 国产日本欧美在线观看| a天堂视频| 国产成人亚洲无码淙合青草| 国产福利2021最新在线观看| 国产成人成人一区二区| 91年精品国产福利线观看久久| 国产精品美人久久久久久AV| 亚洲无码91视频| 最新亚洲av女人的天堂| 免费看av在线网站网址| 国产成人1024精品下载| 午夜性刺激在线观看免费| 国内丰满少妇猛烈精品播| 免费国产在线精品一区| 国产极品美女在线| av一区二区无码在线| 国产成人久久综合777777麻豆| 国产成人精品一区二区免费看京| 亚洲国产天堂久久综合226114| 日本爱爱精品一区二区| 亚洲天堂日韩av电影| 亚洲午夜天堂| 青青操国产视频| 亚洲欧美另类专区| 91精品视频在线播放| 亚洲床戏一区| 福利小视频在线播放| 污视频日本| 国产在线观看精品| a级毛片在线免费| 无码高潮喷水专区久久| 中国一级毛片免费观看| 亚洲综合色婷婷| 亚洲无码电影| 99热这里只有免费国产精品| 国产亚洲欧美另类一区二区| www精品久久| 伊人大杳蕉中文无码| 国模视频一区二区| 国产地址二永久伊甸园| 亚洲综合久久一本伊一区| av大片在线无码免费| 综合亚洲色图| 美女无遮挡免费网站| 97超爽成人免费视频在线播放| 国产高清又黄又嫩的免费视频网站| 精品亚洲欧美中文字幕在线看| 国产自无码视频在线观看| 国产小视频a在线观看| 国产伦精品一区二区三区视频优播| 日本成人不卡视频| 久久综合亚洲鲁鲁九月天| 亚洲二区视频| 亚洲成a人片7777| 色综合久久无码网| 国产成人免费高清AⅤ| 中文字幕不卡免费高清视频| 91年精品国产福利线观看久久| 成人在线天堂| 91精品国产一区|