




摘要:雖然人工智能技術逐步應用于政府服務的各個領域,但少有研究關注民眾對公共服務中人工智能主體的初步認知和服務失敗后的認知變化。本研究基于預期違背理論和心智感知理論提出,相較于對人類,民眾對公共服務中的人工智能有更高的能力期待和更低的感知能動性。因此,當服務失敗時,民眾對公共服務中的人工智能有更強烈的預期違背和較低的責任歸因。我們設計了兩個實驗來驗證上述研究假設。這一研究結論能夠為基于人工智能的公共服務模式變革和倫理風險研究提供理論指導和政策建議。
關鍵詞:人工智能 公共服務 公共決策 服務失敗 心智感知 預期違背
一、問題的提出
隨著人工智能技術(Artificial Intelligence,AI)在商業領域的成功,公共部門開始在公共服務領域,特別是與公共價值和“國家—公民關系”密切相關的公共決策領域部署AI 系統(例如,預防犯罪、移民審批、稅務金融與司法判決等),以期提高服務效率和質量(Wirtz et al.,2019)。借助強大的學習與信息處理能力,AI 可以對不同環境做出快速反應,幫助公共部門標識出最具有價值的政策目標,運用邏輯分析給出公共服務解決方案設計并對備選方案進行模擬和評估,從而為決策者提供決策評價甚至改善建議,實現輔助或是代替決策者做出理性抉擇(張成福、王祥州,2023)。
因此,一些公共部門為了提升公共服務的決策能力,已經開始將一些業務的整個決策流程完全交由AI,從而實現“無人干預的”全自動決策,如根據征信數據決定是否發放貸款、匹配求職人員技能與崗位等(Berryhill et al.,2019;Janssen et al.,2020;雷剛,2023)。針對這一情況,已經有不少學者指出,在公共服務決策流程中使用AI,意味著政府實質上委托AI 代行治理決策、在二者間構成了一種“委托—代理”關系,從而使AI 在事實上成為了公共服務中的重要決策主體(Coeckelbergh,2019;Busuioc,2021;楊建武,2022;雷剛,2023)。
然而,實踐證明,與人類決策者一樣,AI 系統及其做出的決策建議并非完美無缺:在美國、澳大利亞等西方國家,被直接運用于司法或行政決策的人工智能工具在實踐中已經多次發生錯誤,并對公眾利益產生了實質性的損害(Mayson,2019;Akter et al.,2021)。在傳統的完全由人類負責的公共服務過程中,那些有偏見的、不受歡迎的結果的責任通常能夠被歸因為具體的實體、環節或個人。相比之下,人們尚未在“誰該為由AI 導致的公共服務失敗負責”這一倫理問題上達成共識(Boyd amp; Wilson,2017)。由于在技術上缺乏透明性,AI 系統及其產生結果的過程很大程度上處于“黑箱”之中;同時,各國政府普遍缺乏掌握相關專業知識的雇員和部門,它們通常也不具備自主開發AI 系統或評估供應商產品的能力;這使得不僅是普通人,甚至是它的設計者也很難預測、控制或解釋AI的決策邏輯、基礎和行為,也就無法按照傳統的行政倫理對其進行問責(Wirtzet al.,2019;Schiff et al.,2021;楊建武,2022)。相應的,公共部門也有可能借助AI決策的“無人化”的特點,對產生不良后果的公共決策和行政行為進行避責(趙洲洋,2022;雷剛,2023)。
由此,不少學者指出,在公共服務中使用AI 決策將可能導致“責任風險”(AccountabilityRisks)或“責任赤字”(Accountability Deficits),從而使AI參與的公共服務面臨所謂的“責任困境”(Issues of Accountability)(Coeckelbergh,2019;Busuioc,2021;黃素珍,2020;李良成、李雨青,2021;楊建武,2022)。而對于作為公共服務和行政行為接受方的民眾而言,他們對于政府、公共政策的態度,特別是認同和信任的產生,主要源于他們對相關過程和結果的質量以及是否滿足公共價值的感知和判斷(鄭建君,2013;孟天廣、楊明,2012)。因此,一個現實問題也將隨之產生:民眾將如何看待參與公共服務決策流程的AI 系統?當來自AI 的決策和服務結果無法滿足民眾的期望,甚至對他們造成損害時,民眾的態度將發生怎樣的變化?然而,現有研究盡管已經注意到AI 的嵌入將使公共服務的責任關系復雜化并可能導致“責任困境”,但缺乏從公共決策和公共服務的接受方的視角展開探討。相應的實證研究,特別是圍繞“民眾對AI 參與的公共服務決策過程的理解和態度”這一關鍵問題的實證研究尚處于空白。
針對上述問題,本研究將從預期違背理論與心智感知理論切入,構建一個基于民眾對于公共決策主體身份感知的態度模型,并在此基礎上提出理解智能化公共決策中的責任困境的分析路徑,以期為基于AI 的公共服務模式變革和倫理風險研究提供參考。
二、理論基礎與研究假設
(一)預期違背理論
預期違背理論(Expectancy ViolationsTheory)發端于社會學與傳播學研究,旨在探討一種人與人互動適應的模式,對預測和解釋社會交往現象起著重要的作用(Burgoon,1993)。該理論的核心概念是“預期”,“預期”指的是普遍意義上人們所期望的行為。這種預期既包括規范性預期,即基于社會規范所認可的行為標準所形成的預期,也包括預測性期望,即基于人們依據被觀測者過去行為模式、對其未來行為表現的預期。相應的,預期違背的程度指的是被觀測者的實際表現與觀測者對其期望之間差異的大小(Kim,2014)。
預期違背理論認為,個體通常會依據他人的行為表現,形成對其在特定情況下應如何表現的預期。而一旦他人違背了被賦予的期望,就會激發起人們的預期違背感知,并產生進一步的認知反應,人們會試圖通過解釋對方的行為來應對這種消極喚醒,進而做出相應的反應(Burgoon,1993)。個體對他人行為的反應則是由預期違背的方向和程度決定的,預期違背的方向可以是積極的,也可以是消極的。一般而言,實際表現對期望的違背程度越高,人們的反應越強烈,特別是在遇到消極違背時,會激發出人們高強度的消極情緒(Kim,2014)。
盡管預期違背理論在早期僅被用于預測和解釋“人”與“人”之間的社會交往活動,但是在隨后的應用中,這一理論被延展到更廣義的“人”與“主體”間的互動,尤其是“人”與“擬人化”或“類人化”主體(如企業、機器人等)間的互動(Burgoon et al.,2016;張丹妮、劉春林,2022)。尤其是隨著技術的進步,研究發現,當交互性的機器人傳遞出更多的社會性線索時,人們將傾向以人際交互模式與其互動(Cassell amp; Tartaro,2007)。因此,隨著人們越來越認為AI 兼具有“人類”與“機器”的雙重特質,已經有越來越多的研究開始依據預期違背理論,探討人與AI 之間的互動關系,特別是對于AI 行為或決策產生意料之外的結果時的認知(Hong et al.,2021a,2021b;Grimeset al.,2021;Lew amp; Walther,2022)。本研究也延續了這一理論視角,用于進一步探討民眾對AI 參與的公共服務決策失敗的反應。
(二)心智感知理論
Gray 等學者的研究發現, 人類的心智(Mind)可以歸為兩個獨立的維度——感受性(Experience) 和能動性(Agency)(Gray etal.,2007)。感受性是人類對情緒、感受和基本神經反映(例如,饑渴、傷痛等)體驗的能力;能動性是人類完成自我控制、判斷、溝通、思考、記憶等行為的能力。在此基礎之上,Waytz與Gray 等學者提出了心智感知理論(Theory ofMind Perception)。該理論認為,主體通過對客體所具有的感受性和能動性的感知,從而形成對各類實體(例如,人、動物、AI 等)所具備的心智(Mind)的主觀感知,而這一感知又會進一步影響個體對它們的評估和反應(Waytz etal.,2010;Schein amp; Gray,2018)。
由于該理論將“非人化”與“擬人化”程度解釋為,非人類實體(如AI、計算機、動物)在上述兩個維度距離“人類”的程度,即“去心智化”程度,因此“去心智化”(Dementalization)(即,對實體所擁有的心智程度的否定)既可以是對其中某一個維度的,也可能是對兩個維度的同時否定(楊文琪等,2015)。基于此,既有研究主要從感受性和能動性兩方面中的一個,或者全部來探討個體對AI 和人類的主觀感知差異(Bigman amp; Gray,2018;蔣路遠等,2022)。
(三)完美能力期待及其逆反:人類對AI 的啟發式認知
隨著技術的進步,AI 正在逐漸成為人類勞動的重要輔助和替代。無論是在簡單的重復性任務(如搬運、標記),還是在復雜的決策、推理任務(如投資決策、風險識別),AI 技術正在不斷普及(Huang amp; Rust,2018)。與此同時,人們逐漸意識到基于AI 的決策過程不會受到“有限的精力、非理性決策和認知偏差”等一些人類固有缺點的約束(李思賢等,2022)。人們相信相較于一般人類決策者,AI 往往能給出更好的決策建議(李游、常亞平、梁哲浩,2022)。例如,有實證研究發現,在音樂推薦與預測方面,人們更有可能接受來自AI 而不是人類的建議(Logg et al.,2019)。同時,人們認為由AI 撰寫的新聞報道產生更少的黨派偏見而更加可信(Cloudy etal.,2021)。因此,有學者指出我們正生活在一個越來越依賴AI 決策的時代(Aroyo et al.,2021)。
有研究指出,人們對AI 決策能力的高期待水平來自對AI 的啟發式判斷。具體而言,社會認知理論(Social Cognition Theory)指出人們傾向于依賴由背景線索觸發的心理啟發式(MentalHeuristics)來做認知判斷,而不是進行全面深入的評估(Fiske amp; Taylor,2013)。從普通用戶的視角來看,AI 具有極高的“黑箱”屬性,同時,他們關于AI 的信息主要來自媒體對AI的塑造(Banks,2020)。雖然AI 具有人類和機器的雙重特征,但人們往往更加關注AI“準確、一致、穩定”等機器性特征(Jones-Jangamp; Park,2022)。因此,學者們發現,人們通常相信AI 是以“預先編程的、客觀的、穩定且一致機器式的方式運作”(Sundar amp; Kim,2019)。一旦人們確定決策和建議來自AI,他們就往往會根據腦海中涌現的機器特征來進行判斷(Sundar,2020)。這一現象也被稱為“自動化偏差”(Automation Bias):人們高估了AI 的準確性和一致性,并形成了一種“完美AI”(Perfect Automation Schema)的認知模式(Lee,2018)。相較于來自其他人類決策者的建議和決定,人們更加傾向于認為來自AI 的決策建議是“公正的、客觀的、不帶有歧視成分的且更加接近于完美的”(Dietvorst et al.,2015;Sundar,2020),因而更愿意在復雜決策和推理任務中遵從AI 的決策建議。相比之下,人類決策者則常被認為是不完美和時常犯錯的(Renier et al.,2021)。根據以上論述,我們推測,當民眾認為公共服務的決策主體由人類變為AI 時,將會提升民眾對于決策主體工作能力的期待,由此我們提出以下假設:
H1:在公共服務決策情境中,相對于傳統人類決策者,人們對于AI 有著更高的能力期待。
然而,人們對于AI 的高能力期待也會帶來消極的后果。一些研究指出,人們在與AI 互動后發現AI 違背了“完美AI”模式就會產生“算法厭惡”(Algorithmic Aversion)(李游、常亞平、梁哲浩,2022)。預期違背理論(ExpectancyViolation Theory)認為,人們通常會對他人在特定情境下的行為表現給予期望(Burgoon,1993),這種期望包括了依據他人過去的行為特征對其未來行為進行預判的預測型期望(Predictive Expectancy)。如前所述,人們通常對于自動化的機器、算法有著先入為主的完美或近乎完美的預期。因此,當AI 的決策出錯時,會被人們認為違背了一致性預期;而對人類而言,人們通常認為人類是會從錯誤中學習成長的,因此當他們犯下同樣的錯誤時并不會違反對于人類的預期(Daschner amp; Obermaier,2022;Jones-Jang amp; Park,2022)。由此可見,人們在對AI 和人類決策者的感知中存在一種顯著差異:相比于人類決策者,人們對于AI 的性能有著過高的期望,由此導致人們會對AI 所提供的不完美的結果產生更顯著的失望感(Cloudyet al.,2021;Daschner amp; Obermaier,2022)。根據以上論述,我們推測,相比較于人類,來自AI 的錯誤將會激發起人們更高水平的預期違背感知,由此我們提出以下假設:
H2:在公共服務情境中,相對于人類決策者,當AI 在決策中犯錯時,人們會產生更強的預期違背感。
(四)低能動感知與低責任分配:人類對AI的心智判斷
心智感知(Mind Perception) 理論指出,心智是客觀實體擁有思維或智力的程度,表現為分析、處理問題,以及理解、感受世界的能力。這一理論將“心智”歸因為兩個維度:感受性(Experience)和能動性(Agency),并以此對非人類實體進行感知和評價(Gray et al.,2012)。其中,感受性(Experience)主要體現為體驗和共情的能力,是對本能、情緒(如生氣、恐懼、痛苦、壓力、憤怒、快樂等)的表達和理解能力。研究指出,人們通常不相信AI 具有感受性的能力(Waytz amp; Norton,2014)。
能動性被認為是思考、推理、計劃、歸因及執行完成意圖的能力,被認為是人類思維與實踐結合,主動地、自覺地、有目的地、有計劃地反作用于外部世界的特性(Gray et al.,2007)。因此,心智感知理論認為,能動性是使主體能夠獨立,或至少部分獨立地完成某一目標導向的行動的能力(Waytz et al.,2010)(例如,某個主體具備自主地從A 點移動到B 點的能力)。并且,如果這種以目標為導向的行動產生了后果,主體也可能因此而受到贊揚或指責,并對結果產生“責任”(Responsibility)(例如,前文中的主體被命令留在A 點,但是實際上他走到了B 點)。因此,在大多數情況下,人們對主體能動性的感知,與他們對主體責任,特別是道德責任(Moral Responsibility)的歸因直接相關(Gray et al.,2012)。換言之,當某個實體被認為具有能動性時,它們也會被視為是自主的——能夠做出決定,能夠有意識和意志地采取行動——但當事情走入歧途時,它們也被視為負有責任(Schein amp; Gray,2018)。
研究指出,人們通常認為AI 系統只具有“無需外部干預地完成行動”的最低程度的自主性,而成熟的人類行動者則除了擁有上述能力之外,還包括塑造意愿和意向并進行反思等驅動“有意識地行動的”自主性能力(黃素珍,2020;于雪,2022)。例如,人們傾向于認為,成年人具有非常高的能動性和感受性水平,但機器人和AI 則只具有很低的感受性水平和中等水平的能動性能力(Bigman amp; Gray,2018)。所以,人們通常將人類行動者認定為“充分的道德行動者”(Full Moral Agent),需要為自身行為承擔完全的“主體責任”(AgentResponsibility);而會將AI 視作“不充分的行動者”或“一般行動者”(Agent in General),并且只能為自身的行為承擔相應的、但有限的并承擔相應的因果性責任(Causal Accountability)(Arico,2012;黃素珍,2020)。
根據以上論述,我們推測,當民眾認為公共服務的決策主體由人類變為AI 時,將會降低民眾對于決策主體的能動性的感知;同時,當發生服務失敗時,人們也會更傾向于相信AI 無法對此承擔完全的責任。由此,我們提出以下假設:
H3:在公共服務決策情境中,相對于人類決策者,人們對于AI 的能動性的感知水平更低。
H4:在公共服務決策情境中,相對于人類決策者,當AI 在決策中犯錯時,人們更傾向于認為AI 無法承擔責任。
綜上所述,本研究將上述4 個假設歸納成理論研究模型,見圖1。
本研究通過2 項情景錨定的實驗室實驗研究,檢驗在公共服務情境下,民眾對決策主體的感知會使他們對于公共服務的認知、特別是對于公共服務失敗的認知產生怎樣的影響①。實驗1 將檢驗在公共服務中的決策主體為AI 時,民眾對于決策能力的期望以及感知決策主體的能動性的影響。實驗2 檢驗在公共服務失敗的場景下,民眾對于AI 決策主體的能力認知的調整和責任分配。
三、研究設計與實驗分析
(一)實驗1
1. 實驗設計及實施步驟
實驗1 的主要目的是檢驗公共服務中的決策主體對于民眾認知的影響。實驗問卷調研的起止時間為2022 年11 月24 日至25 日,采用兩組組間實驗設計。委托深圳見數公司在網絡平臺上發布問卷,從該公司400 萬會員的樣本庫中隨機抽取106 名被試。在剔除未通過注意力檢測和答題時間過短(低于180 秒)和過長(長于600 秒)的被試后,得到100 份有效問卷,有效率為94.3%。被試平均年齡為31.6 歲,其中男性36 人,占36%。
通過借鑒現有的“人—AI”互動研究,我們利用服務情景想象的方法,操縱被試所感知的在公共服務情景下的決策主體②(Yam et al.,2021;Arikan et al.,2023)。本研究根據真實的“北京市行政服務中心”官方網站上對自身的介紹,構建起基本的實驗情景和兩組實驗刺激材料。在實驗開始前,我們將全體被試以隨機方式平均分配到兩個分組中,2 組被試將根據分組情況閱讀下文中2 種刺激材料中的一種。隨后,實驗程序如下:被分入“人工服務組”的被試,將看到一段關于當地行政服務中心的簡介,并在簡介的最后一段告訴被試,“該中心目前共有100 個行政事業及公共服務單位、1000 多名工作人員進駐,負責為廣大市民辦理與審批各個公共服務事項”,并配有一張以辦事工作人員元素為主體的宣傳海報。而被分入“AI 服務組”的被試,則會看到一段與上一組幾乎完全一致的簡介,只是最后一段關于入駐單位和工作人員規模的表述被替換為“該中心目前使用的‘城市大腦’AI 系統,負責為廣大市民‘無人化’地辦理與審批各個公共服務事項”。
被試在閱讀完實驗材料后,在通過操縱檢測后,填寫關于能力預期水平、感知能動性的量表。隨后,被試被要求填寫一份關于性別、年齡、職業、收入等人口統計信息和控制變量的簡短問卷。
2. 變量測量實驗1 主要關注兩個因變量:被試對于公共服務中的決策主體的能力預期水平、感知能動性。
(1)因變量1:能力預期水平①。對決策主體的能力預期的測量改編自Dietvorst 等人的相關研究(Dietvorst et al.,2015),被試需要回答一個由三個題項所構成的Likert 7 點量表,“政務服務中心的一般工作人員/ 政務AI 在處理日常的審批事項時,出現錯誤的可能性有多大”(1 為極不可能,7 為極有可能);“我對政務服務中心的相關工作人員的工作能力非常有信心”(1 為非常不贊同,7 為非常贊同);“我覺得,政務服務中心的相關工作人員在審批工作中的犯錯的概率非常低”(1 為非常不贊同,7 為非常贊同)。在對第一個題項進行反向編碼后,測得該量表的Cronbach's α 值為0.859 ②。
(2)因變量2:感知能動性③。對感知能動性的量表改編自Gray 等人設計的心智知覺量表(Gray et al.,2012),并參照王憶希等人的研究(王憶希等,2021),結合實驗背景做進一步的調整,最終測量題項為:“我覺得,政務服務中心的一般工作人員/ 政務AI 能夠判斷是非對錯”“我覺得,政務服務中心的一般工作人員/ 政務AI 有屬于自己的價值體系”“我覺得,政務服務中心的一般工作人員/ 政務AI能引導審批工作中的價值方向”。同樣用Likert7 點評分法(1 為非常不贊同,7 為非常贊同),該量表的Cronbach's α 值為0.775。
在完成上述測量后,我們按照Newton、馬得勇等學者所提出的方法,測量了被試的一般性社會信任、互聯網及IT 使用熟練度、家庭收入水平等控制變量(Newton,2011;馬得勇,2019)。最后,被試匯報了自身的性別、年齡、受教育水平、黨派身份、職業等人口統計學變量。
3. 研究結果
(1)對決策主體感知的操控檢驗。參照前人研究,我們要求被試在閱讀完試驗材料后,通過回答一個單選題“在上述材料中,該政務服務中心目前主要由________ 負責服務辦理與審批工作? A. 政府工作人員;B. 政務AI”來確認實驗操縱的有效性。結果顯示,全部被試都正確識別了操縱材料中所反映的決策主體。同時,獨立樣本T 檢驗(Independent T-Test)的結果顯示,兩組被試在性別(M 人工 = 0.4,MAI = 0.32,t = 0.83,p gt; 0.05)、年齡(M 人工 = 31.22,MAI = 31.98,t = 0.40,p gt; 0.05)、家庭收入水平(M 人工 = 5.52,MAI = 5.30,t =0.86,p gt; 0.05)、受教育水平(M 人工 = 3.06,MAI = 3.04,t = 0.16,p gt; 0.05)、職業(M 人工 = .18,MAI = .22,t = 0.50,p gt; 0.05)、黨派身份(M 人工 = .22,MAI = .26,t = 0.46,pgt; 0.05)、互聯網及IT 使用熟練度(M 人工 = 3.24,MAI = 3.48,t = 1.105,p gt; 0.05)、一般性社會信任(M 人工 = 5.58,MAI = 5.40,t = 0.83,pgt; 0.05)等各個控制變量上均不存在顯著差異。因此,實驗1 的操縱和隨機分組是成功的。
(2)假設檢驗。以二元變量“感知的公共服務決策主體”為自變量(“人工” = 0,“AI”= 1)、連續變量“對決策主體能力的預期水平”(取值范圍為1 ~ 7)為因變量,構建的單因素協方差分析(ANCOVA)的結果顯示:在控制了人口統計學變量、一般性社會信任和互聯網及IT 使用熟練度等控制變量的情況下,自變量“感知的公共服務決策主體”對因變量“對決策主體能力的預期水平”存在顯著且正向的影響(M 人工 = 4.85,MAI = 5.71,F(1,98)= 26.34,p lt; .001,partial η2=.218)(見下圖2)。同時,未發現有控制變量對因變量產生了顯著的影響。表明當得知公共服務中的決策主體是AI 時,人們會對其工作能力有著更高的期望。因此,H1 得到驗證。
隨后,以二元變量“感知的公共服務決策主體”為自變量(“人工” = 0,“AI” = 1)、連續變量“對決策主體能動性的感知”(取值范圍為1 ~ 7)為因變量,構建的單因素協方差分析(ANCOVA)的結果顯示:在控制了人口統計學變量、一般性社會信任和互聯網及IT使用熟練度等控制變量的情況下,自變量“感知的公共服務決策主體”對因變量“對決策主體能動性的感知”,也被發現存在顯著且正向的影響(M 人工 = 6.06,MAI = 5.48,F(1,98)= 9.75,p = .002,partial η2=.10),同時,未發現有控制變量對因變量產生了顯著的影響。表明當獲悉公共服務中的決策主體是AI 時,人們會對其能動性有著相較于一般人類工作人員更低的感知(見下圖3)。因此,H3 得到驗證。
(3)結果討論。實驗1 通過兩組組間實驗設計驗證了民眾對于公共服務中決策主體的變化的認知。具體而言,我們發現,當獲悉公共服務中的決策主體是人類時,民眾有著較低的服務能力預期,但有著更高的主體感知能動性;而當由AI 取代人類擔任公共服務的決策主體時,民眾則會對其產生更高的服務能力預期,但表現出了相對較低的主體感知能動性。上述結果可以與現有研究相互印證(Dietvorstet al.,2015;Yam et al.,2021;Arikan et al.,2023)。考慮到人們傾向于對AI 的決策能力給予過高期望,那么在出現服務失敗時是否會產生對這種預期的違背感?同時,在服務失敗的情境下,人們傾向于要求歸咎于具有能動性的決策主體、并要求其承擔責任,那么對于只具有相對較低的能動性的AI,人們又會對其責任產生怎樣的認知?實驗2 將在實驗1 的基礎上,探討上述問題。
(二)實驗2
1. 實驗設計及實施步驟
實驗2 的主要目的是檢驗在公共服務失敗的情境下,公共服務中的決策主體對于民眾認知的影響。實驗問卷調研的起止時間為2022 年12 月4 日至5 日,采用兩組組間實驗設計。實驗2 在與實驗1 相同平臺招募被試,但參與過實驗1 的被試將會被排除在實驗2 之外。實驗2 共招募134 名被試,在剔除未通過注意力檢測和答題時間過短(低于180 秒)和過長(長于600 秒)的被試后,共得到120 份有效問卷,有效率為89.6%。被試平均年齡為30.1 歲,其中男性57 人,占47.5%。
與實驗1 一致,我們利用服務情景想象的方法,操縱被試所感知的在公共服務失敗情景下的決策主體。我們以來自疫情防控部門的真實短信通知為模板,構建起基本的實驗情景和兩組實驗刺激材料。在實驗開始前,我們將全體被試以隨機方式平均分配到兩個分組中,2組被試將根據分組情況閱讀下文中2 種刺激材料中的一種。實驗程序如下:首先,被分入“人工服務失敗組”的被試,將被告知收到了一條來自所在城市疫情防控部門的短信,通知其“根據社區網格員填報的相關資料,您可能與新冠病毒感染者存在直接或間接接觸……根據《中華人民共和國傳染病防治法》等法律規定和有關疫情防控要求,我辦已將您的‘健康碼’標記為‘黃碼’……請在第一時間向所在您所在的社區(單位、賓館)報告,……,并接受疫情防控相關管控措施。”而被分入“AI 服務失敗組”的被試,則會看到一段與上一組幾乎完全一致的簡介,只是將“社區網格員填報的相關資料”替換為“大數據流調系統分析”。被試在閱讀完上述材料后,將會要求填寫一份對上述信息的感知測量量表。
隨后,被分入“人工服務失敗組”的被試,將被告知又在“十幾分鐘內”收到了一條來自與前一條短信相同渠道的信息,通知其“經核實,您被賦‘黃碼’系社區網格員上報信息錯誤所導致,我們對由此給您帶來困擾和不便深表歉意!我辦已調整您的賦碼狀態,您的‘健康碼’已轉為‘綠碼’”。同理,被分入“AI 服務失敗組”的被試,則會被告知,其“被賦‘黃碼’系大數據流調系統錯誤所導致”。
被試在閱讀完實驗材料后,在通過操縱檢測后,填寫關于感知能力預期違背(Perceptionof Expectation Violation)、感知責任歸屬(Perception of Responsibility Attribution)的量表。隨后,被試被要求填寫一份關于性別、年齡、職業、收入等人口統計信息和控制變量的簡短問卷。
2. 變量測量
實驗2 主要關注以下兩個因變量:被試在公共服務失敗情境下的對能力預期違背的感知、以及對責任歸屬的感知。
(1)因變量3:能力預期違背的感知①。與實驗1 一致,對公共服務失敗中的決策主體能力預期違背的感知量表改編自Dietvorst 等人的相關研究(Dietvorst et al., 2015),被試需要回答一個由三個題項所構成的Likert 7 點量表,“社區網格員/ 大數據流調系統會在這件事情上犯錯,出乎我的意料”(1 為非常不贊同,7 為非常贊同);“社區網格員/ 大數據流調系統會在這件事情上犯錯,是不同尋常的”(1為非常不贊同,7 為非常贊同);“社區網格員/ 大數據流調系統會在這件事情上犯錯,不符合人們對他的期待”(1 為非常不贊同,7 為非常贊同)。在對第一個題項進行反向編碼后,測得該量表的Cronbach's α 值為0.749。
(2)因變量4:責任歸屬的感知①。對責任歸屬的感知量表改編自Srinivasan 與Sarial-Abi(2021)設計的責任感知量表,并結合本實驗背景做進一步的調整,最終測量題項為:“我覺得,上述錯誤應該歸咎于社區網格員/ 大數據流調系統本身”“我覺得,社區網格員/ 大數據流調系統會因上述錯誤而承擔責任”“我覺得,社區網格員/ 大數據流調系統會因上述錯誤而受到懲罰”。同樣用Likert 7 點評分法(1 為非常不贊同,7 為非常贊同),該量表的Cronbach's α 值為0.839。
在完成上述測量后,我們按照與實驗1 一致的方式,測量了被試的相關控制變量和人口統計學變量。
3. 研究結果
(1)對公共服務失敗感知的操控檢驗。與實驗1 一致,我們要求被試在閱讀完全部實驗材料后,通過回答一個單選題“根據以上短信中所反映的信息,是下列選項中哪一個主體的錯誤,導致您收到了一條錯誤的疫情防控相關短信? A. 社區網格員;B. 大數據流調系統”來確認實驗操縱的有效性。結果顯示,全部被試都正確識別了操縱材料中所反映的決策主體。
此外,現有研究表明,在損失厭惡傾向的驅動下,所經歷的服務失敗的嚴重程度的感知和評價,也會影響人們對于服務失敗的責任主體的評價和態度(Dietvorst et al.,2015)。因此,為確保實驗操縱的對稱性與有效應,實驗2 在實驗1 的操縱監測的基礎上,增加了對被試的服務失敗嚴重程度感知的測量。參照現有研究(Dietvorst et al.,2015),我們要求被試通過回答一個題項,來測量他們對第一階段實驗材料的認知態度:請問,對于你個人而言,你認為以上信息所反映內容的重要程度是?(“1 分”表示“非常不重要”,“7 分”表示“非常重要”)。
如前所述,在完成第一階段材料閱讀后,被試需要回答一個題項,來檢測他們對第一階段實驗材料中所反映的事件的重視程度,以確保本實驗所設計的公共服務失敗對不同分組被試的影響程度的一致性。據此,獨立樣本T 檢驗(Independent T-Test)的結果顯示,兩組被試在感知公共服務失敗的重要程度(M 人工失敗 = 6.33,MAI 失敗 = 6.12,t = 1.378,p gt; 0.05)、性別(M 人工失敗 = .43,MAI 失敗 = .52,t =.91,p gt; 0.05)、年齡(M 人工失敗 = 29.83,MAI 失敗 = 30.35,t = .38,p gt; 0.05)、家庭收入水平(M 人工失敗 = 5.3,MAI 失敗 = 5.38,t= .33,p gt; 0.05)、受教育水平(M 人工失敗 = 2.97,MAI 失敗 = 2.95,t = .127,p gt; 0.05)、職業(M人工失敗 = .17,MAI 失敗 = .18,t = .238,p gt;0.05)、黨派身份(M 人工失敗 = .17,MAI 失敗 = .17,t = .01,p gt; 0.05)、互聯網及IT 使用熟練度(M 人工失敗 = 5.25,MAI 失敗 = 4.7,t= 1.657,p gt; 0.05)、一般性社會信任(M 人工失敗 = 5.47,MAI 失敗 = 5.48,t = .074,p gt; 0.05)等各個控制變量上均不存在顯著差異。因此,實驗2 的各項操縱和隨機分組是成功的。
(2)假設檢驗。以二元變量“導致公共服務失敗的決策主體類型”為自變量(“社區網格員” = 0,“大數據流調系統” = 1)、連續變量“能力預期違背的感知”(取值范圍為1 ~ 7)為因變量,構建的單因素協方差分析(ANCOVA)的結果顯示:在控制了人口統計學變量、一般性社會信任和互聯網及IT 使用熟練度等控制變量的情況下,自變量“導致公共服務失敗的決策主體類型”對因變量“能力預期違背的感知”存在顯著且正向的影響(M 人工失敗 = 4.93,MAI 失敗 = 5.58,F(1,119)= 15.378,p lt;.001,partial η2=.123)(見下圖4)。同時,未發現有控制變量對因變量產生了顯著的影響。由此表明,當獲知導致服務失敗的主體為AI 時,相比于人類工作人員,人們會感受到更高的能力預期違背感,因此H3 得到支持。
隨后,以二元變量“導致公共服務失敗的決策主體類型”為自變量(“社區網格員” = 0,“大數據流調系統” = 1)、連續變量“責任歸屬的感知”(取值范圍為1 ~ 7)為因變量,構建的單因素協方差分析(ANCOVA)的結果顯示:在控制了人口統計學變量、一般社會信任和互聯網使用熟練度等控制變量的情況下,自變量“導致公共服務失敗的決策主體類型”對因變量“對責任歸屬的感知”,也被發現存在顯著且正向的影響(M 人工失敗 = 4.88,MAI 失敗= 3.57,F(1,119)= 40.172,p lt; .001,partialη2=.268)(見下圖5)。同時,未發現有控制變量對因變量產生了顯著的影響。由此表明,當獲知導致服務失敗的主體為AI 時,相比于人類工作人員,人們認為應該歸屬于AI 系統的責任較低,因此H4 得到支持。
(3)結果討論。實驗2 通過兩組組間實驗設計驗證了民眾在公共服務失敗情境下,對于不同決策主體的態度和認知。具體而言,我們發現,當感知到造成公共服務失敗的決策主體是AI 而非人類工作人員時,民眾感覺到了更強的能力預期違背感,但同時,他們卻更不傾向于將這種責任完全歸咎于AI 本身。而當造成服務失敗的決策主體是人類工作人員時,民眾的感知模式則恰恰與此相反。換言之,在公共服務失敗的情境下,人們往往希望歸咎于具有更具能動性的決策主體,而不是有著更高的能力預期的決策主體。
四、結論與討論
在人工智能迅速發展的時代,分析和識別AI 嵌入公共服務面臨的風險與挑戰,特別是隨著公共決策與服務供應的治理主體從“單一人類”到多元化的“人類+AI”的轉變下,民眾對于AI 作為決策主體期望、感知與接受已成為當前學界集中關注的一個重要話題(姜李丹、薛瀾,2022; 徐輝、2020; 梁軍、孟克迪,2022;徐敏寧、羅鵬,2022;楊建武,2022;冉龍亞、陳濤、孫寧華,2021)。
有關民眾對于“AI 在公共服務決策中的主體性地位”認識的形成是一個極其復雜的過程。目前,西方學界在AI 系統和算法的錯誤或錯誤決策和行動的情況下,如何處理責任歸屬和挑戰等重要問題上還仍未達成共識(Boydamp; Wilson,2017;Nagenborg et al.,2008;Johnson,2015)。學界通常基于公眾對公共治理主體(如官員、公共機構、政治家等)的態度,特別是預期、問責(Accountability)、依從度和滿意度(Satisfaction)等指標來評估公共服務的前景和績效。然而,現有的相關研究往往從“AI+ 公共服務”的主體性迷思、行政倫理規范等基于“政府、治理者”的“形而上的”視角出發(徐輝,2020;梁軍、孟克迪,2022)進行分析,輔以少量基于政策文本分析的定量研究(陳少威、吳劍霞,2022)。
相比之下,基于民眾視角的、作為公共服務接受方的,對AI 嵌入公共服務的新感知、新挑戰進行探討的實證研究仍然較少(冉龍亞、陳濤、孫寧華,2022),而對AI 決策引起的“責任困境”的實證討論則仍是空白。基于此,本文緊扣當前我國“AI+ 公共服務”的實踐,基于公眾主觀評價模式,從對公共服務中的決策主體及其責任感知入手,實證檢驗了在未來新的治理模式下,民眾對以AI 為代表的新興公共服務決策主體的認識與感知。
本文研究發現的主要結論如下:第一,對中國當前的“AI+ 公共服務”實踐而言,明確顯示AI 在公共服務流程中的決策主體地位,會使民眾對其工作能力產生過高的期望。第二,民眾對于承擔決策主體地位的AI 的能動性評價,低于承擔相同地位的人類工作人員。第三,在發生公共服務失敗、并且導致失敗的決策主體為AI 時,民眾會感受到更高水平的能力預期違背感知,但卻只會將更少的責任歸咎于AI。上述結論在一定程度上驗證了一些學者所設想的,“當AI 參與的公共決策和公共服務導致了負面結果時,民眾有可能難以判斷相關決策責任歸屬,并因此難以通過申訴、復議或訴訟等方式提出異議、獲得有效救濟”的情景(Busuioc,2021; 黃素珍,2020; 李良成、李雨青,2021;楊建武,2022;趙洲洋,2022)。同時,由于在實驗分析中未發現存在對因變量產生顯著影響的控制變量,我們有理由相信,這種效果廣泛可能存在于所收集樣本的各個子群體中,因此具有較高的穩健性。
基于公共治理的邏輯,本文探索了在我國具體情境下,AI 作為決策主體在民眾對公共服務的認知方面的潛在影響。基于心智感知理論與預期違背理論,文章從理論上豐富了對AI時代公共服務面臨的風險與挑戰的認識,特別是從單一到多元的治理主體轉變下,民眾對從“人—人”關系到“人—機”關系的全新認知。理論上,公眾對公共治理主體的高期待有助于政府工作的開展,公眾對政府認可時能提升政策執行效率、減少執行阻力。但是,正如前文所述的當前研究,以及實驗1 的實證結果,在缺乏大量正確的相關知識的情況下,民眾對于AI 的認知或許來源于媒體的塑造以及基于“機器式特征”的啟發性認知模式。因此,對AI 過高的能力預期導致民眾在服務失敗中體會到了更高的能力預期背離感。此外,我們相信導致民眾對于公共服務失敗情境下的決策主體的不同認知模式的主要原因,即:在啟發式思維模式下,能力預期與實際經驗的背離所導致的預期違背,以及在心智感知模式下,對于AI 的低主體性評價(Bigman et al.,2019;Srinivasan amp;Sarial-Abi,2021;Yam et al.,2021)。上述認知模式也與經典的,“公眾對公共決策主體的態度和評價,與其對公共政策的依從程度呈正相關”存在一定差異(Hetherington,1998)。希望本研究上述結論能夠對進一步理解民眾對公共服務的評價和認識過程有所啟示。
相應的,本研究蘊含的政策啟示主要體現在以下幾個方面:首先,在我國從數字治理向智能治理轉型的過程中,針對民眾對公共服務中的AI 決策主體的過高能力期待與過低感知能動性,政府應當從公共服務與公共決策的領域、類型和流程出發,思考AI 主體在其中的“外顯”與“內隱”問題。在對民眾的宣傳中,應避免過度強調AI 在公共服務的決策流程中對政府官員的能力優勢與職位替代,使民眾能夠樹立起對于AI 支持下的公共服務的正確認知。其次,各級政府可以通過微信公眾號、微博、官方網頁等多個渠道,加強對AI 支持下的公共服務創新的宣傳。向民眾強調傳統的“政府—民眾”互動所依靠的“人與人”之間的關系并沒有完全被“人—機”關系所取代、以降低民眾對公共服務失敗情境下的“責任困境”的擔憂。總之,應正確引導民眾對我國“AI+ 公共服務”的客觀認識,實現民眾對治理主體和責任的正確期待,進而促進治理依從度和滿意度的長遠、有效提升。
當然,本文研究也存在一定的不足之處。首先,囿于數據來源和研究主題,本文在實驗1 中對“AI+ 公共服務”的場景設計上,僅僅考慮了政府機構的外部環境、并沒有明確該場景下的公共服務具體類型。因此,可以在未來的研究中重新進行實驗設計并詳加討論。其次,由于數據類型所限,本文并沒有采用目前社會科學領域前沿的因果中介模型,而是在一定程度上對于實驗1 的場景進行模糊化處理,從而將實驗1 得到的相關結論作為實驗2 的預實驗預前測,提供一種可能的解釋機制,并在此意義上展開分析。總而言之,本文主要基于公眾感知的邏輯,一定程度上揭示了相應的作用機制,研究方法和理論還有待完善,進一步深化民眾形成對于“AI+ 公共服務”認知的因果機制解釋。
參考文獻
[1]Wirtz B W, Weyerer J C, Geyer C. Artificial
intelligence and the public sector— applications
and challenges[J]. International Journal of Public
Administration, 2019, 42(7): 596-615.
[2] 張成福, 王祥州. 人工智能嵌入公共服
務治理的風險挑戰[J]. 電子政務,2023(01):37-51.
[3]Berryhill J, Heang K K, Clogher R, et al.
Hello, world: Artificial intelligence and its use in the
public sector[R]. Paris: OECD, 2019: 14-96.
[4]Janssen M, Brous P, Estevez E, et al. Data
governance: Organizing data for trustworthy artificial
intelligence[J]. Government Information Quarterly,
2020, 37(03): 1-8.
[5] 雷剛. 數字政府時代的算法行政:形成
邏輯、內涵要義及實踐理路[J/OL]. 電子政務:1-
17[2023-02-10].
[6]Coeckelbergh M. Artificial intelligence,
responsibility attribution, and a relational
justification of explainability[J]. Science and
Engineering Ethics, 2020, 26(4): 2051-2068.
[ 7 ] B u s u i o c M . A c c o u n t a b l e a r t i f i c i a l
intelligence: Holding algorithms to account[J].
Public Administration Review, 2021, 81(5): 825-
836.
[8] 楊建武. 人工智能嵌入政府治理的責任
困境及其政策紓解[J]. 西南民族大學學報( 人文
社會科學版), 2022, 43(04):192-200.
[9]Mayson S G. Bias in, bias out[J]. The Yale
Law Journal, 2019, 128(8): 2218-2300.
[10]Logg J M, Minson J A, Moore D A.
Algorithm appreciation: People prefer algorithmic
to human judgment[J]. Organizational Behavior and
Human Decision Processes, 2019, 151: 90-103.
[11]Akter S, McCarthy G, Sajib S, et al.
Algorithmic bias in data-driven innovation in the
age of AI[J]. International Journal of Information
Management, 2021, 60: 102387.
[12]Boyd M, Wilson N. Rapid developments in
artificial intelligence: How might the New Zealand
government respond?[J]. Policy Quarterly, 2017,
13(4).
[13]Schiff D S, Schiff K J, Pierson P. Assessing
public value failure in government adoption of
artificial intelligence[J]. Public Administration,
2021.
[14] 趙洲洋. 智能社會治理中的民眾
權益保障: 困境、挑戰與優化[J]. 社會科
學,2022,(06):106-118.
[15] 黃素珍. 人工智能的責任困境: 以自主
能動性和道德圖靈測試為探討中心[J]. 山東社
會科學, 2020(04):11-18.
[16] 李良成, 李雨青. 人工智能嵌入政府治
理的風險及其規避[J]. 華南理工大學學報( 社會
科學版),2021,23(05):1-13.
[17] 鄭建君. 政治信任、社會公正與政治
參與的關系——一項基于625 名中國被試的實
證分析[J]. 政治學研究,2013(06):61-74.
[18] 孟天廣, 楊明. 轉型期中國縣級政府的
客觀治理績效與政治信任——從“經濟增長合
法性”到“公共產品合法性”[J]. 經濟社會體制
比較,2012(04):122-135.
[19]Burgoon J K. Interpersonal expectations,
e x p e c t a n c y v i o l a t i o n s , a n d e m o t i o n a l
communication[J]. Journal of Language and Social
Psychology, 1993, 12(1-2): 30-48.
[20]Kim S. The role of prior expectancies and
relational satisfaction in crisis[J]. Journalism amp; Mass
Communication Quarterly, 2014, 91(1): 139-158.
[21]Burgoon J K, Bonito J A, Lowry P B, et
al. Application of expectancy violations theory
to communication with and judgments about
embodied agents during a decision-making task[J].
International Journal of Human-Computer Studies,
2016, 91: 24-36.
[22] 張丹妮, 劉春林. 違規事件下企業社會
責任水平對投資者市場反應的影響研究[J]. 管
理學報,2022,19(09):1288-1296.
[23]Cassell J, Tartaro A. Intersubjectivity in
human–agent interaction[J]. Interaction Studies,
2007, 8(3): 391-410.
[24]Hong J W, Cruz I, Williams D. AI, you can
drive my car: How we evaluate human drivers vs.
self-driving cars[J]. Computers in Human Behavior,
2021, 125: 106944.
[25]Hong J W, Peng Q, Williams D. Are
you ready for artificial Mozart and Skrillex? An
experiment testing expectancy violation theory and
AI music[J]. New Media amp; Society, 2021, 23(7):
1920-1935.
[26]Grimes G M, Schuetzler R M, Giboney
J S. Mental models and expectation violations in
conversational AI interactions[J]. Decision Support
Systems, 2021, 144: 113515.
[27]Lew Z, Walther J B. Social scripts and
expectancy violations: Evaluating communication
with human or ai chatbot interactants[J]. Media
Psychology, 2022: 1-16.
[ 2 8 ] G r a y H M , G r a y K , We g n e r D M .
Dimensions of mind perception[J]. Science, 2007,
315(5812): 619-619.
[ 2 9 ] W a y t z , A . , G r a y , K . , E p l e y , N . , amp;
Wegner, D. M. Causes and consequences of mind
perception[J]. Trends in Cognitive Sciences, 2010.
14(8), 383-388.
[30]Schein C, Gray K. The theory of dyadic
morality: Reinventing moral judgment by redefining
harm[J]. Personality and Social Psychology Review,
2018, 22(1): 32-70.
[31] 楊文琪, 金盛華, 何蘇日那, 張瀟雪,
范謙. 非人化研究: 理論比較及其應用[J]. 心理
科學進展,2015,23(07):1267-1279.
[32]Bigman Y E, Gray K. People are averse
to machines making moral decisions[J]. Cognition,
2018, 181: 21-34.
[33] 蔣路遠, 曹李梅, 秦昕等. 人
工智能決策的公平感知[J]. 心理科學進
展,2022,30(05):1078-1092.
[ 3 4 ] H u a n g M H , R u s t R T . A r t i f i c i a l
intelligence in service[J]. Journal of Service
Research, 2018, 21(2): 155-172.
[35] 李思賢, 陳佳昕, 宋艾珈, 王夢琳, 段
錦云. 人們對人工智能建議接受度的影響因素
[J]. 心理技術與應用, 2022, 10(04):202-214.
[36] 李游, 梁哲浩, 常亞平. 用戶對人工智
能產品的算法厭惡研究述評及展望[J]. 管理學
報, 2022, 19(11):1725-1732.
[37]Cloudy, J., Banks, J., amp; Bowman, N. D.
The str (AI) ght scoop: Artificial intelligence cues
reduce perceptions of hostile media bias[J].Digital
Journalism, 2021:1-20.
[38]Aroyo A M, De Bruyne J, Dheu O, et al.
Overtrusting robots: Setting a research agenda to
mitigate overtrust in automation[J]. Paladyn, Journal
of Behavioral Robotics, 2021, 12(1): 423-436.
[39]Fiske S T, Taylor S E. Social cognition:
From brains to culture[M]. Sage, 2013.
[ 4 0 ] B a n k s J . O p t i m u s p r i m e d : M e d i a
cultivation of robot mental models and social
judgments[J]. Frontiers in Robotics and AI, 2020, 7:
62.
[41]Jones-Jang S M, Park Y J. How do people
react to AI failure? Automation bias, algorithmic
aversion, and perceived controllability[J]. Journal of
Computer-Mediated Communication, 2022, 28(1):
zmac029.
[42]Sundar S S, Kim J. Machine heuristic:
When we trust computers more than humans with
our personal information[C]//Proceedings of the 2019
CHI Conference on human factors in computing
systems. 2019: 1-9.
[43]Sundar S S. Rise of machine agency: A
framework for studying the psychology of human–
AI interaction (HAII)[J]. Journal of Computer-
Mediated Communication, 2020, 25(1): 74-88.
[44]Lee M K. Understanding perception of
algorithmic decisions: Fairness, trust, and emotion
in response to algorithmic management[J]. Big Data
amp; Society, 2018, 5(1): 2053951718756684.
[45]Dietvorst B J, Simmons J P, Massey C.
Algorithm aversion: people erroneously avoid
algorithms after seeing them err[J]. Journal of
Experimental Psychology: General, 2015, 144(1):
114.
[46]Renier L A, Mast M S, Bekbergenova A. To
err is human, not algorithmic–Robust reactions to
erring algorithms[J]. Computers in Human Behavior,
2021, 124: 106879.
[47]Daschner S, Obermaier R. Algorithm
aversion? On the influence of advice accuracy on
trust in algorithmic advice[J]. Journal of Decision
Systems, 2022: 1-21.
[ 4 8 ] G r a y K , Y o u n g L , Wa y t z A . M i n d
p e r c e p t i o n i s t h e e s s e n c e o f m o r a l i t y [ J ] .
Psychological Inquiry, 2012, 23(2): 101-124.
[49]Waytz A, Norton M I. Botsourcing and
outsourcing: Robot, British, Chinese, and German
workers are for thinking—not feeling—jobs[J].
Emotion, 2014, 14(2): 434.
[50] 于雪. 基于機器能動性的人機交互信
任建構[J]. 自然辯證法研究, 2022, 38(10):43-49.
[ 5 1 ] A r i c o A J . B r e a k i n g o u t o f m o r a l
t y p e c a s t i n g [ J ] . R e v i e w o f P h i l o s o p h y a n d
Psychology, 2012, 3(3): 425-438.
[52]Yam K C, Bigman Y E, Tang P M, et
al. Robots at work: People prefer—and forgive—
service robots with perceived feelings[J]. Journal of
Applied Psychology, 2021, 106(10): 1557.
[53]Arikan E, Altinigne N, Kuzgun E, et al.
May robots be held responsible for service failure
and recovery? The role of robot service provider
agents' human-likeness[J]. Journal of Retailing and
Consumer Services, 2023, 70: 103175.
[54] 王憶希, 吳福仲, 王崢. 人工智能新聞
主播何以被接受?: 新技術與社會行動者的雙重
視角[J]. 全球傳媒學刊, 2021, 8(04):86-102.
[55]Newton K, Zmerli S. Three forms of trust
and their association[J]. European Political Science
Review, 2011, 3(2): 169-200.
[56] 馬得勇, 陸屹洲. 信息接觸、威權人格、
意識形態與網絡民族主義——中國網民政治態
度形成機制分析[J]. 清華大學學報( 哲學社會科
學版), 2019, 34(03):180-192+197.
[57 姜李丹, 薛瀾. 我國新一代人工智能治
理的時代挑戰與范式變革[J]. 公共管理學報,
2022, 19(02):1-11+164.
[58] 徐輝. 治理現代化背景下區塊鏈技術
在公共部門人員績效管理中的應用與創新[J].
中國軟科學, 2020(09):60-69.
[59] 梁軍, 孟克迪. 人工智能嵌入社會治理
的新機遇、新挑戰及新路向[J]. 治理現代化研究,
2022, 38(06):57-65.
[60] 徐敏寧, 羅鵬. 人工智能嵌入基層
治理的風險生成及規避[J]. 行政管理改革,
2022(07):93-100.
[61] 冉龍亞, 陳濤, 孫寧華. 人工智能時代
的政府治理:機遇與挑戰[J]. 中國科技論壇,
2021(12):1-9.
[62]Nagenborg M, Capurro R, Weber J, et al.
Ethical regulations on robotics in Europe[J]. Ai amp;
Society, 2008, 22: 349-366.
[63]Johnson D G. Technology with no human
responsibility?[J]. Journal of Business Ethics, 2015,
127(4): 707-715.
[64] 陳少威, 吳劍霞. 人工智能治理風險和
工具的識別與匹配研究——基于政策文本的分
析[J]. 中國行政管理, 2022(09):23-30.
[65] 冉龍亞, 陳濤, 孫寧華. 人工智能參
與公共決策對公眾信任的影響——一項基于
調查實驗的實證研究[J]. 科學與社會, 2022,
12(01):103-121.
[66]Bigman Y E, Waytz A, Alterovitz R, et
al. Holding robots responsible: The elements of
machine morality[J]. Trends in Cognitive Sciences,
2019, 23(5): 365-368.
[67]Srinivasan R, Sarial-Abi G. When
algorithms fail: Consumers' responses to brand
harm crises caused by algorithm errors[J]. Journal of
Marketing, 2021, 85(5): 74-91.
[68]Hetherington M J. The political relevance
of political trust[J]. American Political Science
Review, 1998, 92(4): 791-808.