中圖分類號:D630 文獻標識碼:A 文章編號:1008-410X(2025)05-0043-10
隨著生成式人工智能(GenerativeAI)被引人行政決策領域,公共部門依托其海量數據訓練與統計學模型的優勢,顯著提升了行政決策的效率,為公共治理注入新的技術動能。生成式人工智能能夠快速整合多源異構數據,模擬復雜決策場景并輔助行政主體優化資源配置、預判社會風險,從而在信息采集、方案推演等環節實現對傳統決策模式的突破。然而,生成式人工智能的核心邏輯是對既有語料庫的概率性計算,其決策輸出本質上是統計學關聯的產物,而非對現實意義的深度詮釋。這種解釋性的缺失導致算法難以穿透數據表象,難以辨析價值沖突與社會情境的復雜性。當生成式人工智能被不加審慎地嵌入具有權威性、公共性與價值負載特性的行政決策場域時,極易陷入由算法訓練所拉扯的\"數字迫行\"(digital enforcement)之中。所謂\"數字迫行”,指的是決策主體在過度依賴或盲目信從生成式人工智能所輸出的、缺乏充分語義解釋與價值論證的結論時,其決策自主性被技術輸出所裹挾與束縛,進而無意識地遵循一種由數據邏輯和算法偏好所預設的路徑,導致決策偏離公共治理所追求的公平、正義及民主問責等根本目標。我們使用“數字迫行\"這一概念指稱生成式人工智能在行政決策中通過數據霸權、算法黑箱與自動化閉環,擠壓人類裁量空間,迫使決策者與公眾被動接受技術預設路徑的現象。“數字迫行\"源于生成式人工智能的技術剛性與公共行政所固有的價值多元性、程序正當性及公共問責性之間的矛盾。在實踐層面,這種迫行具象化為,公共服務流程為追求自動化而被迫簡化甚至犧牲個案公平[1](P5)、行政決策因過度依賴量化模型而陷入“中立謬誤\"[2](P232)、組織架構為適配技術邏輯而進行重組等[3](P7)。它以一種不容置疑的“進步\"敘事,強制性地重塑著公共部門的運作邏輯與服務生態,潛藏著加劇數字鴻溝、侵蝕公共利益和導致治理模式僵化的風險。
現有文獻對生成式人工智能與技術治理的研究已頗為豐富,多聚焦于數字技術的效率提升潛能及其可能引致的倫理風險[4][5][6]。然而,多數研究呈現兩極化傾向。一是從技術功能主義視角出發,將技術的嵌入視為中性工具的自然演進,缺乏對“被迫性\"的批判性審視;二是孤立的倫理哲學討論,未能系統解構“迫行\"的發生機制與具體形態。本文試圖回應上述理論與現實需求,通過提出并闡釋\"數字迫行\"這一概念,系統剖析生成式人工智能在行政決策過程中的內在張力,進而對“數字迫行”進行多維度的分類與實證映射,以期提供一個清晰的認知圖譜和概念工具。最終,探索一條從“迫行”邁向“包容”的轉型路徑,助力構建更具溫度與公平性的數字行政體系。
一、生成式人工智能參與行政決策的“數字迫行”:概念解構與生成邏輯
人類已經被納人一個受算法控制的成型網絡中,技術網絡與社會經濟系統不再分離,而是呈現深度耦合,并具備統合其全部功能的整合能力[7](P24)。在全球數字政府建設浪潮的宏觀背景下,技術賦能提升了行政決策的效率與精準性,成為現代公共治理轉型的重要驅動力。然而,這種技術理性的顯性優勢背后,潛藏著深刻的治理悖論,一種新的異化力量正在滋生。當行政系統日益依賴數據與算法時,其決策過程雖被賦予“科學化\"“客觀化\"的表征,實則可能陷入新型技術異化的困境[8]。一種隱性的強制性邏輯逐漸滲透至行政實踐場域,行政活動為適配技術系統而偏離公共價值本源,可能導致人文關懷的式微及行政人員主體性的消解。這種技術邏輯對行政自主性的系統性壓制,構成“數字迫行”的內核。數字“座架”與行政組織的結合,構成一種名為“數字迫行”的持續威脅。
(一)“數字迫行\"的特征:作為“技術座架\"的生成式人工智能
現代技術的本質需超越工具性認知框架,實質是一種\"解蔽\"方式,也就是解除、去除遮蔽,事物本質凸顯過程。然而,這種解蔽在現代技術中呈現“擺置”(Stellen)的支配性形態,它的字面含義指向“座架\"或“框架”,如機械底座或骨架的支撐結構等,而哲學內涵則表征著一種強制性的系統化“集一置\"(Ge-stell)。集置通過聚集多重技術促逼力量,迫使自然與人類進入“持存物”(Bestand)狀態,萬物被預先設定為可計算、可預測、可操控的資源庫存,事物的本真性在技術邏輯中被消解[9](P20)。生成式人工智能的“迫行\"特征體現在三個方面。
第一,促逼性支配。技術非中立地引導世界,而是以挑戰的姿態強硬要求自然釋放能量,同時迫使人類按照技術系統的需求重構現實[10]。促逼性支配不僅重構了人類與自然的關系,更深刻地塑造了一種以控制與預測為核心的技術理性,這種理性不斷排斥非工具性的存在方式,進而使整個現代世界處于一種高度系統化卻日益貧乏的存在形態之中。“數字座架\"的形成體現在行政組織被數據驅動、算法主導的生成式人工智能系統所框定,行政決策被簡化為算法對持存物的調度,數字技術從賦能工具異化為強制性座架。這一框架由硬件基礎設施、軟件平臺、數據流、算法模型和標準化流程共同構成,它們交織成一個表面上中立客觀、實則蘊含強大規定性的技術操作環境,深刻地重塑著行政組織的運作邏輯與行為模式[11]。在生成式人工智能參與行政決策的過程中,集置的強制性具體化為\"數字迫行”,接納并融入數字世界成為擺在所有人面前的“強制選項”(imposed option),迫使所有人都進入數字的、智能的情境之中,無論其同意與否[12]。
第二,標準化與齊一化。在集置框架下,事物獨特的內在價值被湮沒,一切存在者被簡化為可量化、可交換的數據單元,成為技術系統可任意調度的抽象要素[13]。齊一化的揭示方式遮蔽了事物更本真、更豐富的存在方式,世界只剩下功能性和數據化的一面。這種狀態消弭了自然與人文的多樣性,催生同質化的資源倉庫。這一運作方式依賴形式化、可重復的程序設定,通過建立統一的指標、模型與規則系統,將一切異質性的內容納入可計算、可比較的秩序之中。這種標準化過程不僅重塑了外部世界的呈現方式,更深刻地重構了人類的認知結構與價值判斷。效率、可用性與系統兼容性成為固化的標準,而不可量化的生命經驗、地方性知識和審美多樣性則被系統邊緣化甚至被排除。
第三,主客關系的倒置[14]。從“技術的使用者\"成為“技術的備用物”,人類不得不進入技術系統的運轉鏈條,被迫服務于技術效能的最大化。此時,技術不再是人類支配世界的工具,反而成為規訓人類實踐方式的元框架。人不再是技術活動的發起者和意義賦予者,而是被轉化為技術運作流程中的功能節點,人的價值主要體現在對系統命令的響應能力、數據處理效率及與其他技術組件的協同程度。技術系統憑借其自主的邏輯和迭代強制,不僅規定了人類行動的可能范圍,更預先設定了認知、評價與決策的范疇,從而深刻地形塑了社會制度、文化形態乃至個體的情感結構。
生成式人工智能在提升行政效率、克服傳統官僚主義弊端的善意動機下被引入,在實踐中因其立竿見影的效果而被奉為圭桌,而價值理性在工具理性的迷霧中逐漸被遮蓋。數字系統通過自我強化的閉環實現持續固化,數據積累驅動算法模型優化,優化的模型產出更精細的規則,這些規則反哺系統運行并生成新數據,最終形成一個不斷收緊的“理性鐵籠”。在此過程中,路徑依賴與制度鎖定效應日益顯著。巨額的前期投入、已被重塑的組織行為習慣等共同構筑了較高的退出壁壘,致使行政組織難以擺脫原有技術路徑或進行根本性轉向。最終,數字迫行\"憑借其“科學決策”\"技術中立”與“客觀精準\"的合法性外衣,掩蓋了背后特定的價值預設與權力結構,從而獲得了鞏固自身地位的正當性基礎,完成了從一項技術賦能舉措到一種系統性強制力量的演變。
(二)“數字迫行”的生成:“集置”下的技術、組織與觀念共構
“數字迫行\"是數字技術與行政組織在“集置\"框架下結合的產物。它并非一種偶然性的技術應用后果,而是技術內在邏輯、組織固有特性與社會觀念形態共同作用下的產物。
第一,生成式人工智能本身具有的封閉性與自足性為“數字迫行\"提供了先行的技術基座。生成式人工智能的內在機制會產生一種自我強化的慣性,要求接入更全面的數據、拓展至更廣泛的應用場景并追求極致的運行效率[15],從而持續不斷地“促逼\"行政組織調整內部結構與流程以適應生成式人工智能的固有邏輯,形成不可逆的技術強制路徑。生成式人工智能的運作依賴內部預設的算法規則、數據格式和程序邏輯,系統只“識別\"并“處理\"那些能被算法語言所編碼、符合數據結構的信息,外部世界的復雜性、行政實踐的模糊性及公眾需求的多元性,必須被大幅簡化和“格式化\"后才能成為系統的輸入語言。這種封閉性排除了無法被量化的價值判斷、情境化理解和人性化裁量,從而產生了一種強大的規范性力量,要求包括行政組織及其服務對象在內的外部環境適應生成式人工智能的內部邏輯。組織為接入并有效利用系統,不得不將業務流程、決策節點進行標準化改造,以匹配系統的封閉架構。
這種封閉性直接導致生成式人工智能的自足性,即系統傾向于以自身效率為最高目標,并不斷生產出強化自身存在合理性的證據。生成式人工智能通過強大的數據處理和仿真能力,構建一個基于數據的“虛擬操作環境”。系統在此環境內進行循環遞歸的自我觀察與自我優化,生成式人工智能利用歷史數據訓練模型,模型的輸出又成為新的數據,進而指導下一輪的優化。這一循環過程創造了一個內在的、自我證成的合法性來源,系統以效率提升、誤差減少、響應速度加快等可量化的指標來證明自身價值,并以此要求更多的資源投人、更廣泛的數據接入和更高的決策權威。行政組織被困于這一循環中,為了追求系統所承諾的“最優解”,不得不持續調整自身以服務于系統的自足性需求,組織目標甚至在無形中被技術系統的內在目標所牽引,適應性壓力由此被不斷再生產并加劇。
第二,行政組織的科層性為“數字迫行\"提供了制度土壤。科層結構的組織剛性與數字系統的技術剛性相互鎖定,傳統科層制對標準化、非人格化的追求,與數字技術所蘊含的可計算性、標準化及可控性具有天然的內在親和性。生成式人工智能將行政事務轉化為可量度的數據,依賴統一的協議與格式進行運作,通過算法程序對流程進行精準監控與自動化執行,在技術上實現了科層制孜孜以求卻始終未能臻于完美的理想形態。這種雙向鎖定形成的“剛性疊加”,使任何單方面的變革都需付出高昂的制度成本。數字化手段成為實現科層制理想形態的完美工具,二者的深度融合催生了強烈的路徑依賴與鎖定效應,致使行政體系難以擺脫既定技術路線的束縛,從而強化了“數字迫行”的不可逆性。生成式人工智能的“數字權力\"與政府治理的“行政權力\"相結合,構筑具有自我指涉及自我強化特性的數字行政系統,技術賦能往往單向增強行政主體的感知、決策與執行能力,卻未同步建構相應的權利保障與制約機制,技術性力量可能加劇行政權力與公眾權利關系結構的失衡[16」。
第三,社會觀念層面的廣泛接受性為“數字迫行\"提供了合理性盾牌。“數字生命主義\"認為,所有形式的存在都可以簡化為數字算法,人們可以通過量化數據制造出比自己更了解自身的算法模型[17](P115)。在技術樂觀主義情緒與數據崇拜傾向下,“數據驅動\"的決策被普遍視為在科學性與客觀性上優于傳統“經驗驅動\"的模式。將數據驅動等同于“理性”“科學”與“進步”,而將依賴經驗與價值判斷的傳統模式在一定程度上污名化為“主觀\"“隨意\"與“落后”。這種話語體系成功地將一項技術選擇轉變為一個價值判斷,使對“數字迫行\"的任何質疑都可能被輕易地貼上“反科學\"或“保守\"的標簽。這種社會共識為\"數字迫行\"披上了合理性的外衣,抑制了對生成式人工智能潛在價值預設與權力結構的質疑與反思,最終鞏固了技術的系統性強制地位。
技術邏輯、組織特性與社會觀念的耦合不僅體現為生成式人工智能對行政流程的結構性嵌入,更表現為一種深層理性秩序的轉變,即行政決策的理性基礎從基于人的經驗與價值判斷,逐漸轉向以數據驅動和算法運算為核心的技術理性。在這一過程中,“數字迫行\"不僅強化了行政體系對特定技術路徑的依賴,更重新塑造了行政行為的正當性來源與權力運行方式,使行政系統在追求效率與客觀性的同時,也逐漸面臨理性窄化與價值虛化的風險。因此,“數字迫行\"并非僅是一種外在的技術附加現象,而是數字時代行政理性內在重構的體現,進一步加深了行政決策過程中技術強制與人的主體性之間的張力。這也為理解生成式人工智能參與行政決策所帶來的倫理與治理挑戰提供了基本的理論框架。
二、“數字迫行”的基本形式:生成式人工智能參與行政決策的風險隱憂
系統性、多維度的“數字迫行\"現象表現為技術邏輯對組織運行范式的系統性重塑,具體可解構為三重\"迫行\"表現:一是\"認知迫行”,即算法通過統計霸權重塑人類思維模式,將概率性輸出固化為認知權威;二是“結構性迫行”,體現為技術架構與社會階層交互作用下的組織功能異化,使科層體系被動適配算法預設的運作邏輯,建構一種剛性的“樂高世界\"治理架構[18],限制組織變革的彈性空間;三是“合法性迫行”,這一迫行方式源于人機混合決策中算法黑箱、數據偏見等對程序正當性與結果可問責性的削弱[19],以及由數據污染導致的糾錯機制失靈。這三種“迫行\"表現相互交織,共同構成行政組織在技術融合背景下面臨的深層治理挑戰。
(一)認知迫行:算法規訓與認知自主性的消解
“認知迫行\"可被定義為技術對主體認知自主性的隱性規訓。生成式人工智能通過海量文本數據的概率建模來實現語言重組,將文本轉化為可計算的數據單元,并依托大規模語料進行訓練與推理。生成式人工智能的結果輸出并非基于語義“理解”或“闡釋\"的意義表達,而是統計學視角下最高頻出現的文字組合模式,即基于概率統計而生成的字符串組合[20]。這種統計學機制具有內在穩固性,模型傾向于生成在訓練數據中出現頻率較高、概率最優的文本序列。隨著用戶規模的擴大與應用場景的拓展,生成結果逐漸被默認為“標準答案”,進而形成一種認知層面的規范性力量。這種由技術與多數使用者共同強化的輸出,不再僅僅是信息參考,而是構成對用戶認知方式的隱性規制,迫使個體接受基于數據權力所定義的“正確\"表述,最終導致認知自主性的削弱。行政人員在與系統交互的過程中,會不自覺地接受這種由技術邏輯和“多數”原則共同建構的認知框架,形成對“算法權威\"的路徑依賴。
在行政決策與公共治理場域中,生成式人工智能所引致的“認知迫行\"具體表現為技術輸出對政策話語建構、方案選擇與合法性論證過程的隱性支配。行政組織依賴生成式系統輸出政策分析、公眾溝通文本或報告時,通常傾向于采納基于海量數據統計所生成的“最優表述”,而這一過程實質上將復雜行政問題簡化為概率匹配游戲。生成結果所內嵌的“數字共識\"排斥了地方性知識、倫理考量與多元利益訴求的差異性,導致政策語言趨于標準化、去語境化,進而削弱決策應有的反思性與適應性。更深遠的影響在于,當行政機關反復依賴此類系統形成決策依據與對外話語時,系統輸出的“權威性文本\"會反向塑造行政人員對問題本質的理解框架,使行政人員無意識地將統計顯著性等同于問題本質,將技術可行性等同于規范正當性。認知迫行在此意義上不僅操作了決策產出,更重構了行政理性自身的定義,在數字技術與行政權力兩股強制力的相互疊加中,共同塑造一種缺乏批判反思的政策實踐秩序。
(二)結構性迫行:算法嵌入與科層結構的雙向建構
“結構性迫行\"體現為技術架構與社會階層之間的復雜交互所導致的組織功能異化。生成式人工智能所依托的算法系統與數據驅動模型,并非完全價值中立的純粹工具,而是深度嵌入既有社會權力關系與科層制結構的特定技術形態[21]。它通過預設的運算邏輯、自動化流程與標準化操作范式,與社會階層中固有的資源分配不均、職權分層及數字接入差異等因素產生雙向建構性互動,從而系統性重塑行政組織的運作方式與價值排序。在這一過程中,科層體系并非以組織原有公共目標或動態社會需求為導向進行調適,而是被動響應技術系統的內在要求,逐步形成一種執行技術指令的路徑依賴。結果是行政組織出現顯著的功能異化,即原本以公共服務、公平正義和民主責任為核心職能的行政體系,日益轉向對技術效率、數據可計算性及算法預測最優性的追求,各類量化指標獲得承認式權威,走入數字行政場域中“被指標治理\"的發展[22]。這一異化過程最終外化為一種剛性化的“樂高世界\"治理架構,組織構成要素趨于模塊化、高度標準化和可便捷拼裝,卻在整體上喪失了組織作為有機體應有的內在靈活性、情境適應性與創新彈性[18]。陷人“樂高世界\"的行政體系雖然可以組合出多種形態,但模塊本身的剛性決定了最終結構的邊界,這種技術驅動的治理模式極大壓縮了組織在應對不確定性環境時的制度彈性與戰略變革空間。
在行政決策與公共治理實踐中,結構性迫行的運作邏輯顯現為決策自由裁量權的算法化壓縮。生成式人工智能通過大數據分析、預測模型和自動化決策支持系統,將復雜多元的公共問題轉化為可量化、可處理的標準化議題,行政決策行為由此被納入預設的計算框架。技術架構所內置的偏好、對歷史數據的依賴、算法可能隱含的設計者偏見等,與社會結構性不平等相互強化,導致公共資源分配和服務供給出現數字歧視或算法偏見,進一步扭曲行政組織的公共性本質。標榜高效的自動化系統,或許無法實質上改善數字邊緣群體的境況,相反,嵌入偏見的人工智能技術“名正言順\"地擺脫了道德障礙,形成基于算法偏見的自動不平等[1](P1)。科層制為適應技術要求,不得不重構內部流程、權責關系甚至績效評估體系,使行政體系逐漸演變為執行算法指令的“剛性系統”,難以響應政策突發轉向、社會危機或公眾需求的快速演變。長此以往,這種迫行機制不僅侵蝕治理系統應具備的學習與適應能力,更可能使公共行政實踐陷入一種“數字理性鐵籠\"的困境,技術在提升短期效率的同時,卻削弱了民主治理的價值多樣性與系統韌性。
(三)合法性迫行:算法污染與決策責任的轉移
“合法性迫行\"是在生成式人工智能深度融人行政組織運行的過程中,人機混合決策系統所引發的合法性挑戰。這種迫行不僅反映了技術工具與治理價值的沖突,更凸顯人機混合決策過程中權力
失衡的問題。合法性迫行源于算法自身的脆弱性,算法易受數據偏見、編程錯誤或外部操縱的“污染\"[23],基于被污染的算法而輸出的決策錯誤無法有效修正,從而迫使行政組織陷入合法性危機。算法在訓練數據和模型設計中可能嵌入并固化既有的社會偏見,這種內嵌于技術本身的非中立性難以被察覺和修正,極易導致錯誤的決策模式被系統性地復制和放大,最終侵蝕公眾信任,動搖行政組織存在的合法性根基。生成式人工智能作為輔助工具甚至決策主體,輸出的建議雖極大地提升了處理效率,但論證推理過程通常無法以人類可理解的方式予以展示和審查[24]。同時,算法系統缺乏自適應糾錯能力,監督框架不足,錯誤決策難以通過傳統機制溯源和修正,“將錯就錯\"的輸出結果將不斷累積并持續固化。例如,在行政審批、社會福利分配或執法風險評估等領域,依賴算法生成的結論進行決策,實質上回避了對行政事務背后的價值權衡與事實認定過程的實質性追問。
在公共治理層面,這種迫行進一步表現為責任機制的模糊與問責路徑的梗阻。當基于算法而產生的公共決策出現偏誤甚至造成損害時,由于決策鏈條涉及數據供應商、模型設計者、系統運維方及最終決策的行政人員等多方行動者,難以清晰界定和追溯法律責任歸屬,傳統的行政問責制因此陷入困境。決策者可將結果歸因于“技術中立\"或“系統顯示”,這不僅可能壓縮公共辯論的空間,更可能導致責任結構的模糊化[25]。結果是,公共治理雖披上了精準、高效的技術外衣,但其內在的合法性——建立在民主參與、權責對等和權利救濟基礎上的認同與信任——卻面臨被掏空的危險,陷入一種由技術效率偽飾下的“合法性赤字\"狀態。
(四)三重“迫行\"的交疊:生成式人工智能參與行政決策的治理挑戰
我們的社會已經發展到數字技術無處不在、如影隨形的地步,以至于它們已經“隱身\"在生活的各個方面,自動且無形地滲透到個人生活和公共服務的場景中[26](P3)。但是,技術性程度的提高并不等于自動性的提高,實質上,它是由一種不確定范圍來界定的[27](P3)。信息的內核并未嵌入語義內涵,而是依賴結構化模式(Pattern)這一確定性的預設范圍而生成。“數據\"內容呈現預先采集的、人類行為的伴生結果,搜索引擎的網頁排序算法或機器學習過程的輸出結果均是它們的體現[28](P254)這種剛性的算法輸出使當前生成式人工智能仍存在兩項顯著局限:一是創造性思維的缺失;二是應對非常規問題的變通能力不足[29](P11)。具體而言,數字模型無法原創性地構建如相對論、霍金宇宙論或康托爾理論等科學理論體系,同時,對于涉及自指或無窮性的邏輯命題,以及超出“能行性”(Feasi-bility,即在有限步驟內可構造的運算)范疇的不可判定問題,人工智能同樣無法有效處理。
在應對復雜的公共治理難題時,這種創造力與變通能力上的缺陷更為突出。公共治理問題常呈現“非結構化\"特性,涉及社會公平、文化沖突、倫理困境等需要動態權衡的多元價值目標。而生成式人工智能的運作嚴格受限于預設規則與訓練數據,無法突破“能行性”邊界進行創造性的價值調和。人工智能難以理解“公平\"等情境化的價值內涵,可能機械放大數據偏見,致使實際行動與治理目標的偏離。面對突發公共危機時,生成式人工智能缺乏調整決策框架的變通能力,難以應對超出現有算法模型的“未知情境”。當治理問題超出技術容錯范圍時,人工智能的缺陷可能引發責任真空、規則僵化與公眾信任崩塌等沖突[30]。在深度嵌入公共治理結構時,生成式人工智能的缺陷可能進一步凸顯。為彌補靈活性與價值判斷的缺失,行政系統往往傾向于強化技術系統的規則結構與執行剛性,以標準化流程規避認知不確定性。這種依賴技術系統倒逼行政行為一致性與可預測性的機制,實質上構成三重迫行的交疊。行政過程在數字技術和算法邏輯的剛性約束下衍生為路徑依賴,壓縮傳統治理中的裁量空間與彈性適應能力[31]。結果可能是,行政體系不僅未因技術賦能而提升回應性,反而在“系統優化\"的名義下陷入程序主義與創新抑制的雙重困境。
以上三種“迫行\"說明,在管理與技術的雙重意義上,生成式人工智能對行政組織都形成了“數字迫行”。受迫于生成式人工智能的影響,公共組織在決策時出現了目標的窄化,本應指向公共性的目標被簡化甚至異化為數字可計算、可測量的關鍵績效指標,而公平、正義、人文關懷等難以量化的核心價值則被系統性地邊緣化,導致行政決策陷人對量化指標的過度追求。公共部門的治理過程遭到顯著的異化,形成一種\"唯數據是從\"的行政文化,只有能被納入政績考核的數據才被視為有效的決策依據,而地方性知識、實踐經驗及公眾的質性反饋則被排除在外,遮蔽了公共問題和治理過程的復雜性。行政人員不再是運用自由裁量權和專業判斷的決策主體,其職能被限定為填寫標準化表格、遵循預設流程和機械響應系統指令而成為技術系統的“操作員\"或“末端執行單元”。
三、超越“迫行”:包容性數字生態的建構
生成式人工智能對于提高行政組織的決策效能具有無可否認的積極意義,隨著技術的進步,這種積極意義還將進一步深化。當然,在肯定這一積極效應的同時,審慎思索生成式人工智能參與行政決策的結構性風險與倫理挑戰是需要進一步完成的反思工作。只有通過反思才能實現系統性的認知,而系統性的認知又構成前瞻性治理的基礎,這是在技術演進與社會治理中探尋一條穩健且可持續發展之路的前置任務。在21世紀以后的社會科學看來,危機并不是一個完全負面的概念,它同時是新開端的必要條件,成為一種拯救力量出現的條件。面向人工智能的思考需要在危機意識中確定前行的方向,才能轉向一種與\"遮蔽\"相反的“敞開\"(the Open)和\"疏朗”(Lichtung)[17](P121),尋求逃逸迫行的可能進路。“迫行\"揭示在人機合作中人與曾經的用具(機器)之間從未出現過的一種主客體倒置現象,三重“迫行\"的交疊使原本復雜的問題變得更加難解。面對生成式人工智能參與行政決策的雙重效應,我們亟須跳出技術決定論的敘事框架,轉向更具包容性與反思性的治理視角,通過技術規制、制度重構與價值重塑等三個方面協力推進,探討如何超越數字迫行、構建技術與社會協同發展的良性路徑。
(一)技術規制:包容性數字生態的技術根基
技術規制的要義在于強化透明與可控性。生成式人工智能的“算法黑箱\"特性構成數字迫行的技術根源,其決策結論通過概率驅動的涌現機制生成,缺乏可追溯的語義解釋與邏輯推演路徑,導致決策主體被動接受技術預設的結論,進而壓縮行政決策的裁量空間。為消解這一困境,需構建算法透明化與技術審查的雙重機制。算法透明作為權利內嵌的基礎前提,并非簡單的代碼公開,而是通過技術敘事的祛魅化處理,使權利主體得以理解算法決策的邏輯構成、數據來源及可能影響。
一方面,形成動態驗證與反饋閉環,引人獨立第三方技術審查機構,對生成結論實施持續可信度評估,并建立用戶反饋通道以修正算法偏差;另一方面,優化人機協同決策設計,將生成式人工智能明確定位為決策輔助工具而非決策主體,在關鍵行政決策節點保留人為否決權。例如,涉及公共利益的核心決策必須經人工復核語義邏輯與價值合理性,通過制度性干預避免生成式人工智能對公共治理目標的偏離。技術規制通過算法透明化與反饋機制的設計,打破生成式人工智能的“算法黑箱”,削弱數據霸權對決策自主性的擠壓,為人類裁量權保留必要的彈性空間。具體而言,動態反饋循環通過用戶修正輸入、結果評估與模型迭代優化,形成一種持續的外部監督與適應性學習框架。這種技術規制方式不僅增強了系統響應的可預期性與可信度,也防止了在關鍵決策過程中算法完全取代人類的角色危機,從而在技術與倫理之間建立起必要的平衡。技術規制框架通過賦予用戶對生成內容的質疑與修正權利,在一定程度上重構了人機協同中的權力關系,為負責任的人工智能發展提供了技術性保障。
尋求超越數字迫行的可能方式,核心在于通過技術工具的人本化改造與包容性重構,實現從“管理數據的人\"到\"服務人的數據\"的根本性轉變。盡管\"數字迫行\"揭示了生成式人工智能在行政決策應用中潛藏的技術專斷與價值迷失風險,但批判并非否定技術本身的工具性價值,而是呼喚一種更具反思性與建構性的治理轉型。從“迫行\"到“包容\"的跨越,本質上是從技術支配走向人機協同、從算法霸權走向民主協商、從路徑依賴走向制度創新的范式重構。這一轉變要求超越單純的技術修復或局部調整,將生成式人工智能嵌入更具包容性與回應性的行政決策生態中,使技術不再是擠壓人類判斷的強制力量,而是賦能多元主體參與、促進理性對話與強化公共問責的協同伙伴。
(二)制度重構:包容性數字生態的制度保障
制度重構的關鍵在于明確責任歸屬與多元制衡機制。生成式人工智能嵌人行政體系的出發點在于行政決策流程的優化與加速,而基于語料庫訓練的生成式人工智能極易陷人“數字迫行\"的漩渦。基于概率統計的生成式人工智能將公眾簡化為數據點,把治理過程異化為數據處理,往往忽視了行政活動的最終目的是服務人、成就人的發展。如何在保障數字生態系統自由創新功能的前提下,制定科學合理、與時俱進的監管措施與規則,防止諸如數據泄露、算法歧視等數字“污染\"問題的滋生與蔓延,是逃逸數字迫行的可能方式。這一進程不僅依賴技術維度的創新性突破,更需在制度層面展開深度思辨并進行頂層規劃,構建一套完備且適配數字時代特征的規則體系,以確保生成式人工智能參與行政決策具備堅實的制度支撐與規范指引。
數字迫行導致行政責任呈現彌散化態勢,傳統權責對等的原則因技術自主性介人而遭受結構性消解。重構清晰的責任鏈條,需通過系統性制度創新確立“可解釋\"“可控制”的分層治理框架[32]。一是建立分級分類的人機協同決策制度。依據決策事項的風險等級、影響范圍及敏感度,明確規定生成式人工智能的輔助程度和人類的介人義務。對于高風險的行政決策,要求決策者強制性地對生成式人工智能的建議進行價值論證與合理性審查,并保留否決權。二是重構與之匹配的法律問責體系。通過政策文件明確生成式人工智能參與行政決策系統的設計者、部署者與行政決策者各自的法律責任,確立“誰使用、誰負責,誰設計、誰擔責\"的歸責原則,倒逼生成式人工智能的規范使用。三是實行多元制衡的監督體系,設立跨學科的倫理監督委員會,同時吸納公眾代表參與評議,通過事前審查、事中評估、事后監督的方式融合技術審查與民主監督,打破算法黑箱的單向控制。制度重構通過明確政府作為算法決策的“第一責任人”,重塑權責對等原則,破解責任主體模糊化的困境,為民主問責提供了制度錨點。制度重構推動形成以行政問責為核心,輔以司法審查與社會監督的多維制約體系,使算法決策不再處于法律真空中。它不僅回應了技術應用中的歸責困境,更在治理結構層面確立了人類主體在倫理判斷與最終決策中的不可替代性,從而保障生成式人工智能在服務公共治理過程中的合法性、透明性與可信性。制度的重構有利于實現生成式人工智能參與行政決策的責任歸屬難題從彌散到聚焦、從被動到能動、從封閉到開放,解決責任虛化的困境,強化人類對高風險決策的主動干預。
(三)價值重塑:包容性數字生態的價值錨定
價值重塑的核心是回應以人為核心的治理邏輯,找回行政決策與公共治理的元目標。“數字迫行\"深刻揭示了生成式人工智能深度嵌入行政決策體系潛藏的風險與異化可能,本質在于技術邏輯對公共價值與人類主體性的侵蝕。過度依賴未經充分價值校驗與透明解釋的生成式人工智能輸出,不僅會擠壓行政裁量空間、扭曲決策目標,更可能動搖公共治理的公平、正義與民主問責根基。然而,技術的挑戰絕非拒斥技術的理由。包容性數字生態的建構路徑,正是力圖在擁抱技術賦能的同時,堅守人的主體地位與公共價值的核心。通過技術規制打破算法黑箱、構建人機協同的反饋回路,通過制度重構明確責任主體、保障多元參與與有效問責,通過價值重塑確立人本倫理、將技術理性錨定于公共福祉,從而逐步消解“迫行\"的枷鎖。最終的目標,是構建一個更具包容性的行政決策新范式,行政決策者保有專業判斷與價值權衡的核心能力,公眾得以在透明、參與、可問責的框架下,共同塑造技術應用的邊界與方向。
價值重塑的終極目標在于實現治理范式的公共價值錨定,消解技術工具主義對公共性本質的價值異化,構建\"負責任的\"算法運行體系[33]。這要求從生成式人工智能參與行政決策的整體流程出發,對其技術運行機制進行解構,并在關鍵節點系統嵌人價值規制要素,以實現公共價值的有效融人與可持續維系。從技術實現的本質看,生成式人工智能的應用涵蓋從數據輸入、算法處理到結果輸出的完整鏈條,其中的每一個環節都存在價值偏離的潛在風險,因而,有必要從系統化、全流程的價值調控視角,探尋技術應用始終與公共利益保持一致的可能路徑。通過構建覆蓋輸入層、過程層與輸出層的多維治理框架,形成貫穿生成式人工智能全生命周期的整合性價值重塑體系。一是輸入層的價值包容性,需對生成式人工智能的訓練數據和語料庫實施多元價值代表性審查,確保數據來源涵蓋廣泛的社會價值維度。二是過程層的可解釋性,治理主體的能動性復歸要求決策路徑構建可追溯的價值邏輯鏈,使“為何選擇此方案\"的倫理論證具備可審計性。三是輸出層的動態校正,重拾倫理優先性的秩序,要求生成式人工智能的決策輸出以“對人的治理\"為根本原則,使技術理性始終遵循“善治\"的價值導向。價值重塑以“以人為本\"為內核,通過倫理規范與價值糾偏機制,將工具理性重新嵌入公共治理的公平正義目標,遏制了技術邏輯對行政倫理的侵蝕。
這三重路徑的深度融合,不僅可以消解“數字迫行\"的認知、結構與合法性束縛,更構建起“人機協同\"的包容性數字生態。技術規制在設計源頭錨定公平性根基,制度重構可能消除數字迫行的避責路徑,價值重塑可能瓦解數字迫行的認知基礎,三者匯聚阻斷了迫行再生產的“技術一制度一價值\"架構,進而助推包容性數字生態的形成。技術不再是裹挾決策的“迫行者”,而是輔助人類判斷的“賦能者”,制度框架從剛性約束轉向彈性包容,在保障技術效率的同時維護人的主體性,公共價值則在動態調適中實現技術理性與人文關懷的辯證統一。由此,行政決策從單向度的技術預設路徑轉向多元參與的共治開放系統,公眾得以通過有效反饋與協商機制介人算法決策過程,最終在技術善治、制度韌性與價值共識的交互作用下,邁向以“包容性發展\"為特征的數字治理新階段。在技術變革的洪流中,包容性數字生態的建構能夠保障行政決策始終服務于公共利益,維系治理的效能與倫理溫度,實現技術理性與人文精神的真正融合,共同邁向一個更公正、更負責、更具韌性的數字治理未來。這不僅是對技術應用的規范,更是對數字文明時代公共治理本質的深刻回歸與前瞻性構建。
參考文獻:
[1][美]弗吉尼亞·尤班克斯.自動不平等:高科技如何鎖定、管制和懲罰窮人[M].北京:商務印書館,2021.
[2][英]杰米·薩斯坎德.算法的力量:人類如何共同生存?[M].北京:北京日報出版社,2022.
[3][荷]馬克·舒倫伯格,[荷]里克·彼得斯.算法社會:技術、權力和知識[M].北京:商務印書館,2023.
[4]郁建興,劉宇軒,吳超.人工智能大模型的變革與治理[J].中國行政管理,2023,(4).
[5]曾宇航,史軍.政府治理中的生成式人工智能:邏輯理路與風險規制[J].中國行政管理,2023,(9).
[6]李詩悅.生成式人工智能嵌入公共服務風險的形成機理與防范對策[J/OL].[2025-08-04].https://link.cnki.net/urlid/11.5181.TP.20250515.0914.002.
[7]許煜.論數碼物的存在[M].上海:上海人民出版社,2019.
[8]周智博.DeepSeek參與數字政府建設的功能、風險及規制[J].內蒙古社會科學,2025,(5).
[9][德]海德格爾.演講與論文集[M].北京:商務印書館,2020.
[10]藍江.數字焦土和剩余數據——數字資本主義社會中現代人的生存[J].求索,2023,(1).
[11]韓梓軒,彭康珺,孫源,章昌平.數字空間政府引致的公務員思維方式的轉變[J].公共管理與政策評論,2021,(4).
[12]Antonio Diaz Andrade,Angsana Achakulwisut Techatassanasoontorn.Digital Enforcement:Rethinking thePursuitofaDigitally-Enabled Society[J].Information Systems Journal,2O20,(1).
[13]魏巍.超越數字政府建設中的倫理沖突敘事:以權力間博弈演化為視角[J].政治學研究,2024,(3).
[14]關曉銘.從算法治理到治理算法:國家治理現代化的技術審視——基于技術政治學的分析視角[J].甘肅行政學院學報,2023,(6).
[15]施生旭,陳浩.技術治理的反思:內涵、邏輯及困境[J].天津行政學院學報,2022,(2).
[16]王錫鋅.數治與法治:數字行政的法治約束[J].中國人民大學學報,2022,(6).
[17]許煜.在機器的邊界思考[M].桂林:廣西師范大學出版社,2025.
[18]柳亦博,李曉晗.逃離“樂高世界”:對萬物數字化的批判性反思[J].中國人民大學學報,2024,(6).
[19]吳磊,劉子瑞.生成式人工智能驅動政務服務的界面風險及防范路徑——基于“技術—制度—關系”的分析框架LJ].中共天津市委黨校學報,2025,(4).
[20]董春雨.從機器認識的不透明性看人工智能的本質及其限度[J].中國社會科學,2023,(5).
[21]張愛軍,曲家誼.國家治理現代化風險規制:算法中立原則的祛魅與調適[J].理論與改革,2024,(4).
[22]張乾友.“被指標治理”模式的生成及其治理邏輯[J].探索與爭鳴,2021,(2).
[23]張愛軍,楊丹妮.失衡與抗衡:“算法污染\"的權力規制[J].人文雜志,2024,(9).
[24][美]拉斐爾·阿爾瓦拉多,[美]保羅·漢弗萊斯.大數據:深調制與不透明表征[J].哲學分析,2018,(3).
[25]曾凡軍,商麗萍,李偉紅.從“數字堆疊”到“智化一體”:整體性智治政府建設的范式轉型[J].中共天津市委黨校學報,2024,(5).
[26澳]狄波拉·勒普頓.數字社會學[M].上海:上海人民出版社,2022.
[27][法]吉爾貝·西蒙東.論技術物的存在模式[M].南京:南京大學出版社,2024.
[28]美]亞歷山大·R.加洛韋.不可計算:漫長數字時代的游戲與政治[M].南京:南京大學出版社,2025.
[29]趙汀陽.人工智能的神話或悲歌[M].北京:商務印書館,2022.
[30]張雪帆,蔣忠楠.公共行政的數字陰影:數字政府建設中的倫理沖突[J].公共行政評論,2022,(5).
[31]吳進進,聶啟旺.算法何以引發公共價值耗損:以S市增值虛開發票治理為例[J].中國行政管理,2023,(9).
[32]袁曾.生成式人工智能責任規制的法律問題研究[J].法學雜志,2023,(4).
[33]肖紅軍.算法責任:理論證成、全景畫像與治理范式[J].管理世界,2022,(4).
責任編輯:王篆
From“Enforcement” to “Inclusion”: Reconstructing the Digital Ecology of Generative AI Participating in Administrative Decision-Making
Li Xiaohan
Abstract: Generative AI has achieved a leap in eficiency in the process of participating in administrative decision-making by relying on its powerful data processing and model deduction ability,and the generative AI based on corpus training has also induced a systematic governance tension characterized by“digital enforcement”. The output results of generative AI rely on statistical correlation rather than in-depth understanding of practical significance, which makes it difficult to gain insight into the value conflict and social complexity behind the data. If it is not prudently applied to the field of administrative decision-making,which is authoritative,public and value sensitive,it will easily lead to“digital enforcment\". Decision makers rely too much on the output of generative AI and lack the results of semantic interpretation and value demonstration,which leads to the restriction of independent judgment by the preset path of technology,and thus deviates from the core goal of public governance. The possible way to surpass the enforcement not only depends on the innovative breakthrough in the technical dimension,but also requires in-depth thinking and top-level planning at the institutional and ethical levels. Generative AI is embedded in the more inclusive and responsive administrative decision-making process, thus promoting the formation of inclusive digital ecology.
Key words: generative AI, digital enforcement,inclusive digital ecology,administrative decision