

[摘 要] 政府算法決策風險是人工智能算法嵌入政府決策過程中所形成的新風險類型。基于符號互動論的視角,構建符號“主體—媒介”的分析框架,可以發現政府算法決策風險實質是政府算法決策相關主體在互動過程中對符號媒介價值的整體性偏離,易導致政府決策產生不能達到其目標的可能性與不確定性。技術、主體、制度層面的主客觀抵牾與隱患是引致政府算法決策風險生成的重要誘因,其生成過程遵循決策“互動價值偏離—互動媒介缺陷—互動場域差異—人機互動阻滯”的生成鏈條。為更好地規避政府算法決策風險,可采取強化算法技術的公共性價值、提升決策相關主體的數字素養、完善政府算法決策的制度機制等適數化策略,提升政府治理效能。
[關鍵詞] 政府算法決策風險;機理;符號互動論
[DOI編號] 10.14180/j.cnki.1004-0544.2025.01.005
[中圖分類號] D63" " " " " " " " " " [文獻標識碼] A" " " " "[文章編號] 1004-0544(2025)01-0046-10
基金項目:國家社會科學基金青年項目“數字治理視域下政府與平臺型企業合作模式選擇及其風險管控研究”(22CZZ037)。
作者簡介:周濟南,中共河南省委黨校公共管理教研部講師;蘇厚任,湘潭大學公共管理學院博士研究生。
在數字時代,以人工智能、大數據、區塊鏈為代表的數字技術嵌入政府治理是推動國家治理現代化的重要舉措之一,更是組織運作模式革新的深刻動因。其中,人工智能算法技術因其效率性、客觀性等技術特性被引入政府決策過程,提升了決策的科學化、智能化和民主化水平。然而,人工智能算法技術具有的“一體兩面性”決定了算法技術嵌入政府決策在提升其治理效能的同時,也可能引發政府算法決策風險,如算法偏見、算法壟斷等。為應對人工智能技術可能引發的潛在風險與危害,2023年7月,國家網信辦、國家發改委等七個政府部門共同發布《生成式人工智能服務管理暫行辦法》,要求“國家有關主管部門針對生成式人工智能技術特點及其在有關行業和領域的服務應用,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引”1,以防范人工智能技術的潛在風險與隱患。實務界對人工智能技術風險的重視已然引起理論界的關注,值得進一步深入探究。本文關注的是由人工智能算法嵌入政府治理引發的決策風險問題,是人工智能技術風險的一種表征,具有重要的理論探討價值。
一、文獻回顧與問題提出
隨著人工智能算法技術在政府決策中的廣泛應用,國內學界逐漸開始關注人工智能算法對政府決策的影響,認為人工智能算法是政府數字化改革的關鍵舉措,在肯定其技術價值和效能價值的同時,也對其嵌入政府決策所衍生的可能算法風險進行了理論探討,主要聚焦于以下三個方面:一是人工智能算法嵌入政府決策的價值。有學者認為,算法決策是通過預先編碼的規則分析、處理數據,使其不易受到其他因素的干擾,提升了行政決策的公正性與客觀性1;也有學者指出,算法決策通過數據聚合繪制社會熱點動態圖譜,精確把握社會問題,并使用算法技術推演科學化的決策模型,推動政府決策更具合理性2。二是人工智能算法嵌入政府決策潛在風險的致因。有學者認為,政府算法決策在實踐中可能因為決策實踐場域的屬性差異、實踐主體的策略選擇等外部因素,引發一定程度的政治倫理風險3與責任性4、公平性5等風險;也可能因為算法技術的固有缺陷,在決策的不同階段引致透明性、安全性6等風險。三是政府算法決策風險的規避策略。有學者認為,應該構建參與式的算法決策框架,通過加強算法決策的公眾參與性,提升決策的透明性7;也有學者強調,要明確技術的輔助定位,強化對資本權力的制約,以提升政府算法決策的安全性與可追責性8;還有學者提出,要加強政府算法決策在決策前、中、后期的倫理審查9,防范決策的倫理風險。
通過對已有文獻的梳理發現,學界探討了政府算法決策風險的諸多方面,為進一步深化政府算法決策風險的研究奠定了良好基礎。但是,現有研究雖然從政策制定、技術嵌入等視角對政府算法決策風險展開研究,但仍缺少人機互動視角對政府算法決策風險的探討。政府算法決策是人工智能技術對人民需求、社會問題進行算法刻畫與情景映射并以決策形式作出回應的活動,是人機互動的過程。在這個過程中,人機互動表現為“人與機”之間數理符號的輸入與輸出,實質是政府決策相關主體借助算法技術,通過算法的特定符號進行互動的過程。而符號互動論是一種研究個體互動行為的理論,該理論認為個體之間的互動需要借助各種符號作為互動的媒介,對于政府算法決策過程中政府與人民、社會等通過人工智能算法這一媒介進行溝通交流的互動活動具有較強解釋力。鑒于此,本文嘗試基于符號互動論構建政府算法決策風險分析框架,探討政府算法決策風險的誘發因素與生成過程,并以此提出防范政府算法決策風險生成的適數化策略。
二、符號互動:一個政府算法決策風險的分析框架
符號“主體—媒介”分析框架對理解政府算法決策風險具有較強適用性,便于從政府算法決策相關主體與技術媒介的互動視角系統審視與探討政府算法決策風險。
(一)理論框架:符號互動論及其適用性分析
符號互動論,亦被稱為象征互動論,是一種由微觀向宏觀推演的社會心理學理論,主要研究個體之間的互動及個體在互動過程中對社會的認識與影響。美國著名哲學家、社會學家喬治·赫伯特·米德(George Herbert Mead)是符號互動論的重要奠基者,其以實用主義為基礎提出該理論的核心觀點:個體的自我由自然主觀的“主我”與社會客觀的“客我”構成。自我的形成、發展是“主我”與“客我”互動的結果1。同時,由于個體之間不能直接通過意識進行互動,因此個體之間需要借助符號作為互動的中間媒介,進而實現有效的溝通與交流2。在米德思想的基礎上,赫伯特·喬治·布魯默(Herbert George Blumer)于1937年正式提出“符號互動論”概念,進一步豐富了符號互動論的理論內容,闡明了符號互動論的三個基本前提:第一,人們根據事物對他們的意義針對這些事物采取行動;第二,這些事物的意義是在個體與他人的社會互動過程中衍生出來的;第三,個體在與其所遇到的事物互動過程中,會通過對這些事物的解釋來把握并修正這些事物的意義3。
符號是互動的媒介,既是一種象征物,也是一種信息載體。在數字時代,符號的內容既包括文字、語言、動作等傳統交往媒介,也包括大數據、算法技術等數字化、智能化交往媒介。運用符號互動論有助于理解政府算法決策風險何以產生,具體體現在以下兩個方面:第一,從治理的角度來看,回應性是政府實現善治的基本要素,與公眾互動是回應性政府的內在要求4,即政府在公共治理中,要積極響應人民需求、解決社會問題。政府決策制定及執行是政府回應的表現形式。算法、大數據等數字技術的嵌入,讓政府決策的回應形式由傳統的書面文字、現場交流的形式轉變為以算法、數據為主的技術回應形式,但并未改變其回應的實質,即通過與社會、人民的互動,了解其需求進而采取相對應的策略作為回應。第二,從技術運作角度來看,政府算法決策的運作過程就是算法技術與政府數據的互動過程。由于技術創造、使用、評估、作用等各個方面的主體都是人,因此,算法技術與政府數據的互動過程實質是不同技術相關主體的互動過程,技術開發主體(企業)、技術運用主體(政府)、技術作用主體(人民)等不同的政府算法決策主體在這個過程中根據自身的態度與知識不斷與人工智能算法互動,進而影響政府算法決策。本文基于符號互動論的視角,結合政府算法決策的相關主體與技術,構建了符號“主體—媒介”的政府算法決策風險分析框架(如圖1所示)。
(二)理論內涵:政府算法決策風險及其特征
1.何謂政府算法決策風險
政府決策是指政府部門及相關政府行政主體以實現公共利益最大化為目標,調動、分配其所掌握的人力、金錢等組織資源的策略與方法。在傳統政府決策中,受知識的不完備性、行為的可行性范圍、組織的認同心理1等因素的干擾,決策往往難以達到預期效果。在智能時代,算法技術嵌入政府決策能有效避免傳統政府決策的弊端,具有中立性、高效性、精準性等優勢2,但同時也產生了新的決策效能影響變量。有學者認為,數據質量瑕疵、算法相關制度缺失、主體技術操作不當等變量,是誘發政府算法決策風險的影響要素3,致使政府算法決策產生難以實現甚至是損害公共利益的可能性。綜上所述,基于符號互動論的視角,可將政府算法決策風險界定為政府算法決策相關主體在運用人工智能算法的互動媒介進行互動的過程中,由于受到技術、制度、主體等要素的多重干擾,使得其互動價值與目的偏離了政府算法決策的原初目標,而產生的不能達到其決策預期效能的可能性與不確定性。
2.政府算法決策風險的特征
政府算法決策風險是政府技術性活動的伴生產物,其生成既受到算法的技術特性塑造,也是決策活動多維因素共同驅動的結果,具有隱蔽性、復雜性、迅速性等特征。第一,隱蔽性。由于政府算法決策運算過程的封閉性衍生出的“黑箱”效應,政府算法決策相關主體難以深入、全面了解影響決策生成的相關變量及其與決策制定的因果關系,因此,在政府算法決策過程中,相關風險也難以被快速識別。第二,復雜性。政府算法決策的有效形成涉及技術、主體、制度等多維要素,其中一種或者多種要素出現問題都可能導致政府算法決策風險,不同要素相互交織強化了風險生成的復雜性,加劇了防范政府算法決策風險的難度。第三,迅速性。一方面是指政府算法決策風險生成的迅速性。政府算法決策風險是決策的衍生物,因而算法技術在高效率形成政府決策的同時,也迅速催生出相應風險;另一方面是指其風險擴散的迅速性。除了試點階段外,技術在政府治理中的應用往往是大范圍的,因而,隨著技術在不同層級、地域的政府決策中的廣泛應用,其潛在的風險也隨之迅速擴散開來。
三、主體與媒介互動:政府算法決策風險的生成機理分析
基于技術“主體—媒介”的分析框架探討政府算法決策風險的生成機理,首要的是系統理解究竟是何種因素誘發了政府算法決策風險,進而結合決策過程進一步揭示政府算法決策風險的生成邏輯。
(一)政府算法決策風險生成的誘發因素
政府算法決策的產生需要涉及運算數據、計算程序、主體能力等多元要素,任何一種決策構成要素產生偏差,都有可能影響政府算法決策的有效性,進而誘發政府算法決策風險的生成。
1.技術性誘因:數據失真與規則缺陷
(1)運算數據失真。信息是決策活動的基礎,決策制定、執行、反饋等一切與決策相關的活動都與信息緊密相關。在傳統政府決策活動中,政府收集信息主要依靠調查問卷、實地訪談等傳統方法與途徑,具有效率低、成本高、覆蓋面小等缺陷,使得傳統政府決策常常因信息不足、過時難以達到決策目標。在智能時代,隨著政府智能化變革的推進,政府算法決策不僅可以利用大數據技術、算法技術爬取互聯網中的各種數據,還可以借助政務平臺的中間媒介收集公民的數據信息,極大地提升了政府決策的效率與科學性。然而,這種“粗放式”的數據收集方式難以形成對數據的精準把握,可能讓政府算法決策因數據的負面因素而誘發各種風險。具體而言,第一,運算數據錯誤。互聯網作為公共互動平臺,任何人的信息未經證實都可以直接發布,使得算法技術所爬取的數據信息的正確性難以保證,可能導致以錯誤數據信息為基準的政府算法決策產生風險。第二,運算數據全面性不足。一方面,由于信息是政府部門的核心資源,政府各個部門之間缺乏信息共享與信息公開的激勵機制,部門之間信息交流阻塞,信息難以得到全面的使用,產生了典型的“數據煙囪”與“數據孤島”等問題;另一方面,根據2023年《中國互聯網絡發展狀況統計報告》發布的數據來看,我國尚有將近3億的數字弱勢群體仍未“觸網”1,這在客觀上使得政府數據庫的信息存在不全面性,導致政府算法決策存在潛在的公平性隱患。而且,即使在已“觸網”的10億多人中,不同人群之間數字化程度的不同導致其在數據庫中的信息完善程度也不同,因為單一的數據采集往往很難挖掘到多元化、碎片化的需求中可供規范性分析的數據2。這使得在政府算法決策過程中難以實現絕對的客觀公平,引致政府算法決策產生各種風險。
(2)算法規則缺陷。政府算法決策的關鍵在于運用算法技術輔助、參與,甚至在一些程序性事務上替代傳統政府決策者進行決策,即通過預先建構的計算規則、程序理解、分析數據所蘊含的信息、知識作出對應決策。這種決策方式在一定程度上能夠利用技術的強大信息處理能力彌補、規避傳統政府決策因決策者能力有限所導致的決策風險。然而,算法技術同樣具有能力有限性,如數據的辨別能力、自我更迭能力等的不足,也會使得基于算法技術的政府算法決策產生偏離目標的風險。具體而言,第一,算法規則的數據辨別缺陷。算法作為一種自動化運行的技術,只能按照預先設定的規則被動地對所輸入數據進行計算,無法對數據發起驗證、篩查、排除等辨別性工作。當政府算法決策運算的數據本身有錯誤或無效時,其計算的結果必然是難以符合要求的。譬如,在近年發生的“董明珠闖紅燈”事件中,由于紅綠燈的面部識別系統無法辨別數據來源是否有效,導致其機械地對公交車上的廣告人臉進行識別,產生錯誤的算法決策3。第二,算法規則的自我更迭缺陷。就目前而言,即使是如ChatGPT和Sore等最新型的人工智能,其更迭亦需要通過數據投喂、計算模型訓練、評估、優化等一系列過程。然而,這種技術的更迭過程與社會發展、變化的速度相比仍具有滯后性,一旦技術過于滯后而不能滿足技術應用要求,采用這種技術所形成的政府算法決策便難以及時有效地回應社會、人民的需求。
2.主體性誘因:能力不足與理解偏差
(1)主體能力不足。足夠的能力是主體有效互動的前提,不同的符號互動方式、模式要求主體掌握不同的互動能力。在過去,政府與社會之間主要是通過文字溝通、語言交流等傳統符號互動方式互動。而在智能時代,隨著大數據、算法等智能技術在政府治理實踐中的廣泛應用,政府與社會的互動方式逐漸向智能化轉型,政府對社會需求、問題的治理效率與治理回應性不斷提升。然而,在智能時代,技術的更新迭代日新月異。由于不同政府算法決策主體之間學習能力的差異,他們對政府算法決策相關技術的掌握可能達不到互動的要求,極有可能為政府算法決策產生錯誤埋下隱患。具體而言,第一,技術運用主體能力不足。算法技術本身的不完善性使得政府算法決策不可避免地會產生諸多問題,這意味著政府行政主體需要擁有足夠的應急管理能力處理算法決策錯誤所引發的問題,避免政府算法決策風險蔓延。然而,政府行政主體對數字治理角色的不適應、對數字技術的偏差理解和錯誤的技術治理方式4,往往使其難以有效應對政府算法決策的突發情況,很難防止相關風險的產生。第二,技術開發主體能力不足。技術開發主體對技術的把控能力不足,使其在技術開發、技術調整等過程中不僅沒有進一步改良、優化算法技術,反而影響了算法技術本身的運算邏輯與能力,引致政府算法決策產生錯誤,誘發政府算法決策風險。譬如,安徽池州市貴池區官微的智能回復“雷人”事件的發生,即是由于技術開發人員對公眾號后臺進行了技術調整導致的1。第三,技術作用主體能力不足。由于經濟條件有限、傷病以及年齡等因素形成的“數字鴻溝”,一些老人、傷殘人士等數字弱勢群體缺乏運用技術互動的能力,以至于政府算法決策難以回應其需求,滋生政府算法決策風險。
(2)主體理解偏差。根據符號互動論的基本前提,主體在與事物互動過程中會解釋事物的意義,并依據自身的理解修正事物的意義。政府算法決策的目的在于借助算法技術提升其決策的科學性,從決策層面最大化增進公共利益。然而,受自身利益、情感、文化等方面的主觀性影響,政府算法決策相關主體對事物的理解具有一定的傾向性,可能導致互動行為產生偏差。主體理解偏差主要有兩種:第一,技術開發者理解偏差。一般而言,企業既是技術的開發者,也是政府算法決策的相關利益者,當政府算法決策可能有損企業利益時,將算法技術視為其收益工具的企業可能會從技術開發、調整等方面對政府算法決策施加影響,促使政府算法決策出現偏向,從而導致政府算法決策風險。第二,技術運用者理解偏差。這種理解偏差本質上是政府行政主體對技術的認識異化,將人工智能算法視為達成考核要求、追求晉升、規避責任等主觀利益的工具,當發現政府算法決策的錯誤和漏洞有利時,則可能通過隱瞞、假裝不知道等方式任由其繼續發生。譬如有些鄉鎮干部曾表示,按照規定,如發現圖斑有問題想要勘誤,需要一級一級往上反映,還需要派人核查,提供證據,證明這個地方以前確實是何種性質的土地,程序走下來至少要90天。但在現實中,如果在一定時限內無法按衛星結果恢復土地性質,上級就會對下級進行嚴厲問責。為了避免問責,即使圖斑錯誤,也只能將錯就錯2。
3.制度性誘因:權責模糊與監管困局
(1)權責分配不清。根據理性制度主義的基本觀點,效用最大化是個體行動的基本目標,制度性行動是個體目標最有效的實現方式。因此,個體的行動會受到制度的塑造3。隨著算法技術在政府決策中的廣泛應用,需要一整套完善且適宜的制度規范政府算法決策相關主體的權責,以保證政府算法決策形成、執行等環節的有效性。然而,考慮到算法技術嵌入所需的時間成本,相關制度完善與更迭往往需要更多的時間投入。因為相關制度的完善意味著需要經歷一個政府算法決策相關主體認識、學習與適應算法技術的漫長過程。在這個過程中,政府算法決策相關主體的權力與責任缺乏一個穩定、嚴謹的制度規范,使得相關責任主體之間存在推諉責任的可能,進而滋生政府算法決策風險。具體而言,政府算法決策的相關責任主體既包括技術運用主體(政府)、技術開發主體(企業),也包括算法技術本身。制度上對權力與責任的界定模糊不清,客觀上為相關責任主體提供了影響政府算法決策的“灰色地帶”,使其能夠肆意運用權力而不用承擔相應責任。尤其是當貫穿政府決策全過程的算法技術本身不具有承擔決策責任的主體地位時,其更可能成為其他決策責任主體的責任推諉對象。因為“如果是數字系統的問題,那么多數用戶都會認為這是偶然的故障……在這種觀念下,機器的發展實際上促成了治理責任的真空……一旦有了一個形式上可以承載所有治理的載體,那么就可能誘發責任轉移,甚至出現責任真空的狀態。”4
(2)決策監管困局。監管作為一種規范、約束個體的互動行為,目的在于保證個體與事物互動的目標不受外在因素干擾而發生偏離。在傳統政府決策制定及執行過程中,在決策制定、執行主體的能力不足、利益需求等主觀因素和決策環境變化等客觀條件影響下,可能會導致決策不能按照預期的目標與路線制定、執行,繼而難以達到原初的要求。在此情景下,嚴謹、合理、有針對性地監管決策制定、執行過程,能有效遏制這些主客觀因素對決策的影響。而在智能時代,算法技術嵌入政府決策雖然能在一定程度上避免傳統政府決策的主客觀因素影響,但也為政府決策監管帶來極大的阻力。具體原因在于:第一,算法運算過程的封閉性產生的“算法黑箱”使得相關決策主體既無法理解數據計算過程的數理關系,也無法清楚認識決策相關要素的因果關系,客觀在政府算法決策與監管活動之間形成了一道數字鴻溝,阻礙政府算法決策監管活動的落實;第二,政府算法決策形成端與執行端主體之間的互動距離也阻礙了對算法決策的執行與反饋活動的監督。以衛星圖斑執法類型的政府算法決策為例,其決策形成端與決策執行端主體分別是自然資源部與地方基層政府。在二者互動過程中,一方面,客觀存在的空間互動距離使得自然資源部將衛星算法決策傳達給各地方基層政府后,對地方政府決策執行活動難以有效監管;另一方面,雙方之間在管理層級上也存在互動差距,衛星的決策需要層層下達,這意味著決策過程存在多層級的互動主體,多層級決策互動主體在屬地等方面的多樣性與差異性使得針對決策的監管活動難以開展,決策互動中衍生的各種風險難以得到及時處理。
(二)政府算法決策風險的生成過程:基于決策“醞釀-制定-執行-反饋”的四維鏈條
算法作為政府治理的一種輔助性工具,雖然在政府決策方面有逐漸替代傳統政府決策主體的趨勢,對政府決策模式也有一定程度的革新,但并未脫離決策的本質內容,仍遵循決策生成的基本程序。因此,基于符號“主體—媒介”的符號互動分析框架,綜合分析決策醞釀、決策制定、決策執行、決策反饋四個決策生成程序與政府算法決策風險的生成誘因,可以看到政府算法決策風險的生成邏輯與互動價值偏離、互動媒介缺陷、互動場域差異、人機互動阻滯的發生鏈條相契合,如圖2所示。
1.決策醞釀:互動價值偏離是政府算法決策風險生成的邏輯基點
價值是政府治理的靈魂。政府決策既是政府治理的起點,也貫穿其全過程。政府決策不啻是在掌握各種事實基礎上作出的判斷,亦是在不同價值之間作出的抉擇①。根據符號互動論的基本前提,由于政府算法決策是由算法技術驅動的政府決策,因此相關主體會依據政府算法決策對其的影響對算法技術采取行動。不同的政府算法決策主體會基于自身能力、價值取向與算法技術發起互動活動,當相關主體的價值取向與政府算法決策的價值取向不重合甚至是相悖時,則可能導致政府算法決策的價值偏離。細言之,技術擁有者(企業)作為獨立的市場主體,競爭性、效率性、盈利性是其基本特性。算法作為企業的市場競爭產物,企業的市場屬性不可避免地在研發、調整、優化等環節潛藏于其運作程序中。而政府作為國家權力機關的執行機關,其權力源于全體人民的授權,其運行的目的是為全體人民提供優質的公共服務,最大化地滿足全體人民的需求,具有公共性、全面性、效率性等特性。因此,當算法技術輔助,甚至是替代政府行政主體決策時,算法技術的競爭性、營利性等市場性基因就會侵蝕政府的公共性、全面性等特性,可能偏離政府決策的原初價值取向。同時,由于政府行政主體對算法技術知識的相對匱乏,難以敏銳感知、干預技術市場性基因對決策的影響,只能放任政府算法決策價值的偏離。此外,不同群體之間數字能力的差異也對政府算法決策的價值考量產生影響,特別是以老人、傷殘人士為主的數字弱勢群體由于經濟實力與技術能力不足,難以與政府算法決策的技術實體(互動媒介)進行有效互動,使政府算法決策在醞釀階段,即信息收集階段可能忽視對該群體需求、利益的考量,進一步促推互動價值的偏移。
2.決策制定:互動媒介缺陷是政府算法決策風險生成的觸發條件
根據米德符號互動論的觀點,符號是個體之間互動的中介媒介與溝通橋梁,個體通過符號傳遞自身的態度與思想。在傳統政府決策中,政府決策者主要通過文字資料、話語交談和姿態領會等方式理解人民的需求,并基于自身的知識、能力作出決策以回應人民的要求。這種面對面話語交談的符號互動方式由于其互動的直接性,能夠更加清晰識別符號中的信息,但也存在全面性不足、耗費相關主體精力、時間等資源過多等缺點,導致政府決策過程中產生決策主觀性強、缺乏全局性等問題。而在智能時代,政府更多是以大數據、算法等技術為媒介與社會互動,借助算法分析互聯網、大數據中蘊含的社會信息、知識等,以此形成決策回應人民需求與社會問題。毋庸置疑,政府運用算法進行決策極大地提高了決策的客觀性與科學性。然而,算法技術本身潛在的問題也可能成為政府算法決策風險生成的觸發條件,使其難以達到預期目標。具體而言,算法作為一種自動化運算程序,只能按照其預先設定的規則機械地分析數據中的信息,既沒有辨別數據信息是否正確、正當的能力,也沒有考量數據信息外部變量的能力。因此,決策制定過程中的政府算法決策風險主要體現在兩方面,一方面,大數據、互聯網等數據交互、存儲空間雖然賦予政府決策一個相對豐富的信息基礎,但其中也蘊含著海量的錯誤性、誤導性、侵權性信息,而當算法按照其既定的運算規則對這些錯誤信息進行運算時,就可能產生政府算法決策風險。如果有不法分子利用算法這一缺陷與其互動時,則可能引發更大的決策風險與危害。譬如有不法中介通過網上“黑產”購買公民的身份信息,并通過AI換臉技術破解政務app人臉識別功能,以此侵害公民的權益1;另一方面,社會環境的快速變化以及數字弱勢群體互動信息缺失等外部變量的存在,也可能在政府算法決策過程中觸發各種風險。
3.決策執行:互動場域差異是政府算法決策風險生成的實踐空間
場域是一種相對獨立的社會空間,個體之間在這個空間中運用特定的符號進行互動。在智能時代,政府與社會互動的場域既包括真實世界中不同省、市、縣等地域的物理互動空間,也包括由互聯網、大數據、算法等技術構成的多種數字互動空間。多重互動空間相互交織,共同促成政府算法決策執行的復雜環境,從各個方面影響政府算法決策的執行情況,成為政府算法決策風險生成的實踐空間。具體而言,政府算法決策形成后,需要借助數字信息、文字交流、話語溝通等互動方式,經由政務平臺、微信等數字空間和省、市、縣的多重物理空間將決策層層傳遞至相對應的基層治理區域(決策執行空間)中。但決策在不同的、多重的空間層層傳遞的過程中,可能會因為信息傳遞時間過長、不同層級政府主體的理解差異等問題導致決策信息失真,甚至是歪曲,導致決策執行異化。同時,權責分配不清也會影響到制度對個體行為塑造的正向效果,放松制度層面對各層級政府算法決策主體自利傾向的鉗制,可能促使他們采取各種方式引導決策向有利于自身的方向執行。此外,算法決策執行的多重空間也使得對政府算法決策相關主體的監控活動難以落實,會進一步強化政府算法決策主體的自利心理,使其更加肆意運用自己的權力對算法決策施加影響,干擾政府算法決策的有效執行。
4.決策反饋:人機互動阻滯是政府算法決策風險生成的催化過程
決策反饋既是政府與社會互動活動的重要組成部分,也是決策系統運行的重要一環,其目的在于評估決策在制定、執行過程中是否偏離決策目標,并以此為憑據調整、修正、優化決策。正如彼得·德魯克指出的,在執行過程中重視反饋以印證決策的正確性及有效性,是有效決策的五個要素之一1。然而,在決策反饋過程中,各種內外部因素的影響可能導致決策反饋信息在人機互動活動中出現阻滯,催化政府算法決策風險。從主觀目的上看,一方面,當決策反饋信息與相關決策主體利益取向不符時,缺乏制度規制的相關決策主體可能采取瞞報、偽造等方式阻礙決策反饋信息的傳遞;另一方面,決策反饋也意味著決策在制定、執行過程中存在問題,而問題往往意味著問責,為了避免承擔責任,相關決策主體可能會以各種方式阻止決策反饋信息傳遞。此外,技術不完善的客觀現實,使得政府在運用算法技術進行決策時難免會出現錯誤,在此情形下,政府決策相關主體的應急能力與綜合能力是彌補政府算法決策錯誤的關鍵。然而,根據過去諸多政府算法決策風險的處理實踐來看,政府行政主體往往缺乏充足的應急管理與綜合管理能力,大多只能任由政府算法決策風險產生并爆發。
四、政府算法決策風險的適數化防范策略
當前,我國政府正處于數字化轉型的關鍵時期,國家發改委、國家數據局等四個部門共同發布《關于深化智慧城市發展" 推進城市全域數字化轉型的指導意見》,要求“鼓勵城市開展管理服務手段、管理服務模式、管理服務理念的適數化變革”2。而政府算法決策風險是阻礙政府數字化轉型、適數化發展的重大隱患,亟待采取一系列的策略加以糾治。對此,可從增強算法技術的公共性價值、提升政府算法決策相關主體的技術素養、完善政府算法決策的制度機制三個方面防范政府算法決策風險的產生。
(一)堅定價值立場:公共價值植入以填補技術媒介缺陷
算法技術的內在缺陷導致的政府算法決策公共性價值缺失是其難以達到決策預期目標與效果的根源。因而,要防范政府算法決策風險的產生,關鍵在于增強人工智能算法技術的公共性價值。具體可從以下三個方面入手:第一,算法規則預留一定比例的數字弱勢群體計算變量。失能老人、傷殘人士等數字弱勢群體由于缺乏數字互動能力,難以與算法技術這一互動媒介形成聯系,使其往往成為政府算法決策運算過程中被忽視的群體,導致政府算法決策缺少公平性和回應性。因此,通過預先設定數字弱勢群體的計算變量,使算法運算過程中充分考量該群體的利益,能有效避免政府算法決策風險的產生。第二,定期更新算法運算規則。社會的發展變遷需要新的運算規則與之相匹配。仍以數字弱勢群體為例,隨著社會經濟水平日益向上發展,數字弱勢群體的總量也會逐步減少,為保證國家資源能夠最大化有效利用,充分考量各個群體的利益,算法規則對數字弱勢群體的計算變量也需要相對應地作出改變。因此,需要科學設定一個合適的運算規則更新周期,使其能夠有效跟上社會的發展,盡可能減少由于算法規則落后導致的政府算法決策風險。第三,構建數據檢查程序。數據錯誤、侵權是造成政府算法決策錯誤、影響其公平性的重要原因。可以構建一個抽檢數據的程序,檢驗所收集數據的真實性、合法性、有效性,減少由于運算數據失真導致的政府算法決策風險。
(二)涵養數字素養:提升主體能力以修正技術互動異化
政府算法決策相關主體客觀能力不足與主觀認識偏差是導致政府算法決策執行異化的重要原因。因此,提升政府算法決策相關主體的數字素養是消弭政府算法決策風險的必要訴求。第一,提升決策相關主體能力。一方面,要提升政府算法決策運用主體的能力。數字時代的政府治理要求政府行政主體將算法、大數據等技術運用到其治理實踐中,提升治理效率與效能,以更好地為人們提供公共服務。這就要求政府行政主體及時更新相應的技術知識結構,提高數字技術的應用能力。同時,技術不完善性衍生的相關技術風險也需要擁有處理技術突發事件的應急管理能力。對此,可通過繼續教育學習、經驗交流等方式提高政府行政主體在智能時代的技術運用能力與應急管理能力。另一方面,要求提升政府算法決策作用主體的能力。數字弱勢群體由于經濟實力、技術運用能力的不足等因素導致其缺乏足夠的數字互動能力,使政府算法決策在運算過程中忽視該群體的利益與需求,引致政府算法決策風險的產生。根據政府算法決策作用主體能力不足的不同因由,可采取不同的支持手段。對于經濟實力不足的政府算法決策作用主體可通過經濟支援等物質補助方式提升其數字互動能力,對于技術運用能力不足的政府算法決策作用主體可采取多種方式支持其學習數字技術的相關知識以提升其技術掌握能力。第二,提升政府算法決策相關主體的技術認識。從價值觀角度來看,政府算法決策相關利益主體之所以會對技術理解出現偏差,主要是因為其自身的治理價值觀出現了偏離。因而,可通過矯正政府算法決策相關利益主體的價值觀念以提升他們對技術的理解和運用能力,如經由多層次、多維度、跨區域、跨時間的主題教育,幫助政府算法決策相關利益主體堅定以人民為中心的價值立場,正確認識技術治理的工具價值,形成以滿足人民需求為先、以實現公共利益最大化為旨歸的正確技術治理價值觀。
(三)健全制度體系:創新監管方式以優化監管機制
適配的制度體系是矯正政府算法決策風險的關鍵保障。政府算法決策相關制度體系不完善、更迭慢所引致的權責不清、缺乏監督等問題,會誘使政府算法決策相關主體濫用自己的權力與能力對政府算法決策施加影響,可能誘發政府算法決策風險。因此,健全政府算法決策的制度體系亦是防范政府算法決策風險生成的關鍵之舉。第一,明晰政府算法決策相關主體的權力與責任。一是組成技術與制度適應性評析小組,專門分析各種技術嵌入政府治理的影響并提出相對應的制度優化建議;二是借助互聯網、政府政務平臺以及各種調研小組等,關注人民群眾對政府數字治理的意見,收集并匯總他們提出的制度完善建議和要求。第二,發展科學監督機制。政府決策模式的數字化、智能化轉型意味著其決策方式、流程等各個方面的革新,也意味著要更新傳統政府決策監管方式。具體而言,政府算法決策數據制定過程的封閉性、運算數據的復雜性與執行過程的時空差距性相互交織是造成其難以監管的現實困境,要有針對性地采取措施。首先,完善合作協同監管機制。由于政府行政主體缺乏算法技術相關知識,以及決策作用的非主體性等,使其難以充分、及時監督算法決策,因而,可與技術開發企業、決策作用群體合作開展對算法決策的監管,快速發現、反應并協同處理政府算法決策產生的風險。其次,優化分類分級監管機制。對不同類屬的政府算法決策相關主體、環節、問題進行分類,明確政府算法決策監管流程與相對應的監管方式。同時,對不同數據的復雜程度與正確程度、對不同人員對政府算法決策制定與執行的影響能力進行分級,以此作為監督政府算法決策事務優先級的參照物,以防范風險生成。
五、結語
隨著第四次技術革命的到來,大數據、算法、區塊鏈等技術不斷驅動社會與政府智能化轉型。可以預見,算法技術的嵌入,將會深刻改變政府治理的決策模式,驅動其決策智能化發展,提升政府決策的中立性、科學性。然而,算法作為一種新興的智能技術,由于其技術的內在缺陷、相關主體技術能力的不足以及配套的制度機制建設滯后,使得決策過程中容易引發互動價值偏離、人機互動阻滯等難題,可能生成政府算法決策風險。為防范政府算法決策風險,不僅要進一步優化、改良算法運算程序,同時也要不斷提升與完善相關主體的數字素養和配套的制度機制,保證政府算法決策在通向以滿足人民需求為最優先、以實現公共利益最大化為第一目標的軌道上行穩致遠。
責任編輯" "申" " 華
技術編輯" "王文浩