□ 文 孫 瑞
“技術中立”的算法決策模型限制了權力尋租和人情干預司法的機會和可能,為廉潔政府建設提供了技術支持。
人工智能時代,算法擁有超強的數據運算能力,能精準快速地篩選到需要的數據,在海量的數據中發現各變量參數之間的相關性,并可以利用數據代碼、算法程序、深度學習等方式對用戶產生的大數據快速處理并模擬人類思維自主地做出決策,因此常被不同主體運用到不同的場景來解決各種問題。
目前,政府部門已經習慣于使用算法進行公共治理,為政府決策、行政治理、公共服務等領域提供了嶄新的技術支撐,改變了傳統的政府行政科層結構。由人工決策轉為自動化決策,提高了決策效能,限制了行政執法權的濫用,促進了數字化政府建設進程,其中健康碼的應用與推廣是算法決策深入公共治理的典型表現。但介于算法本身固有的缺陷,算法決策在滲透行政系統時會產生許多沖突和風險,必須要減少算法決策運行的沖突,化解可能出現的風險,探索算法決策的善治路徑,才能真正實現大數據時代智慧政府公共治理體系和治理能力的現代化。
算法決策已經被廣泛應用到商業領域,隨著算法應用的擴張以及疫情防控的影響,算法逐步深入到公共治理中,并且重要性日益凸顯。算法決策深入公共治理有兩個層面的技術優勢。第一,算法決策改變了傳統的公共決策模式,由人類決策轉向自動化決策,提高了決策效率和質量。算法通過算法植入、算法俘獲、算法支配的路徑深入政府公共治理中,對獲得的數據進行分析、運算、快速生成治理方案并落實執行,即將算法作為行政管理中的治理術,其內核是自發式的決策模式。而傳統的公共決策是行政機關主體根據治理場景的不同進行自主判斷,相較于傳統的決策模式,算法決策的效率更高、成本更低。政府使用算法進行行政審批、資格審核、假釋評估等,算法的技術優勢大幅度提升行政治理的效率和決策質量,節約公共資源,降低行政治理成本,實現了政府服務智能化轉型。第二,算法決策限縮了行政裁量權濫用的可能性,確保公共決策的公正性,某種程度上促進了“法律面前人人平等”。個人在算法面前只是數據對象,在代碼規則面前人人平等。“技術中立”的算法決策模型限制了權力尋租和人情干預司法的機會和可能,為廉潔政府建設提供了技術支持。同時,算法還能在公共決策中提供更精確的個性化公共服務,提升公眾的參與感和獲得感,增強公眾對政府的滿意度和信任度。
隨著人工智能不斷深入公共治理,政府部門可以基于海量數據對社會資源進行配置優化,算法決策逐漸取代了公權力決策,形成了新興的技術權力,即所謂的算法權力。算法權力嵌入公權力運行的各個環節,不斷沖擊著權力適當原則和正當程序原則。

目前我國對于算法權力的研究還處于起步階段,這也對規制算法權力提出了巨大挑戰。算法善治也成為學科交叉領域研究的重點,算法善治是政府部門利用算法進行公共領域治理,以此提高公共治理的效率和質量,并在算法運行中嵌入社會正義和價值元素,構建算法正當程序,使算法決策的結果追求與法律道德規范的終極目標一致,即實現社會公平和正義。
算法決策的技術優勢能夠保證其在公共治理中的有效性,但這并不能掩蓋算法決策屬性背后的價值偏向和沖突,算法決策的應用不僅要追求決策的有效性,還要追求決策的正當性。
介于算法的“黑箱性”,存在算法不透明的情況,而公共領域算法決策可能會影響個人基本權利,公共領域算法決策必須實現公開透明,具備可解釋性。算法透明和傳統意義上公共決策的透明原則有所區別,透明原則強調的是公共決策的公開性和可救濟性,而算法透明強調的是算法決策的可理解性。行政程序原則要求行政決策必須公開、透明、可解釋,而算法決策作為公共治理的手段,其決策過程也必須公開、透明,具備可解釋性。但由于算法本身的“神秘性”,算法決策過程可能出現算法偏差、算法黑箱、算法偏見、算法歧視、算法錯誤等問題。同時介于計算機技術的難度,普通人根本無法窺探黑箱里的秘密,算法語言有著天然的隱蔽性。實現算法決策透明的難點在于算法決策完全由計算機根據特定函數計算得出,過程中人力無法參與更無法更改。目前學界所持觀點大都是要求公開算法決策和自動化運行分析的過程,然而這個要求在技術上并不現實,因為算法的自動化決策過程不可能實現完全透明,對于普通人來說只不過是一行行數字和字母,這種程度的公開達不到“可解釋性”的要求。

算法決策和傳統行政決策的最大不同在于,算法決策追求技術理性和行政效率,是以結果為導向,傳統行政決策追求道德理性和程序正當性,強調過程的公平公正。當政府借助算法進行決策時,算法的技術理性和行政程序的正當性可能發生沖突。算法決策在深入公共治理時自發生成了一套程序規則,即將行政程序中的行政主體、相對人、行政行為和行政規范等通過復雜的代碼進行數據化,并按照“數據輸入-算法決策-數據輸出”的程序進行。某種程度上,極大地精簡和優化了傳統行政程序,但程序精簡并不意味著算法決策具備程序正義。不同于商業中的算法決策,政府機構在進行算法決策時,其已具備公共屬性,具有準公權力的性質或公權力的性質。在傳統法理中,當公共部門所做的某項決策可能會限制個人的基本權利,那么該決策就必須經過法律保留和法律優先的檢視,而且也必須滿足程序正當性的要求,需要告知行政相對人,允許其申辯陳述,為其提供參與程序的機會和具體的司法救濟途徑,這是行政機關必須履行的程序和義務。當行政權讓渡給算法的時候,以上的過程都被算法雜糅到了一起,其決策結果的生成僅在一瞬間,無法分離出單個環節逐步進行,無法對算法決策過程進行正當性檢驗,導致行政決策過程機械化、程序化,算法決策追責難,算法決策不斷沖擊著正當程序原則。
當我們將傳統行政治理權力和公共決策交給算法,享受算法紅利帶給我們的決策便利和效率的同時,也要意識到算法決策給公共領域帶來的風險和挑戰。算法決策的不透明使算法權利侵蝕政府的自主決策權,導致政府決策過程流于形式,算法背后的資本趁機斂取公共財產。算法決策的正當性無法得到保障,算法權力不斷壓縮個人基本權利,從而引發公共領域決策信任危機。而在技術光環的加持下,這些風險被悄然掩蓋,如果技術風險在公共領域算法決策中得不到解決,那么將會嚴重損害政府的公信力。
我們需要從法律視角審視算法決策的內在沖突,規制算法決策的正當性,防止權力異化,實現公共領域算法善治。
算法時代,數字政府逐步推進利用算法處理行政事務,在技術理性的掩蓋下,算法治理正在異變為算法支配,人類正在加速邁入“算法行政”時代。
首先,算法改變了傳統的行政決策方式,操控行政官僚無限制地擴大算法權力。表面上算法技術大大提高了行政效能,但算法將原本應該交由政府部門公共協商的決策過程簡化為形式上的數據分析和計算處理過程,政府事務處理者逐漸喪失對問題的分辨能力和評估執行能力,政府的行政裁量權缺位,表面上還是由行政官僚操控算法機器,可實際上政府的自主決策權逐漸喪失。其次,算法決策程序最初被用來提升行政效率這一公共價值,運行過程人工無法干預,更無法在其中注入公共精神和其他社會價值,行政正當程序中的某些關鍵因素缺失。算法的技術中立性掩蓋了行政系統中的偏見與不公,公共決策中涉及的正當性問題被忽略,導致公共決策過程趨于形式化。同時,算法具有巨大的商業利益,政府想要使用算法,只能通過政府購買的方式和算法公司進行交易,而算法技術的應用是一個復雜的過程。算法公司和政府也因目的、利益取向和社會角色的不同而產生沖突,算法背后的資本急于逐利,在與政府合作中容易采取機會主義汲取超額公共財政資金,長此以往加劇了政府治理的空心化,引發政府公共領域治理危機。
算法決策侵蝕政府的自主決策權,少部分人掌握算法權力,算法權力無限制擴張發生異化,算法規則統治下的價值選擇和社會分配正義問題浮現,算法權力異化最直接導致的便是個人權利的縮減。
首先,算法決策過程中的信息不對等剝奪了公眾個人知情權和參與權。當政府讓渡自主決策權,正當程序原則被架空,行政相對人對決策過程毫不知情,剝奪了行政相對人的自主能動參與的權利。其次,排除了公民的申辯權和救濟權等程序性權利。即使《個人信息保護法》第24條規定,通過自動化決策方式做出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者通過自動化決策的方式做出決定。但介于算法決策的自動化,即使個人提出異議,也很難對其進行更改,而且司法救濟目前也無法實現,國內并沒有明確的法規規范對算法權力進行有效規制。最后,算法決策可能會演變為加劇社會不公的助推器,人工智能雖然具有人類無法比擬的數字計算能力和深度學習能力,但仍舊無法與人類共情。它只是準確而死板地執行系統中的指令,在面對涉及人性道義的抉擇時,算法不會對弱者法外開恩,無法期待它會“槍口抬高一厘米”。基于如此缺陷,所以當算法進入公共領域時,應當對其設置禁區,對涉及個人基本權利的公共決策應該審慎應用算法,防止算法助推歧視風險。
算法的運行并非是一個價值無涉的絕對中立過程,早就有學者系統提出技術本身內嵌價值的觀點,即在技術工程設計階段就有一些價值被有意無意地嵌入其中。作為輔助決策機制的算法背后隱藏著獨特的價值判斷,即算法設計者的設計意圖和價值取向,只不過這種價值判斷隱藏在層層技術壁壘之下。我們若對算法背后的價值立場視而不見,就無法應對算法帶給公共治理和倫理社會的巨大挑戰。我國目前法律體系尚未對算法規制問題作出具體回應,我們需要從法律視角審視算法決策的內在沖突,規制算法決策的正當性,防止權力異化,實現公共領域算法善治。
算法正當程序的構建更多的是技術理性與法治原理的融合互助。
實施算法公開,提升算法透明度是規制算法決策和算法權力的重要手段。傳統上,破解算法黑箱的第一步便是算法公開,即機械地要求公開算法結構或源代碼,但這種公開很難做到。除卻商業秘密這一“免死金牌”,這種程度的公開并沒有太大的意義,因為人們并不能打破技術壁壘,無法對算法代碼進行有效地解釋。公共決策中的算法解釋應當區別于一般性的算法解釋,要明確在利用算法進行公共決策時哪些相關算法數據會對主體帶來什么影響,即以主體為中心、有選擇性的算法公開。
第一,算法公司在對政府出售算法時,必須告知政府該算法決策的設計意圖和目的,必須明確向政府公開算法決策的“目標函數”,并將該算法決策在實際運行中可能出現的偏差和錯誤如實告知政府部門。算法公司在對行政部門算法決策系統作出更新時,也要對每一版本進行公開和說明,及時改正和改進算法決策運行中出現的算法偏見等情況,避免算法公司利用技術優勢在算法程序中植入不適宜代碼。第二,算法公司或算法設計者應當就算法決策的運行過程予以必要的解釋,增強算法決策的可理解性。尤其是當算法決策中涉及公民的知情權、個人隱私權、平等權等基本權利時,應當盡量將計算機語言轉化為法律語言,或是普通人可以理解的語言。提升算法決策要素和程序的透明,增強個人的知情權,增強雙方算法信息的對稱性。時刻注意對個人信息權的保護,絕不能以徹底犧牲個人信息權來換取行政效能的提高,堅持以人為本的治理原則,絕不可過度依賴算法。
算法透明并不意味著對算法決策的有效規制,算法透明只能是有限度的透明。算法決策仍持續侵蝕行政機關的自主決策權,行政正當程序不斷受到沖擊。程序正當性是對算法行政所預設的正義要求,正當程序原則應當合理地嵌入算法決策過程,既實現技術的有效性,也要強調技術的正當性,算法正當程序的構建更多的是技術理性與法治原理的融合互助。
首先,建立事前算法審查機制。加強政府算法技能人才的培養和選拔,成立專門的機構來研判算法決策實施風險,為政府部門進行算法決策時提供技術參考,從技術層面規避算法公司可能利用技術優勢帶來的潛在風險,降低政府和算法公司之間的算法不對稱。同時借助外部力量,邀請業界專家、技術研發人員、算法公司內部參與者等專家團隊對算法決策進行審核商討,逐步建立健全公共領域算法決策規則。其次,賦予個人算法解釋請求權或反算法決策權,貫徹“以人為本”的算法法治邏輯。即當個人對算法自動化決策結果存疑時有權請求算法使用者進行解釋說明。算法只是工具,并非真正的決策者,個人在面對算法自動化決策擠壓或侵占個人權益時,有權拒絕算法自動化決策,要求專門的行政職能部門介入處理。但這并非意味著完全排斥算法決策,只是在行政相對人質疑算法決策的正當性時,賦予其請求行政機關介入并獲得幫助的權利。最后,疏通算法決策問責路徑,消除算法決策帶來的公共風險。當算法出現風險時,政府往往將責任推給算法及其背后的算法公司,導致算法決策審查難、問責難的局面。因此,有必要建立事后責任追究機制,算法決策本質上是行政機關“授權”產生,屬于行政權力的延伸,應當由行政機關對外承擔算法決策所帶來的風險責任。行政相對人作為弱勢的一方,不必研判問題由誰導致,只要確認算法決策侵犯自己的權益,便可直接向相應的行政機關主張責任,政府不能以技術不足為由推脫責任,算法公司不能以非決策實施主體為由推卸責任,應當行政機關首先承擔責任,再厘清相關算法公司的責任。
算法被設計出來的最初目的是服務人類,促進個人美好生活和社會福祉,是實現社會善治的基本工具,是人們在追求共同福祉過程中的工具。社會歧視可以通過立法進行規制,但算法決策的過程是在黑箱之中的,是不透明的,其產生的價值偏見和道德影響是非常隱蔽的,人們無法通過道德論辯的方式展示算法歧視的過程,但是算法決策將偏見結果加以直觀數據化,公眾可以直觀感受到算法決策產生的結果,這是算法決策的價值偏向和算法正義在現實生活中的體現。算法技術的中立并不妨礙算法決策作為準公權力的社會價值取向,算法決策具備了一定的公共權利形態,需要借助社會正義和道德倫理對其進行價值評判和規制,而社會正義價值理念將在決策方案和實施路徑中加以呈現。
在具體手段上,實現算法善治要求積極主動地把有益于社會公共的價值融入到算法決策技術設計中去。算法設計者和決策作出者應當將社會正義作為基本價值追求,在算法設計中加入道德價值元素,并納入數據開發、算法設計、場景應用的全部過程,使算法在“深度學習”時借鑒社會正義原則,為算法規制建立準確有效的正義框架。同時有效吸納公眾監督意見,利用公眾對算法決策的“有感”來調整算法決策的實施路徑和算法正義的內容,堅持算法向上向善,以實現算法善治。

算法歸根到底只是工具,目的是為了改善我們的生活,提高治理效能,促進社會生產力的發展,但個人絕不可喪失主動權,被技術操控。算法行政需要考慮諸多問題,算法決策不僅僅是法律層面的問題,我們必須審慎應對其反映出來的道德、倫理風險,充分研判算法決策嵌入公共治理中可能出現的各種風險,要在強調算法決策有效性的基礎上追求決策正當性,才能在有效提升行政治理效能的同時,使算法決策在公共治理領域中獲得可持續的發展前景。■