□ 文 陳 鵬 秦登峰
近年來隨著大數據技術的快速發展,我們正在進入“算法時代”。政府的行政活動甚至法律的執行也越來越依賴于算法。在行政活動中部署自動化決策的算法不僅使行政活動更有效率,而且更加準確和公平。從社會福利事業、刑事司法到醫療系統完善、國家安全等等,利用算法來實現自動化行政決策的領域不斷擴展。算法決策過程的不透明和難以捉摸的制度往往不像法律制度中的其他公共行為者那樣受到同樣的問責或監督機制的制約,這就提出了它們是否符合行政法基本原則的問題,是否影響法治價值觀,以及這些系統的實施和監督在實踐中可能帶來的法律和實際問題。
算法自動化系統在政府行政活動中有著豐富的應用,在這些不同的決策環境中,決策自動化程度可能會隨著決策范圍的不同而變化,從所謂的“決策輔助”到“決策判斷”。算法自動化決策不可避免地涉及到不同的計算機編程技術以及它們的技術組合。其中運作機理可以分為兩個發展階段。第一個階段被稱為人工智能(AI)階段,這是一個遵循一系列預處理操作的過程,其實質是程序化規則的過程,用以反映人類在特定條件下以及特定領域中的反應。第二個階段是指利用機器學習和深度學習等技術從收集或構建的數據中“學習”,以對新情況作出推論的階段,這些推論可能是分類或預測。
行政機關借助此類算法開展行政活動,一方面技術優勢可減輕工作負擔和提高行政效率,另一方面技術為行政活動流程的再造提供了可能。政府部門負責就一系列直接影響個人和企業利益的問題作出決策。這些通常包括有關社會福利權利、稅務責任、企業經營許可證以及環境和規劃法規的決定。在這些領域,政府決策的主題和法律決策有很大的不同,但它們的共同點是它們都涉及政府將法律適用于一組特定的事實行為。算法和機器學習工具也越來越多地被用于在社會安全和執法方面進行行政自動化決策。算法和機器學習工具通常用于幫助分析員和決策者理解他們可獲得的大量監控數據。
在考慮算法自動化影響行政法治的方式時,在實踐中實現這一目標,通常需要尋找一個更具體的標準清單。
算法自動化對基本公法原則和價值觀構成的核心挑戰。在考慮算法自動化影響行政法治的方式時,在實踐中實現這一目標,通常需要尋找一個更具體的標準清單。法治要求政府行為透明、負責任,法律面前人人平等。本節詳述政府決策的自動化如何影響行政法治的具體內容。
自動化給透明度和問責制帶來了重大挑戰。美國學者Burrell總結出算法機器學習的三種“不透明形式”的弊端。首先,當算法被視為商業秘密或國家秘密時,故意保密可能會妨礙透明度要求的實現。例如在我國國家企業信用信息公示系統中,芝麻信用系統的操作細節并不清楚。雖然眾所周知,它依賴于行為分析來計算信用評分,但個人無法知道他們的社交網絡聯系人使用了什么信息,也無法知道這些信息對他們分數的確切影響。同樣擁有COMPAS等司法輔助工具的Northpointe公司也沒有公開披露其開發方法司法判決中使用的算法工具的具體內容,因為該公司認為其算法是商業秘密。筆者認為在決策涉及個人自由等高風險的情況下,開源軟件代碼應該得到提倡。其次,技術鴻溝可能會對專家系統和機器學習的透明度和問責機制構成進一步的挑戰,因為即使披露了算法操作的細節信息,也并不意味著大多數公眾將能夠從這些細節信息中提取有用的知識。此外,因為人腦的推理與機器推理的機制不同,即使經過適當的訓練,政府部門也不能充分解釋數據和算法之間的相互作用。這表明隨著機器學習系統變得越來越復雜,對維護與保障法治實現至關重要的行政公開原則可能無法實現。
算法自動化決策對政府行政正義能否實現的挑戰尤為突出。一般來說,政府機構的行政決策受到行政法的約束。許多行政法原則是建立在以下假設之上的:決策是由人做出的,而不是由自動化系統,行政決策者被要求提供程序公平或正當程序的證據,以救濟因他們的決定而受到該決策不利影響的人,決策者通常也有義務為他們的決定提供理由說明陳述。因此,利用機器學習做出行政決定產生了行政正義實現與否的法律問題。第一,算法機器無法滿足行政法的正當程序要求,程序正義法律原則適用不足使得算法自動化對這些行政正義的基本理念提出了挑戰。第二,“行政決策”通常會涉及人類在通過公開行為表達結果之前得出結論的心理過程,這些系統依賴算法來處理應用程序和做出決策。對于行政決定的法律概念不能是靜態的,技術已經改變了決定實際上是如何作出的,并且決定的各個方面或全部可以獨立于人類的心理輸入而發生。第三,利用算法實現行政正義的最大障礙之一是行政活動的規模和復雜性,以及運作行政決策所需的時間和資源。算法自動化過程通過提高行政決策的速度和降低成本,有可能打破或減少這些障礙。然而就目前的情況而言,任何這種自動化不僅必須符合行政法原則,而且必須符合更基本的公法原則。如果自動化決策繼續被視為與正義和公平的基本理念不符,它將受到挑戰和抵制,從而削弱它本來承諾的效率收益。第四,算法自動化行政減少法律適用中的任意性、消除偏見和消除腐敗,但同樣可能具備常識性不易察覺的潛在歧視,進而會損害行政參與主體的平等權利。



諸多實例證實借助算法來執法是可行的。法律推理具有邏輯性,邏輯操作又可以由計算機自動完成,那么把法律程序編寫程編碼程序的做法能提高執法效率。如果采用這種做法,在斷案時只需輸入具體案件的相關事實。執行相關法律規定,就可以得出“正確”的判決結果。隨著算法時代的發展,“法律規則”與“算法標準”的沖突不斷升級。從廣義上講,所有法律都分屬這兩個不同的陣營,或者法律體系的兩個極端。標準的主觀性意味著人們在執行時需要仔細權衡,而規則是非此即彼的強制要求,幾乎沒有通融的可能性。與人不同,預先編程的系統不能無視它們被編程的規則。對于必須在現實生活中解決的情境問題,計算機的處理能力正在不斷提升。由于人們在擬定法律條文時往往會受到大腦中那些算法與軟件的影響,因此,隨著這類法律越來越多,人們在處理法律相關問題時,對規則的依賴性也越來越大。不過,最根本的問題在于,盡管規則與標準是法律推理的彼此對立的兩個極端,但它們同時也是兩個抽象的概念。大多數規則都具有一定程度的“標準性”,而很多標準又具有這樣或那樣的“規則性”。盡管標準或許具有過多的主觀性,但為了實現更廣泛的社會目標,規則也會由于缺少靈活性而存在不盡如人意的地方。
算法缺乏透明度是算法影響現有行政法治的核心原因。
算法行政的關鍵主體是人。以人為本的設計是一種設計和管理框架,它通過將人的主體角色納入問題解決過程的各個階段來開發問題的解決方案。在政府環境下開發和部署算法時,以人為中心的設計應牢記三個關鍵治理領域:單個層面的數據和算法、基于數據聚合開發的數據和算法以及協調不同利益相關者的影響。
算法行政的最終目的是更好地為人服務。一旦一個算法對人類生活產生重大影響,它有責任與那些將實施該算法的人進行協調,以確保那些了解倫理含義的人真正掌握并解決算法過程中存在的局限性。所有實際實現的算法都有一定的失敗率,重要的是那些對算法做出決策的人要知道這些算法是如何失敗的。以人為本的理念倡導將機器學習概念化為統計學的一個擴展。大多數人至少知道一些有關如何解釋統計數據的信息,并理解他們給出的答案的局限性。因此,統計方法是我們利用現有數據得出可能結論的工具,這些結論受到所問問題的有用性和用于得出給定統計數據的限制。同樣的,當我們將算法視為幫助我們根據先前數據做出決策的工具,告知我們的決策,而不是把它們的預測放在一個基座上并確保邏輯循環中的人總是從一個他或她意識到結論可能會受到質疑的位置來運作。
算法缺乏透明度是算法影響現有行政法治的核心原因。由于算法強調按部就班的程序,因此,法律編碼化應該可以保證具體判決的跟蹤、審核、驗證工作更加簡單明了。從理論上講,算法可以詳細地描述應用于每個小的決定之中的那些具體規則。但實際上,很多自動化系統都是不透明的,這個特點意味著它們可以規避審查。對于算法問責體系的構建,算法評估制度具有核心支柱功能。算法評估覆蓋算法運行生命周期,使得問責點設置遍布平臺運行事前、事中、事后,不同算法評估結果則可以對接不同算法的監管強度。此類影響評估已經在環境保護和隱私等廣泛的科學和政策領域得到實施。影響評估是一種工具,用于分析一項計劃的可能順序,以便就如何部署該計劃以及在何種條件下部署該計劃提供建議。影響評估的關鍵要點人工智能的部署是為了確保在整個部署過程中,從設計、實施、使用到調整監控,考慮到利益相關者。影響評估不僅僅側重于使用的影響,而是側重于所有利益相關者的影響以及他們所處的社會。此外,不斷發展的技術加上不斷變化的社會、文化和政治背景,需要不斷考慮在政府環境中使用算法開展行政活動。因此,必須允許利益相關者積極參與開發最新的治理方法。有了這些影響評估信息,所有利益相關者都可以考慮使用給定模型的適當性。這樣的信息可以被不同的利益相關者用來考慮和質疑在特定情況下模型或模型的各個方面的使用。
系統的設計僅考慮模型設計和決策是不夠的,必須考慮到最終用戶,包括考慮如何確保個人使用預測,而不是盲目地跟隨預測。在這些情況下,設計師必須確保審計和人為審查的水平,不僅是利用人類決策者的預測。無數計算機編碼的背后都存在類似的問題。錯誤的編碼導致法律條文被嚴重扭曲,其效果也發生了改變。應在法律體系的整體框架下,審查和修改這些錯誤。在通過一項新的政策法規之前,應該聽取對此感興趣的人與政策制定者的意見,為他們留出時間,然后吸取這些意見,對新政策做出明確解釋,并對各種意見做出回應。在經過這些必要的程序之后,新政策才能獲準通過。而上述問題的癥結在于其繞開了人們參與其中并提出專業意見的程序。因此,程序員們被賦予了過多的決策權,而且不會受到任何審查。人類參與的決策是關鍵考慮因素,特別是因為它們與政府行動和預測算法的使用有關。如上所述,算法的盲目使用讓許多人擔心這些使用對個人和社會的影響。歐洲的數據保護已經發布了這方面的指南。重要的是確保以下方面:人工評審員必須參與檢查系統的設計,并且不應“常規地”將自動推薦應用于個人;評審員的參與必須是積極的,而不僅僅是一種象征性的姿態。他們應該對決策有實際的“惡意”影響,包括反對建議的“權威和能力”;評審員必須“權衡”和“解釋”建議,考慮所有可用的輸入數據,并考慮其他額外因素。透明和堅持審查、監督和審計使用的各個方面是至關重要的。

透明和堅持審查、監督和審計使用的各個方面是至關重要的。
設計和部署人員應當承擔相應的責任。當算法機器學習總是在學習,以至于今天的輸出看起來與明天的結果不一樣時,誰來負責技術?設計和產品本身都使制造商承擔潛在的責任。然而與產品責任類似,那些創建和部署技術的人應該預期到使用和更改,并且應該對合理的預期使用和更改負責。在這些情況下,如果存在下列情形:未實施法規要求的保障措施或者合理的安全措施;違約行為發生后,未對損害進行補救或者減輕損害的;當實體未能根據國家的數據泄露通知法規及時通知受影響的個人時,該實體可能要承擔責任。當然,這些責任標準需要根據算法責任具體情況進行調整。責任可以在下列情況下實施:該實體未能披露用于決策、推動行為或以其他方式減少個人潛在選擇的算法的使用情況;部署算法的實體未能實施保障措施或合理的審計能力;實體未能補救或減輕在目標受眾中部署算法時出現的負面影響;部署算法的實體未能通知用戶或受部署算法影響的用戶對目標受眾造成負面影響。對現有法規進行計算機編碼的過程還有可能導致其他問題。把這些政策法規轉變為算法的難度高,實施者在問題考慮與解決方法兩個層面都簡單易行的政策。如此發展下去,那些復雜的法規都將被過度簡化,以提升法律事務自動化的效果。因此,僅僅通過技術來治理是不夠的。


本文概述了政府在不同領域使用算法自動化決策的初步分類。政府部門因決策自動化而產生的大量問題和法律問題,包括其與法治等基本法律價值觀的潛在不相容性,以及在國家安全和執法方面產生的具體問題。一方面,政府決策越來越自動化,另一方面,公法的基本價值觀之間的緊張關系可能在未來升級。因此這兩者之間的復雜交叉點迫切需要調查分析,并在決策者,政府和公眾之間尋求共識。至關重要的是,還要對這些算法發展進行監管,使受政府算法自動化決策影響的個人有機會獲得法律補救,促進決策符合基本的法律價值觀和規范。