張濤
大數據、算法等技術的快速發展和廣泛運用,使人類社會進入了一個“被算法操控生活”的時代。在私人生活中,算法決策在個人的求職、消費、出行、社交、愛好等方面發揮著越來越重要的作用。在公共行政中,政府決策的自動化程度越來越高,行政機關運用算法來預測打擊犯罪、評估社會風險、監控環境污染風險、治理城市交通擁堵等。由于政府決策通常會對不確定多數人的合法權益產生重大影響,因此,算法自動化決策系統在政府決策中的運用引發了廣泛的關注。
在信用規制實踐中,算法自動化決策系統廣泛運用于信用規制活動中,尤其是個人和組織的公共信用評價,絕大多數都是基于算法自動化決策系統而開發和運行的。換言之,在信用規制中,自動化公共信用評價已逐漸成為一種主要趨勢。由于算法自動化決策系統普遍存在不透明性、自動性、高度復雜性和模糊性等特征,這給傳統的法律程序帶來了挑戰,使得很多程序性權利難以實現。對此,理論界提出了許多規制策略,部分學者主張應當采取“適應性正當程序”(adaptable due process)理念,對正當法律程序進行改革和創新,使其能夠應對算法自動化決策系統帶來的挑戰。在法治政府建設、行政法典的制定以及對自動化行政的法律控制上,學者也主張應當采取一種程序主義進路。
自動化公共信用評價是自動化行政的縮影和實踐,如何通過一種程序主義進路使其實現法治化成為當下亟待解決的課題。鑒于此,本文以自動化公共信用評價為研究對象,以捍衛公民的程序基本權為價值支撐,剖析自動化公共信用評價的實踐樣態及產生的法律效果,進而指出其帶來的挑戰,并提出在自動化公共信用評價中落實“技術性正當程序”的建議。
近年來,受大數據、算法等技術的影響,傳統消費者信用評價系統不斷進行技術迭代。“所有數據都是信用數據”(all data is credit data)已經成為信用評分行業的重要口號,利用大數據技術、算法自動化決策系統等技術,可將傳統的信用信息與個人的線下信息、網絡中爬取的數千個數據點結合起來,形成所謂的“大數據信用評分”(big-data credit scor?ing)。公共信用評價深受傳統消費者信用評價的影響,其采用的技術系統與后者密切相關。
算法自動化決策系統是使用復雜的數學算法來識別大型數據集中“有意義的關系”和“可能的模式”。例如,算法可以分析眾多變量,包括互聯網瀏覽行為、消費歷史、居住地郵編、就業經歷、教育背景、工資水平和家庭關系等,來預測具有特定特征的人成為高效員工、失信對象、有效領導者或合格醫療服務對象的可能性。從這個意義上看,算法可以描述為任何輸入一些值或一組值并輸出一些值或一組值的定義明確的計算程序。即,算法就是將輸入轉換為輸出的一系列計算步驟。以復雜程度為標準,算法可以分為用于解決簡單、定義明確的問題和用于解決復雜、定義不清的問題。其中,將定義明確的問題稱為結構化問題,定義不明的問題稱為非結構化問題。由于結構化問題沒有內在的隨機性和不確定性,因此,用于解決結構化問題的算法一般都是固定不變的,不會因輸入變量的不同而改變。非結構化問題的基礎過程以及輸入數據都存在不確定性,即,一個非結構化問題可以有多個“正確”答案,其中一些答案可能比其他答案更好。在此情況下,用于得出解決方案或輸出的公式通常不是一成不變的,可以根據輸入數據的不同而改變。
公共信用評價也稱公共信用評級,作為信用規制的中間環節,它是在信用信息的基礎上展開的。公共信用評價結果既是信用公示的內容之一,也是信用應用(激勵、懲戒或者分級分類監管)的重要參考依據。關于公共信用評價的確切內涵,目前還存在爭議。有觀點認為,信用評價是指行政主體基于歸集而來的信用信息,根據一定的評價標準和程序,對相對人的信用狀況進行評價的行政活動。國家標準《信用基本術語》(GB/T 22117—2018)則將“信用評分”界定為根據信息主體的信用信息,運用統計和其他方法,建立信用評分模型,對信用主體的信用進行評價,并用分數的形式表現出來的活動。本文所指的公共信用評價主要是指行政主體根據特定的標準,依靠大數據、算法等技術手段,對信用主體的信用狀況進行綜合評價,并用簡單明了的符號加以表達。
理論上,信用評價制度的形成與發展和聲譽理論密切相關。研究者認為,在范圍較小的社會群體中,如果群體成員知道其他人過去的行為方式,良好的聲譽可以成為誠實行為的有效紐帶,即使任何兩個特定的群體成員只是偶爾見面。聲譽機制可以激勵群體成員誠實行事,通過制裁違規者,敦促群體成員改善其行為方式。信用評價制度正是一種以技術作為支撐的聲譽機制,可以激勵社會成員信守承諾,誠實行事。作為一種“技術化”的聲譽機制,信用評價制度是信用規制的關鍵制度。2019 年7 月,國務院辦公廳印發的《關于加快推進社會信用體系建設構建以信用為基礎的新型監管機制的指導意見》(國辦發〔2019〕35 號)明確提出“深入開展公共信用綜合評價”,要求“依法依規整合各類信用信息,對市場主體開展全覆蓋、標準化、公益性的公共信用綜合評價”。當前,中央和地方各級政府部門均制定了大量有關信用評價的規范。在中央層面,交通運輸部、水利部、國家稅務總局等部門分別就交通、水利、稅務等領域市場主體的信用評價制定了規范;在地方層面,與信用評價直接相關的地方規范性文件多達400 余份,涉及醫療保障、供水、園林綠化、電力交易、房地產開發、公路施工、家政、旅游等眾多領域。從信用評價的實踐看,主要有四個特征:一是廣泛性,信用評價的對象幾乎涵蓋所有領域的市場主體;二是標準化,信用評價的標準基本上采取定量指標,并以量化的分數或等級作為評價結果的標識;三是公益性,信用評價是由政府部門實施的,具有強烈的“公益取向性”特征;四是強制性,信用評價是由政府部門主動依法實施的,不受相對人自身意愿的影響。
在我國信用規制實踐中,大數據、算法自動化決策系統已被廣泛運用于公共信用評價。從各個地方公共信用評價的實踐樣態看,目前主要是由公共部門委托私營企業、科研機構開發或運營公共信用評價系統,包括個人信用評價系統和企業信用評價系統。這些被委托單位在開發公共信用評價系統時,大多直接采用金融信用或者消費信用中的信用評價模型,既包括傳統的FICO模型,更多的則是新型的以算法自動化決策系統為基礎的“自動化信用評價模型”。在這些信用評價系統中,極其復雜的信用評分算法旨在分析和識別大量數據中的關系,特別是來自個人社交媒體和在線消費記錄的非傳統數據(如行為數據)。在監督算法的背景下,原始數據有時必須被轉化為數據集。數據轉換只是使信用評分系統的使用復雜化的一個組成部分。一旦數據被實際轉化,它就會通過構成算法的許多復雜模型進行分析。這種復雜性要求調查現有監管計劃的不足和最新發展,監管計劃必須及時調整,以應對如此復雜的過程所帶來的潛在風險。
盡管目前向社會公開的公共信用評價系統的相關信息很少(如底層邏輯、數據參數、算法系統等),但是我們仍然可以從負責信用評價系統開發的私營企業或者科研機構的專利公告中管窺自動化公共信用評價的技術原理。例如,蕪湖市的個人社會信用評價系統——“樂惠分”。“樂惠分”背后的技術支撐正是惠國征信服務股份有限公司所掌握的“基于政務數據和應用的個人社會信用評分方法”這一發明專利。根據該專利的公告信息,該專利采用了線性回歸和線性規劃的方法,利用政務大數據作為原始參數對個人信用狀況建模,通過各維度細分模型確定相關數據權重,最終形成個人社會信用評分。再如廈門市的個人社會信用評價系統——“白鷺分”,其背后主要的技術支撐也是廈門信息集團大數據運營有限公司所掌握的“信用數據的處理方法及計算機可讀存儲介質”這一發明專利,該專利的主要功能是可以對原始的信用大數據進行導入、編目、清洗、治理以及發布,使原本雜亂的數據具備實用價值。
算法自動化決策系統以及大數據技術在信用評價中的運用,既是信用規制作為政府規制創新的一種典型特征,也是信用規制的一種制度優勢,它有利于提高行政治理效率、提升行政治理的針對性與精確性、降低行政決策及行政執法的隨意性。然而,這種自動化信用評價模式也對傳統的行政法治精神和原則提出了挑戰。
在信用規制過程中,自動化公共信用評價發揮著重要作用。2019年9月,國家發改委辦公廳印發了《關于推送并應用市場主體公共信用綜合評價結果的通知》(發改辦財金〔2019〕885號),要求建立健全公共信用綜合評價機制,以公共信用綜合評價支撐分級分類監管。從目前自動化公共信用評價的實踐看,自動化公共信用評價具有多種法律效果:一是,公共信用評價結果可以作為行政處理要件。在行政管理過程中,行政主體可以直接依據信用評價結果作出行政命令,如責令限期改正、取消行政獎勵等。例如,《濟南市房屋建筑市場信用評價管理辦法》第29 條規定,對于信用評價等級為D 的企業,不得作為評優表彰、政策試點和項目扶持對象。二是,公共信用評價結果可以作為行政檢查的裁量因素。在日常的行政檢查過程中,行政主體可以依據信用評價結果對相對人采取強度不同的檢查措施。例如,《長春市房地產開發企業信用評價暫行辦法》第16 條規定,對于AAA 級信用企業,可以免于常規檢查;對于B 級信用企業,則要重點檢查。三是,公共信用評價結果可以作為行政指導的依據。在行政管理過程中,行政主體可以依據信用評價結果對相對人采取不同形式的指導,如警示提醒、指導約談等。
隨著我國社會信用體系建設的不斷推進,信用已經逐漸成為個人或組織在社會經濟活動中的“第二身份證”,基于信用評價結果的進一步廣泛應用將有可能對個人或者組織的合法權益產生重大影響。此外,盡管信用評價系統看上去是公平的,數字給人一種客觀、真實的感覺,但其中隱藏著隱秘的操作流程,導致無論是被評價者還是管理者都難以對其進行質疑和審查,這無疑對公民的程序性基本權利造成了干預,進而也會影響實體性基本權利的實現和保障。
自動化公共信用評價引發的挑戰與算法自動化決策系統本身存在的問題密切相關。有關算法自動化決策系統對程序正義的沖擊,國內外學者從不同的角度進行了分析和闡述。例如,加拿大學者伊恩·克爾認為,自動化決策系統正在促成一種危險的“先發制人”(pre-emption)新哲學,這嚴重威脅了正當法律程序,這些未經驗證的預測性技術將賦予程序員和使用這些技術的人巨大的壓迫性權力,他們能夠利用各種軟件來規制人類的行為,并在不受常用法律機制制約的情況下對個人作出關鍵決定。美國學者丹妮爾·西特倫認為,自動化決定通常涉及對個人自由和財產的剝奪,這就觸發了憲法中“正當程序條款”的保障措施。從程序保護的角度看,算法自動化決策系統首先可能對受通知權造成限制,其次可能不利于聽證權的行使;從規則制定的角度看,算法自動化決策系統可能限制公眾參與和透明度,不利于發揮“通知和評論”機制的作用。張凌寒教授認為,行政正當程序本質上具有“信息發送功能”,其諸多原則或制度均可視為一種“信息工具”,而反應型算法和預測型算法均對行政正當程序的功能造成了限制,具體表現為算法不透明遮蔽了行政信息公開、算法技術壟斷架空了公眾參與、算法黑箱阻礙了說明理由。
綜合已有研究成果,筆者認為,在信用規制中,自動化公共信用評價同樣也對正當法律程序提出了諸多挑戰,主要表現在兩個方面。
第一,自動化公共信用評價的自動性、隱蔽性等特征將導致事先通知、陳述意見、聽證等程序難以實現。盡管目前理論與實踐對信用評價的法律性質存有爭議,一時難以準確定位,但不可否認的是,公共信用評價的背后是行政權力的行使,其結果將對公民、法人和其他組織的合法權益產生重要影響。在傳統行政決定的場景中,法律通常為行政決定的相對人提供事先通知、聽取意見的機會,并設置各種具體的程序制度。然而,在基于算法自動化決策系統的信用評價場景中,信用評價過程具有自動化特征,它通常是由算法自動化決策系統根據輸入的數據,按照預先設定的算法程式,甚至是在自主學習的基礎上,由算法模型自主完成的。此外,信用評價過程還具有隱蔽性。一方面,信用評價系統的開發、部署、運行等通常是在個人或公眾不知情的情況下進行的;另一方面,信用評價系統中輸入的數據可能是在個人或組織不知情或未經其同意的情況下收集的,還有可能是私人企業向政府機構共享數據的結果。正是由于自動化決策系統的自動性、隱蔽性等特征,導致行政相對人和利益相關者在信用評價決定作出之前,無法通過法定的程序制度參與行政決定過程,無法充分行使陳述、申辯、要求聽證等各項程序性權利,而只能被動接受由自動化算法系統給出的評價結果。
第二,自動化公共信用評價的不透明、封閉性等特征將導致說明理由這一程序機制難以實現。說明理由是正當程序的一項基本要素,它要求行政機關在作出行政決定時,應當向受決定影響的相對人說明事實和理由,以表明其合法性和合理性。在算法自動化決策中,算法系統通常不透明(opaci?ty),即使相對方知道自己可能受到自動化決策的不利影響,卻無法確定該決策的合理依據,進而無法提出“有意義的質疑和挑戰”。一般認為,算法的不透明可以大致分為三種情形:(1)故意的不透明(intentional opacity),即故意隱瞞程序。算法系統的程式代碼通常受商業秘密或版權的保護,因此很難知道“黑箱”的確切內容。(2)無知的不透明(illiterate opacity),即由于缺乏專業知識無法讀懂代碼。算法系統的邏輯通常由一系列符號、公式構成,即使公布了算法系統的過程(如源代碼),受專業知識的限制,對于普通公眾而言,不透明的現狀仍然存在。(3)固有的不透明(intrinsic opacity),即算法系統的復雜性導致算法系統在本質上可能是無法解釋的,即使有幸拿到了打開黑箱的鑰匙,也很難揭開決策的邏輯。這三種不透明也可能出現在自動化公共信用評價系統中,行政機關和算法系統開發者同樣可能以“故意的不透明”和“固有的不透明”為由拒絕對其決策承擔說明理由的義務。與此同時,個人或公眾也可能因為“無知的不透明”而難以知曉信用評價結果到底是依據何種理由作出的、此種理由是否合法及合理。
科學技術的變化正在重塑我們的社會,也影響了公民可獲得的程序性保障,正當法律程序的基本要求也必須適應不斷變化的現實世界。政府在采用自動化決策系統時,不僅要考慮這些決策的實質內容,還要考慮這些治理方式的轉變如何影響公共問責、信任和民主監督。這符合正當法律程序的基本價值,即政府程序應當是透明的、可理解的和可預測的。自動化公共信用評價帶來的新事實、新情勢、新挑戰及其對正當法律程序的影響,引發了新的程序保障需求。首先,有必要建立一種“預聽證程序”(pre-hearing process),以確定并推翻沒有事實或法律依據的部署自動化決策系統的提議。其次,有必要提高自動化決策的透明度,尤其是當行政機關試圖依據自動化決定對相對方的合法權益造成限制時。再次,聽取意見的時間應當更為靈活,方式應當盡可能確保利益相關者無須借助法律專業人員也能有意義地參與。最后,應當通過程序機制強化行政機關的說理義務,破除算法黑箱。
有鑒于此,學者們提出應當將正當程序創造性地運用到算法自動化決策系統中。其中,最具代表性的是美國學者丹妮爾·西特倫提出的“技術性正當程序”(technological due process)理論。美國學者凱特·克勞福德和杰森·舒爾茨以此為理論原型,提出了“數據正當程序”(data due process),主張應當建立所謂的數據程序權利體系。劉東亮教授認為,對算法權力的規制和監督,需要從算法設計的源頭建構“技術性正當程序”,實現程序的代碼化。筆者認為,自動化公共信用評價是算法自動化決策的一種具體情形,因此,“技術性正當程序”對于正當程序在算法自動化決策中的適用所提出的創見值得借鑒。
西特倫教授提出,法律學者和系統專家必須共同努力,在自動化時代塑造正當程序的新輪廓。她認為,在方法上,“技術性正當程序”主要借鑒了理論界有關“規則與標準”的討論,以系統性的視角來思考自動化與人工裁量之間的關系;在內容上,“技術性正當程序”主要是通過提供維護正當程序和規則制定規范的機制,重新設想了自動化時代的程序保障。在西特倫教授看來,“技術性正當程序”理論在重塑自動化行政國家的程序保障機制時可以從兩個方面著手。
其一,保護個人權利。西特倫教授認為,算法自動化決策損害了有意義的通知和陳述意見的機會這兩項正當程序保障機制,應當從技術和法律兩個角度予以回應。具體而言,首先是要確保有意義的通知。在設計自動化決策系統時應當建立審計追蹤機制(audit trails),對支持自動化決定的事實和規則予以記錄。審計追蹤應當詳細說明系統作出的每一項細微決定所適用的實際規則,有了審計追蹤,行政機關就有辦法向個人提供支持自動化決策系統對其重要權利作出裁決的理由。其次是要保障聽證權利。行政法必須正視自動化決策系統存在的偏見,這種偏見影響了聽證官員的公正性,剝奪了個人發表意見的機會。盡管徹底消除自動化決策系統存在的偏見非常困難,但是有兩項規則至少應當實施:一是行政機關應當向聽證官員明確說明,自動化決策系統是容易出錯的,為此,聽證官員應當接受有關自動化系統的培訓。二是行政機關應當要求聽證官員詳細解釋其對自動化系統的依賴程度,為此,行政機關應當查明其在作出行政決定時所依據的計算機生成的事實或法律結論。
其二,取代規則制定程序。西特倫教授認為,自動化決策系統的設計必須以透明和問責制為主要目標,以防止制定程序上有缺陷的規則,主要有以下幾種基本的行為規范:(1)自動化決策系統的開發者應當向公眾發布系統的源代碼,源代碼應當能夠展示系統的工作原理。(2)行政機關應當測試自動化決策系統及其軟件,測試應當在系統啟動前、實施過程中和系統所依據的規則改變之時實施。(3)行政機關應當積極探討如何讓公眾參與自動化決策系統的建設,例如,行政機關可以設立“信息技術審查委員會”,為利益相關者和公眾評價系統設計和測試提供機會。(4)行政機關應當避免將未經過正式或非正式規則制定程序的政策自動化,如解釋性規則和政策聲明。換言之,由程序員編寫的解釋性規則和政策聲明應當遵守規則制定程序,盡管這并不能徹底解決無意中將“立法權”下放給代碼編寫者而帶來的“問責赤字”,卻可以在一定程度上減輕這方面的隱憂。
總的來說,西特倫教授認為,自動化決策系統具備許多優勢,它在一定程度上能夠消除人為決策中存在的錯誤或失誤,并促進決策的一致性,因此,政府決策的自動化已經不可避免。然而,自動化決策系統也帶來了諸多挑戰,它未能利用其糾正錯誤的潛力,反而成為傳播錯誤的工具,因此,行政法應當正視自動化決策系統帶來的挑戰。“技術性正當程序”理論是在不放棄自動化決策系統帶來的益處之前提下,為保護個人或組織在公平的、可問責的和透明的裁決和規則制定方面的利益提供新的程序性保障。
由于政府部門在個人和組織的信用評價中廣泛運用了算法自動化決策系統,因此,算法自動化決策系統的設計、實施或運行中的缺陷有可能侵犯個人和組織的合法權益。對此,公法應當采取措施,除了保護特定個人和組織獲取信息或獲得救濟的權利外,還應當解決系統性問題。“技術性正當程序”理論正是公法作出的回應,其可以為理論和實踐提供指引。目前,在世界范圍內,一些國家或地區已經專門為政府部門的自動化決策制定了法律規則,如紐約市于2018 年1 月頒布了《行政機關使用自動化決策系統的地方法》,大量條款涉及建立自動化決策系統的程序保障機制,包括信息公開、影響評估、解釋決定等;加拿大政府于2019年4 月頒布了《自動化決策指令》,對自動化決策系統提出了要求:(1)算法影響評估;(2)透明度,包括決定之前提供通知、決定之后提供解釋、訪問組建、發布源代碼等;(3)質量保證,包括測試和監控結果、數據質量、同行評審、員工培訓、應急程序、安全保障、法律咨詢、人為干預等;(4)追償權,向個人或組織提供所有可用的救濟途徑,允許他們對行政決定提出質疑;(5)信息公開,發布有關自動化決策系統有效性和效率的信息。新西蘭政府于2020 年7 月頒布了《算法憲章》,要求政府機構在使用算法時應當履行以下義務:(1)指定一個聯絡點,負責處理公眾對算法的詢問;(2)為質疑或起訴由算法作出的決定提供一個渠道;(3)明確解釋人類在以算法為依據的決定中的作用。我國《個人信息保護法》也對自動化決策作出了回應:第73條對自動化決策進行了界定;第24條對自動化決策的透明度、解釋說明以及公民的拒絕權作出了規定;第55條規定了自動化決策的個人信息保護影響評估制度。綜合國內外已有的理論和實踐經驗,以“技術性正當程序”理論作為指引,筆者認為,可以從兩個方面對自動化公共信用評價進行程序控制。
1.基于算法信息公開增強算法系統的透明度
雖然透明度是經濟學和政治學的一個重要概念,但其思想根源在于政府信息的獲取。在理論上,透明度主要分為兩種類型:一種是所謂的“魚缸透明度”(fishbowl transparency),指的是公眾窺探政府內部并獲取有關政府官員所作所為信息的能力。這種透明度關注的重點是公眾獲取政府所掌握的信息和有關政府工作的信息,它包括公眾對政府聽證會、檔案柜中的記錄和計算機系統中的材料的獲取。另一種是“說理透明度”(reasoned trans?parency),強調的是信息的有用性,即政府是否揭示其采取行動的原因。換言之,“說理透明度”強調政府通過說明理由來解釋其行為的重要性。
那么,如何通過算法信息公開來增強算法系統的透明度?筆者認為,首先應當明確兩項基本原則:一是算法自動化決策的可見性,應當成為行政信息公開的基本要求;二是算法作出決策的基本規則和因素權重,應當向社會公眾公開。其次應當處理好算法信息公開與商業秘密保護之間的關系。美國學者羅伯特·布勞內斯和埃倫·古德曼提出的方案或許值得我們借鑒。他們認為,為了在行政信息公開與商業秘密保護之間取得平衡,實現“有意義的透明度”,政府部門應當利用其“訂約權”(contracting powers),堅持適當的記錄建立、提供和披露。具體而言,當政府部門與算法系統開發商在簽訂開發協議時,應當將行政信息公開的要求與商業秘密保護條款聯系起來,要求系統開發商必須在合同中標明具體受商業秘密保護的記錄以及可以公開的記錄。換言之,系統開發商不能籠統地以商業秘密受法律保護而拒絕公開算法系統相關信息,而是需要將合同中商業秘密保護條款的內容進行細化,具體區分受保護和不受保護的記錄,這并不是要求系統開發商公布源代碼,而是要求其公開系統所依據的法律規則以及將其轉換為代碼的基本原理。通過在算法系統開發合同中載明相關記錄,公眾可以申請政府公開合同來滿足對算法透明度的需求。
通過算法信息公開來增強算法透明度也越來越受到各國的重視,可以為我國制定相應的規范提供參考。例如,德國信息自由專員會議于2018年10月通過一份決議,要求公共機構必須確保算法足夠透明,在法律允許的情況下,應當公開如下信息:(1)數據類別的信息;(2)算法的技術邏輯;(3)算法自動化決定可能產生的后果。為了確保能夠實現前述基本要求,公共行政部門應當在制定算法系統開發方案時就考慮上述內容,通過設計實現透明度。法國《公眾與行政部門關系法典》第R.311-3-1-2 條規定,行政部門應當在不侵犯受法律保護的秘密之前提下,應個人行政決定的對象之要求,以可理解之形式向其提供以下信息:(1)算法處理對決定的貢獻程度和方式;(2)處理的數據及其來源;(3)處理參數及其加權;(4)進行這種處理的具體操作。此外,法國憲法委員會于2018年在審查法國數據保護法與歐盟GDPR 保持一致的法案時指出,當一種算法的操作規則不能在不侵犯受保護之秘密或利益的情況下進行傳達時,行政部門不能僅根據這種算法作出個人行政決定,即,如果一個行政部門在行政決定中完全依靠算法,則不得以商業秘密為借口不公開其運作情況。
2.通過算法影響評估增強算法系統的問責制
保障公眾參與是正當法律程序的基本要素之一,參與可以帶來更多的信任、更多的滿意度和更大的公民接受度,最終結果是公共行政績效的正當性得以提升。對于政府部門而言,如果在沒有建立適當的問責制框架的情況下就在公共行政中部署針對不特定多數人的算法決策系統,很有可能導致他們不了解決策過程,從而難以發現或應對偏見、錯誤或其他問題,最終導致合法性或正當性質疑。
算法影響評估是指能夠幫助行政機關更好地理解和減少自動化決策系統相關的風險,并提供與所設計的應用程序類型相匹配的適當的治理、監督和審計需求的框架。這并非一種全新的制度,影響評估早已在科學和政策領域廣泛實施。算法影響評估可以充分利用已有的制度框架,并結合科學和政策領域內影響評估的研究和實踐成果,形成專門針對算法的評估機制,并為建構系統性的算法問責機制提供重要支撐。
盡管算法影響評估不能解決自動化決策系統可能產生的所有問題,但它確實提供了一種重要的機制,讓公眾了解情況,并讓決策者和研究人員展開富有成效的對話。具體而言,算法影響評估有助于實現以下幾個政策目標:(1)尊重社會公眾的知情權,讓公眾能夠了解影響其日常生活的自動化系統有哪些,這些系統會在哪些方面對其合法權益產生影響。(2)提高政府部門的專業知識和能力,讓政府部門能夠對其開發或采購的自動化系統作出科學評價,以便能夠預見應當注意的風險,如產生歧視性影響、侵犯公民隱私、違反正當程序等。(3)確保加強自動化決策系統的問責制,為外部研究人員提供有意義的、持續不斷的機會,使他們能夠利用發現和測算問題的方法審查、審計和評估這些系統。(4)確保社會公眾具備申訴機會,能夠對某一自動化系統的使用或行政機關的算法問責辦法作出積極回應。
算法影響評估已經成為世界公認的算法治理機制。許多專家學者、技術人員、政策制定者都在積極推廣算法影響評估,一些國家甚至已經(準備)將算法影響評估予以法制化。例如,加拿大《自動化決策指令》規定:(1)在生成任何自動化決策系統之前,應當完成算法影響評估;(2)當系統功能或自動化決策系統的范圍發生變化時,應當更新算法影響評估。綜合已有的研究成果和實踐經驗,筆者認為,我國應當建立統一的算法影響評估框架,對自動化決策系統在公共行政中的運用進行評估。具體到自動化公共信用評價系統而言,算法影響評估框架應當至少包含以下要素:(1)行政機關應當對現有的或擬部署的自動化信用評價系統進行自我評估,評估該系統對公平、正義、公正等價值的潛在沖擊,了解該系統對個人和組織的合法權益可能造成的潛在影響。(2)行政機關應當制定有意義的外部審查程序,允許技術專家、法律專家等組成算法影響評估工作小組,對自動化信用評價系統進行長期跟蹤調查研究。(3)行政機關在部署自動化信用評價系統前,應當向社會公布有關自動化信用評價系統的內部評估報告和外部評估報告。(4)行政機關在決定采用自動化信用評價系統前應當公開征求公眾意見,主動澄清比較重要的問題以及可能引發爭議的問題。(5)自動化信用評價系統在正式作出信用評價結果之前,應當通過技術設計將“通知”融入其中,自動通知個人或組織將對其信用狀況進行評價,并給予個人或組織一定的時間進行回應。(6)自動化信用評價系統在正式作出信用評價結果之后,應當自動告知個人或組織,并允許其查閱具體的評價過程以及依據。允許當事人對評價結果提出異議,可以通過內部申訴、行政復議、行政訴訟等途徑尋求權利救濟。
在大數據時代,盡管大數據、算法等技術可以彌補傳統信用評價之不足,提升公共信用評價的準確性、及時性和完整性,但也引發了新的問題,尤其是算法系統的“黑箱化”、自動化趨勢,已經威脅到公民的程序性基本權利。對此,我們應當堅持行政法治的基本理念,并積極拓展相關原則或者規則的可適用性,以此來適應自動化行政提出的挑戰。“技術性正當程序”正是傳統正當程序原則在自動化行政國家中的發展,它不僅可以為自動化公共信用評價的程序控制提供解決方案,也可以為整個自動化行政的法律控制提供啟迪。