閆 海 王 洋
隨著大數據、人工智能和區塊鏈等技術的迅速發展,人類社會正在步入“以算法為中心的智能社會法律秩序”。①算法作為信息社會最重要的生產工具,廣泛嵌入工農業生產、教育、醫療衛生、交通出行、信息娛樂等經濟社會生活的各領域,深刻改變了社會運行的基本面貌。參見張文顯:《構建智能社會的法律秩序》,載《東方法學》2020 年第5 期。算法廣泛介入乃至主導所引發的利益格局調整正在進行,算法日益成為利益分配的技術機制,正所謂“算法即權力”,算法的掌握者具備調整社會子系統運行和資源分布的能力。②算法通過對海量數據進行運算、處理,可以在很大程度上支配行為、配置資源,形成一種技術權力。參見張凌寒:《算法權力的興起、異化及法律規制》,載《法商研究》2019 年第4 期。由于算法往往為私主體所享有,存在算法“私權力”無序擴張而侵害了公共利益和其他主體權益的現象,而既有研究則偏重于將算法視為規制對象,以矯正正義的視角探討算法技術黑箱和權利濫用造成的個人知情權、個人信息權益損害及其歧視。③究其原因,算法在當下往往為私主體享有,算法“私權力”的無序擴張不當侵害了公共利益和其他主體的權益。參見丁曉東:《論算法的法律規制》,載《中國社會科學》2020 年第12 期。其實,算法同時也是信息時代的先進生產力的重要標志之一,將之作為一項工具而被旨在實現公共目標的公共規制權力所運用,可以充分發揮算法在資源、利益分配中的正義價值。
2021 年中共中央、國務院《法治政府建設實施綱要(2021-2025)》提出,“健全法治政府建設科技保障體系,全面建設數字法治政府”“善于運用大數據輔助行政決策、行政立法、行政執法工作。建立健全運用互聯網、大數據、人工智能等技術手段進行行政管理的制度規則”。數字法治政府的建設是數據技術的公權化和法治化的過程。算法是一項聯結大數據和規制決策的技術手段,將其作為一項適應信息時代要求的規制工具,以推進國家治理體系和治理能力現代化,應當成為法治政府建設的題中之義。
規制產生于以市場為中心的工業社會,政府作為社會公眾的代理人,在法律授權下運用準入、標準、信息以及經濟手段等一系列規制工具矯正信息失靈、外部性等市場失靈問題,以此實現安全、健康、環境等公共目標。20 世紀,政府憑借行政執法權力和不斷擴展的規制工具箱,尚能夠應對科學技術發展帶來的風險社會,也能基本滿足公眾服務和利益保障的公共需求。但是,進入信息時代后,算法、人工智能、區塊鏈、物聯網等新科技手段將作為載體的數據要素與傳統要素融合,衍生出紛繁復雜的新技術、新產業、新業態、新模式,政府的規制任務愈發艱巨,規制資源不足、碎片化嚴重影響政府規制能力。
市場主體行為和風險因素在信息時代被高度數據化,給政府創設了“無形”的規制環境。數據化的表達和運用已經無處不在,一切人類活動的選擇偏好和商品服務供應均獲得數據表達,并被數據資源的掌控者所解析、整合、預測和支配,在2020 年中共中央、國務院《關于構建更加完善的要素市場化配置體制機制的意見》中,數據已經與土地、勞動力、資本、技術并列為五大市場要素。④根據中國信息通信研究院發布的數據,2020 年,中國數字經濟規模擴張至39.2 萬億元,占GDP 比重接近40%。參見中國信息通信研究院《中國數字經濟發展白皮書》,載中國信通院官網,http://www.caict.ac.cn/kxyj/qwfb/bps/202104/P020210424737615413306.pdf。與之同步,影響經濟社會發展的風險因素雖然日益復雜多變,但亦能以數據形式表達、記錄、追蹤、預測和控制,進而為經濟社會安全提供有力保障。例如,對于食品安全的風險因素可以進行從農田到餐桌全程的可溯源,餐飲品制作可以被智能攝像機追蹤并在互聯網上實時直播,消費者對食品和餐飲安全的信用評價也在第三方平臺上匯集。由此可見,經濟社會中的主體行為、風險因素乃至主觀偏好選擇都可以被數據化,現實的有形世界和數字化的虛擬世界平行于同一時空的坐標體系。
數據化創設的無形規制環境也造成規制規則、規制執法資源面臨匱乏的窘境。現代政府的規制法律建立在工業社會的對有形生產要素及其產品、服務的充分認知和語言描述基礎上。當生產要素被專利、標準的科學語言予以準確地界定,權屬認定和交易規則可以被法律語言清晰描述,市場主體權利義務的界定、行使,乃至以此基礎的社會性規制并非難解之題。進入信息時代,數據要素與土地、勞動力、資本、技術等要素結合,創造出嶄新的交易客體及商業模式,也產生更具隱匿化的負外部性問題。立法者以法律語言描述數據形式的負外部性問題存在天然的障礙,由數據構成的無形世界已經超越現有法律、標準的界定和規范能力,立法者或者政策制定者對數據技術的陌生拉大了技術發展和法律規制之間的差距。此外,以數據為基礎的算法只能為少數專業人士所掌握,這些有限的人力資源又高度集中在市場領域,要求政府的工作人員掌握龐大而復雜的數據分析和應用能力不切實際,因此政府與數據化的規制對象之間就存在無法逾越的知識鴻溝。
概言之,政府在工業社會所擁有的法律權力、專業技能在信息時代遭遇挑戰,信息時代的社會性規制迫切要求政府從人工規制轉向智慧規制,⑤智慧規制的本質是“循數”規制,“以數據管數據”,凸顯數據、信息的關鍵作用。參見劉建義:《大數據驅動政府監管方式創新的向度》,載《行政論壇》2019 年第5 期;黃家良、谷斌:《基于大數據的電子商務行業監管體系》,載《中國科技論壇》2016 年第5 期。進一步擴展與數字技術相匹配的規制工具箱。
在信息時代,一切規制對象和保護主體的身份、行為和風險因素都可以用數據表達和記錄,這些數據廣泛地分散于各類平臺經營者和政府信息庫當中。對市場主體而言,數據可以創造價值,這些在生產經營中獲取的數據是自身重要的資產,對之進行整合、分析,并應用到商品、服務質量改良和精準營銷中,可以為其創造更多經濟價值。而對社會公眾或者消費者個體而言,盡管數據由其產生并對之享有權利,但此權利僅停留在授權獲取和防止侵犯的范圍,故被稱為以“防止損害權”為核心的數據權利體系。⑥參見李勇堅:《個人數據權利體系的理論建構》,載《中國社會科學院研究生院學報》2019 年第5 期。新類型的信息失靈同時產生并漸趨加劇,即公眾不具備理解數據開發應用的能力,以及數據平臺的壟斷限制公眾的選擇,以致數據權利的實效倍受質疑。建立在個人理性認知和自愿選擇基礎上的數據控制、交易乃至救濟機制呈現美好的秩序愿景,但由于相應行為能力的缺乏,難以通過私法秩序將數據轉化為增進自身利益或者公共利益的資源。質言之,消費者創造了數字經濟的原始生產資料,推動了算法和算力的優化,促進了商品、服務的產銷精準化和資源配置優化,⑦參見陳兵:《人工智能場景下消費者保護理路反思與重構》,載《上海財經大學學報》2019 年第4 期。但在數據海洋中卻無法實現“自立”,無法憑借自身行為維護、促進其數據權益。
職是之故,政府作為社會公眾(消費者)代理人,應當運用與信息時代相匹配的算法規制工具參與市場主體的利益博弈。政府規制不僅存在維護信息時代弱勢群體利益和公共利益的正當性基礎,而且擁有廣泛可利用的數據資源。政府透過規制活動從規制對象和公眾處可以獲取源源不斷的數據,這些數據來自教育、醫療、金融、通信、商品和服務消費、公共安全、社會管理等廣泛領域。較之私人主體,政府具有綜合匯集規制各領域數據并進行整合、歸納和再利用的優勢,但欠缺對數據加以整合利用的動力機制和技術支持。隨著政府獲取的政務數據與日劇增,這些數據本身可以被利用從而轉變為龐大的公共數據資源,將之應用于政府的規制決策,可以更加精準地保障和增進公共利益。目前,我國公共數據的歸集、共享和開放的制度設計尚停留于“占有”公共數據的層面,傳統規制工具不足以將儲存于政府數據庫中的公共數據調動起來,無法為公共數據的使用、收益提供技術支持。為使公共數據資源化,避免公共數據沉寂或浪費,需要借助與公共數據資源相匹配的信息化、技術化的算法規制工具,通過制度化的設計推進政府對公共數據的動態化整合、分析和適用,將公共數據取之于民、用之于民,服務于保障弱勢群體利益和公共利益。
在信息時代,誰能夠控制和利用數據資源,誰便掌握了塑造社會秩序和面貌的權力,憑借“數據資源主導權”牽動現實世界的發展變化。社會公眾受限于自身行為能力,數據資源主導權力的爭奪只能在市場主體和政府之間展開。市場主體的直接目的是為自身創造經濟價值,在此過程中社會公眾利益受到損害的防范和補救則是政府規制的目標之一,同時政府規制還承擔利用數字公共資源促進社會公眾安全、健康、環境保護等積極性職責。數據資源不是消耗品,市場主體和政府可以同時利用而不減損其價值,局部經濟利益和整體公共利益可以并行不悖。數據資源主導權的競爭結果不是市場主體或者政府兩者中的勝者將對方排除乃至絕對壓制,而應當形成彼此相互學習的良性競爭關系,避免數據資源的壟斷利用。市場主體在此競爭中試圖超越既有的商業模式,在規則之外另辟蹊徑或者游走在規則的灰色地帶,通過技術創新從數據資源中獲取更多利益。政府則試圖引導和矯正市場主體的數據資源利用行為,使之不損害公共利益和個體權益,并創造正向的利益價值。
良性競爭關系形成的前提是參與競爭者的能力均衡,因而要求政府具有與市場主體相當的數據資源駕馭能力,但就現實而言,政府顯然尚不具備技術上的行為能力。若是政府規制停滯于工業社會的命令控制模式的窠臼,單憑法權正當性和有限實質理性,不會改變與市場主體的數據能力的競爭差距,規制有效性必將持續削弱,甚至出現恣意的不當干預。政府在信息時代必須克服命令控制規制模式慣性,發展規制中的反身性,即增進規制者與被規制者之間以及規制者內部的互動、學習:一方面,給予市場主體必要的自主空間實現技術創新和達成規制目標的自由;另一方面,提高如何運用規制的學習能力,“使其在被規制者面前不至于成為‘外行’”,⑧段澤孝:《人工智能時代互聯網誘導行為的算法規制》,載《江西社會科學》2019 年第2 期。換言之,被規制者若是依靠算法來駕馭數據資源,那么政府同樣應當學習并掌握這樣的方法。
數據本身不會產生價值,數據按照一定目的被識別、篩選、加工和使用才會轉變為創造商品、服務的要素資源。信息時代呼喚政府的智慧規制,將海量數據轉化為促進公共利益的數據資源,實現與市場主體的良性競爭,這就需要一個挖掘數據價值、服務社會性規制決策的工具——算法。
算法較為權威的定義是,“通過所掌握的信息使算法使用者得到某一針對性問題的答案,或掌握輸出信息的一系列指令的策略”,“其核心是按照設定程序運行以期獲得理想結果的一套指令”。⑨[美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014 年版,第5、42 頁。由此可見,算法本身是一項客觀的科學技術,同時又預設了人的主觀目的:針對性的問題領域、欲獲取的答案和理想結果。換言之,算法具有鮮明的工具屬性,可以被不同類型的主體利用以實現其目標、創造價值。算法已被運用在食品、治安、環境、自然災害等涉及公共安全和嚴重負外部性的社會性規制領域。政府在算法模型中設定相應權重比例的數據處理標準,輸入實時獲取的生產經營、交通流動、氣象變化、地質水域等原始數據,自動獲得結果,作為風險防控、執法對象識別決策的重要參考依據。⑩參見張恩典:《人工智能算法決策對行政法治的挑戰及制度因應》,載《行政法學研究》2020 年第4 期。
就算法本身的工具價值而言,“算法的價值全部體現在它的速度上”,?同前注⑨,第98 頁。這與規制工具追求的高效標準全然契合。?在公共規制語境下,工具被定義為“可調動集體行動用于解決公共問題的可辨識的方法”,或者“一整套政府當局用以行使權力、從而確保支持和影響力或防止社會變化的工具”。評估規制工具有三項明確的通用標準:有效性、高效性和公平性。此外,合法性、政治可行性,以及容易理解和少量主體參與即可使用的易管理性也是評價規制工具的尺度。參見[美]萊斯特·M·薩拉蒙:《政府工具:新治理指南》,肖娜等譯,北京大學出版社2016 年版,第15、18-19 頁;Evert Vedung,Policy Instruments:Typologies and Theories.New Browswie Press,1998,p.21.數據資源產生并服務于人,但人腦有限的算力遠不足以完成海量的數據轉化任務,須借助具有瞬時數據處理能力的算法。算法正是憑借其數據處理的速度優勢成為信息時代最具影響力和標志性的先進生產力。政府運用許可、標準和信息等傳統規制工具,需要依靠大量人工對事實、規范進行比較才能做出決策判斷,數據的輸入、識別、比較和輸出都離不開人的要素。算法則在很大程度上擺脫了人工依賴,數據輸入、明確的決策指向都可以由算法在瞬間自動完成,大大降低了規制機構和規制對象的人力、物力和時間成本。尤其得益于計算機、互聯網等硬件設施的發展,算法正日趨智能化,超越了以計算機程序為主的形式,算法自身也可以進行深度自主學習,演化為更高級的、智能化的算法,在精準度、全面性、自動化和自我完善等評價維度上具有超越專業人工決策的潛力。
規制是政府機構對規制對象作出有法律效力的決策過程,算法的架構和決策特征可使之深度融入政府規制的運行,增強規制權力的實效:一方面,算法是一個架構,“通過搭建復雜生態系統而獲得的對人類行為的支配力量”。?張凌寒:《算法權力的興起、異化及法律規制》,載《法商研究》2019 年第4 期。無論規制對象主動選擇進入還是被動信息識別,只要符合算法設定的條件,主體的數據就會進入算法的運算程序,最終給政府提出實施規制的指示性結論,其行為和利益在很大程度上受到算法支配。算法與法律、標準在架構特點上頗具相似性,只要符合其預設的調整范圍,便能夠產生評價和指引主體行為的權力。另一方面,算法接近于決策過程。算法預設規制的目標和識別、分析、劃歸規制對象及其行為的各項參數,規制對象的數據經算法運行得出的結論直接指向了規制決策,政府出于行政程序約束或者對算法的信任乃至依賴,將算法結果等同于決策本身。
此外,政府可以將規制目標嵌入到市場主體的算法,例如為避免未成年人沉迷于網絡游戲等娛樂型應用程序,政府可以要求經營者設定防沉迷算法,或者直接將防沉迷算法植入到后者的算法中。算法因此以其強勁算力及與規制權力的深度融合,能夠全面影響福利、風險的分配過程,正深入教育、醫療、信用評價、公共治安、衛生管理乃至刑事量刑等諸領域。
算法規制工具具有正功效的同時亦存在負面影響。算法規制工具的效率優勢構成其正當化的主要根據,但效率之外還應全面審視算法在多大程度上滿足有效性、高效性、公平性、合法性和正當性等規制工具評價標準。政府運用算法規制工具能夠在短期內以較低成本執行規制任務,但若算法不能較好實現規制目標,對不同類型主體尤其弱勢群體產生實質不公平,結果無法獲得公眾信任,或者算法缺乏法律依據甚至違反法律的適用,將嚴重地削弱算法因效率獲得的規制工具優勢,產生規制工具的功能悖論。
首先,算法簡化了規制干預的過程,但忽略了規制本身的復雜性和規制對象的豐富性。即便算法日益完善的當下,知識的高度符號化、再符號化以及運行結果的語義解釋過程等算法運行的固有規律,致使規制當中的知識、意義發生一定程度流失,無法全部反映規制中具體問題的本來面貌。此外,每一項算法依托各自適用的最佳場景,政府將之一一對應加以適用抑或不做區分地統一適用均會影響規制效果。?參見鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018 年第2 期。因此,算法對規制問題的技術性簡化有礙于對問題的全面把握,不利于規制中知識、經驗的充分運用。
其次,算法可以減少規制的恣意,預防規制權力濫用,但亦削弱了法律決斷的權威。傳統規制工具強調法律上的因果關系,其中包含大量人為判斷因素,為規制權力的尋租和濫用留有灰色空間。算法則運用數據、參數標準的相關性思維,經算法得出的結果被認為具有技術中立的特征并且對決策有實質的指導意義,?“技術中立”主要是指按照算法自身功能的機制、原理而得出與規制決策相關結論具有中立性,即功能中立;“技術中立”被指技術的使用者和實施者不對技術的負外部性承擔責任,即責任中立。功能中立與責任中立共同指向技術的價值中立,即技術價值在一定程度上獨立于法律價值。采取規制、回應和交互辯論的不同立場,兩者的獨立程度存在差異。參見鄭玉雙:《破解技術中立難題——法律與科技之關系的法理學再思》,載《華東政法大學學報》2018 年第1 期。限縮與規制本身無關的人為干預空間,有利于預防規制權力濫用,但規制中人的要素弱化在一定程度上會削弱法律決斷的權威。畢竟“權威創造了法律”,?See Thomas Hobbes,Leviathan,Noel Malcolm(ed.),Clarendon Edition,Vol.II,Oxford University Press,2014,p.431.作為國家干預過程,規制決策是由經法律授權的政府及其工作人員基于社會共識和專業知識做出,由此構成權威的正當性基礎。規制決策過度依賴算法規制,弱化人的要素,會侵蝕規制對象對法律及其決策的信服。
再次,算法有助于減少規制中的人為錯誤,但算法的錯誤會造成更嚴重的權益侵害。傳統規制由人工處理海量數據,并據此做出規制決策,百密難免一疏,因工作人員過錯致規制對象的權益受損,但經事后的糾錯、賠償和問責機制可以獲得一定程度補救。算法可以避免個案中人為過失造成的不當規制決策,預防個案規制中的不公正和事后的程序消耗,但不存在理想中的完美算法。歸根結底,算法是人創造的規制工具,算法智能化雖然使之具備一些自我優化的能力,但仍存在一些風險使得算法本身存在瑕疵,包括但不限于算法自身適用初期的不完備,以及所適用領域的場景和風險變化,甚至不排除算法設計中被人為加入的不正當參數設置。算法中某一瑕疵而做出不當規制決策導致的權益損害規模是巨大的,帶來的社會成本遠高于人為規制瑕疵的成本。此外,政府傾向于將算法瑕疵導致的損害歸責于規制對象,后者提供數據中任何不經意的過失都將使政府減責甚至免責,例如,美國印第安納州在3 年內拒絕了一百萬多公眾的醫保、食品券和現金福利補助申請,僅僅因為試用的資格認證計算機系統將申請流程中的任何過失統統歸為“未予配合”。?參見[美]弗吉尼亞·尤班克斯:《自動不平等:高科技如何鎖定、管制和懲罰窮人》,李明倩譯,商務印書館2021 年版,引言第1 頁。
最后,算法推進法律的個性化,亦讓規制更為精準,但可能危及規制的公平性。隨著法治建設本土經驗的累積,規制立法正由粗放型向精細型方向發展,旨在構建精密的法律秩序,?參見王起超:《粗放和精細:論立法技術的秩序建構路徑》,載《河北法學》2021 年第5 期。給市場主體和公眾更明確的法律指引。在工業社會,人的有限信息處理能力使得規制立法到執法的運行無法達到十分細致程度,況且法律自身的概括性在一定程度上犧牲了規制的類型化和精確化。算法規制工具的不斷智能化,“可能會重新定義法律規則的最優復雜性和完善化”。?例如為避免沉迷網絡游戲或在線過度消費,政府機構可以要求相關數字服務提供者嵌入使用者認知能力和成熟度的識別、提示算法,通過人臉識別等算法禁止未成年人參與特定網絡活動。申言之,算法規制工具擴展了精細型立法的空間,法律能夠給予特定主(群)體以量體裁衣式的行為指引。但是,算法實施的精細化規制將規制對象劃分為若干群體,并貼上標簽,隨之而來的是更多的追蹤監督和執法活動。這種標簽化的規制方式與法律平等理念存在價值沖突,也存在分化社會、破壞社會包容團結的規制價值。?美國阿勒格尼縣引入一套根據居民過往行為推測其未來行為的系統,存在違法犯罪或其他不良行為記錄的居民會被貼上影響社區安定、問題父母等不利標簽,地方政府的規制部門據此加大對這些群體的監督執法。參見[美]弗吉尼亞·尤班克斯:《自動不平等:高科技如何鎖定、管制和懲罰窮人》,李明倩譯,商務印書館2021 年版,第58-73 頁。
此外,正如市場主體運用算法會產生一系列負影響,政府將算法作為規制工具運用同樣會出現數據濫用、侵犯規制對象和個人知情權、個人信息權益以及權利救濟困難等問題。因此,算法規制工具是否符合公平正義必須按照法治標準予以重新檢驗。
算法規制工具助力政府迎頭趕上數據化浪潮,在提高規制效率的同時,也帶來了一系列影響規制有效、公平的負效應。法律應當發揮技術促進和權力限制的雙重功能,以促進算法規制工具向“善治”轉變:一方面算法規制工具應當嵌入規制權力的運行,使政府適應信息時代的數據規制環境;另一方面,權力止于權利,應當以法治理念和方法規訓算法規制工具,防止算法權力溢出法律邊界,損害規制對象的合法權益。算法技術和規制環境都處于不斷變化發展的過程,必須明確政府運用算法進行規制應遵守的法治要求,以此“把握支持性結構與適應性流變之間的平衡”。21See Niklas Luhmann,Introduction to Systems Theory,Dirk Baecker ed.,Peter Gilgen trans.,Policy Press,2013,pp.83-90.
首先,平衡算法規制工具與人的主體性之間的關系。現代政府的任務應是合法性和公共利益雙重任務的平衡。22See David S.Rubenstein,Relative Checks:Towards Optimal Control of Administrative Power,Wm.&Mary L.Rev.,2010.算法嵌入規制權力是政府規制適應信息時代的規制環境調整的必然選擇,借助算法規制工具充分利用公共數據資源,發揮其正效應,以此增進規制的公共利益。然而,當算法嵌入規制權力,其運行結果直接指向決策實質內容,由此產生的兩個基本問題是:算法是否取代人成為規制決策的中心?算法的本質是否從工具屬性轉變為控制規制與被規制對象的更高主體角色?任由算法主導規制會放大算法工具的負效應,后果便是以技術中立之名侵蝕穩定社會關系賴以建立的主體性秩序基礎,23“主體性將‘人為目的’的道德觀和權利優先性理念作為現代社會正義的基礎,將人的外在行為所直接產生的現實效應或實質結果,或者由它帶來的實際價值效應作為道德評價的依據”。人的“主體地位不僅關乎于人生活的安全,也是人類文明開展的根基,其主體地位一旦動搖,政治、經濟、文化、社會制度隨即分崩離析”。參見陳姿含:《人工智能算法中的法律主體性危機》,載《法律科學(西北政法大學學報)》2019 年第4 期;萬俊人:《論道德目的論與倫理道義論》,載《學術月刊》2003 年第1 期。忽視對人的幸福和權利優先的追求,消減規制的倫理價值根基,損害政府規制的正當性。政府運用算法規制工具應定位于促進公共利益的必要手段,強化算法規制中人的主體性。換言之,應當將體現人主體性的內容作為算法規制法律關系構建的基礎,以規制主體的公權力責任限定和規制對象的權利維護為著力點。
其次,正當程序原則應當貫徹到算法規制工具運用的全過程。運用算法進行規制涵蓋從算法模型確立到針對個案作出法律決定的全過程,僅據某一算法自身宣示的技術中性和科學理性尚不足以證成相關法律決定的正當性。傳統規制可將個案事實、規范依據和決策論證進行公開,使權益受影響者審視規制的合法性、合理性,進而獲得事后救濟。算法的技術語言和自動運算特征使規制過程處于“技術黑箱”之中,24有學者指出,“界面、數據、模型的三層架構形成了一種天然的算法黑箱。數據和模型在黑箱內部,黑箱的邊界是交互界面,在物理世界和數字世界之間形成一道天然的隔閡”,算法將這種技術隔閡與法律規則相結合,威脅著法律的內在道德性。參見衣俊霖:《數字孿生時代的法律與問責——通過技術標準透視算法黑箱》,載《東方法學》2021 年第4 期。嚴重削弱了規制的公開性,并引發公眾對規制決策的質疑和權利救濟困難。在規制中,“不僅要主持正義,而且要人們明確無誤地、毫不懷疑地看到是在主持正義”。25[英]丹寧勛爵:《法律的訓誡》,楊百揆等譯,法律出版社2011 年版,第98 頁。解決之道在于將法律正當程序的要求引入算法規制工具。正當程序原則對算法規制工具控制的首要要求是確保算法的公開透明和可解釋性,將算法視為用技術語言表達的“法律”,政府應當在規制中把算法轉化為公眾可理解的自然語言并予以公開,在事前告知規制對象算法對其權益的影響,保障規制對象的知情權。26例如歐盟《數據保護通用條例》第13 條第2 款和第14 條第2 款規定了數據控制者應向數據主體提供關于自動化決策的“從邏輯上來講有意義的信息,包括自動決策對于數據主體的明顯預期后果的信息”的義務。美國《平等信貸機會法》(ECOA)要求向申請人提供“采取行動的具體原因聲明”。加拿大《自動化決策指令》要求使用算法決策的公共部門應就其決策向受影響的個人提供有意義的解釋,包括決策中使用的變量因素。德國法律也要求政府部門使用的算法必須公布:(1)有關程序輸入和輸出數據的數據類別的信息;(2)算法所涉及的邏輯,尤其是使用的計算公式,包括輸入數據的權重,基本的專業知識以及用戶部署的個人配置;(3)最終決策的范圍以及程序可能產生的后果。參見李婕:《公共服務領域算法解釋權之構建》,載《求是學刊》2021 年第3 期。作為一種持續使用的規制工具,算法對共同善的敏感程度高,自身也在快速迭代完善,需要在公開透明基礎上進一步強化對某項算法的價值辯論。公眾基于對算法的官方解釋和實際運行效果可以質疑算法的合理性,進而提出優化的建議,政府應及時予以回應。此外,還應當確認受算法規制影響的規制對象獲得救濟的途徑,提供行政和司法程序審查規制目標和規制結果之間匹配度及規制對象是否被公正對待。
最后,立法上應采取嚴格審慎而不失靈活性的立場。作為規制工具的算法應當區別于市場主體的算法:前者影響公眾利益的廣泛程度和權益侵害的嚴重性往往大于后者,而且與滿足后者創新發展價值需求相比,前者更側重安全。因此,立法上應對算法規制工具持嚴格審慎的立場,設置更高的算法合理化要求,嚴格約束算法規制工具的開發、運行、決策、適用各階段的行為,明確算法規制工具開發者以及作為使用者的政府的法律責任。嚴格審慎的立場并不意味著法律規范過于細致,而是應當保持法律規范的靈活性,法律規范在事實上也無法對算法規制工具的技術細節提出全面的規范要求,面對復雜多變的算法技術,立法只能針對行為發揮框架性約束的功能,以保持法律自身的穩定性。為實現嚴格審慎和靈活度的雙重立法目標,對算法規制工具應當進行國家層面的標準化,以便于修訂帶強制性的標準對算法規制工具加以約束。27人類社會進入工業時代后,就依靠標準化的方法解決技術發展帶來的安全和監管難題,這一標準化過程也有助于公眾和政府機構對算法規制工具形成清晰認識。目前我國在行政立法和金融監管領域已有算法技術標準化的規定,例如2021 年修訂《行政處罰法》第41 條第1 款規定,行政機關依法使用的電子監控設備應當“經過法制和技術審核,確保電子技術監控設備符合標準”。2019 年《國務院辦公廳關于全面推行行政執法公示制度執法全過程記錄制度重大執法決定法制審核制度的指導意見》中提出,“一是要推動行政執法裁量的決策輔助系統,規范行政自由裁量權,確保執法尺度統一;二是要開發風險預測系統,提前預警、檢測、研判,及時履行政府職能、提高行政精準性。”因此,對于算法規制工具可以在法律上規定算法規制工具國家標準,包括算法規制工具的內容、制定主體和程序以及標準的執行,同時對算法的審核、查驗、可解釋性和可測試性等方面提出更為詳細的要求。
算法規制工具的功能悖論表明,既需要從算法規制工具的內部完善算法的運行,充分發揮算法工具的效率優勢,但又不能盲從算法機器的自動化結論。規制目標的實現最終還是依賴“以人為本”的決策,需要通過算法之外“人”的因素來校正算法結論可能存在的偏差,補足算法規制工具的法律決策權威。概言之,運用算法進行規制是從算法生成到決策適用的全過程法治化,應當構建符合法治要求的制度框架。
就算法規制工具本身的創建、使用和維護而言,相關責任在政府和算法開發者之間分配的先決問題是,算法能否被用于特定的規制領域,即此領域的決策能否以及在多大程度上依賴于人的判斷,將決定某項算法能否被創建。算法規制工具的適用應當秉持適用領域的區分原則。在維護市場秩序的規制領域,當算法被應用于分析市場主體的行為,諸如計算市場壟斷程度、境外商品傾銷或不當補貼、馳名商標社會認知度、虛假廣告的實際影響等原本需要調查、統計和計算的問題,算法規制工具主要發揮提高規制效率的功能,不存在合法性障礙,立法可以授權、鼓勵地方政府先試先行。但是,對于貧困救濟、教育機會、違法犯罪等主體資格認定問題,因涉及對個人權益、公共資源的直接分配,應當嚴格限制算法在決策中的運用。此外,隨著人工智能技術的發展,算法自主學習能力隨之增強,算法可能不受限于人工設計的運算范疇,由此產生算法規制工具脫離政府控制的風險,損害規制中的法律價值目標,產生決策追責和權利救濟困難,所以應當嚴格限制具有人工智能的算法運用于政府的規制活動。
算法的創建和維護運作具有較高的技術門檻,政府需要將其委托給專業開發者來完成。在政府和開發者之間形成技術服務合同關系,算法開發者按照合同約定的績效指標完成政府提出的自動化處理規制項目,政府支付相應的費用。合理的績效指標不僅關系到對合同履行的評價,而且與公共利益等規制目標的實現相關。績效指標的設定除了應當注意算法效率和經費支付的一般合同問題,還應納入算法的可解釋性、對開發者倫理的要求和誤差率。此外,受合同履行影響利益最廣泛的并非合同當事人,而是算法規制工具的對象。如果算法存在瑕疵會侵害廣泛的公眾利益,合同應對政府和開發者估測和處理公眾為此付出的代價作出合理的安排。
但是,技術服務合同僅能分配合同雙方的利益,不能有效應對算法瑕疵導致的昂貴社會成本。為防止此類情況的發生,尚須進行算法規制工具的風險預防和糾正制度設計。為此,應將風險評估和預防貫穿算法規制工具的使用過程。例如,強制要求算法規制工具在被大規模運用前,在一定范圍內進行測試。在算法規制工具實際使用中,由政府、開發者及獨立的第三方機構定期評估算法規制工具失靈的風險,確保算法規制工具的技術安全。同時,算法是否造成規制對象的歧視或不公平對待,只有規制對象最清楚,規制對象對算法規制效果的反饋評價應當作為監測算法運行的關鍵標準。因此,當政府接到公眾投訴時,應當及時檢測算法運行是否安全可靠,避免或減輕因算法瑕疵對規制對象權益造成損害。28這也在側面驗證算法規制工具公開透明的意義,“公開模型對算法邏輯進行解釋無法完全避免算法歧視,披露計算機源代碼增強算法決策程序透明度是降低算法風險的最佳措施”。參見孫建麗:《算法自動化決策風險的法律規制研究》,載《法治研究》2019 年第4 期。
在公平、正當、有效等方面,算法規制工具存在功能缺陷和價值扭曲的風險,運行結果往往直接指向規制決策的實質內容,進而加大規制效果偏離目標的風險。規制是以社會主體為中心的持續法律決策,優化算法規制工具的運用效果,除了算法內部優化和監測算法規制工具本身,還要在決策環節依靠體現“人”要素的“職責—權利”法律機制來補足算法的缺陷,以法律價值校正算法的工具價值。
規制主體應當確立算法規制工具的決策輔助原則,劃定政府運用算法進行規制的權力邊界,明確規制決策主體的法律責任。一方面,算法運行結果的任何規制決策指向僅是政府規制決策的證據,而證據自身的客觀科學性或者關聯性不足以替代規制的法律決斷,算法運行的結果須經政府的人為審查和綜合價值判斷才能被確認,作為規制決策合法性、合理性的證成依據。在規制決策中,算法規制工具的結論不得替代政府的獨立判斷和分析,更不得自動執行算法結論。另一方面,信息時代的算法規制工具并未改變法律經解釋才能適用的原則,規制決策者應當根據規制法律和事實充分說理和論證,將算法結論融入其中。當出現因算法瑕疵導致的規制對象權益受損,作出決策的政府不能將算法的錯誤作為規制決策失誤的擋箭牌,決策的責任人應承擔相應的法律責任。換言之,算法規制工具可以減輕行政人力負擔和時間成本,但同時課以規制決策者更嚴格的審查義務,需要對算法規制工具和個案決策進行雙重審查。
受規制決策影響的對象有權利質疑算法規制決策的合法性與合理性。算法規制工具有科學的技術支撐,經過復雜模型的計算得到合理的結果,但科技只能在有限范圍內認識復雜流變的社會問題,算法運行的結果也僅在一般和有限意義上具備合理性。在實踐中,規制決策者過度依賴算法運行結果往往也會產生不利后果。當算法開發者和規制決策者均存在失誤的情況,應當保障規制對象質疑不當規制決策的權利。就個案的規制決策,在政府和規制對象之間應當建立法律、價值和事實的溝通機制,使政府能夠站在法律和理性的立場上認真審視算法規制決策。尤其在政府運用算法規制工具追求決策效率時,更須強化規制對象的申辯、聽證、復議等程序性權利。通過規制對象在個案決策中的權利救濟,以審驗算法的科學合理性,才能使算法這一規制工具日臻完備。同時也能避免政府成為被算法所支配的決策機器。惟此,信息時代算法規制工具才能貫徹“以人民為中心”的政府規制理念,使得規制決策能夠融合算法的技術理性和法律及制度背后“人”的理性。
人類社會步入信息時代,技術中心主義讓人們越來越相信數字技術的進步必然會使個人和群體決策合理化,算法技術的發展會給出最佳的決策方案,甚至可以讓算法自動化決策代替人的獨立判斷。然而,推崇技術獨立價值的技術中心主義者的洪亮聲音不應掩蓋社會問題復雜豐富的本來面貌,29技術中心主義將技術只視為一種工具,與技術的社會關系形式和技術的利用方式毫無關系,認為技術有自身獨立的目的。參見劉日明:《馬克思的現代技術之思》,載《學術月刊》2020 年第4 期。更不能切斷算法規制工具與規制目標和法律價值之間的聯系,算法規制工具的功能悖論需要在未來實踐中進一步探討。政府作為公共利益和社會正義的代理人,必然要順應信息時代的規制技術發展需求建設數字政府,通過算法工具駕馭由數據構成的虛擬世界,掌握治理“虛實孿生”世界的鑰匙。同時,規制決策者也要走出算法工具的迷思,堅持規制的法律決斷本質,在依法治國的框架下,將數字政府與法治政府建設相互融合,用法治規訓算法工具,實現算法工具價值與法律價值的雙向目標。