999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

比例原則規約算法行政的法理基礎與路徑

2023-12-29 00:00:00譚九生胡健雄
理論月刊 2023年3期

[摘 要] 算法行政存在邊界。權力制約與損益均衡是比例原則規約算法行政的法理基礎。以政府對數字接觸追蹤技術的應用為分析對象,發現存在違背比例原則的算法行政實踐樣態,表現為目的與手段的不當聯結、對公民造成非最小損害以及公共利益與個體損益的比例性失衡。為此,需要從適當性、必要性和均衡性三個維度對算法行政進行比例原則規約,明確算法行政的目的及其邊界,堅持最小必要原則,實現目的與手段均衡,以確保算法行政在法治的軌道上運行。

[關鍵詞] 算法行政;比例原則;權力制約;損益均衡

[DOI編號] 10.14180/j.cnki.1004-0544.2023.03.012

[中圖分類號] D922.11" " " " " " " " "[文獻標識碼] A" " " " "[文章編號] 1004-0544(2023)03-0123-12

基金項目:國家社會科學基金項目“人工智能嵌入政府治理的倫理風險及其防范研究”(20BZZ089)。

作者簡介:譚九生(1973—),男,法學博士,湘潭大學公共管理學院教授、博士生導師;胡健雄(1996—),男,湘潭大學公共管理學院博士研究生。

算法行政(Algorithmic Governmentality)是以算法為核心的智能技術與公共行政深度融合的產物。算法嵌入政府治理,能夠優化管理方式、改善公共決策、提高行政效率。近年來,基于數字接觸追蹤技術的算法行政在世界各國的疫情防控中發揮了重要作用,智能技術賦能政府應急管理的成效顯著。然而,在具體實踐中,也出現了目的與手段的不當聯結、對公民造成非最小損害等算法行政不當現象。這些現象不由得引發我們思考:算法行政的邊界何在?如何對算法行政進行有效規約?在我國全面建設數字法治政府的時代背景下,以行政法學領域中的“比例原則”為分析框架,準確厘定算法行政權力的邊界,建構合乎比例原則的算法行政,以保障公民的合法權益,對推進政府治理現代化、提升數字治理效能具有極為重要的理論價值與實踐意義。

一、算法行政何以需要規約?

“算法行政”最早由魯夫羅伊(Rouvroy)提出,意指建立于大數據自動收集、匯總和分析基礎之上的某種規范性或政治理性,以建模、預測先發制人地影響公民行為 [1](pX)。與傳統國家治理形式不同,算法行政不再將政治和經濟作為其運作手段,或者至少不再作為其特權行動手段,而是通過大數據、算法等數字技術進行自動化操作[2](p5),機器學習算法被運用于一系列政府活動中,如行政決策、公共服務提供和公共政策制定[3](p2)。憑借算法的高效性、精確性和預測性等技術優勢,算法行政正推動政府治理從繁文縟節走向高效行政、從粗放式管理走向精細化治理、從社會管控走向敏捷性治理。在人工智能技術的持續賦能下,算法行政已成為一種可能的公共行政新范式,涉及公共行政管理體制、業務流程、行政文化與算法化、智能化的有機融合[4](p86)。

算法行政何以需要規約?一方面,算法行政的核心是權力的運用,而任何權力都有被濫用的可能。由于算法行政本質上是一種人機互動過程,因而其權力運行機制主要表現為算法權力與行政權力的互動耦合。在算法行政過程中,算法技術的互聯性、智能性和不透明性能夠顯著增強行政權力的廣度、強度和隱蔽程度,與此同時,行政權力的強制性與權威性使算法權力具備了公權力屬性。兩者的有機融合所生成的是一種新型行政權力,即算法行政權力。基于權力的擴張性以及人性之惡等因素,若是缺少相應的規約機制,算法行政權力容易被濫用,進而對公民造成具有較強無形性、不確定性和隱蔽性的新型侵權后果[5](p40)。例如,美國印第安納州、洛杉磯縣和阿勒格尼縣的地方政府部門采用的自動化算法系統,不僅沒有改善貧困家庭的生活處境,還使得窮人陷入“數字濟貧院”的鎖定、管制甚至是懲罰中[6](p148-170),嚴重損害了這一群體的平等權和人格尊嚴權,而受害者對這種侵權行為卻毫無察覺。另一方面,為了保護公民權利,需要對算法行政進行規約。公民權利的誕生是人類邁入文明社會的標志。聯合國于1966年12月通過的《公民權利和政治權利國際公約》和《經濟、社會及文化權利國際公約》是當代最低人權標準的權威表述,這兩份公約對公民的生命權、人身自由與安全和平等權和政治權利等20余項基本權利的內容和形式作了具體規定 [7](p105-474),是對第二代人權體系的進一步完善。進入智能時代,有學者主張以“數字人權”為代表的第四代人權,包括公民(用戶)在數字化生活中的隱私權、數據權、表達權、人格尊嚴權等基本權利[8]。不論是第二代人權抑或是第四代人權,都有可能被算法行政主體所侵犯。例如,有學者實證考察了加拿大各省份城市的執法部門對預測性警務技術和算法監控技術的運用,研究結論表明,這些技術事實上會危及公民的隱私權、平等權、享有正當程序和救濟的權利以及言論自由和結社自由[9](p173-174)。有鑒于此,應立足于公民基本權利保護對算法行政進行規約。

學界從多重視角提出了算法行政的規約路徑。一方面,基于倫理視角,有學者從實證法(positive law)分析中提煉了三個價值原則,即正當程序(關注決策過程)、問責(注重責任分配)和比例性(強調實質公平),作為算法行政實現善治的規范指引[10](p67-83);與此同時,還應構筑數字社會的“道德基礎設施”[11](p73-74),著力培育公務人員的行政同理心(administrative empathy),使算法行政具備人文關懷與人性溫度[12](p1341-1378)。另一方面,強調制度層面的法治化調試,如在法律的框架內限定算法行政的適用范圍和裁量空間[13](p9-10),引入技術性算法披露機制、構建算法測試機制和算法責任體系[14](p104),以及采取賦權規制路徑,賦予行政相對人免受算法自動決策權利和算法解釋權利[15](p34)。另有論者主張“場景化、全過程”的規約思路,對算法行政進行治理前的審查評估、治理中的權力規約以及治理后的法律問責[16](p31)。

然而,國內外學者對比例原則規約算法行政的法理基礎和實現路徑研究較少,限制了比例原則的實踐價值。其一,與基于一般法治原理的權力規制路徑相比,比例原則對權力的規約更為細化。比例原則由適當性、必要性和均衡性原則構成,它們各有側重,聯系緊密,能夠從不同面向對算法行政的邊界予以廓清,為探究算法行政的限度問題提供了具有層次感的分析框架。其二,比例原則視域下,算法行政規約力求實現目的與手段的均衡,確保其在合理的適用范圍內既能夠實現公共利益,也能夠保障公民的合法權益,最終建構“權力—權利”的良好互動平衡關系。可見,算法行政的比例原則規約,不僅是建設數字法治政府的基本要求,也是算法行政走向善治的應有之義。鑒于此,本文首先闡明比例原則規約算法行政的法理基礎;隨之以各國政府應用數字接觸追蹤技術為例,對算法行政的合比例性進行審視;最后基于比例原則的“適當—必要—均衡”三個維度,提出算法行政的制約平衡路徑。

二、權力制約與損益均衡:比例原則規約算法行政的法理基礎

比例原則具有憲法和行政法兩個層次上的含義。憲法意義上的比例原則所指涉的對象包括立法、司法和行政機關等國家公權力行使者,行政法意義上的比例原則僅適用于政府機構,其主要功能是約束行政權力、保障公民權利。本文主要在行政法層面上使用“比例原則”這一概念。比例原則的三個子原則即適當性原則、必要性原則與狹義比例原則能夠從不同層次對算法行政進行規約,這背后蘊含著權力制約和損益均衡的法理基礎。

(一)權力制約:算法行政權力的適當與必要性限制

作為現代法治的核心要素,權力制約構成了比例原則規約算法行政的法理基礎。自現代國家誕生以來,如何限制政府權力、保障公民權利,是先哲們孜孜不倦探討的問題。隨著人類步入智能時代,權力制約這一法理命題顯得愈發重要,因為智能算法技術不僅形成了一種新的權力形態——算法權力[17](p64-67),且當其嵌入政府治理時,還會對行政權力的表現形式和運行機制產生深刻影響,推動行政權力走向擴張。以比例原則對算法行政進行規約,實質上遵循的是“權力運行須有邊界”的法治邏輯。適當性原則與必要性原則為算法行政權力制約提供了參考依據。

從適當性限制來看,算法行政權力運行需與合法且正當的目的存在實質性關聯。憑借數據挖掘、大數據分析和機器學習等智能技術,算法行政從根本上改變了政府與公民的關系,重塑了既有的“權力—權利”格局。在數據即權力的智能時代,公民的行為、偏好甚至情感都可以化約為數據,這些數據一旦被政府所收集和掌握,即有可能引致被監控和被操縱的風險;同時,由于算法的“黑箱”特性,公民難以知曉政府的具體行政過程,無法有效地監督政府權力,導致公民處于弱勢地位。因此,需要以適當性原則對算法行政權力進行限制。適當性原則意指國家措施必須有助于行為目的之達成[18](p54),行政手段與目的之間應具有實質關聯性[19](p100)。適當性原則要求算法行政權力主體在制度規定的邊界范圍內開展行政活動,不得采取與實現正當合法目的無關的措施和手段,不能以實現某一特定目的為旨歸。例如,作為算法行政的典型代表,健康碼只能用于疫情防控,服務于公共健康目的;將健康碼運用于其他常規性社會治理活動,是適當性原則所不允許的。質言之,智能技術并非萬能,算法行政權力應當存在邊界。

從必要性限制來看,算法行政的權力行使需以公民的最小損害為限度。波斯特立足信息社會,認為“今天的‘傳播環路’以及它們產生的數據庫,構成了一座‘超級全景監獄’,一套沒有圍墻、窗子、塔樓和獄卒的監督系統”[20](p132)。算法對傳統行政權力的賦能會顯著增強“超級全景監獄”的效力,若是缺少必要性原則限制,其權力的觸角會隨著算法向社會系統和個體生活的全方位滲透而不斷延伸[21](p130),對公民的基本權利(如隱私權、平等權和自由權)構成威脅。必要性原則要求行政主體擬將采取的行政手段是可供選擇的所有手段中損害最小的。如果某一算法行政實踐被認為是實現公共利益所不可缺少的,但卻給公民造成不可避免的損害,那么,必要性原則要求算法行政權力主體采取最低限度的行政干預措施,在兼顧公共利益的同時,盡可能減少對公民權益的損害。據此,必要性原則為算法行政的權力行使設定了基本底線,即不論是在常規治理中,還是在例外狀態下,算法行政都要以最小損害當事人的權益為限度。

(二)損益均衡:算法行政目的與手段的比例性平衡

法律是由價值和原則構成的復雜框架,涉及不同利益沖突之間的調和與均衡。法哲學家E.博登海默認為,法律應力求實現正義,致力于創造秩序。然而,正義所包含的三個核心價值即安全、自由和平等之間存在著難以調和的內在張力。“由于這三個價值深深地根植于人的本性之中,所以在它們之間實現合理的平衡就是一個法律制度真正成功的標志。”[22](p310)社會法學派代表羅斯科·龐德指出,法律的作用在于滿足和調和重疊且經常沖突的要求,“或直接予以保障,或通過界定和協調各種個人利益加以保障,以便實現最大多數的利益或我們文明中最重要的利益,同時使整個利益清單中的其他利益的犧牲降低到最低限度”[23](p39)。可見,價值平衡與損益均衡之法理是良好法律制度的應有之義。

對算法行政進行均衡性原則規約是均衡衡平之法理的集中體現。在適用位階順序上,均衡性原則處于比例原則審查流程的末端。在滿足適當性與必要性原則的前提下,均衡性原則要求行政目的與手段合乎比例,前者主要指行政行為增進的社會公共利益,后者強調的是行政手段對公民個體造成的損害。將這兩者置于天平的兩端,若是行政手段對公民合法權益的減損過重,使得天平向“手段”一端過度傾斜,那么,即便行政主體所采取的是使公民權益損害最小的手段,其仍將無法通過均衡性原則審查。換個角度看,如果某個最小損害性手段致力于實現的公共利益足夠沉重,足以與公民個體損益的負效應相抵消,使得天平大體保持平衡,則損害與收益成比例,符合均衡性原則。根據均衡性原則,算法行政主體在促進社會整體福利的同時,應對技術治理手段所造成的公民權益損害予以充分重視,謹慎權衡目的與手段的比例關系,確保公民個人基本權益不被過度侵害。以健康碼為例,雖然其對疫情防控、復工復產發揮了重要作用,但也引致了部分公民群體的權益受損。在疫情防控常態化情境下,掃碼通驗、亮碼通行已成為進出公共場所的必要流程;而那些沒有智能手機或不會使用智能手機的相當一部分老年人群體,由于無法出示健康碼,被排除在公共生活空間范圍之外,難以享受休閑娛樂和醫療救助等基本公共服務,自由出行權和生命健康權受到威脅,淪為“余數生命”。均衡性原則要求政府重視“內嵌在健康碼內核上的余數裂縫”[24](p122),根據疫情風險等級、地域和具體場所等因素確定是否需要“亮碼”[25](p106),如有必要,還應為老年人群體設立綠色通道,從而有效減少公民權益損失,實現算法行政目的與手段的比例性均衡。

三、算法行政的合比例性審視——以政府應用數字接觸追蹤技術為例

數字接觸追蹤技術是世界各國政府抗擊疫情的重要技術手段,它通過收集個人信息數據進行算法運算,在得出較為準確的結論后,用于疫情防控的行政工作,契合算法行政的要義[26](p93)。數字接觸追蹤技術在疫情防控中發揮著“技術賦能”的作用,但也存在邊界擴張、權力濫用的風險。由于該技術會不可避免地限制部分群體的基本權利,因此,其應用的目的與手段之間是否合乎比例,直接決定了算法行政的正當性能否得以證成。我們立足于各國政府對數字接觸追蹤技術的實踐應用,以比例原則的三個子原則為分析框架,對案例中呈現的算法行政實踐進行合比例性審視,力圖發現問題背后的誘因,為后文的比例原則規約探尋方向。

(一)適當性審視:算法行政目的與手段是否存在不當聯結

適當性原則旨在從事實層面出發,審查行政目的與手段之間是否存在因果聯系。如果行政主體采取的手段能夠有效地實現正當的行政目的,或至少可以推動行政目的之達成,則表明目的與手段之間存在因果聯系,符合適當性原則要求。倘若行政手段與其旨在實現的法定(正當)目的無實質性關聯,或服務于其他特定目的,則與適當性原則相悖。不難發現,適當性原則主要從“目的取向”上對行政權力予以規范,防止權力主體采取的行政手段偏離法定目的[27](p76)。

健康碼是我國數字接觸追蹤技術應用的典型范例,其法定目的在于阻遏疫情蔓延、保障公眾生命健康。通過將健康碼嵌入政府既有的社會“流動”治理體系,可以實現對社會個體健康狀態的即時認證。據此,政府不僅能對高風險人員進行有效管控,還可以促進社會多元主體的互動聯結,從而維持疫情防控與復工復產的平衡[28](p116)。實踐經驗表明,健康碼在中國的疫情防控中發揮了重要作用[29](p2)。因此,基于健康碼的算法行政手段與目的存在實質性關聯,符合適當性原則要求。

相較而言,印度政府對數字接觸追蹤技術的運用難以通過適當性審查。疫情暴發之后,印度國家信息中心推出了一款基于藍牙定位技術的應用程序(Aarogya Setu),致力于追蹤病毒感染和傳播鏈條。該程序的隱私條款對其應用目的進行了明確規定,即“使用收集到的接觸數據以識別可能感染新冠病毒的人,并采取適當措施抗擊疫情”[30](p617)。然而,在具體實踐中,該應用程序收集的公民個人數據信息被傳輸至印度各地方政府打造的新冠“作戰室”(COVID “war rooms”),“作戰室”中的工作人員運用先進智能技術對這些數據進行映射比對和可視化分析,進而實現對公民的遠程追蹤監控,生動再現了福柯意義上的“全景監獄”[31](p751)。同時,Aarogya Setu還嵌入了印度已有的政府治理體系,被廣泛運用于福利供給、行政執法以及公民出行管控等常規社會治理領域。例如,民眾在登機前必須出示Aarogya Setu,在確認無感染風險的情況下方能通關。但該應用程序卻對住在同一屋檐下的人的評估生成了不同的風險等級,嚴重阻礙了健康公民的正常出行[32](p384)。不難發現,印度政府基于Aarogya Setu的算法行政已經產生了功能蠕變(function creep),即將應用程序收集的信息用于實現與原始目的不同的其他目的[33](p1),目的與手段構成了不當聯結。

算法行政目的與手段的不當聯結是算法決策的明確性、基層治理主體的簡約化治理動機與技術崇拜觀念綜合作用的結果。一方面,從技術的角度來看,算法是“為了解決一個特定問題或者實現某一明確結果而采取的一系列步驟”[34](p3),它由“如果……那么”(“IF……THEN”)的規則結構構成。只要條件(IF)得以確立,并有足量的數據輸入,就能通過算法運算邏輯計算得出明確的結果(THEN),并對人類行為產生直接影響[35](p5-6)。另一方面,從基層治理的角度來看,治理主體具有簡約治理動機,即以低成本、最簡單、在短期內效果最明顯的方式對地方事務進行治理的動機[36](p64)。假設算法行政的智能技術開發與數據庫構建皆已完成,則其被運用于其他治理領域或實現其他治理目標的邊際成本相對較低,加之算法決策結果具有簡單明確的特點,使得算法行政能夠有效滿足基層治理的簡約化治理動機。一旦算法行政的治理效能得以不斷顯現,則基層治理主體易于對智能算法技術產生盲目崇拜,他們認為智能技術是萬能的,適用于解決所有社會公共問題,以至于忽視算法行政的適用邊界,進而無限度地擴張其應用范圍,為算法行政目的與手段的不當聯結提供可能。

(二)必要性審視:算法行政對公民造成的損害是否最小

“必要性原則要求在所有相同有效實現目標的手段中必須選取最溫和、對權利損害最小的手段。”[37](p118)“警察不以大炮打麻雀”“殺雞焉用牛刀”等法諺是必要性原則的生動詮釋。一般而言,為實現某一行政目標,可供行政主體選擇的治理手段往往是多樣的。不同的治理手段會對公民產生不同程度的影響。根據必要性原則,在所有可能的治理手段中,政府必須采取對公民權利損害最小的手段。換言之,倘若政府所采取的治理手段可以被其他手段替代,且對公民造成的權利損害更小,則政府行為無法通過必要性審查。

對于疫情防控而言,我國政府對健康碼的應用是必要的。與群體免疫[38](p40)、“封城”和傳統的人工流調方式相比,數字接觸追蹤技術對公民造成的損害相對較小。然而,在數字接觸追蹤技術的實踐應用中,仍存在一些與必要性原則相違背的算法行政行為,對公民造成了非最小損害。我國一些地方政府在運用健康碼的過程中,對公民的敏感信息進行了過度收集,對防疫目的之達成無實質影響。同時,地方政府對公民個人信息的處理不當也時有發生,如B市健康寶明星個人信息泄露事件,由于政府對公民隱私信息監管不力,不法分子借機鉆健康寶的“他人代查”規則漏洞,非法獲取明星的身份證號、照片和聯系方式等私密信息,并在網絡上明碼標價打包出售,嚴重損害了明星的個人信息權益。此外,健康碼應用中的“層層加碼”政策也為公民帶來非必要負擔[39]。對于那些從外省返鄉的務工人員來說,經歷這樣一系列“層層核驗”步驟,其所消耗的時間、金錢和精力成本是巨大且非必要的,甚至還出現了回家后被“封”在家里嚴禁外出的情況。不僅如此,“層層加碼”還會導致個人信息重復收集和多層級處理,引發不必要的個人信息安全風險[40](p119)。

算法行政為何會對公民造成非最小損害,甚至侵犯公民的基本權利?原因有二:一是算法技術的復雜性和“黑箱”特性使得算法行政權力產生擴張,進一步縮限了公民的個人權利。算法“黑箱”的存在使得普通百姓難以理解算法行政的運行規則和目標追求[41](p15),這容易導致算法行政主體以“公共利益”之名,行“侵犯權利”之實。由于不了解算法行政復雜的運作機理,當面對算法行政主體提出的信息收集要求時,公民個體既難以判斷這些信息是否必要,也無法對此做出相應的反抗和拒絕,因為這關系到其能否正常使用應用程序,進而享受社會公共服務。在強大的“算法利維坦”面前,人們逐漸成為算法的附庸,算法權力凌駕于公民權利之上[42](p96)。二是行政權力主體的唯政績論觀念使然。算法行政難以改變行政人員積弊已久的唯政績論觀念。在此觀念的影響下,行政人員將行政目標的實現視為首要任務,人為提高算法行政對公民的義務要求,相對忽視這種行為的社會成本及其對公民所造成的非必要負擔。一旦權力主體為了達成政績目標而置公民的利益需求于不顧,算法行政對公民造成非最小損害自然也就難以避免了。

(三)均衡性審視:公共利益與個體損益是否合乎比例

均衡性原則又稱狹義比例原則,主要考察行政手段與目的是否相稱,比例是否均衡。作為一個較為抽象的公法概念,均衡性原則并未提供確切的比較權衡法則,它以“愈……,則愈……”的比較性命題為核心[43](p126),總體考量某個政府行為所增進的公共利益與公民的個體損益之間的比例關系。從應然層面來看,行政手段對公民權利的侵害程度愈大,則其實現的公共利益應當愈大,否則無法通過均衡性審查。在運用比例原則分析個案的過程中,雖然無法精確地賦予目的與手段合理的權重,但通過邊際效應(marginal effects)比較或與其他假想的合乎比例的備選方案(hypothetical proportional alternative)進行比較,就能較為可靠地確定手段對個體造成的損益是否過度或不合乎比例[44](350-357)。

在新冠疫情暴發初期,韓國政府對數字接觸追蹤技術的應用符合均衡性原則。在利益天平的公共利益一端,運用數字接觸追蹤技術最明顯的益處在于遏制病毒傳播,避免“封城”帶來的社會經濟損失以及實現對公民生命健康的保護;個體損益一端包括公民隱私侵犯、權力濫用/功能蠕變,以及以刻板印象(stereotype)、污名化(stigmatisation)和歧視為具體表現形式的社會分選(social sorting)[45](p390-393)。將利益天平的兩端進行權衡比較,會發現公共利益的重要性與個體損益的嚴重程度合乎比例。原因在于,雖然公民的隱私權和人格尊嚴權等基本權利可能被算法行政主體所侵犯,但通過運用數字接觸追蹤技術,韓國得以避免遭受“預估50萬人口因感染新冠病毒而死亡”的沉重損失,以及規避三個月“封城”帶來的巨大社會經濟代價[45](p400)。在緊急狀態下,各國為了實現至關重要的社會整體利益,可以在一定程度上限制本國公民的基本權利,這符合均衡性原則要求。

但是,在數字接觸追蹤技術的常態化應用中,也存在算法行政目的與手段比例性失衡的實踐樣態,如我國Z市發生的“紅碼事件”①。為提高公共利益與個體損益比較的操作性,我們試圖采用阿哈龍·巴拉克(Aharon Barak)提出的邊際效應比較方法,對兩者的比例關系進行闡述②。所謂邊際效應比較,指的是對目的與憲法權利在法律頒布前后的狀態變化的比較,即重點考察與法律頒布前的狀態相比,法律頒布后目的(公共利益)的實現(增大)程度與手段對公民憲法權利(個體權益)的減損程度是否合乎比例[44](p351)。在“紅碼事件”中,一方面,從目的來看,與賦碼前的社會現狀相比,在對儲戶賦予紅碼后,算法行政實現的公共利益(如社會秩序穩定)并沒有增大多少。并且,倘若將該手段所引發的一系列社會負效應考慮在內,如加大疫情防控社會成本、降低健康碼作為疫情防控工具的嚴肅性、損害政府公信力以及破壞營商環境,則會對算法行政實現的公共利益形成抵消效應,降低公共利益的重要性。另一方面,從手段來看,儲戶被賦予紅碼后,與賦碼前的生活狀況相比,其個體損益涉及憲法規定的基本權利,表現為公民人身自由權受限、財產權的自由行使無法得到保證。因此,政府采取的“隨意賦碼”手段對公民造成了實質性的個體損益,是“嚴重侵害公民人格權和關聯的財產權益的行為”[46]。將算法行政目的所實現的公共利益與算法行政手段所造成的個體損益進行一番邊際效應比較,不難發現,兩者存在明顯的比例失衡——個體損益程度遠大于公共利益增進程度。

技術應用場域轉換與行政主體的法治意識闕如等因素的交織疊加,共同導致算法行政目的與手段的比例失衡。不同治理場域下,同一算法技術所能實現的公共利益的重要性存在很大差別。在重大自然災害和突發傳染病等緊急狀態中,公民人身安全、公眾健康和社會秩序是首要的公共利益,所占權重最大。因此,為了實現這些公共利益,在別無選擇的情況下,算法行政可以在一定程度上克減公民的基本權利。由于公共利益特別重要,因而其與算法行政手段造成的個體損益能夠實現比例均衡。然而,當算法行政的應用場域發生轉換,如由緊急狀態進入社會常態,則算法行政旨在實現的公共利益及其權重也會發生變化,一般而言不如緊急狀態下的公共利益那般重要。此時,如果公民權利減損依然不可避免,則會導致公共利益與個體損益的比例失衡。此外,行政權力主體的法治意識淡薄,未能意識到憲法規定的公民基本權利是任何算法行政手段都不能逾越的底線,即便是在緊急狀態下,對公民基本權利的克減也應當建立在法治基礎上,不得超出法律規定的范圍,肆意侵犯公民最基本的憲法權利[47](p39)。故而,公民權利保護在算法行政主體的價值排序中退居次要位置,表現為行政人員相對忽視技術手段對公民造成的個體損益,由此引發算法行政目的與手段的比例失衡。

四、比例原則規約算法行政的路徑

以比例原則的三個子原則為邏輯起點,可以從適當性、必要性和均衡性這三個維度對算法行政進行規約,以馴服算法權力。

(一)適當性規約:明確算法行政的目的及其邊界

加強事前論證,明確算法行政目的與手段之間的因果關系。比例原則不僅僅是一種工具性的法律分析方法,它本質上是對證成的要求(requirement of justification),即政府主體應當為他們的所有行為提供實質性的正當理由,這種正當理由涵蓋理性(reasonableness)與合理性(rationality)兩方面的考量[48](p466-467)。根據羅爾斯的觀點,“理性”意指人的正義感,即愿意遵守公平合作條款的原則和標準,具有很強的道德意蘊;而“合理性”指的是人的善觀念的能力,涉及工具理性層面的目的與手段關系[49](p44-46)。沿著這一邏輯進路,一方面,應在算法行政開展之前,對算法行政目的的合法性與正當性展開論證,考察其是否符合法律規定且合乎倫理道德規范。尤其要警惕行政主體在簡約治理動機的驅動下,借助智能高效的算法技術實現某一特定目的,如完成政績目標。此類目的雖然并不違反法律規定,但卻與“以人民為中心”的價值理念相違背。并且,在哈耶克看來,倘若政府行為是為了實現某一特定目的,則整個社會易于淪為不自由的社會,嚴重限制人們的自由[50](p41)。另一方面,政府主體應仔細考察算法行政手段是否有助于行政目的之達成。行政手段適當與否不能以實施結果來判斷[43](p123)。因此,行政人員應充分做好事前論證,依事物本質對擬采取的技術手段進行理性分析,若認為其能夠推動行政目的的實現,則符合適當性原則;若分析結論表明技術手段與行政目的無實質性聯系,則應果斷放棄采取算法行政的方式,避免陷入數據至上、技術萬能的窠臼。

明確算法行政的適用范圍,厘定算法權力的邊界。任何權力都具有天然擴張的傾向,算法權力概莫能外。為遏制算法權力的無限擴張,使算法行政的手段與目的關系符合適當性要求,應從具體的應用場景入手,對算法權力的運行邊界予以框定。具體而言,算法行政主要適用于復雜性和不確定性程度低、偏差小、可分析性高的行政任務,如以政務服務“秒批秒辦”為代表的行政許可、行政給付等應用場景[51](p60);當政府面臨復雜性和不確定性程度高、偏差大、可分析性低的行政任務時[52](p7),如應對社會結構因素復雜且存在價值利益沖突的棘手問題(wicked problems),則應當由人類主導,算法行政權力不宜介入。在后一種應用場景中,行政主體若一意孤行地開展算法行政,則可能導致其不僅無助于實現預期目標,甚至還會產生適得其反的效果,進一步加劇問題的復雜性和利益相關者的價值觀沖突。如我國S市推出的“文明碼”治理①,不僅引發了“什么是文明”以及“誰有權界定文明”等問題的爭議,且從內容來看,雖然創制者聲稱其目的是推動社會文明進步,但其內容設置及在實踐中的運作,更多地體現為對公民行為的管理和控制,本應被作為目的對待的人類淪為了被管理和控制的手段[36](p63)。為避免類似情況的發生,應通過硬性制度約束,對算法行政權力的運行邊界進行限定,使其在合適的應用范圍內,以適當的手段和方式助力行政目的之達成。

(二)必要性規約:堅持算法行政的最小必要原則

規范權力行使,限定算法行政的數據來源及其處理方式。算法行政為公民建立個人行為模型或畫像,必須以自身無意義的個體數據為“食”(feed on infra-individual data)[1](pX)。要想抵御算法權力對社會公共生活的過分滲透,防止其對公民造成不必要的損害,應從數據來源及其處理層面對算法行政的邊界予以厘定。在這一方面,歐盟《通用數據保護條例》(GDPR)第5條第1款明確規定了“數據最小化原則”,要求個人數據應適當、相關,并以實現數據處理目的之必要為限度。我國《個人信息保護法》第6條同樣明確指出,“收集個人信息,應當限于實現處理目的的最小范圍,不得過度收集個人信息”,處理個人信息應“采取對個人權益影響最小的方式”。因此,當算法行政“基于公共利益目的必須限制個人信息權益時,應以損害最小、程度最輕、次數最少的方式進行,盡量縮小采集個人信息的主體范圍和內容范圍,盡量降低信息泄露風險”[53](p26)。一方面,限定算法行政中的行政主體可收集的個人信息范圍,嚴禁其收集與實現行政目的無直接關聯的信息,從而降低公民信息權益損害的風險;另一方面,在算法行政過程中,行政主體對公民個人信息的處理應盡量采取“去標識化”或“匿名化”等損害最小的處理方式,對個人敏感信息的存儲和傳輸應采取加密措施,以保護公民的隱私安全。

以權利制約權力,強化公民的個人信息刪除權利,完善被遺忘權相關立法。數字革命為人們帶來了刪除權和被遺忘權等新型權利,可作為制衡算法行政權力的有效手段。刪除權是指當數據處理系非法或原初目的已實現或無法實現時,數據主體有權要求數據控制者及時刪除其個人信息[54](p98)。與之相應的被遺忘權,指的是當個人信息隨著時間流逝變得不準確、不充分、不相關或者超越信息處理目的時,個人要求信息處理者對此予以刪除的權利[55](p19)。美國和歐盟對這兩種權利皆有明文法律規定。我國《個人信息法》第47條對刪除權的適用情形作了規定,但尚未對被遺忘權進行明確界定。刪除權和被遺忘權屬于公民主動控制其個人信息的權利,能夠對算法權力產生一定的制衡作用,直面國家權力運行的限度問題[56](p235)。基于這兩種權利,公民可以要求算法行政主體在實現預期行政目的之后,對其個人相關信息進行刪除,或剔除令人難堪且具有一定誤導性的負面個人信息,以防止這些信息被挪作他用,避免后續對公民的信息權益和人格尊嚴造成非必要的次生損害。因此,應進一步厘清信息刪除權利行使過程中各相對人的權利義務關系,就時間跨度、技術流程和執行方式等具體問題作相應的制度安排,為刪除權的落地實施提供制度保障,并盡快完善相關立法,對遺忘權的法律地位及其實踐運用細節予以明確規定。

(三)均衡性規約:實現算法行政目的與手段均衡

算法行政本質上是一種行政行為,其治理“回路”(governance loop)由四個階段構成:信息收集、信息處理、信息利用以及從行為結果反饋中學習[57](p3)。這四個階段基本涵蓋行政權力“產生—運行—結束”全生命周期的關鍵環節[58](p69),每一環節都會對算法行政目的與手段的均衡關系產生實質性影響。鑒于此,我們認為,可以從事前、事中和事后三個階段入手,建立健全損益評估機制、人為阻斷機制和救濟補償機制,以全面提升算法行政的全生命周期均衡性規約質效,最終實現算法行政目的與手段的均衡。

建立算法行政的事前損益評估機制。一方面,行政主體要結合算法技術專家的意見,對算法行政手段可能產生的公民權益減損進行評估,考察目的實現的重要程度與公民不可避免的權益減損程度是否相稱。尤其是當算法行政的應用場景發生轉換時,如從給付行政(自動化政務服務)到干預行政(預測性警務),應重新評估公共利益內容與公民個體損益,分析兩者之間的比例關系是否均衡。另一方面,行政主體要讓公眾參與算法影響評估過程,為公眾提供與其權益相關的算法行為準則[59](p29),充分了解他們的意見和擔憂,站在利益相關者的立場,對目的與手段的比例關系展開評估,將損益評估結果作為算法行政實施與否的判斷依據。

構建“人在回路上”的事中阻斷機制。“人在回路上”(Human-on-the-Loop)指的是機器人在人類的監督下選擇目標對象并采取行動,與此同時,人類保留對機器人自主行動的否決權[60](p7)。算法行政中的“人在回路上”是政府公共性的集中體現,要求行政主體加強對算法技術作用于公共生活的監管,一旦發現其對公民造成的個體損益超出了適當的比例范圍,如涉及公民基本權利的侵害,則應及時觸發阻斷機制,人為終止算法程序的運行,從而最大限度地降低公民權益損害。在此過程中,作為干預和阻斷算法運行的主體,行政人員應摒棄技術至上和唯政績論的價值理念,堅持“以人民為中心”的行政價值觀[61](p34-36),將人民的基本利益之保障視為算法行政的核心任務。

健全算法行政的事后救濟補償機制。算法行政的損益評估和阻斷機制固然能夠有效降低公民權益損害的可能性,但由于算法技術的“黑箱”特性及其具備的深度學習能力,行政主體無法完全準確預測潛在的風險且難以及時阻斷算法行政運行。因此,一旦公民個體損益與公共利益失衡成為事實,則只能通過事后救濟補償的方式對這種失衡關系進行調試。為此,應明確救濟補償標準,建立與公民權益損害內容相對應的補償清單,將物質、精神和榮譽等多種補償方式囊括在內,并從制度上對公民個人權利救濟的具體情形、方式、程度等進行明確規定[62](p71),使算法行政的目的與手段盡可能實現均衡。

五、結語

算法行政是公共行政適應智能時代發展要求的一種新范式。隨著智能算法賦能政府治理的技術優勢不斷顯現,行政主體開始嘗試在更多的治理領域開展算法行政。結果是,算法行政的邊界變得日漸模糊,其權力運行呈現出積極擴張之勢。我們以政府對數字接觸追蹤技術的應用為分析對象,發現算法行政行為存在違背比例原則的實踐樣態,表現為目的與手段的不當聯結、對公民造成非最小損害以及公共利益與個體損益的比例性失衡,個中原因則從算法技術的客觀特性和行政人員的主觀意識這兩個方面加以分析。為此,以比例原則的三個子原則為分析框架,可以從適當性、必要性和均衡性三個維度對算法行政進行規約,即明確算法行政的目的及其適用邊界,在此基礎上,堅持最小必要原則,實現目的與手段的均衡,以此推動算法行政走向善治。

參考文獻:

[1]Rouvroy A,Berns T.Algorithmic Governmentality and Prospects of Emancipation[J].Réseaux, 2013 (1).

[2]Rodrigues N. Algorithmic Governmentality, Smart Cities and Spatial Justice [EB/OL].(2016-07-08)[2022-07-05].https://www.researchgate.net/publication/305044003_Algorithmic_Governmentality_Smart_Cities _and_Spatial_Justice.

[3]Grimmelikhuijsen S, Meijer A. Legitimacy of Algorithmic Decision-making: Six Threats and the Need for a Calibrated Institutional Response[J]. Perspectives on Public Management and Governance, 2022(3).

[4]王張華,顏佳華.人工智能時代算法行政的公共性審視——基于“人機關系”的視野[J].探索,2021(4).

[5]張建文,時誠.個人信息的新型侵權形態及其救濟[J].法學雜志,2021 (4).

[6][美]弗吉尼亞·尤班克斯.自動不平等:高科技如何鎖定、管制和懲罰窮人[M].李明倩,譯.北京:商務印書館,2021.

[7][奧]曼弗雷德·諾瓦克.民權公約評注:聯合國《公民權利和政治權利國際公約》(上)[M].畢小青,孫世彥,等譯.北京:生活·讀書·新知三聯書店,2003.

[8]張文顯. 數字人權引領第四代人權[EB/OL].(2020-03-18)[2022-08-05].https://law.xtu.edu.cn/info/1123/6883.htm.

[9]Robertson K, Khoo C, Song Y.To Surveil and Predict: A Human Rights Analysis of Algorithmic Policing in Canada[R].Citizen Lab and International Human Rights Program, 2020.

[10]Widlak A,Eck M V,Peeters R.Towards Principles of Good Digital Administration: Fairness, Accountability and Proportionality in Automated Decision-making[M]//Schuilenburg M,Peeters R.The Algorithmic Society: Technology, Power, and Knowledge. New York: Routledge, 2021.

[11]馬長山.數智治理的法治悖論[J].東方法學,2022(4).

[12]Ranchordas S.Empathy in the Digital Administrative State[J]. Duke Law Journal, 2022(13).

[13]王貴.算法行政的興起、挑戰及法治化調適[J].電子政務,2021(7).

[14]王懷勇,鄧若翰.算法行政:現實挑戰與法律應對[J].行政法學研究,2022(4).

[15]張恩典.人工智能算法決策對行政法治的挑戰及制度因應[J].行政法學研究,2020(4).

[16]任蓉.算法嵌入政府治理的風險及其防控[J].電子政務,2021(7).

[17]張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4).

[18]許玉鎮.比例原則的法理研究[M].北京:中國社會科學出版社,2009.

[19]劉權.適當性原則的適用困境與出路[J].政治與法律,2016(7).

[20][美]馬克·波斯特.信息方式——后結構主義與社會語境[M].范靜嘩,譯.北京:商務印書館,2014.

[21]黃靜茹,莫少群.算法監控的邏輯理路、倫理風險及治理路徑[J].南京社會科學,2022(6).

[22][美]E.博登海默.法理學——法哲學及其方法[M].鄧正來,姬敬武,譯.北京:華夏出版社,1987.

[23]Pound R.A Survey of Social Interests[J].Harvard Law Review, 1943, 57(1).

[24]吳冠軍.健康碼、數字人與余數生命——技術政治學與生命政治學的反思[J].探索與爭鳴,2020(9).

[25]張恩典.數字接觸追蹤技術的實踐類型、社會風險及法律規制[J].法學論壇,2022(3).

[26]陳禹衡,陳洪兵.反思與完善:算法行政背景下健康碼的適用風險探析[J].電子政務,2020(8).

[27]黃學賢.行政法中的比例原則研究[J].法律科學,2001(1).

[28]張權,黃璜.技術賦能與復雜性化約——基于“健康碼”的分析[J].政治學研究,2022(2).

[29]Shi L, Shi C, et al. Accelerating the Development of Smart City Initiatives amidst the COVID-19 Pandemic: The Case of Health Code in China[J].Journal of Asian Public Policy, 2022(2).

[30]Matthan R. The Privacy Implications of Using Data Technologies in a Pandemic[J]. Journal of the Indian Institute of Science, 2020(4).

[31]Mukherjee F.Technological Interventions during the COVID-19 Pandemic in India[M]//Silva C N. Local Government and the COVID-19 Pandemic: A Global Perspective. Switzerland: Springer Cham, 2022.

[32]Datta A, Aditi A, et al. Apps, Maps and War Rooms: On the Modes of Existence of “COVtech” in India[J]. Urban Geography, 2021(3).

[33]Madianou M. A Second-order Disaster?Digital Technologies during the COVID-19 Pandemic[J].Social Media+ Society, 2020(3).

[34]Diakopoulos N. Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J]. Digital Journalism, 2015(3).

[35]Neyland D, M?llers N.Algorithmic IF…… THEN Rules and the Conditions and Consequences of Power[J].Information,Communication amp; Society,2016(1).

[36]郭春鎮.對“數據治理”的治理——從“文明碼”治理現象談起[J].法律科學(西北政法大學學報),2021(1).

[37]蔣紅珍.比例原則適用的范式轉型[J].中國社會科學,2021(4).

[38]張炯.資本積累的“抽離”機制[J].現代哲學,2021(3).

[39]馬知遙.那些層層加碼的防疫政策,該洗刷洗刷了[N]. 新華每日電訊,2021-02-01(05).

[40]寧園.健康碼運用中的個人信息保護規制[J].法學評論,2020 (6).

[41]譚九生,范曉韻.“算法權力”的異議與證成[J].北京行政學院學報,2021(6).

[42]張愛軍.“算法利維坦”的風險及其規制[J].探索與爭鳴,2021(1).

[43]城仲模.行政法之一般法律原則(一)[M].臺北:三民書局,1999.

[44]Barak A.Proportionality:Constitutional Rights and their Limitations[M].Cambridge: Cambridge University Press, 2012.

[45]Ryan M.In Defence of Digital Contact-tracing: Human Rights, South Korea and Covid-19[J]. International Journal of Pervasive Computing and Communications, 2020(4).

[46]方正梁. 防疫健康碼豈能被濫用?[N].人民郵電,2022-06-24(01).

[47]劉琳璘.緊急狀態的憲法檢視與實施[J].河南財經政法大學學報,2021(3).

[48]Cohen-Eliya M, Porat I.Proportionality and the Culture of Justification[J]. The American Journal of Comparative Law, 2011(2).

[49][美]約翰·羅爾斯.政治自由主義(增訂版)[M].萬俊人,譯.南京:譯林出版社,2011.

[50][英]弗里德利希·馮·哈耶克.法律、立法與自由[M].鄧正來,張守東,等譯.北京:中國大百科全書出版社,2000.

[51]劉星.行政裁量中的技術控制——基于政務服務應用場景的實踐觀察[J].公共行政評論,2022 (1).

[52]Bullock J B.Artificial Intelligence, Discretion, and Bureaucracy[J].The American Review of Public Administration, 2019(7).

[53]高志宏.個人信息保護的公共利益考量——以應對突發公共衛生事件為視角[J].東方法學,2022(3).

[54]葉名怡.個人信息的侵權法保護[J].法學研究,2018 (4).

[55]陸青.數字時代的身份構建及其法律保障:以個人信息保護為中心的思考[J].法學研究,2021(5).

[56]杜承銘.數字社會個人信息被遺忘權的憲法權利屬性、邊界與國家義務[J].廣東社會科學,2022(1).

[57]Danaher J,Hogan M J, et al.Algorithmic Governance: Developing a Research Agenda through the Power of Collective Intelligence[J].Big Data amp; Society, 2017(2).

[58]周佑勇.中國行政基本法典的精神氣質[J].政法論壇,2022(3).

[59]雷剛,喻少如.算法正當程序:算法決策程序對正當程序的沖擊與回應[J].電子政務,2021(12).

[60]Citron D K, Pasquale F. The Scored Society: Due Process for Automated Predictions[J].Washington Law Review, 2014(1).

[61]楊建武.歷史賡續、實踐驅動與本質創新:“以人民為中心”行政價值觀的生成理路[J].理論月刊,2022(6).

[62]曾雄,梁正,張輝.歐美算法治理實踐的新發展與我國算法綜合治理框架的構建[J].電子政務,2022(7).

責任編輯" "楊" "幸

主站蜘蛛池模板: 欧美人在线一区二区三区| 中文字幕亚洲第一| 国禁国产you女视频网站| 中文字幕欧美成人免费| 色老头综合网| 全部免费特黄特色大片视频| 日韩美一区二区| 在线亚洲小视频| 亚洲va视频| 免费不卡在线观看av| 91在线中文| 免费aa毛片| 天天躁夜夜躁狠狠躁图片| 国产精品亚欧美一区二区三区 | 片在线无码观看| 亚洲美女AV免费一区| 91小视频在线观看| 久久综合伊人77777| 亚洲成人一区二区| 欧美日韩精品一区二区在线线| a色毛片免费视频| 四虎国产精品永久一区| 欧美日韩精品一区二区视频| 免费看美女毛片| 中文国产成人久久精品小说| 精品国产成人三级在线观看| 亚洲av无码片一区二区三区| 欧美一级片在线| 国产成人无码AV在线播放动漫| 国产本道久久一区二区三区| 波多野结衣一区二区三区四区视频| www.狠狠| 久久这里只精品热免费99| 国内老司机精品视频在线播出| 亚洲无线一二三四区男男| 欧美亚洲激情| 91无码视频在线观看| 色欲综合久久中文字幕网| 国产精品hd在线播放| 日韩中文精品亚洲第三区| 综合天天色| 欧美日韩国产综合视频在线观看 | 国产真实乱人视频| 欧美区在线播放| 天堂成人av| 国产尤物jk自慰制服喷水| 成人福利一区二区视频在线| 亚洲女同一区二区| 中国毛片网| 一级做a爰片久久毛片毛片| 国产理论一区| 特级aaaaaaaaa毛片免费视频 | 精品少妇三级亚洲| 99精品欧美一区| 99这里只有精品在线| 国产jizzjizz视频| 一级毛片a女人刺激视频免费| 在线视频亚洲色图| 天天做天天爱天天爽综合区| 日韩午夜福利在线观看| 久久6免费视频| 91青青视频| 老汉色老汉首页a亚洲| 九九热视频精品在线| 国产在线啪| 伊人91视频| 国产精品亚洲五月天高清| 中文字幕亚洲电影| 久视频免费精品6| 国产成人久视频免费| 美女扒开下面流白浆在线试听 | 成人在线观看一区| 国内精品久久久久鸭| 欧美精品1区| 亚洲性日韩精品一区二区| 成人午夜网址| 亚洲欧洲日本在线| 亚洲高清无码久久久| 高清无码一本到东京热| 日韩在线成年视频人网站观看| 亚洲国产精品不卡在线| 91久久偷偷做嫩草影院|