999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法行政的程序保障困境及完善

2023-03-12 17:08:53劉嘉誠
湖南警察學院學報 2023年5期

劉嘉誠

(湖南師范大學,湖南 長沙 410081)

引言

隨著人臉識別、自動駕駛、機器學習等算法技術與應用逐漸進入人們的視野,無論接受與否,人類社會都已步入算法時代。從技術上看,算法是對人腦的一種模擬,通過對已有信息的數字化處理形成數據模型及范式,從而更好地對往后的信息進行分析、加工及修正①參見王靜、王軒等:《算法:人工智能在想什么》,國家行政管理出版社2021 年版,第8 頁。。基于算法技術帶來的高效及便利,其以技術理性的形式嵌入公共行政的過程當中,并形成了“自動收集、自動分析、自動決策”的算法行政體系②參見翟月熒:《算法行政的興起、風險及其防控》,載《新視野》2022 年第3 期,第81-85 頁。。算法給行政活動帶來了不少便利,其強大的數據收集及分析能力能顯著性地提高行政效率,減少行政負擔。與傳統(tǒng)行政活動相比,算法行政可憑借自身計算能力的優(yōu)勢將碎片化的公共資源進行重組,進而提高治理效能。然而,科技是把雙刃劍,算法行政對行政法治帶來的挑戰(zhàn)也不容忽視。數據泄露、算法“黑箱”及算法歧視等問題無不給行政活動帶來負面影響。這是因為“算法在行政規(guī)制中的實質性運用,并不能必然表明其在理論和規(guī)范層面的合法性”③王貴:《算法行政的興起、挑戰(zhàn)及法治化調適》,載《電子政務》2021 年第7 期,第2-14 頁。。值得注意的是,算法行政的背景下,傳統(tǒng)行政程序已然受到嚴重沖擊。算法的不透明性與專業(yè)性、算法歧視及算法的封閉性都對傳統(tǒng)行政程序的基本原則提出挑戰(zhàn)。如何應對算法技術給行政正當程序帶來的挑戰(zhàn),有效地保障行政相對人的程序權利是算法時代不可忽視的法治問題。

一、算法給行政活動帶來的變化

隨著算法對行政活動的不斷深入,政府公共行政逐漸走向數字時代。部分傳統(tǒng)行政方式被算法自動化或半自動化行政所替代,行政效率得到明顯增強。從當前的數字政府建設實踐來看,算法技術對行政活動帶來多方面的改變。

(一)從固定場所辦公到虛擬化作業(yè)

算法技術的革新將傳統(tǒng)的行政活動從物理空間拓展至線上領域。以往行政活動受時空限制,工作人員“坐堂辦事”,當事人需要去指定地點才能享受政務服務。“互聯(lián)網+政務服務”帶來“最多跑一次”“一網通辦”“一網統(tǒng)管”“一網協(xié)同”等創(chuàng)新手段。《中華人民共和國行政許可法》專門規(guī)定行政機關應當建立和完善有關制度,方便申請人采取數據電文等方式提出行政許可申請。可見,行政算法化更新了以往傳統(tǒng)的書面形式。其中,較為典型的示例是電子政務服務平臺的出現(xiàn),這使得當事人在行政許可領域可網上辦理,“零跑堂”成為現(xiàn)實。以湖南為例,政務服務“新湘事成”APP 的上線實現(xiàn)46 個省直廳局1600 項行政審批事項“掌上辦”,當事人僅需上傳申請材料至APP,相關責任部門便可實現(xiàn)相應材料對接,各自審批,匯總后平臺再反饋至當事人,這極大地簡化了當事人的辦事流程,提高了行政效率。

行政活動從線下向線上的轉變得益于算法技術支持下實現(xiàn)的數字共享局面。在技術方面,算法數字技術打破政府部門之間的信息壁壘,各部門實現(xiàn)數據互通,交流共享,使政府跨部門交流協(xié)作成為可能。在行政組織層面,大數據強化了整體政府理念,推進行政組織內部優(yōu)化升級,破除了科層制系統(tǒng)運行碎片化、分散化的桎梏。目前,我國已設立國家數據局,其由國家發(fā)改委管理,承擔統(tǒng)籌數據資源整合和開發(fā)利用的功能,將進一步強化數字法治政府的功能作用。

(二)從現(xiàn)場執(zhí)法到非現(xiàn)場執(zhí)法

算法時代行政效率和執(zhí)法技術產生了新的標準,從而出現(xiàn)非現(xiàn)場執(zhí)法。電子監(jiān)控技術的發(fā)展使得行政機關在不接觸相對人的情況下,可通過電子監(jiān)控系統(tǒng)收集原始樣本,并通過算法自動轉化成相應的數值固定成電子證據,行政機關再基于此作出行政決定。早在1996 年,我國第一套“搶紅燈自動拍攝器”在北京市試驗成功,我國交通執(zhí)法領域就已開始進行監(jiān)控系統(tǒng)的運用探索,隨著信息化技術的發(fā)展,新型科技更是給非現(xiàn)場監(jiān)管執(zhí)法領域注入了新的活力。GPS、人臉識別及無人機航拍等技術的出現(xiàn),非現(xiàn)場執(zhí)法已從交通管理逐漸拓展至海事、市場監(jiān)管、生態(tài)環(huán)境保護等其他領域,相應的規(guī)范性文件也逐漸出臺。此外,2021 年修正的《中華人民共和國行政處罰法》還專門規(guī)定電子技術監(jiān)控設備執(zhí)法的相關標準。

非現(xiàn)場執(zhí)法能夠輔助或者獨立進行行政執(zhí)法活動,極大地彌補了執(zhí)法上的人力不足。從執(zhí)法自動化水平上看,完整的非現(xiàn)場執(zhí)法可以分為兩個階段:一是監(jiān)控技術設備記錄取證,二是以記錄的信息為證據進行處罰④參見楊曦:《利用自動監(jiān)控進行非現(xiàn)場執(zhí)法的進路及規(guī)范構建——基于事實認定的視角》,載《行政法學研究》2022 年第6 期,第86-96 頁。。第一階段主要由監(jiān)控技術設備發(fā)揮作用,通過算法自動化系統(tǒng)對現(xiàn)場情況進行識別,從而完成調查取證。第二階段則需要進行人機互動,行政機關依據通過技術監(jiān)控系統(tǒng)收集的數據而作出行政決定或者由算法直接作出行政決定。在交通執(zhí)法領域,自助處理平臺經過算法處理后往往直接作出行政處罰決定。但由于其算法邏輯的關聯(lián)性與法律邏輯的因果性不相契合,故而難以獲得學理上的支持。就多數非現(xiàn)場執(zhí)法而言,通常由行政機關完成分析與決定環(huán)節(jié)。故此,非現(xiàn)場執(zhí)法中電子技術監(jiān)控設備的運用僅發(fā)揮著輔助作用,行政機關及其工作人員仍然占據主導地位⑤參見李曉菲、張闖:《論非現(xiàn)場執(zhí)法中的行政相對人程序性權利保障》,載《長春理工大學學報(社會科學版)》2023 年第1 期,第47-51 頁。。隨著算法技術的不斷進步,未來行政活動中自動化程度將會不斷提高,但仍不可忽視人工在行政活動當中的作用。

(三)從人工裁量到算法決策

數字技術的飛速發(fā)展將國家工作人員從大量繁雜的行政任務中解放出來。對于過去需投入大量人力才能完成的機械性作業(yè),如今行政機關借助算法技術就能夠完成,甚至在某些領域運用算法決策完全替代人工裁量,幾乎實現(xiàn)完全意義上的算法行政。例如,美國阿肯色州衛(wèi)生部門就利用算法系統(tǒng)的自主分析來完成醫(yī)療資源的分配。有國家已經以立法的形式確定了在行政活動中運用算法決策的行為。如德國《聯(lián)邦行政程序法》在2017 年修改時規(guī)定了完全自動化行為。算法決策給行政活動帶來了許多便利,但需要注意的是,算法運作可在無人工干預下做出決策,即便是算法輔助決策,決策者往往也對算法的技術理性存在較高的依賴性。若算法的運用在權利分配的過程當中起到了決定作用,則此時的算法已成為某種意義上的權力主體⑥參見雷剛:《數字政府時代的算法行政:形成邏輯、內涵要義及實踐理路》,載《 電子政務》2023 年第8 期,第73-89 頁。。

“在技術自主的維度下,以工具性、自主性和主體性作為判斷標準,可以將算法行政劃分為算法輔助行政、半自動化算法行政和全自動化算法行政,隨之對應的‘人機關系’也是有差異的。”⑦參見前注⑥,雷剛文,第73-89 頁。算法輔助行政為一種“去人格化”的存在,其運作方式如傳送帶一般將原始材料通過算法轉碼處理后再交由人工決斷。就其運用而言,可對算法邏輯進行預設,使其抓取特定人群的特定種類信息,并進一步推導出該類特定人員的心理意愿,從而給行政決策提供有價值的參考信息⑧杜昕怡、肖澤晟:《人工智能算法輔助行政決策的法治風險及其化解路徑》,載《學習論壇》2023 年第3 期,第122-130 頁。。半自動化的算法行政則出現(xiàn)一種“人機共治”的情形。此時的算法運行不再是人工決策的替代運行,而是起到建議、提示及預測作用的專家。“隨著技術的不斷發(fā)展和迭代,我們可以預期機器學習算法將用于政府部門做出更多的定性評估、建議和指導,甚至可能是評估性行政決定。”⑨張濤:《自動化行政對行政程序的挑戰(zhàn)及其制度因應》,載《華中科技大學學報(社會科學版)》2022 年第5 期,第60-69+89 頁。全自動化算法行政即為技術理性占據主導地位的行政活動方式,此時需特別注意算法的運作邏輯,以防止“算法官僚”現(xiàn)象的出現(xiàn),從而造成算法歧視等不公正的社會問題。

二、算法行政對行政正當程序的沖擊

“權力行使高效化,權利保障卻邊緣化。”⑩周文清:《過程論視野下自動化行政行為的司法審查——以道路交通非現(xiàn)場執(zhí)法時空情境分析為視角》,載《行政法學研究》第2022 第1 期,第105-118 頁。數字技術的持續(xù)更新?lián)Q代使得算法行政廣泛應用于行政活動之中,行政方式出現(xiàn)變革式的轉變,但與此同時,算法裁量代替人工決策卻無法完全掌握復雜的人類社會的語言。發(fā)揮到極致的技術理性固然能夠羈束行政權力的任意性,但卻無法匹配傳統(tǒng)行政活動的溝通理性,隨之而來的便是算法行政與傳統(tǒng)行政程序的不兼容。

(一)算法的不透明性及專業(yè)性沖擊行政公開原則

行政公開是為成就公民對行政事務的知情權和參與權而對行政機關施加的義務。行政公開原則要求行政權力的運行邏輯、行使過程及結果向公眾公開,并能夠使公眾理解。然而,在算法行政的背景下,算法成為行政權力運行的主體,算法的運行邏輯通常不會被公開,即便是公開,由于算法的專業(yè)性,一般人幾乎不可能理解算法的運行邏輯,就更談不上像在傳統(tǒng)行政活動中一樣行使自己的程序性權利。

算法的不透明性基于其具有商業(yè)秘密的屬性,且可能涉及對個人隱私的侵犯。算法行政的關鍵技術前提是符合預期目的的算法系統(tǒng)。然而,當前僅憑行政機關自身的專業(yè)技術和能力還遠遠無法滿足所有行政領域的自動化活動。因此,目前的算法開發(fā)及部署主要還是通過公私合作的方式來實現(xiàn)的?參見王懷勇、鄧若翰:《算法行政:現(xiàn)實挑戰(zhàn)與法律應對》,載《行政法學研究》2022 年第4 期,第104-118 頁。。2022 年,在智搜公司訴光速蝸牛公司等侵犯商業(yè)秘密糾紛案中,深圳市中級人民法院將模型選擇優(yōu)化形成的核心算法認定為商業(yè)秘密予以保護。該案作為我國首例將算法認定成商業(yè)秘密予以保護的案例,進一步明確了算法的商業(yè)秘密屬性。對于企業(yè)來說,算法具有重要的商業(yè)價值,若將其運行邏輯及基本架構公開,使其暴露在競爭對手的視線之中,則極其不利。因此,作為企業(yè)方沒有理由公開其制定的算法,而陷于技術困境的行政機關即便想公開算法,又不得不考慮對合作企業(yè)方商業(yè)秘密的保護。此外,公開算法可能涉及公民知情權和隱私權之間的博弈。算法的運作需要大量的數據輸入,其模型架構中可能包含大量的公民的個人信息。也就是說,將算法公開或造成公民個人信息的集體披露,而公民的信息群又構成一種公共利益,行政機關將陷入兩種公共利益之間取舍的困境,使其不得不更加審慎地考慮。

算法的專業(yè)性導致即便算法得以公開,行政相對人的知情權仍得不到落實。算法的技術構造包括輸入端、技術程序層及輸出端。整體而言,算法運行過程涉及大量的數據信息及精密的分析方法,并且以計算機語言的形式呈現(xiàn)。因此,對于大多數人來說算法行政就是難以理解的技術“黑箱”。盡管早在2017 年《新一代人工智能發(fā)展規(guī)劃》中指出要“實現(xiàn)對人工智能算法設計等程序的全流程監(jiān)管”,但對于受數字素養(yǎng)限制而被排除在算法“黑箱”之外的普通民眾而言也僅是泛泛而談。“算法黑箱的存在使得算法漏洞、算法缺陷得以隱藏,一旦算法在數據、模型、方法等方面出現(xiàn)問題,算法應用結果將會與應用目標相悖。”?譚九生、范曉韻:《算法“黑箱”的成因、風險及其治理》,載《湖南科技大學學報(社會科學版)》2020 年第6 期,第92-99 頁。因此,在算法所營造的隱秘空間內,相對人缺乏算法的知識譜系,逐漸喪失原有的知情權所要求的心理能力,也就難以判斷行政主體是否仍在遵循普遍已知的和通常理解的行政權力行使規(guī)范?參見程關松、苗運衛(wèi):《相對人參與算法行政的困境與出路》,載《東南法學》2021 年第2 期,第43-57 頁。。

(二)算法歧視撼動行政公正原則

行政公正要求行政機關在行政權力行使的全過程中平等對待每一個相對人,不論其身份、民族、性別和宗教等。行政公正原則的邏輯起點在于行政機關在行使公權力時享有自由裁量權,但該自由裁量權要受到正義與道德倫理的限制。算法時代的到來,使得部分自由裁量權轉交由算法行使。算法行政的預設目的是提升行政效率,運用非情感導向的數字處理技術來減輕過多的行政負擔。因此,技術中立的算法被認為在行政決策中是比行政人員更為公正的存在。然而,實踐卻證明即使是沒有感情的算法,同樣也存在歧視與偏見。例如,臉書(Facebook)的廣告管理系統(tǒng)(Ads Manager)傾向性地向某種特定性別或特定種族群體投放特定的廣告。

算法歧視的產生有多重原因。一是算法設計者本身的偏見。算法的數據處理邏輯歸根結底由人輸入。因此,在算法設計者設計算法時就存在將其本身的偏見植入算法當中。帶有偏見的算法用歧視的角度處理行政過程,那么行政結果往往也難以得到保障。但又由于算法的技術隱秘性,此種算法歧視又難以發(fā)現(xiàn)。二是數據偏差。行政決策的作出需要適量的數據“喂養(yǎng)”。基于機器學習系統(tǒng),在接收大量數據之后會形成對特定事件處理的特定模式。如此一來,未被數據采樣的部分可能會被無差別地適用到既有的特定模式當中,成為被歧視的對象。當前的算法缺少嚴格的數據過濾及篩選的功能,歧視性的數據信息往往無法被提前識別或抹除,反而進一步出現(xiàn)在多種交互性場合,這將導致更加嚴重的算法歧視問題?參見朱寶麗:《數據正義、算法歧視與規(guī)制》,載《征信》2023 年第3 期,第8-12 頁。。三是算法學習產生的偏見。對于機器自主學習的算法,其深度有時設計者自身都無法預估。算法具有技術中立性,而人類社會卻充滿著傲慢與偏見。如果不對機器學習過程加以嚴格的監(jiān)控和把關,其發(fā)展到何種程度是難以預估的。據法國BFMTV 報道,ChatGPT 被人類“挑戰(zhàn)權威”時,不僅會生氣,甚至會出言侮辱用戶?參見《ChatGPT“學壞了?“虛擬朋友”發(fā)飆罵人、還性騷擾!歐盟即將立法監(jiān)管》,載網易網,https://www.163.com/dy/article/HTSQN1360514BTOD.html,2023 年6 月27 日訪問。。

任何技術都無法保證自身的絕對穩(wěn)定,算法基于其本身的技術缺陷導致其無法在所有行政決策中都做到公正對待。算法歧視必然造成個案的不公,每一個具體個案的不公通過疊加會導致群體的不公,亦會增加社會的不穩(wěn)定因素?參見崔冬、楊兆圓:《自動化行政對行政正當程序的挑戰(zhàn)與對策》,載《寶雞文理學院學報(社會科學版)》2023年第2 期,第43-49 頁。。故此,算法歧視對行政公正造成的動搖問題亟待解決。

(三)算法的封閉性動搖行政參與原則

行政參與原則是民主原則在行政法中的體現(xiàn),旨在行政相對人能在行政決策中施加影響力,對行政行為進行監(jiān)督,對于不正當的后果予以糾正。隨著民主思想深入人心及行政觀念的轉變,政府的職能與地位發(fā)生轉變,政府不再僅是管理者,而且還是服務者。行政權力的強制屬性慢慢地被合作治理理念所柔性化。而在行政權行使中貫徹合作要素的關鍵便是切實地保障行政相對人的行政參與權。行政參與的關鍵要素是政府與相對人的雙向互動。相對人“合理期待”的實現(xiàn)需通過參與行政過程, 行政決策中相對人參與權的行使是一個利益整合與協(xié)調過程, 而這個過程必然是在行政機關和相對人的良性互動中實現(xiàn)的?參見王學輝、王亞棟:《行政法治中實質性公眾參與的界定與構建》,載《法治研究》2019 年第2 期,第50-59 頁。。行政相對人在行政過程中提出陳述、進行辯論是行政機關和相對人實現(xiàn)良性互動最為重要的方式。行政相對人在行政機關作出行政決策(尤其是對自身不利的行政決策)中表達意見,形成約束行政權力濫用可能性的外在力量,從而提升行政決策的透明度、公正性和接受度?參見前注?,程關松、苗運衛(wèi)文,第43-57 頁。。

在傳統(tǒng)的行政活動當中,行政機關在作出行政決策前應當聽取行政相對人的意見,通常是行政機關的工作人員與行政相對人之間的當面交談或是書面形式進行。而基于算法決策的自動化行政方式,由于其機械計算的瞬時性,行政過程通常是輸入數據——分析數據——輸出結果的無縫銜接閉環(huán),導致相對人無法在行政決策中發(fā)表意見。此外,行政機關在傳統(tǒng)行政過程中的說明理由義務往往也會因算法不具備可解釋性而大打折扣。因此,在行政決策中,算法總是掌握著話語主導權,相對人的參與權存在被架空的風險。盡管算法加持的自動化行政方式在諸多方面給行政機關及相對人帶來便捷,但人類情感的復雜性注定使人機互動在某些方面無法替代人與人之間的互動。

三、算法行政的程序保障完善路徑

在便利與風險并存的算法時代,必須時刻關注著公民的權利在時代洪流中是否得到彰顯。算法行政對行政正當程序原則帶來的沖擊伴隨著的是行政相對人程序權利的缺失。因此,為完善算法行政的程序保障,彌補行政相對人程序權利的缺失,有必要通過增強算法行政透明程度,限制算法行政裁量空間及開放算法行政全過程以改進算法行政的程序路徑。

(一)增強算法行政透明程度落實行政公開

1.構建算法披露機制增強算法的透明度。算法披露機制是指行政機關將算法的邏輯結構以自然語言的形式進行有意義的披露,使行政相對人知曉算法在行政活動中進行決策的依據,以增強算法透明度的機制。透明化的行政活動是公民參與合作治理的前提與基礎。將算法進行有意義的披露可以達到行政公開原則的要求,使相對人的知情權得到保障。有意義的算法披露不是簡單地將代碼與數據公開,而是要達到相對人知悉的程度,因此算法披露需達到一定的技術性標準。2021 年9 月29 日,國家網信辦等九部委聯(lián)合制定的《關于加強互聯(lián)網信息服務算法綜合治理的指導意見》中強調了算法自動化決策的披露要求,要求引導算法應用公平公正,透明可釋,但文件當中大多是原則性的要求。因此,目前我國的算法披露機制仍缺乏具體可操作性的規(guī)定。對此,應盡快明確算法披露的標準化技術規(guī)定。“算法具體透明要求在算法‘透明可釋’原則基礎上,對算法的運行邏輯、運行結果、算法參數和影響因子等予以公開。”?靳雨露:《算法披露的域外經驗與啟示》,載《情報雜志》2022 年第7 期,第91-99 頁。對于算法行政而言,算法披露的內容至少應當包括算法的法律授權、技術規(guī)范、預期目標、適用范圍、對行政相對人及利害關系人可能造成的不利后果及算法合理性評估過程等。

2.構建算法解釋機制增強算法的可釋義性。《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第48 條規(guī)定:“個人有權要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明。”這是個人信息保護領域為了確保公民能夠理解個人信息處理規(guī)則所設定的應對措施。因為即便在規(guī)則公開的情況下(即便已轉化為自然語言),公民也有可能不能準確地把握其含義,這時就需要對規(guī)則進行解釋說明。因此,只要有專業(yè)性的算法處理存在的領域,就存在即使公開規(guī)則卻仍然無法理解的情況,而在算法行政領域,亦是如此。在傳統(tǒng)行政中,行政機關對行政相對人作出不利決定時,行政相對人通常可要求行政機關作出解釋。因此,可借鑒《個人信息保護法》第48條的規(guī)定,在算法行政中引入算法解釋機制,以確保算法公開能落到實處。算法解釋機制遵循著以權利制約權力的邏輯,是矯正信息不對稱,促進平等、正義價值實現(xiàn)的工具?參見何新新:《算法解釋權的證成與限定》,載《大連理工大學學報(社會科學版)》2023 年第3 期,第65-73 頁。。算法解釋機制主要包括解釋主體、解釋內容及解釋標準三個方面。在解釋主體方面,鑒于行政機關的算法技術支持通常來源于第三方企業(yè),因此算法解釋主體應包括行政主體及算法開發(fā)主體,如此一來,可預防算法開發(fā)主體只管開發(fā)、逃逸責任的情況。在解釋內容方面,結合前述算法披露的內容,算法開發(fā)主體應對數據的收集和使用、算法設計的基本原理、算法程序運行目的、原理以及算法標準等技術規(guī)范作出解釋,而行政機關則對算法決策的法律依據進行解釋,以求消除算法規(guī)則的歧義,增強相對人的可接受性。在解釋標準方面,歐盟《一般數據保護條例》中提出的“向數據主體提供與算法邏輯相關的有意義信息”?胡嘉妮、葛明瑜譯:歐盟《一般數據保護條例》,載《互聯(lián)網金融法律評論》2017 年第1 期,第28-120 頁。可為算法解釋機制提供借鑒。行政相對人對算法決策規(guī)則提出解釋要求時,通常是在算法行政可能侵害其合法權益的情況。基于此,“有意義的信息”至少是與行政相對人合法權益相關的。除此之外,還要保證算法解釋的可理解性與可接受性。

(二)限制算法行政裁量空間保障行政公正

1.確保算法裁量正當保障整體公正。根據算法決策系統(tǒng)的自動化程度的不同,可將其分為基于規(guī)則的專家系統(tǒng)與基于機器學習的算法系統(tǒng)?See Monika Zalnieriute, lyria Bennett Moses & George Williams, The Rule of Law and Automation of Government Decisionmaking, The modern law review, Vol.3, p.425-455(2019).。基于規(guī)則的專家系統(tǒng)將數據輸入預先設定的規(guī)則并得出結果,其基本的邏輯形式是“如果—那么”邏輯。例如樂山市城管局自助開發(fā)的“智能評判系統(tǒng)”對違法行為26 個裁量基準因素和減輕從輕處罰11 個判別因素進行識別、統(tǒng)計、疊加,最終得出違法程度和處罰階次?參見《首創(chuàng)!市城管局建設行政處罰裁量智能評判系統(tǒng)上線!》,載樂山市人民政府網,https://www.leshan.gov.cn/lsswszf/bmdtthr/202304/23238315c0774f14b1f4e098a7fbf64e.shtml,2023 年6 月27 日訪問。。為排除基于規(guī)則的專家系統(tǒng)的算法歧視,保障行政公正,應當對預設規(guī)則——即行政裁量基準進行規(guī)制。首先,要評估裁量基準的合理性,審查其規(guī)范邏輯是否存在偏見的前提。其次,要盡可能地將裁量基準細化,以追求結果一致性,保證同案同判。基于機器學習的算法系統(tǒng)并不是人工預先輸入的固定程序及范式,而是對海量數據的發(fā)掘再據此作出決斷。基于機器學習的算法系統(tǒng)“不僅可以完成效果裁量,尚可以不斷完善、充實裁量規(guī)則,尋求最優(yōu)的裁量結果”?王正鑫:《機器何以裁量:行政處罰裁量自動化及其風險控制》,載《行政法學研究》2022 年第2 期,第166-176 頁。。能夠不斷自我更新完善是基于機器學習的算法系統(tǒng)的優(yōu)勢所在,但同時也會因決策能力的發(fā)展而導致決策結果沖出正當邊界。對此,應當引入對基于機器學習的算法系統(tǒng)的專家審查機制,深入持續(xù)跟蹤算法系統(tǒng),及時發(fā)現(xiàn)其缺陷并進行修正。

2.健全人工干預機制保障個案公正。行使行政裁量權時,需在事實與規(guī)范之間不斷地審視,結合個人的特殊情況進行衡平,而算法決策實難做到這點。無論是基于規(guī)則的專家系統(tǒng)還是基于機器學習的算法系統(tǒng),因其關注點是既定的規(guī)則或過去的數據,故審視“未來的”案件時很可能帶入先驗的偏見導致無法保障個案公正。換言之,在算法自動化裁量過程中,算法無法在無數個差異的個案當中靈活變通,也難以總結出新的經驗保障下一個個案的公正解決。因此,“需要建立系統(tǒng)裁量偏差的預警識別機制以及特定情形下的人工介入機制”?杜昕怡、肖澤晟:《人工智能算法輔助行政決策的法治風險及其化解路徑》,載《學習論壇》2023 年第3 期,第122-130 頁。。首先,要塑造服務行政的理念。在我國算法行政運行的過程中人工干預機制之所以長期缺位,與對待算法行政的理念存有偏差不無關系?施立棟:《自動化行政中的人工干預機制:以公安領域為例》,載《中國社會科學院大學學報》2022 年第6 期,第83-99+165 頁。。若不塑造服務行政的理念,算法行政的技術理性只會侵蝕行政公開,僅僅將行政相對人當作“流水線”上的處理對象對待。其次,要開發(fā)切實可行的系統(tǒng)裁量偏差預警識別技術。例如,可建立類案偏差預警機制。當算法行政對個案作出嚴重偏離類案結果一致性的裁斷時,則可提示人工介入。最后,要賦予行政機關主動介入人工干預算法決策的權限。使算法裁量發(fā)生偏差時,行政機關工作人員享有介入、撤回及修正的權限,視具體情況進行靈活處理。

(三)開放算法行政全過程確保行政參與

公眾參與是民主政治中不可或缺的范疇。在任一行政法治政府作出重大決策之前,都將通過充分的公眾參與以保證潛在的利益相關團體的發(fā)言權,從而使其作出的行政決策更具科學性及有效性。算法行政實質上也是權力裁量的過程。基于算法技術的不斷更迭導致其將擴充至更多重要的公共行政領域,有必要在算法行政全過程中確保公眾的行政參與。

1.在算法行政啟動階段引入公眾參與。算法行政啟動的物質前提是具有能夠承載算法的自動化設備。自動化設備不同于政府機關采購的其他商品或服務,它將顛覆式地變更政府行政活動的方式,以代替人工的形式跨越內部直接影響到行政相對人的合法權益?參見關保英、汪駿良:《行政處罰中自動化方式適用的程序控制構建》,載《青海社會科學》2021 年第6 期,第150-159 頁。。除此之外,若自動化設備投入后,出現(xiàn)算法運算錯誤對行政相對人權益造成減損的情況,基于其計算過程的瞬時性,行政相對人將難以參與其中。故此,有必要在算法自動化設備采購環(huán)節(jié)中引入公眾參與機制。具體而言,可要求行政機關在設備選擇環(huán)節(jié)公開自動化設備的參數、性能特點以及可能對行政相對人權益造成的正面或負面的影響等因素,公眾可針對行政機關公開的內容進行問詢和質疑,行政機關應當對此作出答復。

2.在算法行政運行階段引入公眾參與。欲破解算法代替人工作出行政決定具有瞬時性導致行政相對人難以參與行政過程的困境,就要特別注重行政相對人對行政過程參與權的保障。第一,為避免算法自動化行政行為直接作用于行政相對人的權利義務,應確保算法決策的有效告知。有效告知的標準應包括告知內容全面、告知時限及時和告知方式合理等。首先,告知內容全面要求告知的內容不僅包括行政決定事實認定與法律依據,還應包括作出行政決定的算法邏輯。如此一來,不僅可以確保行政相對人在行政決定中的具體程序權利,還可強化其對算法決策本身的抽象性監(jiān)督。其次,告知時限及時要求算法在行政決定特別是損益性行政決定生效前要切實地通知行政相對人,允許行政相對人與算法權力主體商榷,否則行政相對人的后續(xù)參與就無法發(fā)揮實質作用。最后,告知方式合理要求采用能夠切實送達行政相對人的告知方式。行政機關應考慮不同行政相對人的數字素養(yǎng),采用電子送達形式時要預先取得同意,且采取告知之后確保行政相對人已收悉的措施。第二,要保障行政相對人陳述與申辯的權利。當前的人工智能技術盡管能夠做到與人類進行對話交流的程度,但其終究沒有人類的情感,無法考慮到個案中的衡平因素。故此,欲保障行政相對人的陳述與申辯的權利,雙向交流論證環(huán)節(jié)仍需回歸傳統(tǒng)行政的方式。對此,可設置人工客服,以此保證行政機關與相對人的有效交流。

3.在算法行政反思階段引入公眾參與。“如果說算法透明度和可解釋性的要求是以過程控制結果的機制設計的話,那么算法影響評估機制則是典型的‘過程+結果’ 控制型制度工具”?郭春鎮(zhèn)、勇琪:《算法的程序正義》,載《中國政法大學學報》2023 第1 期,第164-180 頁。。算法影響評估機制在結果上對算法行政運作過程進行風險把控,并以此作為改進的前提,是算法行政最后環(huán)節(jié)中的重要反思機制。而社會公眾作為算法自動化行政的最終承受者,來自他們的反饋信息是算法優(yōu)化與改進的重要依據?張紅春、宋洪:《從排斥到包容公眾:參與式政府算法治理的邏輯與進路》,載《貴州大學學報(社會科學版)》2023 年第2 期,第33-44 頁。。首先,可通過公眾調查的形式吸收公眾意見。數字化背景下的公眾調查可采取線上問卷、線上留言以及意見征集等多種方式,其既具有較低的實施成本與公眾參與成本,又可廣泛收集公眾意見。基于公眾調查的隨機性與廣泛性,行政機關可接收到較為全面的算法行政的反饋信息。其次,可通過聽證的形式加強政民雙向交流。聽證是較為高效的雙向交流形式。可有針對性地邀請算法行政利益相關團體參與聽證,長期與某一領域算法行政打交道的群體往往能提出建設性的改進意見。

主站蜘蛛池模板: 国产AV毛片| 日本午夜视频在线观看| 亚洲中文字幕久久精品无码一区 | 欧美日一级片| 2020精品极品国产色在线观看 | 国产精品分类视频分类一区| 欧美日韩一区二区在线免费观看 | 国产亚洲欧美在线人成aaaa| 福利视频一区| 亚洲视频色图| 国产www网站| 成年A级毛片| 亚洲有码在线播放| 五月激情综合网| 国产高清国内精品福利| 国产成人亚洲精品蜜芽影院| 亚洲日韩精品欧美中文字幕| 亚洲日韩国产精品综合在线观看| 久久伊人色| 午夜日b视频| 五月婷婷导航| 日韩黄色在线| 欧美综合区自拍亚洲综合绿色| 亚洲高清国产拍精品26u| 国国产a国产片免费麻豆| 日本在线亚洲| 国产丝袜啪啪| 亚洲精品麻豆| 久久五月视频| 日本伊人色综合网| 亚洲大尺度在线| 在线日韩日本国产亚洲| 国产成人盗摄精品| 99热这里只有精品在线观看| 日韩高清在线观看不卡一区二区| 国产乱视频网站| 香蕉国产精品视频| 真实国产乱子伦视频| 午夜福利视频一区| 国产美女在线免费观看| 国产乱人伦偷精品视频AAA| 日本在线视频免费| 日本欧美在线观看| 国产成人久久综合777777麻豆| 色婷婷亚洲综合五月| 亚洲精品欧美日韩在线| 精品福利网| 任我操在线视频| 视频国产精品丝袜第一页| 高潮爽到爆的喷水女主播视频| 无码中文字幕精品推荐| 992Tv视频国产精品| 亚洲精品国产精品乱码不卞| 国产精品极品美女自在线| 国产大全韩国亚洲一区二区三区| av免费在线观看美女叉开腿| 黄色三级网站免费| 国产日本一区二区三区| 在线亚洲小视频| 久久综合AV免费观看| 无码aaa视频| 一区二区欧美日韩高清免费| 在线a视频免费观看| 国产一区免费在线观看| 91久久精品国产| 久热中文字幕在线观看| 国产成人精品一区二区三区| 91福利在线看| 美女毛片在线| 亚洲乱码视频| 久夜色精品国产噜噜| 91亚洲精品第一| 福利在线免费视频| 国产日韩欧美成人| 国产精品流白浆在线观看| 国产凹凸视频在线观看| 国产成人久视频免费| 日韩成人免费网站| 日韩av资源在线| 久久免费视频播放| 亚洲中文字幕在线一区播放| av一区二区无码在线|