999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自動化行政合法性證成的基本邏輯

2023-07-31 20:52:46陳錦波
法學論壇 2023年3期
關(guān)鍵詞:法律

陳錦波

(中國政法大學 訴訟法學研究院,北京 100088)

一、問題的提出與研究的進路

自動化行政是行政機關(guān)借助自動化設(shè)備作出行政行為、(1)參見[德]哈特穆特·毛雷爾:《行政法學總論》,高家偉譯,法律出版社2000年版,第442頁。行政程序中的特定環(huán)節(jié)或全部環(huán)節(jié)由人工智能代為處理,從而實現(xiàn)行政活動部分或完全無人化操作的情形。(2)參見馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學研究》2019年第1期。自動化行政現(xiàn)象在現(xiàn)實中已經(jīng)多有發(fā)生。譬如,人力資源保障部門運用機器系統(tǒng)進行自動化行政審批(3)近年來,廣東、廣西、安徽等地方政府開始采行“無人干預自動審批”(又稱“秒批”)。以深圳市為例,深圳2018年開始針對高校應屆畢業(yè)生引進和落戶事項使用“無人干預自動審批”這種新型審批方式:申請人只要在線上而無需到現(xiàn)場提交材料,如果申請人提交的材料準確、齊全,機器系統(tǒng)將完成自動化審批,其中不會有人工介入。參見《深圳市人民政府辦公廳關(guān)于印發(fā)深圳市普通高校應屆畢業(yè)生引進和落戶“秒批”(無人干預自動審批)工作方案的通知》(深府辦函〔2018〕109號)。,公安部門通過公共場所的人臉識別系統(tǒng)來輔助維持社會秩序(4)據(jù)筆者了解,車站、機場、酒店等公共場所均是基于公安部門的要求而安裝人臉識別系統(tǒng),其目的主要在于維護公共安全。,交警部門借助聲納定位系統(tǒng)來判定行駛車輛是否構(gòu)成交通違法(5)上海關(guān)于此問題已經(jīng)出現(xiàn)了相關(guān)案例,具體可參見上海市第一中級人民法院(2018)滬01行初216號行政判決書。等。

當前的自動化行政,其有效運作在很大程度上依賴于設(shè)備自身所內(nèi)嵌的機器學習算法。(6)機器學習算法與一般的算法有所不同,它是機器系統(tǒng)通過深度學習外界“投喂”給它的數(shù)據(jù),而對問題解決方案作出科學推演和精準預測的一類新型算法。從本質(zhì)上說,機器學習算法是人工智能的核心,它以大數(shù)據(jù)為支撐,以實現(xiàn)科學預測和問題解決為功能導向。具體可參見何清等:《大數(shù)據(jù)下的機器學習算法綜述》,載《模式識別與人工智能》2014年第4期;陶盈:《機器學習的法律審視》,載《法學雜志》2018年第9期;崔聰聰、許智鑫:《機器學習算法的法律規(guī)制》,載《上海交通大學學報(哲學社會科學版)》2020年第2期。然而,由于機器學習算法可以自我學習、具有黑箱特性并且可能縮短甚至直接繞過人類來思考,(7)參見Cary Cogliance &David Lehr, Regulating by Robot: Administrative Decision Making in the Machine-Learning Era, 105 Georgetown Law Journal 1167 (2017).因此機器學習算法在進行行政決定時可能會招致系列質(zhì)疑。首先,在進行行政決定時,機器是否已經(jīng)獲得了立法機關(guān)的有效授權(quán)?(8)因為在公法領(lǐng)域,對于公權(quán)行使機關(guān)來說,“法無授權(quán)不可為”。其次,即使機器此時確實因獲得法律授權(quán)而參與行政決定的作出,那么立法機關(guān)將公權(quán)授予非真人之機器的做法是否妥當?(9)因為傳統(tǒng)行政法理論所謂的“立法授權(quán)”,只是將權(quán)力授予具有生命體征的“真人”而非機器。在美國聯(lián)邦最高法院的大法官們看來,即使是將公權(quán)授予私人,也是“最令人厭惡的立法授權(quán)”。參見Carter v. Carter Coal Company, 298 U.S. 238, 311(1936);Association of American Railroads v. United States Department of Transportation, 135 S. Ct. 1225, 1231 (2015).最后,機器學習算法的高速自動化運行及其黑箱特性,又是否會導致相對人原本所享有的程序性權(quán)利被克減?(10)機器學習算法的高速自動化運行,意味著行政機關(guān)在作出行政決定時原本應當歷經(jīng)的諸多程序?qū)⒈皇÷?以致行政相對人參與其中的機會大大減少。此外,機器學習算法的黑箱特性,又決定了有些行政決定的作出將難以解釋且難以預測。其實,公眾的上述質(zhì)疑歸根結(jié)底是他們擔心機器學習算法在公共決策領(lǐng)域的運用,會導致機器學習所造就的“算法社會”猝然演變?yōu)椤昂谙渖鐣?從而使得行政法治統(tǒng)合下的課責和監(jiān)督機制落空。(11)參見劉靜怡:《資訊法律的過去、現(xiàn)在與未來》,載《月旦法學雜志》2020年第5期。質(zhì)言之,公眾認為自動化行政面臨著合法性困境。

那么,學界對這一問題如何認識?從有關(guān)自動化行政的既有研究成果來看,學者們或者是概括性地討論自動化行政所面臨的法律風險及其應對舉措,(12)參見查云飛:《人工智能時代全自動具體行政行為研究》,載《比較法研究》2018年第5期;馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學研究》2019年第1期;胡敏潔:《自動化行政的法律控制》,載《行政法學研究》2019年第2期。或者是對自動化行政的具體應用領(lǐng)域加以探究(13)參見查云飛:《健康碼:個人疫情風險的自動化評級與利用》,載《浙江學刊》2020年第3期;馬顏昕:《自動化行政方式下的行政處罰:挑戰(zhàn)與回應》,載《政治與法律》2020年第4期。。然而,學界當前對“自動化行政是否合法”這一本源問題的理論關(guān)照卻較為缺乏。只有個別學者從憲法視角審視了自動化行政的權(quán)力正當性可能,絕大多數(shù)學者似乎理所當然的將該問題當成了討論的前提。而且,即便是在“自動化行政是否合法”的有限討論中,該學者也更多是將研究集中于對自動化行政在實體權(quán)力來源正當性的闡述上,而對自動化行政在程序方面所可能遭受的正當性沖擊較少涉及,更沒有對本文以下將論及的“最佳行政”視角加以探討。(14)參見展鵬賀:《數(shù)字化行政方式的權(quán)力正當性檢視》,載《中國法學》2021年第3期。這使得該討論缺乏一個整全性的視域。有鑒于此,本文將嘗試對“自動化行政的合法性”這一基礎(chǔ)課題展開認真且系統(tǒng)地思考。對于這一問題,筆者的基本立場是:自動化行政不會從根本上沖擊行政法治。本文的目標即在于證成這一立場。筆者首先將會從最能彰顯行政法治的“依法行政原則”和“正當行政程序原則”入手,(15)之所以選擇行政法上的這兩項原則作為切入點來論證自動化行政在形式層面的合法性,主要是基于以下兩方面的考量:其一,行政法學界對于哪些原則屬于行政法上的基本原則還存在爭議,但至少在上述兩項原則上已達成共識;其二,上述兩項原則分別屬于行政法的實體和程序領(lǐng)域,從實體和程序雙層面來論證自動化行政的合法性會更加周全。來證成自動化行政在形式層面的合法性。然后,筆者將會從行政自動化有助于“最佳行政”目標之實現(xiàn),來進一步證立自動化行政在實質(zhì)層面的合法性。

二、自動化行政踐行依法行政原則的可能路徑

依法行政原則是我國行政法上的一項基本原則。它的最基本含義,是要求行政機關(guān)的行政行為要嚴格依照法律來行使、受法的約束。(16)參見應松年主編:《行政法與行政訴訟法學》,高等教育出版社2017年版,第36頁;姜明安主編:《行政法與行政訴訟法》,北京大學出版社、高等教育出版社2015年版,第67頁。依法行政原則包括法律創(chuàng)制、法律優(yōu)先和法律保留等三項子原則。(17)參見[德]奧拓·邁耶:《德國行政法》,劉飛譯,商務印書館2013年版,第68-71頁。其中的“法律創(chuàng)制”,意指法律對行政權(quán)的產(chǎn)生和運作具有決定性的拘束力,行政機關(guān)不得逾越法律而行為。(18)參見王貴松:《依法律行政原理的移植與嬗變》,載《法學研究》2015年第2期。可見,獲得法律的正式授權(quán),是行政機關(guān)行使公權(quán)的最基本前提。那么,行政機關(guān)在運用機器學習算法進行行政決定時,是否遵循了依法行政原則的這一要求?對此,如果要作出肯定回答,則大致存在兩條解釋路徑:其一,機器學習算法在參與行政決定的作出時,獲得了依法享有公權(quán)力的行政機關(guān)的合法轉(zhuǎn)授權(quán)。也就是說,法律將相關(guān)權(quán)力授予了行政機關(guān),并且準許行政機關(guān)將該權(quán)力轉(zhuǎn)授給機器。其二,法律對機器直接予以了授權(quán)。易言之,法律此時直接將相關(guān)行政權(quán)力授予機器,允許機器依據(jù)該職權(quán)進行行政決定。

(一)行政機關(guān)轉(zhuǎn)授公權(quán)給機器的禁止

根據(jù)依法行政原則,行政機關(guān)可以在法律明確授予的權(quán)力類型和權(quán)力范圍內(nèi)從事相關(guān)的公共行政活動。只是,這些公共行政活動中是否包括行政機關(guān)將從立法機關(guān)處獲得的授權(quán)再次轉(zhuǎn)授給機器,以使機器行使公權(quán)的行為合法化的情形?

就我國的憲法權(quán)力架構(gòu)而言,行政機關(guān)由立法機關(guān)產(chǎn)生,行政機關(guān)的行政職權(quán)來源于立法機關(guān)的授予。因此,行政機關(guān)要對立法機關(guān)負責,并受立法機關(guān)監(jiān)督。(19)西方法治國家習慣將立法權(quán)、行政權(quán)和司法權(quán)分屬給不同的國家機關(guān),并稱之為所謂的“三權(quán)分立”。我國憲制傳統(tǒng)上有不同做法,強調(diào)各種公權(quán)力之間的分工、協(xié)作。立法機關(guān)將行政權(quán)授予行政機關(guān)的目的,是期待行政機關(guān)能夠依憑其專業(yè)上的優(yōu)勢,順利完成行政任務,以保障社會的基本秩序并增進人民的福祉。而且,立法機關(guān)對行政機關(guān)的授權(quán)一般是以“劃定一般政策、適用該政策的公共機構(gòu)和該授權(quán)的界限”的方式進行。(20)參見American Power &Light Company v. SEC, 329 U.S. 90, 105 (1946); Yakus v. United States, 321 U.S. 414, 424-425 (1944).同時,從法院的視角來看,立法機關(guān)對行政機關(guān)的這種授權(quán)應當直接、明確且符合公共利益的需要。(21)參見e.g., National Broadcasting Company, Inc. v. United States, 319 U.S. 190, 225-226 (1943).那么,允許行政機關(guān)將行政職權(quán)轉(zhuǎn)授給機器的做法是否會偏離憲法配置各項國家權(quán)力的上述初衷?

實際上,如果行政機關(guān)可以不斷轉(zhuǎn)授權(quán)力給第三方,作為原初授權(quán)主體的立法機關(guān)將無法對行政職權(quán)行使者進行充分的監(jiān)督。進而,公權(quán)被俘獲的可能性就將增大,公權(quán)行使者的公益立場和民主正當性基礎(chǔ)也會因此而被動搖。此外,對于隸屬代議民主式國家體制的我國來說,行政機關(guān)作為立法機關(guān)的意志執(zhí)行機關(guān),也只能嚴格依照法律的具體規(guī)定來行使行政職權(quán),而不得將從立法機關(guān)處獲得的職權(quán)再行轉(zhuǎn)讓。而且,立法機關(guān)對行政機關(guān)的授權(quán),實際上還暗含了民眾對行政機關(guān)能夠代表公益的基本信任。如果行政機關(guān)此時將享有的公共權(quán)力再行隨意轉(zhuǎn)讓,也將違背公眾的合理預期。

總之,行政機關(guān)一般不得將自身依法獲得的公共權(quán)力再行轉(zhuǎn)讓給機器。這意味著,機器因為獲得行政機關(guān)的轉(zhuǎn)授權(quán)而正當化自身之自動決策行為的可能性已經(jīng)在事實上被消解。

(二)法律直接授權(quán)機器作出行政決定的可能性

既然獲得立法機關(guān)授權(quán)的行政機關(guān)不得再將權(quán)力轉(zhuǎn)授給機器,那么說明前述第一種解釋路徑無法成立。那么,我們能否證立第二條解釋進路?也即,立法機關(guān)是否以及能否對機器予以直接的授權(quán)?

歸根結(jié)底,探討立法機關(guān)是否直接授權(quán)給機器,這首先是組織法應當解決的問題。質(zhì)言之,此處要探究的是:機器是否成為了合法的公權(quán)行使主體?從我國《憲法》《全國人民代表大會組織法》《國務院組織法》以及《地方各級人民代表大會及地方各級人民政府組織法》的條文規(guī)定來看,各法規(guī)范并未給機器可以行使行政職權(quán)提供相應的組織法依據(jù)。也即,立法機關(guān)并未對機器進行明確而具體的授權(quán)。易言之,現(xiàn)行有效的法規(guī)范,其指向的對象實際上只是具有生命體征之真人,而并沒有把機器作為公權(quán)享有主體而納入考量范疇。此時我們?nèi)绻麖娦兄鲝埇F(xiàn)有法規(guī)范已經(jīng)對機器予以了直接授權(quán),并把機器作為公權(quán)的合法行使主體,顯然過度偏離立法原意。簡言之,從實然角度看,機器當前并未獲得法律的直接授權(quán)。

只是,在新的時代形勢下,立法機關(guān)應否以及能否直接賦權(quán)機器以正當化機器作出行政決定的行為?大數(shù)據(jù)、人工智能都是信息時代的新興產(chǎn)物,機器學習更是被認為是一種新型人工智能,(22)參見Ethem Alpaydin, Machine Learning: The New AI, MIT Press, 2016,p.1-28.因此以往制定的法規(guī)范沒有將機器學習算法這一新技術(shù)納入考量當屬情有可原。但是,我們需要作進一步地反思:雖然從立法原意看,當初的立法者沒有明確規(guī)定機器人可以成為合法的公權(quán)行使主體,但在新形勢下是否就不可能對現(xiàn)行立法條文的內(nèi)涵作適度的擴張?這實際上是有討論余地的。筆者認為,在機器學習技術(shù)發(fā)展態(tài)勢日益強勁的當下,法規(guī)范體系應當給予機器學習算法以更大的作為空間,甚至直接賦予其完全獨立的作出行政決定的權(quán)力。

首先,機器身為作出行政決定的法定主體并不存在理論層面的理解障礙。在法學理論中,“法人”作為一種法律上擬制的“人”已經(jīng)被人們所廣泛接受。“機器人”和“法人”同樣不是具有生命體征的真人,既然“法人”可以作為法定的行為主體,那么我們就沒有理由將“機器人”特別排除在外。也許有人會指出,“法人仍然是由‘真人’組合而成,所以立法機關(guān)對‘法人’的授權(quán)仍然屬于對‘人’的授權(quán)。”(23)這種認識也是歷史上“法人否認說”的基本立場,但隨著德國民法典等各國法典對法人制度的確立,“法人否認說”已經(jīng)逐漸失去支持者。這種認識曲解了法人制度設(shè)立的目的。實際上,在立法上承認法人具有主體性,并不是因為法人真的成為了具有生命體征和自由意志的人。相反,法人本身不可能具有精神意志,法人的主體性僅僅來自于法律的擬制。而對法人的這種法律擬制在本質(zhì)上不取決于其組成部分是否是“真人”,而在于我們是否有這種現(xiàn)實需要。(24)參見江平、龍衛(wèi)球:《法人本質(zhì)及其基本構(gòu)造研究》,載《中國法學》1998年第3期。同理,立法機關(guān)基于時代情勢的需要也可以對機器的主體性進行這種法律上的擬制,以賦予機器進行行政決定的權(quán)力。質(zhì)言之,法律對機器進行行政決定的直接賦權(quán)也不存在理論層面的解釋障礙。當然,需要說明的是,對于機器的定性,會影響到后續(xù)相應法律責任的承擔。因為在大陸法系國家的行政賠償制度中,公務員的違法侵權(quán)行為與公共設(shè)施設(shè)置和管理所導致的侵害,其侵權(quán)構(gòu)成要件和救濟程序并不完全相同。(25)參見陳新民:《行政法學總論》,三民書局2015年版,第467、472頁。具體而言,如果我們將機器系統(tǒng)視為類似于真人的“公務員”,那么相應侵權(quán)行為的成立將以機器的違法和有責為前提;但如果我們僅僅將機器系統(tǒng)視為一種“公共設(shè)施”,那么判定機器是否構(gòu)成侵權(quán)則是以行政相對人的權(quán)益是否實際受損為要件。(26)參見蔡志方:《行政救濟與行政法學(三)》,正典文化有限公司2004年版,第464頁。其實,機器系統(tǒng)本身的特點,決定了無論將機器嚴格地視為一類人或一種公共設(shè)施,都會面臨適用上的諸多問題。因此,學界當前對于如何定性機器仍然存有爭議。(27)參見蔡志方:《行政救濟與行政法學(三)》,正典文化有限公司2004年版,第464-469頁。筆者認為,在現(xiàn)有條件下,將機器系統(tǒng)單獨予以類型化,并確立相應的責任承擔機制是較為穩(wěn)妥的做法。

其次,學界目前反對將機器作為法定授權(quán)主體的重要理由還在于:公眾對法律授權(quán)由真人組成的私人部門進行行政決定的做法尚且有顧慮,更不用說讓他們接受由法律直接賦權(quán)機器進行行政決定的方案。然而,需要指出的是,機器相較于私人部門來說實際上更為可靠。這是因為私人對行政決定的介入常常摻雜有私人利益的考量以及個人的偏見,它將導致私人部門進行行政決定時可能會因過度維護私利而損及公益的實現(xiàn)。相反,由于機器學習算法此時是由公共部門來負責設(shè)計和植入,所以機器學習算法參與行政決定的作出就可以避免諸如私人部門進行行政決定時所面臨的問題,進而保證所作行政決定的客觀公正性。當然,機器進行行政決定,其結(jié)果的客觀公正性建立在對“公共部門能夠公正無偏私處理公共事務”的推定之基礎(chǔ)上。觀察政治運作現(xiàn)實可知,在大多數(shù)情況下,我們對公共部門的這種推定能夠成立。而且,即使公共部門在少數(shù)情形中對公益初衷有所偏離,民主國和法治國下的諸多監(jiān)督機制也能對公共部門的該偏離行為進行有效矯正。這也是人民選擇出讓部分權(quán)力而交由公共部門來統(tǒng)一行使的最原初目的。質(zhì)言之,只要公共部門秉持公益之目的而對機器設(shè)計和植入合理的算法和程序,機器基于此而作出的行政決定就能保證其客觀公正性。而且,實踐已經(jīng)證明,由機器來進行行政決定還能極大提升行政機關(guān)的工作效能。(28)參見Cary Cogliance &David Lehr, Regulating by Robot: Administrative Decision Making in the Machine-Learning Era, 105 Georgetown Law Journal 1167 (2017).所以,我們沒有理由不順應信息革命的時代趨勢而去選擇機器學習算法這種更為高效便捷的行政決定輔助手段。

再次,就立法實務而言,全國人民代表大會在2019年、2021年和2022年持續(xù)發(fā)布的《第十三屆全國人民代表大會第二次會議關(guān)于2018年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2019年國民經(jīng)濟和社會發(fā)展計劃的決議》、《第十三屆全國人民代表大會第四次會議關(guān)于2020年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2021年國民經(jīng)濟和社會發(fā)展計劃的決議》和《第十三屆全國人民代表大會第五次會議關(guān)于2021年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2022年國民經(jīng)濟和社會發(fā)展計劃的決議》都對“數(shù)字政府建設(shè)”作出了明確部署。此外,中共中央、國務院于2021年印發(fā)的《法治政府建設(shè)實施綱要(2021-2025)》也明確指出要“全面建設(shè)數(shù)字法治政府”。可見,最高國家權(quán)力機關(guān)已經(jīng)具有推動和加強數(shù)字政府建設(shè)(包括機器參與行政決定)的明確立法意圖,黨中央和國務院也對數(shù)字政府建設(shè)有了明確的戰(zhàn)略部署。在此背景下,我們對組織法以及各單行法律法規(guī)中提及的各種“行政主體”之文義作目的論擴張(29)目的論擴張,是指對過窄制定法文義的必要性擴大和修正。參見[德]卡爾·拉倫茨:《法學方法論》,黃家鎮(zhèn)譯,商務印書館2020年版,第499-500頁。在最高國家權(quán)力機關(guān)當前已經(jīng)具有推動數(shù)字化行政之立法意圖,以及機器進行行政決定本身具有合理性和可行性的時代背景下,我們對現(xiàn)有組織法、各單行法律法規(guī)中涉及的相關(guān)行政主體概念之文義作適當擴張顯然有其必要。,將“機器”囊括進各“行政主體”的概念范疇之中,這顯然既貼合立法目的,又符合時代需求。

最后,雖然我們承認法律授權(quán)機器進行行政決定的可能性,但法律對機器的授權(quán)模式并非不加擇取。在授權(quán)模式的選擇上,法律對機器的直接授權(quán)比行政機關(guān)對機器的轉(zhuǎn)授權(quán)更為可行。這是因為,一方面,直接授權(quán)模式相較于轉(zhuǎn)授權(quán)模式具有更夯實的民主正當性和公益性基礎(chǔ)。正如前述,要想作出合法的行政決定,機器必須如傳統(tǒng)行政機關(guān)一樣具備必要的民主正當性和公益性底蘊。這種民主性和公益性的獲得,在形式上需要有法律的授權(quán)。而在轉(zhuǎn)授權(quán)和直接授權(quán)這兩種法律授權(quán)模式中,直接授權(quán)模式顯然可以給予機器學習算法在做行政決定時以更強的民主和公益底色。另一方面,機器學習算法的特性,決定了直接授權(quán)模式更有利于國家通過法律加強對機器學習算法的監(jiān)督。公眾對機器決策并不完全信任,他們希望國家能夠?qū)C器學習算法施加必要的管控。而在法律對機器的兩種授權(quán)模式中,轉(zhuǎn)授權(quán)模式只能是由行政機關(guān)在機器進行行政決定時對機器學習算法進行事中監(jiān)管,但由于機器學習算法具有自我學習特性、黑箱屬性以及高速自動運行的特征,這種事中監(jiān)管將很難達至良好的效果,甚至這種事中監(jiān)管都可能會讓行政機關(guān)找尋不到合適的介入時機。相反,借助直接授權(quán)模式,由法律在機器參與行政決定的作出前就對機器植入相應的目標和要求顯然更為可行。

總之,雖然立法機關(guān)在當初制定相關(guān)法規(guī)范時還沒有賦權(quán)機器的意圖,但為順應信息革命的時代趨勢,在立法機關(guān)尚未著手修改相關(guān)法律前,可以先結(jié)合最高國家權(quán)力機關(guān)的《決議》精神和黨中央、國務院的戰(zhàn)略部署,對原有立法條文的內(nèi)涵作目的論擴張,從而給予機器學習算法以適當?shù)姆墒跈?quán),使得機器能夠在一定空間內(nèi)作出適切的行政決定。而當條件成熟時,立法機關(guān)則需要在各組織法和各單行法律法規(guī)中對機器的法律主體地位予以明確認可。此外,在對機器權(quán)力授予模式的選擇上,相較于轉(zhuǎn)授權(quán)模式而言,立法機關(guān)對機器的直接授權(quán)更符合機器學習算法的本質(zhì)特性。

(三)機器作出行政決定的限度

立法機關(guān)可以且應當對機器作出行政決定的行為予以法律授權(quán),以推動政府治理體系和治理能力的現(xiàn)代化。但是,這并不意味著該法律授權(quán)不受任何約束。立法機關(guān)應當對授權(quán)機器進行行政決定的范圍和方式作出必要限定。當然,這種范圍和方式的具體限定進路應根據(jù)不同行政事項的不同特點和不同重要度來作進一步的區(qū)分。

首先,對于羈束行政事項,機器學習算法可以依照法律的授權(quán)進行自主化的行政決定。這是因為羈束行政事項一般不涉及行政主體在行政決定中的自由裁量,只要相關(guān)事實被正常地涵射到法律所設(shè)定的構(gòu)成要件,那么得出的結(jié)果將是唯一的。(30)雖然理論上認為自動化行政活動在羈束行政和裁量行政領(lǐng)域皆可適用,但學者們對自動化設(shè)備在裁量行政領(lǐng)域的適用一般都持較為謹慎的態(tài)度。參見查云飛:《人工智能時代全自動具體行政行為研究》,載《比較法研究》2018年第5期;馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學研究》2019年第1期。也就是說,只要人們按照法律的確切規(guī)定對機器進行行政決定的相關(guān)要件做事先設(shè)定,那么不管是由機器還是由真人來做該行政決定,其結(jié)果都將是相同的。對于此類事項,行政官員顯然沒有必要親力親為。這在比較法上也有例可循。例如,根據(jù)《德國聯(lián)邦行政程序法》第35a條的規(guī)定,羈束行政事項即屬于可以適用完全自動化的行政事項。(31)§ 35a VwVfG.當然,由于技術(shù)本身可能存在瑕疵,這將導致機器學習算法偏離預先設(shè)定的運行軌道。因此,在利害相關(guān)方提出,或者行政機關(guān)工作人員發(fā)現(xiàn)機器學習算法的決策結(jié)果具有明顯錯誤時,行政機關(guān)應當負責矯正該錯誤結(jié)果。

其次,對于裁量行政事項,行政機關(guān)應根據(jù)該事項的不同重要度而予以區(qū)別對待。總體而言,對于一般行政事項的裁量,法律可以直接授權(quán)機器來行使;但對于重要的行政裁量事項,法律還是要將該事項的最終判斷權(quán)保留給行政機關(guān)工作人員。至于何為重要的行政裁量事項,“特別權(quán)力關(guān)系”領(lǐng)域的“重要性理論”也許可以給我們提供一個參照思路。“特別權(quán)力關(guān)系”中的“重要性理論”,它根據(jù)公權(quán)所涉公民權(quán)利的重要性程度來判斷該公權(quán)是否應當接受司法審查。在“重要性理論”看來,凡是涉及公民基本權(quán)利的事項均為重要性事項。(32)參見章志遠:《行政法學總論》,北京大學出版社2014年版,第114-115頁。這種界定標準的優(yōu)點在于,它可以最大限度地保護公民所享有的基本權(quán)利。但是,我們同時也會發(fā)現(xiàn),按照這種標準篩選出來的重要事項之范圍將極為廣泛。運用有限的司法資源來保護如此寬泛的社會事項,顯然并非國家的最優(yōu)制度選擇。而且,在行政領(lǐng)域,保護公民權(quán)利也從來不是現(xiàn)代國家的唯一任務。實際上,行政機關(guān)在追求行政合法和公民權(quán)利保護的同時,還極為重視自身行政效能的提升。(33)參見沈巋:《論行政法上的效能原則》,載《清華法學》2019年第4期。質(zhì)言之,在將機器學習算法引入行政決定領(lǐng)域時,我們雖仍應強調(diào)該活動的合法律性,但為了同時彰顯機器學習技術(shù)在提升行政機關(guān)工作效能方面的積極作用,對機器學習算法的規(guī)制顯然不能過于嚴苛,否則技術(shù)之功效將消弭殆盡。因此,并非公民所有的基本權(quán)利都不能由機器來處置。我們在機器作出行政決定領(lǐng)域引入“重要性理論”時,應當對其中的重要事項之范圍作進一步的限縮。那么,公民的哪些基本權(quán)利可以被剔除出“重要事項”的范疇?結(jié)合學理和我國現(xiàn)行憲法的規(guī)定,我們大致可將公民的基本權(quán)利歸納為以下六類:(1)平等權(quán);(2)政治權(quán)利;(3)精神自由;(4)人身自由和人格尊嚴;(5)社會經(jīng)濟權(quán)利;(6)獲得權(quán)利救濟的權(quán)利。(34)參見許崇德、胡錦光主編:《憲法》,中國人民大學出版社2018年版,第146頁。憲法學界在討論對上述基本權(quán)利的限制時,一般對限制公民的社會經(jīng)濟權(quán)利之做法較為包容,而對限制公民其他類型的基本權(quán)利更為謹慎。(35)憲法學者們傾向于認為類似內(nèi)心的自由(如思想的自由、宗教信仰的自由)、人格尊嚴、接受公正審判的權(quán)利等是人們的絕對憲法權(quán)利,這些權(quán)利不應受到任何限制。但對于經(jīng)濟性的基本權(quán)利,現(xiàn)代憲法一般規(guī)定,國家可以基于公共利益的需要而對它們進行必要限制。參見韓大元、林來梵、鄭賢君:《憲法專題研究》,中國人民大學出版社2008年版,第314-317頁。這主要是因為,相較于其他基本權(quán)利來說,經(jīng)濟性基本權(quán)利的可量化度以及受損后的可補償性更高。因此,對經(jīng)濟性基本權(quán)利進行更多的限制更為可行且更容易為公眾所接受。基于同樣的考慮,在涉及機器學習算法對公民社會經(jīng)濟權(quán)利的裁量決策時,法律可以賦予機器學習算法更大的作為空間。也即,法律可以授權(quán)機器對公民的社會經(jīng)濟權(quán)利事項進行裁量決策。

最后,對于行政裁量領(lǐng)域中的重要性事項,法律不應當將之直接委諸于機器學習算法。也即,當需要對經(jīng)濟性基本權(quán)利以外的公民基本權(quán)作行政裁量時,法律仍然應當將該項職權(quán)保留給行政機關(guān)的工作人員來行使。當然,行政機關(guān)此時仍然可以借助機器學習算法來對相關(guān)行政決定的結(jié)果進行預測,以輔助和驗證人為決定之結(jié)果的科學性與合理性。易言之,在行政機關(guān)對行政裁量的重要性事項進行決策時,機器學習算法并不最終決定相關(guān)行政決定,機器學習算法此時的功用僅僅在于增強人類的判斷力。

總之,自動化行政并不會對依法行政原則構(gòu)成根本性的沖擊,但這建立在法律對機器予以必要授權(quán)的基礎(chǔ)上。同時,在轉(zhuǎn)授權(quán)和直接授權(quán)這兩種法律授權(quán)模式中,直接授權(quán)模式更加符合機器學習算法的特性。當然,即便法律直接授權(quán)機器作出行政決定,這種授權(quán)在范圍和方式上也仍然有其限度。具體來說,對于羈束行政事項和一般裁量行政事項,法律可以直接授權(quán)機器進行決策;但是,對于涉及公民社會經(jīng)濟權(quán)利以外的其他重要裁量行政事項,法律卻不能將之委諸機器來處理,而應將處置該類事項之公權(quán)保留給行政官員。

三、自動化行政對正當行政程序原則的挑戰(zhàn)及其因應

對正當行政程序原則的遵循,是行政機關(guān)進行行政決定時所應滿足的最低程序性要求。雖然學界在具體界定正當行政程序原則的內(nèi)涵上還存有分歧,但學者們大體同意正當行政程序原則至少包括對行政機關(guān)的如下要求:其一,行政機關(guān)作出行政決定時應當說明理由;其二,行政決定的作出程序應當公開透明;其三,行政機關(guān)應當保證行政相對人有機會作合理的陳述和申辯,且相對人的該陳述申辯意見能夠被行政機關(guān)公正地聽取。(36)學界有關(guān)正當行政程序原則內(nèi)容構(gòu)成之共識和分歧的具體討論,可參見陳錦波:《公民姓名權(quán)的行政法雙重保護》,載《行政法學研究》2020年第5期。那么,自動化行政是否會導致行政機關(guān)在踐行正當行政程序原則的上述要求時有所怠惰?

(一)自動化行政可能克減的程序利益

機器學習算法的自我學習、黑箱運作和高速自動化等特性,決定了行政機關(guān)在運用機器學習算法進行行政決定時將會對傳統(tǒng)行政法中的正當行政程序原則構(gòu)成一定挑戰(zhàn)。

首先,自動化行政不利于行政機關(guān)說明理由制度的貫徹實行。機器學習算法的運轉(zhuǎn)呈現(xiàn)出高速且自動化的特征,它會縮短人類思考的過程甚至直接繞過人類來思考。此外,機器學習算法的自我學習和黑箱特性還會使得機器作出相關(guān)行政決定的理由難以解釋且難以預測。(37)參見Andrew Tutt, An FDA for Algorithms, 69 Administrative Law Review 107 (2017).這意味著行政機關(guān)運用機器學習算法來作行政決定時,在說理上會不夠充分。這些都將削弱該行政決定的可接受性。(38)行政法治中的“可接受性”包括立法上的可接受性和執(zhí)法上的可接受性。而正如相關(guān)學者所言,在當前的國情下,“行政執(zhí)法上的可接受性”更應予以強調(diào)。參見王學輝、張治宇:《邁向可接受性的中國行政法》,載《國家檢察官學院學報》2014年第3期。當行政相對人無法理解相關(guān)行政決定而行政決定作出機關(guān)本身也解釋不清自身為何作出該項行政決定時,行政機關(guān)和行政相對人之間的溝通成本就會增加,這也極易引發(fā)甚至升級公權(quán)行使者(行政機關(guān))與公權(quán)作用對象(行政相對人)之間的矛盾。

其次,行政的自動化將降低行政決定作出程序的公開透明度。機器學習算法具有自我學習和黑箱特性,這導致人們(很多時候包括行政機關(guān)在內(nèi))很難理解該行政決定是經(jīng)由什么樣的程序而作出。一般而言,程序包括方式、順序、步驟和時限等要素。(39)參見章志遠:《行政法學總論》,北京大學出版社2014年版,第328頁。在機器學習算法參與行政決定的過程中,一般不會出現(xiàn)時限延遲的情況;(40)因為機器學習算法的高速、自動化特性決定了行政機關(guān)利用機器學習算法進行決策時會比傳統(tǒng)人為行政決定快速的多。但此時相關(guān)行政決定的作出方式、作出順序和作出步驟卻可能會被極大簡化,這直接影響到行政相對人程序參與權(quán)的實現(xiàn)。易言之,機器學習算法的特性決定了行政相對人將很難對行政決定的方式進行選擇,也很難參與到行政決定的相關(guān)步驟中去。

最后,上述的行政相對人對行政程序的缺乏參與,也將影響到行政相對人陳述和申辯等相關(guān)程序性權(quán)利的行使。也即,行政相對人在面對可能不利于自身的行政決定時,將沒有機會就自己行為的合法性與合理性向行政機關(guān)作必要的辯解和理由陳述。而對行政機關(guān)來說,其在沒有充分聽取行政決定利害相關(guān)方的意見前,就倉促作出行政決定,這也不免顯得過于武斷。“兼聽則明,偏聽則暗”,這一古老諺語所內(nèi)嵌的公正裁判意旨也將無法獲得實現(xiàn)。

可見,行政的自動化確實會在一定程度上削弱行政機關(guān)所作行政行為的合法性韻味,也會減損行政相對人一定的程序性利益。對于自動化行政所提出的上述挑戰(zhàn),我們應該如何應對?

(二)機器學習時代行政相對人程序利益損失的法律填補

自動化行政對機器學習算法的運用確實面臨著合法性危機。但是,作為順勢而生的新興科技,機器學習算法顯然又不能被輕易地否棄。因此,法學人要做的,是在不拋棄機器學習算法的前提下,促使正當行政程序原則在行政的自動化這一過程中合理的歸位,以填補行政相對人因此而遭受的程序性利益之損失。這一目標的實現(xiàn),需要我們對機器學習算法采行過程化的監(jiān)管措施。(41)隨著算法技術(shù)的發(fā)展,對算法進行規(guī)制的路徑也面臨著迭代與革新。我們需要對算法內(nèi)容和算法本身同時予以規(guī)制,而且這種規(guī)制應當在算法的設(shè)計、運營和事后救濟等階段全流程的展開。參見張凌寒:《算法規(guī)制的迭代與革新》,載《法學論壇》2019年第2期。

首先,行政機關(guān)應當向機器學習算法“投喂”高質(zhì)量的數(shù)據(jù)集且保證公眾對機器學習算法的必要知情權(quán)。一方面,機器學習算法能夠順暢且合法運作的基礎(chǔ),在于其內(nèi)部擁有數(shù)量龐大且質(zhì)量優(yōu)良的數(shù)據(jù)集。數(shù)據(jù)是算法的燃料,一旦控制了向機器所“投喂”的數(shù)據(jù),就等于從源頭對機器學習算法進行了必要的管控。(42)參見汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,載《現(xiàn)代法學》2019年第2期。我們應當保證機器學習算法所依賴的這些數(shù)據(jù)是完整、準確和結(jié)構(gòu)化的。只有保證這些數(shù)據(jù)沒有被“污染”,(43)參見e.g., Rashida Richardson et al., Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice, 94 New York University Law Review 192 (2019).才能確保機器學習算法下的行政決定具有更高的科學性。另一方面,在對機器學習算法進行事前監(jiān)管的過程中,國家還應當對算法的設(shè)計過程附加一定的要求,且保證公眾相應的知情權(quán)。國家在對機器學習算法的設(shè)計者施加算法在設(shè)計時所應滿足的規(guī)格、測試、信息披露以及算法倫理等方面要求的同時,還應當將機器學習算法的設(shè)計目的和策略議程、(44)參見張凌寒:《風險防范下算法的監(jiān)管路徑研究》,載《交大法學》2018年第4期。機器學習算法所內(nèi)嵌的諸種考量因素以及這些考量因素在行政決定中的占比程度等以合理的方式在事先向社會公眾作必要的說明。

其次,國家可以為機器作出行政決定的事項設(shè)置必要的程序性管控規(guī)則且賦予行政相對人一定的程序性權(quán)利,以實現(xiàn)對機器學習算法運作的事中監(jiān)督。行政機關(guān)可以通過組建一個由行政官員、技術(shù)人員和法學專家等專業(yè)人員所共同組成的獨立機構(gòu)或?qū)<椅瘑T會,來制定機器作出行政決定時所應遵循的程序性規(guī)則。(45)例如,美國對此建立有專門的國家算法安全委員會(National Algorithm Safety Board),紐約市政府也建有相應的算法監(jiān)控工作組(Algorithm-Monitoring Task Force)。這主要是因為算法具有高度技術(shù)化的特征,因而需要專業(yè)化的規(guī)制機構(gòu)來保證規(guī)制的有效性。此時專家委員會或獨立機構(gòu)可以依據(jù)事先制定的這些規(guī)則對機器學習算法進行監(jiān)控,一旦發(fā)現(xiàn)機器學習算法偏離該規(guī)則預設(shè)的前進軌道,專家委員會或獨立機構(gòu)就可以隨時中斷或停止該機器學習算法的運行。也即,人類應當保證可以在任何時候拒絕機器所選擇的規(guī)則,可以隨時改變算法的規(guī)格,甚至完全“拔掉插頭”而終止機器學習算法的運作。(46)參見Cary Coglianese, The Emptiness of Decisional Limits: Reconceiving Presidential Control of the Administrative State, 69 Administrative Law Review 43 (2017).當然,我們同時要警惕對機器學習算法的這種專業(yè)規(guī)制因過度強調(diào)規(guī)制主體的精英化而背離社會公共利益,要防止社會精英利用技術(shù)資源優(yōu)勢來將他們自身與后代設(shè)計成高人一等的“超人”。(47)參見[以色列]尤瓦爾·赫拉利:《人類簡史:從動物到上帝》,林俊宏譯,中信出版社2014年版,第289頁。

再次,國家還應當建立針對“機器進行行政決定”的事后監(jiān)督機制。這主要是因為機器學習算法具有自我學習、黑箱運作和高度自動化等特性,所以雖然人類為其植入了選定的數(shù)據(jù)且設(shè)置了事中的控制程序,但是機器學習算法的運行仍然可能偏離人類預期的發(fā)展軌道。所以,人類要想真正掌握對機器的最終控制權(quán),就有必要對機器學習算法進行一定的事后控制。(48)正如相關(guān)學者所言,對于信息技術(shù),人類的內(nèi)心感受是復雜和矛盾的:一方面,人們希望機器具有“超人性”,期待機器能夠增強人類的判斷能力,能夠讓人類完成以往無法完成的任務。另一方面,人們又渴求機器的“類人性”,期待機器能夠像人類一樣進行理性而有溫度的思考,以免人類被冷冰冰的機器所控制。參見陳錦波:《規(guī)制層次與管控理念:自動駕駛汽車的監(jiān)管進路》,載《蘇州大學學報(法學版)》2019年第1期。一方面,這種事后控制機制可以通過前述專家委員會或獨立機構(gòu)對機器作出行政決定的回溯性事后審查來實施。也即,專家委員會或獨立機構(gòu)一旦發(fā)現(xiàn)機器學習算法支配下的行政決定具有法定的可撤銷情形,就應依法追溯性撤銷該行政決定的法律效力,以便矯正機器學習算法所作之不合法行政行為。另一方面,對機器學習算法的事后監(jiān)督還可以通過賦予行政相對人以必要的算法解釋請求權(quán)來加以實現(xiàn)。具體來說,算法解釋請求權(quán)是指行政相對人所享有的要求行政機關(guān)說明“為何運用該機器學習算法會最終導向該項行政決定”的權(quán)利。(49)雖然“算法解釋請求權(quán)”和“算法解釋權(quán)”這兩個概念在學界都有使用,但“算法解釋權(quán)”從字義上看,更加趨近于是某一主體享有對算法進行解釋的權(quán)力(利),這與本文所意欲使用的“相對人請求行政機關(guān)對自身運用算法進行行政決定的行為進行解釋”之概念意涵有所出入。因此,筆者在本文中傾向于使用“算法解釋請求權(quán)”這一概念。參見蘇宇:《算法規(guī)制的譜系》,載《中國法學》2020年第3期;張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學》2019年第6期;張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(西北政法大學學報)》2018年第3期。在法律授權(quán)機器進行行政決定的情形中,行政機關(guān)實際上已經(jīng)執(zhí)掌了相應的“算法權(quán)力”,原本處于優(yōu)勢地位的行政機關(guān)此時變得更加強勢。為了保證相對人能夠有足夠的力量和武器來抗衡行政機關(guān)并進一步對行政權(quán)進行監(jiān)督,立法機關(guān)同時賦予行政相對人以相應的“算法解釋請求權(quán)”就成為必然。(50)當然,也有學者認為這是國家為解決行政機關(guān)與行政相對人之間因信息不對稱導致實質(zhì)不平等而選擇的矯正工具。參見張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(西北政法大學學報)》2018年第3期。但是,筆者認為,在立法上對行政機關(guān)和行政相對人直接進行力量平衡才是設(shè)立“算法解釋請求權(quán)”的根本目的。

最后,國家還應施加給行政機關(guān)以相應的算法影響評估義務,以督促行政機關(guān)在機器學習算法輔助行政決定作出的過程中能夠適時且科學地預判該機器學習算法所可能帶來的諸種風險。國家給行政機關(guān)所施加的這項義務,其目的是為了彌補單純權(quán)利保護路徑的局限性,且突出算法控制者本身的風險責任意識,以最終增進機器學習算法的可控性。

其實,機器進行行政決定所可能給行政相對人帶來的程序利益的減損,是我們在國家信息化背景下追求更高效行政所必然要付出的代價。此時,理性人應當做的是去找尋我們所受損失與我們所獲收益之間的平衡點。就此,美國聯(lián)邦最高法院在馬修斯訴埃爾德里奇案(Mathewsv.Eldridge)中的做法可以為我們的思考提供一些借鑒。該案的主審法官認為,判斷行政機關(guān)的行為是否符合正當程序原則需要綜合考量三個因素:一是,可能受到行政決定影響的私人利益。二是,因為錯誤程序而剝奪這種私人利益可能導致的風險,以及對私人施加程序保障可能帶來的價值。三是,行政機關(guān)采取替代性程序所可能帶來的財政負擔和其他行政負擔。(51)參見Mathews v. Eldridge, 424 U.S.335 (1976).我們在機器作出行政決定的情形中,也可以對是否向行政相對人提供特殊程序保障作具體如前的“成本—收益”考量。當然,行政機關(guān)在決定不給予行政相對人特殊程序保障時,其所可能導致的不良后果,還可以通過觀察行政相對人申請對行政決定進行復查的比率高低來加以判斷。(52)參見Cary Cogliance &David Lehr, Regulating by Robot: Administrative Decision Making in the Machine-Learning Era, 105 Georgetown Law Journal 1189 (2017).這在我國主要表現(xiàn)為行政相對人不服行政決定而申請行政復議或提起行政訴訟的比例。對于機器學習算法下的行政決定,如果相對人對其不服而尋求救濟的比率并不高于其他類型的人為行政決定被復查的比率,那么就說明行政相對人并沒有對機器學習算法下的行政決定表示出特別的反感。這將從一個側(cè)面表明機器進行行政決定對相對人程序性權(quán)益的侵害可能并沒有人們所想象的那么嚴重,同時也可以為樹立機器學習算法在行政決定中的正面形象而正名。

總之,公眾對“自動化行政將可能給行政機關(guān)帶來程序上的合法性挑戰(zhàn)”的質(zhì)疑是有一定道理的。然而,就此而完全否定自動化行政,顯然過于武斷。實際上,由于自動化行政中所運用的機器學習算法可以避免人類主觀偏見或主觀錯誤的引入,這反而能夠增進人們對相關(guān)行政決定之程序正當性的預期。而且,即使是面臨人們對自動化行政所可能違背正當行政程序的質(zhì)疑,我們也有前述的應對辦法。

四、自動化行政對于實現(xiàn)“行政最佳性”的助益

“行政合乎法律”是行政機關(guān)從事行政活動時的基本追求。但在面對紛繁復雜的行政實踐時,學者們漸漸發(fā)現(xiàn)單純依靠法律規(guī)范來治理是無比的疲軟和乏力。易言之,狹義“合法行政”(53)需要說明的是,此處“合法行政”中的“合法”是就狹義層面而言的,它與本文論題“自動化行政的合法性”中的“合法”有所不同,本文論題中的“合法”是在廣義層面使用的。這一單一視角已經(jīng)無法滿足行政實務的需要。在此背景下,有學者頗為精辟地提出了“合法行政”和“最佳行政”的雙重分析視角。在該分析架構(gòu)中,行政的合法性考量首先登場,它為行政活動設(shè)置基本的規(guī)范條件和制度架構(gòu);而最佳性視角則用以觀察法律和政策本身的不足,并適時提出改進方案。進而,行政的合法性和行政的最佳性形成良性互動。(54)參見朱新力、唐明良等:《行政法基礎(chǔ)理論改革的基本圖譜——“合法性”與“最佳性”二維結(jié)構(gòu)的展開路徑》,法律出版社2013年版,第15-16頁。實際上,狹義上的“行政合法性”意指“行政的形式合法性”,而此處的“行政最佳性”則指向“良好行政”這一意涵,它屬于“行政的實質(zhì)合法性”之范疇。

筆者在前文已經(jīng)說明,自動化行政并不會對以“合法性”為基底的傳統(tǒng)行政法理論造成根本性的沖擊。以下,筆者將進一步闡述自動化行政在“最佳行政”方面所可能給行政機關(guān)帶來的助益,以及實現(xiàn)這一目標的法律保障機制。(55)需要稍加交待的是,本文此前部分關(guān)于機器作出行政決定不違反“依法行政原則”和“正當行政程序原則”的論述,實際上是在狹義層面來證成自動化行政的合法性;而本文此處關(guān)于機器作出行政決定將有助于實現(xiàn)“最佳行政”的闡述,則是在廣義層面進一步證立自動化行政的合法性。

(一)“最佳行政”的理論構(gòu)成

傳統(tǒng)行政法學界恪守依法行政原則,主要著眼于“行政行為是否合法”的病理性分析。但在真實的行政實踐中,這種單一的狹義“合法性”觀察視角已不斷呈現(xiàn)出規(guī)制不足和執(zhí)行欠缺等問題。究其根本,這是由于法律這一單一學科已經(jīng)無法獨立應對日益紛繁復雜的行政事務。相反,這些實踐中的問題迫切需要多學科的知識和理論來共同關(guān)照。(56)著名法社會學者盧曼早就指出,法律系統(tǒng)本身雖然“自主”,但并不“自足”,所以法律系統(tǒng)需要從外在環(huán)境中吸納信息和冗余。參見[德]尼古拉斯·盧曼:《法社會學》,賓凱、趙春燕譯,上海人民出版社2013年版,第292-300頁;陳錦波:《法治中國建設(shè)進程中的思維方式演進——一個社會系統(tǒng)論的視角》,載《內(nèi)蒙古社會科學(漢文版)》2019年第6期。同樣,國家也無法僅僅依靠法學人的智識就能高效而科學地處理各項繁雜的行政事務,這是多學科共同努力才能完成的事業(yè)。也正因為如此,“最佳行政”的分析視角才得以產(chǎn)生。

相關(guān)學者從行政法學的基本研究對象(公共行政)切入,來搭建“最佳行政”的分析架構(gòu)。根據(jù)公共行政學的經(jīng)典論述,公共行政的構(gòu)成要素可用“三途徑說”來加以概括。也即,公共行政目標具體可通過三個途徑來實現(xiàn):一是,管理途徑。它主要強調(diào)行政活動的效率性、效能性和經(jīng)濟性。二是,政治途徑。它意在彰顯行政活動的代表性、回應性和責任性。三是,法律途徑。它側(cè)重說明行政活動的適法性。(57)參見[美]戴維·H·羅森布魯姆等:《公共行政學:管理、政治和法律的途徑》,張成福等譯,中國人民大學出版社2002年版,第40-41頁。在上述三種公共行政目標實現(xiàn)途徑中,法律途徑可納入狹義“合法行政”的領(lǐng)域,而管理途徑和政治途徑則可歸為“最佳行政”的范疇。

“最佳行政”在基本價值理念和核心關(guān)切點上都與狹義“合法行政”有很大不同。其一,在主體層面,與狹義“合法行政”主要著眼于授權(quán)的法定性不同,“最佳行政”以行政任務為導向,更加注重行政任務與組織形態(tài)的匹配。其二,在行為層面,與狹義“合法行政”重視對行政行為合法性的司法審查不同,“最佳行政”更多關(guān)注立法和行政層面的政策選擇和制度設(shè)計,更加關(guān)心如何綜合使用諸種行政手段和政策工具來達成行政目標。其三,在程序設(shè)置層面,狹義“合法行政”強調(diào)行政機關(guān)的行政行為要嚴格遵照法定行政程序的要求,而“最佳行政”則更加希望通過行政程序的創(chuàng)新設(shè)計,使得行政決定的作出具有更強的民主性、效率性和可接受性。其四,在司法監(jiān)督方面,狹義“合法行政”視域下的法院是消極而中立的,但“最佳行政”視角則期待法院能夠發(fā)揮其政策形成功能,以反哺行政過程。(58)參見朱新力、唐明良等:《行政法基礎(chǔ)理論改革的基本圖譜——“合法性”與“最佳性”二維結(jié)構(gòu)的展開路徑》,法律出版社2013年版,第3-15頁。

總而言之,“最佳行政”的本質(zhì)追求實際上在于:在復雜的行政事務紛涌而至時,政府保有更優(yōu)的治理結(jié)構(gòu)以保證其實現(xiàn)既定的行政目標,并最終達成行政的實質(zhì)合法性。那么,回歸到自動化行政本身,我們此時需要追問的就應當是:機器進行行政決定是否有助于踐行“最佳行政”的基本價值理念?

(二)自動化行政助力實現(xiàn)“行政最佳性”的現(xiàn)實進路

自動化行政不僅不會在根本上沖擊傳統(tǒng)的行政法治原則,而且自動化行政所內(nèi)嵌的機器學習算法還會給行政機關(guān)的工作成效帶來諸多助益。

首先,行政機關(guān)可以借助機器學習算法實現(xiàn)科學決策。行政機關(guān)通過對機器學習算法的運用,可以對社會情勢作出科學預測,從而達至對公共事務的精準治理。“機器學習的核心就是預測:預測我們想要什么,預測我們行為的結(jié)果,預測如何能實現(xiàn)我們的目標,預測世界將如何改變。”(59)[美]佩德羅·多明戈斯:《終極算法——機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,序言。雖然傳統(tǒng)國家行政很多時候會投入巨大的人力、物力和財力資源,但公共治理的效果有時卻并不能達到行政機關(guān)的合理預期。這當然與公共行政事務的繁雜性密切相關(guān),但相關(guān)治理手段較為滯后顯然也是重要原因。大數(shù)據(jù)、機器學習等技術(shù)的產(chǎn)生與運用,給行政機關(guān)提升自身之治理效果帶來了時代性的契機。這些信息技術(shù)可以為行政機關(guān)篩選出應當重點治理的領(lǐng)域,從而確保行政機關(guān)能夠?qū)⒂邢薜男姓Y源投放到真正需要加強治理的區(qū)塊。(60)例如,行政機關(guān)可以利用機器學習算法監(jiān)測到城市中的某些地區(qū)或者某些領(lǐng)域存在較多的違法犯罪活動,從而加強對該地區(qū)或領(lǐng)域的管控。需要指出的是,由于機器學習算法運作的基礎(chǔ)在于數(shù)據(jù),所以數(shù)據(jù)的質(zhì)量和數(shù)量實際上最終決定了機器學習算法的精確度。所以,機器學習算法有時即便不能實現(xiàn)100%(如只有99%)的科學預測率,(61)由于技術(shù)所可能存在的合理偏差,所以機器學習算法不能實現(xiàn)100%的科學預測率將會是一種常態(tài)。也不意味著在此準確率(如99%)下的行政決定是失敗的。相反,這說明行政機關(guān)在現(xiàn)有條件下已經(jīng)達到了它的最好治理水平。質(zhì)言之,行政機關(guān)此時的行政決定盡管不是完美的,但卻是最優(yōu)的。

其次,行政機關(guān)可以憑借機器學習算法實現(xiàn)高效決策。“工業(yè)革命使手工業(yè)自動化,信息革命解放了腦力勞動,而機器學習則使自動化本身實現(xiàn)自動化。”(62)[美]佩德羅·多明戈斯:《終極算法——機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,第13頁。機器學習算法的高度自動化,將大大縮短行政決定的作出時間,而這種優(yōu)勢在多階段和交叉并行的行政行為過程中表現(xiàn)的尤為明顯。以國有土地使用權(quán)出讓行政協(xié)議的簽訂為例:相關(guān)行政事項必須先列入規(guī)劃部門的立項計劃,然后經(jīng)由住房與城鄉(xiāng)建設(shè)部門審批,最后由國土資源部門對協(xié)議進行蓋章確認。經(jīng)歷這一復雜的行政程序后,該國有土地使用權(quán)出讓協(xié)議才算最終簽訂完成。這是一個系統(tǒng)而費時的過程,但在機器學習算法的介入下,上述事項都將可在瞬間處理完畢。易言之,機器學習算法使得復雜而繁瑣的行政過程變得快速、簡單且高效。

再次,機器學習算法可以幫助行政機關(guān)探尋到解決疑難問題的可行方法。一般來說,算法都包括輸入和輸出兩個環(huán)節(jié)。以往算法的運作過程是:程序員將數(shù)據(jù)輸入計算機,然后計算機內(nèi)置的算法憑借這些輸入的數(shù)據(jù)導出最終的結(jié)果。而機器學習算法則有所不同,它是將一般算法的運行過程直接顛倒過來:程序員向計算機輸入的是數(shù)據(jù)和想要達成的結(jié)果,而計算機最終輸出的卻是算法。也即,程序操作員可以借助機器學習算法而得到勾連“數(shù)據(jù)”與“結(jié)果”之間關(guān)系的其他算法。質(zhì)言之,機器學習算法可以制作其他算法。(63)參見[美]佩德羅·多明戈斯:《終極算法——機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,第9頁。這就為行政機關(guān)處理復雜行政事項探索出了可行的方法和路徑:行政機關(guān)只要輸入相關(guān)的數(shù)據(jù)和想要達至的行政目標,就可以探尋到能夠?qū)崿F(xiàn)這一行政目標的可行方法。

最后,機器學習算法可以幫助行政機關(guān)和行政相對人走出信息超載的困境。信息時代,不管是行政機關(guān)還是行政相對人,都直面巨量的數(shù)據(jù)。這一方面確實給他們創(chuàng)造了更大的選擇空間,另一方面卻也給他們帶來了信息超載的困擾。易言之,巨量數(shù)據(jù)大大超越了人類的可負載能力,這將延長人們的決策時間、減損人們的決策質(zhì)量且降低人們決策的滿意度。(64)參見車敬上等:《為什么信息超載損害決策?基于有限認知資源的解釋》,載《心理科學進展》2019年第10期。因此,如何從巨量數(shù)據(jù)中快速而準確地擇取到自身真正需要的信息,成為行政機關(guān)和行政相對人所共同面臨的現(xiàn)實難題。而機器學習算法的出現(xiàn),將可以幫助行政機關(guān)和行政相對人走出上述困境。總體而言,機器學習算法可以幫助人們迅速過濾掉不需要的信息,并摘取出自身真正需要的信息。這不僅增進了行為人的選擇自由,也大大降低了行為人篩選信息的成本。具體到行政活動領(lǐng)域,對于行政機關(guān)而言,一方面,精確而有用的數(shù)據(jù)將有助于政府信息公開制度功效的發(fā)揮,更為透明負責的政府之建設(shè)得以可能;另一方面,行政機關(guān)可以利用這些更為精確的數(shù)據(jù)來實現(xiàn)對公共事務的科學治理,從而實現(xiàn)行政成本的降低和行政效能的提升。而對于行政相對人來說,機器學習算法在行政過程中的運用,將可以保證相對人能夠從行政機關(guān)處獲得自身真正需要的信息,從而合理安排自身的生產(chǎn)和生活;同時,這也能更好的滿足公民對憲法賦予他們的知情權(quán)這一基本權(quán)利的期待,使得公民得以更充分的展開對行政機關(guān)的監(jiān)督,從而督促行政機關(guān)依法行政。

總之,借助機器學習算法而實現(xiàn)的行政自動化不僅有助于行政機關(guān)更加快速、精準與明智的作出行政決定,也更有利于公民實現(xiàn)其依法所享有的諸項權(quán)利。

(三)自動化行政在增進“行政最佳性”時所需的法律保障機制

自動化行政在增進“最佳行政”方面所具有的諸多優(yōu)勢,是我們在結(jié)果層面所做的評估。那么,如何保障行政自動化能夠切實增進“最佳行政”這一優(yōu)勢的發(fā)揮?筆者認為,這是一項從技術(shù)和法律兩個層面都需要作出努力的事業(yè)。技術(shù)層面的舉措是科學家(特別是算法科學家和計算機科學家)應該重點關(guān)注的事項,而法學家們的任務則在于通過一系列法律制度的設(shè)計來保障機器學習算法的順暢運行。盡管如前所述,機器學習算法在行政決定中的運用并不會在根本上對傳統(tǒng)行政法律原則形成沖擊,但是公眾對行政機關(guān)依賴技術(shù)進行行政決定的擔憂并非沒有任何根據(jù)。所以,法學學者們?nèi)匀粦斕嵝研姓C關(guān)謹慎行事,防止行政機關(guān)因不當使用機器學習算法而遭致合法性質(zhì)疑。

首先,機器學習算法在行政決定中的運用需要解決組織權(quán)力來源和決策的民主性問題。我們會發(fā)現(xiàn),機器學習算法在行政決定作出過程中的運用,往往需要行政機關(guān)對決定事項進行編碼,對相關(guān)行政決定的成本和收益作更為細致的量化分析。(65)參見Cary Cogliance &David Lehr, Regulating by Robot: Administrative Decision Making in the Machine-Learning Era, 105 Georgetown Law Journal 1167 (2017).但在以往,這些行政決定事項都是由行政機關(guān)進行定性判斷。機器學習算法的引入所帶來的這一變化,需要我們反思如下問題:究竟誰才有權(quán)將這種定性的價值判斷問題轉(zhuǎn)化為成本比率的定量分析問題?誰又有權(quán)在機器進行行政決定所面臨的困難與可能提升的準確度之間作出具體的衡量和判斷?這是行政機關(guān)在進行相關(guān)量化工作時所面臨的規(guī)范性問題,故而只能由法規(guī)范來予以回應。

其次,國家需要在程序法制度的設(shè)計方面作出更多努力,以防止行政的自動化導致相關(guān)行政決定逸脫法規(guī)范意旨。行政機關(guān)應當保證其給機器植入的算法符合公益需求,從而不帶有任何人為的歧視和偏見。同時,在運用機器學習算法來做行政決定時,行政機關(guān)還應當不時考察算法中數(shù)據(jù)錯誤率與行政決定被撤銷率之間的關(guān)系,以判斷機器進行行政決定是否足夠成功。此外,行政機關(guān)還應當尋找和組建中立的專家組,(66)在這個專家組中,應當特別注意統(tǒng)計專家的引入,以便對相關(guān)行政決定的有效性進行及時和科學的判斷。對行政機關(guān)運用機器學習算法進行行政決定的合法性和有效性做中立而客觀的過程性判斷;如果專家組認為相關(guān)行政決定可能偏離既定目標,可以隨時暫停或終止該行政決定的作出或使得該行政決定得以被溯及性的撤銷。

再次,行政機關(guān)不應當隨意介入個人隱私領(lǐng)域。運用機器學習算法進行行政決定的前提,是行政機關(guān)掌握有大量的數(shù)據(jù)(特別是行政相對人和其他公民的數(shù)據(jù))。(67)實際上,行政機關(guān)現(xiàn)在已經(jīng)成為公民信息的最龐大占有主體。參見張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,載《中國法學》2015年第3期。由于借由公民個人的數(shù)據(jù)可以清晰地勾畫出公民的網(wǎng)絡(luò)肖像和行為軌跡,這顯然已經(jīng)關(guān)涉公民的個人隱私,因此國家此時應當對公民施加足夠充分的保護。即便是對時常以公益代表自居的行政機關(guān),國家也不能允許其隨意對公民的相關(guān)數(shù)據(jù)進行不當利用。具體而言,國家應當對行政機關(guān)在運用機器學習算法而收集、存儲和使用公民數(shù)據(jù)的行為作出相應地規(guī)范:行政機關(guān)不在必要的時候,不得收集公民個人的數(shù)據(jù);對于必須收集的公民數(shù)據(jù),行政機關(guān)應當妥善進行保管和儲存;同時,各行政機構(gòu)之間因公務需要而共享公民的個人數(shù)據(jù)時,還應當確保該數(shù)據(jù)在傳輸時的安全。

最后,在機器學習時代,行政機關(guān)除了在干預行政領(lǐng)域應當遵循一定的法規(guī)范要求外,在給付行政領(lǐng)域也有依法行政的空間。行政的自動化必然會使得原本很多由真人從事的工作被機器所取代。(68)在弱人工智能時代,一些流程性的簡單工作首先由機器接手。而一旦信息技術(shù)發(fā)展到一定程度,到了強人工智能時代甚或超人工智能時代時,許多原先由人類從事的、技術(shù)含量較高的工作,都可能被機器所取代。這將直接導致相關(guān)勞動群體失去工作的機會,關(guān)涉勞動者在憲法層面的就業(yè)權(quán),也涉及到行政機關(guān)給付行政職能的發(fā)揮。這雖然是社會信息化后必然會出現(xiàn)的結(jié)果,但政府在其中并非毫無作為的空間。在當前的時代情勢下,行政機關(guān)應當發(fā)揮其宏觀調(diào)控和行政指導的公共行政職能,將公眾就業(yè)方向更多的轉(zhuǎn)移到機器學習算法的設(shè)計這一技術(shù)的前端,而非一直固守在技術(shù)運用的末端。只有這樣,我們才能克服公眾對機器學習將導致大面積失業(yè)的恐懼,也才能有效防止人類淪為機器作用的客體。

總之,自動化行政會給行政機關(guān)科學而高效地進行行政決定帶來諸多助益。但是,行政機關(guān)在此中仍然應當審慎行事,并設(shè)計相應的法律機制來保障自動化行政能夠切實助力“行政最佳性”的實現(xiàn),從而防止發(fā)生行政機關(guān)決策因逸脫法規(guī)范要求而可能引發(fā)的合法性危機。

結(jié)語

自動化行政活動在現(xiàn)實中已經(jīng)多有發(fā)生,其內(nèi)在的技術(shù)支撐在于以機器學習算法為核心的人工智能。“機器學習是100萬年傳奇中最新的篇章:有了它,不費吹灰之力,世界就能感知你想要的東西,并依此做出改變。”(69)[美]佩德羅·多明戈斯:《終極算法——機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,序言。隨著機器學習時代的來臨,行政機關(guān)借助機器學習算法而實現(xiàn)的自動化行政將成為未來的一個趨勢。但由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,因此它也引發(fā)了公眾對于“人將被機器所控制”的深刻擔憂甚至恐懼。然而,機器學習算法對行政機關(guān)行政決定作出過程的合理參與,并不會對傳統(tǒng)行政法治造成根本性的沖擊,自動化行政仍然符合形式合法性的要求。同時,自動化行政還會讓行政機關(guān)所作出的行政決定更加科學、高效和明智,從而實現(xiàn)“最佳行政”之目標,這就在更深層次證立了自動化行政的實質(zhì)合法性。當然,這并不意味著我們可以對機器作出行政決定的行為聽之任之,行政機關(guān)的行政決定仍然應當在權(quán)力來源、程序設(shè)置、公民個人隱私保護以及公眾就業(yè)引導等方面合乎法規(guī)范的要求。我們要防止行政機關(guān)因不當使用機器學習算法而致使相關(guān)行政決定陷入合法性危機。最后,需要指出的是,行政的自動化必然會使一些法律價值遭受減損,(70)例如,算法黑箱可能導致行政行為與相應結(jié)果之間的因果關(guān)系不明,或者機器學習算法可能會致使公權(quán)更多的介入到公民的個人隱私領(lǐng)域。但這是國家在引入新技術(shù)和力圖提高行政效能時所必然要付出的代價。而對于國家來說,這其中會涉及到“成本—收益”的總體考量;同時,這也是國家推行信息化大戰(zhàn)略時在公益和私益之間進行結(jié)構(gòu)性平衡的結(jié)果。

猜你喜歡
法律
見義勇為的法律保護
新少年(2023年9期)2023-10-14 15:57:47
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
為什么法律推理必須是獨特的
法律方法(2019年4期)2019-11-16 01:07:16
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
法律擬制與法律變遷
法律方法(2019年1期)2019-05-21 01:03:26
非正義法律之解釋與無效
法律方法(2018年2期)2018-07-13 03:21:38
《歡樂頌》中的法律“梗”
學生天地(2016年23期)2016-05-17 05:47:10
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質(zhì)疑聲背后的法律困惑
主站蜘蛛池模板: 日韩无码黄色| 亚洲 成人国产| 国产成人精品高清不卡在线| 在线亚洲天堂| 欧美色视频网站| 国产网站免费看| 女高中生自慰污污网站| 亚洲不卡影院| 日韩高清中文字幕| 亚洲视频影院| 亚洲欧美日韩中文字幕在线| 91在线国内在线播放老师| 亚洲一级毛片免费观看| 亚洲三级视频在线观看| 午夜不卡视频| 国产精品无码一区二区桃花视频| 亚洲不卡av中文在线| 欧美精品v欧洲精品| 亚洲av色吊丝无码| 无码电影在线观看| 国产乱子伦无码精品小说| 国产香蕉97碰碰视频VA碰碰看 | 国产一区二区三区视频| 高清欧美性猛交XXXX黑人猛交| 亚洲国产在一区二区三区| 成人字幕网视频在线观看| 中文字幕在线一区二区在线| 全免费a级毛片免费看不卡| 久久一级电影| 中文字幕日韩丝袜一区| 久久一色本道亚洲| 欧美激情一区二区三区成人| 青青青伊人色综合久久| 婷婷色一区二区三区| 第一区免费在线观看| 2020久久国产综合精品swag| 精品国产一区91在线| 久久精品国产电影| 成人免费黄色小视频| av在线5g无码天天| 欧美成人午夜视频免看| 伊人久久福利中文字幕| 国产成人喷潮在线观看| 亚洲αv毛片| 亚洲国产成熟视频在线多多| 中文无码精品A∨在线观看不卡| 日韩AV手机在线观看蜜芽| 亚洲手机在线| 久久久久久尹人网香蕉| 亚洲黄色视频在线观看一区| 一级爆乳无码av| 亚洲国产日韩在线观看| 日韩精品一区二区三区免费| 久久综合结合久久狠狠狠97色| 囯产av无码片毛片一级| 中文国产成人久久精品小说| 国产无套粉嫩白浆| 精品久久久久久中文字幕女 | 中文字幕久久精品波多野结| 欧美精品v欧洲精品| 免费在线一区| 久热中文字幕在线观看| 亚洲av无码人妻| 亚洲成人手机在线| 人人妻人人澡人人爽欧美一区| 最新无码专区超级碰碰碰| 国内精自视频品线一二区| 日韩免费视频播播| 亚洲熟女中文字幕男人总站| 乱人伦视频中文字幕在线| 午夜老司机永久免费看片| 免费国产高清精品一区在线| 久久久精品国产SM调教网站| 国产精品亚洲片在线va| 日韩欧美中文在线| 91www在线观看| 亚洲国产天堂久久综合| 欧美 亚洲 日韩 国产| 国产在线91在线电影| 欧美 亚洲 日韩 国产| 中文字幕免费播放| 精品无码专区亚洲|