999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

公共領域算法決策的幾個問題探討

2020-06-22 07:43:42陳姿含
理論探索 2020年3期
關鍵詞:公共管理

〔摘要〕 在技術驅動和公共管理職能轉變的需求下,公共領域算法決策得到廣泛應用,其在管理職能和方式中的獨特性是規則調整的前提。算法決策同公共權力的結合,使得技術發展無法中立,且在機會平等表象下可能造成對權力秩序的沖擊和對個體權利的侵害。傳統的法學調整方法面臨分散的個體發展同民主秩序穩定、風險預測與因果關系、權力賦予與權利保障等矛盾的協調問題。公共領域算法決策的法律規制必須在算法系統、價值選擇、制度構建和評估標準層面進行引導。

〔關鍵詞〕 公共管理,算法決策,自由裁量權,權力邏輯

〔中圖分類號〕D90 ?? 〔文獻標識碼〕A〔文章編號〕1004-4175(2020)03-0113-08

我們身處的時代,信息成為一種有價值的資源,算法開始介入其中。算法幫助人們將分散的信息和數據整合為有用的概念、規則甚至模式。同時,信息的膨脹,讓數據挖掘和知識發現成為必然選擇,這意味著算法不再止步于信息查詢,而是能夠發現數據之間的潛在聯系,以便在準確預測的前提下,更合理地制定決策。算法可以在短時間內對大量數據進行分類篩選,并進行深度挖掘,將通常是非結構化的數據進行模式或者關聯性的構建,是一種新的知識生產方式。

伴隨計算機技術和智能硬件設備的發展,人們愈加能夠享受基于機器學習算法決策所帶來的便利,算法解決了諸多復雜的問題,節約或者超越了人力,對社會產生了深刻的影響。有學者研究算法作為一種權力的特征 〔1 〕,或者討論算法決策對整個法律體系和法制建設可能產生的影響 〔2 〕;既有的研究有從個案出發討論法律調整算法歧視的范圍和類型 〔3 〕,也有從憲法或者其他實體法出發尋找調整算法的依據 〔4 〕與方法 〔5 〕。在肯定這些研究對算法和法律之間的互動關系做出努力的同時,同樣應當關注算法在不同場景的應用,尤其是以公共管理為目的的算法決策的獨特性,進而探知公共領域算法決策的驅動因素和價值追求,作為公共領域算法決策法律規制的依據。

一、算法決策為什么被應用在公共領域

算法決策是大數據時代的必然產物,對公共事務的發展具有技術性驅動作用,它滿足了公共管理職能轉變的需求,體現出其獨特的功能優勢和存在的系統性問題。

(一)公共領域算法決策的應用優勢。公共領域算法決策是指對大量公共管理中的數據進行深層次分析之后,按照既定組織目標和秩序,進行管理方法的探索,重復既有成功的、驗證已知的、揭秘隱藏的、發現未知的有效信息和規律價值,并創建模型,促進公共管理運作。算法決策在公共領域的應用,是基于結構化的數據而獲得較強的驅動力。公共服務傾向于使用數據分析和算法決策來實現政府服務的轉型,以期待更好的公共服務,比如提高工作效率,讓行政相對人獲得更好的體驗,或者以更加廣泛的決策促進市場經濟的發展。為了實現這些目的,公共服務算法的應用也經歷了從作為傳統決策的證據,向構建算法模型的轉變。

算法在決策層面具有兩個明顯的優勢:第一,具有更準確或者更強大的數據計算能力;第二,能夠考慮到更多的因素,并發現這些變量之間意外的關聯。算法雖然無法預測未來,但是可以根據現有的數據評估發生某件事情的可能性,尤其是在錯綜復雜的因素中,發現那些容易被人們忽略的某些因素混合以后產生結果的可能性——因此可以做人類在通常的計算中無法做到的事情。

算法決策服務于行政關系,第一,加強內部組織職能,規范權力行使的方式和標準,排除個人行為對整體行政職能的損害;第二,加強對行政相對人的監管,改變管理方式,適應新的時代特征,提高效率且有助于約束個人行為;第三,幫助公共管理凝聚共識,使得人在物理和信息層面的流動性加強,導致法律關系主體復雜化,客體多元化,法律關系在多層次和多場景中展開。這使得自發形成的社會規范如習慣和道德倫理愈加無法得到統一和普遍適用,而算法決策對于建構性規則在作為證據和價值指引層面的作用得以增強,從而有助于規則的統一,并可以為立法提供依據。

(二)公共領域算法決策的方式及問題。公共決策應用算法的形式主要有兩種,第一是自動化系統,第二種是深度學習系統。在算法的自動化階段,算法決策帶來的進步主要體現在技術層面,比如行業基礎規則的嵌入、算法在特定場景的應用、底層技術與交互技術的融合、算法語言與可視化系統的發展以及數據開發精確性的進步 〔6 〕。自動化系統的優勢符合公共服務的決策原則,即政府應當以合法的方式行使權力,并以公平、有效、高效的方式輸出決策。自動化系統傾向于處理較為簡單的問題,在決策程序上更多的扮演證據的效力或者是發揮輔助的作用。所以在這一層面,其法律問題爭議不大。算法發揮輔助作用,讓決策者對公共管理所預期的結果有了更清晰的認識;可以對結果或者目標是否達成進行實時測量或者監控;在這一過程中運用算法對行政行為進行糾正,并且讓定期科學的事后評估成為可能。

對于自動化系統,公共服務面臨的一個問題是,如何將越來越復雜的元素結合在一起得出簡單并且客觀的結果。海量數據可能會讓機械性的決策系統效率低下。另外,行政相對人也愈加需要個性化的服務。而這一層次的問題特別需要技術的進步,以實現更加有效和個性的公共產品輸出。在這種需求的推動下,算法向深度學習系統轉變。深度學習系統不僅可以加速決策,而且可以改善決策。在滿足決策的專業性和標準化要求層面,深度學習系統發揮了重要的作用,即可以讓政府通過系統地利用知識來指導具有前瞻性和社會變化的決策方式;通過這些算法來幫助政府應對耦合和復雜的問題;通過分析復雜的數據,并結合其他領域的資源,挖掘那些容易被忽略和錯過的信息,或者排除不必要因素的干擾。所以與自動化系統不同,深度學習算法不僅可以復制既有的成功做法并降低人工成本,而且可以比人類做得更好。因此將深度學習算法制定的政府決策納入合法性評價體系中,還必須思考:第一,這種深度學習算法追求何種價值,其應用的績效以及執行的標準為何,在進行法律的評估之前這些問題都必須加以明確。第二,由于這一系統不僅承擔了人類決策的工具性作用,而且對決策具有結構化增強作用,因此,必須考慮如何讓傳統的行政法主體去承擔責任。第三,如何讓基于深度學習系統的政府行為具有可預測性、可解釋性和可控制性。這些問題的實質就是解決公共領域算法決策的合法性問題。

二、公共領域的算法決策為什么需要規制

公共領域的算法決策具有人力所無法實現的優勢,驅動著決策系統的技術升級。隨之而來的問題是政府依靠大量數據作出的決策,如果違背行政實體法或者程序法,是否可以被問責;實踐中政府對算法決策的快速部署,比如在福利分配或者安全防控方面,會給公民權利帶來風險,這使得算法如何對規范結構產生作用受到關注;如果行政主體的決策可以基于算法主張免責,背后的數據驅動可以跳脫法律價值的判斷,屬于政府監管或服務的對象,是否可以因為算法的應用而主張免除責任,是否可以同公共領域算法決策起到同樣的效果。要回答這些問題,就必須對公共領域算法決策中立性問題和合法性問題進行思考。

(一)算法決策的中立性判斷和透明度需求。從政治哲學出發,“政治事務依照其本性容易受到支持與反對、選擇與抵制以及稱贊與責怪” 〔7 〕3。因此,算法決策作為一種公共管理的手段,本質性的知識和判斷性的標準應當為人們所了解。就這一問題的回答,西方學者歷來存在爭議。一種傾向認為,數十年來,將技術應用于政務決策的實踐一直存在,因此依靠算法做出管理決策并非深層次的改變 〔8 〕86;與之相對應,近年來有學者傾向于認為,技術已經成為公共管理的中心 〔9 〕,公共領域算法決策應當被重新定義為數字時代的治理;還有學者關注如何將分散的數據進行共享,并建立一站式服務,在這個層次上已經涉及權力的分配問題。

技術變革通過影響公共管理能力而更廣泛地對制度決策產生影響。因此關于公共領域的算法決策,與其單純地在公共職能視角下理解技術的發展和應用,毋寧說是理解技術對傳統公權力的影響。人們普遍接受電子政務在現代行政權力中所發揮的作用,并就權力機關的職責形成普遍共識,那么算法決策是否可以視為電子政務呢?或許有人會說,電子政務具有輔助性,而算法決策是對人力的替代,因此,電子政務是傳統行政權力的延伸,而算法則不能依照傳統的程序和實體性法律問責。算法應用于決策之中,是一種輔助證據還是決策取代因素在實踐中并沒有嚴格限制。從目前來看,決策者可以開發風險評估的簡單方法,基于上下文的簡單規則進行評估,這個時候行政相對人被分配的風險就較少;隨著數據收集和分析工具的增加,決策者可以使用算法來加權和聚合承擔管理職能的人所選擇的大量指標,進而提供對決策具有重要影響的報告;算法同樣可以基于機器學習來識別、加權和匯集有用的指標并且開發最佳的統計模型,進而無需人工的參與。這表明,當技術性因素攝入較少而依然保持權力機關工作人員的主導性時,算法決策與電子政務一樣可以納入行政法調控的范疇。

但當算法決策超越傳統的決策能力時,是否可依技術中立而拒絕承擔責任呢?問題集中到,公共領域技術應用是中立的嗎?答案是否定的。認為人工智能與算法奉行價值中立原則的人,往往基于算法可以將信息篩查與風險評估適用于所有全體,因此可以同平等相兼容。而傳統的分類是建立排斥系統的重要步驟,即將個人從一組中分離出來,或者將一個組從一個類別當中分離出來。南非歷史上的種族制度,比利時在盧旺達殖民時期的特權制度,以及納粹的優生制度,甚至美國的Jim Crow制度都是被法律所明確的分離標準的典型代表 〔10 〕。這一法律分離的標準還需要其他社會規則維持附加規則。因為傳統的分離和篩查制度是為了維護分離的實質。傳統的公共管理決策中,這些不公平的決策容易引起公民的警惕,因為這些篩選的依據可能是歧視性的,判斷的標準也不客觀。在算法決策中,篩選對全部公民是平等的,但分類是個別的,分類被隱藏在表面平等之下。所以法律一旦確認了誰享有特權或者誰沒有特權進行分類,那么分類與篩選都只是一種隱藏特權的表象:其一,算法可能不是簡單地復制歧視性的標準,比如把種族、國籍、宗教等作為分類標準,但是算法有能力使用有關的抽象信息達到同樣的效果,比如生物數據、網路活動軌跡、社交信息,然后進行記錄、提取與分析。其二,在這一過程中機器學習取代了人力的判斷,算法決策無需對個人進行分類就可以實現篩選的目的,而在人工的時代分離往往是篩選的前提,擁有了種族制度或者特權制度,才需要在教育、職業甚至娛樂層面進行區別。分離是篩選的前提還體現在分離強調諸多的外在形式,比如檔案記錄、流程的連續以提供人工篩選使用。但是這些形式化要求都被算法所突破,分類并非篩選的必經程序。二者的順序可以互換也可以同步完成。其三,以往篩選與分離經過長期發展,在民主決策與平權運動的推動下,篩選的目的必須為社會公眾所認可,比如基于反恐和安全的需要,而分離的標準也必須是法律明確規定或授權使用的依據。算法決策不僅可以對流程進行組合,而且可以對數據目的進行延伸性使用,完全數字化和自動化的結果導致公民幾乎不可能查閱與追問這一分類和篩選的過程,也就無法對其目的、主體、程序和結果進行合法性判斷。因此,算法介入公共決策的程度可以由淺入深,但是算法對人力的徹底取代或者管理方式的創新,并不能實現真正的中立,且會將過去很多違背法治價值的現象被隱藏或者被放大。

(二)算法決策的權力賦予與法治需求。在現代法治國家,人們普遍認為行政權力應當受到法律約束。雖然就算法決策對基本權利、民主制度以及善的理念的影響,各國憲法和行政法如何調整有所不同,但是對算法決策的法律規制應當包括形式和實質兩個方面業已達成共識,前者側重合法性的來源和形式,后者側重程序和實質性具體制度規定 〔11 〕。而算法決策代表著一種權力話語的轉換,其結果是防止那些受到自動化系統影響的人理解決定如何做出以及背后的邏輯和推理。正如福柯所言,語言塑造著我們對合法性的理解和認識。在從人工向算法決策轉變的過程中,當然隱匿著權力的轉換,但這不是一個新穎性的話題。這種權力轉換在法律規制層面并不陌生,因為對國家安全、商業秘密、個人隱私的保護,其背后都是一種權力對信息和財產的控制。公共領域算法決策代表著向誰賦予權力的問題,因此必然涉及合法性問題。

算法決策對整個法律體系方面的影響,比如創新行為規則,對既有規則進行補充,其本質是擴展并深化權力對社會的滲透。雖然算法決策同社會流動性與信息化密不可分,但是其在私人領域的應用與政府制定公共決策存在較大區別,二者所追求的價值不同。商業決策在主體地位平等的情景下,對自由價值的追尋,通過新型權力的創設,形成同國家法律、市場和技術的競爭關系,是對現有規則的創新和補充;公共領域算法決策則追求實質平等的結果,是權力對分散的市場決策則所進行的整合。政府通過算法決策增強其權力的實施,對既有的管理對象進行規范的整合。以算法制定的公共決策更加的不透明和復雜,可能會加劇既有的不平等。算法決策會將設計者固有的偏見擴大。較之于商業算法,公共決策中的算法歧視往往更具有隱蔽性,原因歸結為:第一,算法決策表面上使用的基礎數據是中立的,但是因為使用的數據中隱藏著應保護的敏感信息,即“冗余編碼” 〔12 〕的存在,這些原本客觀的數據一旦被組合在一起,便成為歧視的根源。公權力較之于私人決策者具有更廣泛的資源和手段獲取公民的敏感信息。第二,設計者偏見的輸入因政府利用數據決策的系統而變得更為復雜,數據處理階段、信息控制挖掘階段、結果展示階段都有可能帶入偏見,而僅僅在結果展示層面歧視容易被發現,事實上是數據的獲取、取樣、篩選、轉換以及數據存儲的管理、規則的設計與評價都有可能存在歧視。公共管理合法性對主體具有嚴格的限制,這導致依靠技術層面服務器所產生的問題和發生在網絡信息空間的問題比較容易規避行政法的調控。

因此,算法決策雖然對傳統行政權力為代表的公共權力有不同程度的影響,但并不能基于技術中立而免除公共領域算法決策的問責。算法決策的本質是一種權力的賦予。算法決策小心謹慎地收集和分析有關公共事務的信息和數據,同公共權力的結合,使得決策對社會治理結構性影響和對私權利的風險更具有隱蔽性,因此必須以法治目標對算法決策進行評價和規范。

三、公共領域算法決策對傳統法律規制的挑戰

對算法決策中立性的否定和透明度的需求分析說明將公共領域算法決策納入法律規制的必要性。但是算法決策合法性問題的核心不在于它比人類更加不透明,更加復雜或者更具有偏見,如果是這樣,那么對人類決策起作用的問題機制經過一系列的修改,即規則的精細化將起到作用。公共領域算法決策本身蘊含著這樣的矛盾,創造價值并制造價值沖突,即當在公共管理視域中,法治的進步蘊含著對以知識代替意見與以客觀標準代替主觀隨意性的要求,由此建立起為社會一般公眾所認可的規則體系,這一過程并不摒棄價值的存在。尤其是在社會公共領域,如果沒有價值判斷就不能進行重要社會現象的研究。但是承認價值評價,并不代表拒絕和排斥價值的沖突,比如在制度構建上自由和秩序的選擇,在路徑上保守還是改革的方法,在歷史進程中前學科知識和現代知識體系的優越性判斷,而這恰恰是算法決策必須面對的困境。因此,厘清算法決策作為一種知識形態或者技術方法及其對法律傳統方法形成的挑戰就成為法律規制的前提。

(一)以分散個體為導向沖擊法律秩序的追求。算法決策代表了一種明顯的市場向度,無論從理論上還是實踐上,都對社會政治和經濟制度構建影響深刻 〔13 〕。算法決策的核心價值追求是效率,促使社會資源的投入向著超過人工生產力的大規模機械化作業進行傾斜,包括人工智能和自動化決策。其在市場機制中體現的尤為明顯 〔14 〕。在制度上,算法決策削弱了程序護欄確保問責機制的有效性。對于傳統的法學價值,其目的機制在于公平、非歧視和人權保障等,以此作為標準進行審視,算法決策很有可能被認為具有“違法性”。但是,算法決策的創新和效率等價值卻受到重視,這就要求我們要學會審核代碼,而不僅僅將重心局限于合規程序。算法決策與其是一種政治哲學,毋寧說以私有財產權、個人自由、不受阻礙的市場和自由貿易為特征的制度取代基于正義和福利為特征的制度,通過網絡機構和人工智能培養個人選擇美好生活的能力來最大程度地提高個人福祉,這為算法的合法性帶來系統性問題。因為算法決策的平等是機會均等,或者選擇均等。因此,平等的理念與社會實踐之間的差距不是因為制度設計而成為個人問題,自動化決策恰好適應了新自由主義的認識,平等地將有差別的人作為無差別的數字符號。超越單純的機制選擇與迭代的技術,政府一直是推動算法決策并將之用于公共服務的重要推動力量。由于經濟社會的高速數字轉型,數據主體的有效控制,收集和處理的合法、公開、透明,輸入和輸出的充分和準確,數據的存儲與訪問,技術措施的安全等問題都會引發關注。算法決策法律規制的背后,存在著明顯的價值沖突:有人保持對新技術的熱情,認為其是解決問題的關鍵;有人擁護自由的發展,認為個性與私營主體的多元創新能力優于政府的利益;也有人主張虛擬的空間自由,防止公權力的介入。但是,如果一項技術是服務于社會中的大多數群體,政府的作用就不可替代,無論是作為社會系統的設計者還是行業領域技術創新的監管者,政府都應承擔其職責,打破技術中心主義的局限,將個體保護納入到社會系統的構建中,不僅列明算法決策透明度規則的強制性規定,而且強調民主的控制。所以公共領域算法決策的法律規制并非讓法律保障算法,而是應當讓算法同法律一樣,服務于構建公共基礎性的架構。

(二)控制論基礎沖擊線性邏輯。問責離不開對因果關系的關注。法律責任通過線性邏輯和程序規定了被問責行為的實現方式。算法會為了利益進行程序性的選擇。算法可以識別和評估所有風險,考慮替代方案,確定減輕的風險,并幫助闡明自動化的基本原理。算法注定了對于數據和過程的關注,也導致了將符號結構提升為實際遵守的法律證據,從而有可能忽略被算法決策實質性侵害的公正、平等和人性尊嚴的基本價值。

算法決策在邏輯上是一種以控制論為基礎,通過對“元數據”和“原始數據”進行收集和分析,使用智能化設備記錄數據的頻率、時間和階段,通過網絡進行設備和設備之間的通信,并且通過算法挖掘組合數據,觸發自動化的響應機制。所以從機制上來看,算法決策是通過循環控制實現自動化,反對因果關系的線性邏輯。立法確認和調整社會關系離不開從具體到抽象的總結,因此是以個體為基礎的規范機制。機器學習算法則通過網路基礎架構和云端,不局限于個體用戶的定位,還包括對分散的群體數據進行監控。因此算法從一開始就能以敏銳的洞察力預測個體和群體層面的行為,而不需要經過多個個體的累加和結果的總結,這種預測能力恰恰是人類認知所無法實現的。

關于符號的輸入,做到完全無差別是一種絕對理想的狀態。在這一過程中,固有的偏見可能會被強化,但這不是最重要的問題。問題在于設計者制定的算法和決策系統,貫徹執行的標準明顯優于社會業已形成的線性關系,即傳統的因果關系。二戰以后跨學科的控制論發展,像美國的國防建設、英國的認知科學,以及俄羅斯的計算機和網絡發展都是控制論推動算法在公共服務領域的實踐 〔10 〕。而公共領域算法決策既有的實踐表明,如果不將個人獨特的知識體系納入決策系統中,將是機器代替人類的延伸,由此創造了大量的無用階級,而這可能會對整個社會結構帶來影響。

(三)算法精確性沖擊著權力-權利的運行。公共領域算法決策的法律規制所面臨的另一問題是如何通過比例原則在政府算法決策與公民個體權利保護之間取得協調。法國行政法典要求算法決策必須向數據主體說明以下要素:第一,算法決策的貢獻程度和方式;第二,處理的數據和數據的來源;第三,處理數據參數以及酌情加權適用于有關人員的情況;第四,處理所有進行的操作。法國的行政法典雖然規定了政府向個人說明的義務,但是綜合這四項要素,能夠對政府行為合理性判斷產生影響的只有貢獻程度這一實質要素,其他三項僅是一種說明的義務。但是在行政法上,解釋與辯解歷來存在張力,因此,當我們按照行政法要求公共領域算法決策的可解釋性時,并不能夠證成其合理性。另外,還必須思考的問題是,行政法所要求的合理性不允許算法錯誤的存在,這種算法錯誤有可能是基于技術的錯誤,也可能是基于歧視的錯誤。

提高算法透明度是法治的要求。算法可能帶來國家權力和平臺權力的擴張,從而擠壓公民個人權利的實現,因此必須通過信息公開以保障對個體行為的預測能力,防止權力在技術支撐下對個體權利進行侵害;公共領域算法的應用必須防止權力的膨脹,實現有序的制度安排;算法所支撐的權力除傳統意義上自上而下的滲透,還體現出實際應用中的網絡化結構和彌散性,因此也要防止數字精英對政府權力的實質性取代。所以,對政府的算法決策應當采取預防性審查機制,進行算法審查和評估,首要原則是進行公開,以排除不合法的敏感數據的使用,確保決策的公正。同時,政府的算法決策要有民眾參與與退出機制,這是行政權在實體和程序層面合法性的要求。

算法決策挑戰了自由裁量權,而這關系到權力在公共管理中的運行問題。為了讓權力具有生命力,并在落實的過程中保持活力,決策的模糊性是必需的。決策期待更低層次的執行者,對法律進行具體的實踐和定義的完善。這意味著傳統的決策與執行之間雖然并非完全一致,但是在實踐中卻保持了系統的有效運作。算法的精確性可能導致權力的集中。強大的數據分析和人工智能技術,作為創新驅動在諸多國家戰略決策層面得到重視。較之于需要長期等待的實踐和分散信息的反饋,在宏觀層面建立新的協調機制加強數據監管和算法決策的方法備受青睞,比如數據管理機構的設立,英國、法國、德國等國家均采取了這種策略。這種新興協調機制的具體任務包括確立步驟以明確法律法規指導數據應用與人工智能技術發展。新興數據機構向政府提供有關于人工智能和數據安全的倫理性建議,并且根據數據使用和技術應用產生的潛在風險提供專家建議和解決途徑的支撐論證。在這一層面上,歐盟的GDPR與英國的數據保護條例都被視為創新協調機制的體現。

四、公共領域算法決策的法律規制

公共領域的算法決策具有數字經濟時代的流動性特征,這是由宏觀環境決定的。公共管理要體現技術進步帶來的歷史性特征,并基于算法的應用具有自身的獨特性,這取決于技術的發展和法治的本質追求。因此公共領域算法決策的法律規制在算法系統、價值選擇、制度構建和評估標準層面需要對時代要求和技術特征作出回應。

(一)將結果評估與裁量權控制相結合。算法應用的反應性系統在實現行政監管時側重以結果為中心,其優勢是可以保障管理質量的實現,主要工作方法是通過算法制定標準,現實中主要針對作為市場主體的生產者。在監督和評估過程中,反應性系統算法雖然給予數據輸入層面(對應著生產條件)的自由,但是結果的控制迫使其必須通過降低成本才有可能獲取更大的優勢,這在一定程度上鼓勵技術創新。但是以結果為導向的算法決策,可能存在嚴重問題:第一,基于算法決策而無法進行有意義的說明和解釋;第二,為了實現結果目標而進行的數字創造并非真正聚焦于公共服務的質量;第三,決策會為實現目標而壓制管理人員的能動性,或者為了壓制群體和目標之間的實際差異而最終導致系統的整體性僵化。

如果反應系統以結果為導向,其目的是為了防止違法現象的出現,那么預測性系統就以干預自由裁量權為導向,其目的則是防止風險的出現。預測性系統的作用在于降低行政負擔,并最大限度地符合比例原則,尤其是在檢查和監視方面作用明顯。因此,算法決策實際上是幫助分配執法資源,通過過濾和分類,對風險進行優先性的自動排序,根據算法結果,進行具有針對性和有效性的應對。但預測性系統本身也存在風險,比如預測性警務目前雖然被普遍接受,但是公共服務尤其是安全需求中所使用的數據和結果卻容易被動性泄露,進而會造成其他資源分配的不公,或者權力的主動性擴張,比如從基于安全性的公共領域向司法領域延伸。這種現象應該引起足夠警惕,因為個人完全被消失在社會現象中,存在被物化的危險。雖然都是依靠數據分析和自動化決策,公共領域的算法決策卻可以體現為不同的系統,結果和過程應當互為標準,并在法律監管和評估當中予以確立,防止偏廢其一而造成公權力和私權利的緊張關系。

(二)正當程序與實質性公平的并重。影響公民個人的法律決策應根據正當程序行使,而自由裁量權必須合法。因此算法決策在影響公職人員的決定時應當滿足合法性要求。另一方面,算法系統可能導致隱藏的或者意外的偏差,這些偏差既有人為的參與也可能由系統自身因素造成。雖然數據作為一種客觀存在已經取得普遍共識,且為社會現象提供了廣泛的解釋權,但是算法并非是全知全能的,數據收集與校準、過濾和解釋、設計和計算、路徑選擇和輸出本質上都無法排除主觀因素的存在。在商業算法層面,法律規制要消除依賴、打破壟斷、形成良性的市場競爭,并且平衡相關利益,防止數字權力對消費者個體權利的侵蝕。因此往往采取事后救濟的方式,特別強調結果的正義,即當商業利益對公民個體或者其他競爭者產生侵害時,應當追究責任。公共領域算法決策能力的提高,離不開技術創新與節約資本的相互結合 〔15 〕,比如智利的Cybersyn系統性設計。算法作為一種有效的設計有時的確以較低的技術投入改善政府的溝通能力,這與商業和市場對智能設備的更新換代相分離。除卻技術和利益性影響,更為重要的是公共領域的算法應當遵循不同的治理規則。正當程序不僅要求排除算法的固有偏見,而且應當保證正當程序的雙重面向,即決策過程中執法人員的決策權(因保護弱勢群體需求的酌情決定權與不采取算法作為主要證據的指導權)和被執法者公正參加聽證和獲得被公開審判的權利。所以公共領域算法決策中的程序救濟要以實體正義作為標準,這既由算法決策的特殊性決定,也是基于公權力自身合法性與合理性的需求。

(三)構建公共服務算法決策的民主程序。算法決策較之于人類決策更具有隱蔽性,因此算法的可解釋性尤為重要。算法的不透明可能是多種因素造成的 〔16 〕,其中之一是商業優先權和商業秘密的存在。但是行政權力的行使不同于商業算法,其可解釋性要具備必要性:第一,法治要求個人應當知道不利于其決定的原因,這些原因還必須伴隨因果關系。第二,行政程序不僅僅強調決策的過程,而且強調以問責制保證決策的結果,即要求決策者必須根據某種標準來解釋和證明自己的決策,然后對過失和錯誤進行修正。第三,法治要求社會秩序整體上的透明性,即運作的方式和原則都是透明的,為社會公眾所理解,且具有穩定性,這是政府對于社會公眾的持久性承諾。第四,公共服務決策過程,不僅僅是一種制度性安排,還應該是對集體道德和文化結構的保障。因此算法還必須保障民主機制的平衡,這意味著人們不僅可以在透明的規則下實現民主的參與,還能夠創設其他的規則與自上而下的統合形成競爭機制,所以公共管理的目的不是僅僅讓個體成為被管理的對象,而應該是一種集體化的主體,由此決定了公共決策中的算法也不應該僅僅掌握在權力執行者手中,個人和社會的公開與應用是保障這種競爭與平衡的前提。

(四)滿足透明度和一致性的要求。透明要求程序性的法律規范,比如在歐盟法律層面依賴于歐盟數據保護原則,但一致性原則則要求不同效力位階的規范在數據收集預算決策時以結果和目標為導向,所以算法決策又是一種流程性的規制模式。歐盟對算法決策的法律規制,貫徹數據保護法的傳統,這一框架性的法律具有如下特征:算法決策必須符合歐盟層面法律制度的“命令與控制” 〔17 〕,其具體舉措必須滿足核心法律標準,比如第5條①或者第22條②的規定;歐盟數據框架還賦予一些數據主體權利,成為數據控制者必須遵守的義務。因此算法決策的治理應當是公共服務機構采取常規命令與控制技術的組合,但以私權利作為補充。此外,雖然數據保護法是框架性命令,但是要避免過于原則。比如GDPR第25條第2款③,是一種具體方式和實質性結果的結合。此外,歐盟對算法決策的監管依賴于獨立的數據保護機構,這一機構被賦予廣泛的執行權和解釋裁量權;與自上而下的監督相對應,歐盟法律賦予數據主體申請強制執行等廣泛的救濟性權利,讓數據主體的同意成為一種可能。

法律的目的可能不是真的讓處于技術和資源相對貧乏的個人通過終止侵權、強制執行與行政賠償的方式對抗政府的公共決策,而是敦促公共管理主體的義務履行,進而確保算法的升級不排除個人的參與,所以政府依然被視為制度的設計者。為此,雖然諸多的個體權利被予以確認,算法決策法律規制絕非應該定位于單一的隱私保護或者數據財產權利。計算機技術和算法讓行政行為在先進性和效益方面有了非凡的增長,但是將這些單一的個體組合在一起,不僅會對個人自主權和人性尊嚴等一系列的價值產生影響,最重要的是可能會對民主的共同體造成影響。所以算法決策不是單純在技術上對唯理論的追尋,還必須滿足對道德、民主和政治的維護。

總之,對公共領域算法決策進行法律規制,需要解決傳統調整方法在動態社會所面臨的矛盾:認識層面的技術中立性隱藏著“算法監獄”“算法暴政” 〔18 〕與追求共同善之間的沖突;方法層面自上而下的權力滲透與自下而上的自我整體性監管之間的張力;具體操作層面追求結果的效率導向和追求控制的過程監督之間的區別,為此,必須具有權力-權利秩序構建的雙重面向,以實現制度的構建和價值的保障。從更廣闊的視角看,算法決策并非在尋求放之四海而皆準的真理,也不是通過抽象數學公式、物理定律或者機器原理對數字經濟進行哲理上的定義,而應當是通過對信息的處理使其針對細分的場景和特定的條件,更便于操作和理解,更能夠被大眾所認知并被自然語言所描述,進而促進公共管理職能的實現和數字社會的進步。

注 釋:

①Art. 5 GDPR Principles relating to processing of personal data

②Art. 22 GDPR Automated individual decision-making,including profiling

③Art. 25 GDPR Data protection by design and by default:The controller shall implement appropriate technical and organisational measures for ensuring that,by default,only personal data which are necessary for each specific purpose of the processing are processed.2That obligation applies to the amount of personal data collected, the extent of their processing,the period of their storage and their accessibility.3In particular,such measures shall ensure that by default personal data are not made accessible without the individuals intervention to an indefinite number of natural persons.

參考文獻:

〔1〕張凌寒.算法權力的興起、異化及法律規制〔J〕.法商研究,2019(04):64-75.

〔2〕胡 凌.數字社會權力的來源:評分、算法與規范的再生產〔J〕.交大法學,2019(01):21-34.

〔3〕鄭智航,徐昭曦.大數據時代算法歧視的法律規制與司法審查〔J〕.比較法研究,2019(04):111-122.

〔4〕段偉文.數據智能的算法權力及其邊界校勘〔J〕.探索與爭鳴,2018(10):92-100+143.

〔5〕林洹民.自動決策算法的法律規制:以數據活動顧問為核心的二元監管路徑〔J〕.法律科學(西北政法大學學報),2019(03):43-53.

〔6〕Cobber.J.Administrative law and the ma chines of government〔J〕.judicial review of automated public-sector decisionmaking Legal Studies,2019(39):636-655.

〔7〕施特勞斯.什么是政治哲學〔M〕.北京:華夏出版社,2014.

〔8〕Margetts,H.Information Technology in Government:Britain and America〔M〕.London:Routledge,1999

〔9〕Hood.C,Peters.G.The Middle Aging of New Public Management:Into the Age of Paradox〔J〕.Journal of Public Administration Research and Theory,2004(03):267-282.

〔10〕Margaret.H,Algorithmic Jim Crow〔J〕.Fordham Law Review,2017(02):633-696.

〔11〕Zalnieriute.M,Moses.B,Williams.G.The Rule of Law and Automation of Government Decision-Making〔J〕.Modern Law Review,2019(03):425-455.

〔12〕Barocas.S,Selbst.A.D.Big Datas Disparate Impact〔J〕.California Law Review,2016(03):671-732.

〔13〕Michael Veale and Irina Brass,Administration by Algorithm?Public Management meets Public Sector Machine Learning〔EB/OL〕.publication available at:https://ssrn.com/abstract=3375391(Feb.1,2020).

〔14〕王延川.算法價格歧視的市場解決機制〔N〕.學習時報,2019-10-18(03).

〔15〕Mergel,I.Open innovation in the public sector:drivers and barriers for the adoption of Challenge.gov〔J〕.Public Management Review,2018(20):726-745.

〔16〕陳姿含.人工智能算法中的法律主體性危機〔J〕.法律科學(西北政法大學學報),2019(04):40-47.

〔17〕Roig,A.Safeguards for the right not to be subject to a decision based solely on automated processing(Article 22 GDPR)〔J〕.European Journal of Law and Technology,2017(08):1-17.

〔18〕徐 風.人工智能算法黑箱的法律規制——以智能投顧為例展開〔J〕.東方法學,2019(06):78-86.

責任編輯 楊在平

〔收稿日期〕2020-02-02

〔基金項目〕司法部《國家法治與法學理論研究》項目(18SFB1005),主持人齊延平。

〔作者簡介〕陳姿含(1987-),女,山東濰坊人,北京理工大學法學院講師、法學博士、生物醫藥法學博士,工信部智能科技風險法律防控重點實驗室辦公室主任,主要研究方向為智能科技與法理學。

猜你喜歡
公共管理
公共管理視角下的網絡輿論引導
馬克思主義的管理思想與當代我國公共管理的實踐與創新
如何為網絡新聞輿論立規矩
人民論壇(2016年32期)2016-12-14 19:08:03
以羅爾斯正義論為視角看我國公共管理制度創新
智富時代(2016年12期)2016-12-01 15:33:48
我國綜合運輸服務質量指標體系研究
中國市場(2016年41期)2016-11-28 06:15:22
淺談公共管理經濟政策分析
春節聯歡晚會的思想導向性增強對于公共管理的影響
人間(2016年27期)2016-11-11 16:52:35
我國政務微博參與公共管理的問題及對策研究
淺談公共管理在稅務行政管理應用中的價值
企業導報(2016年5期)2016-04-05 12:48:38
主站蜘蛛池模板: 九色视频线上播放| 国产欧美网站| 精品三级在线| 国产综合网站| 国产91透明丝袜美腿在线| 国产成人亚洲精品无码电影| 国产精品对白刺激| 精品视频福利| 中文字幕无线码一区| 天天摸天天操免费播放小视频| 人妻无码中文字幕第一区| 澳门av无码| 国产乱码精品一区二区三区中文| 亚洲国产91人成在线| 91视频99| 天天色天天综合| 精品国产欧美精品v| 亚洲一区色| 欧美性久久久久| 国内精品小视频福利网址| 67194在线午夜亚洲| 四虎精品免费久久| 亚洲成A人V欧美综合| 日本草草视频在线观看| 亚洲国产精品无码AV| 一本无码在线观看| 无码有码中文字幕| 亚洲欧美日韩天堂| 亚洲人成影院在线观看| 一级毛片基地| 91色在线视频| 国产在线日本| 亚洲最大福利视频网| 亚洲天堂福利视频| 国产精品视频导航| 亚洲黄色片免费看| 亚洲bt欧美bt精品| www.91中文字幕| 国产丝袜无码精品| 日韩成人在线一区二区| 欧美成人精品一级在线观看| 日韩一级毛一欧美一国产| 亚洲天堂网在线播放| 亚洲国产91人成在线| 91精品国产丝袜| 亚洲人成网站在线播放2019| 99爱视频精品免视看| 成人福利在线视频| 成人午夜视频免费看欧美| 亚洲 欧美 日韩综合一区| 国产又色又爽又黄| 国产视频资源在线观看| 国产超碰一区二区三区| 999国产精品永久免费视频精品久久| 国产三级韩国三级理| 好吊妞欧美视频免费| 原味小视频在线www国产| 亚洲天堂2014| 亚洲黄网在线| 日韩高清无码免费| 国产真实自在自线免费精品| 国产高清自拍视频| 伊人国产无码高清视频| 丝袜国产一区| 国产精鲁鲁网在线视频| 久久精品亚洲热综合一区二区| 国产欧美一区二区三区视频在线观看| 亚洲午夜福利精品无码不卡| 五月婷婷综合在线视频| 日韩一区二区在线电影| 无码在线激情片| 97国产精品视频人人做人人爱| 日本午夜影院| 欧美在线网| 免费一级毛片不卡在线播放| 欧美a在线视频| 国产精品污污在线观看网站| 久久黄色一级视频| 国产亚洲视频中文字幕视频| 欧美va亚洲va香蕉在线| 国产大片喷水在线在线视频| 国产视频 第一页|