999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法治理適用比例原則的法理

2024-09-02 00:00:00陳天翔
蘇州大學學報(法學版) 2024年3期
關鍵詞:比例原則必要性

內容摘要:當下各國政策、法律、判例和研究都強調用比例原則來評估、規制公共部門的算法治理,比例原則的規范性法理有待進一步發掘,應使其更有效地內化為公共部門治理者思考和行動原則。比例原則強調算法治理中的人類主體性,適用比例原則需要治理者秉持明智思維,包括審慎思維、法治思維和權利思維。適用比例原則體現了人類治理者的自信,結合必要性原則的規范性可以推導出:治理者可以拒絕算法建議,公共部門可以拒絕采購、使用算法。通過評估治理者是否“依法”開展算法治理,比例原則不僅意味著“少做”,更激勵治理者“多做”。算法治理適用比例原則需要優化必要性、適當性原則和證明責任要求。

關鍵詞:算法治理;比例原則;必要性;適當性

中圖分類號:D90;D922.11 """"""文獻標識碼:A "文章編號:2095-7076(2024)03-0075-11

DOI:10.19563/j.cnki.sdfx.2024.03.007

所謂“算法治理”,就是使用算法這一人工技術代理人類施行治理。隨著公共部門算法治理的發展,其也日益暴露出諸多法律問題,例如,算法治理可能會不成比例地侵犯公民實體性和程序性權利。為此,各國相關政策、法律、判例和學術研究都強調針對算法治理本身予以法律治理,其中之一就是算法治理需要遵循比例原則。

然而,我國學界對算法治理適用比例原則的研究,普遍強調的是比例原則的權力規制功能,①"也有學者僅把比例原則作為一種成本效益分析②"或“彈性規制方案”③"。來適用。有學者僅用比例原則來檢視算法本身的正當性。④"還有一類研究只是提供籠統的表述,提出應按照比例原則,審慎推進算法應用于執法、司法。⑤""算法治理不成比例地侵犯公民權利不僅是一個系統性技術設計問題,既有研究沒有考慮治理者究竟應當如何遵循比例原則,也沒有關注其中比例原則本身的理念和象征意義及其治理功能;更沒有注意到實踐中比例原則會“被忽視、被扭曲”,①""既有研究無法為與當事人和算法直接互動的一線公務人員所理解和運用,甚至淪為了口號。適用比例原則對于公共部門治理者來說意味著什么?當我們在談論算法治理必須符合比例原則以體現法治原則和精神的時候,我們需要談論什么?比例原則也是“對主體的規范性要求”,②"因此研究不能公式化地套用適當性、必要性和成本效益來分析。本文旨在提供一個進階的法理學批判,以理解算法治理適用比例原則對主體思維和行動層面的規范性要求,進而使比例原則更有效地內化為公共部門治理者的知行原則并嵌入算法應用的生命周期。這將有助于我們理解比例原則本身易被忽視的法治價值,也將有利于在學理層面優化既有適用路徑。

一、算法治理適用比例原則的思維方法

正如帕斯奎爾所言:“當法律秩序的主要威脅是專制者的任意命令時,法官和倡導者以‘法治而非人治’的原則進行抵抗。隨著自動化的發展,我們現在必須用‘人治而非機器治’的承諾來補充這一格言。”③"而這正是算法時代比例原則的法治內涵,其可以彰顯治理者的主體規范性,確保算法治理是明智的:首先,與算法的決策相比,比例原則要求人(治理者)來思考;其次,在法治原則的要求下,治理者適用比例原則要具備審慎思維、法治思維和權利思維。

(一)比例原則的明智思維

除了法律實踐中對算法治理必須遵循比例原則的明確規定外,比例原則在社會和政策領域尤其體現為相關戰略和報告文件中對明智的要求。聯合國《人工智能倫理問題建議書》提出要考慮相稱性原則,并“做到明智而審慎”;歐盟指出,要使所有人用自動決策系統時作出“明智的決定”;④"⑤牛津人工智能與善治委員會強調,“人工智能的實施必須明智”。⑥

所謂“明智”,一方面強調的是一種我們人類獨有的智慧;另一方面則要求基于比例原則的判斷,因為比例原則“是任何有理智的人都不會不接受的原則”。⑦"因此,比例原則要求算法治理是明智的——必須有人來思考并決策。第一,治理者如何作出決定:完全依賴算法?還是由治理者自己作出?后者一般是傳統或替代治理手段。英國的《社會保障法》第2條規定,國務大臣的決定可由其授權的官員負責操作的計算機作出;澳大利亞的《移民法》和《教育法》皆規定,在部長的安排下使用計算機作出的決定即部長親自作出的決定。這表明,此類法律視算法為決策者。這不符合比例原則,算法的決定絕不能等同于人類的決定,因為后者意味著有“積極的智力過程”(active intellectual process)。⑧為此,有些研究希望在人機交互中明確人類決策權重,⑨"如“不低于黃金比例”、⑩""?但是,人類決策權重不應當是一個硬性標準。比例原則不能淪為計算問題,其生命在于經驗或實踐智慧。重點在于,治理者需要擺脫康德所說的那種不成熟狀態,即有其他人或物——如今則是算法來替自己思考,以確保既不偏好也不厭惡算法。第二,治理者如何作出體現人類明智之選擇?比例原則作為一個事實概念或“原則”(而非“規則”),要求治理者不光要在總體上承認算法可以實現目的,也要限定在個案中進一步質疑適當性和必要性,以確保治理者既不高估也不低估算法。在這個意義上,算法治理中的比例原則可以理解為“理性思考”原則,①"從而契合“在合理范圍內開展相關活動”的法律規定(《深圳經濟特區人工智能產業促進條例》第72條)。如此,考慮到數據和算法的去情境化,比例原則要求治理者能夠“善于發現”社會規范或類案②"來做出合理的、自由的且富有創造力的個人判斷。

(二)比例原則的審慎思維

當下,以硅谷“快速行動”文化為代表的數字科技行業一味追求算法系統的性能提升而忽略了基本權利風險。公共部門為了追求效率,也總是未經評估而過早、過急地部署數字技術,使得廉價、快速的算法決策正在取代審慎以及緩慢的人類決策。正如拉圖爾所言,官員必須學會“智力上的減速”。③"人類判斷確實是猶豫的、緩慢的,但這恰是比例原則及其背后的法治要求——在比例原則復雜的“算法”下人人都要減速,即要有“足夠的時間來批判性地挑戰技術的結果”。④""例如,Loomis案有法官指出,鼓勵法官“考慮”算法不同于“依賴”算法,因為前者意味著“觀察”“深思”和“權衡”。⑤""如此,一個自由的、公正的決定或判斷不會像算法一樣輸入數據不消片刻就可以輸出確定的結論,否則治理者快速得出的理由或判斷可能真的會被認為是自動售貨機吐出來的,結果容易受到社會質疑。

實踐中,司法并不審查公共部門的每一個決定理由和證據,而是假定部門仔細考慮了它們。但是面對算法治理,這一假設過于不現實而不能繼續成立,因為在算法快速的處理時間內不可能考慮所有信息,而后果是部門不得不承擔沉重的證明責任。如果要繼續堅持司法審查的這一假設和尊重立場的同時減輕證明負擔,部門只能證明自身在決策上多花了時間(且達到一定比例),以進一步證明自己盡可能明智地考慮了所有信息,例如建立人工審查制度和影響評估制度。為此,荷蘭政府引入了“數據倫理決策輔助框架”(DEDA);我國《人工智能深度學習算法評估規范》也指出,應通過“頭腦風暴”等多途徑“開展有關深度學習算法失效的危險識別”。從功能上來看,算法影響評估、算法透明度報告等評估制度要求部門人員依據各種道德詞匯、指導框架、工具箱和流程圖來“逐步”(每一步都要停下來)評估風險,借此培訓治理者審慎、緩慢思考。例如,荷蘭要求公共部門從開發、部署算法的一開始和期間都要做好盡職調查,⑥衡量采用算法的適當性和必要性要素。在這個意義上,比例原則(三個子原則)在規范敘事層面啟發了治理者審慎、緩慢的思考。

(三)比例原則的法治思維

比例原則象征著“一般性的法思想”和“超實證法”,甚至是“憲法本身”。⑦"如此看來,比例原則在復雜的同時又很簡單——法治或比例原則無非就是要求治理者能夠“代表法律”或者“像法律一樣”靜下心、慢下來思考、做決策,這樣才能“合法”。支持算法治理的聲音普遍認為,沒有感情的算法比人類優越。波蘭司法部長認為,算法的這種“盲目”才“像忒彌斯(即法律女神)”。①然而,法律歷來被認為是平衡的藝術,盲目不能成為法律的代表特性,“像法律一樣”的真正內涵在于基于比例原則的思考。

實踐中,加拿大隱私專員辦公室要求機構或員工“問自己”②"以遵循比例原則。如此可以說,“像法律一樣”的比例原則進一步意味著要求治理者能夠“像法律人一樣思考”;尤其考慮到公共部門的“觀察者效應”,③"其更要“像法官一樣思考”。上述各國政策中的“明智”要求即意味著治理者要像法官一樣明智、做出明智的選擇。需注意的是,真正明智的思考在“像法官一樣”的同時也反對“法官崇拜”,即歸根到底還得是問“自己”而非他人。比如,加拿大最高法院在分析人臉識別算法對公民造成的不成比例的影響時指出,其拒絕遵循美國最高法院多數法官所采取的“全有或全無”平衡法。④"因為美國法官的這種方法實際就是“懶人法”,壓根沒有進行必要、適當的考慮。

我國《人工智能倫理治理標準化指南》要求法學學者“充分了解目前人工智能技術的發展現狀和局限性”。因此,適用比例原則的法治思維也需要法律人“領會富有創造力的科學家的精神”以使自身的思考變得成熟。⑤也就是說,治理者要像數據科學家一樣思考,反對“不使用個人信息就不會侵犯公民權利”這類合法但不科學的認識。治理者也需要學會運用反事實推理來比較算法和其他技術或人工替代方案的優劣;或者像SyRI案中的法庭之友那樣,詢問“如果涉及的是富裕地區和群體而不是貧困地區和群體”⑥"以評估算法治理的侵擾程度是否可以接受。因為相較于基于相關關系的算法,探究因果關系的反事實推理是人類更高級、更明智的思維方式。當下我國各級政府都在積極“探索”智能應用(如《廣東省加快數字政府領域通用人工智能應用工作方案》),治理者可以將比例原則作為跨學科“探索性研究”的焦點。相應的,對于治理者中的技術人員來說,他們往往不知道該學習、“優化”什么,比例原則可以讓他們像法律人一樣明智思考:一個“取中”的、非“最嚴”算法當以法律中的理性人為標準;⑦nbsp;一個“更好”的算法要對基本權利具有較小侵入性(或使用更少的數據)而不是追求更快速度、更多數據或依據某種最新科學研究發現,這尤其能夠落實到概念驗證和開發最小可行產品階段。

(四)比例原則的權利思維

在很多公共部門和供應商看來,算法治理被寄托了盡可能“做正確的事”的期望,哪怕要犧牲公民權利。司法實踐中,也有法官說:“即使我發現存在歧視,我也確信應用MWRF(一種福利算法)是合理的?!雹?他們通常會認為被算法拒絕的當事人(尤其是刑事司法中的嫌疑人)“有錯在先”,而不愿承認自己和算法有錯。因此,結合上述分析來看,比例原則要求治理者不能先入為主、不假思索地認為公民處于某種“弱權”位置,即為了實現國家安全、公共利益和社會秩序等治理目的,公民的基本權利并非必然要受限制。比如在社會福利領域,治理者往往不假思索地認為算法治理可以實現某些“緊迫的社會需求”即打擊欺詐,故而可以合理地侵犯申請人隱私或剝奪其福利權,至于如何幫助申請人和潛在資格者獲得福利這一目的往往不被看重。這進一步表明,公共部門也需要像普通人一樣思考,以契合“角色可逆”理論、女權主義和批判理論對治理者和算法設計者需要具備同理心的要求,即他們需要體驗、理解當事人,想象自己的權利也可能會被算法針對。又如,在英國某案中,法官在利益平衡中默認信息公開會影響國家安全,同時拒絕承認上訴方的證據(即信息公開不會影響國家安全),不承認算法治理以及信息不公開對公民權利的威脅;法官更是堅信自己并非不加批判地得出該結論。①"這會造成程序不對等,強化公民的證明責任,同時弱化公共部門的證明責任。由此可見,反對不假思索和先入為主的比例原則為公共部門治理者施加了對公民基本權利及其本質的尊重義務。

尤其要考慮某些特殊時期的算法治理。例如,疫情防控期間使用算法更容易被治理者認為是合比例的。②"并且,為了疫情防控,人們普遍認為需要在生命健康權和其他基本權利(如隱私和行動自由)之間做選擇,通常后者要讓位給前者。歐盟則認為,人們不必做出這樣的選擇,公共部門和法律可以兼顧二者。③"我國《關于做好個人信息保護利用大數據支撐聯防聯控工作的通知》則首先就要求各部門“高度重視個人信息保護工作”。申言之,“重視”固然重要,但比例原則需要部門更進一步意識到進而做到:不侵犯隱私、保護個人信息也同樣可以達至治理目的,保護公民權利可能更易實現治理目的。又如,法國針對2024年的奧運會出臺了監控立法(持續到2025年乃至永久)以維護安全與秩序。鑒于法國也要適用歐盟法律,國家信息與自由委員會強調該法只是試驗性和臨時性的,不能預先判斷其保護基本權利的程度高于目前正在歐洲層面制定的《人工智能法案》。④"也就是說,公共部門應當預料到社會民眾會有越來越高的權利保護期待,今后的立法也可能比現在的法律更加嚴格地保護權利。公共部門必須認識到,在某一時期合比例的算法治理以后也會不成比例地侵犯公民權利。

總之,治理者必須防止公民權利被輕易地限制或平衡掉。為此,芬蘭司法部強調,公共算法決策的立法必須以整個“基本權利體系”可以接受的方式保障公民權利。⑤"這一方面意味著,部門不能只看重某一項基本權利。比如,域外很多國家的法律都以隱私為中心。盡管隱私權確實關系到其他諸多基本權利,但僅以隱私敘事為中心來設計法治,并不能代表整個基本權利體系,也不能使法官和治理者正確認識到算法治理的侵權“事實”是復雜的,即其不成比例地影響到的不僅僅是訴訟當事人,也包括潛在利益相關方甚至是整個社會。另一方面,比起經濟學意味和技術官僚色彩濃厚的成本效益分析,基本權利的“體系思維”顯然更加緩慢、開放且成熟。⑥

二、算法治理適用比例原則之一:必要性原則

算法技術的二元邏輯使得其多被用于“拒絕”公民,法律也賦予了公民“拒絕權”。值得思考之處在于,既然要“保障人類擁有充分自主決策權”(《新一代人工智能倫理規范》),治理者是否也可以拒絕算法建議?⑦部門是否可以拒絕采購、使用算法?比如他們和供應商會認為“使用算法(才)會幫助公職人員明智地決定”,但是一個明智的行動未必需要使用算法?!熬芙^算法”可以從必要性原則中推導,并且首先關系到部門和治理者適用比例原則的自信要求及其經驗基礎。

(一)適用比例原則的經驗前提

既有對比例原則的批評以及算法難以被理解的爭論都表明,人類難以甚至無法運用比例原則來評估算法治理。這是一種不自信的錯誤認識。其一,法官有能力就算法問題做出合法、合理的判斷。比如有法官直接反駁了法官無能力做出基于比例原則的判斷的論述,指出自己完全有可能在適當的時候評估授權請求的必要性和相稱性,①""而他的這種自信源于過去在高度復雜的刑事案件中擔任刑事法官的經驗。法國國務委員會副主席則相信,法官尤其是行政法官將會運用其“所熟悉的比例原則”在人工智能監管方面發揮作用。②"可見,比例原則建立在治理經驗和知識之上,需要有運用直覺的自信。這也是域外很多行政法官推崇算法監管的行政法模式的原因,即他們相信既有的行政法知識和判例。其二,拉齊奧行政法院指出,評估算法問題需要深思熟慮和利益平衡,只有人類的工作和天性活動才能完成。③公共部門治理者具有多元組織角色屬性,擁有多樣的治理經驗和知識。這表明治理者不僅僅是公職人員,也是學者或專家,他們可以通過“像法官一樣思考”來自信地適用比例原則。

(二)適用比例原則的必要性

實踐中,即便公共部門發現算法有局限或不能達到目的,仍普遍會糾結是否要放棄算法系統,這主要是因為舍不得放棄研發、采購、測試、維護算法系統背后的金錢和時間投入。沒有哪個公共部門可以禁得起人工智能的誘惑或者愿意公開承認自己的“高科技”不好,算法甚至被官員認為是政府的“靈丹妙藥”和“救星”——沒有算法就需要大量的人員花費大量的時間和資源,部門甚至會停止運作。④"這可能會改變公共部門和司法部門對比例原則的認識與適用,即使用算法“必然”符合必要性原則。如此一來,這會導致必要性原則陷入循環論證而脫離了基本權利保護的出發點,使得該原則似乎毫無必要。

必要性原則往往被表述為必要性測試。因此,必要性原則的獨特意義不在于測試什么、如何測試,而是該測試本身是必要的,即比起適當性原則和成本效益分析,其更有可能得出有利于公民的結論(可能確實存在不必要的情形)。可以說,必要性測試旨在讓治理者警惕和批判,即測試治理者自己是否明智、自信。評估必要性需要治理者有一定的科學素養,以認識到算法的局限性和自己的可能性,因為目前并無可靠的證據表明算法治理有效或無效。比如,英國信息專員辦公室要求治理者“必須能夠清楚地解釋”為什么在有其他較低侵入性手段的選擇下,使用較高侵入性的人臉識別是絕對必要的。⑤"緊迫性與手段不相關,一個緊迫的社會需求不代表不可以使用較小侵入性的手段來實現。⑥""這自然也關系到與原本的或替代治理手段相比,不能先入為主、不假思索地認為算法是必要的。結合上文,治理者需要學習數據科學家如何明智地思考必要性問題(尤其是那些針對法學和法律人的批判研究),⑦"比如他們會批評法律人想當然地認為算法系統是適當的,可以帶來更多好處。

(三)拒絕不必要算法的情形

其一,個人拒絕算法建議。在自動化偏差的影響下,即便一個算法只是提供“建議”,也很少有治理者會拒絕或改變該建議。因此,當算法有局限(如無法實現預期目的)而不必要時,治理者應該自信地對算法“說‘不’”,這是一種政治和法律勇氣。比如,法國有公益組織曾向最高行政法院提出質疑:人臉識別算法是決策“支持”或“輔助”技術,故而不是絕對必要的。法院則認為,治理者“不可能”手動處理大量數據,故而使用算法是絕對必要的。①"可見,法院的論證似乎也可以推導出:有能力且自信的治理者“可能”也可以不依賴算法進而拒絕算法。更何況,通過算法來治理并不能使治理者知道不用算法來治理的可能性及其不足,因為他們無法從其社會反饋中明智地學習。另外,“更正”也是拒絕的一種表現形式。有學者雖然強調了更正權的比例原則性質,卻局限于更正已做出的、錯誤的算法決策;②"波蘭憲法法院僅將更正權用于限制自由裁量。③"在公民的正當程序權和英國《2018年數據保護法》第14條規定的“重新考慮權”之下,治理者可以依據比例原則超越更正,主動拒絕任何算法建議。

其二,部門對采購、使用算法的拒絕。在數字化轉型的浪潮下,部門往往一味追求數字技術,甚至會有供應商免費為部門提供產品試用和捐贈以宣傳“解決方案”,而部門會覺得“試一試也不會有什么損失”,卻并不清楚可以用算法來做什么、是否可以實現預期目的以及是否有其他替代方案。我國某些供應商甚至直言學習了美國的算法治理,④"但是對美國社會治理必要的算法,未必對我國社會治理是必要的。并且,公民也無法就公共部門采用算法這一事實行為提起訴訟。因此,公共部門要勇于承認不必要,即根據比例原則評估出本部門應當拒絕采購或放棄正在開發、使用的算法系統,進而發揮比例原則的事前治理功能。從組織層面來看,這種拒絕更鮮明地表現為不受其他體制內同行和外部私營企業的影響,即不能因為其他國家政府、部門偏好算法就使自己也同質化。進一步來說,考慮到算法治理的新自由主義特性,拒絕采用算法也是為了拒絕公共部門“公司化”。比如,法國國家家庭津貼基金部門的一位內部工作人員稱,該部門已經是“中小型企業”了,引入算法打擊欺詐不再是為幫助別人,“而是來賺錢的”。⑤因此,公共部門最好拒絕視自己為供應商的“用戶”。

三、算法治理適用比例原則之二:適當性原則

《人工智能倫理問題建議書》將“相稱性”和“不損害”并列,規定“不得超出實現合法目的或目標所需的范圍”。在歐盟法律中,這意味著公共部門為了實現其目的將只采取它需要的而非更多的行動,部門要依據不傷害原則來落實比例原則。因此,比例原則實則激勵了部門“少做”“不做”,這樣才能不傷害。數據最小化和目的限制的法律規定在實踐中也可能產生這樣的效果。在學理層面,對基本權利限制的“限制”即“權力制約”⑥"之比例原則表述和“謹慎行事”⑦"要求更容易讓治理者不敢行動。

然而,一些部門開始質疑過去一直遵循的不傷害原則,主張真正依據比例原則中“平衡”的規范性“去平衡”,因為前者不提供具體決策指導,直接回避了“去平衡”。聯合國高級別人工智能咨詢機構新發布的《為人類治理人工智能》臨時報告也提出,要超越不傷害原則。如此,比例原則的要求需要改變,即偏向激勵治理者在算法治理中“多做”。如何在法理上理解這一判斷?依據適當性原則,部門開展算法治理必須提供一個合理的理由,這主要取決于特定治理領域中的公共目的即相關法律的具體規定。因此,重點在于評估治理者如何“依法”以及“法”本身。

第一,這里的“法律”是相對于“合同”來說的。比如在Aadhaar算法案中,印度最高法院審查了2016年的“Aadhaar法”第57條(政府可以“根據當時有效的任何法律或任何相關合同,為任何目的使用Aadhaar”)并確認了其不相稱。①""因為合同不是法律,合同的目的更不能等同于法律的目的,前者過于寬泛且存在不正當的可能,而法律幾乎總是具有激勵性的目的(而不可能是“任何目的”)。

第二,與部門內部的“規章”或“政策”相比,制定法或上位法(的目的)往往激勵了治理者行事。比如,英國萊斯特郡就引入福利算法并出臺了配套政策,規定治理者不得擅自改變算法評分;盡管如此,其也規定當局仍需遵循相關上位法(如1998年的《社會管理保障法》),以“最大限度地利用情報”并開展“更廣泛的驗證活動”。②"同樣,我國《個人信息保護法》第6條只是激勵治理者“采取對個人權益影響最小的方式”,而沒有考慮如何激勵他們“采取對實現權利影響最大的方式”?!秱€人信息保護法》“根據憲法”而制定,如此依據我國《憲法》第45條和《社會保險法》第2條(確立了物質幫助權),在具體的公共服務場景中,③"第6條真正的目的不是如何處理數據(減少影響個人信息權),而是如何實現公民的福利權。類似的,肯尼亞高等法院的判決則確立了該國《數據保護法》可以追溯適用,法官認為這才是保護隱私權的“公平”所在;因為該法以肯尼亞憲法為依據,如果忽視二者的關系,行政或商業激勵很容易超越法律、道德等其他規范問題。④"如此,“不得過度收集”的數據最小化原則要求部門“謹慎”“少做”,一個更明智的做法是“多做”,即多收集數據來幫助公民。因為有經驗的治理者也會相信:只有通過與當事人面對面打交道才可以收集到合適的、更多的數據并做出對其最有利的正確決策。

可見,比例原則實則鼓勵積極的或有意義的人類治理,比如發揮想象力、好奇心和同理心等人類美德并做出行動。例如,程序性正當程序的比例測試受到了缺乏同理心的批判,⑤""司法審查也不能過多干預。因此,一個合比例的正當程序鼓勵治理者尊重公民的實質性正當程序權利而做出有同理心的決策,從而確保實現實質法治。⑥""這表明,治理者可以在算法治理中進一步追求公共服務的目的,比如可以在告知算法決策結果的同時,通知公民如何獲得更好的算法評價或避免不利后果。這一方面意味著治理者可以拒絕使用算法(因為算法顯然不會告訴公民決策原因和改善方式),另一方面也表明治理者可以在既有的算法決策之上多加一點“自由裁量”。例如,愛沙尼亞2022年新修訂的《行政程序法》(草案)第7條規定,自動行政必須因減少了處理案件的時間并簡化了案件的管理(即沒有人類官員的參與)而符合個人及公眾的利益。問題在于,沒有人類參與未必一定符合個人和公眾的利益,此條并不關注當事人最后是否可以真正獲得權利,只是為了滿足組織的利益??紤]到算法的假陽性和假陰性問題,治理者在收集某些數據(尤其是個人信息)時,必須幫助當事人更正信息錯誤;或者主動提醒公民如果披露或不披露某些數據,是否會影響其獲得該權利(如果公民主動詢問,更要積極回答)。

第三,更重要的是,“依法”進行算法治理也可以依據更一般的“法治”原則或精神。芬蘭司法部規定,部門只能在法律沒有給當局留有自由裁量的余地下使用算法。①"這種事前嚴格限制顯然忽視了不同決策者的不同判斷力和自信力,更是對公共部門的不信任,沒有比例原則的發揮空間。尤其是以“全有或全無”為運作邏輯的算法特別不成比例,算法治理會進一步造成部門機械地執行制定法,反倒難以相稱地實現法律目的。因此,如果實體法和程序法皆無規定(或規定不明確),那么法治原則將適用,進而鼓勵治理者可以在無法可依的情況下“以身作則”“現身說法”,自覺“像法律一樣”思考并勇敢行動。換言之,“依法”依據的是哪部制定法?結合上文可見,這不僅僅要適用相關數據保護的法律,更要適用體現法治精神的上位法,②此類法律鼓勵治理者“超越法律”以追求法治精神(如實質平等、反歧視)。比如英國《平等法》對公共部門的平等義務要求和荷蘭《一般行政法》第3條之規定,前者強調公共部門的職責是“預期性的”,必須提前考慮可能需要什么;后者強調可以在必要的范圍內偏離規則的字面意思,以實現對規則更平衡的適用,荷蘭議會在反思如何使用福利算法的時候也支持這么做。因此,治理者不能認為算法是“新技術”,現在就判斷利弊為時尚早,而是應當依據預防原則積極行動。這尤其可以激勵治理者多做“平衡練習”,比如即便部門沒有采用人工智能或機器學習算法,治理者依然可以在人權法下“多此一舉”地評估一般的自動化程序或生成式人工智能;即便法律不強制要求公開算法信息,治理者也依然可以主動填寫算法透明報告以體現法治并促進思考;即便法律只是簡單規定了算法“說明”義務(如《深圳經濟特區人工智能產業促進條例》第71條),治理者依然可以提供更多的、更深刻的算法“解釋”。

總之,公共部門往往不敢“邁出第一步”,只是等待著出臺立法和司法審查,即等待著法院來告訴自己怎么做才合法。法官也傾向于選擇對自己而言更“安全”的判斷而不會裁決算法治理不合比例或不合理,以防止過多審查和上訴。這可能導致算法治理違法、錯誤運行了數年才被媒體曝光(如澳大利亞福利部門的Centrelink系統),人們因此又會懷疑這種公共算法服務是否走得太遠而忘了為什么出發。因此,算法治理中的比例原則需要被視為一種激勵性的行政文化和法治文化。如此我們就可以理解為什么拉倫茨說拋棄比例原則(作為正確法原則之一)會導致人類的“退步”,③因為比例原則的正確性或理想性激勵了人類。

四、算法治理適用比例原則的優化路徑

在二階層面,客觀觀察者(如法官、學者)如何評估公共部門的算法治理是否合比例?公共部門如何證明算法治理合比例?比例原則對算法治理的適用不完全等同于適用其他問題。綜合上述分析,具體適用方案需要優化必要性原則、適當性原則和公共部門的證明責任。

(一)優化必要性原則

目前國內的研究大多默認以適當性、必要性和狹義比例原則為順序而依次展開分析。在歐盟,必要性原則和相稱性原則并列,并且前者是“基本原則”,后者是“一般原則”。因此,如果公共部門使用算法是不必要的,就無須再評估其他子原則。為了體現對基本權利的尊重,不妨學習歐盟的司法實踐,將必要性作為第一評估標準(理由之一也如下對適當性的分析)。

那么如何重點評估必要性?必要性原則本質上是“詢問是否使用大錘敲堅果”。④"邏輯就在于,一方面,大錘當然可以敲堅果,但比起小錘或胡桃夾,真的有必要用大錘嗎?因此,必要性和技術本身無關,重點在于評估算法的“運營價值”,即算法治理的系統性組織問題及其在采購合同中的表現——算法治理真的值得(花費大量納稅人的錢)嗎?此類采購合同往往事先聲明(甚至夸大)了算法的技術準確性、實施好處(預期效果)以及免責條款(即算法可能存在的風險和問題)。評估算法治理的必要性簡單來說就是評估或審計合同,也即部門對公共資金的使用是否明智。另一方面,我們也不能問“堅果是否可以被大錘敲”,而是“大錘是否可以敲堅果”。換言之,考慮到公共部門總是“為賦算法強說必要”,不能問“如何使治理問題適合人工智能或算法”,而是后者如何有益于前者。也即是說,必要性原則在于測試手段是否必要于目的,最好不要顛倒二者的前后邏輯;更不能認為既有手段不好而算法一定會更好,①"即測試手段與手段之間的必要性。這要求我們最好將社會治理中的人工智能或算法解構為:是否為可以“應對挑戰”的工具。易言之,算法不能僅僅只是一個“解決方案”即可,因為任何治理問題在技術上和理論上都可以用算法解決;這并不能證明算法的必要性,除非此問題是一個治理“挑戰”。如此,評估必要性原則也不能過度依賴狹義比例原則,后者往往被用于判斷是否為“最佳解決方案”。此處可以借鑒加拿大算法影響評估制中對必要性的SWOT(優勢-弱點-機會-威脅)評估,②以超越成本效益分析。

(二)優化適當性原則

適當性原則的評估應當以算法治理的法律依據為重心。歐盟和英國把適當性原則分為獨立的兩部分:目的是否合法(包括是否足夠重要、足以證明限制一項基本權利的合理性)、目的是否適當。而這表明,目的(永遠)不能證明一切手段是正當的。③"因此,我們需要轉換適用適當性原則的思路,即證明目的和人的關系——評估部門適用的“法”是一般上位法還是部門規章抑或政策等,進而確立其基本目的,并以此來評估治理者是否為實現該目的而采取了合比例的行動。我們需要據此超越“權力制約”“謹慎”等旨在限制治理者行動的適用比例原則思路,即一個合比例的行動不僅只是“少做”“不做”;即便治理者行動時無法可依,只要其遵循了法治精神和原則,也依然是合比例的。目前很多研究和判例只關心以制定法來限制治理者,故而把比例原則轉化為評估法律本身質量的問題(比如要求“規范具備數字化素養”),④忽視了在更高的法治原則下比例原則對治理者的可塑性及其激勵問題。尤其考慮到算法治理的法律規定可能無法詳盡,部門可能傾向于制定或依據簡單、模糊的規章或政策(部門人員往往想當然地認為它們對公民“最有利”),⑤此種比例原則在實踐中更具有可行性。

(三)優化證明責任

為了體現司法尊重,法院不會過多審查算法治理的科學問題、目的和手段的適當性,法官只需簡單考慮算法治理是否合理即可,無權對其在科學上“是否明智進行事后猜測”。⑥""如此一來,公民比公共部門承擔更苛刻的舉證責任。為了平衡訴訟地位,防止法官不加批判地接受公共部門的證據,治理者大可事先假定算法治理不成比例,再自主驗證其并非不成比例,即不能等待公民發起訴訟,然后等待法院來“替”公共部門思考。這可以更好地促進治理者明智、批判思考并尊重權利,此種比例原則相較于其他思維框架或審查標準也更具程序理性。比如,英國普通法中試圖取代比例原則的“溫斯伯里不合理標準”(Wednesbury Unreasonableness)更注重事實與證據;人權框架通常被認為是“現成的”,其局限性在于側重評估人權是否確實受到侵犯,而非治理者是否適當地考慮人權。這種證明責任要求也有利于治理者的認知接受和實踐應用,并轉化為治理制度(如算法影響評估制和培訓制)。在這個意義上,公共部門的證明責任需要發揮一種提升合法性的治理功能,即讓法官、民眾相信算法治理是相稱的,以消除當下民眾對公共部門應用新興數字技術的不了解和恐懼,同時增強他們對公共部門不會濫用權力的信任。因此,既然法院不愿從“專業角度”去審查以及“否定”技術的科學性,①公共部門除了提供所謂科學證據(如代碼、模型數據),更要表明對算法治理的“態度”“立場”和“看法”等敘事信息(如是否認為算法是“最佳解決方案”)以及它們如何影響治理者的行為,以使法院能夠較為容易地評估其在認知層面是否明智。

五、結語

算法治理不能公式化地適用比例原則,我們需要在人與算法的關系中重新認識比例原則的主體規范性。合比例的算法治理應當是明智的,治理者需要在法治的精神下明智思考并做出明智的行動。在此之上,本文分析了算法治理中治理者思維和行動的規范性要求及其法理基礎。這有助于我們優化既有比例原則的適用路徑,更有利于我們進一步理解算法時代比例原則本身易被忽視的法治價值,即比例原則并非簡單的成本計算進而追求損益平衡??紤]到近年來學界對比例原則本身的質疑(甚至主張用成本效益分析完全取代比例原則),本文一定程度上可以為比例原則正名,這對既有基于比例原則的研究以及沒有引入比例原則的其他研究都具有啟發性。當下算法科學領域已經主張學習倫理學、政治哲學和法律原則(如正當程序)以使算法治理符合法治和正義,法學界仍需進一步研究比例原則在實踐中如何被科學家、技術人員和基層治理者等多元社會主體所理解和運用。

Jurisprudential Analysis of the Application of the Principle of Proportionality to Algorithmic Governance

CHEN Tianxiang

Abstract: Current policies, laws, precedents, and research in various countries emphasize the use of the principle of proportionality to evaluate and regulate algorithmic governance in the public sector. The normative aspect of the principle of proportionality requires further exploration to be more effectively internalized as a guiding principle for public sector governance. The principle of proportionality emphasizes human agency in algorithmic governance. Applying this principle requires governance actors to adhere to wise thinking, including prudent thinking, rule of law thinking, and rights-based thinking. The application of the principle of proportionality reflects the confidence of human governors. Combined with the normativity of the necessity principle, it can be deduced that governors can reject algorithmic recommendations, and the public sector can refuse to procure and use algorithms. By evaluating whether governors conduct algorithmic governance “according to law”, the principle of proportionality not only implies “doing less” but also encourages governors to “do more”. Applying the principle of proportionality in algorithmic governance need to optimize the principles of necessity, appropriateness, and the requirements of the burden of proof.

Keywords: Algorithmic Governance; Principle of Proportionality; Necessity; Appropriateness

(責任編輯:瞿鄭龍)

猜你喜歡
比例原則必要性
行政法中的比例原則研究
法制博覽(2017年1期)2017-02-14 15:53:40
淺論比例原則在我國行政法治中的定位
法制博覽(2017年1期)2017-02-14 15:51:48
地方政府介入集體協商的邊界和方式
論比例原則在警察法上的適用
商(2016年33期)2016-11-24 23:39:08
我國城市群租治理立法的法律缺陷分析
單雙號限行常態化行政法上的思考
商(2016年31期)2016-11-22 21:58:20
互聯網+時代下計算機網絡的重要性
煤礦地質工作與防治水工作結合的探究
電氣自動化在電氣工程中的應用
中國市場(2016年36期)2016-10-19 03:55:00
養老金入市的必要性與風險分析
中國市場(2016年33期)2016-10-18 13:13:33
主站蜘蛛池模板: 中文无码精品A∨在线观看不卡 | 日韩在线播放中文字幕| 成人福利视频网| 久久情精品国产品免费| 国产永久在线观看| 国产凹凸一区在线观看视频| 日本不卡在线视频| 萌白酱国产一区二区| 青青热久免费精品视频6| 综合色区亚洲熟妇在线| 亚洲国产高清精品线久久| 在线观看视频99| P尤物久久99国产综合精品| 72种姿势欧美久久久久大黄蕉| 97国产精品视频自在拍| 久久人人妻人人爽人人卡片av| 亚洲第一区在线| 91啪在线| 精品久久高清| www亚洲精品| a级毛片网| 91精品国产自产91精品资源| 国产精品成人一区二区不卡| 国产高清精品在线91| 国内精品九九久久久精品| 成年A级毛片| 亚洲高清无码久久久| 国产成人亚洲精品无码电影| 中文字幕在线观| 成·人免费午夜无码视频在线观看| 色噜噜狠狠色综合网图区| 在线人成精品免费视频| 亚洲男人天堂2020| 亚洲欧美日韩色图| 狠狠色香婷婷久久亚洲精品| 国产在线八区| 亚洲天堂视频网站| 91小视频在线播放| 色综合天天操| 日韩欧美中文| 亚洲日韩在线满18点击进入| 日本成人一区| 久久综合九色综合97网| 欧美三级不卡在线观看视频| 一本一本大道香蕉久在线播放| 在线欧美日韩国产| 在线日韩日本国产亚洲| 亚洲日产2021三区在线| 亚洲精品天堂自在久久77| 午夜欧美理论2019理论| 好吊妞欧美视频免费| 国产精品网址你懂的| a在线观看免费| 午夜少妇精品视频小电影| 91免费国产高清观看| 91免费精品国偷自产在线在线| 嫩草影院在线观看精品视频| 日本亚洲欧美在线| 亚洲美女视频一区| 亚洲欧洲日韩国产综合在线二区| 免费99精品国产自在现线| 国产爽爽视频| 国产在线专区| 天堂久久久久久中文字幕| 97超级碰碰碰碰精品| 国产高清国内精品福利| 国产免费人成视频网| 女同国产精品一区二区| 一本大道无码日韩精品影视| 一级片免费网站| 综合成人国产| 伊人久久综在合线亚洲2019| 亚洲欧美一区在线| 欧美a在线| 青青热久免费精品视频6| 无码日韩人妻精品久久蜜桃| 亚洲欧美日韩精品专区| 午夜欧美理论2019理论| 久久精品这里只有精99品| 在线观看91精品国产剧情免费| 亚洲va精品中文字幕| 日韩欧美一区在线观看|