林洹民
2021 年11 月1 日生效的《個(gè)人信息保護(hù)法》(下文簡(jiǎn)稱《個(gè)保法》)第24 條第3 款規(guī)定,通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定。該款正式規(guī)定個(gè)人的算法解釋權(quán),對(duì)打破“算法黑箱”實(shí)現(xiàn)算法透明具有明顯的積極意義。但是,《個(gè)保法》規(guī)定的算法解釋權(quán)的構(gòu)成要件與法律后果都較為模糊,可能會(huì)引發(fā)法律適用的障礙。例如,在構(gòu)成要件層面,算法解釋權(quán)是否限于決定“僅”由自動(dòng)決策算法做出的情形,是否只要存在人工干預(yù)即不能請(qǐng)求解釋算法?在法律后果層面,個(gè)人得請(qǐng)求解釋的是具體的算法決定,還是一般性的運(yùn)作邏輯?為了細(xì)化《個(gè)保法》的相關(guān)規(guī)則,也為了搭建更為全面的算法治理框架,2021 年12 月31 日國(guó)家網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下文簡(jiǎn)稱《算法推薦管理規(guī)定》),該規(guī)定已于2022 年3 月1 日正式生效。《算法推薦管理規(guī)定》圍繞算法解釋權(quán)作出規(guī)定,但在制定過(guò)程中爭(zhēng)議較大,且最終版本相對(duì)于征求意見(jiàn)稿有較大幅度的修改。無(wú)論是《個(gè)保法》相關(guān)規(guī)范的模糊性還是《算法推薦管理規(guī)定》具體規(guī)則的反復(fù)修改,均表明算法解釋權(quán)規(guī)范設(shè)計(jì)的復(fù)雜性。法律一旦生效,即面臨執(zhí)行的問(wèn)題。隨著《個(gè)保法》與《算法推薦管理規(guī)定》的陸續(xù)生效,如何“落地”算法解釋權(quán),必將成為互聯(lián)網(wǎng)執(zhí)法的一大難點(diǎn)。有鑒于此,本文欲結(jié)合《個(gè)保法》與《算法推薦管理規(guī)定》的相關(guān)規(guī)范,圍繞算法解釋權(quán)的構(gòu)成要件和法律后果展開(kāi)分析,著重討論算法解釋權(quán)在公私場(chǎng)景中不同的意義與構(gòu)造,希冀為算法解釋權(quán)的適用提供充分的理論依據(jù)和具體的操作指引。
《個(gè)保法》第24 條第3 款規(guī)定,通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定。據(jù)此,算法解釋權(quán)的適用前提是:(1)決定通過(guò)自動(dòng)化決策方式作出;(2)對(duì)個(gè)人權(quán)益有重大影響。
根據(jù)《個(gè)保法》第73 條第2 項(xiàng),自動(dòng)化決策,是指通過(guò)計(jì)算機(jī)程序自動(dòng)分析、評(píng)估個(gè)人的行為習(xí)慣、興趣愛(ài)好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)。自動(dòng)化決策方式即為處理個(gè)人信息并做出決策的算法。問(wèn)題在于,是否決策必須僅通過(guò)算法做出,個(gè)人才能行使算法解釋權(quán)。換言之,是否只要存在人工干預(yù)即不得請(qǐng)求解釋算法?
歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR,下文簡(jiǎn)稱《歐盟條例》)第22 條第1 款明確要求決策必須“僅”由算法做出。與之不同,我國(guó)只是要求決定通過(guò)自動(dòng)決策方式作出,并未要求不存在人工干預(yù)。《歐盟條例》在生效之后,圍繞第22 條的適用范圍產(chǎn)生過(guò)激烈的討論。如果整個(gè)決策流程當(dāng)中的決定完全由算法做出,那么當(dāng)然適用第22 條;如果人工干涉發(fā)生在所有流程當(dāng)中,那么原則上不適用第22 條。但是如果既有人工干涉也有算法決策,有時(shí)難以判斷決定是否僅由算法做出。一般認(rèn)為,輔助型算法并非自動(dòng)決策算法。輔助型算法大致包括決策支持型算法、分組型算法與總結(jié)型算法(decision-support, triaging, and summarization algorithm)。①Reuben Binns and Michael Veale, Is that your final decision? Multi-stage profiling, selective effects, and Article 22 of the GDPR, International Data Privacy Law, 2021, Vol. 00, No. 0, p.3.對(duì)于決策支持型算法而言,算法僅僅提供支持作用,看似還是由人作出決策的。但是,個(gè)人可能完全依賴算法的建議決策。德國(guó)學(xué)者因此指出,雖然存在人為干預(yù),但若僅是例行公事式的檢驗(yàn),算法決定構(gòu)成決策的“實(shí)質(zhì)性基礎(chǔ)”,此時(shí)該類算法就屬于“自動(dòng)決策算法”。②Simitis/Hornung/Spiecker, Datenschutzrecht, Nomos Verlag, 1. Aufl., Baden-Baden 2019, S. 714.對(duì)于分組類型而言,雖然也有人工參與,但算法可能已經(jīng)事先地影響決策的選擇。例如算法可能將申請(qǐng)者分為A 和B 兩個(gè)群組,每個(gè)群組雖然都由人最終決定結(jié)果,但群組A 只能得到H1 和H2 兩種結(jié)果,群組B 則只能得到H3 和H4。此時(shí)我們不由地要問(wèn):這種程度的人工干預(yù)是否足以排斥算法解釋權(quán),此時(shí)自動(dòng)決策算法難道沒(méi)有實(shí)質(zhì)上影響決策嗎?對(duì)于總結(jié)型算法而言,算法可能根據(jù)眾多個(gè)人的評(píng)價(jià)做出評(píng)價(jià)。例如Ebay、Uber 或淘寶、滴滴根據(jù)用戶的反饋為店鋪或司機(jī)打分,不同等級(jí)對(duì)應(yīng)不同的商業(yè)機(jī)會(huì)。此時(shí),決策是否完全由算法做出?《歐盟條例》第22 條之所以強(qiáng)調(diào)決定必須僅由算法作出,源于歐洲人對(duì)自動(dòng)化的不安。③Margot E Kaminski, Binary Governance: Lessons from the GDPR’s Approach to Algorithmic Accountability, 92 Southern California Law Review 1529 (2019).德國(guó)聯(lián)邦憲法法院于1983 年提出個(gè)人信息自決權(quán)的重要理由之一就在于,在自動(dòng)化信息處理的時(shí)代,不存在不重要的個(gè)人信息。④BVerfGE 65, 1 (43).歐盟格外警惕自動(dòng)化決策,因此強(qiáng)調(diào)對(duì)自動(dòng)化算法的規(guī)制。但若以此強(qiáng)調(diào)決策必須僅由算法做出,法律才應(yīng)當(dāng)規(guī)制,則有些過(guò)猶不及的。只要決策實(shí)質(zhì)受到自動(dòng)決策算法影響,均應(yīng)有規(guī)范的必要。
更為重要的是,如果我們強(qiáng)調(diào)算法解釋權(quán)的適用前提是決策“僅”由算法做出,那么行政決策算法就不會(huì)被納入自動(dòng)化算法規(guī)則的射程范圍。以行政處罰裁量輔助系統(tǒng)為例,該系統(tǒng)根據(jù)執(zhí)法人員勾選或者輸入的案情要素提供裁量建議,最終的裁量由執(zhí)法人員結(jié)合個(gè)案情形作出。目前已投入使用的行政處罰裁量輔助系統(tǒng),包括南京的“環(huán)保行政處罰自由裁量輔助決策系統(tǒng)”、甘肅的“環(huán)境行政處罰裁量輔助決策系統(tǒng)”、北京的“睿法官”智能研判系統(tǒng)、上海的“206”刑事案件智能輔助辦案系統(tǒng)、湖北的“智能量刑輔助系統(tǒng)”等等。此類算法僅僅提供輔助性建議,最終的決定仍然由人作出,但是卻對(duì)行政行為產(chǎn)生重要影響。鑒于我國(guó)尚不存在專門(mén)針對(duì)全自動(dòng)行政行為的法律規(guī)范,《個(gè)保法》規(guī)則查漏補(bǔ)缺,彌補(bǔ)法律制度闕如的不足。借助《個(gè)保法》中的算法條款,能夠有效地拘束行政機(jī)關(guān)借助算法的行政行為。
承上,《個(gè)保法》第24 條第3 款規(guī)定的算法解釋權(quán)的適用對(duì)象,并非限于決定僅由自動(dòng)決策算法做出的情況。即便存在人工干預(yù),只要算法對(duì)決策產(chǎn)生實(shí)質(zhì)性影響,即應(yīng)當(dāng)屬于算法解釋權(quán)的適用對(duì)象。
1.重大影響并不限于對(duì)個(gè)人不利的決定。有利或者不利,是主觀性極強(qiáng)的概念。如果將適用范圍限于對(duì)個(gè)人的不利影響,個(gè)人需要證明決定對(duì)其利益構(gòu)成侵害,這不一定能夠順利實(shí)現(xiàn)。歐盟在制定《個(gè)人數(shù)據(jù)保護(hù)指令》當(dāng)中,曾試圖將適用條件限定為不利的法律影響或類似的不利影響。⑤Commission of the European Communities, Amended proposal for a Council Directive on the protection of individuals with regard to the processing of personal data and on the free movement of such data (15 October 1992, COM(92) 422 final - SYN 287), p. 26.但后來(lái)考慮到可能增加個(gè)人的負(fù)擔(dān),因此并未做限制。第29 條工作組在其指導(dǎo)意見(jiàn)中指出,重大影響可以是積極的,也可以是消極的。⑥Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251 rev. 01, as last revised and adopted on 6 February, 2018.
2.重大影響并不存在明確的判斷標(biāo)準(zhǔn)。重大影響這一標(biāo)準(zhǔn)具備一定的模糊性。立法者有意識(shí)地采納模糊性的表達(dá),以交由監(jiān)管機(jī)關(guān)和司法機(jī)關(guān)判斷何為“重大影響”。但一般認(rèn)為,合同締結(jié)或終止應(yīng)屬于該款指涉的不利狀態(tài)。個(gè)體如果因?yàn)樽詣?dòng)決策算法而未能締結(jié)合同,應(yīng)認(rèn)定屬于遭受了重大影響。⑦BeckOK DatenschutzR/ DS-GVO Art. 22 Rn. 39.此外,當(dāng)繼續(xù)性合同內(nèi)容因自動(dòng)決策算法的結(jié)果而被要求終止時(shí),數(shù)據(jù)主體也可以行使算法結(jié)果拒絕權(quán)。⑧Simitis/Hornung/Spiecker, a.a.O. S.716.再者,算法結(jié)果雖不影響當(dāng)事人的法律狀態(tài),但事實(shí)上影響了當(dāng)事人合同目的實(shí)現(xiàn),此時(shí)個(gè)體仍然有獲得法律保護(hù)的可能。例如,個(gè)人如果只能按照不利的條款才能締結(jié)合同,也應(yīng)被認(rèn)定法律狀態(tài)遭受不利影響。⑨Mendoza/Bygrave, The Right Not to Be Subject to Automated Decisions Based on Profiling, University of Oslo Faculty of Law Research Paper No. 2017-20, p. 12.具體而言,個(gè)人雖然與企業(yè)確立了合同關(guān)系,但卻不能如同他人一樣享受靈活的支付選擇——個(gè)人被要求必須提前付款,不能享受貨到付款待遇,亦或者個(gè)人不得使用信用卡支付等等。⑩BeckOK DatenschutzR/v. Lewinski BDSG § 6 a Rn. 40.
《個(gè)保法》第24 條第3 款規(guī)定,“個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明”。但說(shuō)明或解釋一詞有高度模糊性,英國(guó)信息委員會(huì)辦公室就指出,解釋包括六種情況:理性解釋、責(zé)任解釋、數(shù)據(jù)解釋、公平解釋、安全與執(zhí)行解釋和影響力解釋。?Information Commissioner's Office & The Alan Turing Institute, Explaining decisions made with Artificial Intelligence/Part 1 The basics of explaining AI/What goes into an explanation?, available from
支持事后的、對(duì)具體決定的算法解釋權(quán)的學(xué)者認(rèn)為:鑒于合同法、侵權(quán)法和消費(fèi)者保護(hù)法等都沒(méi)法充分救濟(jì)當(dāng)事人,法律應(yīng)當(dāng)賦予個(gè)人事后的算法解釋權(quán);當(dāng)自動(dòng)化決策算法的具體決定對(duì)相對(duì)人有法律上或者經(jīng)濟(jì)上的顯著影響時(shí),相對(duì)人有權(quán)向算法使用人提出異議,要求提供對(duì)具體決策的解釋。?參見(jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2018 年第3 期;張恩典:《大數(shù)據(jù)時(shí)代的算法解釋權(quán):背景、邏輯與構(gòu)造》,載《法學(xué)論壇》2019 年第4 期。支持說(shuō)受到牛津大學(xué)網(wǎng)絡(luò)研究中心研究助理古德曼和倫敦帝國(guó)學(xué)院數(shù)學(xué)系講師弗萊斯曼觀點(diǎn)的影響。二人通過(guò)分析《歐盟條例》相關(guān)規(guī)范指出,《歐盟條例》已經(jīng)明確規(guī)定了個(gè)人的算法解釋權(quán):鑒于《歐盟條例》第13 條和第14 條要求使用數(shù)據(jù)畫(huà)像技術(shù)的數(shù)據(jù)控制者提供數(shù)據(jù)主體和算法邏輯有關(guān)的有意義的信息,數(shù)據(jù)主體實(shí)質(zhì)上享有自動(dòng)決策算法解釋請(qǐng)求權(quán)。?Bryce Goodman, Seth Flaxman, European Union regulations on algorithmic decision-making and a ‘‘right to explanation’’, in 2016 ICML Workshop on Human Interpretability in Machine Learning, New York, NY: ArXiv e-prints.古德曼和弗萊斯曼認(rèn)為《歐盟條例》規(guī)定了個(gè)人對(duì)算法決策的事后的、針對(duì)具體決定的解釋請(qǐng)求權(quán)。國(guó)外也有一些學(xué)者同樣持此觀點(diǎn)。?See Francesca Rossi, Artificial Intelligence: Potential Benefits and Ethical Considerations, (European Parliament: Policy Department C: Citizens’ Rights and Constitutional Affairs 2016), Briefing PE 571, p.380.
反對(duì)說(shuō)認(rèn)為,立法不應(yīng)創(chuàng)設(shè)事后的、針對(duì)具體決定的算法解釋權(quán),而僅應(yīng)規(guī)定事前的、針對(duì)算法基本情況的解釋請(qǐng)求權(quán)。?參見(jiàn)沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評(píng)論》2019 年第6 期;林洹民:《個(gè)人對(duì)抗商業(yè)自動(dòng)決策算法的私權(quán)設(shè)計(jì)》,載《清華法學(xué)》2020 年第4 期。核心理由在于:(1)事后的、具體的算法解釋權(quán)擾亂商業(yè)模式。企業(yè)出于節(jié)省成本、降低技術(shù)難度等考慮傾向于將業(yè)務(wù)外包,借助外部數(shù)據(jù)公司的輔助,在控制風(fēng)險(xiǎn)的同時(shí)實(shí)現(xiàn)收益的最大化。以金融公司為例,銀行從外部數(shù)據(jù)公司獲知評(píng)分結(jié)果,進(jìn)而作出授信決定;信用卡公司甚至完全依賴外部評(píng)分機(jī)制(externes Scoring)決定信用卡的發(fā)放與否。?在大數(shù)據(jù)時(shí)代,金融機(jī)構(gòu)往往求助于專門(mén)的數(shù)據(jù)分析公司,借助這些公司的數(shù)據(jù)分析技術(shù)風(fēng)險(xiǎn)評(píng)估。例如,德國(guó)Kreditech 貸款評(píng)分公司、美國(guó)Movenbank 移動(dòng)銀行、中國(guó)香港Lenddo 網(wǎng)絡(luò)貸款公司以及TrustCloud 、Connect.Me、Briiefly、Reputate 等新型中介機(jī)構(gòu),試圖設(shè)計(jì)大數(shù)據(jù)金融的信用平臺(tái),打造能反映 LinkedIn、Facebook 或其他社交網(wǎng)絡(luò)的開(kāi)放平臺(tái),整合用戶活動(dòng)記錄,進(jìn)而通過(guò)算法實(shí)時(shí)地將社交網(wǎng)絡(luò)產(chǎn)生的種種資料直接轉(zhuǎn)化成個(gè)人的互聯(lián)網(wǎng)信用。金融機(jī)構(gòu)因無(wú)法查看外部數(shù)據(jù)公司的算法和使用的數(shù)據(jù),因此沒(méi)有機(jī)會(huì)解釋算法。在以外部信用評(píng)分為代表的外包模式下,算法解釋缺乏實(shí)質(zhì)意義。信用卡公司員工最多只能根據(jù)申請(qǐng)人提交的資料重新作出決策,若結(jié)果與基于算法做出的結(jié)果一致,員工也只能解釋自己的判斷依據(jù)。?Simitis/Hornung/Spiecker, a.a.O. S. 714.(2)深度學(xué)習(xí)算法決策結(jié)果的不可解釋性。深度學(xué)習(xí)算法自我分析數(shù)據(jù),自我遴選標(biāo)準(zhǔn),自我評(píng)估結(jié)果,根本不存在“每種指標(biāo)的功能權(quán)重,機(jī)器定義的特定案例決策規(guī)則和起參考輔助作用的信息”的解釋可能。深度學(xué)習(xí)算法的特征設(shè)定不再必要,機(jī)器將在深度學(xué)習(xí)算法的指引下自行選定特征,設(shè)計(jì)評(píng)估和決策算法。深度學(xué)習(xí)算法依賴于大量的數(shù)據(jù)和強(qiáng)大硬件的支撐,但設(shè)計(jì)者也沒(méi)法解釋決策產(chǎn)生的依據(jù)。算法設(shè)計(jì)者并沒(méi)有設(shè)計(jì)考慮因素、權(quán)重等,而是任由數(shù)據(jù)畫(huà)像技術(shù)自行發(fā)現(xiàn)影響因素及權(quán)重,算法設(shè)計(jì)者自身也不清楚被算法考慮的因素及其權(quán)重。反對(duì)說(shuō)也否定《歐盟條例》第22 條規(guī)定了事前的、針對(duì)具體決定的算法解釋權(quán)。他們指出,《條例》序言第71 條明確提到了算法決定解釋權(quán),但《歐盟條例》前言不能創(chuàng)設(shè)新的權(quán)利;第13-15 條僅要求提供事前的、一般性的說(shuō)明,并非事后的、具體的算法解釋權(quán)。?Sandra Wachter, Brent Mittelstadt, Luciano Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, International Data Privacy Law, 2017, Vol. 7, No.2.但也需注意,第29 條工作小組起初認(rèn)為《歐盟條例》第13 條至第15 條要求告知“和邏輯相關(guān)的有意義的信息”僅提供一個(gè)一般性的洞察,而非針對(duì)具體決定的解釋請(qǐng)求權(quán),?Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251, adopted on 3 October 2017, 24.后來(lái)卻改弦更張,認(rèn)為提供的信息應(yīng)當(dāng)足夠個(gè)人理解具體的決定。?Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251 rev. 01, as last revised and adopted on 6 February, 2018, 27 (A29WP Guidelines)第29 條工作小組的觀點(diǎn)也展示了該問(wèn)題的復(fù)雜性。
鑒于我國(guó)學(xué)者對(duì)該問(wèn)題遠(yuǎn)未達(dá)成共識(shí),我國(guó)立法者設(shè)計(jì)了相對(duì)模糊的法律規(guī)范。較為籠統(tǒng)的規(guī)則設(shè)計(jì)雖然在操作層面不夠清晰,但卻為不同場(chǎng)景中不同的算法解釋權(quán)提供棲身之地。《個(gè)保法》屬于領(lǐng)域法,既含有私法色彩,也具有公法屬性。21參見(jiàn)周漢華:《論互聯(lián)網(wǎng)法》,載《中國(guó)法學(xué)》2015年第3期;張新寶:《互聯(lián)網(wǎng)生態(tài)“守門(mén)人”個(gè)人信息保護(hù)特別義務(wù)設(shè)置研究》,載《比較法研究》2021 年第3 期;龍衛(wèi)球:《〈個(gè)人信息保護(hù)法〉的基本法定位與保護(hù)功能——基于新法體系形成及其展開(kāi)的分析》,載《現(xiàn)代法學(xué)》2021 年第5 期。《個(gè)保法》第24 條既規(guī)范公權(quán)力機(jī)關(guān)的算法應(yīng)用,也規(guī)范企業(yè)與個(gè)人之間的算法決策。但公私法的理念并不相同,前者強(qiáng)調(diào)依法行政原則、正當(dāng)程序、尊重與保障人權(quán)等原則,后者則更加關(guān)注誠(chéng)實(shí)信用、意思自治與合同正義。規(guī)范對(duì)象與規(guī)范理念的不同,導(dǎo)致不存在統(tǒng)一適用于公私法場(chǎng)景的算法解釋權(quán)。
國(guó)務(wù)院于2017 年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》強(qiáng)調(diào),應(yīng)促進(jìn)人工智能技術(shù)在行政管理領(lǐng)域的運(yùn)用。人工智能的本質(zhì)即是算法、數(shù)據(jù)和算力的系統(tǒng)結(jié)合。目前自動(dòng)決策算法已經(jīng)開(kāi)始在行政管理領(lǐng)域推廣使用。“秒批”為全自動(dòng)行政的典型代表。所謂的“秒批”,是指行政主體事先根據(jù)審批的條件和流程設(shè)定自動(dòng)化程序,申請(qǐng)人提交申請(qǐng)信息后,系統(tǒng)將通過(guò)自有的和共享的數(shù)據(jù)庫(kù)自動(dòng)比對(duì)以及核驗(yàn)材料,無(wú)人工干預(yù)地瞬時(shí)完成自動(dòng)審批并將結(jié)果反饋給申請(qǐng)人,完成審批流程。22參見(jiàn)查云飛:《行政裁量自動(dòng)化的學(xué)理基礎(chǔ)與功能定位》,載《行政法學(xué)研究》2021 年第3 期。但需注意,行政機(jī)關(guān)使用自動(dòng)決策算法作出的決策可能存在錯(cuò)誤,國(guó)外的算法行政實(shí)踐已經(jīng)暴露出了種種瑕疵。例如,密歇根融合數(shù)據(jù)自動(dòng)化系統(tǒng)存在著93%的出錯(cuò)率,40000 人可能受害;澳大利亞社會(huì)保障部的智能催債系統(tǒng)發(fā)生了幾乎類似的算法裁決錯(cuò)誤,成千上萬(wàn)的福利申請(qǐng)者收到了系統(tǒng)的郵件,要求他們證明未冒用資格獲得社會(huì)福利。23參見(jiàn)汪慶華:《算法透明的多重維度和算法問(wèn)責(zé)》,載《比較法研究》2020 年第6 期。即便算法僅為輔助手段,行政機(jī)關(guān)也可能“惰于思考”,借助自算法轉(zhuǎn)嫁決策風(fēng)險(xiǎn),逃避問(wèn)責(zé)。
自動(dòng)決策算法在行政管理領(lǐng)域的應(yīng)用雖然有利于提高工作效率,但可能侵犯公民的知情權(quán)、申訴權(quán),甚至發(fā)生錯(cuò)誤處罰等直接侵犯公民人身自由和財(cái)產(chǎn)安全的情況。知情權(quán)是確保規(guī)范性期望不被動(dòng)搖的關(guān)鍵。如果人們不了解行政決定的原因,不理解自身為什么會(huì)敗訴,公權(quán)力行為的正當(dāng)性和合法性將會(huì)遭受質(zhì)疑。24茲舉一例,如果新書(shū)發(fā)布會(huì)前四排不允許自由落座,人們可能會(huì)對(duì)此表示不滿。但如果主辦方說(shuō)明前幾排是留給殘障人士的,人們不僅不會(huì)不滿,反而會(huì)贊賞主辦方的細(xì)心與熱心。我國(guó)《行政許可法》第38 條第3 款規(guī)定,行政機(jī)關(guān)依法作出不予行政許可的書(shū)面決定的,應(yīng)當(dāng)說(shuō)明理由,并告知申請(qǐng)人享有依法申請(qǐng)行政復(fù)議或者提起行政訴訟的權(quán)利。《行政處罰法》第44 條規(guī)定,行政機(jī)關(guān)在作出行政處罰決定之前,應(yīng)當(dāng)告知當(dāng)事人擬作出的行政處罰內(nèi)容及事實(shí)、理由、依據(jù),并告知當(dāng)事人依法享有的陳述、申辯、要求聽(tīng)證等權(quán)利。為了防止行政機(jī)關(guān)借助算法侵犯公民的基本權(quán)利,公民應(yīng)有權(quán)請(qǐng)求解釋行政自動(dòng)決策算法的具體決定。下文以健康碼為例詳述之。
健康碼是算法處理個(gè)人信息之后的電子健康憑證。我國(guó)利用自動(dòng)化算法分析健康數(shù)據(jù)、地理位置數(shù)據(jù)、社交數(shù)據(jù)等個(gè)人數(shù)據(jù),判斷個(gè)人是否有可能已經(jīng)感染新冠病毒。根據(jù)算法處理結(jié)果,人們將會(huì)獲得紅黃綠三種顏色之一的健康碼。紅碼和黃碼持有者得分別實(shí)施14 天和7 天的集中或居家隔離,只有綠碼持有者才免于隔離,享有通行自由。
健康碼僅僅展示感染新冠肺炎的可能性,紅碼者并非當(dāng)然感染新冠肺炎。但源于政府依據(jù)健康碼限制公民行為自由,健康碼成為某種行政行為。生成健康碼,在行政法上的行為類型屬于行政評(píng)級(jí)。25參見(jiàn)查云飛:《健康碼:個(gè)人疫情風(fēng)險(xiǎn)的自動(dòng)化評(píng)級(jí)與利用》,載《浙江學(xué)刊》2020 年第3 期。行政評(píng)級(jí)是指行政機(jī)關(guān)設(shè)定一些簡(jiǎn)明的評(píng)價(jià)標(biāo)準(zhǔn),結(jié)合相對(duì)人的相關(guān)信息或者過(guò)往的行為予以定性評(píng)價(jià),在此基礎(chǔ)上可進(jìn)行相應(yīng)分類監(jiān)管。26參見(jiàn)王瑞雪:《論行政評(píng)級(jí)及其法律控制》,載《法商研究》2018 年第3 期。生成健康碼并非行政確認(rèn),在性質(zhì)上與酒駕檢測(cè)和車輛年檢接近,應(yīng)當(dāng)屬于“行政評(píng)級(jí)”。行政評(píng)級(jí)已被廣泛運(yùn)用于各個(gè)領(lǐng)域,例如餐飲業(yè)的衛(wèi)生等級(jí)評(píng)定、納稅人的納稅信譽(yù)等級(jí)評(píng)定、行政審批中介機(jī)構(gòu)等級(jí)評(píng)定以及備受爭(zhēng)議的社會(huì)信用評(píng)價(jià)等。27參見(jiàn)吳元元:《信息基礎(chǔ)、聲譽(yù)機(jī)制與執(zhí)法優(yōu)化——食品安全治理的新視野》,載《中國(guó)社會(huì)科學(xué)》2012 年第6 期。
當(dāng)健康碼成為一種可以限制出行自由的行政行為時(shí),法秩序應(yīng)當(dāng)給于公民一定的保障。即便公民經(jīng)過(guò)核酸檢測(cè)后并認(rèn)定未感染新冠肺炎,也會(huì)因?yàn)榻】荡a是黃碼或紅碼而被限制出行自由。然而,技術(shù)后臺(tái)基于哪些數(shù)據(jù)比對(duì)分析,對(duì)各類數(shù)據(jù)如何賦值,在數(shù)據(jù)沖突時(shí)如何處理,風(fēng)險(xiǎn)等級(jí)的評(píng)定標(biāo)準(zhǔn)具體如何以及動(dòng)態(tài)調(diào)整有哪些依據(jù),這些由行政機(jī)關(guān)設(shè)定的標(biāo)準(zhǔn)卻并未公開(kāi)。人民缺乏對(duì)政府部門(mén)使用健康碼的法定知情權(quán)。盡管《行政處罰法》《行政強(qiáng)制法》《行政許可法》等法律已經(jīng)規(guī)定知情權(quán),但是健康碼的性質(zhì)為行政評(píng)級(jí),并非行政處罰、行政強(qiáng)制或行政許可。當(dāng)然,也可以借助正當(dāng)程序保護(hù)公民的知情權(quán)。但正當(dāng)程序這一標(biāo)準(zhǔn)頗具模糊性,這使得行政機(jī)關(guān)使用算法的行為缺乏直接的法律拘束。
《個(gè)保法》第24 條第3 款前半句規(guī)定,通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明。健康碼是計(jì)算機(jī)程序處理個(gè)人信息的結(jié)果,屬于通過(guò)自動(dòng)化決策方式做出的決定;健康碼顏色直接影響出行自由,應(yīng)屬于“對(duì)個(gè)人權(quán)益有重大影響的決定”。因此,在《個(gè)保法》生效之后,個(gè)人得據(jù)此請(qǐng)求公權(quán)力機(jī)關(guān)解釋健康碼。疑問(wèn)在于,個(gè)人得請(qǐng)求解釋具體的健康碼決定,還是健康碼的運(yùn)行邏輯?
我國(guó)行政法要求行政主體在作出行政決定時(shí),特別是做出對(duì)當(dāng)事人不利的決定時(shí),負(fù)有說(shuō)明理由的義務(wù),包括說(shuō)明作出行政決定的法律原因和事實(shí)原因,并指出此為程序公證的必然要求。28參見(jiàn)應(yīng)松年主編:《行政法與行政訴訟法學(xué)》,高等教育出版社2017 年版,第44 頁(yè)。理由說(shuō)明義務(wù)受到德國(guó)與美國(guó)學(xué)說(shuō)的影響。《德國(guó)基本法》第5 條第1 款雖然沒(méi)有直接規(guī)定知情權(quán),但被認(rèn)為已蘊(yùn)含了“知情權(quán)”的因素;美國(guó)的知情權(quán)也對(duì)我國(guó)行政法產(chǎn)生深遠(yuǎn)影響。29參見(jiàn)章劍生:《現(xiàn)代行政法基本理論》(下卷),法律出版社2014 年版,第640 頁(yè)。要求行政機(jī)關(guān)具體說(shuō)明決策理由,有助于防止行政裁量權(quán)濫用、減少人民的對(duì)抗,并且能夠構(gòu)成司法審查的基礎(chǔ)。30同上注,第643-646 頁(yè)。借助算法的行政行為也應(yīng)滿足告知義務(wù)。尤其值得注意的是,法國(guó)行政法雖然不存在普適的行政告知義務(wù),但2017 年修改的《法國(guó)行政法典》規(guī)定每個(gè)獨(dú)立的個(gè)體可以從行政機(jī)關(guān)獲得下列信息:算法模型對(duì)決策的貢獻(xiàn)程度和貢獻(xiàn)方式;算法模型所依賴的數(shù)據(jù)及其來(lái)源;對(duì)參數(shù)的處理方式以及對(duì)各項(xiàng)指標(biāo)的加權(quán)幅度;算法模型導(dǎo)致的結(jié)果。31Edwards L & Veale M, Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”, 16(3) IEEE Security & Privacy 46 (2018).
就健康碼這一行政行為而言,行政機(jī)關(guān)應(yīng)當(dāng)說(shuō)明健康碼的法律依據(jù)和事實(shí)依據(jù)。法律依據(jù)是指,行政機(jī)關(guān)為什么可以未經(jīng)個(gè)人的同意處理個(gè)人信息。《民法典》第1036 條將“維護(hù)公共利益”作為處理個(gè)人信息不予承擔(dān)民事責(zé)任的事由之一;《個(gè)保法》第13 條第1 款第4 項(xiàng)也進(jìn)一步明確為應(yīng)對(duì)突發(fā)公共衛(wèi)生事件構(gòu)成個(gè)人信息處理的合法性依據(jù)。兩部法律為行政機(jī)關(guān)使用算法處理個(gè)人信息提供法律依據(jù)。事實(shí)依據(jù)則在于,健康碼處理哪些個(gè)人數(shù)據(jù),又依據(jù)何種邏輯作出判斷。結(jié)合《個(gè)保法》第35 條前半句和第17 條,國(guó)家機(jī)關(guān)為履行法定職責(zé)處理個(gè)人信息的,也應(yīng)當(dāng)告知個(gè)人信息的處理目的、處理方式,處理的個(gè)人信息種類、保存期限等信息。
在個(gè)人與公權(quán)力場(chǎng)景,公權(quán)力不得以商業(yè)秘密為由拒絕解釋具體的決定。欲解釋具體的算法決定,難免要深入到“黑箱”內(nèi)部,說(shuō)明算法的邏輯、運(yùn)行原理。在個(gè)人與公權(quán)力關(guān)系當(dāng)中,基本權(quán)利保護(hù)居于優(yōu)位。如果解釋具體決定為侵犯商業(yè)秘密,公權(quán)力機(jī)關(guān)即不應(yīng)使用算法為行政行為。公權(quán)力機(jī)關(guān)負(fù)有解釋算法決定的義務(wù),如果擔(dān)心算法解釋影響第三方的商業(yè)秘密,即不應(yīng)使用該算法作出決定。此外,公權(quán)力也不得以解釋不能拒絕解釋具體的決定。一些復(fù)雜的算法難以解釋,深度學(xué)習(xí)算法的決定也尚不具備解釋可能性。如果公權(quán)力不能解釋算法,即不得運(yùn)用算法。無(wú)論如何,公民的知情權(quán)都應(yīng)居于優(yōu)位。
需注意,并非在社會(huì)治理的所有領(lǐng)域均不得使用不具備解釋可行性的自動(dòng)決策算法。在一些領(lǐng)域當(dāng)中,算法的不透明性不但無(wú)害,反而有利:一旦算法公開(kāi),算法相對(duì)人可能有針對(duì)性地與算法對(duì)抗。例如,當(dāng)美國(guó)聯(lián)邦高速公路管理局拒絕披露對(duì)運(yùn)營(yíng)商安全等級(jí)評(píng)級(jí)的算法時(shí),聯(lián)邦法院只是要求政府部門(mén)公布影響算法結(jié)果的各因素的權(quán)重,而并未要求政府完整地公布算法設(shè)計(jì),原因即在于算法透明可能帶來(lái)的執(zhí)法規(guī)避風(fēng)險(xiǎn)。32Don Ray Drive-A-Way Co. v. Skinner, 785 F. Supp. 198 (D.D.C. 1992).再者,如果算法運(yùn)用合理,不透明的算法可以彌補(bǔ)社會(huì)裂痕,維持社會(huì)共識(shí)。在我國(guó)社會(huì)的實(shí)踐中,已經(jīng)有不少案例充分發(fā)揮了不透明的算法的正面功能。例如,有的大學(xué)采取了以學(xué)生在食堂的消費(fèi)情況為評(píng)定依據(jù)的算法發(fā)放助學(xué)金,這種算法既相對(duì)有效地確定了貧困學(xué)生的群體,又避免了貧困學(xué)生公開(kāi)“比窮”、傷害貧困家庭孩子自尊心等問(wèn)題。33參見(jiàn)丁曉東:《算法與歧視 從美國(guó)教育平權(quán)案看算法倫理與法律解釋》,載《中外法學(xué)》2017 年第6 期。只是在何種情境之下可以不解釋算法決定,應(yīng)由法律明確規(guī)定。行政機(jī)關(guān)有依法行政的義務(wù),目前僅有《個(gè)保法》第35 條后半句允許公權(quán)力機(jī)關(guān)在特定情況不履行告知義務(wù)。除此之外,公權(quán)力機(jī)關(guān)應(yīng)負(fù)有解釋算法決定的義務(wù)。
在個(gè)人與企業(yè)場(chǎng)景當(dāng)中,算法不透明已然引發(fā)諸多糾紛。在“全國(guó)首例消費(fèi)者因檢索服務(wù)狀告電商平臺(tái)違約案”當(dāng)中,原告以“我搜索的是國(guó)美冰箱,為什么出來(lái)的不全是國(guó)美牌冰箱?”為由起訴被告淘寶公司,認(rèn)為淘寶公司的行為“辜負(fù)”了消費(fèi)者的信賴,構(gòu)成違約。在該案庭審當(dāng)中,原告要求被告解釋算法,但被告以商業(yè)秘密為由拒絕。34《為啥搜出來(lái)的不全是國(guó)美牌冰箱?女研究生告電商平臺(tái),全國(guó)首例“搜索服務(wù)”違約案判了》,載網(wǎng)易新聞,https://3g.163.com/dy/article/G2D205CM0512GTK3.html,2021 年5 月25 日訪問(wèn)。該案中的原告不相信不透明的算法,認(rèn)為自己遭受不公平的待遇。在我國(guó)確實(shí)出現(xiàn)過(guò)借助算法歧視和大數(shù)據(jù)殺熟的案例。例如某公司在運(yùn)用算法篩選簡(jiǎn)歷時(shí),因閆某某為“河南人”而拒絕其應(yīng)聘。35《女孩因“河南人”應(yīng)聘被拒案開(kāi)庭 浙江喜來(lái)登被判道歉賠償1 萬(wàn)元》,https://www.thepaper.cn/newsDetail_forward_5064609, 2021 年5 月31 日訪問(wèn)。歧視是一個(gè)雜糅了文化、社會(huì)和道德觀念、歷史和時(shí)間的因素,對(duì)于何種行為構(gòu)成歧視并不存在統(tǒng)一的標(biāo)準(zhǔn)。但如果算法僅僅根據(jù)地域拒絕應(yīng)聘者,那么便構(gòu)成歧視。再比如,消費(fèi)者在某應(yīng)用程序預(yù)訂賓館,使用不同的手機(jī)搜索同一酒店、同一日期、同一房型價(jià)格在169 元到217 元之間波動(dòng)。36《大數(shù)據(jù)殺熟,為什么越來(lái)越肆無(wú)忌憚?》,https://m.21jingji.com/article/20201221/herald/c49f8dc4b126badd76b8c400b478e5c5_zaker.html,2021 年5 月31 日訪問(wèn)。大數(shù)據(jù)殺熟已然引起人們的不滿。如果個(gè)人有權(quán)請(qǐng)求解釋算法的具體決定,有助于打破算法黑箱,實(shí)現(xiàn)算法正義。
但也需注意,在個(gè)人與企業(yè)關(guān)系當(dāng)中,并不存在優(yōu)位價(jià)值。與公民知情權(quán)保護(hù)不同,消費(fèi)者保護(hù)與企業(yè)發(fā)展同為法律所欲促成的目標(biāo)。歐盟部長(zhǎng)委員會(huì)早在2010 年就指出,自動(dòng)決策算法有利于更好地細(xì)分市場(chǎng)和提供更好的服務(wù),能夠?qū)崿F(xiàn)消費(fèi)者和企業(yè)的雙贏,可為用戶、經(jīng)濟(jì)體和整個(gè)社會(huì)帶來(lái)益處。自動(dòng)決策算法能夠降低商業(yè)風(fēng)險(xiǎn)和消費(fèi)者負(fù)擔(dān)。37Recommendation CM/Rec (2010) 13 of the Committee of Ministers to member states on the protection of individuals with regard to automatic processing of personal data in the context of profiling.例如金融機(jī)構(gòu)借助自動(dòng)決策算法分析海量替代數(shù)據(jù),不但在控制風(fēng)險(xiǎn)的同時(shí)極大地降低了運(yùn)營(yíng)成本,而且也使得沒(méi)有存款記錄、借貸歷史的人能夠獲得貸款,推動(dòng)“普惠金融”的實(shí)現(xiàn);信用卡公司采用自動(dòng)決策算法審核信用卡申請(qǐng),極大地降低信用卡公司的管理成本,“免年費(fèi)”成為可能;保險(xiǎn)行業(yè)早于17 世紀(jì)就已經(jīng)使用算法控制風(fēng)險(xiǎn)——保險(xiǎn)本就是由精算科學(xué)發(fā)展而來(lái)的,保險(xiǎn)使得人們可以拿所在群體的集體風(fēng)險(xiǎn)為賭注,換取不幸發(fā)生時(shí)的自我保護(hù)——保險(xiǎn)行業(yè)目前可以借助算法和大數(shù)據(jù)將人們分為更小的群體,提供更合適的產(chǎn)品和服務(wù)。因此,法律對(duì)商業(yè)自動(dòng)決策算法的規(guī)范,應(yīng)當(dāng)致力于實(shí)現(xiàn)個(gè)人利益和商業(yè)利益之間的平衡,既鼓勵(lì)商業(yè)自動(dòng)決策算法發(fā)揮積極作用,同時(shí)又避免算法侵犯私權(quán),造成實(shí)質(zhì)不公。
商業(yè)自動(dòng)決策算法降低了商業(yè)風(fēng)險(xiǎn)和消費(fèi)者負(fù)擔(dān),但也使得用戶有淪為信用評(píng)分算法客體的危險(xiǎn)。為了防止算法歧視和大數(shù)據(jù)殺熟,應(yīng)當(dāng)確保算法一定程度上的透明性。但算法透明并不意味著事后的、具體的算法決定解釋權(quán)。
如果我們要求算法使用人事后解釋算法的具體決定,可能會(huì)嚴(yán)重侵犯企業(yè)的知識(shí)產(chǎn)權(quán)。要解釋算法決定,難免要深入設(shè)計(jì)層面。如果要求企業(yè)解釋算法的設(shè)計(jì),將使得企業(yè)的智慧成果暴露在競(jìng)爭(zhēng)對(duì)手的視線當(dāng)中。通過(guò)保守算法的秘密,企業(yè)得以維持自身的競(jìng)爭(zhēng)優(yōu)勢(shì)和商業(yè)秘密,進(jìn)而在激烈的市場(chǎng)競(jìng)爭(zhēng)當(dāng)中占據(jù)優(yōu)勢(shì)地位。38Bernardo Huberman, Sociology of Science: Big Data Deserve a Bigger Audience, 482 Nature 308, 2012.無(wú)論如何強(qiáng)調(diào)算法監(jiān)管,不扼殺行業(yè)的創(chuàng)新力和競(jìng)爭(zhēng)力應(yīng)是管理的底線。《歐盟條例》序言第63 條明確強(qiáng)調(diào),知情權(quán)不能損害企業(yè)的商業(yè)秘密、其他知識(shí)產(chǎn)權(quán),特別是軟件的著作權(quán)。即使在格外強(qiáng)調(diào)人權(quán)保障的德國(guó),數(shù)據(jù)主體要求企業(yè)解釋算法邏輯的主張也沒(méi)有得到認(rèn)可。德國(guó)2009 年版《聯(lián)邦數(shù)據(jù)保護(hù)法》第34 條第4 款第4 項(xiàng)曾規(guī)定,信用評(píng)分機(jī)構(gòu)必須應(yīng)數(shù)據(jù)主體的要求以容易理解的方式解釋每一個(gè)個(gè)案概率值的產(chǎn)生和意義;該條第2 款規(guī)定,信用評(píng)分機(jī)構(gòu)必須以完全能夠理解的方式告知概率值的產(chǎn)生和意義。從文義上看,數(shù)據(jù)主體似乎有權(quán)請(qǐng)求告知算法的邏輯。然而,德國(guó)聯(lián)邦最高法院2014 年在對(duì)上述法條的解釋中明確指出,數(shù)據(jù)主體不得請(qǐng)求披露權(quán)重、評(píng)分公式、統(tǒng)計(jì)值和參考組的信息等信息,因?yàn)檫@觸犯了企業(yè)的商業(yè)秘密;披露企業(yè)的商業(yè)秘密也明顯不符合立法目的。39BGH, Urteil vom 28.01.2014 - VI ZR 156/13, BGHZ 200, 38 Rn. 24ff.為了增加法的清晰性和確定性,德國(guó)2017 年新《聯(lián)邦數(shù)據(jù)保護(hù)條例》(BDSG)直接廢除了原第34 條。我國(guó)司法實(shí)踐也采納保護(hù)知識(shí)產(chǎn)權(quán)的立場(chǎng)。在廈門(mén)某脈技術(shù)有限公司與廈門(mén)市某睿信息科技有限公司的糾紛中,某脈公司主張算法的核心參數(shù)特征(Gabor 參數(shù))是其技術(shù)秘密,該主張得到法院的支持;40參見(jiàn)福建省高級(jí)人民法院(2019)閩民終19 號(hào)民事裁定書(shū)。在凌某某訴北京某播視界科技有限公司隱私權(quán)、個(gè)人信息權(quán)益網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案當(dāng)中,北京互聯(lián)網(wǎng)法院認(rèn)為,算法確實(shí)會(huì)涉及被告的商業(yè)秘密,告知和公開(kāi)算法不屬于對(duì)原告的個(gè)人信息進(jìn)行保護(hù)的必要措施。41參見(jiàn)北京互聯(lián)網(wǎng)法院(2019)京0491 民初6694 號(hào)民事判決書(shū)。2020 年8 月《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問(wèn)題的規(guī)定》也將算法列入了技術(shù)信息范疇,使其正式成為我國(guó)知識(shí)產(chǎn)權(quán)法保護(hù)的對(duì)象。
再者,企業(yè)對(duì)復(fù)雜算法尤其是深度學(xué)習(xí)算法可能會(huì)出現(xiàn)解釋不能的情況——企業(yè)沒(méi)法解釋具體的決定是怎么做出的。目前國(guó)際正在研究算法的可解釋性問(wèn)題,但尚未在技術(shù)上有根本性的突破。規(guī)范上的期望,倘若沒(méi)有附帶注意到可執(zhí)行性問(wèn)題,那么就無(wú)法獲得實(shí)行。如果我們執(zhí)意要求企業(yè)解釋他們本就無(wú)法解釋的算法決定,那么等同于限制復(fù)雜算法應(yīng)用的推廣。
值得注意的是,《算法推薦管理規(guī)定》(征求意見(jiàn)稿)第12 條要求算法推薦服務(wù)提供者“應(yīng)當(dāng)”優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性。正式通過(guò)的《算法推薦管理規(guī)定》并未規(guī)定算法推薦服務(wù)提供者的解釋算法決定的義務(wù),而是“鼓勵(lì)”算法推薦服務(wù)提供者實(shí)現(xiàn)算法透明和可解釋性。征求意見(jiàn)稿第17 條第3 款規(guī)定,用戶認(rèn)為算法推薦服務(wù)提供者應(yīng)用算法對(duì)其權(quán)益造成重大影響的,有權(quán)要求算法推薦服務(wù)提供者予以說(shuō)明并采取相應(yīng)改進(jìn)或者補(bǔ)救措施。《算法推薦管理規(guī)定》第17 條第3 款放棄權(quán)利式設(shè)計(jì),而是規(guī)定算法推薦服務(wù)提供者“應(yīng)當(dāng)依法予以說(shuō)明并承擔(dān)相應(yīng)責(zé)任”。42《算法推薦管理規(guī)定》第17 條第3 款:算法推薦服務(wù)提供者應(yīng)用算法對(duì)用戶權(quán)益造成重大影響的,應(yīng)當(dāng)依法予以說(shuō)明并承擔(dān)相應(yīng)責(zé)任。算法推薦服務(wù)提供者說(shuō)明算法決定的,應(yīng)當(dāng)“依法”進(jìn)行,這也表明算法使用人并不負(fù)有全方位的算法解釋義務(wù)。鑒于《算法推薦管理規(guī)定》主要規(guī)范商業(yè)算法,該規(guī)定試圖柔化商業(yè)算法相對(duì)人的權(quán)利和算法使用人的義務(wù)。
最后,算法使用人應(yīng)告知的是算法處理的個(gè)人信息,而非解釋具體的算法決定。《個(gè)保法》第44 條規(guī)定個(gè)人信息主體的知情權(quán),第46 條規(guī)定個(gè)人請(qǐng)求更正、補(bǔ)充個(gè)人信息的權(quán)利。數(shù)據(jù)的不完整、不準(zhǔn)確將影響算法的最終決定。借助知情權(quán),個(gè)人能夠請(qǐng)求告知算法決定所依據(jù)的個(gè)人數(shù)據(jù),從而借助更正權(quán)和補(bǔ)充權(quán)防止個(gè)人遭受算法錯(cuò)誤決定的不利影響。
根據(jù)《個(gè)保法》第17 條第1 款第2 項(xiàng),個(gè)人信息處理者在處理個(gè)人信息前,應(yīng)當(dāng)以顯著方式、清晰易懂的語(yǔ)言真實(shí)、準(zhǔn)確、完整地向個(gè)人告知個(gè)人信息的處理目的、處理方式,處理的個(gè)人信息種類、保存期限。算法本質(zhì)上屬于處理個(gè)人信息的代碼,因此算法使用人有義務(wù)向算法相對(duì)人告知算法的基本情況。據(jù)此,個(gè)人有權(quán)向算法使用人請(qǐng)求說(shuō)明算法的基本情況。值得關(guān)注的是,《算法推薦管理規(guī)定》第16 條規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等。公示算法的基本原理、主要運(yùn)行機(jī)制,可能會(huì)侵犯算法使用人的知識(shí)產(chǎn)權(quán)。監(jiān)管部門(mén)對(duì)算法的規(guī)范有過(guò)重的嫌疑。更何況,披露算法邏輯和運(yùn)行原理可能會(huì)引發(fā)個(gè)人的博弈行為。例如,谷歌公開(kāi)搜索排序算法后,很多網(wǎng)站就開(kāi)始利用此類算法,在自己的網(wǎng)頁(yè)內(nèi)嵌套符合該算法的具有隱藏內(nèi)容的網(wǎng)頁(yè),以此達(dá)到提高網(wǎng)站在谷歌搜索結(jié)果頁(yè)面排名靠前的目的。我國(guó)網(wǎng)絡(luò)“水軍”盛行,他們通過(guò)人工或機(jī)器的方式不正當(dāng)?shù)馗淖兡承┰u(píng)分,以此影響消費(fèi)者的消費(fèi)行為。如果法律強(qiáng)行要求公開(kāi)算法邏輯,“水軍”就可以更快地調(diào)整刷分策略,更精準(zhǔn)地利用網(wǎng)站的算法漏洞。43參見(jiàn)丁曉東:《論算法的法律規(guī)制》,載《中國(guó)社會(huì)科學(xué)》2020 年第12 期。
再者,算法解釋權(quán)的目標(biāo)在于保障個(gè)人的知情權(quán)。但對(duì)于個(gè)人而言,真正想要了解的不是算法的構(gòu)造、運(yùn)行原理,而是對(duì)自己的可能的不利影響。《歐盟條例》第13 條第2 款第f 項(xiàng)、第14 條第2 款第g 項(xiàng)和第15 條第1 款第h 項(xiàng)規(guī)定個(gè)人信息控制者應(yīng)當(dāng)告知個(gè)人信息主體算法的“相關(guān)邏輯的有意義信息,包括此類處理對(duì)于數(shù)據(jù)主體的重要意義和預(yù)期后果”,并未要求披露算法的基本原理和運(yùn)作機(jī)制等核心信息。《歐盟條例》將告知重點(diǎn)明確為“對(duì)于數(shù)據(jù)主體的重要意義和預(yù)期后果”,因?yàn)樗惴ㄒ?guī)范的重點(diǎn)是確保算法相對(duì)人的知情權(quán),使其在真正了解算法影響的基礎(chǔ)上做出選擇。算法使用人真正應(yīng)當(dāng)披露的是個(gè)性化推薦算法的使用目的、使用的數(shù)據(jù)類型和信息處理的可能后果以及預(yù)期影響等信息,而非算法邏輯和運(yùn)行原理。
最后,算法結(jié)果拒絕權(quán)也可以幫助化解算法解釋權(quán)之價(jià)值沖突困境。法律不要求解釋算法的具體決定,并非就等于放任算法霸權(quán)的威脅。算法的不利影響還可以被其他制度化解,我們不能過(guò)于倚重算法解釋權(quán)。《個(gè)保法》第24 條第3 款還規(guī)定了算法應(yīng)用拒絕權(quán):只要算法決策對(duì)個(gè)人產(chǎn)生重要影響,個(gè)人有權(quán)拒絕接受自動(dòng)決策算法的決定,要求人工替代算法做出決定。即便個(gè)人不理解算法決定,也可以徑自拒絕接受算法決定,從而避免受到算法的不利影響。與《歐盟條例》相比,我國(guó)的算法應(yīng)用拒絕權(quán)并無(wú)例外條款的限制。這使得中國(guó)的算法應(yīng)用拒絕權(quán)相較于歐盟而言更為強(qiáng)大。
綜上所述,個(gè)人對(duì)商業(yè)自動(dòng)決策算法的解釋請(qǐng)求權(quán)原則上限于事前的、對(duì)算法基本情況的說(shuō)明。算法解釋?xiě)?yīng)著重說(shuō)明對(duì)于算法相對(duì)人可能的不利影響,而非解釋算法的基本原理與運(yùn)作模型,以免侵犯算法使用人的知識(shí)產(chǎn)權(quán)。
在大數(shù)據(jù)和人工智能時(shí)代,“算法+應(yīng)用場(chǎng)景”這一模式正在快速席卷社會(huì)的各個(gè)領(lǐng)域。在這一結(jié)構(gòu)當(dāng)中,算法為賦能方式,應(yīng)用場(chǎng)景為賦能領(lǐng)域,由此形成了一套“方式”與“領(lǐng)域”的疊加關(guān)系或結(jié)合關(guān)系。44參見(jiàn)龍衛(wèi)球:《人工智能立法規(guī)范對(duì)象與規(guī)范策略》,載《政法論叢》2020 年第3 期。算法本身僅是一項(xiàng)計(jì)算法程序,正是因?yàn)槠渑c具體應(yīng)用場(chǎng)景相結(jié)合,人們結(jié)合應(yīng)用需求有針對(duì)性地開(kāi)發(fā)算法產(chǎn)品,算法才表現(xiàn)出強(qiáng)大的賦能性,由此引發(fā)應(yīng)用失范的現(xiàn)象。因此,當(dāng)我們討論算法規(guī)范時(shí),我們不能只談技術(shù),而必須考慮到算法在不同應(yīng)用場(chǎng)景中的不同影響。
應(yīng)用場(chǎng)景當(dāng)中存在多元價(jià)值,疊加價(jià)值的存在使得設(shè)計(jì)統(tǒng)一的規(guī)則格外艱難。公共安全、個(gè)人權(quán)利、經(jīng)濟(jì)效率等價(jià)值相互交疊,使得算法治理舉步維艱。算法解釋權(quán)的規(guī)則設(shè)計(jì)應(yīng)能夠涵蓋不同應(yīng)用場(chǎng)景中的多元價(jià)值沖突。《個(gè)保法》第24 條不要求決策“僅”由算法做出,也不明確規(guī)定算法解釋權(quán)的法律效力,就是為了滿足場(chǎng)景化治理的多樣需求,給不同場(chǎng)景不同的算法解釋權(quán)留出彈性空間。
在個(gè)人與公權(quán)力關(guān)系當(dāng)中,政府機(jī)關(guān)借助算法從事行政行為的,不能侵犯公民的知情權(quán)。個(gè)人有權(quán)請(qǐng)求政府機(jī)關(guān)解釋具體的算法決定。政府部門(mén)解釋算法決定的,應(yīng)盡可能以通俗易懂的方式為之。因?yàn)閭€(gè)人沒(méi)有能力閱讀算法、分析算法,沒(méi)有算法使用人的幫助個(gè)人沒(méi)法理解算法決定。只有充分理解算法決定,個(gè)人才可能會(huì)接受算法決定。再者,當(dāng)個(gè)人提起行政訴訟時(shí),法院也只有在了解算法決定的理由的基礎(chǔ)上,才能判斷行政行為的合法性。45Filip Geburczyk, Automated administrative decision-making under the influence of the GDPR - Early reflections and upcoming challenges, Computer Law & Security Review 41 (2021) 105538, P.10.如果政府機(jī)關(guān)無(wú)法解釋具體的算法決定,那么就不應(yīng)使用自動(dòng)化算法。知識(shí)產(chǎn)權(quán)保護(hù)或解釋不能等事由,不能成為公權(quán)力機(jī)關(guān)不解釋算法決定的理由。只有充分保障個(gè)人對(duì)公權(quán)力的事后的、針對(duì)具體決定的算法解釋權(quán),才能使得個(gè)人免受法律規(guī)則轉(zhuǎn)換為計(jì)算機(jī)語(yǔ)言時(shí)帶來(lái)的風(fēng)險(xiǎn)。46Danielle Keats Citron, Technological Due Process (2008), 85 Washington University Law Review 1249, 1261.最后,公權(quán)力機(jī)關(guān)僅有在法律明確規(guī)定“告知豁免”的情況下,才可以不解釋具體的決定理由。德國(guó)《行政程序法》第39 條第2 款就規(guī)定五種情況下可以不說(shuō)理由。不說(shuō)明理由的原因在于,雖然行政相對(duì)人獲得更充分的保護(hù),但行政機(jī)會(huì)可能會(huì)喪失必需的效率。47同前注?,第652 頁(yè)。目前我國(guó)提供的告知豁免僅有《個(gè)保法》第35 條,我國(guó)應(yīng)進(jìn)一步完善豁免例外制度。在缺乏明確法律規(guī)定的情況下,政府不得拒絕解釋具體的算法決定的請(qǐng)求。
在個(gè)人與企業(yè)關(guān)系當(dāng)中,我們一方面要防止個(gè)人淪為算法的純粹客體,保障人的主體性,另一方面也要避免算法解釋權(quán)阻礙復(fù)雜算法的商業(yè)應(yīng)用,扼殺技術(shù)進(jìn)步與商業(yè)模式的創(chuàng)新。因此,個(gè)人原則上僅得請(qǐng)求解釋算法的基本情況,不得請(qǐng)求解釋具體的算法決定。《算法推薦管理規(guī)定》第16 條要求算法推薦服務(wù)提供者公示算法推薦服務(wù)的基本原理和主要運(yùn)行機(jī)制,雖然體現(xiàn)出保護(hù)算法相對(duì)人的立法態(tài)度,但也有過(guò)度侵犯企業(yè)商業(yè)秘密的嫌疑。對(duì)于個(gè)人而言,最重要的信息是算法對(duì)自己可能的不利影響。算法使用人應(yīng)有義務(wù)提供該信息,以使得個(gè)人對(duì)是否接受算法處理個(gè)人信息做出基本的判斷。更何況,《個(gè)保法》第24 條第3 款后半句賦予算法相對(duì)人算法結(jié)果拒絕權(quán)。即便個(gè)人不理解算法決定,也能夠直接拒絕接受算法決定,要求人工審核材料并做出判斷。對(duì)于消費(fèi)者而言,“給一個(gè)說(shuō)法”的目的也是表達(dá)對(duì)于算法決定的不滿。與其解釋算法,不如允許消費(fèi)者直接拒絕算法決定,一勞永逸地?cái)[脫算法的影響。因此,即便商業(yè)機(jī)構(gòu)以保護(hù)知識(shí)產(chǎn)權(quán)為由拒絕解釋算法,也不會(huì)損害消費(fèi)者的合法權(quán)益。
另需注意,在金融、社交傳媒、超大型平臺(tái)管理等特殊的個(gè)人-企業(yè)領(lǐng)域,法秩序基于特殊的風(fēng)險(xiǎn)控制的需求,創(chuàng)設(shè)了特殊的算法備案制度。最后,分場(chǎng)景地調(diào)整算法解釋權(quán)的效力并不會(huì)影響算法透明目標(biāo)的實(shí)現(xiàn)。算法透明作為一種信息監(jiān)管機(jī)制,是數(shù)字社會(huì)化和社會(huì)數(shù)字化趨勢(shì)下的必然選擇,它有助于打消
個(gè)人對(duì)決策自主性喪失的憂慮。48參見(jiàn)汪慶華:《算法透明的多重維度和算法問(wèn)責(zé)》,載《比較法研究》2020 年第6 期。算法解釋權(quán)僅為實(shí)現(xiàn)算法透明的一種手段,《個(gè)保法》還設(shè)計(jì)算法評(píng)估、算法應(yīng)用拒絕權(quán)、個(gè)人信息保護(hù)負(fù)責(zé)人、平臺(tái)守門(mén)人規(guī)則等規(guī)則規(guī)范算法。因此,即便我們?cè)谝恍﹫?chǎng)景當(dāng)中調(diào)整算法解釋權(quán)的效力,也未必會(huì)嚴(yán)重影響個(gè)人的利益。《個(gè)保法》第24 條第3 款規(guī)定的算法解釋權(quán)應(yīng)在不同場(chǎng)景、不同價(jià)值沖突當(dāng)中尋找合理的平衡點(diǎn),以此實(shí)現(xiàn)算法良治與算法效率的動(dòng)態(tài)平衡。