〔摘要〕我國個人信息主體的知情權(quán)體系并不包含對算法事后解釋權(quán)的規(guī)定。事后的算法解釋面臨著從技術(shù)上難以獲得、立法上的缺位及救濟(jì)不顯效等難題。在充分平衡個人信息主體權(quán)益與公共利益的基礎(chǔ)上,清晰構(gòu)建以事前告知及事后反對為框架的算法治理路徑并輔之以事前的內(nèi)部化算法影響評估與外部算法安全認(rèn)證是我國算法治理的可行之道。
〔關(guān)鍵詞〕算法,知情權(quán),算法解釋,算法治理,認(rèn)證制度
〔中圖分類號〕D913〔文獻(xiàn)標(biāo)識碼〕A〔文章編號〕1004- 4175(2022)02-0121-08
〔基金項目〕國家社會科學(xué)基金重大項目“大數(shù)據(jù)時代個人數(shù)據(jù)保護(hù)與數(shù)據(jù)權(quán)利體系研究”(18ZDA146),主持人程嘯。
算法技術(shù)的普及應(yīng)用,雖然提高了資源分配的效率,實現(xiàn)了精準(zhǔn)定位及預(yù)測功能,但同時也改變了事物的隨機性分布,使得人們開始對公平及機會進(jìn)行重新審視;算法放大了人類生活中某一面的行為特質(zhì),使得兩極化的趨勢更為明顯和強烈;算法甚至也反過來影響著人類的思考判斷,逐漸引領(lǐng)新的價值規(guī)范。算法不僅在社會生活中充當(dāng)實在法則,甚至已經(jīng)開始試圖扮演上帝。從這個意義上來說,社會秩序已然被技術(shù)重新塑造。
信息主體的知情權(quán)是其他數(shù)據(jù)處理活動的基礎(chǔ),而知情權(quán)本身由信息處理者的告知義務(wù)及信息主體的訪問權(quán)組成。在我國個人信息保護(hù)領(lǐng)域,訪問權(quán)主要體現(xiàn)為查閱權(quán)及復(fù)制權(quán)。事后的算法解釋目前成為學(xué)術(shù)界日益關(guān)注的問題,然而,算法治理的核心要義是設(shè)立有效的事前算法告知義務(wù),而非事后的算法解釋義務(wù)。本文擬分析論證算法“事前告知”路徑的合理性,以尋求符合我國國情的算法治理之道。
一、算法治理的“事后解釋”問題溯源
在個人信息被處理前,個人信息主體的事前知情權(quán)有賴于個人信息處理者的告知義務(wù)之履行。涉及自動化處理的語境之下,個人信息處理者需要承擔(dān)的算法告知義務(wù),包括“應(yīng)當(dāng)以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖、運行機制等”。這種對于算法基本原理及運行機制的公示要求屬于一般告知義務(wù)中“處理方式”的細(xì)化,主要源于自動化處理方式的特殊性易給主體帶來更大的風(fēng)險,此時需在事前對個人信息處理者施以特殊的告知義務(wù)。對于在自動化處理之前進(jìn)行告知的必要性學(xué)界并無爭議,但是是否需要附加對算法的“事后解釋”仍然存在一定的討論空間。本文擬從幾個方面入手對該問題進(jìn)行分析。
(一)“事后解釋”的局限性
1.“有意義的”解釋難以獲得。算法是否能夠解釋,其理論分歧的實質(zhì)在于對算法解釋目的的追求。這種“解釋”并非需要對算法模型或數(shù)據(jù)的全面公開,而是一種“適度透明”的要求〔1〕142。所以,個人信息主體需要理解的是是否存在“風(fēng)險”而非洞悉理解“技術(shù)”。從這種意義上來說,透明度的要求并非對是否披露的要求,而是對于披露程度的要求。何種程度和方式的信息披露能達(dá)到使得信息主體了解“風(fēng)險”的目標(biāo),從而使其能自主決定是否適用自身諸如免受自動化處理權(quán)或刪除權(quán)等其他合法權(quán)益來排除此等風(fēng)險。
隨著法律規(guī)范領(lǐng)域的不斷擴(kuò)大,呈現(xiàn)出向社會活動系統(tǒng)縱深方向擴(kuò)展的趨勢。在法律所擴(kuò)展的這些領(lǐng)域里,許多問題具有科學(xué)技術(shù)問題,是標(biāo)準(zhǔn)規(guī)范的固有領(lǐng)域。以權(quán)利義務(wù)配置為規(guī)范方式的法律不足以直接形成對這些領(lǐng)域的規(guī)制,只有標(biāo)準(zhǔn)可以解決這些科學(xué)技術(shù)問題〔2〕。因此,針對技術(shù)性較強的內(nèi)容,其是否會帶來風(fēng)險,本身即需要制定相應(yīng)的標(biāo)準(zhǔn)并由專業(yè)人員進(jìn)行評估,不應(yīng)該就此對個人信息主體設(shè)置額外的學(xué)習(xí)負(fù)擔(dān)。
有學(xué)者將算法解釋分為模型中心解釋(modelcentric explanations,MCEs)及主體中心解釋兩種(subject-centric explanations,SCEs)。后者對于個人信息主體的權(quán)利救濟(jì)更有意義。但是即使主體能夠理解算法的原理,算法解釋對作為普通消費者的信息主體之助益也極為有限,能否顯著提高主體理解決策過程的能力還有待觀察。在機器學(xué)習(xí)的過程中,評估其是否在特定的任務(wù)中有所改進(jìn),是通過選定的績效標(biāo)準(zhǔn)來衡量。這意味著評估算法模型不是通過考量其內(nèi)部結(jié)構(gòu)而是使用性能指標(biāo)來檢查其外部行為。主體中心解釋往往為事后解釋,理論上來說這種解釋本身僅限于一組數(shù)據(jù)或其相關(guān)的部分,而不涉及完整的復(fù)雜模型。但是鑒于技術(shù)性原因,主體中心解釋并不適合應(yīng)對程序規(guī)則問題,他們僅能體現(xiàn)用戶與決策主體的某種關(guān)聯(lián),從這種意義上來說模型解釋的意義要大于主體中心解釋〔3〕。暫且不論在不同模型中解釋的難易程度不同,對算法賦予廣泛解釋權(quán)本身的合理性就值得質(zhì)疑。
2.事后解釋不存在合理性基礎(chǔ)。對算法解釋的合理性爭議還存在于信息處理者介入的時間,即應(yīng)當(dāng)僅僅設(shè)置在處理個人信息之前,還是在信息主體已經(jīng)獲得處理結(jié)果之后也需進(jìn)行。有學(xué)者認(rèn)為事后通過解釋結(jié)果可以補足行為指引的信息〔4〕。但是從邏輯上來說,提供指引信息與解釋結(jié)果分屬于不同事項,無需捆綁進(jìn)行。而行為指引若能以適當(dāng)方式在信息處理過程中及自動化決策結(jié)果出現(xiàn)之前作出,對于信息主體的權(quán)利保護(hù)更為有效,不必再費周章轉(zhuǎn)而求諸于對處理結(jié)果的解釋。因此,此理由并不能作為事后算法解釋合理性的論證依據(jù)。
另外,學(xué)者也指出算法解釋是基于人的自治性需求,這是因為在算法面前人只是單純的被動接受者,因此賦予事后算法解釋權(quán)是對這種場景下自治能力的補足〔5〕。實際上,事后的算法解釋無法直接補益人的自治能力,中間存在邏輯斷層。在合同法中,當(dāng)事人雙方對格式條款的理解產(chǎn)生爭議時,引入不利于格式條款提供方的解釋方式來平衡雙方利益。而算法解釋本屬于當(dāng)事人單方解釋,無從期待其提供不利于自己的解釋方式。事后的算法解釋,從理論上來說是將人工智能載體的硬件、軟件和數(shù)據(jù)處理之間的相互作用如何導(dǎo)致自動化決策之間因果關(guān)系闡明的解釋。有學(xué)者甚至認(rèn)為“如果別有用心,解釋和說理的方式將完全取決于擬實現(xiàn)的經(jīng)濟(jì)或政治目標(biāo)”〔6〕,期待提供者的解釋來補益另一方當(dāng)事人自治能力的愿望必然落空。自治的核心在于提供參與的自由選擇權(quán),而非賦權(quán)信息主體要求對方對不利后果進(jìn)行解釋。
除此之外,更多對事后算法解釋的合理性分析建立在雙方不平等地位之上。對于當(dāng)事人之間地位不平等的論述,散見于消費者權(quán)利保護(hù)、勞動法等領(lǐng)域。一般而言,對于不平等地位的糾正手段主要為事前的充分告知和事后不利結(jié)果的排除(如無理由退貨制度),以及依據(jù)所造成損害要求對方承擔(dān)侵權(quán)責(zé)任的民事救濟(jì)路徑。經(jīng)營者對使用格式條款的說明義務(wù)雖然是應(yīng)消費者的要求被個別履行的,但僅為對相關(guān)內(nèi)容的具體澄清,仍然屬于事前告知義務(wù)的范疇。有鑒于此,目前制度框架內(nèi)的事前告知義務(wù)及事后的不利結(jié)果排除及損害賠償責(zé)任足以救濟(jì)處于不平等地位之下當(dāng)事人的權(quán)益,無需再額外設(shè)置事后算法解釋權(quán)。
事后算法解釋的合法性基礎(chǔ)也不斷受到質(zhì)疑。歐洲聯(lián)盟出臺的《通用數(shù)據(jù)保護(hù)條例》(GDPR)鑒于條款第71條提出的解釋權(quán)不應(yīng)當(dāng)與規(guī)定內(nèi)的其他條款具有相同的強制性約束力,即此時鑒于條款71條所規(guī)定的需對自動化處理進(jìn)行解釋的透明度要求與條例中規(guī)定的透明度要求相比應(yīng)當(dāng)在程度上明顯弱化。故而GDPR本身并未規(guī)定明確的“事后”算法解釋義務(wù),鑒于條款的效力僅作為對條例規(guī)則的解釋,不能視為規(guī)則本身,更不可為主體創(chuàng)設(shè)額外的義務(wù)。從這個意義上來說,GDPR并沒有所謂的事后“算法解釋權(quán)”,而只有有限的知情權(quán)〔7〕。也有學(xué)者指出,算法的事后解釋權(quán)可以從GDPR的第15條第1款h項推導(dǎo)而出〔8〕,但是并未提出具有說服力的擴(kuò)張解釋依據(jù)。更有學(xué)者斷言GDPR初稿中22條并沒有關(guān)于算法解釋權(quán)的內(nèi)容,而鑒于條款71條的加入屬于存有爭議的權(quán)宜之計,不應(yīng)當(dāng)從其中“應(yīng)該”的用語去過度解讀該條款本身的含義〔8〕。對于GDPR中事后算法解釋的立法認(rèn)識差異,至少說明學(xué)界對其設(shè)立的合理性存在不同看法。至于GDPR是否真正欲確立事后的算法解釋,還有待在后續(xù)立法中澄清。
3.人工干預(yù)使得算法責(zé)任透明。人工干預(yù)的加入與事后需解釋的原理會產(chǎn)生直接沖突。GDPR第22條對于自動化決策的規(guī)制基于“完全的”(sole‐ly)自動化決策,如有人工干預(yù)手段介入則并非立法規(guī)制的目標(biāo)。這是因為人工干預(yù)手段本身有助于消弭算法帶來的負(fù)面影響。事后算法解釋的一個重要支持理由即是因為自動化決策手段的“黑箱”效果。此種效果正是由于大數(shù)據(jù)時代的相關(guān)性關(guān)系所致,規(guī)律本身也難以從因果關(guān)系來解釋。正是因為對于算法結(jié)果的不可預(yù)知和不可控,才可能存在上文所述引入額外解釋的余地,否則如同其他人工介入的場景一樣并無適用特殊事后解釋的理論空間。實際上,生活中大量涉及算法應(yīng)用的場景都存在人工干預(yù),算法往往僅作為決策支持的要素之一。隨著人工干預(yù)的引入,行為人能通過其行為對算法結(jié)果施加有效的影響,此時就斬斷了算法與不利結(jié)果的因果關(guān)系鏈條,使得介入者成為新的責(zé)任主體,因而不存在算法解釋的空間。要求對已引入人工干預(yù)的算法進(jìn)行解釋顯然對GDPR上的相關(guān)規(guī)制適用范圍進(jìn)行了不當(dāng)擴(kuò)張。
4.法益沖突導(dǎo)致的適用局限性。立法者在制定任何一部法律時都應(yīng)當(dāng)考慮利益之間的順序,妥當(dāng)確定各種利益的優(yōu)先順位,探求法律的“優(yōu)先價值”。因此,在出現(xiàn)可能的利益沖突時,需要綜合利益的位階及“實踐調(diào)和原則”,在具體的案件情形下謹(jǐn)慎地處理,盡可能使得不同利益都能夠得到實現(xiàn)〔9〕。個人信息主體的知情權(quán)是基于其人格利益的權(quán)益,但是該權(quán)益的實現(xiàn)在一定程度上也需讓位于法律規(guī)定的其他重要利益以實現(xiàn)社會秩序穩(wěn)定的效果。
個人信息同時具有個人屬性和公共屬性,單純地強調(diào)某一屬性均無法凸顯個人信息的本質(zhì)特征,故而在立法上應(yīng)適當(dāng)舒緩個人信息保護(hù)及利用之間的張力,不宜在模糊、籠統(tǒng)的個人信息之上設(shè)定一項具有絕對性和排他性的“個人信息權(quán)”〔10〕。正是存在這種對公共利益的維護(hù)需求,使得立法者在制定相關(guān)政策時不應(yīng)當(dāng)想當(dāng)然地偏向一方主體,而是應(yīng)當(dāng)在具體場景中對于相關(guān)利益進(jìn)行權(quán)衡。有鑒于此,學(xué)者也提出算法公開應(yīng)當(dāng)根據(jù)不同情形采取不同范圍不同程度的公開建議:當(dāng)公權(quán)力主體使用算法進(jìn)行決策或輔助決策,而公開算法又不存在侵犯知識產(chǎn)權(quán)與算計算法問題時,決策主體應(yīng)當(dāng)盡量采取普通人可理解的方式公開與解釋算法;對于純粹商業(yè)性的非壟斷機構(gòu)所使用的算法,算法公開一般不應(yīng)當(dāng)成為強制要求〔11〕。公權(quán)力主體的主動公開行為不涉及強制的算法解釋,理論上也可以事前告知的方式作出,而商業(yè)機構(gòu)的算法由于其存在一定的經(jīng)營性正當(dāng)利益,此時要求以解釋的方式公開,會直接產(chǎn)生對競爭秩序的擾亂,而引入各種“搭便車”行為,故而不宜倡導(dǎo)。簡單復(fù)制行政法上的正當(dāng)程序要求,作出對于當(dāng)事人不利的后果需要說明理由,在此不存在現(xiàn)實基礎(chǔ)。私人決策與公共決策問責(zé)機制不同,政府決策往往應(yīng)當(dāng)被默認(rèn)具有透明度,而私人決策由于摻雜著商業(yè)秘密或其他人的合法權(quán)益等因素而無法被要求與公共決策維持相同的透明度,因為此舉會直接或間接有害于市場競爭秩序。還有學(xué)者指出,算法解釋應(yīng)當(dāng)對獨立的第三方機構(gòu)作出,由具備技術(shù)能力且不存在利益沖突的第三方機構(gòu)負(fù)責(zé)在人工智能部署前及運行過程中實施審核,開發(fā)者或權(quán)利人僅在必要范圍內(nèi)向?qū)徍酥黧w公開算法技術(shù)細(xì)節(jié)〔12〕。此種方式也能有效避免相應(yīng)的利益沖突。但是第三方機構(gòu)在事前、事中的審核已經(jīng)不屬于信息主體的救濟(jì)路徑,而是倚仗的行政規(guī)制手段,此時的算法解釋義務(wù)實際上是信息控制者對相關(guān)機關(guān)的信息報送義務(wù),甚至是在行政執(zhí)法程序中基于行政調(diào)查權(quán)進(jìn)行的。數(shù)據(jù)報送應(yīng)當(dāng)符合目的正當(dāng)、適合、必要性及均衡性原則。數(shù)據(jù)報送義務(wù)的對象是政府,報送目的一般并不是直接為了保護(hù)平臺用戶的權(quán)益,而是為了協(xié)助政府更好地實現(xiàn)公共職能,因此在額外為企業(yè)設(shè)定算法報送義務(wù)時也應(yīng)當(dāng)考慮到如何實現(xiàn)多元利益的均衡〔13〕。
從實踐來看,個人信息主體往往出于幾種目的行使其訪問權(quán)。第一,通過訪問個人信息明確其個人信息完整、正確。如個人信息處理者收集的信息不完整、不正確,個人信息主體的人格及財產(chǎn)權(quán)益有可能因此受到不當(dāng)影響。在此場景下,為維護(hù)個人信息主體的人格權(quán),有必要賦予其訪問權(quán)。第二,為了了解自己的個人信息被信息處理者所掌握的真實情況,以便決策是否行使刪除權(quán)。退出和表達(dá)是規(guī)范機構(gòu)組織的兩種機制。在表達(dá)受限的個人信息處理流程中,個人信息主體維護(hù)自身權(quán)益的重要手段即是退出并行使刪除權(quán)。第三,個人信息主體可以通過行使訪問權(quán)對個人信息處理者實施監(jiān)督。在自動化決策的場景下,個人信息主體對數(shù)據(jù)畫像的邏輯及有意義信息的知情,能起到對信息處理者濫用信息優(yōu)勢作出對信息主體不利決策的抑制作用。此外,信息主體還可能基于其他目的而訪問自己的個人信息,最典型的是為保留證據(jù)或為獲取除個人信息外的其他信息兩種情形。此時,就需要引入必要的審查機制并對其訪問行為作出限制。例如,信息主體要求行使復(fù)制權(quán)調(diào)取拷貝翻拍監(jiān)控視頻圖像,但是因部分信息可能含有他人的個人信息,不宜向個人信息主體提供完整副本。復(fù)制權(quán)更強調(diào)對數(shù)據(jù)信息載體原本的形式不加編輯地完整或部分獲取,此時宜基于對公共利益的保護(hù)對主體知情權(quán)加以限制〔14〕。
(二)“事后解釋”救濟(jì)效果的有限性
歐盟語境下的個人信息保護(hù)措施基于個人權(quán)利,而這種個人權(quán)利的保護(hù)模式本身來自于人權(quán)的范式,因而算法往往以系統(tǒng)對群體進(jìn)行分類或污名化的方式導(dǎo)致直接損害〔3〕。但是,實驗證明即使是訓(xùn)練模型時不采取信息主體的敏感信息,得出的結(jié)論依然有可能保留偏見,甚至加深偏見。造成這種結(jié)果的原因有兩個:一是因為無法準(zhǔn)確確定哪些屬于敏感性信息;二是因為敏感性信息本身與非敏感性信息存在某種聯(lián)系。從這個角度來說,算法只是從技術(shù)上以某種特定聯(lián)系將人群予以區(qū)分,污名化群體本身的癥結(jié)在于社會本身。
而偏見帶來的問題最后直指分配的公平性。例如,依據(jù)求職者簡歷中曾經(jīng)的求職成功率來判斷是否賦予其職務(wù),本質(zhì)上就是對偏見的加強。另外,除了對于個體的偏見,算法可能因分組的方式介入多個信息主體的隱私而產(chǎn)生大數(shù)據(jù)殺熟的不公正待遇。如果無法獲得實質(zhì)公平或救濟(jì),透明的權(quán)利并不具有現(xiàn)實意義。由于透明度要求從立法上為主體提供一種查看、理解及介入復(fù)雜系統(tǒng)的渠道,無意義的透明反而會無謂地增加更多的社會成本。
算法解釋作為事后賦予個人信息主體請求權(quán)的救濟(jì)方式,具有離散性特點,在治理效率、行業(yè)發(fā)展、集體行動和公共利益保護(hù)等層面存在局限,無法對算法系統(tǒng)有效問責(zé),且偏誤糾正能力有限〔15〕。從這個意義上來說,私法上的分散性救濟(jì)措施,針對需要以損害賠償方式進(jìn)行救濟(jì)的實際損害最為有效。當(dāng)然受侵害方不易識別或者人數(shù)眾多時,還需引入公益訴訟等手段來實現(xiàn)最終的保障效果〔16〕。
采取解釋的方式救濟(jì)過于迂回,不能對個人信息主體產(chǎn)生直接的救濟(jì)效果。算法問責(zé)一直是算法治理的核心內(nèi)容〔17〕。但是何謂“可問責(zé)”,還需要在技術(shù)及舉證責(zé)任分配兩個層面上理清。要明確“風(fēng)險”性質(zhì)以判斷其是否可避免,再考察“風(fēng)險”是否源于信息處理者的過失。由于無法預(yù)測智能算法的運行過程及結(jié)果,人工智能應(yīng)用所存在的風(fēng)險同樣也難以準(zhǔn)確被評估和量化。判斷風(fēng)險是否可以避免是純粹的技術(shù)問題,事后的規(guī)制模式不僅僅桎梏于算法解釋,還有審計、驗證、測試等更有技術(shù)含量及實效的手段予以檢驗〔18〕。個人信息侵權(quán)歸責(zé)的困難源于自動化技術(shù)的廣泛采用,信息處理的過程難以預(yù)料,從而導(dǎo)致當(dāng)事人之間的舉證和訴訟能力存在差別。通過對自動化處理實施的個人信息侵權(quán)采取過錯推定責(zé)任,對于信息處理者的過失需自行舉證以減輕信息主體的舉證責(zé)任〔19〕。此時,信息處理者的舉證過程即可以滿足對算法說明的解釋。有學(xué)者認(rèn)為事后的算法解釋權(quán)可以讓數(shù)據(jù)主體對特定決策的運行邏輯清晰知曉,為其提出異議獲得救濟(jì)提供重要基礎(chǔ)〔15〕。但是,實際上對特定決策的運行不存在過錯正是信息處理者的舉證責(zé)任,只要其存在非法處理個人信息的行為或者沒有盡到法律規(guī)定的個人信息保護(hù)義務(wù),此種處理行為的違法性或者未盡到個人信息保護(hù)義務(wù)本身就足以認(rèn)定個人信息處理者具有過錯,除非其能夠證明自己的處理行為不屬于違法處理行為或已經(jīng)盡到個人信息保護(hù)義務(wù),從而推翻對其過錯的推定〔20〕。信息主體無需也不可能完全掌控決策的運行邏輯,否則立法上就不會選擇將證明責(zé)任配置給另一方。訴訟的前提是存在損害,當(dāng)信息主體并不存在損害時提前要求信息處理者承擔(dān)舉證責(zé)任,在理論上沒有支撐,會無端加重一方的責(zé)任。信息主體的權(quán)利往往與信息處理者的義務(wù)相對應(yīng)。信息處理者的過失責(zé)任如果缺乏事先明確規(guī)定的義務(wù),則無法由此推斷其因不履行相應(yīng)義務(wù)而產(chǎn)生責(zé)任。因此,無論是從社會成本的角度還是從責(zé)任分配的角度,將說明義務(wù)配置給信息處理者都不具有合理性。
2021年網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》(以下簡稱《算法推薦規(guī)定》)中似乎出現(xiàn)了另一種對于個人信息主體的權(quán)利救濟(jì)路徑,即在自動化決策可以更改的指標(biāo)中,讓用戶更改標(biāo)簽以解決大數(shù)據(jù)殺熟等問題。實際上在用戶參與時只能對有限的內(nèi)容進(jìn)行更改,并非全部。例如,在計價模型中的參數(shù)中,用戶能主動修改的僅僅為偏好信息,不能更改計價的基礎(chǔ)事實信息。且不論部分標(biāo)簽不宜采取以主體直接介入的方式進(jìn)行更改,同時以此方式來影響算法的最終結(jié)果有可能影響到系統(tǒng)內(nèi)其他運行結(jié)果的展示,從而直接影響到體系內(nèi)的公平性。《個人信息保護(hù)法》規(guī)定,公益訴訟要滿足“違法處理個人信息”與侵害“眾多個人權(quán)益”的要件。在算法推薦服務(wù)中,個人信息處理者需向個人信息主體告知的用戶標(biāo)簽專屬于該用戶,知情權(quán)被侵害的內(nèi)容具有特定性,即使存在眾多知情權(quán)被侵害的主體,也需要進(jìn)行權(quán)益內(nèi)容的逐一認(rèn)定,無法簡單抽象成“眾多個人權(quán)益”;個人信息處理者不履行告知義務(wù)的行為是否屬于“違法處理個人信息”,在法益衡量上也存在認(rèn)定困難。故雖然可以通過公益訴訟的方式達(dá)成,但是實際履行的社會成本過高。
另外,對于因算法產(chǎn)生的不利結(jié)果提出異議也無需以算法解釋為基礎(chǔ)。刪除權(quán)及事后反對權(quán)對于個人信息主體的救濟(jì)效果更為直接。斬斷結(jié)果的不利性影響需從否定自動化處理的結(jié)果效力角度著手,一旦某一主體遭受一次算法歧視,則在相關(guān)甚或不相關(guān)的領(lǐng)域也可能屢受不公待遇,產(chǎn)生歧視鎖定和數(shù)字污名效應(yīng)〔21〕。擴(kuò)張對算法告知義務(wù)的保護(hù),使其延伸到事后的算法解釋對于信息主體的救濟(jì)毫無助益,同時會提升社會總成本。因此,對信息處理者額外設(shè)置此權(quán)利對于整體社會發(fā)展而言可謂得不償失。
二、“事前告知”義務(wù)的設(shè)定及其合理性證成
對于算法治理而言,其事前告知內(nèi)容的設(shè)定具有重要意義。《算法推薦規(guī)定》要求算法服務(wù)提供者履行特殊的告知義務(wù),以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖、運行機制等。有學(xué)者認(rèn)為算法解釋中涵蓋部分告知義務(wù)。算法決策分為兩個階段:第一階段為算法模型的建模階段,第二階段則是將算法模型運用于特定主體,并在此基礎(chǔ)上形成自動化算法決策。對第一階段的解釋被稱為以算法系統(tǒng)功能為中心的解釋權(quán),主要由特定算法模型的開發(fā)者聚焦于對特定算法模型系統(tǒng)功能的解釋說明〔22〕。實際上,以算法系統(tǒng)功能為中心的解釋權(quán)也屬于事前的算法告知義務(wù),即在主體的信息進(jìn)入到系統(tǒng)之前,提供的關(guān)于算法的一般系統(tǒng)功能,包括決策邏輯、重要性及預(yù)期結(jié)果的信息〔7〕。
筆者認(rèn)為,《個人信息保護(hù)法》和《消費者權(quán)益保護(hù)法》已經(jīng)通過知情權(quán)的方式給予要求個人信息處理者給予個人信息主體充分和必要的告知,這種告知是在提供產(chǎn)品或服務(wù)前的“事前告知義務(wù)”。對于產(chǎn)品或服務(wù)的算法,算法提供者履行事前告知義務(wù)的周延性已足,無需在知情權(quán)體系中再賦予個人信息主體事后的算法解釋權(quán)。《個人信息保護(hù)法》對于自動化決策條款并未規(guī)定個人信息主體有權(quán)要求算法服務(wù)提供者在事后對算法予以解釋,事前告知義務(wù)的目的是為了讓個人信息主體是否接受信息處理的流程作基本的風(fēng)險判斷,通過此種方式即可消解個人信息主體對算法技術(shù)的安全性擔(dān)憂,事后的算法解釋既不可行也無必要。
(一)《個人信息保護(hù)法》中的自動化決策規(guī)制
《個人信息保護(hù)法》第24條規(guī)定個人信息處理者應(yīng)對個人權(quán)益有重大影響的決策加以解釋說明,以及個人信息主體有權(quán)拒絕僅通過自動化決策的方式作出決定。將本條與第48條“個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進(jìn)行解釋說明”進(jìn)行結(jié)合,可以看出無論是在表述上還是立法意圖上,《個人信息保護(hù)法》并未規(guī)定個人信息主體有權(quán)在事后要求個人信息處理者解釋其算法機理。
從表述上看,第48條針對一般情形的個人信息處理規(guī)則解釋說明權(quán)與第24條針對自動化決策情形的重大影響解釋說明權(quán)均指向產(chǎn)品或服務(wù)提供前。根據(jù)合法合理以及透明度的要求,個人信息處理者需在處理信息之前就向個人信息主體告知處理規(guī)則,若規(guī)則變更要重新告知,否則不得處理個人信息。同樣,在自動化決策過程中,針對用戶的算法模型就是個人信息的“處理規(guī)則”,除非個人信息處理者在信息處理過程中更改已經(jīng)完成并投入運行的算法模型,需要重新告知個人信息主體,一般情況下僅在事前負(fù)有告知義務(wù)。此外,第24條第3款規(guī)定拒絕權(quán)面向“自動化決策”而非“自動化決策的結(jié)果”,也表明個人信息主體的行權(quán)時機并非面向事后階段〔21〕。
從立法意圖看,法律規(guī)范只能在源頭要求個人信息處理者對算法提供充分的說明,而算法的運行自有其機理,法律無意將手再伸到事后去規(guī)制。算法服務(wù)均以自動化的機器學(xué)習(xí)的方式提供,不同參數(shù)和場景的相互作用可能會產(chǎn)生因人而異的結(jié)果,而這些可能的結(jié)果實際上都包含在事前的告知中。事前的算法告知義務(wù)如同藥品附帶的說明書,說明書中會描述藥品的成分、性狀、作用類別、用法用量以及可能出現(xiàn)的不良反應(yīng),藥商對可以告知的事項作了充分的說明后,患者可以選擇是否使用該藥。至于此藥品是否對癥于特定主體,以及患者發(fā)生了什么樣的不良反應(yīng),并不在事前告知義務(wù)的輻射范圍。進(jìn)一步說,就算患者使用此藥發(fā)生了說明書外的不良反應(yīng),藥商也無義務(wù)公開藥品成分的具體用量和配比。個人信息處理者事前的算法告知義務(wù)足以充分保障個人信息主體的知情權(quán)。對算法的目的意圖、基本原理和運行機制的告知包含了算法運營中可能會涉及的各種參數(shù),可以幫助個人信息主體作出是否使用此算法服務(wù)的決策,也使算法脫離“黑箱”之詬病。
(二)“重大影響”內(nèi)容的解釋說明
《個人信息保護(hù)法》第24條規(guī)定通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明。但對何為“重大影響”,法律并未明確。GDPR關(guān)于自動化個人決策和畫像的指南中明確對個人造成的嚴(yán)重后果包括僅基于自動化處理的決策會影響個人的合法權(quán)利,或自動化決策會產(chǎn)生取消合同的法律效果。實際上,這些對個人產(chǎn)生重大影響決定的告知義務(wù)已經(jīng)在《消費者權(quán)益保護(hù)法》中的經(jīng)營者告知義務(wù)得到體現(xiàn),此種事前說明足以覆蓋保護(hù)個人信息主體的知情權(quán)。
《消費者權(quán)益保護(hù)法》第24條規(guī)定,經(jīng)營者在經(jīng)營活動中使用格式條款的,應(yīng)當(dāng)以顯著方式提請消費者注意與其有重大利害關(guān)系的內(nèi)容,并按照消費者的要求予以說明。個人信息處理者提供的算法推薦服務(wù)滿足“重復(fù)使用”“預(yù)先擬定”以及“未與對方協(xié)商”的要件,應(yīng)受到格式條款的規(guī)制。根據(jù)《民法典》的規(guī)定,對格式條款效力的審查規(guī)范在合同開始履行前,如果格式條款使用方?jīng)]有按照合理的方式進(jìn)行提示說明,相應(yīng)條款就不能成為合同的組成部分。因此,從以上規(guī)定來看個人信息處理者的算法告知義務(wù)均是針對產(chǎn)品或服務(wù)提供前對主體施加的義務(wù)。
(三)事前告知義務(wù)是知情權(quán)體系的層次性體現(xiàn)
個人信息主體的知情權(quán)體系由個人信息處理者的告知義務(wù)與個人信息主體的訪問權(quán)構(gòu)成。在具體運行機制上,由于觸發(fā)權(quán)利義務(wù)的時間節(jié)點和處理場景不同,告知義務(wù)與訪問權(quán)會存在時間點上、特殊程序上以及內(nèi)容范圍上的差異〔14〕,由此,個人信息主體的知情權(quán)在不同階段也體現(xiàn)著不同的層次性。這種層次性由不同的信息密度決定,而信息密度最終的設(shè)定由個人信息主體知情權(quán)的規(guī)制目的決定。對于算法推薦服務(wù),賦予個人信息主體知情權(quán)的目的主要是讓個人信息主體決定是否使用其服務(wù),以及判斷是否可以承受算法服務(wù)可能造成的風(fēng)險。就此目的來看,僅通過個人信息處理者在事前對算法機理的說明即可實現(xiàn)。
從實踐效果來看,普及化的前期算法告知義務(wù)在很大程度上能緩解因信息不對稱而引起的非理性恐慌情緒。這種恐慌情緒之下,信息主體成了“算法的奴隸”,而社會也因此變成了“黑箱社會”。〔1〕191-193幫助信息主體了解算法,應(yīng)當(dāng)從教育學(xué)的模型解釋方式入手,而不應(yīng)以嘗試分解算法內(nèi)部結(jié)構(gòu)的方式進(jìn)行〔3〕。從個人信息主體的知情權(quán)維護(hù)效果而言,有諸多企業(yè)已經(jīng)開始進(jìn)行算法告知的嘗試。有的企業(yè)將外賣配送的“預(yù)估到達(dá)時間”的算法規(guī)則以圖文并茂的方式予以公開。具體而言,其公布的內(nèi)容包括不同預(yù)估模型所參考的數(shù)據(jù)類型的未窮盡性列舉。這些列舉中,本身含有確定的變量及相對不確定的變量,例如,商家出餐時間屬于確定變量,而惡劣天氣則屬于相對不確定變量。有的數(shù)據(jù)信息本身仍然需要其他組別的數(shù)據(jù)共同支持,例如配送難度、防疫要求等。另外,還提供了人工干預(yù)的方式在特定情況下的時間補充。實際上,此種公開行為并未涉及全部的考量因素及權(quán)重,但是已經(jīng)達(dá)到一定的社會效果。足以見得對于算法的恐懼,很大一部分源自于對技術(shù)的陌生及對其極度剛性的秩序調(diào)整手段邊界無從把控的焦慮情緒。
三、算法治理的中國道路探索
算法的事后解釋存在技術(shù)限制、法益沖突及缺乏合法性基礎(chǔ)等問題,另外其對信息主體的救濟(jì)效果十分有限。從這個意義上來說,規(guī)制的思路不是去不斷地疏通通向司法程序的渠道,而是思考在何種程度上合理構(gòu)建知情權(quán)體系并設(shè)定可行的信息控制者的告知義務(wù),同時輔之以其他配套手段并行實現(xiàn)算法治理的目標(biāo)。
(一)引入主體的事后反對權(quán)機制是算法治理的重要環(huán)節(jié)
我國《個人信息保護(hù)法》規(guī)定,個人信息主體有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。此種個人信息主體免受自動化約束的權(quán)利可以分為兩個層次,第一層是信息主體事前的拒絕被處理權(quán),第二層是信息主體的事后反對權(quán)。事后反對權(quán)并不禁止完全自動化決策及用戶畫像的存在和展開,但賦予數(shù)據(jù)主體反對其作出后受到約束和影響的權(quán)利。這種設(shè)定實際上選取了“禁令路徑”與“積極權(quán)利路徑”的中間道路,既能較好地保護(hù)數(shù)據(jù)主體不因怠于行使權(quán)利或者精力不足而受到算法滋擾,又能給產(chǎn)業(yè)發(fā)展預(yù)留一定的合理空間〔21〕。從救濟(jì)的效果而言,事后反對權(quán)比事后的算法解釋更為直接顯效,同時產(chǎn)生與其他主體合法權(quán)益的沖突可能性更小。由于事后反對權(quán)不涉及算法公開,便沒有侵害他人商業(yè)秘密及知識產(chǎn)權(quán)的顧慮,僅需要由信息主體向信息控制者單獨主張,因此事后反對權(quán)與刪除權(quán)的結(jié)合能較好地保護(hù)主體的權(quán)益。
(二)引入內(nèi)部算法評估制度,從合規(guī)角度來加強對人工智能領(lǐng)域的風(fēng)險控制也逐漸成為重要手段
算法影響評估源于隱私影響評估,是一種基于設(shè)計的安全保障措施,能夠及時發(fā)現(xiàn)風(fēng)險并予以處理,盡可能避免或者減少風(fēng)險的發(fā)生〔23〕。歐盟于2021年4月制定的人工智能法案(草案)即提出:開發(fā)高風(fēng)險人工智能系統(tǒng),需要進(jìn)行內(nèi)部事前人工智能影響評估。算法影響評估能在損害發(fā)生前對其是否應(yīng)當(dāng)被適用施加影響,本質(zhì)上是一種廣泛的預(yù)防措施,通過對治理結(jié)構(gòu)與內(nèi)控機制的持續(xù)影響和深刻改變,逐漸取代了公司法與企業(yè)治理在企業(yè)行為控制及監(jiān)督上的功能與作用,而且重塑了企業(yè)犯罪的規(guī)范表達(dá)與規(guī)制進(jìn)路〔24〕。因此,算法影響評估制度的建立無論對于企業(yè)還是信息主體都是有益的制度探索。
(三)建立健全評估我國的數(shù)據(jù)安全認(rèn)證制度是更具有可行性的算法治理路徑
我國的數(shù)據(jù)認(rèn)證是由獨立的第三方機構(gòu)為認(rèn)證主體,受企業(yè)委托而為的,以國家推薦性標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)等官方規(guī)范為認(rèn)證依據(jù)的,企業(yè)自愿接受嚴(yán)于基本安全評估要求①從而提高其認(rèn)可度〔25〕,作為一種激勵機制的高標(biāo)準(zhǔn)認(rèn)證。一方面,認(rèn)證以基于一定標(biāo)準(zhǔn)的評估為手段,以認(rèn)證機構(gòu)為具體落實該制度的核心,以相應(yīng)的監(jiān)管程序與法律責(zé)任為實施的保障。因此,從理論上來說,只需合理制定認(rèn)證標(biāo)準(zhǔn),設(shè)立相應(yīng)的認(rèn)證評估機構(gòu)規(guī)范執(zhí)行對企業(yè)的認(rèn)證評估,并建立健全對企業(yè)及認(rèn)證機構(gòu)的監(jiān)管制度及法律規(guī)范,即可有效發(fā)揮以認(rèn)證實現(xiàn)監(jiān)管的效果。另一方面,我國已經(jīng)具備個人信息保護(hù)認(rèn)證的實踐土壤。《個人信息保護(hù)法》已經(jīng)要求推進(jìn)個人信息保護(hù)認(rèn)證服務(wù),在國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、市場監(jiān)管總局四部門聯(lián)合開展App違法違規(guī)收集使用與個人信息專項治理行動中,也明確鼓勵A(yù)pp運營者自愿通過App個人信息安全認(rèn)證,且鼓勵搜索引擎、應(yīng)用商店等明確標(biāo)識并優(yōu)先推薦通過認(rèn)證的App②,并制定了《移動互聯(lián)網(wǎng)應(yīng)用程序(App)安全認(rèn)證實施規(guī)則》作為認(rèn)證依據(jù),指定中國網(wǎng)絡(luò)安全審查技術(shù)與認(rèn)證中心(CCRC)為從事App安全認(rèn)證的認(rèn)證機構(gòu)。認(rèn)證制度的引入對于算法治理具有重要的意義。歐盟《人工智能法案(草案)》第49條即明確了對CE合規(guī)認(rèn)證標(biāo)志的要求。企業(yè)如需適用高風(fēng)險的AI系統(tǒng),則需要在明顯、清晰及不可磨滅的位置粘貼CE標(biāo)志,此即為對人工智能安全認(rèn)證。
綜上可見,相比于事后的算法解釋私人賦權(quán)制度,事前的內(nèi)部化算法影響評估與外部算法安全認(rèn)證及主體的事后反對權(quán)更有利于建立一個完善健康具有可持續(xù)性的制度體系。
我國個人信息保護(hù)體系之下,并不存在事后的算法解釋權(quán),這與我國個人信息主體的決定權(quán)之設(shè)定價值相符。事前的算法告知義務(wù)能合理平衡個人信息主體與公共利益之間的復(fù)雜關(guān)系,能促進(jìn)“有意義的透明度”之提升。對于算法可能造成的損害提供更為直接且明確的救濟(jì)途徑是我國算法治理的核心要義。因此,重新審視算法帶來的風(fēng)險與救濟(jì)的關(guān)系,在此基礎(chǔ)上加強對事后反對權(quán)的制度構(gòu)建,同時推動認(rèn)證制度的不斷革新是我國算法治理的必由之路。
注釋:
①例如,《個人信息保護(hù)法》規(guī)定處理敏感信息、利用個人信息進(jìn)行自動化決策、向境外提供個人信息等活動時所必須進(jìn)行的安全評估或個人信息保護(hù)影響評估。而本文所討論的認(rèn)證評估是在此基礎(chǔ)上,要求更為苛刻的甚至具有“示范性”的評估。
②參見《中央網(wǎng)信辦、工業(yè)和信息化部、公安部、市場監(jiān)管總局關(guān)于開展App違法違規(guī)收集使用與個人信息專項治理的公告》。
參考文獻(xiàn):
〔1〕Frank P. The Black Box Society〔M〕. Cambridge:Har‐vard University Press,2015.
〔2〕柳經(jīng)緯.標(biāo)準(zhǔn)與法律的融合〔J〕.政法論壇,2016(06):18-29.
〔3〕Lilian Edwards,MichaelVeale. Slave to the Algo‐rithm?Why a ’Right to an Explanation’ Is Probably Not the Remedy You Are Looking For〔J〕. Duke Law & Technology Re‐view,2017(18):18-84.
〔4〕張凌寒.商業(yè)自動化決策算法解釋權(quán)的功能定位與實現(xiàn)路徑〔J〕.江蘇大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(02):51-60.
〔5〕朱俊.論大數(shù)據(jù)時代的算法解釋請求權(quán)〔J〕.寧夏社會科學(xué),2021(04):105-113.
〔6〕唐林垚.“脫離算法自動化決策權(quán)”的虛幻承諾〔J〕.東方法學(xué),2020(06):18-33.
〔7〕Sandra Wachter,Brent Mittelstadt,LucianoFloridi. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation〔J〕. In‐ternational Data Privacy Law,2017(02):76-99.
〔8〕解正山.算法決策規(guī)制——以算法“解釋權(quán)”為中心〔J〕.現(xiàn)代法學(xué),2020(01):179-193.
〔9〕王利明.民法上的利益位階及其考量〔J〕.法學(xué)家,2014(01):79-90.
〔10〕鄭曉劍.個人信息的民法定位及保護(hù)模式〔J〕.法學(xué),2021(03):116-130.
〔11〕丁曉東.論算法的法律規(guī)制〔J〕.中國社會科學(xué),2020(12):138-159.
〔12〕李成.人工智能歧視的法律治理〔J〕.中國法學(xué),2021(02):127-147.
〔13〕劉權(quán).論網(wǎng)絡(luò)平臺的數(shù)據(jù)報送義務(wù)〔J〕.當(dāng)代法學(xué),2019(05):3-12.
〔14〕萬方.算法告知義務(wù)在知情權(quán)體系中的適用〔J〕.政法論壇,2021(06):84-95.
〔15〕張欣.算法解釋權(quán)與算法治理路徑研究〔J〕.中外法學(xué),2019(06):1425-1445.
〔16〕張新寶,賴成宇.個人信息保護(hù)公益訴訟制度的理解與適用〔J〕.國家檢察官學(xué)院學(xué)報,2021(05):55-74.
〔17〕許可,朱悅.算法解釋權(quán):科技與法律的雙重視角〔J〕.蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(02):61-69.
〔18〕沈偉偉.個人信息匿名化的迷思——以《個人信息保護(hù)法(草案)》匿名化除外條款為例〔J〕.上海政法學(xué)院學(xué)報(法治論叢),2021(05):110-121.
〔19〕陳吉棟.個人信息的侵權(quán)救濟(jì)〔J〕.交大法學(xué),2019(04):40-53.
〔20〕程嘯.侵害個人信息權(quán)益的侵權(quán)責(zé)任〔J〕.中國法律評論,2021(05):59-69.
〔21〕張欣.免受自動化決策約束權(quán)的制度邏輯與本土構(gòu)建〔J〕.華東政法大學(xué)學(xué)報,2021(05):27-40.
〔22〕張恩典.大數(shù)據(jù)時代的算法解釋權(quán):背景、邏輯與構(gòu)造〔J〕.法學(xué)論壇,2019(04):152-160.
〔23〕劉云.論可解釋的人工智能之制度構(gòu)建〔J〕.江漢論壇,2020(12):113-119.
〔24〕萬方.合規(guī)計劃作為預(yù)防性法律規(guī)則的規(guī)制邏輯與實踐進(jìn)路〔J〕.政法論壇,2021(06):123-135.
〔25〕Dennis D. Hirsch. Going Dutch?Collaborative Dutch Privacy Regulation and The Lessons It Holds For U.S. Privacy Law〔J〕. Michigan State Law Review,2013(01):83-162.
責(zé)任編輯楊在平