劉 蓓 馬 昊
(長春工業大學,吉林 長春 130000)
隨著互聯網技術的發展,越來越多與個人權利、社會福利和國家安全相關的決策權,在一定程度上讓渡給算法平臺的自動化決策算法。然而,算法天然的黑箱性導致算法決策的不透明,人工智能和深度學習技術的發展使得算法逐漸超出輔助工具的范疇,同時又加深了算法決策的不透明性,這就使得算法平臺和算法相對方的“數字鴻溝”逐漸加大。當前為了縮小“數字鴻溝”、避免算法權力的異化,立法者和學術研究者提出了諸多方案。例如,對算法平臺設置一定程度的披露義務,以提高算法透明度;設置專門的監管機構、配置個人權利;等等。在賽博空間個人權利的配置主要包括兩個方面:一是對數據權利的保護,二是對算法權利的賦予和保障。其中,如何通過法律的手段進行有效賦權和規制就成為當前的重要課題。
算法權利與個人信息權關系密切,算法通過對個人信息的收集和處理,做出會對個人產生實際影響的決策,個人當然享有對該種算法和其所做出決策的某些權利,如知情權、理解權、自決權等。另外,無論是公權力機關還是商業平臺做出的對個人權利造成影響的決策,都理應符合程序正當原則,該原則既體現在法律規范之中,也體現在商業平臺制定的規則之中,這意味著算法權力的行使應當滿足程序正當的要求[1]。另外,算法雖不能和人工一樣充分考慮個人個性化的需求,但其決策也需要滿足“平等、自由、正義”的價值主張。因此,算法權利是規范與個人權利和人格利益密切相關的算法,保障個人權利和人格利益不受算法侵犯的權利。其中最具代表性的就是算法知情權和算法解釋權,兩者之間也有千絲萬縷的聯系。
1.1.1 算法知情權的法律依據
總體上講,當前算法知情權的規制體系由個人信息處理者的告知義務和個人信息主體的訪問權構成[2]。歐盟《通用數據保護條例》(General Data Protection Regulation,GDPR)和我國的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)都規定了個人對算法享有知情權,但兩者的規定有所區別。GDPR第14條規定,數據控制者在收集與數據主體相關的個人數據時,應當告知數據主體,包括數據控制者的身份與詳細聯系方式、數據保護官的詳細聯系方式、數據處理將涉及的個人數據的使用目的,以及處理個人數據的法律依據等。我國《個人信息保護法》規定了處理個人信息前算法提供者的告知義務,也對算法實際結果的知情權做了規定,即“通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”。雖然未明確個人對算法的訪問權,但是允許個人對結果提出質疑,也暗示了個人有權對算法結果知情的內涵。
1.1.2 算法知情權的價值
算法知情權雖然在算法運行的各個階段的具體內容有所不同,但是貫穿于算法運行的全過程。
算法知情權的訪問權內容要求相對人積極主動行使訪問權,表面上看,這是積極性權利,但其目的依然是防止受到不合理侵害或者在自身權益受到侵害時尋求救濟。因此,從本質上講,它仍是一種具有防御屬性的權利。
1.2.1 算法解釋權的提出
算法相對人作為算法相對弱勢方,有權充分理解算法決策的內容和依據,以便在對該項算法決策充分知情的情況下自主決定是否同意該項決策以及對該項決策提出質疑[3]。因此,旨在使算法相對人充分理解算法,保障相對人程序性權利的算法解釋權便應運而生。
1.2.2 算法解釋權的法律內涵
第一,算法解釋權是一種請求權。算法解釋權的權利主體是算法相對人,即“符合條件”的算法被決策者,請求對象是保險機構、信貸機構、投顧機構等引入智能化算法作為新型業務手段的傳統企業和具有交易、社交、娛樂、資訊、融資、計算等功能的專門的互聯網平臺,可統一稱為“算法平臺”或“算法部署者”,請求權的客體即算法平臺的算法解釋行為。算法平臺應當按照權利主體的要求和法律規定或合同約定履行解釋義務。
第二,通常來說,算法解釋權的啟動時機為做出算法決策之后,即當且僅當算法相對人認為某項算法決策會對自身產生重大影響時,相對人才有權提出此項請求。這里的“重大影響”被認定為“構成法律或其他類似重大影響”。
第三,作為算法解釋權的客體,算法解釋行為應當是明確且有效的。這就要求算法解釋的內容和形式都要明確且有效。一般來說,算法解釋的內容以做出具體算法決策的相關系統功能為出發點,也應當包括該系統所使用的個人信息等輸入信息、做出決策的各種指標的功能權重,以及相對人進一步救濟的權利等;其形式上,要具有可理解性,即要有被或許未受過算法教育的個人理解的可能[4]。
此外,由于算法適用領域不同、對個人影響不同,也應當允許算法平臺對算法決策有不同程度、不同層次的個案解釋。
就算法知情權和算法解釋權的關系而言,有人認為算法解釋權是基于算法知情權所推定出來的權利,是算法知情權的具象化,也有人認為算法知情權實則是一種弱化版本的算法解釋權理論[5]。可見,在相關研究者看來,算法解釋權和算法知情權存在著明確的位階關系,兩者有千絲萬縷的聯系。
當算法決策會對相對人產生不利影響或者有產生不利影響的可能時,相對人才有權請求算法平臺對算法進行解釋,因此,就權利屬性而言,算法解釋權本質上和算法知情權相同,都是一種防御性的權利。
算法知情權和算法解釋權都包含一定程度的算法解釋內容。有學者根據GDPR對個人數據權利的規定構建出算法知情權體系,認為算法知情權涵蓋一定程度的算法解釋內容,也有學者根據GDPR的規定構建出算法解釋權體系,但是算法解釋權所蘊含的算法解釋明顯超出了法條的字面含義,從而導致兩種權利之間的差別。
首先是兩者權利目的不同,算法知情權的目的是在相對人對算法有初步的認識之后獲取其對算法的信任,算法解釋權的目的則是實現“實質性的程序正當”。其次,目的不同導致兩者告知的內容也有所不同,GDPR僅要求對基本邏輯和預期結果進行告知,即僅要求對算法進行外部解釋,而算法解釋權要求的告知內容更加復雜,甚至要求一定程度上打開“算法黑箱”。最后,兩者行權的時機不同,算法知情權作為一種知情權,僅需滿足最低程度的知情需求,因此該項權利貫穿算法運行始終,但是算法解釋權是由算法決策引起的解釋請求權,即事后解釋,其權利只能在事后行使。即便是提出事前解釋的學者,也認為事前解釋并不能要求解釋義務達到事后解釋的程度[6]。
作為新型的算法權利,算法解釋權并未作為一項具有普適性的權利被各國立法接受,也并未被學界普遍認可。GDPR雖為算法權利之濫觴,但有學者梳理其正文的相關條文,發現通篇并未提及算法解釋權,據此認為歐盟的GDPR并未創設算法解釋權[7]。也有學者認為GDPR的序言雖沒有法律效力,但結合其和正文中明確提出的反自動化決策權的相關規定,可以歸納出算法解釋權的基本內涵。兩者各執一詞。另外,有學者認為我國《個人信息保護法》規定了算法解釋權,但其內涵也和學界普遍認為的“算法解釋權”相去甚遠。到底是何種質疑,導致算法解釋權遲遲不能落地?
諸多贊同此權利的學者認為算法解釋權的設置能保障個人的合法權益,能保障“實質性”的程序正義。然而有關算法的程序正義,卻并非一定要通過設立解釋權來實現。
2.1.1 算法解釋權的必要性不足
算法解釋權的必要性被質疑的首要原因就是解釋本身的必要性不足[8]。我國相關法律對算法平臺的主體責任進行了明確規定,算法平臺侵犯個人利益,并不能因為其使用算法就能免責,遑論拿算法缺陷當“擋箭牌”。算法可能會影響個人權利是算法解釋權的前提,但是算法對個人實體權利的影響是顯而易見的,個人完全可以通過更有效的救濟手段維護自己的權利。在商業領域,如“外賣配送算法”增加外賣員的勞動強度,外賣員可以向社會保障部門投訴解決,而算法解釋權的提出掩蓋了勞動權利保障的缺位。即便是引發學界普遍擔憂的“信息繭房”,也很難被認為是算法對個人利益造成的負面影響,有通過請求對算法進行解釋以維護個人權利的必要性。我國《互聯網信息服務算法推薦管理規定》規定了算法推薦服務提供者的說明義務,但很難認為其重點在于對算法本身的穿透性解釋。在公共領域,司法和行政權力的運行都內含程序正當原則,公眾更關心行政或司法決策本身的正當性,與其說公眾需要對公法領域自動化決策算法行使解釋請求權以保障其合法權益,不如說公眾會對公權力機關使用算法進行自動化決策本身的程序正當性提出質疑。
雖然某些算法決策由于“算法黑箱”的不透明性導致公眾對其產生的合理性提出質疑,影響相對人的個人利益,只需明確算法平臺和算法決策行為即可確定主體責任,但是算法本身并沒有解釋的必要性。
2.1.2 權利賦予和行權的矛盾
算法解釋權的權利普遍性和行權難度之間存在矛盾。首先,學界普遍認為,自動化決策算法解釋權的啟動不以算法結果錯誤為前提,用戶僅需舉證算法結果與自身的關聯關系,即算法結果對自身有法律效力或重大影響,就可行使算法解釋請求權。這就意味著算法解釋權具有普遍性的特點。但是,有學者認為應當由算法主體對算法解釋請求先行審查,以確定其主體是否適格、請求內容是否合法有效等,這就導致算法解釋權的行權成本大幅增加。其次,互聯網深入發展導致“對個人有法律效力或重大影響”的算法滲透到個人生活的方方面面,個人若充分按照學界對該項權利的期望行使此項權利,無疑會導致大量“數據噪聲”的出現。此外,鑒于算法權利與個人信息權利的密切關系,有觀點認為該項權利并不屬于非自然人,但是,從算法解釋權的內涵來看,非自然人主體應用算法也應當享有請求解釋算法的權利。
2.1.3 權利期望和結果的矛盾
算法解釋權提出的期望是在算法權利不對等、算法決策不透明的情況下降低相對人問責難度,及時為相對人提供救濟,甚至解決算法嵌入各領域中產生的“算法歧視”問題,以維護社會公平[9]。不可否認,通過請求算法平臺對算法進行解釋,算法相對人能夠更深刻地理解算法如何做出決策,但是這對于事后救濟似乎可有可無,因為即便不請求對算法進行解釋,相對人也有權要求算法平臺對算法決策侵犯個人利益的事實負責[10]。
相較于對算法系統功能進行解釋,輸出結果符合一般人的預期更能獲取公眾信任。算法相對人正是由于算法結果不符合其預期,才需要算法平臺對算法本身進行解釋。例如,2016年7月,美國威斯康星州終審判決的威斯康星州訴盧米斯案(State v.Loomis),該案被告人認為,法官依靠自動化決策結果對其量刑的行為,侵害了其正當程序權利。雖然終審法院經過審理后駁回了他的上訴理由,但學界對該判決結論的反對聲音不絕于耳。盧米斯案及其相關論爭反映了算法風險與程序正義的復雜問題。可以說,直接滿足個人對算法決策結果的救濟權,比通過算法解釋權間接獲取救濟權更能維護個人正當權利。
2.2.1 算法解釋權內容不能明確統一
目前,對于算法解釋權的具體內容,學界仍未達成共識,或者說,幾乎不可能達成共識。即便是算法解釋權的支持論者,也認為算法解釋權的行權需要結合算法的應用目的、對個人權利的影響程度等內容區分算法的應用場景。那么,考慮到相對人對算法的理解程度和算法素養存在區別,作為回應相對人請求的算法解釋應當是格式性的還是特定性的呢?如果是格式性的,那么對不特定人的算法解釋和算法披露有什么區別?或者說,將算法披露歸納到事前解釋的范疇?如果是個性化的,由于相對人對算法的理解能力存在差別,如何才能實現“有意義的算法透明”,滿足所有對算法結果提出質疑的相對人的解釋請求呢?
2.2.2 算法解釋權和其他利益的沖突
當前無論是支持算法解釋權的群體,還是反對算法解釋權的群體,都不能回避一個問題:算法相對人與算法平臺之間的利益沖突。算法平臺由于其權利屬性不同,引起的利益沖突也有所不同。商業算法平臺的算法作為商業秘密、知識產權受到法律保護,對算法進行解釋勢必要求商業算法平臺對其合法權益做出一定程度的讓步,會引發商業秘密泄露和知識產權被侵犯的風險,此外還存在泄露其所收集個人信息的風險。公權力算法平臺作為算法應用方,應當保障程序正當性和公民合法的知情權,也就是說公權力機關應用算法的程序正當位階高于商業秘密,但是公權力機關因算法解釋權導致國家秘密、公民隱私泄露風險也是得不償失。除此之外,公權力機關應用算法的目的是提高工作效率,但是公眾對算法決策的結果質疑使得他們不得不增加工作量解釋算法決策,在提高工作效率的同時又增加了成本。
被普遍賦予的算法解釋權的必要性和可行性不足,難以對算法權力的規制有實質作用,對算法霸權下的個人權利救濟力度也未可知。算法解釋權可能會流于形式,成為“僵尸權利”,甚至會引發新的問題,產生新的風險。
當前對算法解釋權的研究顯示,表面上其看似是規制算法權力、保護個人利益的理想手段,但實際上存在層層阻礙,并不能提供有效的幫助。然而,這并不意味著算法解釋權的內涵毫無可取之處。算法知情權和算法解釋權本身存在很強的關聯性,甚至有學者認為算法知情權即為算法解釋權的弱化版本。算法解釋權本身也存在很大的靈活性,以至于似乎和算法知情權有所交叉。筆者認為,兩者并非你中有我我中有你的關系,而是可以作為兩個獨立的權利并行不悖。
算法知情權和算法解釋權都要求算法平臺履行一定程度的算法解釋義務,但是兩者對解釋程度的要求不同。同時,算法解釋又不僅局限于算法權利。
算法知情權僅要求最低程度的算法解釋,甚至不要求個案解釋,如GDPR所規定的算法主體對算法“基本邏輯和預期后果”的解釋,我國《互聯網信息服務算法推薦管理規定》僅規定算法主體應當對算法推薦服務的基本原理、目的意圖和主要運行機制等內容進行公示性、一般化的告知。
然而,根據當前對算法解釋權研究的觀點,算法解釋權中的算法解釋主要包括以下幾個方面:一是算法所需信息及其類別、權重、相關性解釋;二是對做出決策的算法系統的解釋,如系統邏輯功能、決策與信息相關性、權重等;三是對算法決策進行救濟的內容,如是否有拒絕算法決策的權利以及拒絕之后的權利等。
最高程度的算法解釋層次是要求算法解釋的權力導致的算法解釋,該項權力并不屬于個人權利范疇,而屬職權等“權力”。其應用場景多體現在與算法有關案件法官依職權對算法的查明、監管機構對算法主體應用算法的調查,此處不再贅述。
可見,從層次上可以區分算法知情權和算法解釋權要求的算法解釋程度。
由本文第2部分可得出結論,算法解釋權難以成為全體算法相對人的權利。那么,由當前對算法侵權理論研究中三方主體之間的關系(見圖1),是否可以劃定算法知情權和算法解釋權的范圍?

圖1 算法侵權理論研究中三方主體之間的關系
首先,算法相對人的算法知情權。當算法開發者和算法平臺不為同一主體時,算法相對人不直接對算法開發者享有權利,算法相對人對算法平臺享有的權利應認定為算法知情權,僅需明確算法主體身份和其使用算法的侵權行為即可明確侵權關系,也保證了一定程度的程序性權利。
其次,算法平臺的算法解釋權。對算法平臺而言,其有要求算法開發者進行充分的算法解釋的權利,但當前由于知識產權和商業秘密的掣肘,算法平臺并未能完全享有此項權利。此處的算法解釋應屬于兩個平等主體之間依據算法開發承攬合同產生的算法解釋權內容,而非依公權力產生的算法解釋義務。值得注意的是,此時請求解釋算法的權利就不再屬于全體“認為算法造成不利影響的個體”,而屬于在算法開發者和使用者并非同一法人主體情況下的算法平臺。
依據算法主體劃定算法權利,可以解決當前對算法解釋權的諸多質疑。以本文第2部分為例,算法解釋權是明確算法開發者和使用者責任的重要權利,算法開發者切實履行算法解釋義務,并對解釋日志進行留存,算法平臺明確算法的功能屬性,能夠在算法導致侵權時明確雙方責任,確定雙方應當承擔的責任類型,從而解決算法解釋權的必要性問題。算法解釋權的權利義務并不針對不特定主體,而是明確的算法開發承攬合同雙方,充分的算法解釋,甚至可以引入第三方評價,是算法平臺通過驗收的必要條件,不會導致算法開發者不合理的解釋負擔,不會引起算法權利的越界導致知識產權和商業秘密的泄露,從而解決算法解釋權的可行性問題。
由于知識產權和商業秘密的約束,算法自身存在黑箱特征,正是黑箱特征導致算法平臺有利用算法侵犯公民合法權利、損害公民合法利益、危害社會利益的風險。然而,這并不意味著算法相對人需要相當深度的算法權利以彌合“算法鴻溝”“數字鴻溝”。權利的出發點是好的,但是不合理的負擔可能會導致結果與預期南轅北轍。賦予公民廣泛的算法知情權和特定主體的算法解釋權,應在保障個人權利的同時,保證算法平臺不會產生不合理的負擔,讓他們有更多的精力投入科技創新,更有利于社會公共價值的實現。