劉 蓓 華 珊
(長春工業大學 吉林,長春 130000)
自人類進入算法時代以來,算法的效能在各情境下決定著決策效率、決策質量,對公私主體產生的多維度影響也日益明顯。但與此同時,看似理性的算法所產生的相關負面性也在不斷擴大。根據《算法應用的用戶感知調查與分析報告(2021)》[1],發現目前絕大多數算法相對人對算法的認知尚不充足,在提升算法透明度方面有較強訴求。超過80%的平臺用戶期待能夠自主選擇推薦算法所依據的標簽集。而超過50%的平臺用戶對于企業是否適用算法開展服務,以及使用算法的內容、目的并不知悉,期待企業可以增強信息告知。當對算法結論存在異議時,76.48%的平臺用戶期望人工介入。在自動化決策的過程中,因算法本身所固有的歧視性、不確定性與黑箱性、權力與控制性等因素,已經引發了“算法歧視”“算法黑箱”“算法操控”等風險。
為化解算法的負外部性,平衡算法相對人和決策方之間的法益保障,給相對方“賦權”成為重要的解決方案之一,在立法上“沿用”“改良”“創建”是目前算法治理的三條基本思路。因此,相對方獲取算法相關信息方面的“賦權”在立法中總體分為兩種進路:一種是完善改良知情權。改良“知情權”,結合延續我國現有其他法律制度。另一種是構建算法解釋權。這種“構建算法解釋權”思路成為計算法學研究熱點。選擇哪條路徑一直在被學者們反復詰問。目前學界對“構建算法解釋權”思路存在一些質疑,如算法黑箱限于技術障礙是否可以打開,解釋程度(限于不同場景)為何,以及如涉及知識產權和商業秘密如何解釋等。
在立法上,算法解釋權作為一種新型權利,在各國立法上的權利構造與權利邊界尚未明確,并沒有形成真正獨立的權利。雖然部分學者對算法解釋權持支持態度,但鑒于立法的保守性與多方實踐因素,各國對算法解釋權的立法仍普遍呈消極態度。在我國整體的立法思想上,更傾向于將算法的違法性在既有的法律框架內得以證成與救濟,通過已有成熟運行邏輯的權利對個人信息主體提供保障。因此,接下來將探索算法知情權改良路徑下的全新構建,即構建算法知情權權利束,將算法解釋權吸收于算法知情權之中,以此改良知情權。
從認識論角度看,依據“關系—屬性—實體”這一客觀規律,事物關系是真正打開事物實體特性的鑰匙[2]。算法知情權與算法解釋權之間具有一定相似性,也存在一定的差異性,這是算法知情權改良的基礎,下面就從二者異同比較出發,以求證算法知情權吸收解釋權的可行性。
首先,權利目的相同。算法知情權和解釋權的目的都是為了用戶更好地了解算法使用的基本信息,來矯正雙方信息不對稱的情況,避免算法黑箱對算法相對人造成損害。
其次,權利義務主體相同。算法知情權和解釋權的權利主體均為受到算法決策不利影響的算法相對人。義務主體均為算法決策方。
再次,權利客體相同。所謂權利客體是一個抽象的范疇,是一種法律所保護的人格或財產利益[3]。算法知情權和解釋權的權利客體均為算法相對人體現為公平、自由、尊嚴的人格利益。
最后,權利對象相同。權利對象則是具體的,承載人格或財產利益的載體(物、行為、信息等)。算法知情權和解釋權的權利對象均為當算法相對人的權益可能或已受到不利影響時,請求算法決策方為或不為其提供決策信息的行為。
首先,權利產生淵源。算法知情權是立法中既有的權利,算法解釋權是從算法知情權中衍生出的一種新型權利。
其次,權利行使時機。目前立法上算法知情權表面上似乎只屬于“事前”(數據采集輸入前)權利,因為算法知情權中的“告知”發生在個人信息處理前,但這并不否認在數據處理、數據結果輸出兩個環節有知情權。實質上算法知情權存在于數據采集輸入、數據處理、數據結果輸出三環節,貫穿于算法自動化決策的始終。算法解釋權屬于“事后”權利(數據結果輸出后),作為一種救濟性的請求權,只能在自動化決策數據輸出階段行使。因此,可以認為在行權時空上,算法知情權遠遠超出算法解釋權。
再次,權利內容。算法知情權告知內容更偏向于基礎性內容的告知,一般包括個人信息控制者基本情況、處理目的、處理方式等。在我國除此也可能包括算法基本原理和主要運行機制,而算法解釋權需要向算法相對人解釋自動化決策的內部運行邏輯。可見,在我國立法例中,算法知情權的權利內容范圍可以包含算法解釋權。
最后,可理解性。從算法相對人的角度來看,算法知情權傾向聚焦知曉行為,不關注知曉程度與效果。而算法解釋權更傾向于對決策的“理解”的程度與效果,算法解釋權獨立成權的核心要義在于“可理解性”。
綜上所述,通過比較這兩種權利的異同,可知“可理解性”是算法解釋權能否獨立成權的關鍵,但由于可理解性出于眾多因素難以實現,這成為算法解釋權在實踐中未能入法的主要原因。在對算法知情權、算法解釋權的立法和理論研究剖析中可知,包括中國在內的大多數國家更傾向通過算法知情權和其他現有法律資源結合,以解決自動化決策風險問題,因此將算法解釋權中的“可理解性”吸收進算法知情權,是知情權改良的第一步。
算法知情權的權利束應分三個階段進行建構。如前所述,我國立法中算法知情權中的“告知”是在個人信息處理之前,即在數據收集輸入環節。但是并沒有否認在數據處理、數據結果輸出兩個環節有知情權。那么,結合誠信等原則,實質上算法知情權應該存在于數據采集輸入、數據處理、數據結果輸出三環節,并貫穿算法自動化決策始終。告知—決定權、訪問權、查閱權、復制權、商討權、人工替代權、人工干預權、人工接管權等權利共同構成了理論上的算法知情權權利束的基本要素。
2.1.1 自動化決策數據采集輸入階段“告知—決定”權行使路徑的權利束
第一,告知方式。此階段被告知的相對人為不特定人的群體,因此在此階段個人信息的告知方式及告知內容必須依據《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》),應當以顯著、完整、清晰易懂的方式進行。第二,告知內容。是“一般性”告知,分為所收集數據的數據基本情況告知,以及自動化決策運行規則基本內容的告知。告知的內容主要包括個人信息處理者的基本情況、數據的處理目的與方式、所處理的個人信息種類及個人信息的保存期限,以及個人信息主體的行權方式及程序。第三,“告知—決定”的權利架構。很多學者認為,因“告知—同意”原則是算法知情權的主要內容,進而主張將“知情—同意”原則權利化。但是,這種觀點似乎忽視了算法相對人拒絕的權利。因此,在數據采集輸入階段構建的算法知情權路徑之一是以“告知—決定”原則為基礎,算法相對人可以選擇同意或拒絕該自動化決策,即行使同意權與拒絕權。第四,“告知—決定”下級權利束。如果算法相對人拒絕自動化決策,可以選擇直接退出自動化決策,或行使人工替代權。因人工替代存在著效率低以及行權成本高的特性,因此場景化路徑是人工接管權行權的前提。人工替代權作為“告知—選擇”原則中拒絕權的下級權利束,其中包括人工干預權和人工接管權。
2.1.2 自動化決策數據采集輸入階段訪問權行使路徑的權利束
我國《個人信息保護法》在此階段未提及訪問權,訪問權在立法中出現于數據處理階段。在數據收集輸入之前尚未開始數據收集,因此訪問權主要是針對平臺的概覽訪問。《個人信息保護法》第二章第十六條規定,不得因個人不同意處理其個人信息或撤回同意而拒絕對其提供產品、服務。在《常見類型移動互聯網應用程序必要個人信息范圍規定》中,也規定了App不得以用戶不同意提供非必要個人信息為由而拒絕用戶使用其基本功能服務,并劃定了常見類型App的必要個人信息范圍。因此,可以基于這種基本功能服務設置無數據普適性的瀏覽頁面,以此幫助算法相對人行使訪問權。無數據普適性的瀏覽頁面,是該自動化決策服務內容及程序結構的重要展現,且該頁面的使用不會留下數據痕跡,更偏向于體驗瀏覽。在訪問權的權利結構上,其作為算法知情權下的二級權利,同樣下設決定權。當算法相對人完成無數據普適性的瀏覽頁面的框架性訪問后,仍有權利選擇同意或拒絕該自動化決策(見圖1)。

圖1 數據采集輸入階段算法知情權權利束(圖中兩處拒絕權下級權利束一致,為簡明僅列示一處)
2.2.1 自動化決策數據處理階段訪問權行使路徑的權利束
該階段的訪問權內容與數據采集輸入階段不同,該層次的訪問可以排查出具體決策適用的規則是否包含歧視性、非法性以及個人信息數據是否錯誤等問題[4]。第一,包含《個人信息保護法》中所規定的查閱權、復制權以及決定權。在算法決策方請求查閱其個人信息時,應依據《個人信息保護法》第二章第十七條提供清晰易懂、語言準確的個人信息資料,而非以二進制代碼的方式提供[5]。所謂復制權就是要求算法決策方為算法相對人提供所要求復制的其個人信息的副本,此種副本應該是書面形式的,包括紙介質或電子介質。查閱權和復制權的行使時間在算法處理分析數據過程中具有不特定性,對算法中個人信息的使用產生了一定監督的作用。第二,該環節的決定權的結構與數據采集輸入階段相同,均包含同意權與拒絕權,但因該階段已有數據的輸入,所以拒絕權的行使方式也變得多樣化。若算法相對人選擇拒絕自動化決策,此后的權利行使方式有四種:其一,修改權、更新權以及補充權,要求算法決策方對錯誤、過時及殘缺的數據進行更正、更新和補充。其二,刪除權,隨之退出自動化決策。其三,直接退出自動化決策權。其四,人工替代權。
2.2.2 自動化決策數據處理階段“告知—決定”權行使路徑的權利束
第一,告知方式。該階段應進行收集、積累和處理數據,因此該階段的告知方式體現出“個體性”。第二,告知內容。基于誠信原則對所收集數據、自動化決策相關內容的告知,該層次的告知可以幫助檢視決策歧視性、非法性以及個人信息數據是否錯誤等問題。但自動化決策相關內容的告知,需算法相對人主動向算法決策方提出而展開。第三,商討權。因數據處理階段的告知具有“個性化”,“告知”可以通過商討權施展,以商討交流來實現雙方需求調和。在商討權下設決定權權利束,不再重復闡述(見圖2)。

圖2 數據處理階段算法知情權權利束(圖中兩處拒絕權下級權利束一致,為簡明僅列示一處)
2.3.1 自動化決策數據輸出階段“告知—決定”權行使路徑的權利束
第一,告知內容。在數據輸出階段,聚焦在自動化決策結論等相關內容的告知。此時的算法知情權構建的目的是使算法相對人發現于己不利的決定,以便提出異議和申請救濟。第二,告知方式。在這個階段,告知依然呈現出個案特點。只有通過這種個性化告知才有利于最大效率地降低決策算法相對人的疑慮。且個性化告知的限度應堅持披露最小化原則,告知的內容應是適當的、必要的,以免引起信息過載與用戶選擇疲勞。雖然這種個性化告知會給企業等算法決策方帶來一定的負擔并耗費一定的經濟成本,但是從長遠來看,這是信息時代高速發展背景下的大勢所趨,市場本身具有調整能力,企業可以通過改變盈利模式的方式來取得相當的經濟收益。第三,“告知—決定”的權利架構。決定權仍由同意權和拒絕權構成。當算法決策方向算法相對人履行告知義務后,算法相對人可以不再作任何回復,對算法自動化決策結果“默示”同意。同時也可以選擇行使拒絕權。行使拒絕權的方式除了在前兩個階段提到過的方式外,還包括傳統維權方式——尋求司法救濟。
2.3.2 自動化決策數據輸出階段訪問權行使路徑的權利束
訪問權權利束的建立可使算法相對人對算法中的個人信息是否存在錯誤進行判斷,包括查閱權、復制權以及決定權。與本階段直接行使決定權不同的是,若算法相對人訪問后同意該自動化決策應以“明示”同意向算法決策方反饋(見圖3)。

圖3 事后階段算法知情權權利束(圖中兩處拒絕權下級權利束一致,為簡明僅列示一處)
需要注意的是,本文提出的算法知情權權利束是從理論層面建構的。鑒于算法決策應用場景的多元化,在具體應用情境中算法知情權的構建應采取場景化路徑[6]。首先,如果沒有對算法知情權的建構進行場景化賦權,不分場景式的“一刀切”,將會導致算法知情權權利束喪失彈性與適配性。場景的類型化標準是多種多樣的,如公私之分、平臺等級、行業區分、數據敏感度等。我國《信息安全技術 個人信息安全規范》(GB/T 35273-2020)第5.4條區分了收集個人信息、個人敏感信息、個人生物識別信息、未成年信息以及間接獲取個人信息的五個情景,這是在保持《個人信息保護法》概要規定的基礎上,彌補其場景化、精細化不足。其次,算法決策拒絕權的行使并非在所有場景均可以實現。例如,在自動駕駛的情景下,主張脫離自動駕駛汽車的算法自動化處理,要求避免使用該算法的可能性為零。又如,在大型平臺的推薦服務中,要求人工替代權也是強人所難。總之,上文所梳理的是一種理論層面的“階段化”權利束,具有公式性意義。在實踐中,以上權利束結構需要結合具體場景來判定當事人擁有怎樣的“個性化”算法知情權權利束,即在具體場景中從理論層面的權利束中選擇權利集,形成場景化賦權。
隨著算法技術的不斷發展,算法已經成為了算法時代的“基礎語言”,其應用場景也在不斷豐富。但看似理性的算法也同時引發了一系列風險。算法自身的壁壘結構,使算法決策方的權力不斷擴大,改變了算法決策方與算法相對人原有的相對平等的狀態。本文通過對算法知情權與算法解釋權的比較分析,得出了知情權吸收解釋權的改良設計方案的可能性。并進一步推進改良,構建了三環節的算法知情權權利束。因此,可以回答研究初始的疑問:沿用、改良與創建作為目前算法治理的三條基本思路,應該選擇哪條路徑?在算法知情權、解釋權的立法問題上,沿用現有法律、改良“知情權”是一條可行的路徑。但是,未來面對其他現實新難題時,“創建”之路可能是最優選擇。