999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法解釋制度的體系化構建

2024-04-01 14:36:29蘇宇
東方法學 2024年1期
關鍵詞:機器學習

蘇宇

內容摘要:算法解釋在算法治理中舉足輕重。算法解釋承載著權益保障、社會交往和風險治理三重意義,其在技術層面上的障礙正在逐漸被突破,可以通過多種技術機制實現。在算法治理活動中,應根據常規場景、關鍵場景和爭議場景分別限定選擇解釋的路徑選擇和技術方案,通過凍結機制、抽樣機制和鏡像機制固定算法解釋,并使之接受外部的驗證與審查,確保算法解釋真實、有效。算法解釋的系列機制應被進一步構建為體系化的算法解釋制度,在這一制度框架內,對解釋路徑與精度、解釋時限、解釋瑕疵責任等要素的合理配置,可以實現社會效益與規制負擔的精細平衡。

關鍵詞:算法解釋 算法驗證 算法黑箱 算法透明度 機器學習 算法治理

中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)01-0081-95

算法解釋在算法治理研究及法律實踐中正逐漸成為最引人注目的主題之一。在理論上,算法解釋方面的法律關系早已“成為算法法學研究的核心命題之一”;〔1"〕在實踐中,“各國立法者紛紛要求算法決策具備可解釋性,并將其置于算法治理議程的首要位置”。〔2"〕以機器學習為代表的人工智能算法帶來了“算法黑箱”的新問題,并將算法解釋議題一舉推至焦點位置。〔3"〕由于規則清晰、邏輯分明,傳統的自動化決策在損害歸責和權益救濟等問題上并未帶來太多挑戰,而帶有“黑箱”性質的算法模型則不然,機器學習和決策的過程隱遁于眾多“隱層”背后,使算法決策的歸責、監督與救濟均面臨重重困難?!?"〕如能清晰地解釋算法決策的因素考量范圍及權重等實際依據,則人工智能算法決策的關鍵難題就可以被解決,算法決策的風險就可以在很大程度上在已有的治理體系中得到防范和化解。因此,國內外學界對算法解釋、算法解釋(請求)權、算法可解釋性以及算法透明、算法公開等相關議題的研究,短短幾年內即已熱浪滔天。

與此同時,算法解釋相關制度實踐和技術研究也在持續推進。例如,歐盟通用數據保護條例(以下簡稱GDPR)有關算法解釋權的條款早已備受矚目,美國總統簽署的《關于安全、可靠、可信地開發和使用人工智能的行政命令》也提出了人工智能模型透明度及受監管實體對模型的解釋能力之要求。在我國,除個人信息保護法第24條外,國內有關部門發布的《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦規定》)、《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)及《關于加強互聯網信息服務算法綜合治理的指導意見》等規章及規范性文件也已將算法解釋的相關制度納入算法治理的制度實踐。在技術層面,算法解釋的技術研究可謂如火如荼,多元化的技術路線各擅勝場,其基本數學原理也正得到逐步揭示。

然而,這遠不意味著算法解釋的研究已“大功告成”,尤其法學人對算法解釋的研究尚遠不足以回應實踐的需求與挑戰。算法解釋或算法公開透明的原則性規定,遠不足以規范和指引頭部平臺企業主要算法模型的算法解釋,因為這些超大型復雜算法模型往往包含數以億計原始特征及向量特征(或規模類似的數據圖),〔5$〕生成式人工智能大模型的規模和特性使算法解釋變得更為困難,〔6$〕而企業對于提供算法解釋擁有幾乎不受限制的自由度;算法模型的不斷修改和迭代使算法解釋可能迅速失效;用戶無法判斷算法解釋的準確性和有效性;司法機關也往往缺乏審查算法解釋的能力。這一切都使得居于算法治理研究中心位置的算法解釋在制度實踐中面臨重重困難。伴隨生成式人工智能興起,算法解釋及相關機制的地位進一步面臨質疑,〔7$〕算法解釋制度是否還具備足夠的重要性和現實意義,亟待深入探討。

上述一系列難題歸根到底可以被歸結為四個基礎性問題:算法解釋何以可能? 算法解釋為何必要? 算法解釋何從實現? 算法解釋如何保真? 逐一清楚回答這四個問題,算法解釋制度的整體輪廓也將隨之歷歷可見。

一、算法解釋何以可能:算法解釋的技術原理

(一)算法解釋的邏輯前提:“黑箱型”算法導致決策規則模糊

“算法解釋”是一個內涵特定的專業術語,其中的“解釋”是指人類與(機器)決策者之間的一個交互面,同時滿足既是決策者的精確代理,又能為人類所理解,〔8$〕這就使算法解釋不同于算法披露、算法公開或算法透明等概念。本質上,算法解釋致力于提供一種中介機制,致力于以人類思維能理解的方式,揭示何種輸入變量或變量的組合會在何種程度上影響到輸出的結果。用戶、相對人或社會公眾渴望理解算法系統為何如此決策,理解不同因素通過何種過程、以何種程度影響到系統的判斷和決定,進而了解是否可能存在歧視、偏見等倫理或法律風險。

算法解釋以“黑箱型”算法的存在和應用為前提。并非所有算法都是“黑箱型”的算法,也并非所有算法模型都需要解釋。傳統的自動化判斷或決策往往是基于因果關系作出,人類主體只需要知曉決策規則,即可獲悉輸入與輸出之間的因果關系,繼而發現系統的缺陷或可能致使自身承受不利后果的因素,進而采取有利于責任追究或權益保障的行動。然而,以深度學習為代表的人工智能算法判斷或決策建基于相關性而非因果性,而輸入與輸出之間的相關性又具有強烈的非線性特征,使決策邏輯模糊化,不能通過簡單的規則推知或衡量輸入與輸出之間的關系, 因此當機器學習算法興起后,“算法黑箱”的問題才真正被提出,而算法解釋的需求也才隨之出現。〔9$〕不同算法在自身可解釋性及算法解釋需求方面存在巨大差異。決策樹、貝葉斯推理等基于明確因果規則的算法本身具有較強的可解釋性,〔10+〕甚至本身就被認定為所謂“自解釋模型”,無須再進行算法解釋?!?1"〕需要進行解釋的對象是隨機森林、支持向量機等帶有“黑箱”色彩的模型,而尤以深度學習算法模型為最典型的代表。

各種機器學習算法都試圖讓機器尋求盡可能逼近(approximate)算法決策目標函數的方案,“算法黑箱”的存在主要源于用大量簡單函數的復合形態逼近復雜的目標函數之算法設計思路??聽柲缏宸颉⒅Z德表示定理(Kolmogorov-Arnold"Representation"Theorem)表明多元連續的復合函數可以被表示為單元連續函數的有限復合,基于這一定理,深度神經網絡等“黑箱型算法”就可以采取堆疊單元連續函數的方式逼近目標函數,從而實現“萬有逼近”(universal9approximation)之能力?!?2"〕這些單元連續函數的復合形態呈現出典型的“黑箱”特征,完全脫離了人類的常規分析思路和決策邏輯,遠離了人類的直觀理解。〔13"〕在客觀世界中,輸入變量與輸出結果之間的關系往往是高度非線性化的關系,要逼近此種關系,就需要往單元連續函數的復合過程中插入若干次非線性化計算過程(如神經網絡中的非線性激活函數),線性與非線性計算的復雜交替,導致輸入與輸出之間的關系難以通過單一的顯性表達式體現,造成所謂的“不可解釋性”。與人類的邏輯思維過程格格不入。算法決策過程中的各種中間變量和參數并不對應生活世界的任何意義載體,不能如同規則樹等自解釋算法一樣,用生活世界的概念或對象構成規則以解釋算法決策的邏輯過程。即便是后來居上的Transformer等自解釋能力較強、同樣擁有“萬有逼近”能力的算法,〔14"〕決定其輸出結果的Query、Key、Value和WO等向量通常也沒有生活世界的直接對應概念及意義,〔159〕需要人為建立認知上的轉化和連接。

“萬有逼近”能力造就了機器學習的輝煌,也塑成了人工智能的“算法黑箱”。人類需要尋找理解“黑箱型”算法模型的道路。算法解釋本質上就是為人類建立一套可以理解算法模型的概念、意義和結構,以符合人類思維的認知圖式反過來“再逼近”算法模型在某一時刻所呈現的狀態,從而對算法模型的運行建立一定預期的活動。

(二)算法解釋的實現機理:全局因果關系的弱化表達

人類習慣通過以“為什么”形式的因果式追問來理解一個決策者的邏輯,然而,“算法黑箱”的技術特點決定了人類難以直接從中獲取有效的決策規則和因果知識,導致人類在尋求回答“為什么”的因果性問題上遭遇顯著困難?!?69〕不過,即便在不易獲得因果解釋時,解釋者也可以通過提供其他有價值的關系以促進人類主體的理解?!?79〕只要人類能夠理解全部或其所關心的局部變量如何影響了算法模型的最終輸出,就足以滿足人類主體理解算法的需求并指引其采取行動,這就使算法解釋成為可能。

不可否認,“當下算法治理領域多以算法解釋權作為核心突破點, 但當算法架構變得極度復雜和自主時,對算法進行預測和解釋都將變得十分困難”;〔189〕然而,算法解釋的障礙也在不斷被突破。因果解釋是人類理解決策機制的習慣方式, 雖然非因果解釋仍然可以對模型的運作方式提供有效和有用的解釋,但許多解釋者仍然熱衷于優先追求因果解釋。〔199〕不過,如果解釋者執著于追求精確的、全局性的因果關系,在某些場合將面臨巨大的困難。退而求其次,人類理解世界的思維工具并不必然需要借助十分精確的全局因果關系,人類主體也可以通過相對“弱化”的版本去表達和理解算法模型的思路,例如通過相關關系、近似關系、局部因果關系等將算法模型的計算過程轉化為人類能理解的某種思維圖式,針對性地服務于權益保障、社會交往、風險治理乃至算法優化等目標。這就為算法解釋的實施提供了廣闊的可能空間。

1.基于可靠歸因的解釋

精準可靠的歸因解釋是對因果理解的最優替代。主流的歸因解釋算法包括三條主要路線:基于梯度的歸因、基于逐層反向傳播的歸因和基于遮擋的歸因,這些歸因算法已經可以被統一到泰勒交互體系中,并且形成了歸因解釋可靠性的評價標準。〔20%〕輸入變量與輸出結果之間的歸因評價結果也可以通過“貢獻度”或“預測力”衡量,只要能精確計算出每一種輸入變量對輸出結果的貢獻度,也能有效幫助人類理解算法認知和決策的原因,這一思路引出了沙普利值方法等算法解釋方案?!?1%〕可靠歸因解釋的問題是計算量巨大,但通過近似估計、局部計算、優化算法等方式,可以根據解釋需求策略性地降低計算負擔?!?2%〕

如果人類主體關心的并不是各種輸入變量如何一般性地影響最終的輸出結果,而是改變既有的特定事實是否會導致改變輸出結果,則可以訴諸基于“反事實解釋”的算法解釋方案,例如尋找穿越決策邊界的最短路徑或特定路徑?!?3%〕人類主體有時特別關注如何最簡潔地改變某一現實因素(如性別、年齡、種族等)以扭轉決策結果,基于反事實解釋提供局部的因果理解可一定程度上滿足算法解釋需求,在判斷隱藏偏見、衡量機器學習算法公平性方面尤其具有優勢。〔24%〕

2.基于相關性的解釋

相關性是人類在因果性之外認識事物之間關系的又一重要路徑。統計學上可以刻畫相關關系的工具已經比較成熟, 例如統計學上的Pearson函數可以完全地刻畫變量之間的整體線性相關關系,而基于Sklar定理的Copula函數可以進一步發現和計算變量之間的非線性相關關系?!?57〕面對機器學習算法,測量一系列輸入與輸出之間的相關關系比測量因果關系更為容易,此種相關關系主要可以從受控輸入與觀測輸出之間的統計結果得到測量,例如在保持其他變量不變或對其他所有變量進行積分的前提下,通過隨機置換或搜索網格等方式多次改變指定特征變量的取值,觀察指定特征變量對輸出結果的邊際影響,這一思路引出了局部依賴圖(Partial%Dependence%Plot,PDP)、個體條件期望(Individual7Conditional7Expectation,ICE)等算法解釋方案?!?67〕此類解釋往往具有模型無關性,并且要求不甚嚴苛,因此,也可以在量化的算法解釋中得到適用。

3.基于近似值的解釋

在不要求提供精確解釋的條件下,解釋者可利用某種可解釋的“白箱模型”(如線性模型)從局部“再逼近”目標算法模型,即從關鍵局部提供一種近似的理解。這一思路可以針對不同類型的算法模型進行比較便利的解釋,引出了模型無關的局部解釋(LIME)方法等算法解釋方案,〔277〕適用范圍廣且簡單易用。LIME方法還可以比較便利地用于解釋圖像分類算法的關鍵細節并生成識別標簽,提供可視化的圖像解釋,例如對卷積神經網絡智能診斷肺部疾病的圖像識別機制進行解釋和標識,〔28#〕因此在實踐中也經常被應用,歐盟《算法問責及透明度監管框架》對這一解釋方法亦予以肯定。不過LIME方法理論上并不嚴謹,即便提供近似解釋也不是十分穩定。

以上不同解釋思路共同奠定了算法解釋的技術基礎。對于中小規模的算法模型,“算法黑箱”已逐漸不再阻礙人類對算法運行邏輯的探知。當然,算法的系統性解釋,往往意味著算法決策機制一定程度的公開,會對企業知識產權保護帶來一定的挑戰?!?9#〕不過,算法解釋針對的是算法模型的最終性能和效果,并不要求披露知識產權及反不正當競爭法所保護的動力學機制及學習過程設計。只要算法模型自身對商業秘密采取一定防護措施,能夠避免攻擊者利用公開輸入輸出結果通過建立“影子模型”的方式實現模型竊取,前述不同路線的算法解釋亦同樣無法暴露算法模型中的關鍵參數及技術細節,從而確保了消費者/公眾知情權、監管利益及商業秘密保護的平衡。

質言之, 人類主體可以通過相當豐富的手段使算法模型的行為和結果盡可能為人類所理解,而此種解釋活動對于算法治理而言有著不可替代的基礎性意義。不僅如此,人工智能算法模型還可能實現自我解釋,例如Transformer算法中的多頭注意力機制可能會一定程度上導致“算法黑箱”的消解:盡管注意力并不直接等同于解釋,但注意力可以被轉化為比較可信的、富有意義的解釋,〔30#〕這就使得大模型以后有可能實現“自解釋”。不過,在自解釋人工智能徹底實現以前,外部算法解釋所能提供的治理價值仍然難以被替代。

二、算法解釋為何必要:算法解釋的法理意義

算法解釋的法理意義可以被概括為權益保障意義、社會交往意義和風險治理意義,每一種意義都有助于使人工智能算法回歸人類可理解、可交流、可控制的范圍,使算法治理能夠徹底穿透技術上的“黑箱”而落到實處。

(一)權益保障意義

基于算法在公共領域和私人領域的不同應用,算法解釋與知情權、平等權、申辯權、隱私權、個人信息法益乃至人格尊嚴等多種法益的保障密切相關,隱含著新型的規范訴求和法律關系。在“黑箱”面前,用戶、相對人和公眾想要了解的主要是算法判斷或決策的具體原因,這關涉到背后的人類主體是否正確地按照法律倫理和價值考慮了相關因素, 并將其準確地通過算法設計及模型訓練體現出來。在社會生活中,有大量權利或尚未被權利化的利益亟待算法解釋的保障。〔31#〕對算法相關信息的理解有助于其規避風險、作出合理選擇乃至尋求法律救濟。

這一需求的權利化所對應的權利即算法解釋權或算法解釋請求權。算法解釋權既可以是要求對算法模型的系統功能進行一般性解釋的權利, 也可以是要求對個案決策基礎進行個別解釋的權利。〔32#〕這一權利的法理意義日益凸顯,其在最基礎的層面可以被歸屬于某種“知情權”(the8right# to#know),更可以被進一步強化為“理解權”(the#right#to#understand),〔338〕還可以在更深的層次被構建為跨越公私法的某種正當程序權利,即與算法決策結果存在利害關系的當事人,在自己的命運或利益被算法決定之前,應當有了解算法決策的邏輯和原因、進而向自動化系統或其背后的實際決策者提出陳述和申辯的合理機會。在世界范圍內,已有許多學者在類似意義上探討“技術性正當權利”(technological,due,process),這一概念日益得到公法學界的認可?!?4,〕面對“算法黑箱”,算法解釋是保障上述正當程序價值必不可少的基礎性工具,它使人有機會認識和理解算法決策的邏輯,盡可能避免遭受“黑箱型技術”的操作或剝削,〔35,〕并在涉及自身的不利決定中采取最有利于保障自身權益的行動。

然而, 由于算法解釋技術與實踐暫未成熟, 算法解釋的權利化始終面臨難題。在世界范圍內,GDPR的制定激發了算法解釋權的研究熱潮。在GDPR的制定過程中,算法可解釋性的重要性不斷被強調,然而其正式文本卻未直接規定算法解釋權;與算法解釋權最為相關的是第22條及序言第71條,但相關規定是否以此種形式真正確立了算法解釋權,尚面臨一定爭議?!?6,〕我國個人信息保護法第24條第3款規定:“通過自動化決策方式作出對個人權益有重大影響的決定, 個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”有觀點認為這一規定確立了算法解釋權,〔37,〕但此處的“說明”是否必然包含算法解釋,尚無確切結論。

在其他相關國內外立法中,美國信貸機會均等法(ECOA)與公平信用報告法(FCRA)中規定的不利行動告知條款,以及2017年《關于算法透明性和可問責性的聲明》中提及的算法解釋原則,似乎從立法上肯定了算法解釋權,但三項法律文件均未真正確立算法解釋權,至多僅僅是“鼓勵使用算法決策系統的機構主動對算法過程和特定決策提供解釋”,而這一鼓勵性要求在該《聲明》中的七項原則中是唯一一項并非“應當”實現的原則?!?8,〕美國算法問責法(草案)中規定了有限的算法解釋權,但這一草案遲遲未能成為正式立法。我國《算法推薦規定》的征求意見稿試圖將優化算法可解釋性和透明度作為一項義務加以規定,但正式生效的版本則將其改為一項鼓勵性的要求。

上述立法實例表明,算法解釋盡管對于算法社會中的權益保障有著不可替代的重要價值,但其作用仍未能完全在法治實踐中得到發揮。目前,國內外多種規制思路及相應法律規范均著眼于通過算法解釋要求研發者履行算法透明義務,〔39,〕如果能夠從制度層面為不同應用場景設定合理的算法解釋方案,能夠保證算法解釋的可靠、可行、可得,算法解釋的權益保障意義將更加彰顯。

(二)社會交往意義

算法解釋在加深技術信任、促進社會和諧方面也有豐富的社會交往意義。涉及個人切身利益的算法決策系統可以被視為某種“技術驅動的規則制定行為”,〔40,〕而人難以遵從其不能理解的規則。〔41,〕人對算法決策的不知情、不理解、不接受,容易引發社會糾紛和矛盾,甚至在某些事件的推動下可能引發與算法決策的群體對抗。對人工智能系統為什么以某種方式工作的解釋有助于消除對人工智能和相關算法應用的誤解,進而建立起社會各界對人工智能產業發展的準確認知和良好信心。〔42,〕在更深層意義上,所謂“算法黑箱”使算法決策的思維基礎抽離于語義世界和交往行為體系之外,割裂了社會交往中連接人與人的主體際性,可能引發深刻的矛盾。我國算法治理實踐已經意識到了這一點,如《算法推薦規定》第12條鼓勵算法推薦服務提供者“優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性”,以達到“避免對用戶產生不良影響,預防和減少爭議糾紛”的目標。算法解釋是增強算法可解釋性和算法透明度要求的重要基礎,即便算法解釋結果不能直接地被所有受眾理解,只要能使接受過良好教育的非專業受眾理解,在算法應用相關公共利益和個體權益足夠重要時,從專業群體到普羅大眾的多級社會傳播機制也有助于擴展算法解釋相關知識和結論的理解范圍,〔43%〕進而提升社會對相關算法的認知、理解和共識。

算法解釋不僅能提升人對算法及其合理應用的接受度,更有助于彌合“數字鴻溝”。就社會內部不同群體之間的“數字鴻溝”而言,這一理論最初包含“接入溝”與“使用溝”的區分,其后,學者又將1970年的“知識溝”學說也引入“數字鴻溝”理論之中。“知識溝”的形成取決于交往技能、知識基礎及社會關系等要素,〔44%〕信息供給上的差異、信息使用上的差別以及不同的信息接收策略都可能導致“知識溝”的出現或加深?!?5%〕“知識溝”意味著獲取信息的能力和結果上的不平等,最終會導致在社會中產生一種信息危機,形成信息落差、知識分割、貧富分化等深層后果?!?6+〕算法解釋具備彌合“數字鴻溝”的力量,因為不同路徑和精度的算法解釋有助于使不具備算法相關知識的公眾對算法設計的邏輯及決定算法判斷結果的因素建立比較直觀的認識,進而一定程度上彌合信息差與“知識溝”。

(三)風險治理意義

算法解釋之所以成為算法治理研究者日益關注的中心議題之一,離不開算法解釋的風險治理意義。在最根本的層面上,為人工智能提供解釋有兩個層面的正當性理據:內在主義層面關注受影響的人的權利,因為算法解釋尊重了一個人對自由意志和自我控制的需求;工具主義層面則關注算法的可解釋性(亦包括算法解釋本身)作為改進人工智能并糾正其錯誤的工具?!?7%〕由此,算法解釋可以成為一種貫通主觀與客觀需求的風險治理機制。早在2019年,歐盟《算法問責及透明度監管框架》就反復強調算法解釋的重要性,并注意到了算法解釋的風險治理意義。2023年美國國家標準與技術研究院發布的《人工智能風險管理框架》,更不僅專門設置可解釋性要求,還將一個算法模型是否得到有效解釋作為風險測量依據之一。〔48%〕

整體上,算法解釋可以在三個層面上防御、消減和規制算法風險:首先,算法解釋有助于凸顯算法決策的邏輯和影響因素,為用戶、相對人和監管者識別、規避或控制算法風險提供必要信息,甚至大幅增加風險預防時間和能力、大幅縮短規制距離及降低監管成本;其次,算法解釋有助于向外界傳遞算法模型中包含的關鍵有用信息,不僅有利于外部專業人士及時判斷和發現潛藏風險,更有利于算法應用運營者和專業第三方發現真實的算法決策邏輯及效果,促使其及時推動算法模型的糾偏與完善;最后,算法解釋有助于加強算法問責,通過量化和反事實的解釋,算法決策的責任存否及歸屬問題可以得到比較清晰的認識,進而通過精準到位的問責倒逼相關方強化算法風險的防御和應對機制。對于應用算法的政府活動而言,算法解釋還有助于遏制濫用公權力之風險,使借助人工智能算法的政府決策與行政行為接受更充分的監督。在美國的一些案件中,算法解釋的缺失被視為違反正當程序的要求,行政機關因此而需要承擔法律責任;行政機關盲目依賴算法系統的判斷造成醫療補助接受者的家庭護理時間被無端大幅削減等危害后果,也因此而為司法裁判所糾正?!?9#〕

算法解釋的風險治理意義,關鍵在于算法解釋一定程度上消減了“算法黑箱”所造成的信息差,為多方主體提供必要的基礎性信息,從而消減不確定性。只要掌握了一定程度的信息,基于信息論的研究,不確定性可以通過多種途徑被度量和約簡,從而使治理主體能夠在不確定性條件下獲得最優的規制策略或治理方案。〔50#〕

算法解釋的三重意義使其在算法治理中占據不可替代的基礎性地位。然而,法律人關心的是算法解釋如何能夠被建構為一種預期明確、行之有效的制度,使之嵌入一定法律關系框架中,確保其權益保障、社會交往及風險治理意義得到穩定、充分實現。制度是人類設計出來的、用以形塑人們相互交往的一系列約束,界定并限制了人們的選擇集合,能減少社會生活的不確定性?!?1#〕

三、算法解釋何從實現:算法解釋的主要實現路徑與場景適配

迄今為止,人類對算法解釋路徑的探索已經發現了多種能夠一定程度上揭示算法決策機理的方式。盡管還沒有一種方式能夠精確衡量人類在這方面的理解度,〔52#〕也難以為算法解釋建立統一的評價與審查機制,但卻也使算法解釋可以靈活、開放地嘗試更豐富的思路和方法。整體上,算法解釋研究業已探索出花樣繁多的技術路線和實施方案,有助于算法解釋的場景化、制度化實現。

(一)算法解釋的主要實現路徑

算法解釋的基本路徑可以在最寬泛的含義上劃分為兩種:一是基于算法模型本身的邏輯,提供不能通過數值計量精確驗證的圖文說明;二是提供對“輸入———輸出”之間相關關系或因果關系的量化描述。我們不妨將有具體技術路線、可以量化準確性及精確度的解釋稱為“硬解釋”,將僅提供難以精細量化及評估的圖文說明稱為“軟解釋”。兩類解釋的內容與方法顯然不同,適用場景亦顯然有別。

1.硬解釋

“硬解釋”要求能對輸入與輸出之間的關系提供量化的分析結果,此種結果可以為風險治理與權益保障提供比較精確的證據或決策參考依據。由于某一輸入變量對輸出結果的影響可能是強烈非線性的,特定輸入變量對輸出結果的影響程度可以允許用某種統計數值(如平均值)、區間(如上下界)或粗顆粒指標(如影響力等級)表示。

在“硬解釋”的范圍內,盡管發展歷程不長,算法解釋的技術路線已經相當豐富。例如,基于可闡釋解釋器的研究,算法解釋的主要方案包括決策樹(Decision# Tree,DT)、決策規則集(Decion#Rules,DR)、特征重要性(Features8 Importance,FI)、顯著性掩碼(Saliency#Mask,SM)、敏感性分析(Sensitivity8Analysis,SA)、局部依賴圖、原型選擇(Prototype8 Selection,PS)及激活最大化(Activation8Maximization,AM)等幾種?!?38〕不同解釋方案的基本路徑歸根到底是兩種機制的組合:一種是轉述,即使用可解釋性更強的模型及方式(如規則化模型和可視化方式等)近似地表述原模型的“輸入———輸出”間關系,如DT、DR、PS均包含通過系列規則或典型實例之類能使人類更容易理解方式的轉述; 另一種是干擾,即通過對輸入變量的人為控制和調整,發現不同輸入對輸出的影響方式與程度,如SA、AM均包含對輸入變量的調整策略。各種解釋方案基本上都是兩種基本工作機制不同程度結合的結果。值得注意的是,干擾(干預)也是因果發現的基本進路之一,〔54#〕在解釋大型算法模型時,即便僅靠對輸入變量的干擾很難還原算法決策的整個因果關系,但對于算法中每一個特定的分類結果解釋而言,通過干擾的手段卻完全可以在輸入與分類結果之間建立對其歸因情況的認識,〔55#〕還可以進一步由此提供量化的算法透明度報告。

在林林總總的“硬解釋”路徑中,一些技術路線越來越顯示出特殊的重要價值。以沙普利值方法為例, 該方法能夠清晰顯示每一輸入變量對任意輸出二元分類結果的影響方向及程度(量化貢獻度)。沙普利值方法與其他FI、SA路線的算法解釋方法的不同之處在于,它是能夠無偏地滿足線性可加、冗員性、對稱性和效能性四個良好性質的貢獻量化指標,〔56#〕這使得它能夠全面、確定、可靠、有效地揭示全部輸入變量對輸出結果的量化貢獻,盡管其計算成本暫時相對較高,〔57#〕亦已成為理論和實踐密切關注的關鍵解釋方法。未來可以滿足這些性質或類似標準的“硬解釋”方法將有機會在關鍵場景發揮決定性作用。

2.軟解釋

“軟解釋”在具體表述形式和詳略程度方面有相當高的自由度,主要是致力于實現算法解釋的社會交往意義,兼顧權益保障和風險治理需求。“軟解釋”可以在不需要精確計算的權益保障場景下,通過更為生動、形象的解說方式,面向不具備專業知識和能力的相對人、用戶或公眾說明其關心的問題,尤其有利于針對個體的特點進行通俗易懂的個性化解釋。對基于關系溝通的立場、以信任原則為基礎的算法解釋權行使場景而言,〔58#〕“軟解釋”更是必不可少的。2021年9月,美團通過圖文說明的方式,披露了騎手配送時間的計算規則,闡述了預估送達時間背后的算法邏輯,〔591〕就是一個典型的“軟解釋”實踐。對于許多缺乏專業知識和數理思維的用戶或相對人,“軟解釋”有時更加靈活和實用。

不僅如此,“軟解釋”還可以和“硬解釋”相結合,在“硬解釋”提供的相關關系或因果關系結構及數值基礎上進行比較深入的說明和講解?!败浗忉尅辈⒉槐厝慌懦鈱ο嚓P數值的表述,不過,為保證算法解釋的有效性,法律規范也應對“軟解釋”提出基礎性的要求。

(二)算法解釋路徑的選擇

人工智能算法及其應用的多樣性極為豐富,不同場景對算法性能和特點的要求差別巨大,因此算法解釋的路徑選擇也應當基于算法規制的場景化規制原理而具體確定?!?0#〕自靜態的權益保障視角觀之,在涉及重大公共利益或個體生命權、健康權、人格權、個人敏感信息等重要法益的關鍵場景,算法解釋顯然應當盡可能保證精度和時效性;自動態的權益保障視角觀之,在發生法律糾紛或爭議的場景中,算法解釋應能在一般化的闡釋和說明之外,針對爭議點作出專門回應。因此,算法解釋路徑的選擇至少需要區分三種場景,不妨命名為“常規場景”“關鍵場景”和“爭議場景”,分別適用不同的算法解釋路徑。

1.常規場景

在并不涉及重大公共利益或個體重大法益,也不存在法律糾紛的常規場景中,算法解釋只需要滿足基礎性的知情需求即可,此時應當允許算法應用運營者自行選擇算法解釋路徑。即便解釋者提供了相對充分的算法解釋,普通人也極少愿意花時間和精力去了解,因此并無必要設置過高的規制負擔?!?1#〕英國信息專員辦公室和艾倫·圖靈研究所共同編制的《人工智能決策解釋》(Explaining#Decisions#Made#with#AI)中列舉的算法解釋類型中,第一種類型“原理解釋”就僅僅要求“以可訪問、非技術性的方式說明人工智能作出決策的理由”。〔62#〕蓋因在常規場景中,算法解釋的社會交往意義更為突出,只要普通人能夠了解算法決策的基本思路即可滿足要求。在常規場景中,“軟解釋”甚至可以是主要的算法解釋路徑,因為算法的解釋技術和解釋效果之間存在間隙,還需綜合考慮用戶的能力以實現最佳溝通效果,〔63#〕“軟解釋”所包含的文字說明乃至圖示等在此可以發揮良好作用。近年來,域外大型互聯網平臺如亞馬遜、谷歌、YouTube、Uber等在其隱私政策中包含一定程度的算法披露,基本上可被視為在常規場景中提供“軟解釋”的實踐,〔64#〕類似機制亦可在國內的算法治理中應用。

2.關鍵場景

在涉及重大公共利益或個體重大權益保障的關鍵場景中,數值化的信息無論對于權益保障還是風險治理目標的實現都有舉足輕重的價值,因此應當要求算法應用運營者盡可能提供“硬解釋”。如果算法不太復雜,一些更為簡潔的“硬解釋”也是可接受的,例如歐盟2019年通過的《提升網絡中介服務商業用戶公平性與透明度規定》(EU#2019/1150)第5條規定“網絡中介服務的提供者應在其條款和條件中規定決定排名的主要參數,以及這些主要參數相對于其他參數的相對重要性的原因”,如果商戶的直接或間接付費可能影響排名,則還需要根據這些參數“說明這些可能性以及此類報酬對排名的影響”。此種“硬解釋”也是目前國外算法披露實踐的重要構成部分,致力于保護平臺商戶或用戶的合法權益。〔65#〕只要解釋結果能夠確切地包含法律規范所關注的因果關系或相關關系,解釋者在具體解釋方法的選擇上應有合理的自主決定空間。

3.爭議場景

在涉及法律糾紛或爭議的場景中,算法解釋必須能夠針對爭議個案的關鍵因素提供翔實、清晰的解釋。此種解釋應當滿足法律救濟的需求,即能夠對算法模型輸出的某種結果是否由某一因素所導致提供有足夠置信度的證明。即便由于技術所限,暫時無法產生足夠的證明力,也應當能夠使其具備作為證據的條件。對此,算法解釋應當指向特定的因果關系,要求算法應用運營者提供針對爭議事實的反事實解釋則是目前最為直觀的選擇。反事實解釋試圖發現對輸入變量作何種改變能夠獲得特定輸出結果,并且還不需要打開“算法黑箱”從而沒有導致數據泄露的風險?!?6#〕一些國家的律師已經非常熟悉在民事訴訟中運用反事實解釋構建因果證明,而澳大利亞的監管機構和法院已由此種路徑深入分析人工智能信息工具的算法細節以保護消費者權益?!?7#〕在引人注目的澳大利亞競爭與消費者委員會訴優棧案中,包括PDP、ALE(Accumulated#Local#Effect,累積局部效應)和反事實解釋等方法均被用于探討優棧公司的算法考慮各種因素的優先性和影響力,而包括反事實解釋在內的算法解釋方法為法院認定優棧公司的算法誤導消費者提供了堅實的依據?!?8#〕

要求解釋者提供此種反事實解釋并不排斥其可同時提供其他類型的算法解釋,各種算法解釋可以相互印證,為糾紛解決提供充分的事實根據,但反事實解釋應屬其中的必選項。尤其是在當事人對某一關鍵變量的作用提出質疑的權益救濟場景中,此種反事實解釋可以清晰表明此種變量的改變在多大程度上能實質性地影響算法模型的輸出結果,〔69#〕從而更加堅實地表明算法模型中是否包含了不適當的考量。

目前,多種算法解釋方案在技術和實踐層面正不斷走向成熟,算法解釋逐漸具備作為人工智能算法應用運營者之法律義務的現實基礎。然而,算法解釋的實際效果和作用可能備受質疑,“因為算法本身不斷學習、不斷變化,在算法披露的那一刻過后,披露的算法就已經過時”?!?0#〕更多的挑戰或已接踵而至:形成算法解釋以后,面對不斷迭代和調整的算法模型,算法解釋會不會迅速失效?如何避免“濫竽充數”的算法解釋? 面對大型乃至超大型算法模型,如何在有限的時間和技術條件下確定算法解釋是否準確?只有解決這些問題,才能確保算法解釋真實、有效,在算法治理中發揮基礎性的作用。

四、算法解釋如何保真:算法解釋的固定、驗證與審查

為解決前述系列挑戰,算法解釋至少應有三重配套機制:第一,由于機器學習算法的相關代碼往往處于不斷進化、迭代和修改等變動過程之中,為避免作出解釋后馬上修改算法模型而使解釋失去意義,應當規定算法解釋作出后一定時間內的固定機制,便于驗證和固定證據;第二,為判斷算法解釋是否真實、準確,在某些對于權益保障有精確計量需求的場景下,應當引入算法驗證機制;第三,基于監管問責和權益救濟的需要,對于算法解釋引致相關損害或引發爭議的,應當建立公正、專業的審查機制。對于在權益保障和風險治理(尤其是算法問責)中起到關鍵作用的“硬解釋”而言,這些機制尤其不可或缺。

(一)算法解釋的固定

代碼和參數的持續變動始終是算法解釋的難題,算法解釋很容易陷入“刻舟求劍”的困境?!?1#〕必須使算法解釋能夠以某種方式被固定, 才能避免剛解釋就失效乃至臨時修改算法以捏造解釋的問題。技術上,可以固定算法解釋的主要方案有三:一是規定作出算法解釋后一定時間內凍結算法的迭代演化和人為修改;二是規定作出算法解釋時須采取一定的技術措施,封存或完整提供算法模型(含主要參數)的鏡像;三是提供足夠豐富的參數樣本且采取保真措施,供監管者和用戶對算法模型在一定時間截面內的運行情況進行驗證。

1.凍結機制

對于不涉及公民重要權益保障的算法模型(如休閑娛樂內容的算法推薦), 如需要進行算法解釋,可以要求算法應用運營者在提出解釋后一定時間內限制(凍結)模型的改動和參數的變化,使用戶、相對人或監管方有時間進行有效的算法驗證操作。當然,在技術條件允許的情況下,可以對開放式的大型語言模型等不便完全凍結的算法模型實行更為靈活的“弱凍結機制”,即不是完全禁止算法模型和參數的變化,但算法模型和參數的變動幅度不能達到影響相應精度之算法解釋的程度。

對于通過凍結機制固定的算法模型,無論是解釋本身不實,還是解釋后因擅自修改算法模型導致解釋不對應原始的真實模型,都應當同等承擔算法解釋失實的法律責任。為更嚴謹地區分這兩類解釋失實的原因,也可以依托技術性正當程序理論中強調的完整留存“審計軌跡”(audit-trail)之類的規則,〔72#〕要求算法應用運營者留存作出算法解釋前直至規定凍結時間結束的完整審計軌跡或系統操作流水記錄,確保算法應用運營者如實履行義務。

2.鏡像機制

對于需要頻繁修改和迭代但體量不大的算法模型,可以要求算法應用運營者提供作出算法解釋之時算法模型的鏡像以供監管機構審查;在不涉及商業秘密保護或公平競爭風險的情況下,也可以開放給用戶或相對人以接受驗證。這一鏡像應當真實、完整地包含算法模型的所有代碼和參數。對于成熟的人工智能企業而言,備份算法模型鏡像是必備的基礎能力之一,對于實現容器化的云平臺而言,訓練過程所需的框架、工具庫和依賴庫也都可以集成到鏡像環境中?!?3&〕因此要求企業提供鏡像盡管可能增加企業的規制負擔,但亦屬基本可行。

算法模型鏡像的提供有助于深入和精確地驗證算法解釋的準確性,但算法應用運營者提供鏡像后,在算法和數據方面的商業秘密面臨顯著風險。對此,除強調監管部門的保密義務外,還可以采取技術保護措施, 在確保數據安全的環境中自行或委托可信第三方保存算法模型鏡像并開放驗證接口,保證商業秘密不受侵犯。

3.抽樣機制

解釋者如不方便提供鏡像,也可以按相關標準或規范的要求,由專業機構或監管者在不干擾算法模型運行前提下持續征集、采集和留存一定數量的真實輸入輸出樣本,并在算法解釋作出后核驗相關時段樣本,檢驗算法解釋是否真實有效。如果樣本中輸入輸出之間的關系分布明顯偏離算法解釋所提供的量化貢獻影響,或者改變特定輸入變量所觀察到的輸出結果變化總體情況與反事實解釋不符,就可以認為算法解釋存在真實性或準確性問題。更加確切的判斷結論可以由算法審計機制提供。

抽樣機制操作成本低,但技術難度較高。如果樣本采集量較大,采樣過程中算法模型可能發生修改和迭代,則應當考慮小幅調整算法解釋的精度要求,使之能夠容納一定時段內算法模型及參數的微小變化,或者結合前文提及的“弱凍結機制”,保證樣本采集的有效性。面對豐富多樣的算法模型,如何基于盡可能小的數據采集量,對算法解釋的真實性和準確性作出精準判斷,需要精深的統計學研究支持,這是一項非常專業且前沿的挑戰。

(二)算法解釋的驗證與審查

算法解釋一旦被有效固定,用戶、相對人、利害關系人乃至公眾就可以在一定條件下對算法解釋進行驗證,負有監管或救濟職責的機關則可以對算法解釋進行審查。

1.算法解釋的驗證

對于實質性影響用戶/相對人重要權益或社會公共利益的人工智能算法應用及其解釋,理論上應當允許當事人、利益相關方或社會公眾驗證算法解釋的真實性和準確性。然而,有觀點擔心解釋算法可能會導致商業秘密和技術秘密的泄露,〔74&〕為保護商業秘密和競爭法益,可以利用前述“安全環境+開放驗證接口”的方式或其他類似方法構建可信驗證流程,使相關主體在不接觸源代碼及參數的情況下有條件進行驗證。不過,即便如此,算法解釋的驗證也面臨“模型竊取”的風險:攻擊者通過觀察輸入與輸出之間的關系,可以訓練影子模型(shadow#model)模擬目標算法模型的性能,進而獲取目標算法模型的關鍵參數或超參數,從而完成對算法模型的竊取,甚至倒推其中的部分原始訓練數據。〔75&〕對此,算法驗證的實施仍需謹慎,可以規定部分限制措施,例如推行實名制、限制操作次數、保留操作記錄的驗證機制,防止惡意競爭對手利用算法驗證的機會實施模型竊取或其他惡意攻擊行為。

2.算法解釋的審查

算法解釋的審查要求相當強的專業性,審查者必須對人工智能算法知識及統計學原理有比較深入的了解。在行政監管和向上級主管部門提出申請的行政復議案件中,網信、公安、工信等監管機構通常應當有專業工作人員承擔算法解釋審查相關工作;在涉及算法解釋審查的復議和訴訟中,應當探索借助行政復議中的專家咨詢制度和專家陪審員機制發揮作用,例如引入可以承擔審查職責的專業人士,經過嚴格篩選后進入特定的專業子庫以供抽選,〔76%〕通過陪審和合議等制度發揮作用。

算法解釋的審查要點應當因算法解釋路徑不同而異。對于不包含算法模型相關數值的“軟解釋”,由于其難以提供細顆粒度的解釋結果且缺乏較為精確的衡量尺度,審查者只要判斷其是否符合算法解釋的基礎性要求即可,重點是審查其內容是否與算法設計的實際邏輯相一致,有無虛假或夸大陳述,能否有效消除一般相對人或用戶的懷疑、增強相對人或用戶的信任。對于包含數值的“軟解釋”以及各種“硬解釋”,則需要有一定的標準和規范指引算法審查的進行。相關審查一般需要算法決策翔實數據的支持。例如在美國,廣泛使用的申請人跟蹤系統(applicant%tracking%system,%ATS)及類似工具為算法雇傭決策下的合規審計追蹤提供了支持, 公司借助ATS可以依法獲取求職者一系列身份和行為數據并依此作出決策、接受合規審計等外部審查,在算法決策過程中全程記錄的相關數據對于向審查者證明不存在歧視情形起到關鍵作用?!?78〕由于算法解釋路徑和方法較為豐富,相關的標準和規范也應當包含多元化的規則及指標, 采取類似于《人工智能算法金融應用評價規范》(JR/T%0221-2021)第7部分的設計,根據算法模型的不同種類,提供廣泛覆蓋現有技術路線的可選規則?!?88〕惟有當相關標準或技術性規范確立了各種主要解釋方法的審查要點及解釋符合度指標,對算法解釋的審查才能真正實現有據可依、預期清晰、令人信服。

五、構筑算法解釋制度:算法解釋機制的體系化整合

算法解釋的路徑選擇、固定、驗證與審查等機制的建立,不僅有助于實現算法解釋的三重意義,還可以使算法解釋成為算法治理的樞紐,構建體系化的算法解釋制度,有力支撐算法備案審查、算法影響評估、算法審計、算法問責等其他算法治理制度的運行。

(一)算法解釋制度的基本構造

算法解釋制度以算法解釋的技術原理為基礎,通過算法解釋權和算法解釋義務嵌入法律關系之中,將《算法推薦規定》等既有法律規范中的算法可解釋性和透明度要求整合為算法模型設計和運行的標準,使之通過算法解釋義務的適當履行而得以實現。算法應用運營者履行算法解釋義務應符合法律規定的內容與相關技術標準之要求,作出解釋后,部分情況下須通過凍結、抽樣或鏡像機制使算法解釋得到固定,進而接受基于算法解釋權或算法解釋義務的驗證與審查。

首先,此種制度可以充實算法解釋權和算法解釋義務的內容,使其根據不同場景聯結于不同的標準和要求,建立明確的、有層次的規范預期。算法解釋權和算法解釋義務并不必然需要完全對應,對于部分涉及重大公共利益的算法應用,即便法律規范未賦予用戶算法解釋權,也可以徑行賦予算法應用運營者以算法解釋義務。當算法解釋權發動時,解釋義務的履行原則上不需要向用戶詳細講解系統的整體技術架構和運作細節,而是主要提供與用戶或相對人利益密切相關的內容,但解釋者愿意主動作出更豐富或更深入解釋說明的亦應為法所容許乃至鼓勵?!?98〕

其次,此種制度可以連結優化算法可解釋性和算法透明度之要求,并使這兩種要求各展所能。算法可解釋性是算法模型的客觀屬性,即某一算法在技術架構上是否具備了作算法解釋的條件;算法透明度則是算法運行結果與主觀預期的關系,即對某一算法應用所作的解釋說明在多大程度上能夠展現算法決策的內在邏輯以及特定因素在算法中的實際影響力,使用戶對算法運行的原理與結果建立明確的認識與穩定的預期?!?0#〕顯然,算法透明度要求通過算法解釋即可實現,因而其可直接與不同精度的算法解釋標準相聯結,面向用戶、相對人或公眾發揮作用;算法可解釋性要求則可以指引算法應用運營者采取便于履行算法解釋義務的算法設計方案, 在更靠前的算法治理階段發揮引導作用。當然,算法透明度要求或算法透明原則的落實還應輔之以算法影響評估等事后規制手段,〔81#〕而精準可靠的算法解釋對于算法影響評估也可以起到重要的參考作用。

再次,此種制度有助于明確算法責任。其一,體系化的算法解釋制度有助于確定算法解釋責任,評判算法應用運營者是否準確、完整、及時地按照相應要求和標準提供算法解釋,是否履行了數據和算法治理方面的合規義務。其二,如果錯誤的算法解釋有可能被用戶、相對人或公眾信賴而導致其遭受損害,此種制度中包含的固定、驗證和審查機制還有助于評估算法解釋如何以及多大程度上導致了損害、是否具有相應的主觀過錯,進而確定算法解釋者所承擔的責任。其三,算法解釋還可以在許多場合幫助行政和司法機關判斷算法致害的歸因情況、責任歸屬及分配問題。

最后,此種體系化的算法解釋制度還有助于支撐算法備案審查、算法影響評估、算法審計等其他算法治理制度的運行。其一,此種制度可以使部分重要算法模型在備案時同步提供算法解釋成為可能,強化算法備案審查的深度和實效。其二,合乎一定標準且有證據支持的算法解釋結果對于評估算法的實際影響而言非常有利,伴隨算法解釋的驗證報告可以成為算法影響評估結果的主要依據。其三,算法解釋和驗證可以一定程度上為算法審計提供便利,例如算法驗證的入口可以為審計方法中的“抓取審計”“馬甲審計”和“協作式審計”等開啟通道,〔82#〕尤其是有利于第三方審計的進行。

(二)算法解釋制度的價值平衡要素

1.解釋路徑與精度

算法解釋路徑與精度是算法解釋制度中平衡規制負擔和規制收益的最重要因素。算法解釋的路徑不僅需要包括“軟解釋”與“硬解釋”,還需要充分關注“軟”“硬”解釋的中間路徑。易言之,“軟解釋”與“硬解釋”之間可以存在一個過渡性的譜系。不同場景中,當事人權益保障的精確計量需求越高,算法解釋就應當越趨向于“硬解釋”,反之,就可以更多地趨向于“軟解釋”。

這個過渡性的譜系可以體現為“硬解釋”的“相對軟化”:如果難以精確獲得輸入變量對輸出結果的影響權重或貢獻度,或者擔心提供此種解釋會泄露算法模型中隱含的商業秘密,就應當允許解釋者引入權重區間或權重等級的方式,放寬量化貢獻表示的精度。例如,對信貸額度評估算法模型的輸出結果,假設在各種影響因素中,學歷因素的影響為0.231、收入因素的影響為0.889,那么就既可以將學歷因素的影響表述為0.2-0.3、將收入因素的影響表述為0.8-0.9,也可以將學歷因素標記為“2星”影響因子、將收入的重要程度標記為“4星半”影響因子等。這樣既不容易導致算法模型被專業攻擊者通過推理破解,也使得企業形成和維護算法解釋變得相對簡便和穩定。采取“相對軟化”解釋時,算法解釋的精度可以根據權益保障需求動態調整,在用戶或相對人的知情權、理解權或正當程序權利越重要的場景中,算法解釋的精度就越需要提升。

2.解釋時限

由于算法模型處于不斷迭代和演化之中,算法解釋必須及時提供,時滯越長,解釋失真而產生誤導風險的可能性越大。伴隨算法模型調整的實時解釋固然是最優選項,但并非所有業態中的算法模型都有條件實現實時解釋,尤其是算法模型的非凸性(不能通過局部最優解獲得全局最優解)限制了算法解釋的速度?!?37〕在算法解釋固定機制的輔助下,可以考慮“變動解釋”和“定期解釋”二者擇一的制度設計,由算法應用運營者自行選擇算法解釋時效保證方案:既可以選擇每次算法模型變動后同步提供算法解釋,也可以選擇定期解釋,解釋頻率的確定則取決于算法解釋時效性與公共利益及個體權益的相關程度。在法律設置算法解釋請求權的前提下,解釋時限的設置則應首先考慮權益保障需求,要求解釋者建立在較短時限內完成算法解釋的技術機制。

3.解釋瑕疵責任

算法解釋如果出現缺漏、偏差或錯誤,一定程度上設置解釋瑕疵責任是必要的。對于公權力主體而言,法律應當設置相應的補救乃至賠償機制。由于公眾存在特殊信賴,解釋瑕疵如果足以導致相對人基于誤信而采取錯誤選擇、引致合法權益的損失,公權力主體應承擔與信賴利益相稱的補救或賠償責任。對于市場主體而言,對產品或服務的解釋瑕疵可能涉及對消費者知情權的侵害,在構成警示瑕疵時可以適用產品責任規則;尤其是明知算法系統存在缺陷與風險而未告知的,應承擔懲罰性賠償責任。〔847〕其他情況下,應區分算法解釋是否可以被算法應用運營者與用戶締結的合同涵蓋、是否侵害用戶合法權益,根據具體情況分別適用合同法或侵權法之責任形式。

算法解釋制度的運行必然對算法應用運營者造成一定的規制負擔,目前的技術發展仍然難以兼顧模型的預測性能和自動化決策過程結果的全面留痕及可解釋性,部分情形下追求算法解釋的程度越高則模型的性能越差。〔857〕如果解釋瑕疵責任過輕,則算法應用運營者可能寧愿承受懲罰而避免充分履行解釋義務;責任設置過重,則又將降低算法性能、增加規制成本,甚至產生“寒蟬效應”,妨礙市場主體積極開發和利用創新的、前沿的復雜算法模型。輕重兩端之間的平衡點,應當取決于具體算法解釋場景中公共利益和個體權益保障的重要性,使解釋瑕疵責任顯著高于規制負擔而又符合比例原則之要求。

本文系2022年度國家社會科學基金一般項目“算法解釋制度的體系化構建研究”(項目批準號:22BFX016)的階段性研究成果。

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網絡搜索數據的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數據分析研究
基于Spark的大數據計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統
基于圖的半監督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 在线视频亚洲欧美| a毛片免费观看| 天天摸天天操免费播放小视频| 天堂久久久久久中文字幕| 国产日韩AV高潮在线| 久久综合九九亚洲一区| 免费可以看的无遮挡av无码 | 97久久人人超碰国产精品| 97精品国产高清久久久久蜜芽| 国产精品久久久久久久伊一| 精品无码国产一区二区三区AV| 免费无码网站| 夜夜高潮夜夜爽国产伦精品| 草草影院国产第一页| 国产又爽又黄无遮挡免费观看| P尤物久久99国产综合精品| 激情无码字幕综合| 久久一本日韩精品中文字幕屁孩| 国产精品亚洲一区二区在线观看| 色综合激情网| 宅男噜噜噜66国产在线观看| 波多野结衣视频一区二区| 欧美午夜在线播放| 成人福利在线免费观看| yjizz视频最新网站在线| 日本免费一区视频| 久青草免费在线视频| 97视频免费在线观看| 成人在线亚洲| 成人a免费α片在线视频网站| 国产乱子伦手机在线| 中文字幕2区| 免费看a级毛片| 亚洲午夜久久久精品电影院| 永久免费精品视频| 99久久成人国产精品免费| 国产色图在线观看| 小说 亚洲 无码 精品| 日韩福利在线观看| 国精品91人妻无码一区二区三区| 黄色免费在线网址| 国产精品久久久久久久久kt| 国产精品丝袜视频| 亚洲无码高清一区| 美女免费黄网站| 伊人婷婷色香五月综合缴缴情| 啪啪免费视频一区二区| 国产亚洲视频在线观看| 在线欧美a| 综合天天色| 日韩欧美中文字幕在线韩免费 | 日本高清在线看免费观看| 日韩在线2020专区| 另类综合视频| 五月天综合网亚洲综合天堂网| 91在线无码精品秘九色APP | 国产91高清视频| 九色视频线上播放| 国产91九色在线播放| 热思思久久免费视频| 不卡无码h在线观看| 91成人在线免费视频| 97亚洲色综久久精品| 九九热在线视频| 超碰免费91| 国产精品久久久精品三级| 色综合久久88| 五月婷婷综合网| 中文无码精品a∨在线观看| 国产喷水视频| 67194亚洲无码| 91青草视频| 爱爱影院18禁免费| 成年女人a毛片免费视频| 麻豆精品国产自产在线| 97视频免费在线观看| 国产成人高精品免费视频| 在线观看无码a∨| 性欧美久久| 精品国产网| 久久精品丝袜| 精品国产91爱|