999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法解釋權的法理反思與賦權限制

2025-09-15 00:00:00梁晉鋮
科技與法律 2025年4期

中圖分類號:D923.4 文獻標志碼:A 文章編號:2096-9783(2025)04-0056-10

一、問題的提出

在數智化社會,信息分發與行為安排以后設機制作為運作核心,而后設機制主要表現為算法決策,并浸潤且散射在人類社會各個方面。“社會關系是基于數智化后設機制而展開的,所以傳統的‘人一人'關系模式將為‘人一技術—人'關系模式所替代。[\"人們身處數智化浪潮中,在享受算法便利的同時,切身感受到算法蘊含的風險。因此,需要通過法律規制、權利賦能、監管治理等方式,緩解算法發展與權利保障之間的緊張關系。

由于復雜的世界被轉化為簡單化、模糊化的算法代碼,算法視角中的世界與真實世界相去甚遠,“使得算法難以對真實世界作出完整反應,由于難以避免的內在與外在的系統缺陷,造成算法決策損害。[2\"算法不是必然正確的,算法損害打破了算法無所不能的神話,算法可錯、會錯意味著算法可能會導致人們合法權益的減損。例如,2018年美國紐約暫停適用防止家庭暴力的兒童保護預測算法,因為該算法僅通過數據分析便認為部分家長可能存在“嚴重家暴傾向”,導致部分父母與其子女被迫分離。

算法解釋權充當維護算法個體主體性地位的首道屏障。“人類決策者往往會過于強調自動化決策的客觀性,進而依賴甚或盲目遵從這一所謂的‘決策權威’,直至放棄自己本應承當的審查責任。[3\"算法解釋權賦予算法相對人質疑的權利,具言之,若算法相對人認為算法侵害其合法權益,算法解釋義務者借助算法解釋技術作出的解釋,幫助算法相對人搭建“侵害事實一損害結果”的因果關系,繼而要求相關主體補償或賠償其損害。

算法解釋技術補強算法解釋權。算法解釋技術是算法治理體系的技術運行基礎,同樣也是算法解釋權實現的技術基礎。以對比解釋、功能解釋、特征解釋與反事實解釋為代表的算法解釋技術,可以填補過去欠缺的算法解釋技術,并能補全算法相對人的算法解釋能力。算法解釋技術“以符合人類思維的認知圖式反過來‘再逼近'算法模型的某一時刻所呈現的狀態,從而對算法模型得到運行建立一定預期的活動。[4\"當然,算法解釋技術尚未完善到能夠解釋所有的算法,也不能適用所有的算法決策場景。但是,算法解釋技術還是能夠為算法相對人行使算法解釋權提供基礎的技術支持。同時,由于算法相對人與算法監管機構對算法解釋的要求、目的不同,算法相對人傾向于算法可理解,而算法監管機構更傾向于算法可解釋。具言之,算法可解釋是指可以通過算法提取數據中包含的相關知識。算法可解釋側重技術標準,譬如要求算法設計者與算法部署者在設計過程中增加可解釋的訓練目標,在部署過程中預留解釋端口等,而算法可理解是指向用戶告知有關算法決策運行的有意義的信息,算法可理解側重用戶心理,不同的算法解釋方式會影響用戶對算法解釋內容的可理解程度,但解釋內容需簡要、日常且有意義。

隨著理論與技術逐漸成熟,算法解釋權的入法之路逐漸迫近。雖然歐盟《通用數據保護條例》(GDPR)與《中華人民共和國個人信息保護法》都未賦予算法相對人以算法解釋權。但在2024年歐盟《人工智能法案》第86條中,明確賦予算法相對人在規定情形下,可以向相關主體主張算法解釋權。并且,我國在《人工智能法(專家建議稿)》中也將算法解釋權納入其中。在可預見的未來,法律將明文規定的算法相對人享有算法解釋權。

但目前,算法解釋權仍存在兩個問題:一是,在對算法解釋權討論過程中,產生不少的理論框架,但并非所有的理論都適配算法解釋權,部分理論距離算法解釋權太高、太遠,所以需要將這部分理論轉化為適合算法解釋權的理論形式,其中一些理論則屬于算法解釋權的附隨理論,不能將之視作基本理論。二是,僅憑算法相對人行使算法解釋權,難以有效維護算法相對人的算法權益。需要在認清個人難以控制信息自由的基礎上,以“全體一公性\"補充“個體一私性”。首先,厘清算法解釋義務的承擔主體、義務范圍,堅實算法解釋權的行為支撐。同時,通過算法監管機構切實履行算法監管職責,保障算法相對人的算法權益。其次,脫離算法解釋技術的支撐,算法解釋權不過是紙面權利,需要在與算法解釋技術的動態匹配中,形成規定一技術合力。最后,算法解釋權需要在與算法知識產權的聯系中,尋找合理的界分范圍。

二、算法解釋權的理論選擇

我們需要為算法解釋權提供一條可行的演進路徑,以期選擇適合算法解釋權的理論。一是,情況知悉傾向于告知信息,而因果探求傾向于確定因果,情況知悉更像是算法解釋權施行過程的附隨結論,因而因果探求方是算法解釋權的主要目標。二是,算法透明是算法治理的首要原則與手段,但并不完全適配算法解釋權的適用實踐,算法解釋卻能夠為算法解釋權提供充足的制度供給、恰當的嵌入位置與可行的技術要求。三是,邁向信任是算法治理的終極制度目標,達至理解更像是邁向信任的必要階段,且算法可理解更符合人們的解釋需求、目的。

(一)“情況知悉”與“因果探求”相分離的解釋傾向

從狹義的算法解釋權建構角度而言,并不包括“情況知悉”的內容。算法解釋權的行權時間為事后解釋,即算法相對人在受到算法決策影響后,方能行使算法解釋權。有學者將“情況知悉\"納人算法知情權范疇,“算法知情權屬于傳統上獲取信息事實的知情權體系,是公民知情權在算法決策領域的自然延伸。[5]\"當然,算法知情權是算法解釋權在邏輯上的權利前提與補充,同時算法解釋權的適用前提必然是,算法相對人知悉算法決策的存在與運行,并且知悉算法設計者或部署者的相關信息。算法相對人無法在不知悉算法是否存在與解釋對象相關信息情況下,行使算法解釋權。因此,將“情況知悉\"納入算法解釋權范疇,以此補位算法解釋權在信息告知功能上的不足,符合規范合理性。

算法知情權滿足“情況知悉\"的靜態要求,而算法解釋權滿足“情況知悉”的動態要求。算法知情權析出穩定的信息獲知源頭,卻錯配算法決策的個性化現實。算法知情權只能告知算法相對人有關算法的大致情況,即是否采取算法、算法版本與算法原理等基本信息。這些信息僅能滿足算法相對人“情況知悉”的靜態要求,即知悉算法的存在。

如果要滿足算法相對人“情況知悉”的動態要求,只能通過算法解釋權得以實現。算法相對人在受到算法決策的影響后,通過行使算法解釋權,獲知特定算法決策的運行邏輯、模型結構與決策功能等信息。比如,用戶在使用滴滴出行服務前,通過算法知情權只能獲取滴滴通過算法以實現乘車需求派發與車輛應答,但卻無法獲取滴滴出行服務通過算法派發特定車輛滿足應答要求的具體因由。譬如滴滴派發車輛的算法,究竟基于何種因素,是否根據目標相近、服務評價,抑或車輛歸屬等因素作出派發特定車輛的決策。這些信息只能通過算法相對人行使算法解釋權才能析出,而無法在算法知情權中獲知。

“因果探求”是算法解釋權的主要解釋傾向,而“情況知悉”是“因果探求”的附隨結論。算法相對人并非希望以獲知算法的具體運行邏輯、模型結構或決策功能作為行使算法解釋權的動機與目的,而是希望通過算法解釋權獲知其在算法決策影響下,遭受的侵害事實與損害結果之間是否存在因果關系,即算法相對人受到的侵害事實是否由算法決策導致的。因而,“情況知悉\"不過是算法相對人行使算法解釋權時,為探求因果關系過程中產生的附隨結論。

如歐盟《人工智能法案》第86條規定,當算法相對人認為其受到高風險人工智能系統決策造成的不利影響,有權向部署者要求獲得解釋。因此,算法解釋權的權利主旨是幫助算法相對人獲知不利影響與算法決策之間是否存在因果關系。同時,算法解釋權的“因果探求\"可以作為算法問責的邏輯前提,如果說算法侵害的發現與判斷是困擾算法問責的難題,那么通過算法解釋權,算法相對人可以成為發現算法侵害,并請求責任追究的吹哨人。雖然算法解釋權的“因果探求”指的是算法侵害事實與損害結果之間的因果關系,但并不完全等同于法律認定的因果關系,因為前者的因果關系可能體現為相關性聯系。而算法相對人在請求算法侵害者承擔算法責任時,仍應承擔相應的舉證責任,但為平衡算法相對人與算法侵害者之間承擔的民事舉證責任,可以減輕算法相對人的舉證責任。

(二)“基于透明”與“基于解釋”相區別的權利基奠

算法透明是人們應對算法風險時,首要采取的算法規制手段。“算法透明的自標在于化解人類對算法決策可能失控的風險的憂慮。\"算法歧視、算法黑箱與算法權力等算法風險是算法透明的治理指向,因此在大多對算法風險的治理場景中都能找到算法透明的價值投射與規制嵌入。

算法透明需要回歸至合理定位。“算法透明并不是終極目的,它只是通向算法可知的階梯。”如果單純從工具角度,算法透明永遠都無法解決“算法透明只是將未知的未知,轉化為已知的未知\"問題。

事實上,算法透明無法為算法解釋權提供穩定的權利基奠。算法解釋權與算法透明原則有較大的理論與實踐距離。首先,算法相對人并不以使算法變得透明作為主要行權目的。其次,從算法解釋義務者角度而言,如果將算法透明作為算法解釋權的行權目的,無疑會不合理地加重算法解釋義務者的責任。在行權目的不恰當與義務責任不合理的情境下,算法解釋權容易被虛置。

算法解釋應當作為算法解釋權的權利基奠。《新一代人工智能倫理規范》中除提出透明性倫理規范外,還增加算法可解釋性與可理解性倫理規范。以可解釋性與可理解性作為核心理論構成的算法解釋,可以為算法解釋權提供穩定的權利基奠。“算法可解釋性義務應當指向監管方。\"算法可解釋主要由算法監管者指向算法設計者或算法部署者,算法設計者或算法部署者需要向算法監管者承擔滿足算法可解釋的算法解釋義務。算法監管機構需要在對算法進行分級分類的基礎上,實行常態化監管模式,以維持算法處于可解釋狀態。而算法可理解主要由算法相對人指向算法設計者或算法部署者,算法設計者或算法部署者應當向算法相對人承擔滿足算法可理解的算法解釋義務,即以用戶可理解的語言對算法進行解釋。算法相對人行使算法解釋權時,需要對象算法處在可解釋的狀態,因此需要由算法監管機構核驗與監督算法的可解釋性。當然,因為算法相對人的算法知識有限,因此接收的算法解釋內容主要是弱化版本的因果解釋,如果算法相對人認為其合法權益受到算法侵害,可尋求算法監管幫助或司法救濟,繼而算法監管機關或司法機關對特定算法進行專家核驗。因此,相較于算法透明,以算法解釋作為算法解釋權的權利基奠更具針對性、可行性與合理性。

(三)“邁向信任”與“達成理解”相偏差的制度目標

信任原則是算法解釋制度的主要制度目標,而算法解釋反過來又是確保算法信任的主要校準機制。信任構成了使復雜化的事物簡化的有效形式,以此彌補人類有限的判斷力與理性力。

算法信任是一種目標,而不是一種狀態。人的主觀判斷是衡量算法是否值得信任的主要方式,而機器人因素、個體因素與情景因素將直接影響人對算法的主觀判斷[0]。信任并非一次建構便永久有效,信任更像是一種貝葉斯態度,會隨先前發生的事件而發生改變。因此,需要將信任回歸到目標維度,并將懷疑納入判斷算法是否值得信任的方式。“信任一懷疑”是人對事物或關系是否值得繼續存在或進行的理性判斷模型,如果只將信任看作是一種狀態,實際上便排除了人對事物或關系的懷疑、否定的行為能力。的確,“信任指涉的是在明知存在不確定因素或相當風險的情況下仍堅信他人會如約履責的理性判斷。[\"但是這并不意味著可以用信任勒索人,將某項事物或關系施以信任外觀,以要求他人必須信任,這是對權威的服從,而不是個體在自我認知或判斷的基礎上做出的信任行為。

信任的前提必然是理解,否則將陷于權威服從。“算法解釋是維系算法信任的基礎。[12]\"算法解釋制度通過算法解釋技術與算法解釋規范,確保算法相對人可以通過算法解釋權獲取認知與理解算法的渠道,同時規定算法解釋義務者須按法律規范要求確保算法處于算法可解釋狀態,并確保算法解釋內容以算法相對人可理解的形式析出。算法相對人在真實認知或理解算法的基礎上,通過自我判斷決定是否信任特定算法。“在算法自動化決策問題上,以信任原則重構算法解釋權。[13I\"將信任原則作為算法解釋權實體與程度制度建構的合理性要求,并用以保護算法相對人主體地位的制度搭建方式,事實上并不完全適配算法解釋權所處的階段。算法解釋及其預期效果,可以表現為“‘算法黑箱 $$ 算法解釋 $$ 算法理解 $$ 算法信任的邏輯關系。[14\"算法解釋權應當以算法理解作為主要的制度目的,一方面,算法解釋義務者須根據算法可理解要求作出解釋;另一方面,算法相對人通過行使算法解釋權,在算法解釋義務者提供的解釋內容基礎上,探求算法侵害事實與損害結果是否存在因果關系,最終達至算法理解。

算法解釋權賦予算法相對人“質疑”與“懷疑\"算法決策的權利,通過算法解釋得出的結論并不一定會導致算法相對人信任算法,甚至會讓算法相對人厭惡算法,但是信任與厭惡的前提,必然是算法相對人認識與理解算法。如果將算法信任直接充當算法解釋權的制度目標,容易出現“解釋即信任\"的悖論:第一,只要解釋都是可信任的,第二,解釋是為了信任。而事實上解釋是為了讓算法相對人理解算法,繼而可能邁向信任。因此,算法理解作為算法信任的下位目標,更適配算法解釋權的目標要求。

三、算法解釋權的法理反思

在確立恰當的法理基礎上,算法解釋權需要在實踐中我尋可行的權利施行界限。并需要在與其他系統進行交叉、合力與沖突的互動過程中,讓算法解釋權在算法治理領域中找尋恰當位置。因為光憑算法解釋權無法滿足人們“信息控制”的要求,也無法滿足實現人的自由發展的目標。

(一)個人一自由的單向乏力

個體難以自主地控制算法,權利雖提供權益伸張與救濟要求的渠道,卻難掩個體自由的沒落。自阿蘭·威斯丁提出需要賦予個人信息控制權利,以對抗隱私侵犯的理論以降,通過賦予“信息控制權”來對抗“信息權力”,成為維持與平衡權利一權力關系的理論瑰寶。算法解釋權作為傳統“信息控制權”在數智化時代的權利延展,同樣需要被置于“信息控制權\"中進行探討。

算法解釋權的確以賦予個體“信息控制權”為權利主旨,但在除卻算法解釋技術難題后,需要重新觀察算法解釋權的實踐難題。算法相對人在算法解釋義務者進行解釋前,難以對算法決策形成周全的認識,只有通過算法解釋義務者的解釋后,才能使算法相對人的算法認識變得周延。而難題在于,算法浸潤在人們的時空領域中,或許根據法律規定,可以將部分算法的施行狀態(是否使用算法)展現在人們眼前,但也不過揭露算法施行的冰山一角。算法黑箱掩蓋算法邏輯,甚至掩蓋算法,繼而算法相對人容易被算法黑箱所蒙蔽,導致難主張、不主張算法解釋。

算法解釋權的算法對象,究竟選擇何種范圍“篩選器”?根據歐盟《人工智能法案》第86條規定,算法對象應當被限定為“高風險人工智能”,因此,譬如“中風險人工智能”與“極小風險人工智能\"不應被納入算法解釋對象范圍內,此舉有益平衡算法解釋的權利與義務承擔之關系。但若以算法種類作為解釋對象范圍的分類標準,無法處理“小風險,大損害”的問題。何況在算法實踐中難以劃定風險與界定人工智能的種類[15],算法解釋權可能會因對象類型不明確而流于形式。或者,以算法與算法相對人的互惠或對抗關系作為范圍“篩選器”?互惠關系化解了算法解釋權的正當基礎,因此對于具有互惠關系的算法,算法解釋權不應將其覆蓋其中,而應當將具有對抗關系的算法作為算法解釋權的解釋對象[6。但是,互惠關系的算法同樣可能會造成算法損害,如果僅關注具有對抗關系的算法,會正當化部分算法損害。

那么,以個體為行權邏輯的算法解釋權,是否可以處理因算法造成的公共妨礙呢?“被算法瞄準的直接受眾,只是算法妨害的小部分對象,更大的受害人是與算法應用不直接關聯但無法脫離算法場域的無辜大眾。[7]\"當算法造成的影響散射至被影響公眾時,誰才是恰當的權利主張者?可以預見的是,以個體行權與個人訴訟為基礎的權益保障體系將會受到嚴重打擊。

對算法權力的規制,“核心的策略是通過發揮智能算法的普遍性賦能作用,提升每一個人的主體能動性和自主意向性,從而使其避免被‘技術理性'所控制,成為‘虛假的人‘單向度的人’。[18\"但是,以個人一自由為核心的單向對抗與牽制模型,難以契合與實現人的解放與自由發展目的。算法解釋權以維護人的自由作為權利創設基礎,但并不應僅關注于個體權利的實現,更需通過整體一責任的雙發驅動補足個人一自由的單項乏力,以更好實現算法解釋權的主旨目的。

(二)整體一責任的雙發驅動

算法解釋權是抵抗算法權力的有益實踐。讓渺小的個人直面龐大的“算法利維坦”,只是人類社會在算法侵害伊始時迫不得已采取的措施。算法的興起以數字資本的增值作為主要驅動力,也最大程度地釋放算法蘊含的社會生產力。當算法成為資本生產與分配不可或缺的部分時,那么算法可能被內化為資本增值的技術驅動力。“在‘人一算法一世界'的三維結構中,算法擁有對人與世界關系的解釋權力。[19]\"算法權力并未顛覆國家權力來源的正當性與目的的人民性,國家仍然是人民為了實現美好生活而共同組成的政治實體,且其權力根基仍系于人民。算法解釋權所對抗的并非人類社會中從未出現過的權力,只不過是資本粉飾下的權力形式,國家仍能夠成為人們對抗資本權力的有效且主要的對抗堡壘。但是,國家權力的規制往往難以及時達到受損的枝節,故在算法侵害伊始,國家更多地將對抗壓力施由算法相對人承擔,但是在算法產業與算法技術逐漸成熟后,國家應當承擔更多的監管職責。

算法解釋權的整體性實現,離不開個人一算法設計者/算法部署者一國家的有效互動。算法解釋權的“個體一私性”,需要與“全體一公性\"相結合。算法解釋權雖然主要以維護人的自由作為權利創立主旨,但人類社會并不存在完全獨立的個人,個體自由的實現同樣需要社會的整體規制與引領。“‘全體一公性'邏輯是在‘個體一私性'意識茁壯發展后必要的制衡和必然的回歸,也是私性的個體自由、權利與利益有效保障的必要機制。[20]\"而\"全體一公性\"是社會主義區別于資本主義的思想特性,在\"全體一公性\"權利思想的引領下,個體不再是單獨的權利主體,而應轉變成黏性的權利群體。同時在社會主義對資本主義的批判中,為權利群體提供深刻的批判工具與科學的權利實現路徑。算法監管機構通過切實履行算法監管職責,以維護算法相對人的合理、合法算法權益,同時確保算法相對人享有且行使算法解釋權,以此體現“全體一公性\"補充且維護“個體一私性”。“雙向驅動型算法解釋工具拓展了算法解釋權保護的法益范圍,從原先的私權保護延伸到公共秩序和公共利益的全面保護。[21I\"算法監管機構按照法律規定,履行算法監管職責,要求算法解釋義務者針對特定算法進行解釋,若確實存在不符合法律規定的情況,算法監管機構有權要求相關算法設計者與算法部署者予以改正,以實現對算法的實質監管。

(三)自由一責任的動態平衡

囿于算法解釋面向多元主體、動態場域的現實結構,故難以通過一刀切的方式,分發算法解釋權利與部署算法解釋義務。算法解釋涉及算法相對人、算法設計者、算法部署者、算法監管機構等多種主體,他們對算法解釋的要求與理解都有所偏頗[22]。對于算法相對人而言,觀察其受到的算法侵害是否由特定算法決策導致,以及探知損害事實是否與侵害結果有因果關系等解釋需求,是算法相對人首要關注的解釋目的。但是,對于算法設計者與算法部署者而言,如何確保其算法商業利益是其主要的解釋主旨,即希冀盡可能地安撫算法相對人,并且盡量規避承擔算法解釋義務以降低算法解釋成本。至于算法監管機構則以維護算法行業的良善發展作為履行算法監管職責的核心要義。一方面鼓勵充分發揮算法蘊含的算法生產力,另一方面需要維持算法領域的良好秩序。

再者,算法長期處于可變動、可轉化的狀態。算法會根據收發的數據進一步調試算法的具體適用場域與功能,因而從算法技術角度而言,算法的模型結構是穩定的,但算法的決策模塊與功能面向卻可能在持續變動。而且,在算法實踐中,并不存在領域一算法的對應結構。在特定領域中,難以就單一的算法種類作為規制對象,因為在該領域內可能同時存在多種算法模型以實現特定的算法決策。同時,算法解釋權還需要面對算法集群的解釋難題,即算法相對人接收的算法決策,可能由功效相嵌的算法集群作出算法決策,那么在算法相對人適用算法解釋權時是否可以向起間接作用的算法主張算法請求權嗎?另外,部分算法需要算法解釋,但也存在部分算法無須算法解釋的情況,甚或有些算法無法通過自動化算法解釋技術進行解釋,僅能適用專家人工解釋方式。

職是之故,算法解釋權的自由主張與責任承擔之間,存在兩組亟待解決的問題:一是主體之間的利益權衡;二是算法解釋權對象范圍的動態確定。“法律供給要與社會對法律的有效需求相一致,越能采用或滿足市場交易方式來制定規則,人們守法的可能性就越大。[23]\"算法解釋權必然需要根據算法適用與算法市場交易規則來進一步形塑權利的范圍、對象與責任,我們無法從單薄的法律條文中,獲取足夠支撐算法解釋權適用與運行的規范供給,以及無法為處理自由一責任的關系提供明確且充分的法律審思。因此,類型化、場域化與專門化的算法解釋權法律規范亟待設立。在實體法的規范下,恰當處理自由主張與責任承擔的關系。有學者認為,通過軟法規制無法提供足夠的監管供給,甚或會采取道德審判的延緩監管關注與分散公眾注意力。同時,軟法的不可預測性會增加監管機構的監管負擔[24]。故需要通過設置實體法與程序法,以滿足算法解釋權的權利主張及相關責任承擔的制度需求。同時在制定法律的過程中,一方面需要處理算法解釋權關涉主體的利益要求,過分保護或放任的模式既違背權益保障要求,又不符合算法行業發展的客觀規律。另一方面需要分場域探討算法解釋權的適配范圍與可行空間,根據公一私、主動一被動、重要一不重要的場域角度,分析并規制算法解釋權。

四、算法解釋權的賦權限度

算法解釋權有其特定的權利范圍與賦權限度。

在對算法解釋權進行理論厘清與反思基礎上,需要考慮算法解釋權的賦權限度,以使算法解釋權止于無邊界的理論探索,而在與其他領域的碰撞過程中,尋找權利實現的合理邊界與制度構建的恰當位置。算法解釋權需要從與算法解釋義務、算法解釋技術和算法知識產權的碰撞、聯結中明確賦權限度。

(一)算法解釋權與算法解釋義務的解釋行為對應

算法解釋權的有效實現,必然建立在算法解釋義務的全面覆蓋基礎上。脫離算法解釋義務的行為給付支撐,算法解釋權容易淪為觀念上、紙面上的權益主張。在呼吁算法解釋權前,首先需要肯認算法解釋義務在算法解釋制度中發揮著不可或缺的作用。若算法相對人通過要求司法救濟的方式,向算法解釋義務者主張算法解釋權,此舉可行卻耗費過甚。過分依賴以訴訟主張權利,加之法律缺乏對算法解釋義務的明確規定,會不斷耗費算法相對人的權利主張積極性。同時,若不對算法解釋權的權利主體進行明確、嚴格的限定,可能會對無須解釋的算法施以解釋,或者無限制的請求,可能會造成算法解釋義務者承擔過度的、不合理的義務要求。“由于遵守一定的行為規則、維持在一定的生產方式下的物質生產和再生產、滿足社會共同的基礎物質需要是人們行為自由的前提,所以,遵守一定的行為規則,按照既定的行為規則去行事是現實社會中的每一個人的義務。這種義務對每一個人在現實社會生產中享有的自由而言是先在地規定的。[25]”因為在算法規制過程中,往往需要合理地分配各方主體的行為權利與義務,繼而確定各方主體的行為自由。我們需要接受“義務和權利都是社會群體表達對于行為(指向某種利益)的某種態度的用語\"26的觀念。權利與義務并不是對立的,雖然在產生過程中可能會有前后之別,但不過都是人類社會為實現特定目標,進而要求特定主體實施特定行為。

算法解釋權與算法解釋義務必然需要緊密聯結。“不妨坦然接受權利概念之不足,于其力有未逮之處,以屬于客觀法范疇的約束狀態概念予以彌補,形成主觀權利與客觀法、權利與約束狀態兩套概念體系并駕齊驅之勢\"27]。對算法解釋權的單向度主張,只會將其推向權利的絕對化境地,進而導致算法解釋權的淺薄化。“它的生硬與直白、賜予權利標示方面的揮霍無度而遵法的屬性、言過其實的絕對化、至上的個人主義、偏狹以及它對個體、公民與集體責任的緘默。[28]”我們需要在思考算法解釋權的過程中,將算法解釋義務納入算法解釋的法理維度。同時在進行算法解釋規制過程中,不僅需要斟酌“我想要什么”,更要斟酌“對方能給、做什么\"\"對方應當給、做什么”。

算法解釋權與算法解釋義務相互匹配,但并非一一對應。算法解釋權并非單一義務構成的體系,“而是一個由復數主體的復合義務構成的體系\"29]。算法解釋權的義務主體主要包括算法設計者或算法部署者。但是,算法解釋義務者的對象主體是復數形態,即算法解釋義務者不僅需要向算法相對人承擔算法解釋義務,還需要向算法監管機構履行算法解釋義務。因而,算法解釋的主體結構,應當體現為算法相對人一算法設計者/算法部署者的算法解釋權與算法解釋義務關系,而且體現為算法監管機構一算法設計者/算法部署者的算法監管職責與算法解釋義務關系。算法解釋義務的行為規范,要廣于算法解釋權,因此算法解釋義務并非與算法解釋權一一對應。

具言之,算法解釋義務者需要在算法信息知悉、算法解釋可理解和算法可解釋等方面,承擔算法解釋義務。一是,算法解釋義務者需要明確算法的相關信息,包括算法類型、算法版號、算法設計者或算法部署者的相關信息,以方便算法相對人主張算法解釋權;二是,算法解釋義務者向算法相對人作出的算法解釋內容,必須符合簡潔、有價值、可信等算法可理解要求;三是,算法解釋義務者需要通過凍結算法模型、提供算法鏡像等方式,以便算法監管機構對特定算法進行決策結果核驗與實質監管,以維護算法相對人的合法算法權益。

(二)算法解釋權與算法解釋技術的解釋動態適配

技術具有科學的客觀面向與工具的價值面向,導致技術始終會搖擺在“技術中立\"與“技術非中立\"的二元態勢中,所以技術是否中立取決于從哪個角度去觀察。“技術雖然包含一個客觀結構,但技術是服務于人的目的理性活動,因此技術存在著目的性和社會性兩個維度。[30\"因此,從工具論的角度而言,國家基于特定意識形態作出對技術的禁止與適用的技術決斷。

算法作為一種技術,同樣具有科學的客觀面向與工具的價值面向,即便人們難以理解與掌握算法,但不妨礙算法成為人們可以使用的工具,同時算法的工具屬性并不意味著人們可以肆意地想象算法的適用空間。

算法解釋權與算法解釋技術高度綁定,算法解釋權需要通過算法解釋技術獲取權利適用的技術補強。“算法治理的有效實現依賴于‘技術一社群'雙重路徑的同步演進。[3I\"在算法解釋技術不成熟時,算法解釋權只能在合法/不法、有效/無效的規范邏輯與正義/罪惡、自由/宰制的價值考量中空轉。歐盟在《一般數據保護法案》(GDPR)序言71條中規定了用戶享有要求個人數據處理者解釋的權利,但有學者認為,由于《歐盟通用數據保護發展》的序言不具有法律規范力。故此時,算法相對人的算法解釋權并沒有獲得有效的法律規范力。結合算法解釋技術的發展階段,在GDPR訂立時,算法解釋技術尚未能提供可靠的算法解釋方式,因而GDPR將算法解釋權虛置源于當時并不存在行權的技術環境。但目前算法解釋技術已逐漸從實驗室走向市場,并能提供穩定且可靠的算法解釋方式與渠道,因此在2024年,歐盟在《人工智能法》第86條明確算法相對人享有算法解釋權,并賦予其有效的法律規范力。可見,對算法解釋權的規范確證與具體適用,需要根據算法解釋技術的客觀發展規律予以相應調整。

算法解釋權的技術探究與規范分析,分屬兩個研究領域,且領域間存在缺互動、難理解的問題,都困于“哥德爾不完備定理”中,都認為可以僅通過技術支持或規范要求便可以解決算法解釋的問題。若在技術探究與規范分析的合力下,算法解釋權可以盡早進入技術與規范的“舒適區”。算法解釋技術與算法解釋規范共同構成算法解釋權的研究主題,那么“以數字技術及其新生事物為研究對象的規范論,應當養成先技術后規范的二階思維[32”,探索算法解釋權的前沿技術發展,為規范分析提供最大的信息分析池。

(三)算法解釋權與算法知識產權的解釋權益平衡

算法解釋權與算法知識產權間存在權益傾軋。算法解釋權要求算法設計者或算法部署者向算法相對人,解釋特定算法何以作出特定的算法決策,在此過程中可能會損害算法知識產權。我國《最高人民法院關于審理侵犯商業秘密民事案件適用法律若干問題的規定》明確將算法納為我國商業秘密法的保護對象。算法解釋權要求算法設計者或算法部署者以特定方式,公開算法決策邏輯,這容易與算法知識產權產生沖突。“長久以來,算法治理面臨著算法公開與商業秘密以及專有技術保護之間的緊張沖突。[33I\"一方面,算法是企業投入大量資金與技術進行研發后的產物,為了維護企業的研發積極性與核心競爭力,因而需要予以專有權的保障,以維護算法商業秩序與商業道德。另一方面,囿于“算法黑箱”,人們無法認知算法何以作出特定的算法決策,也無法發現算法企業是否設置了不合理、不法的特定的決策邏輯或板塊,因此引發社會廣泛的關注與隱憂。

算法解釋對算法知識產權的權益限制。算法知識產權并非高于一切,當其越過應有的限度時,便需要進行適當的介入。當算法知識產權涉及社會公共利益時,需要受到算法透明與算法解釋的限制,以確保社會公共利益與算法相對人權益不受算法企業的不法侵害。同時,算法知識產權不應當成為算法企業逃脫算法責任的擋箭牌。“版權關注‘算法'的表現形式,而非是‘算法'的核心思想。[34\"但是,隨著算法知識產權的范圍不斷擴張,算法知識產權法已經將算法邏輯、算法因素、算法權重以及算法設計等算法的表現形式納人保護范圍。使得算法企業以維護算法知識產權為借口,拒絕向算法用戶提供相關算法信息,繼而逃脫其應當承擔的算法責任。因此,算法知識產權應當有相當的權利邊界,在維護社會公共權利與算法相對人權益的基礎上,可以通過合法、恰當與可行的方式,要求算法設計者或算法部署者公布相關的算法信息。

合理的算法解釋技術,可以有效平息算法解釋權與算法知識產權之間的緊張關系。算法披露是在嚴重威脅算法相對人合法權利情況下方能采取的算法解釋方式,而且算法披露應當輔之嚴格的保密義務與特定的使用領域,以平衡算法解釋權與算法知識產權之間的解釋權益。同時,在使用算法解釋技術過程中,并不需要向算法相對人展現算法決策因素與算法決策結果之間的具體聯結方式與算法權重,而是在弱化因果表達基礎上,進行算法解釋。另外,可以通過反事實算法解釋技術,以擾動的形式,披露算法因素與算法決策之間的關系,此算法解釋技術無須公開算法代碼即可進行算法解釋,以避免侵犯算法知識產權。而算法企業由于無須擔憂算法解釋技術會影響企業的核心競爭力,且若算法相對人通過適用算法解釋權可以幫助算法相對人增強算法信任,此時算法企業也會從算法解釋權的掣肘方轉變為推動方。

五、結語

算法解釋權是算法解釋制度的核心內容。若缺乏權利的牽制,只通過算法監管的方式處理算法亂象,就如缺條大腿走路的巨人,既不穩當亦不長久。算法監管機構具有強理解力與專業力,仍需通過個人行權予以補充。雖然算法監管機構擁有遠超算法相對人的算法調查與判斷能力,但算法監管機構終究沒有直面算法實踐,加之算法監管規制可能會落后或者錯配算法的發展階段。而算法相對人才是直面算法決策的主體,算法的新問題、新發展往往出現在算法相對人與算法部署者之間,因此算法相對人能第一時間發現算法問題的存在。算法相對人的行權能力較弱,卻能夠補充算法監管機構觀察與發現算法問題的缺漏,有利于算法監督機構更好地履行算法監管職責。當然,算法解釋權有獨立于輔助算法監管的固有價值與工具性價值,但“個體一私性”最終需要回歸“全體一公性\"以尋求更為科學的制度供求,因而有必要將算法解釋權放置算法在解釋制度中予以討論,使其回歸到恰當的制度嵌入位置,并在與其他算法解釋機制的互動中,增強制度的邏輯性與實踐的可行性。

參考文獻:

[1]齊延平.數智化社會的法律調控[J].中國法學,2022(1): 82.

[2]商建剛.算法決策損害責任構成的要件分析[J].東方法學,2022(6):46.

[3]解正山.算法決策規制——以算法\"解釋權\"為中心[J].現代法學,2020,42(1):188.

[4]蘇宇.算法解釋制度的體系化構建[J].東方法學,2024(1): 83.

[5]孫躍元,許建峰.商業算法自動化決策的私權構建與實現[J].中州學刊,2024(2):74.

[6]汪慶華.算法透明的多重維度和算法問責[J].比較法研究,2020(6):163.

[7]沈偉偉.算法透明原則的迷思——算法規制理論的批判[J].環球法律評論,2019,41(6):34.

[8] JOHANNESP,ASHER B. Unknowing Algorithms: On Trans-parencyofUnopenableBlack Boxes[M].Amsterdam:Am-sterdam University Press,2017:145.

[9]蘇宇.優化算法可解釋性及透明度義務之詮釋與展開[J].法律科學(西北政法大學學報),2022,40(1):138.

[10]黃心語,李曄.人機信任校準的雙途徑:信任抑制與信任提升[J].心理科學進展,2024,32(3):528-531.

[11]余聰.智能算法與信任資本:一個平臺資本主義本質審視的向度[J].當代經濟研究,2022(11):63.

[12]蘇宇.算法規制的譜系[J].中國法學,2020(3):172.

[13]丁曉東.基于信任的自動化決策:算法解釋權的原理反思與制度重構[J].中國法學,2022(1):113.

[14]周翔.算法規制如何場景化[J].東方法學,2024(2):138.

[15]江海洋,魏書敏.基于風險的通用人工智能監管從歐盟《人工智能法案》視角展開[J].科技與法律(中英文),2024(2):90-93.

[16]丁曉東.基于信任的自動化決策:算法解釋權的原理反思與制度重構[J].中國法學,2022(1):110-111.

[17]唐林.算法應用的公共妨害及其治理路徑[J].北方法學,2020,14(3):54.

[18]鄒琨,程柏華.馬克思主義視域下的技術權力與規制[J].自然辯證法通訊,2020,42(2):109.

[19]鄧伯軍.人工智能的算法權力及其意識形態批判[J].當代世界與社會主義,2023(5):25.

[20]齊延平.中國人權發展道路的生成邏輯、價值面向與實踐機理一黨的二十大報告中“堅持走中國人權發展道路\"之學理闡釋[J].法學家,2022(6):6.

[21]劉輝.雙向驅動型算法解釋工具:以默示算法共謀為場景的探索[J].現代法學,2022,44(6):64.

[22]張恩典.算法透明度的理論反思與制度建構[J].華中科技大學學報(社會科學版),2023,37(6):33.

[23]馮玉軍.法經濟學范式的知識基礎研究[J].中國人民大學學報,2005(4):135.

[24] VAROSANEC I. On the path to the future: Mapping thenotionof transparencyintheEU regulatory frameworkfor AI[J]. International Review of Law,Computers amp;Technology,2022(2):108.

[25]張恒山.義務先定論[M].濟南:山東人民出版社,1999: 4.

[26]張恒山.論具體權利概念的結構[J].中國法學,2021(6): 115.

[27]陳幫鋒.主觀權利概念之理論檢討——以胎兒的民事權利能力問題為中心[J].法學研究,2021,43(5):44.

[28]瑪麗·安·格倫頓.權利話語——窮途末路的政治言辭[M].周威,譯.北京:北京大學出版社,2006:3.

[29]齊延平.當代中國人權的制度進路[J].法學評論,2024,42(4): 22.

[30]鄭玉雙.破解技術中立難題——法律與科技之關系的法理學再思[J].華東政法大學學報,2018,21(1):86.

[31]孟天廣,李珍珍.治理算法:算法風險的倫理原則及其治理邏輯[J].學術論壇,2022,45(1):15.

[32]周翔.算法可解釋性:一個技術概念的規范研究價值[J]比較法研究,2023(3):198.

[33]張欣,宋雨鑫.算法審計的制度邏輯和本土化構建[J]鄭州大學學報(哲學社會科學版),2022,55(6):34.

[34]楊延超.人工智能對知識產權法的挑戰[J].治理研究,2018,34(5): 124.

TheLegal Rationale and Empowerment Limitations of Algorithmic ExplanationRights

Liang Jincheng

(LawSchool,Beijing Instituteof Technology,Beijing102401,China)

Abstract:Algorithmic explainabilityisacrucialcomponentof algorithm governance.Itpossesses independentinstrumentalandinstitutionalvalue,anditalsoserves tomaintainthehumansubject'sstatusandreasonablerightsandinter ests.Asalgorithmicexplainabilityisconqueredandconsolidated intherights justificationsectionsof infringement, regulation,andtchnology,itstillfaceseoreticalissues.herefore,itisecessarytofurtherdeinetheintepetive tendencies,foundationalrights,and institutionalobjectivesofalgorithmicexplainability.Atthesametime,itisnecessaryto supplement \"individual-private”with \"collctive-public\",thus shifting theone-dimensional \"individualfreedom\"oriented algorithmic explainabilitytowards adual-drive \"collctive-responsibility\"orientedalgorithmic explanation mechanism,providing solid support foralgorithmic explainability.Finally,algorithmic explainabilityneeds to clarifythe reasonable empowerment boundaries in thecollsionand connection with algorithmic explanation obligations,algorithmic explanation technologies,and algorithmic intellectual property rights.

Keywords:algorithmic explanationrights; algorithm governance;algorithmic black box; algorithmic intelligibility

主站蜘蛛池模板: 国产精品成人免费综合| 日本爱爱精品一区二区| 欧美高清三区| 免费A级毛片无码无遮挡| 亚洲欧美天堂网| 欧美成人区| 亚洲国产看片基地久久1024| 亚洲色图欧美在线| 亚洲国产成人无码AV在线影院L| 国产成人福利在线视老湿机| 国产精品妖精视频| 国产成人三级| 国产网友愉拍精品| 她的性爱视频| 国产精品伦视频观看免费| 国产中文在线亚洲精品官网| 亚洲第一成网站| 狠狠干综合| 91探花国产综合在线精品| 久久网欧美| 特级欧美视频aaaaaa| 国产高清在线观看| 国产网站在线看| 欧美日韩精品一区二区在线线| 成人日韩欧美| 国产丝袜无码一区二区视频| 激情综合五月网| 一级毛片在线直接观看| 91亚瑟视频| 波多野结衣一区二区三区AV| 欧美一区二区自偷自拍视频| 人妻丰满熟妇αv无码| 91亚瑟视频| 亚洲一本大道在线| 91久久国产综合精品| 夜色爽爽影院18禁妓女影院| 国产91麻豆视频| 无码内射中文字幕岛国片| 国产 在线视频无码| 一区二区三区四区精品视频| 伊人激情综合| 日韩精品一区二区三区大桥未久| a毛片基地免费大全| 中文字幕 欧美日韩| 亚洲无码熟妇人妻AV在线| 久久综合丝袜长腿丝袜| 久久久久国产精品熟女影院| 99精品免费在线| 人妻中文久热无码丝袜| www中文字幕在线观看| 自拍欧美亚洲| 日韩欧美中文字幕一本| 国产不卡一级毛片视频| 国模视频一区二区| 一区二区三区国产精品视频| 伊人天堂网| 国产精品刺激对白在线| 中文字幕日韩视频欧美一区| 国产一区在线视频观看| 亚洲欧洲日产国码无码av喷潮| 国产欧美又粗又猛又爽老| 欧美亚洲第一页| 97久久超碰极品视觉盛宴| 色视频久久| 精品视频福利| 国产资源免费观看| 国产一区二区影院| 欧美成人综合视频| 国产精品永久不卡免费视频| 日本色综合网| 国产二级毛片| 在线精品亚洲一区二区古装| 成年人免费国产视频| 亚洲欧洲日韩久久狠狠爱 | 国产又粗又猛又爽视频| 亚洲国产欧美国产综合久久 | 亚亚洲乱码一二三四区| 在线国产三级| 欧美国产日韩一区二区三区精品影视| 中文字幕资源站| 在线观看精品国产入口| 亚洲中文字幕av无码区|