999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

大數據時代的算法解釋權:背景、邏輯與構造

2019-02-04 03:28:50張恩典
法學論壇 2019年4期

張恩典

(南昌大學 法學院, 江西南昌 330031)

一、問題的提出

人類社會已經進入大數據時代。大數據給人們的生活、工作乃至于思維方式都帶來了重大變革。大數據之所以能夠給人類社會帶來諸多變革,所依靠的則是計算機算法模型對海量數據進行自動分析。基于大數據的算法決策正彌散于現代社會,充斥于商業領域與公共治理領域之中,對人們日常公共與私人生活產生著深刻而復雜的影響,并逐漸顯現出取代人類決策的趨勢。有學者將這個由大數據算法逐漸占據統治地位的社會形象地稱為“算法社會”。[注]Jack M.Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Vol.78 Ohio State Law Journal(2017), p.1226.在算法社會中,一方面,人的智性得到前所未有的發展,但是,另一方面,人的心性和靈性卻逐漸被侵蝕,相關論述請參見於興中:《算法社會與人的秉性》,載《中國法律評論》2018年第2期。以色列歷史學家尤瓦爾·赫拉利更是大膽預言:“隨著機器學習和人工神經網絡興起,有越來越多算法會獨立進化,自我改進、從自己的錯誤中學習。這些算法分析的數據量是天文數字,絕非人力可及,而且它們也能找出人類找不到的模式,采取人類想不到的策略。”[注][以]尤瓦爾·赫拉利:《未來簡史:從智人到智神》,林俊宏譯,中信出版社2017年版,第355頁。從目前的情形來看,這一正深度滲透人類生活諸多方面,對個人權利和利益產生重大影響的算法決策是建立在大數據挖掘分析基礎之上,隱藏于算法“黑箱”之中,令普通公眾難窺其中奧秘。

為了緩和乃至化解現代社會中大數據算法決策的“黑箱”效應,法學理論界與實務界進行著艱辛的理論和制度探索。在眾多規制方案中,設置算法解釋權便是充滿創見而又備受爭議的一種方案:言其充滿創見,是因為其旨在回應大數據時代算法決策的“黑箱”效應這一基本問題,言其備受爭議,是因為對算法解釋權的存在及正當與否,學者們仍然存在著重大分歧。[注]關于算法解釋權的理論爭議,參見Bryce Goodman, Seth Flaxman, European Union Regulation on Algorithmic Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后訪問時間:2018年7月20日。S.Wachter, B.Mittelstadt, L.Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469, 最后訪問時間:2018年7月20日。Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law (2017).可以毫不夸張地說,目前,無論是在理論還是實踐維度,算法解釋權都處于“重重迷霧”之中,究其原因,在于學術界對算法解釋權這一現代算法社會興起的重要權利形態缺乏足夠的研究。[注]相較于近幾年來法學界在被遺忘權方面的豐碩研究成果而言,目前關于算法解釋權的研究成果,無論是在相對數量還是在絕對數量上都非常有限,這與大數據時代算法解釋權的重要性似乎呈現出一種不均衡的狀態。根據筆者在知網數據庫的檢索,截止2018年8月28日,國內法學界有關算法解釋權研究主題公開發表的研究論文僅有1篇,張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學》2018年第3期。面對這種情形,亟待法律學者撥開籠罩在算法解釋權“迷霧”,以使這一算法解釋權更具理論意蘊與實踐功能。本文不惴淺陋,嘗試從算法解釋權的興起背景、權利邏輯、爭論焦點與基本構造等方面,對大數據時代興起的這一新型權利類型展開研究,以期對算法解釋權的理論探索與制度實踐有所助益。

二、算法解釋權產生的背景:大數據算法決策的興起及其引發的問題

(一)大數據時代算法自動化決策的興起

算法是種古老的技藝。在人類社會漫長的發展過程中,人們都在運用算法來解決生活中的問題。正如美國學者克里斯托弗在考究算法歷史時所指出的那樣:“千百年來,人們一直在設計、修改并分享著算法,這一活動早在算法這個詞出現之前就開始了。……巴比倫人處理法律事務時會用到算法,古時候拉丁語老師檢查語法時會用到算法,醫生靠算法來預測病情,無數遍布全球的普通人曾試圖用算法預測未來。”[注][美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,人民郵電出版社2014年版,第42頁。但是,公允而言,受制于數據存儲和處理能力,彼時,算法的功能和影響力畢竟是有限的。只有到了大數據時代,算法才真正發揮了其潛在的功能和廣泛的影響力,以大數據為基礎的算法自動化決策遍及私人生活和公共治理領域。

在私人生活中,算法決策廣泛運用于廣告營銷、就業、銀行信貸等諸多領域。當我們作為消費者進行網絡購物時,算法向我們推薦產品;當我們應聘某一崗位時,算法決定著我們是否能夠勝任這一崗位,進而決定著我們能否獲得就業機會;[注]目前,國外已經有公司運用大數據算法來尋找理想職員,參見Matt Richtel, How Big Data Is Playing Recruiter for Specialized Worker, The New York Time, April 27, 2013.當我們向銀行申請貸款時,銀行所使用的大數據算法對我們進行信用評分,進而決定我們是否能夠獲得貸款以及獲得貸款的額度大小。不僅如此,金融算法大量運用于金融投資決策之中,美國學者將金融算法形容為開啟現代金融帝國大門的新密碼。[注]參見Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, 2015, pp.59-100.大數據算法之于已經邁入互聯網時代的現代金融業的重要地位由此可見一斑。

在公共治理領域,算法決策也逐漸受到青睞。在刑事偵查中,以大數據算法為基礎的預測警務被用于預防和打擊犯罪。美國情報部門為了打擊恐怖主義以維護國家安全,逐漸開始運用大數據算法識別和發現潛在的“恐怖分子”。美國學者佩德羅·多明戈斯在談到學習算法之于現代國家安全的重要性時指出:“在網絡空間之外,學習算法是保護國家的壁壘……恐怖分子可隱藏在足球比賽的人群中,但學習算法能辨認他們的相貌,恐怖分子可以在國外制造爆炸事件,但學習算法能找到他們。”[注][美]佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,第24—26頁。同時,算法決策還被運用于刑事審判之中,作為量刑的重要依據。美國威斯康辛州初審法院基于罪犯改造部門提交的一份載有被告艾瑞克·魯米斯的再犯風險評估內容的COPMAS調查報告,進而對其作出了監禁6年外加監外管制5年的判決。在接到一審判決之后,被告以初審法院根據COPMAS評估作出判決侵犯其正當程序權利為由提出上訴,但最終被威斯康辛州最高法院駁回。

算法不僅決定了執法資源的分配,而且還在很大程度上決定著國家扶貧資源的分配。為了實現精準扶貧戰略目標,目前,我國貴州、安徽、海南等中西部欠發達地區紛紛運用大數據來精準識別貧困戶,進而決定國家扶貧資源的合理分配。雖然各地“大數據+扶貧”戰略在具體實踐中有所差異,但是總體上遵循如下思路和做法:一是通過相關部門多維度數據對比分析,自動預警、實時推送異常信息,幫助扶貧干部實現對貧困戶的精準識別。二是以“扶貧云”的建檔立卡貧困戶數據為基礎,通過相關扶貧部門數據對貧困戶進行精準畫像,實時掌握國家、省、市、縣、鄉、村各級幫扶干部情況及對應幫扶貧困戶信息。三是可根據貧困實時信息,自動比對和身份識別,推送給教育、財政、扶貧等相關部門,實現“一站式”精準扶貧。四是通過大數據可視化,將幫扶企業對各貧困村、貧困戶的幫扶情況呈現出來,實時掌握企業幫扶貧困戶情況和貧困戶被幫扶進程。[注]參見羅以洪、吳大華:《數過留痕!大數據讓扶貧變得更精準》,載《經濟日報》(百家號)2018年5月3日。

由此可見,算法決策已經彌散于私人和公共領域之中,并且伴隨著大數據不斷發展,算法決策還在向社會其他領域滲透蔓延開來。在現代社會中,算法決策之所以被廣泛運用,一個重要的原因在于算法決策有助于實現精準決策。客觀公正是人類決策的重要目標,然而,受到人類認知偏差的影響,人類決策一直為精準性所困擾,現代社會的復雜性更加劇了精準決策的難度。大數據為復雜社會治理提供了難得的歷史契機。一方面,現代互聯網技術實現了海量數據的存儲,人們日常生活的點滴都被記錄下來;另一方面,借助于大數據算法,公私決策部門能夠對個人的偏好、行為進行精準預測,從而作出相應的決策。而且,算法決策還能固化乃至形塑個人的偏好。當我們瀏覽網絡時,大數據算法基于我們的瀏覽歷史和消費記錄,向我們推薦網頁新聞和營銷廣告,將固化和形塑我們的偏好和認知。從功利主義視角觀之,大數據時代盛行的算法決策符合效用最大化的功利原理,這也是算法決策在現代社會備受公共部門與私人機構青睞的根本原因。

(二)算法自動決策面臨的新問題催生算法解釋權

大數據時代的算法決策展現的是一種典型的技術理性。算法決策依靠的是大數據挖掘技術。大數據挖掘范圍最典型的特征在于,“其轉變了傳統的圍繞特定認知對象或假設而進行的數據搜集模式,取而代之以基于廣泛、全面、深度的數據搜集而形成認知對象或假設的過程。”[注]裴煒:《個人信息大數據與刑事正當程序的沖突及其調和》,載《法學研究》2018年第2期。近年來,伴隨著算法決策廣泛運用,其在因精準化而備受青睞贊譽的同時,卻也因算法決策引發的風險而遭遇到越來越多的批評與質疑。概括而言,目前,作為技術理性產物的算法決策所面臨主要是隱私風險和歧視風險。

從隱私維度看,算法決策對生活于其間的個人隱私構成了嚴重威脅。算法決策是以海量數據為基礎的,用于進行算法決策的算法模型就是基于所搜集的歷史數據訓練而形成的,亦即機器學習過程。用于訓練算法模型的歷史數據來源廣泛,囊括個人購物偏好,行蹤軌跡、生理特征等諸多方面,其中包含大量涉及個人隱私的數據信息。在算法模型運用于特定主體時,仍然需要對個人的上述諸方面的數據信息進行搜集。因此,在很大程度上,大數據時代的算法決策是以犧牲個人隱私來換取所謂的便利和高效,人們的私生活和個人隱私被現代物聯網技術暴露無遺。置身于大數據時代,“進行數據收集、創建、存儲和分析的電腦數量呈爆炸性增加,使得技術能夠侵犯你的隱私。記錄你的生活細節的數據采集點越多,任何想要了解你的人可獲得的信息就越多。”[注][美]特蕾莎·M.佩頓、西奧多·克萊普爾:《大數據時代的隱私》,鄭淑紅譯,上海科學技術出版社2011年版,第19頁。無怪乎美國學者洛麗·安德魯斯發出大數據時代下個人“隱私死亡”的警告。[注]參見Lori B.Andrews, I Know Who You Are and I Saw What You Did: Social Networks and the Death of Privacy, Free Press, 2013.值得特別注意的是,與傳統技術聚焦于個體隱私信息的搜集與利用不同之處在于,現代大數據分析技術在隱私信息的搜集和運用上,已經呈現出超越個體層面,逐漸向群體隱私聚焦的趨勢。[注]參見Lanah Kammourieh et al ., “Group privacy in the Age of Big Data” , in Taylor, Luciano Floridi, Bart van der Sloot(ed.), Group Privacy: New Challenges of Data Technologies, Springer, 2017, pp.37-66.之所以會帶來這種變化,原因在于,以大數據算法決策是建立在分類的基礎之上。這意味著,大數據時代,不僅僅要關注單個個體的隱私保護問題,還需要關注大數據分析技術帶來的群體隱私威脅和保護的問題,這也給傳統以個體為中心建構隱私權的理論、制度和實踐帶來了挑戰。

從決策的平等性角度觀之,自動化算法決策在引發隱私風險的同時,也造成了歧視風險。[注]參見Kate Crawford, The Hidden Biases, Harvard Business Review, April 01,2013.德國學者克里斯多夫·庫克里克將現代大數據算法統治的社會稱之為“微粒社會”,以區別于傳統的“粗粒社會”,微粒社會的典型特點是借助算法對人和事物進行高度的解析、評價和預測。因此,微粒社會也是一個借助算法進行預測和打分的“評價型社會”。然而,由算法所進行的評價并非技術專家所標榜的那么客觀和中立。基于算法所做出“評價和預測不是中立的,它們介入個體的生活之中,考驗著我們對于民主體制中平等的理解。”[注][德]克里斯多夫·庫克里克:《微粒社會:數字化時代的社會模式》,黃昆、夏柯譯,中信出版社2018年版,第110頁。這意味著,算法決策給傳統的平等觀念和價值帶來了嚴重的挑戰,也引發了歧視風險。如果說隱私風險是源自于大數據的開放性特征,那么,歧視風險則是源于大數據的排斥性特征。在技術樂觀主義者看來,大數據具有開放性和包容性,能夠很大程度上消除傳統人類決策中的偏見與歧視。然而,大數據并非如那我們所設想的那般,只具有開放性,而是兼具包容性特征與排斥性特征。[注]參見Jonas Lerman, Big Data and Its Exclusion,Vol 66 Stanford Law Review Online (2013), pp.55-63;又參見Edith Ramirez, Julie Brill, Maureen K. Ohlhausen, Terrell McSweeny, Big Data: A Tool for Inclusion or Exclusion?, Federal Trade Commission, January, 2016.而恰恰是由于大數據的排斥性特征,引發了大數據算法歧視的問題。

目前,算法決策的歧視問題呈現在私人與公共決策諸方面。例如,在招聘就業領域,算法自動化決策帶來了對黑人和女性等特殊群體的系統性歧視。[注]關于就業領域的算法歧視問題,參見Allan G.King, Marko J.Mrkonich, Big Data and the Risk of Employment Discrimination, Vol.68 Oklahoma Law Review(2016), pp.555-584;又參見Pauline T.Kim, Data-Drive Discrimination at Work, Vol.58 William&Mary Law Review(2017), pp.857-936.在銀行信貸領域,算法決策使得在相同條件下,黑人和其他有色人種獲得銀行貸款的機會明顯減少。[注]關于金融信貸領域的算法歧視,參見Danielle Keats Citron, Frank Pasquale, The Scored Society: Due Process for Automated Predictions, Vol.89 Washington Law Review(2014), pp.1-33.美國學者伊恩·艾瑞斯表達了他對于金融信貸領域算法決策種族歧視的擔憂:“盡管幾乎不可能明確根據種族來制定房貸或保險計算程序,……不過,形式上沒有種族歧視的計算程序有時也會被質疑為促進了某種實質性的歧視。地域性歧視是歷史延續下來的做法,即拒絕向少數群體地區提供貸款。實質性歧視類似于拒絕向數據表明有少數群體聚集的群體提供貸款。讓人擔心的是放款人可以通過數據挖掘到與種族相關的特征,并把這些特征用作拒絕放款的借口。”[注][美]伊恩·艾瑞斯:《大數據思維與決策》,宮相真譯,人民郵電出版社2014年版,第172頁。牛津學者布萊斯·古德曼和賽斯·弗蘭斯曼認為,“在一定意義上,運用算法畫像來進行資源分配本質上就具有歧視性:當數據主體根據各種變量進行分組時畫像就發生了,而決定的作出則是以某一主體歸屬于特定的群體為基礎的。”[注]Bryce Goodman, Seth Flaxman, European Union Regulation on Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后訪問時間:2018年7月20日。在市場營銷方面,各大互聯網平臺通過對消費者歷史消費記錄的大數據分析,可以精準掌握潛在消費主體的消費偏好和需求,并基于消費者對特定商品和服務的喜好程度來對其進行“差別化定價”,提供所謂的“個性化”消費體驗。然而,這種個性化定價的背后,則可能構成“價格歧視”。[注]國外學者阿里爾·扎拉奇、莫里斯·E.斯圖克認為,歧視性定價行為指的是商家在向不同的消費者提供相同等級、相同質量的商品或服務時,基于后者的購買意愿與支付能力,實行不同的收費標準或價格政策。而商家成功實施歧視性定價行為需要滿足兩個條件:一是差別化的定價能力;二是有限的套利空間。大數據時代,商家憑借其掌握海量消費數據和具備自我學習能力的定價算法,能夠逼近完全的價格歧視。參見[英]阿里爾·扎拉奇、[美]莫里斯·E.斯圖克:《算法的陷阱:超級平臺、算法壟斷與場景欺騙》,余瀟譯,中信出版集團2018年版,第113—118頁。在預測警務執法領域,算法自動化決策則涉嫌歧視黑人群體和有犯罪記錄者。[注]關于預測警務中的算法歧視問題,參見Tal Z.Zarsky, Transparent Predictions, Vol.2013 U.Illinois Law Review(2013), pp.1503-1569.

在現代法治社會中,基于個人種族、膚色、宗教信仰或其他一些特征所作出的公共或私人決策都將受到決策平等性的質疑。然而,在大數據算法的幫襯下,決策者可以“繞開這些反歧視約束,實現對特定人群的分組。通過自動化的開發和改進分組的過程,算法將特定種族、婚姻狀況、年齡、性取向和宗教信仰的人劃分到了一起。”[注][英]阿里爾·扎拉奇、[美]莫里斯·E.斯圖克:《算法的陷阱:超級平臺、算法壟斷與場景欺騙》,余瀟譯,中信出版集團2018年版,第164頁。這意味著,借助于算法程序,歧視現象將變得更為隱秘,難以為人們所察覺。但是這并不意味著歧視并不存在。實踐中。屢屢見諸報端的“大數據殺熟”等大數據歧視現象表明,算法決策并非如我們所設想的那樣公正客觀,而是同樣存在著偏見和歧視,人們固有的偏見與歧視將通過數據搜集和數據訓練等一系列行為而得以延續,甚至加劇。學者形象地將其稱為“偏見數據進,偏見決策出”。

算法自動決策所引發的隱私與歧視風險,在不同程度上都指向大數據算法決策的“黑箱效應”。所謂算法決策的“黑箱效應”,是指那些對人們生活產生重大影響的決策,是由大數據算法在人們無法察覺和認知的隱秘狀態下自動作出的,具有高度的模糊性。究其原因,算法決策黑箱效應緣于算法決策具有高度的技術性和隱蔽性。正因如此,大數據算法成為公共和私人機構推諉責任的工具和屏障,當決策失誤時,他們便可以決策是由技術中立的算法模型作出為理由而拒絕承擔責任,從而引發了算法決策的可責性問題。憑借大數據算法,一些商業機構和公共部門正在獲得一種新的權力——算法權力。而如何從法律制度層面對這一權力加以有效規制,成為亟待法律學者回應的重要理論與實踐命題。

2016年4月14日通過并于2018年5月25日正式實施的歐盟《一般數據保護條例》,被認為確立了算法解釋權。在大數據時代背景之下,作為一種新興權利形態,算法解釋權興起所展現的,實則是試圖通過強化對算法自動化決策的解釋,進而提高算法透明性,并最終達致克服算法模糊性和技術性特征所引發的隱私和歧視風險的制度性努力,亦即旨在通過賦予數據主體有權獲得算法自動決策的解釋權利,來達到規制算法權力,進而緩和乃至消除算法決策隱私和歧視風險的目的。

三、通過增強透明性規制算法權力:算法解釋權之控權邏輯評析

透過上文的分析,我們得以洞悉算法解釋權產生的現實情境,但是,公允而論,作為一種新興權利,其正當性并不僅取決于宏觀層面大數據時代所面臨的形形色色的現實需求,而更多地取決于這一權利類型究竟能夠在多大程度上回應和解決現實的難題。在大數據時代,各種權利話語呈現泛濫趨勢。加拿大學者薩姆納便對現代社會中權利膨脹與貶值現象提出批評,在談到權利話語的問題時,他將經濟學上的通貨膨脹與權利膨脹相類比:“通貨膨脹使得貨幣貶值,降低了購買力。權利要求的擴大也使權利貶值,降低了權利論爭力。權利要求的擴大是有意義的,但往往缺乏基礎或比較輕率”。[注][加]L·M.薩姆納:《權利的道德基礎》,李茂森譯,中國人民大學出版社2011年版,第14頁。目前,圍繞著算法解釋權的實然存在性與應然正當性,學界仍存明顯分歧。為了更好地明確算法解釋權的價值,避免算法解釋權的制度建構淪為一種缺乏理論基礎的輕率產物,殊有必要梳理和檢視算法解釋權的控權邏輯,并澄清和回應目前學者圍繞算法解釋權的理論爭議誤區。

(一)算法解釋權的控權邏輯:增強算法透明性

在算法決策逐漸占據統治地位的算法社會中,各大互聯網商業巨頭和公共機構正在掌握一種算法權力,而支撐這種新型權力的則是各種功能強大的學習算法。大數據算法的重要特征在于其高度的專業性和模糊性,這些特征使得算法決策呈現出顯著的黑箱效應,并最終引發了算法決策的責任性危機。為了克服算法黑箱效應,進而強化算法決策的可責性法律學者和技術專家等進行了艱辛的理論探索和制度建構,算法解釋權則是眾多方案中極具代表性的一種。從控權角度觀之,算法解釋權基本遵循了以權利制約權力的控權邏輯。具體而言,算法解釋權制度的建構邏輯如下:算法決策存在嚴重的黑箱效應,并導致算法決策責任性缺失,為了重塑算法決策可責性,則需要通過算法解釋權來提高算法決策的透明性。

歐盟《一般數據保護條例》便基本遵循了這樣一種以通過賦予解釋權提高算法透明性進而增強算法決策可責性的算法權力規制路徑。歐盟《一般數據保護條例》第13條第2款第(f)、第(14)條第2款第(g)項、第15條第1款第(h)項均規定了控制者在獲取個人數據時,為確保處理過程公正和透明之必要,應當向數據主體提供如下信息:“本條例第22條第1款以及第4款所述的自動決策機制,包括數據畫像及有關的邏輯程序和有意義的信息,以及此類處理對數據主體的意義和預期影響。”該條實則確立了算法解釋權。從立法目的上看,該條款明確指出了設立算法解釋權的目的,即旨在“確保處理過程的公正和透明”。從權利主體上,該條款將解釋權的權利主體界定為數據主體,而將解釋權的義務主體界定為數據控制者,即各大互聯網平臺和公共機構。從適用對象上,算法解釋權適用于基于算法所做出的自動決策,該《條例》第22條第1款進一步對算法自動決策加以界定:“如果某種包括數據畫像在內的自動化決策會對數據主體產生法律效力或對其造成類似重大影響,數據主體有權不受上述決策的限制。”從解釋內容上,則主要包括“數據畫像及有關的邏輯程序和有意義的信息,以及此類處理對數據主體的意義和預期影響”。透過對歐盟《一般數據保護條例》的梳理可以發現,算法解釋權的權利構造以及立法目的大致遵循了上述以數據主體算法解釋權制約數據控制者算法權力的控權邏輯,且遵循借由提升算法決策透明性來達致算法決策可責性的規制路徑。

(二)算法解釋權控權邏輯之批判——來自反對者的觀點

至于算法解釋權背后的控權邏輯是否能夠成立,則有待進一步分析論證。為了增強分析論證的針對性,在此,筆者將通過梳理目前學界關于算法解釋權的理論爭議,來進一步厘清算法解釋權控權邏輯的潛在價值和局限性。為了有針對性地回應反對者的觀點,筆者重點梳理和考察對算法解釋權持否定與批判態度的學者的觀點。概括而言,目前反對者主要是從否定算法解釋權的實存性與正當性兩個層面上來批判算法解釋權。

第一、否定算法解釋權是實然的法定權利。以布萊斯·古德曼和塞斯·弗拉克斯曼為代表的學者認為,歐盟《一般數據保護條例》規定,數據主體有權利獲得“包括數據畫像及有關的邏輯程序和有意義的信息”,確立了算法解釋權。[注]Bryce Goodman, Seth Flaxman, European Union Regulation on Decision-making and a “Right to Explanation”, https://arxiv.org/pdf/1606.08813.pdf,最后訪問時間:2018年7月20日。持相近觀點還有美國學者安德魯·賽爾貝特和茱莉亞·波爾斯教授,參見Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law (2017).而桑德拉˙瓦切特等學者則否認歐盟《一般數據保護條例》的上述規定確立了算法解釋權,而認為該條款只是確立了算法知情權(Right to be Informed)。[注]參見S.Wachter, B.Mittelstadt, L.Floridi, Why a Right to Explanation of Automated Decision-Making Does not Exist in the General Data Protection Regulation, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469,最后訪問時間:2018年8月10日。還有觀點認為,真正確立算法解釋權的是該《條例》序言第71款。安德魯·伯特認為,序言第71款“可能是歐盟《一般數據保護條例》中最清晰的表達算法解釋權”的條款。[注]參見Andrew Burt, Is There a ‘Right to Explanation’ for Machine Learning in the GDPR?,https://iapp.org/news/a/is-there-a-right-to-explanation-for-machine-learning-in-the-gdpr/,最后訪問時間:2018年8月10日。但是,在他看來,問題在于,因為《條例》序言部分沒有法律效力,使得該條所謂算法解釋權無法發生法律約束力。在筆者看來,解釋權之所以會造成上述分歧,直接的原因在于,在2016年出臺的歐盟《一般數據保護條例》中并未明確出現“解釋權”(Right to Explanation)的字眼,從而給予了學者們理論闡釋和解讀的空間,甚至于直接否定算法解釋權是一項法定權利。

第二、質疑算法解釋權的正當性。除了從法律文本上去否定算法解釋權的實然存在性,還有學者則從權利正當性這一更深層次質疑算法解釋權的合理性。具體而言,對于算法解釋權正當的質疑主要包括以下三個方面:第一,否認算法解釋的可能性。一些學者認為大數據算法不具有可解釋性,進而直接否認解釋權存在的可能性。第二,否認算法解釋的必要性。持這種觀點的學者認為,人類所作出的很多決策,尤其是私人機構所作出的決策并不需要進行解釋,因此同樣不需要對算法決策進行解釋。第三,認為賦予算法解釋權不但不能達到增強算法決策責任性的目的,反而會影響算法自動決策的效率,甚至造成不必要的損失,特別是會泄露商業秘密。[注]參見Lilian Edwards, Michael Veale, Slave to the Algorithm?Why A‘Right to An Explanation’ Is Probably Not The Remedy You Are Looking For, Vol.16 Duke Law & Technology. Review(2017), pp.18-84.正是基于上述理由,學者們對算法解釋權持懷疑甚至是堅決反對的態度。

(三)對反對觀點的理論回應

筆者認為,上述觀點均在某種層面反映出算法決策的復雜性,具有一定道理。但是,其中一些觀點殊值商榷。以下分述之:

第一,算法解釋權已經成為一項法定權利。雖然目前學界對算法解釋權是否一項法定權利仍存爭議。但是,通過梳理和比較歐盟《一般數據保護條例》的相關條文,筆者認為,該條例第13條第2款第(f)、第14條第2款第(g)項、第15條第1款第(h)項,以及第22條第1款之規定,實際上已經從法律上確立了算法解釋權。有學者所謂的算法知情權,實則是對算法解釋權解釋內容和解釋標準的一種片面的理解而已。實際上,從該學者之后發表的有關解釋權研究成果中,可以發現其也是承認算法解釋權的。[注]參見Sandra Wachter, Brent Mittelstadt, Chris Russell, Counterfactual Explanation Without Opening the Black Box: Automated Decisions and The GDPR, Available at: https://ssrn.com/abstract=3063289. 最后訪問時間:2018年8月20日。

第二,目前現實中的算法決策多具有可解釋性。誠然,算法決策確實面臨著解釋的難題,這種解釋難題一方面緣于大數據算法自動決策所運用的算法模型具有較高的專業性;另一方面緣于算法決策是建立在相關性基礎之上,而并非建立在因果關系之上,按照慣常的決策解釋方式,難以對其進行恰當解釋。然而,我們不能就此完全否認算法決策的可解釋性。實際上,就目前運用的算法模型而言,大多數算法決策還是具有可解釋性的。首先,“雖然某些模型缺乏可解釋性確實是一項挑戰,但總體而言,可理解的解釋的前景并非毫無希望。許多算法決策不依賴于難以理解的深度學習和神經網絡,而是較不復雜和更易解釋的模型,例如決策樹”。其次,“即使是在復雜的多層模型中,模糊性的問題也被高估了,在不試圖打開黑箱的情形下仍有多種方式能夠解釋某一模型所做出的特定決策”。[注]Reuben Binns, Algorithmic Accountability and Public Reason, Philosophy and Technology, 2017.這意味著,目前,大多數算法決策仍然是具有解釋可能性的。

第三,算法解釋權有助于緩和算法決策的復雜性。我們認為,那種將以人類為決策者所作出的決策直接與大數據算法自動決策直接等同的觀點是值得商榷的。因為人類所做出的決策,通常是能夠為常人所理解的,人們通常不需要描述決策 的過程,而更多的是解釋作出決策的原因,以體現決策的合理性。實際上,“當涉及到人類決策者時,當某人做出我們不理解或不相信的次優決定時,我們常常同樣會想要一個解釋。”[注]Finale Doshi-Velez, Mason Kertz, Accountability of AI Under the Law: The Role of Explanation, https://dash.harvard.edu/bitstream/handle/1/34372584/2017-11_aiexplainability-1.pdf?sequence=3,p.3,最后訪問時間:2018年8月25日。在算法自動化決策中,解釋的內容不僅涉及到描述算法決策作出的過程,還涉及特定算法自動決策作出的原因與理由。換言之,在算法自動決策中,數據控制者實際上承擔了更重的解釋義務。透過算法解釋權,原本具有高度復雜性的算法決策能夠在很大程度上為人們所理解。

第四,算法解釋權有助于增強算法的責任性。正如前述,算法解釋權的控權邏輯實則是通過提高算法透明性來達致增強算法責任性的目的。而否定者則認為,通過提高算法透明性來提升算法決策的責任性的路徑收效甚微,且會嚴重影響算法決策的效率和數據控制者的競爭力。必須承認,否定者所表達的觀點以及隱含于其中的對算法透明性的擔憂是有道理的。首先,因為將算法毫無保留的向公眾公開是一件極不明智的選擇,這不僅將危及公眾的隱私,而且將使得算法自動決策的功能被完全架空。基于此,通過完全地、毫無保留地將算法徹底公之于眾是我們堅決反對的。[注]參見Paul B.Delaat, Algorithmic Decision-Making Based on Machine Learning from Big Data: Can Transparency Restore Accountability, Philosophy and Technology, 2017.但是,這并不能構成我們反對算法解釋權的理由。因為算法解釋權這一制度設計所意欲實現的并非是算法模型的“完全透明性”,而毋寧是在尋求一種“適當透明性”。[注]Frank Pasquale, The Black Box Society, Harvard University Press, 2015, p.142.這一制度設計并不要求算法模型和決策過程的完全公開,而是要求其對算法模型的邏輯和有意義的信息進行解釋說明。其次,算法解釋權通過對算法決策內在因果性和相關性的解釋有助于增強算法的可責性。在現代社會中,可責性既是一種美德,也是一種具體機制。作為一種機制,可責性所指涉的是解釋和為特定行為進行辯護的義務。具體到算法決策領域,算法應責性價值的實現,主要體現為以下三個方面:(1)告知算法決策具體實施的行為;(2)闡釋說明算法決策的正當性;(3)承擔算法決策所帶來的制裁后果。算法解釋權透過對算法模型的解釋、特定算法決策過程的描述以及算法決策對數據主體預期影響的解釋說明,能夠提升算法的可責性。再次,算法解釋權作為一種反思機制有助于提升算法責任性。眾所周知,大數據關注的是相關性,而非因果性。大數據算法決策也是試圖發現事物之間的相關性,以實現算法決策的精準性和客觀性,但是,在很多情形下,相關性并不能保證決策的精準性和客觀性,算法解釋權通過賦予數據控制者對其算法模型和算法決策的解釋說明義務,實則是給予了其對算法決策進行反思的機會。誠如學者所言:“通過呈現決策背后的邏輯,解釋可以被用來防止錯誤并增加信任,解釋還可能被用來確定在產生爭議的情形下,運用的某些標準是否適當。”[注]Finale Doshi-Velez, Mason Kertz, Accountability of AI Under the Law: The Role of Explanation, https://dash.harvard.edu/bitstream/handle/1/34372584/2017-11_aiexplainability-1.pdf?sequence=3,p.4,最后訪問時間:2018年8月25日。這一點,對于公共領域的算法決策尤為重要。公共決策并非單純的個人欲望、偏好和利益的滿足,而是要接受公共理性的檢驗。此時,算法解釋權要求數據控制者對算法決策加以解釋說明,恰恰給予公共領域的算法決策接受公共理性檢驗的機會,從而促進算法決策的可責性。[注]參見Reuben Binns, Algorithmic Accountability and Public Reason, Philosophy and Technology, 2017.

綜上,我們認為,在大數據背景下,伴隨著算法自動化決策的興起,算法解釋權作為一種應對算法決策黑箱效應的新型權利,通過提升算法透明性來重塑算法決策的可責性,具有正當性基礎。

四、算法解釋權的基本構造:兩種解釋權模式的比較分析

肯認算法解釋權在現代算法社會中具有正當性的同時,我們也需要看到,算法解釋權作為一種新興權利,在理論上仍面臨著諸多爭議,在實踐中亦將遭遇許多問題,而回應爭議和解決問題的最重要途徑是進一步理清算法解釋權的基本構造。通常而言,一項權利的基本構造涉及權利主體、客體、內容等方面。具體到算法解釋權,其基本構造包括算法解釋權的主體、客體、內容等諸方面。青年學者張凌寒博士已經從主體、解釋標準和內容層次上對算法解釋權的構造作了開創性的研究,具有重要意義。[注]參見張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學》2018年第3期。為深化對提高算法解釋權利構造的理論認知,本文將從解釋主體、解釋標準、時機等方面總結算法解釋權構造的兩種模式,并探討兩種模式運用的具體情境。

從動態角度審視算法決策的形成過程,會發現算法決策過程實際上包含了兩個基本階段:第一階段為算法模型的建模階段,第二階段則是將算法模型運用于特定主體,并在此基礎上形成自動化算法決策。基于以上兩個階段,可以將算法解釋權界分為以“算法功能為中心”的解釋權模式與以“具體決策為中心”的解釋權模式。[注]Andrew D.Selbet, Julia Powles, Meaningful Information and The Right to Explanation, Vol.7 International Data Privacy Law(2017).還有學者將算法解釋模式區分為“以模型為中心”的解釋模式與“以主體為中心”的解釋模式,實際上,這種類型學區分與本文采行的界分標準有相似之處,參見Lilian Edwards, Michael Veale, Slave to the Algorithm?Why A‘Right to An Explanation’Is Probably Not The Remedy You Are Looking For, Vol.16 Duke Law & Technology Review(2017), pp.18-84.兩種算法解釋權模式在解釋主體、解釋標準和解釋時機上具有明顯差異。

首先,從解釋主體上,算法解釋權主體包括算法解釋權的權利主體和義務主體。前者指享有獲得特定算法解釋權的主體,而后者則是指負有算法解釋義務的主體。兩種解釋權模式在權利主體范圍上有所差異。以算法系統功能為中心的解釋權模式的權利主體主要是數據主體,義務主體則主要是特定算法模型的開發者,以具體決策為中心的解釋權模式的權利主體則主要是受到特定算法自動化決策影響的相對人,例如在被特定自動化算法決策拒絕聘用的相對人,其義務主體則是特定算法模型的使用者,例如用特定算法模型作出雇傭決策的公司。需要特別指出的是,因為算法決策的過程具有較高專業性和復雜性,作為特定算法模型的開發者負有協助解釋的義務。

其次,從解釋標準觀之,數據控制者對自動化算法決策的解釋標準不同,意味著其為數據主體提供的“有意義的信息”所包含的具體內容并不相同。以算法的系統功能為中心的解釋權模式主要聚焦于對特定算法模型的系統功能的解釋說明。在這一模式下,特定的數據控制者提供給數據主體的有意義的信息主要包括:“自動化決策系統的邏輯、意義、設想的后果和一般的功能,例如規范指南、決策樹、預定義模型,標準和分類結構”。[注]張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學》2018年第3期。以具體決策為中心的算法解釋模式則主要聚焦于基于算法模型所產生的“具體決策”進行解釋,這種解釋模式所提供的有意義的信息包括:特定自動化決策的基本原理、理由和個體情況,例如,特征的權重、機器定義的特定案例決策規則,參考或畫像群體的信息。由此可見,兩種算法解釋權模式在解釋標準上存在顯著差異。

再次,從解釋的時機觀之,以算法的系統功能為中心的解釋權模式的解釋行為通常既可以選擇在算法模型建模完成之后而特定算法決策做出之前,也可以選擇在特定決策做出之后。而以具體決策為中心的算法解釋模式,其解釋行為通常是在做出特定自動決策之后進行。

由此可見,兩種算法解釋權模式在解釋主體、解釋標準和解釋時機上存在顯著差異。但是,需要指出的是,根據算法決策的時間階段不同對算法決策解釋權作出類型化界分,旨在明確各個階段的解釋權的具體標準和內容,而并非是意在在算法解釋權運用中對兩者進行排他選擇,更不是指對所有的算法決策統一選擇某種解釋標準。有學者認為,在解釋標準上,算法解釋權應當聚焦于特定決策,并認為對特定算法模型“系統功能”的解釋是法律上“無意義的信息”。[注]張凌寒:《商業自動化決策的算法解釋權研究》,載《法律科學》2018年第3期。我們認為,上述觀點有一定道理,但亦有值得商榷之處。實際上,算法“系統功能”與特定算法決策的結果密切相關,不能因為系統功能的解釋本身具有較高的技術性特征便認為對其解釋是無意義的。這種理解既不符合歐盟《一般數據保護條例》的“有意義的信息”的立法涵義,也不符合算法解釋權的立法目的。

結語

在大數據時代,伴隨著算法統治時刻的來臨,如何從法律制度上對這些廣泛而深刻影響人類權利和利益乃至于人的尊嚴和完整性的大數據算法進行有效規制,成為現代“算法社會”中法律人義不容辭的使命與責任。誠然,賦予數據主體以及受特定算法決策影響的相對人以算法解釋權,只是眾多規制方案中的一種。作為一種賦權規制路徑,如同其他規制方案一樣,算法解釋權既有其不可替代的功能,也存在著局限性。但是,無論怎樣,以提高算法決策透明度和可責性為重要目的的算法解釋權規制方案,在捍衛人的尊嚴和完整性方面,發揮著無法取代的重要性,而人的尊嚴和人的完整性的侵蝕恰恰是現代算法社會所面臨的根本性挑戰。從這個意義上,作為其中可資利用的一個新興權利形態,算法解釋權在捍衛和實現算法社會中為人們所共同珍視的隱私、包容等關系人的尊嚴的重要價值方面具有重要制度功能,值得我們憧憬和認真對待。

主站蜘蛛池模板: 国产福利大秀91| 国产在线自乱拍播放| 国产第二十一页| 动漫精品啪啪一区二区三区| 啪啪免费视频一区二区| 国产一级妓女av网站| 国产不卡一级毛片视频| 2022精品国偷自产免费观看| 中文无码精品A∨在线观看不卡| 亚洲人成影院在线观看| 亚洲综合婷婷激情| 久久久久久久蜜桃| 国产白浆在线观看| 伊人蕉久影院| 国产成人做受免费视频| 国产福利免费视频| 91国内外精品自在线播放| 18禁影院亚洲专区| 亚洲伦理一区二区| 日韩a级片视频| 国模在线视频一区二区三区| 99久久国产综合精品女同| 国产精品自在线天天看片| 亚洲综合欧美在线一区在线播放| 亚洲婷婷在线视频| 国产精品自在线拍国产电影| 国产在线精品人成导航| 91人人妻人人做人人爽男同| 久久特级毛片| 99这里只有精品免费视频| 五月婷婷激情四射| 国产精品欧美亚洲韩国日本不卡| 日本成人一区| 亚洲第一页在线观看| 狠狠亚洲五月天| 国产麻豆福利av在线播放| 国产精品久久久久久久久kt| 欧美中文一区| 精品五夜婷香蕉国产线看观看| 麻豆精品视频在线原创| 日韩精品无码免费一区二区三区| 永久毛片在线播| 久久www视频| 色婷婷色丁香| 国产精品吹潮在线观看中文| 国产精品99r8在线观看| 国产高清不卡视频| 日本不卡视频在线| 亚洲欧美在线综合图区| 乱人伦视频中文字幕在线| 国产国语一级毛片在线视频| 国产精品欧美日本韩免费一区二区三区不卡| 久久亚洲天堂| 老司机精品一区在线视频| 日韩精品成人网页视频在线| 成人午夜亚洲影视在线观看| 午夜a级毛片| 国产精品部在线观看| 欧美精品影院| 高潮爽到爆的喷水女主播视频| 国产免费人成视频网| 在线无码九区| 国产另类视频| 久久国产成人精品国产成人亚洲 | 正在播放久久| 一本大道东京热无码av| 97se亚洲综合| 国产无码性爱一区二区三区| 在线五月婷婷| 国产精品美女免费视频大全| 国内老司机精品视频在线播出| 国产簧片免费在线播放| 亚洲A∨无码精品午夜在线观看| 日韩视频福利| 成人午夜久久| 国产第二十一页| 国产乱人免费视频| 欧美激情伊人| 被公侵犯人妻少妇一区二区三区| 久久亚洲黄色视频| 午夜一区二区三区| 午夜视频www|