999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論可解釋的人工智能之制度構建

2020-12-31 07:30:12劉云
江漢論壇 2020年12期
關鍵詞:人工智能

摘要:依賴于大數據的人工智能技術存在算法黑箱的固有缺陷,構建具有可解釋性的人工智能是保障用戶實現相關權益的前提,是促進社會形成人工智能準確認知和良好信心的必然選擇,是實現透明、可控、負責任人工智能發展的基礎,也是人工智能成為一門科學的內在要求。任何人工智能都不是完全不具有可解釋性的,它們都在一定范圍內具有相當程度的可解釋性的。私法上的算法解釋權屬于事后救濟權,是用戶請求網絡運營者對個人權益有重大影響的自動化決策予以解釋的權利,限于調整基于連接主義的黑盒算法,解釋的水平應當符合現有科學技術水平。在潛在風險發生之前和存在損害普遍多數用戶利益的情況下,應當引入算法影響評估、告知義務、外部算法問責,從而以積極的方式促進人工智能的可解釋性,提高算法透明度以構建公共信任的基礎。我國《個人信息保護法(草案)》已經為個人信息處理領域的人工智能可解釋性提供了充分的法律依據,未來還需要通過專門的人工智能立法圍繞“可解釋性”作出合理制度安排。

關鍵詞:人工智能;可解釋性;算法黑箱;算法解釋權;算法評估

基金項目:國家社會科學基金重大項目“互聯網經濟的法治保障研究”(18ZDA149)

中圖分類號:D910? ? 文獻標識碼:A? ? 文章編號:1003-854X(2020)12-0113-07

隨著新一代人工智能技術的發展和應用,其已經在消費、信貸、就業、教育、交通、司法、行政決策等許多領域對人類的平等、隱私、安全等權益產生了重大的影響。為此,建立負責任的人工智能為許多學者和公民社會團體所呼吁,近年來相關的戰略、政策、標準和法規也對人工智能的治理給予了高度關注。在人工智能成為社會焦點的背景之下,出現了對于人工智能技術積極樂觀而認為該技術將通過優秀的表現取代當前大部分人類工作的聲音,或者是對于人工智能技術消極悲觀認為該技術存在缺陷而難以被我們信任和使用的觀點。在討論人類和機器孰優孰劣或者是人工智能技術是否值得信任之際,人工智能技術被社會投機力量宣傳濫用而泛起了“迷霧”,人工智能技術的范圍和邊界都開始變得越來越模糊。因此,需要通過一種制度安排構建可科學理解的人工智能發展環境,從而增強人工智能的透明度,實現負責任的人工智能發展目標。需要說明的是,歐洲和我國越來越多的立法文件使用“自動化決策”來代替“人工智能”,以增強法規調整對象的確定性,本文所討論的人工智能主要是指自動化決策。

一、相關性取代因果性的人工智能技術存在不確定性

根據歐盟高級別專家組通過法定形式對人工智能的定義,人工智能系統是由人類設計的軟件(也可能還是硬件)系統,它給定一個復雜的目標,通過在物理或數字維度上感知其環境,通過數據采集、對采集到的結構化或非結構化數據進行解釋、知識推理或者信息處理,并基于這些數據,決定最好的行動以實現特定的目標。人工智能系統既可以使用符號規則,也可以學習數字模型,它們還可以通過分析他們以前的行動如何影響環境來調整自己的行為?!雹?在這一定義中,總結了人工智能的三大技術路線,分別是符號主義、連接主義和行為主義。其中,符號主義的歷史最為悠久,也被稱之為規則驅動(Rule-Driven)的人工智能技術,其典型的算法模型包括決策樹、貝葉斯推理等,因為他們本身就是基于明確的因果規則所構建的,故而天然地具有較高的可解釋性。然而,近年來繁榮發展起來的人工智能以連接主義為主流,也被稱之為數據驅動(Data-Driven)的人工智能技術,其典型的算法模型包括深度學習、神經網絡、隨機森林、支持向量機等,這些算法模型的本質是通過大量數據的相關性積累構建認識規律,此基于經驗主義的調參式深度學習也被稱之為“煉丹”,故而因其最終的輸出具有不確定性而難以進行解釋。

連接主義的人工智能系統可以運用無監督的學習算法提供支持,這些機器自主學習是在沒有腳本的情況下回答概率問題,由此也可使得機器能夠在更高的維度識別一些人類無法識別的關系模型,故而它們只能知道答案而無法對其解答的過程提供解釋。有觀點據此認為,強制要求解釋的結果可能是技術上無法做到的,或者是通過勉強的辦法得到不真實的解釋答案。② 之所以出現這種結論,是因為新一代人工智能高度依賴于大數據進行模型訓練,這種基于大數據的人工智能模型實際上是用相關性取代因果性,通過大數據的相關關系分析方法來適應計算機處理的需求?!跋嚓P性”的哲學本質是經驗主義認識論,黑格爾就提出以絕對精神的自我運動方式,將經驗主義對知識學的建構納入人類精神自我認知之整全性思考的過程當中,休謨也主張用兩個現象前后相繼所構筑的相關性來建構一種因果性。這種用相關性構建認識論的方式承認世界是普遍聯系的,可以為人工智能邏輯的解釋標準歸入到較為寬松的客觀環境之中;但是,這種認識將人的主觀意識進行純粹物質化的還原,最終只會窄化對人的本質理解。③ 與此同時,這種相關性的認識還存在一些無法解決的問題:首先,可用數據本身存在重要殘缺的情況下,人工智能得出的模型和結果也極有可能是存在局限性的;其次,可用數據量過大,極有可能帶來規律的喪失和嚴重失真,甚至形成一些違背常識的假規律。④ 此外,即便是數據量適度,但是實體要素、關系要素等算法構建的缺陷和可計算性技術的局限性也會導致人工智能模型不能得出完整的規律。

依賴于大數據的人工智能技術存在相關性認識論的固有缺陷,但是這種技術往往具有較低的召回率,這使得他們能夠避免“不會作答”的尷尬,在絕大多數輸入的情況下都能給出一個或者更多的結果,盡管其輸出的結果并不準確。因果確定性屬于強相關性⑤,相比于因果關系要求具有嚴格的推理過程,根據相關性邏輯運行的新一代人工智能產品能夠在較低相關性的情況下依然給出結果,這就大大降低了其落地應用的門檻。在此背景之下,人工智能模型的訓練過程及其輸出結果的置信度就容易成為 “黑箱”,故而我們也需要在相關性的科學認識論下避免低質量產品的應用帶來的不確定性風險。

二、構建可解釋性人工智能的意義

在信息大爆炸的現代社會,通過技術可以利用的信息越來越多,但是人類能夠全面掌握的信息比例日益降低,“不確定性”成為社會安全最大的威脅,“算法黑箱”是人類對于人工智能技術產生恐懼和擔憂的根源。為了應對人工智能技術發展的風險,2019年6月,我國國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則——發展負責任的人工智能》,提出“人工智能系統應不斷提升透明性、可解釋性、可靠性、可控性,逐步實現可審核、可監督、可追溯、可信賴”,這是我國首個官方發布的人工智能治理框架和行動指南,而“可解釋”成為其中的要求之一。此外,有學者認為可解釋性的重要性遠遠超出了數據保護法,并深刻影響了使用機器學習模型的合同簽訂和侵權責任問題。⑥ 從負責任人工智能實現的主次路徑而言,而“可解釋”的人工智能應當成為各項治理目標得以實現的一項基石,因為其是保障用戶實現相關權益的前提,是促進社會形成人工智能準確認知和建立良好信心的必然選擇,是實現透明、可控、負責任人工智能發展的基礎,也是人工智能成為一門科學的內在要求。

第一,“可解釋”的人工智能是保障用戶實現相關權益的前提。人工智能是服務于人類用戶的新技術,為了避免用戶的個人數據被人工智能濫用,近幾年的個人數據保護相關立法特別強化了對自動化處理相關的規制,建立了用戶對數據利用知情權和控制力相關的權利束。算法解釋請求權脫胎于知情權但超越了知情權的構架,其重在保證算法決策的合理性和正當性⑦,有利于保障自然人知情權、決定權、查詢權、刪除權、更正權等一系列權利的實現。受到算法影響的個人只有在真正理解人工智能“如何作出決定和基于什么基礎作出決定”的情況下,才能質疑特定決定或表達自己的觀點。⑧ 信息不對稱會使用戶的基本權利基本無效⑨,如果一個人有改正的權利,他需要看到錯誤;如果一個人有權利反對歧視,他需要看到在一個決定中使用了什么因素?!吨腥A人民共和國民法典》(以下簡稱《民法典》)第1037條在繼承《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)第43條的基礎上⑩,專門新增了“查閱權”,體現出知情權的重要意義,明確自然人可以向個人信息處理者查閱其信息內容及其被處理情況。2020年10月發布的《中華人民共和國個人信息保護法(草案)》(以下簡稱《個人信息保護法》)第25條進一步新增自動化決策解釋權,即“個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明”,故而在個人信息處理領域實現可解釋人工智能成為法律擬定的要求。

第二,“可解釋”是促進社會形成人工智能準確認知和良好信心的必然選擇。在人工智能技術應用快速發展的同時,政策制定者、監管者、消費者等相關方均認為高新技術是一把雙刃劍,警示我們在享受人工智能帶給人類巨大進步與福利的同時,也需要防止倫理風險、極化風險、異化風險、規制風險和責任風險。{11} 這種籠罩在人工智能發展過程中的陰霾,有時候會通過風險事故案例引發質疑,這些事故是處于正常誤差范圍之內,還是系統缺陷,往往沒有各方認可的結論。由于人工智能實踐應用能力的提升和范圍的擴大,不時引發社會對于就業機會乃至于人類主體身份認知的擔憂,但是人工智能在未來社會到底是人機協作還是取代人類缺乏細致的考慮。由于社會缺乏對人工智能的準確認識,我們對人工智能發展的擔憂很多時候是在特定領域尚未發生社會風險下產生的,導致整個社會對于人工智能運行不確定性引發的“黑箱社會”{12} 和“機器人取代人”等問題產生了巨大的擔憂,并存在風險類推蔓延的趨勢。與此同時,由于對人工智能缺乏準確認知,社會對于人工智能發展速度的期望值在不斷提高,而一旦這些期望值不能滿足,我們可能再次進入人工智能興趣和投資減少的時期,進而出現另一個“人工智能的冬天”。{13} 在此背景下,對人工智能系統為什么以某種方式工作的解釋將有助于防止錯誤使用和消除一些對人工智能的誤解,進而建立起社會各界對人工智能產業發展的準確認知和良好信心。

第三,“可解釋”是實現透明、可控、負責任人工智能發展的基礎。國內外對于人工智能的治理出現了很多立法呼吁,特別是算法問責制成為整個國際社會津津樂道的研究話題,以至于人工智能的專門立法將成為與數據保護法并立的格局。美國加州消費者隱私保護工作組組長阿拉斯泰爾·麥克塔曾經指出,數字化時代保護消費者隱私的三項基本原則,分別是透明度(Transparency)原則、可控(Control)原則、負責任(Accountability)原則,這三大原則也已經成為智能化社會通用的三項基本原則。在人工智能的技術環境中,我們所需要的透明度是為了獲得易懂的知識幫助用戶理解所處的智能空間正在發生什么,所需要的可控是為了保障人工智能的運行處于監管之下而能夠根據需要進行人工干預,所需要的負責任是為了明確人工智能各個相關方的職責從而讓風險后果能夠有效分擔,通過“可解釋”的人工智能提供專業知識支撐是實現這些目標的共同基礎。目前,可解釋性是人工智能技術在金融決策支持、自動駕駛、醫療、司法等“高風險”領域應用模型的基礎{14},不具備可解釋性的人工智能技術將在很多領域無法轉化為實際應用的產品。

第四,“可解釋”是人工智能成為一門科學的內在要求。有觀點認為,算法的“準確性”和“可解釋性”始終負相關,容易向人類解釋的算法的準確性往往低于難以理解的算法{15},這一結論也在一些算法的測試中得到了驗證。{16} 然而,可解釋性不僅僅是法律合規的需要,同時也是解決確認和解決機器學習模型中的盲點的必然要求。{17} 愛因斯坦說:任何科學都是從世界的合理性和可理解性這種堅定的信念出發的。{18} 自然界的因果規律是確實存在的,且這種規律是可以認識的,具有可解釋性是自然科學成為先驗認識論的基礎,否則那些關于實在的外部世界假設就毫無意義。面對當代人工智能缺乏可解釋性的現狀,甚至有學者提出:當前的人工智能并不能稱為科學,也并未形成基礎堅實的學科。{19}為了提高人工智能技術的科學理論水平,在近年來的計算機科學領域頂級學術會議中,關于可解釋性人工智能(Explainable Artificial Intelligence, XAI)的研究已經成為重要議題,通過可解釋性研究可以檢測并糾正訓練數據集中的偏差,通過對抗性干擾來促進模型的魯棒性,確認變量的意義并確保模型推理中存在潛在的真實因果關系。{20} 由于可解釋的人工智能存在法律和技術的正向促進關系,構建可解釋的人工智能制度也便具有更深層次的合理性和必要性。

總而言之,“可解釋”是權利保障、社會信任、市場安全和技術創新的共同需求,有助于確保機器決策過程的公正性,維護系統運行的穩定性,完善模型中變量和推理的科學性。算法可解釋的制度構造是計算法學的基本命題之一{21},是人與機器之間進行“對話”的橋梁,對于人工智能產品的生產者、使用者和被使用者均具有重要的意義。為了激勵可解釋的人工智能技術和管理方法發展,應當分別從用戶端構建算法解釋權,從運營端提升算法透明度以構建公共信任基礎。

三、用戶端的可解釋:私法上的算法解釋權

私法上的算法解釋權是權利主體請求網絡運營者對自動化決策予以解釋的權利,可以用法律賦權的方式讓受到人工智能影響的組織和個人避免陷入黑箱操控的不安境地。算法解釋權的內容最早可追溯到1972年法國頒布的《關于信息技術、數據文件和公民自由的1978年1月6日第78—17號信息自由法案》。該法案第10條、第39條分別規定:無論是政府還是私人作出的涉及評價個人行為的決定,不能僅根據自動化處理的與公民個性或側寫相關的數據作出;基于自動化處理作出的決策對數據主體造成法律影響時,數據主體有權知道該自動化處理的邏輯信息并有權反對自動化處理。隨后,1978年《法國數據保護法》延續了此類規定,同時,該規定也被少數歐洲國家所采納,并影響了歐盟層面的數據保護規則。{22} 歐盟議會在審議歐盟委員會于2012年提交的《歐洲通用個人數據保護條例(草案)》中,曾提議規定個人請求解釋算法的權利,但是因反對意見而最終并未采納。2016年頒布的《歐洲通用個人數據保護條例》在序言第71段對第22條的自動化決策規范做注解時提到“個人數據主體有權獲得對此類評估后達成的決定的解釋”。牛津大學網絡研究中心研究助理古德曼(Goodman)和倫敦帝國學院數學系講師弗萊斯曼(Flaxman)依據《歐洲通用個人數據保護條例》序言第71段的內容,于2016年提出了算法解釋權(the right to explanation)的概念,此后經過媒體報道而引起廣泛的關注和討論。{23} 但是,序言在歐盟法中并無直接的法律效力,故而在歐盟法中實際上沒有算法解釋權的規定。

我國《民法典》《網絡安全法》中均沒有算法解釋權的相關規定,《個人信息保護法(草案)》第25條第1款第2句首次規定了算法解釋權:“個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”。這種私法上的算法解釋權源于并超越了《歐洲通用個人數據保護條例》的規定。有學者認為,算法解釋權對于以深度學習為代表的人工智能算法根本不具備技術上實現的可能性;對于非深度學習算法,算法解釋權也有擾亂商業實踐的隱憂,算法解釋權應為我國法律所拒絕。{24} 從技術的客觀情況而言,任何人工智能都不是完全不具有可解釋性的,都在一定范圍內是具有相當程度的可解釋性;而且人工智能相比于人類更加強調邏輯計算規則,故而其具有可驗證性,通過特定輸入指標的變化可以檢測其對輸出結果的影響,進而驗證系統的可信度。例如,美國法院采用過一款名為COMPAS的再犯風險量刑輔助系統,其在數據輸入之時根本就沒有將種族作為參考指標,但是一家公益組織通過使用該軟件對1萬多名刑事被告人實證統計分析發現其實際預測的結果歧視了黑人{25},這也可以作為系統設計者進行解釋和驗證的一種方法。值得注意的是,“可解釋”技術正在日益成為機器學習中的一項重要子領域,特定風險評估等一些專門的解釋工具正在被開發出來,未來可能出現專門提供“可解釋”服務的第三方機構和交易市場,甚至誕生進行“可解釋”驗證的專門執法部門。

“法律不強人所難”是一條基本原則,法律對“可解釋”的要求也必然是符合技術發展階段的。事實上,法律只關心有關權利、義務或者利益、責任的問題,故而法律上所需要的解釋只是對人工智能的部分重要內容進行解釋。例如,美國國防高級研究計劃局的一項研究列舉了需要解釋的七項主要問題:(1)為什么會出現這種輸出?(2)為什么沒有其他輸出?(3)機器在哪些情況下會產生可靠的輸出?(4)能提供機器輸出的可信度得分嗎?(5)在什么狀態和輸入的情況下,機器的輸出是可信的?(6)哪些參數對輸出影響最大(負和正)?(7)可以做些什么來糾正錯誤?{26} 這些問題都是關涉人們利用人工智能可能受到重要影響的問題,對于這些問題都可以作出適應現有技術發展階段的解釋。概而言之,可解釋的人工智能在技術上是可以實現的,只是法律對解釋范圍的要求需符合實際情況和負責任的人工智能法治目標,而技術的解釋能力也需要隨著技術的發展而不斷提高。

算法解釋權必須具有一定的適用范圍和條件,避免私權濫用損害人工智能技術應用的正常秩序。根據《個人信息保護法(草案)》第25條和第67條的規定,算法解釋權應當限于對個人權益有重大影響的自動化決策,此處的自動化決策是指“利用個人信息對個人的行為習慣、興趣愛好或者經濟、健康、信用狀況等,通過計算機程序自動分析、評估并進行決策的活動”。值得注意的是,我國《個人信息保護法(草案)》第25條所調整的范圍大于《歐洲通用個人數據保護條例》第22條的內容,有人工參與的自動化決策也會落入本條的約束范圍。但是,如果網絡運營者在自動化決策之外提供了顯而易用的人工替代途徑,應當認定該自動化決策不會成為對個人權益有重大影響的自動化決策,不適用于算法解釋權。而且,自動化決策的解釋應當限于基于連接主義的黑盒算法,基于符號主義的白盒算法具有直接的強因果關系而不應當納入單個解釋權的內容,可以通過易獲取、概括性的解釋滿足用戶知情權的需求。此外,國外普遍將計算機代碼作為商業秘密予以保護,強制要求公開代碼一般會被認定為違反國際慣例、侵犯知識產權的行為;算法解釋權的內容應當限于基本、可理解的自動化決策邏輯,符合現有技術的可解釋水平,尊重企業的商業秘密,不以代碼公開為必要。算法解釋權屬于事后解釋,不需要在提供服務之前作出,用戶提出解釋權申請應當證明其個人權益遭受了自動化決策程序的重大影響。為了避免用戶的算法解釋權被不正當剝奪,自動化決策者拒不提供解釋或沒有提供相對人滿意的解釋時,用戶應當可以通過平臺或者第三方渠道獲得救濟。{27} 算法解釋權的救濟可以讓第三方參與到算法的審查之中,進而與公法上的算法問責制相銜接。

四、運營端的可解釋:維護公共信任的算法透明度

現代社會的主要風險是科技發展引發的不確定,新一代人工智能技術的算法黑箱必然也會引發社會普遍的焦慮,發生危害后果不僅會損害大量用戶的權利,還會引發社會普遍情感對人工智能技術的信任危機,最終影響社會整體福利。{28} 算法解釋權是給予用戶個人的私法請求權,該路徑可以通過個案的方式滿足個性化的需求。但是,算法解釋權的實現具有離散性特點,在治理效率、行業發展、集體行動和公共利益保護等層面存在局限,無法對算法系統有效問責,且偏誤糾正能力有限,需要引入外部問責和網絡運營者義務的算法治理模式。{29} 在智能化社會,需要在潛在風險發生之前就從運營端增強人工智能的可解釋性,通過網絡運營者義務和外部算法問責維護公共信任秩序。網絡運營者義務主要是指算法影響評估和主動的告知義務,外部算法問責主要是指第三方開展的算法審計。

算法影響評估(Algorithmic Impact Assessments)源于隱私影響評估,是一種基于設計的安全保障措施,能夠及時發現風險并予以處理,盡可能避免或者減少風險的發生。美國國會眾議員Yvette Clarke在2019年4月提出了聯邦層面的《算法問責法案》,該法案要求特定規模的商業實體對涉及個人信息或作出自動決策的高風險系統進行評估,適用于每年收入超過5000萬美元、持有100萬人或者設備信息的公司或者主要作為買賣消費者數據的數據經紀人公司。算法影響評估需要做到四項內容:一是詳細描述系統;二是評估系統的相對成本和收益;三是確定對個人信息隱私和安全的風險;四是將潛在風險降至最低而采取的步驟。{30} 該法案由于存在落地困難的問題,遭到美國研究機構的批評{31},短期內沒有通過的可能?!八惴ㄓ绊懺u估”的關鍵因素應該包括:(1)檢測自動化決策系統對公平、正義、偏見或其他重要問題的潛在影響;(2)設計有效的程序用以發現、測量或跟蹤自動化決策的長期影響;(3)向公眾披露其對自動化決策系統的運行邏輯,以及所有相關的自我評估、外部評估的評審過程;(4)為受影響的個人或群體提供完善的正當程序機制,確保權利得到有效救濟。{32} 我國《個人信息保護法(草案)》第54條所規定的個人信息風險評估規則,可以作為算法影響評估的法律依據之一。然而,《個人信息保護法(草案)》第54條所規定的風險評估制度是一種內部自行執行的要求,此類規則在實踐落地時容易被敷衍,故而應當要求風險評估報告涉及用戶權益的內容需向社會發布,其中涉及到商業秘密的內容可以在對外發布時做合理的刪減。盡管普通消費者不太可能查閱這些評估報告,但社會第三方機構可能查閱這些評估報告并為消費者提供易理解的建議,這種“自評+公開”的方式可以提高算法問責制的有效性。

有些算法應用是從外觀就可以直接感知的,有些算法應用則是非常隱蔽的使用方式。人工智能產品運營者應當積極履行告知義務,通過管理措施提高算法的透明度。根據《個人信息保護法(草案)》第18條的規定,個人信息處理者在處理個人信息前,應當以顯著方式、清晰易懂的語言向個人告知“處理方式”。當利用自動化決策的方法處理個人信息的,該自動化決策的基本方式也應當作為主動告知的內容。此外,《個人信息保護法(草案)》第44條規定:個人對其個人信息的處理享有知情權。知情權要求數據控制者必須確保它們向個人清楚而簡潔地解釋用戶畫像或自動決策過程是如何運作的。{33} 在人工智能技術的應用中,不同場景應當作出不同的告知內容。例如,針對雇主在招聘中使用算法的問題,伊利諾伊州在2020年1月通過了《人工智能視頻面試法》(Artificial Intelligence Video Interview Act),它要求雇主主動履行告知義務來提高算法對相對人的可解釋性:面試前書面通知應聘者人工智能可用于分析應聘者的面部表情,并考慮其是否適合應聘職位;向申請人說明所應用的人工智能技術是如何工作的,以及它用來評估他們的一般特征類型。

算法外部問責也稱之為算法審計,是引入外部專業力量評估人工智能產品的運行程序,調查算法開發人員如何制定決策規則以及所有數據的實際來源。對個人重大權益存在現實影響的人工智能產品,應當通過獨立的第三方監督其背后的決策和流程,從而避免或者化解算法危機。不少網絡運營者的后端是錯綜復雜、混亂無序的,甚至發明了行話“algorithm”來專門指代程序員不想解釋的內容。在ProPublica有關算法黑箱報告的刺激下,紐約市于2017年12月通過了《算法問責法案》(Algorithmic Accountability Bill),要求成立一個包括專業人士、受影響者代表組成的特別工作組,評估本地區公共機構利用自動化決策或者算法輔助決策的情況,審查城市公共機構如何利用算法作出影響個人生活的決定,以及其中是否存在任何的歧視。華盛頓州于2019年2月也提出了關于算法問責的法案,要求公共事業部門在采用自動化決策系統之前創建系統和數據報告,提交給州首席隱私官并向公眾在不少于30天的時間內廣泛征求意見。{34} 歐盟在2020年10月發布的《人工智能民事責任的立法建議報告》中也指出,委員會應評估高風險的人工智能系統中收集、記錄或存儲的數據,促進改善此類數據的可追溯性和可審計性。算法審計高度依賴審計機構的專業性和獨立性,英國倫敦大都會警察局一直使用實時面部識別(Live Facial-recognition)輔助執法檢查,埃塞克斯大學人權中心的獨立審計報告則認為該系統存在缺陷,可能導致歧視等問題。{35} 然而,倫敦大都會警察局則拒絕認可該報告的結論。為了避免算法審計的偏差,應當采取整體、跨學科的視角,融合計算機科學、社會科學和實踐領域的專家,按照科學公允的審計標準進行審查。需要說明的是,對人工智能的要求原則上應等同于人類的可解釋水平,避免過高或者過低的要求而導致算法審計脫離技術的實際發展階段。此外,法律上強制審計的對象,重點是具有高風險的社會公共事業和人工智能商業應用產品,通過算法審計的人工智能產品可作為符合法律要求的可信任對象,有利于在風險預防之外提供技術部署的確定性。

五、結語

人工智能在社會的各個領域取得了令人矚目的成績,如果運用得當,它可以為社會、組織和個人帶來最佳的預期??萍歼M步帶來的社會效應恰如一個硬幣擁有正反面。{36} 然而,當代人工智能技術面臨算法黑箱的風險,可解釋的人工智能是技術的發展方向,也應當成為法律的必然要求。在技術上,第三代人工智能正在致力于解決連接主義人工智能不可解釋性的問題,綜合運用知識、數據、算法、算力實現安全、可靠、可信的未來人工智能技術。{37}事實上,算法并非完全不可解釋,不存在絕對的黑箱算法;對于黑箱模型,要想方設法將其轉化為“灰箱”,盡可能將其中的“黑暗宇宙”壓縮到最小空間。{38} 與此同時,即便算法的某些部分不具有可解釋性,但是這種不確定性應當通過技術和管理相協調的措施予以風險評估和處理,達不到安全、可控標準且對有關主體合法利益產生重大不利影響的,則不應當作為可以上線應用的產品或者技術。目前,個人信息保護法(草案)已經為個人信息處理領域的可解釋人工智能系統創造了良好的法律環境,未來還需要通過專門的人工智能發展法圍繞“可解釋性”的目標,對各類高風險人工智能作出體系化的制度設計,對可解釋的適用范圍、實現方式、審查標準等作出周延的安排。

注釋:

① High-Level Expert Group on Artificial Intelligence, A Definition of AI: Main Capabilities and Disciplines, European Commission, April 2019.

② Finale Doshi-Velez, Mason Kortz, Accountability of AI Under the Law: The Role of Explanation, Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet & Society Working Paper, 2017, p.10.

③ 夏瑩:《人工智能話語體系的建構》,《光明日報》2019年4月1日。

④ 劉德寰、李雪蓮:《大數據的風險和現存問題》,《廣告大觀》(理論版)2013年第3期。

⑤ 王中江:《強弱相關性與因果確定性和機遇》,《清華大學學報》(哲學社會科學版)2020年第3期。

⑥ Philipp Hacker,Ralf Krestel, Stefan Grundmann, Felix Naumann, Explainable AI Under Contract and Tort Law: Legal Incentives and Technical Challenges, Artificial Intelligence and Law, January 2020, p.13.

⑦{22} 魏遠山:《算法解釋請求權及其權利范疇研究》,《甘肅政法學院學報》2020年第1期。

⑧{33} Article 29 Data Protection Working Party, Guidelines on Automated Individual Decision-Making and Profiling For The Purposes of Regulation 2016/679, February, 2018.

⑨ Margot E. Kaminsk, The Right to Explanation, Explained, Berkeley Technology Law Journal, 2019, 1(34), p.25.

⑩ 《民法典》第1037條規定:自然人可以依法向信息處理者查閱或者復制其個人信息;發現信息有錯誤的,有權提出異議并請求及時采取更正等必要措施。自然人發現信息處理者違反法律、行政法規的規定或者雙方的約定處理其個人信息的,有權請求信息處理者及時刪除?!毒W絡安全法》第43條規定:個人發現網絡運營者違反法律、行政法規的規定或者雙方的約定收集、使用其個人信息的,有權要求網絡運營者刪除其個人信息;發現網絡運營者收集、存儲的其個人信息有錯誤的,有權要求網絡運營者予以更正。網絡運營者應當采取措施予以刪除或者更正。

{11} 馬長山:《人工智能的社會風險及其法律規制》,《法律科學》(西北政法大學學報)2018年第6期。

{12} [美]弗蘭克·帕斯奎爾:《黑箱社會:控制金錢和信息的數據法則》,趙亞男譯,中信出版社2015年版,第259頁。

{13} Bernhard Waltl & Roland Vogl, Explainable Artificial Intelligence: The New Frontier in Legal Informatics, Jusletter IT, February 2018.

{14} 吳飛、廖彬兵、韓亞洪:《深度學習的可解釋性》,《航空兵器》2019年第1期。

{15} 轉引自許可、朱悅:《算法解釋權:科技與法律的雙重視角》,《蘇州大學學報》(哲學社會科學版)2020年第4期。

{16} 吳暉、韓海庭等:《大數據征信算法的可解釋性研究》,《征信》2020年第5期。

{17} 劉勝軍、趙長林:《可解釋的人工智能的好處只是合規嗎》,《網絡安全和信息化》2019年第5期。

{18} [美]愛因斯坦:《愛因斯坦文集》第1卷,許良英等編譯,商務印書館2010年版,第409—410頁。

{19} 熊紅凱:《人工智能技術下對真理和生命的可解釋性》,《探索與爭鳴》2017年10期。

{20} Alejandro Barredo Arrietaa, Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI, Information Fusion, 2020, 58(6), pp.82-115.

{21} 申衛星、劉云:《法學研究新范式:計算法學的內涵、范疇與方法》,《法學研究》2020年第5期。

{23}{24} 林洹民:《個人對抗商業自動決策算法的私權設計》,《清華法學》2020年第4期。

{25} Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin,How We Analyzed the COMPAS Recidivism Algorithm,May 23, 2016.

{26} David Gunning,Explainable Artificial Intelligence,DARPA 2017.

{27} 張凌寒:《商業自動化決策的算法解釋權研究》,《法律科學》(西北政法大學學報)2018年第3期。

{28} 參見徐鳳:《人工智能算法黑箱的法律規制》,《東方法學》2019年第6期。

{29} 張欣:《算法解釋權與算法治理路徑研究》,《中外法學》2019年第6期。

{30} H.R.2231-Algorithmic Accountability Act of 2019.

{31} Joshua New, How to Fix the Algorithmic Accountability Act, Centre for Data Innovation, September 23, 2019.

{32} Dillon Reisman, Jason Schultz,Kate Crawford & Meredith Whittaker, Algorithmic Impact Assessments: A Practical Framework For Public Agency Accountability, April 2018.

{34} 張欣:《從算法危機到算法信任:算法治理的多元方案和本土化路徑》,《華東政法大學學報》2019年第6期。

{35} Peter Fussey and Dr Daragh Murray, Independent Report on the London Metropolitan Police Services Trials of Live Facial Recognition Technology, June 2019.

{36} 趙秉志、詹奇偉:《現實挑戰與未來展望:關于人工智能的刑法學思考》,《暨南學報》(哲學社會科學版)2019年第1期。

{37} 張鈸、朱軍、蘇杭:《邁向第三代人工智能》,《中國科學·信息科學》2020年第9期。

{38} 劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。

作者簡介:劉云,清華大學法學院助理研究員,北京,100084。

(責任編輯? 李? 濤)

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 毛片网站观看| 香蕉eeww99国产在线观看| 不卡无码网| 久久中文电影| 91蝌蚪视频在线观看| 久视频免费精品6| 中文字幕日韩欧美| 国产成人高清精品免费软件| 91小视频在线观看免费版高清| 又爽又大又光又色的午夜视频| 真人免费一级毛片一区二区| 丁香婷婷激情网| 久久久久88色偷偷| 免费观看男人免费桶女人视频| 国产成人91精品免费网址在线| 国产成本人片免费a∨短片| 91丨九色丨首页在线播放 | 国产粉嫩粉嫩的18在线播放91| lhav亚洲精品| 免费Aⅴ片在线观看蜜芽Tⅴ| 福利一区三区| 国产人人射| 国产理论最新国产精品视频| 亚洲三级电影在线播放| 亚洲色图欧美在线| 国产在线观看成人91| 呦系列视频一区二区三区| 久久综合伊人 六十路| 91九色最新地址| 国产欧美综合在线观看第七页| 亚洲色无码专线精品观看| 色噜噜久久| 免费高清毛片| 亚洲美女久久| 欧美成人免费一区在线播放| 色妞www精品视频一级下载| 中美日韩在线网免费毛片视频| 亚洲美女久久| 中文字幕在线日本| 欧美在线视频不卡第一页| 精品国产成人高清在线| 亚洲精品自拍区在线观看| 国产精品午夜电影| 日韩高清欧美| 九九热在线视频| 久久一级电影| 国产高清国内精品福利| 伊人久久大香线蕉aⅴ色| 91久久国产综合精品| 色视频久久| 综合社区亚洲熟妇p| 国产无套粉嫩白浆| 国产欧美日韩综合一区在线播放| 日本91在线| 毛片国产精品完整版| 亚洲国产精品美女| 中文字幕亚洲无线码一区女同| 国产精品浪潮Av| 无码中字出轨中文人妻中文中| 国产69精品久久久久妇女| 欧美中文一区| 久久精品丝袜| 久久久久久久久18禁秘 | 日韩无码真实干出血视频| 欧美精品成人一区二区在线观看| 无码免费视频| 亚洲自偷自拍另类小说| 日本www色视频| 国产精品国产三级国产专业不| 91在线无码精品秘九色APP| 久久96热在精品国产高清| 91九色视频网| 天堂在线视频精品| 老色鬼欧美精品| 四虎永久免费地址在线网站| 欧美啪啪网| 在线观看国产黄色| 99激情网| 婷婷六月综合网| aa级毛片毛片免费观看久| 夜精品a一区二区三区| 久久精品人人做人人爽|