迪莉婭
摘 要:[目的/意義]隨著人機社會的到來,大數據算法決策的應用將會越來越普遍。但是大數據算法決策與普通的人工決策有很大的差異,其問責將是政府和企業未來面臨的重要難題。[方法/過程]本文探討了大數據算法決策問責的含義、重要性和緣起。[結果/結論]在分析了其難點的基礎上,從問責主體、機制、救濟措施3個方面提出了完善大數據算法決策問責的對策。
關鍵詞:大數據算法決策;問責
Abstract:[Purpose/Significance]With the advent of man-machine society,decision-making of big data algorithm will become a more and more common thing.But the decision-making of big data algorithm is quite different from that of ordinary manual decision-making.Its accountability will be an important problem for the governments and enterprises in the future.[Method/Process]This paper discussed the meaning,importance and origin of the decision making accountability of big data algorithm.[Results/Conclusion]The paper proposed the accountability countermeasures from the perspective of accountability subject and mechanism as well as relief measures based on the analysis of the difficulties of the decision-making accountability of big data algorithm.
Key words:decision-making of big data algorithm;accountability;countermeasure
2017年,國務院發布了《新一代人工智能發展規劃》,對人工智能的倫理問題研究提出了明確的要求,要求展開跨學科的探索,加強前瞻性的預防和引導,以降低其帶來的風險,保證人工智能的安全、可靠和可控的發展[1]。人工智能的核心是算法問題,算法的不同產生的影響和結果將會千差萬別。算法可以稱之為當今計算機、手機、物聯網的大腦。隨著大數據的發展,海量數據集的生成,單靠人類自己的力量去分析和利用數據做出決策已經成為不可能。具體而言,算法(Algorithm)是基于特定的計算模型,旨在解決某信息處理問題而設計的一系列指令序列。簡而言之,算法就是計算機代碼的運算。
很多政府部門和企業采用大數據的技術和方法在公共政策的制定和市場運營中依靠算法智能決策,例如:在教育、醫療、司法、保險、金融領域進行信用評分評級、趨向分析判定、內容推介和量化評價等。因此,隨著大數據的集聚,越來越多的政府部門和企業將算法作為數據轉化為知識及做出決策的工具,這就為算法主宰決策提供了無限增長的可能性,而這種增長帶來的影響是深遠的。一方面,隨著人工智能、機器學習、深度學習的發展,很多決策依據一定的算法可以自動做出,代替了傳統的人工決策,提高了決策的效率;另一方面,當算法成為越來越多的組織機構依賴決策的工具,那么算法不僅將重塑個人的生活,而且在大規模的社會、經濟和政治進程中將發揮重要的作用,即算法它不再僅僅被看作是代碼的運算,而是代表了組織在各個領域中對資源的分配、輿論的導向、社會的公平等方面起到重要的指向性作用。雖然計算機常被視為客觀理性的機器,但算法是由人設計出來的,這本身就有可能具有偏見性和錯誤性。因此,大數據算法決策的問責成為政府和企業未來面臨的難題,也成為學者們研究的重要課題。
1 文獻綜述
關于大數據算法問責的研究,國外有關的組織機構和學者已經從其必要性、算法決策透明化與問責、算法決策問責與法律、算法決策責任分配等方面展開了研究。
1)大數據算法決策問責的必要性。萬維網基金會認為,算法決策之所以備受質疑是因為其黑箱問題,這往往將公民和消費者置于很高的風險當中,為了減少算法決策造成的傷害和歧視,需要加強大數據算法決策的問責,解決技術、倫理、知識和政策方面的鴻溝[2]。2)大數據算法決策透明化與問責。學者Paul B de Laat指出,算法的完全透明并不有助于其問責,因為透明有可能會侵犯個人的隱私,同時也會使企業存在失去競爭力的風險。因此,他認為算法可以向監督機構公開,但是向大眾透明化并沒有可取之處[3]。3)大數據算法決策問責的法律問題。Anton Vedder等認為,由于大數據環境的算法,只有將算法不僅僅看作數據處理的活動中,算法的問責才有可能得到重視。目前,算法的影響已經遠遠超過了數據保護法的范疇。在歐盟的《通用數據保護法》序言中指出,考慮到算法對自然人權利和自由的處理可能造成的風險,需要調整控制者和加工者的義務。但是該法的主體部分并沒有對“義務的規制”進行詳細的說明,影響了對算法問責的施行[4]。4)大數據算法決策責任的分配問題。Maja Brkan認為,大數據算法決策所產生的不良后果應該由算法的設計者,即開發商和算法的數據提供者,即算法的采納者之間進行責任分配[5]。
目前,我國學者關于大數據算法決策的問題研究,更多的是從行業倫理規制的角度進行探討,主要包括:1)算法在新聞領域應用中所產生的倫理問題。學者王亞妮認為,算法時代的來臨極大地提高了信息分發的效率,其中的推薦算法在一定程度上減輕了信息選擇的負擔,但不同的算法都有其倫理風險,將會帶來信息繭房、信息選擇權的讓渡以及主流價值導向的缺失等問題[6]。2)算法在無人駕駛領域應用中所產生的倫理問題。學者王珀認為,無人駕駛事故應急算法中,為了防止“囚徒困境”的倫理風險,認為不宜強制采用功利主義的算法[7]。3)算法在人工智能領域應用中所產生的倫理問題。學者魏強、陸平認為,新一代人工智能具有高度的自適應性,給人類帶來福利的同時,也產生了隱私、安全、透明性等倫理風險[8]。
從整體來看,國外學者對于大數據算法問責已經有了較為深入的研究,雖然大數據算法倫理會涉及到責任問題,但是我國學者更多的還是從道德層面進行闡述和分析,而關于對其專門的“問責”問題研究還處于起始階段。
2 大數據算法決策問責的含義
隨著算法在各個領域的應用,算法的透明度受到了普遍關注,并由此引發了算法問責的問題。因為算法系統的自主性很強,它根據獲取的數據,不斷進化和學習,能夠形成一套自己的體系。這種結構是開發設計者預料之外的,包括“黑箱”的存在,很難追溯到錯誤的根源,這就可能會給當前的倫理和秩序帶來關于歸責問題的挑戰:到底是算法的失誤,還是工作人員的錯誤判斷?在不久的將來,責任界定、行為監管的判定可能變得十分困難,從而導致責任鴻溝問題的產生[9]。
因此,很多學者就什么是算法決策問責展開了討論。學者Neyland D認為,問責意味著算法決策不僅需要證明其合理性而且還需承擔減輕任何由其造成的負面社會影響和潛在傷害的義務[10]。Robyn Caplan認為,算法決策問責不僅指算法對社會產生影響的責任分配,如果造成了傷害,還包括相應的救治機制。雖然以上兩位學者強調了問責的內容,但是問責的主體并沒有闡明。美國公共政策理事會對于算法決策問責的主體做出了明確的規定,指出應用算法的機構即使對算法的結果不能做出合理的解釋,但是也應該對采用算法做出的決策負責[11]。而本文認為,算法決策問責是指采納和應用算法決策的機構在應用算法決策過程中對于社會和個人產生的不良影響所應承擔的責任以及采取相應救濟措施的過程。
3 大數據算法決策問責的重要性
人工智能的本質就是一種算法模型,在強大的計算能力支持下,計算機可以借助算法不斷地從大數據中進行分析和學習,通過反復試錯和改錯來吸取經驗,實現自身智能化程度的不斷提高,從而幫助人類作出相應的決策[9]。未來為了促進人機社會的和諧發展,算法問責的研究和確立具有重要的意義。
1)有利于促進大數據算法決策過程的透明度。為了避免智能化決策的“黑箱”,促進大數據算法決策的數據來源、質量及算法模型的設計以及運行過程的透明度,是保證算法決策合法、公平、正義的重要意義所在,為大數據決策提供重要保障。
2)有利于促進算法決策模型的科學性。大數據算法決策模型的設計是決策者思想、理念的最好體現。通過建立算法決策問責機制,促進和指導大數據決策模型的設計必須符合客觀規律,具有客觀性、系統性和邏輯性,減少在算法模型設計中偏見、錯誤以及歧視性傷害的風險,在決策的邏輯模型、程序模型、數據處理模型和自定義模型的設計和應用當中符合公平和正義的原則。
3)有利于強化算法決策結果的責任性。決策失誤的問責并不會因為是智能決策而得到規避。無論是政府或者企業,由于智能決策而造成的傷害或者歧視性的后果,作為決策者同樣要承擔問責。算法問責機制的構建有助于極大地提高大數據算法決策的責任性,并對決策的失誤或者產生的不良后果進行追溯和糾正,提高大數據算法決策的公開、公平和正義的價值導向。
4 大數據算法決策問責的緣起
有些推薦算法決策的應用并不會產生實質的傷害性后果,但是如果將算法應用在犯罪評估、信用貸款、雇傭評估等關乎個人利益的場合,由于其并不是僅僅針對某一個人,而是采用規模化運作的方式,可能會影響具有類似情況的一群人或者某一類人的利益,所以它的影響范圍會很大[12]。有人稱基于數據的算法是客觀和中立的,其實只是一個美麗的誤會而已。早期的算法決策的數據來源和算法決策的復雜度不高,且應用領域并不廣泛,對于算法的問責沒有受到很高的重視。但是,隨著大數據時代的來臨,面臨紛繁復雜的數據,很多企業和政府為了減少成本和提高效率,在很多領域采納算法決策,對于算法所引發的不公平和歧視性的現象也得到了更多的關注。算法所產生的偏見和歧視主要來自兩個方面:1)算法主體價值觀歧視。這種算法歧視主要來自算法設計者自身存在偏見或者歧視,將其融入到算法中所產生的歧視性后果。2)算法系統自然獲得的歧視。這種歧視一方面來自算法采用的客觀數據本身就具有歧視性,另外一方面,也體現在算法在演化過程中自身獲得所產生的歧視。具體表現在:
第一,嫌貧愛富性算法。算法一般經過排序、分類、關聯和過濾幾個步驟。排序是將排名的標準嵌入到算法中進行優先等級的劃分。排序本身就是一個價值理念實現的過程。雖然大數據利用海量數據實現精細化的決策,但是也帶來了另外的悖論現象,那就是通過排序和分類,雖然有助于實現用戶精細化的畫像,但導致窮人和富人的標簽更加明顯,如果被數據打上了“窮人”的標簽,那么獲得貸款、信用、教育等的機會就會受到很大的影響。有證據顯示,在美國的金融服務領域,窮人通常受到的服務比較劣質,廣告商往往將高息貸款的服務投向窮人[13]。這種算法導致“嫌貧愛富”的現象,隨著自動化決策的廣泛使用,有可能會加劇貧富差距和社會不公正現象的發生。
第二,性別歧視性算法。雖然信息技術秉持“技術中立”的原則,但是在系統運行中,也無法保證其不會自動修改程序,而出現歧視性的結果。據報道,亞馬遜曾經開發的招聘工具具有性別歧視的現象,在進行簡歷的遴選時,對于簡歷上出現“女性”這個詞就會打低分,使得女性在求職中,獲得面試的機會大幅度的減少[14]。即使后來亞馬遜修改了程序,也無法保證系統不會出現歧視性的結果。
第三,種族歧視和年齡歧視性算法。有數據顯示,計算機對于淺色人種的誤判率只有1%,對深色人種的誤判率高達35%[15]。而且依據美國非政府組織機構ProPublica調查顯示,Facebook在投放與購房相關的廣告,排除了非洲裔美國人和猶太人。同樣,Uber和Verizon Wireless這些非常有名的公司也是按照年齡和性別的不同而投放不同的招聘廣告[16]。
5 大數據算法決策問責的難點
大數據算法決策有助于為民眾提供實時、智能、便捷的服務,但是,由于決策主體、客體以及過程的不透明和難以解釋性等原因導致決策問責的難度大幅度增加。
5.1 大數據算法決策問責主體的復雜性
無論是公共領域還是私營領域,應用大數據作決策,都會涉及到算法系統的產生過程。如果算法系統是按照組織機構的目標以及程序員依據所完成的目標設計出的算法系統,那么系統做出的決策出現不公平和歧視性的傷害,有可能是由于算法設計者的能力或者其偏見導致的錯誤,這種錯誤很容易進行查詢。但是,很多大數據決策系統采用的是機器學習系統,隨著系統的不斷進化,這些人工智能系統就會與環境交互,經過“觀察”和“思考”,具備了一定的自主學習能力,而這種能力的獲得,與過去植入指令式“代碼”的決策非常不同,雖然有利于人機共同創造知識,但是這種產生知識的原理、過程成為了“黑箱”,一旦決策失誤,問責的主體反而難以確定。
5.2 大數據算法決策過程的透明性和可解釋性難以實現
第一,算法過程的透明度是指影響算法決策的因素對使用、管理和受使用算法決策系統影響的人具備可知、可見的程度。透明度是算法決策問責的重要內容。算法決策的透明有助于加強相關利益者和公眾的監督,同時也是取得公眾信任的重要前提條件。因此,無論是歐盟的《通用數據保護法》還是美國即將出臺的《算法問責法案》都把透明性作為問責的重要要素。雖然算法的透明度成為普遍的訴求,但是算法錯誤的難以監控和糾正就會導致其的不可解釋性。因此,在自動算法決策中,算法的透明性成為重要的挑戰[17]。但是,如果公開有關算法,很多企業和機構認為:①算法有可能是企業的機密,公開有關算法雖然有助于公眾監督,但是會影響企業或者組織機構的發展。②公開算法有可能會涉及大量的個人隱私。如果說算法是“大腦”,那么數據是養料。而很多算法系統的運行離不開數據,數據中又包含了大量的個人隱私數據,因此,算法的透明和公開必然會涉及相關隱私的管理和規定。③有些算法本身就是“黑箱”,就是公開了,對于算法運行的機理也難以清楚地解釋。
第二,算法的難以解釋性。算法的可解釋性,首先指的是面向用戶而非面向領域專家和技術人員的解釋權;其次,解釋的內容包括整個決策的過程、輸入、輸出的關系、數據的來源、決策原理等方面[18]。因此,在應用算法進行決策的系統中,必須采用最終用戶可以理解的語言用于解釋,以便用戶能夠理解并獲取其信任。歐盟在2018年的《通用數據保護法》中創制了自動化決策的解釋權,要求每一個制定決策的算法能夠證明決策的正確性[19]。如何解釋自動化決策的功能、原理、模型的設計以及計算的結果成為應用機器學習和神經網絡決策的難題。一方面是不可解釋性,即機器學習在自主學習過程中,所做出的決策,有時候本身就存在“黑箱”,如學者Mayer Schnberger認為:深度神經網絡的美麗之處部分在于它們是“黑箱”,因為它們以超越人類邏輯之外的方式工作[20];另外一方面,即使能解釋,但是解釋的復雜度很高,這也成為自動化決策應用和發展中的重要障礙因素之一。
5.3 大數據算法決策個人申訴的困境
申訴是指公民、法人或其他組織,認為對某一問題的處理結果不正確,而向國家的有關機構申述理由,請求重新處理的行為[21]。目前,就大數據算法決策所產生的人身傷害、財產損失,由于主體的多樣性、過程的不透明性等原因,不僅難以申訴,并且目前并沒有建立明確、專門的申訴機制。例如,就歐盟的《通用數據保護法》中雖然提出了建立人工智能倫理委員會,以及全自動化決策的知情—同意等權利,但是算法決策造成對當事人的傷害問題并沒有明確的規定。另外,在2019年,歐盟公布的《可信賴人工智能的倫理準則》中,雖然也提出了問責的問題,但也只是從風險防控的角度提出了加強審計和最小化負面影響的要素,并沒有對造成的傷害如何進行評估和救濟等問題做出有關的規定。
6 完善大數據算法決策問責的對策
大數據算法決策造成的傷害,作為普通的受害人追溯起來非常的困難。因為按照民事訴訟的方式起訴到法院,依據慣例,誰起訴誰舉證的原則,受害人以一己之力舉證自動化決策產生的錯誤是很難實現的[22]。正如古德曼等人認為,要想就自動化招聘問題起訴雇主,這是一件極度困難的事情,因為崗位求職者也許永遠都不會知道企業是否采用了該種技術[14]。目前,已經曝光的算法決策的傷害,通常由懂技術的專家、學者、工程師通過復雜技術的檢測和評估完成。因此,算法決策問責的難題比較普通的決策而言,增加了難度。
隨著人機社會的到來,構建大數據算法決策問責制度成為未來政府、企業所要解決的重要難題。無論是算法還是驅動算法的數據,都是由人設計、創建和收集的,即使算法做出了錯誤的決策或者出現了難以預期的結果,包括采用機器學習的方式,那么算法做出的決策也應最終由人來負責,而不應該以算法決策為借口,不承擔相應的責任。
6.1 依據不同的主體清楚劃分責任
雖然大數據算法決策的主體非常復雜,有人的因素,還有“機器”的因素,這就有必要清楚劃分決策主體的責任,才能有助于算法決策的有效實施和確定責任的歸屬。
人類以語言和文字表達對問題的意見和抉擇,而大數據算法的本質是以計算機的代碼以及數學方式進行意見的表達和決策。決策的結果嵌入了設計者、開發者、使用者的主觀選擇,除了算法本身的原因以外,決策的原料—數據的全面性、準確性、完整性等因素也是影響算法的重要方面。因此,依據算法決策的目的、標準、功能、使用范圍和效果,劃分不同的責任主體,對算法造成對當事人的傷害進行評估和問責。①算法的設計者或者開發商。從人工智能產品來說,其本質是一種商品。那么算法的設計者和開發商是算法決策產生的重要責任人,算法設計者既包括算法的工程師也包括采納算法的機構。②算法決策的管理者。很多企業或者政府為了提高單位的效率,購買大數據算法決策的產品,在工作中對用戶造成的傷害,算法決策的管理者也需要承擔相應的責任。
傳統的決策問責遵循“誰決策誰負責”、“誰主管誰負責”,而作為大數據算法決策,雖然是機器做出的決策,所產生的傷害和負面影響,也需要有相應的責任人負責,因此,同樣要秉承“誰設計誰負責”和“誰主管誰負責”的原則。
6.2 構建科學合理的問責機制
應用大數據算法決策,其決策的“不透明性”和“不可解釋性”總是成為詬病的話題,為了促進其透明性和可解釋性,構建科學合理的問責機制,有助于防止其風險的發生。
1)成立專門的大數據算法決策問責委員會。其主要職責除了對大數據算法決策存在的風險進行評估和制定相關的規則和制度以外,同時受理受到算法決策傷害的當事人申訴。如果按照傳統產品造成的傷害,誰受傷害誰舉證的原則,當事人很難做到。因此,鑒于大數據算法決策的高度復雜性,大數據算法決策產品所造成的傷害,需要建立由專家、學者、技術工作者共同組成的大數據算法決策問責委員會,對當事人造成的傷害進行評估、認證,為當事人出具相關證據和報告。
2)建立明確的責任標準。作為開發、采用自動化決策的機構,如果造成了歧視性、錯誤的決策,依據決策的影響、嚴重程度需要承擔相應的責任。目前,由于對錯誤或者歧視的標準和認知程度不同,導致對于自動化決策產生負面影響的責任難以界定。例如,COMPAS是美國司法部門應用的犯罪風險評估系統就對黑人有歧視的現象,該系統的算法往往會對黑人打上高風險犯罪分子的標簽,如果黑人犯罪,將會面臨更加嚴厲的刑罰。但是,由于對算法偏差并沒有統一的界定和建立相應的問責機制,導致目前很多法院依舊采用該系統而對出現的問題不用承擔任何責任[23]。因此,對于算法造成的傷害需要明確設計者、開發商、應用商的責任,同時也需要劃分主觀故意造成的傷害,還是算法系統自然習得的傷害,依據問題的不同,制定差別化的責任標準,以便更好地預防算法所導致的不良后果。
3)加強算法的審計。加強審計是算法問責的重要方面,在歐盟的《通用數據保護法》中明確提出算法審計作為評估責任的重要手段。算法的審計既包括人工的審計,也包括AI審計,即審計內容和過程的代碼化。由于算法的復雜性,在算法的審計過程中,對于算法和數據的偏差和偏見,只靠專家和技術人員的人工審計還是非常有限的,如果通過專業性的AI審計系統,科學的檢查算法的學習模型,并測試訓練數據和模型中的偏見,將會大幅度提高審計的效率和科學性。
6.3 制定全面救濟措施
目前,對于算法所造成的傷害,普遍采用的方法是對造成傷害的企業或者平臺進行罰款,例如,歐盟《通用數據保護法》中規定,違反該法的相關規定,情節嚴重的違規企業接受2千萬歐元的罰款,或者繳納上一財政年度全球營業額的4%,兩者取其高,進行罰款,提高企業的責任感[24]。我國2018年制定的《電子商務法》第18條規定了網絡平臺算法個性化推薦結果的消費者保護義務,對于違反規定的企業,由相關部門責令其限期改正,沒收違法所得,可以并處5萬元以上20萬元以下的罰款;情節嚴重的,并處20萬元以上50萬元以下的罰款[25]。從以上相關的法律規定來看,對于算法決策主體的懲戒主要以罰款和責令修正為主,但是對于算法所導致的個人消費者的傷害性救濟尚未提及。因此,應用算法對個人造成的歧視、不公平交易、侵害個人合法權益的行為,需要進行原則性的規定,合理定性其行為,如果有嚴重侵犯個人權益的行為,可將其定性為濫用優勢地位、欺詐、誘導等不當獲利和侵權行為,對于個人造成的傷害和侵權給予申訴,加強應用算法決策的企業或者政府算法監管的行為,更有助于算法決策的應用獲得公眾的信任[22]。
在十九大報告中,明確提出了要加強和推動互聯網、大數據、人工智能和實體經濟深度融合,促進我國經濟和社會的繁榮發展。大數據算法決策技術在政府和企業領域中的應用將會是未來發展的重要趨勢。隨著大數據產業的發展,我國對利用大數據所存在的問題也開始重視起來,例如:2015年我國制定的指導大數據發展的綱領性政策《大數據發展的行動綱要》,對我國大數據應用中隱私的保護做了一定的說明,但是對于大數據應用的算法決策問責問題尚未涉及。算法問責是大數據應用中的核心問題之一,因此,需要不斷加強大數據算法決策中問責問題的研究,保證算法決策能夠客觀、科學、透明,不斷促進人機社會的和諧發展和大數據技術的科學利用。
參考文獻
[1]《新一代人工智能發展規劃》國發[2017]35號[EB/OL].https://wenku.baidu.com/view/752beed7c67da26925c52cc58bd631 86bdeb9204.html,2019-10-20.
[2]Algorithmic Decision-Making Based on MachineLearning from Big Data:Can Transparency,Restore Accountability?Philos.Technol,2018[EB/OL].https://link.springer.com/content/pdf/10.1007%2Fs13347-017-0293-z.pdf,2019-10-20.
[3]Algorithmic Accountability-Applying the Concept to Different Country Context,2017[EB/OL].https://webfoundation.org/docs/2017/07/Algorithms_Report_WF.pdf,2019-10-20.
[4]Anton Vedder,Laurens Naudts.Accountability for the Use of Algorithms in a Big Data Environment[EB/OL].https://lirias.kuleuven.be/retrieve/430572,2019-10-21.
[5]Maja Brkan.Do Algorithms Rule the World?Algorithmic Decision-Making and Data Protection in the Framework of the GDPR and Beyoud[EB/OL].https://techpolicyinstitute.org/wp-content/uploads/2018/02/Brkan_do-algorithms-rule.pdf,2019-10-21.
[6]王珀.無人駕駛與算法倫理:一種后果主義的算法設計倫理框架[J].自然辯證法研究,2018,(10):70-75.
[7]魏強,陸平.人工智能算法面臨倫理困境[J].互聯網經濟,2018,(5):26-31.
[8]吳佳超.物聯網技術倫理問題研究[D].天津:天津大學,2013.
[9]牟莉娜,陽杰.人工智能時代的機遇與挑戰:基于算法的審計決策[J].中國內部審計,2018,(12):4-6.
[10]Neyland D.Accountability and the Algorithm[EB/OL].https://link.springer.com/content/pdf/10.1007%2F978-3-030-00578-8_3.pdf,2019-10-20.
[11]Association for Computing Machinery US Public Policy Council(USACM),Statement on Algorithmic Transparency and Accountability,2017-01-12[EB/OL].https://www.acm.org/binaries/content/assets/public-policy/2017_joint_statement_algorithms.pdf,2019-10-20.
[12]搜狐網.算法決策興起:人工智能時代的若干倫理問題及策略[EB/OL].http://www.sohu.com/a/143165651_455313,2019-10-20.
[13]AI算法歧視在普惠金融中的悖論、阻礙與解決方案[EB/OL].http://mini.eastday.com/a/180621063628033-2.html,2019-10-22.
[14]百度網.檢測到女性就打低分?亞馬遜AI招聘工作被曝性別歧視[EB/OL].https://www.baidu.com/link?url=SrT5lZLs1Ra E35 ZkXbU4ZVGZfM5065Rn10B81pBDXf5AWiCu9qAU6yx41yv1J efOp eATtg_kiXfp6FyXaP0cdOhnpyOmrA86BAKlOXZmT1C&wd=&eqid=fec48db60004f238000000035d09a001,2019-10-22.
[15]雷鋒網.消除人臉識別系統對不同膚色的誤判,為何比登天還難?[EB/OL].http://wangid.cn/news-5003-257.html,2019-10-22.
[16]ProPublica is Wrong in Charging Racial Bias in an Algorithm[EB/OL].https://www.acsh.org/news/2018/01/17/propublica-wrong-charging-racial-bias-algorithm-12427,2019-10-22.
[17]Diakopoulos.Nicholas,Algorithmic Accountability:Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015,3(3):398-415.
[18]Principles for Accountable Algorithms and a Social Impact Statement for Algorithms[EB/OL].http://www.fatml.org/resources/principles-for-accountable-algorithms,2019-10-22.
[19]百家號.解釋權條款剝奪深度學習的合法性:最嚴數據隱私條例今日生效[EB/OL].http://baijiahao.baidu.com/s?id=16014196283 24671330&wfr=spider&for=pc,2019-10-22.
[20]搜狐網.歐盟要求解釋權,或引發與人工智能公司的沖突[EB/OL].http://www.sohu.com/a/105378337_381309,2019-10-22.
[21]百度百科[EB/OL].https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E7%94%B3%E8%AF%89&rsv_pq=dc52ae88000180bd&rsv_t=6e24UCJ0VYdP1 LP387xQime4EJ3LXOix7bvqvSPkbSMx7vs9cemJpwJmeto&rqlang=cn&rsv_enter=1&rsv_sug3=1,2019-10-22.
[22]張凌寒.《電子商務法》中的算法責任及其完善[J].北京航空航天大學學報:社會科學版,2018,(6):16-21.
[23]Joan Donovan,Robyn Caplan.Algorithmic Accountability:A Primer[EB/OL].https://datasociety.net/wp-content/uploads/2018/04/Data_Society_Algorithmic_Accountability_Primer_FINAL-4.pdf,2019-10-22.
[24]CSDN博客.你準備好迎接GDPR(歐盟,通用數據保護法)了嗎?[EB/OL].https://blog.csdn.net/jessica_seiya/article/details/79061 406,2019-10-22.
[25]中華人民共和國電子商務法[EB/OL].http://lawdb.cncourt.org/show.php?fid=150891,2019-10-22.
(責任編輯:陳 媛)