999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法歧視的法律規制:動因、路徑和制度完善

2021-08-03 09:50:32張莉莉朱子升
科技與法律 2021年2期

張莉莉 朱子升

摘? ? 要:算法內置性編碼凝視、支撐算法運行的訓練數據之偏差以及算法黑箱帶來的程序透明度缺失是導致算法歧視的技術性原因,進而引致權利失衡,使權利成為缺損狀態。為保障權利行使,本文認為應當確立算法公平理念,并明晰算法歧視法律規制的技術環節,建立以權利失衡的矯正為中心的法律規制模式作為算法歧視法律規制的路徑選擇,并從明確篩選訓練數據的標準化制度、建立算法透明性和可解釋性的審查機制、完善算法問責機制三方面予以探究。

關鍵詞:算法歧視;權利失衡;路徑選擇;制度完善

中圖分類號:D 913? ? ? ? 文獻標識碼:A? ? ? ? 文章編號:2096-9783(2021)02-0015-07

大數據時代,算法通過其程序以及運算規則作出決策。相對于傳統決策領域,其對人工干預的需求甚少,因而多被認為能夠為人類社會提供公正的糾紛解決方式和決策論斷。幾乎可以肯定的是,在算法實際運用的過程中,智能算法因其特殊編碼所有的自主數據分析機制,會加速并放大現存的價值偏好、歧視認知,使得數據在經算法編碼程序分析后形成的決策附有“算法歧視”,導致不公現象產生,從而會對社會秩序造成沖擊[1]。在此背景下,本文擬就算法歧視法律規制的核心、路徑和制度完善予以探討。

一、算法歧視法律規制的動因:基于技術構造的權利失衡的矯正

算法以其高度發達的信息系統融入人們的生活,現代社會在發展過程中也逐漸離不開算法對于計算便利性提升的幫助。正因為算法歧視面向對象之廣及其影響之深,需加以重視,其中法律系統對于算法歧視的回應更應給予高度重視。

(一)算法歧視的技術性原因

相較于人工在決策過程中占據主導地位的傳統決策路徑,人類在智能算法決策的過程中,能夠產生直接影響的范圍隨著信息技術的發展而逐漸縮小,決策更多地通過算法本身程式對于數據理解后的運算得出,而非人腦對數據的分析,這一自主決策系統使得算法歧視存在技術性原因。

首先,算法內置性編碼凝視。所謂編碼凝視(coded gaze),即是外界固有偏見被嵌入到代碼系統中,成為算法天生所有的偏見。算法是以數學程式或者計算機代碼表達意見,其設計理念、數據使用規范、決策輸出標準等都是開發者的主觀選擇,算法開發者在代碼輸入的過程過也因此可能將自己原有的偏見嵌入算法系統之中,從而表現為一種故意為之的歧視。即便開發者想盡一切辦法規避自身原有價值觀對于算法設置的影響,但只要生活在這個社會,每個人都無法成為一座“孤島”。由此,內置性編碼凝視有可能表現為無意識的偏見攝入,即由于群體觀念的裹挾而不可避免的存在自我偏見。在算法程式建立完成后,由于預設偏見的存在,數據在通過算法編碼后成為“污染數據”。由這類污染數據循之產生的污染結果會通過同一套算法不斷反復,使偏見數據的不良影響不斷擴大,最終產生帶有偏見的智能算法結果。可見,開發者的素質、價值水平的高低,以及算法本身編碼的特性,使算法內置性編碼凝視成為算法在走向公正之路上不容忽視的環節。

其次,支撐算法運行的訓練數據之偏差。除了上述外部性社會文化、個人主觀偏見的影響,一些具有歧視性意味的結論源于支撐算法運行的訓練數據的缺陷帶來的偏差。第一,樣本數據中“少數族群”的存在。現實中的數據遠不止幾類、幾十類的區分種類,面對多元、復雜、區分界限模糊的數據源,通常為了設計簡便、減少運行成本,智能算法會選擇“技術逃避”,不自覺地把一些特征不太明顯的少數數據,直接認定為錯誤(或噪聲)數據,或是將全新的數據信息歸于大致類似的數據群中作為后續分析的基礎,一些稀有、缺失的現象(即涉及少數群體的數據)很難被選中,從而導致數據算法結果更青睞于在統計上的多數樣本群,形成馬太效益,資源跟隨算法不斷地向樣本更加豐富的數據群集聚,導致少量但是并非無用的數據在往后的算法決策之中消失不見,影響算法樣本數據多樣化的實現[2]。第二,樣本質量可能存在問題。因算法的特殊性質,數據是必不可少的輸入,其對于數據質量的要求相較于其他的編程技術來說更加嚴格。但是因為算法的訓練數據是通過不同的方式和渠道形成的集合,集合中缺失、重復、失效、造假的“臟數據”可能對數據樣本帶來污染,使算法出現誤解而導出歧視性結果。由于數據算法對數據依賴程度之高,訓練數據的優劣與否深刻影響著算法本身的公正性。

再次,算法黑箱引起的程式透明度的缺失。在信息技術領域,“黑箱”一詞指的是當信息技術專業人員對計算系統進行理解和測試時,并不知道也無法查看計算系統的內部工作情況,因而無法在出現問題之后找出具體的環節或代碼鏈條[3]。相比傳統的機器學習通過特征提取、判定進行推理得出結果的程式,算法深度學習是通過剖析事物原始特性并進行歸納總結之后得出的結果,是一種更為高級的認知方式。正是這一種從原始特征出發的認識范式,存在著我們無法洞悉的隱層,即“算法黑箱”。這里的“黑箱”并不僅意味著不能觀察,還意味著即使計算機試圖向我們解釋,面對晦澀的代碼鏈條我們也無法理解。由于算法黑箱的存在,其運行過程變得愈加模糊,可能通過不成比例的數據聯結出相關性,帶來令人不安的隱形歧視。例如,將男性與機械、計算機技術相連,女性與文職、家政服務相連,對某些表面不敏感但存在某些敏感特性的數據中建立相關性,而這一活動的具體過程是我們所不知道的。即使是在開發者非常小心的情況下,他們仍然可能通過原有模型影響歧視性結果,而這些模型在無意中會為受保護的類別挑選代理變量,其創造的關聯性帶來進一步的傷害。由于黑箱的不透明性在現代科技目前發展中還無法得到解決,算法輸出結果、決策中可能存在的隱形歧視將成為現代科技之暗傷。

(二)基于算法歧視技術構造的權利失衡

數據時代除了對普通個體生活便利性提升帶來影響之外,還有另外一個深層影響,即個體的全面數據化[4]。且在不久的將來,數據將不僅僅涉及單個個體的狀態與活動,每個人的信息點將會通過交互系統匯成一條大河,用戶的數據將變得更加多元化、多樣化。在這種個體數據化、數據多元化的發展過程中,用戶數據背后的商業價值也變得越來越大,數據涉及的權利保護也會點面臨更大的挑戰。在力量懸殊巨大的互聯網與網民之間,權利的讓渡似乎成為一種必然。而在權利讓渡之后,由于算法歧視的存在,權利失衡就此產生,亦即,權利人基于理性而對自己利益的主張遭到沒有正當理由的拒絕;其權利既得不到周圍人的承認,也得不到政治國家的有效保障;權利人的利益遭受侵害后缺乏有效救濟,因而其權利處于缺損狀態的現象[5]。算法歧視引致的權利失衡,不僅是抽象層面平等權的失衡,還包括具象層面隱私權、選擇權的失衡。

內置性編碼凝視以其前置存在的特點,使得算法用戶在使用的過程中不可避免地使自己的基礎信息、行為足跡等數據進入海量的訓練數據之中,并在算法設計者的編碼程序中進行運轉。如此,算法開發者與算法用戶之間的地位懸殊極大,開發者以其擁有的解釋權和海量數據庫占據絕對優勢地位,而用戶只能在其制定的規則之下活動,通過讓渡部分權利獲得使用權限的便利性,而導致二者之間的權利失衡。如果開發者利用與用戶之間極度的信息不對稱并不履行相應義務,會進一步加劇權利失衡。

同時,用戶在讓渡權利后,算法開發者應遵循相應行業自律守則,不越過法律、道德所允許的邊界。但由于原則、行業自律規則的不確定性和缺乏強制性規制,規制措施的缺乏與用戶對生活便利性的要求發生了強烈的沖突,特別是在用戶與那些掌握并利用甚至可能出賣他們的隱私數據的算法開發者之間,這樣的“交易”天然是不平等的。

此外,黑箱內容的不確定性使得用戶的權利無法得到保障。由于計算機系統內部工作情況,具有在專業人員進行理解和測試的過程中無法知曉的特征,引起人們關于算法權利行使的擔憂。例如,一家名為“劍橋分析”的英國公司,在未經用戶許可的情況下違規獲取Facebook上5 000萬名用戶個人信息數據。在曲折迂回的算法運行過程中,由于黑箱本身內容的無法確定,為權利讓渡過程變得模糊不清。用戶在其權利受到侵害的時候也只能選擇在該應用框架內尋求解決辦法,這使得算法開發者一方在某種程度上獲得了裁定用戶使用資格、使用程度的特殊權力。例如,當算法歧視、算法錯誤等情況發生時,開發者往往以技術錯誤或者用戶已知情等理由逃避承擔對用戶的損失賠償責任,使得用戶不得不自行承擔由于算法歧視、算法錯誤帶來的損失。

綜上所述,基于自主決策系統的技術特殊性,算法歧視的實質在于主體權利的讓渡失衡。信息提供者(即算法用戶)以及技術提供者(即算法開發者)之間存在的“力量”懸殊,使得權利讓渡后的公正行使變得困難。因此,算法歧視的法律規制的動因就在于矯正權利失衡,賦予和保障算法用戶對算法提供選項內容的選擇權、對算法決策生成過程的知情權、保障開發者和用戶之間平等權,等等。

二、算法歧視法律規制的路徑選擇

(一)確立算法公平理念

算法歧視引致的權利失衡實質是算法公平的缺失。因此,對算法歧視予以法律規制,首先必須確立包括結果公平和程序公平在內的算法公平理念。針對算法歧視問題,需要的不僅是消除算法歧視本身所有的偏見,更要求對公平作出更加準確的定義,以使相關法律規制有跡可循[6]。公平作為法律所追求的基本價值之一,意味著其能夠在公正、無偏見的背景下對法律行為作出評價。將這一概念引申到算法領域,即是通過公正、公平的運算過程和透明的運算決策結果,來保證多方利益的平衡和權力的對等。

算法結果公平,即算法輸出結果的公平性可以從群體和個體角度進行探討。算法中的群體公平,是指算法一般不做個性化的探討,以人數的多寡分配名額,在稀有與非稀有族群以人口比例作出相稱的決定。例如,某種職業的從業人員男女比例達到2:1,那么在進行招聘時嚴格按照2:1進行簡歷的收納和錄取。盡管這樣一種分配方式在大概率上不影響群組中標幾率的變化,但是從個體的視角來看,以此可能導致特定少數族群中個體中標概率顯著偏高或者偏低,而帶來另外一種意義上的不公。算法中的個體公平則是在相近的個體中分別對數據內容作出判定,考慮個體化之間的差異。這種公平理論對個體之間的分類更為謹慎,通過行業要求的特定特征對個體進行分類,而非單純依靠人口數量的正負相關性。比較而言,群體公平著重于群體之間概率上的公平,而個體公平更側重于在決策做出之后相關個體所可能受到的影響公平與否。算法作為一個根據數據特征作出決策的計算機程式,個體公平更加契合算法設計的初衷,即通過個性化定制獲取信息并向用戶提供便利。

但是,關注算法結果公平的同時,也要注重對決策過程本身的關注,即對于算法公平中程序公平的關注。程序公平,側重于程序的輸入前數據的篩選,輸入中數據運行的透明度以及輸入后決策作出的監管,通過加大算法程式運算過程中的透明性、可解釋性,為算法決策的公信力背書。算法中的公平并非只是對單個群體或者個體權利義務的調整和救濟,算法面對的人群是龐大的,除了一部分實際使用者外,由于算法可能存在的間接影響,而不可避免的存在著大量的潛在用戶。盡管結果對于關涉主體的具體特征予以了考慮,但是對算法結果的過多關注,可能導致過程中各個環節對外界可能產生的影響被忽略,而產生另外一種微觀層面的不公。因此,通過人口統計或者群體特征篩選是遠遠滿足不了算法對于公平性要求的。公平存在于法律上的意義并非狹義的人人對等,法律中對于可理解性的要求也遠高于可闡釋性,算法公平很大程度上取決于在算法決策做出后,能否為所產生的一系列權利義務關系的變動,提供可查證、可解釋、可救濟的具有公信力的記錄。而算法程序公平理論中所涉及的源頭篩選、程式中的可解釋性、決策后的可救濟性對算法公平的實現更具有可操作性,可以避免對單一個體結果的過多關注,實現整個程式內容的可視化。因此,在算法歧視的法律規制的各個環節,貫徹算法程序公平的理念,是更合理并符合實際的。

(二)明晰算法歧視法律規制的技術環節

在大數據時代下,算法作為大數據技術發展下的重要引擎,力圖從海量的數據世界中,對有意義的數據進行挖掘、加工,消除不確定性,重還世界一個新的“秩序”,這就是大數據技術的本質所在[7]。然而算法歧視往往扭曲了算法的原本意義。如前文所述,算法歧視的產生與運行主要由三個問題引發,即算法內置性編碼凝視、訓練樣本數據偏差、算法計算領域的黑箱,或者由于其中一個問題的出現,或者多個問題同時出現導致算法歧視。由于其相對應的三個環節為數據輸入、數據運行、數據監管,可以從這三個環節入手,對算法運行過程中有可能出現的問題予以規避,以達到算法真正為人類服務的預期目的。

首先,數據輸入涉及算法訓練數據的篩選。由于數據內容的質量和種類對算法程式樣本數據的完善與否有著直接的關系,算法種類過少直接可能導致算法輸出結果可信度的降低,算法質量、內容缺失帶來的數據污染則可能帶來算法計算結果的瑕疵。數據作為算法程式的立身之本,只有在樣本數據建立初期,通過對源頭數據大規模的篩選,保證樣本數據多樣化與數據內容的非導向性,才能在算法程式運算源頭有效避免不公現象的產生。

其次,數據運行主要是關于算法透明性、算法黑箱可解釋性的規制。通過可被理解的方式解釋算法、提高算法的透明度,以使其運行更加公開公正。在數據出現紕漏或是算法權重設置有誤時,及時提供救濟。算法透明性的要求不僅僅針對于內置性編碼凝視所帶來的隱形歧視,更因其內部復雜以及商業機密的外衣而具有黑箱特性,使其成為必要,尤其是算法在信用體系中的應用,關乎公眾在社會生活中的根本。正如學者所指出的,對消費者信用進行評分作為涉及消費者切身權益的半公共產品,不僅要有足夠的預測準確率,還要具有可解釋性[8]。為避免數據失真,歧視決策可能帶來的不利影響,以及分配責任模糊等問題,有關算法透明性、可解釋性需要得到法律的回應。

最后,數據監管則指向算法問責制的確立和完善。由于至今科學上都沒有完美解答算法黑箱歧視問題,因此除了在算法本身進行規制之外,算法之外的規制也必不可少。但是,在算法責任歸屬中,由于算法責任難以測量,由于算法多個環節共同作用所造成的算法危害難以追蹤,算法設計的關涉人員“碎片化”使得人的責任難以分配,算法責任的分配與承擔出現困境。在此,只有創建并完善算法問責制,才能使公民在遭受算法歧視的時候,知道這一事實及救濟方式。所謂算法問責制,即必須有人處理算法所造成的危害,相關責任主體有解釋的義務和對算法決策負有責任,并應當由責任主體減輕任何負面的社會影響或者潛在危害,畢竟僅僅指出問題而不進行改正只是做了無用功而已。在國際計算機協會(ACM)的算法透明度和問責性七原則中,也指出了算法運行必須有監管機制,以糾正對個人造成的損害結果和在算法中發現的偏見。現今算法監管遠遠落后于算法編程技術的創新,對日益增長的數據流監管不力,亟待實踐過程中法律予以回應。

(三)建立以權利失衡的矯正為中心的法律規制模式

從國際立法來看,目前規制人工智能算法歧視的法律模式主要有兩種,即歐盟的以數據保護為中心的規制模式和美國的以算法責任為中心的規制模式。

早在1953年,《歐洲人權公約》中就對個人的數據保護予以了規定,其第8條提出各人都有權享有自己生活、通訊得到尊重的權利[9]。隨著互聯網技術的不斷發展,傳統的隱私權保護已經不能夠滿足要求,于是2016年《通用數據保護條例》對個人數據的保護提供了支撐,其前言中提出算法控制者所需要承擔的避免包括有關于種族、性別、性取向、宗教信仰等敏感因素,所可能造成的歧視影響的責任[10]。正如前文所述,訓練數據作為算法運行的支撐,對于算法的意義猶如水之于木,歐盟以數據保護為中心的規制模式更多的是從源頭開始對算法歧視所進行的規制,通過規避敏感因素所可能造成的歧視影響而降低算法歧視出現的可能性。不過在對敏感信息進行篩選的過程中,大量個人數據的篩出可能導致算法決策準確性的降低。除此之外,剔除敏感社會信息后的算法訓練樣本,算法在通過大量間接樣本對個人畫像進行補足的過程也存在著一定的不確定性。面對這些問題,傳統的算法篩出也許并不能解決算法歧視問題,算法歧視有關規制或許更應該依靠算法審查所具有的篩選功能[11]。

相對于歐洲大陸,美國是以算法責任為中心的規制模式。2014年白宮發表的《大數據:攥住機遇,守護價值》[12]中開始提出對于算法歧視的法律規制問題,希望政府解決這一問題所有可能帶來的社會危害。2016年1月,美國FTC(聯邦貿易委員會)發布《大數據:包容工具還是排斥工具?》[13]中通過對大數據所存在的利弊分析,以及相關消費者保護法律的運用法則,對大數據中間商和使用企業的實踐提出相關建議。2017年發布了有關算法透明性、可責性的聲明,提出了包括算法可問責、可解釋、可審計及驗證等為中心的七項原則。最后于2019年初部分國會議員提出了《算法責任法案》[14],希望賦予聯邦貿易委員會有要求具有一定經濟實力或者社會影響的企業,出具其自動化決策系統以及數據運行所帶來影響的評估的權力,這一評估包括對自動決策可能帶來的風險,以及數據運行可能帶來的歧視性影響等文件。以這種自查方式規避有可能的算法歧視,并置以高額的違規懲罰。盡管這一法案尚未通過,但對于理解美國算法規制模式和算法規制啟示有借鑒作用。

在我國,尚未出臺的《個人信息保護法》《數據安全管理辦法》 1和2019年《電子商務法》可以說是從數據和算法兩個方向規制算法歧視的努力,但目前算法歧視法律規制仍處于草創階段。筆者認為,對于算法歧視的法律規制可以選擇以矯正權利失衡為中心的模式,在借鑒域外相關制度的基礎上,建構我國算法歧視法律規制制度體系。這一模式具體包括三個部分,即權利確認、權利保護、權利救濟。首先,權利確認通過保護數據提供者的平等權,保證各個群組,各種類型的信息毋論大小、多寡經過公正篩選之后,都能夠充分的參與到算法樣本數據中來,在算法決策中得以體現。其次,通過實現權利主體的知情權和選擇權來實現權利保護的內容。由于算法程式的特殊性,權利主體的知情、選擇權往往由于技術或者其他因素的限制怠于實現,通過法律系統的積極回應,實現算法程式、內容以及輸出結果的透明化和可解釋性以保障主體權利的實現。再次,權利救濟是對算法疏于監管的現狀作出的積極調整,通過算法問責制的構建給予權利主體可靠的救濟途徑而促使算法程式的不斷完善。

三、算法歧視法律規制的制度完善

相較于歐美法律系統內簡單的事前事后規制,權力失衡的矯正程序通過各個環節的聯動合作,構建有關算法歧視的法律規制。

(一)明確篩選訓練數據的標準化制度

這一環節是確認主體平等權,對各種信息篩選標準進行完善,即權利確認的內容。如前文算法歧視的技術構造得知,算法歧視產生的一部分原因就是因為算法訓練數據存在偏差,由此導致的數據污染隨著算法因為原始數據本身的盲區而越來越大。算法數據的樣本如果一直輕視小樣本、稀有樣本的聲音,為了追求效率而忽略掉少數族群的“吶喊”,帶來的社會效應將會極其糟糕,部分人的聲音不再是人們所能聽到的聲音。面對訓練數據的質量以及面向族群的缺陷,在訓練數據篩選的過程中應盡可能的納入多樣性為篩選標準。由此,算法多樣性并非單稱網絡數據的多樣性,在篩選標準、族群、性別、內容偏向方面也應當具有多樣性,只有在多方力量維持多樣平衡的同時,算法上的公正才能得到保證。

就具體內容而言,首先,篩選標準上,除了對主流數據進行篩選之外,面對容易被識別為“噪音數據”的少數數據應當設計更加精細的標準,不能讓少部分人的聲音因為微弱而被忽略。其次,在設計人員的組成上,盡可能吸納不同年齡、性別,甚至種族的設計人員,對設計人員的組成和監督人員的設置投入多樣性評分機制,通過不同性別、種族之間的差異平衡因為單一設計人員可能帶來訓練數據準入標準的偏見[15]。再次,在訓練數據的內容偏向性上,除了對與需要得到的算法結果正相關的數據之外,部分關聯數據也應當考慮進來,在大數據時代信息與信息之間相互鏈接,信息的攝入單純考慮到正相關的訓練數據不足以反應真實的社會聲音。綜上所述,在算法設計前期,法律應當對算法前期主要的數據構成和設計程式進行規制,提出多樣性的要求,最大程度的規避“偏見數據”進入算法程式之中。

(二)建立算法透明性和可解釋性的審查機制

這是以算法透明性、可解釋性為切入點保護主體知情權和選擇權,即權利保護的內容。近年來,國際電子協會以及歐美國家有關立法機關都開始著手對算法透明性和可解釋進行規制。為了平衡公平與便利的矛盾,我國需要對算法透明及其可解釋性作出規定,不能僅僅依靠行業自律對算法市場進行規范。算法解釋要求算法決策系統的使用者對算法遵循的程序和特定結果進行解釋。隨著科學技術的發展和專業人才的增加,公布和監管算法內容和結果并非完全不可能的事情,但需要注意的是,由于算法運營者有時通過其算法系統進行商業運作,算法公平的要求與保護商業秘密、個人隱私以及防止第三方機構欺詐等存在沖突。此外,算法代碼通常多而復雜,對其進行全面測試的成本也很高,隨著數據時代的到來,或大或小的算法程式只會越來越多,對每一條算法進行監管是不現實的。

對算法內容、輸出結果進行審查和公開對于算法公平雖是必不可少,但是不能簡單的要求一律公開,應當建立標準完善的審查機制。在我國的具體實踐中,也有對智能投顧領域的算法透明性的規定,有學者將其概括為算法的穿透式監管,但是這種監管手段的發起方和實施方都是公權力主體,第三方介入的方式幾乎微乎其微[16]。在當前背景下,第三方機構對于算法運行機制的熟悉程度往往是高于公權力主體的。應當適當準入第三方機構對算法內容、輸出結果中的技術性內容進行審查,通過設置相關的技術性機制對算法訓練樣本、內置性編碼凝視等問題進行篩選和解釋,并由公權力主體進行主導和監督,即通過技術手段,對算法運行機制中的篩選標準和最終結果進行解釋,以此最大程度地推進算法公平在三方之間的實現。

(三)完善算法問責機制

建立算法問責機制,對算法決策所帶來的不利影響進行追責,這是權利救濟的內容。為盡可能避免算法歧視,除了對算法進行訓練樣本的篩選和運行過程中的監督之外,算法的問責機制也同樣重要。算法問責要求算法使用者對算法產生的結果負責,而不論是否能夠詳細解釋該結果為何產生,并要求在設計算法時就遵循法律、政策的要求,使算法對法律的目標負責。建立算法問責機制需要明確算法歧視的責任主體、歸責原則、法律責任三個部分。

首先,明確算法歧視的責任主體。為算法歧視承擔法律責任的,主要是那些注入歧視因子或有義務卻未能及時排除歧視因子的主體,在算法歧視形成的過程中,有關開發者、運營主體在將具有偏見的歧視因子納入算法結果生成過程中,但是卻任由之影響算法結果的生成沒有及時排除不利影響,則需要承擔責任。

其次,確定算法歧視的歸責原則。算法歧視會給被歧視者造成精神或物質層面的損害,理應受到侵權法的規制。由于算法設計準則與算法用戶之間存在著天然技術壁壘以及前文所提到的權利不對等的現象,因此,在算法責任適用的過程中,無過錯責任原則能夠最大限度的保護使用者的權利,以此保持平衡。在歸責原則得到確認的前提下,算法歧視的因果關系認定規則以及在算法開發者內部的責任劃分也是亟待解決的問題。第一,在無過錯責任原則這一歸責背景下,仍有兩種情形,一種是在當事人都沒有過錯的情況下根據實際情況分擔過錯,承擔賠償責任;另一種是在諸如產品責任、環境污染、飼養動物等特殊情況造成損傷的情形下,致害人即使無過錯仍承擔民事責任。正如前文所述,在算法開發者與算法用戶之間存在著數據、技術鴻溝,雙方權利地位處于極度失衡的狀態,因此對于算法責任的因果關系認定應當類比產品責任的認定,算法用戶在證明算法歧視給相同背景下的算法用戶進行了區別對待,并這一區別對待損害用戶的利益即視為因果關系成立。第二,在算法歧視的責任人內部,算法開發者可以分為對算法程式熟練掌握的算法設計者、將算法技術納入公司運營用以謀求利益的算法運營者兩類,自此責任劃分也應當分為幾種情況。首先,若算法設計者在設計程式時,已經竭盡當下技術水平所能及排除歧視因子對于算法用戶權利的侵害,而算法運營者在運營的過程中納入歧視因子。應由算法運營者承擔主要責任,算法設計者承擔補充責任。其次,若設計者和運營者在歧視因子的排除過程中都起到了消極作用,則兩者應對損害結果承擔連帶責任。最后,若設計者未將歧視因子篩出即予算法運營者使用,在這一情形下由于算法運營者對算法程式掌握程度遠不如設計者,應由算法設計者承擔主要責任,算法運營者承擔疏于篩查的補充責任。

再次,確立數據算法的法律責任,數據算法的法律責任包括事前責任和事后責任兩個方面。事前責任即為算法訓練數據、算法編碼的內置編碼凝視以及運算過程中出現的算法歧視現象,通過設置警示、懲罰機制,通過定期整改、罰款、停用等規制措施,對具有紕漏的算法進行規制。事后責任即為在發生算法歧視所導致的不良結果之后,對于相關責任人的追責原則。在事后責任方面可以引入“純粹經濟損失”原則,歧視結果可能帶來的各種間接、直接的經濟損失相較于現實世界中的沖突更加難以把握。正如前文所言,由于開發者、運營者與用戶地位的天然級差,通過“純粹經濟損失”可以最大程度的拉長損害賠償的因果關系鏈條,最大程度的避免用戶權利、利益受到侵害后的投告無門[17]。

參考文獻:

[1] 楊學科.論智能互聯網時代的算法歧視治理與算法公正[J].山東科技大學學報(社會科學版),2019,21(4):33-58.

[2] 張玉宏,秦志光,肖樂.大數據算法的歧視本質[J].自然辯證法研究,2017,33(5):81-86.

[3] 高學強.人工智能時代的算法裁判及其規制[J].陜西師范大學學報(哲學社會科學版),2019,48(3):161-168.

[4] 彭蘭.假象、算法囚徒與權利讓渡:數據與算法時代的新風險[J].西北師大學報(社會科學版),2018,55(5):20-29.

[5] 馮衛國. 權利失衡視野下的農民工犯罪[C]. 中國犯罪學學會.中國犯罪學學會第十七屆學術研討會論文集.中國犯罪學學會:中國犯罪學學會,2008:132-133.

[6] Solon Barocas, Andrew D.Selbs. Big Data's Disparate Impact'[J].California Law Review,2016,104(3): 671-732.

[7] 季潔.算法歧視下的金融風險防控[J].上海金融,2018(10):60-64.

[8] 劉新海,陳道富,孟祥鋒.擔保圈風險的大數據實證分析[J].清華金融評論,2016(10):71-72.

[9] 項焱,陳曦.大數據時代歐盟個人數據保護權初探[J].華東理工大學學報(社會科學版),2019,34(2):81-91.

[10] 胡嘉妮,葛明瑜.歐盟《一般數據保護條例》[J].互聯網金融法律評論,2017(1):28-120.

[11] 汪慶華.人工智能的法律規制路徑:一個框架性討論[J].現代法學,2019,41(2):54-63.

[12] “Big Data:Seizing Opportunities,Preserving Values”, https://obamawhitehouse.archives.gov/sites/default/files/docs/big_data_privacy_report_may_1_2014.pdf,2019.

[13] “Big Data:A Tool for Inclusion or Exclusion?”FTC Report,January 2016,retrieved from https://www.ftc.gov/system/files/documents/reports/big-data-tool-inclusion-or-exclusion-understanding-issues/160106big-data-rpt.pdf,2019-08-05.

[14] H.R. 2231-Algorithmic Accountability Act of 2019,introduced04/10/2019,retrieved from https://www.Congress.gov/bill/116th-congress/house-bill/2231/text,2019-08-05.

[15] 鐘書平,劉慶振,牛媛媛,陳疆猛.智能媒體語境中的信息囚徒、算法悖論及其突圍路徑[J].教育傳媒研究,2019(3):16-21.

[16] 周仲飛,李敬偉.金融科技背景下金融監管范式的轉變[J].法學研究,2018,40(5):3-19.

[17] 王夙.人工智能發展中的“算法公開”能否解決“算法歧視”?[J].機器人產業,2019(3):17-22.

Legal Regulation of Algorithmic Discrimination: Motivation, Path and System Improvement

Zhang Lili,Zhu Zisheng

(School of Law, Hohai University, Nanjing 211100, China)

Abstract:The built-in coded gaze of the algorithm, the deviation of the training data that supports the operation of the algorithm, and the lack of program transparency caused by the algorithm black box are the technical reasons that lead to algorithm discrimination, which in turn leads to an imbalance of rights and makes rights a state of deficiency. In order to ensure the exercise of rights, this article proposed that the concept of algorithmic fairness should be established, and the technical aspects of legal regulation on algorithmic discrimination should be clarified. A legal regulation model centered on the correction of rights imbalances should be established as the path choice for algorithmic discrimination legal regulation. The system will be improved in three aspects: clarification of the selection standardization of the training data, establishment of a review mechanism for algorithm transparency and interpretability, and improvement of algorithm accountability mechanism.

Key words:algorithmic discrimination; right imbalance; path selection; system improvement

主站蜘蛛池模板: 国产美女在线观看| 亚洲av日韩av制服丝袜| 亚洲国产综合精品一区| 无码粉嫩虎白一线天在线观看| 国产91蝌蚪窝| 国产91精选在线观看| 5388国产亚洲欧美在线观看| 精品1区2区3区| 嫩草影院在线观看精品视频| 欧美一区二区福利视频| 国产99在线| 国产日韩欧美精品区性色| 91娇喘视频| www亚洲精品| 亚洲欧美另类色图| 色综合久久88| 亚洲精品第1页| 国产女人水多毛片18| 91成人免费观看| 国产黄在线观看| www.亚洲一区| 免费jizz在线播放| 国产精品99久久久| 国产欧美日韩91| 欧洲极品无码一区二区三区| 欧美中文字幕在线视频 | 香蕉在线视频网站| 成人一级黄色毛片| 8090成人午夜精品| 伊人久久大线影院首页| A级毛片无码久久精品免费| 国产高潮流白浆视频| 日本福利视频网站| 伊人成人在线| 色婷婷综合在线| 免费A级毛片无码免费视频| 成年人久久黄色网站| 欧美精品成人| 在线观看热码亚洲av每日更新| 国产无码精品在线播放| 国模视频一区二区| 国产高清在线丝袜精品一区| a级毛片一区二区免费视频| 99视频有精品视频免费观看| 色综合久久综合网| 黄色网站不卡无码| 国产午夜不卡| 久久免费视频播放| 国产欧美专区在线观看| 亚洲一级毛片在线观播放| 亚洲欧美在线综合一区二区三区| 国产区网址| 中国国产高清免费AV片| 无码AV高清毛片中国一级毛片| 国产精品不卡永久免费| 国产在线精品99一区不卡| 亚洲综合色婷婷中文字幕| 午夜啪啪网| 熟女成人国产精品视频| 丁香五月婷婷激情基地| 99热这里只有成人精品国产| 欧美区一区| 精品国产网| 狠狠色婷婷丁香综合久久韩国 | 欧美日韩第三页| 亚洲va视频| 国产精品区网红主播在线观看| 亚洲第一页在线观看| 手机在线免费不卡一区二| 国产成人盗摄精品| 91探花国产综合在线精品| 试看120秒男女啪啪免费| 91在线播放免费不卡无毒| 国产久操视频| 无码精品国产VA在线观看DVD| 中文无码精品A∨在线观看不卡| 亚洲人成在线精品| 亚洲精品视频免费| 婷婷激情亚洲| 亚洲精品桃花岛av在线| 国产无人区一区二区三区| 亚洲最大福利视频网|