999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

打破算法歧視:健全平等權(quán)的保障機(jī)制

2023-09-19 15:23:01馬露露
區(qū)域治理 2023年20期
關(guān)鍵詞:人工智能法律

馬露露

中南財(cái)經(jīng)政法大學(xué)

一、問題的提出

“‘平等’是近現(xiàn)代以來最具有動(dòng)員力、最震撼人心的觀念,并通常被賦予‘社會(huì)公平正義’的核心地位,乃至與‘公平正義’畫上等號(hào)。”然而,偏見、歧視和刻板印象一直存在于人類社會(huì)中法治陽光無法普照的角落。因此,為了營造反對(duì)歧視、平等、關(guān)愛的社會(huì)環(huán)境,人們寄希望于一種絕對(duì)理性客觀、排除人類主觀因素影響的工具。隨著人工智能時(shí)代到來,數(shù)據(jù)、算法和建模等數(shù)學(xué)方法似乎使這種理想照進(jìn)現(xiàn)實(shí),算法技術(shù)讓人類決策更量化、客觀及“平等”,在廣為流傳的“技術(shù)中立論”的包裝下,“人類現(xiàn)在對(duì)計(jì)算機(jī)、數(shù)學(xué)、算術(shù)法則和構(gòu)建模型的信任超過了對(duì)人性、自我感受和主觀判斷的信任”。

但實(shí)踐中越來越多案例表明,人們?cè)谙硎苤此啤凹夹g(shù)中立”的算法帶來紅利的同時(shí),也承擔(dān)著其隱形的更加嚴(yán)重和廣泛的危害,其中的算法歧視的問題逐漸浮出水面。如2000 年初美國司法系統(tǒng)使用的預(yù)測被告未來再犯可能性和人身危險(xiǎn)性的COMPAS 算法,經(jīng)一家非營利機(jī)構(gòu)ProPublica 對(duì)COMPAS 算法結(jié)果分析,得出結(jié)論“黑人被告再次犯罪的可能性以及自身危險(xiǎn)程度高于白人45%”。不僅在算法的結(jié)果當(dāng)中會(huì)產(chǎn)生歧視,我國有學(xué)者指出算法社會(huì)的不平等是自始至終的多形式不平等,因?yàn)樗惴ㄉ鐣?huì)對(duì)人的科技素質(zhì)要求極高,這就決定了只有少部分能夠精通算法,科技能夠位于算法之上掌控高新技術(shù),而大部人只能成為被高科技掌握的“魚肉”。[1]帶有偏見的不合理區(qū)別對(duì)待是對(duì)公民平等權(quán)的侵犯,算法歧視不僅具備傳統(tǒng)技術(shù)和制度手段難以識(shí)別的隱蔽性,還可能伴隨算法的擴(kuò)展應(yīng)用廣泛復(fù)刻并蔓延至其他場景之中,對(duì)平等權(quán)的憲法保障提出了新的難題。

從當(dāng)前我國算法歧視治理現(xiàn)狀來看,早在2019 年3 月,我國科技部成立了專門委員會(huì)針對(duì)數(shù)據(jù)壟斷、算法歧視等人工智能治理的重點(diǎn)領(lǐng)域,監(jiān)測人工智能帶來的各種社會(huì)風(fēng)險(xiǎn)。吳漢東教授在對(duì)人工智能作學(xué)術(shù)探討時(shí)強(qiáng)調(diào)“面向人工智能時(shí)代,科學(xué)技術(shù)文明的建設(shè)需要社會(huì)制度文明的促成,我們需要?jiǎng)?chuàng)設(shè)出保人工智能安全、可靠、可控的法律制度”。[2]由于算法歧視是近年來出現(xiàn)的市場亂象,一些大型企業(yè)正在利用大數(shù)據(jù)、算法與制定規(guī)則對(duì)用戶“磨刀霍霍”,我們迫切需要一個(gè)清朗的網(wǎng)絡(luò)空間,這就要求對(duì)算法治理建立規(guī)章制度,特別是以憲法所保障的平等權(quán)作為基本導(dǎo)向,建立健全平等權(quán)的保障機(jī)制,展開推進(jìn)我國算法治理體系與治理能力現(xiàn)代化。

二、算法歧視產(chǎn)生法律風(fēng)險(xiǎn)的原因

2014 年邱仁宗等學(xué)者就指出“大數(shù)據(jù)技術(shù)本身無所謂的好與壞之分,在倫理學(xué)上技術(shù)是中立的”。[3]而創(chuàng)造算法、使用算法的人具備很大的主觀能動(dòng)性,再加上人工智能深度學(xué)習(xí)可以加強(qiáng)偏見意志數(shù)據(jù)化,因此數(shù)據(jù)中立論很可能不再適用,當(dāng)前有必要結(jié)合算法歧視的特征和類型梳理算法歧視的肇因,從技術(shù)層面解釋算法歧視對(duì)平等權(quán)產(chǎn)生的法律風(fēng)險(xiǎn)。

(一)數(shù)據(jù)自身帶有偏見

算法的個(gè)體化的規(guī)制是法律針對(duì)不特定群體一般性規(guī)制的突破。法律的一般性原則在法治原則體系中舉足輕重,其被稱為是法治的“阿基米德支點(diǎn)”,主要體現(xiàn)為意志的一般性,對(duì)象的一般性和適用的一般性,平等權(quán)作為基本權(quán)利,是法律一般性規(guī)定的具體體現(xiàn),平等權(quán)的特征在于它強(qiáng)調(diào)一視同仁對(duì)待的原則滲透在個(gè)體、群體之間,而算法對(duì)個(gè)人的個(gè)性化定制看似人性實(shí)際是上一種不平等的體現(xiàn),它的個(gè)體性規(guī)則并沒有基于一般性規(guī)則之上,而是基于一種私人定制的不具有合理性的特殊規(guī)則,是建立在貧富差距、強(qiáng)弱分化的不平等基礎(chǔ)上的。如此一來,算法制定的個(gè)體性規(guī)則便會(huì)形成強(qiáng)者愈強(qiáng)、弱者愈弱的馬太效應(yīng),產(chǎn)生實(shí)質(zhì)不平等的危害結(jié)果。

(二)算法異化權(quán)力-權(quán)利配置

憲法通過公民平等權(quán)、公民的政治權(quán)利和自由、社會(huì)經(jīng)濟(jì)權(quán)利等基本權(quán)利是為了防止國家公權(quán)力濫用,保護(hù)公民的基本權(quán)利不受到公權(quán)力的侵犯。算法作為“非人類行動(dòng)者”占有海量形式的大數(shù)據(jù),通過電腦建模實(shí)現(xiàn)對(duì)人的認(rèn)知感知能力、分析處理能力和決策判斷能力“模擬仿真”并在此基礎(chǔ)上超越,逐步實(shí)現(xiàn)對(duì)人的規(guī)則“代碼化”,脫離人的掌控并演化成為對(duì)人霸權(quán)的“準(zhǔn)公權(quán)力”主體,這給平等權(quán)在應(yīng)對(duì)公權(quán)力的侵害時(shí)又增添新的危機(jī)。算法權(quán)力的取得源于自身的無形拓展和權(quán)力-權(quán)利的雙向互動(dòng),算法曾被稱為是人生十字路口的“無形手”,其決策以潛移默化的形式影響到人們的日常生活,無形中決定著人們的選擇,在人工智能時(shí)代,算法可以突破物理空間的局限,涵蓋到人們生活的每個(gè)方位、每時(shí)每刻,突破時(shí)間和空間的維度,以更加隱蔽的方式完成對(duì)個(gè)人自由的限制,增強(qiáng)了算法權(quán)力對(duì)平等權(quán)的危險(xiǎn)。

(三)算法深度學(xué)習(xí)強(qiáng)化偏見

人工智能算法已經(jīng)不局限于單向的數(shù)據(jù)輸入-數(shù)據(jù)分析-預(yù)測產(chǎn)生的過程,而是對(duì)現(xiàn)有數(shù)據(jù)庫進(jìn)行特定數(shù)據(jù)的特征提取,反復(fù)學(xué)習(xí)增強(qiáng)數(shù)據(jù)之間的關(guān)聯(lián)度,按照相應(yīng)的算法邏輯搭建初始的數(shù)據(jù)特征模型,自主分析出數(shù)據(jù)之間的密切程度和發(fā)展規(guī)律,最終生成高級(jí)的認(rèn)知能力。在輸入帶有歧視性質(zhì)的數(shù)據(jù)時(shí),算法會(huì)將這種實(shí)質(zhì)上是社會(huì)偏見數(shù)據(jù)化轉(zhuǎn)變?yōu)閿?shù)據(jù)偏見,在反復(fù)學(xué)習(xí)過程中形成定性的算法邏輯偏見,最終產(chǎn)生的偏見決策結(jié)果又反饋于社會(huì)之中強(qiáng)化歧視,這就是“回音壁效應(yīng)”。但即便是在數(shù)據(jù)特征模型的搭建過程中能夠完全摒棄法律禁止的歧視性特性,這種做法也是徒勞無功的,因?yàn)樗惴ň哂袠O強(qiáng)的數(shù)據(jù)挖掘能力,數(shù)據(jù)特征中往往也存在代理,算法在深度學(xué)習(xí)和訓(xùn)練數(shù)據(jù)過程中能在隱藏的相關(guān)關(guān)系中來尋找與個(gè)人敏感信息相關(guān)的代理,保證輸入的數(shù)據(jù)不存在偏差對(duì)消除算法歧視作用較小。

三、算法歧視下平等權(quán)傳統(tǒng)保護(hù)危機(jī)

當(dāng)前傳統(tǒng)保護(hù)機(jī)制不足以治理算法歧視的亂象,我國憲法所保障的平等權(quán)面臨的危機(jī)不斷,因此有必要對(duì)當(dāng)前問題進(jìn)行梳理,并前瞻性預(yù)測未來算法歧視帶來的風(fēng)險(xiǎn)和挑戰(zhàn),根據(jù)問題導(dǎo)向探索保障平等權(quán)的具體路徑,減緩法律滯后性所造成的制度鴻溝之變故。

(一)算法固化實(shí)質(zhì)不平等危機(jī)

這種實(shí)質(zhì)不平等主要體現(xiàn)在以下兩方面:一方面,人工智能算法主體資源占有的不平等。人工智能、算法、機(jī)器學(xué)習(xí)、區(qū)塊鏈、大數(shù)據(jù),這些概念在當(dāng)今數(shù)字時(shí)代不斷涌現(xiàn),深度理解這些概念的人往往只會(huì)是社會(huì)上少數(shù)的擁有良好教育背景或者是專業(yè)領(lǐng)域的精英人才,而往往也正是這些人占據(jù)了數(shù)字時(shí)代中最重要的資源——數(shù)據(jù)。以數(shù)據(jù)為基礎(chǔ)的算法進(jìn)行深度學(xué)習(xí),能夠?qū)崿F(xiàn)似人類自身智能的增幅與擴(kuò)容。

另一方面,人工智能算法決策過程“偏見進(jìn),偏見出”。數(shù)據(jù)是算法深度學(xué)習(xí)的基礎(chǔ),算法掌握數(shù)據(jù)越多,決策結(jié)果越精準(zhǔn),但是當(dāng)數(shù)據(jù)不全面、不準(zhǔn)確時(shí),即數(shù)據(jù)缺乏均衡性和代表性,則決策結(jié)果就會(huì)存在出現(xiàn)歧視的高度可能性。例如谷歌公司的圖片軟件曾將黑人的照片標(biāo)記為“大猩猩”,這就是因?yàn)閿?shù)據(jù)庫中缺乏對(duì)黑人的特征模型。算法還會(huì)利用人們產(chǎn)生的電子痕跡結(jié)合其他數(shù)據(jù)庫的信息,挖掘其中潛在的價(jià)值,比如評(píng)價(jià)商業(yè)平臺(tái)中人們的消費(fèi)能力和偏好,完成對(duì)消費(fèi)者的數(shù)據(jù)畫像。商業(yè)平臺(tái)依據(jù)不同的算法結(jié)果針對(duì)不同消費(fèi)者的消費(fèi)水平顯示出不同的價(jià)格,這就是嚴(yán)重侵犯到消費(fèi)者的知情權(quán)、隱私權(quán)、平等權(quán)與公平交易權(quán)的“算法(大數(shù)據(jù))殺熟”。[4]

(二)算法歧視識(shí)別危機(jī)

算法技術(shù)的復(fù)雜性在源頭上增加歧視識(shí)別難度。算法屬于當(dāng)今數(shù)字時(shí)代的新興產(chǎn)物,一個(gè)正常運(yùn)轉(zhuǎn)的算法的背后除了高新技術(shù)的支撐外,還有當(dāng)前無數(shù)條數(shù)據(jù)的聯(lián)結(jié),這無外增加了算法的神秘性,人們?cè)诠?jié)約探索成本的導(dǎo)向上往往會(huì)順從算法的決策。同時(shí),算法運(yùn)算的反饋循環(huán)不但深度挖掘出被摒除的歧視因子,通過回音壁效應(yīng)在無形中更加深了社會(huì)歧視。

在運(yùn)算過程中,算法無法準(zhǔn)確區(qū)分相關(guān)性和因果性。當(dāng)前的人工智能仍屬于弱人工智能,即便是處于發(fā)展前沿的模擬人腦“神經(jīng)網(wǎng)絡(luò)”的人工智能,無論它再怎么“深度學(xué)習(xí)”“自我改善”,都不會(huì)有“人類情感”“人類意識(shí)”。算法可以對(duì)不同的變量進(jìn)行相關(guān)性、顯著性檢驗(yàn),但相關(guān)性不同于因果性,這種定性的存在需要依靠大量的數(shù)據(jù)基礎(chǔ)。因此這種情況下提高了小概率事件無法被識(shí)別的幾率,[5]憲法對(duì)婦女、殘疾人、兒童、難民等特定主體的特殊保護(hù)很可能因無法被識(shí)別而遭受到算法歧視。

算法最終的決策結(jié)果不具有外部公開性。算法的個(gè)性化推薦基于個(gè)人電子痕跡的不斷累加而產(chǎn)生,而個(gè)性化推薦針對(duì)的對(duì)象只針對(duì)唯一個(gè)體,在個(gè)人信息保護(hù)下公民的自我隱私保護(hù)意識(shí)覺醒后不斷增強(qiáng),導(dǎo)致個(gè)人信息更加隱蔽,這極易引起“信息繭房”效應(yīng),很多學(xué)者批評(píng)這種行為對(duì)個(gè)人的算法選擇權(quán)構(gòu)成威脅。

(三)平等權(quán)保護(hù)機(jī)制危機(jī)

如今世界各國保障平等權(quán)多采用“事前立法規(guī)范”“事中行政監(jiān)管”和“事后司法救濟(jì)”構(gòu)成的三位一體的機(jī)制。平等權(quán)作為我國憲法保護(hù)的基本權(quán)利,相關(guān)的理論體系早已健全成熟,在理論指引下我國憲法建構(gòu)了對(duì)應(yīng)的法律保障體系。但在算法社會(huì),在不同算法的表現(xiàn)方式下,算法歧視的高速變化發(fā)展給我國傳統(tǒng)的平等權(quán)保護(hù)機(jī)制帶來巨大挑戰(zhàn)。

首先是平等權(quán)立法保護(hù)機(jī)制的滯后性。立法產(chǎn)品和算法技術(shù)同為滿足人們對(duì)美好生活的需求,當(dāng)立法者的立法速度無法跟上算法技術(shù)發(fā)展的腳步時(shí),人們急切需要另一種形態(tài)的社會(huì)治理規(guī)則,而傳統(tǒng)的立法權(quán)威將會(huì)一步步被瓦解。與此相比,人們對(duì)算法依賴感和信任度逐步增強(qiáng),給歧視帶來更大的生存空間,這時(shí)候形式上新的立法生效實(shí)質(zhì)上是針對(duì)舊算法的規(guī)制。

其次是行政監(jiān)管算法歧視的盲區(qū)。一方面,算法技術(shù)的專業(yè)性要求行政主體作為綜合素質(zhì)人才全方位掌握人工智能和法律知識(shí),然而高級(jí)算法的體系龐大到難以理解其中的內(nèi)部邏輯和運(yùn)行過程,這是因?yàn)樗惴ㄊ菂f(xié)作的整體,是眾多計(jì)算機(jī)科學(xué)家和程序員在算法的不同階段貢獻(xiàn)了不同力量的聚合體,個(gè)人在監(jiān)察時(shí)仿佛“管中窺豹”難以掌握全局,同時(shí)算法更新的速度之快使監(jiān)管更加困難。[6]另一方面,算法黑箱的存在成為算法使用者的遮羞布,有意利用技術(shù)壁壘將算法移轉(zhuǎn)到法律的真空地帶以脫離現(xiàn)有的法律規(guī)制,更加導(dǎo)致了行政機(jī)關(guān)外部監(jiān)管的難度。

最后,司法救濟(jì)存在困境。2021 年我國“大數(shù)據(jù)(算法)殺熟”第一案的判決結(jié)果是將殺熟行為認(rèn)定為欺詐行為,法院對(duì)算法的理解程度的淺薄讓法官更偏向于保守的判決,恰好本案原告屬于消費(fèi)者,法官最終依據(jù)《消費(fèi)者權(quán)益保障法》未認(rèn)定該行為屬于算法歧視行為。但問題在于大部分主體在意識(shí)到算法歧視時(shí)不屬于消費(fèi)者的身份,并且在算法歧視有強(qiáng)大的科技公司靠背時(shí),私主體與之對(duì)抗的力量過于單薄,極少部分私主體會(huì)主動(dòng)向法院提起訴訟,維權(quán)途徑的狹窄和對(duì)受害者的高要求兩方面因素讓救濟(jì)受到層層阻礙。

四、健全算法歧視下平等權(quán)保障機(jī)制

在平等權(quán)面臨算法歧視挑戰(zhàn)的背景下,形成與算法社會(huì)相匹配的平等權(quán)保障機(jī)制、推動(dòng)權(quán)益保護(hù)和算法創(chuàng)新共同發(fā)展尤為重要。有學(xué)者預(yù)判,在超強(qiáng)算法能力、大數(shù)據(jù)的影響下,未來十年至二十年法律行業(yè)將迎來巨大變革。

(一)平衡平等權(quán)保護(hù)和算法創(chuàng)新

當(dāng)前我們面臨的矛盾是算法權(quán)利主體和其他權(quán)利主體之間的博弈,有必要尋求二者平衡長遠(yuǎn)發(fā)展的支點(diǎn),既不磨滅算法技術(shù)創(chuàng)新的激情,又能增強(qiáng)法律的穩(wěn)定性,保障權(quán)利主體的平等權(quán)免受算法歧視的危害。[7]這要求既要防范算法權(quán)利濫用風(fēng)險(xiǎn),將其限制在民主法治框架中,涉及到重大公共決策時(shí),應(yīng)取得權(quán)力機(jī)關(guān)的授權(quán)許可,也要在算法公權(quán)力制衡基礎(chǔ)上對(duì)算法私權(quán)力制約,建立起明確的算法設(shè)計(jì)者、控制人、技術(shù)使用者等監(jiān)管機(jī)制,明晰算法權(quán)利主體的權(quán)利與義務(wù)。

如上文所述,法律對(duì)算法歧視的規(guī)制并非空白,但侵權(quán)責(zé)任主體極易混淆導(dǎo)致算法權(quán)利主體義務(wù)缺失。即便是算法自主決策的結(jié)果引發(fā)歧視危機(jī),但歸根結(jié)底在弱人工智能時(shí)代算法開發(fā)者和使用者的控制影響因素是首位的,應(yīng)當(dāng)明確區(qū)分算法的開發(fā)者對(duì)算法本身內(nèi)部的責(zé)任,算法使用者區(qū)分上層和下層使用者,分別對(duì)算法的宏觀結(jié)構(gòu)層面和明顯消極的算法歧視負(fù)責(zé)。同時(shí),還需要對(duì)不同侵權(quán)主體承擔(dān)的責(zé)任類型進(jìn)行劃分,判斷其行為是違反了刑法規(guī)定還是民法規(guī)定;不同算法行動(dòng)者之間的分工配合是否構(gòu)成共同犯罪;承擔(dān)的主要法律責(zé)任和次要法律責(zé)任如何劃分。

(二)賦能算法技術(shù)

國家公權(quán)力機(jī)關(guān)在治理算法歧視亂象時(shí)陷入算法識(shí)別困囿,原因在于智慧化法治社會(huì)要求治理主體的專業(yè)性更高、針對(duì)性更強(qiáng)。為解決這一困境,有學(xué)者主張應(yīng)該技術(shù)賦能,在算法歧視的背景下,我們需要形成算法代碼治理的特殊范式,通過法律治理驅(qū)動(dòng)代碼規(guī)制上升到法律規(guī)范。[8]技術(shù)賦能要求我們進(jìn)行算法數(shù)據(jù)樣本的預(yù)處理。要求增強(qiáng)輸入數(shù)據(jù)的代表性、平衡性和公平性,以便從根源上使算法的運(yùn)作滿足法律要求的平等屬性。實(shí)踐中有研究學(xué)者探究出一種生成公平綜合數(shù)據(jù)的方法,即對(duì)于隨機(jī)挑選出的一組數(shù)據(jù),都能運(yùn)用數(shù)據(jù)合成技術(shù)以此數(shù)據(jù)為基礎(chǔ)再生新的數(shù)據(jù),這樣算法無法分辨出任意輸入的數(shù)據(jù)是真實(shí)數(shù)據(jù)還是虛假數(shù)據(jù),避免算法模型過度擬合到非代表性數(shù)據(jù)。

算法本身的隱蔽性也是產(chǎn)生算法歧視以及我們無法識(shí)別出算法歧視問題的因素所在。因此打開算法黑箱、識(shí)別不可理解和解釋的算法是打破其中的算法歧視的方法之一。英國議會(huì)人工智能委員會(huì)報(bào)告中指出提高算法的透明度對(duì)增強(qiáng)算法的可解釋性尤為重要。我國學(xué)者張凌寒指出,自動(dòng)化決策的算法解釋的內(nèi)容并非形式上的技術(shù)概念,而是實(shí)質(zhì)意義上具有法律意義的程序性要求,她提出了二層次具體解釋內(nèi)容,包括理由說明層次和行為指引層次。因此在不危及脅迫到企業(yè)商業(yè)發(fā)展和泄露商業(yè)秘密的情況下,讓具備可解釋性的算法在法治的陽光下運(yùn)行能夠有效保障社會(huì)的公平正義。

(三)健全保護(hù)平等權(quán)法律機(jī)制

“社會(huì)的進(jìn)步離不開先進(jìn)技術(shù)的開拓者,更離不開基本價(jià)值的守望者。”通過在立法、行政、司法層面形成適配的法律閉環(huán)有效消除算法歧視對(duì)公民平等權(quán)的侵害。

第一,構(gòu)建智能化多元保護(hù)平等權(quán)的機(jī)制。單一的部門法無法滿足對(duì)平等權(quán)這一基本權(quán)利的全方位保障需要,特別在當(dāng)前新型的算法歧視語境下,亟須構(gòu)建多元法律保護(hù)機(jī)制,形成不同部門法之間的聯(lián)動(dòng)全面保障公民的平等權(quán)。在平等權(quán)保護(hù)機(jī)制構(gòu)建過程中,算法飛速發(fā)展的同時(shí),推動(dòng)在算法治理中立法的科學(xué)化、精細(xì)化和智能化極為重要,善于利用算法去解決算法自身帶來的歧視問題,將立法工作與算法技術(shù)深度融合,通過大數(shù)據(jù)分析立法過程中存在的問題,增強(qiáng)立法的精確度、科學(xué)性和適度超前性。[9]

第二,構(gòu)建專門的算法歧視監(jiān)管機(jī)關(guān)。算法黑箱的隱蔽狀態(tài)使行政機(jī)關(guān)對(duì)其監(jiān)管存在真空區(qū)域,而技術(shù)層面上的漏洞我們可以通過強(qiáng)化互聯(lián)網(wǎng)信息監(jiān)管部門的監(jiān)管職責(zé)進(jìn)行填補(bǔ),同時(shí)可以邀請(qǐng)專家學(xué)者和專業(yè)技術(shù)人員進(jìn)行技術(shù)輔導(dǎo)援助,適當(dāng)吸納專業(yè)學(xué)者和其他行業(yè)組織的意見建議。行政監(jiān)管部門應(yīng)當(dāng)轉(zhuǎn)變事中監(jiān)管的傳統(tǒng)職責(zé),將監(jiān)管引入到算法運(yùn)行前,在源頭上打消算法歧視結(jié)果產(chǎn)生的可能性,維護(hù)真正的公平正義。

第三,建立配套的司法審查機(jī)制。由法院充當(dāng)司法審查機(jī)制的主體偏向于事后的救濟(jì)機(jī)制,需要明確規(guī)定算法歧視的審查標(biāo)準(zhǔn),算法歧視具有不同類型,大體上可以分為直接歧視和間接歧視兩類,不同的歧視類型對(duì)公民的平等權(quán)損害程度不同,理應(yīng)采取不同的審查標(biāo)準(zhǔn)。對(duì)于直接歧視,也稱為有意歧視,算法主體需要具備形成歧視的主觀要件,因此可采取目的審查標(biāo)準(zhǔn),法院通過判斷算法主體是否具備這一前提條件來決定是否應(yīng)該承擔(dān)相應(yīng)責(zé)任。間接歧視是一種無意識(shí)的歧視,可能是算法的訓(xùn)練數(shù)據(jù)中可能無意間產(chǎn)生歧視,因此法院審查時(shí)不應(yīng)以算法主體的主觀過錯(cuò)作為承擔(dān)責(zé)任的要件,而是應(yīng)該采用效果審查的標(biāo)準(zhǔn),審查算法決策對(duì)社會(huì)的負(fù)面影響,對(duì)公平平等權(quán)的侵害程度來裁判算法主體是否應(yīng)該承擔(dān)間接歧視的法律后果。[10]

猜你喜歡
人工智能法律
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
我校新增“人工智能”本科專業(yè)
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
下一幕,人工智能!
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
主站蜘蛛池模板: 久久不卡精品| 国产人前露出系列视频| 性色在线视频精品| 亚洲一级毛片免费观看| 国产欧美日韩另类精彩视频| 中文字幕不卡免费高清视频| 久久久91人妻无码精品蜜桃HD| 四虎影视8848永久精品| 青青久久91| 手机在线国产精品| 久久精品嫩草研究院| 69精品在线观看| 日韩国产无码一区| 伊人狠狠丁香婷婷综合色| 91在线视频福利| 亚洲一区二区成人| 青青草国产免费国产| 久久国产黑丝袜视频| 漂亮人妻被中出中文字幕久久| 狠狠干欧美| 天堂在线视频精品| 亚洲精品成人7777在线观看| 最近最新中文字幕免费的一页| 久青草国产高清在线视频| 国产二级毛片| 亚洲AⅤ永久无码精品毛片| 亚洲va视频| 亚洲成a人片在线观看88| 日本a级免费| 国内精自视频品线一二区| 尤物成AV人片在线观看| 伊在人亞洲香蕉精品區| 中文字幕在线观看日本| 爆乳熟妇一区二区三区| 97久久免费视频| 日本欧美在线观看| 国产免费好大好硬视频| 国产精品第三页在线看| 日本免费福利视频| 久久精品亚洲中文字幕乱码| 2024av在线无码中文最新| 91青青草视频在线观看的| 亚洲综合片| 国产精品福利导航| 久热中文字幕在线| 亚洲黄色片免费看| 成人精品免费视频| 波多野结衣中文字幕久久| 成年A级毛片| 无码国产伊人| 在线播放精品一区二区啪视频| 日本午夜三级| 男人的天堂久久精品激情| 国产精品原创不卡在线| 亚洲VA中文字幕| 国产白浆在线| 国产本道久久一区二区三区| 精品午夜国产福利观看| 国产亚洲视频中文字幕视频| 国产亚洲精品在天天在线麻豆| 国产91在线免费视频| 欧美日本在线观看| 日本高清在线看免费观看| 亚洲高清在线天堂精品| 亚洲人成高清| 亚洲成a人在线观看| 91色综合综合热五月激情| 91精品伊人久久大香线蕉| 国产无码在线调教| 亚洲第一极品精品无码| 午夜免费小视频| h视频在线观看网站| 中文字幕欧美日韩| 国产欧美日韩专区发布| 欧美一级色视频| 青青草国产在线视频| 国产18页| 国产91av在线| 久久久久青草大香线综合精品| 国产成人夜色91| 影音先锋亚洲无码| 中文成人无码国产亚洲|