999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能:就業歧視法律規制的新挑戰及其應對

2021-03-11 08:47:41侯玲玲王超
關鍵詞:大數據人工智能

侯玲玲 王超

[摘要] 人工智能參與就業市場可以防止用人單位對勞動者的就業歧視,但也有可能加劇既有的歧視現象。美國、英國、歐盟等法域在傳統反歧視成文法的基礎上已經形成了成熟的司法裁判經驗和規則體系。本文從用人單位依賴人工智能招聘時所可能產生的歧視風險出發,分析了算法招聘對我國現有勞動法律中反歧視規則的挑戰以及我國法院在就業歧視司法裁判中存在的各種問題,在借鑒域外經驗的基礎上,提出了針對我國反就業歧視法律制度構建的建議。

[關鍵詞] 人工智能? 就業歧視? 算法? 大數據? 比較法? 舉證責任

一、 問題的提出

國務院于2017年7月印發了《新一代人工智能發展規劃》,對我國人工智能(artificial intelligence,AI)的發展規劃和風險防控進行了戰略性指引。2019年,《國務院關于進一步做好穩就業工作的意見》提出,要加強人工智能、工業互聯網等領域基礎設施投資和產業布局。為了應對人工智能高速發展可能帶來的負面影響,2019年中共中央辦公廳、國務院辦公廳印發了《關于促進勞動力和人才社會性流動體制機制改革的意見》,提出要研究機器人、人工智能等技術對就業影響的應對辦法。人工智能發展的不確定性所帶來的新挑戰和就業結構改變等問題,將對經濟安全和社會穩定產生深遠影響。①在人工智能時代,計算機算法深度參與了就業市場的各個環節,包括勞動者招聘、晉升等。②以算法為核心的招聘網站和社交平臺——智聯招聘網、前程無憂網、領英等——成為企業人才招聘的主要渠道之一。將數據系統和自動化決策作為監測、分配、評估與管理勞動力的方式日益成為當代就業市場的特點。自動化招聘系統(automated hiring systems)通過使用數據驅動技術轉變了人力資源管理和員工招聘的方式。③用人單位在人事決策中對大數據和人工智能的依賴程度越來越高,而這種技術的應用可能產生就業歧視的后果。人工智能技術應用引發的就業歧視相對于傳統就業歧視而言更為隱蔽,實踐中可能將婦女、殘疾人、老年人等弱勢群體置于更加不利的就業地位。

雖然目前還沒收集到算法和大數據技術應用導致的國內就業歧視案例,但隨著大數據、人工智能技術的研發和應用,我們不難預測,技術會改變我國傳統的雇用模式,人力資源部門將會依賴大數據招聘并留住最優員工。本文從用人單位依賴人工智能解決招聘等難題時可能產生的歧視性風險出發,分析這些風險產生的原因、特殊性以及對現有反歧視法律構成的挑戰。在此基礎上,本文對人工智能技術應用造成的就業歧視法律規制需求進行深入分析,借鑒域外立法和司法經驗,反思我國現有反歧視法律之不足,并提出有關立法建議。

二、 我國就業歧視法律規制實施效果及凸顯的問題

(一) 我國就業歧視法律規制實施效果分析

我國勞動者工作平等權的主要法律依據是《中華人民共和國勞動法》(簡稱《勞動法》)和《中華人民共和國就業促進法》(簡稱《就業促進法》),規定了受保護的勞動者屬性包括民族、種族、性別、宗教信仰、殘疾人、傳染病病原攜帶者和農村勞動者,且強調了在反就業歧視和企業用工自由兩個法律目標之間必須取得平衡。《就業促進法》對《勞動法》反就業歧視法律規定的完善,標志著我國對于工作平等權保護的重視力度逐步加大。《就業促進法》在《勞動法》列舉的法定歧視類型中增加了殘疾歧視、傳染病歧視、農村歧視,通過“等”字確立了兜底式的立法體例,擴展了法院裁定就業歧視范圍的自由裁量權,可以囊括法律條文未規定但實踐中常見的歧視類型(例如對乙肝病毒攜帶者的健康歧視)。

本文以“就業促進法”“招聘”“歧視”等關鍵詞搜索北大法寶等權威數據庫,將焦點放在招聘階段的就業歧視現象上。收集整理的案例集排除了用人單位簽訂勞動合同之后違規解除勞動合同的案例,只關注應聘人員和用人單位之間尚未形成勞動關系的案例,并且排除了尚未生效的一審裁決等案例。經過篩選,本文共收集了42個與招聘歧視相關的案例。我國的就業市場規模龐大,受到歧視的求職者往往不愿意提起就業歧視訴訟,這是因為訴訟的時間成本高、就業歧視缺乏明確定義標準、舉證困難、獲得賠償金額不高。由于歷史的原因,我國長期以來的立案審核制度使得一些具有敏感性的招聘歧視案件未能進入審判程序。2015年,我國法院從立案審查制變為立案登記制,此后招聘歧視案件數量呈現迅速上升趨勢。①

從招聘歧視案件所涉及的糾紛類型來看,數量占據多數的是侵權糾紛類案件(共23個案例,包括人格權糾紛、締約過失糾紛、平等就業權糾紛和其他侵權糾紛)。由于應聘人員和用人單位在招聘階段未簽訂勞動合同,因此應聘人只能追究用人單位的侵權責任,這印證了學者的觀點,即我國已確立了反就業歧視法的侵權法模式。②其次是行政糾紛類案件(共16個案例)。這主要包括應聘者在應聘政府機構、事業單位等設置的工作崗位時發生的糾紛。勞動糾紛類案件的數量最少(共3個案例),這是由大多數招聘歧視案件中雙方當事人未簽訂勞動合同而造成的。③

從作為被告的用人單位的類型來看,最多的是企業被告,涉及20個案例;其次是政府部門,涉及17個案例;最后是事業單位,涉及5個案例。值得注意的是,政府部門和事業單位等作為被告的案例總數超過了企業被告案例數。這一現象引發了學者對我國就業歧視現象的擔憂,即發生在政府部門的就業歧視往往會對整個就業市場產生不利的輻射影響。④

現實中,我國的招聘歧視類型復雜多樣,包含了健康歧視、性別歧視、學歷歧視等11種類型,超出了法定歧視種類范圍。⑤健康歧視是我國最嚴重的招聘歧視類型,包含了18個案例。盡管《就業促進法》等法律法規明確保護乙肝等病毒攜帶者的就業權利,法院系統也出過指導案例,但現實中大多數地方法院并沒有判決原告勝訴。⑥這是因為用人單位的體檢制度符合政府有關部門制定的體檢規定,使得健康歧視有了制度合法性基礎。性別歧視只有4個案例,說明我國對女性勞動者的保護水平有所提升,然而隱藏的性別歧視仍然是不可忽視的嚴重社會問題。學歷歧視同樣具有深刻的社會基礎。我國教育資源的人均稀缺性加劇了用人單位對于學歷的追求,就業市場的激烈競爭促使用人單位普遍提高了學歷要求。

從勝訴率來看,原告勞動者在17個案例中獲得了勝訴,勝訴率低于50%。不同地區和層級的法院在實踐中的裁判尺度明顯不一且適用法律并不一致。部分法院援引了《就業促進法》進行裁判,而其他法院則采用了傳統裁判思路(例如援引《侵權責任法》)。裁判尺度的不一致違反了法律平等原則,使當事人的行為抉擇具有不確定性風險。①在勝訴的案件中,法院給予被歧視應聘人員的救濟方式整體上包括確認被告行為違法、賠償應聘人員經濟損失、精神損害賠償、賠禮道歉。對受到招聘單位歧視的應聘人員的司法救濟極為有限,其局限性具體體現為:救濟方式不包括錄用應聘人員和建立勞動關系,經濟損失賠償數額極為有限(最高經濟損失賠償金額案例是17572.75元)。應聘人員敗訴的原因主要是證據不足(10個案例),另一個重要原因是,法院認為招聘單位的做法符合現行法律法規。面向社會公開招聘的事業單位在應聘人員體檢之后以其攜帶病毒為由拒絕錄用的,聲稱自己的根據是政府部門制定的入職體檢標準,而法院也往往因為被告的行為有政府文件的背書而支持被告的抗辯。

(二) 我國就業歧視法律規制凸顯的問題

《就業促進法》第三條規定的勞動者平等就業權和第八條規定的用人單位自主用人權理論上應該互相補充和平衡,然而在實踐中,由于勞資力量嚴重不平衡和舉證困難等原因,立法和司法實踐都傾向于維護用人單位的自主用人權利,而往往忽視了對勞動者平等就業權利的保護。②

首先,法院對案由歸類的不確定性極大地影響著當事人的舉證責任、法律責任承擔方式等。當事人選擇提起侵權訴訟還是提起勞動訴訟存在許多重大差別。例如,侵權賠償范圍包括承擔精神損害賠償費、誤工費、體檢費,賠禮道歉等,而勞動法律責任包括恢復勞動關系,支付經濟補償金、賠償金、工資差額等。③

其次,反就業歧視類型過于狹窄。不僅禁止傳統就業歧視的法律法規沒有得到有效執行,年齡歧視等侵犯一般人格權的就業歧視現象也沒有得到立法層面的重視。究其原因,一方面,在于禁止年齡歧視等法律列舉外歧視類型的法律規制缺位。我國勞動法律法規中所列舉的禁止歧視的事由只包括有限的幾項,沒有包括年齡歧視等具有較大社會危害性的其他重要歧視類型。另一方面,我國勞動力市場還存在過度飽和、行業內卷等現象。一些產業部門勞動力供大于求的現狀助長了用人單位濫用用工自主權和縱容各種歧視的不良風氣。

再次,現行的舉證責任制度不利于保護勞動者。目前法院處理的招聘歧視案件主要是侵權糾紛。按照傳統的“誰主張誰舉證”證明規則,被侵權人一旦無法舉證則需承擔敗訴風險。《最高人民法院關于民事訴訟證據的若干規定》第六條僅包含對于勞動關系存續期間勞動爭議案件證明責任的特殊規定,但沒有明確就業歧視案件適用該特殊證明規定。除非應聘人員有明顯證據證明用人單位在招聘過程中有歧視行為,否則不可能勝訴。現有證明責任制度無法滿足就業歧視糾紛處理的需求。

最后,政府部門規章制度中隱含的就業歧視難以救濟。政府部門發布具有一般約束力的規章制度的行為屬于抽象行政行為。根據《中華人民共和國行政訴訟法》第十三條,抽象行政行為是不可訴的。應聘人員即使證明了用人單位存在歧視行為,只要用人單位的做法符合政府部門規章制度的規定,法院也很難追究用人單位的法律責任。我國法院系統早些年發布的典型指導案例也采取了支持政府頒布的有關用人規章制度的立場。2008年,北京市朝陽區人民法院在審理高軼明案時認為,除國家法律、行政法規和衛計委規定禁止從事的易使乙肝病毒擴散的工作外,用人單位不得以勞動者攜帶乙肝表面抗原為理由拒絕招錄或者辭退乙肝表面抗原攜帶者。這說明了法院系統行使自由裁量權時采取了尊重政府標準的裁判思路,國家法律、行政法規和衛計委等部委的規定似乎成了健康歧視的豁免事由。①政府部門頒布的一些有關人員招錄的規章制度對整個就業市場將會產生效果不同的輻射影響。

三、 人工智能技術在就業招聘中的應用及其歧視性風險

(一) 人工智能技術在就業招聘中的應用

人工智能被定義為“計算機科學的一個分支,用于模擬計算機中的智能行為”。②人工智能是一個很大的類別,包括機器學習、模式識別、問題解決和適應不斷變化的環境。③依賴大數據和算法做出最優人事決策會成為越來越多的用人單位的選擇。人工智能主要通過定向推送招聘廣告、審查匹配求職者等方式對就業市場進行重塑。

首先,招聘廣告的定向推送。隨著我國互聯網的快速發展,互聯網購物平臺、社交媒體軟件的用戶數量增長迅猛。每個用戶的瀏覽、使用數據痕跡都被存儲起來,企業通過計算機進行大數據統計就可以預測用戶的消費偏好等信息。根據這些數據,企業就可能推斷出用戶“屬性”,確定特定受眾人群并定向精準推送廣告。例如,天貓購物針對用戶信息瀏覽的大數據來預測用戶的消費偏好,定向推送相關商品廣告。④人工智能技術越來越多地被運用在招聘領域中,用人單位可以向平臺提供現有員工信息,通過分析這些員工數據來確定招聘市場的“酷似受眾群體”,極大地提高招聘廣告送達人群的準確性和有效性。

其次,審查和匹配求職者。相對于人工審查和篩選求職申請簡歷來說,人工智能技術應用具有絕對優勢。人工智能技術的應用有助于用人單位對簡歷進行掃描,通過關鍵詞搜索對不合適的簡歷進行篩除,從而有效縮小選擇范圍,大大提高招聘審查的效率。此外,人工智能技術也可以通過算法對求職者未來工作表現進行一定程度的預測。利用人工智能技術,商家還可以根據某位女性在購物平臺上購買過葉酸補充劑等孕產期特殊商品的行為,預測出該女性懷孕的可能性很大,從而為她定向推送母嬰商品的廣告。這種預測行為一旦被用在招聘上,人工智能系統會通過大數據預測求職者可能“懷孕”。還有學者開發了深度學習算法,通過人臉來評估預測測試對象罹患心臟病的風險。①根據預測,企業能夠判斷該求職者目前和未來健康狀況是否適合現有崗位需求。

最后,面試和評估求職者。大數據和人工智能技術應用能夠改變傳統的求職評估方式。受限于信息獲取、面試經驗及個人偏見,專員面試可能缺乏對求職者準確、客觀公正的評價。人工智能技術可以通過數據分析,對求職者作出客觀評價,消除自然人常有的個人偏見。人工智能軟件系統通過分析求職者錄像視頻中的面試表現(包括面部表情、語速等)來評估求職者的工作風格、勤勉忠誠度等,以確定其與崗位是否匹配。

(二) 人工智能技術在就業招聘中的歧視風險

招聘算法對就業歧視現象的影響具有兩面性。一方面,招聘算法通過消除人力資源經理的主觀偏見和個人偏好來達到減少就業歧視的目標,可以用中立無偏見的數據代替人類的錯誤判斷從而提高決策能力。另一方面,招聘算法不會抵消工作場所偏見的結構性形式。這種就業歧視不僅是由自然人的認知過程造成的,也是由為不同類型的人創造不同機會的社會結構性力量造成的。②

招聘算法可能包含著直接歧視,也可能包含著隱性歧視,即偏見代理的算法歧視。③用人單位采用的算法依賴某種受保護的個人屬性(protected characteristics),從而將某些群體排除在招聘廣告的接收對象之外。例如,算法設定的招聘廣告投放對象很可能只包括招聘平臺的女性用戶(涉嫌性別歧視),或者某個年齡段的人(涉嫌年齡歧視)。在這種直接歧視中,投放招聘廣告的用人單位往往具有主觀故意,而招聘平臺的算法規則愈發強化了用人單位的歧視行為。用人單位設計的算法依賴看似中立的個人屬性信息來投放廣告,而這些所謂中立信息實際上與受保護的個人屬性有著緊密聯系。例如,人們用Google搜索非洲裔美國人名稱時往往顯示犯罪信息,從而構成種族歧視。①

招聘算法還可能根據深度學習獲得的數據進行“大數據殺熟”。線上交易過程往往形成瀏覽記錄,交易平臺對這些記錄進行積累,形成交易大數據。算法對這些大數據的不當應用可能會給就業市場帶來不利影響,例如通過購物平臺交易記錄來預測用戶的性格、身體狀況等。對于購買與孕產有關的保健品和用品的女性消費者來說,算法可以預測該女性已懷孕或正在積極備孕。當這位女性消費者求職時,用人單位如果通過算法分析獲取了這些信息,預測到該求職者可能已經懷孕或近期有懷孕計劃,那么該求職者很有可能不會被用人單位錄用,從而產生事實上的性別歧視。

招聘算法也會帶來圈子歧視,即可能只在某種特定同質性人群中進行招聘活動。通過Facebook等平臺的相似群體工具,算法只在某個社會人群或階層圈子內投放招聘廣告。這個具有同質性的人群圈子可能是企業的現有員工圈,也可能是名校校友圈等具有相似種族、年齡背景的人群。圈子人群屬性往往隱藏了地點、性別、年齡等個人敏感信息,而算法的相似群體標簽本身已經對這些個人特征進行了篩選。招聘算法反映了現有的招聘實踐的情況,然而這些做法卻最終導致了性別歧視等就業歧視現象。②

(三) 人工智能技術對就業歧視法律規制的挑戰

以算法為核心建立的人力資源招聘決策體系必然會產生新的算法歧視風險,在我國現有就業歧視法律規制缺陷的基礎上進一步擴大了工作平等權保護的不足,從而挑戰我國現有的反就業歧視法。雖然我國現階段尚未出現大規模的人工智能算法歧視案件,但隨著科技進步和社會發展,我國法院將面臨越來越多的算法歧視規制方面的問題和挑戰。

人工智能技術增加了就業歧視司法認定的難度。首先,招聘廣告的定向推送很難被認定為就業歧視。在線定向招聘廣告并沒有出現對任何群體偏好或歧視的字眼,但在定向推送的背后,是深度算法對大數據分析后的自動決策,只推送給特定人群從而產生歧視性后果(例如僅向男性適齡人群推送招聘廣告)。未被推送到的群體實際上被剝奪了知悉就業信息的機會。其次,通過以算法為核心的人力資源自動決策系統對求職者簡歷的審核,似乎是依賴于這種中立性軟件工具運用大數據的深度算法對求職者工作能力等做出的客觀評估。從表面上看,最終做出是否錄取的決策并不是用人單位主觀偏好的結果,因此用人單位很容易以“工作相關性”和“與崗位職責一致性”為理由予以抗辯。最后,人工智能是算法“黑箱”(Black box)。人工智能通過對大數據的深度學習,通過算法產生預測和決策,可能連算法設計者都不知道算法會如何決策。在招聘過程中,通過對大量簡歷、人體特征等數據進行深度學習,算法最終可能自動做出歧視性招聘決策。這并非自動化系統開發商和使用方的故意行為,因此很難清晰地追究責任。

人工智能技術的應用使得勞動者證明企業存在就業歧視行為的難度大大增加。人工智能自動化決策系統是基于對大數據的深度學習通過算法做出的決策,是一個“輸入數據、輸出決策”的過程。算法設計者通常會讓計算機在學習用人單位或招聘崗位歷史數據的基礎上,運用算法對大數據進行分析而輸出決策。原有的雇用數據對輸出的決策有著重要影響,從而導致分類差別的事實。例如,計算機軟件開發崗位以男性勞動者為主,在此數據基礎上算法通過分析會得出男性勞動者比女性勞動者更適合計算機軟件開發崗位的結論,從而在篩選在線簡歷時更偏向男性。

綜上所述,我們可以得出如下結論:一方面,由于技術壁壘和信息不對稱,求職者難以證明人工智能自動化決策系統做出的差別化招聘決策是用人單位的就業歧視行為。 求職者并非計算機專業技術人員,無法證明這種基于大數據算法分析出的決策是嵌入偏見的代碼所致。在算法“黑箱”下,求職者更沒有辦法證明用人單位有就業歧視的主觀故意。另一方面,對于用人單位提出的工作相關性和商業必要性,人工智能可以通過大數據分析予以證明,而求職者很難對人工智能這種算法決策提出反證。

四、 人工智能技術應用中就業歧視法律規制域外經驗

(一) 美國

美國平等就業的憲法依據是第十四修正案的平等保護條款。1964年《民權法》第七章(Title VII of the Civil Rights Act of 1964)和《防止就業年齡歧視法》(Age Discrimination in Employment Act)構建了美國的反歧視成文法律制度框架。①這些既有法規在人工智能技術造成的算法歧視問題上依然具有可適用性。為了更有效地消除就業歧視現象,美國建立了完善的訴訟發起機制。平等就業機會委員會(Equal Employment Opportunity Commission)以及某些州的公平就業實踐機構(Fair Employment Practices Agencies)負責執行《民權法》第七章,有權調查、調解并可代表雇員提起歧視訴訟。除阿肯色州和密西西比州外,其余各州都有一個州公平就業實踐機構。平等就業機會委員會制定的《員工選拔程序統一指南》(Uniform Guidelines on Employee Selection Procedures)規定了五分之四規則,即如果任何種族、性別或民族群體的選拔率低于選擇率最高群體的五分之四,就可以被認定為群體的選拔率具有實質性差異,該種族、性別或民族群體受到了歧視。這條實用經驗法則可以讓執法機構注意到招聘率、晉升率和其他選拔決定的嚴重差異,可以作為重要的執法參考。②

美國法律規制的就業歧視可以分為“差別對待歧視”和“差別影響歧視”,并且分別發展出了各自的監管理論體系。一方面,基于差別對待(disparate treatment)理論,《民權法》第七章等聯邦法律主要通過成文法的明文禁止來規制“差別對待歧視”。另一方面,聯邦法院則通過判例確立了以差別影響(disparate impact)理論來界定就業歧視的具體認定標準,規制“差別影響歧視”。①差別對待歧視和差別影響歧視分別對應了英國反歧視法中的直接歧視和間接歧視。在司法裁決過程中,美國聯邦法院確立了以差別影響理論來規制成文法難以認定的各種間接就業歧視類型,從而確立了就業歧視的具體認定標準。在美國就業歧視案件中使用統計證據在很大程度上源于1971年的格里格斯訴杜克電力公司(Griggs v. Duke Power Company)一案②,最高法院在該案中確立了將差別影響理論作為起訴就業歧視行為的依據。自此之后,差別影響理論成為美國反歧視法律制度的重要基石。類似于傳統歧視類型,對人工智能算法造成的就業歧視的認定需要運用差別影響理論進行分析。

關于算法就業歧視行為的客觀構成要件,法院會對三個核心問題進行審查:(1)差別影響。假如一項算法對原告產生的不利影響大于對其他社會公眾的影響時,這項算法決策就存在著歧視的可能性。在美國聯邦最高法院1982年裁決的康涅狄格州訴迪爾(Connecticut v. Teal)案中③,法院認為雇主使用的就業與晉升測試算法導致黑人雇員遭受了禁止晉升的結果。該算法應當受到差別影響理論的審查,以保護算法決策對象的利益。(2)商業必要性。在1971年的格里格斯訴杜克電力公司案中,雇主使用的招聘考試方式使得黑人應聘者的通過率大大低于白人應聘者。法院判定該招聘考試方式違法,除非雇主能證明使用該考試方式具有商業上的必要性。④ (3)可替代的算法決策。在1975年的阿爾伯馬爾紙業公司訴穆迪(Albemarle Paper Co. v. Moody)案中⑤,聯邦最高法院認為雇主雖然證明了就業能力測試算法與工作有關,但是還存在使用不會導致種族歧視的其他測試程序替代的可能性。關于算法就業歧視行為的主觀構成要件,美國法律對直接歧視行為實行過錯責任,而對間接歧視行為實行嚴格責任。法院要求勞動者舉證證明實施差別對待歧視的雇主具有歧視的故意(intent),而無須證明實施差別影響歧視的雇主具有主觀故意。⑥

關于就業歧視的證明責任,格里格斯案的判決表明美國法院實行了舉證責任倒置,雇主對其未實行招聘歧視行為負有舉證責任。1973年,在麥克唐納-道格拉斯公司訴格林案(McDonnell Douglas Corp. v. Green)中,聯邦最高法院確立了舉證責任倒置的一般規則。在一個就業歧視案件中,原告雇員必須首先提供歧視的初步證據,被告雇主必須為其行為提供合法的非歧視性理由的證據以推翻歧視的假設,原告必須有公平的機會陳述事實以證明存在歧視。①

關于就業歧視因果關系的證明標準,法院根據不同成文法采取了不同嚴格程度的裁判標準。首先,《民權法》第七章中的一般就業歧視證明標準是證明受保護的個人特征是就業歧視行為中的“激勵因素”(motivating factor)。②在1989年普賴斯·沃特豪斯訴霍普金斯(Price Waterhouse v. Hopkins)案的判決中,聯邦最高法院法官認為,當原告證明性別(或其他受保護的個人特征)是就業決定中的“激勵因素”時,就已經達到了《民權法》第七章的證明標準。③其次,《防止就業年齡歧視法》的訴訟采取了更嚴格的標準——“如果不是”(but for)因果關系規則。在2014年的克拉姆布萊特訴麥克休案(Cramblett v. McHugh)中,美國第九巡回法庭遵循了格羅斯訴FBL金融服務公司(Gross v. FBL Financial Services)案的“如果不是”因果關系規則。④法院認為,原告雖然證明了自己的年齡是算法招聘考慮的一個重要因素(substantial factor),但這不足以達到年齡歧視的證明標準。原告被要求證明,如果不是因為他的年齡,他早就被錄用了。⑤就業歧視中的差別影響必須產生統計學上的顯著性才能被認定為歧視行為。聯邦最高法院從1977年哈澤爾伍德學區訴美國(Hazelwood School Dist. v. United States)案⑥以來,越來越多地將統計顯著性檢驗(test of statistical significance)用于審理就業歧視案件。

為了促進平臺經濟的發展,美國法律規定了平臺就業歧視責任的豁免制度。算法平臺幫助第三方招聘公司發布的招聘廣告經常會造成就業歧視后果。Facebook平臺使得非裔、拉丁裔和亞裔美國人無法接收各種經濟類廣告,包括住房和就業廣告。⑦針對Facebook的行為,一些集體訴訟揭示了就業歧視與招聘平臺廣告投放方式間的因果關系。⑧ 2017年,美國加州北區地方法院審判了美國通信工作者協會(Communications Workers of America)針對T-Mobile等公司提起的集團訴訟。⑨原告指控被告公司通過Facebook的廣告平臺專門針對年輕人發布招聘廣告,屏蔽了年老人士,使之無法收到招聘廣告。T-Mobile通過Facebook發布了招聘廣告,將收到廣告的人群限制在18歲至38歲之間。①不僅是第三方招聘廣告,Facebook也經常使用同樣的歧視性年齡過濾器,將年紀較大的員工排除在自己的職位招聘廣告之外。②然而,根據《通信規范法》(Communications Decency Act)的規定,Facebook等服務提供商對用戶生成的內容不承擔責任,因為服務提供商沒有創建或開發有爭議的內容。③2017年的科恩訴Facebook案(Cohen v. Facebook)探討了服務提供商的《通信規范法》潛在豁免情形④,學者也認為Facebook的機器學習算法有能力選擇顯示個性化內容,因而屬于內容的共同開發者。⑤算法平臺是否豁免法律責任這一領域將是未來訴訟中互聯網企業與勞動者之間攻防的重要陣地,決定了算法平臺是否應對用戶生成的內容承擔連帶責任。

(二) 英國

為了提高效率和節約成本,英國公司在招聘過程中越來越多地使用某種類型的求職者跟蹤系統或自動化招聘系統。⑥盡管不如美國發展迅速,但是英國算法招聘也有了很大進步,發展出了Applied和Thrivemap等自動化招聘系統。⑦英國反歧視立法框架主要是2006年《平等法》(Equality Act),類似的法律還包括《同酬法》(Equal Pay Act)、《性別歧視法》(Sex Discrimination Act)等。《平等法》的立法目的之一是用涵蓋性別、種族和殘疾等所有主流歧視類型的統一法律來取代零散的既有法規。該法律不僅保護勞動者免受由人類主觀意識造成的就業歧視,也保護勞動者免受自動決策系統產生的就業歧視。2006年《平等法》定義了免受歧視的九個“受保護特征”,包括年齡、殘疾、變性、婚姻和民事合伙、懷孕分娩、種族、宗教信仰、性別、性取向。在某些情況下,歧視存在例外豁免情況。例如,如果工作崗位要求某人具有特定的信仰(例如拉比或牧師),那么可以考慮列明宗教信仰的招聘條件。⑧

《性別歧視法》設立了平等機會委員會(Equal Opportunities Commission),后來被根據《平等法》設立的平等和人權委員會(Equality and Human Rights Commission)所取代,由平等和人權委員會處理種族、宗教、性別等各種歧視 。作為非政府部門公共機構,平等和人權委員會是獨立運作的專業權威機構,已經成為決策者、公共機構和企業的重要聯絡點。①平等和人權委員會重申了《平等法》定義的九個“受保護特征”,并提供了防止歧視的具體指引。②

與美國的法律一樣,英國法律規制的就業歧視可以被分為直接歧視和間接歧視。英國勞動力市場的直接就業歧視相對于間接就業歧視來說較為罕見,這與美國的案例情況正好相反,美國差別對待歧視(直接歧視)案件遠遠多于差別影響歧視(間接歧視)案件。③類似于美國的差別影響理論,《平等法》第十九條將間接歧視定義為“對受保護特征具有歧視性的規定、標準或做法”。當一項勞動政策以同樣的方式適用于所有人,其效果使具有受保護特征的人處于尤其不利地位時,就可以被認定為構成了間接就業歧視。伴隨《平等法》出臺的《實踐守則》(Code of Practice)進一步細化了就業歧視的認定標準。《實踐守則》規定了必須對具備受保護特征的勞動者和不具備受保護特征的勞動者進行比較。兩組的情況必須足夠相似以便進行比較,并且在情況上不得有任何實質性差別。④

在證明標準上,英國法院運用了“如果不是”(but for)方法來認定歧視行為。在1990年的詹姆斯訴伊斯特利區議會(James v. Eastleigh Borough Council)案件中,市議會推出一項優惠活動,允許享受養老金者免費進入游泳池,而無須交35便士入浴費。詹姆斯夫婦都是61歲,但詹姆斯女士可以免費進入游泳池,而詹姆斯先生則不能免費入浴。這是因為女性從60歲起可以領取養老金,而男性只有到65歲以后才可以領取。法院認為如果不是因為詹姆斯先生是男性,他不會受到不利的待遇,因此認定直接歧視行為存在。⑤

英國法律只關注被告是否實施了歧視的客觀行為,而不管其是否具有歧視的主觀動機,因此是否具有歧視的意圖或動機不是承擔法律責任的必要條件。在1989年的R訴伯明翰(R v. Birmingham City Council ex parte Equal Opportunities Commission)案中, 伯明翰市議會為八所男女分校里的11歲學生提供了600個去自愿資助的文法學校就讀的機會,在12歲時男、女生可獲得同等數量的名額。然而,甄選程序為11歲的男孩和女孩分別分配了390個、210個名額。平等機會委員會要求法院宣布伯明翰市議會的政策違反了1975年《性別歧視法》第二十三條第一款,因為這些政策歧視女生。法院裁定平等機會委員會勝訴,并認定了伯明翰市議會違反1975年《性別歧視法》第二十三條第一款。法院實施了嚴格責任,只關注被告是否實施了歧視的客觀行為,而不管其是否具有歧視的主觀動機。因此,被告是否具有歧視意圖或動機不是其承擔法律責任的必要條件。①

(三) 歐盟

《歐盟基本權利憲章》(Charter of Fundamental Rights)第二十一條禁止基于以下幾種理由的歧視:性別、種族、膚色、族裔或社會出身、遺傳特征、語言、宗教或信仰、政治或任何其他見解、少數民族成員身份、財產、殘疾、年齡、性取向和國籍。這些特征種類比英國的九種特征更為全面。與這些屬性相關的信息一旦被作為數據處理后,就會受到數據保護法律框架的保護。《通用數據保護條例》(General Data Protection Regulation)不僅引入了隱私限制以減輕算法歧視現象,對于算法招聘歧視具有一定的適用性,還引入了專門保護數據主體在處理個人數據時的“基本權利和自由”的條款(包括不受歧視的權利)。《通用數據保護條例》中規定了獲得解釋權(right to an explanation)等權利,使算法更負責、更可解釋、更以人為中心。數據處理應向數據主體提供具體信息,使主體具有對所做決定解釋的權利和質疑決定的權利。②

為了確保能夠公正、透明地處理數據主體,控制者應使用適當的數學或統計程序進行分析,以識別涉及數據主體利益和權利的潛在風險,進而保護個人數據,并防止對自然人產生歧視性影響。③為了更好地執行反歧視規則,歐盟建立了歐洲數據保護委員會 (European Data Protection Board) ④,對所有處理和使用可能會對自然人的權利和自由帶來高風險的新技術,都必須進行數據保護影響評估。⑤

五、 人工智能技術應用下我國就業歧視法律規制重構

如果人工智能參與就業市場的活動被合理規制,那么計算機算法將有助于發現現實社會中存在的就業歧視現象。⑥算法的使用提高了決策構成和動機的清晰度與透明度,從而大大增加了發現歧視現象的可能性。當涉及算法歧視時,法律可以通過規范算法設計過程、編寫構建機器學習分類算法和設立詳細的記錄保存制度,使勞動者的舉證過程變得更容易。①我國在人工智能發展規劃中明確了建立人工智能安全監管和評估體系的計劃,重點關注對就業的影響,確保人工智能的發展安全可控。②在借鑒美國、英國等發達國家和地區的算法歧視規制經驗時,我國政策制定者需要考慮國內就業市場的自身情況,避免法律移植可能帶來的規則水土不服問題。③美國的算法規制模式不可避免地帶有本國對就業歧視的社會認知,如果法律移植、經驗借鑒不考慮國情差異和社會文化觀念差異,就可能導致勞動者的權利得不到有效保障。④

(一) 擴展歧視類型、明確歧視認定和豁免標準

在我國,學歷歧視、健康歧視、身高歧視、前科歧視等社會中廣泛存在的歧視現象并沒有被全國人大及其常委會列入基本勞動法律之中,僅被抽象地涵蓋在“等”字中,作為歧視類型的兜底條款。這些主流歧視形態只出現在政府部門的規章和地方性法規等較低層級的文件中,難以達到保護勞動者和威懾歧視行為的功效。美國和英國的就業歧視類型非常廣泛,法院系統隨時受理訴訟并靈活認定潛在的歧視類型。本文建議我國立法機關應通過修改勞動法律,擴展就業歧視的類型范圍,全面規定國內和國際社會普遍存在的歧視類型,例如年齡歧視、身高歧視等。在人工智能技術應用造成的歧視方面,我國法律應明確地將算法歧視作為法定歧視類型之一。為了消除各種“合法”就業歧視,我國應清理涉嫌帶有就業歧視色彩的政府規章制度和規范性文件,建立中央層面的規范性文件定期審查機制。

美國通過法院的經典判例形成了招聘歧視行為認定的一般原則和認定標準。其聯邦最高法院在該案中確立了將差別對待理論和差別影響理論分別作為認定直接和間接就業歧視行為的依據。法院會對差別影響、商業必要性和可替代算法決策等三個核心問題進行審查或認定。英國《平等法》和《實踐守則》也明確細化了就業歧視的認定標準。雖然我國反歧視法律條文使用“等”字作為歧視類型的兜底條款,但難以為保護勞動者免受歧視提供具有確定性的法律標準。為平衡勞動者平等就業權利和用人單位的用人自主權利,《勞動法》和《就業促進法》等法律法規和最高法院的司法解釋應在借鑒域外法律經驗的基礎上,明確和細化就業歧視的構成要件與認定標準,引進差別對待理論和差別影響理論。為了鼓勵平臺經濟的發展,我國應借鑒美國《通信規范法》增加法定的歧視豁免情形。

美國、英國司法實踐中的“激勵因素”和“如果不是”證明標準對我國法院具有重要啟示作用。①“如果不是”證明標準對于勞動者的證明責任要求過高,且人工智能存在技術壁壘和黑箱操作,因而“激勵因素”應是我國立法者和法院優先采取的證明標準。由于勞動者很難證明算法平臺具有就業歧視的故意或意圖,且算法本身屬于人工智能運行機制,因此我國應規定算法平臺的無過錯責任。

(二) 明確算法開發主體和運營主體的法律義務

我國法律應明確規定算法平臺開發和運營人員對于算法招聘決策的法律義務與責任。一方面,在算法開發主體和算法運營主體是同一主體的情況下,該主體應對受歧視的勞動者承擔注意義務。違反法定義務的,侵權人應承擔人格權侵權法律責任。在對《勞動法》和《就業促進法》進行修訂時,有關方面也可以考慮規定額外的法律責任,例如懲罰性賠償。另一方面,在算法開發主體和算法運營主體不一致的情況下(例如用人單位作為運營主體從開發主體那里購買了算法軟件),雇主作為算法運營主體,有義務對算法造成的就業歧視現象進行調查追蹤,對算法的運營負有注意義務。我國法律應類推適用產品質量侵權責任規則,明確規定開發主體和運營主體承擔連帶責任:算法運營主體沒有過錯的,受歧視的勞動者可以向算法開發主體進行事后追償。

算法開發主體的義務包括對算法的跟蹤、記錄和評估。國家人工智能規劃明確了建立人工智能評估體系的計劃②,算法開發人員也應該在微觀層面上對算法招聘過程和結果進行跟蹤記錄和風險評估。可能造成“設計歧視”的算法程序的開發人員必須關注算法如何造成了勞動者的差別待遇,有法律義務對其進行科學記錄、風險評估和善后處理。鑒于人工智能的評分(scoring)系統與歧視之間的聯系,法律應嚴格限制用人單位采取人工智能技術對勞動者進行評分的方式。③Pymetrics公司執行了嚴格的統計測試,對不同年齡、性別、種族的勞動者的得分進行比較和評估,以保證數據決策的公平性。④算法開發主體應承擔對算法運行程序的解釋義務。法律應引入第三方數據監督機制,以提高算法招聘決策的透明性,建立責任追究機制。⑤

(三) 確立舉證責任倒置規則

美國和英國存在舉證責任倒置的規定,在應聘人員提供初步證據的情況下,雇主需要舉證,證明自己沒有就業歧視行為。這對于保護應聘人員具有極大的正面作用。我國勞動者面對人工智能技術應用下的就業歧視不可能比美國等國家和地區的勞動者更具有信息與技術知識優勢,因此我國法律的“誰主張誰舉證”的傳統舉證責任規則具有很大的局限性,不能有效地保護被歧視的勞動者。①在由算法引發的就業歧視糾紛中,我國反就業歧視法律應建立舉證責任倒置的分配規則,即受歧視的勞動者完成初步證據提供義務即可,所列舉的事實足夠使法院相信發生了歧視和有證據表明可能發生了歧視,就業歧視假設就確立了。一旦勞動者提供了初步證據,舉證責任就應該轉移到用人單位方,用人單位必須提供合法的非歧視性理由的證據以推翻歧視的假設,即必須提供證據,以證明本單位所做出的是否聘用的決定并非因為歧視原因,而是有合理的市場性理由。

(四) 設立訴訟專門機構、便利集體訴訟

美國除了受歧視的勞動者個人可以提起訴訟之外,平等就業委員會和州公平就業實踐機構也有權針對實施就業歧視的雇主向法院提起訴訟。英國有平等和人權委員會負責執行《平等法》的反歧視規定,歐盟則有歐洲數據保護委員會。這些組織發揮著類似于金融糾紛領域的投資者服務機構的功能。投資者服務機構代表廣大投資者提起集體訴訟,具有節約集體訴訟成本和提高就業市場監督水平的作用。

為了保障勞動者的訴訟權利,我國應借鑒美國平等就業委員會的經驗,設立代表勞動者進行集體訴訟的專門機構。這一機構將類似于代表投資者提起欺詐訴訟的投資者服務中心,具有收集證據的專業優勢和技術支持,同時能夠節約勞動者的訴訟成本,減輕其心理負擔。我國證監會設立的中小投資者服務中心通過持有上市公司股票,自行或者聯合上市公司其他股東共同行使股東權利,解決了中小投資者的集體行動難題,提升了投資者保護水平。②受到就業歧視的勞動者的地位與被上市公司管理層欺壓的中小投資者非常相似,兩者都面臨著信息不對稱、舉證困難、集體行動難、訴訟成本過高、勝訴率過低等問題。專門委員會的設立將有助于促進勞動者對實施就業歧視的用人單位提起訴訟,并提高勞動者的勝訴率和獲得賠償的概率。

六、 結論

隨著人工智能技術的應用,算法技術正在逐漸改變我國傳統的雇用模式。人工智能對勞動力就業市場的影響是一把雙刃劍,既可以防止也可能加劇企業和政府部門等用人單位對(下轉第33頁)(上接第16頁)勞動者的就業歧視。本文以此為議題,從用人單位依賴人工智能招聘時可能產生的歧視風險出發,分析了算法招聘對我國現有反歧視法律構成的挑戰。在算法革命方興未艾而反歧視法律又過于抽象籠統的背景下,我國法院尚未審理過關于算法招聘造成的就業歧視案例,而在傳統就業歧視司法裁判中存在案由歸類不確定、就業歧視類型狹窄、舉證責任制度不利于勞動者、政府部門規章無法有效禁止就業歧視等問題。人工智能技術的應用增加了就業歧視法律責任的司法認定難度和證明難度,向我國反就業歧視和勞動者保護法律體系建設提出了更大的挑戰。

美國、英國、歐盟等法域在傳統成文法的基礎上,形成了較為成熟穩健的算法就業歧視司法判例體系。美國聯邦法院在《民權法》第七章的抽象條文基礎上形成了完善的就業歧視認定標準和舉證責任倒置規則。英國《平等法》和《實踐守則》明確細化了就業歧視的認定標準。歐盟《通用數據保護條例》規定了獲得解釋權等權利。為了保障勞動者權益,美國和英國設立了起訴就業歧視行為的專門機構。在借鑒域外成熟經驗的基礎上,本文提出了人工智能時代下我國就業歧視法律制度的構建建議:擴展歧視類型、明確歧視認定和豁免標準;明確算法開發主體和運營主體的法律義務;確立舉證責任倒置規則;設立訴訟專門機構、便利集體訴訟。

(責任編輯:亞立)

猜你喜歡
大數據人工智能
我校新增“人工智能”本科專業
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
大數據環境下基于移動客戶端的傳統媒體轉型思路
新聞世界(2016年10期)2016-10-11 20:13:53
基于大數據背景下的智慧城市建設研究
科技視界(2016年20期)2016-09-29 10:53:22
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
數據+輿情:南方報業創新轉型提高服務能力的探索
中國記者(2016年6期)2016-08-26 12:36:20
主站蜘蛛池模板: 日韩欧美在线观看| 国产黑人在线| 免费人成视网站在线不卡| 青草视频在线观看国产| 日韩视频免费| 色婷婷综合在线| 欧美黄网站免费观看| 五月婷婷丁香综合| 国产玖玖视频| 国产免费一级精品视频| 秋霞国产在线| 亚洲一区免费看| 国产乱子伦无码精品小说 | 色吊丝av中文字幕| 超碰aⅴ人人做人人爽欧美| 国产丝袜丝视频在线观看| 日a本亚洲中文在线观看| 夜色爽爽影院18禁妓女影院| 国产欧美性爱网| 亚洲国产日韩在线观看| 成人午夜精品一级毛片| 国产老女人精品免费视频| 亚洲美女一级毛片| 日韩 欧美 小说 综合网 另类| 国产精品夜夜嗨视频免费视频| 免费观看成人久久网免费观看| 极品性荡少妇一区二区色欲| 欧美一区二区三区欧美日韩亚洲 | 久久午夜夜伦鲁鲁片不卡| 91精品免费久久久| 欧美69视频在线| 国模视频一区二区| 国产视频一区二区在线观看 | 国产成人8x视频一区二区| 国产午夜精品一区二区三| 在线国产91| 亚洲综合在线网| 色综合天天视频在线观看| 国产一线在线| 亚洲成人网在线观看| 国产超薄肉色丝袜网站| 2021国产精品自产拍在线| 亚洲中文字幕手机在线第一页| 国产人人射| 欧美不卡二区| 欧美一级片在线| 亚洲欧美不卡中文字幕| 久久精品人妻中文视频| 美女免费黄网站| 国产chinese男男gay视频网| 亚洲男人在线天堂| 成人免费视频一区| 欧美三级不卡在线观看视频| 亚洲va精品中文字幕| 国产一二视频| 国产乱人激情H在线观看| 92精品国产自产在线观看| 亚洲成肉网| 伊人无码视屏| 456亚洲人成高清在线| 色吊丝av中文字幕| 亚洲国模精品一区| 少妇人妻无码首页| 高清久久精品亚洲日韩Av| 最新亚洲人成网站在线观看| 久久久久国产一级毛片高清板| 国产一在线| 成人国产精品视频频| 亚洲视频色图| 日本成人不卡视频| 2020精品极品国产色在线观看| 国产免费久久精品99re不卡| 精品欧美日韩国产日漫一区不卡| 欧美曰批视频免费播放免费| 精品少妇人妻av无码久久| 亚洲毛片网站| 91视频首页| 色欲色欲久久综合网| 91精品网站| 亚洲乱伦视频| 国产对白刺激真实精品91| 综合亚洲色图|