999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法就業歧視法治應對的困境與出路

2024-08-07 00:00:00徐素萍
關鍵詞:救濟用人單位勞動者

中圖分類號:D922.5 文獻標識碼:A 文章編號:1001-4225(2024)12-0017-10

黨的二十大報告指出,就業是最基本的民生,要消除影響平等就業的不合理限制和就業歧視,使人人都有通過勤奮勞動實現自身發展的機會。消除就業歧視對于實現高質量充分就業、扎實推進共同富裕和構建和諧勞動關系具有重要意義[2]。隨著算法技術的迅速發展和普遍運用,算法憑借其推薦結果的精準性和響應的敏捷性,迅速改變了傳統的招聘方式,被廣泛運用于就業領域。以算法為技術核心的招聘平臺(如:智聯招聘)成為當前用人單位招聘人才的重要途徑之一。算法是嵌入在計算機系統中,按照設計意圖輔助就業決策的一系列指令的集合。算法深入參與了就業信息推送、簡歷篩選、面試甄選與能力測評等招聘環節,極大地提高了用人單位的招聘效率,有效地促進了勞動者就業。但是,科技是把雙刃劍,算法在為人才招聘提供便利的同時也引發了就業歧視,如亞馬遜公司于2014年開發的用于簡歷篩選的人工智能程序被指存在性別歧視[3,谷歌在互聯網平臺進行算法崗位推薦時涉嫌性別歧視[4]。算法就業歧視是內嵌于算法的基于特征或數據的招聘決策偏見,對特定群體實施了不公平的區別對待,侵害了勞動者的平等就業權,擾亂了勞動力市場秩序。由于算法就業歧視發生在輔助就業決策的系統內部,具有天然的隱蔽性,相較于傳統就業歧視更不容易被人察覺,而且舉證難度大,被侵害的權利往往難以得到救濟

隨著算法就業歧視問題日漸突顯,其相應的法律規制成為了學界熱門的研究課題。算法作為一種決策機制或輔助決策機制被嵌入了價值判斷,具備可規制性5。我國多數學者從宏觀層面對算法歧視的法律規制進行了探討[6-7,但對就業領域的算法歧視問題研究較少。現有的研究文獻僅提出了算法就業歧視的法律規制的總體思路[8],未能結合我國反就業歧視制度探討算法就業歧視的具體法治應對措施。因此,梳理算法就業歧視的的表現與危害,分析我國反就業歧視制度在應對算法就業歧視的困境并探討法治應對措施具有重要意義。

一、算法就業歧視法治應對的必要性

(一)算法就業歧視的內涵界定

算法就業歧視作為人工智能時代的新興術語,目前尚無法律的明確界定,可以從理解“算法歧視\"和“就業歧視\"兩者的含義著手。算法歧視源于大數據歧視,是產生于大數據時代的新的社會歧視類型,是由于算法內部演算和數據分析所導致的對特定群體或個人的不公正對待,包括對特定群體或個人實施法律所直接禁止的差別對待行為和實施看似中立實際上卻造成差別影響的后果的行為。就業歧視的本質是在就業過程中發生的不合理的差別對待。目前我國法律沒有對就業歧視進行明確界定,而是以列舉的方式規定了在就業領域禁止實施的行為以及法律后果。就業歧視可以理解為沒有合法的目的和原因,基于民族、種族、性別、宗教信仰、戶籍、殘疾或身體疾病、年齡、膚色、身高、社會出身等原因,采取的任何差別對待,從而損害勞動者的就業權的行為。就業歧視可分為直接歧視和間接歧視。直接歧視是指用人單位對勞動者實施的法律所禁止的區別對待的行為,是顯性的、淺層的歧視形式;間接歧視是用人單位對勞動者實施的表面上看似中立而實際上對特定群體產生了差別影響的行為,是隱性的、深層的歧視形式。

算法就業歧視是就業歧視在算法領域的轉化,現實社會中的各種就業歧視類型,都有可能在算法領域發生。就業歧視是一種長期以來普遍存在的社會現象,算法決策深度學習了人類決策,就業歧視便在算法決策中進行了算法轉化,并隨著算法技術的廣泛運用形成了算法就業歧視。數據是算法運行的必備要素,如果將帶有就業歧視的數據輸入算法,根據“偏見進,則偏見出”的算法決策理論,必然轉化為算法就業歧視。例如,用人單位過去長期以來雇傭的男性職工遠多于女性職工,而且對男性職工的評價也高于對女性職工的評價,那么算法就可能會從這些歷史數據中識別出用人單位對男性職工的偏好,并復制和固化這種偏見,做出不利于女性職工的算法雇傭決策,從而形成了就業性別歧視。由此可見,算法不僅避免不了就業歧視的發生,而且還會算法轉化乃至固化社會存在的就業歧視,使得就業歧視以更加隱蔽或是合法化的方式存在[0。算法技術的運用提高了用人單位人才招聘的效率,但由于在算法雇傭決策中可能嵌入了算法開發者以及雇傭決策者的價值判斷和固有的就業偏見意識,造成就業歧視,影響勞動者的公平就業。招聘階段的算法自動化決策的核心步驟主要由算法自動完成,而且算法在深度自主學習中習得了哪些數據以及這些數據如何在算法自動化決策中運用無法進行準確的解釋,因此算法就業歧視具有明顯的自動化決策、隱蔽性和延續性等特征[]

(二)算法就業歧視的表現及法治應對的必要性

作為一種新型的就業歧視類型,算法就業歧視沒有改變就業歧視的本質,只是就業歧視在數字社會中呈現出的更加隱蔽的特殊表現形式。算法就業歧視的核心要義就是在就業領域發生的在算法自動化決策中遭受的不合理的差別對待,主要表現為兩種形式。一是算法設計時產生的就業歧視。首先,算法通過歸納法對現有數據進行分析和歸類,并在此基礎上進行預測,這種歸納式的算法思維邏輯容易產生對特定群體的歧視。例如,在算法招聘的初期,算法平臺根據應聘者的性別、年齡、戶籍、學歷等信息進行統計和篩選,并通過概率性的群體身份特征來鑒別特定個體的能力,然后根據單位的用人需求有選擇性地向求職者推送不同的就業信息。這種“私人定制”的簡歷推送做法限制了求職者的就業機會,造成了求職機會的不均等和職業發展的不公平[12]而且,隨著云計算、大數據、人工智能的運用,個人數據收集更容易,個人信息利用成本更低,這種針對個人規則的“私人定制”會更加普遍。其次,算法決策基于數據分析,如果算法設計時所運用的數據本身有錯漏或者存在歧視性,那么所建立的算法模型對特定群體的預測就有可能產生不合理的差別對待,進而產生就業歧視。最后,算法設計過程中開發者的認知局限以及偏見或歧視都會潛移默化地進入到算法的自動化決策中[13],從而產生歧視的后果。二是算法運行中產生的就業歧視。算法具有深度學習和預測能力,可以運用大數據從已知數據準確推測未知信息[14]。這種算法運行中產生的\"冗余編碼\"(即將敏感性數據與其他可合法獲得的數據進行編碼)是算法歧視產生的重要原因之一[I5]。例如,用人單位即使沒有采集求職者的婚育信息,但算法也能通過大數據抓取的求職者購買母嬰用品記錄和報名早教培訓的信息準確判斷求職者的婚育情況,從而為就業性別歧視的實施提供了可能。

算法技術運用于雇傭決策提高了招聘的效率,其通過算法技術篩選簡歷并選擇最佳求職者的過程看似中立,實際上受到了算法設計者和開發者的價值影響,也體現了用人單位實現利益最大化的目的,因此,用人單位最終做出的算法雇傭決策實際上并不客觀,事實上會對勞動者的人格尊嚴和平等就業權造成侵害。同時,由于算法技術具有自主學習能力和預測能力,算法技術不僅能夠打探到超出用人單位依法可以掌握的范圍的勞動者個人信息,還能預測其未來的行為特征,進而促成了用人單位的偏見性招聘決策。而算法技術運用的隱蔽性又使得勞動者對自己平等就業權和個人數據權利受到侵害而不自知,更無法尋求有效的救濟。總之,算法就業歧視作為一種新型的就業歧視,不僅會侵害勞動者的平等就業權,固化和加深職場就業偏見,擾亂就業市場秩序,而且也不利于勞動者個人數據權利的保護。

隨著算法技術在招聘領域的廣泛應用,算法就業歧視現象將越來越普遍,為防止算法就業歧視危害的發生,算法就業歧視的法治應對非常必要。首先,算法就業歧視剝奪了特定主體的就業機會,侵犯了勞動者的平等就業權,擾亂了公平競爭的就業市場秩序,通過法治手段應對算法就業歧視,可以確保所有求職者在同等條件下競爭工作崗位,不受性別、年齡、種族等非法因素的影響,并且在其遭遇算法就業歧視時可以通過法律途徑獲得救濟,最終實現平等就業權的有效保護。其次,算法就業歧視的產生源于用人單位的偏見性決策,通過法治手段應對算法就業歧視,可以明確企業在算法就業歧視中的責任,促使企業合規經營,規范算法的開發和應用,加強自我監管,確保算法的公平性和透明度,避免對勞動者個人數據的濫用,最終推動算法技術的創新和健康發展。

二、算法就業歧視法治應對的困境

算法就業歧視侵害了勞動者的平等就業權,導致就業領域的不公平和不正義。我國目前沒有制定專門的反就業歧視法,有關規定散見于《勞動法》《就業促進法》《婦女權益保障法》以及一些行政規章中。算法就業歧視是人工智能時代出現的新型就業歧視類型,現行反就業歧視制度在應對算法就業歧視過程中面臨立法、執法和司法等多種困境。

(一)算法就業歧視法治應對的立法困境

1.就業歧視的類型范圍過窄

我國《勞動法》和《就業促進法》明確列舉了民族、種族、性別、宗教信仰這四種法律禁止的就業歧視類型,并對婦女、少數民族人員、殘疾人、傳染病病原攜帶者以及農村勞動者進行了特殊保護。對于法律明確列舉的幾種歧視因素以外的其他不合理的差別對待行為是否屬于就業歧視行為,如實踐中廣泛存在的身高、年齡、地域、前科、學歷等歧視因素是否屬于法律禁止的就業歧視類型,在中國乃至全世界范圍內尚未達成共識[,導致這些就業過程中常見的歧視行為難以在司法實踐中得到認定,不利于勞動者平等就業權的實現和公平就業秩序的維護。隨著算法技術在就業領域的深人運用,算法就業歧視逐漸普遍并加深了職場就業偏見,加大了反就業歧視的難度。但由于算法就業歧視的類型未得到法律的確認,實踐中很難得到有效的救濟。因此,就業歧視的類型范圍過窄是勞動者平等就業權保護的障礙,在未來的反就業歧視立法中有必要拓展就業歧視的類型。

2.權利救濟渠道單一

算法就業歧視產生于新科技革命背景下,歧視與用工過程融合更深,隱蔽性更強。算法就業歧視發生后,急需救濟。誠如法諺所言,“無救濟即無權利”,權利救濟是評判法律體系是否健全的重要標志。算法就業歧視侵犯了勞動者的平等就業權,依據《就業促進法》第六十二條規定,遭遇就業歧視的勞動者可以向人民法院提起訴訟。可見,我國就業歧視的主要救濟途徑是以民事訴訟為主的私法救濟。私法救濟規范的是平等主體之間的法律關系,主要目的是對私權進行保護;而勞動者與用人單位之間具有從屬性,平等就業權具有公共利益與私人利益相結合的屬性,算法就業歧視構成了對公私融合法益的損害。勞動者弱勢地位的現實,決定了以平等主體擬制的私法救濟可能會弱化平等就業權的價值甚至會加劇就業歧視[18]。盡管部分法律法規在某些歧視類型上突破了私法救濟的范圍,增加了公法救濟的內容,如2022年10月修訂的《婦女權益保障法》增加了勞動保障監察和檢察公益訴訟作為針對性別就業歧視的救濟途徑,但大部分就業歧視類型仍然是以私法救濟為主,渠道單一,不能為遭遇算法就業歧視的勞動者提供全面的救濟。

(二)算法就業歧視法治應對的司法困境

1.算法就業歧視司法認定難

我國現有反就業歧視法律制度尚未對就業歧視進行明確的界定,《就業促進法》以“開放式列舉\"的方式對四種就業歧視要素作出了禁止性的概括式規定,但這四種就業歧視行為具體怎么界定以及“開放式列舉”的邊界是什么卻沒有明確[19]。司法實踐中也沒有形成統一的判定標準,既有根據勞動爭議案件用人單位責任的構成要件認定,也有依據民事侵權責任的構成要件認定。由于在招聘階段求職者與用人單位之間尚未形成勞動關系,無法適用勞動爭議處理程序審理,只能依據民事侵權責任的構成要件認定。司法實踐中適用一般侵權責任構成要件認定就業歧視,存在主觀過錯和因果關系的認定過于嚴苛的現象,導致就業歧視司法認定難①。算法技術的運用加大了就業歧視司法認定的難度,勞動者請求認定算法就業歧視的主張更難得到支持。算法就業歧視往往都是間接歧視,用人單位一般不會直接公布帶有歧視性的招聘標準,而是巧妙地將其歧視意圖隱藏在算法指令中。算法技術的專業性在求職者和用人單位之間產生了“信息鴻溝”,形成“算法黑箱”,導致求職者很難察覺到用人單位的歧視意圖。以在線招聘廣告的定向推送為例,算法招聘平臺通過對現有數據的分析、歸類和預測,運用算法自動化決策向特定人群推送招聘信息,雖沒有直接顯示對任何群體的偏好或歧視,但卻間接地剝奪了某些群體的就業信息平等獲取的權利,無形中產生了就業歧視。同樣,針對用人單位運用算法自動化決策對求職者簡歷進行篩選并做出錄用決策的行為,勞動者基于對算法技術中立性的信任而不會懷疑用人單位的主觀歧視意圖,即使有,用人單位也可能以與崗位職責一致或者與工作相關為由進行抗辯2]。而\"算法黑箱\"的存在使得算法就業歧視更具有隱蔽性。此外,算法深度學習后做出的預測和帶有歧視性的招聘決策甚至可能超出了算法設計者和用人單位的預期,很難認定為算法設計者和用人單位的主觀歧視故意。總之,算法就業歧視立法界定的缺乏以及算法技術的復雜性和隱蔽性增加了司法認定的難度,客觀上助長了算法就業歧視現象的蔓延。

2.舉證責任分配機制不合理

就業歧視損害了勞動者的平等就業權,勞動者提起就業歧視訴訟后通常需要證明用人單位實施了就業歧視行為。盡管最高人民法院已經將“平等就業權糾紛\"納入了“一般人格權糾紛”的具體案由,填補了就業歧視糾紛的司法救濟空白,但在舉證責任分配上仍采取“誰主張,誰舉證”的方式。侵權責任構成要件的全部證明責任都由勞動者承擔,在用人單位和勞動者之間地位懸殊和信息嚴重不對稱的情況下,大大增加了勞動者敗訴的風險①。在算法技術深度參與招聘決策后,算法就業歧視的復雜性和隱蔽性更加提高了算法就業歧視的證明難度。一方面,基于技術壁壘和信息不對稱,勞動者既無法知道算法自動化決策的運行規律,也無法證明用人單位利用算法做出的差別化招聘決策屬于就業歧視行為;另一方面,用人單位不僅不會主動公開其算法招聘決策中的歧視目的,而且還可能會利用大數據分析來證明其招聘決策的工作相關性和商業必要性以逃避算法就業歧視的認定。因此,讓處于弱勢地位的勞動者去證明算法就業歧視的存在非常困難,這種“誰主張,誰舉證”的舉證責任分配制度在一定程度上加劇了算法就業歧視現象的發生。

(三)算法就業歧視法治應對的執法困境

1.算法的復雜性和不透明性增加了執法的難度

一方面,算法通常由數學模型和大量的數據驅動,具有較高的技術難度,其決策過程難以理解和解釋。即使是開發算法的專家,也很難完全理解算法在特定情況下的具體決策過程。目前執法機構本身缺乏具備算法和數據科學知識的專業人才,難以對算法就業歧視進行有效的審查和監管。另一方面,算法的不透明性加大了執法難度。許多算法的內部邏輯和數據處理過程不公開,使得監管部門和執法機構難以對其進行有效的監督和審查。

2.勞動者個人數據保護不足

算法技術在招聘領域的運用離不開勞動者個人數據的收集和處理。目前我國法律對勞動者個人數據保護主要是通過規范用人單位收集和處理勞動者個人數據行為以及賦予勞動者個人數據權利兩個方面實現。《數據安全法》《民法典》以及《個人信息保護法》規定了一般數據主體的權利、個人數據收集和處理的一般原則和義務,《勞動合同法》《婦女權益保障法》明確了用人單位在招聘時可以收集的勞動者的個人數據的范圍(限于“與勞動合同直接相關的勞動者的基本情況”,并不得“進一步詢問或者調查女性求職者的婚育情況”)。由于算法技術具有自主學習能力和預測能力,算法技術能夠根據已知的勞動者非敏感個人數據預測到未知的與歧視特征相關的敏感個人數據。用人單位據此做出差別性的招聘決策,造成了算法就業歧視,侵害了勞動者的平等就業權。因此,僅限制對勞動者敏感個人數據的收集和處理,并不能防止算法就業歧視的發生,傳統的敏感一非敏感數據二元劃分規則在算法招聘領域失靈[21。由于算法歧視的隱蔽性和勞動者與用人單位之間經濟地位懸殊,現有的勞動者個人數據賦權和用人單位數據治理義務的規范模式不足以保護勞動者的數據權利和避免算法就業歧視的發生。

三、算法就業歧視的法治應對困境的出路

針對我國現行法律制度在應對算法就業歧視問題時所面臨的立法、司法、執法等困境,可以從完善立法、優化司法、加強執法等方面尋求破解之道。

(一)算法就業歧視的立法應對

1.擴展就業歧視的類型我國立法對就業歧視的類型規定范圍太窄導致實踐中就業歧視認定難,不利于反就業歧視工作的開展。應在未來的反就業歧視立法中擴展就業歧視的類型,明確法定四種歧視因素之外的不合理的差別對待行為的判定標準,將實踐中常見的且迫切需要消除的就業歧視的類型明確納入法定禁止事由中。為了有效應對算法就業歧視的挑戰,應當將算法就業歧視明確為新的就業歧視的類型并納入法定禁止事由。

算法就業歧視產生于算法招聘自動化決策中,用人單位的歧視意圖隱藏于看似中立的算法招聘決策系統中,大都屬于間接歧視。例如:在設定招聘算法的優化目標時,如果只考慮用人單位的利益而忽視了應聘者的多樣性和公平性,那么就有可能使算法傾向于選擇某些群體,排斥其他群體,從而產生就業歧視。由于間接歧視比較隱蔽,司法適用難度大,目前尚未得到我國反就業歧視制度的明確認可。“治理歧視從直接到間接是一個發展進階過程,當直接歧視被法律明確禁止時,用人單位自然會采用更為隱蔽、復雜的間接歧視形式\"[22]。隨著算法技術在就業領域的廣泛運用,算法就業歧視將越來越普遍,勞動者的平等就業權保護將受到更大的挑戰,應當在未來的反就業歧視立法中,將算法就業歧視納入法定禁止事由,明確界定并重點防治。

2.拓展算法就業歧視救濟渠道

單一的私法救濟模式不足以遏制就業歧視問題,在應對算法就業歧視上更顯蒼白,應當拓展救濟渠道,引入公益訴訟制度,為公平就業秩序的維護提供強有力的司法救濟。算法就業歧視背離了公平正義的價值理念,剝奪了特定對象的平等就業機會,并對廣泛的不特定對象進行差別對待或者產生實質上的差別對待的影響,既損害了私人利益即具體求職者的平等就業權,也損害了社會公共利益即潛在勞動者群體的平等就業權益乃至整個勞動力市場的公平競爭秩序。現行平等就業權私法救濟模式未能把握平等就業權的公共利益與私人利益融合的本質,混淆了平等就業權與一般民事權利的性質,將平等就業權的救濟與其他一般民事權利的救濟相提并論,導致司法實踐中出現訴訟主體不適格、受案范圍不配對、就業歧視認定難、舉證責任分配不公等司法亂象[23]。應當拓展算法就業歧視救濟渠道,在私益訴訟的基礎上,引入公益訴訟的司法救濟途徑。算法就業歧視公益訴訟,是指用人單位利用算法技術做出招聘決策的行為排除或限制了公民的平等就業機會,損害了社會公平的就業秩序或者有損害的可能時,由法律規定的機關或組織為了維護社會公共利益,實現就業市場的公平正義而提起的訴訟。算法就業歧視的受害主體具有廣泛性和不特定性,引入公益訴訟,可以突破私益訴訟中當事人適格原則的限制,擴大當事人的范圍,同時由于其影響范圍廣、社會關注度高而能夠更好地發揮司法效果,維護公平的就業秩序和社會公共利益。

我國現有法律制度為算法就業歧視公益訴訟制度的構建提供了制度基礎。《憲法》第三十三條為公民平等權保障提供了憲法基礎,《勞動法》和《就業促進法》為勞動者的平等就業權保障提供了法律依據。算法就業歧視雖不屬于法定的就業歧視類型,但它侵犯了公民的平等就業權,損害了勞動力市場的公平競爭秩序,應當受到《憲法》《勞動法》和《就業促進法》的規制。我國《民事訴訟法》第五十八條和《行政訴訟法》第二十五條第四款對公益訴訟的受案范圍和程序進行了規定。這兩部法均采用列舉加“等\"字的概括性、指引性的立法方式,構建了一個開放式的公益訴訟制度體系,為日后新出現的侵犯社會公共利益的行為類型提供了開放式的司法救濟空間[24]。新修訂的《婦女權益保障法》第七十七條將侵害婦女就業權利的行為納入檢察機關公益訴訟的范圍,開啟了性別就業歧視公益訴訟的立法歷程。已有的性別就業歧視公益訴訟實踐也起到了良好的司法效果和社會效果[25],顯示了公益訴訟救濟途徑對治理性別就業歧視的積極意義。實踐中最常見的算法就業歧視類型就是對女性的就業歧視。因此,在算法就業歧視中引入公益訴訟制度是可行的。

(二)算法就業歧視的司法應對

1.實行舉證責任倒置規則

首先,在算法就業歧視糾紛處理中實行舉證責任倒置規則很有必要。一方面,由于勞動者與用人單位之間信息和技術的嚴重不對稱以及算法黑箱的存在,雙方的舉證能力相差懸殊,傳統的“誰主張,誰舉證\"的證明規則不利于保護處于弱勢地位的勞動者。另一方面,用人單位或者算法設計者可能會為了逃避承擔算法就業歧視的法律責任,做出一些隱瞞重要證據或妨礙算法設計人員作為證人出庭作證的行為,增加了舉證妨礙的風險,也客觀上加大了勞動者敗訴的風險。因此,為了遏制算法就業歧視,保護作為弱勢群體的勞動者的平等就業權,我國反就業歧視立法應當借鑒先進的立法經驗,在算法就業歧視糾紛處理中實行舉證責任倒置規則。這既是實現訴訟正義的要求,也契合就業促進和反算法就業歧視的立法宗旨。其次,算法就業歧視糾紛處理中的舉證責任倒置是有限的、相對的倒置。為了防止用人單位的用工自主權受到過分限制以及勞動者濫訴,舉證責任倒置并不是絕對的倒置,而應綜合考慮算法就業歧視的具體情況合理分配舉證責任。對于勞動者而言,勞動者只需要提供初步證據足以推斷用人單位實施了就業歧視行為即可。這些初步證據主要用于證明勞動者到用人單位去應聘的事實,以及勞動者符合用人單位的招錄條件但疑因受到差別對待而沒有被錄用等事實。當勞動者完成了初步證據的提供后,用人單位則需要提供證據證明就業歧視的推斷不成立。具體而言,用人單位需要提供證據證明其算法招聘過程客觀中立、存在不構成算法就業歧視的抗辯事由等事實。如果用人單位提供的證據不足以證明不存在算法就業歧視,或者抗辯事由不成立,就應當承擔就業歧視的法律責任。因此,在算法就業歧視案件中實行有限的舉證責任倒置對于防治算法就業歧視、平衡用工自主與平等就業之利益訴求具有重要意義。

2.明確算法就業歧視的認定標準

針對司法實踐中算法就業歧視認定難的問題,有必要在未來的反就業歧視立法中明確規定算法就業歧視的構成要件以及用人單位的抗辯事由,統一算法就業歧視司法認定的標準。

首先,明確算法就業歧視的構成要件。立法上對就業歧視的構成要件的規定的缺失,導致實踐中就業歧視司法認定難的局面,而算法技術的運用則加大了司法認定的難度。算法就業歧視的本質是用人單位的算法招聘行為對勞動者進行了不合理的差別對待,侵害了勞動者的平等就業權。一般情況下,就業歧視可以從主觀要件和客觀要件兩方面進行認定,其中主觀要件主要考察用人單位是否有歧視意圖,客觀要件則是用人單位是否實施了就業歧視的行為。由于算法就業歧視隱蔽性強,用人單位的歧視意圖難以證實,因此用人單位在利用算法技術進行招聘時,只須關注是否實施歧視的客觀行為,而不把主觀上是否具有歧視的意圖或動機作為承擔責任的必要條件[26]。起源于美國的平等權保護的法律標準一一差別性影響標準的判斷要件不需要證明歧視意圖的存在,實質上是為了禁止形式上非歧視但操作上歧視的實踐行為,可以成為協助認定算法歧視的工具[27。算法就業歧視的客觀要件是實施了不合理的差別對待行為。它包括兩個方面,一是實施了差別對待的行為。例如,用人單位通過算法決策系統按照一定的標準(如年齡、性別等)對原本無序混雜的人群進行了排序和歸類,并成為其算法決策的參考。二是產生了不合理的結果。判斷差別對待行為是否合理,既要考慮工作本身的內在要求,又要考慮勞動者的自身情況。用人單位享有用工自主權,如果差別對待的原因是基于工作性質、工作崗位的具體要求(如勞動者的學歷、工作經驗等與工作內在要求密切聯系的勞動者后天獲取因素),那么這種差別對待是被允許的,不構成就業歧視;反之,如果用人單位沒有正當理由,基于勞動者無法改變且與工作本身無密切聯系的“先賦因素\"(如性別、年齡、戶籍等)進行差別對待,就屬于不合理的差別對待,構成就業歧視。

其次,規定用人單位的抗辯事由。平等就業權是勞動者在就業過程中不受歧視的權利,用工自主權則是用人單位在進行用工決策和管理時的權利,只有在兩者之間進行合理的平衡,才能實現勞動力資源的合理配置和用工市場秩序的健康維護。算法技術的運用雖然容易引起就業歧視,但也能提高招聘決策的效率,并且技術的中立性也能在一定程度上減少人為的偏見和歧視。因此,為了激勵算法技術的運用和平臺經濟的創新發展,需要通過立法的確認和司法的評價來厘清權利的邊界,防止用人單位突破法律禁止的紅線,同時也賦予其合理抗辯的事由。第一,將正當職業資格作為排除用人單位就業歧視的重要理由。正當職業資格是指允許用人單位在做出招聘決策時進行考慮的某種屬性或特征[28]。如果用人單位能夠證明其招聘算法決策所采取的標準與所從事的工作具有必要且合理的關系,并且基于善意而使用,即使事實上造成了區別對待,也不認為構成就業歧視。如美國《民權法》規定:“若在某些特殊情形之下,宗教、性別或者民族是一種正當的職業資格要求,而且這一要求是相關業務或活動的正常運營所合理必需的,則此種雇傭實踐不屬于就業歧視。\"第二,商業必要性也應作為一種合理的抗辯事由。如果用人單位能夠證明自己是基于遵守商業規則而進行的正常的、必要的算法招聘決策,那么也不應構成算法就業歧視。

(三)算法就業歧視的執法應對

1.加強執法資源投入

算法技術的專業性、復雜性加大了算法就業歧視的執法難度,需要加強執法資源的投入,提高算法就業歧視的執法能力和監管力度。其一,增加專業人才投入。一方面,引進具有算法、數據科學以及法律職業倫理知識的復合型人才,或者跨學科組建算法就業歧視執法隊伍;另一方面,對現有執法人員定期開展專業培訓,提升他們在算法和數據科學等方面的知識和技能,提高執法人員的執法能力和執法水平。其二,開發和使用先進的技術工具,如算法審計工具、數據偏差檢測工具等,提高算法就業歧視的監管和執法的效率和準確性。其三,加大資金投入,如建立算法就業歧視執法專項預算,確保有足夠的資金支持算法就業歧視執法工作。其四,加強不同部門之間的合作,在勞動行政部門和網信部門等部門之間進行協作和資源共享,提高算法就業歧視的執法效率。

2.規范用人單位的數據治理義務

算法技術的核心是數據,算法技術作為數字時代人力資源管理的重要工具,在參與算法自動化招聘決策過程中收集和不當利用了勞動者的個人數據,產生了算法就業歧視。因此,通過法律規制數據收集和處理過程,規范用人單位的數據治理義務是保護勞動者個人數據權利,應對算法就業歧視的重要途徑。

其一,規范用人單位的數據收集行為。首先,明確用人單位收集個人數據時的告知義務。告知義務是個人信息處理者的法定義務,只有事先進行了充分、適當的告知,信息主體才能在充分知情的情況下同意,告知同意規則才能真正起到個人信息權益保護的作用2。雖然用人單位基于實施人力資源管理所必需而處理勞動者個人信息無須征得其同意,但依然應當依據《個人信息保護法》第十七條的規定告知勞動者個人信息的處理目的、處理方式、處理種類、保存期限、勞動者享有的相關權利及程序等內容。算法技術在就業領域的運用,便利了用人單位對勞動者個人數據的收集,加大了勞動者個人信息被泄露或被過度利用的風險,甚至可能遭受算法就業歧視。根據《互聯網信息服務算法推薦管理規定》第十六條的規定,算法推薦服務提供者需要履行特殊的告知義務,即“應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等”。因此,用人單位在算法招聘決策中收集勞動者個人數據時,應當充分履行告知義務,保護勞動者的知情權和個人信息權益。其次,用人單位收集勞動者個人數據時應遵循數據最小化原則,只收集必要的、與目的直接相關的個人數據。無論用人單位是基于勞動者的個人同意還是基于“實施人力資源管理所必須\"而收集勞動者個人數據,都應當嚴格限制收集數據的范圍、數量和種類,采取對勞動者個人權益影響最小的方式,所收集的數據限于實現處理目的最小范圍,避免過度收集[30]

其二,明確用人單位算法解釋和說明義務。根據我國《個人信息保護法》第二十四條的規定,用人單位通過自動化決策方式作出對個人權益有重大影響的決定時,應當遵循算法透明原則,向勞動者解釋和說明其自動化決策的運用情況,并允許勞動者拒絕其僅通過自動化決策的方式作出決定。算法透明原則是解決因“算法黑箱”導致的算法歧視問題的一項重要原則。關于說明和解釋義務的主體,有學者提出由招聘服務軟件、人力資源管理系統的開發者注明其數據結果對求職者、勞動者個人信息的指向性3]。筆者以為,由用人單位向求職者、勞動者履行解釋義務會比開發者更具有可行性。因為求職者、勞動者在求職過程中更加關注的是用人單位提供的招聘信息與自己的匹配度,而不是招聘服務軟件、人力資源管理系統本身;將來可能與其發生雇傭關系的是用人單位,而不是開發者,除非開發者與用人單位是同一主體。關于用人單位履行說明和解釋義務的范圍,基于商業秘密保護需要,應遵守“比例原則\"[32],即用人單位主要需要向勞動者說明其收集勞動者數據的范圍、目的以及運用這些數據參與算法雇傭決策可能產生的影響,并解釋其使用的算法雇傭決策系統開發設置本身與工作相關且不具有歧視性。設置說明和解釋義務的目的是讓勞動者知悉算法雇傭決策可能帶來的不利影響,并適時做出是否拒絕的決定,也為將來遭遇算法就業歧視時進行責任追究提供依據。

其三,規范用人單位算法技術影響評估及接受第三方機構監督的義務。根據《個人信息保護法》第五十五條第二款規定,個人信息處理者利用個人信息進行自動化決策的,應當事前進行個人信息保護影響評估,并對處理情況進行記錄。用人單位將算法技術運用招聘決策之前,應當先行評估算法技術的運用可能對勞動者權利造成的影響,并將算法技術影響評估報告向勞動者進行公示,如果發現算法招聘系統可能引起就業歧視,應當采取額外措施予以糾正,否則不得投入使用。由于算法技術在招聘領域的運用容易產生就業歧視,單純依靠勞動者和用人單位的自主自覺行為難以實現規制算法就業歧視的目的,而且基于商業秘密保護的需要,算法招聘決策系統的透明并不是絕對的向社會公眾的透明,因此有必要引入外部第三方機構對用人單位履行數據治理義務的情況進行監督。

結語

算法技術在招聘決策中的運用創新發展了人力資源管理方式,提高了人力資源管理的效率,但也造成了對平等就業權的侵害,產生了算法就業歧視問題。算法就業歧視是就業歧視在算法領域的轉化,既有新技術帶來的新問題,也有人類社會原有的結構性問題。現行反就業歧視立法未對算法就業歧視進行界定和明確規制,導致實踐中司法認定難,無法滿足勞動者對平等就業權保護的合理期待。應當從完善立法、優化司法、強化執法等方面應對算法就業歧視帶來的挑戰,并運用技術、倫理、法律等多種手段進行綜合治理,保障勞動者合法權益,并激勵高新技術的創新發展,最終實現人、技術和經濟的和諧共榮。

參考文獻:

[1]習近平.高舉中國特色社會主義偉大旗幟為全面建設社會主義現代化國家而團結奮斗一在中國共產黨第二十次全國代表大會上的報告[J]中國人大,2022(21):6-21.

[2]李長安,劉真秀.新時期就業歧視的成因及治理[J].中國勞動關系學院學報,2023(2):23-32.

[3]高越.如何培養向善的人工智能?[N].中國婦女報,2023-03-01(004).

[4]于琦.谷歌“性別歧視\"高薪職位推薦重男輕女[EB/OL].(2015-07-13)[2024-03-29].http://finance.cnr.cn/gundong/20150713/t20150713_519186018.shtml.

[5]丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159+203.

[6]鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021(1):14-26.

[7]洪丹娜.算法歧視的憲法價值調適:基于人的尊嚴[J]政治與法律,2020(8):27-37.

[8]趙嬋.AI招聘的算法歧視風險與治理之道[J].湘潭大學學報(哲學社會科學版),2023(3):96-102

[9]石穎.算法歧視的緣起、挑戰與法律應對[J].甘肅政法大學學報,2022(3):29-42

[10]石穎.算法歧視的發生邏輯與法律規制[J].理論探索,2022(3):122-128.

[11]胡蕭力.算法決策場景中就業性別歧視判定的挑戰及應對[J].現代法學,2023(3):59-74.

[12]鄒開亮,王霞.大數據算法背景下就業歧視規制初探[J].價格理論與實踐,2020(6):37-42

[13]伊衛風.算法自動決策中的人為歧視及規制[J].南大法學,2021(3):79-92

[14]閻天.女性就業中的算法歧視:緣起、挑戰與應對[J]婦女研究論叢,2021(5):64-72.

[15]李成.人工智能歧視的法律治理[J].中國法學,2021(2):127-147.

[16]饒志靜.英國反就業歧視制度及實踐研究[J].河北法學,2008(11):61-69.

[17]柳經緯.從權利救濟看我國法律體系的缺陷[J].比較法研究,2014(5):185-190.

[18]周圓.平等就業權救濟的困境與出路一以社會法矯正私法為視角[J].人權,2023(2):138-160.

[19]周圓.社會法對平等就業權私法救濟困境的破解研究[J].河北法學,2023(2):162-183.

[20]侯玲玲,王超.人工智能:就業歧視法律規制的新挑戰及其應對[J].華東理工大學學報(社會科學版),2021(1): 1-16+33 元

[21]湯曉瑩.職場監視5.0下勞動者個人數據保護的困境與出路[J].北京社會科學,2021(9):87-97.

[22]曹薇薇.人口政策轉型期平等就業權的司法救濟[J].法學,2022(6):175-192.

[23]周圓.社會法對平等就業權私法救濟困境的破解研究[J].河北法學,2023(2):162-183.

[24]崔玲玲.教育公益訴訟:受教育權司法保護的新途徑[J]東方法學,2019(4):138-149.

[25]劉瀟瀟,王亞麗.檢察公益訴訟保護女性平等就業權案[J].中國檢察官,2022(10):54-57.

[26]侯玲玲,王超.人工智能:就業歧視法律規制的新挑戰及其應對[J].華東理工大學學報(社會科學版),2021(1):1-16+33.

[27]崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J]法律科學(西北政法大學學報),2019(3):29-42.

[28]楊云霞,莊季喬.就業歧視的例外:正當職業資格認定標準研究[J].西安財經學院學報,2016(6):76-79.

[29]程嘯.論個人信息處理者的告知義務[J].上海政法學院學報(法治論叢),2021(5):67-80.

[30]冉克平,劉冰洋.人力資源管理中個人信息保護的困境與出路[J].華中科技大學學報(社會科學版),2023(4):61-73.

[31]鄒開亮,王霞.大數據算法背景下就業歧視規制初探[J]價格理論與實踐,2020(6):37-42.

[32]湯曉瑩:算法雇傭決策下隱蔽就業歧視的法律規制[J].河南財經政法大學學報,2021(6):75-84.

(責任編輯:張曉)

猜你喜歡
救濟用人單位勞動者
數字經濟賦能就業新生態
中國商人(2025年15期)2025-08-19 00:00:00
用人單位有權單方安排待崗嗎?
中關村(2025年7期)2025-08-18 00:00:00
推車,共“濟”美好
推車,共“濟”美好
零工經濟對城鄉居民收入差距的影響
我國資本市場“吹哨人”制度構建:政策演進及現實審視
以大規模設備更新助推形成制造業新質生產力:理論內涵、作用機理與推進策略
中國西部(2025年3期)2025-08-18 00:00:00
主站蜘蛛池模板: 久久亚洲国产最新网站| 久久久久人妻精品一区三寸蜜桃| 国产女人在线视频| 中文纯内无码H| 永久免费无码成人网站| 精品视频在线观看你懂的一区| 丰满的熟女一区二区三区l| 激情爆乳一区二区| 亚洲国产精品一区二区第一页免 | 国产呦视频免费视频在线观看 | 996免费视频国产在线播放| 欧美一区二区三区不卡免费| 国产精品人成在线播放| 四虎影视8848永久精品| 日韩成人免费网站| 人妖无码第一页| 亚洲无码高清免费视频亚洲| 午夜日本永久乱码免费播放片| 在线观看亚洲国产| 欧美精品黑人粗大| 国产精品亚洲片在线va| 国产无人区一区二区三区| 色综合色国产热无码一| 国产精品自在自线免费观看| 欧美 亚洲 日韩 国产| 亚洲AⅤ无码国产精品| 亚洲成年人片| 亚洲精品在线影院| 无码精油按摩潮喷在线播放 | 日韩成人高清无码| 免费看a级毛片| 午夜成人在线视频| 亚洲国产欧美国产综合久久| 91免费片| 国产亚洲欧美日韩在线一区| 亚洲免费福利视频| 美女潮喷出白浆在线观看视频| 免费一级无码在线网站| 日韩精品高清自在线| 美女一级免费毛片| 国产在线一二三区| 免费午夜无码18禁无码影院| 国产精品手机在线播放| 亚洲国产AV无码综合原创| 2022精品国偷自产免费观看| 久久熟女AV| 欧美一道本| 国产欧美日韩专区发布| 在线观看欧美国产| 亚洲成年人网| 精品视频一区在线观看| 精品国产电影久久九九| 高潮毛片无遮挡高清视频播放| 欧美日韩v| 亚洲国模精品一区| 国产男人的天堂| 亚洲中文无码av永久伊人| 亚洲人成网18禁| 亚洲黄色高清| 日本AⅤ精品一区二区三区日| 日韩高清欧美| 夜夜操国产| 日本爱爱精品一区二区| 精品国产网站| 中国国产一级毛片| 97人妻精品专区久久久久| 亚洲av无码片一区二区三区| 国产精品久久久久无码网站| 香蕉在线视频网站| 成人精品视频一区二区在线| 亚洲高清国产拍精品26u| 日韩精品一区二区三区中文无码| 国产成人综合日韩精品无码首页| 成人在线不卡| 亚洲国产精品成人久久综合影院| 真实国产精品vr专区| 人妻精品全国免费视频| 国产成人啪视频一区二区三区| 无码AV动漫| 亚洲成a人片77777在线播放| 2020亚洲精品无码| 制服丝袜一区|