999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法雇傭決策下隱蔽就業歧視的法律規制

2021-11-25 02:56:32湯曉瑩
河南財經政法大學學報 2021年6期

湯曉瑩

(武漢大學 法學院,湖北 武漢430072)

一、問題的提出

二、“職場歧視3.0”:算法雇傭決策下隱蔽就業歧視的生成路徑及類型

根據就業歧視的生成原因,可以將其劃分為三個階段:第一階段是用人單位明確禁止具有“受保護特征”的勞動者群體進入用工領域,稱之為“職場歧視1.0”;第二階段是用人單位運用經過科學設定程序的“就業能力測試”或者其他“選拔程序”來挑選勞動者,但客觀上造成歧視性后果,稱之為“職場歧視2.0”。由于其與“職場歧視1.0”相比在外觀上具有隱蔽性,因此屬于隱蔽就業歧視的一種類型; 第三階段是用人單位將以“數據驅動”為特征的算法技術運用于雇傭決策并導致就業歧視后果,稱之為“職場歧視3.0”。在該階段,由于用人單位與勞動者之間的“信息鴻溝”,算法雇傭決策下就業歧視的呈現方式也十分隱蔽,也屬于隱蔽就業歧視的一種類型。有效規制“職場歧視3.0”首先需要解析算法雇傭決策下隱蔽就業歧視的生成路徑,并在此基礎上對其進行類型化分析。

(一) 就業歧視嵌入算法雇傭決策的技術路徑:“人機交互決策”

就業歧視在“人機交互決策”這一技術路徑下,具體通過人與機器對勞動者個人數據的收集與處理嵌入算法雇傭決策。有關“人機交互決策”的內容與特征具體如下:

1.“人機交互決策”的內容。當前尚處于“弱人工智能”階段[4],其特點是算法并非價值中立、靜態的技術存在,本質是“人機交互決策”過程,既包含用人單位的價值判斷與行為選擇,也包含機器的自動判斷,核心內容如圖1所示[5]。

圖1 “人機交互決策”的核心內容

2.“人機交互決策”的特征。一定程度的“算法黑箱”是“人機交互決策”的特征。一方面,將算法技術的開發與運用過程完全向外界進行公開可能會侵犯用人單位的“商業秘密”。算法技術作為用人單位的內部決策程序,當算法技術具有“保密性”與“商業價值”時,應享受“商業秘密”的保護。另外,算法技術所運用的數據也可能涉及商業秘密保護[6]; 另一方面,算法雇傭決策過程“被充分理解”不具有現實可行性。算法技術并非完全按照用人單位事先設計的代碼而產生。在“人的決策”之外,“數據挖掘”所識別的數據與數據之間統計學上的“相關性”并不等于“因果關系”,即使算法開發者或“數據挖掘”技術都難以對此進行解釋[7]。另外,值得注意的是,一定程度的“算法黑箱”與“算法操控”這兩個概念存在本質區別,前者用于描述“人機交互決策”的特征,強調算法技術的完全公開透明性與充分可理解性并不現實,后者旨在說明算法決策者可能以侵害算法決策對象的利益為代價故意操縱“人機交互決策”,與算法決策者和算法決策對象之間的“信息鴻溝”密切相關[8]。為此,規制算法雇傭決策給勞動者帶來就業歧視風險的一個關鍵點為:在尊重一定程度“算法黑箱”作為“人機交互決策”特征的基礎上,避免用人單位故意操縱“人機交互決策”從而對勞動者造成就業歧視后果。

(二) 算法雇傭決策下隱蔽就業歧視的類型劃分

根據“人機交互決策”這一技術路徑中可能導致就業歧視的因素,可以將算法雇傭決策所產生的隱蔽就業歧視劃分為因“結果變量”具有非中立性導致的算法歧視與因“訓練集”數據具有歧視性導致的算法歧視兩種類型。

1.因“結果變量”具有非中立性導致的算法歧視。算法開發者對于“結果變量”的設定往往是受到效率或者利益的驅動,可能導致算法技術在實際運行中產生歧視性后果[9]。因“結果變量”具有非中立性導致的算法歧視又可進一步劃分為兩種類型:“結果變量”與“受保護特征”直接相關,具有明顯的歧視性;“結果變量”雖不與“受保護特征”直接相關,但“統計學上分析工具”所進行的“數據挖掘”將識別該“結果變量”與“受保護特征”之間的“相關性”。針對前者,假設用人單位在算法開發之“問題建構”階段為算法技術設定了一個“結果變量”,即篩選出不具有“健康風險”的求職者以降低企業可能面臨的用工成本。如前所述,算法技術的“數據挖掘”旨在識別數據之間統計學上的“相關性”。當通過“數據挖掘”在“喜歡吃甜食”與“存在健康風險”之間建立統計學上的“相關性”時,中立的“喜歡吃甜食”這一數據將成為“健康風險”的“代理數據”。針對后者,假設用人單位將“幾乎不遲到”作為“優秀”勞動者的“結果變量”。由于具有移民背景的勞動者通常面臨經濟上的窘境,其居住地點與工作場所的距離較遠,因此以“幾乎不遲到”為“結果變量”開發的算法技術在實際運行中將可能會對具有移民背景的勞動者(即使其在其他方面與他人相當或者更加優秀) 造成就業歧視[10]。

2.因“訓練集”數據具有歧視性導致的算法歧視?!皵祿诰颉钡摹白晕覐娀Ь场睕Q定了即使用人單位為開發算法技術所設定的“結果變量”具有中立性,但若算法技術所訓練的數據具有歧視性,以這些數據為基礎開發的算法技術在做出雇傭決策時也可能會導致就業歧視后果。因“訓練集”數據具有歧視性導致的算法歧視也可以進一步劃分為兩種類型: “訓練集”數據包含“人為偏見”和“訓練集”數據取自“偏見性樣本”。針對前者,如果用人單位收集到的勞動者個人數據包含用人單位的偏見,那么這種偏見將再次在算法技術的運行中體現出來。例如,若用人單位對“膚色為白色”的勞動者所做出的評價明顯高于“膚色為黑色”的勞動者,則依據這些“評價性數據”開發的算法技術在招聘階段將對“膚色為黑色”的勞動者造成歧視性后果。針對后者,例如在工程領域,如果僅對男性勞動者的數據進行收集,那么以此為基礎開發的算法將在“男性求職者”與“結果變量”之間建立“相關性”并在后續篩選簡歷時剝奪女性勞動者的就業機會[11]。

科學的監管體系能夠在一定程度上為水利工程施工的安全管理工作提供制度上的保障。將工程中出現的問題進行嚴格的問責管理,將責任具體落實到個人,使個人的責任與相關的管理權限一致。在對水利工程進行施工的過程中,要對現場的地質情況進行常規性的探測,并且要能夠及時對施工現場中所發生的一些現象進行及時的調整,保證施工過程中的每一個環節都不會引發安全隱患。

綜上,在以效益為導向的算法雇傭決策中,存在表面看似中立但實際上可能蘊含著人為偏見的數據,且用人單位(算法開發者) 在算法技術開發與運用過程中所進行的人為干預也主要是從自身效益最大化出發,極容易忽視勞動者(算法技術所作用對象) 的主體性地位,背離憲法“人的尊嚴”價值[12]。為此,法律應對算法雇傭決策可能帶來的歧視性后果做出有效規制,努力在“鼓勵創新”與“人權保護”之間保持平衡。

三、算法雇傭決策下隱蔽就業歧視對傳統反就業歧視法的挑戰

反就業歧視法主要是從“結果規制”的視角,在就業歧視結果發生后對相關責任主體施加法律責任,具有滯后性。除此之外,在“算法社會”下還有必要深入探討歐美國家的傳統反就業歧視法是否仍可以適用于規制算法雇傭決策所產生的隱蔽就業歧視,并在此基礎上審視我國平等就業權的立法與實踐現狀,思考其在應對算法雇傭決策下隱蔽就業歧視的不足與后續完善。

(一) 歐美反就業歧視法面臨挑戰

歐美國家反就業歧視法將“歧視”區分為“直接歧視”和“間接歧視”,前者在美國對應“不同待遇”,后者對應“不同影響”。無論是“直接歧視”,還是“間接歧視”,在規制算法雇傭決策所產生的隱蔽就業歧視上均存在“瓶頸”。

1.“直接歧視”規制算法歧視之困境。“直接歧視”是指基于“受保護特征”對處境相同或者類似的人進行不同對待[13],處于“職場歧視1.0”階段。算法雇傭決策所產生的就業歧視與“直接歧視”的通常適用情形存在差異。在“直接歧視”通常適用情形中,就業歧視是以顯而易見的方式表現出來,如用人單位在招聘簡章中明確表示招錄男性求職者(未提供該崗位只能由男性求職者勝任的理由) 。相較而言,算法雇傭決策所產生的就業歧視具有相當隱蔽性,理由在于:勞動者在大多數情形下完全不知曉用人單位將算法技術運用于做出雇傭決策,包括用人單位何時、通過何種方式收集勞動者的個人數據并將其作為算法技術運行的基礎、用人單位是否有正當理由將算法技術運用于雇傭決策,以及算法雇傭決策的基本運行機理等;用人單位還很可能利用“信息鴻溝”實施“算法操控”,將基于“受保護特征”的歧視隱藏在“中立數據”之后。以因“結果變量”的非中立性導致的算法歧視為例,基于“中立數據”可以對“受保護特征”做出推論。不管該推論在現實世界中是否具有“合理性”,用人單位都可能基于這些外觀上中立性的數據在勞動條件上對勞動者進行差別對待。此時,“直接歧視”是否仍存在適用空間? 即使“直接歧視”存在適用空間,客觀上勞動者、用人單位也難以承擔舉證責任。具體而言,在“直接歧視”的舉證責任承擔上,遭受差別對待的勞動者需要初步證明不具有“受保護特征”的其他人在相同或類似情形下不會遭受相同或者類似的不利待遇(3)歐盟和美國在“直接歧視”的構成要件上存在些許差異。歐盟在“直接歧視”的認定上采取“客觀主義立法”,即不考慮行為人的主觀故意態度,而美國的“不同待遇”還要求雇員證明雇主存在故意造成歧視的“主觀意圖”。,而“信息鴻溝”的存在大大增加了勞動者知曉其在勞動條件上與其他勞動者相比處于不利地位以及用人單位在開發算法技術過程中做出何種價值判斷與行為選擇的困難。另外,針對“直接歧視”的抗辯事由,用人單位需要提出其決策具有合法性以及非歧視性的依據——“正當職業事由”。“正當職業事由”一般需要同時滿足“工作實質要件”“全部或者幾乎全部要件”以及“合理需要要件”等三個構成要件[14]。用人單位應如何在縮減“信息鴻溝”與尊重一定程度的“算法黑箱”之間尋求平衡,對“正當職業事由”的三個要件進行舉證,有待進一步明確。

2.“間接歧視”規制算法歧視之困境?!伴g接歧視”強調“表面中立”的政策或者措施在實際運行中能對具有某些“受保護特征”的群體造成不成比例的不利影響,而不考慮該政策或者措施的制定是否基于“主觀故意”(4)See Griggs v.Duke Power Co.401U.S.424,431(1971) .,處于“職場歧視2.0”階段。盡管算法雇傭決策所產生的就業歧視與“間接歧視”均屬于隱蔽就業歧視的一種類型,但算法雇傭決策所產生的就業歧視與“間接歧視”通常適用情形也存在差異,體現為:算法技術是通過對“訓練集”數據進行“挖掘”以識別數據與數據之間統計學上的“相關性”,從而作為對勞動者未知的個人特征或者工作能力做出推論的基礎。該推論的做出完全取決于“訓練集”數據,具有很大的不確定性,會隨著所處數據集范圍的改變而變化[15]。相較而言,“間接歧視”適用的通常情形是“能力測試”或者其他“選拔程序”,旨在通過客觀、科學設定的標準和程序對勞動者與工作崗位相關的工作能力進行測試與衡量。另外,當“能力測試”或者“選拔程序”客觀上導致就業歧視后果時,立法通常是予以免責的,如1964 年美國《民權法案》第703(h) 條明確指出,只要“專業開發的能力測試”不是“被設計、意圖或用于區別對待”,則免除雇主的歧視責任。鑒于兩者之間存在差異,對于算法雇傭決策可能導致的歧視后果,“間接歧視”是否仍然存在適用空間? 此外,即使“間接歧視”仍可以適用,勞動者和用人單位在舉證責任承擔上也存在困難。1991 年美國《民權法案》第703(k)(1) (A) 條對“間接歧視”的非法雇傭行為的構成要件作出了更具體的規定:原告提供初步證據證明被告基于種族、膚色、宗教、性別或國籍等“受保護特征”在雇傭條件上對其差別對待,而被告則沒有證明受質疑的行為是與“工作相關”并具備“商業必要性”;原告可以提出一種能有效減少歧視的“替代性雇傭方案”但被告拒絕接受來反駁被告所提出的“抗辯事由”?;诖耍凇伴g接歧視”中,勞動者如何知曉算法雇傭決策導致其與其他勞動者相比處于不利地位,以及用人單位如何協調勞動者知情權與企業商業秘密保護之間的關系,對算法技術在雇傭決策中的運用具有“正當職業事由”予以舉證,是有待于做出回應的問題。

綜上所述,針對“直接歧視”與“間接歧視”是否對算法雇傭決策所產生的隱蔽就業歧視仍存在規制空間這一問題,筆者認為,對于前者,由于“數據挖掘”技術已經在“中立數據”與“受保護特征”之間建立了“相關性”,當用人單位基于“中立數據”區別對待勞動者,仍可以歸結于用人單位是直接基于“受保護特征”對勞動者進行歧視,因此“直接歧視”存在適用空間; 對于后者,盡管“間接歧視”在立法與實踐中的發展遠遠早于算法技術的產生,但是其應更具包容性使之能夠適應技術發展帶來的勞動者選拔程序的創新,因此“間接歧視”也具有適用空間。當然,無論是“直接歧視”還是“間接歧視”,均在規制算法歧視上面臨相同困境:一是遭受不利益的勞動者如何提供初步證據證明歧視行為的存在,二是如何認定用人單位在“直接歧視”與“間接歧視”下存在合法的“抗辯事由”。

(二) 我國平等就業權立法與糾紛處理規則面臨挑戰

我國不存在一部專門的反就業歧視法,有關禁止就業歧視的內容主要體現于平等就業權立法與平等就業權糾紛處理規則之中。在對歐美傳統反就業歧視法在“算法社會”之適用困境進行分析的基礎上,有必要厘清我國平等就業權立法與糾紛處理規則的現狀,發現其存在的問題。

1.立法與司法實踐之現狀檢視。在我國,有關平等就業權保護的規定散見于若干法律條文(5)《中華人民共和國憲法》(以下簡稱《憲法》) 第三十三條規定中華人民共和國公民在法律面前一律平等;《中華人民共和國勞動法》(以下簡稱《勞動法》) 第三條規定勞動者享有平等就業權;《中華人民共和國就業促進法》(以下簡稱《就業促進法》) 第三條也明確勞動者享有平等就業權,不因民族、種族、性別、宗教信仰等不同而受歧視;《就業促進法》第三章“公平就業”禁止基于性別(二十七條) 、民族(二十八條) 、殘疾(二十九條) 、傳染病病原攜帶者(三十條) 、農村勞動者(三十一條) 等因素對勞動者進行就業歧視。。司法實踐中法院是將“平等就業權糾紛”作為“人格權糾紛”進行處理的。筆者在“北大法寶網”以“平等就業權”為關鍵詞檢索相關案例。根據平等就業權侵權糾紛發生的階段,可以劃分為“錄用階段的平等就業權糾紛”與“實際雇傭階段的平等就業權糾紛”兩種類型。有關勞動者提起爭議的類型、舉證責任、法院判決、救濟類型以及參考案件的具體內容如圖2 所示。

圖2 司法實踐中兩種類型的平等就業權侵權糾紛審理情況對比

2.立法與司法實踐之局限。結合立法條文以及司法實踐現狀,我國平等就業權糾紛在立法與司法實踐審理中存在很大不足,在“算法社會”下其弊端將進一步凸顯: 首先,“間接歧視”處于立法空白地帶,換言之,我國對平等就業權侵權糾紛的處理仍停留在“職場歧視1.0”階段。如前所述,對于算法雇傭決策產生的隱蔽就業歧視而言,其并非如“直接歧視”一樣以顯而易見的方式呈現。若立法未對“間接歧視”作出規定,將難以規制算法雇傭決策所帶來的隱蔽就業歧視后果; 其次,現行反就業歧視立法所規定的“受保護特征”的范圍具有不周延性。算法技術可能基于那些未處于現行反歧視法“受保護特征”范圍的其他特征對勞動者進行分類,這使得反就業歧視法在這些情形中不能得到適用; 再次,平等就業權糾紛不宜作為“人格權侵權糾紛”處理。當平等就業權糾紛作為“人格權侵權糾紛”處理時,勞動者在大多數情形下需要另行提起勞動爭議訴訟請求用人單位支付受損失的工資報酬。即使勞動者一開始提起勞動爭議訴訟,對于平等就業權糾紛,法院則作出不予處理的決定,這增加了司法審理的復雜性;最后,勞動者勝訴率低。在司法實踐中,無論是“錄用階段的平等就業權糾紛”,還是“實際雇傭階段的平等就業權糾紛”,實際上均是作為“人格權侵權糾紛”處理的,適用“誰主張、誰舉證”,這增加了勞動者承擔敗訴后果的風險,與歐美國家法院在審理涉及“直接歧視”或者“間接歧視”案件中原告只需要提供“初步證據”證明歧視行為的存在具有很大不同。此外,“信息鴻溝”的存在往往導致勞動者不知曉用人單位將算法技術運用于雇傭決策、其在勞動條件上與其他勞動者相比處于不利地位的情況以及用人單位在開發算法技術過程中所做出的價值判斷與行為選擇,因此勞動者很難承擔舉證責任。

綜上,與歐美傳統反就業歧視法相比,我國平等就業權立法與糾紛處理規則在應對算法雇傭決策所產生的隱蔽就業歧視上存在極大的不足,亟需做出進一步完善。

四、算法雇傭決策下隱蔽就業歧視的法律規制:從“結果”到“過程、結果”雙軌規制

本文主張,應從“過程規制”和“結果規制”兩個視角,詮釋和理解算法雇傭決策所產生的隱蔽就業歧視的法律規制路徑。鑒于反就業歧視法是從“結果規制”的視角,在就業歧視結果發生后對用人單位施以法律責任,具有“滯后性”且勞動者與用人單位各自在承擔舉證責任上也存在困難,客觀上還要求從“過程規制”的視角,在尊重一定程度“算法黑箱”作為“人機交互決策”特征的基礎上,通過縮減“人機交互決策”中用人單位與勞動者之間存在的“信息鴻溝”避免用人單位實施“算法操縱”從而預防“人機交互決策”可能存在的就業歧視風險。針對“過程規制”,在具體內容上應圍繞作為算法雇傭決策得以有效運行的“燃料”——“個人數據”的收集與處理展開,包括保障勞動者在算法技術開發與運用過程中的各項數據權利,以及規范用人單位在開發與運用算法技術過程中的其他行為。另外,考慮到算法技術是一項新型的人力資源管理工具,其開發與作用于雇傭決策過程與企業“規章制度”類似從而可以納入《中華人民共和國勞動合同法》(以下簡稱《勞動合同法》) 第四條所規定的關乎勞動者切身利益的與“規章制度”并列的“重大事項”,因此在具體對其進行規制上可以借鑒勞動立法中有關企業規章制度的相關內容(6)參見《勞動合同法》第四條、第四十三條、第八十條、2021 年起施行的最高人民法院《關于審理勞動爭議案件適用法律若干問題的解釋(一) 》第四十七條。。在此基礎上,本文根據算法技術從開發到具體運用的一系列過程,將“過程規制”與“結果規制”雙軌規制路徑的核心措施歸納為“設計與協商”“測試與監督”“制裁與舉證”三個方面。

(一) 設計與協商

“設計與協商”強調用人單位在算法技術的開發與運用過程中保障勞動者的個人數據權利與平等就業權等基本權利,以及在算法技術開發與實際運用過程中充分貫徹“勞資協商”的基本理念。值得說明的是,除了已經與用人單位建立勞動關系的群體外,尚未與用人單位建立勞動關系的“求職者”(7)對于企業內部組建的工會而言,雖然其主要在勞動者已經與用人單位正式建立勞動關系的階段發揮作用,但由于勞動者在求職階段也常面臨來自用人單位的侵害,因此企業工會也應保護處于求職階段還未與用人單位正式建立勞動關系的勞動者權利?!邦惞蛦T”群體,均可以得到工會的保護[16]。有關“設計與協商”的具體內容如下:

1.用人單位應制定并執行“信息政策”,包括“通知政策”與“透明度政策”。具體而言,“通知政策”包括“數據收集”的通知與“算法技術運用”的通知兩部分內容。針對前者,由于算法技術在用工領域的運用離不開對勞動者個人數據的收集,用人單位在著手收集勞動者個人數據之前應向勞動者告知數據收集技術是否存在的事實、數據收集技術的類型、所收集的勞動者個人數據的類型以及勞動者個人數據收集的預期用途等;針對后者,算法雇傭決策將顯著影響著勞動者的勞動條件,為此用人單位應就“是否在雇傭決策中運用算法技術”這一事實向勞動者如實說明。此外,“透明度政策”旨在要求用人單位就算法雇傭決策過程對勞動者履行解釋說明義務,是對“通知政策”的深入。我國《個人信息保護法》第二十四條也首次對數據主體有權要求通過自動化方式做出決策的數據處理者予以說明作出規定。出于保護“商業秘密”的要求,用人單位履行的解釋說明義務應符合“比例原則”,即在要求用人單位給勞動者提供一個通俗易懂的關于算法技術究竟是如何被運用于雇傭決策、是否存在偏見的描述基礎上,對用人單位履行解釋說明義務的范圍作出限定,具體包括:向勞動者說明準備開發的算法所需實現的“抽象目標”、選定的“結果變量”均具有“正當職業事由”,以及“訓練集”數據來源不帶有偏見性且收集“訓練集”數據的方式未違背“普遍性原則”,不會對“未被代表”的群體造成歧視等。無論是“通知”,還是做出“解釋說明”均應采取“書面形式”。

2.尊重勞動者的查閱權、更正權等數據權利的行使?!秱€人信息保護法》第四章以專章的形式規定個人在個人信息處理活動中的權利,具有極大的進步意義。其中,“查閱權”“更正權”可以賦予勞動者知曉用人單位收集的與其有關的個人數據的權利,以及在發現數據發生錯誤或者存在偏見時可以請求用人單位予以糾正,在一定程度上減少因“訓練集”數據存在錯誤或者偏見導致的算法歧視。

3.限制用人單位將算法技術運用于針對可識別性勞動者的雇傭決策,除非具備“正當職業事由”,這也回應了在糾紛發生后用人單位對于“直接歧視”或者“間接歧視”的“抗辯事由”。根據“正當職業事由”的三要件——“工作實質要件”“全部或者幾乎全部要件”與“合理需要要件”,用人單位只能在“不存在其他合適替代方案”的前提下運用算法技術來識別勞動者“與工作崗位密切相關”的不易觀察的個人特征以作為雇傭決策的依據?!安淮嬖谄渌线m替代方案”滿足“合理需要要件”。而“與工作崗位密切相關”說明用人單位運用算法技術是為了衡量勞動者與“工作崗位相關”的勞動者個人特征,滿足“工作實質要件”且“密切”一詞體現出了勞動者只有具備該特征才可以恰當地履行工作崗位職責,滿足“全部或者幾乎全部要件”。在具體操作上,由于用人單位在算法技術開發階段需要事先確定算法技術所需要實現的“抽象目標”并將其進一步轉化為可以衡量的“結果變量”。通過對“抽象目標”以及“結果變量”的分析,可以判斷算法技術在雇傭決策中的運用是否具有“正當職業事由”。

4.確保勞動者在算法雇傭決策中的參與權,縮減算法雇傭決策的“信息鴻溝”。在具體內容上包括:首先,無論用人單位運用電子監控技術對勞動者個人數據進行收集,還是在雇傭決策中運用算法技術,均是對勞動者之勞動條件或環境進行實質改變,屬于應該與工會進行集體協商的事項[17],需取得工會的“同意”。以“工會同意”取代“勞動者個體同意”可以避免勞動者個體因行使權利而在勞動條件上遭受不利益。另外,應區分“明確同意”和“默示同意”,前者對應觸及勞動者“人的尊嚴”的數據收集技術或者算法技術的運用,后者對應與勞動者“人的尊嚴”無關的數據收集技術或者算法技術的運用[18];其次,與規章制度在對全體勞動者生效前應向全體勞動者進行公示、聽取勞動者的意見類似,用人單位在將算法技術正式投入使用前應主動向全體勞動者履行信息披露義務并接受勞動者的“異議”,從而促使用人單位對算法雇傭決策過程做出進一步審視、確保不會產生就業歧視后果。在域外經驗上,歐盟將對自動化決策的“異議權”規定于個人數據保護法中,并且規定當依據完全自動化處理做出的決策未充分考慮數據主體的意見時不具有約束力(8)參見2018 年新修訂的《關于個人數據自動化處理的個人保護公約》(Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data) 第9 條、2016 年通過的《通用數據保護條例》(General Data Protection Regulation) 第22 條。。而我國剛通過的《個人信息保護法》第二十四條并未明確指出數據主體對自動化決策具有“異議權”,因此有必要通過法律解釋的方式賦予數據主體以“異議權”,且對于未考慮數據主體意見的自動化決策,數據主體可以不受約束; 再次,在實際雇傭階段,當依據算法技術做出對勞動者的勞動條件產生實質性影響的雇傭決定(如降職、解雇等) ,用人單位應通知工會并聽取工會意見;最后,防止勞動者因正當行使權利而遭遇用人單位的“打擊報復”。在手段上,勞動者可以授權工會成為其行使數據權利或者其他權利的“代理人”或者在立法上提高用人單位對勞動者實施“打擊報復”的法律責任。

(二) 測試與監督

1.秉持“預防原則”,進行“算法影響評估”。由于算法雇傭決策可能給勞動者帶來就業歧視風險,應突出“預防原則”的主導作用?!邦A防原則”最早來源于環境領域,要求建立一個早期預警系統[19]?!皠撔隆焙汀邦A防”是密不可分的[20],“人的尊嚴”應作為科技創新的根本準繩,而在算法雇傭決策中貫徹“預防原則”正是出于維護作為勞動者基本權利之一的平等就業權的需要。在具體內容上,貫徹“預防原則”的核心措施是要求用人單位在算法技術被運用于雇傭決策之前預先對算法技術進行測試,對其是否會侵犯勞動者的平等就業權做出評價,也稱為“算法影響評估”,這有助于促使算法開發者更加負責任地開發算法、監測算法的運行[21]?!八惴ㄓ绊懺u估”應形成“算法影響評估報告”,該報告的具體內容應包括:系統性描述,用人單位必須說明其在雇傭決策中運用算法技術的“正當職業事由”。風險評估,用人單位需要評估算法雇傭決策可能對勞動者造成危害的性質和嚴重性。比例評估,用人單位應結合運用算法技術的預期目的以及可能產生的就業歧視風險,評估算法雇傭決策的必要性。風險減輕措施,如果風險評估確定了潛在的就業歧視風險,則用人單位要實施適當的風險緩解措施,否則不得將該算法技術投入使用。

2.重視“獨立機構”在算法雇傭決策中的監督作用。通過“獨立機構”對算法雇傭決策過程進行監督是縮減“信息鴻溝”的另一項重要舉措。如前所述,向勞動者完全披露算法雇傭決策過程不利于保護用人單位的商業秘密,因此用人單位只能對勞動者履行有限的信息披露義務。在此基礎上,要求用人單位向外部的“獨立機構”披露完整的關于算法技術開發與運行過程中每一步的證據線索,可以防止用人單位對勞動者進行“虛假陳述”,提升勞動者對算法雇傭決策的信任感。設立專門的“獨立機構”進行“算法影響評估”在國外已經存在實踐,例如,美國紐約市議會于2017 年通過的《算法問責法》明確規定應成立“自動化決策工作組”,對市政機構所運用的“自動化決策系統”進行影響評估[22]。針對用工領域,紐約市議會出臺了一項法令,禁止銷售有助于招聘的算法系統,除非這些系統經過“獨立機構”的“歧視審計”并得到“認證”[23]。我國也應借鑒這些經驗,可以考慮由“各設區的市政府”“行業工會”“行業商會”牽頭成立一個“獨立機構”,并要求運用算法技術的用人單位向該“獨立機構”披露完整的關于算法技術開發與運用過程的每一步驟的證據線索以及“算法影響評估報告”。

(三) 制裁與舉證

“制裁與舉證”主要是從“結果規制”的視角,要求用人單位對算法雇傭決策給勞動者造成的就業歧視承擔法律責任,并對糾紛處理階段的舉證責任進行分配。立足于我國立法與司法實踐現狀與問題并借鑒歐美國家經驗,我國反就業歧視法應作出如下完善:

1.制定一部專門的《反就業歧視法》,不僅適用于傳統雇傭領域的勞動者或求職者,也適用于“類雇員”群體。在具體內容上包括:首先,鑒于當今勞動力就業市場中就業歧視以愈加“隱蔽”的方式呈現,我國應該借鑒歐美國家的“間接歧視”理論,擴大就業歧視行為的范圍以有效規制算法雇傭決策帶來的就業歧視后果;其次,我國未來《反就業歧視法》應擴大“受保護特征”范圍,將一些常見的歧視類型(例如戶籍歧視、年齡歧視、學歷歧視、身體特征歧視等等) 納入其中;再次,將平等就業權糾紛作為“勞動爭議”下的“特殊侵權行為”糾紛,適用統一糾紛處理規則而不再根據就業歧視是存在于“錄用階段”或“實際雇傭階段”而適用不同的糾紛處理規則;最后,在賠償類型上包括精神和財產的損害(如失去的就業機會) 等。對于用人單位“故意”造成就業歧視的,應借鑒美國1991 年《民權法案》對用人單位適用“補償和懲罰性賠償”機制(9)See 42 USC 1981a.。

2.減輕勞動者的舉證責任。平等就業權侵權行為的構成要件應借鑒歐盟經驗采用“客觀主義立法”,不將歧視的“主觀故意”作為“直接歧視”的構成要件。歐美在是否將相關主體的“主觀歧視故意”作為“直接歧視”的構成要件上存在的不同,源于兩國所采取的價值取向,美國持“矯正正義”的理念,而歐盟持“分配正義”的理念。前者與過去美國社會存在的嚴重的、具有道德上可譴責性的種族歧視歷史密切相關;后者更看重行為的結果而不追究行為人的主觀意圖[24]。結合我國國情,我國在勞動者平等就業權的保護上應秉持“分配正義”的價值取向。只要用人單位的雇傭行為客觀上對勞動者造成就業歧視結果且不具有“正當職業事由”,那么其就要承擔歧視責任。此種“客觀主義立法”也減輕了勞動者承擔舉證責任的壓力。此外,在舉證責任的具體分配上可吸取歐美的有利做法: 由原告提供初步證據證明存在“直接歧視”或者“間接歧視”,從而推定存在表面歧視,之后由被告舉證證明其行為符合法定的“抗辯事由”。

五、結語

“數據驅動”的算法技術具有高度“顛覆性”。在將算法技術運用于雇傭決策的過程中,應時刻警惕其可能給勞動者平等就業權帶來的侵權風險。除了對算法雇傭決策下隱蔽就業歧視作出法律規制外,還應推動全體公民進行有關人工智能方面知識的學習,培養基本的人工智能素養。當然,算法技術對就業市場的影響遠不只帶來就業歧視后果。在平臺用工領域,算法成為構建勞動秩序的關鍵要素,其背后蘊含著平臺企業對平臺工人的極大控制,平臺工人的意志在平臺秩序中受到嚴重挑戰。由于平臺算法的運行離不開對平臺工人個人數據的收集與處理,后續研究有必要專門針對平臺用工領域,探討平臺工人個人數據保護路徑。

主站蜘蛛池模板: 国产精品99久久久| 国禁国产you女视频网站| 一级毛片中文字幕| 亚洲伊人电影| 91成人在线观看视频| 亚洲资源在线视频| 中文无码影院| 亚洲免费人成影院| 国内熟女少妇一线天| jijzzizz老师出水喷水喷出| 国产成人亚洲日韩欧美电影| 国产精品永久久久久| 久久精品欧美一区二区| AV色爱天堂网| 2020最新国产精品视频| 中美日韩在线网免费毛片视频| 精品欧美视频| 国产精品蜜臀| 国产精品成人一区二区不卡| 四虎国产精品永久在线网址| 人妻丰满熟妇αv无码| 亚洲精品午夜无码电影网| 视频国产精品丝袜第一页| 在线免费亚洲无码视频| 成色7777精品在线| 韩国v欧美v亚洲v日本v| www.国产福利| 不卡的在线视频免费观看| 毛片网站免费在线观看| 国产成人免费观看在线视频| 亚洲日韩高清在线亚洲专区| 国产成年女人特黄特色大片免费| 国产成人综合日韩精品无码首页 | 无码AV动漫| 免费国产在线精品一区| 91 九色视频丝袜| 国产一区二区三区精品久久呦| 亚洲人成影院在线观看| 国产精品无码影视久久久久久久| 国产一区二区三区视频| 中文字幕亚洲乱码熟女1区2区| 欧美a级在线| www.亚洲色图.com| 亚洲精品无码抽插日韩| 久久人体视频| 国产女人水多毛片18| 永久免费av网站可以直接看的| 亚洲国产精品国自产拍A| 国产一区二区三区精品欧美日韩| 麻豆精品在线视频| 亚洲欧美激情另类| 亚洲成人免费在线| 中文字幕2区| 国产成人免费观看在线视频| 色久综合在线| 人妻一本久道久久综合久久鬼色| 精品人妻无码中字系列| 国产日韩精品欧美一区喷| 国产成人亚洲毛片| 亚洲无码视频图片| 欧美国产日韩在线| 久久精品中文字幕免费| 国产香蕉在线视频| 国产精品人成在线播放| 久久人妻xunleige无码| 久久久久夜色精品波多野结衣| 日韩高清在线观看不卡一区二区| 在线免费观看AV| 午夜毛片免费看| 国产成人无码久久久久毛片| 久草视频福利在线观看 | 国产人免费人成免费视频| 亚洲性日韩精品一区二区| 国产大片黄在线观看| 啊嗯不日本网站| 国产97视频在线观看| 国产导航在线| 国产精品久久久久久久久| 五月丁香伊人啪啪手机免费观看| 欧美三級片黃色三級片黃色1| 性欧美久久| 综合网久久|