胡蕭力
摘要:就業性別歧視對女性求職者受憲法所保護的平等權、勞動權造成現實的侵害風險。對就業性別歧視判定標準問題,學界已有較為豐富的研究,但傳統判定標準在算法時代遭遇適用困境。算法掩蓋下的就業性別歧視具有自主性、隱蔽性、延續性和結構性等特征,這不僅可能對求職者的權利主張造成過重的舉證負擔,亦無法解決算法供應商等第三方主體的歸責問題。因此,應當從事前與事后兩個維度,探討對算法就業性別歧視進行有效規制的路徑。在概念界定上,應通過擴充就業性別歧視概念的外延,將算法就業性別歧視納入到反歧視法的規制范圍內,使新加入的算法供應商等第三方主體參與到責任分擔過程。通過在算法決策過程中引入技術性正當程序理論及其機制框架,搭建起權力主體配合下的“理解—參與”模式,借助合規審計追蹤、算法解釋等方式,有效控制算法就業性別歧視的風險,保障女性求職者平等權和人格尊嚴等權益。
關鍵詞:算法歧視;算法雇傭決策;就業性別歧視;技術性正當程序
中圖分類號:DF931.1 文獻標志碼:A DOI:10.3969/ j. issn.1001-2397.2023.04.05
一、問題的提出和界定
反就業性別歧視,尤其是反針對女性的就業歧視,是反歧視法領域經久不衰的議題。其關涉女性憲法上平等權與勞動權,以及由此派生出的平等就業權的實現,亦關乎女性社會地位與自我價值的實現。而就業性別歧視的判定標準,即“什么樣的行為會被判定為法律上的就業性別歧視”則是反就業性別歧視基礎性也是關鍵性的問題。該問題一方面取決于立法所制定的判定標準,另一方面也受司法上判定規則、舉證規則的影響。在女性求職就業的過程中,招錄環節是整個就業過程的起始,在此階段發生的性別歧視被稱為狹義上的就業性別歧視。由于該類歧視直接影響女性就業機會的取得,因此,本文將討論對象限定于狹義就業性別歧視的判定標準問題,下文所稱就業性別歧視即指狹義上的就業性別歧視。
2023 年1 月,新修訂的《中華人民共和國婦女權益保障法》(以下簡稱《婦女權益保障法》)正式施行,該法進一步強調了保障女性勞動權的重要性,其中,第43 條就招錄環節用人單位不得實施的行為進行了規定。從某種角度來看,該條可以被視為以列舉加歸納的方式在立法上確立了我國的就業性別歧視判定標準。然而稍作比較就會發現:該條雖然對《中華人民共和國勞動法》(以下簡稱《勞動法》)第13 條、《中華人民共和國就業促進法》(以下簡稱《就業促進法》)第27 條第2 款,以及部分位階較低的規范性文件所規定的以直接歧視為規制對象的判定標準有所細化,但對于如何判定因表面中立的行為所導致的結果上的間接歧視,卻并未作規定。即便僅從直接歧視的角度進行審視,上述立法所規定的判定標準亦存在過于抽象、寬泛的問題。從司法實踐來看,人民法院對就業性別歧視判定規則同樣缺乏共識性的統一標準,只是在勞動爭議、侵權責任和締約過失等不同案由下形成了不同的審查基準,這削弱了司法在反就業性別歧視中應有的作用。隨著時代的發展,老問題尚未得到解決,新問題又悄然涌現。特別是隨著算法技術逐漸應用到用人單位雇傭決策的過程中,算法歧視這一新形態的歧視出現在了就業領域,其無論是對已有的判定標準還是相關研究都構成了極大的挑戰。在上述背景下,如何利用我國反歧視法律制度的后發優勢,更好地應對算法對就業性別歧視現有判定標準所帶來的挑戰,是一個值得關注的重大理論和實踐問題。
二、就業性別歧視在算法雇傭決策中的生成
根據《1958 年消除就業和職業歧視公約》第1 條第1 款,就業性別歧視是指:基于性別的原因,具有取消或損害就業或職業機會均等或待遇平等影響的任何區別、排斥或優惠。在此基礎上,間接歧視概念的出現又使表面中立,但實際上可能或已經導致某一性別的群體在就業上處于不利地位的行為被歸入就業性別歧視的外延中。算法歧視的誕生使歧視的形態更加隱蔽、多元,其形成過程所涉及的主體、行為也更加復雜,增加了判定就業性別歧視的難度。應對算法歧視對傳統就業性別歧視判定標準所帶來的挑戰,首先需要理解算法就業性別歧視與傳統的直接、間接歧視在生成原理上存在何種區別,進而有針對性地探究解決方案。
算法歧視誕生于算法決策的過程中。算法決策運作的基本原理是利用算法對大數據中的特征、關系、類別進行挖掘識別,而后借助算法模型來預測對象的行為,并以此為基礎作出響應的決策。具體到算法雇傭決策的語境下,首先需要由用人單位等算法使用者制定決策目標,同時,收集合適的訓練數據集;隨后,算法程序員根據問題的類型選擇并優化算法,并將用人單位的招聘需求轉譯為具有相關性的可測量特征或稱“結果變量”,與現有員工情況等訓練數據集一起輸入到算法中。隨著算法的迭代更新,新模態的“機器學習算法”甚至無需借助程序員所輸入的知識與程序,而是利用“深度學習”等方式自主地篩選數據中有意義的特性并學習其中的決策模式,并通過反復的訓練和調適,獲得無限逼近需求目標的數據模型。這套數據模型最終被用以預測哪些求職者可能在公司內創造更大的價值,從而實現對求職者數據的分析并做出篩選。
算法具有中立的外表,而歧視則來源于人的主觀認知,是對不同人群的偏見在具體行為上的反映。觀察算法雇傭決策中主觀偏見的來源及其融入決策過程的方式,可以將算法就業歧視進一步區分為因抽樣偏見導致的算法就業歧視和因設計偏見導致的算法就業歧視。前者源于訓練數據集中樣本的“質”和“量”,或者說樣本在中立性與代表性上的偏差。如果訓練數據集中原本就存在對某一群體的偏見,或其中某些群體的代表名額不足或過多時,算法就業歧視就可能發生。例如,如果用人單位過去長期對男性勞動者作出了較女性勞動者更高的評價,或是雇傭了遠多于女性職員的男性職員時,算法就可能會識別出歷史數據中的偏好與選擇模式,并在無意中復制這種偏見,形成對男性勞動者的偏好。而因設計偏見所導致的算法就業歧視同樣可以被分為兩類:其一,硬件、軟件、設備等技術所存在的客觀限制,可能導致模型和決策不準確,進而產生算法歧視;其二,算法程序員將用人單位對崗位及求職者的需求進行“轉譯”并輸入算法時,對目標、需求等因素的轉譯可能出現偏差,從而導致算法就業歧視的出現。在很多情況下,用人單位決策目標中的某些詞匯往往缺少具體、客觀的定義,例如,“優秀”“忠誠”等,此時算法程序員在進行轉譯過程中,難免摻雜個人的偏見或是陷入“偽中立的陷阱”。又如,以“出勤率”作為挑選“忠誠的”員工這一目標需求的結果變量,表面上看是合理且中立的,但《婦女權益保障法》規定,孕期女職工享有休產假的權利,因此,相較于男性職工,女性職工請假的需求及時間就會更多。此時,如果算法通過數據挖掘識別到結果變量與性別這一受保護特征之間的關聯性,就可能使與“懷孕”“母嬰”等詞語相關的數據成為“出勤率”的表征數據,導致就業性別歧視的結果。
至此,我們可以歸納出算法就業歧視的三個特征。第一,在使用機器學習算法的情況下,算法雇傭決策的核心步驟幾乎完全由算法自動完成,由此產生的算法就業歧視具有明顯的自動化決策的特征。第二,機器學習算法可以自主地完成數據挖掘、選擇與模型建構,這使得人們難以判斷算法在學習過程中識別到了哪些數據,又提煉出哪些特征,因此,很難對算法決策的過程及原理進行完全準確的解釋,導致算法“黑箱”,形成了算法就業歧視隱蔽性的特征。第三,算法就業歧視具有延續性、結構性,這種特征在性別的語境下又更加突出。無論是因抽樣偏見還是因設計偏見產生的算法就業歧視,本質上都是既存的結構性偏見在算法決策過程和結果層面的投射。就本文所討論的性別平等問題而言,長期以來,女性的不平等地位深深地扎根于傳統觀念和刻板印象之中,這種內在的偏見通過人與人之間的互動交往,影響到資源在不同性別群體間的分配,最終構建出一個對男性群體整體有利的社會權力結構。這種結構性不平等具有延續性,可能伴隨代際更迭延續存在,并對相關的信息和數據產生影響。這意味著,結構不平等和觀念上的刻板印象,本身就可能對數據源造成“污染”。由于算法決策需要通過分析數據而進行預測和決策,因此,一旦在就業領域的數據受到不平等權力結構的影響,算法對這些數據的學習,將可能“復制”隱藏于數據中的不平等因素,延續甚至強化就業場景中的性別不平等,陷入算法的“自我強化困境”。目前,技術尚無法完全消除算法訓練數據集中的偏見,亦難以有效排除結構性不平等對新數據的影響。正如學者梅森(Mayson)所指出的,算法歧視實際上成為一個“偏見進,偏見出”的過程。在這個意義上,算法如同一面用以觀測未來的“預測之鏡”,但對未來的預測需要依據過去的數據和結構化框架,因此,在邏輯上和實踐中,這種預測很可能將過去的不平等投射到未來。
三、算法就業性別歧視對傳統就業性別歧視判定標準的挑戰
面對包括算法就業性別歧視在內的就業歧視問題,有學者提出可通過借鑒域外法中就業歧視判定標準的方式加以應對。的確,域外尤其是歐美國家由于平權運動的發展和技術先發效應,已形成了一套較完整的就業歧視判定體系,而就業性別歧視的判定便是其中一個方面。就業性別歧視的判定以直接歧視與間接歧視為基礎,設置了較為完整的判定標準及舉證規則,總結出了一套包含主體要件、行為要件、因果關系、行為后果要件、主觀要件以及合理抗辯事由在內的就業歧視構成要件體系。雖然不同國家的判定標準存在或大或小的區別,但從整體上看,可依據歧視的成立是否要求原告證明被告具有歧視的故意這一要素,可以將就業歧視的判定標準大致分為兩類:其一是以美國為代表的“主觀主義”模式;其二是以英國、歐盟為代表的“客觀主義”模式。然而,進一步的分析將發現,面對新形態的算法歧視,歐美傳統的就業性別歧視判定標準力有所不逮,不僅可能給求職者或用人單位施加過重的舉證負擔,亦無法解決新加入的算法供應商等第三方主體的歸責問題。
(一)直接歧視判定標準及其面臨的挑戰
直接歧視又被稱為“差別對待歧視”。針對女性的直接歧視表現為基于性別,剝奪、限制女性的就業權利。例如,以對女性的刻板印象拒絕雇傭某人,或缺乏合理理由對男性和女性進行差別化招聘等。由于直接歧視是一種較為明顯、直觀的歧視,因而無論在英國還是美國,其判定的核心都在于是否存在非基于合理事由的差別對待或歧視行為,且對該法律事實的證明責任通常由原告承擔。
不同的是,采取“客觀主義”模式的英國對用人單位是否存在歧視動機并不考慮,而采取“主觀主義”模式的美國則恰好相反。在此基礎上,美國還進一步根據是否可以直接表明被告具有歧視的故意,將就業歧視案件分為“直接證據”案件、“間接證據”案件以及“混合動機”案件三類,并匹配不同的舉證規則,但原告依然要承擔證明被告存在歧視動機的最終責任。與直接歧視不同的是,算法歧視往往形成于外觀上中立的數據,在技術理性的外衣之下,這種歧視具有隱蔽性特征。因此,在討論算法歧視對直接歧視判定標準構成的挑戰之前,我們首先需要追問:在算法歧視的語境下,直接歧視的概念及其相關判定規則是否仍然適用?回答好這一問題,需要回溯至判定直接歧視的根本要點,即被告是否基于性別等受保護特征而對不同主體加以區別對待。上文提到,在算法雇傭決策的過程中,存在一個將目標需求轉譯為關聯特征,并進行特征選擇的過程。此時,如果被告方公然在特征集合中納入性別等受保護特征,就可能“教唆”算法輸出歧視性結果。或者,即便被告方嘗試剝離數據中的性別等受保護特征,算法也可能識別到數據與性別等受保護特征之間的潛在關聯,進而做出具有歧視性的決策,此時亦可以認定差別對待行為是基于性別等受保護特征而作出的。因此,在判定算法歧視場景中,直接歧視判定標準依然存在適用空間。
不過,算法歧視對直接歧視判定標準所帶來的挑戰也顯而易見,因為二者在歧視行為的表現上存在根本差異。直接歧視是明顯的、易于感知的,而算法歧視是隱蔽的、不易察覺的。在直接歧視的舉證規則中,原告方證明的核心任務是“歧視行為存在”和“歧視行為非基于合理理由”;在“主觀主義”模式下還需要證明被告“具有歧視的意圖或動機”。但在算法雇傭決策的情境下,求職者作為被動方難以了解用人單位對自己的哪些信息進行了收集,算法程序員又利用了什么樣的算法技術進行雇傭決策。算法歧視的隱蔽性又進一步使求職者難以證明算法在作出決策時依據的是什么標準,該標準又是否與性別等不合理理由相關。同時,隨著機器學習技術被普遍應用于算法模型,算法決策的自主性不斷提升,很多時候算法歧視的生成并非源于用人單位或者算法程序員的歧視故意。此時,如果要求求職者證明這種主觀惡意的存在便成為一種苛求。可以說,在算法權力日益擴張的當下,求職者等個體必然處于“信息差”的弱勢一方,這種弱勢地位在就業這一特殊語境下又被進一步放大。求職者為獲取就業機會,只能被動地默許算法對個人信息的分析、選擇和決策,但卻無法獲知雇傭決策過程中的關鍵步驟與信息。因此,面對算法歧視,傳統的直接歧視判定規則施加于原告方的證明責任顯然過重,甚至是不可能完成的任務。
(二)間接歧視判定標準及其面臨的挑戰
相比較而言,間接歧視或稱“差別影響歧視”,與算法歧視更為類似。依據反歧視法的一般發展規律,隨著反歧視法的適用與普及,明顯且帶有惡意的直接歧視逐漸減少,而以更隱蔽的方式存在的間接歧視日益增多。受歷史沿革與傳統觀念的影響,人的認知可能在不存在明確動機的情況下,潛移默化和不知不覺地將人群歸類,并在此過程中形成偏見和無意識的歧視。這種無意識的歧視被表面中立的制度、社會規范確認后,就可能形成結構性不平等,進一步加大間接歧視發生的可能性。具體到就業問題上,盡管性別平等在我國已經成為不言自明的規范準則,但受歷史慣性、社會習俗、文化多元等因素的影響,我國的女性就業平等權保護制度仍然呈現出“輕機會平等保護、重特別權益保護”的特征。女性在就業領域所處的不平等地位更多地受到機制上的路徑依賴、有關兩性社會角色的刻板印象等因素的影響,就業性別歧視也逐漸呈現出隱蔽性、延續性、結構性等特征。類似地,算法歧視同樣是一種無意識的、隱蔽性的歧視,且往往是長期存在的結構性歧視在算法中的投射與轉譯。由此可見,間接歧視與算法歧視之間存在明顯的相似性。也正因為此,間接歧視判定規則在反算法就業歧視中的適用已引起一些學者的關注。
具體來說,在間接歧視案件中,對歧視的判定有兩個關鍵步驟。首先,一般應由原告提出表面證據證明不利狀態或差別影響的存在,而這一證明步驟主要借助有關雇傭結果的統計數據來完成。就國外情況而言,目前廣泛適用的是美國法院的“五分之四規則”,即如果用人單位所采取的招聘條件將導致女性雇員比例與男性雇員比例之間的最高比率低于五分之四時,即視為存在差別影響。其次,間接歧視判定規則的特殊性在于,當原告完成初步證明后,將發生一次舉證責任的轉移或稱“倒置”,被告必須提出合理的抗辯事由,如證明其采取的雇傭行為存在業務上的必要性等,否則,將由被告承擔舉證不能的后果。另外,在美國法上,即使被告可以證明自己的某項行為存在業務上的必要性,原告仍然可以繼續證明存在被告可以采取的、具有較小歧視性影響的其他選項,但被告并未采取這樣的行為。總體上看,在間接歧視的判定過程中,存在一個由歧視結果推定歧視故意的過程。由于間接歧視通常是無意識且不顯著的,因此,其判定標準只關注雇主的行為造成的歧視性結果,而不關注雇主的主觀故意,由此降低了原告舉證的難度。
在應對隱蔽性的就業性別歧視時,這種將主觀故意要件的重要性下調,并將舉證責任倒置的方法,無疑具有重要意義。然而,相較于傳統的間接歧視,算法歧視在形成過程中新增了算法供應商等第三方主體,這一關鍵性的差異使得傳統間接歧視判定標準遭遇新的難題。在傳統舉證規則下,舉證責任僅在求職者和用人單位之間進行分配,此時,正如有學者指出的“降低舉證責任往往是一個零和博弈”,原告的舉證責任降低了,被告的舉證責任自然就提高了。但由于算法歧視的隱蔽性,用人單位也無法完全參與到雇傭決策的過程,因此,難以完全控制并理解算法決策的方式和理據。此時,如果僅由用人單位來承擔舉證責任,將抑制用人單位開發、使用算法進行雇傭決策的積極性。事實上,由于相關主體數量的增加,算法歧視場合下的歸責問題愈加復雜。算法程序員,以及作為算法提供者的第三方機構是否需要承擔責任? 用人單位之外的數據提供者是否應承擔責任? 傳統的間接歧視判定規則下這些問題均無法得到有效解決,這可能導致間接歧視相關判定標準和責任規則的失靈。
四、算法就業性別歧視危機的應對
通過上述分析可見,算法就業性別歧視實際上是社會結構中性別不平等在算法決策過程中的投射,皆源于傳統的性別刻板印象、社會結構及性別角色定位。但由于算法歧視的特殊性,傳統的判定標準與舉證規則難以有效應對。而且,算法技術本身所蘊含的經濟、社會效用及第三方機構等主體的利益,與傳統就業歧視語境中所存在的平等就業權與企業用工自主權等法益相疊加,使算法就業歧視中的價值權衡更加復雜。從根本上講,算法就業性別歧視的“治本之道”仍需回到社會性、結構性的層面,例如,通過合理分配生育成本等制度,實現就業性別平等,但這顯然不是短期內可實現的目標。因此,應對算法就業性別歧視所帶來的現實挑戰,需要根據算法就業性別歧視的特征,有針對性地進行法律規制的優化,以克服和緩和算法就業性別歧視所帶來的問題。
(一)賦能必要性與歸責正當性
基于上文梳理,筆者認為,面對算法就業性別歧視對傳統判定標準所帶來的挑戰,需要從原告方和被告方兩個角度思考可能的應對方案:一是如何降低原告方,即女性求職者的證明負擔,同時提升其對抗算法權力的能力;二是如何在用人單位、算法供應商等被告方之間合理分配法律責任與合規成本,實現激勵與監管的平衡。
首先,應對算法就業性別歧視問題,需要對數字化時代的求職者進行數字賦能。在算法雇傭決策的過程中,求職者被化約為一組數據,他(她)們以數據的形式存在并被客體化。用人單位與算法供應商在自身利益最大化目標的驅動下,運用算法實現對求職者的分析、評級、選擇與控制,而求職者則被動地成為算法決策所支配的對象,失去了對個人數據的主動性與對決策過程的知情權。由此產生的算法就業性別歧視,一方面,侵犯了求職者受憲法所保障的平等權與勞動權;另一方面,則可能進一步固化結構性的性別歧視,最終使女性求職者不得不面對基本權利與人格尊嚴等法益受損的危險。此時,要使女性求職者獲得針對算法歧視的防御能力,關鍵在于凸顯其主體性,而這正是數據賦能的核心要旨。數據賦能的規范要求,旨在通過對用人單位等數據處理者、控制者施加法定義務,例如,保證數據的準確、客觀、平等等要求,進而充分保障求職者的個人信息權益等合法的數字權利,從而增強個人信息主體的權利。例如,個人的知情權、決定權、查詢權、請求修正權、刪除權等權利,有助于抑制求職者個人數據的偏差和被濫用所導致的風險,提升個人的信息自主性。在反算法就業性別歧視的語境中,這種數據賦能可以抑制用人單位和算法提供者對數據的壟斷,在一定程度上緩解“數字鴻溝”的負外部性效應。數字賦能還可要求用人單位提升算法決策的透明度和可理解性。總之,通過充分保障求職者個人信息權益以及提升算法透明度和可解釋性要求,可以對求職者進行相應的數字賦能(digital empowerment),從而緩解個人權利與資本、技術所疊加的雇傭者權力之間的不平衡態勢。
其次,應對算法就業性別歧視,需要考慮歸責邏輯的正當性,以合理分配法律責任與合規成本。在算法雇傭決策的場景中,一方面,算法就業歧視的自動性、隱蔽性特征往往成為相關主體拒絕擔責的借口;另一方面,過重的舉證負擔與對算法效益的偏好也可能成為相關主體避責的考量因素。因此,我們需要認識到,算法雇傭決策不可能完全脫離人為干預因素而存在,算法就業性別歧視產生的根源仍然是人的利益動機和主觀偏好等因素。例如,目標設定、特征選擇等明顯存在人為主觀因素介入,顯然會受到人為影響;即便是學習型算法,也會因為訓練數據集內含的立場與偏見,將人為影響傳遞到算法決策結果中。有學者指出,近年來普遍存在一種過度強調算法技術理性的傾向,但其問題是:忽視了數據對人工智能系統決策質量的重要影響。算法作為一套計算機制,無法離開數據,算法需要通過對歷史數據的挖掘和處理進行學習。如果數據出現偏見,算法可能“習得”或復制偏見。而不管是數據最初的采集,還是隨后對數據所進行的清洗、篩選、標注,都離不開人的參與。因此,無論是依據對算法就業性別歧視根源的考察,還是出于保護女性求職者合法權益的目的,對用人單位等可能影響算法雇傭決策過程的主體進行歸責都具有正當性。
依據上述邏輯,下文將以對數據主體的數字賦能和對用人單位等相關主體的合理歸責為基本方向,從就業性別歧視判定標準自身的完善以及標準之外的規制措施入手,探討如何應對算法對就業性別歧視所帶來的挑戰。
(二)就業性別歧視概念外延的擴展
就業性別歧視的概念界定不僅是就業性別歧視判定過程中的基礎性問題,亦構成探討數據主體賦能和成本責任分配的重要前提。當前,我國不僅在立法上沒有對“就業性別歧視”進行明確界定,相關司法實踐中亦沒有形成一套統一的救濟審查標準,且幾乎忽視了有關間接歧視等隱蔽性歧視的問題。在算法時代,這些缺失將進一步導致具有隱蔽性的算法就業性別歧視逃逸出反歧視法的規制框架。因此,有必要通過重新解釋或更新基礎概念及判定標準,對就業性別歧視概念外延進行擴展,將算法就業性別歧視納入其控制范圍內,從而在合法的范圍內降低女性求職者的證明難度。
首先,從現有的規則表達來看,我國法律中對就業性別歧視的判定仍囿于“以性別為由”的范圍內。考慮到算法所處理的數據的內在關聯性,筆者認為,宜將此處的“性別”這一受保護特征解釋為既包含“生理性別”,又包含“社會性別”,同時適當擴張解釋至“與性別有關的因素”。這是因為:一方面,消除社會性別不平等是當前保障女性就業權的關鍵。社會性別是以生理性別為基礎,在社會文化、人際交往的影響下產生的。它使得勞動性別分工“正當化”,形成了例如“男主外,女主內”的性別刻板印象,這是結構性性別歧視的根源。因此,將基于社會性別的就業歧視納入就業性別歧視的范圍內,對于消除就業性別歧視以及算法就業性別歧視都至關重要。另一方面,有必要將“性別”適當擴張至“與性別有關的因素”,此時因代理變量替代性別參數使用而產生的差別對待就會被納入歧視的范圍內,例如,上文所提及的將與“懷孕”“母嬰”相關的數據作為代理變量就屬于這種情況。事實上,《婦女權益保障法》第43 條也并未將“以性別為由”僅限于依據“男”或“女”的生理性別,該法條明確禁止調查婚育情況、進行妊娠測試等行為,呈現出將“性別”擴張至“與性別有關的因素”的傾向。但值得注意的是,該條文中所禁止的行為都與婚育相關,進而與性別產生了極為緊密的聯系;但在算法就業性別歧視的場合下,歧視性決策所依據的代理變量并不一定與性別存在足夠明顯的關聯,這就需要在司法實踐中進行個案式的判定。盡管在這一判定過程中可能需要面對算法決策的隱蔽性等問題,但并不能因此而否認對就業性別歧視概念外延進行擴展解釋的積極意義。
其次,具體到就業性別歧視的判定標準及其構成要件上,由于算法歧視具有隱蔽性特征,且女性求職者與用人單位之間的關系往往處于不對等地位,故應當繼續沿用間接歧視判定標準下的舉證責任倒置規則,即由被告方承擔舉證責任。但前文提到,傳統的就業性別歧視判定規則與責任機制之所以無法有效應對算法歧視問題,關鍵變量即在于算法供應商等第三方主體的介入。依據《婦女權益保障法》的規定,當前就業性別歧視公認的歧視主體是“用人單位”。即便不討論算法歧視的情形,這一歧視主體要件所涵蓋的主體范圍也是不全面的。例如,有學者指出,由于現實生活中存在不同的用工形式和招錄方式,就業服務機構、勞務派遣中的用工單位等也可能對求職者的就業機會公平產生影響。因此,宜將實施就業性別歧視的主體拓展至對就業機會有決定性影響的其他用人單位和個人。在算法歧視的場景下,這種觀點同樣具有價值。在利用算法進行雇傭決策時,用人單位往往將雇傭決策算法的優化與設計工作委托給算法供應商等第三方機構,用人單位通常僅負責制定抽象目標與收集、提供訓練數據集;第三方機構的算法程序員除了設計算法并進行調整、優化外,還負責特征選擇、設備維護等關鍵工作,從而對算法雇傭決策過程和結果具有關鍵性影響。可見,盡管用人單位提供了作為決策基礎的訓練數據集,但相較于算法程序員,用人單位依然缺少對算法雇傭決策過程的充分參與,其對算法內容的理解也可能不如算法程序員般深入。此時,若仍然由用人單位作為就業性別歧視的單一主體,有違公平原則與權利義務對等性的一般法理。因此,在判定算法就業性別歧視的過程中,應當將對求職者就業機會可能產生重要影響的算法供應商等第三方機構納入歧視主體的范圍內,使其參與到算法解釋、舉證質證、責任分配的過程中。這樣不僅能使法律責任的分配更加合理,也有助于女性求職者與人民法院等審查主體對算法內容形成更為準確的理解,有助于爭議和問題的解決。
(三)算法權力規制與技術性正當程序的引入
判定是否存在就業性別歧視,是對女性平等就業權進行事后保障和救濟的步驟,但在算法雇傭決策場景中,由于算法就業歧視的隱蔽性、結構性、延續性等特征,事后救濟并不能充分落實對女性求職者平等就業權的保障。這是因為:算法雇傭決策涉及對事實的轉譯和大數據的處理,一旦造成歧視結果,因果關系鏈條將非常復雜,當事人舉證將變得非常困難。如果一味強化用人單位的責任,表面上看似乎可以保護女性求職者的平等就業權,但企業等用人單位的合規成本將不斷增大,反過來抑制企業的發展,挫傷用人單位等主體合理開發利用數字技術的積極性。因此,反歧視法所施加的社會規制,需要保障女性求職者的平等就業權,也需要避免形成對市場機制的抑制以及對算法等新技術的應用。
從這個邏輯來看,在算法時代,從法律責任維度對就業性別歧視判定標準及責任規則進行優化固然重要,但遵循技術邏輯,針對算法雇傭決策過程而設置新的事前、事中規制更為重要。通過對用人單位等主體在算法雇傭決策過程中的各項行為進行事前、事中規制,可實現合規成本與法律責任在不同階段、不同主體之間的合理分配,盡可能防止算法就業性別歧視的“風險”(risk)轉化為“危險”(danger)或“損害”(damage)。這一規制路徑既可以避免事后救濟環節相關主體承擔過度證明責任,控制損害結果,同時也有助于實現對女性求職者的全過程保護。沿著這一過程規制路徑,筆者嘗試引入“技術性正當程序”概念及其相關機制,為應對算法就業性別歧視的過程規制提供一種新思路。
1. 引入技術性正當程序的可行性論證
二十一世紀以來,自動化系統在行政決策中得到廣泛應用,也引發學界關注。支持者認為,自動化行政可以節省行政成本,提高行政效率,促進決策標準統一;反對者卻指出,自動化行政可能造成個案裁決與規則制定的混同,剝奪個人在行政決策過程中享有的各項程序性權利,如獲得通知、參與評論等權利,侵蝕了傳統正當程序原則的基礎。在這樣的背景下,美國學者西特倫(Danielle Keats Citron)提出了技術性正當程序的概念及其機制框架,主張將自動化系統的適用范圍限制在適用規則———而非適用標準———進行行政決策的范圍之內,并通過提升自動化決策系統嵌入規則透明度、可問責性與準確性等要素,保障個體獲得有意義的通知,充分參與到聽證等程序環節中,從而擁有對抗自動化偏見及其損害的能力。技術性正當程序概念框架為解決算法就業性別歧視的判定與規制問題提供了一種思路。但在具體討論這一思路之前,我們首先需要簡單分析將這一概念引入到本文所及論題范圍內的可行性。這是因為,技術性正當程序的適用背景是為了解決自動化行政領域所出現的程序正義問題,所涉及的法律關系是個體與公權力主體之間的關系;但在算法就業性別歧視場景中的法律關系,并非行政法律關系,而是用人單位、算法供應商等主體與求職者之間的關系。盡管在某些情況下用人單位或第三方機構也可能是公權力機關,但私營企業等私主體作為用人單位居多,這就提出了是否可以將技術性正當程序框架引入到就業歧視場景中的問題。
行政決策是行政主體行使行政權力的一種方式,行政法律關系源于這一過程中所產生的各種權利義務關系。在行政權行使過程中,行政主體往往享有處罰、強制等職權,而行政相對人在享有知情、申辯、參與等權利的同時,也具有配合、服從等法律義務。相較于民事法律關系,行政法律關系中的當事人在許多情形下無法自由處分權利,權利行使受到公共利益等因素的制約。因此,行政法律關系呈現出意思表示上的單方性,雙方的權利義務也處于不對等狀態之中,這就使得行政法律關系在本質上區別于私主體之間的民事法律關系。但在算法應用場景中,私主體之間的平等關系受到了沖擊。例如,通過掌握大數據與算法技術等“數字權力”,許多大型平臺和企業等私主體獲得了“準公共權力”,得以單方面控制、處理個人信息,進而影響到個人信息主體的其他合法權益。在算法雇傭決策語境下,用人單位可以通過各種途徑掌握大量有關求職者的數據,并借由人工智能算法對求職者進行畫像、篩選,決定其是否能夠獲得就業機會。而求職者雖然表面上擁有選擇是否提供個人信息的自主權,但個人難以完全理解算法雇傭決策的全部技術細節,無法充分考察算法雇傭決策可能導致的歧視風險,并據此作出迅速且準確的反應。與此同時,用人單位與求職者之間固有的不平等地位,使得求職者為獲取就業機會不得不面對數據和算法技術導致的“技術鴻溝”,失去對個人信息及相關權益的決定權。
具體到性別歧視問題而言,女性長期以來在就業領域所遭受的結構性不平等,在上述技術鴻溝背景中被進一步放大,女性求職者更加難以獲得自主選擇和防控歧視風險的能力。
上述基于數字權力和“技術鴻溝”的觀察表明,雖然就業場景中的法律關系不同于個人與行政機關之間的法律關系,但從現實角度看,二者均呈現出權利義務不對等的特征。這種特征使技術性正當程序與反算法就業性別歧視在價值目標上產生了一個明顯的交匯點,即對處于不對等關系中的弱勢一方給予傾斜保護,以實現對就業平等權的保障。技術性正當程序通過技術對技術進行制約,從而實現對“人”的賦能②,這延續了傳統正當程序的價值理念。美國學者杰里·馬肖(Jerry L. Mashaw)曾總結并提出了正當程序“尊嚴理論”。該理論指出,政府制定決策的方式或程序,決定了人的內在價值是否得到尊重。他認為,主張正當程序的當事人所提出的實體法律請求是什么,與其程序權利無關,關鍵看程序是維護了人格尊嚴還是相反。技術性正當程序的理論建構與機制設計,是面對“工具理性”可能侵蝕“價值理性”的情形而對正當程序的更新升級。自動化決策技術不僅應用于行政過程,也大量應用于其他場景中,算法雇傭決策便是一個典型的場景。引入技術性正當程序的概念框架,對算法雇傭決策的過程進行控制,具有必要性和可行性。
首先,反就業性別歧視法與人的尊嚴、平等權等核心價值相聯系,通過排除性別這一在多數情況下與勞動能力無關的特質,賦予個人平等就業機會,進而保障人的生存權、發展權、人格尊嚴等基本權利。
其次,通過技術性正當程序對算法就業歧視進行規制,可進一步強調求職者作為人的主體性,避免求職者淪落為被工具所支配的對象。因此,在所調整的法律關系與基本價值目標上,技術性正當程序與反算法就業性別歧視法存在高度耦合,這為二者的結合提供了較為充分的合理性依據。事實上,在提出技術性正當程序概念后,西特倫(Danielle Keats Citron)與帕斯夸里(Frank Pasquale)就將這一理論的適用場域,從行政過程延伸至自動評分系統及自動預測算法下的個人決策,以將正當程序透明、準確、問責、參與和公平的基本價值引入到對評分系統的審查中,防止產生不公平的結果。這也佐證了借助技術性正當程序原理對算法就業性別歧視進行規制的可行性。
2. 權力主體配合下的“理解—參與”模式
在早期技術性正當程序的框架中,其核心機制是要求行政機關在自動化決策系統中嵌入透明度與可問責性的要求,從而使行政相對人獲得被告知的機會,并且在能夠理解自動化決策系統基本原理的前提下進行陳述和申辯,以實現對自身權益的過程性保護。隨著自動化決策技術的廣泛應用,上述機制框架與技術性正當程序相關理論不斷拓展,延伸出更為多樣的價值原則與程序機制。綜合相關研究,筆者認為,可以將技術性正當程序的核心機制歸納為一種“理解—參與”模式。該程序模式的第一步是“理解”,其具體要求是:以對算法的合規審計追蹤為基礎,要求算法供應商向公眾或其他適合主體公布算法的源代碼,并對算法系統進行測試,以幫助當事人和公眾能夠理解算法所使用的數據集與運算邏輯。第二步是在理解自動化決策原理和邏輯的基礎上,當事人能夠有效“參與”到程序中,這包括當事人獲得充分的、有意義的告知、陳述、表達意見,以及獲得救濟的程序設計。也就是說,當事人不應該僅僅成為自動化決策的被動接受者,而應該具有必要的主動參與決策過程的機會和程序保障。這實際上是要求:針對個人的自動化決策,必須輔以行政官員的審核和干預;為了防止行政官員對自動化的過度依賴及偏好,應要求行政官員對應用自動化系統決策的必要性和合理性進行說明,并對由自動化系統處理的事實或法律依據進行解釋,盡可能克服自動化偏見的影響。回到本文所討論的問題,同樣可借鑒這一套機制框架,結合反就業性別歧視的特殊要求,引入權力主體配合下的“理解—參與模式”。此處的權力主體指的是用人單位等算法權力主體,該模式以對女性求職者的程序賦權為核心,兼顧對企業等主體所負成本與責任的合理分配,通過合規審計追蹤、算法解釋等方式,幫助女性求職者盡可能地理解算法雇傭決策的運作過程,并在此基礎上充分獲知算法雇傭決策的結果及其理由依據。同時,通過拓寬參與渠道,使女性求職者能夠有效表達其對決策結果的意見,甚至是參與到算法決策規則的調整中,獲得更充分的對話、交涉等能力。該模式的操作機制包括理解和參與兩部分。一是盡可能提升算法決策系統的原理、邏輯、數據集等要素的透明度和可解釋性,便于當事人理解算法決策的過程和邏輯;二是在理解的基礎上,保障求職者獲得知情和參與的機會,有效參與到算法審查、算法雇傭決策規則與系統的設計過程中。同時,作為上述措施的制度保障,應對用人單位進行的雇傭決策活動進行合規審計追蹤,要求其保存合規審計軌跡。
“理解—參與模式”是技術性正當程序的核心機制,但以數據和算法為核心技術的自動化決策具有很強的專業性和很高的技術門檻。對算法決策的過程中,一般公眾既難以“理解”,更難以“參與”。因此,將技術性正當程序嵌入到自動化決策的過程中,需要引入專業的、技術的手段,以技術制約技術,從而間接地實現對個人的技術賦能。
首先,合規審計追蹤(audit tracking)是技術性正當程序機制的基礎。判斷用人單位所適用的算法系統是否可能或已經輸出了就業性別歧視,需要審查該系統所使用的訓練數據集及源代碼,必要時還需要算法程序員就目標轉譯、特征選擇等步驟進行說明,這構成了合規審計追蹤的內容。在美國,廣泛使用的申請人跟蹤系統(applicant tracking system, ATS)為算法雇傭決策下的合規審計追蹤提供了一定的可行性支持。ATS 最初的作用是保存記錄以及證明公司在招聘過程中的合規,而后發展出過濾與篩選簡歷的功能。公司借助ATS 可以記錄求職者的身份,進行日程、面試等信息的管理,并密切關注求職者的性別、種族等信息,用以證明沒有發生歧視。ATS 甚至可以跟蹤求職者訪問招聘網站的次數、曾經瀏覽過的帖子等信息作為招聘的依據。作為參考,當用人單位使用與ATS 類似的人工智能系統進行雇傭決策時,也可以要求相關算法權力主體記錄所有求職者的個人身份,以及其借由大數據所收集到的求職者的相關信息,以明確數據的來源與內容。還可以要求相關算法權力主體記錄算法在預測過程中所建構的模型、進行的推論與得出的結果,從而在最大程度上提升人工智能算法的可驗證性。對算法權力主體提出合規審計追蹤的要求具有多重意義。一方面,在“理解—參與”模式的機制框架內,該措施可以幫助女性求職者形成對算法雇傭決策過程的理解,并為源代碼公開、算法審查等措施提供基礎。另一方面,就事后對歧視的判定與救濟而言,合規審計追蹤使算法合規證據最大限度地得到保存,為被告方后續的舉證提供了便利,降低了其重新搜集證據的負擔與無法舉證的風險,也為法院等主體的審查提供了依據,在一定程度上有助于消除自動化偏見所帶來的影響,最終促進對女性求職者個人權益的保障。
其次,通過公開算法源代碼,抑制“算法黑箱”。在合規審計追蹤基礎上,要使求職者獲得有意義的通知和參與機會,關鍵在于提升算法決策系統的透明度,這有賴于算法源代碼的公開以及充分的算法解釋。鑒于源代碼的公開與商業秘密保護之間可能存在沖突,且普通公眾往往難以理解源代碼的原理與邏輯。因此,算法源代碼將主要是對行政機關委托的第三方專業機構公開,由第三方機構在技術條件允許的范圍內審查并判斷算法權力主體是否對訓練數據集進行了充分的處理,算法所生成的模型是否與性別這一受保護特征產生了聯系,以及是否可能輸出帶有歧視性的結果等內容。在此基礎上,可委托審查機構生成審查報告并予以公示,其中包括審查的內容、算法決策系統可能對求職者產生的不良影響以及算法優化建議等,以幫助求職者對算法決策系統形成更為全面的理解。
再次,通過算法解釋的義務性實現對算法決策進行監督。算法解釋應面向當事人、公眾、第三方審查機構以及人民法院等主體。區別于以模型為中心的算法解釋,實踐中的算法解釋應當以主體為中心,其內容不僅涉及算法模型的性能指標、算法架構設置的全局邏輯等內容,更應聚焦算法與數據可能對主體帶來哪些影響②,從而將算法可解釋要求區別于算法源代碼公開。整體而言,算法解釋應圍繞算法決策的過程展開,該過程既包括目標的制定、訓練數據的收集與選擇等算法開發前的預備工作,也應包括算法本身的優化設計與后期的應用等步驟。在這一過程中,不同的利害相關方可能承擔著不同的任務,為實現責任的合理分配,減輕相關主體的合規負擔,可以根據不同利害相關方的角色,設定具有差異性的解釋義務。例如,用人單位作為算法的使用方,需要解釋使用算法決策系統的目的并證明其正當性;同時,應解釋由決策目標所轉譯出的可測量特征及結果變量與目標之間的相關性,滿足“真實職業資格”等相關要求。根據個案具體情況,用人單位如果是政府等訓練數據集的提供方,應說明訓練數據集的來源以及數據經過了什么樣的處理,從而證明其已盡可能地排除了數據本身所內含的、既存的結構性偏見,使數據滿足性別中立性、代表性等要求。又如,算法供應商或算法程序員作為算法優化設計過程中的關鍵主體,應對算法優化設計的方案進行解釋,并對使用算法決策系統可能產生的風險進行評估,也可以要求其對不同方案的公平性進行比較,并說明最終方案所具有的優勢等。
最后,通過對傳統雇傭決策過程的技術和流程改造,提升求職者在算法雇傭決策全過程的參與和利益競爭能力。在傳統的雇傭決策實踐中,作為利益主體的用人單位在制定招聘標準、選擇招聘方式時不可避免地受經濟效益驅使。但雇傭決策同時涉及求職者,特別是女性求職者這一弱勢群體的重要利益,影響女性求職者平等權與就業權的實現。傳統的雇傭決策過程已經發展出一套多方利益權衡機制,在算法時代,我們不應當完全拋棄傳統和經驗理性而另起爐灶,而應當在考慮技術變遷基礎上對傳統機制的優化。在算法雇傭決策場景中,法律制度的優化,恰恰需要重申和堅持價值理性立場。數字化和算法技術所代表的工具理性,應當有助于價值理性的落實,而不是損害傳統的價值理性。這意味著算法雇傭決策的處理模式應當維護公平、平等等社會價值。結合價值目標和算法技術的特征,可以對傳統的雇傭決策程序進行優化,除了委托第三方機構進行審查之外,應充分保障利益相關主體的知情權、表達權、參與權,例如,參與到招聘標準以及算法雇傭決策系統的設計和優化過程。遵循這一思路,用人單位可聯合算法供應商等主體,在充分解釋算法雇傭決策系統的基礎上,通過公開收集意見、舉辦見面會等方式,就招聘的方案及目標、算法雇傭決策中應予排除的信息類別等內容進行協商,充分收集求職者、專家和公眾的意見,借助廣泛的社會協商民主機制抑制歧視風險。在招聘過程中和招聘程序完成后,應接受求職者的申訴與反饋意見。鑒于用人單位所面對的是十分龐大的求職者群體,在所參與的技術實現路線上,除接受上門詢問、電話咨詢外,在國外已經有用人單位使用人工智能聊天機器人對求職者意見或問題進行答復。借助類似技術對有關算法雇傭決策的基本原理、邏輯、錄用人群比例等問題進行解釋,可有效保障求職者的知情權、表達權、參與權和監督權。同時,在對算法供應商等第三方機構進行合規審計跟蹤或人民法院進行審查的過程中,也可以要求審查主體充分說明其結論在多大程度上受到算法雇傭決策系統的影響,確保求職者的訴求得到了充分的、無偏見的考量。
需要注意的是,在上述場景下,無論是委托第三方機構等主體進行審查和解釋,還是要求用人單位等算法權力主體進行源代碼披露、算法解釋,這些反就業性別歧視的義務落實都可能需要付出高昂的成本,進而影響到技術性正當程序機制在實踐中的應用。但正如西特倫(Citron)提到的,對自動化決策相關案件中正當程序的要求進行成本—收益分析,需要重新考慮“固定成本”和“可變成本”的關系。
在自動化決策相關案件中,在少數個案中引入技術性的合規審計、專家證人,以及對系統中的軟件缺陷與無效規則進行識別和處理,意味著更大的固定成本;但是,一旦數據特征得到合理化,算法模式得到改進,未來的算法決策中對上述改進的復制和應用幾乎不會增加可變成本。這意味著,考慮算法決策程序改進的成本,不能局限于個案,而應該從規模效應上對程序改進的成本進行核算。如前文所指出的,技術性正當程序的“理解—參與”模式,可以帶來更好的社會規模效應。在該模式下,用人單位等算法權力主體承擔了與其角色相匹配的合規成本,但通過落實合規義務,可以降低算法決策中性別歧視的發生風險,從而降低訴訟成本以及承擔高額賠償的風險,并維護良好的社會聲譽,增加企業競爭力和影響力。而女性求職者也因此得以從性別歧視案件沉重的舉證責任中得到解放,在獲得知情權、表達權和參與權的基礎上最大限度地免受歧視行為的侵害。這一綜合成本收益分析框架可在一定程度上緩解“制度優化阻礙算法技術發展”的擔憂。
五、結論和討論
可以預見,新一輪科技革命和算法技術的不斷發展及其在雇傭決策中廣泛、深入地應用,將進一步改變我國傳統的雇傭決策模式,提升企業雇傭決策質量。在這一大趨勢下,技術的工具理性如何與社會的價值體系之間保持一致性,這不僅是一個理論問題,更是一個法治實踐問題,亟待獲取理論和制度的回應。從根本上講,這是一個“數治”與“法治”如何深度融合的問題。在用人單位的雇傭決策場景中,算法技術已經開始得到應用,但算法雇傭決策的技術邏輯及性別偏見的刻板印象,決定了算法決策中就業性別歧視現象不僅難以避免,而且可能被放大。算法技術在雇傭決策過程中的應用,對傳統的就業性別歧視法律制度,特別是性別歧視判定標準、責任分配等關鍵問題產生了嚴重沖擊。筆者從就業性別歧視的判定標準這一微觀角度切入,圍繞對性別歧視過程規制和事后救濟,提出對就業性別歧視的概念進行擴容,引入“技術性正當程序”對算法雇傭決策的歧視風險進行控制等主張,并設想了相應的操作性機制改進路線圖。但毋庸置疑,無論是新型判定標準的適用,還是筆者所提出的權力主體配合下的“理解—參與”模式的建構,都有賴于相關制度的系統性協同,如算法監督機構、第三方審查機構的設立,算法決策程序的運行規則、技術倫理等規范的制定完善等,這些問題仍有待進一步討論。
與此同時,也應當注意到,新技術帶來的新問題固然需要解決,但我們身處的生活世界中原有的結構性問題所導致的困境,或許更具有根本性。例如,如何通過合理分配生育成本與社會資源以增強女性的職場競爭力,仍是消除算法就業性別歧視無法回避的重要議題。
本文責任編輯:林士平
青年學術編輯:楊尚東