中圖分類號(hào):D998.2 DOI: 10.3969/j.issn.2097-0749.2025.03.04
文獻(xiàn)標(biāo)志碼:A開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

一、問題的提出
隨著人工智能的發(fā)展,人工智能治理顯得尤為迫切。雖然人工智能治理從哲學(xué)、社會(huì)學(xué)、統(tǒng)計(jì)學(xué)、科學(xué)與技術(shù)研究、利益相關(guān)者理論等多學(xué)科方法中獲益良多,但人權(quán)作為人工智能治理應(yīng)有的重要基準(zhǔn)一直被忽視。〔1」實(shí)際上,自20世紀(jì)40年代以來,人們始終堅(jiān)信,人權(quán)應(yīng)是世界和平與人類繁榮的核心,它不僅是保護(hù)人類免受災(zāi)難的關(guān)鍵,而且是享有日常美好生活的基礎(chǔ)。目前,已有的人工智能治理計(jì)劃,如《阿西洛馬人工智能原則》(AsilomarAIPrinciples),主要來自哲學(xué)倫理學(xué)的聲明,同時(shí),亦有很多聲明源自跨學(xué)科的原則性要求。從這個(gè)意義上說,人權(quán)法可被視為“倫理”的一部分。例如,聯(lián)合國教科文組織的《人工智能倫理建議書》就將“尊重、保護(hù)和促進(jìn)人權(quán)、基本自由和人類尊嚴(yán)”列為人工智能系統(tǒng)生命周期中所有參與者都應(yīng)該尊重的首要價(jià)值。〔」此外,電氣與電子工程師協(xié)會(huì)(IEEE)的《系統(tǒng)設(shè)計(jì)中解決倫理問題的標(biāo)準(zhǔn)模型過程》也將“人權(quán)應(yīng)該受到保護(hù)”列為首要倫理原則。〔2」但是,很多由企業(yè)、政府、社會(huì)組織和國際組織設(shè)定的人工智能治理原則根本沒有提及人權(quán)。即使在確實(shí)提及人權(quán)的那些原則中,也只有很少一部分( 15% )將人權(quán)作為一種規(guī)范框架應(yīng)用于人工智能治理。〔3〕大多數(shù)國家的人工智能戰(zhàn)略沒有深入涉及人權(quán)問題。〔4]
很多領(lǐng)域涉及人工智能治理的討論都有意無意忽略人權(quán)議題。軟件開發(fā)人員或人工智能行業(yè)的其他人通常不太愿意讓人權(quán)領(lǐng)域的任何人參與討論“負(fù)責(zé)任的人工智能”問題。〔5〕實(shí)際上,即使在有關(guān)“負(fù)責(zé)任的人工智能”大型國際會(huì)議上,也明顯缺失以人權(quán)問題為重點(diǎn)的論文和小組討論。〔6」此外,企業(yè)層面有關(guān)人工智能倫理及其實(shí)施的討論往往不會(huì)涉及人權(quán)問題,且政府在關(guān)注人工智能倫理問題時(shí)通常也會(huì)拖至政策制定的后期才會(huì)讓律師參與。當(dāng)然,需要強(qiáng)調(diào)的例外情形是,在由聯(lián)合國和歐洲委員會(huì)等國際組織主辦的諸多有關(guān)人工智能治理的討論中,人權(quán)正逐漸成為一個(gè)穩(wěn)定的共享詞匯。〔1」尤其是,2024年歐盟通過《人工智能法案》,標(biāo)志著人工智能治理邁入全新時(shí)代。該法案旨在促進(jìn)以人為本、值得信賴的人工智能應(yīng)用,同時(shí)高度保護(hù)基本權(quán)利、民主、法治和環(huán)境可持續(xù)性免受高風(fēng)險(xiǎn)人工智能的侵害,并根據(jù)人工智能的潛在風(fēng)險(xiǎn)和影響程度為人工智能產(chǎn)業(yè)鏈上的相關(guān)各方提供一個(gè)合規(guī)義務(wù)框架。
基于上述背景,本文擬結(jié)合人工智能與人權(quán)之間的相互關(guān)系,對(duì)人工智能治理的人權(quán)之維進(jìn)行詮釋。
二、人工智能對(duì)具體人權(quán)類型及其保障的深遠(yuǎn)影響
人工智能發(fā)展迅速,越來越多的人片面關(guān)注社會(huì)技術(shù)系統(tǒng)的能力。然而,這些復(fù)雜的系統(tǒng)基于數(shù)據(jù)驅(qū)動(dòng)的算法進(jìn)行決策和控制,尤其是使用機(jī)器學(xué)習(xí)和大型數(shù)據(jù)集來生成對(duì)未來行為的預(yù)測,如果不加節(jié)制地使用這些系統(tǒng)極有可能造成對(duì)人權(quán)的侵害。例如,劍橋分析公司(CambridgeAnalytica)從英國、美國等國家數(shù)百萬選民那里非法獲取臉書(Facebook)數(shù)據(jù),并惡意地通過使用人工智能驅(qū)動(dòng)的社交媒體內(nèi)容分配系統(tǒng)進(jìn)行政治目標(biāo)微觀定位,從而干擾選民行使自由公正選舉的權(quán)利,這直接威脅到民主進(jìn)程的完整性。〔2」在刑事司法程序中,越來越多地使用算法決策(ADM)系統(tǒng)也有可能造成對(duì)人權(quán)的威脅,其中包括公平審判權(quán)、無罪推定、自由和安全權(quán)。就個(gè)人享有各種利益和機(jī)會(huì)的資格和權(quán)利(如住房、社會(huì)保障、就業(yè)等)而言,人工智能系統(tǒng)有助于主管機(jī)關(guān)作出資源分配決定,甚至可能實(shí)現(xiàn)自動(dòng)化決策。正是由于這些系統(tǒng)可以自動(dòng)化和規(guī)模操作,它們一次就能影響數(shù)百萬人,這種數(shù)量和速度在過去是無法想象的。以人身自由權(quán)、公平審判權(quán)、隱私權(quán)、反歧視權(quán),以及以工作權(quán)為代表的經(jīng)濟(jì)、社會(huì)和文化權(quán)利(以下簡稱“經(jīng)社文權(quán)利”),深受人工智能的影響。
(一)人工智能與人身自由權(quán)
人身自由是一項(xiàng)基本的人權(quán)。在國際社會(huì),人身自由權(quán)受到普遍認(rèn)同,并被列入許多人權(quán)條約之中。例如,以《世界人權(quán)宣言》為基礎(chǔ)的《公民權(quán)利和政治權(quán)利國際公約》在第9條規(guī)定:“人人有權(quán)享有人身自由和安全。任何人不得加以任意逮捕或拘禁。除非依照法律所確定的根據(jù)和程序,任何人不得被剝奪自由。”《中華人民共和國憲法》第37條也規(guī)定:“中華人民共和國公民的人身自由不受侵犯。”
除了立法保障,人身自由權(quán)的司法保障也不可或缺。例如,在美國訴伊朗(Americav.Iran)案中,國際法院在承認(rèn)人身自由權(quán)重要性的同時(shí)作出如下假設(shè):“錯(cuò)誤地剝奪人的自由并使他們?cè)谄D苦條件下受到身體檢查和約束,這本身就不符合《聯(lián)合國憲章》的要求,也不符合《世界人權(quán)宣言》第3條闡明的各項(xiàng)基本原則,如保障人的生命、自由和安全的權(quán)利。”〔1]
通過開發(fā)軟件進(jìn)行風(fēng)險(xiǎn)評(píng)估并預(yù)測某人或某地發(fā)生犯罪的可能性已經(jīng)使人工智能的發(fā)展?jié)B人許多國家的刑事司法系統(tǒng)。例如,預(yù)測性警務(wù)系統(tǒng)(PredPol)〔2)和直覺實(shí)驗(yàn)室(HunchLab)〔3)等預(yù)測性警務(wù)算法有助于警方對(duì)最有可能發(fā)生犯罪的地點(diǎn)作出有效預(yù)估。盡管這種前所未有的發(fā)展呈現(xiàn)顯著優(yōu)勢,但同樣存在侵犯人身自由權(quán)的風(fēng)險(xiǎn)。一類被稱為風(fēng)險(xiǎn)評(píng)估工具(RAIs)的算法系統(tǒng)被用來預(yù)測被告未來不當(dāng)行為的風(fēng)險(xiǎn)。這些預(yù)測為高風(fēng)險(xiǎn)的司法決定提供了依據(jù),比如是否在審判前監(jiān)禁某個(gè)人。另一個(gè)例證來自美國刑事司法部門使用的累犯風(fēng)險(xiǎn)評(píng)分軟件,它幾乎在從分配保釋到刑事判決的每個(gè)階段都為拘留決定提供信息。這款軟件導(dǎo)致更多的黑人被告被錯(cuò)誤地貼上高風(fēng)險(xiǎn)標(biāo)簽,被要求更高的保釋條件,甚至被判處更長的刑期。這是對(duì)美國黑人的明顯歧視,是一種對(duì)人工智能系統(tǒng)的濫用。這種情形不僅出現(xiàn)在美國,而且波及全世界。此外,由于風(fēng)險(xiǎn)評(píng)分系統(tǒng)不是法律的明確規(guī)定,使用的數(shù)據(jù)也可能是任意的,因此,這些系統(tǒng)作出的拘留決定可能是非法且錯(cuò)誤的。〔4]
(二)人工智能與公平審判權(quán)
在司法過程中,必須賦予每個(gè)人公平受審的權(quán)利。公平審判權(quán)是一項(xiàng)基本人權(quán),它要求司法機(jī)關(guān)公平、公正和按程序進(jìn)行審判,并充分保障當(dāng)事人的訴訟權(quán)利。《公民權(quán)利和政治權(quán)利國際公約》在第14條第1款規(guī)定:“所有的人在法庭和裁判所前一律平等。在判定對(duì)任何人提出的任何刑事指控或確定他在一件訴訟案中的權(quán)利和義務(wù)時(shí),人人有資格由一個(gè)依法設(shè)立的合格的、獨(dú)立的和無偏倚的法庭進(jìn)行公正的和公開的審訊。”
然而,人工智能技術(shù)的發(fā)展已經(jīng)影響到刑事司法系統(tǒng)或者說整個(gè)法院系統(tǒng)。它們至少在兩個(gè)方面發(fā)揮作用:人工智能助手和機(jī)器人法官。人工智能助手是一種軟件,旨在通過準(zhǔn)備司法判決和決定的相關(guān)材料來支持法官的工作。機(jī)器人法官則被設(shè)計(jì)來完全履行法庭上人類法官的職能,它們完全取代人類法官,并將法庭改為電腦化環(huán)境。這些軟件的開發(fā)有可能被認(rèn)為侵犯了個(gè)人獲得公平審判的權(quán)利。例如,2016年來自“為了公眾”(ProPublica)〔1」的一項(xiàng)研究發(fā)現(xiàn),“康巴絲”(COMPAS)軟件[2]將非裔美國人的再犯高風(fēng)險(xiǎn)率定為其他人群的兩倍,而白人被告比有色人種被告更容易被錯(cuò)誤地標(biāo)記為低風(fēng)險(xiǎn)。〔3」顯然,人工智能系統(tǒng)可能被設(shè)計(jì)用來歧視某些人,并侵害他們的基本人權(quán),這種情形也會(huì)出現(xiàn)在司法過程中。偏見可能源于人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)中被嵌入的偏見,也可能來自人工智能系統(tǒng)的編程,因?yàn)樗惴ǖ脑O(shè)計(jì)和功能體現(xiàn)了設(shè)計(jì)者的價(jià)值觀。在這種情況下,很難確定這樣的錯(cuò)誤是算法創(chuàng)建者手工操作的結(jié)果,還是系統(tǒng)自身的錯(cuò)誤。盡管人工智能的設(shè)計(jì)初衷不是歧視,但它可能導(dǎo)致歧視,因?yàn)樗惴〞?huì)延續(xù)或放大現(xiàn)有偏見和刻板印象。
美國威斯康星州最高法院判決的“威斯康星州訴盧米斯案(Statev.Loomis)”就是一個(gè)關(guān)于風(fēng)險(xiǎn)評(píng)估軟件的重要案件。〔4」在該案中,威斯康星州對(duì)盧米斯提出五項(xiàng)駕車開槍的指控,但他只承認(rèn)其中兩項(xiàng),并否認(rèn)與槍擊有關(guān)。盧米斯被“康巴絲”(COMPAS)軟件認(rèn)定為“對(duì)社區(qū)具有高風(fēng)險(xiǎn)”之人,再次犯罪的概率很高,因此被判處6年監(jiān)禁。盡管威斯康星州最高法院支持在量刑過程中使用風(fēng)險(xiǎn)評(píng)估工具,但該案清楚表明,在使用風(fēng)險(xiǎn)評(píng)估工具時(shí)存在一些問題,它可能存在侵害人權(quán)和破壞法治的風(fēng)險(xiǎn)。
(三)人工智能與隱私權(quán)
隱私權(quán)意指不受打擾的自由,對(duì)個(gè)人信息披露的控制,對(duì)個(gè)人獨(dú)立、尊嚴(yán)和人格完整的保護(hù),對(duì)秘密、匿名和孤獨(dú)的尊重,它是保護(hù)個(gè)人生活不受侵犯的權(quán)利。隱私權(quán)涉及治理個(gè)人數(shù)據(jù)收集和處理的規(guī)則、對(duì)人身自主權(quán)的保護(hù),以及控制自己身份的權(quán)利等。
隱私權(quán)因人工智能技術(shù)的發(fā)展而遭到侵犯正在成為熱門話題。以技術(shù)為導(dǎo)向的私營公司也會(huì)威脅個(gè)人隱私權(quán),比如亞馬遜、蘋果、臉書、谷歌和雅虎等使用和收集個(gè)人數(shù)據(jù)的公司。此外,不斷出現(xiàn)的丑聞加劇了這些擔(dān)憂,例如,前述劍橋分析公司數(shù)據(jù)丑聞,其焦點(diǎn)即該公司利用臉書的個(gè)人數(shù)據(jù)侵犯了眾多人的隱私權(quán)。
長期以來,在人工智能治理領(lǐng)域,隱私一直是政府、企業(yè)、學(xué)界和社會(huì)組織廣泛關(guān)注的主題。例如,開發(fā)人員和工程師對(duì)遵循“設(shè)計(jì)隱私”(privacy-by-design)原則的興趣激增[i」,這些原則展示了如何將規(guī)范融入系統(tǒng)設(shè)計(jì)過程中。對(duì)技術(shù)部署展開隱私影響評(píng)估是尊重隱私的既定方式。然而,人權(quán)、隱私和人工智能發(fā)展之間的緊張關(guān)系已然顯現(xiàn)。例如,斯坦福大學(xué)的研究人員訓(xùn)練了一個(gè)深度神經(jīng)網(wǎng)絡(luò),并在未經(jīng)同意的情況下通過使用一組從在線約會(huì)網(wǎng)站收集的圖像來“預(yù)測”研究對(duì)象的性取向。〔2」除了方法上的缺陷,這項(xiàng)研究還表明,無視隱私權(quán)會(huì)增加算法監(jiān)控的風(fēng)險(xiǎn),在這種情況下,被收集和分析的數(shù)據(jù)可能導(dǎo)致泄露用戶的個(gè)人信息,從而使個(gè)人和群體處于危險(xiǎn)之中。
另一項(xiàng)例證來自2016年以來被廣泛使用的一款亞馬遜人工智能人臉識(shí)別軟件。2018年7月,研究人員進(jìn)行了一項(xiàng)實(shí)驗(yàn),運(yùn)用該軟件將所有535名時(shí)任美國國會(huì)議員的照片與一個(gè)包含2.5萬張被捕人員公開照片的數(shù)據(jù)庫進(jìn)行比對(duì)。結(jié)果發(fā)現(xiàn),該軟件不僅產(chǎn)生了28項(xiàng)錯(cuò)誤配對(duì),而且存在種族偏見。由于亞馬遜已將此款軟件賣給警方,人們對(duì)進(jìn)一步將人臉識(shí)別用于政府監(jiān)控表示擔(dān)憂,因?yàn)檫@種監(jiān)控普遍存在、不透明且不受監(jiān)管。〔3]
如果人工智能開發(fā)者將隱私權(quán)作為一項(xiàng)基本人權(quán)加以尊重,而不是一種單純的道德偏好,那么,已經(jīng)存在于行業(yè)規(guī)范和技術(shù)標(biāo)準(zhǔn)中的隱私因素將發(fā)揮更大的作用。《世界人權(quán)宣言》《公民權(quán)利和政治權(quán)利國際公約》以及其他很多人權(quán)文件、國家憲法和國內(nèi)法律都規(guī)定了隱私權(quán)。而且,國際人權(quán)法和隱私原則可以幫助人工智能開發(fā)人員分析、識(shí)別和應(yīng)對(duì)新出現(xiàn)的風(fēng)險(xiǎn)。然而,人工智能發(fā)展所表現(xiàn)出來的能力已經(jīng)使人們感受到它們對(duì)隱私的威脅。人權(quán)組織“第十九條”(Article19)(1)和“隱私國際”(PrivacyInternational)〔2)曾在一份報(bào)告中指出,人工智能驅(qū)動(dòng)的消費(fèi)產(chǎn)品經(jīng)常配備傳感器,并在相關(guān)人員不知情或未經(jīng)同意的情況下收集和生成大量數(shù)據(jù)。而且,人工智能可用于從相對(duì)普通的數(shù)據(jù)中推斷敏感事實(shí),從定位歷史和社交媒體互動(dòng)等數(shù)據(jù)中了解人們的情緒狀態(tài)、健康狀況、政治傾向和其他信息。
(四)人工智能與反歧視權(quán)
歧視涉及諸多規(guī)范和價(jià)值。在法律方面,出現(xiàn)歧視的情形通常是,由于政策、法律或?qū)Υ矫娴牟缓侠韰^(qū)分,一個(gè)人不能與其他人平等地享有權(quán)利和承擔(dān)義務(wù)。
隨著人工智能時(shí)代的來臨,有關(guān)歧視的問題變得更加難以處理。智能系統(tǒng)由人類開發(fā),人類又有能力發(fā)明一個(gè)以歧視為基礎(chǔ)的系統(tǒng)。歐盟委員會(huì)2018年12月頒布的《可信賴人工智能倫理準(zhǔn)則草案》對(duì)算法引發(fā)的社會(huì)歧視風(fēng)險(xiǎn)提出警告,并強(qiáng)調(diào)采用一種以人類為中心的人工智能方法。〔3」此外,美國政治學(xué)家尤班克斯(Virginia Eubanks)在《自動(dòng)化不平等》(AutomatingInequality)一書中,不僅詳細(xì)描述了美國政府工作人員如何采用自動(dòng)化監(jiān)控技術(shù)來傷害邊緣化群體,還研究了美國歧視窮人接受政府援助的自動(dòng)化系統(tǒng),尤其涉及對(duì)阿勒格尼家庭篩查工具(Allegheny Family Screening Tool,以下簡稱AFST)的討論。AFST是一款風(fēng)險(xiǎn)預(yù)測模型,專門用于預(yù)測對(duì)兒童的虐待和遺棄。尤班克斯強(qiáng)調(diào),盡管AFST只是預(yù)測程序中的一個(gè)步驟,而且還有人類決策者參與其中,但它仍使篩查人員質(zhì)疑自己的判斷,并微妙地改變工作方式。尤班克斯還指出,AFST模型存在的固有缺陷在于,它只包含使用公共服務(wù)的家庭信息,從而使其更有效地針對(duì)貧困居民。〔」這種歧視性影響很可能導(dǎo)致對(duì)其他人權(quán)的侵害,如教育、住房、家庭和工作等。
實(shí)際上,平等和不歧視的價(jià)值已經(jīng)滲透到各個(gè)條約之中,并為第二次世界大戰(zhàn)后各國憲法、國內(nèi)法律和司法解釋提供了基礎(chǔ)。例如,《公民權(quán)利和政治權(quán)利國際公約》在第2條第1款明確規(guī)定:“本公約每一締約國承擔(dān)尊重和保證在其領(lǐng)土內(nèi)和受其管轄的一切個(gè)人享有本公約所承認(rèn)的權(quán)利,不分種族、膚色、性別、語言、宗教、政治或其他見解、國籍或社會(huì)出身、財(cái)產(chǎn)、出生或其他身份等任何區(qū)別。”又如,1996年通過的南非憲法直接廢止了過去的歧視性政策,并將平等、人的尊嚴(yán)和人權(quán)確立為法定基礎(chǔ)與核心價(jià)值。
世界經(jīng)濟(jì)論壇(WEF)的一份報(bào)告呼吁將人權(quán)置于人工智能討論的中心,并宣稱,即使沒有歧視意圖,以效率和利潤為標(biāo)準(zhǔn)來嚴(yán)格衡量機(jī)器學(xué)習(xí)系統(tǒng)是否成功,最終也會(huì)導(dǎo)致企業(yè)犧牲自己尊重人權(quán)的責(zé)任。這份報(bào)告要求企業(yè)優(yōu)先遵守人權(quán)標(biāo)準(zhǔn),并開展基于人權(quán)的盡職調(diào)查。其中一項(xiàng)建議是,呼吁企業(yè)在系統(tǒng)設(shè)計(jì)中積極納人多樣化輸入和規(guī)范并提供救濟(jì)機(jī)制,從而使開發(fā)人員對(duì)歧視性產(chǎn)出負(fù)責(zé)。[2]
2018年5月,“現(xiàn)在獲取”(AccessNow)等組織牽頭起草了《多倫多宣言:保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中的平等和非歧視權(quán)利》,該文件將對(duì)人工智能偏見的關(guān)注建立在具有約束力的國際法律原則基礎(chǔ)之上。該宣言強(qiáng)調(diào)了國家和私營部門在使用機(jī)器學(xué)習(xí)系統(tǒng)方面的責(zé)任,其中包括減輕歧視性影響,提高透明度,并為受害人提供有效救濟(jì)。盡管該宣言的影響力有多大尚未有定論,但它仍然代表了將基本人權(quán)融入人工智能領(lǐng)域的重大努力。
(五)人工智能與經(jīng)社文權(quán)利
盡管公民權(quán)利和政治權(quán)利對(duì)人類而言必不可少,但它們并不是人類美好生活所必需的唯一要素。經(jīng)社文權(quán)利同樣是不可或缺的人權(quán)類型,已受到很多國家和國際社會(huì)的普遍承認(rèn)。如果僅將公民權(quán)利和政治權(quán)利納人憲法,而不包括經(jīng)社文權(quán)利,那只能為空洞、片面的形式自由提供框架。國際社會(huì)對(duì)經(jīng)社文權(quán)利的承認(rèn)始于20世紀(jì)初,當(dāng)時(shí)國際勞工組織通過了一系列旨在改善世界各地勞工標(biāo)準(zhǔn)的公約。第二次世界大戰(zhàn)后,國際公約越來越多地將經(jīng)社文權(quán)利納入,其中最重要的當(dāng)屬《經(jīng)濟(jì)、社會(huì)和文化權(quán)利國際公約》。
人工智能已經(jīng)介人人類生活的方方面面,也自然會(huì)影響到經(jīng)社文權(quán)利。在這方面,人工智能確實(shí)有助于監(jiān)測對(duì)這些權(quán)利保障的狀況。例如,在許多國家,公民的社會(huì)保障服務(wù)都是在互聯(lián)網(wǎng)操作,互聯(lián)網(wǎng)和智能系統(tǒng)大幅提高了社會(huì)保障服務(wù)的便利性。又如,人工智能可以提高租房便捷性,人們可以坐在家里聯(lián)系智能系統(tǒng)尋找房源。這些都是人工智能對(duì)經(jīng)社文權(quán)利的積極影響。
但不可否認(rèn)的是,在某些情況下,人工智能對(duì)經(jīng)社文權(quán)利的影響可能是消極的。其中,工作權(quán)可以作為一個(gè)重要的分析對(duì)象。一方面,人工智能系統(tǒng)在商業(yè)服務(wù)和活動(dòng)方面取得了重大進(jìn)展。另一方面,在員工沒有意識(shí)到的很多情況下,人工智能已經(jīng)在處理大量的數(shù)據(jù)和信息,而這些數(shù)據(jù)和信息往往被用來作出與他們相關(guān)的決定。技術(shù)性失業(yè)是人工智能時(shí)代正在發(fā)生的現(xiàn)象。〔」從本質(zhì)上講,人工智能實(shí)際上已經(jīng)接管并改變了人們的工作性質(zhì)和條件,從而影響人們的工作和就業(yè)權(quán)。在實(shí)現(xiàn)經(jīng)社文權(quán)利的過程中,不歧視和平等原則應(yīng)得到嚴(yán)格遵守。然而,歧視在就業(yè)中普遍存在,直接影響著當(dāng)事人能否獲得工作的機(jī)會(huì),并成為能否保有尊嚴(yán)和生存生活的主要負(fù)面因素。〔2」經(jīng)社文權(quán)利的存在有助于從更廣泛的角度看待現(xiàn)有組織環(huán)境下開發(fā)和使用數(shù)字工具產(chǎn)生的不平等現(xiàn)象。
三、人權(quán)目標(biāo)是人工智能治理的正當(dāng)理由
人工智能的快速發(fā)展給世界創(chuàng)造了巨大機(jī)遇,也帶來了難以預(yù)知的風(fēng)險(xiǎn)與挑戰(zhàn)。在此背景下,如何對(duì)人工智能實(shí)施有效治理攸關(guān)全人類命運(yùn),是世界各國面臨的共同課題。對(duì)此,學(xué)界從不同視角展開了卓有成效的研究,提出了人工智能大模型全球治理概念[3」、人工智能體的模塊化治理框架[4]、敏捷治理理念[」、“基于風(fēng)險(xiǎn)方法”的治理主張[2〕、“試探性治理”的治理方法[3〕等等。盡管如此,要使人工智能治理具有正當(dāng)性,應(yīng)以人權(quán)為核心目標(biāo)。這不僅體現(xiàn)在人工智能的技術(shù)發(fā)展層面,還貫穿于人工智能倫理爭論的全過程。這一主張與中國在《全球人工智能治理倡議》中強(qiáng)調(diào)的“以人為本”基本理念相一致。簡單而言,人工智能技術(shù)的發(fā)展需要以尊重和保護(hù)個(gè)人權(quán)利為前提,以增進(jìn)人類共同福祉為目標(biāo)。
(一)人工智能的技術(shù)發(fā)展需要以人權(quán)價(jià)值為支撐
在有關(guān)人工智能治理的討論中,人權(quán)的出現(xiàn)或存在時(shí)常被邊緣化。雖然人工智能的某些領(lǐng)域還停留在理論層面,但諸如機(jī)器學(xué)習(xí)等其他領(lǐng)域已經(jīng)對(duì)現(xiàn)實(shí)世界產(chǎn)生深遠(yuǎn)影響。機(jī)器學(xué)習(xí)系統(tǒng)處理大量的歷史訓(xùn)練數(shù)據(jù),并從這些數(shù)據(jù)中“習(xí)得”可能對(duì)未來決策有用的模式。當(dāng)然,所有機(jī)器學(xué)習(xí)算法都存在一定程度的統(tǒng)計(jì)偏差,因而有可能產(chǎn)生錯(cuò)誤的決策。而且,如果歷史數(shù)據(jù)不完全或不能代表特定人群,這些偏差會(huì)在人工智能系統(tǒng)中迅速擴(kuò)散,導(dǎo)致生活中的歧視現(xiàn)象進(jìn)一步增強(qiáng)。基于此,人們不禁要問,人類社會(huì)應(yīng)該在多大程度上、何種范圍內(nèi)允許機(jī)器學(xué)習(xí)系統(tǒng)影響人們的決策甚至替人們作出決策呢?
雖然這個(gè)問題的答案尚不確定,但事實(shí)是,如今的智能技術(shù)或系統(tǒng)正在對(duì)人類行為進(jìn)行預(yù)測,并為影響人們?nèi)粘I畹臎Q策提供意見和建議。這些技術(shù)或系統(tǒng)越來越多地嵌入諸如警務(wù)、司法判決、醫(yī)療、金融等具體的社會(huì)情境之中。人們無法預(yù)知當(dāng)前或未來人工智能技術(shù)或系統(tǒng)的潛在影響或后果,但它們的不確定性使人們意識(shí)到,對(duì)人工智能進(jìn)行治理已經(jīng)迫在眉睫。人工智能作為一個(gè)新的技術(shù)變量,已經(jīng)開始進(jìn)入善治的話語框架。〔4」技術(shù)理性需要以價(jià)值理性為引領(lǐng)。如果人工智能技術(shù)不加以規(guī)范,它的誤用濫用恐將損害人的尊嚴(yán)和平等、侵犯人權(quán)和基本自由、加劇歧視和偏見、沖擊現(xiàn)有法律體系等。〔5」正是在這種背景下,人工智能發(fā)展需要轉(zhuǎn)向?qū)θ藱?quán)價(jià)值的強(qiáng)調(diào)。
《世界人權(quán)宣言》的精神在于,將人權(quán)的基礎(chǔ)建立在人類應(yīng)享有的內(nèi)在尊嚴(yán)和平等地位上。這是對(duì)漠視和蔑視人權(quán)的回應(yīng),正是這種漠視和蔑視導(dǎo)致了世界大戰(zhàn)和大屠殺。人的尊嚴(yán)和基本權(quán)利是普遍的,適用于任何地方的每個(gè)人。這為討論全球人工智能的影響和治理提供了一個(gè)框架。
在探尋人工智能治理基礎(chǔ)的首要原則時(shí),可以依賴人權(quán)話語。在技術(shù)層面,歧視性算法是人工智能領(lǐng)域爭論最激烈的話題之一。比如,某些人臉識(shí)別系統(tǒng)缺乏足夠的訓(xùn)練數(shù)據(jù)或現(xiàn)有模型存在缺陷,導(dǎo)致無法“看到”膚色較深的人,從而再現(xiàn)文化上對(duì)有色人種根深蒂固的偏見。然而,不歧視的人權(quán)原則早已通過大量的聯(lián)合國條約、國家法律、學(xué)術(shù)解釋以及其他政策指南得到廣泛宣傳,該原則不僅作出獨(dú)特的價(jià)值承諾,還提供識(shí)別歧視影響的全球視角。實(shí)際上,平等和不歧視幾乎被視為每一項(xiàng)主要人權(quán)文件的基礎(chǔ)。70多年來,盡管人權(quán)事業(yè)的發(fā)展有其自身爭議和政治因素,但國際人權(quán)作為全球共同價(jià)值觀已成為國際社會(huì)的共識(shí)。
技術(shù)政策的制定者面臨艱巨的任務(wù)。他們要決定在不同社會(huì)背景下秉持何種價(jià)值觀、制定何種標(biāo)準(zhǔn)或規(guī)范,要在技術(shù)開發(fā)和部署之間尋求平衡,要了解潛在的誤用和濫用、意想不到的后果和社會(huì)技術(shù)系統(tǒng)的偏見,甚至要考慮未能部署某項(xiàng)技術(shù)需要支付的成本。人權(quán)價(jià)值可以為那些從事人工智能技術(shù)工作的人提供倫理支持。這樣,他們就可以理解為什么人工智能治理系統(tǒng)(從技術(shù)標(biāo)準(zhǔn)到政策)應(yīng)該首先解決諸如非歧視這樣的價(jià)值觀問題。對(duì)科技公司來說,這一點(diǎn)很重要,因?yàn)樗鼈兊漠a(chǎn)品會(huì)遍布法律和價(jià)值觀截然不同的國家。
基于此,必須關(guān)注的一個(gè)基礎(chǔ)性領(lǐng)域是,如何在人工智能危害顯而易見的情況下設(shè)定人權(quán)責(zé)任并提供救濟(jì)途徑。純粹的法律、監(jiān)管或合規(guī)框架可能落后于新興人工智能技術(shù)的發(fā)展速度。此時(shí),人權(quán)框架的其他組成部分,如聯(lián)合國特別報(bào)告員、獨(dú)立調(diào)查員和公民監(jiān)察員,對(duì)呼呼人們關(guān)注人工智能的風(fēng)險(xiǎn)和危害顯得至關(guān)重要。正如有學(xué)者指出的那樣,“人權(quán)作為一項(xiàng)話語體系和法律框架,其本身就是力量來源,因?yàn)槿藱?quán)具有重要的道德合法性,如果某人被視為人權(quán)侵犯者,他為此付出的聲譽(yù)成本可能非常高。”〔1」因此,當(dāng)人工智能技術(shù)對(duì)弱勢群體產(chǎn)生消極的社會(huì)影響時(shí),人權(quán)的重要地位是無法替代的。
(二)人工智能的倫理爭論需要以人權(quán)法為基礎(chǔ)
目前,在有關(guān)人工智能倫理的討論中,并沒有出現(xiàn)一套公認(rèn)的人工智能倫理標(biāo)準(zhǔn),但人工智能倫理的顯著地位凸顯了科技行業(yè)和政策制定者對(duì)人工智能系統(tǒng)可能產(chǎn)生重大不利影響的重新認(rèn)識(shí),而且在這些討論中經(jīng)常出現(xiàn)一些價(jià)值選擇,如透明度、公平性與可解釋性。〔1」然而,人工智能倫理的范圍和內(nèi)容具有模糊性和彈性。這意味著,它們就像一個(gè)空容器,任何人都可以把自己偏愛的倫理內(nèi)容放入其中。
如果沒有一個(gè)確定的規(guī)范框架來明確識(shí)別和闡釋人工智能系統(tǒng)應(yīng)該遵守的倫理標(biāo)準(zhǔn),就很難確保人工智能系統(tǒng)在實(shí)踐中基于普遍接受的倫理標(biāo)準(zhǔn)進(jìn)行設(shè)計(jì)、開發(fā)和部署。盡管在特定情況下關(guān)于倫理規(guī)范的具體內(nèi)容構(gòu)成可能存在合理分歧,但商定一套滿足最低限度要求的核心準(zhǔn)則依然重要。如果行為被認(rèn)為具有倫理上的可接受性,它就不能低于這些準(zhǔn)則的要求。
國際人權(quán)法為人工智能提供了一套最有希望的倫理標(biāo)準(zhǔn)。作為一個(gè)國際治理框架,國際人權(quán)法旨在建立全球性標(biāo)準(zhǔn)(規(guī)范)和問責(zé)機(jī)制,具體規(guī)定個(gè)人有權(quán)受到某種對(duì)待的方式。〔2」眾所周知,《世界人權(quán)宣言》以如下承諾為基礎(chǔ):二戰(zhàn)期間發(fā)生的那些駭人聽聞的悲劇不僅應(yīng)該受到譴責(zé),而且永遠(yuǎn)不能重演。盡管美洲、非洲和歐洲的區(qū)域性人權(quán)文件數(shù)量眾多,且各具特色,但它們都承諾以維護(hù)每個(gè)人的固有尊嚴(yán)為己任。這些承諾意味著,每個(gè)人無論身處何地都被視為具有平等的尊嚴(yán)和價(jià)值。這種共同承諾突出了每個(gè)人享有基本道德權(quán)利的地位,無論這些權(quán)利是否得到明確的法律保護(hù)。
人工智能系統(tǒng)在配置人們的權(quán)利、機(jī)會(huì)和資源時(shí)發(fā)揮的作用越來越明顯。此時(shí),保護(hù)人權(quán)并尊重法治對(duì)捍衛(wèi)政治社會(huì)的民主秩序至關(guān)重要。在這種秩序中,每個(gè)人都可以在法治軌道上盡可能自由地追求屬于自己的美好生活。人工智能倫理準(zhǔn)則不會(huì)憑空產(chǎn)生,它應(yīng)以政治社會(huì)所追求的具體愿景為基礎(chǔ)。這種愿景正是政治社會(huì)致力于確立和維護(hù)的,也是人工智能倫理準(zhǔn)則旨在實(shí)現(xiàn)和保護(hù)的。
中國始終致力于在人工智能領(lǐng)域構(gòu)建人類命運(yùn)共同體。“以人為本、智能向善”是中國給出的發(fā)展方向,也是人類迎接人工智能時(shí)代的必然選擇。堅(jiān)持“以人為本”,意在警示技術(shù)發(fā)展不能偏離人類文明進(jìn)步的方向,倡議各方以增進(jìn)人類共同福祉為目標(biāo),以保障社會(huì)安全、尊重人權(quán)為前提;堅(jiān)持“智能向善”,意在規(guī)范人工智能在法律、倫理和人道主義層面上的價(jià)值取向,確保人工智能發(fā)展安全可控。中國在2023年提出《全球人工智能治理倡議》時(shí)明確指出,各國應(yīng)堅(jiān)持發(fā)展和安全并重的原則,不斷提升人工智能技術(shù)的安全性、可靠性、可控性和公平性,協(xié)力共同促進(jìn)人工智能治理。〔1)
通過完善制度框架并付出系統(tǒng)努力來監(jiān)測、促進(jìn)和保護(hù)對(duì)人權(quán)規(guī)范的遵守,為采用人權(quán)標(biāo)準(zhǔn)來引領(lǐng)人工智能的倫理治理提供了正當(dāng)理由。盡管正式的權(quán)利憲章或憲法列舉的權(quán)利范圍差別很大,但仍然可以基于一種結(jié)構(gòu)化的理性評(píng)估來解決社會(huì)重要的權(quán)利之間、個(gè)人權(quán)利和集體利益之間的緊張和沖突。例如,《歐洲人權(quán)公約》規(guī)定了言論自由權(quán)、生命權(quán)、私人和家庭生活權(quán)、集會(huì)和宗教自由權(quán)等一系列人權(quán),所有這些權(quán)利必須得到保障并確保所有人都能享有。當(dāng)然,其中的許多權(quán)利需要滿足一定的條件,才能確保尊重社會(huì)所必需且范圍有限的既定目的。而且,這些條件由法律規(guī)定,并與上述目的相一致。
合理解決具體案件中個(gè)人權(quán)利和集體利益之間競爭性沖突的結(jié)構(gòu)化框架構(gòu)成了“人權(quán)方法”的重要組成部分。這種框架有助于克服現(xiàn)有倫理行為準(zhǔn)則的一個(gè)缺點(diǎn):即它們未能承認(rèn)倫理規(guī)范之間的潛在沖突,并且對(duì)人工智能系統(tǒng)在設(shè)計(jì)和操作過程中如何解決這些沖突缺乏指導(dǎo)。即使承認(rèn)潛在沖突的倫理行為準(zhǔn)則,也很少提供解決這種沖突的指導(dǎo)性措施。實(shí)際上,無論是準(zhǔn)則本身,還是眾多人工智能倫理文獻(xiàn),除了建議人們應(yīng)該向倫理專家尋求幫助,都沒有提供任何指導(dǎo)。〔2]
相比之下,解決倫理沖突的“人權(quán)方法”通過大量的權(quán)威性裁決得到進(jìn)一步發(fā)展,這些裁決由負(fù)責(zé)審理人權(quán)糾紛的國際和國內(nèi)司法機(jī)構(gòu)作出。司法機(jī)構(gòu)對(duì)申訴人提出的侵犯人權(quán)指控進(jìn)行裁決,它們構(gòu)成監(jiān)測、促進(jìn)和保護(hù)人權(quán)的制度框架的一部分,該框架還包括聯(lián)合國系統(tǒng)內(nèi)的各種行動(dòng)機(jī)構(gòu)、其他區(qū)域人權(quán)組織、國內(nèi)法院和行政機(jī)構(gòu)、學(xué)者和其他人權(quán)倡導(dǎo)者等。人權(quán)監(jiān)測、監(jiān)督和裁決的制度框架進(jìn)一步說明,人權(quán)規(guī)范是人工智能倫理標(biāo)準(zhǔn)最有希望的基礎(chǔ)。司法裁決有助于闡明具體案件對(duì)特定權(quán)利合理干預(yù)的范圍,從而為人工智能系統(tǒng)的設(shè)計(jì)者、開發(fā)者和實(shí)施者提供指導(dǎo)并指明遵守人權(quán)的方向。更重要的是,這些人權(quán)準(zhǔn)則贏得了國際認(rèn)可,并在許多國家得到法律支持,從而形成一套國內(nèi)和國際制度,并通過這些制度調(diào)查和執(zhí)行對(duì)侵犯人權(quán)行為的指控。
這種“人權(quán)方法”與科技行業(yè)普遍青睞的自我監(jiān)管模式形成鮮明對(duì)比,盡管后者得到大多數(shù)國家和地區(qū)的默許。自我監(jiān)管是指由參與者而不是政府來組織控制某個(gè)過程或活動(dòng)。自愿或純粹的自我監(jiān)管要求企業(yè)或行業(yè)自己制定和執(zhí)行規(guī)則,并獨(dú)立于政府的直接干預(yù)。自我監(jiān)管模式在少數(shù)被理解為“命運(yùn)共同體”的行業(yè)中是有效的,但考慮到自我監(jiān)管標(biāo)準(zhǔn)沒有法律約束力,我們?nèi)杂谐浞掷碛蓱岩善湔w有效性。〔」由于科技公司是在競爭激烈的全球市場中運(yùn)營,因此,在面對(duì)強(qiáng)大的商業(yè)需求時(shí),期望這些公司可以被信任并遵守自愿標(biāo)準(zhǔn)不太現(xiàn)實(shí)。由此可見,批評(píng)人士將它們的自愿行為準(zhǔn)則斥為“倫理洗白”也就不足為奇了,因?yàn)榇罅孔C據(jù)表明,不太可能指望科技行業(yè)兌現(xiàn)其自愿承諾。〔2)內(nèi)米茲(P.Nemitz)將這種情形描述為科技行業(yè)的“天才之舉”,它們使該行業(yè)能夠?qū)⒆⒁饬唾Y源集中在人工智能倫理上,從而推遲為人工智能制定法律的辯論。〔3〕正如哈根多夫(T.Hagendorff)評(píng)論的那樣:“人工智能倫理缺乏強(qiáng)化其自身規(guī)范性主張的機(jī)制。當(dāng)然,倫理原則的執(zhí)行可能涉及名譽(yù)受損。然而,這些執(zhí)行機(jī)制相當(dāng)脆弱,不構(gòu)成明顯的威脅。人工智能行業(yè)的倫理指南旨在向立法者表明,內(nèi)部自我治理就足夠了,不需要特定的法律來減輕可能的技術(shù)風(fēng)險(xiǎn)并消除濫用情形。即使需要制訂更多有關(guān)人工智能系統(tǒng)的具體法律,這些也仍然相對(duì)模糊和膚淺。”〔4]
四、人權(quán)法框架對(duì)人工智能治理的積極作用
人權(quán)法框架有助于界定人工智能應(yīng)該避免的傷害。它關(guān)注每個(gè)人的利益,消除社會(huì)對(duì)人工智能的擔(dān)憂,其中包括非歧視、公平與隱私。它為評(píng)估人工智能是否以及在多大程度上“行善”指明了方向。經(jīng)社文權(quán)利更是為人工智能潛在利益的社會(huì)分配奠定了基礎(chǔ)。人工智能治理的人權(quán)法框架是一個(gè)現(xiàn)有的國際、地區(qū)和國內(nèi)法體系,具有國際合法性。人工智能治理之所以要采用人權(quán)法框架,不僅是因?yàn)樗膬?nèi)在價(jià)值,更是因?yàn)槟壳暗膰H形勢不利于創(chuàng)制一種全新的規(guī)范框架進(jìn)行有效的多邊合作。在這種情況下,重點(diǎn)在于思考現(xiàn)有的人權(quán)法框架如何應(yīng)用于人工智能領(lǐng)域。
人權(quán)法將一套倫理價(jià)值具體化為國際規(guī)范。雖然人權(quán)法體系并不完美,也不是專門為人工智能量身定制,但它是保護(hù)人類價(jià)值與利益的共享藍(lán)圖,已經(jīng)證明其能夠適應(yīng)新的環(huán)境。作為一套規(guī)范系統(tǒng),人權(quán)法相對(duì)明確,不僅有效避免了針對(duì)倫理標(biāo)準(zhǔn)的指控,如含糊不清、異變性強(qiáng)、充分滿足企業(yè)利益等,而且全面列舉了適用于世界各國且具有法律約束力的國際、地區(qū)和國內(nèi)人權(quán)義務(wù)。
事實(shí)證明,在過去70多年時(shí)間里,“人權(quán)方法”取得了相對(duì)成功,并因世界范圍內(nèi)的學(xué)術(shù)努力、政府協(xié)商、社會(huì)組織投入和法院判決而不斷發(fā)展。而且,它與社會(huì)發(fā)展保持同步,影響力逐步增強(qiáng)。具體言之,人權(quán)法框架對(duì)人工智能治理的積極作用至少包括以下四個(gè)方面。
(一)規(guī)定程序、責(zé)任和原則
與人權(quán)法相伴而生的是執(zhí)行機(jī)制、政治監(jiān)督和法律責(zé)任,這些在倫理道德實(shí)踐中是缺失的。侵犯人權(quán)的行為涉及法律和政治救濟(jì)途徑。國際人權(quán)框架提供了一系列有效的救濟(jì)機(jī)制,在世界很多地方都可以在法院挑戰(zhàn)政府侵犯人權(quán)的行為,而且具有法律上的約束力,這是對(duì)國家權(quán)力的重要約束。
由于企業(yè)和政府都會(huì)作出人權(quán)承諾,它們?cè)谑褂萌斯ぶ悄軙r(shí)應(yīng)該接受人權(quán)機(jī)制的審查,包括在涉嫌違約的情況下向國內(nèi)法院提出索賠。此外,在有關(guān)圖像數(shù)據(jù)庫和人臉識(shí)別技術(shù)的案件中,人權(quán)成為司法判決的基礎(chǔ)受到廣泛關(guān)注。
(二)提升國際認(rèn)可度與合法性
相對(duì)于其他價(jià)值體系,國際人權(quán)法不僅具有合法性,而且國際認(rèn)可度更高。絕大多數(shù)國家都是重要國際人權(quán)條約的締約國,它們知道并理解這些人權(quán)條約的核心要義。盡管有些國家對(duì)人權(quán)普遍性的承諾明顯減弱,但無法否認(rèn)的是,人權(quán)在世界各國政府的政策和活動(dòng)中發(fā)揮的積極作用日趨明顯。
聯(lián)合國程序要求聯(lián)合國各個(gè)成員國都參與國際人權(quán)架構(gòu)。例如,聯(lián)合國人權(quán)理事會(huì)的“普遍定期審議”(UPR)和聯(lián)合國條約機(jī)構(gòu)對(duì)各國遵守條約情況的定期審查。而且,得到地方強(qiáng)力支持的地區(qū)性條約鞏固了聯(lián)合國文件的地位。在很多歐洲國家,國際人權(quán)法具有憲法或準(zhǔn)憲法地位,它們已經(jīng)融人這些國家的治理體系之中。此外,社會(huì)組織可以利用人權(quán)法框架來監(jiān)督世界各國和企業(yè)的活動(dòng)。
在國際社會(huì)協(xié)商制定人工智能治理原則的過程中,基于國際人權(quán)法框架的規(guī)范性和權(quán)威性,人權(quán)考量始終發(fā)揮著基礎(chǔ)性指導(dǎo)作用。例如,經(jīng)濟(jì)合作與發(fā)展組織(OECD)制定的人工智能原則呼吁所有參與者在人工智能系統(tǒng)的全生命周期內(nèi)尊重法治、人權(quán)和民主價(jià)值。聯(lián)合國教科文組織在制定《人工智能倫理建議書》時(shí)將人權(quán)和基本自由列為首要價(jià)值。歐洲理事會(huì)人工智能委員會(huì)(CAI)基于人權(quán)、民主與法治標(biāo)準(zhǔn)為人工智能的開發(fā)、設(shè)計(jì)與應(yīng)用制定潛在的法律框架。盡管人權(quán)的普遍性屢遭質(zhì)疑,但國際社會(huì)對(duì)既有人權(quán)承諾的持久價(jià)值仍保持著廣泛共識(shí)。
(三)確保全球化技術(shù)發(fā)展需要承擔(dān)的國際義務(wù)
在人工智能對(duì)話中作出人權(quán)承諾,有助于為國際合作注人新動(dòng)能。毋庸置疑,各國政府應(yīng)當(dāng)優(yōu)先落實(shí)本國私營部門在人工智能應(yīng)用中的主體責(zé)任,確保其行為既符合國內(nèi)憲法要求,又遵守國際人權(quán)義務(wù)。然而,單靠各國立法機(jī)構(gòu)的分散行動(dòng)成效有限,更可取的路徑是聯(lián)合志同道合的國家和地區(qū),通過集體力量推動(dòng)全球責(zé)任共擔(dān)。事實(shí)上,重新回歸國際人權(quán)法框架,不僅能夠?yàn)楦鲊峁┕餐裱臉?biāo)準(zhǔn),更能凝聚國際共識(shí),形成統(tǒng)一合力,共同敦促人工智能技術(shù)的開發(fā)、設(shè)計(jì)、部署和應(yīng)用主體切實(shí)履行相應(yīng)責(zé)任。
而且,將人工智能技術(shù)與人權(quán)法相結(jié)合,有助于利用聯(lián)合國機(jī)制實(shí)現(xiàn)既定目標(biāo)。通過聯(lián)合國機(jī)構(gòu)、多邊組織、地區(qū)條約等,各國有機(jī)會(huì)共同規(guī)劃各自的發(fā)展方向和道路。同時(shí),各國可以利用國際論壇,在充分認(rèn)識(shí)人工智能對(duì)人權(quán)影響的基礎(chǔ)上,協(xié)同努力,防止侵犯人權(quán),保護(hù)公民權(quán)益,并為權(quán)利遭到侵犯的個(gè)人提供有效的司法或非司法救濟(jì)。
例如,在聯(lián)合國框架下參與聯(lián)合國人權(quán)理事會(huì)(這是全球政府間人權(quán)對(duì)話的核心平臺(tái))無疑是一項(xiàng)積極舉措。該理事會(huì)可以發(fā)起事實(shí)調(diào)查,審查具體案件,并通過普遍定期審議機(jī)制開展系統(tǒng)性評(píng)估。這些舉措不僅有助于提升公眾對(duì)人工智能技術(shù)引發(fā)人權(quán)風(fēng)險(xiǎn)的認(rèn)知,更可推動(dòng)國家和私營主體承擔(dān)相應(yīng)責(zé)任。盡管聯(lián)合國人權(quán)理事會(huì)也面臨諸多批評(píng),但其作為聯(lián)合國系統(tǒng)內(nèi)以《聯(lián)合國憲章》為基礎(chǔ)的核心人權(quán)機(jī)構(gòu),仍具有獨(dú)特價(jià)值。值得注意的是,聯(lián)合國內(nèi)部還有眾多相關(guān)人權(quán)機(jī)構(gòu)可資協(xié)同,如聯(lián)合國大會(huì)、經(jīng)濟(jì)和社會(huì)理事會(huì)、國際法院等,它們均能在凝聚國際共識(shí)、深化人工智能治理合作等領(lǐng)域發(fā)揮重要作用。
盡管相關(guān)領(lǐng)域的發(fā)展動(dòng)能正在集聚,但整體投入仍顯不足,而且在精準(zhǔn)性與全面性上存在顯著缺口。國家和企業(yè)亟待重申對(duì)國際人權(quán)法的莊嚴(yán)承諾,切實(shí)接納現(xiàn)行國際人權(quán)法體系,以遏制人工智能開發(fā)與應(yīng)用對(duì)基本權(quán)利和自由造成的系統(tǒng)性侵害。人權(quán)標(biāo)準(zhǔn)作為文明社會(huì)最低限度的倫理要求,必須成為人工智能技術(shù)發(fā)展的剛性約束。這不僅是價(jià)值宣示,更應(yīng)轉(zhuǎn)化為可以操作的規(guī)范框架,從而為技術(shù)倫理注人明確的實(shí)踐指引。
當(dāng)前,人工智能技術(shù)競爭性迭代引發(fā)全球治理張力,技術(shù)權(quán)力被異化為新型控制手段,這種風(fēng)險(xiǎn)正在對(duì)人權(quán)構(gòu)成多維威脅。在此背景下,超越零和博弈思維、構(gòu)建包容性治理框架已刻不容緩。各國對(duì)國際人權(quán)法框架的共同背書,不僅是消弭技術(shù)倫理沖突的基石,更是將人工智能納入人類文明進(jìn)步軌道的關(guān)鍵密鑰。這種以人權(quán)為錨點(diǎn)的國際合作范式,有助于在技術(shù)狂飆中為人類尊嚴(yán)鐫刻不可逾越的保護(hù)屏障。
(四)構(gòu)成人工智能治理的必要而非充分條件
當(dāng)前,國際人權(quán)法體系或許尚不足以全面應(yīng)對(duì)人工智能技術(shù)給人類社會(huì)帶來的所有潛在風(fēng)險(xiǎn),但其本身具有適應(yīng)新環(huán)境和動(dòng)態(tài)社會(huì)發(fā)展的內(nèi)在彈性。以《歐洲人權(quán)公約》為例,它就被視為“一個(gè)活的文件,必須根據(jù)當(dāng)下實(shí)際情況予以解釋。”〔1」聯(lián)合國秘書長數(shù)字合作高級(jí)別小組已發(fā)出倡議,呼吁緊急審視國際人權(quán)框架在數(shù)字時(shí)代的適配性問題。
從發(fā)展路徑來看,人權(quán)法可以通過對(duì)既有權(quán)利的重新審視得以拓展。值得注意的是,這些權(quán)利的適用邊界較為模糊。這種模糊性相當(dāng)程度上源于如下事實(shí):在具有變革性的技術(shù)支持行業(yè)興起之前,它們的實(shí)現(xiàn)要件往往被視為理所當(dāng)然。然而,新技術(shù)語境的出現(xiàn)正在推動(dòng)對(duì)權(quán)利內(nèi)涵的重新解構(gòu)與闡釋。例如,人工智能倫理討論中常見的可解釋性要求和人類參與原則,雖未被明確納入傳統(tǒng)人權(quán)范疇,但在現(xiàn)有人權(quán)框架中已隱含了相關(guān)要素,即向個(gè)人提供決策依據(jù)的義務(wù),對(duì)決策提出異議的權(quán)利,以及獲得充分救濟(jì)的可能性。歐洲委員會(huì)的司法實(shí)踐正在推進(jìn)這方面的相關(guān)探索,并有望為人工智能應(yīng)用中的人權(quán)保障提供更清晰的規(guī)范指引。
人權(quán)法的演進(jìn)及其后續(xù)解釋具有天然滯后性,而技術(shù)發(fā)展卻以指數(shù)級(jí)速度向前推進(jìn)。當(dāng)下既有的人權(quán)范式固然重要,但僅以此作為人工智能治理體系的全部支撐顯然難以為繼。因此,人權(quán)應(yīng)該成為對(duì)人工智能實(shí)施規(guī)范性約束的邏輯起點(diǎn)。在此基礎(chǔ)上,一方面要?jiǎng)討B(tài)拓展權(quán)利范疇:另一方面要更加完善倫理防護(hù)體系。這既可以包含可供企業(yè)和其他實(shí)體自主選擇遵循的倫理準(zhǔn)則,也涵蓋了人工智能技術(shù)迭代所產(chǎn)生的新興權(quán)利形態(tài)。
五、余論:人工智能與人權(quán)相連接
人權(quán)能否為人工智能的治理提供價(jià)值和規(guī)范基準(zhǔn)?電氣與電子工程師協(xié)會(huì)(IEEE)的全球倫理倡議給出了明確答案。該協(xié)會(huì)于2017年發(fā)布的《倫理一致性設(shè)計(jì)》報(bào)告將“人工智能設(shè)計(jì)不得侵犯國際人權(quán)”列為首要原則。〔」然而在現(xiàn)實(shí)中,部分人工智能系統(tǒng)已經(jīng)暴露出權(quán)利侵害風(fēng)險(xiǎn)。例如,2018年3月,聯(lián)合國人權(quán)調(diào)查顯示,臉書的算法推薦機(jī)制加劇了緬甸境內(nèi)仇恨言論的傳播與暴力煽動(dòng)。〔2〕當(dāng)然,必須承認(rèn)的是,雖然人工智能是某些潛在風(fēng)險(xiǎn)的源頭,但它也可為全球發(fā)展開辟新的圖景。在希望與隱憂的交織中,不確定性與日俱增。當(dāng)利益相關(guān)方尋求人工智能發(fā)展的“北極星”時(shí),人權(quán)體系可為其提供價(jià)值錨點(diǎn)與行動(dòng)框架。質(zhì)言之,若要讓人工智能服務(wù)于人類共同福祉,它的設(shè)計(jì)和部署至少應(yīng)該恪守不損害人類基本價(jià)值的底線,國際人權(quán)法體系正是這些價(jià)值最具權(quán)威性的全球表達(dá)。
在探討人工智能和人權(quán)的關(guān)聯(lián)時(shí),核心要義在于守護(hù)人類尊嚴(yán)。每個(gè)人都是平等的生命個(gè)體,生來就擁有同等的價(jià)值和不可剝奪的尊嚴(yán)。〔3」國際人權(quán)法框架旨在確立對(duì)待個(gè)體的全球性原則(規(guī)范)和問責(zé)機(jī)制。具體而言,這種基于權(quán)利的方法,為人工智能開發(fā)者提供了兼具理想性與規(guī)范性的指導(dǎo),確保人類尊嚴(yán)和每個(gè)人的內(nèi)在價(jià)值得以維護(hù),且不受國家或司法管轄權(quán)的限制。貫徹人權(quán)理念,不僅能夠識(shí)別和預(yù)測人工智能可能引發(fā)的嚴(yán)重社會(huì)危害,還能為技術(shù)和政策保障措施的制定者提供指引,推動(dòng)人工智能的積極應(yīng)用。與此同時(shí),從事人工智能問責(zé)的工作人員,可借助啟動(dòng)國際人權(quán)實(shí)踐系統(tǒng),對(duì)技術(shù)應(yīng)用的社會(huì)影響進(jìn)行監(jiān)測,并建立相應(yīng)的救濟(jì)程序。更為重要的是,他們能夠以人權(quán)為切入點(diǎn),聚焦全球弱勢群體或邊緣化群體的權(quán)利關(guān)系與不平等問題,通過人權(quán)話語體系揭示技術(shù)應(yīng)用背后的結(jié)構(gòu)性矛盾,為構(gòu)建更具包容性與公正性的人工智能治理格局提供倫理基石與法理支撐。
在人工智能商業(yè)領(lǐng)域的從業(yè)者或許會(huì)心生疑問:為何他們要關(guān)注人權(quán)問題?事實(shí)上,隨著全球治理格局的深化,利益相關(guān)方正日益要求私營部門承擔(dān)捍衛(wèi)人權(quán)的責(zé)任。2011年,聯(lián)合國發(fā)布的《工商業(yè)與人權(quán)指導(dǎo)原則》明確呼吁企業(yè)界尊重、保護(hù)人權(quán)并為人權(quán)侵害提供救濟(jì)途徑。這一框架不僅為人工智能領(lǐng)域的高管與開發(fā)者提供了人權(quán)影響系統(tǒng)性盡職調(diào)查的操作模板,更就產(chǎn)品研發(fā)與部署環(huán)節(jié)的注意義務(wù)標(biāo)準(zhǔn)給出了規(guī)范性指引。值得注意的是,盡管聯(lián)合國《工商業(yè)與人權(quán)指導(dǎo)原則》標(biāo)志著商業(yè)與人權(quán)治理的重要突破,但其所構(gòu)建的僅是人權(quán)在科技領(lǐng)域應(yīng)用的基礎(chǔ)框架。對(duì)人工智能行業(yè)的直接參與者而言,若要將人權(quán)框架深度嵌入商業(yè)模式、政策體系與實(shí)踐流程,既需要監(jiān)管法規(guī)或“硬法”的剛性約束,也離不開技術(shù)標(biāo)準(zhǔn)、社會(huì)規(guī)范與市場激勵(lì)機(jī)制的協(xié)同作用。與此同時(shí),人權(quán)工作者需要積極介人人工智能治理和監(jiān)管進(jìn)程,在必要時(shí)刻應(yīng)援引國際人權(quán)框架,對(duì)企業(yè)或政府開發(fā)、部署人工智能的方式提出合法性挑戰(zhàn)。社會(huì)組織和人工智能開發(fā)者更需建立協(xié)作機(jī)制,共同開展風(fēng)險(xiǎn)領(lǐng)域評(píng)估,研判弱勢群體的權(quán)益需求。唯有通過跨領(lǐng)域利益相關(guān)方的協(xié)同努力,構(gòu)建覆蓋風(fēng)險(xiǎn)預(yù)警、責(zé)任追溯與權(quán)益保障的完整治理鏈條,才能真正避免人工智能系統(tǒng)成為人權(quán)侵害的工具,推動(dòng)人工智能技術(shù)促進(jìn)人權(quán)的普遍享有。
基于此,在人工智能的研究、開發(fā)或部署中,人權(quán)框架可以有效識(shí)別、預(yù)測并最大限度降低潛在的風(fēng)險(xiǎn)和危害。對(duì)人工智能治理主體而言,從既定的人權(quán)責(zé)任與規(guī)范視角重新審視人工智能系統(tǒng)的社會(huì)影響至關(guān)重要。誠然,人權(quán)法框架存在固有局限,無法解決人工智能引發(fā)的所有問題,但它提供了一種強(qiáng)有力的價(jià)值導(dǎo)向,即倡導(dǎo)以人權(quán)法為基礎(chǔ)來捍衛(wèi)人類尊嚴(yán)的人工智能治理路徑。
(責(zé)任編輯:李超群)