鄭少飛 姚建宗
〔摘要〕 人工智能技術權力隨著人工智能技術的發展孕育而生,其以“微觀的”權力為內核、傳統公權力為載體,是一種既難以掌控又難以解釋,且具備“微觀的”權力與傳統公權力雙重控制力的力量。在這些特性的影響下,人工智能技術帶來的風險也具有非完全的人為性、雙重不確定性、差異普遍性等特性,這最終使得法律在使用“行為-責任”機制分配人工智能技術風險時存在諸多“行為”無法通達“責任”的困境。為擺脫該困境,可借鑒羅爾斯的分配正義理論,建立一種類“原初狀態”的沙箱環境為公平分配風險提供基礎,再以純粹程序正義為分配渠道,打通“行為”與“責任”之間的路徑,最后通過差別原則與反思平衡合理地直接連接“行為”與“責任”,以解決另一部分難以適用“行為-責任”機制的困境。
〔關鍵詞〕 人工智能;技術權力;風險;分配正義
〔中圖分類號〕D903;DF03 〔文獻標識碼〕A 〔文章編號〕1000-4769(2022)03-0110-09
一、問題的提出
人工智能技術是當下科學技術發展的潮流之一,它在給人類帶來便利的同時也帶來了許多風險,相關的規制措施與法律法規如《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》也接踵而至。然而伴隨人工智能技術誕生的還有人工智能技術權力①,在人工智能技術權力影響下,即便是最新的法律法規對人工智能技術風險的控制仍然有限。因此,剖析人工智能技術權力將有利于對人工智能技術風險進行合理分配,并將其控制在合理的程度。
二、人工智能技術權力概述
(一)人工智能技術權力的核心——“微觀的”權力
“技術”是通過人的知識和智慧與客觀的手段(軟件和硬件)相互作用而產生的控制和改造世界的方式、方法體系,也是一種關于“怎么做”的實踐性的知識體系。陳文化、沈健、胡桂香:《關于技術哲學研究的再思考——從美國哲學界圍繞技術問題的一場爭論談起》,《哲學研究》2001年第8期。因此技術實際上是知識的一種表現形式。“權力”在《布萊克法律詞典》中意為作為或不作為的能力,尤指某人為控制他人反應而采取行動的能力。Bryan A. Garner, Blacks Law Dictionary, 9th ed., New York: Thomson & West,2009, p.1288.尼采將知識與權力這兩個看似不相關的概念聯系起來并得出“知識即是權力”的結論。福科則將這一觀點進一步拓展,認為知識和權力在現代社會“共生”而成為“知識-權力”組合。此處的權力指的是包含國家權力、社會權力在內的傳統公權力。
以“知識-權力”為核心的技術權力所展現出的是一種“微觀的”權力。這種權力強調權力的生產性,而不是壓制和扭曲作用;它關注的不是信念,而是權力對行動和實踐的參與。約瑟夫·勞斯:《知識與權力:走向科學的政治哲學》,盛曉明、邱慧、孟強譯,北京:北京大學出版社,2004年,第224頁。因此,福科認為,權力從來沒有局限在這里或那里,從來沒掌握在任何人手中,從來沒有作為一種商品或財富,而是通過一個網狀組織來使用和行使的。Foucault M., Power/Knowledge, Selected Interviews and Other Writings, 1972-1977, New York: Pantheon Book, 1980, p.98.這種去中心化的“微觀的”權力滲透在社會以及個體的各個角落,人、社會及其他成為了權力機制的分析對象,且被當作一個待解決的問題。米歇爾·福柯:《權力的眼睛:福柯訪談錄》,嚴鋒譯,上海:上海人民出版社,1997年,第31頁。在這一過程中,權力開始產生知識并且在產生的過程中使得知識權力化,一個典型的例子是科學作為知識的又一表現形式其通過實驗室等設施迫使人們說某些話,否則就可能被當作騙子。米歇爾·福柯:《權力的眼睛:福柯訪談錄》,嚴鋒譯,第32頁。因此福柯認為權力和知識是直接相互連帶的;不相應地建構一種知識領域就不可能有權力關系,不同時預設和建構權力關系就不會有任何知識。米歇爾·福柯:《規訓與懲罰:監獄的誕生》,劉北成、楊遠嬰譯,北京:生活·讀書·新知三聯書店,1999年,第29頁。人工智能技術作為知識的一種表現形式,其與權力當然也是相互連帶的,人工智能技術權力的核心自然也就體現為“微觀的”權力。
“微觀的”權力雖然強調生產性,但其在分析與解決問題的同時也在對人們進行規訓,這種看似不掌握在任何人手中的權力正是通過強調生產的方式隱蔽地行使著權力的控制能力。人工智能技術自誕生以來經過多年的發展,在不少領域已經能做出媲美人類甚至強過人類的決策。這說明人工智能技術在某些項目已經較為成熟,但讓人擔憂的是如果使用人工智能輔助人類,人類可能會因過于相信人工智能的判斷而喪失自己的判斷力,最終陷入遭到人工智能技術權力控制的窘境。雖然這似乎僅是一種可能,但已有多個學者均對此表達了擔憂。參見申靈靈、何麗萍:《人工智能時代技術與教育共生的困局與出路》,《高教探索》2021年第9期; Mireille H., “Law As Computation in the Era of Artificial Legal Intelligence:Speaking Law to the Power of Statistics,” University of Toronto Law Journal, vol.68, no. supplement 1, 2018, p.27.這種控制顯然既不是“國王的命令”,也不是法律的強制,而是通過人工智能技術的生產性來實現的。因此人工智能技術權力是一種以“微觀的”權力為核心,具有難以掌控的特性并能夠控制所有人的力量。
(二)人工智能技術權力的載體——傳統公權力
技術權力作為一種“微觀的”權力雖然難以精確捕捉,但無論是知識還是技術,當其運用于實踐中時難免會被當作財富而被人所掌控,這時技術權力將以傳統權力作為載體,體現出傳統權力的控制力。傳統公權力可以分為國家權力與社會權力。國家權力是統治階級以國家的名義運用國家機器來實現其意志和鞏固其統治的支配力量,權力的掌控者是國家。社會權力是社會主體所擁有的社會資源對社會和國家的支配力量。郭道暉:《權力的多元化與社會化》,《法學研究》2001年第1期。因此,技術權力選擇不同的傳統公權力作為載體,其將呈現不同的內涵。例如有定義認為技術權力決定著一個國家在國際事務中的地位與權力,是國際權力結構中的一部分。B.K.Blount,“Science as a Factor in International Relations,”Inernational Affairs, vol.33, no.1,1957, p.71.也有定義認為技術權力是指生產網絡中擁有核心技術的企業對其他技術水平較低企業的支配控制的權力。徐曼:《淺析全球生產網絡中技術權力的影響機制》,《經濟研究參考》2016年第13期。上述兩個例子代表了分別以國家權力與社會權力為載體的技術權力的兩種內涵。雖然這兩種內涵有較大的差距,但可以確定的是國家權力與社會權力作為傳統公權力,其對于權力持有者之外的所有人都將彰顯其控制力。人工智能作為一項科學技術,其主要的持有者是國家與各個科技公司,人工智能技術或許為這些本身就具有強大公權力的主體提供更強的權力支撐,又或許為不具有強大公權力的主體提供了掌握公權力的能力。無論如何,可以明晰的是,人工智能技術權力主要以傳統公權力與社會權力為載體,是權力持有者通過人工智能技術對他人進行控制的力量。
值得注意的是,技術權力在選擇不同的載體時雖然會呈現不同的樣貌,但無論選擇何種載體,由于其核心是強調生產性但對所有人都會彰顯控制力的“微觀的”權力,因此技術權力持有者無法真正地完全掌控技術權力,且有被“微觀的”權力控制的可能。所以人工智能技術權力的持有者在通過人工智能技術權力控制他人的同時,也被作為人工智能技術權力核心的“微觀的”權力所控制,這體現出人工智能技術權力具有雙重控制力的特性。
(三)人工智能技術權力的實踐指導——操作主義
在技術權力的實踐中,權力的控制力表現為操作主義。操作主義會將一個概念的意義與一組操作相等同,即把事物的名稱視為同時對它們的作用方式的表示。赫伯特·馬爾庫塞:《單向度的人》,劉繼譯,上海:譯文出版社,1989年,第79頁。這會使本來一個包含多種意義的概念被等同于該概念中的某一個意義,也即是在操作主義的指導下將含混的概念還原為特定的所指。目前人工智能之“智能”主要是通過使用深度學習算法的機器學習實現的,它通過把世界表現為一個概念的嵌套層次結構,每個概念都是根據更簡單的概念定義的,而更抽象的表達則是根據不那么抽象的概念計算的,從而獲得更大的力量和靈活性。Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning,Cambridge:MIT Press, 2016, p.8.這種由諸多簡單概念組成的多層嵌套層次結構在本質上仍然是操作主義將復雜概念還原為特定概念的過程,只不過從過去將復雜概念還原為特定、簡單、單一概念轉換為如今的特定、簡單、數個概念。這種有窮規則的集合其實仍是一個已完成的人類經驗的累積,只不過采用了新型的處理模式而記錄得更加全面,這最終仍只是人類已經創造出的物質條件的束集。劉強:《人工智能與法治關系辨析》,《重慶大學學報》(社會科學版)2021年第3期。因此人工智能的智能機制并不能使其達到完整還原概念的程度。
更糟糕的是,在人工智能技術的決策中,人們知道輸入人工智能系統的數據與最后人工智能技術的決策結果,但卻不知道為何會得出這樣的結果。換言之,人工智能技術在將復雜概念轉換成特定、簡單、數個概念后,人們無法知曉人工智能技術究竟使用了其中哪個或哪些概念來做決策,這即是人工智能“黑箱”。因此,人工智能“黑箱”憑借其極難解釋的特性使得人工智能技術權力能夠更加輕松地行使“微觀的”權力及傳統權力的控制能力。在“微觀的”權力方面,人們容易對人工智能產生依賴,這在很大程度上是因為人們只知道人工智能可以做出比人類更好的決策,但不知道人工智能為何能做出這樣的決策,這就使人類無法向人工智能學習,而只能更加依賴于它,最終受到人工智能技術權力的控制。在傳統權力方面,人工智能技術權力的持有者能夠以人工智能“黑箱”為盾而濫用權力,在人工智能技術決策的過程中加入個人的價值判斷,產生算法偏見,侵害他人權利,逃避法律的規制。
綜上所述,人工智能技術權力是一種以傳統公權力中的國家權力與社會權力為載體,以“微觀的”權力為核心而生成的具有極難掌控、極難解釋與雙重控制力的特性,是一種能夠控制所有人的力量。
三、人工智能技術權力影響下的人工智能技術風險的新特性
在現代社會中,“風險”被定義為以系統的方式應對由現代化自身引發的危險和不安。風險有別于傳統的危險,它是現代化的威脅力量和令人懷疑的全球化所引發的后果。烏爾里希·貝克:《風險社會:新的現代性之路》,張文杰、何博聞譯,南京:譯林出版社,2018年,第7頁。當現代意義的風險與全球化同時出現并作為一個時期社會的基本特征時,風險社會也就隨之產生了。楊雪冬:《風險社會與秩序重建》,北京:社會科學文獻出版社,2006年,第40頁。這種全球化的風險社會也包含了兩種基本風險類型:外部風險與人造風險。外部風險主要是指非人為的風險,如各種自然災害。而人造風險是由人類發展進步特別是科學和技術進步所創造的風險,是一種內在的風險,其指各種新的風險環境。面對這類風險,歷史很難給我們提供足夠的應對經驗。我們通常并不知道真正的風險是什么,更別說如何根據概率量表來對它們進行精確計算了。安東尼·吉登斯:《風險與責任》,肖瑛譯,《法理——法哲學、法學方法論與人工智能》2020年第2期。因此,通常認為現代風險社會中的人造風險具有人為性、不確定性以及普遍性的特征。人工智能技術的出現是人類科學技術進步的結果,人工智能技術風險也是人造風險的一種,是人工智能技術應用造成的包括影響國家、社會、個人在內的各種風險的總稱,同樣具有人造風險的上述特性。特殊的是伴隨人工智能技術誕生的人工智能技術權力對人工智能技術風險產生了諸多影響,使得人工智能技術風險的特性產生了一些變化,使風險能夠產生更大、更強的破壞作用。
(一)非完全的人為性的特性
現代風險社會的人造風險是科學技術發展的結果,也是人類自身不斷進行選擇決策的結果,例如牛肉工業的發展使其強行對人們進行實驗,人們必須做出是否吃牛肉的決策,而這可能因為瘋牛病的影響而存在關系到生死的風險。烏爾里希·貝克:《風險社會政治學》,劉寧寧、沈天霄譯,《馬克思主義與現實》2005年第3期。因此,人造風險的人為性是人類不斷選擇決策并發展的體現。然而,人工智能技術所造成的風險有所不同,這種人造風險的出現并非完全是人為的。人工智能技術確實由人類創造,但人工智能技術權力中“微觀的”權力具有難以掌控的特性,這使得人類在使用人工智能技術進行選擇與決策時并非像選擇是否吃牛肉那樣簡單。通常人類在某件事情的選擇上是由大腦處理相關信息并做出決策的,例如人們可以根據自己的身體情況以及喜好選擇吃或者不吃牛肉。但當人工智能技術權力介入時,是否吃牛肉就不再僅由人們自己決定,而是變為人們告訴人工智能程序如個人身體健康程度、個人偏好等相應的信息,最終經由自動數據模型訓練的人工智能程序做出決策。當然在得到人工智能的決策后,人們仍然可以選擇吃或者不吃牛肉,但人們的選擇就很難說明在多大程度上是自己大腦做出的,而又有多大程度是受人工智能影響做出的。這時,人工智能技術權力難以掌控的特性就使得人工智能技術所創造的風險很難說完全是人造的,因此人工智能技術風險在人工智能技術權力的影響下具有非完全的人為性的特性。
(二)雙重不確定性的特性
人工智能代替人類進行決策不僅使得人造風險呈現出非完全人為性的特征,而且還將使風險所造成的不確定性在時間上向前推移,并造成比以往更加深遠且不確定的影響。通常,人造風險的不確定性表現為風險發生的時間、地點、影響程度、波及范圍、損害大小等都具有不確定性。李香民:《風險社會與我國法律觀念的變革》,博士學位論文,吉林大學法學院,2012年,第17頁。但這些風險通常產生于人們的決策與選擇后,而決策與選擇的過程是可知的,人們能夠提前作預防風險的準備。因此,在奈特的定義中風險是可測定的不確定性,是可以測量的。張碧瓊:《經濟全球化:風險與控制》,北京:中國社會出版社,1999年,第14頁。不過當人工智能技術參與決策時,在人工智能技術權力極難解釋性的特性影響下,人工智能進行決策的過程成為“黑箱”,人們無法知曉決策過程,特別是當人工智能做出通常邏輯(“吃或不吃牛肉”)之外的決策時,人類將難以應對而必須做出多手準備,這將大大增加風險的不確定性。例如在全球第一例自動駕駛事故中,自動駕駛汽車的安全員就沒有預見到人工智能會錯誤識別小女孩為別的物體而錯過避險時間最終造成慘劇。《全球首例無人車致死案更多細節公布 車禍發生前5.6秒檢測到行人》,https://baijiahao.baidu.com/s?id=1649595657719236783&wfr=spider&for=pc,2021年12月20日。而這實際上是人工智能技術權力將人工智能技術風險在時間維度上向前推移導致了風險既可能出現在選擇人工智能進行決策時,又可能出現在人工智能進行決策后,因此具有了雙重不確定性的特性。
(三)差異普遍性的特性
風險社會之所以具有普遍性,是因為現代化的風險具有“回旋鏢效應”,其可以打破階級圖式,沖擊風險的制造者與受益者,使得所有人都成為風險社會的受害者,例如生態災害與核危機。烏爾里希·貝克:《風險社會:新的現代性之路》,劉寧寧、沈天雷譯,第9頁。但人工智能時代的來臨使人工智能技術權力讓這種普遍性變得具有差異性。一方面,由于“回旋鏢效應”,人工智能技術本身的使用會讓所有人承受其帶來的風險,再加上人工智能技術權力中“微觀的權力”所具有的控制力,使人人都有被人工智能技術權力所規訓與控制的風險。另一方面,由于人工智能技術權力主要以傳統公權力為載體,這使得各個主體在人工智能時代的博弈中也面臨著不同的風險:國家權力將面臨其權力被去中心化所帶來的風險,可能使國家權力遭到以谷歌、微軟等公司為首的社會權力持有者架空。社會權力持有主體將面臨因人工智能技術的“黑箱”問題難以通過傳統的因果關系進行歸責而遭到法律的強制責任分配,從而承擔不確定的開發與運行成本風險。就個人權利而言,即便是如歐盟《一般數據保護條例》也不能完全預防人工智能技術權力借助社會權力對個人施加控制能力和侵害個人權利所帶來的種種風險。這些風險小到網絡購物遭受大數據殺熟、就業遭遇人工智能篩選的歧視,大到自動駕駛危及生命健康。侵害個人權利的風險可謂無處不在。在人工智能技術權力的影響下,人工智能技術既給各個主體帶來了相同的風險,也給不同主體造成了具有特殊性的風險,這使得人工智能時代的風險具有差異普遍性的特性。
四、人工智能技術權力影響下人工智能技術風險的法律分配困境
風險本身無法完全避免,預防風險只能起到部分作用。而人工智能技術權力給人工智能技術風險帶來了新的變化,使人工智能技術風險的特性變得更加復雜,單從時間維度看,風險的提前到來更加壓縮了預防風險的空間。如何公平地分配風險是當下將人工智能技術風險造成的負面影響控制在合理范圍較為有效的方法。但法律作為分配風險的利器,卻在分配人工智能技術風險時存在諸多困境,這對人類如何應對風險提出了新挑戰。
(一)人工智能技術風險的風險承擔主體選擇困境
通常情況下,誰產生風險誰就承擔風險責任,這是典型的“行為-責任”機制,也是侵權責任的構成核心。例如《個人信息保護法》第六十六條規定:“違反本法規定處理個人信息……由履行個人信息保護職責的部門責令改正,給予警告,沒收違法所得。”這是典型的“行為-責任”機制。風險的歸責問題是應對風險的關鍵所在。在某種意義上,對一個事件負責的人也可以被說成是這個事件的制造者,其意思是將這個概念同因果性或者施動者(agency)連接起來。安東尼·吉登斯:《風險與責任》,肖瑛譯。人工智能技術風險具有非完全的人為性的特性,這種特性使得人工智能系統本身具有了產生風險的可能,因此其可以是承擔風險的主體。當然這只是理論上的問題,因為人工智能系統并不具有主觀能動性。康德認為只有在對主體的行為后果進行歸責時才能談到責任。只有當我們考慮到主體不僅屬于自然世界也屬于理智世界,他們是自主的、有能力的、能夠按照理性規則行事的主體時,談論責任才是可能的。D.克魯科金:《責任與正義的限度》,袁鑫譯,《世界哲學》2021年第5期。在侵權責任中,行為人是否有相應的民事責任能力也是判斷其是否構成侵權并承擔責任的重要前提。因此不具有主觀能動性的人工智能系統無法成為承擔人工智能技術風險的責任主體。實踐中,當發生自動駕駛汽車侵權、人工智能大數據殺熟侵權、人工智能人臉識別侵權等侵權行為時,人們也確實無法讓人工智能系統本身承擔責任。那么由誰來承擔本應由人工智能系統承擔的這部分責任呢?由于這種責任并非人引起的,使“行為-責任”機制不再適用,無論是由人工智能技術開發者還是由使用者,或者其他人來承擔這部分責任,都缺乏正當依據,顯然這是當下法律所難以解決的問題。
(二)風險責任承擔主體的歸責困境
當人工智能系統制造的風險造成損害時,暫且拋開人工智能系統的責任份額不談,追究人工智能使用者的不當使用或是設計與制造者設計缺陷的責任似乎是可行的。在“行為-責任”機制中,要想從“行為”通達“責任”就需要有“原因”,這在侵權責任中通常包含了“損害事實”“因果關系”“過錯”這三個構成要件。但風險社會中,因現代分工合作的社會體制為“有組織地不負責任”提供了幫助。周戰超:《當代西方風險社會理論引述》,《馬克思主義與現實》2003年第3期。不僅如此,人工智能技術風險的不確定性導致了風險發生時與發生后一切都是未知的。這使得當下緊密的工業化網絡中,因果關系交錯復雜,現實化的危害結果在很多情況下已不可能用單一的因果關系來進行解釋。勞東燕:《風險社會與功能主義的刑法立法觀》,《法學評論》2017年第6期。也即是說在人工智能技術風險的影響下,通過“因果關系”進行歸責存在困境。而當下法律擺脫這一困境的方法是繞過因果關系選擇使用“過錯推定”或者“嚴格責任”為歸責原則。“過錯推定”是要求人工智能的使用者或設計與制造者自證在人工智能的使用、設計、制造中無過錯,否則將承擔相應責任。“嚴格責任”則是要求人工智能的使用者或設計與制造者在沒有第三人的過錯和受害人的過失以及不可抗力因素時直接承擔無過錯責任。“過錯推定”與“嚴格責任”在過去多種人造風險中都是較為實用的歸責原則,但人工智能“黑箱”的存在讓這兩種原則皆難以適用。因為人工智能“黑箱”會使得人工智能系統的使用者或設計與制造者難以證明其在人工智能系統造成的損害中沒有過錯,因此“過錯推定”就易演變為“嚴格責任”。而“嚴格責任”的歸責原則雖然經常適用于產品責任領域,但人工智能系統本身存在諸多不確定性,而且這些不確定性通常和人工智能系統觸發風險之前的經歷有關,比如其行為可能會根據基于事件發生地的不同道德標準進行決策。Samir Chopra, Laurence F. White, A? Legal Theory for Autonomous Artificial Agents,Ann Arbor:University of Michigan Press, 2011, p.137.因此同一人工智能產品可能在不同時空會有不同的判斷,實際上是將風險的發生提前了,這樣就很難認定人工智能本身是否存在缺陷,所以“嚴格責任”的適用可能存在公平與否的問題。最終,僅憑“損害事實”這一“原因”就無法使“行為”通達“責任”。
(三)風險責任的份額分配困境
在人工智能技術風險的前述兩種情況中,法律都難以通過“行為-責任”機制找到相應的責任承擔者,這種情況下還有一個辦法那就是法律提前對行為作出評價強行適用“行為-責任”機制。例如在傳統駕駛中,法律通常在交通事故發生后,扮演行為和責任事后認定和評價的角色。但在自動駕駛的緊急情況中,法律所發揮的作用則恰好相反,法律的規定決定了自動車輛的程序在緊急情況發生時,將會如何進行實踐推理,并形成最終的決定。駱意中:《法理學如何應對自動駕駛的根本性挑戰?》,《華東政法大學學報》2020年第6期。不過這種解決方法在面臨“電車難題”這樣的多方主體出現利益沖突時,法律如何分配責任就存在困難。這是由于人工智能技術所造成的風險具有差異普遍性的特性,所以當人工智能陷入類“電車難題”困境時,其決策可能導致不同主體將承受不同的風險。在自動駕駛中,使用者一定不會接受人工智能系統做出可能威脅其生命健康權的決策,因此人工智能系統的設計與制造者為了經濟利益也傾向于在遭遇“電車難題”時首先命令人工智能系統做出保護駕駛員的決定。但這讓作為人工智能設計與制造者的社會權力持有主體擁有了逾越國家權力擅自處分他人人身權利的能力,這是國家權力所不能接受的。而國家權力的過多介入又可能使人工智能的開發受阻,這當然又是社會權力持有者所難以接受的。因此,法律即使提前應對人工智能產生的風險,仍然需要考慮由誰來承擔“電車難題”決策風險以及在何種程度上承擔風險的問題。
五、基于羅爾斯正義理論的人工智能技術風險的法律分配路徑
在人工智能技術權力特性影響下,對人工智能技術風險的分配所面臨的諸多困境實際上都是“行為”如何通達“責任”的問題,需要法律締造一種行為機制模式,以風險行為為核心進行責任分配,使風險行為與責任承擔之間產生一種直接聯系,使風險的承擔達到一種平衡狀態,這是法律介入風險分配領域的理論基礎與基本邏輯。何國強:《風險社會、風險分配與侵權責任法的變革》,《廣東社會科學》2018年第3期。也就是說在人工智能技術風險的法律分配困境中,要么使“行為”直接能夠合理地與“責任”相連,要么打通“行為”通達“責任”的路徑。羅爾斯的分配正義理論為此提供了理論基礎。
(一)構建類“原初狀態”的風險的法律分配環境
人工智能技術權力具有的多種特性所導致的人工智能技術風險的法律分配困境歸根結底是因為人類無法有效掌控人工智能技術權力而導致的。在這種情況下,因缺乏令人信服的分配理由,法律很難直接要求某一主體承擔責任。而一個令人信服的分配理由則需要在一個公平的風險分配環境中才能誕生,因此首先需要建立一個公平的法律風險分配環境,為“行為”重新通達“責任”提供基礎。眾所周知,羅爾斯期望通過建立“無知之幕”從而通達“原初狀態”,其中“原初狀態”是一種其間所達到的任何契約都是公平的狀態,是一種各方在其中都是作為道德人的平等代表、選擇的結果不受任意的偶然因素或社會力量的相對平衡所決定的狀態。約翰·羅爾斯:《正義論》(修正版),何懷宏、何包鋼、廖申白譯,北京:中國社會科學出版社,2009年,第92—93頁。而為了通達“原初狀態”的“無知之幕”則是指人們處在一種不知道各種選擇對象將如何影響他們自己的特殊情況,他們不得不僅在一般考慮的基礎上對原則進行評價。約翰·羅爾斯:《正義論》(修正版),何懷宏、何包鋼、廖申白譯,第105—106頁。恰好,處在不同處境的主體在面對人工智能技術所帶來的風險時,都不清楚人工智能系統的決策原因,人工智能技術權力這種難以為人類所掌控的特性天然與“無知之幕”具有相似性,因此通過這種“無知之幕”建立類“原初狀態”的法律分配環境也是尋求令人信服的分配理由應當去追求的。不過要建立類“原初狀態”也并非輕而易舉,在人工智能技術風險的法律分配環境中,各個主體之間對人工智能技術的了解是不對稱的,這使得在人工智能的“無知之幕”外還有其他因素直接影響類“原初狀態”的形成。因此,盡力消除社會權力持有主體、國家、個人之間的信息不對稱是建立類“原初狀態”的前提。
社會權力是人工智能技術權力的載體之一,并且社會權力的持有主體通常還是人工智能技術的開發主體,因此其天然比其他主體掌握了更多的人工智能技術信息,憑借這一點,其可以蒙蔽其他主體并濫用社會權力影響“原初狀態”的形成。國家權力作為人工智能技術權力的另一載體,其雖也掌握大量的人工智能技術信息但掌握的時間卻滯后于社會權力持有主體,這一時間差足以造成社會權力持有主體與國家在人工智能技術上的信息不對稱。對個人而言,人工智能技術多數情況下是一個難以觸及的領域,個人不僅難以掌握人工智能技術,甚至缺乏了解的渠道,是掌握人工智能技術信息最少的主體。當然,縮小各主體在掌握人工智能技術信息上的差距并不意味著要使其所掌握的信息完全一樣,而是達到基本平衡來構建一種類“原初狀態”。因為不可能為了所有主體特別是個人都掌握同樣的信息而遲滯人工智能技術的開發,所以主要目的是讓社會權力持有主體與國家能夠盡量平衡包括掌握時間在內的人工智能技術信息。對于個人,實際上在羅爾斯的假設中,個人已經在“原初狀態”中選擇了社會基本結構,在這一社會基本結構中國家在假定的社會契約中建立并負有保護個人權利的職責。羅爾斯的正義理論實際上是從洛克、盧梭和康德所代表的社會契約觀念發展而來,只不過是一種假定的社會契約。具體參見約翰·羅爾斯:《萬民法》,張曉輝、李仁良、邵仁麗、李鑫譯,長春:吉林人民出版社,2001年,第192頁;張乃根:《當代西方法哲學主要流派》,上海:復旦大學出版社,1993年,第53頁。當然,由于國家也是人工智能技術權力的持有主體,因此個人仍然需要有了解必要的人工智能技術基本信息的公開渠道,以監督國家對個人權利的保護。
那么平衡社會權力持有主體與國家在掌握人工智能技術信息上的差距,使個人掌握必要的人工智能技術信息就是建立類“原初狀態”的關鍵。當然這也并不是要求所有的人工智能技術信息都要保持雙方的信息對稱,目前對此有迫切要求的是《個人信息保護法》與《數據安全法》等規定有保護個人權利的法律法規中所涉及的信息。例如《個人信息保護法》第三條規定:在中華人民共和國境內處理自然人個人信息的活動,包括(一)以向境內自然人提供產品或者服務為目的;(二)分析、評估境內自然人的行為;(三)法律、行政法規規定的其他情形。要實現這一目的,建立一種“沙箱”機制是有必要的。“沙箱”機制背后的理念是讓國家監管機構批準一個特定的、不受監管的“實驗環境”,以測試破壞性技術對現有法規的影響。Lee Z., Karim M., Ngui K., et al., “Deep Learning Artificial Intelligence and the Law of Causation: Application, ”Challenges and Solutions Information & Communications Technology Law, vol.30, no.3,2021,p.18.“沙箱”本身就是一種類“原初狀態”,其可以使各個主體在其中都如同處于“無知之幕”之中,這種機制一方面可以為人工智能技術的發展提供一個更好的空間,另一方面,也使得國家能夠在新型人工智能技術應用于實踐前提前掌握相應的信息,檢查人工智能系統中是否存在帶有歧視性的指令、非清潔的數據等等人為因素,使社會權力持有者與國家所掌握的人工智能技術信息處于同一水平線上。不僅如此,個人也因“沙箱”的存在而有足夠的機會參與其中,表達自己的訴求,加強對新人工智能技術進行了解。最終,“沙箱”機制就因平衡了各個主體對人工智能技術信息的掌握程度而為法律公平分配人工智能技術風險提供了環境。
(二)以純粹程序正義為基礎重塑歸責機制
人工智能技術權力具有極難解釋性的特性,這使得人工智能技術風險具有雙重不確定性,“行為”因缺少“過錯”導致“過錯責任”與“嚴格責任”難以實行,最終“行為”難以通達“責任”。由于這本質上是人工智能技術“黑箱”所致,因此如何解決“黑箱”問題則成為關鍵。不過“黑箱”問題并非目前的技術能夠輕易解決的,所以仍然需要一種正義的手段為“過錯”的證明提供渠道。
歷史上最早的正義要求現在看來就是一種程序上的正義,如《圣經》告誡法官“既聽取隆著者也聽取卑微者”等等。馬丁·P·戈爾丁:《法律哲學》,齊海濱譯,北京:生活·讀書·新知三聯書店,1987年,第235頁。這即程序正義,在此要求下一個公平的法律程序組織可以最大限度地增加作出公正決定的可能性。麥考密克,魏因貝爾格:《制度法論》,周葉謙譯,北京:中國政法大學出版社,1994年,第262頁。因此,一個正義的法律程序是證明“過錯”的關鍵。羅爾斯在程序正義理論中將程序正義分為完善的程序正義、不完善的程序正義、純粹的程序正義。約翰·羅爾斯:《正義論》(修正版),何懷宏、何包鋼、廖申白譯,第66—68頁。其中,完善的程序正義在實踐中難以運用于法律,而不完善的程序正義即便被仔細遵守仍然可能得出令人不滿的結論,因此在羅爾斯看來,純粹的程序正義是最值得推崇的。在純粹的程序正義下,當每一個人都遵守公眾承認的合作規則,并履行這些規則所規定的各項條款的時候,由此產生的社會基本益品的分配就可被接受為正義的,而無論這些分配的結果是什么。約翰·羅爾斯:《作為公平的正義——正義新論》,姚大志譯,上海:上海三聯書店,2002年,第81頁。若在人工智能技術風險責任承擔的“過錯”證明中遵守純粹的程序正義,那么“過錯”的證明就可以有具體的標準,最終即便在實踐中存在一些不公平的情況,但因為這是所有主體在“沙箱”(“原初狀態”)中選擇的規則,因此仍然是正義的。
純粹的程序正義為“過錯”的證明提供了可能,不過這在實踐中還需要細化,因此可以分階段設定法律規則。第一階段,國家應當對整個人工智能行業提供一套較為寬泛且能夠證明的“過錯”法律標準。例如要求人工智能的使用者或設計與制造者證明其已經按照《個人信息保護法》《數據安全法》《網絡安全法》等法律的要求做到了例如獲取信息前取得信息所有人同意,處理信息時采用去標識化的處理手段,進行自動化決策時征求受影響人同意等等現行法律的基本要求。若其能夠證明在這一階段沒有過錯,則進入下一階段。第二階段,國家及各部門根據人工智能技術風險所屬的領域制定相應的具有“過錯”標準的行政法規或部門規章。這時,相關風險領域的政府部門應成立相應的機構,邀請社會權力持有主體、個人參與其中,共同探討“過錯”標準,只有當人工智能的使用者或設計與制造者能證明其在該階段沒有過錯時,才能進入下一階段。第三階段,在國家相關部門監督下由最了解人工智能技術的社會權力持有主體自己制定具有詳細“過錯”標準的行業規則,因為這更有利于規則的細化。只有當人工智能的使用者或設計與制造者在第三階段仍然能夠證明其無過錯時,才能認為其可以不在人工智能技術風險中承擔責任。否則,只要沒有達成上述任何一個階段的要求,人工智能的使用者或設計與制造者都應承擔“嚴格責任”。
(三)基于動態監管的責任份額分配模式
人工智能技術權力具有雙重控制力的特性,這使得人工智能技術風險也具有了差異普遍性的特性。即便是建立了“沙箱”(類“原初狀態”)作為公平的分配環境以及堅持了純粹程序正義作為“過錯”的證明渠道,但由于這種特性的存在,各個主體所受人工智能技術風險的影響各不相同,因此在不少場合仍然難以達成共識。這時就需要國家出面進行監管,強制性地分配人工智能技術風險中各主體應承擔的責任份額。
當然即便是國家的強制性分配,實際上也應當遵守在“沙箱”(類“原初狀態”)中選擇出的規則。在羅爾斯那里,人們經過反復思量選擇出的是正義二原則,其中有利于解決目前人工智能技術風險中責任份額分配困境的是差別原則。差別原則認為社會和經濟的不平等(例如財富和權力的不平等)只有在其結果能給每一個人尤其是那些最少受惠的社會成員帶來補償利益時,它們才是正義的。約翰·羅爾斯:《正義論》(修正版),何懷宏、何包鋼、廖申白譯,第12頁。人工智能技術風險具有差異普遍性的特征,處在風險中的各個主體承受著各不相同的風險,既有最大的受惠者,也有最不利益者,差別原則正好提供了一個用于解決這些問題的契合思路。也即是說人工智能技術風險的責任份額分配要保證每一個主體的利益,特別是保證最不利主體的利益時,才是正義的分配方式。需要注意的是這并不是以最不利主體的利益為核心,否則像人工智能這樣的先進技術無法持續發展。使用羅爾斯這樣的分配方式實際上是在追求帕累托最優,是希望每個主體的利益繼續增長的同時,在最不利者能夠獲利的最大極值之處進行利益分配。羅爾斯通過著名的OP曲線對此進行了詳細的描述,因為超過某個極值時,最不利者的獲利將隨最有利者的利益增加而減少,因此完美滿足差別原則的位置就是極值之處。參見約翰·羅爾斯:《正義論》(修正版),何懷宏、何包鋼、廖申白譯,第59—61頁。在人工智能技術風險影響下,每個主體雖有各自的難處,但掌握人工智能技術信息最少的個人一定是最不利者。那么使用法律對人工智能技術風險的責任份額進行分配,關鍵就是如何分配各個主體在人工智能技術風險中的權利與義務,既使每個主體的利益都能夠得到保證,又能使個人在其中獲得其能夠獲得的最大利益。
對權利與義務的分配當然仍然需要程序正義的法律機制,但如果要最大程度地契合差別原則,那么就不可避免地需要加入實質正義的因素。事實上,羅爾斯在其后期的觀點中也認為一種程序的正義總是依賴于實質正義,程序正義與實質正義是相互聯系而非相互分離的。約翰·羅爾斯:《政治自由主義》,萬俊人譯,南京:譯林出版社,2002年,第449頁。但加入哪些實質因素才能達到差別原則的要求呢?這里羅爾斯的反思平衡理論為這一問題提供了解法。反思平衡是一種不斷調整道德判斷和道德原則并使之相互和諧一致的過程。姚大志:《反思平衡與道德哲學的方法》,《學術月刊》2011年第2期。這里需要借鑒的是反思平衡的邏輯,也即是法律在分配各個主體在人工智能技術風險中的權利與義務時,可以先假定一些基本原則,通過這些基本原則來確定一些為達到差別原則目的的規則,然后根據規則的實踐情況,如有不足之處再回頭調整規則或原則,最終盡量滿足差別原則的要求。為了反思平衡的實現,就需要建立一種動態監管的模式。國家應將對人工智能技術的監管視為一種“有節制的決策”形式,也就是說,監管選擇是開放式的、高度偶然性的選擇,只是較長過程中的一個階段或元素,而不是對特定問題的“最終決定”。Corrales M., Fenwick M., Forgó N.,Robotics, Ai and the Future of Law, Singapore:Springer Singapore, 2018, p.88.這時通過原則設定的規則也應采用更容易更改的行政法規或部門規章,因為相對法律,它們能夠更容易納入不同的觀點,即便是出現了差錯也更容易更改。Casey B., Lemley Mark A., “You Might Be a Robot,”Cornell Law Review, vol.105, no.2,2020, p.295.最終當能盡量達到差別原則所要求的滿足各方主體的利益,特別是保證個人利益時,這種情況下所進行的人工智能技術風險責任份額的法律分配就將是合理的。
“沙箱”(類無知之幕)的建立為人工智能技術權力影響下的人工智能技術風險的法律分配提供了一個公平的環境,使各方主體能夠在其中共同選擇出合理的法律規則來實現“行為”通達“責任”。即便是難以適用“行為-責任”機制與難以達成共識時,也可以利用類反思平衡的方式進行風險的法律分配,盡量達到差別原則的要求,最終使人工智能技術風險造成的影響控制在可接受的范圍。
(責任編輯:周中舉)