高完成,寧卓名
(鄭州大學(xué) 私法研究中心,河南 鄭州 450001)
在科技變革的時(shí)代,人工智能正在深刻改變著人類的社會(huì)生活。以智能機(jī)器人和智能網(wǎng)聯(lián)汽車等為代表的人工智能產(chǎn)品已經(jīng)從科幻小說(shuō)進(jìn)入現(xiàn)實(shí)社會(huì)。為搶抓人工智能發(fā)展的重大戰(zhàn)略機(jī)遇,國(guó)務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,其中明確提出“推動(dòng)重點(diǎn)領(lǐng)域智能產(chǎn)品創(chuàng)新,積極培育人工智能新興業(yè)態(tài)”。國(guó)務(wù)院印發(fā)的《中國(guó)制造2025》也提出“建立智能制造產(chǎn)業(yè)聯(lián)盟,協(xié)同推動(dòng)智能裝備和產(chǎn)品研發(fā)、系統(tǒng)集成創(chuàng)新與產(chǎn)業(yè)化”。這預(yù)示著人工智能技術(shù)與產(chǎn)業(yè)領(lǐng)域深度融合的智能經(jīng)濟(jì)形態(tài)蘊(yùn)含巨大潛力。人工智能產(chǎn)品的應(yīng)用能夠?yàn)槿祟愄峁└哔|(zhì)量的服務(wù),有助于顯著改善生產(chǎn)效率和安全水平[1]。但客觀而言,人工智能產(chǎn)品也并非不存在任何風(fēng)險(xiǎn),因人工智能系統(tǒng)自身原因?qū)е碌膿p害事故難以完全避免[2]。人工智能產(chǎn)品以智能系統(tǒng)為運(yùn)行核心,算法程序的缺陷易引發(fā)系統(tǒng)性的風(fēng)險(xiǎn),這將可能導(dǎo)致大規(guī)模侵權(quán)責(zé)任事故的發(fā)生。人工智能產(chǎn)品具有一定程度的復(fù)雜性、自主性和難以預(yù)測(cè)性,當(dāng)其發(fā)生致人損害的事故,將會(huì)使得現(xiàn)行侵權(quán)責(zé)任制度面臨嚴(yán)峻挑戰(zhàn)。如智能網(wǎng)聯(lián)汽車發(fā)生致?lián)p事故將導(dǎo)致現(xiàn)行機(jī)動(dòng)車交通事故責(zé)任規(guī)則在具體適用時(shí)捉襟見(jiàn)肘;在產(chǎn)品責(zé)任的法律框架下,智能軟件的產(chǎn)品屬性存在爭(zhēng)議、人工智能產(chǎn)品缺陷的認(rèn)定異常復(fù)雜、產(chǎn)品責(zé)任主體范圍不易確定等難題也會(huì)接踵而至。由此可見(jiàn),如果不能妥善應(yīng)對(duì)人工智能產(chǎn)品致害風(fēng)險(xiǎn)及其所引發(fā)的侵權(quán)責(zé)任問(wèn)題,將可能給人工智能產(chǎn)業(yè)的良性發(fā)展埋下隱患[3]。
國(guó)外紛紛出臺(tái)有關(guān)人工智能產(chǎn)品致害風(fēng)險(xiǎn)與侵權(quán)責(zé)任規(guī)制方面的法律政策文件,旨在為人工智能技術(shù)的快速發(fā)展及應(yīng)用掃清法律上的障礙。2019 年國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,明確提出要在推動(dòng)人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時(shí),及時(shí)發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險(xiǎn),完善治理體系,推動(dòng)治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期。我國(guó)現(xiàn)行法并未針對(duì)人工智能產(chǎn)品的致害風(fēng)險(xiǎn)與侵權(quán)責(zé)任問(wèn)題作出直接明確規(guī)定,相關(guān)法律難題仍亟待解決。基于此,本文擬對(duì)人工智能產(chǎn)品致害風(fēng)險(xiǎn)及其引發(fā)的侵權(quán)責(zé)任疑難問(wèn)題展開深入研究,探索適合我國(guó)人工智能產(chǎn)品的法律規(guī)制路徑。
人工智能產(chǎn)品作為新一輪工業(yè)革命的科技產(chǎn)物,具有引領(lǐng)未來(lái)社會(huì)、經(jīng)濟(jì)和生活變革的巨大發(fā)展?jié)摿Α.?dāng)前學(xué)界對(duì)人工智能產(chǎn)品還未形成統(tǒng)一的定義,相較于普通產(chǎn)品而言,人工智能產(chǎn)品具有顯著的技術(shù)特性,自主決策能力和深度學(xué)習(xí)能力使其具備了“擬人”表征。理解人工智能產(chǎn)品的科技品性,可以從典型意義上的人工智能產(chǎn)品類型——智能機(jī)器人和智能網(wǎng)聯(lián)汽車的基本特征出發(fā)。下文將主要以智能網(wǎng)聯(lián)汽車為例對(duì)人工智能產(chǎn)品的科技屬性予以簡(jiǎn)要闡述。
第一,人工智能產(chǎn)品具有自主決策能力。自主決策能力意味著人工智能產(chǎn)品能夠脫離人類的直接操縱而作出執(zhí)行決策方案。在人類駕駛機(jī)動(dòng)車的模式下,預(yù)測(cè)道路上其他人的行動(dòng)往往依賴于駕駛員的心理認(rèn)知系統(tǒng),即駕駛員通過(guò)觀察與交流作出瞬間潛意識(shí)的行動(dòng)決策,確保駕駛安全。在智能網(wǎng)聯(lián)汽車的應(yīng)用場(chǎng)景下,車輛裝載的傳感器能夠用于探測(cè)和監(jiān)控其他車輛,并接收有關(guān)交通流動(dòng)和數(shù)量、路況甚至天氣狀況的輸入信息[4]。智能網(wǎng)聯(lián)汽車通過(guò)運(yùn)用計(jì)算機(jī)程序系統(tǒng)組織和執(zhí)行與車輛駕駛有關(guān)的重要事項(xiàng),結(jié)合從傳感器和導(dǎo)航收集而來(lái)的數(shù)據(jù),并使用一系列先進(jìn)的算法規(guī)則以決定車輛將要移動(dòng)的位置是否安全[5]。
智能網(wǎng)聯(lián)汽車的自主決策能力集中體現(xiàn)在“感知-計(jì)劃-執(zhí)行”三個(gè)方面,這通常也是人工智能產(chǎn)品自主決策性能所普遍表現(xiàn)的特征[6]。在感知階段,智能網(wǎng)聯(lián)汽車運(yùn)用多種傳感器,如雷達(dá)、聲吶和攝像機(jī),以收集周圍環(huán)境的各類數(shù)據(jù);在計(jì)劃階段,將從多種傳感器接收到的數(shù)據(jù)傳輸給計(jì)算機(jī)系統(tǒng)進(jìn)行分析,并運(yùn)用復(fù)雜的軟件程序,作出合理的駕駛決策方案;在執(zhí)行階段,智能網(wǎng)聯(lián)汽車則按照既定的方案開始運(yùn)行[5]。“感知-計(jì)劃-執(zhí)行”的程序是伴隨自動(dòng)駕駛系統(tǒng)收集、分析數(shù)據(jù)而不間斷循環(huán)進(jìn)行的,這將能夠保障車輛運(yùn)行的最優(yōu)方案及時(shí)得到更新。
第二,人工智能產(chǎn)品具有深度學(xué)習(xí)能力。人工智能產(chǎn)品的技術(shù)特征還表現(xiàn)為其具有深度學(xué)習(xí)能力。機(jī)器學(xué)習(xí)是計(jì)算機(jī)科學(xué)的一個(gè)分支領(lǐng)域,它關(guān)注的是能夠從經(jīng)驗(yàn)中學(xué)習(xí),隨著時(shí)間的推移從而提高在某些任務(wù)執(zhí)行上的表現(xiàn)[7]。智能網(wǎng)聯(lián)汽車實(shí)現(xiàn)自主駕駛是一項(xiàng)非常復(fù)雜和不可預(yù)測(cè)的任務(wù),以至于很難使用固定的計(jì)算機(jī)程序來(lái)指令它的一切行動(dòng)[8]。正是由于這個(gè)原因,智能網(wǎng)聯(lián)汽車依賴于算法(algorithm)這種靈活的程序技術(shù),通過(guò)如何分析數(shù)據(jù)并提供好的相關(guān)例證來(lái)訓(xùn)練自動(dòng)駕駛系統(tǒng)的決策邏輯。因此,智能網(wǎng)聯(lián)汽車的自主決策能力不是由人類程序員事先編好的程序規(guī)則來(lái)實(shí)現(xiàn)的,而是依賴深度學(xué)習(xí)算法來(lái)不斷更新的[5]。
盡管人工智能產(chǎn)品具備自主學(xué)習(xí)能力和深度學(xué)習(xí)能力而較普通產(chǎn)品表現(xiàn)出“擬人”特征,但并不當(dāng)然意味著其能夠因此獲得法律上的民事主體資格。由于人工智能產(chǎn)品不具有生物學(xué)意義上的人體和人腦,不具有法律上的人格屬性,因而其不可能成為法律意義上的民事主體[9]。人工智能產(chǎn)品本質(zhì)上仍然歸屬于“人工智能物”的范疇[10],與普通產(chǎn)品的法律定位并無(wú)根本性差別。
人工智能產(chǎn)品盡管蘊(yùn)含巨大的發(fā)展?jié)摿Γ瑫r(shí)也存有不可避免的致害風(fēng)險(xiǎn)。人工智能產(chǎn)品的致害風(fēng)險(xiǎn)具有科技風(fēng)險(xiǎn)的基本特征,即風(fēng)險(xiǎn)普遍較高且具有典型的滯后性[11]。人工智能產(chǎn)品致人損害的風(fēng)險(xiǎn)主要可以分為三種類型:一是第三人通過(guò)非法侵入的方式控制人工智能產(chǎn)品系統(tǒng)進(jìn)而造成他人的損害;二是人工智能產(chǎn)品的使用人因不當(dāng)使用而導(dǎo)致?lián)p害后果的發(fā)生;三是人工智能產(chǎn)品存在自身缺陷而造成損害的后果。由此可見(jiàn),除人工智能產(chǎn)品自身缺陷原因之外,無(wú)論是人工智能產(chǎn)品使用者的問(wèn)題,還是來(lái)自其他的外部非法原因,都可能加劇人工智能產(chǎn)品的致害風(fēng)險(xiǎn)[12]。由于人工智能產(chǎn)品充分借助算法的程序規(guī)則,致害風(fēng)險(xiǎn)往往具有系統(tǒng)性。人工智能技術(shù)在社會(huì)生活各個(gè)領(lǐng)域應(yīng)用的日益增多以及自動(dòng)化的倍增效應(yīng),也會(huì)在一定程度上加劇這些技術(shù)風(fēng)險(xiǎn)可能造成的損害后果。在一個(gè)萬(wàn)物互聯(lián)的新興數(shù)字社會(huì)中,人工智能產(chǎn)品的致害后果很容易像病毒一樣迅速傳播,容易引發(fā)大規(guī)模侵權(quán)責(zé)任致害事故。
人工智能技術(shù)的特點(diǎn)是其有限的可預(yù)測(cè)性,這種現(xiàn)象將隨著機(jī)器學(xué)習(xí)的深入而愈加明顯。由于人工智能產(chǎn)品設(shè)備存在互聯(lián)性,一旦人工智能產(chǎn)品所依賴的網(wǎng)絡(luò)系統(tǒng)遭到侵害威脅,就可能導(dǎo)致對(duì)人工智能產(chǎn)品性能的安全預(yù)測(cè)變得更加困難。另外,人工智能產(chǎn)品系統(tǒng)可能還存在不透明性,這往往會(huì)給受害者帶來(lái)不合理的舉證困難或增加證明責(zé)任成本。在一些情形下,人工智能產(chǎn)品制造商只是為其產(chǎn)品創(chuàng)建了一個(gè)通用的基本框架,而沒(méi)有對(duì)其進(jìn)行詳細(xì)的設(shè)計(jì),當(dāng)人工智能產(chǎn)品的缺陷可能是由于產(chǎn)品所處環(huán)境的影響或產(chǎn)品自身的原因造成時(shí),將使得受害者無(wú)法確定一般用戶對(duì)人工智能產(chǎn)品有權(quán)期望的安全性。
2019年歐盟委員會(huì)設(shè)立的“責(zé)任和新技術(shù)專家組”在對(duì)人工智能產(chǎn)品致?lián)p事故的民事責(zé)任進(jìn)行評(píng)估時(shí)認(rèn)為,現(xiàn)行的賠償責(zé)任制度能夠在一定程度上對(duì)因使用人工智能技術(shù)而遭受的損害進(jìn)行基本救濟(jì),但是這些技術(shù)及其應(yīng)用程序的特殊性,包括在運(yùn)行過(guò)程中通過(guò)更新或自主學(xué)習(xí)進(jìn)行修改、有限的可預(yù)測(cè)性、復(fù)雜性以及網(wǎng)絡(luò)安全的脆弱性,都可能會(huì)使受害者在現(xiàn)行侵權(quán)責(zé)任的救濟(jì)范圍內(nèi)難以獲得完全賠償,并且現(xiàn)行侵權(quán)責(zé)任制度也可能存在責(zé)任分配不公或效率低下的不足之處[13]。在面對(duì)新興科技帶來(lái)的挑戰(zhàn)時(shí),侵權(quán)責(zé)任制度的充分性和完整性對(duì)社會(huì)而言至關(guān)重要。如果該責(zé)任體系不完善或存在缺陷,或在處理人工智能技術(shù)造成的損害方面存在缺漏,將可能導(dǎo)致受害者最終得不到有效賠償。在應(yīng)對(duì)人工智能產(chǎn)品引發(fā)的致害風(fēng)險(xiǎn)方面,現(xiàn)有侵權(quán)責(zé)任制度存在的不足也可能抑制預(yù)期的發(fā)展利益。
1.對(duì)致?lián)p事故責(zé)任適用路徑的影響
由于人工智能產(chǎn)品的自主性特征,當(dāng)其發(fā)生致人損害的事故后,將對(duì)既有的侵權(quán)責(zé)任適用路徑造成沖擊,這在機(jī)動(dòng)車交通事故責(zé)任領(lǐng)域尤為明顯。現(xiàn)代社會(huì)“車禍猛于虎”,機(jī)動(dòng)車一方因過(guò)錯(cuò)造成的人身傷亡或財(cái)產(chǎn)損失觸目驚心。現(xiàn)行機(jī)動(dòng)車交通事故侵權(quán)責(zé)任制度是專門調(diào)整機(jī)動(dòng)車所有人、使用人等主體關(guān)于機(jī)動(dòng)車交通事故糾紛的一類特殊民事責(zé)任規(guī)則,其主要規(guī)范的是以人類駕駛行為作為構(gòu)造基礎(chǔ)的機(jī)動(dòng)車交通事故損害賠償?shù)呢?zé)任問(wèn)題。然而,在智能網(wǎng)聯(lián)汽車的應(yīng)用場(chǎng)景下,由于自主駕駛系統(tǒng)取代了人類駕駛員的操作,事實(shí)上智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害并不是基于人類駕駛員的操作行為而引起的,這就導(dǎo)致現(xiàn)行機(jī)動(dòng)車交通事故責(zé)任規(guī)則不能有效調(diào)整智能網(wǎng)聯(lián)汽車發(fā)生的交通事故責(zé)任糾紛案件。
有觀點(diǎn)主張,針對(duì)智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害的案件,可以通過(guò)將自主駕駛系統(tǒng)生產(chǎn)者解釋為保有人的地位從而使其承擔(dān)駕駛?cè)素?zé)任的處理方式,這并未對(duì)既有機(jī)動(dòng)車交通事故責(zé)任規(guī)則造成實(shí)質(zhì)性的影響[14]。筆者認(rèn)為,將自主駕駛系統(tǒng)生產(chǎn)者解釋為機(jī)動(dòng)車保有人的設(shè)想過(guò)于牽強(qiáng),因?yàn)樽灾黢{駛系統(tǒng)生產(chǎn)者并不符合作為機(jī)動(dòng)車保有人的基本條件,即不具備機(jī)動(dòng)車的運(yùn)行支配與運(yùn)行利益兩個(gè)基本標(biāo)準(zhǔn)[15]。一方面,自主駕駛系統(tǒng)生產(chǎn)者在事實(shí)上并不處于完全控制智能網(wǎng)聯(lián)汽車運(yùn)行的地位。正如前文所述,智能網(wǎng)聯(lián)汽車在運(yùn)行程序上具有自主決策能力,自主駕駛系統(tǒng)借助深度學(xué)習(xí)能夠作出車輛行駛方面的決策方案,而不是由自主駕駛系統(tǒng)生產(chǎn)者實(shí)時(shí)進(jìn)行操控。另一方面,自主駕駛系統(tǒng)生產(chǎn)者在將產(chǎn)品投入市場(chǎng)之后難說(shuō)對(duì)智能網(wǎng)聯(lián)汽車的運(yùn)行持續(xù)享有直接利益,投入流通領(lǐng)域之后的智能網(wǎng)聯(lián)汽車所有者或使用者更加符合享有運(yùn)行利益的主體。因此,以智能網(wǎng)聯(lián)汽車為代表的人工智能產(chǎn)品發(fā)生致?lián)p事故首先會(huì)對(duì)現(xiàn)行機(jī)動(dòng)車交通事故侵權(quán)責(zé)任規(guī)制路徑帶來(lái)嚴(yán)重沖擊,機(jī)動(dòng)車交通事故侵權(quán)責(zé)任制度在智能網(wǎng)聯(lián)汽車的應(yīng)用場(chǎng)景下恐將面臨一場(chǎng)嚴(yán)峻的危機(jī)。
可以預(yù)期的是,隨著人工智能技術(shù)的逐步改良,全面實(shí)現(xiàn)自主駕駛而不需要人類干預(yù)的目標(biāo)指日可待。由于在完全實(shí)現(xiàn)自主駕駛的應(yīng)用場(chǎng)景下,智能網(wǎng)聯(lián)汽車發(fā)生交通事故致人損害將不再歸責(zé)于車內(nèi)人員的駕駛行為,車輛本身的故障原因?qū)⒊蔀橹聯(lián)p事故的“罪魁禍?zhǔn)住保蚨a(chǎn)品責(zé)任制度在智能網(wǎng)聯(lián)汽車交通事故致害責(zé)任體系中顯得尤為重要[16]。未來(lái)由智能網(wǎng)聯(lián)汽車導(dǎo)致的交通事故在很大程度上將主要?dú)w因于智能網(wǎng)聯(lián)汽車自身存在的缺陷問(wèn)題,理論上可以將智能網(wǎng)聯(lián)汽車交通事故侵權(quán)責(zé)任納入產(chǎn)品責(zé)任的范疇予以調(diào)整,因而產(chǎn)品責(zé)任制度在事實(shí)上更能獲得廣泛的認(rèn)可[17]。事實(shí)上,包括智能網(wǎng)聯(lián)汽車在內(nèi)的人工智能產(chǎn)品發(fā)生致?lián)p事故的情形,除由于第三人通過(guò)非法侵入的方式控制人工智能產(chǎn)品系統(tǒng)進(jìn)而造成他人損害及人工智能產(chǎn)品的使用人因不當(dāng)使用而導(dǎo)致?lián)p害后果能夠適用一般過(guò)錯(cuò)侵權(quán)責(zé)任之外,大多數(shù)人工智能產(chǎn)品致?lián)p事故均能夠在產(chǎn)品責(zé)任的法律框架內(nèi)予以分析和解決。因此,在對(duì)人工智能產(chǎn)品致人損害民事責(zé)任的認(rèn)定中,產(chǎn)品責(zé)任制度路徑將能夠發(fā)揮主要的調(diào)整功能。
2.對(duì)現(xiàn)行產(chǎn)品責(zé)任規(guī)則的挑戰(zhàn)
就人工智能產(chǎn)品致?lián)p事故的侵權(quán)責(zé)任適用路徑而言,盡管產(chǎn)品責(zé)任制度對(duì)此具有較大的適用空間,但是人工智能產(chǎn)品所具備的特殊性,也使得現(xiàn)行產(chǎn)品責(zé)任法律規(guī)則在具體適用時(shí)遭遇難題。
第一,智能軟件是否屬于產(chǎn)品存在爭(zhēng)議。智能軟件是否屬于產(chǎn)品責(zé)任法上“產(chǎn)品”的范疇,我國(guó)現(xiàn)行立法并未作出明確規(guī)定。隨著科學(xué)技術(shù)的進(jìn)步,智能軟件在社會(huì)發(fā)展進(jìn)程中所起的作用日益凸顯,是否將智能軟件納入“產(chǎn)品”的外延,直接關(guān)系到因智能軟件存在缺陷導(dǎo)致人工智能產(chǎn)品致人損害時(shí)能否適用產(chǎn)品責(zé)任的相關(guān)規(guī)則。對(duì)此,我國(guó)理論上的觀點(diǎn)也并不統(tǒng)一,存在“肯定說(shuō)”[18]與“否定說(shuō)”[19]。另外,當(dāng)人工智能產(chǎn)品開發(fā)過(guò)程中存在缺陷時(shí),由于智能軟件的非有體物形式,區(qū)分智能軟件技術(shù)中的制造缺陷或設(shè)計(jì)缺陷將是一項(xiàng)十分復(fù)雜的難題,并且對(duì)智能軟件缺陷的認(rèn)定亦存在較大困難[20]。
第二,人工智能產(chǎn)品致?lián)p事故是否仍適用嚴(yán)格責(zé)任原則存在疑問(wèn)。我國(guó)的產(chǎn)品責(zé)任制度一直將嚴(yán)格責(zé)任作為基本歸責(zé)原則,并認(rèn)為嚴(yán)格責(zé)任代表著世界范圍內(nèi)的立法潮流。事實(shí)上,作為現(xiàn)代產(chǎn)品責(zé)任法主要發(fā)源地的美國(guó),已經(jīng)在《侵權(quán)法重述第三版:產(chǎn)品責(zé)任》中對(duì)于嚴(yán)格責(zé)任進(jìn)行了重新調(diào)整并限縮其適用范圍,這在一定程度上反映了當(dāng)前美國(guó)產(chǎn)品責(zé)任法的最新發(fā)展趨勢(shì)[21]。近年,理論界開始對(duì)我國(guó)產(chǎn)品責(zé)任制度提出了一些基礎(chǔ)性的反思:嚴(yán)格責(zé)任是否應(yīng)根據(jù)產(chǎn)品缺陷類型的不同而考慮區(qū)別適用?嚴(yán)格責(zé)任是否能夠妥善平衡保護(hù)消費(fèi)者合法權(quán)益和鼓勵(lì)生產(chǎn)者研發(fā)創(chuàng)新之間的關(guān)系?面臨智能時(shí)代的發(fā)展機(jī)遇,我國(guó)是否有必要以人工智能產(chǎn)品為契機(jī)采取借鑒美國(guó)產(chǎn)品責(zé)任歸責(zé)原則的最新立場(chǎng)?上述諸多疑問(wèn)值得進(jìn)一步探究。
第三,人工智能產(chǎn)品致?lián)p事故的侵權(quán)責(zé)任主體難以確定。當(dāng)致?lián)p事故是因人工智能產(chǎn)品自身缺陷導(dǎo)致的,按照我國(guó)現(xiàn)行產(chǎn)品責(zé)任規(guī)則,將由人工智能產(chǎn)品的生產(chǎn)者、銷售者承擔(dān)不真正連帶責(zé)任[22]。然而,生產(chǎn)者、銷售者作為責(zé)任主體的固有思路在人工智能產(chǎn)品責(zé)任的場(chǎng)景下將可能發(fā)生改變。人工智能產(chǎn)品因故障致人損害通常是由于編程錯(cuò)誤或者系統(tǒng)故障造成的,這就可能涉及幾個(gè)不同的潛在責(zé)任主體,包括制造商、自主系統(tǒng)的零部件制造商、為產(chǎn)品自主操作編寫代碼的軟件開發(fā)商以及輔助產(chǎn)品智能應(yīng)用系統(tǒng)的設(shè)計(jì)者[3]。由于人工智能產(chǎn)品的復(fù)雜性,其制造過(guò)程需要涉及多方參與主體,當(dāng)出現(xiàn)產(chǎn)品缺陷致人損害的后果時(shí),確定各方主體之間責(zé)任承擔(dān)的問(wèn)題將變得異常復(fù)雜。
第四,人工智能產(chǎn)品致?lián)p事故責(zé)任的抗辯事由亟待更新。在產(chǎn)品責(zé)任中,抗辯事由的規(guī)范價(jià)值體現(xiàn)著法律對(duì)產(chǎn)品領(lǐng)域中生產(chǎn)者與消費(fèi)者之間風(fēng)險(xiǎn)的合理分配,是基于法政策現(xiàn)實(shí)考量的結(jié)果。我國(guó)《產(chǎn)品質(zhì)量法》第四十一條第二款規(guī)定了生產(chǎn)者不承擔(dān)責(zé)任的三項(xiàng)抗辯事由:未將產(chǎn)品投入流通的;產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在的;產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的(又稱為發(fā)展風(fēng)險(xiǎn)抗辯)。由于人工智能未來(lái)發(fā)展具有一定的不確定性和潛在風(fēng)險(xiǎn),甚至有專家預(yù)言人工智能將可能給人類社會(huì)帶來(lái)災(zāi)難性后果[23]。當(dāng)發(fā)生人工智能產(chǎn)品致人損害的侵權(quán)事故時(shí),生產(chǎn)者是否還能繼續(xù)援引發(fā)展風(fēng)險(xiǎn)作為抗辯事由將面臨疑問(wèn)。此外,面向人工智能產(chǎn)品的未來(lái)發(fā)展前景,為了實(shí)現(xiàn)保護(hù)消費(fèi)者的權(quán)益以及為企業(yè)研發(fā)提供良好的環(huán)境,使得產(chǎn)品責(zé)任制度更具有經(jīng)濟(jì)上的合理性,還有必要考慮如何更新既有的抗辯事由規(guī)則。
歐盟率先對(duì)以智能機(jī)器人為代表的人工智能產(chǎn)品致害民事責(zé)任進(jìn)行立法改革,這在世界范圍內(nèi)具有前瞻性和引領(lǐng)性的影響。對(duì)歐盟立法改革的主要內(nèi)容進(jìn)行深入考察與評(píng)述,有助于為我國(guó)人工智能產(chǎn)品致害侵權(quán)責(zé)任的法律應(yīng)對(duì)提供參考和借鑒。
為了迎接人工智能時(shí)代的到來(lái),歐盟較早對(duì)人工智能產(chǎn)品領(lǐng)域面臨的法律責(zé)任挑戰(zhàn)采取有力的應(yīng)對(duì)舉措。2017年歐洲議會(huì)通過(guò)《機(jī)器人民事法律規(guī)則的決議》(以下簡(jiǎn)稱《決議》),主要就以智能機(jī)器人造成損害的民事侵權(quán)責(zé)任與倫理規(guī)制問(wèn)題進(jìn)行了探索性規(guī)定。
《決議》首先區(qū)分了智能機(jī)器人致人損害時(shí),按照既有的法律框架可供選擇的責(zé)任類型,并依據(jù)損害發(fā)生的原因予以具體確定。由于產(chǎn)品自身缺陷造成損害的,適用產(chǎn)品責(zé)任規(guī)則;由于產(chǎn)品使用人的原因造成損害的,適用一般過(guò)錯(cuò)責(zé)任規(guī)則[24]。但是,智能機(jī)器人的自主性使得其行為不具有可預(yù)測(cè)性,這就導(dǎo)致現(xiàn)行《歐共體產(chǎn)品責(zé)任指令》(85/374號(hào))的相關(guān)規(guī)則很難適用于人工智能產(chǎn)品缺陷及因果關(guān)系的認(rèn)定。為了有效應(yīng)對(duì)智能機(jī)器人造成損害引發(fā)侵權(quán)責(zé)任的法律挑戰(zhàn),《決議》主要提出了以下立法改革內(nèi)容。
第一,根據(jù)智能機(jī)器人自主性程度的不同,實(shí)行差別化的責(zé)任形態(tài)。承擔(dān)最終責(zé)任的主體一旦確定,那么他們所應(yīng)承擔(dān)的實(shí)際責(zé)任應(yīng)當(dāng)同智能機(jī)器人的自主性程度相稱,自主性越強(qiáng),給予智能機(jī)器人指令的責(zé)任主體一方所應(yīng)承擔(dān)的責(zé)任就會(huì)越大。第二,降低對(duì)產(chǎn)品責(zé)任因果關(guān)系的證明要求。受害人只需要證明損害已經(jīng)發(fā)生,并且智能機(jī)器人的致害功能與受害人所遭受的損害之間有因果關(guān)系,即達(dá)到責(zé)任成立的證明標(biāo)準(zhǔn)。第三,注重發(fā)揮保險(xiǎn)與基金的救濟(jì)作用。《決議》提出要設(shè)立強(qiáng)制性保險(xiǎn)計(jì)劃和賠償基金,在民事侵權(quán)責(zé)任之外補(bǔ)充對(duì)受害人的救濟(jì)。同時(shí),還規(guī)定了制造商、所有者以及使用者在已向賠償基金捐款或者共同為機(jī)器人致?lián)p設(shè)立保險(xiǎn)的情形下,僅應(yīng)承擔(dān)有限的賠償責(zé)任。第四,設(shè)想未來(lái)將賦予智能機(jī)器人主體資格。《決議》提出要考慮為智能機(jī)器人創(chuàng)設(shè)特殊的法律地位,賦予最復(fù)雜的自主機(jī)器人以電子人格的地位,以便使其對(duì)可能造成的損害負(fù)責(zé)。第五,建立智能機(jī)器人登記制度。為了保障對(duì)智能機(jī)器人的管控,對(duì)其采取分類標(biāo)準(zhǔn),在歐盟范圍內(nèi)設(shè)立一個(gè)關(guān)于高級(jí)智能機(jī)器人的登記制度,并指定專門機(jī)構(gòu)進(jìn)行管理。第六,重視倫理原則的指導(dǎo)作用。《決議》提出要建立包含智能機(jī)器人在研發(fā)、設(shè)計(jì)、生產(chǎn)及使用等階段必須遵守的倫理原則,明確了倫理原則和法律規(guī)則的關(guān)系。現(xiàn)有的歐盟法律框架應(yīng)該在倫理原則的指導(dǎo)下,根據(jù)智能機(jī)器人技術(shù)的復(fù)雜性對(duì)法律規(guī)則進(jìn)行更新和補(bǔ)充[24]。
另外值得注意的是,歐盟委員會(huì)于2018 年6 月成立了人工智能高級(jí)專家組,專門就人工智能領(lǐng)域的法律、倫理問(wèn)題提供決策和建議。2019年4月,歐盟委員會(huì)人工智能高級(jí)專家組發(fā)布了《可信賴的人工智能倫理準(zhǔn)則》(Draft Ethics Guidelines for Trustworthy AI),旨在通過(guò)構(gòu)建歐盟范圍內(nèi)標(biāo)準(zhǔn)統(tǒng)一的人工智能倫理基礎(chǔ),為人工智能產(chǎn)品應(yīng)用提供指導(dǎo),以實(shí)現(xiàn)人工智能技術(shù)的可持續(xù)發(fā)展。《可信賴的人工智能倫理準(zhǔn)則》確立了在研發(fā)、部署和使用人工智能產(chǎn)品時(shí)必須遵守的基本倫理原則與價(jià)值理念,主要包含尊重人類自主性、避免造成傷害、公平性以及可解釋性,尤其強(qiáng)調(diào)人工智能產(chǎn)品的制造商應(yīng)將上述原則和理念嵌入他們的產(chǎn)品中去,并具體評(píng)估其實(shí)際貫徹執(zhí)行情況,以確保將人工智能產(chǎn)品應(yīng)用可能帶來(lái)的損害風(fēng)險(xiǎn)降到最低[25]。
歐盟《決議》圍繞智能機(jī)器人及其他人工智能產(chǎn)品可能引發(fā)的侵權(quán)責(zé)任問(wèn)題提出了一些富有創(chuàng)造性的立法建議,值得參考。
首先,《決議》明確了發(fā)展智能機(jī)器人所應(yīng)采取的基本策略,即在保證不阻礙創(chuàng)新的前提下實(shí)行漸進(jìn)主義的務(wù)實(shí)態(tài)度,認(rèn)為從民事責(zé)任問(wèn)題入手是符合當(dāng)前人工智能發(fā)展階段的規(guī)制路徑。《決議》確立民事責(zé)任制度作為調(diào)整智能機(jī)器人的主要法律機(jī)制,具有一定的合理性。人工智能技術(shù)發(fā)展的風(fēng)險(xiǎn)主要表現(xiàn)為人工智能產(chǎn)品在實(shí)際應(yīng)用中可能造成的損害后果,而民事責(zé)任制度對(duì)此將能夠有效發(fā)揮調(diào)整功能。當(dāng)人工智能產(chǎn)品致人損害時(shí),依據(jù)民事責(zé)任制度能夠準(zhǔn)確認(rèn)定責(zé)任主體、責(zé)任構(gòu)成要件以及責(zé)任后果。可以說(shuō),民事責(zé)任制度塑造了規(guī)制人工智能發(fā)展的一個(gè)“管道”,能夠防控可能出現(xiàn)的風(fēng)險(xiǎn)[26]。
其次,《決議》堅(jiān)持有損害必有救濟(jì)的原則,充分保護(hù)受害人的合法權(quán)益。即使損害后果純粹是由于智能機(jī)器人造成的,也不能限制損害的類型及可能向受害人提供賠償?shù)男问健榱吮U蠐p害能夠獲得有效救濟(jì),提出建立強(qiáng)制性保險(xiǎn)和基金作為補(bǔ)充機(jī)制。《決議》關(guān)于損害賠償?shù)脑瓌t性規(guī)定,反映出歐盟在發(fā)展人工智能技術(shù)時(shí)不以犧牲公民合法權(quán)益作為代價(jià)的立場(chǎng),有利于協(xié)調(diào)企業(yè)創(chuàng)新激勵(lì)和消費(fèi)者權(quán)益保護(hù)之間的關(guān)系。
再次,《決議》注重對(duì)損害風(fēng)險(xiǎn)的預(yù)防。要求在智能機(jī)器人的發(fā)展過(guò)程中,盡可能實(shí)現(xiàn)最大收益和最小損害,提前預(yù)測(cè)和評(píng)估潛在的安全影響,并采取與保護(hù)水平相稱的預(yù)防措施。此外,《決議》為確保責(zé)任認(rèn)定的一致性,呼吁制定國(guó)際統(tǒng)一的智能機(jī)器人技術(shù)規(guī)范標(biāo)準(zhǔn)。為了加強(qiáng)對(duì)智能機(jī)器人的管理,根據(jù)智能機(jī)器人的分類標(biāo)準(zhǔn),實(shí)行歐盟范圍內(nèi)智能機(jī)器人的登記制度。可以說(shuō),《決議》關(guān)于為智能機(jī)器人制定規(guī)范標(biāo)準(zhǔn)的立法提議,體現(xiàn)了注重侵權(quán)法規(guī)范與規(guī)制性規(guī)范之間相互協(xié)作和接軌的理念[27]。
值得注意的是,歐盟《決議》立法改革的內(nèi)容并非都是在既有民事法律規(guī)則的框架內(nèi)進(jìn)行調(diào)整的,也有個(gè)別立法建議完全突破了現(xiàn)行的私法原理。如《決議》提出賦予最復(fù)雜的自主智能機(jī)器人以電子人格(electronic persons),以便對(duì)其可能造成的損害負(fù)責(zé)。此種立法設(shè)想是否值得肯定,有待進(jìn)一步商榷。
筆者認(rèn)為,賦予智能機(jī)器人法律地位的立法設(shè)想既缺乏可操作性,也難說(shuō)符合正當(dāng)性的要求。一方面,將智能機(jī)器人擬制為法律主體并不能實(shí)現(xiàn)法律調(diào)整的規(guī)范目的。法律規(guī)范人類行為的機(jī)制在于,能夠使人類主體通過(guò)理性調(diào)適自身行為以避免承擔(dān)責(zé)任,從而符合法律規(guī)則的要求。然而,智能機(jī)器人本質(zhì)上無(wú)法具備理性和自我意識(shí),不可能真正成為法律上的利益負(fù)擔(dān)者[28]。因此,賦予智能機(jī)器人以法律人格不具有可操作性。另一方面,通過(guò)賦予智能機(jī)器人法律人格以使其承擔(dān)損害賠償責(zé)任的立法設(shè)想,也不符合法律的正當(dāng)性要求。至于智能機(jī)器人如何對(duì)其可能造成的損害后果負(fù)責(zé),《決議》并未明確作出進(jìn)一步說(shuō)明。由于智能機(jī)器人不具有自己的財(cái)產(chǎn),有觀點(diǎn)主張一個(gè)可能的思路是由制造商或者所有者為智能機(jī)器人設(shè)立專門的儲(chǔ)備金,并將該儲(chǔ)備金用來(lái)賠償損害[29]。然而,這種所謂由智能機(jī)器人自身承擔(dān)賠償責(zé)任的設(shè)想,實(shí)際上還是以人作為最終的責(zé)任承擔(dān)者[30]。申言之,這種責(zé)任承擔(dān)方式本質(zhì)上是將人的責(zé)任財(cái)產(chǎn)予以限定,這就有可能導(dǎo)致本應(yīng)承擔(dān)責(zé)任的主體逃避法律責(zé)任[31]。很顯然,此種責(zé)任承擔(dān)的設(shè)想不利于對(duì)受害人的救濟(jì),也難說(shuō)正當(dāng)。
總而言之,歐盟《決議》關(guān)于智能機(jī)器人致?lián)p侵權(quán)責(zé)任的立法改革,既有具有引領(lǐng)性的創(chuàng)新內(nèi)容,卻又存在一定程度的局限之處。我國(guó)在回應(yīng)人工智能產(chǎn)品引發(fā)的侵權(quán)責(zé)任挑戰(zhàn)時(shí),應(yīng)當(dāng)對(duì)歐盟《決議》相關(guān)內(nèi)容進(jìn)行批判性的借鑒。尤其需要注意的是,立法的制度設(shè)計(jì)不宜過(guò)于超出現(xiàn)階段和可以預(yù)見(jiàn)的情形,更不能以科幻的想象力為基礎(chǔ)追求現(xiàn)實(shí)立法的過(guò)于前瞻性[32]。
為了有效回應(yīng)人工智能產(chǎn)品致害風(fēng)險(xiǎn)及其侵權(quán)責(zé)任的挑戰(zhàn),我國(guó)應(yīng)當(dāng)從產(chǎn)品設(shè)計(jì)的預(yù)防理念、產(chǎn)品責(zé)任的具體規(guī)則以及產(chǎn)品致?lián)p的保險(xiǎn)配套機(jī)制三個(gè)層面采取應(yīng)對(duì)策略。
我國(guó)在大力發(fā)展人工智能產(chǎn)品的同時(shí),須加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能產(chǎn)品安全、可靠與可控發(fā)展。合理的侵權(quán)法規(guī)則通過(guò)形成減少事故成本的威懾機(jī)制,將能夠有效預(yù)防損害事故的發(fā)生。我國(guó)《民法典·侵權(quán)責(zé)任編》在承繼《侵權(quán)責(zé)任法》的基礎(chǔ)上進(jìn)一步對(duì)損害預(yù)防的責(zé)任規(guī)則作出了相應(yīng)完善。《民法典》第一千二百零五條、第一千二百零六條分別規(guī)定了當(dāng)產(chǎn)品存在缺陷危及他人人身、財(cái)產(chǎn)安全時(shí),生產(chǎn)者、銷售者應(yīng)當(dāng)承擔(dān)停止侵害、排除妨礙、消除危險(xiǎn)等預(yù)防性責(zé)任以及采取必要的停止銷售、警示、召回等跟蹤觀察義務(wù)措施,以防止缺陷產(chǎn)品致人損害事故的發(fā)生及擴(kuò)大。由于人工智能產(chǎn)品的特殊性,一旦其存在缺陷將可能誘發(fā)系統(tǒng)性的產(chǎn)品致害風(fēng)險(xiǎn),因此,對(duì)于人工智能產(chǎn)品致?lián)p的侵權(quán)責(zé)任應(yīng)對(duì),更應(yīng)當(dāng)注重貫徹預(yù)防損害的基本理念。
人工智能產(chǎn)品損害預(yù)防的設(shè)計(jì)理念倡導(dǎo)積極主動(dòng)防御損害事故的發(fā)生,而非事后對(duì)損害進(jìn)行消極救濟(jì)。損害預(yù)防的理念本質(zhì)上體現(xiàn)了人類中心主義的倫理原則與保障人類安全的優(yōu)先價(jià)值[33]。2017年1月在美國(guó)加利福尼亞州阿西洛馬舉行的人工智能大會(huì)上,來(lái)自世界各個(gè)國(guó)家的人工智能領(lǐng)域?qū)<掖砉餐炇鹆恕栋⑽髀羼R人工智能原則》(Asilomar AI Principles),其中第21 條就確立了人工智能產(chǎn)品風(fēng)險(xiǎn)預(yù)防與降低的規(guī)劃[34]。2019 年4 月,歐盟委員會(huì)人工智能高級(jí)專家組發(fā)布的《可信賴的人工智能倫理準(zhǔn)則》,也明確提出“避免造成傷害”(prevention of harm)的原則[25]。前述兩項(xiàng)具有較大影響力的人工智能發(fā)展倡議文件,均體現(xiàn)了在發(fā)展人工智能技術(shù)的過(guò)程中注重?fù)p害預(yù)防的基本理念。由此可見(jiàn),在人工智能領(lǐng)域,強(qiáng)調(diào)損害預(yù)防的基本理念已經(jīng)成為一項(xiàng)共識(shí)性的準(zhǔn)則。
人工智能產(chǎn)品損害預(yù)防的基本理念應(yīng)通過(guò)事先設(shè)計(jì)算法程序規(guī)則的方式來(lái)貫徹。在人工智能產(chǎn)品研發(fā)階段,制造商將損害預(yù)防的基本理念通過(guò)算法嵌入人工智能產(chǎn)品系統(tǒng)之中,使之成為系統(tǒng)運(yùn)行的默認(rèn)規(guī)則。但是,這種預(yù)先設(shè)計(jì)的損害預(yù)防算法規(guī)則,有時(shí)也會(huì)面臨倫理上的困境。如智能網(wǎng)聯(lián)汽車在面臨緊急危險(xiǎn)時(shí),即使采取處置措施可能也將難以完全避免損害后果的發(fā)生。在該種情況下,自動(dòng)駕駛系統(tǒng)應(yīng)當(dāng)如何選擇損害對(duì)象?是優(yōu)先保護(hù)車內(nèi)乘客安全,還是根據(jù)可能造成損害的嚴(yán)重程度進(jìn)行對(duì)象區(qū)分,這極具爭(zhēng)議。筆者認(rèn)為,在人工智能產(chǎn)品致人損害后果難以避免的情況下,應(yīng)當(dāng)尋求在法律和倫理上同時(shí)可行的損害分級(jí)方法[35],堅(jiān)持將損害后果降低到最小的原則,并更加注重維護(hù)以人類尊嚴(yán)和生命安全為最高目標(biāo)的價(jià)值秩序。
1.明晰智能軟件的產(chǎn)品屬性
我國(guó)現(xiàn)行法對(duì)產(chǎn)品采取以“抽象概念+否定式列舉”相結(jié)合的方式進(jìn)行界定,并未對(duì)產(chǎn)品的范圍進(jìn)行肯定式列舉。對(duì)于一些特殊形式的產(chǎn)品,有必要盡快明晰其產(chǎn)品的客體屬性及強(qiáng)調(diào)產(chǎn)品安全的重要價(jià)值。在信息科技時(shí)代,智能軟件和類似的電子產(chǎn)品被廣泛應(yīng)用于研發(fā)、生產(chǎn)以及管理等關(guān)鍵領(lǐng)域。尤其是伴隨著人工智能技術(shù)的應(yīng)用,人工智能產(chǎn)品逐漸被投入使用,這對(duì)智能軟件生產(chǎn)者在產(chǎn)品設(shè)計(jì)方面提出了更高的要求。智能軟件是否屬于產(chǎn)品直接關(guān)系到受害人能否依據(jù)軟件缺陷主張產(chǎn)品責(zé)任從而獲得有效救濟(jì)[36]。在美國(guó)司法實(shí)踐中,計(jì)算機(jī)軟件被認(rèn)為屬于產(chǎn)品的范疇,能夠適用嚴(yán)格產(chǎn)品責(zé)任[37]。實(shí)際上,近現(xiàn)代民法只考慮了有體物產(chǎn)品,幾乎沒(méi)有涉及智力產(chǎn)品,未來(lái)的發(fā)展趨勢(shì)要求構(gòu)筑一個(gè)將有體物產(chǎn)品責(zé)任與智力產(chǎn)品責(zé)任綜合在一起的法律模型。因此,將智能軟件納入我國(guó)產(chǎn)品的范圍有利于為未來(lái)的科技發(fā)展與司法實(shí)踐預(yù)留必要的空間。
對(duì)于智能軟件缺陷的認(rèn)定,可以采用“違反既定設(shè)計(jì)標(biāo)準(zhǔn)”的判定方法與“故障理論”規(guī)則。如果軟件產(chǎn)品與既定的設(shè)計(jì)標(biāo)準(zhǔn)相背離,導(dǎo)致軟件不符合其應(yīng)當(dāng)具備的基本性能或者不同于該條生產(chǎn)線上同批次軟件產(chǎn)品的質(zhì)量,則可以判定該智能軟件存在制造缺陷。運(yùn)用“違反既定設(shè)計(jì)標(biāo)準(zhǔn)”的判定方法,可以更加客觀、直接和明確地對(duì)產(chǎn)品在制造方面的不合理危險(xiǎn)進(jìn)行判斷。由于確定智能軟件中的缺陷問(wèn)題是非常復(fù)雜的,對(duì)此還可以援用“故障理論”規(guī)則作為補(bǔ)充判定方法。產(chǎn)品故障理論源于美國(guó)產(chǎn)品責(zé)任領(lǐng)域認(rèn)定產(chǎn)品存在缺陷的一種方法,且經(jīng)常適用于產(chǎn)品缺陷事實(shí)不易查清的產(chǎn)品責(zé)任案件。原告只要證明以正常使用的方式發(fā)生了產(chǎn)品故障并且除產(chǎn)品缺陷之外并無(wú)其他導(dǎo)致?lián)p害原因的可能性,則可以通過(guò)這種間接證據(jù)證明產(chǎn)品存在缺陷[38]。
2.堅(jiān)守產(chǎn)品責(zé)任嚴(yán)格原則的基本立場(chǎng)
產(chǎn)品責(zé)任歸責(zé)理論的歷史演變,大致經(jīng)歷了從合同責(zé)任到侵權(quán)責(zé)任、從過(guò)失責(zé)任到嚴(yán)格責(zé)任的發(fā)展軌跡。嚴(yán)格責(zé)任原則的形成和確立絕非偶然,而是有著深刻的社會(huì)經(jīng)濟(jì)基礎(chǔ)。對(duì)缺陷產(chǎn)品適用嚴(yán)格責(zé)任原則,有助于激勵(lì)產(chǎn)品制造商增加在產(chǎn)品安全方面的投入,從而盡可能降低或消除可避免的產(chǎn)品風(fēng)險(xiǎn)[39]。相對(duì)于消費(fèi)者而言,產(chǎn)品制造商往往更容易在產(chǎn)品的生產(chǎn)過(guò)程中發(fā)現(xiàn)、評(píng)估和應(yīng)對(duì)存在的風(fēng)險(xiǎn),尤其是針對(duì)那些技術(shù)復(fù)雜的人工智能產(chǎn)品更是如此。依據(jù)風(fēng)險(xiǎn)控制的基本原理,缺陷產(chǎn)品導(dǎo)致的損失將會(huì)被制造商盡可能降至最小[40]。
美國(guó)較早在產(chǎn)品責(zé)任領(lǐng)域確立嚴(yán)格責(zé)任原則,且該原則長(zhǎng)期占據(jù)著美國(guó)產(chǎn)品責(zé)任法的核心地位。隨著產(chǎn)品責(zé)任訴訟案件的大量出現(xiàn),20世紀(jì)80年代以后,美國(guó)理論與司法實(shí)踐開始對(duì)《侵權(quán)法重述第二版》第402A 節(jié)中的嚴(yán)格責(zé)任原則進(jìn)行改革,最終通過(guò)了《侵權(quán)法重述第三版:產(chǎn)品責(zé)任》。經(jīng)改革后的美國(guó)產(chǎn)品責(zé)任制度在歸責(zé)原則方面發(fā)生了變化,嚴(yán)格責(zé)任原則僅適用于產(chǎn)品制造缺陷,不再適用于設(shè)計(jì)缺陷與警示缺陷。但是,嚴(yán)格來(lái)說(shuō),美國(guó)產(chǎn)品責(zé)任法上有關(guān)歸責(zé)原則的改革舉措并未從根本上動(dòng)搖現(xiàn)代產(chǎn)品責(zé)任制度普遍奉行的嚴(yán)格歸責(zé)原則的基本精神,只是為了避免嚴(yán)格責(zé)任在具體適用時(shí)演化為絕對(duì)責(zé)任而進(jìn)行的必要矯正。事實(shí)上,美國(guó)產(chǎn)品責(zé)任法上歸責(zé)原則的改革也并未像其最先確立嚴(yán)格產(chǎn)品責(zé)任制度那般對(duì)其他國(guó)家和地區(qū)的產(chǎn)品責(zé)任立法產(chǎn)生廣泛的影響。就目前而言,美國(guó)以外其他法域的產(chǎn)品責(zé)任制度仍表現(xiàn)出堅(jiān)持嚴(yán)格歸責(zé)原則的基本立場(chǎng),并未追隨美國(guó)的最新改革趨勢(shì)[41]。在人工智能產(chǎn)品領(lǐng)域,對(duì)于產(chǎn)品缺陷類型的劃分是較為困難的,堅(jiān)守嚴(yán)格責(zé)任原則能夠遏制市場(chǎng)上危險(xiǎn)產(chǎn)品的出現(xiàn),盡可能降低缺陷產(chǎn)品的風(fēng)險(xiǎn),提升產(chǎn)品的安全質(zhì)量。
3.合理界定產(chǎn)品責(zé)任的承擔(dān)主體
依據(jù)《民法典》第一千二百零三條的規(guī)定,我國(guó)產(chǎn)品責(zé)任的主體同時(shí)包含生產(chǎn)者和銷售者,但是現(xiàn)行法律并未對(duì)產(chǎn)品生產(chǎn)者、銷售者的概念和范圍作出具體規(guī)定。為了正確識(shí)別和認(rèn)定人工智能產(chǎn)品致?lián)p責(zé)任的承擔(dān)主體,有必要明確產(chǎn)品生產(chǎn)者和銷售者所包含的主要類型,并且需要結(jié)合人工智能產(chǎn)品的研發(fā)、生產(chǎn)等一系列過(guò)程,考慮適當(dāng)擴(kuò)充產(chǎn)品責(zé)任的主體范圍。對(duì)于生產(chǎn)者而言,其不僅應(yīng)包括實(shí)際生產(chǎn)者,還應(yīng)當(dāng)包括標(biāo)識(shí)生產(chǎn)者和擬制生產(chǎn)者。其中,標(biāo)識(shí)生產(chǎn)者是指將自己置于生產(chǎn)者地位的非典型產(chǎn)品責(zé)任承擔(dān)主體;擬制生產(chǎn)者是指在特殊情形下將非產(chǎn)品生產(chǎn)者視為產(chǎn)品生產(chǎn)者,并使其承擔(dān)因產(chǎn)品缺陷致人損害的責(zé)任。對(duì)于銷售者而言,其應(yīng)當(dāng)包括經(jīng)銷商、分銷商、進(jìn)口商、批發(fā)商以及零售商在內(nèi)的具體銷售主體類型。
由于人工智能產(chǎn)品具備較高的科技含量,需要有專門的產(chǎn)品軟件程序開發(fā)商。如果人工智能產(chǎn)品致人損害是由軟件程序方面的缺陷造成的,那么產(chǎn)品軟件程序開發(fā)商也將承擔(dān)侵權(quán)責(zé)任。另外,對(duì)于經(jīng)普通產(chǎn)品改造后的人工智能產(chǎn)品存在缺陷致人損害的,原始制造商不應(yīng)當(dāng)承擔(dān)責(zé)任,而應(yīng)由實(shí)際的改造者承擔(dān)責(zé)任[17]。由此可見(jiàn),人工智能產(chǎn)品因缺陷致人損害時(shí),可能承擔(dān)侵權(quán)責(zé)任的主體應(yīng)包含生產(chǎn)者、銷售者、研發(fā)者以及改造者,上述主體之間承擔(dān)的是一種不真正連帶責(zé)任。
4.調(diào)整產(chǎn)品責(zé)任的抗辯事由
當(dāng)出現(xiàn)人工智能產(chǎn)品致人損害時(shí),《產(chǎn)品質(zhì)量法》第四十一條第二款規(guī)定的抗辯事由是否還能繼續(xù)適用,有必要進(jìn)一步探討。毋庸置疑,“未將產(chǎn)品投入流通的”和“產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在的”兩項(xiàng)抗辯事由仍然可以繼續(xù)適用,這將不存在爭(zhēng)議,問(wèn)題在于發(fā)展風(fēng)險(xiǎn)的抗辯能否繼續(xù)適用于人工智能產(chǎn)品缺陷責(zé)任。發(fā)展風(fēng)險(xiǎn)抗辯涉及產(chǎn)品責(zé)任法的基礎(chǔ)性問(wèn)題[42]。發(fā)展風(fēng)險(xiǎn)抗辯將使立法者處于保護(hù)消費(fèi)者使用安全與維護(hù)生產(chǎn)者效率的兩難境地[43]。然而實(shí)際上,發(fā)展風(fēng)險(xiǎn)抗辯與產(chǎn)品責(zé)任并非不可調(diào)和。產(chǎn)品責(zé)任的現(xiàn)代發(fā)展表現(xiàn)出遏制責(zé)任過(guò)于嚴(yán)格化的傾向,而發(fā)展風(fēng)險(xiǎn)抗辯將能夠發(fā)揮必要的輔助機(jī)制作用[44]。發(fā)展風(fēng)險(xiǎn)抗辯歸根結(jié)底是對(duì)創(chuàng)新風(fēng)險(xiǎn)的分?jǐn)傔x擇[45]。就產(chǎn)品創(chuàng)新而言,生產(chǎn)者固然能夠通過(guò)新產(chǎn)品投入流通而獲取利潤(rùn),事實(shí)上產(chǎn)品創(chuàng)新也離不開消費(fèi)者的市場(chǎng)需求,并且消費(fèi)者也能分享產(chǎn)品創(chuàng)新帶來(lái)的益處。在人工智能產(chǎn)品致人損害的語(yǔ)境下,保留發(fā)展風(fēng)險(xiǎn)抗辯是必要且合理的。將發(fā)展風(fēng)險(xiǎn)抗辯作為產(chǎn)品責(zé)任的抗辯事由之一,有助于鼓勵(lì)生產(chǎn)者為新產(chǎn)品積極投入研發(fā),從而為整個(gè)社會(huì)的創(chuàng)新進(jìn)步營(yíng)造寬松的環(huán)境。相反,如果沒(méi)有發(fā)展風(fēng)險(xiǎn)抗辯,生產(chǎn)者出于趨利避害的心理將會(huì)采取較為保守的發(fā)展策略,許多與發(fā)展風(fēng)險(xiǎn)有關(guān)的新產(chǎn)品將不會(huì)被生產(chǎn)者投入市場(chǎng),最終也不利于社會(huì)的創(chuàng)新發(fā)展。當(dāng)然,發(fā)展風(fēng)險(xiǎn)抗辯也不是絕對(duì)的。為了彌補(bǔ)發(fā)展風(fēng)險(xiǎn)抗辯可能帶來(lái)的不利后果,提高人工智能產(chǎn)品的安全性,制造商還應(yīng)負(fù)有及時(shí)維護(hù)和升級(jí)產(chǎn)品軟件的義務(wù),并將與產(chǎn)品安全有關(guān)的重要信息及時(shí)通知產(chǎn)品的終端用戶[46]。
除既有的產(chǎn)品責(zé)任抗辯事由之外,由于人工智能產(chǎn)品的特殊性,制造商還可以主張以下抗辯事由。其一,使用人的誤用行為。制造商沒(méi)有義務(wù)防止所有的誤用行為,只要制造商盡到關(guān)于產(chǎn)品的使用說(shuō)明義務(wù),則制造商不需要對(duì)使用人的誤用行為導(dǎo)致的損害后果負(fù)責(zé)。如使用人不按照產(chǎn)品的規(guī)格說(shuō)明,擅自對(duì)智能網(wǎng)聯(lián)汽車進(jìn)行改裝而引發(fā)的損害,制造商將不承擔(dān)責(zé)任[47]。其二,使用人的自甘冒險(xiǎn)行為。人工智能產(chǎn)品的制造商按照要求對(duì)產(chǎn)品在特定環(huán)境下使用的潛在風(fēng)險(xiǎn)予以充分警示后,用戶在明知可能存在風(fēng)險(xiǎn)的前提下仍然繼續(xù)使用該產(chǎn)品,則制造商對(duì)因此造成的損害將免予承擔(dān)責(zé)任。如智能網(wǎng)聯(lián)汽車被禁止在冰雪路面開啟自動(dòng)駕駛模式,但是使用人仍開啟自動(dòng)駕駛模式引發(fā)損害后果的,應(yīng)由使用人自行承擔(dān)責(zé)任[47]。其三,由第三人的原因?qū)е聯(lián)p害。如人工智能產(chǎn)品系統(tǒng)遭遇黑客的非法侵入而被操縱造成他人損害的情形,對(duì)此已盡到必要保護(hù)義務(wù)的制造商將不承擔(dān)責(zé)任,而由該第三人承擔(dān)責(zé)任[48]。
人工智能產(chǎn)品致人損害時(shí)往往容易引發(fā)大規(guī)模產(chǎn)品侵權(quán)責(zé)任事故,制造商可能面臨巨大的賠償數(shù)額而瀕臨破產(chǎn),這不僅不利于人工智能產(chǎn)業(yè)的健康發(fā)展,而且受害人在遭遇現(xiàn)實(shí)損害時(shí)也難以及時(shí)獲得有效救濟(jì)。我國(guó)《新一代人工智能發(fā)展規(guī)劃》明確提出,要完善適應(yīng)人工智能的保險(xiǎn)、社會(huì)救助等政策體系,有效應(yīng)對(duì)人工智能帶來(lái)的社會(huì)問(wèn)題。為此,在人工智能產(chǎn)品領(lǐng)域,非常有必要引入保險(xiǎn)機(jī)制作為侵權(quán)責(zé)任的補(bǔ)充配套方案,以分散損害風(fēng)險(xiǎn),保障人工智能產(chǎn)品投入流通后不至于造成較大的消極社會(huì)影響。
為了有效預(yù)防人工智能產(chǎn)品致人損害的風(fēng)險(xiǎn),應(yīng)當(dāng)建立多層級(jí)的保險(xiǎn)結(jié)構(gòu)。首先,應(yīng)設(shè)置強(qiáng)制責(zé)任險(xiǎn),由人工智能產(chǎn)品的制造商作為投保義務(wù)人,當(dāng)人工智能產(chǎn)品發(fā)生致人損害的侵權(quán)事故時(shí),確保受害人能夠獲得最基本的救濟(jì)。其次,應(yīng)設(shè)置商業(yè)責(zé)任險(xiǎn),鼓勵(lì)人工智能產(chǎn)品的制造商、所有者積極進(jìn)行投保,以解決強(qiáng)制責(zé)任險(xiǎn)賠償不足情形下存在的問(wèn)題。再次,還應(yīng)當(dāng)設(shè)置產(chǎn)品責(zé)任險(xiǎn),由制造商作為投保人,以應(yīng)對(duì)人工智能產(chǎn)品存在缺陷致人損害的大規(guī)模賠償責(zé)任。
人工智能技術(shù)的應(yīng)用也可能會(huì)對(duì)保險(xiǎn)行業(yè)帶來(lái)一定的沖擊。由于人工智能產(chǎn)品具有自主決策能力和深度學(xué)習(xí)能力,產(chǎn)品的性能將隨著時(shí)間的推移不斷改善。關(guān)于普通汽車以往碰撞的損失數(shù)據(jù),將不能準(zhǔn)確預(yù)測(cè)未來(lái)智能網(wǎng)聯(lián)汽車碰撞的可能性風(fēng)險(xiǎn),因?yàn)槿魏芜^(guò)去的碰撞都會(huì)在自動(dòng)學(xué)習(xí)系統(tǒng)之下產(chǎn)生糾正措施,由此導(dǎo)致保險(xiǎn)公司在計(jì)算保險(xiǎn)費(fèi)用時(shí)可能不知所措[49]。一個(gè)具有創(chuàng)新可能性的思路就是探索個(gè)性化的保險(xiǎn)模式,即保險(xiǎn)公司根據(jù)制造商、產(chǎn)品類型、所有者或者使用者的具體情況來(lái)確定保險(xiǎn)費(fèi)用。如在智能網(wǎng)聯(lián)汽車領(lǐng)域,通過(guò)在車內(nèi)安裝小型黑匣子裝備,以準(zhǔn)確記錄車輛行駛的速度、時(shí)間、距離、路況等數(shù)據(jù),從而建立全面的車輛行駛資料,便于綜合分析事故風(fēng)險(xiǎn)[50]。這種個(gè)性化的保險(xiǎn)模式,能夠?qū)崿F(xiàn)有針對(duì)性、實(shí)時(shí)性的保險(xiǎn)費(fèi)用繳納模式,合理配置保險(xiǎn)成本與損害風(fēng)險(xiǎn)。
隨著人工智能技術(shù)的不斷突破,人工智能產(chǎn)品得以推廣應(yīng)用的前景更為可觀。如果不能妥善解決人工智能產(chǎn)品致害風(fēng)險(xiǎn)及其引發(fā)的侵權(quán)責(zé)任問(wèn)題,無(wú)疑將會(huì)給人工智能產(chǎn)業(yè)市場(chǎng)化發(fā)展埋下法律隱患。為此,我國(guó)應(yīng)當(dāng)從產(chǎn)品設(shè)計(jì)的預(yù)防理念、產(chǎn)品責(zé)任的具體規(guī)則以及保險(xiǎn)配套機(jī)制三個(gè)方面采取應(yīng)對(duì)策略。首先,應(yīng)當(dāng)注重貫徹?fù)p害預(yù)防的產(chǎn)品設(shè)計(jì)理念。在產(chǎn)品研發(fā)階段,要求制造商預(yù)先設(shè)計(jì)出符合法律和倫理的算法程序規(guī)則,將之嵌入人工智能產(chǎn)品系統(tǒng)并成為默認(rèn)的運(yùn)行規(guī)則,以盡可能避免損害事故的發(fā)生。其次,關(guān)于產(chǎn)品責(zé)任的具體規(guī)則應(yīng)作如下應(yīng)對(duì):應(yīng)當(dāng)堅(jiān)守嚴(yán)格責(zé)任原則的基本立場(chǎng),明晰智能軟件的產(chǎn)品屬性并依據(jù)違反既定設(shè)計(jì)標(biāo)準(zhǔn)和故障理論規(guī)則對(duì)其缺陷進(jìn)行判定,將產(chǎn)品責(zé)任的主體范圍擴(kuò)充為生產(chǎn)者、銷售者、研發(fā)者以及改造者,在保留發(fā)展風(fēng)險(xiǎn)抗辯的同時(shí)增設(shè)生產(chǎn)者負(fù)有及時(shí)維護(hù)和升級(jí)產(chǎn)品軟件的義務(wù)。再次,為了有效應(yīng)對(duì)大規(guī)模人工智能產(chǎn)品侵權(quán)責(zé)任糾紛和及時(shí)救濟(jì)受害人,還應(yīng)充分發(fā)揮責(zé)任保險(xiǎn)配套機(jī)制的作用。通過(guò)建立包括強(qiáng)制性保險(xiǎn)、商業(yè)性保險(xiǎn)以及產(chǎn)品責(zé)任保險(xiǎn)在內(nèi)的多層級(jí)保險(xiǎn)結(jié)構(gòu),探索個(gè)性化的保險(xiǎn)費(fèi)用繳納模式,以合理配置保險(xiǎn)成本與損害風(fēng)險(xiǎn)。