□鄭志峰
內容提要 相較于機動車交通事故責任,產品責任在解決自動駕駛汽車責任分擔方面更具共識與優勢,既高度契合自動駕駛汽車的事故特點,又可以直接督促生產者一方提高產品安全性能,并且能夠更好地救濟受害人和分散風險。自動駕駛汽車產品缺陷的認定面臨技術與法律層面的諸多障礙,當前并無成熟的技術標準可供適用,而消費者期待標準與風險效用標準也各自存在適用困境。理性算法標準將注意義務對準自動駕駛系統本身,充分挖掘產品設計缺陷背后的過失屬性,契合自動駕駛汽車的技術特征,增加了受害人救濟的可能,同時也稀釋了產品缺陷的負面評價,可以很好地緩解設計缺陷的認定難題。理性算法標準的適用需要區分不同階段的自動駕駛汽車、不同類型的危險,同時應從功能安全、預期功能安全以及網絡和數據安全三方面更新技術標準,完善生產者一方的警示義務與跟蹤觀察義務。
近年來,自動駕駛汽車在全球范圍日益頻繁地上路測試,相關法律法規配套也日益完善,自動駕駛汽車大規模商用化指日可待。2022 年8 月8日,交通運輸部發布《自動駕駛汽車運輸安全服務指南(試行)(征求意見稿)》征求公眾意見,鼓勵和規范自動駕駛汽車在運輸領域應用。2022 年10月28 日,工業和信息化部發布《道路機動車輛生產準入許可管理條例(征求意見稿)》,其中多個條文涉及自動駕駛汽車的準入規定。2022 年11 月2日,工業和信息化部再次發布《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》,試圖通過試點城市、試點汽車生產企業、試點產品以及試點使用主體來推動自動駕駛汽車的上市和上路。這一系列監管法規緊鑼密鼓地出臺,標志著我國自動駕駛汽車從道路測試正式邁入商業化示范應用新階段,自動駕駛汽車駛入尋常道路的腳步又更進一步。
與此同時,有關自動駕駛汽車的事故報道也常常見諸報端。既有來自Uber 公司的自動駕駛汽車在道路測試期間發生的嚴重事故,也有特斯拉、蔚來等企業生產的具有輔助駕駛功能的汽車引發的致命事件。如何處理自動駕駛汽車的責任問題,不僅關系到廣大人民群眾的生命財產安全,也直接影響著自動駕駛汽車產業的落地。從責任主體層面來看,自動駕駛汽車的侵權責任大體上可以分為兩類,一是使用人一方的責任,解決的是自動駕駛汽車上路后使用人等相關主體的責任,通常表現為機動車交通事故責任;二是生產者一方的責任,關注的是自動駕駛汽車上路前生產者、銷售者等主體的責任問題,一般體現為產品責任。相較于使用人一方的責任,產品責任是當前解決自動駕駛汽車事故責任最重要也更具共識的一種方式。然而,與傳統汽車相比,自動駕駛汽車的產品責任帶來了諸多新挑戰。其中,如何認定自動駕駛汽車的產品缺陷是關鍵。為此,本文將針對自動駕駛汽車產品缺陷的認定進行集中探討,以便為自動駕駛汽車產品責任的完善提供助益,為自動駕駛汽車產業發展掃清障礙。
對于自動駕駛汽車引發的事故責任,相較于追究使用人一方的機動車交通事故責任,產品責任的適用更為重要。
1.產品責任適用情形更為廣泛。從理論上看,自動駕駛汽車的責任類型可以分為機動車交通事故責任與產品責任,分別用以解決使用人一方的責任與生產者一方的責任,但兩種責任并不總是同時存在的。對于自動駕駛汽車造成第三人損害的情形,兩種責任類型都可以作為救濟受害人的渠道。但如果自動駕駛汽車造成損害的正是使用人一方自己,如自動駕駛汽車失控撞到路邊障礙物導致車內使用人受傷,那么此時不存在適用機動車交通事故責任的空間,只能適用產品責任。考慮到這類事故的廣泛存在,產品責任的重要性不言而喻。
2.產品責任具有更普遍的共識。盡管有觀點質疑自動駕駛汽車適用產品責任的正當性,或者主張自動駕駛汽車超出傳統產品范疇,失去適用產品責任的基本前提,①或者認為讓生產者一方承擔產品責任違反基本原理,②但總體上生產者一方承擔產品責任仍然是學界與產業界的普遍共識。③從歷史上看,產品責任已經被充分證明對于新技術具有強大的適應能力,對于自動駕駛汽車亦是如此。④事實上,在侵權法的眼中,自動駕駛汽車的組件不過是傳統產品的新花樣,產品責任將繼續證明它有能力處理這種自動化技術帶來的復雜問題。⑤與此相對的是,使用人一方承擔何種責任存在各種不同觀點,如機動車交通事故責任說、一般侵權責任說、無過錯保有人責任說、高度危險責任說等,短時期內出臺一套各方都滿意的方案十分困難。⑥此種背景下,細化產品責任的適用是一種更為務實的做法。
3.產品責任更加契合自動駕駛汽車的技術特征。對于傳統汽車而言,人車關系中以人為主導,使用人操控汽車的一舉一動,汽車不過是使用人行動的物理工具,加速、變道、剎車都是使用人行為的直接結果,體現的是使用人的自由意志。故此,當汽車發生交通事故時,首先要追究的是人的責任,機動車交通事故責任自然頻繁適用,產品責任退居其次。然而,當自動駕駛汽車到來后,人車關系發生反轉,自動駕駛汽車的運行全程由系統操控,使用人對于汽車的影響極大地減弱,事故發生的原因更多地來自于汽車本身。基于此,可以預見的是,隨著自動駕駛技術的普及,產品責任將扮演更加重要的角色,如何適用產品責任成為關鍵。
4.產品責任能夠更好實現侵權責任的目標。正如2020 年歐盟《關于人工智能系統運行的責任立法倡議》 所說,“任何責任框架都必須能夠在有效保護潛在遭受傷害或損害之受害者的同時,提供足夠的余地使新技術、產品或服務的開發成為可能,并在二者之間達成平衡。”⑦相較于使用人一方的責任,產品責任能夠更好地實現這一目標。其一,救濟受害人。產品責任的主體為生產者一方,具有更強的責任承擔能力,能夠更好地救濟受害人,同時可以通過提高產品售價、購買保險等方式來分散風險。⑧其二,預防損害發生。相較于機動車交通事故責任,產品責任直接對準生產者一方,可以直接督促生產者一方提高自動駕駛汽車的安全性能,預防事故的發生。其三,促進產業發展。強調產品責任的優先級,也是在變相解放作為消費者的使用人一方,增強消費者購買自動駕駛汽車的信心,最終推動自動駕駛汽車產業的發展與繁榮。⑨
5.產品責任對于其他人工智能產品具有參考意義。人工智能屬于賦能性科技,可以廣泛適用于交通、醫療、教育、金融、安防等各種領域。對于不同場景中的人工智能,使用人一方的責任規則常常大相徑庭,如自動駕駛汽車的使用人適用機動車交通事故責任,而醫療人工智能的使用人適用的則是醫療損害責任。與此相對的是,產品責任具有適用上的普適性,無論具體應用場景下的人工智能各自的功能用途有多么的不同,只要其是經過生產、加工用以銷售的產品,就需要適用產品責任。歐盟《機器人技術民事法律規則》就指出:“根據產品責任的現行法律框架——產品生產者對故障負有責任——侵害行為的責任規則——產品使用者對其致害的行為負有責任——這些規則適用于機器人或人工智能造成的損害。”⑩從這個角度來看,自動駕駛汽車作為最為典型的人工智能應用,解決其引發的產品責任具有更廣泛的參考價值,可以為其他人工智能應用的產品責任提供指導。
如上所述,產品責任對于解決自動駕駛汽車引發的責任問題非常重要,而產品責任適用的重點和難題又在于缺陷的認定。
1.缺陷要件是產品責任的核心。從規范層面看,產品責任適用的前提是產品存在缺陷,唯有缺陷產品造成他人損害,生產者才承擔產品責任。?我國《民法典》第1202 至1217 條確立了產品責任的基本規則,其構成要件包括產品缺陷、損害以及因果關系。其中,產品缺陷是承擔產品責任的核心與第一步,此后的因果關系要件也需建立在產品缺陷的基礎上。與此同時,產品缺陷也是生產者承擔產品責任的正當基礎。現代社會,每一件投入某種使用的產品,都以一定方式、在一定程度上是危險的,只有當產品具有過度之風險,生產者才需承擔產品責任。?同樣,對于自動駕駛汽車來說,產品缺陷的認定也具有規范和產業層面的雙重意義,既是救濟受害人的核心要件,也是劃定生產者責任范圍的關鍵依據。
2.產品缺陷是自動駕駛汽車事故發生的主要原因。對于傳統汽車引發的交通事故,有調查顯示,95%與人類駕駛者的駕駛失誤有關,2.5%歸結于糟糕的路況和天氣,2.5%為技術故障。?自動駕駛取代人類駕駛后,交通事故發生的原因將會徹底轉變,因為使用人的原因導致交通事故的比重將會急劇降低,這也是自動駕駛汽車安全價值的體現。然而,自動駕駛汽車并非絕對安全的產品,在減少因使用人駕駛失誤引發的交通事故數量的同時,也會帶來新的產品缺陷風險,即由于自動駕駛汽車本身產品故障引發的事故比例將會相對提高。這也是汽車信息化、智能化發展必然面臨的趨勢。可以預見的是,自動駕駛汽車時代到來后,產品缺陷特別是算法系統軟件缺陷將是引發事故發生的主要原因,而非使用人一方存在過錯。?對此,如何判別產品故障究竟是否構成缺陷就顯得至關重要。
3.產品缺陷也決定了各方主體的責任分擔。自動駕駛汽車的責任分擔涉及諸多主體。從外部層面來看,起碼包括生產者一方與使用人一方。根據最高人民法院《關于審理道路交通事故損害賠償案件適用法律若干問題的解釋》第9 條規定,有產品缺陷的機動車造成損害的,除使用人一方承擔責任外,受害人還可以請求生產者一方承擔產品責任。無論生產者一方與使用人一方對受害人承擔何種責任,兩方內部責任分擔的關鍵在于產品缺陷。如果自動駕駛汽車存在缺陷,縱使使用人一方對外承擔了機動車交通事故責任,對內仍然可以據此向生產者一方追償。而從內部層面來看,產品責任的主體通常包括生產者、銷售者,自動駕駛汽車的專業性還將增加許多新的責任主體,如自動駕駛算法系統的設計者、高精地圖的提供者等,各責任主體之間的責任分擔也需要依據產品缺陷來進行。
4.產品缺陷的認定也是產品責任適用的難題。其一,舊法不敷適用。《民法典》并無關于產品缺陷認定的規定,需要根據《產品質量法》進行判斷。然而,《產品質量法》是以傳統工業產品為樣本構建的,主要適用的是各類有形動產,很難照搬適用于算法系統主導的人工智能產品。?其二,新法持續空缺。當前,各國針對使用人一方的責任規則有不少法律法規出臺。例如,德國于2017 年5 月修訂《道路交通法》,明確自動駕駛汽車使用人與生產者的注意義務與賠償責任。?2021 年6 月,德國又通過了專門的《自動駕駛法案》。而歐盟層面更是專門針對人工智能系統的使用人一方責任出臺了《關于人工智能系統運行的責任立法倡議》。?相比較而言,有關自動駕駛汽車的產品責任還缺乏明確規定。2021 年3 月,公安部發布《道路交通安全法(修訂建議稿)》,第155 條模糊地提到“依法確定駕駛人、自動駕駛系統開發單位的責任”。2022年6 月,《深圳經濟特區智能網聯汽車管理條例》出臺,第54 條規定使用人一方承擔責任后可以依法向生產者、銷售者追償。然而,如何認定產品缺陷追究生產者一方的產品責任仍然是個難題。
通常來說,產品缺陷包括制造缺陷、設計缺陷、警示缺陷以及跟蹤觀察缺陷。對于自動駕駛汽車來說,設計缺陷的判斷可能更為重要,也更加復雜。
自動駕駛汽車產品缺陷的認定非常困難,首要原因在于產品本身的技術特點。
1.汽車產品的專業性。汽車是工業革命時代的產物,是現代科技文明的集大成者。與普通日常生活中的產品不同,汽車產品本身就和人體一樣高度復雜,一輛汽車會有30000 到35000 個左右的零部件,包括發動機、底盤、車身以及電子電氣設備等部分,每個部分又有成百上千的零部件。這些零部件組成的高度精細化的現代汽車產品,其內部構造與運行機制遠非普通人能夠理解。對于身為門外漢的受害人來說,根本不可能洞悉其中的運行機制,更遑論舉證證明產品存在缺陷。
2.人工智能產品的復雜性。如果說傳統汽車是前三次工業革命時代的杰出產品代表,那么人工智能產品則是第四次工業革命的新寵兒。與傳統產品相比,人工智能產品具有自主性、自我學習能力、算法黑箱等新特征,這使得產品缺陷的證明變得更加困難。特別是如果買賣開放來源的軟件,可以容許買受人發展自己的需求,或者甚至人工智能本身就是開放的,則責任追究難度上可能更高。?歐盟《機器人技術民事法律規則》就坦言,即使產品責任可以適用,“但是新一代機器人具備適應和學習能力,將使它們的行動必然存在一定程度的不可預測性,目前的法律框架無法充分涵蓋它們所造成的損害,這些機器人可以自主地從他們的個體特殊的經歷中學習并且以一種唯一且不可預見的方式與他們的環境進行交互。”?自動駕駛汽車屬于人工智能產品,其行為和決策的不透明性使得缺陷認定面臨挑戰。?
3.自動駕駛汽車產品的復雜性。其一,自動駕駛汽車的構成。自動駕駛汽車作為傳統汽車的升級版本,在已有物理零件上增加了算法與數據模塊,內部運行機制相較于傳統汽車又有幾何級別的提升。其二,自動駕駛汽車的技術等級。根據2021 年8 月發布的《汽車駕駛自動化分級》,自動駕駛汽車包括有條件自動駕駛、高度自動駕駛、完全自動駕駛三個級別,不同級別下系統的運行條件、執行最小風險策略不同,這使得不同級別下自動駕駛汽車產品缺陷的認定并不一樣。例如,對于有條件的自動駕駛汽車,面對突如其來的暴雨天氣,系統認為超出其設計運行條件提醒駕駛人接管,駕駛人沒有接管導致事故發生,此種情況很可能不屬于產品缺陷。但對于完全自動駕駛汽車來說,系統理當可以應對任何行駛條件,在面臨突發情況時必須能夠自動執行最小風險策略,否則就存在產品缺陷。其三,自動駕駛汽車的發展路線。自動駕駛汽車的發展路線一直存在車路協同與單車智能的爭議,這使得自動駕駛汽車的產品設計呈現諸多不確定性。相較于單車智能路線,車路協同路線強調自動駕駛汽車需要與道路上的其他人、車、路進行交互,如此一來自動駕駛汽車的構造將更多地考慮與外界進行信息與數據的交互,產品缺陷究竟是如何引起的也更加復雜。其四,自動駕駛汽車的安全場景。自動駕駛汽車的安全場景可以從兩個維度區分為四種,分別是已知安全、未知安全、已知危險與未知危險。相較于傳統汽車,自動駕駛汽車的已知危險區域因為算法、傳感器等各種軟件、硬件的引入會變得更加復雜,同時由于自主性、算法黑箱等原因導致未知危險區域會日益高發,這些都增加了自動駕駛汽車產品缺陷認定的難度。
根據《產品質量法》規定,缺陷的判斷標準包括不合理危險與技術標準兩類,其中不合理危險是根本標準。然而,兩種判斷標準的適用都很難得出明確的結論。
1.國家標準、行業標準的困境。早在2018 年12 月,工業和信息化部就印發《車聯網(智能網聯汽車)產業發展行動計劃》,提出充分發揮標準體系在車聯網產業生態中的基礎、引導和規范作用,加快推進實施《國家車聯網產業標準體系建設指南》。2021 年4 月,工業和信息化部編制了《智能網聯汽車生產企業及產品準入管理指南(試行)(征求意見稿)》,向社會公開征求意見,其中提到自動駕駛汽車產品安全要求。2021 年7 月,工業和信息化部出臺《關于加強智能網聯汽車生產企業及產品準入管理的意見》,針對自動駕駛功能產品安全管理提出四點指導要求,但并不構成指導自動駕駛汽車產品安全的國家標準、行業標準。此外,工業和信息化部相繼發布了《道路機動車輛生產準入許可管理條例(征求意見稿)》以及《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》,試圖明確自動駕駛汽車的產品準入標準。然而,整體而言,我國尚未制定規范的自動駕駛汽車的國家標準,也沒有形成統一的行業標準,難以依靠技術標準來認定自動駕駛汽車的缺陷。?
與此同時,國家標準、行業標準之所以能夠作為判斷產品缺陷的重要方法,內在邏輯是借助穩定的技術標準來判別產品是否脫離安全范圍,但對于自動駕駛汽車而言存在諸多問題。首先,國家標準、行業標準僅僅是判斷產品缺陷的基本標準,產品是否存在缺陷最終需要依據不合理危險標準進行認定。其次,國家標準、行業標準制定成本高、過程繁瑣,同時具有天然的滯后性。而自動駕駛汽車等人工智能產品的發展日新月異,更新迭代快,想要借助技術標準來應對人工智能產品缺陷的認定并不容易。?最后,與傳統汽車不同,自動駕駛汽車屬于新一代汽車,以傳統汽車為樣本的技術標準思維難以照搬適用。具言之,傳統汽車通常關注的是功能安全,而自動駕駛汽車以算法與數據為中心,是信息化和智能化的新一代汽車產品,還需特別關注預期功能安全(Safety Of The Intended Functionality)、網絡與數據安全。對此,國際標準化組織于2018 年正式啟動全球首個自動駕駛安全國際標準 《道路車輛預期功能安全》(ISO/PAS 21448)的制定工作,旨在解決自動駕駛汽車因為預期功能或其實現的不充分性導致的危害而引發的不合理風險,如設備性能局限導致的危險、算法缺陷導致的危險、人員誤用導致的危險等。此外,自動駕駛汽車的數據化與網絡化趨勢,也讓網絡與數據安全問題前所未有的凸顯,這些都給自動駕駛汽車技術標準的制定帶來了挑戰。
2.不合理危險標準。對于不合理危險標準的具體判斷,學界存在消費者期待與風險效用兩種測試辦法,但都各自存在適用難題。
第一,消費者期待標準的困境。消費者期待標準,是指產品不合理危險的程度超過了購買該產品的普通消費者的預期,且該消費者必須具有為社會所共知的有關該產品性能的通常知識。?例如,美國《侵權法第二次重述:產品責任》第402A節采納了這一標準。有觀點指出,消費者期待標準適用更為簡單,既不需要披露過多的算法數據,也更有利于救濟受害人,適合用于判斷自動駕駛汽車產品缺陷問題。?然而,消費者期待標準的適用并不容易。
一方面,消費者的界定難題。消費者期待標準預設的基本場景是,購買產品的消費者通常是使用產品的受害人。然而,自動駕駛汽車并非消費者私人場景中單獨使用的產品,而是在公共道路頻繁使用的通勤工具,這使得自動駕駛汽車的風險天然具有開放性,不安全危及的對象十分廣泛,包括使用人和道路交通的其他參與者。當自動駕駛汽車發生事故造成使用人損害時,姑且可以將使用人作為消費者來適用這一標準。但當自動駕駛汽車損害的是行人等其他交通事故參與者時,誰是合格的消費者就存在爭議。此時,將使用人作為消費者,以其合理期待來判斷自動駕駛汽車是否存在產品缺陷并不合適,對于受害人和生產者來說并不公平,而受害人又并非自動駕駛汽車產品的實際消費者。
另一方面,合理期待的界定非常模糊。正如歐洲報告所描述的那樣,消費者期待要求“填寫一個空白的公式”就是一個空罐子,標準的適用極其模糊。?特別是在考慮復雜產品(如汽車、藥品或者其他化學制品)設計的充分性時,消費者并不知道這些產品在不同情況下到底該如何設計才安全。當汽車以10 公里、20 公里甚至40 公里每小時速度撞上樹時,普通消費者怎么能知道被期待保護的程度??消費者期待標準的基本原則是消費者需要“對產品的設計有足夠的了解或熟悉,才能對其安全或性能有合理的期望”。?在適用傳統汽車時就飽受批評,適用于更為復雜的自動駕駛汽車就更難服眾。特別是在科幻作品的影響下,自動駕駛汽車常常以一種超現實的形象出現在大眾視野,法官要想借助充滿主觀色彩的消費者期待標準來認定自動駕駛汽車產品缺陷并非易事。此外,消費者期待標準無法處理明顯危險的情形,這意味著自動駕駛汽車的生產者一方可能會通過過度的危險警告來逃避責任。?
第二,風險效用標準的質疑。風險效用標準關注產品是否存在更加安全的合理替代設計,如果存在更加安全的合理替代設計而沒有采用即存在缺陷。美國《侵權法第三次重述:產品責任》第2B節采納了風險效用標準。相較于消費者期待標準,風險效用標準更加客觀,關注的是產品設計的成本、安全以及效益的平衡。例如,多裝或者少裝一個傳感器,都有可能影響自動駕駛汽車的運行安全,也會影響車輛的成本,故有必要進行成本與效應的衡量。?
然而,對于自動駕駛汽車適用風險效用標準困難重重。其一,風險效用標準要求受害人舉證存在一種更為安全的設計,這使得受害人舉證成本更高,往往需要借助專業人士才能完成,讓索賠成為一件代價高昂的事情。?在自動駕駛汽車產業發展初期,是否真的存在這樣的專業人士是存疑的。而即使是專業人士,要想舉證存在更加安全的設計又談何容易,生產者并不會主動披露算法和數據,替代設計方案無從下手。其二,風險效用標準強調成本與效益的分析,這種側重于經濟層面的分析方法,不一定適合自動駕駛汽車。自動駕駛汽車的安全問題直接危及的是廣大交通參與者的生命健康,很難用單純的成本效用來分析,系統設計的成本很難與一條條鮮活的生命進行直接對比,且成本常常可以通過產品定價轉移,生產者以此抗辯缺乏合理性。
如上文所述,無論是國家標準、行業標準,還是不合理危險標準的兩種測試方法都存在各自的問題,難以很好地救濟受害人。筆者認為,在自動駕駛汽車設計缺陷的認定上,可以將設計缺陷要件背后的過失元素充分挖掘,將設計缺陷要件內容由是否存在設計缺陷轉向是否違反注意義務,通過判斷自動駕駛系統本身是否違反特定的注意義務來認定其是否存在設計缺陷。而對于注意義務的違反,具體可以通過引入理性算法標準來完成,即發生事故的自動駕駛汽車產品是否符合一個理性算法的注意義務標準,以此破解缺陷認定的難題。
1.理性算法標準契合產品責任的過失屬性。理性算法標準來源于理性人標準,用以判斷行為人是否存在過失的問題,通常適用于過錯責任當中。盡管產品責任屬于無過錯責任,無需對生產者的過錯進行判斷,但缺陷要件本身飽含過失元素,特別是設計缺陷要件。從美國司法實踐來看,多年來,許多法院雖然聲稱已經將嚴格責任適用于設計缺陷案件,但實際上適用的是類似過失的責任原則。?在歐洲,《產品責任指令》對于設計缺陷的判斷淪為風險與效用的比較,但這種比較是否真正區別于一般侵權法中適用的對“過錯”的探究也遭到了質疑。特別是對于設計缺陷,發展風險抗辯的存在很大程度上削減了其責任的嚴格程度,具有了更多的過失屬性。?設計缺陷之所以采取過錯責任歸責,原因在于產品在設計研發階段充滿未知性,要求生產者承擔無過錯責任過于嚴格,只需要生產者盡到合理謹慎的態度,即滿足公眾對于設計安全的一般期待,這與制造缺陷脫離設計圖紙存在本質區別。故此,設計缺陷實際上暗含過失元素,即違反某種程度的注意義務。而理性算法標準將設計缺陷的判斷內容由是否存在缺陷轉化為是否違反特定的注意義務,抓住了設計缺陷問題的本質,也契合缺陷要件過失屬性的特征。當然,理性算法標準并不會改變產品責任無過錯責任的性質,只是將設計缺陷背后的過失以及注意義務凸顯。
2.理性算法標準適應自動駕駛汽車的產品屬性。按照《產品質量法》的規定,設計缺陷是一種非常嚴重的產品缺陷,意味著產品在投入流通之前就存在不合理危險,同時設計缺陷的判斷受到發展風險抗辯的限制,即設計缺陷的判斷常常以投入流通為時間點。這一規則預設的前提是產品具有穩定性,投入流通前屬于生產者控制的范疇,投入流通后屬于使用人控制的范疇。然而,與傳統產品不同,自動駕駛汽車等人工智能產品具有自主性和自我學習的能力,這意味著產品投入流通后究竟表現如何充滿了不可預測性,同時自動駕駛汽車在投入流通后還能通過交互不斷學習、升級和進化。基于此,生產者一方需要負擔特定的注意義務,這種注意義務應當是伴隨產品終身的,而不應當僅僅止步于投入流通之時。
與此同時,人工智能產品的核心是算法系統,這使得軟件越來越成為設計缺陷判斷的重點,而現行對于軟件的使用常常受到拆封合同的限制,即沒有任何軟件是百分百完美的,只要用戶拆封使用該軟件時正常運行即可,服務商并不為軟件崩潰或死機造成的損失負責,因為前者無法預料到缺陷帶來的風險。?對此,理性算法標準具有強大的適應能力和針對性:首先,理性算法標準直擊自動駕駛汽車最為核心的算法模塊,重點針對算法系統本身的安全進行判斷,讓不合理危險的認定更為聚焦。同時對于算法系統的鎖定,意味著生產者必須對產品提供持續的服務,而不僅僅止于投入流通之時,用戶有權接受持續的更新和補丁服務。其次,理性算法標準強調根據具體產品、具體場景、具體行為、具體時間來具體判斷,以適應自動駕駛汽車不斷學習進化以及不可預測的特征。例如,汽車在出廠時自動駕駛系統為1.0 版本,投入使用兩年后系統升級為2.5 版本,按照理性算法標準,這意味著對于這輛自動駕駛汽車產品缺陷的判斷需要不斷提高注意義務的水平,以便適應它不斷升級的能力。最后,理性算法標準充分尊重自動駕駛系統自主性特征,將自動駕駛系統獨立于生產者一方與使用人一方單獨對待,看到了直接規制自動駕駛系統的必要性和可能性,符合算法日益“擬人化”的發展趨勢。?
3.理性算法標準能夠有助于克服缺陷認定的困境。一方面,理性算法標準優于消費者期待標準。消費者期待標準強調以消費者對于產品的合理期待來判斷產品是否存在設計缺陷,本質上屬于偏主觀色彩的標準,充滿了不確定性和模糊性。而理性算法標準將視角對準自動駕駛汽車本身,是更為客觀的標準,強調自動駕駛汽車產品在具體場景下的行為是否符合一個理性算法的注意義務標準,比較的對象是一個客觀存在的理性算法形象,這比消費者不切實際的期待更為確定和客觀。另一方面,理性算法標準優于風險效用標準。風險效用標準強調風險與效用的比較,雖然相較于消費者期待標準更為客觀,但給消費者帶來了巨大的舉證負擔。對此,理性算法標準簡化了風險效用標準,不再強求消費者舉證一種更好的替代設計方案,只需要證明發生事故的自動駕駛汽車沒有達到一個理性算法的注意義務即可。從這個角度來看,理性算法標準吸收了消費者期待標準與風險效用標準的優點,同時克服了兩者存在的不足,以市場上客觀存在的同類型算法形象作為判斷產品缺陷的參考標準,蘊含風險效用標準中合理替代設計的要求,又不拘泥于高成本的風險效用比較,同時直接將注意義務施加給自動駕駛系統,也符合消費者合理期待的本質精神,并且更為直接高效。
4.理性算法標準增加了受害人救濟可能。自動駕駛汽車的質量狀態是非常多樣的,可能存在缺陷,也可能完全沒有缺陷,而更多的是處于有缺陷與沒有缺陷中間,即存在算法瑕疵或者算法錯誤的情況。按照產品責任的邏輯,受害人需要證明自動駕駛汽車存在缺陷,這無疑提高了受害人求償的門檻,同時也忽視了現實世界中大量存在的中間狀態,即存在某種程度的危險,但并未達到異常嚴重或者不合理的程度。對此,理性算法標準充分關注這些產品缺陷的中間狀態,只要自動駕駛汽車的行為不符合理性算法標準,就認定其存在不合理危險,進而需要承擔責任。這樣就可以把算法瑕疵或者算法錯誤的情形納入進來,增加了受害人救濟的可能。
5.理性算法標準能夠克服缺陷要件的負面影響。與制造缺陷訴訟僅僅涉及一件產品不同,設計缺陷訴訟質疑的是整條產品生產線上的完整性,因此其穿透了生產商規劃的整個核心。?為此,企業常常會花費巨大時間和精力成本,聘請最好的律師和專家來阻止原告的缺陷主張,以防缺陷對于企業聲譽帶來的負面影響。理性算法標準可以從兩個方面破解這一困境:一是打破缺陷必定導致十分嚴重的危害的印象,將算法瑕疵或者算法錯誤納入不合理危險當中,稀釋缺陷的嚴重程度,讓公眾對不合理危險有一個重新的認識。二是打破缺陷必定導致一批產品下架的結果,主張針對單個的人工智能產品進行具體認定。自動駕駛汽車出廠設置可能一樣,但流入市場后隨著使用的深入,每輛自動駕駛汽車算法性能和性格可能不一。一輛自動駕駛汽車在這一場景下發生事故,并不意味著同批次的其他自動駕駛汽車都會發生事故。此外,理性算法標準強調區分算法缺陷與算法錯誤。沒有算法缺陷的自動駕駛汽車產品也可能會出現算法錯誤,出現算法錯誤的自動駕駛汽車產品不一定就是算法缺陷,兩者需要區分對待。
6.理性算法標準適用具有切實可行性。理性算法標準以過失責任中的理性人為藍本,是切實可行的。對于傳統汽車來說,駕駛人操控汽車的運行,汽車是駕駛人的工具,法律以理性人標準對駕駛人提出了注意義務的要求,以確保汽車的安全運行。自動駕駛汽車到來后,機器駕駛取代人工駕駛,駕駛人的角色讓位于算法系統。雖然算法系統并不像駕駛人那樣具有“自然理性”,但在完成駕駛活動這一任務上,算法系統的“技術理性”足以讓其表現得像有理性的駕駛人一樣,甚至更加安全。由此一來,傳統針對駕駛人的理性人標準就需要讓位于針對算法系統的理性算法標準。與此同時,理性算法標準相較于理性人標準更為客觀和直接。例如,一輛自動駕駛汽車在距離障礙物150米遠時來不及剎車發生事故。對此,如果市場上大多數同類型的自動駕駛系統在同樣的速度、道路環境下都能在100 米遠就完成剎車避撞,那么發生事故的自動駕駛系統的表現就不符合理性算法標準。如此一來,理性算法標準的運用完全是可能的。?此外,這種理性算法標準是客觀存在的,且易于獲得。特別是當自動駕駛汽車相當普及的情況下,就會存在一個合理的自動駕駛汽車水平。此時,低于這一水平的自動駕駛汽車則會被認定存在缺陷。?
理性算法標準的適用需要考慮具體場景,強調在具體場景中去判斷自動駕駛汽車是否存在不合理危險。
1.理性算法標準的適用范圍。其一,理性算法標準僅適用于設計缺陷的判斷,并不適用于制造缺陷與警示缺陷。一方面,制造缺陷指的是產品本身背離了設計圖紙,從而使得產品存在不合理危險,生產者一方需要對此負擔無過錯責任,無需適用理性算法標準。另一方面,警示缺陷指的是生產者一方沒有以適當方式向消費者說明產品的使用方法以及危險防止方面應注意的事項,從而導致產品發生不合理危險,這種責任也有過失的性質,但針對的是生產者一方,適用理性人標準即可,無需適用理性算法標準。其二,理性算法標準在設計缺陷判斷中的位置。理性算法標準并非設計缺陷判斷的唯一標準,技術標準仍然是基本標準,理性算法標準只是判斷不合理危險的一種方法。第一步,確定造成事故的自動駕駛汽車是否符合國家標準、行業標準,如果不符合即存在不合理危險;第二步,如果符合國家標準、行業標準,或者沒有國家標準、行業標準,那么就需要檢驗造成事故的自動駕駛汽車是否達到了一個理性算法所應達到的注意義務。即使自動駕駛汽車符合國家標準、行業標準,也可能因為違反理性算法標準而存在不合理危險,進而認定存在產品缺陷。
2.理性算法標準的參考標準。無論是消費者期待標準,還是風險效用標準,都是在為產品安全提供合理的參考對象。理性算法標準的適用同樣需要確定一個參考標準。其一,理性算法形象的勾勒。理性人并非一個理想或者完美的人,而是一個共同體的普通成員。?同樣,對于自動駕駛汽車來說,理性算法標準提出的參考對象是市場上同類自動駕駛汽車的技術水平,這種技術水平不要求是行業內最頂尖的技術水平,但一定是行業內平均可以達到的技術水平。對于自動駕駛汽車,由于沒有使用人實際參與汽車的運行,法院審查的重點是汽車是否表現得如同它的程序應該呈現的那樣,法院可能會詢問事故中肇事的汽車是否達到了大多數其他自動駕駛汽車所能達到的標準。?如果其他廠商生產的汽車在還原情形下做出了同樣的應對措施,則產品不存在缺陷,如此可以減少產品缺陷認定標準難以把握的風險。?其二,理性算法形象的補白。理性算法標準脫胎于理性人標準,但并不等同于理性人標準。一輛自動駕駛汽車是否存在不合理危險,不能將其與使用人的水平進行簡單比較,以使用人的水平來要求自動駕駛汽車的安全程度是不合適的。但使用人的水平可以作為判斷理性算法標準的一個參考因素,原因在于人工智能本身模擬的就是人類的理性。如果一輛自動駕駛汽車在天氣、路況等都沒有任何問題的情況下,失控撞上一棵樹,造成了一個理性的使用人都不會發生的事故損害,那么可以認定自動駕駛汽車不符合理性算法標準。換言之,自動駕駛系統的表現要比一般駕駛人更加安全才合理,理性算法標準通常應當高于理性人標準。?當然,理性算法標準并不要求自動駕駛汽車的所有表現都全面超越駕駛人,在駕駛的舒適度、網絡安全以及應對突發事件等方面,自動駕駛汽車很可能不如駕駛人。
3.理性算法標準的具體適用。其一,車輛類型。理性算法標準強調將發生事故的自動駕駛汽車與相同或者類似功能的自動駕駛汽車進行比較,如此才能得出合理的結論。這一點與消費者期待標準與風險效用標準本質上是相通的。一方面,不同智能等級的自動駕駛汽車安全水平不同,參照的算法形象也不一樣。對于有條件自動駕駛汽車,理當對比其他有條件自動駕駛汽車的安全水平,而對于高度自動駕駛汽車、完全自動駕駛汽車,也應當對比同等級的車輛。有觀點就指出,相較于有條件自動駕駛,由于高度自動駕駛與完全自動駕駛階段,用戶需要完全信任自動駕駛系統,故此需要適用極其謹慎的標準。?另一方面,不同用途的自動駕駛汽車安全水平要求也不相同,需要構建的算法形象也要相應調整。在Bittner v.Am.Honda Motor Co.案中,被告本田公司試圖通過與雪地摩托車、普通摩托車等休閑類汽車的比較分析來捍衛自己公司的全地形車的安全性,但這種比較被法院排除在外。因此,正如大型轎車的生產者不能通過與緊湊型小汽車的比較分析來捍衛車輛的安全性能一樣,自動駕駛汽車的生產者也不能通過與傳統汽車或者不同用途的自動駕駛汽車進行比較來抗辯車輛的安全性。?其二,危險類型。從危險類型來看,自動駕駛汽車的危險包括已知危險與未知危險。對于已知危險而言,由于危險在自動駕駛汽車投入流通前已經充分顯露,理性算法標準應當更加嚴格。而對于未知危險,由于危險類型不可預見,自動駕駛汽車投入流通前無法進行驗證,要求自動駕駛汽車對這類危險都具備良好的應對能力并不現實,因此,理性算法標準需相應調低。
1.技術標準的完善。對于汽車行業來說,汽車的信息化、智能化是一種趨勢,相關國家標準、行業標準需要盡快完善。以機械化、電氣化為基礎的傳統汽車,更加強調功能安全,而對于自動駕駛汽車來說,還需要注意預期功能安全以及網絡與數據安全。對此,《智能網聯汽車生產企業及產品準入管理指南(試行)(征求意見稿)》《關于加強智能網聯汽車生產企業及產品準入管理的意見》《道路機動車輛生產準入許可管理條例(征求意見稿)》以及《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》都明確要求自動駕駛汽車產品滿足功能安全、預期功能安全、網絡與數據安全等過程保障要求。
第一,功能安全標準,主要解決自動駕駛系統的功能異常引發的不合理危險,在自動駕駛系統出現故障時,能夠迅速啟動保護或者采取糾正措施,防止發生危險事件。對于自動駕駛汽車來說,算法和數據模塊的加載使得汽車高度軟件化,同時各種傳感器、控制器、執行器的加載也提高了硬件安全的難度,如何確保系統軟件硬件的功能安全變得越來越重要,需要更新與之匹配的國家標準、行業標準。
第二,預期功能安全標準,主要解決因為自動駕駛汽車系統預期功能或者實現不足產生的不合理危險。由于傳感系統和復雜算法的引入,自動駕駛汽車很可能出現沒有系統故障卻無法實現預期功能的情況,即預期功能安全問題,其主要來源為“系統性能局限及人為誤操作”,如異常天氣導致感知系統無法發揮預期功能、異常的道路環境超出算法識別能力、人機交互操作中人為誤觸引發系統混亂等。在 《道路車輛預期功能安全》(ISO/PAS 21448)的影響下,我國也正在推動自動駕駛汽車預期功能安全標準的制定。例如,《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》 就明確要求企業必須具備預期功能安全保障的能力,建立預期功能安全開發流程和管理制度。
第三,網絡和數據安全標準,主要確保自動駕駛汽車電子電氣系統、組件和功能以及數據處于安全狀態。自動駕駛汽車的信息化使得數據傳輸變得高頻,系統必須與外界進行信息交互,這既為自動駕駛汽車的高度智能提供了助力,同時也產生了網絡和數據攻擊的危險。2020 年6 月,聯合國世界車輛法規協調論壇通過全球首個關于汽車網絡安全的強制性法規《網絡安全與網絡安全管理系統》。2021 年8 月,SAE 和國際標準化組織共同發布了一項針對道路車輛的網絡安全標準《道路車輛—網絡安全工程標準》(ISO/SAE 21434)。與此同時,我國于2021 年7 月出臺《汽車數據安全管理若干規定(試行)》,針對自動駕駛汽車的網絡安全和數據安全提出具體要求。2022 年2 月,《車聯網網絡安全和數據安全標準體系建設指南》正式出臺,明確自動駕駛汽車網絡安全與數據安全標準建設的具體內容。此外,《關于開展智能網聯汽車準入和上路通行試點工作的通知(征求意見稿)》明確規定,自動駕駛汽車應當能夠防御來自車輛外部連接、通信通道、軟件升級、重要數據和個人信息、行為以及物理操控六個方面的安全威脅。
2.警示義務的重視。警示缺陷主要指生產者未就產品風險進行警示,從而讓產品的使用產生了不合理危險。當前,不少生產者對于汽車的自動駕駛功能并未盡到全面真實的警示,導致使用人在使用時產生了不合理危險。如果企業生產的是輔助功能的汽車卻宣稱是自動駕駛汽車,或者生產的是有條件自動駕駛汽車卻宣傳是高度自動駕駛汽車,那么這種警示義務的違反將會增加產品使用的不合理危險,導致原本可以避免的事故頻繁發生。?特別是對于自動駕駛汽車來說,汽車的已知危險與未知危險都相較傳統汽車更多,生產者的警示義務顯得非常重要,可以影響消費者對于產品的使用預期。?《關于加強智能網聯汽車生產企業及產品準入管理的意見》 就要求生產者履行警示義務,包括明確告知車輛功能及性能限制、駕駛員職責、人機交互設備指示信息、功能激活及退出方法和條件等信息。
3.跟蹤觀察義務的補充。根據 《民法典》第1206 條規定,生產者負有跟蹤觀察義務,對于產品投入流通后發現存在缺陷的,應當采取停止銷售、警示、召回等補救措施。考慮到自動駕駛汽車具有自主性與自我學習能力,能夠持續升級迭代,生產者的跟蹤觀察義務更為重要。其一,義務類型。對于自動駕駛汽車來說,生產者需要同時負擔積極跟蹤觀察義務與消極跟蹤觀察義務,?前者通過提供持續的系統服務、分析汽車數據記錄系統等來主動實現,后者則通過車輛事故、負面評價事件來被動發起。其二,補救措施。對于自動駕駛汽車來說,需要根據產品缺陷的嚴重程度采取相應的措施。從理性算法標準出發,產品缺陷可能是整批汽車都存在非常嚴重的算法缺陷,也可能是單個汽車偶發式的算法錯誤或者算法瑕疵,前者意味著自動駕駛系統存在功能安全問題,需要采取召回措施,后者很可能是發生了偶發性的預期功能安全事件,并不需要采取大規模召回,采取在線升級等打補丁的方式更為經濟。
自動駕駛汽車是人工智能最為典型的應用,具有重要的社會價值。相較于機動車交通事故責任,產品責任在解決自動駕駛汽車事故責任方面更具共識和優勢,能夠從前端直接督促生產者改進技術提升自動駕駛汽車的安全性能,同時生產者也更具賠償能力和風險分散能力。但產品責任的適用并不容易,產品缺陷的認定存在法律和技術層面的諸多障礙。為此,本文提出理性算法標準,同時輔之以技術標準的更新、警示義務的重視以及跟蹤觀察義務的補充,試圖綜合解決自動駕駛汽車設計缺陷的認定難題。當然,產品責任并不能解決自動駕駛汽車引發的全部損害問題,存在產品無缺陷但卻引發事故的情形,同時產品責任具有成本高、時間長等不足,為此需要通過機動車交通事故責任、事故責任保險等方式予以補充。簡言之,無論何種責任規則,都應當平衡各方利益,在充分救濟受害人的同時,充分考慮技術革新的動力,唯有如此才能促進自動駕駛汽車產業的發展,造福整個社會。
注釋:
①有關自動駕駛汽車產品屬性的爭議,請參見王樂兵:《自動駕駛汽車的缺陷及其產品責任》,《清華法學》2020 年第2 期;高完成、寧卓名:《人工智能產品致害風險及其侵權責任規制》,《河南社會科學》2021 年第4 期。
②許中緣:《智能汽車侵權責任立法——以工具性人格為中心》,《法學》2019 年第4 期。
③馮玨:《自動駕駛汽車致損的民事侵權責任》,《中國法學》2018 年第6 期。
④John Villasenor,Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation,Brooking,2014,p.15.
⑤Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.846.
⑥鄭志峰:《自動駕駛汽車交通事故責任的立法論與解釋論——以民法典相關內容為視角》,《東方法學》2021年第3 期。
⑦Draft Report with Recommendations to the Commission on a Civ il Liability Regime for Artificial Intelligence,2020,paragraph A.
⑧Carrie Schroll,Splitting the Bill: Creating a National Car Insurance Fund to Pay for Accidents in Autonomous Vehicles,109 Nw.U.L.Rev.803,2015,p.818-819.
⑨鄭志峰:《自動駕駛汽車的交通事故侵權責任》,《法學》2018 年第4 期。
⑩Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AE.
?程嘯:《侵權責任法(第三版)》,法律出版社2021 年版,第561 頁。
???[美]戴維·G.歐文:《產品責任法》,董春華譯,中國政法大學出版社2012 年版,第125、108~109、159 頁。
?Sven A.Beiker,Legal Aspects of Autonomous Driving,52 Santa Clara L.Rev.1145,2012,p.1149.
?Gary E.Marchant,The Coming Collision Between Autonomous Vehicles and the Liability System,52 Santa Clara Law Review 1321,2012,p.1327-1328.
?王樂兵:《自動駕駛汽車的缺陷及其產品責任》,《清華法學》2020 年第2 期。
?張韜略、蔣瑤瑤:《德國智能汽車立法及〈道路交通法〉修訂之評介》,《德國研究》2017 年第3 期。
?European Parliament,Draft Report with Recommendations to the Commission on a Civil liability Regime for Artificial Intelligence,2020,Article 4,Article 8.
?劉靜怡主編:《人工智慧相關法律議題芻議》,元照出版集團2018 年版,第102 頁。
?Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AI.
?張力、李倩:《高度自動駕駛汽車交通侵權責任構造分析》,《浙江社會科學》2018 年第8 期。
?鄧建志、程智婷:《自動駕駛汽車適用產品責任的困境與對策》,《時代法學》2022 年第3 期。
?張欣:《我國人工智能技術標準的治理效能、路徑反思與因應之道》,《中國法律評論》2021 年第5 期。
???冉克平:《產品責任理論于判例研究》,北京大學出版社2014 年版,第95、88~89、160 頁。
?不少學者主張適用消費者期待標準,參見韓旭至:《人工智能的法律回應:從權利法理到致害責任》,法律出版社2021 年版,第147~148 頁;宋宗宇、林傳琳:《自動駕駛交通事故責任的民法教義學解釋進路》,《政治與法律》2020 年第11 期。
?楊立新主編:《世界侵權法學會報告(1):產品責任》,人民法院出版社2015 年版,第68 頁。
?Kevin Funkhouser,Note,Paving the Road Ahead:Autonomous Vehicles,Products Liability,and the Need for a New Approach,2013 Utah L.Rev.437,2013,p.456.
?K.C.Webb,Products Liability and Autonomous Vehicles: Who’s Driving Whom,23 Rich.J.L.&Tech.1,2017,p.29-30.
?參見楊潔:《論智能汽車產品缺陷認定及其責任承擔》,《東南大學學報(哲學社會科學版)》2020 年第6 期。
?Mythili Srinivasamurthy,Autonomous Vehicles and Complexities in Allocation of Liability,1 Jus Corpus L.J.360,2021,p.365.
?[英]肯·奧立芬特:《產品責任: 歐洲視角的比較法評論》,王竹、王毅純譯,《北方法學》2014 年第4 期。
?胡凌:《人工智能的法律想象》,《文化縱橫》2017 年第2 期。
?Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.146.
?Ryan Abbott,The Reasonable Computer: Disrupting the Paradigm of Tort Liability,The George Washington Law Review 1,2018,p.37-38.
?[日]彌永真生、宍戶常壽:《人工智能與法律的對話3》,郭美蓉、李鮮花、鄭超譯,上海人民出版社2021 年版,第149 頁。
?葉金強:《侵權過失判斷之中的理性人標準的建構》,《中德法學論壇》2010 年第8 期。
?[美]大衛·C.弗拉德克:《負責人缺失的機器:責任規則與人工智能》,侯賀亮、余守濤譯,載趙萬一、侯東德主編:《法律的人工智能時代》,法律出版社2020 年版,第68 頁。
?孫建偉、袁曾、袁葦鳴:《人工智能法學簡論》,知識產權出版社2019 年版,第87 頁。
?Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.145.
?Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.845.
?Gary Marchant &Rida Bazzi,Autonomous Vehicles and Liability: What Will Juries Do,26 B.U.J.Sci.&TECH.L.67,2020,p.97.
?鄭志峰:《車企要避免夸大宣傳輔助駕駛功能》,載《法治日報》2021 年8 月25 日。
?袁曾:《無人駕駛汽車侵權責任的鏈式分配機制——以算法應用為切入點》,《東方法學》2019 年第5 期。