陳瑞英, 肖 克
(石家莊鐵道大學 文法學院,河北 石家莊 050043)
自動駕駛汽車作為汽車電動、電控系統與傳感技術、軟件算法的集合體,是人工智能時代來臨的典型代表。按《汽車產業中長期發展規劃》(以下簡稱《發展規劃》)預想:到2025年,國內自動駕駛新車裝配率將達到80%,高度和完全自動駕駛汽車逐漸進入市場。自動駕駛汽車發生交通事故后,由于車聯網和智能交通加入、責任主體的多元化、技術規范缺失與法律滯后導致責任主體難以認定、原因調查、責任分配困難等問題,這也是立法亟需面對的重大議題。
自動駕駛汽車是載有測距儀、傳感器等自動駕駛系統的,能夠根據使用人的指令,自動控制行駛、完成運送目的的機動車[1]。根據SAE(國際自動車工程師學會)的分類,自動駕駛汽車被分為:L1(駕駛輔助)、L2(部分自動駕駛)、L3(有條件自動駕駛)、L4(高度自動駕駛)、L5(完全自動駕駛)5個階段。本文主要針對人機共駕階段,即L3、L4等級自動駕駛汽車交通事故侵權責任進行研究。
人們經常將自動駕駛與無人駕駛、智能汽車、智能網聯汽車相混淆,例如許中緣先生認為它們在概念上無太大差異[2]:無人駕駛是指“汽車運行通過自身駕駛系統實現,其核心系統依賴人工智能[3]”,這屬于L5等級汽車的智能水平。在張韜略先生的觀點中,智能汽車是一種能夠感知外界環境、實現自動行駛的新一代汽車[4],此觀點也把智能汽車歸于L5等級,但智能化是指事物在網絡、人工智能等技術支持下所具有的滿足人需求的屬性,為此智能汽車應包括L1~L5所有階段。智能網聯汽車的定義規定在《智能網聯汽車道路測試管理規范(試行)》中,重點強調了網聯功能,不過目前網聯技術應用已成共識,智能網聯汽車與自動駕駛汽車差異不甚明顯。如表1所示,智能汽車、智能網聯汽車、自動駕駛汽車、無人駕駛汽車的概念范圍應是一個由寬到窄的遞進關系。

表1 不同智能水平車輛分析表
根據定義總結出自動駕駛的三大特征:第一,安全便利性,自動駕駛方便了駕駛人對汽車的操控,在L5階段甚至不存在酒后駕駛、疲勞駕駛等危險情況,不掌握駕駛技術的人也可享受汽車出行的便利。第二,學習自主性,建立在“深度學習”上的駕駛系統通過傳感器收集、分析周圍環境信息,選擇當前駕駛、停靠的最優解。第三,信息開放性,5G-V2X蜂窩車聯網云平臺和智能基礎設施可實現云端數據共享、編隊行駛、擴展傳感,完成車—人—路—網絡之間信息實時協同感知,保證駕駛安全,緩解城市擁堵[5]。在“人機共駕”階段下,3個特征又呈現新的變化。
1.責任主體增加
軟件開發者加入自動駕駛汽車責任主體。傳統機動車的責任主體包括負責駕駛的駕駛人與保證質量的生產者。在“人機共駕”自動駕駛汽車中,除了駕駛系統與駕駛員負責駕駛工作和汽車軟硬件的維護之外,也需要軟件開發者對自動駕駛系統的運行、更新進行研發創新。基于對自己產品負責的前提,軟件開發者也應被列入自動駕駛汽車責任主體當中。
2.“云端”與智能交通應運而生
2018年,國家工信部印發了《車聯網(智能網聯車)產業發展行動計劃》(以下簡稱《行動計劃》),強調依靠5G-V2X網絡(車—人—路—網信息互聯的智能交通網絡)推進車聯網云平臺建設并構建智能道路基礎設施。“云端”的宏觀操控克服了單個汽車感知、信息獲取的局限性,使得大范圍信息交互與車輛協同成為可能。科技發展離不開規則制約,5G-V2X技術在保障網絡安全和用戶隱私方面尚需法律與智能交通服務管理規范及時跟進。
3.人機配合要求提高
人機熟練配合是自動駕駛汽車信息開放性的體現,這在“人機共駕”中尤為重要:規定路線上由自動駕駛系統負責駕駛,駕駛人負責監控并隨時準備接管。即使在人工駕駛模式下,駕駛人的駕駛習慣也會被自動駕駛系統分析學習,從而潛移默化地影響汽車的性能[6]。這一特性給“人機配合”的汽車設計提出挑戰,又要求確立駕駛人行為規范。
4.事故原因難以確定
自動駕駛汽車交通事故原因難以調查。參與主體的多元化,自動駕駛技術及使用標準尚未出臺,加之事故原因紛繁復雜,駕駛人疏于監管、操作系統失靈、其他交通參與主體的違章行為、第三人惡意網絡入侵等情況中的一個或多個均有可能成為事故發生原因,這增加了事故信息的篩選、處理難度。
5.無過錯責任與過錯責任并存
無過錯責任原則所占比重增加。我國機動車交通事故以過錯責任原則為歸責原則,在自動駕駛汽車中由于自動駕駛系統的參與,產品責任發揮的作用也進一步增加,承擔無過錯責任的產品責任與承擔過錯責任的機動車交通事故責任將共同對“人機共駕”自動駕駛汽車的交通事故責任追究辦法提供解決途徑。但如何對二者有效區分、區別適用還需要在立法、司法上進行研究、積累經驗。
《道路交通安全法》和《民法典》圍繞“駕駛人責任”規定了交通事故處理的基本規則和特別規定,但是在自動駕駛交通事故處理中責任主體的增加、車聯網的出現導致現有事故責任主體認定失靈。
以邯鄲特斯拉自動駕駛交通事故致死案件為例,事故原因是處于“自動駕駛模式”的汽車未能區別前方障礙,雖然駕駛人也存在過于依賴自動駕駛的過錯,但若因此要求其自擔風險不符合法律正義。對此,沃爾沃、谷歌等汽車及軟件制造商表示愿意對自動駕駛模式下汽車或其產品造成的損失承擔責任,但明確責任需要的是立法確認而不是生產者自覺。盡管《最高人民法院關于審理道路交通事故損害賠償案件適用法律若干問題的解釋》規定了“當機動車由于產品缺陷導致交通事故時,當事人可以請求生產者或銷售者承擔責任”,但這遠遠不能解決責任主體認定等問題。
在車聯網云平臺、智能交通實現未來交通人—車—路—云的高效協同的背后,需要責任主體對城市交通進行宏觀操控。但由于車聯網、智能交通等技術前期投入成本高,商業模式尚在探索階段,在自動駕駛交通事故中難以對“云端”責任主體進行明確認定。
因果關系是連接加害行為與損害結果、損害賠償的侵權責任構成要件[7]。通常情況下,事故原因和基本情況是由公安交通管理部門制作交通事故認定書予以確定的。自動駕駛汽車交通事故的因果關系難以確定是因為事故原因的調查困難:不僅需要判斷事故車輛所處的駕駛狀態,并且囿于技術壁壘,鑒定環節也需要專業人員參與。另外在產品責任追究中,產品責任的歸責前提是存在生產者生產產品的“在先生產行為”,即若生產者、銷售者因生產、銷售缺陷產品致使他人人身、財產受損,生產者、銷售者就應承擔產品責任[8]。但在自動駕駛中,人工智能自發行為能否被認定為“在先生產行為”而要求生產者擔責呢?這同樣需要在明確因果關系的基礎上進行討論。
隨著產品責任在自動駕駛中發揮的作用增加,無過錯責任也將成為自動駕駛交通事故歸責原則的一部分,現有的歸責原則難以解決因產品責任導致自動駕駛交通事故的情況。為此美國、日本在立法上把駕駛人列為責任主體,理由是基于運行利益考慮:駕駛人選擇自動駕駛模式就應為其可能造成的后果擔責[9]。國內有研究主張“危險控制理論”(誰能控制、減少危險誰擔責),強調支配者承擔責任、運行利益作為補充[10],自動駕駛系統正常運轉的背后是軟件開發者的深入研發與制造商的制造和裝配,因此汽車生產者,尤其是軟件開發者應當就產品責任對交通事故負責。但關于自動駕駛系統應當如何對事故負責,怎樣公平合理地劃分人與系統的責任等問題尚未妥善解決。
“人機共駕”自動駕駛汽車責任主體可從人、AI、云端三個部分展開討論。作為機動車侵權責任主體,駕駛人主要負責汽車行駛監督和接管,這表明其支配地位依然存在。對汽車的討論集中在軟件領域,國內研究中大都反對賦予人工智能法律人格,代之以確認軟件開發者的責任主體地位[11]。問題在于軟件開發者承擔責任時,如何既保護駕駛人與受侵害人合法權益,又激發生產者研發熱情和消費者購買欲望。此外在V2X云平臺和智能基礎設施的建立上,2019年《國家車聯網產業標準體系建設指南(征求意見稿)》(以下簡稱《建設指南》)中提出建設云控平臺、大數據平臺等管理標準,這要求智慧路網運營者為網絡運行安全負責。
因果關系確定困難在于難以連接行為與損害結果,或者聯系缺乏條件性與相當性的要求。自動駕駛汽車高度專業性的特點提高了信息處理難度,事故調查需要專業知識、設備和行業標準、規范的施行。而又因學習自主性,收集數據、形成認知結果、指導駕駛行為均由系統獨立完成[12],“運算黑箱”使得人類只能被動接受它帶來的結果而難以洞悉其算法演算過程[13],這導致難以定義產品缺陷和確認事故原因,為此需要確立駕駛行為規范和產品技術標準,理清因果關系,落實責任人。
現有交通規則圍繞《道路交通安全法》、《道路交通安全法實施條例》等法律法規展開治理,在車聯網V2X云平臺和車路協同等智能交通概念帶來信息交互與交通感知的革命的同時,也對現有交通治理體系和治理能力提出了新的要求:從單車智能到人機協同,不僅“云端”網絡安全監管等方面亟需法律法規與時俱進,而且數據網絡搭建、智能基礎設施建設等智能交通也需要確定統一管理標準。
駕駛人承擔機動車交通事故責任的理論來源是對汽車享有的運行利益與運行支配[13],若由駕駛系統與云端網絡操控汽車,這一理論前提將不復存在。因為法律在確立過程中具有滯后性,新事物嶄露頭角之際出現相應的法律空白在所難免,這需要對法條進行變動或作出合理解釋。在“人機共駕”階段,自動駕駛交通事故責任不僅是機動車交通事故責任與產品責任的結合,還應當包括網絡提供服務者責任。產品責任與機動車交通事故責任之間如何進行協調,智慧路網運營者如何參與責任分配等問題都依靠自動駕駛汽車交通事故責任處理規則的建立。
所謂“人為因素參與”,就是在交通事故發生后以“人為因素”為考量判斷最終的責任承擔。這需要調查駕駛人、智慧路網運營者是否違反法定義務,并檢查自動駕駛汽車是否存在質量缺陷,缺陷是產品固有還是由于駕駛人未盡保管義務。若事故由駕駛人過錯所致,應確定駕駛人及相關責任人承擔事故責任;汽車存在產品固有缺陷的,追究生產者產品責任;智慧路網運營者也要為違反法定義務的行為承擔網絡提供服務者責任。
以“人為因素參與”為標準判斷責任主體具有可行性。以2020年6月央視報道的滴滴自動駕駛網約車為例,汽車的駕駛、路線選擇由自動駕駛系統自主完成,駕駛人負責車輛監督并隨時準備接管,未來還會有車聯網及“云端”的宏觀操控。在交通事故發生后,判斷“人為因素參與”可以避免因責任主體難以認定進而責任分配不公的問題,這也依賴自動駕駛技術規范以及駕駛人行為規范等標準的出臺和法律的與時俱進。
確立自動駕駛及智能交通產業技術及使用規范可以解決因果關系難以確定和信息網絡安全問題。《建設指南》確立了道路運行安全技術條件、自動駕駛違法取證規范等一系列標準,推動了事故原因的調查、產品缺陷的認定,但仍需加以完善。
第一,完善自動駕駛汽車駕駛信息保存制度。《建設指南》中規定了事故調查規范、違法取證規范等一系列事故取證規范制度,但還需完善自動駕駛汽車駕駛信息保存制度。德國2017年頒布《德國自動駕駛汽車法》,規定自動駕駛汽車要配備車輛行駛記錄的“黑匣子”以解決事故取證問題[14]。這一舉措對于事故原因調查和證據收集,緩解受侵害人舉證的弱勢地位具有較高的可行性。
第二,據《發展規劃》預想,未來20年各個等級的自動駕駛汽車均會在道路上行駛,這就需要根據自動駕駛等級確定駕駛人注意義務范圍,為此有必要將駕駛人行為規范寫入立法。以美國亞利桑那州Uber汽車撞死行人一案為例,官方認定的事故原因是駕駛員怠于行使監督義務,這反映了自動駕駛汽車中駕駛人注意義務承擔的必要性[15]。駕駛人義務不僅應包括行駛過程中的注意事項,還要包括汽車的日常維護、保養等義務。
自動駕駛交通事故的規則制定應是在現有處理辦法的基礎上結合自動駕駛技術特點進行調整和改造。針對機動車交通事故責任、網絡提供服務者責任、產品責任在自動駕駛汽車交通事故中并存的問題,適用《民法典》多個侵權人的侵權責任分配辦法具有可行性,但是也要根據“人機共駕”不同情形區分看待。
共同侵權行為是指“二人以上共同實施的侵權行為,造成他人損害的,應當承擔連帶責任”。在“人機共駕”自動駕駛中,駕駛人、軟件開發者、智慧路網運營者滿足“二人以上”的主體要件。在主觀過錯上,根據“有無意思聯絡”的評判標準,共同侵權行為被劃分為主觀共同侵權行為與客觀共同侵權行為。交通事故屬于過失侵權,責任主體不可能存在故意傷害他人的共識,因此主觀共同侵權行為在“人機共駕”中缺少適用的可能。但是客觀共同侵權可以解決駕駛過失與產品缺陷并存時的責任問題,這又根據“疊加共同侵權行為”與“分別侵權行為”區別看待。
共同危險行為作為兜底條款適用。共同危險行為要求“能確定具體侵權人時,由侵權人擔責;不能確定具體侵權人時,行為人擔責”。對于人工智能或云網絡操控可能會出現的責任主體過錯無法區分或涉及道德倫理等難以進行責任分配的情況,適用共同危險行為并設立保險或基金理賠更為可行。
從功能汽車到自動駕駛汽車,汽車行業的未來將是聯通化、智能化、共享化的未來,而這些都將以自動駕駛技術作為開啟未來大門的鑰匙。雖然現階段自動駕駛汽車的事故責任處理是人工智能時代拋出的一大難題,但其本質依然沒有脫離侵權責任處理的內核,尤其是在“人機共駕”狀態下,產品責任、機動車交通事故責任仍然有相當的適用空間。對此,我國應當在現有機動車交通事故責任處理框架之上,切實引導自動駕駛汽車與智能交通行業技術標準與責任立法,妥善處理好各方利益主體的關系。