張建文 賈章范
摘要:無人駕駛汽車對以駕駛人員主觀過錯為基礎的機動車交通事故責任產生了顛覆性影響,但其精密的人造物屬性和“社會允許的發展風險”的特征亦為產品責任和高度危險責任的適用提供了理論基礎。在現行交叉管理的行政體制下,我國不妨設立國家智能汽車創新發展領導小組,改革駕駛人員資格制度和累積記分制度,為無人駕駛汽車安裝“黑匣子”并建立省級“黑匣子”分析中心,通過“雙保險”制度和賠償基金并行的方式實現國家監管、技術創新與受害人救濟的綜合平衡。
關鍵詞:人工智能;無人駕駛汽車;歸責原則;法律應對
中圖分類號:D922.294文獻標識碼:A文章編號:1673-8268(2018)04-0031-07
一、問題的提出
2018年3月20日,優步公司的無人駕駛汽車在美國亞利桑那州因未識別出橫穿車道的行人伊蓮·赫茲伯格而致其死亡。美國國家公路交通安全管理局(NHTSA)和國家運輸安全委員會(NTSB)隨后成立專案小組介入調查,優步亦暫時中止其無人駕駛汽車項目[1]。從谷歌無人駕駛汽車與公交車發生碰撞[2]到特斯拉Models致車主約書亞·布朗死亡[3],再到奔馳汽車定位巡航系統失靈狂奔120公里[4],直至全球首例無人駕駛汽車致行人死亡案件,無人駕駛汽車在給人們帶來對未來社會美好憧憬的同時,亦引發了社會公眾對無人駕駛汽車安全性和可靠性的質疑。
毫無疑問,無人駕駛汽車在緩解交通擁堵、減少環境污染、構建智慧城市等方面具有重要的社會價值,其背后亦隱藏著世界各國爭搶人工智能時代技術制高點和國際話語權的大國博弈,但無人駕駛汽車對駕駛人員的取代仍有可能對以駕駛人員主觀過錯為基礎的機動車交通事故責任體系造成顛覆性的影響,甚至引發人類能力退化[5]和社會單向度發展[6]的焦慮。然而,在無人駕駛汽車產業方興未艾之時,最直接和重要的挑戰則來自于無人駕駛汽車侵權后的責任認定和損害填補,通過合理的制度構建內化產業發展過程中溢出的負外部性風險,以期實現技術創新、填補損害和有效監管的綜合平衡。二、制度困境:無人駕駛汽車與現行法律體系的沖突無人駕駛汽車作為人工智能時代的典型產物,依靠信息采集系統收集的“數據血液”和深度學習算法組成的“智慧大腦”,能夠在運行自動化的基礎上實現遠距離運輸之目的,在某種程度上可能導致駕駛人員的集體消亡。聯合國歐洲經濟委員會于2016年公布的《維也納道路交通公約》明確肯定了無人駕駛技術在交通運輸領域的適用[7],以駕駛員主觀過錯為基礎的責任承擔體系亦會隨著無人駕駛系統的普及而重新進行梳理和構建,工具理性和價值判斷[8]相融合的無人駕駛汽車對現行法律體系的挑戰已然迫在眉睫。
(一)與駕駛資格制度相齟齬
根據現行的《道路交通安全法》和《機動車駕駛證申領和使用規定》(公安部第71號令),申領機動車駕駛證應符合特定的年齡條件和身體條件,在不違反禁止性申領條件的基礎上通過機動車駕駛考試方能取得機動車駕駛資格。傳統的機動車輛完全依賴于駕駛人員的機械控制,且由于駕駛行為本身內含特定的危險性而關乎公共安全,世界各國無不對駕駛員資格制度進行了具體而詳細的強制性規定,以期通過嚴格的資格準入防范因駕駛技術的不足而危及公共安全的行為。
但無人駕駛汽車擺脫了對駕駛人員的技術依賴,憑借自動駕駛系統和數據采集系統即可實現安全運行的目的,不再需要特定的年齡條件和資格許可制度。換言之,無人駕駛汽車對傳統駕駛人員的取代將使得駕駛資格制度退出歷史舞臺,只要具備特定程度的認知能力和操作能力即可成為無人駕駛汽車的操作者。但這并不意味著任何人在任何條件下均可對無人駕駛汽車進行操作,由于無人駕駛汽車在某種程度上仍具有危險品的性質,須以操作者具備特定程度的認知能力、行為能力和理解能力為必要條件。
(二)責任主體難以確定
侵權行為,指因不法侵害他人的權益,依法律規定,應對所生損害負賠償責任的行為[9]。在損害發生的基礎上,責任主體的確定具有至關重要的作用,其不僅關系到損害填補與受害人救濟,而且涉及到損害的分擔和可歸責性的探討,甚至影響著《侵權責任法》威懾與譴責功能的實現。
無人駕駛汽車產業不僅涉及自動駕駛系統的開發者、精密地圖的測繪者、汽車的生產者與銷售者、產品的消費者等諸多主體,還與無人駕駛汽車本身的系統開放性和高度自主性緊密相關。除了上述主體復雜的利益博弈,難以避免的系統漏洞、數據采集的不完整性、遭受黑客攻擊等原因也有可能導致無人駕駛汽車自動化決策錯誤。更為復雜的是,無人駕駛汽車通過深度學習算法和大數據分析功能而具備一定程度的自主性,能夠脫離原有的程序設計而不斷從行駛經驗中進行學習,其高度自主性的背后可能隱藏著行為的不可預測性[10]和損害的難以歸責性[11]。值得注意的是,無人駕駛系統的本質是由復雜的數學算法組成的人工智能駕駛系統,其外觀與傳統的交通工具并無實質差別,其本身的工具屬性決定了其在人物二分的民法視角下只能被納入物的范疇,且難以應對極具解釋張力的價值判斷與價值選擇,絕不可能成為責任主體而獨立承擔責任。
(三)與創構論因果觀相矛盾
在《侵權責任法》領域,因果關系亦經歷了從實在論到描述論再到創構論的轉變。無人駕駛汽車通過自身的信息收集系統和網絡平臺海量的數據存儲自主作出行駛決策,而信息的數據化使因果關系量化獲得關系強度和正負性質的同時,喪失了原有的必然性和方向性[12]。數據作為0和1的組合而表現出來的比特形式[13],不僅受制于信息載體的內容,亦會隨著數據的不斷累積而呈現出某種較為清晰的發展趨勢,這也是大數據在發現和探尋規律時的基礎應用。但這是在消耗特定數據獨特性的基礎上而獲得的整體優勢,使得特定的侵害行為與損害結果之間的因果關系趨于模糊而難以對主體進行歸責。
因果關系作為侵權人承擔民事責任的必要條件,應凸顯違法行為引發損害事實的客觀性[14]。在否定了無人駕駛汽車承擔民事責任的主體資格的同時,無人駕駛汽車通過深度學習而突破原有的程序設計和因自動化決策錯誤產生的損害也切斷了損害結果與特定主體的因果關系。責任主體本身的難以確定與因果關系趨于模糊相結合極易導致被害人陷于求助無門之困境,但在切斷因果關系的前提下,對特定主體進行客觀歸責而不考慮其主觀有責性亦不符合意思自治和自己責任之原則,為避免利益沖突的博弈主體陷入“零和困境”,亟須通過創構論因果觀確定相當性的責任標準。
(四)個人信息泄露的風險增大
在大數據和人工智能的時代背景下,個人信息承載著人格利益、商業利益和公共管理等多重價值,個人敏感信息的強化保護與國家基于公共管理目的之利用[15]應得到足夠的重視與肯定,但這并不意味著個人信息的一般性商業利用和經營者去個人化的資料處理成為不受法律約束和保護的監管盲區。究其原因,仍在于個人信息的數據化成為人工智能時代的“工業石油”,個人信息的自主決定權[16]與一般信息的商業化利用的背后隱藏著數據保護與信息流通的邏輯悖論,個人信息泄露的風險亦隨之擴大。
無人駕駛汽車需借助精密的地圖導航系統、強大的信息采集系統和高度智能的分析決策系統,在高速運行的過程中必須時刻關注外界的風吹草動方能保證機動車運行的安全性。但位置信息、行車軌跡、乘車時間等點滴記錄的數據反復疊加即可拼湊出特定主體的日常生活軌跡,再加上無人駕駛汽車本身依賴不同主體的數據共享,個人從單純的信息接收主體變為數據生產、數據接收與數據消費共同融合的新型角色,數字化生存[17]境遇下的個人信息泄露的風險亦隨之增大。值得注意的是,無人駕駛汽車自身的媒介屬性蘊含著極為重要的商業價值,海量的數據搜集和大數據的挖掘分析使預測性結果[18]的探尋成為可能,也容易使其成為黑客攻擊的對象而導致個人信息泄露。三、制度張力:特殊侵權類型的擴張適用融合了大數據分析和自動化決策的無人駕駛汽車極大地沖擊了《侵權責任法》對侵權主體、主觀過錯、因果關系等內容的制度性安排,但無人駕駛汽車在非通用型人工智能階段造成的損害仍可通過《侵權責任法》自身的邏輯張力和制度安排進行擴張性解釋,通過類比的方法實現技術創新與制度穩健的平衡和協調。具體而言,無人駕駛汽車導致的損害直觀地反映為機動車交通事故責任,也因其精密的人造物屬性而與產品責任密切相關,還有可能被視社會發展允許的風險而與高度危險責任具有一定的相關性。
(一)機動車交通事故責任
無人駕駛汽車是傳統汽車產業轉型升級的新方向,其外觀設計、歷史沿革、損害結果均與傳統的機動車輛具有極強的相似性,其損害責任的承擔與機動車交通事故具有較強的可類比性。但無人駕駛汽車最為顯著的特征即為對駕駛人員的消減和替代,通過駕駛程序的自動化運行而實現運輸之目的,這同樣意味著以駕駛人員主觀過錯為基礎的二元歸責體系[19]可能難以適用于無人駕駛汽車侵權責任的認定。
法定的注意義務是認定過錯的基本標準[20],在滿足當事人主觀可歸責性的基礎上尚須在客觀上違反了注意義務。將人類從枯燥煩悶的長距離駕駛中解放出來是無人駕駛汽車的核心價值,若對操作人課予注意義務,不僅大大限縮了操作者的主體資格范圍,亦無法實現無人駕駛汽車將駕駛人員從繁重的駕駛任務中予以解放的歷史使命。更重要的是,注意義務的邊界可能會因人為接管問題變得難以確定。在無人駕駛汽車的行駛過程中,何時進行人為干預、如何進行人為干預、人為干預的程度以及是否需要操作者具備特定的駕駛能力等均是亟須回應的問題。然而,若不對操作人員課予法定的注意義務,以預見可能性為中心的結果無價值型過失理論[21]便不存在適用的基礎和前提,對無人駕駛汽車操作者的追責亦喪失了正當性的依據。無論是否對無人駕駛汽車的操作者課予注意義務,均容易陷入技術目的與法律手段、主觀過錯與責任承擔的邏輯悖論,究其原因,仍在于無人駕駛對駕駛人員的削減與代替使得以駕駛人員主觀過錯為基礎的責任體系不具有可適用性。
(二)產品責任
在否定了無人駕駛汽車獨立承擔民事責任的基礎上,以駕駛人主觀過錯為基礎的機動車交通事故責任亦因駕駛人員的取代而不具有可行性,但無人駕駛汽車精密的人造物屬性為產品責任的適用留下空間。隨著傳統的汽車生產者向“技術+制造商+出行服務”的“三維一體”[22]模式轉型,無人駕駛汽車的生產者在獲得最大化市場價值的同時亦具備了損害負擔的能力。從風險控制的角度而言,排除故意破壞、黑客攻擊等可歸責于其他主體的因素,無人駕駛汽車的損害來自于自動駕駛系統難以避免的系統漏洞和因數據采集不完整而導致的自動化決策錯誤。而掌握核心技術的生產者作為風險的基本來源,具有較強的風險掌控能力,亦能通過集中化解風險的手段抽調出更多的社會資源。在追求利益最大化和損害最小化的過程中,社會整體亦會因事故的減少和技術的精進而獲得最大化的效益。在社會生活層面,由生產者承擔責任的方式能夠得到較為充分的實踐支撐,在客觀上具有較強的可行性。美國國家公路交通安全管理局(NHTSA)于2016年3月明確表示,谷歌無人駕駛汽車符合聯邦法律,且其司機是自動駕駛系統,而非車主本人[23]。沃爾沃(Volvo)公司亦宣布對無人駕駛汽車的損害承擔責任。人工智能產品雖具備特定程度的自主性,但其來源于工程師和制造者的程序設計,且其智能限定于特定的應用場景,產品責任模式規避了人工智能主體資格的討論,能夠從反面角度對其可行性進行證成。
但《產品責任法》第四十一條規定了生產者在“產品投入流通時,引起損害的缺陷尚不存在”和“將產品投入流通時的科學技術水平尚不能發現缺陷的存在”等情形下的免責條款,無人駕駛汽車的大數據分析功能和自動化決策功能可能導致損害的不可預測性,但這并不影響生產者責任承擔的可行性。首先,發展風險的抗辯應符合消費者合理期待標準之核心要素[24],無論何種產品均應符合特定的質量標準和性能,至少符合消費者對產品質量和產品安全合理標準的期待,不能把發展風險當做自身拒絕承擔責任的借口。其次,隨著傳統汽車產業“三維一體”的結構重組,出行服務可能成為消費者與汽車生產者最核心的關系紐帶,提供安全的出行服務將成為合同履行的應有之義。最后,因系統漏洞或數據采集不完整等原因導致的不可預測性風險可以作為無人駕駛汽車產業內在的風險成本,溢出的負外部性風險可以通過生產者擔責的方式進行內化,以期為受害者的救濟提供更為安全的基本保障。
(三)高度危險責任
高度危險責任起源于德國1838年公布的《普魯士鐵路企業法》中明確規定的“容易致人損害的企業,雖企業主毫無過失,亦不得以無過失為免除賠償的理由”[25]。作為危險性產業的專用法律術語,高度危險責任的目的在于協調現代社會發展而出現的高度危險作業的必要性與社會公眾生產、生活安全之間的矛盾。高度危險責任伴隨著現代社會發展與轉型而不斷增大,一般條款與具體列舉相結合 [26]的立法結構使得《侵權責任法》在對特殊侵權類型抽象的基礎上保持自身的開放性,通過自身的制度張力和邏輯建構不斷應對社會變遷對法律滯后性的挑戰。
無人駕駛汽車對社會發展具有極其重要的積極意義,可以被視為“被允許的社會風險”納入高度危險責任規制范疇,并通過一般性條款的擴張解釋達到法律解釋和體系化的功能[27]。另外,無人駕駛汽車雖然能夠極大地降低交通事故的發生概率,但高度危險責任的判斷標準并不在于危險發生的概率和可能性,而更多地關注預防事故的成本與發生事故的損失以及重新修復所耗費的成本。從活動風險和利益分布的角度[28]理解,在擺脫了人為干預的情形下,無人駕駛汽車事故的發生主要是由于自動駕駛系統的高度智能性,對操作者科以較高的注意義務并不能有效規避風險的發生或減少損害的發生。更為重要的是,無人駕駛汽車通過深度學習和大數據分析而具備的自動化決策功能,有可能突破原有程序設計而導致風險的不可預測性,但這正契合高度危險責任產生的理論基礎,也體現了民法對技術發展導致的風險采取的包容性和預防性態度。
綜合上述分析,無人駕駛汽車對駕駛人員的消減與替代極大地沖擊了以駕駛人員主觀過錯為基礎的機動車交通事故責任體系,但其精密的人造物屬性和自動化決策系統導致的風險不可預測性為產品責任和高度危險責任的適用預留了制度空間。具體而言,在不可歸責于外界因素的情形下,因無人駕駛汽車自身的質量問題而導致的交通事故可通過產品責任的適用予以解決,隱藏在深度學習和自動化決策背后的不可預測性風險則可以通過高度危險責任予以解決。值得注意的是,雖然產品責任和高度危險責任都將責任承擔的最終主體指向了無人駕駛汽車的生產者,但產品責任更多地是基于產品自身的瑕疵或操作系統的漏洞等原因而具有可歸責性,且能夠在特定情形下適用懲罰性賠償,而深度學習和自動化決策本身導致不可預測性更多地適用于限定賠償數額的高度危險責任,以期更好地平衡技術創新與損害填補之間的矛盾。四、風險預防:因應性制度的構建與展開無人駕駛技術為當代中國汽車產業升級和經濟模式轉型 [29]帶來了巨大的時代機遇,也為我國搶占人工智能時代技術制高點奠定了堅實的產業基礎,更為我國爭奪國際話語權和標準制定權提供了技術支持和制度支撐。面對無人駕駛技術對現行法律體系的種種沖擊,不妨借鑒域外先進的立法經驗,從風險預防角度[30]制定統一的技術標準,采取妥當的預防性監管措施,并改革現行的駕駛員資格制度,創建新的累積記分制度,在安裝“黑匣子”的基礎上建立省級的“黑匣子”分析中心,搭建產品責任保險與機動車強制責任保險并行的“雙保險”體系。
(一)監管主體:權責統一的監管機構
布魯金斯學會于2016年9月發布的《向前行駛:自動駕駛汽車在中國、歐洲、日本、韓國和美國的發展情況》報告明確指出:“中國自動駕駛汽車的關鍵在于制定國家層面的自動駕駛汽車政策框架,需要進一步明確監管部門和監管方式。”在無人駕駛技術快速發展的時代背景下,多部委交叉監管的模式極易導致創新項目的審批和許可被擱置而空耗時日,亟須權責統一、分工明確的領導小組進行統一的規劃和指引。國家發展和改革委員會于2018年1月5日發布的《智能汽車創新發展戰略(征求意見稿)》將國家智能汽車創新發展領導小組的成立作為加強組織實施的關鍵步驟,統籌安排全局性工作并審議研究重大問題。北京市交通委員會聯合北京市公安交通管理局、北京市經濟和信息化委員會等部門于2017年12月15日發布的《北京市自動駕駛車輛道路測試管理實施細則(試行)》亦把自動駕駛測試管理機構作為自動駕駛汽車測試和運行的管理和審批機構。
但上述兩個文件均未對監管主體進行具體詳細的職責分工,因此不妨借鑒美國國家公路交通安全管理局(NHTSA)于2017年9月發布的《自動駕駛系統2.0——安全愿景》(Automated Driving System 2.0: A Vision for Safety)中對美國國家公路交通安全管理局在無人駕駛汽車發展過程中的政府定位與監管措施的詳細規定。具體而言,提供“技術中立”的市場環境,汽車制造經驗與新技術的達標與否不具有直接相關性,不得排斥其他符合條件的主體進入無人駕駛領域的市場競爭,防止為技術創新和市場繁榮帶來不必要的負擔;提供駕駛執照許可和登記注冊程序是各州政府的法定義務,應當對所有的無人駕駛汽車進行注冊和登記,并要求相關實體和測試者以擔保債券或自我保險的形式確定財務責任的要求;制定報告和溝通機制來實現測試者與公共安全機構、其他道路使用者和社會公眾的溝通與協調,記錄交通道路事故;審查可能阻礙無人駕駛汽車運營的交通法律法規,防止不必要的監管阻礙無人駕駛汽車的發展。
(二)改革駕駛資格制度和累積記分制度
隨著無人駕駛汽車對駕駛人員的取代,以駕駛人員主觀過錯為基礎的機動車交通事故責任體系亦會隨之變動,無人駕駛汽車導致的交通事故責任更有可能向產品責任進行轉移。這意味著對駕駛人員資格的限制不再成為必要,具備了特定的識別能力和理解能力的自然人均可成為無人駕駛汽車的操作者,而無需對操作者的年齡條件、身體條件和操作技術設置過高的門檻。另外,現行累積記分制度主要通過行政處罰的方式來促使駕駛人員加強注意義務,因此無人駕駛汽車的運行需要更為獨特的累積記分制度[31]。在適用對象上,累積記分制度的約束對象是無人駕駛汽車本身而非操作者,以便查驗自動駕駛系統的完整性和駕駛行為的正確性。與現行記分制度相比,無人駕駛汽車的總體分值應適用更為嚴格的記分制度,并在發生扣分的情形時,同時通知無人駕駛汽車的生產者和操作者,以便生產者進行故障的檢修和排除,操作者能夠及時發現車輛本身存在的問題而作出相應的變動措施。
(三)安裝汽車“黑匣子”并建立省級“黑匣子”分析中心
無人駕駛汽車的核心在于自動駕駛系統以“智慧大腦”的形式對“數據血液”進行分析并發出執行程序,在不需要人為機械控制的情形下實現汽車運行的自動化。數據的采集、分析和利用對無人駕駛汽車的運行具有極為重要的作用,不僅能夠實現汽車運行的全過程記錄,還能對特定位置交通事故發生的概率進行統計和分析,更能在發生交通事故之后進行證據的保存和場景的還原。通過安裝汽車“黑匣子”,所有的無人駕駛汽車都縮小為大數據時代的一個信息結點,不斷向外發散的信息能夠匯總成特定時期我國的人口流動、信息流動、財富流動的整體趨勢,也能通過交通事故的智能化分析對易發生交通事故的地點進行改造和重整,還能在事故發生后及時通知交通管理機關、醫療援助機構和保險理賠組織,通過風險事先預防和事故迅速處理機制最大程度地減少交通事故帶來的社會損失。
但數據的記錄通常隱藏著個人的私生活信息,容易因黑客攻擊、系統故障等原因造成個人信息的泄露和隱私權的侵犯,且以二進制的比特形式的信息具有極強的專業性,導致個人難以在事故發生后得到專業權威的鑒定報告。因此,不妨建立省級黑匣子分析中心[32],通過公權力介入的方式對隱私權和個人信息進行嚴密保護,采取更為專業的技術防護減少遭受黑客攻擊的可能性,并能保證譯碼分析技術的公正性,在準確還原事故發生的基礎上得到更為全面的客觀的事故報告,更能借助大數據和人工智能技術有效降低國家的安全防控成本和數據統計成本。
(四)“雙保險”制度和賠償基金并行
雖然由生產者承擔無人駕駛汽車導致的損害具有較為妥當的理論基礎和實踐經驗的支撐,但由社會整體負擔的分散技術風險的“深口袋”(deep pocket)亦值得探索和追尋。強制責任保險是基于公共利益政策考量的特殊保險[33],以犧牲意思自治為代價換取了對第三人利益的特別保護和社會效益的最大化,生產者亦能通過強制保險制度分散自身的經營風險。
在無人駕駛領域,因非人為因素導致的損害負擔應通過風險最小化的方式進行解決,機動車強制責任保險和產品責任強制保險應被納入立法考量的范疇,通過強制保險的方式為救濟受害人、分散經營風險、維護社會穩定提供較為妥善的制度保障。歐洲議會于2017年2月16日通過的《機器人民事法律規則》(以下簡稱《規則》)明確將強制性保險計劃納入解決機器人導致的民事責任的范疇,并考慮在強制保險無法覆蓋的情形下,通過專有的基金項目進行補充。具體而言,強制保險計劃主要為機器人所有可能造成的損害投保,并設立賠償基金來解決保險無法涵蓋的損害,亦呼吁保險業積極開發符合技術進步的新產品。為鼓勵制造者、程序員、所有者或使用者等主體積極加入強制保險計劃,《規則》為已向賠償基金捐款的主體設置了有限責任,并考慮為所有智能機器人創設一個普通基金或為每一個機器人創設單獨基金。無人駕駛汽車的機動車強制責任保險和產品責任保險并行制度與其類似,將無人駕駛汽車的生產者和所有者都納入風險負擔的范疇,在個體努力化解自身風險的同時實現社會整體利益的最大化。
五、結語
無人駕駛汽車產業的蓬勃發展為人類社會勾勒出人工智能時代的美好藍圖,但其對駕駛人員的取代將直接沖擊以駕駛人員主觀過錯為基礎的責任體系,在無人駕駛汽車頻頻發生交通事故的現實情形下,具體而詳細的制度構建成為必要。但這只是從《侵權責任法》角度對無人駕駛汽車造成的損害進行簡單的制度回應,即將來臨的人工智能時代將以更為激烈的方式沖擊著現行的法律體系、倫理體系和社會結構,亦須從更為廣闊的視角下進行規則的調整和理論的構建。
參考文獻:
[1]龔夢澤.自動駕駛首起命案優步擔責 專家稱無人駕駛運用十年內難落地[N].證券日報,2018-03-21(C02).
[2]劉佳.剛當上“司機”就撞了!谷歌首次承認無人車擔責[N].第一財經日報,2016-03-02(A08).
[3]張燕.無人駕駛不能行進在法律“盲區”[N].重慶日報,2017-07-12(7).
[4]王欣.奔馳“失控”迷云:智能駕駛背后的反思[N].21世紀經濟報道,2018-03-20(18).
[5]張玉潔.論無人駕駛汽車的行政法規制[J].行政法學研究,2018(1):69.
[6]刁生富,王吟.無人駕駛汽車焦點問題與社會治理探析[J].中國統計,2017(9):58.
[7]劉武俊.為無人駕駛汽車系上法律安全帶[N].證券時報,2018-01-19(A03).
[8]張婷婷.科技、法律與道德關系的司法檢視——以“宜興胚胎案”為例的分析[J].法學論壇,2016(1):138.
[9]王澤鑒.侵權行為[M].3版.北京:北京大學出版社,2016:67.
[10]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(西北政法大學學報),2017(5):167.
[11]曹劍鋒.人工智能:機器歧視與應對之策[J].信息安全與通信保密,2016(12):17.
[12]王天思.大數據中的因果關系及其哲學內涵[J].中國社會科學,2016(5):41.
[13]梅夏英.數據的法律屬性與民法定位[J].中國社會科學,2016(9):167.
[14]楊立新.侵權損害賠償[M].5版.北京:法律出版社,2010:96.
[15]張新寶.從隱私到個人信息:利益再衡量理論與制度安排[J].中國法學,2015(3):59.
[16]謝遠揚.信息論視角下個人信息的價值——兼對隱私權保護模式的探討[J].清華法學,2015(3):97.
[17]張建文.隱私權的現代性轉向與對公權力介入的依賴[J].社會科學家,2013(6):11.
[18]邵國松,黃琪.人工智能中的隱私保護問題[J].現代傳播,2017(12):4.
[19]李新天,印通.論機動車交通事故責任的賠償主體[J].時代法學,2014(12):22.
[20]吳祖祥.論醫療技術過錯——以醫療技術損害責任的法律適用為視角[J].東岳論叢,2011(3):168.
[21]楊劍鋒.結果無價值型過失論在汽車自動駕駛時代的展開——以交通肇事罪為切入[C]//李曙光.法大研究生:第1輯.北京:中國政法大學出版社,2017:93.
[22]高奇琦.共享智能汽車對未來世界的影響[J].學術前沿,2017(10):47.
[23]張田勘.智能駕駛汽車立法當加快[N].中國婦女報,2017-07-18(B03).
[24]賀琛.我國產品責任法中發展奉獻抗辯制度的反思與重構[J].法律科學(西北政法大學學報),2016(3):135.
[25]李顯東.侵權責任法[M].北京:北京大學出版社,2014:266.
[26]周友軍.我國危險責任一般條款的解釋論[J].法學,2011(4):152.
[27]王利明.論高度危險責任一般條款的適用[J].中國法學,2010(6):156.
[28]唐超.論高度危險責任的構成——《侵權責任法》第69條的理解與適用[J].北方法學,2017(4):81.
[29]鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):78.
[30]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017(5):128.
[31]陳曉林.無人駕駛汽車對現行法律的調整及應對[J].理論學刊,2016(1):130-131.
[32]陳曉林.無人駕駛汽車致人損害的對策研究[J].重慶大學學報(社會科學版),2017(4):83.
[33]郭峰,胡曉柯.強制責任保險研究[J].法學雜志,2009(5):45.
Abstract:Driverless cars have a disruptive effect on motor vehicle accident liability based on the subjective fault of the driver, but their precise man-made attributes and “socially-allowed development risks” also provide theoretical basis for product liability and high risk liability. Under the current cross-administrative system, the National Leading Group of Intelligent Vehicle Innovation and Development may be established to reform the driver qualification system and accumulative scoring system, install “black box” for driverless cars and establish a provincial “black box” analysis center. The parallel approach of “double insurance” system and the compensation fund achieve a comprehensive balance between state supervision, technological innovation, and victim relief.
Keywords:artificial intelligence; driverless car; imputation principle; legal response(編輯:劉仲秋)