◆丁佳偉
無人駕駛汽車侵權責任研究
◆丁佳偉
(廣西師范大學 廣西 541006)
無人駕駛汽車給人們生活帶來極大便利,但無論處于何種水平的無人駕駛汽車都可能產生侵權。要解決無人駕駛汽車侵權問題需要認定承擔責任的主體,學界對人工智能法律地位有工具說、電子奴隸說、代理說,主流觀點認可其行為能力但無權利能力?;跓o人駕駛汽車自主性特點,不能以傳統歸責原則處理侵權問題,應當具體結合其研發者、制造商、使用人、監管者等主體參與的實際情況來認定責任承擔主體,將無人駕駛納入法律明確規制,納入保險制度保障被侵權人利益。
無人駕駛汽車;法律地位;責任承擔
無人駕駛汽車是伴隨大數據、5G和人工智能興起的產物,與傳統汽車相比,無人駕駛汽車更為智能、不需要人力操控,而且安全性更好,給人們生活帶來了便利。隨著這一技術趨于成熟,投入到正常運營會打破傳統的產業結構,這既是科技創新的必然趨勢,同時也會對現有法律制度產生影響。由于法律滯后于社會發展這一特性,社會結構發生變化時法律往往不能及時作出反應,導致對新產生的事物缺少法律的規制。為了防止因無人駕駛汽車侵權而無承擔責任的主體,應當確定其法律地位以及相關參與者的責任。
無人駕駛汽車,屬于智能汽車中的一種,主要通過車載計算機系統和智能駕駛儀感知道路環境進行智能信息交換,使車輛具備智能的環境感知能力,自動規劃行車路線并且到達預定的目的地,實現人工智能替代人來操作。
1.2.1自主性與難預測性
無人駕駛汽車有高度的自主性,能夠在預設的算法框架下以原始提供的數據為基礎進行深度學習,實際運行過程對實時路況信息及時做出處理,不斷調整車輛的狀況、避免與其他汽車相撞。但無人駕駛汽車在遇到突發狀況下的處理與人力駕駛有所不同,在此狀態下,人是根據以往經驗在短時間內作出最合理的處理;而人工智能不受經驗和時間的限制,計算得出最優的方案,但這種方案可能會超出人類的常規認知[1]。
1.2.2難解釋性
按傳統機動車交通事故侵權責任歸責原則,雙方均為機動車的適用過錯責任原則,一方為機動車道另一方為非機動車或行人,適用無過錯責任原則;這樣的證明責任分配,有助于查清案件事實并且能明晰承擔責任的主體,可以按照既有的法律規定做到公平正義。然而無人駕駛汽車“黑箱”運算程序難以解釋,甚至連設計的研究人員都無法弄明其是如何作出決策的,因此無人駕駛汽車侵權難以查明其原因。
法律主體,即法律認可的一種能夠享有權利、承擔義務的一種資格;包括自然人主體與法律擬制主體兩種形式,形式上法律主體需要通過法律的規定與創制[2]。無人駕駛技術屬于人工智能中的一種,要想解決無人駕駛侵權問題首先得確定人工智能的法律地位。
人工智能具有自主性特點,不能單純視其為法律關系中的客體,應當根據其特點及其社會需要來認定其法律地位,目前有三種具有代表意義的學說,分別為工具說、電子奴隸說和代理說[3]。
工具說主張人工智能是為人們生活提供便利帶來經濟價值的產物,其本身還是屬于工具,否定其作出意思表示以及能夠承擔責任的能力。此種觀點僅強調了人工智能工具性而忽視了其自主性,且已經不能符合當前發展的要求。
電子奴隸說以人的生理機能角度出發,認為人工智能不具備人所具有的情感、肉體感知、自由意志等特征,只是一種永遠工作的機器,應當參照《民法典》限制民事能力人的法律規定,將權利能力與行為能力相分離,賦予行為能力但堅決反對享有權利能力。此觀點解決了人工智能侵權責任承擔問題,但原則上還是將其視為工具。
代理說主張人與人工智能屬于代理法律關系,人工智能作為代理人所做出的行為都由是人獨立意志做出來的,人工智能不能作出意思表示,根據《民法典》第162條的規定,其根據代理關系做出的行為后果由被代理人(即人類)承受。根據《民法典》第164條的規定,代理人具有承擔法律責任的義務。此種觀點承認人工智能法律主體地位,但是目前法律并未將人工智能納入責任主體范圍,缺乏法律對其規制。
確定人工智能法律地位本質是為了滿足當前社會發展的目的,結合上述三種學說,需要在人工智能的自主性與工具性之間找到一個平衡點。弱人工智能時代下,智能體僅在某些領域超過人的能力,尚不能獨立承擔侵權責任,因此目前將其定義為有一定“智慧”能夠在一定程度上作出意思表示但不能獨立承擔法律責任的有限法律主體較為適宜[4]。
賦予人工智能有限法律主體資格——即在某些領域有一定的行為能力但是無法獨立承擔責任——符合現在社會秩序同科技發展之間的平衡要求。無人駕駛汽車作為人工智能時代下的代表產物,的確可以增強科技實力,但也對目前的法律體系造成了一定的沖擊,可能在交通秩序方面給社會帶來潛在的危險。為保障公共安全,需要提前對無人駕駛汽車涉及的法律相關主體加以規制,明晰其法律責任。法律責任是國家施加于違法者的一種強制性負擔,是補救受到侵害的合法權益的一種手段,法律責任是通過法律制裁而實現的,任何法律責任的實現以責任主體的存在和確定為前提[5]。
我國針對產品責任屬于無過錯的嚴格責任,目前尚未對無人駕駛汽車這一特殊主體侵權進行規制,鑒于無人駕駛汽車智能系統的“難解釋”性,若將舉證責任分配給消費者將有失公平。無人駕駛汽車處于自動駕駛狀態造成的侵權行為,推定車輛具有缺陷,舉證責任由被告生廠商等責任主體承受,但這樣相當于把傳統駕駛人的責任移轉給生廠商,會加重其免責證明責任,生產者雖然可以《產品質量法》第41條的規定中的投入時尚不能發現缺陷存在這一理由進行抗辯,但在無人駕駛領域主張此種抗辯有一定困難,由于人工智能系統難以解釋的特點,難以主張該抗辯中的缺陷,因此強制記載行車數據可以讓生產商較為容易地證明免責要件。
產品責任中的無過錯的嚴格責任,即生產者應當對生產的有缺陷產品承擔侵權責任,被侵權方無須證明生產者具有過錯。生產者作為產品及其服務的提供者,掌握產品技術以及資金雄厚,在責任承擔上占據主要地位。要規制生產者責任,應當做到:第一,將數據強制性保留并不得篡改,以明確侵權時當事人責任;第二,保護車輛使用人的隱私安全;第三,若因無人駕駛汽車硬件問題導致侵權,生產者承擔無過錯的嚴格責任,如果是智能系統問題導致侵權,生產者與軟件開發者共同承擔連帶責任,生產者承擔責任后可視情況向軟件開發者追償。
無人駕駛汽車根據智能系統自主選擇行車路線,其使用人不屬于駕駛人,原則上導致損害結果不能歸屬于使用人承受。通常情況下,無人駕駛汽車運行造成的交通事故應當由生產商與研發者共同承擔侵權責任,但并不意味著使用人不承擔任何責任。如果無人駕駛汽車交通肇事致人重傷以后,使用人對被害人置之不理駛離現場,致使被害人得不到及時的救助而死亡,使用人應當承擔相應的民事責任,甚至需要承擔一定的刑事責任。使用人應當合法使用無人駕駛汽車并且有義務定期更新車輛運行系統和檢查車輛安全狀況。
個人網絡數據當前已經屬于個人權利的延伸并且具備財產屬性,無人駕駛正是基于大數據環境下模仿人類行為模式進行深度學習,不可避免地使用個人數據,造成個人信息保護與數據使用之間的矛盾。為保護公民隱私權,美國《自動駕駛法》第12條要求生產者與銷售者在無人駕駛汽車在使用個人數據時,應當在使用人知情的情況下完成[6]。由于無人駕駛系統實際運行中必定會使用個人部分數據,根據人工智能發展的需要,使用者應當對個人隱私權做一定程度的讓渡,讓無人駕駛系統合法合理地采集個人信息[7]。人工智能汽車在收集并處理個人信息前,可以通過發送能引起使用者注意的格式文本告知使用的注意義務以及授權其使用個人信息可能導致的風險,需使用者同意上述協議,方能使用并妥善保管授權者的個人信息。
由于無人駕駛汽車智能系統的復雜性,參與研究的團體較多,政府部門往往難以預知可能發生的問題。政府監管具有靈活性特點,在尚無法律明文規定的情況下,應當對新技術實施臨時性監管措施。政府相關部門可以采取事前備案、事中授權與事后處罰的管理機制。首先,參與無人駕駛汽車的研究主體應當在設計前向行業主管部門備案,承諾在不違反人類共同利益的前提下合法使用,監管部門應當設置一個客觀的市場準入門檻,如審查申請主體投放市場的無人駕駛汽車的安全系數要顯著高于傳統汽車,同時要檢測生廠商是否具備足夠的責任承擔能力。其次,在無人駕駛汽車研發過程中需要監管部門對研發過程進行階段性風險評估,在無人駕駛研發過程中最重要的是數據,監管者應當具有獲取、掌握和在特殊情況下使用數據的權力。最后,無人駕駛汽車侵權適用無過錯的賠償機制,即被侵權人對無人駕駛汽車生產商提起訴訟時,無須證明所使用的車輛存有缺陷,即可得到賠償和治療,這種賠償機制可以較好地填平被侵權人所受損失,同時能夠為生產者等責任主體提供明確的責任預期。
《道路交通安全法》與《中華人民共和國機動車交通事故責任強制保險條例》都規定了第三者責任強制保險制度,與人力駕駛汽車相比,無人駕駛汽車擁有更快的反應速度,安全性要更高,按理應當將保險金保持在一個較低的水平,但是在接受無人駕駛汽車的國家卻加重了保險金的理賠數額,這無疑增加了保險成本。特斯拉在亞洲地區推行了購車加保險套餐,消費者支付保險費用后,其購買的汽車整個生命周期都由生產商承擔,相當于生廠商替代了保險公司的地位,對傳統車險業務造成一定沖擊。
為維護當前立法體系的穩定性,維護被侵權人的利益,應當對無人駕駛汽車基本侵權責任投保強制險,當在自動駕駛模式下出現事故,被侵權人有權主張保險公司承擔賠償責任,保險公司承擔賠償責任后有權向侵權主體追償。當出現“強制險”無法覆蓋的其他情形,可以由無人駕駛汽車基金承擔無過錯賠償責任,同時使用人可以根據自身情況投保適宜的商業保險。
社會經過多次技術革命,每一次革命都代表了社會結構的巨大改變,因此我們不能僅將人工智能當成一次科技革命,還需要制定相適應的法律對其進行規制,這樣人們對未來才有可預期性,才能更好地安排自己的生活。西方已經對無人駕駛技術著手進行規定,強化了對被侵權人的保護,具體表現在侵權責任人主體的變化、強制保險制度、行使數據嚴格進行保存等方面。我國由在第二次工業革命中錯失了發展機會,因此對無人駕駛等人工智能技術非常重視,以期在此實現彎道超車,但在發展科技的同時也應當有適宜的法律相匹配,應當從中國實際出發,借鑒國外的有益經驗,制定符合中國發展道路的人工智能相關法律規定,而明晰人工智能侵權責任正是其中關鍵一環。
[1]袁曾.無人駕駛汽車侵權責任的鏈式分配機制——以算法應用為切入點[J].東方法學,2019(5):29.
[2]郭少飛.“電子人”法律主體論[J].東方法學, 2018(3):44.
[3]楊杰, 張玲.無人駕駛汽車的法律障礙和立法思考[J].電子政務E-GOVERNMENT, 2018(8):101.
[4]袁曾.人工智能有限法律人格審視[J].東方法學, 2017(5):50-57.
[5]公丕祥.法理學[M].上海:復旦大學出版社, 2002:473.
[6]杜傳忠, 陳維宣, 胡俊.發達國家人工智能發展經驗以及中國的借鑒[J].湖南科技大學學報(社會科學版), 2019(3):105.
[7]李倫, 劉夢迪, 胡曉萌, 吳天恒.智能時代的數據倫理與算法倫理——第五屆全國賽博倫理學暨數據倫理學研討會綜述[J].大連理工大學學報(社會科學版), 2019(3):105.
廣西研究生教育創新計劃項目(Innovation Project of Guangxi Graduate Education)2020年“人工智能產品事故責任研究”(項目編號 GXDFFZ2020Y05)階段性研究成果