周英龍
沈陽師范大學,遼寧 沈陽 110000
使人工智能話題達到頂峰的時刻就是2016 年發(fā)生的“人機圍棋大戰(zhàn)”,最后的結(jié)果是依靠人類研發(fā)的機器人擊敗了人類最高水平的圍棋手。其實早在國外,已經(jīng)有很多領域開始使用人工智能,最典型的當屬無人汽車與無人飛機。不可否認的是,我們?nèi)祟愡\用人工智能的確給我們生活中帶來了太多的便利,比如說:提高效率,節(jié)省資源和人力成本等。但當這些人工智能交通工具正常運行的同時,難免會引發(fā)出一系列的交通事故,最常見的當屬碰撞侵權(quán)。由于人工智能有很強大的高度自主性,因此不能使用傳統(tǒng)的民法觀點來直接斷定責任的分配以及最終的責任承擔者。因此,探究人工智能的侵權(quán)問題使其能夠更好地服務于社會是非常有必要的。
人工智能(AI),就是用機器來模擬人腦。通過對外部環(huán)境的感知,使得可以達到接近人類的效果。AI 學習并不是一次性完成的,而且人類大腦的結(jié)構(gòu)又十分錯綜復雜,所以必須采用比較嚴密的機器學習以及深度學習的算法,才能使得機器模擬人類。
機器學習:通過對于提供感知外部環(huán)境信息的篩選,對符合人類對環(huán)境預期的信息予以保留,推廣;同時對于不符合人類預期的信息加以過濾排除。具體分為機械學習,示教學習,演繹學習,類比學習,解釋學習和歸納學習。常見的機器學習發(fā)展模式分為:任務模型,認識模型,理論分析模型三種。任務模型,主要是為了完成一定的任務而研發(fā)的特殊的模型,它具有一定的周期性,當這個任務周期結(jié)束之后,該人物模型就失去了存在的價值;認識模型,它主要用來研發(fā)一種能被人當成基本服務工具的模型,無人車、無人機就屬于其中的認識模型;理論模型主要指的是一種理想化的模型,它是為了專門的計算機研究者為了研究摸一個領域深層次的問題而設計的模型,一般是不對外流通的。深度學習,就是指在機器學習的基礎上,對于符合人類對于外部環(huán)境的預期信息進行樹形結(jié)構(gòu)或者圖形結(jié)構(gòu)的排列,常用的深度學習策略就是監(jiān)督式深度學習以及無監(jiān)督式深度學習。
無人車對整個人體進行感知,必然需要采納一定的圖像識別技術(shù)才可以,最典型的技術(shù)就是圖像信息幀結(jié)點的采集。按照通常的做法就是給人不同的姿態(tài)分別拍攝實體照片,對這張照片進行1/25-100 倍的壓縮/放大處理,并把它具體的位置邊界安放在無人車的圖像當中,通過監(jiān)督式深度學習算法,可以確定人體在車內(nèi)的大體位置范圍,并結(jié)合無監(jiān)督式深度學習的程序,使其在這個人類結(jié)點區(qū)域的范圍內(nèi)對于無人車的操控是存在感應的。
我們必須承認,應用無人車首先會給我們?nèi)祟悗砗芏嘁嫣帯1确秸f改善交通安全,緩解交通擁堵以及迅速提升出行的效率。日常生活中,一般的汽車在道路上運營,發(fā)生交通事故是很常見的,而且往往都是人類的原因。例如:醉酒駕駛,疲勞駕駛。同時,當發(fā)生交通擁堵以后,人類不能自主做出相應的選擇,只能被動地等待以及派警察來疏通道路,這樣不僅對于有重要事情的人來說耽誤了寶貴的時間,還對于整個社會的出行效率也造成了大幅度的負面影響。應用無人車恰恰能解決上面的問題。但無人車造福人類的同時也會對人類帶來一定的社會風險,而且這種社會風險一旦發(fā)生,對于整個人類來說打擊也是巨大的,最典型的例子就是無人車碰撞侵權(quán)。
根據(jù)傳統(tǒng)的道路交通安全法,我們可以得出以下結(jié)論:
機動車發(fā)生交通事故造成人身傷亡、財產(chǎn)損失的,由保險公司在機動車第三者責任強制保險責任限額范圍內(nèi)予以賠償。超過責任限額的部分,按照下列方式承擔賠償責任:
(一)機動車之間發(fā)生交通事故的,由有過錯的一方承擔責任;雙方都有過錯的,按照各自過錯的比例分擔責任。
(二)機動車與非機動車駕駛?cè)恕⑿腥酥g發(fā)生交通事故的,由機動車一方承擔責任;但是,有證據(jù)證明非機動車駕駛?cè)恕⑿腥诉`反道路交通安全法律、法規(guī),機動車駕駛?cè)艘呀?jīng)采取必要處置措施的,減輕機動車一方的責任。
交通事故的損失是由非機動車駕駛?cè)恕⑿腥斯室庠斐傻模瑱C動車一方不承擔責任。
但是,當無人車加入到這個問題分析模型之中,情況就會發(fā)生很大的變化,無人車的角色替代了傳統(tǒng)機動車,從而會形成無人車和無人車,無人車和機動車,無人車和非機動車以及無人車和行人四種情況,由于無人車的責任主體資格并不是法定的,這就給發(fā)生上述事故的責任的認定帶來了巨大的困難。
對于無人車的碰撞侵權(quán)問題,目前為止主要有以下四種傳統(tǒng)的歸責理論:
1.人工智能工具理論——人工智能使用者責任
人工智能尚不具備自主意識,其行為是在人類授意下做出的,人工智能只是一種工具,因此人工智能侵權(quán)應由使用該工具的人來承擔責任。使用者是人工智能程序和設備的控制者,也是受益者,人工智能引發(fā)的侵權(quán)風險是使用者的使用行為引起的,讓受益者承擔由其控制的工具引發(fā)的侵權(quán)責任是公平合理的。
2.人工智能主體理論——人工智能自己的責任
人工智能最大的特點在于其擁有智能,不但可以做出行為,而且能夠自主做出分析判斷,同時擁有比人類更加強大的數(shù)據(jù)收集、記憶和計算能力。法律可以將自然人以外的實體規(guī)定為法律主體,例如法人,對于人工智能也可以參照這種做法。而且,已經(jīng)有一些國家賦予或正在考慮賦予人工智能法律主體資格,如沙特的索菲亞機器人已獲公民資格。如果人工智能成為法律主體,則應當承擔其侵權(quán)行為引起的法律責任。
3.人工智能產(chǎn)品理論——人工智能生產(chǎn)者責任
人工智能通常是一種產(chǎn)品,除了個別由于使用者或者第三人故意引起的侵權(quán)以外,大多數(shù)人工智能侵權(quán)是由于產(chǎn)品存在缺陷造成的。消費者對于人工智能產(chǎn)品的缺陷,既難以理解也難以發(fā)現(xiàn),且難以舉證,所以應當由生產(chǎn)者承擔產(chǎn)品責任,銷售者承擔不真正連帶責任。
4.人工智能動物理論——人工智能管理者責任
由于人工智能尚不具備自主意識,其行為又與一般工具不同,不完全受人類控制,這與飼養(yǎng)的動物頗為相似,動物可能在有人類授意下實施侵權(quán),也可能在無人類授意下發(fā)生侵權(quán)。根據(jù)現(xiàn)代立法規(guī)定,不再將動物視作法律主體,動物的侵權(quán)行為應由飼養(yǎng)人或者管理人承擔侵權(quán)責任。借鑒動物侵權(quán)法律規(guī)定,人工智能侵權(quán)也應由對其負有管理義務的人承擔。
人工智能的設計和研發(fā)是產(chǎn)生人工智能產(chǎn)品的第一步,與此同時也是最重要的一步。研發(fā)的過程中不僅僅涉及計算機工程的一個領域,還會涉及到比方說經(jīng)濟學,機械,語言學等等一系列重要的領域。由于我國在人工智能領域中和世界先進的國家相比,仍然處于一個發(fā)達中階段,在無人車的領域,一般敢于承接這種項目的單位通常都必須要在有資質(zhì)的情況下爭取到國家授權(quán)才可以,正因為他們承擔了這種重大的任務,面對巨大的風險,所以讓他們承擔最終的責任無可厚非。
在傳統(tǒng)的制造業(yè)領域里,生產(chǎn)者往往都是第一個責任承擔者,但是在人工智能領域內(nèi),由于存在著大量的開發(fā)技術(shù),而生產(chǎn)商只需要根據(jù)設計要求,配備新穎的材料進行制造就完成了相應的工作任務。但生產(chǎn)商通常是成型產(chǎn)品的發(fā)起者,所以也承擔著一定的替代性責任。以無人車為例,由于發(fā)行無人車產(chǎn)品具有很大的社會風險,而設計者往往也是大型的國家資質(zhì)的授權(quán)單位,因此為了使風險更加地降低一步,生產(chǎn)者也必然要求有相應的資質(zhì)。所以,受侵權(quán)人找到生產(chǎn)者承擔替代性責任也有一定的道理。
人工智能產(chǎn)品,要推向市場,必然要經(jīng)過銷售的環(huán)節(jié)。銷售者從生產(chǎn)者進購相應的產(chǎn)品后,要有相關(guān)的法律義務。在無人車的領域中,如果客戶向銷售者購買了相應的無人車產(chǎn)品,發(fā)生事故,根據(jù)法律規(guī)定:客戶可以找銷售者進行追償,銷售者如果沒有過錯,可以找生產(chǎn)者承擔最終的責任。在實際上,由于無人車的設計者和生產(chǎn)者往往都是大型的國有資質(zhì)授權(quán)的單位,消費者如果找他們來承擔相應的責任并不現(xiàn)實。消費者找銷售者承擔責任有一定的可行性。
道路管理人員,主要是交通警察或者是指在惡劣環(huán)境中負責道路安全保障的人員,由于無人車行駛必須要感知相應的環(huán)境,所以道路管理人員也不可避免地要因為環(huán)境問題而承擔一定的責任,但只能是相應的補充責任而不能是全部的事故責任。
使用者,包括物權(quán)人或者用益物權(quán)人。碰撞事故發(fā)生時,受害人在緊急情況下尋找想對方乘客承擔責任根據(jù)民法中的公平原則是合理的,但不能超過其受到損害理應賠付數(shù)額的一定比例。
無人車或者無人機在遭受意外的諸多情況中,網(wǎng)絡信號的質(zhì)量通常也是一個離不開的話題,這種侵權(quán)責任是很難斷定的,所以不能籠統(tǒng)地概括為:網(wǎng)絡信號不足,網(wǎng)絡服務供應商就要承擔責任這一錯誤論斷。因為網(wǎng)絡信號的供給要和道路的具體環(huán)境有著密不可分的關(guān)系,但至少有一點可以斷定,如果無人車或者無人機問世,網(wǎng)絡供應商有兼容的義務,或者依據(jù)相關(guān)的協(xié)議而定。當網(wǎng)絡供應商沒有履行該協(xié)議時,應當承擔相應的責任。
隨著人工智能產(chǎn)品的普及,每一個環(huán)節(jié)都必然要受到更加嚴格的控制和監(jiān)督,相應的監(jiān)管部門也要履行監(jiān)督職責和義務,為監(jiān)督的疏忽大意承擔相應的責任。
總而言之,無人車的侵權(quán)責任分配不是一刀切的,必須根據(jù)具體的實際情況來合理地分配相應的責任。不可否認的是:現(xiàn)在我們雖然進入了信息化的時代,但畢竟AI 技術(shù)依然是弱的AI,它并不具有人類一定自主性,筆者認為,運用AI 主體論,使AI 完全取代人類的地位是不現(xiàn)實的;AI 依然屬于我們?nèi)祟愔髟椎墓ぞ摺5侵劣谡fAI 屬于工具還是動物,要根據(jù)具體的情況而定。不過需要指出的是:隨著國家信息化的崛起,必須要制定或完善人工智能方面相應的法律法規(guī)以及大中型交通工具的保險體系,使人工智能可以更好地造福人類社會。