梁柯惠
(遼寧科技大學,遼寧 鞍山 114000)
確認人工智能產品致人損害的民事責任主體,首先要明確其引發致人損害的具體原因,概括而言存在下列可能:原因一,研發者,即產品具體程序的編寫者,在研發人工智能產品時,存在設計、技術方面的漏洞,且未能及時發現即投入生產。原因二,生產者在生產活動中導致質量制造方面的缺陷。原因三,銷售者因其銷售或儲藏行為導致產品發生問題。原因四,占有者、使用者因其不當的使用行為存在重大過失而致損害的產生。原因五,研發者、生產者、銷售者以及占有者、使用者均不存在過失且在合理范圍內使用,而是由于人工智能產品的自主意識行為做出了不當或錯誤的判斷結果,導致損害后果的發生。
在原因五的復雜情況下,不能適用上述的產品質量法和侵權責任法。原因如下:首先,研發者、生產者和銷售者均已盡到了注意義務,不存在過失行為。若在此情況下仍要求上述主體承擔責任,則在承擔責任過重的情況下,將會對人工智能算法技術的創新和發展產生抑制的效果。其次,亦不能單純地將人工智能產品視為是占有者、使用者的動產,讓其自行承擔責任。由于占有者、使用者的預見性有限,且已然在使用過程中盡到合理的注意義務,人工智能產品雖然是依據使用者的口令進行一定的行為,但究其本質,是在完成研發者對其設計的相關程序,甚至在完成程序的同時還會發揮其獨立的意志,這是一種復雜的特殊情況。
從人工智能產品的本質來看,人工智能產品的性質還是產品,因此應當適用產品責任[1]。根據侵權責任法的規定,產品責任的主體是生產者和銷售者。然而人工智能產品是特殊的產品,由于人工智能產品能夠運行、怎樣運行的決定權在于其研發者,因此傾向于將研發者也列入至責任主體。此外,人工智能產品缺陷包括設計缺陷、生產缺陷和警示缺陷。其中,設計缺陷對應設計者,警示缺陷對應生產者。因此,在考慮責任承擔主體時,應當將研發者也包含進去。
例如,在美國第一起關于汽車自動駕駛功能的交通事故案例中[2],明確責任承擔的主體還有一個必不可少的因素:考慮自動駕駛汽車的分級標準,國際汽車工程師協會將自動駕駛汽車的無人駕駛程度分為五個級別,SAE0-2級是應當由駕駛員所監控的駕駛環境,SAE 3-5級隨著級別的升高,自動駕駛系統的可操控范圍越大,這種分級標準將汽車自動駕駛功能的可操控程度進行了明確的劃分,即駕駛輔助功能和自動駕駛功能。就駕駛輔助功能而言,發生交通事故仍然按照傳統的交通事故一樣處理,現行法律能夠處理此類問題。而SAE3-5級車輛的駕駛員對于車輛自動駕駛系統的介入程度存在差異,具體行駛過程中也可能會存在控制車輛的程度不同的情況。特斯拉公司在該事故中被認定為無責正是因為其所配備的AEB系統僅為自動駕駛輔助的級別,若不對無人駕駛汽車的自動化程度進行區分,忽視其在駕駛過程中所發揮的作用,就會存在事故責任主體認定的問題。
侵權責任法第四十三條規定,被侵權人因產品存在缺陷而造成損害的,既可以請求產品的生產者承擔賠償責任,也可以向產品的銷售者請求賠償。因此,人工智能產品作為一種特殊的產品,其責任形態也應當是不真正連帶責任。但若想解決實務問題,還應當依據上文所述,在責任主體中,除了已規定的生產者和銷售者外,還應增加產品的研發者[3]。
此外,將人工智能產品致人損害的責任形態認定為是不真正連帶責任還有利于明確各主體之間的責任劃分,通過法律規定使各主體各擔其責,厘清研發者、生產者、銷售者各自的責任劃分和責任承擔范圍。在賦予被侵權人自由選擇責任主體的權利后,明確各主體之間的責任劃分,若損害不是由于自己的缺陷而產生,則任何一方在承擔賠償責任后,均對有責的一方享有追償的權利。做到了在損害結果發生時既有主體承擔責任,又保障了在責任承擔后各主體依據事實和證據向其他主體追責的權利。在解決實際問題時,對侵權責任的責任形態也予以充分考慮,從而使人工智能產品侵權責任的相關規定更加完善,在鼓勵人工智能科技產業蓬勃發展的同時,也給予了被侵權人充分的消費安全保護。
由于人工智能產品在發揮其具體功能時需要獲取有關使用者的各類信息,正常情況下,其獲得這些信息的來源應當是來自使用者的同意和授權,但是不能排除在一些情況下,使用者不愿意被知悉的信息被產品獲取后被其整理、分析,并被上傳到其他平臺,被用于開發潛在用戶、企業商用備案,甚至是買賣個人信息等非法或未經使用者授權的其他用途[4]。而使用者通常因為不了解其運營程序而無法及時知悉并阻止類似事件的發生,當使用者發現個人權利受到侵害為時已晚。此外,由于人工智能產品先進的自主意志和學習功能,將會不可避免的導致其行為的不可預測,進而決定了結果總是滯后的發生,為損害結果的滯后性。
人工智能產品作為一種特殊的產品,會存在由于智能產品的自主意志進行決策從而導致損害結果出現的情況,如果各主體能夠證明產品所致損害是由于科學技術水平不能發現而造成的缺陷,在這種極端情況下凸顯了為產品投保強制責任險及商業險的必要性。首先,為人工智能產品進行投保是對被侵權人權利的有效保障,可以確保在缺少責任承擔主體時,被侵權人的權利能夠得到及時有效地保護。其次,若將購買強制責任險及商業險規定在法律之中,可以更好地督促研發者完善技術、生產者注重質量、銷售者保障安全,利于人工智能科學技術的繁榮和發展。除對人工智能產品進行投保外,在產品投入市場時,由于科學技術水平有限尚未發現產品缺陷的,應當履行跟蹤服務義務;若發現技術缺陷,則應當對存在缺陷的產品實施召回制度,因沒有及時采取召回措施而發生損害的,則仍然應當承擔侵權責任。
通過上文的分析論述可以清晰地認識到,在人工智能技術飛速發展和廣泛應用的現代社會,對人工智能產品主體的研究是進行其他研究的基礎和前提。為人工智能產品設置民事責任時,應當秉持著在保證人類社會安全的情況下,不能限制人工智能技術的發展這一基本理念,這就要求不能設置趨于嚴苛的責任,否則將過于加重科研人員的負擔、違背科學規律、阻礙科技的發展;亦不能設置過輕,否則不能滿足保障安全的基本準則。
在通過分析人工智能產品特殊性質后,也要敏感地認識到現行民法在解決實際問題時的局限性,很多關于侵權責任的細節問題也尚未定論。在對美國發生關于無人駕駛汽車的具體案例進行分析后,更為細致地對現行民法中關于侵權責任的原則、劃分、救濟等內容的缺失和不足提出了建議。有理由相信,在加強對人工智能產品研發者、生產者、銷售者的倫理道德規范約束以及完善相關市場監管制度的前提下,通過強制性的法律規定正式對責任體系進行補充和修繕,使其受法律約束,從法律層面上降低人工智能產品所帶來的風險,從而加速我國的人工智能科技產業的發展,推動經濟的進步。