孟 翔
廣東尚堯律師事務所,廣東 佛山 528000
近年來,人工智能快速發展,在人們的工作和生活中廣泛應用,在給人們帶來便利的同時,相關侵權風險也在不斷增加。人工智能侵權的情形如何,法律對其如何認定,誰承擔侵權責任等,在理論界和司法界都尚未統一。對此,本文試圖對人工智能本身和其責任形態進行分類,從而試圖對人工智能侵權的責任承擔提供一種構建思路。
所謂人工智能,是在達特茅斯會議中被第一次提出。[1]其表明,人類在智能化產業上進入到了一個新階段。智能程度更高的產品已經被生產出來,甚至它們可以無需人類的控制,獨立展開工作。
今天,人們在討論人工智能的時候,往往將人工智能區分為人工智能技術、人工智能實體兩個方面。所謂人工智能技術,是對人工智能相關理論運用于技術中,從而開發、拓展和應用相應技術的一門技術科學。[2]它的側重點在于將理論轉化為具體的手段、方法。相比之下,人工智能實體,則是人工智能技術運用后所形成的具有外在表現形式的產品,是一種可視化物體。
人工智能技術是無形的,而人工智能實體是有形的。早前,人工智能技術雖然存在,卻并不能夠造成侵權,造成侵權的往往是人工智能實體,它可能體現為技術運用到實體上本身存在缺陷,也可能是實體在運作中出現了錯誤。當人們一般談到人工智能侵權的時候,其實指的是人工智能實體的侵權行為。
人工智能根據其智能化程度可以分為三類:弱人工智能、強人工智能和超人工智能。[3]之所以對其進行智能化分類,是為了判定人工智能在遇到問題的時候,是否能對其獨立認知和單獨解決。
所謂弱人工智能,是通過程序預設的方式,讓其按照指定目的,在單一維度下,所進行的一種智力仿真性質的工作。它具有人類的某些基本特征,能對特定領域的問題進行分析和解決,但是它的突出特性仍舊為輔助性,是作為輔助人們工作的某些環節而存在。它無法獨立展開工作,也對外部事物缺乏認知、理解能力。雖然,弱人工智能表現出了某些人類屬性,但是它無法獨立認知、分析和解決問題。
強人工智能具有認知能力,能夠對外界進行學習,能夠對問題獨立思考、分析和試圖解決。通過圖靈測試可以判定人工智能是否達到強人工智能的程度。圖靈測試的主要內容,是讓被測試者向對象A 和對象B 提問,然后辨別哪一個對象是真實的人,哪一個對象是人工智能。如果被測試者不能準確發現,就表明該人工智能已經達到了強人工智能的程度。[4]強人工智能有一定可能性完全擺脫人類的控制,獨立展開工作。
超人工智能則表現為更勝人類一籌的智能程度。通俗而言,即人工智能超越了人類的智慧。雖然從目前的相關技術發展看,尚無法達到這一效果。但是人們普遍擔心,在未來這種情況很可能出現。
人們之所以對人工智能的智能程度進行分類,是為了更好地判斷人工智能發生侵權行為的機理,以及在侵權責任承擔中,人工智能的法律地位和相關人是否承擔責任。
如上所述,人們對人工智能的智能化程度進行分類,在此基礎上對人工智能的法律地位進行了探討。
就人工智能是否能夠成為法律上的主體,相關觀點有肯定說和否定說兩類??隙ㄕf的贊同者認為,一旦人工智能的智能化程度已經和人類相當或者超越人類,即其有獨立的認知、思考、判斷和決策能力,就應當被視為法律主體,承擔對應義務。[5]對于人工智能能夠成為什么樣的法律主體,有人提出其可以類似公司法人,有人認為它是被代理人,還有人認為其可以被類比為限制民事行為能力人,所謂的“未成年人”,人類則是它的監管人。
否定人工智能能夠成為法律主體的學者認為,人工智能本質上是人類輸入數據、設定程序所形成的產品,它雖然可以進行一系列獨立行為,但不可能有法律人格,也就不可能成為法律主體。這也是學界當下的通說。[6]一些學者認為,人工智能就是機器,是技術的產物。另一類學者認為,人工智能也不可能成為擬制的法律主體,因為其本質上受到人類控制,或者應當受到人類控制。人們不應當允許人工智能脫離人的控制,成為獨立主體。相關學者大多認為,人工智能應該作為法律客體存在。即便是強人工智能,也不應當擁有法律主體地位。因為,在其未能夠超過人類智慧,真正獨立之前,它的一切類人行為,哪怕外觀看起來和人類無異,都是對人類的一種模擬。此外,人工智能也欠缺獨立承擔責任的能力。
所謂侵權責任形態,是侵權編中根據不同類型的侵權行為,行為人單獨或者彼此之間進行責任分配的一種形式。[7]對其探討,有助于闡明人工智能可能承擔的侵權責任的形態。
人工智能如果能對侵權行為自己決定,那么人工智能就有承擔責任的可能性,此時人工智能在法律地位上可能有機會獨立承擔責任,這一責任即為人工智能的自己責任。不過從目前看,主流學說并不贊同這一責任形態,因為其不贊成人工智能為法律主體,而認為其只能為法律客體。如此,人工智能侵權下就只存在替代責任,即人工智能的開發者、生產者、使用者等相關人員,要對人工智能的侵權承擔責任。
人工智能的單獨侵權行為所導致的對應侵權責任,即為單獨責任。如上所探討的,此時人工智能的開發者、生產者、使用者等相關人要根據具體情況和法律規定而承擔替代責任。但是,如果人工智能和其他人工智能或者民事主體共同實施了侵權行為,那么該共同侵權主體就要承擔共同的侵權責任。此時,人工智能的相關主體要和其他真正的侵權行為人來共同承擔責任。相關情形會變得極為復雜,他們彼此之間可能形成連帶責任,也可能為按份責任。
共同侵權責任還可以繼續被區分為連帶責任和按份責任。一般而言,法律會對此進行規定,從而人們能夠確定共同侵權責任是連帶責任還是按份責任。如果法律對此欠缺具體說明,一般情況下會推定為連帶責任。因為連帶責任對于共同侵權人的要求更為嚴格。但是,也有人指出,實際上人工智能不可能和其他人形成連帶責任或按份責任。因為共同侵權行為必須有意思上的共謀,人工智能不是法律主體,欠缺獨立意思表達的可能,而如果為人工智能的開發者、生產者、使用者等利用人工智能和他人合謀共同實施侵權行為,則實際侵權行為人為這些民事主體本身,而不涉及人工智能。
所謂補償責任,是在行為人無過錯情況下,基于公平原則而對受害人承擔部分補償的一種責任。它適用公平原則,所以并不對所有損害進行補償,而是基于一種公平的考量,讓受害人能夠從某種途徑獲得一定受償,而不至于完全孤立無援,得不到任何補償。補償責任的承擔基于法律的規定,實踐中典型情況為高空墜物。但是在人工智能領域是否能出現類似高空墜物的情形,有待進一步研究。補充原則是在實際加害人無法完全賠償的情況下,補充責任人在不足范圍內提供補充賠償。補充責任往往是次要責任,而且只承擔賠償范圍的一部分。如果人工智能有自己獨立的財產可以補償給被侵權人,那么可以考慮由其他相關主體承擔補充責任。但是人工智能是否能有自己獨立的財產,也是一個問題。
結合人工智能的智能化程度而言,筆者認為,在弱人工智能的情況下,人工智能全無任何獨立承擔侵權責任的可能性,它是完全的客體,所以侵權責任必然由相關自然人承擔,此時僅涉及相關自然人或其他民事主體的替代責任。相關自然人或其他民事主體的侵權責任的具體承擔,則按照《民法典》侵權責任編中的相關規定。在強人工智能的情形下,如果人工智能仍舊在非自決狀態下,則其也仍舊和弱人工智能一樣,是法律客體,而非法律主體,實際承擔侵權責任的仍舊為相關自然人或者其他民事主體。
無法自決狀態下的人工智能發生“侵權行為”,此時其并非真正的侵權行為,因為真正的侵權行為的行為人主體實際上必須為民事法律主體。這里可以說,人工智能作為一種工具,被人們所利用而實施了侵權行為。非自決狀態下,一旦發生侵權情形,歸則原則為無過錯責任,人工智能物的相關設計者、生產者、所有人是否對于人工智能物之行為存在過錯,在所不問。只要人工智能發生了“侵權行為”,就要承擔相應的侵權責任。責任的主體依據情形有所不同。如果人工智能發生“侵權行為”是由于設計上的缺陷,則設計者為責任承擔主體;如果人工智能發生“侵權行為”是由于生產上的原因,則由生產者承擔責任;如果其系所有人未按照規定進行操作,錯誤操作引起了“侵權行為”,則由所有人承擔相應責任。在無從判斷的情況下,可以采取推定的方式,例如對人工智能系統決策合理性的推定,對所有人是否能完整控制人工智能的能力推定,以及結果避免可能性的推定等。[8]在實在無法推定具體的承擔主體時,可以讓三者共同承擔責任,或者讓最有可能的主體承擔責任。在責任承擔范圍上,既應當包括直接的財產損失,也應當適當包括間接的財產損失,以及可能給被害人造成的精神損失。
如果強人工智能的智能化程度能夠真正達到自決狀態,并且其具有自己的財產,在法律能夠提供一定相關依據的情況下,強人工智能可以獨立以自己財產承擔責任,但是賠償不足的部分,應當由相關自然人或其他民事主體承擔相應的補充責任。目前尚無法考慮超人工智能的情況。但是如果有一天真的出現人工智能在智力上全面超越人類,那么人工智能在侵權責任的承擔上完全無需再特殊化考慮,而可以直接等同于一類民事主體,受到侵權責任相關法律規定的直接規制。筆者認為,如果強人工智能已經具備自覺能力,并在自決狀態下實施了侵權行為,且其有自己的財產,法律并無理由阻礙其如同法律主體承擔責任,而只需要設置相應規定,在其無法充分承擔自己責任的情況下,明確承擔補充責任的主體。
人工智能如果能獨立承擔侵權責任,首先意味著其滿足了成為民事主體的條件。人工智能只有在民事法律體系中有主體資格,才能承擔自己的侵權責任。實際上,此時,人工智能并不會動搖現有的侵權編基礎和侵權責任構成要件。[9]因為此時人工智能可以被視為一個擬制民事主體,如法人和其他具有民事主體資格的非法人組織,能夠以自己的名義享有權利,承擔相應義務。不過,考慮到人工智能在財產擁有上的不確定性,似乎更宜將其對應為未成年人,在其自有財產無法完成足夠償付的情況下,其“監護人”要承擔補充責任,從而使得受害人能夠充分受償。此時,侵權責任主體為人工智能,但是補充責任主體為其所有人。在責任承擔范圍上,人工智能以其全部財產為限承擔侵權責任,如果人工智能財產不足,則由其所有人以自己的財產承擔相應的補充責任。
現代社會中,人工智能發展尚未達到完全自決的程度,故而人工智能一旦發生“侵權行為”,本質上其實應當由與其相關的民事法律主體承擔相應侵權責任。人工智能的本質是工具,是法律客體,而不能夠成為法律主體。但是,我們也要考慮到未來如果人工智能能夠獨立決策、高度智能化,在一些特定情況下可以成為法律主體,獨立承擔侵權責任。此時,考慮到其自有財產的不確定性,在其獨立承擔責任范圍內賠償不足的部分,應當由其所有人承擔補充責任。