劉謝慈,賀馳宇
(湖南工業(yè)大學 法學院,湖南 株洲 412007)
風險社會是現(xiàn)代社會的一種伴生形態(tài),不同于傳統(tǒng)的危險災害,風險社會的誕生本身就是一種社會發(fā)展的結(jié)果。目前風險社會的治理主要依靠風險控制和剩余社會風險分擔,二者相輔相成。近年來,科技治理風險社會的模式得到了廣泛關(guān)注,無論是用于精準控制社會風險還是提供更科學的剩余社會風險分擔方案,實踐都已經(jīng)證明科技在帶來潛在風險的同時又能為風險社會賦能。其中,人工智能與社會治理的融合受到廣泛關(guān)注,它不僅關(guān)注傳統(tǒng)風險,也關(guān)注新型風險的特殊性治理。根據(jù)社會學理論,“后人類”及“后人類社會”的出現(xiàn)以人工智能的誕生為標志,通過人工智能與人腦的協(xié)作,推動新的社會關(guān)系和社會形態(tài)出現(xiàn),同時也引發(fā)了風險治理研究范式的新一輪變革[1]。當前,人工智能技術(shù)在我國司法方面的應用已經(jīng)十分廣泛,國家高度重視人工智能技術(shù),把人工智能發(fā)展上升到國家戰(zhàn)略層面,整合各方資源,大力推動人工智能創(chuàng)新,并且取得了不錯的成果。無論是法律機器人“大牛”,還是杭州互聯(lián)網(wǎng)法院,我國的“智慧司法”建設工程在國家的大力支持下,已經(jīng)走在了世界前列。但是快速發(fā)展的背后卻是相關(guān)制度建設的滯后,人工智能為人類社會發(fā)展創(chuàng)造了新的可能,另一方面也不斷引發(fā)各種社會問題和法律適用問題,擴大了社會風險的覆蓋面和破壞性。
隨著人工智能技術(shù)的應用領域愈發(fā)廣泛,隨之而來的倫理挑戰(zhàn)和侵權(quán)風險也逐漸顯現(xiàn)。智慧社會已經(jīng)初具雛形,但風險社會的矛盾也進一步凸顯,人類社會所面臨的整體風險也在不斷增加,人工智能既提供了全新的治理方式,也帶來了新的問題,尤其近些年人工智能侵權(quán)事件屢屢發(fā)生,給整個社會帶來不小的隱患。因此,對于人工智能侵權(quán)的討論也越來越貼近現(xiàn)實。我國侵權(quán)責任體系高度依賴《民法典·侵權(quán)責任編》第一千一百六十五條構(gòu)建的行為人責任體系,而對于人工智能能否作為行為主體以及承擔責任這一問題還有待商榷,法律界對人工智能侵權(quán)主體地位的認定眾說紛紜,這進一步加劇了侵權(quán)風險意識的分化。在傳統(tǒng)的侵權(quán)糾紛中,侵權(quán)主體往往是明確的,而在人工智能侵權(quán)糾紛中,侵權(quán)主體的認定卻一直是學術(shù)界的爭議焦點。有觀點認為,對于人工智能侵權(quán)責任的認定,可比照動物侵權(quán)賠償責任的相關(guān)規(guī)定進行判斷[2];也有觀點認為,由于人工智能的行為邏輯是受其內(nèi)部程序規(guī)制的,因此應由軟件開發(fā)者或人工智能產(chǎn)品所有權(quán)人承擔侵權(quán)責任。相較于傳統(tǒng)的侵權(quán)糾紛,侵權(quán)主體的特殊性是人工智能侵權(quán)糾紛最為顯著的特點[3]。就目前來看,賦予人工智能侵權(quán)主體地位的條件仍不具備,為了妥善解決人工智能侵權(quán)糾紛,合理分配侵權(quán)責任,勢必要對人工智能侵權(quán)主體地位問題進行探討,提出有效解決途徑。人工智能侵權(quán)已然成為愈發(fā)嚴重的現(xiàn)實問題,我們既要妥善解決這些糾紛,也要保證社會的平穩(wěn)發(fā)展,更要以此為契機,推動侵權(quán)責任制度在風險社會下的轉(zhuǎn)型和進步[4]。
對人工智能侵權(quán)主體地位的爭議,主要矛盾點在于確認人工智能是否獨立地進行意思表示,若無法準確地判斷這一點,對人工智能的屬性認知就容易出現(xiàn)偏差,從而引發(fā)一系列的社會風險。自然人的獨立意志表達體現(xiàn)在民法領域,即人的意思自治。按照星野英一的觀點,個人的意思自治意味著個人有加入或不加入某種法律關(guān)系的自由,以及有決定該法律關(guān)系內(nèi)容的自由[5]。這意味著需要人工智能以一個普通人的視角,通過理性、道德、情感等綜合因素地判斷,做出一個不僅符合邏輯且符合人性的行為選擇。顯然,目前的人工智能首先不具有這種能力,這種獨立意志的缺失,使得人工智能只能依照預設規(guī)則進行工作,因而不能認定其法律主體地位;其次,對于人工智能的意思表示難以進行準確辨別,簡言之,在技術(shù)邏輯導向的人工智能侵權(quán)案件中,很難分辨“意思表示”是人還是機器做出的,這有可能使得幕后操縱者獲得雙重人格,借此來逃避法律責任。由于侵權(quán)主體是某一人工智能,責任由人工智能承擔,不法分子完全可以躲在幕后操作,不用承擔任何責任,由此造成了侵權(quán)成本的降低,甚至可能造成社會秩序的混亂,進一步放大了侵權(quán)風險。
基于人工智能的高科技屬性,適用技術(shù)的主體往往是一些規(guī)模巨大、實力強勁的企業(yè)或組織,其掌握著人工智能的運行規(guī)則和相關(guān)數(shù)據(jù)。核心技術(shù)作為商業(yè)秘密的一種,相關(guān)持有主體依法享有不公開的權(quán)利。即使最基本的人工智能算法有一定的可行性予以公開,但后續(xù)人工智能在算法支持下進行數(shù)據(jù)分析、智能決策以及深度學習的完整過程是無法簡單敘述的[6]。而被侵權(quán)的對象,一般都是普通民眾,糾紛雙方的實力差距明顯,地位不對等。根據(jù)《中華人民共和國民事訴訟法》規(guī)定的舉證規(guī)則,首先應由被侵權(quán)人就侵權(quán)行為的發(fā)生進行舉證。但在人工智能侵權(quán)案件中,對于被侵權(quán)者來說,其不論是在技術(shù)上還是客觀條件上,取證都十分困難。如果人工智能技術(shù)背后的實際操控者有意隱瞞或者修改數(shù)據(jù),被侵權(quán)者的取證活動將更加舉步維艱。此外,人工智能具有極強的自主性和不可預測性,可通過數(shù)據(jù)分析不斷學習,這對原始記錄的留存和記載也造成了較大困難,甚至連開發(fā)者和使用者也無法有效還原客觀侵權(quán)過程,從而進一步加劇了人工智能侵權(quán)行為的認定困境。
侵權(quán)責任的主要意義在于使受害人在權(quán)利受到侵犯時能夠得到合理補償,而人工智能作為人造產(chǎn)物,不具有獨立財產(chǎn)權(quán),不能使用自己的財產(chǎn)來承擔責任,最終還是要追溯人工智能背后的使用者或其他有關(guān)責任人員來承擔責任,如此一來,賦予人工智能侵權(quán)主體地位就失去意義,反而使受害者遭受追責困難的風險。此外,如果要用人工智能自身的價值來承擔侵權(quán)責任,也存在諸多問題。一方面,人工智能自身價值難以估算,由于這一技術(shù)的特殊性,對其進行準確估值較為困難,其涉及的知識產(chǎn)權(quán)等因素,使得這一問題更加復雜化。從被侵權(quán)者的角度來說,當事人只想得到合理補償,而人工智能的價值若無法換算成能夠流通的財產(chǎn),則沒有實質(zhì)意義,無論這一人工智能對于其利益相關(guān)者而言有著多大的價值,其價值衡量標準也難以得到普遍認可。一方面,人工智能的價值難以分割,無法將自身的價值交付于受害者,而如果采用轉(zhuǎn)移使用權(quán)或者分割所得利益等方式,那實際上還是把人工智能看作是物,與汽車、手機等沒有區(qū)別,與法律主體這一地位自相矛盾。
從社會情感的角度出發(fā),普通民眾對于人工智能的接受度有限,人類是獨一無二的,因此在普通民眾心里,只能把人工智能視作高級機器,而不是看作是和自然人一樣的另一種智慧生命體。人工智能不具有情感體驗,不能接受或表達情感,智能機器人無法與人類產(chǎn)生實質(zhì)性的情感聯(lián)結(jié)。人類也很難接受人工智能和人類擁有相同地位。歸根結(jié)底,法律是統(tǒng)治階級意志的體現(xiàn),根本上代表的始終是人類自身的利益,作為人造產(chǎn)物,機器人的工具性價值決定其具有天然利他性而非利己性,因此不會像自然人一樣為自己謀求利益,客觀上并不需要此類權(quán)利,也難以行使權(quán)利。人工智能缺乏權(quán)利訴求,但是卻因為減輕社會風險或者加強人類對其控制的需要而承擔大量的義務,這與權(quán)利與義務相平等的原則不符。此外,人工智能作為侵權(quán)責任主體還可能導致勞動異化、社會關(guān)系混亂等一系列社會問題[7]。這些都增加了潛在的社會風險,對現(xiàn)有的社會治理、法律體系造成嚴重沖擊,所以人工智能主體化問題并不是單純的法律問題,更牽涉?zhèn)惱淼赖隆⒐婺康募叭祟惛星榈取T陲L險社會之下,這些社會問題被進一步放大,可以看出,人工智能侵權(quán)所引起的法律難題如何解決,在現(xiàn)行的法律體系內(nèi)似乎并沒有明確規(guī)定,這進一步提高了技術(shù)治理的難度。
如果賦予人工智能法律主體地位,可能使得幕后操縱者獲得雙重人格,從而逃避法律責任,為自己謀取非法利益。與此相反,如果人工智能非主體化,則其設計者、使用者就必須承擔一定的風險,當人工智能主體引發(fā)侵權(quán)行為時,這些相關(guān)責任人員必須為此負責。通常情況下,制造產(chǎn)業(yè)缺乏在安全性和謹慎性方面提高支出的原始驅(qū)動力,而更多的是在事故產(chǎn)生之后所作出的補救和改進[8]。基于規(guī)避風險的目的,設計者必須嚴謹?shù)卦O計程序,避免出現(xiàn)錯誤;管理者是人工智能技術(shù)的首要控制主體,其對人工智能進行嚴格管理并規(guī)范使用是其義務所在。此外,避免操作失誤或減少系統(tǒng)運行錯誤以避免人工智能對他人造成損害也屬于管理者的注意義務[9],所以管理主體需持續(xù)優(yōu)化管理機制,謹慎使用人工智能技術(shù),這樣就變相提高了有關(guān)責任人員的注意義務。人工智能的非主體化認定,不僅能最大限度降低惡意利用人工智能技術(shù)開展違法犯罪活動的可能性,而且可以通過完善設計和積極管理避免技術(shù)事故的發(fā)生,這無疑強化了設計和管理人員的謹慎義務。
對于人工智能侵權(quán)糾紛的被侵權(quán)者,最迫切的訴求是得到合理補償,而人工智能財產(chǎn)方面的特殊性使得其難以承擔侵權(quán)責任。與此相對,人工智能非主體化則可以順利地找到一個能夠承擔責任的適格的民事法律主體。事實上,能夠控制人工智能系統(tǒng)的,一般都是實力雄厚的公司企業(yè),其有足夠的財力,完全有能力承擔侵權(quán)責任,向這些主體進行追責,為人工智能侵權(quán)行為承擔責任,對被侵權(quán)者進行賠償,才更符合民法典侵權(quán)責任編的損害賠償目的,社會風險也能夠得到合理分散承擔,故人工智能的非主體化更有利于受害人合法權(quán)益的保護。而對于民法典侵權(quán)責任編規(guī)定的“賠禮道歉”“恢復名譽”等方式,由相關(guān)責任人員來承擔責任更為恰當,將倫理道德納入人工智能開發(fā)企業(yè)的社會責任框架之中,對受到侵害的消費者主動承擔倫理道德責任[10],是侵權(quán)責任制度的應有之義,同時也可以滿足被侵權(quán)者的情感需求。
人工智能技術(shù)誕生的同時,也帶來了引發(fā)社會風險的可能性,所以自然也就成為社會治理的對象之一,但人工智能技術(shù)的出現(xiàn)也為社會治理賦予新的可能,為社會提供更多路徑來實施社會治理。人工智能是一項高科技產(chǎn)物,其中所涉及的技術(shù)和計算常人難以想象,雖然人工智能目前的發(fā)展取得了不錯的成果,但是這個領域還有著大量的未知等待我們?nèi)グl(fā)掘,所以繼續(xù)發(fā)展會帶來怎樣的風險,又會導致怎樣的侵權(quán)事件,這都是未知數(shù)。但可以預見的是,運用人工智能技術(shù)治理風險社會是人類面對多元突發(fā)風險能夠給出的極佳解決方案,用人工智能創(chuàng)造一套從預警到補救的完整治理機制,或者利用人工智能找尋全新的治理措施,都具有一定的可行性。當人工智能作為客體時,可以成為社會治理的工具,為不同領域的治理工作提供強大助力。而當人工智能作為主體時,不僅本身帶來的侵權(quán)風險無法妥善化解,還使得社會風險進一步加劇,人們不但要先解決人工智能主體化之后帶來的新問題,運用人工智能還面臨著更多的限制,這反而制約了人工智能技術(shù)的效能發(fā)揮。
既然否定了人工智能的侵權(quán)主體地位,解決問題的關(guān)鍵就在于明確侵權(quán)主體,進而合理分配侵權(quán)責任。當人工智能被認定為客體時,完全可以參考民法典侵權(quán)責任編的相關(guān)內(nèi)容,在考慮一些特殊情況的基礎上,綜合行為過程的各種因素,確定侵權(quán)主體。首先,對于人工智能引發(fā)的侵權(quán)責任,如果侵權(quán)結(jié)果是由于人工智能設計者的設計缺陷造成的,應由人工智能設計者承擔侵權(quán)責任,此時可參考產(chǎn)品責任——生產(chǎn)者與銷售者承擔無過錯責任、不真正連帶責任,即生產(chǎn)者和銷售者對外均承擔無過錯責任,銷售者對內(nèi)系過錯責任,銷售者無過錯的,生產(chǎn)者需承擔最終責任,銷售者承擔責任后有權(quán)向生產(chǎn)者全額追償;銷售者有過錯的,銷售者承擔最終責任,生產(chǎn)者承擔責任后有權(quán)向銷售者全額追償[11]。其次,針對人工智能管理者,如果因其過錯造成侵權(quán),其理應承擔侵權(quán)責任。而在人工智能本身沒有設計缺陷的情況下,人工智能的使用者應當遵守操作規(guī)程,履行謹慎義務,如果是使用者的過錯導致了人工智能侵權(quán)行為的發(fā)生,則理應由使用者承擔侵權(quán)責任[9]。此外,針對人工智能的特殊性,還可參考用人單位責任,將管理者和操縱者細分,進一步明確責任主體,對外由管理者或單位承擔責任。例如,以管理者和使用者本身過錯的大小對侵權(quán)責任進行分配;在人工智能侵權(quán)行為產(chǎn)生原因不明的情況下,可由人工智能設計者和管理者承擔相關(guān)侵權(quán)行為的連帶責任[12];如果存在獨立于設計者和管理者之外的第三人非法控制了人工智能并進行操縱,從而導致相關(guān)人工智能侵權(quán)損害的,應當認定第三人為相關(guān)侵權(quán)行為責任主體并承擔相應的侵權(quán)責任。
由于人工智能的特殊性,傳統(tǒng)的侵權(quán)責任承擔方式存在局限性。人工智能難以單獨承擔侵權(quán)責任,但如果人工智能不受控制而引發(fā)社會風險,或人工智能程序運行超出原始設定而造成侵權(quán)風險,應增加對人工智能進行特殊無害化處理的責任承擔方式。根據(jù)侵權(quán)程度的不同或者危害性的大小,無害化處理可以有不同級別,當人工智能嚴重威脅他人及社會安全或超出管理者控制時,可以采用將人工智能的載體予以徹底銷毀的方式;當人工智能只是某個程序設定不合理時,可以將控制人工智能行為的電腦程序進行無害化修改,其余部分繼續(xù)使用;再者,如果人工智能接收、使用了某些不良數(shù)據(jù)或數(shù)據(jù)受到惡意篡改,則可以將相關(guān)數(shù)據(jù)和學習記錄刪除,將人工智能程序恢復出廠狀態(tài)。在清除儲存空間的同時,可設置相關(guān)禁止指令,防止再次發(fā)生類似侵權(quán)行為。特殊侵權(quán)責任承擔方式與普通侵權(quán)責任承擔方式相結(jié)合,或能更好地解決人工智能侵權(quán)糾紛。
侵權(quán)責任制度的意義不僅限于明確責任,更重要的是在于損害賠償。在人工智能非主體的前提下,將生產(chǎn)者和使用者作為侵權(quán)責任的承擔主體,能有效地保證被侵權(quán)者得到賠償,但過重的賠償責任可能會減弱生產(chǎn)者研發(fā)人工智能的積極性。而如果能引入商業(yè)保險制度,將人工智能侵權(quán)引發(fā)的高額賠償款轉(zhuǎn)移給保險公司來支付,則可最大程度降低生產(chǎn)者的顧慮[13],同時也能保證被侵權(quán)者可以在第一時間獲得救濟,有效分擔了社會風險。但是,過低的投保責任又會使得企業(yè)通過保險手段規(guī)避人工智能侵權(quán)的風險,從而降低對人工智能的生產(chǎn)和監(jiān)管標準。鑒于人工智能特殊的高科技性和廣泛的應用性,可以采取“雙軌制”的保險模式,即對于生產(chǎn)者采取強制保險制度,對于其他主體則采取商業(yè)保險制度由其自愿選擇。對于人工智能侵權(quán)事件,大多數(shù)危險源都是人工智能系統(tǒng),即責任承擔者指向生產(chǎn)者,生產(chǎn)者的強制保險制度可以為大多數(shù)的人工智能侵權(quán)事件提供救濟保障,同時也通過強制保險制度避免生產(chǎn)者逃避侵權(quán)責任的承擔。而商業(yè)保險制度作為補充,則為使用者、管理者以及其他主體提供技術(shù)適用過程中的保障。
針對人工智能的特殊性,除了商業(yè)保險制度外,還可以建立人工智能動產(chǎn)登記制度。人工智能產(chǎn)品在流入市場之前必須強制登記,登記信息主要包括設計者和生產(chǎn)者的基本情況,以此獲得產(chǎn)品編號并登記在冊。此外,還需登記設計和生產(chǎn)的技術(shù)指標,通過登記制度的追溯功能可以確定人工智能產(chǎn)品設計者和生產(chǎn)者,進而對其提出賠償要求[14]。還可以和人工智能的強制保險制度相結(jié)合,在保證受侵權(quán)者第一時間得到救濟的同時提高向最終責任主體追償?shù)男?便于對人工智能行業(yè)的有效監(jiān)管。在出臺國家和行業(yè)的人工智能產(chǎn)品質(zhì)量標準之后,人工智能產(chǎn)品要進行強制登記,相關(guān)監(jiān)管部門也要嚴格履行審核職責,主要是查看人工智能產(chǎn)品的質(zhì)量和生產(chǎn)指標是否符合監(jiān)管標準,這也能為后續(xù)的持續(xù)監(jiān)管工作提供基礎條件。為了配合人工智能登記制度,相關(guān)責任主體需制定配套的人工智能產(chǎn)品質(zhì)量的國家和行業(yè)標準,同時也要建立健全人工智能行業(yè)監(jiān)管制度。目前來看,雖然不能賦予人工智能法律主體地位,但適當?shù)姆尚薷囊约靶袠I(yè)規(guī)則的制定是有必要的。對于人工智能這樣的高科技領域,在大力發(fā)展的同時需加強監(jiān)管力度。具體可以從以下方面入手:在人工智能制造業(yè),要對人工智能的設計制定嚴密的規(guī)則,甚至是樹立基本的工作原則;要對人工智能使用的數(shù)據(jù)進行嚴密監(jiān)管,保證數(shù)據(jù)來源合法,數(shù)據(jù)使用合理。換言之,雖然確定了人工智能不作為責任承擔主體,而是由相關(guān)責任人員來承擔侵權(quán)責任,但是法律是維護社會秩序的最后一道防線,應該盡量將問題在釀成重大后果之前妥善處理,防范風險于未然,這才契合風險社會的治理方式[15]。
人工智能技術(shù)在賦能社會治理的同時也帶來了未知的多樣化風險,其不可感知性、不可計算性、不可控制性以及危害的全球性日益增長[16],因此司法治理觀念轉(zhuǎn)變迫在眉睫。傳統(tǒng)侵權(quán)法采取一種矯正正義,意在調(diào)整侵權(quán)者與受害者之間的關(guān)系,使之平衡[17],但人工智能引發(fā)的侵權(quán)風險可能會造成難以估量的后果,例如惡意使用數(shù)據(jù)或泄露數(shù)據(jù),其不僅針對某一受害者,波及范圍往往涉及更為廣泛的社會領域。而單純采取矯正正義的侵權(quán)法難以應對類似風險,故應考慮站在社會整體的角度來討論人工智能風險預防與責任分配。面對人工智能侵權(quán)帶來的新型風險,侵權(quán)法不能只做“事后法”,僅僅給受害者提供補償和救濟,而更應該成為“事前法”,通過法的規(guī)范作用防止惡性侵權(quán)事件的發(fā)生。風險社會中的人工智能侵權(quán)不僅僅是個案問題,更是社會問題,侵權(quán)法不能僅站在個人立場,而是需站在社會整體角度健全風險防范體系。在社會治理新格局下,人工智能在司法領域的深度拓展能為風險社會治理減壓,但人工智能侵權(quán)風險需要合理的控制和分擔,為了在社會風險最小化和利益最大化之間達成平衡,必須妥善解決人工智能侵權(quán)主體、客體、行為方式、責任承擔等關(guān)鍵問題。從整體上看,一味將人工智能系統(tǒng)定位成侵權(quán)主體并不能保證侵權(quán)糾紛的妥善解決,技術(shù)倫理和法律治理的沖突會引發(fā)一系列問題。因此,只有將人工智能定位成法律客體,明確侵權(quán)主體的識別標準和責任承擔機制,優(yōu)化人工智能侵權(quán)行為的認定規(guī)則,才能有效促進侵權(quán)責任相關(guān)法律制度的完善,進一步推動風險社會治理的法治化進程。