牛天寶
摘要:人類正經歷第四次科技革命時代。新的科技革命帶來了生產力的發展,也帶來了社會關系的變革,刑法作為社會治理法應積極應對人工智能帶來的新變化。但是,刑法是保障法。應保持立法克制。人工智能機器人本質上屬于人類的創造物。不能獨立承擔刑事責任,對其施加“刑罰”沒有意義,賦予其刑事主體地位尚不具有現實可能性。人工智能機器人的操控者(制造者、所有者、入侵者)利用人工智能機器人實施犯罪行為應承擔故意犯罪刑事責任。此外,人工智能機器人的制造者未盡到必要的安全注意和結果回避義務,其所有者未盡到保證人的監管義務,均應承擔過失責任。
關鍵詞:人工智能;機器人;刑事責任能力;否定;應對
中圖分類號:DF611文獻標志碼:A
DOI:10.3969/j.issn.1008-4355.2020.01.09
一、引言
人類正大踏步進入以人工智能為代表的第四次科技革命時代。第四次科技革命給社會的發展帶來了革命性變化,人工智能技術將應用到人類生活的方方面面,目前在部分領域已經有相應的人工智能產品,如谷歌公司戰勝圍棋世界冠軍的阿爾法狗、特斯拉公司生產的自動駕駛汽車和美國的人工智能“律師”羅絲等。科學技術是一把雙刃劍,其可以為人類服務,給人類的生活帶來極大的便利,也可能帶來災難性的風險。人類最擔心的問題之一就是:當人工智能發展到一定程度時,可能形成屬于自己的意識而選擇傷害自己或者做出傷害人類的行為。面臨未知的風險,我國刑法學者未雨綢繆,基于人工智能發展帶來的挑戰,提出了一系列解決方案。有學者提出了比較前瞻的觀點,主張“強人工智能產品具有獨立人格和刑事責任能力。可以將其實施的嚴重危害社會的行為認定為犯罪行為并給予刑罰處罰。”同樣,也有學者堅持“人工智能不具備獨立于人類的權利和價值,將人工智能擬制為犯罪主體的設想不具有合理陛,且將加劇‘有組織的不負責任”。
當前最具時代特點的科技進步當屬人工智能技術的迅猛發展和廣泛應用。由此帶來法律調整的問題及挑戰。反映在刑事領域,核心爭議之一就是人工智能機器人的刑事責任能力問題。學界對于弱人工智能的刑事責任問題沒有較大爭議,一般認為其僅具有工具屬性,不具有獨立的刑事責任能力。而分歧主要是針對強人工智能是否具有獨立的刑事責任能力。本文擬討論的人工智能機器人的刑事責任能力及其侵害法益后的刑事責任歸屬,是在強人工智能這個前提下展開的。所謂人工智能機器人是指具有感覺、反應和思考能力的機器人,能識別周圍環境狀態,根據所得到的信息,思考出采用什么樣的動作,對外界做出反應。基于此,即使是與人類外形相似,具有高度的實踐能力,但是只有靠人的操縱才能移動,就不能稱之為人工智能機器人。即使是單純的機器人清掃機,如果是利用自身能力,認識和判斷障礙物并自主進行清掃的機器,也可以稱之為法律上的人工智能機器人,即本文所討論的強人工智能意義上的人工智能機器人。
本文認為,人工智能機器人本質上屬于人類的創造物,不能獨立承擔刑事責任,不應賦予其刑事責任能力,對其施加“刑罰”沒有意義,基于現有的刑事法律規范與理論,尚可解決人工智能機器人肇事的刑事責任歸屬問題。
二、人工智能機器人刑事責任能力之否定
如前所述,關于人工智能機器人的刑事責任能力問題,有兩種相互對立的立場。與否定說相比,肯定說的論者更有責任論證人工智能機器人具有刑事責任能力,而作為否定說的論者只是對傳統刑法的堅守,只需要提出肯定說的論證路徑存在瑕疵,不具有完全的說服力,即可否定人工智能機器人的刑事責任能力。本文對賦予人工智能機器人刑事責任能力持否定態度,雖然人工智能技術的飛速發展,使得人工智能機器人具有某些類人的能力,但是人工智能機器人在本質上是人類創造、應用和管理的對象,不應因其表現出類人的智能,就將其視為人類社會的主體并賦予法律主體地位。現階段,肯定說的論證尚不具有充分的說服力,要賦予人工智能機器人獨立的刑事主體地位,尚不具有現實可能性。
(一)人工智能機器人具有刑事責任能力的論證不充分
肯定人工智能機器人具有刑事責任能力的論者需要充分的理由論證人工智能機器人具有刑事責任能力,他們主要從人工智能機器人的辨認和控制能力人手,提出類比法人擬制為刑事責任主體,并提出人工智能機器人具有受刑能力,針對其特點構建了刑罰體系。然而,本文認為肯定說的論者雖然提出了新穎的論證觀點,但是依然未能充分論證人工智能機器人具有刑事責任能力。
1.無法從人工智能機器人具有辨認和控制能力路徑論證其具有刑事責任能力
有論者指出,刑事責任主體的核心要件是辨認、控制能力。強人工智能機器人具備刑事責任主體的核心要件一辨認、控制力,因此強人工智能機器人能夠成為刑事責任主體。人工智能機器人可能在一定程度上具有辨認和控制能力,但是我們不能忽略其辨認和控制能力的來源——來源于人類,且人類可以左右其辨認和控制能力。其次,還要考察人工智能機器人的辨認和控制能力服務的對象——依然是人類,人工智能機器人自身并沒有獨立的價值追求。行為的目的乃是行為的基礎,當人工智能機器人沒有獨立于人類之外的獨立行為目的,其動作也就無法稱之為刑法意義上的行為。再次,辨認和控制能力是刑事責任主體的核心要素,但并非刑事責任主體的全部,其只是刑事責任主體地位論證的必要條件,而非充要條件。換言之,無責任能力是排除責任事由,并非因具有辨認和控制能力而具有刑事主體地位,恰恰相反,是因為不具有辨認和控制能力而排除了其承擔刑事責任的可能性。最后,人類具有刑事責任主體地位,是人類在漫長的社會發展進程中不斷進步發展而取得并經立法予以確認的,而不是靠別的種群賜予的。假使人工智能機器人靠人類的恩賜獲得了刑事責任主體地位,并沒有任何現實意義,實質上依然是處于被人類制定法支配的客體地位。
2.無法類比法人擬制路徑論證人工智能機器人具有刑事責任能力
類比法人擬制人工智能機器人的刑事責任能力,依然具有難以克服的障礙。有論者從法人的角度出發,認為法人最初也沒有刑事責任主體地位,但是立法把法人擬制為和人類一樣的刑事責任主體。那么,人工智能機器人具有辨認和控制能力,也應當可以像法人一樣擬制為刑事責任主體。人工智能體的法律人格可以“借鑒‘單位這一主體設定的理念。將現階段刑法中刑事責任的主體擴充為自然人、單位和人工智能體”。雖然法人和人工智能機器人都不是自然人,都不具有人類的生理構造與倫理觀念,但法人與人工智能的重大區別在于,法人總是“通過”人類來運營,由人來組成董事會,且董事會的行為被歸結為單位的行為。人工智能機器人的行為是人工智能機器人在一定程度下獨立自主的行為,并非由人直接決定和執行,從這一點來看,存在根本性的差異。法人是以自然人為主體組合的人合性組織,其本質上依然是自然人的聯合體。法人的行為決策是由其決策機關依法定程序而做出,其決策機關的組成人員是自然人,相當于法人的決策實質上依然是自然人所作出的。即使如此,在特定情況下還可能會否定法人的刑事責任主體地位,如設立的目的就是為了犯罪或者成立后的主要業務屬于犯罪等。而人工智能機器人,其智能雖然類似于人類,但是其在設計者完成相關編程以后,就與其辨認和控制能力予以適當分離,其執行的是沒有生機的編程指令,或者是基于特定算法而產生的自我學習能力,其與自然人的辨認和控制能力依然具有本質的區別,也不同于法人的辨認和控制能力,所以人工智能機器人也區別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。
3.無法從受刑能力路徑論證人工智能機器人具有刑事責任能力
刑罰的本質是痛苦,刑罰只與犯罪相聯系,是施加給犯罪人的痛苦。有論者提出,人工智能機器人具有感知刑罰痛苦的能力,將其納入刑罰處罰范圍能夠實現刑罰目的,也符合主體擬制的刑事立法規律,并設計了三種方式對智能機器人進行刑罰處罰:刪除數據、修改程序、永久銷毀。而事實上,人工智能機器人究竟是否具有感知刑罰痛苦的能力,僅僅是建立在作者猜想的基礎之上,并沒有展示明確的科學依據。所謂刑罰,是對犯罪的反作用,是對實施了犯罪的人所作出的制裁,其目的在于通過科處刑罰而抑制乃至預防犯罪。首先,刑罰設計的基礎是受刑主體要有感知痛苦的能力,并基于刑罰的痛苦與犯罪所帶來的快樂的對比,趨利避害,從而做出適法的行為。如果不能論證受刑對象具有感知痛苦的能力,也就談不上通過科處刑罰而抑制和預防犯罪。其次,人工智能機器人主要用來服務人類,與制造它的主體、擁有它的主體以及使用它的主體之間存在諸多利益關聯,銷毀人工智能機器人或者其中的數據、程序等行為勢必會損害與其緊密相關的其他主體的利益。再次,對人工智能機器人施加“刑罰措施”,看似處罰人工智能機器人,實際上卻是對人工智能機器人使用者或所有者利益的減損。機器人無論以何種方式承擔責任,最終的責任承擔者都是人。而人工智能機器人侵害法益,歸根到底是使用者、所有者、制造者在利用人工智能技術過程中違法犯罪,因而理應由人來承擔刑事責任。最后,刪除數據、修改程序、永久銷毀等預防人工智能機器人侵害法益的合理對策,能有效抑制人工智能機器人侵害法益。但是,刪除數據、修改程序、永久銷毀等措施,在無法論證人工智能機器人具有刑事責任主體地位的情況下,與其說是刑罰措施,不如說是在緊急情況下為了保護人類的利益對物采取的行政強制措施。
(二)賦予人工智能機器人刑事責任能力與其他規范存在沖突
法律是社會控制的主要手段,但并非社會治理的唯一手段。法治現代化的基本要求之一就是法治系統內部與外部的協調統一。刑法也不例外,在外部需要與倫理道德等協調一致,在內部還需要與其他法律規范協調一致。法治社會的法律變革牽一發而動全身,不能只從刑法方面討論人工智能機器人的刑事責任能力問題,還需要考慮與其他規范的協調一致。如果暫時無法做到協調一致,刑法應秉持適當的保守性。刑法作為保障法的性質決定刑法需要與其他規范保持一致,隨著其他規范的變化而變化,而非強求其他法律規范適應刑法的理論創新。
1.賦予人工智能機器人刑事責任能力與倫理規范存在沖突
在現有的立法體系以及刑罰歸責路徑阻卻下,將機器人作為刑事責任主體,有違人類對基本倫理的現有認知。首先,承認人工智能機器人的刑事責任主體地位,將導致人與人工智能機器人的關系難以厘定。如果承認人工智能機器人的刑事責任主體地位,則意味著對人工智能機器人可以與人類一樣平等適用刑法規范。即使學者針對人工智能機器人設計了不同于自然人的刑罰,也依然是同一部刑法。現在罪刑法定原則的思想基礎之一為民主主義,根據民主主義的要求,犯罪與刑罰必須由國民代表機關制定的法律來規定。如果將刑法適用于某一主體,該主體應當享有參與刑事立法的權利。那就意味著人工智能機器人應與人類有平等的立法權。要想參與刑事立法,必須具有與自然人一樣的公民身份和平等的憲法地位。如此一來,人工智能機器人與人類的關系應如何定位,人工智能機器人是否也應享有選舉權與被選舉權,是否可以當選為國家機關領導人,是否可以領導人類的發展,都是需要破解的倫理難題。很顯然,從現在人工智能發展的階段來看,賦予其公民身份和立法權還很不現實。其次,既然人工智能機器人難以取得公民身份和立法參與權,卻將人類制定的刑法適用于人工智能機器人。本質上來講,還是沒有承認人工智能機器人的主體地位,在我們內心深處依然下意識地把其視為人類的工具,人工智能機器人仍處于可供支配的客體地位。既然無法接受人工智能機器人與人類的平等地位,那么在理論上與實踐上承認其刑事責任主體地位將面臨一道難以跨越的鴻溝。
2.賦予人工智能機器人刑事責任能力與其他法律存在沖突
一般認為,刑法學是處于后置地位的保障法,保障民事法律規范等前置法律規范的實施。實際上,刑法與其說是一種特別的法律,還不如說是對所有其他各種法律的認可。刑法學的發展不是自我想象,而是需要基于自然科學和社會科學的成果,尤其在基礎概念方面需要與前置法律規范保持一致。刑法學的討論,不能脫離民法學的研究,相反應當以民法學的研究為基礎。其一,在民法學領域,將機器人視為“人”,賦予其相應的主體資格,難以在現有的民法理論中得到合理的解釋。說到底,人工智能機器人的人工類人格仍然不是人格,仍然是物的屬性。人工智能機器人雖然有人的外觀形象,有人的一些功能,可以實施某些類似于人的行為甚至有一定自主性的行為,但它的基本屬性仍然是物。民法學者尚且認為人工智能機器人不具有獨立的人格地位,不滿足人格的基本要素,其在本質上只是人類的創造物,刑法上就承認其主體地位未免顯得突進。其二,假設人工智能機器人可以成為刑事責任主體,那么就應當對人工智能機器人與人類同等保護起來。如果毀壞了人工智能機器人,是應當認定故意傷害罪還是故意毀壞財物罪?在民事侵權領域,其賠償標準是適用于物的標準還是需要單獨設立特定的標準,是根據其價值評估還是根據其預期使用年限來確定賠償金額?刑法不只是懲罰,更應是保障。對刑事主體地位理論的革新是一個系統工程,刑法不能忽視其他法律規范而單槍匹馬,孤軍深入。再次,上文談到的倫理障礙,也是憲法障礙。國家是基于社會契約而成立的,國家的目的在于保障人們的相互自由。憲法規范體系一般是遵從社會契約論的基本思想構建起來的。憲法作為國家的根本大法,如果刑法承認人工智能機器人的刑事主體地位,也應以憲法賦予其主體地位為前提。研究法律問題特別是刑法問題不能基于可能的情況,而應基于現實的情況。但是,就目前的情況來看,不管是憲法還是民法,就連刑法自身都沒有構建完整的規范體系,此時下結論要賦予人工智能機器人的刑事主體地位,或是時間太早了點。
(三)賦予人工智能機器人刑事責任能力缺乏根本依據
除了無法論證人工智能機器人存在刑事能力的基礎以及賦予其刑事責任能力的后果無法協調一致以外,賦予人工智能機器人以刑事責任能力還面臨其自身屬性和科學依據的根本性障礙。就目前而言,人工智能機器人在本質上只是人類的創造物,人工智能機器人的“智力”來源于人類,擬制其具有刑事責任能力的研究大多是建立在論者的設想之上,尚缺乏明確的科學依據。
1.人工智能機器人本質上僅是人類創造物
對犯罪人追究刑事責任的哲學根據在于行為人具有相對的意志自由,或者說自由選擇能力,即行為人能選擇非犯罪行為卻選擇了犯罪行為,因而才追究其刑事責任。人工智能與人類智能并非一回事。人類有目的和意識,而機器并沒有目的和意識。機器仍然只是機器,雖有智能,但也是比較單一的信息處理能力,綜合智商遠遠比不上人類甚至其他動物。人工智能輔助人,而不能完全代替人。人工智能機器人存在的根本目的是為人類服務,其存在的終極意義仍然是一種工具價值,不會也不應有追求自在價值的自由意志。其次,人類設計人工智能的目的,在于利用其在生產、生活、國防等領域代替人類從事一定的活動。人工智能并沒有獨立于人類的權利和價值,而只有利益附屬性。人工智能機器人沒有獨立的價值追求,只有依附于人存在才能實現其價值。再次,人工智能機器人的控制和辨認能力來源于程序與算法,不同于自然人的辨認和控制能力。人工智能歸根結底是思維模擬,并非人的思維本身,決不能把機器思維與人腦思維等同起來。最后,人工智能就本質而言,是對人的思維信息過程的模擬。也有學者從意識的廣延性、統一性與非邏輯性等屬性的角度,認為機器人超越人腦形成獨立意識是根本不可能的。本質上,機器人不是人,無法擁有人類的自我意識,更不具備人所擁有的社會自主適應能力。與機器人不同,人能夠區別自身與其他事物及其他人的不同,能夠在成長過程中形成自身與其他事物具有相對穩定的聯結關系但又與所有這些事物相區別的主觀感受實體。即自我意識——“我”。機器人永遠只是人類創造的工具,其功能即使比人類意識的某些方面還要強大,也只是人類意識“自主性”的延伸。
2.人工智能機器人具有刑事責任能力缺乏科學依據
論者在論述人工智能機器人相關的問題時,充滿主觀假想的色彩,比如有論者提出:“科學技術的發展究竟會帶來怎樣的人機關系,目前我們無法預知,筆者有如下設想。”還有論者在關于強弱人工智能的分類與是否存在思考能力時認為:“……強人工智能產品通過學習,產生脫離程序的獨立意志,具備獨立思考能力”。人工智能機器人發展的未來充滿未知,將刑事理論建構在設想和主觀認為之上,據此認為人工智能機器人具有刑事責任能力,缺乏說服力。再如,關于同一問題的論述,可能會有截然不同的說法,如有論者認為“智能機器人與動物不同,其與人類的溝通并無障礙,并具備意思表達的能力”,還有論者指出,“至少在目前,我們人類和機器人之間的主觀交流和探討的基礎尚不存在”。這些充滿主觀性的詞語,正如國外論者所言,最終論點更多地停留在科幻小說領域,而不是實際的法律分析。如果沒有明確的自然科學依據作為研究的支撐,那么賦予人工智能機器人以刑事責任能力多少有點刑法學領域部分學者自說白話的感覺。
(四)從人工智能機器人的未來發展預測不應賦予其刑事責任能力
在當前科技發展水平以及可預測的未來,人工智能仍將長期處于弱人工智能發展階段,無論基于算法運行的人工智能多么強大。形式理性層面對規則的推理都無法實現像人類運用超規則之上的價值判斷。對人工智能機器人不能賦予主體地位,恰恰相反,應當處于人類的掌控之中,應有足夠的智慧將強人工智能的發展限制在維護人類基本利益的范疇之內。⑩人工智能技術不可能無限發展,人類必須在可掌控的范圍內限制其無節制的發展。人工智能機器人歸根到底來源于人的智能,其智能來源于人類也應受制于人類。人工智能機器人如同風箏一般,不管其飛得再高,都不能脫離人類控制的線索。人工智能機器人一旦脫離了人類的控制,那么人與機器人的關系很可能會被改寫,最終人類很可能是自掘墳墓。
綜上而言,人工智能機器人本質上屬于人類創造的物,其存在的價值在于為人類提供便捷、高效、安全的服務,僅僅具有工具屬性,對人工智能機器人施加刑罰措施也沒有現實意義。目前,賦予人工智能機器人刑事主體地位,缺乏科學依據做支撐,也與其他法律規范難以協調一致,且具有倫理障礙,目前肯定說對人工智能機器人具有刑事責任能力的論證尚不具有充分的說服力。因此,在現階段承認人工智能機器人具有獨立的刑事責任能力,賦予其刑事主體地位尚不具有現實可能性。
三、人工智能機器人侵害法益相關的刑事責任歸屬分析
人工智能機器人侵害法益案件隨著人工智能技術的發展而日益增多,如深圳高交會機器人“小胖”傷人案件、國內首例“特斯拉自動駕駛”車禍致死案和利用人工智能犯罪案件等。目前人工智能機器人還只是一個計算機程序,當出現人工智能機器人侵害法益的案件時,其制造者或所有者承擔相應的民事責任并不存在法律障礙。但是,隨著人工智能技術的進一步發展,本文所探討的人工智能機器人因被利用或自身錯誤啟動很可能嚴重侵害人們的生命健康權。應追究的不再僅僅是制造者和所有者的民事責任,還要考慮相關案件發生后的刑事責任歸屬問題。
要解決人工智能機器人侵害法益案件的刑事責任歸屬問題,首先要明確人工智能機器人侵害法益案件發生的原因。從人工智能的獨立性角度,可以把涉人工智能機器人侵害法益的案件分兩大類型:第一,人類將人工智能機器人作為犯罪工具實施侵害法益的行為,行為主體可以是制造者、所有者以及人工智能機器人系統的侵入者;第二,人工智能機器人超出人類意志侵犯法益。關于第一種類型,人工智能機器人僅僅被作為實施特定犯罪的工具,在實踐中也不難認定。關鍵在于第二種類型的侵害法益案件,隨著人工智能機器人研發的快速發展,與前一種類型相比,后一類型將造成更嚴重的后果。
本文排除了人工智能機器人獨立承擔刑事責任的現實可能性,但這并不意味著人工智能機器人所引發的危害社會的結果沒有相關主體承擔責任。基于現行刑事法律規范而言,也可以對人工智能機器人侵害法益的刑事責任予以合理歸屬。本文將基于涉人工智能機器人侵害法益案件的類型,圍繞涉人工智能機器人侵害法益案件的相關主體——制造者(人工智能機器人的生產制造一般包含設計、研發和生產制造等流程,此處討論的制造者也包含設計、研發者)、所有者(此處討論的所有者為廣義上對人工智能機器人具有監督管理責任的所有者和對人工智能機器人負有監管義務的使用者)、非法侵入者逐一分析相關刑事責任的歸屬。
(一)人工智能機器人被作為犯罪工具使用侵害法益相關的刑事責任歸屬分析
人工智能機器人被作為犯罪工具使用的情況下,人工智能機器人的實際操控者實施了侵害法益的行為,應當由實際操控者承擔刑事責任。此時,其操控者可能是輸入編程和算法的制造者,可能是人工智能機器人的所有者,也可能人工智能機器人系統的非法入侵者。
其一,當制造者在制造設計人工智能機器人時,就把其視為犯罪工具將相應的指令輸入編程和算法,即人工智能機器人的制造者故意利用人工智能機器人實施侵害法益的行為。比如,制造者在制造人工智能機器人的時候,在程序中提前寫進實施犯罪的程序編程,人工智能機器人在特定的場景下就會做出侵害法益的舉動。此時,人工智能機器人只是制造者實施犯罪的工具,對于人工智能機器人的制造者應根據其實際侵犯法益的情況,按其涉及的罪名依法追究刑事責任。其二,在人工智能機器人交付所有者使用以后,所有者利用人工智能機器人的特性從事違法犯罪活動,比如紹興警方破獲的全國首例利用人工智能實施犯罪的案件,犯罪嫌疑人利用一種叫“快啊”打碼平臺進行機器快速識別驗證碼,從而達到迅速批量匹配賬號密碼的目的,進而實施犯罪。對于此種類型的侵害法益的犯罪行為,應對所有者依法追究相關責任。如果利用人工智能機器人傷害他人,則構成故意傷害罪;如果利用人工智能機器人實施詐騙,則構成詐騙罪等等。其三,還存在非法用戶入侵人工智能機器人的操作系統,操控人工智能機器人實施侵害法益的犯罪行為。例如,黑客攻擊作為重要人物安保的人工智能機器人系統,破壞其既有的程序編程,寫入對安保對象實施攻擊的編程,打算操控人工智能機器人對安保對象實施攻擊。這種情況下,黑客沒有獲得授權而非法入侵并控制計算機系統,可以成立非法控制計算機信息系統罪。如果侵入的是國防建設、尖端科學技術領域的計算機信息系統的,還可能構成非法侵入計算機信息系統罪。更嚴重的是,如果侵入人工智能機器人系統并控制人工智能機器人對安保對象實施了故意傷害或者故意傷人的具體犯罪行為的,則應按其實際觸犯的罪名承擔故意傷害或故意殺人的刑事責任。
總之,對于將人工智能機器人作為犯罪工具而從事犯罪活動的相關主體,除了涉嫌計算機系統方面的犯罪以外,應按其實際侵害的法益情況確定其罪名,依法追究相應的刑事責任。
(二)人工智能機器人超出人類意志侵犯法益的刑事責任歸屬分析
一般而言,人工智能機器人都會在既有的編程或者使用范圍內實施特定的行為,但是人工智能機器人有可能失控而做出超出人類的意志實施侵害法益的舉動。在現行法律體系中,尚未針對人工智能機器人侵害法益案件單獨設立相應的罪名。那么,基于現行的刑事法律規范體系,作為人工智能機器人的制造者和所有者是否應對人工智能機器人引發的事故追究刑事責任,則是我們首先考慮的選項。由于人工智能機器人在人的意志以外實施了侵害法益的行為,則排除了制造者和設計者的主觀故意。討論人工智能機器人在人類操控以外侵害法益引發的刑事責任歸屬。則需要厘清與此相關的主體對危害后果是否具有預見可能性,以及對危害后果的發生是否具有回避可能性。如果沒有預見可能,或者根本無法避免,則不能追究相關主體的刑事責任。
1.人工智能機器人制造者的刑事責任
對于人工智能機器人在人類操控以外做出侵害法益的舉動,一般應排除制造者的犯罪故意,那么就要考量人工智能機器人的制造者是否存在犯罪過失。成立過失犯以行為發生侵害結果為條件,還要求實行行為與結果回避可能性。過失犯的成立,要求存在對結果認識的可能性,也要有對結果的規避可能性。或許人類為了享受人工智能機器人提供的服務,自愿承擔一定的風險。事實上,也不可能要求制造者和設計者能預見所有的風險并避免所有的事故。那么,在發展與風險之間,如何才能尋求一個恰當的平衡點,追究相關主體的刑事責任?人工智能機器人制造者的過失和允許的危險應認定到什么程度,這將是人工智能機器人的制造者承擔刑事責任與否的基礎。
(1)人工智能機器人的制造者承擔刑事責任的基礎
首先,需要考慮人工智能機器人制造者對于危害結果是否具有預見可能性。人工智能機器人可以自行從周圍環境中收集信息,在對搜集的信息獨立評價后做出應對決策,從而完成既定的任務。對于人工智能機器人收集到的信息如何解讀,如何應對這些信息,制造者可能也無法完全預測。從學理上看,研發者與設計者對于智能主體而言,具有不可替代的地位和作用,甚至目前處于“獨占”狀態,應當是首要的“倫理責任者”與安全的“守護者”,也是智能主體所面臨的刑事風險的首要來源。人工智能機器人制造者需要仔細考慮其開發的人工智能機器人的用途和屬性等。并根據其用途和基本屬性預見其可能給人類帶來的危險。雖然說要求制造者完全預測人工智能機器人的行動是不可能的,但絕大多數可能帶來法益侵害的類型都應納入可預見的范疇。比如,開發自動駕駛汽車的制造者如果仔細考慮自動駕駛汽車的屬性,其應當預見到自動駕駛汽車在道路上行駛時很可能遇到的突發狀況并采取提前設計相應的程序以采取可靠的回避措施。如果僅僅推脫不能預見而否認存在過失的責任,那就會產生無法向任何人追究責任的結果。
其次,需要考慮制造者是否履行了安全注意義務。過失犯罪成立的主要原因在于應當預見危害結果可能發生而沒有預見或者已經預見到危害結果可能發生而未采取有力的措施予以避免。反映在人工智能機器人領域,過失犯罪本質上是怠于履行安全注意義務,即應當將可能產生的危害后果納入考慮的范疇而沒有。因未認識犯罪事實而導致的結果的發生或者已經預見到可能發生危害后果但是沒有采取恰當的措施避免結果的發生。制造者對于人工智能機器人侵害法益行為擔責既需要有預見可能,也需要有對結果的回避可能性。但是,如何界定其預見的范圍以及回避的能力則存在較大難度。現存刑事法律規范體系對此并沒有明確界定,只能依據一般的道義、倫理、習慣等社會規范,根據具體的實際情況予以合理的界定。
我國對產品質量實行的是嚴格責任原則,要求產品的制造者具有嚴格的注意義務標準。這些標準和原則同樣適用于人工智能機器人的制造者,而且應對制造者提出更加嚴格的注意義務。當然,人工智能技術領域屬于新興的高科技領域,對于人工智能領域的風險尚不能完全認識清楚,因此人工智能機器人的生產者最起碼應按照國家安全標準生產人工智能產品。另外,如果人工智能機器人因錯誤啟動侵害法益,應進一步考量相關案件法益侵害的嚴重性和人工智能機器人帶來的收益之間的關系。我們如果已經做好準備接受可能伴隨著危險的新技術,并且普遍能夠接受使用人工智能機器人可能會帶來無法預測的損失,即使最終發生侵害,也不一定強行處罰人工智能機器人的制造者。但是,如果因人工智能機器人嚴重侵害法益的舉動危及人的生命,那么這必將是我們難以承受的風險,刑法亦應有所擔當。因此,人工智能機器人制造者不可能因為人工智能機器人屬于新興的高科技產品而降低規避危害結果的注意義務,相反,人工智能機器人制造者必須承擔更高的安全注意義務和結果回避義務。
(2)人工智能機器人的制造者承擔刑事責任的具體分析
上文概括性地厘清了人工智能機器人承擔刑事責任的基礎。即人工智能機器人的制造者在生產制造階段是否預見到人工智能機器人侵害法益的危險以及是否履行了結果回避義務。但這并不是人工智能機器人制造者的全部安全注意義務。即使制造者生產的人工智能機器人達到了法律所要求的安全性,也不可能是完美無缺的,依然可能會面臨未知的風險。人工智能機器人出廠檢測合格卻在銷售投入使用之后的缺陷則是當時尚未經歷過的未知風險,這些風險是在發生一定事故或者危險之后才能發現的。因此,制造者對其生產制造的人工智能機器人發生侵害法益的風險一般是制造階段未認識到、上市后才發現缺陷,此時應及時采取召回等必要的安全措施。接下來,本文將依據人工智能機器人在生產制造和使用階段的不同情況進一步探究其相關刑事責任歸屬問題。
其一,制造者在人工智能機器人制造階段的刑事責任。人工智能機器人制造技術,屬于新興的高精尖科學技術,對于此類產品不只是運行程序比較專業和復雜,其研發和生產同樣具有高度的專業性,生產過程難免會出現難以預見的差錯。制造者無法預見人工智能機器人可能發生的所有危險情況,也就不能為所有的危險情況提前做好編程設計。而且,人工智能機器人還有一定的學習能力,因此在生產階段更難以充分預測人工智能機器人可能侵害法益的全部風險。考慮到這一點,制造者在將人工智能機器人投放市場之前,還要進行充分的測驗,并對測驗中出現的風險予以合理的解決。如果制造者生產的人工智能機器人符合安全技術標準并經過充分實驗才投入市場,即使發生了之前難以預見的危險,也不應以出現了客觀危害后果而追究制造者的刑事責任。
但是,考慮到人工智能機器人的潛在危險性和消費者的安全需求會不斷增加,就不能以新興高科技為由將人工智能機器人侵害法益的危險性全部轉嫁給使用者。因此,可以通過引入刑法上的產品責任來解決該問題。《產品質量法》第49條規定,生產不符合保障人體健康和人身、財產安全的國家標準、行業標準的產品的,構成犯罪的,依法追究刑事責任。《刑法》也規定了生產偽劣產品罪和生產不符合安全標準的產品罪。單位犯罪的,對單位判處罰金,并對其直接負責的主管人員和其他直接責任人員追究刑事責任。因此,對于制造者在制造人工智能機器人過程中,明知生產的人工智能機器人不符合安全標準而投放市場的,應當依法追究其刑事責任。
其二,制造者在人工智能機器人使用階段的刑事責任。制造者在開始生產和銷售出人工智能機器人后,有責任持續觀察使用者的反映和人工智能機器人的實際運行情況,并給予必要的反饋,如果出現了在生產階段事先未預料到的損害或風險,有義務對人工智能機器人進行必要的召回。制造者不僅在出廠以前要保障人工智能機器人質量符合安全標準,在出廠交付使用以后,也要關注消費者的反應,同時關注人工智能機器人會出現故障,并繼續預測出侵害法益的可能性,避免由此帶來的后果。此外,如果事后發現人工智能機器人存在缺陷,就應該向使用者發出警告,對缺陷產品,生產者應當全部召回。如果不盡到這種注意義務,就可以作為或不作為的過失行為而追究刑事責任。
2.人工智能機器人所有者的刑事責任
除了人工智能機器人的制造者以外,還可以追究人工智能機器人所有者的監督過失責任。在監督過失中,最終的危害結果并非監督者直接造成的,而是被監督者的行為或者第三人的行為造成的。人工智能機器人的所有者是否承擔過失責任。主要在于能否認定所有者對人工智能機器人是否具有保證人的地位,以及是否具有監管的保證義務。如果人工智能機器人的所有者有防止人工智能侵害法益行為的可能性,就可以承認所有者的保證人地位。
人工智能機器人在制造者生產完畢以后,經過流通環節,將人工智能機器人的所有權轉移給所有者。此時,對人工智能機器人的監管義務隨著所有權的轉移由制造者轉移給了所有者,所有者被賦予保證人的地位,所有者在發生操作錯誤時,應當在可以預見的范圍內采取合理措施制止機器人侵害法益的行為。如果所有者存在監督過失,在合理預見的范圍內未能盡到管理和監督的保證義務應承擔相應的責任。比如,人工智能機器人管家在接到客人來訪的信號以后,誤將客人認為是非法闖入者,錯誤地攻擊客人。此時,如果人工智能機器人管家的所有者已經發現并且能夠制止,但是未能采取有力的措施阻止人工智能機器人繼續傷人,則應承擔相應的過失責任。
四、結論
我們正經歷的第四次科技革命的引領者是擁有人類智能所具有的學習、推理、論證等能力的人工智能機器人,人工智能機器人侵害法益的案件可能導致無法預測的損害結果。以規范人類行為為中心形成的傳統刑事司法體系和責任主義應該如何面對是無法回避的問題。人工智能機器人屬于人類創造的物,其存在的價值在于為人類提供服務,僅僅具有工具屬性,對人工智能機器人施加刑罰措施也沒有現實意義。目前,賦予人工智能機器人刑事主體地位,缺乏科學依據做支撐,也與其他法律規范難以協調一致,且具有倫理障礙。因此,在現階段承認人工智能機器人具有獨立的刑事責任能力,賦予其刑事主體地位尚不具有現實可能性。將通用智能機器人作為與自然人并列的刑事責任主體存在較大難度,刑法對此應堅持謹慎、克制的態度。
鑒于現階段承認人工智能機器人的刑事主體定位尚不具有現實可能性。人工智能機器人侵害法益案件可以根據實際情況歸責于人工智能機器人的制造者和所有者,或者非法侵入者。刑事責任主體的主觀過錯主要是故意和過失兩類:如果人工智能機器人的制造者和所有者以及非法侵入者利用人工智能機器人作為工具從事犯罪活動,應當承擔相應的故意犯罪刑事責任。如果人工智能機器人的制造者未盡到安全注意義務或者結果回避義務,則應承擔相應的過失犯罪刑事責任;如果人工智能機器人的所有者未盡到管理義務,則應當承擔監督過失責任。
數字化革命不應由立法者的臆想孤注一擲地應對,而應伴隨著謹慎、適度的法律演進一同發展。現在討論人工智能機器人的刑事責任還為時過早,刑法學應立足于科學發展進程,與其他前置性的法律規范及社會倫理等保持協調一致。在社會發展過程中出現新問題、新情況時,我們應克服刑事立法沖動,將目光穿梭于新情況與“舊”規范之間,善于從既有的刑事法律規范體系中尋求解決方案。