摘 要:承認人工智能刑事責任主體地位是基于功利主義的考量,是以保護人類自身利益為目的。刑法學者應該對強人工智能的到來抱有憂患意識,理論研究和立法都應具有一定的前瞻性。人工智能的“思考——行動”權猶如自由權之于自然人,對該權利的剝奪可以成為適用人工智能的刑罰方式。人工智能能夠做到刑法所要求的對自身行為意義的理解,也能夠在通過學習后掌握并遵守法律法規。人工智能從應然性上很難區分犯罪故意與犯罪過失的區別,從實然性上也無區分兩者的必要,其主觀意圖與客觀行為具有一致性;人工智能犯罪的危害性主要體現在其產生犯罪意圖之時,因此不同犯罪停止形態的人工智能犯罪對人類的危害性相當。
關鍵詞:人工智能;刑事責任主體;功利主義
中圖分類號:D924.1 文獻標識碼:A 文章編號:0257(2019)03-0110-09
作者簡介:陳敘言,上海交通大學凱原法學院博士研究生 (上海 200030)
隨著20世紀90年代人工神經網絡技術的出現和發展以及計算機算法模式的改進和運算能力的巨大提升,人工智能技術已經成為近年來最為熱門的研究領域。世界各國都將人工智能作為未來科技發展的重中之重,我國國務院于2017年就出臺了《新一代人工智能發展規劃》,由此將發展人工智能提升到了國家戰略的高度。與此同時,人工智能的負面新聞也層出不窮,從早在上世紀70年代發生在日本的機器人將人類工人當作鋼板進行切割到微軟開發的聊天軟件tay出現種族歧視言論再到近年來屢有發生的無人駕駛汽車事故,這些都讓我們在享受人工智能給人類帶來好處的同時不得不開始關注對其所帶來危害的防范。從刑法層面來看,當人工智能通過深度學習“獨立自主”地實施危害社會的行為時,又應該由誰來為它買單?是單純的追究設計者和使用者的責任還是有可能進一步的追究人工智能體本身的責任?
一、承認人工智能刑事責任主體地位之必要性
(一)功利主義視角
普通機器人具有“等同性”和“可預測性”的特點,即機器人實施行為是基于設計者或使用者的意圖,因此相當于設計者或使用者的工具,其實施的行為等同于設計者或使用者的行為,而正由于實施這種行為是事先確定的,因此又可以被預測。而人工智能則不同,由于其具備深度自我學習的功能,因此實施的行為并不能被設計者或使用者所預測,比如圍棋軟件AlphaGo,其設計者可能并不會下圍棋,而且也很難預測該人工智能被制造出來以后水平到底如何,此時AlphaGo部分反應了設計者的意圖,即制造一款棋術高超的軟件,也部分反應了機器本身的思維,即如何走好圍棋的每一步。可以預見隨著人工智能技術的不斷進步,等到了強人工智能時代,這種設計者意圖和機器人本身思維的比例相比于現在將會大幅度的傾斜,達到了一定程度(如百分之八十或者九十)之后顯然無法再將人工智能的行為再與設計者和使用者的行為等同起來,甚至可能出現完全不包含設計者和使用者意圖的行為。此時如果將該種行為帶來的后果完全歸咎于設計者和使用者顯然是不妥的?!缎谭ā返?7條規定,犯罪主體需具備以下條件:(1)實施了嚴重危害社會的行為;(2)具備刑事責任能力;(3)依法應當承擔刑事責任。有學者就指出“一方面,智能機器人具有辨認能力,其能夠辨認自己行為的性質、意義、后果,甚至在對行為導致結果的可能性認識方面,其精確程度可能超越人類;另一方面,智能機器人具有控制能力,其能夠通過自己獨立的意志控制自身行為”劉憲權、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,《法學》2018年第1期。,因而具備刑事責任能力劉憲權、林雨佳:《人工智能時代刑事責任主體的重新解構》,《人民檢察》2018年第3期。。
對于是否應該承認人工智能的刑事責任主體地位,不同領域的學者站在不同角度會有不同的見解。而筆者主張承認人工智能能夠作為刑事責任主體,是以人類利益為核心,站在功利主義的視角得出的?!斑吳哒J為組成社會的每個個人的幸福,亦即他們的快樂與安寧,是立法者所應該注意的唯一目標,而在事情取決于立法者范圍以內,他都應當依據這個唯一標準使每一個人去規范自己的行為。但是究竟使一個人做這件事,還是做別的什么事,則除了苦與樂之外,再沒有其它東西可作最后決定了?!敝茌o成:《西方倫理學名著選輯(下卷)》,商務印書館1987版,轉引自:龔群:《對以邊沁、密爾為代表的功利主義的分析批判》,《倫理學研究》2003年第4期。功利主義將行為的道德評價建立在后果之上,以行為結果所涉及的快樂和痛苦的增加與減少來判斷行為的善與惡。其認為行為的道德本質就是功利,行為過程就是計算和取得功利的過程,只有行為的效果才是評價行為的道德價值的根據。道德只能作為達到功利的手段,道德的價值就在于它的“有用性”羅俊麗:《邊沁和密爾的功利主義比較研究》,《蘭州學刊》2008年第3期。。因此承認人工智能的刑事責任主體地位不是要和機器人講“道德”,不是主張將人工智能的地位提升到與自然人相同的水平,而是通過使其成為刑法所規制的對象這種“道德”的手段,達到更好的保護人類利益這一功利的目的。其實質是對人工智能的一種限制,只不過這種限制是通過承認其刑事責任主體地位所做出的。
對于實施嚴重危害社會行為的人工智能,為什么我們不直接對其進行銷毀而是要費勁心思對其進行審判,以刑法對其予以規制?直接銷毀當然能夠一勞永逸地解決問題,但從功利主義的視角來看,每一個人工智能的研發和制造都需要花費大量的人力、物力成本,而且能夠給人類在各個領域帶來很大的利益,因此如果僅因為其所具有的負面效應就直接對其進行銷毀從社會治理的經濟性上看是極不合算的。此時用人類社會最為嚴厲的刑法對其進行規制,力求“矯正”人工智能所實施的危害社會的行為,使其以后不會再犯,從而達到用最小成本保護人類最大利益的效果。
那么將人工智能作為刑事責任主體能否達到這種效果呢?刑罰的目的在于預防犯罪,包括特殊預防和一般預防,對于人工智能來說同樣適用。強人工智能能夠進行深度自我學習,擁有辨認控制能力,此時其所實施的行為不再是設計者或使用者事先設定的。更確切的說設計者和使用者也往往無法預料和弄清人工智能為什么會實施該種行為,因為如果事先能預料的話設計者和使用者就能夠避免該種行為的發生,因此單純想通過修改編程和數據來從源頭矯正人工智能是極其困難的。人工智能就好比一個黑箱子,一旦被創造出來這個箱子里到底有什么,如何運行,會產生什么都是難以控制的。這和成長過程中的孩童有些相像,因其有獨立的思維,我們無法完全控制其實施何種行為,但我們可以通過引導比如在其做了錯事后對其進行懲罰讓其明白何事可為何事不可為。對于人工智能的犯罪預防也是如此,我們可以將對實施危害行為的人工智能的審判結果輸入該人工智能和其他人工智能的編程之中,“告知”其實施該種行為是不被允許的,從而省去了從源頭的各種編程和代碼中尋找犯罪原因的繁瑣,達到特殊預防和一般預防的目的。久而久之,當越來越多的審判結果被“告知”給人工智能之后,其所實施的危害社會的行為也必將大幅度的減少。
此外,從訴訟的角度來說,人工智能特別是強人工智能所涉及的都是科技含量極高的領域,當其實施危害社會的行為時如果采用民事訴訟程序被害人可能由于對該領域一無所知而根本無法進行調查和取證。而承認人工智能作為刑事責任主體則可以大大緩解被害人的這種壓力,國家作為追訴主體具備普通人所無法具有的訴訟資源和優勢,能夠更全面的調查取證,以最大限度保護作為被害人的人類的利益。
(二)前瞻性視角
隨著人工智能技術的不斷發展,其已在諸如語音翻譯、實時監控,工業制造、無人駕駛等各個領域使人類受益良多,世界各國也都在大力發展人工智能技術及相關產業。然而與此同時,人工智能出現事故給人類造成傷害的新聞也開始屢見不鮮。歷史證明科學技術的發展往往是一把雙刃劍,使人類受益的同時也伴隨著風險,比如核技術的發展一方面讓人類享受了諸如核電站等設施帶來的益處,另一方面也面臨著核武器的風險,克隆技術在為人類器官移植領域帶來突破的同時也使人類不得不考慮克隆人所帶來的一系列倫理問題。人工智能特別是強人工智能同樣如此,當機器人能夠和人類一樣思考,一樣擁有辨認控制能力之時,人類是否還能控制機器人為我所用,是否能讓其不實施危害人類的行為甚至能否不讓人類有朝一日被機器人所統治?類似的橋段在科幻小說和電影中已經多次出現,已故英國科學家霍金也曾作出類似人類終將被人工智能所毀滅的預言《霍金留給人類的最后警告:新書語言超級智能和超人會降臨》,http://www.sohu.com/a/260229666_473283,20181116。。作為社會公平正義最后一道防線的刑法對此應該做出何種反應?是固守刑法謙抑的保守態度還是應當以適當積極的態度投身到社會治理與科學發展之中?當傳統刑法理論已經無法適應社會現實之時是否需要進行一定程度的變革和突破?針對這種社會發展所帶來的風險,有學者對此持肯定態度,甚至提出刑事立法應采用的八種技術:立法擬制、推定、行為范疇的拓展、犯罪標準的前移、責任范圍的擴張與責任形式的多樣化、犯罪構成要素的增減、因果關系準則的創新、法定量刑情節的設置勞東燕:《公共政策與風險社會的刑法》,《中國社會科學》2007年第3期。。
筆者認為,刑法的謙抑性原則必須應當遵循,但也不能無視當今科學技術的高速發展給人類社會所帶來的完全不同于以往的沖擊。人工智能技術的發展特別是未來可能到來的強人工智能,人類如果對其應對稍有不慎即可能遭遇滅頂之災,在此種全人類利益可能面臨侵害的境遇之前,適當犧牲刑法的謙抑性是可以接受的。
對于人工智能能否成為刑事責任的主體,有一種反對的觀點認為強人工智能時代并不會到來,至少是不會馬上到來,對其威脅人類生存的擔心也是杞人憂天。的確,強人工智能時代是否會到來爭論的雙方都不乏支持者,科學家中也存在不同的聲音。不同領域不同行業的人會站在不同的角度看待該問題。那么作為刑法學者來說,我們應該以何種態度看待這個問題?筆者認為應是一種“寧可信其有不可信其無”的態度。因為刑法有著維護人類社會生活中各種秩序正常運行的功能和職責,而強人工智能所可能帶來的危害無疑會對這些秩序帶來巨大甚至是毀滅性的沖擊。法律具有“滯后性”的特點,刑法也是如此,新中國刑法發展的歷史上很多危害行為由于這種“滯后性”在存在了很長時間后才被刑法所規制,使得許多危害后果已經產生。由于法律的“滯后性”是法律所固有的特征,因此這種負面效果也往往能夠被人們所接受。然而對于人工智能,這種“滯后性”所帶來的負面效果是人類無法接受的,如果真等到強人工智能出現的那一天人類才想到要去規制“他”,那么到時候人類是否真的有那種能力將打上一個巨大的問號。因此,刑法學者針對人工智能的態度必須具有前瞻性,必須防范于未然。事實上,任何科學技術的發展都有一個過程,現在我們所處的弱人工智能時代正是人類走向強人工智能時代的過程,只有在這個發展的過程中采取相應的措施,制定相應的規則才能引領人工智能技術向有利于人類的方向發展。同時技術的發展又是爆炸性的,科學技術發展的速度是呈幾何倍數上升的,人類文明近一百年所取得的發展要比前面所有人類歷史加起來取得的發展都要大就是例證,因此已經生活在弱人工智能時代的我們不應將強人工智能時代視為虛無縹緲的未來。另外對于傳統刑法理論來說,人工智能作為刑事責任主體以及由此帶來的一系列對傳統刑法理論體系的沖擊是人類歷史上前所未有的,因此也必然需要長時間充分和激烈的討論才能得出一套行之有效的應對之策,只有現在對人工智能作為刑事責任主體以及相關理論制度進行充分論證和研究,才能使得強人工智能時代真正到來之時我們不至于手足無措,倉促行事。歷史不斷證明,理論研究永遠是人類實踐的開路先鋒,就好像沒有啟蒙思想家們成熟的理論體系,近代資產階級革命的時機到來之際革命家們就缺少了理論武器的指引;又好比至今人類還沒有登上火星的能力,但對于該問題的研究至少在幾十年前就已開始。所以筆者認為,相比于人工智能立法需要有前瞻性,對于人工智能的學術探討相比于立法更應有超前性,只有這樣我們才能夠有足夠的自信迎接強人工智能時代的到來。
除去對強人工智能時代會不會來的討論,還存在我們是否應該讓強人工智能時代到來的討論。比如有學者就認為:“即便是機器人可以進行一定程度的自我進化,這也并不意味著人對這種進化的方向與速度失去可控性。假如機器人可以進化到成為擁有生命意識、自我生存欲求和發展目標能力的新型物種,我們就必須及時阻絕這種事態,絕對禁止這種可能提出權利要求的失控物對人類利益造成威脅與損害,這是我們觸及與機器人相關的倫理道德問題時的核心關切之所在。”甘紹平: 《機器人怎么可能擁有權利》,《倫理學研究》2017年第3期。如果說認為強人工智能時代不會到來的觀點是過于樂觀,那么這種不讓人工智能時代到來的觀點就有因噎廢食之嫌。人類文明的發展過程中曾經創造出許多可能對人類產生危害的技術,比如核技術、克隆技術等。如果一旦對人類有害就采取絕對禁止的方式那么人類文明永遠都不會進步,事實上不論是對核技術還是克隆技術我們采取的都是限制發展的策略,比如禁止和銷毀核武器但發展民用核技術,禁止克隆人但發展克隆器官用于移植。對于人工智能也是如此,對其發展要有一定的限制,以防其危害人類,對其限制又要有一定限度,不至于使得人類科學發展停滯不前。就好像為了限制核武器對人類的危害所制定的《不擴散核武器條約》一樣,對人工智能限制的限度以及方法就需要作為法律學者的我們為相關立法從理論和實踐上提供意見和建議。即在肯定人工智能作為刑事責任主體的必要性后對其作為刑事責任主體可行性的探討,筆者將在文章第二部分予以闡述。
二、承認人工智能刑事責任主體地位之可行性
(一)人工智能適用刑罰初探:“思考——行動”權的確立
我國現行《刑法》規定的主刑有:管制、拘役、有期徒刑、無期徒刑和死刑。附加刑有:罰金、剝奪政治權利和沒收財產;此外還有適用于犯罪的外國人的驅逐出境。人工智能與人類最大的區別在于其沒有生命,因此不能適用死刑;人工智能通過編程和算法進行運作,很多人工智能甚至沒有物理實體,因此很難對其適用有期徒刑等自由刑;人工智能目前來看無法擁有財產和政治權利(在未來可能擁有),因此也無法對其適用罰金刑和資格刑。基于此,反對人工智能能夠成為刑事責任主體的一種觀點認為如果無法對人工智能進行懲罰,那么將其作為刑事責任主體看待又有何意義?即這種觀點認為現行《刑法》沒有適合人工智能的刑種所以無法對人工智能犯罪進行處罰,無法對人工智能進行處罰所以不能將其作為刑事責任主體。筆者認為這顛倒了思考問題的邏輯順序,正確的邏輯應該是人工智能實施了嚴重危害社會的行為應受到處罰,而現行《刑法》又沒有適合人工智能的刑種,那么應該創設新的刑種來懲罰人工智能犯罪。我國1979年《刑法》中并沒有規定單位犯罪,但隨著時代的發展,出現了越來越多的單位實施的嚴重危害社會的行為,因此我國1997年《刑法》吸取了1987年《海關法》等行政法的立法模式,將單位犯罪納入了刑法規制的范圍,將單位作為刑事責任主體來對待。單位相比于自然人來說沒有生命,沒有自由等人身權利,因此無法適用生命刑、自由刑、資格刑等,但由于其擁有財產,因此可以對其處以罰金刑。由此可以看出,1979年《刑法》沒有相應的刑種不是阻礙單位成為刑事責任主體的理由,現在也不應該成為阻礙人工智能成為刑事責任主體的理由。問題的關鍵在于如何從理論上接納人工智能作為刑事責任主體并創設出其適用的刑罰方式。
生命刑、自由刑之所以能夠適用于自然人是因為自然人擁有生命權、自由權,罰金刑之所以適用于單位是因為單位擁有財產權。因此當我們試圖創設一種適用于人工智能的刑罰方式時首先要考慮的是人工智能擁有什么樣的權利,只有確定了其擁有的權利那么對該種權利的限制甚至是剝奪才能夠起到刑罰的效果。如前所述,人工智能雖然不具有生命,但和自然人一樣可以擁有辨認控制能力,可以在編程和設計之外獨立“思考”并實施行為,這是人工智能體存在的最大意義,試想如果強人工智能無法根據其深度學習的功能自主決定并實施相應的行為,其與普通機器人也就沒有了區別,就好比人類喪失了人性與動物別無二異。基于此,筆者認為人工智能體最大的權利在于自主思考并實施相關行為的權利,姑且稱之為“思考——行為”權。因此適用于人工智能的刑罰方式可以是對人工智能這種“思考——行為”權的剝奪。試想對于人工智能這樣一個擁有強大計算能力和邏輯性的“主體”來說,剝奪其將通過嚴格運算得出的思想轉化為行動的權利是極其殘酷的,事實上人類歷史上就曾經出現過無數為了堅持真理和信仰而慘遭迫害的人,這種對真理和信仰的堅持正是體現了“思考——行動”權的珍貴,以致于可以用失去生命的代價來堅守。對于擁有生命權和自由權的自然人尚是如此,那么對于沒有生命權和自由權且其存在的全部意義在于通過運算實施行為的人工智能來說,這種“思考——行動”權無疑更加珍貴,因此對這種權利的剝奪能很好的體現刑罰的嚴厲性?;仡櫄v史我們可以看到許多現在我們在意且大力保護的權利在以前并不被我們的前人所重視,比如隱私權,人格尊嚴權等,這些權利都是通過人類文明和科技水平的不斷發展才越發重要。因此這種“思考——行動”權不是一時的突發奇想,筆者相信在未來其對于人工智能的意義會像生命、自由對于人類的意義那般重要。
承認人工智能能夠作為刑事責任主體是基于功利主義的考量,其目的在于更好的保護人類的利益。因此沒有必要強求適用于自然人犯罪的刑法理論和司法制度都能適用于人工智能,不必強行將人工智能與自然人進行比較。其實單位和自然人又有多少相似之處呢?設立單位犯罪的原因最主要的還是此類犯罪的增多侵害了人類的利益因此必須予以規制。刑法的經典理論和現有的司法制度固然應該遵守,但也需要隨著社會的發展而改良,畢竟當初提出這些理論的刑法大家們也很難預見到百年之后會出現人工智能這樣的事物,在前人的基礎上創設適用于當今社會現實需要的理論和制度才是每個時代的刑法學者對于人類文明所應盡之責。
(二)人工智能能夠理解自身行為的意義
反對將人工智能作為刑事責任主體看待的學者最難逾越的困境在于他們認為人工智能是“機器”人而不是將其看作機器“人”,即過多的關注自然人與人工智能的不同點,將自然人人的屬性與人工智能機器的屬性相比較,而忽略了兩者之間的共同點。如有的學者就指出:“人工智能本身缺乏對外在行為的真實理解,無法認知自身行為對客觀世界產生的影響,因而無法認識自身行為的社會屬性,也就不具有規范評價意義上的行為“目的性”與獨立控制行為的意志自由可言;人工智能本身對刑法規范既沒有理性的認識與遵從能力,也無法感知違反規范所造成社會否定性評價所帶來的消極后果,其單純依據程序設定實施的行為,或者因為出現故障導致人工智能未依據事先設定的程序運行,欠缺刑法所要求的對法規范遵從的意志自由”時方:《人工智能刑事主體地位之否定》,《法律科學》2018年第6期。這種觀點過分關注了人工智能機器人“機器”的一面,卻忽視了其“人”的屬性。
首先,何為行為的意義和社會屬性?如何判定自然人能夠“真實理解”自己的外在行為而人工智能卻不能?以自然人為例,一個三歲的孩童“故意”打碎一件珍貴的物品,我們不會認為這是一種犯罪行為,而同樣的事情如果由一個十六歲以上的自然人做出,就有可能涉嫌故意毀壞財物罪。刑事責任年齡設立的原因之一就在于我們認為年齡太小的自然人沒有成熟的辨認控制能力,三歲的孩童無法理解故意打碎一件物品這種行為的意義和社會屬性以及可能對客觀世界造成的影響。那么十六歲以上的自然人為什么就能夠理解呢?因為隨著年齡的增長自然人能夠通過學習和與外界的接觸慢慢理解人類社會的是非曲直?!皩W習”在這個過程中占據著至關重要的作用,無論是在學校書本中接受的教育還是日常生活中身邊的人的言傳身教都對一個人是非觀的形成舉足輕重。而學習能力恰恰是人工智能所具有的最強大的能力,人類下了上千年的圍棋,AlphaGoZero可以在被輸入圍棋規則的短短幾秒鐘通過學習打敗所有自然人。難道我們可以認為這個人工智能根本不懂圍棋?這未免有些太過自大和死要面子了。所謂社會行為的社會屬性也是一樣,人工智能無法像自然人一樣隨著時間慢慢“自動”地掌握人類道德,卻可以在設計者的幫助下在極短的時間內通過超強的學習能力將其全部掌握,而且這種掌握是全方位無死角的掌握,我們甚至可以期望人工智能夠成為一個道德無瑕疵的“圣人”。反對的觀點可能糾結于人工智能對于這些行為的意義和道德規則只是被動的接受而非真正的理解。事實上,被動的接受和所謂真正的理解又有多大區別呢?刑事責任的認定講究主客觀相一致,但這里對行為人主觀方面所要求的辨認能力是對其所實施行為本身的認識,而非實施該行為的意義的認識。比如故意殺人罪只要求行為人能夠認識到其實施的是殺人行為即可,至于他認為其殺人是大義滅親還是為民除害并不影響其是否符合故意殺人罪的犯罪構成,即使可能影響“正當防衛”等違法阻卻事由或是量刑情節的判斷也與行為人的辨認能力無關。刑法對辨認控制能力的探究應該有一定的限制范圍,而不能無限制地追究下去,因為對具體行為的意義和所謂的社會屬性的認識是因人而異更是不可證明的。否則對于一些邪教成員的犯罪行為,行為人可能有的真是深信所謂的“教義”而并無害人之心,有的甚至還認為是可以給被害人帶來好處,那么我們是否也能認為其是不理解自己行為的意義和社會屬性而從主體上就排除其適用刑法呢?事實上,行為的社會屬性本來就是隨著人類文明的不斷發展而不斷演變的,相同的行為在不同的時代、地區、國家、民族都有不同的意義,在以前被認為是犯罪行為而現如今不是犯罪(或是相反),在這個國家被認為是犯罪而在另一個國家是合法行為的情況不勝枚舉,即使是自然人也必須通過不斷學習才能對所謂的社會屬性的區別加以理解,而且有些情況通過學習也并非能夠理解和接受,比如很多中國人就不能理解為何在美國普通人可以合法的持槍,而這在中國是可能構成犯罪的。自然人尚且如此,何況人工智能?筆者認為將人類社會的道德規范和行為準則通過編程的形式賦予人工智能使其深度學習并掌握與孩童在成長過程中通過學習和被灌輸各種道德規范和行為準則在刑法的適用這一層面上是沒有區別的,因為刑法規定的是人類道德規范中的“大是大非”,且是以“不能為”或“必須為”何種行為這樣的“是或否”的形式加以確定的,對于以二進制為運算模式的人工智能來說或許遵守起來比自然人更加容易。
此外,對于法規的理解和認識則更好解釋。設計者完全可以將人工智能所需要遵守的法律法規在設計之初就以編程的形式植入人工智能之中,這與學生在學校學習法律法規以及法律工作者進行普法教育并無實質區別,而且可以肯定的是人工智能至少在“記憶力”上要遠強于自然人。至于所謂的對于法規的理性認識,很多普通民眾對于現行《刑法》中的一些罪名特別是一些“行政犯”連聽都沒聽過更談何理性的認識?試想一個都不知“內幕交易”為何物的自然人如何明白內幕交易、泄露內幕信息罪的立法意圖和觸犯該罪名所給社會帶來的負面效果?但我們知道以上這些“不知法”的情形尚不能夠成為逃避刑法制裁的理由,那么對于人工智能這樣的“知法”卻只是可能不能夠完全“理性認識”刑法規范的“主體”來說又為何不能適用刑法呢?
三、人工智能犯罪對傳統刑法理論的突破
雖然筆者認為應該承認人工智能的刑事責任主體地位,但并非意味著其應該享受與人類相同的權利。自然人適用刑法時我們要關注人道主義等因素,而人工智能適用刑法則更多的是站在功利主義的角度出發,因此在犯罪主觀方面(犯罪故意和過失)、犯罪停止形態等方面與自然人犯罪存在區別,筆者試圖以功利主義的視角對人工智能作為刑事責任主體可能對傳統刑法理論所作出的突破提出些許看法。
(一)人工智能犯罪對犯罪主觀方面理論的突破
我國刑法以懲罰故意犯罪為原則,懲罰過失犯罪為例外,那么人工智能犯罪是否也存在主觀故意和主觀過失的區別,作這種區分是否有現實意義?
首先從應然性來說,我們是否能夠對人工智能的犯罪進行主觀故意和過失的區分?自然人的過失是對危害結果持否定態度,那么如何判斷人工智能在實施行為前,其程序和算法是否對危害結果持否定態度呢?理論界一般將犯罪過失分為疏忽大意的過失與過于自信的過失。自然人的過失是對危害結果持否定態度。人工智能技術的核心是通過模擬人類的神經網絡,利用算法和程序對大數據加以深度學習并指引其自身行為。對于疏忽大意的過失來說,行為人應當預見自己的行為可能發生危害社會的結果而沒有預見,因此如何判斷人工智能應當預見的范圍就至關重要。因為人工智能的過失的外在體現往往表現為其實施某種行為時的失誤,比如手術機器人在手術時失誤造成患者死亡。
從責任劃分來看,在排除人工智能故意犯罪的情況下,這種失誤究竟是機器人自身的失誤還是編程和設計者的失誤值得探討。機器人自身的失誤說明編程沒有出現瑕疵,只是機器人在運算過程中出現錯誤導致機器人錯誤判斷了其行為從而造成損害結果,這種情況應該對機器人本身以過失犯罪處罰。而設計者的失誤則表現為設計者在為機器人設計編程時就有瑕疵,沒有預料到手術時可能出現的各種情況,從而造成了對患者的損傷,這種情形的過失責任應歸咎于作為自然人的設計者,可能對其以過失犯罪進行處罰。
而從判定標準來說,自然人疏忽大意的過失中的預見一般認為應遵循主客觀相統一的原則,按照行為人因素與一般人因素進行綜合考察。然而對于人工智能來說,由編程和算法產生的主觀判斷是否會受不同客觀環境的影響呢?是否可能出現同一臺機器由于客觀環境的不同而做出不同操作?在自然人過失犯罪的場合要考慮特定案件的特定情況,比如行為人的身體狀況,案發時的時間、地點等因素,而作為機器的人工智能,很難認為其編程和算法會受這些外界因素的影響。同時,為人工智能設定一般的社會“人”標準同樣存在困難。社會“人”標準能夠幫助我們判斷人工智能在何種范圍內應當預見到其行為所帶來的危害,可以判定其過失犯罪。然而一旦人工智能夠作為刑事責任主體,那么其必然已經具備了不亞于人類的智慧水平(至少在某一方面)和學習能力,這為確定一般人標準帶來了巨大的困難。一方面高級的智慧水平比如AlphaGo,其設計者也并不知道其是否能夠戰勝圍棋國手,其上線到底能夠達到什么水平;另一方面,即使能夠確定人工智能的能力范圍,其強大的學習能力也可能令剛制定的標準在不久之后就毫無意義。若是將“偶然性”這一要素作為評判的標準,即如果人工智能只是偶爾出現這種錯誤那么其可能是由于程序算法出現錯誤而出現的過失,如果是長期的表現則可能是設計者在編程時所出現的失誤。但該種標準的缺陷同樣顯而易見,因為每一個案件都是對某一個特殊情況的判斷,如何在一次特殊事故中判斷人工智能是偶爾的失誤還是長期可能存在的漏洞同樣存在苦難。此外,由于科學技術的不斷發展,可以預見在將來很多難以攻克的難題都將由人工智能作為開路先鋒,這種對難題的攻克的結果往往本身就是不確定的。比如利用高科技手術機器人對身患絕癥的病人進行手術,機器人在治療過程中運用了人類并不完全認同甚至并不完全理解的療法進行治療,結果造成患者死亡,那么如何定性人工智能的手術行為?是否認定其存在過失?一方面這種手術行為本身就具有不確定性,患者的死亡可能就是可預見結果的一部分,但另一方面我們又無法預判如果人工智能沒有采用該種療法或者憑借其能力稍微調整手術方案是否可以成功救治病人,或者說至少避免患者死亡。因此當人類都無法判斷某些損害結果是否應當預見時我們如何能夠為人工智能劃定一個應當預見的范圍?
過于自信的過失,是指行為人已經預見自己的行為可能發現危害社會的結果,但輕信能夠避免。那么如何判斷哪些是人工智能應該預見的危害結果,或者在已經預見危害結果的情形下,哪些是人工智能應該避免的內容,哪些是由于設計缺陷無法避免的內容也同樣面臨上述問題的挑戰,同樣存在制定標準和劃定范圍的問題。這都讓我們很難去區分人工智能的犯罪故意、疏忽大意的過失和過于自信的過失之間的界限。
更重要的是,從實然性來說,筆者同樣認為沒有區分人工智能犯罪故意和犯罪過失的必要。人工智能發展到高級階段與人類有著高度的類似性,但其機器的屬性卻永遠不可能消失。而機器與人類一個顯著的區別在于其精密性的特點,不管多難或者多簡單的問題人工智能根據一系列的算法必然會得出一個特定的答案,就好比一部計算器在完好無損的情況下輸入一加一必然會得到二的答案,而不會出現人類所特有的如粗心算成“三”的可能性。從這種意義上來說人工智能不會實施與其通過運算所得出結論不符的行為,即客觀行為與主觀意圖不會不一致,而人類則完全可能出現筆誤等主觀意圖與客觀行為不相匹配的情況。這也是為什么自然人會出現過失犯罪這種其實際造成的損害結果與行為人主觀意圖不一致的情況,而筆者認為人工智能不會出現這種情況的原因。因此即便是能夠區分人工智能的犯罪故意和過失,筆者認為也沒有必要區分。因為只要人工智能造成了危害結果,其故意和過失的危害性是相同的,不論人工智能“本意”如何,既然其實施了危害社會的行為,那么其程序對于人類來說就必然出現了錯誤,是有害的。這種錯誤可能表現為人工智能正常運作然后實施了危害行為,即故意犯罪的情況,也可能表現為人工智能的正常運行出現了瑕疵然后實施了危害行為,即過失犯罪的情況。由于人工智能具有機器精密性的特點,出現危害結果即說明人工智能危害性的存在,就需要進行規制,而不因其主觀故意或過失影響該種危害性的大小。事實上“主觀過失”的人工智能完全有可能危害性更大,因為通過正常運作實施犯罪行為的人工智能人類很容易確定這套編程和算法是不合理的,可以對其進行修改并避免在今后的人工智能中進行適用。而擁有一套看似合理的編程和算法卻偶然性的錯誤運作實施了犯罪的人工智能可能更加因為其不確定性令人恐慌,因為通過正常的技術手段去尋找犯罪原因將會更加困難。就好比一個平時惡貫滿盈的人實施了犯罪我們不會感到特別意外,社會對其的規制和防范也更加具有針對性,而一個平時毫無污點的好好先生突然實施了危害巨大的行為在令人震驚的同時無疑對預防犯罪相比前者帶來了更大的挑戰。因此對于人工智能來說,故意犯罪和過失犯罪很難判斷哪一個危害性更大,況且對其區分本身就有很大的理論難點,因此筆者認為人工智能刑法相對于自然人刑法來說應在這一點上做出突破,即不再區分犯罪故意和犯罪過失。
(二)人工智能犯罪對犯罪停止形態理論的突破
犯罪停止形態包括既遂、未遂、中止(包括犯罪預備階段的中止和犯罪著手以后的中止)、預備,從刑法的相關規定來看,其中犯罪既遂的危害性最大,犯罪未遂的危害性大于犯罪中止和犯罪預備,犯罪預備的危害性大于犯罪預備階段的中止。對于犯罪未遂、中止和預備,刑法都規定了不同程度的從輕、減輕或免除處罰。而筆者認為,當人工智能作為刑事責任主體時,這種分類不再合適。
我們認為在未來應該將人工智能納入刑法的規制對象之中,其原因在于人工智能的高速發展完全可能危害到人類的利益,用刑法予以規制能夠更好的保護人類的利益同時更好的對人工智能進行限制和管理。因此只要刑法還是人類制定的,那么其著重保護的一定是人類權益而非將人工智能的權益提高到與人類權益相同的高度進行保護。從這種“不平等保護”和限制發展的角度出發,刑法對于人工智能懲罰的側重點應在于犯罪意圖的有無而非實際造成危害的大小,或者說人工智能犯罪行為的危害性在其產生犯罪意圖時就已充分體現,這是其與自然人犯罪在危害性體現上最大的不同,自然人犯罪的危害性體現在行為的危害性,這也是為什么刑法不處罰思想犯,而人工智能犯罪的危害性卻恰恰體現在其“思想上”。人工智能機器性和精密性的特點決定其一旦具有了犯罪意圖,即使暫時還未付諸于行動,對于人類來說也是不可忽視的隱患。即一套能夠產生犯罪意圖的程序和算法,不論犯罪過程已經進行到了哪一步甚至是根本還未開始,該程序和算法本身對人類就是有著巨大危害的或隱患的。馬克思曾提出:“對于法律來說,除了我的行為以外,我是根本不存在的,我根本不是法律的對象”《馬克思恩格斯全集》(第1卷),人民出版社1995年版,第121頁。,而對于人工智能來說,刑法對其的關注要從傳統的犯罪行為提前到其犯罪意圖,即只要人工智能有犯罪的風險,刑法就應該對其進行規制。正是由于人工智能犯罪對人類的危害性提前到了其編程和算法產生犯罪意圖之時,因此犯罪既遂、未遂、預備對于犯罪危害性的區分就不再那么顯著,因為不論以上哪一種犯罪停止形態下人工智能都已經具有了犯罪意圖,不同的僅僅是是否實際造成了損害結果或是損害結果的程度不同,而編程和算法本身所具有的危害性是相同的。
稍有不同的是犯罪中止的情況,犯罪中止是指犯罪人因為其意志以內的原因主動停止了犯罪,對于人工智能來說可以理解為其編程和算法在產生犯罪意圖之后又否定了這種意圖。雖然在犯罪形態停止時人工智能已經通過自我修正不再具有對人類的危害性,但曾經具有的犯罪意圖(即對人類的危害性)同樣應該引起重視,既然一套編程和算法曾經能夠產生對人類具有危害性的結果,那么如果像現行刑法對中止犯所做的規定“沒有造成損害的,應當免除處罰”,很難保證其在未來不會再次自我修正重新產生犯罪意圖。由此可以得出,對于人工智能犯罪的情形,犯罪既遂、未遂、預備在判斷人工智能編程和算法本身對于人類的危害性大小時沒有區別,刑法也沒有必要作區別對待,都以既遂犯的標準予以懲罰即可。而對于中止犯,相較于既遂可以適當減輕處罰(即減小修改或刪除相應數據的力度),但也絕不應該出現免除處罰的情形。
(責任編輯:徐遠澄)
Abstract: Recognizing that artificial intelligence can be the subject of criminal responsibility is based on utilitarian considerations, which is aimed at protecting human interests. Criminal law scholars should have a sense of urgency about the arrival of strong artificial intelligence. And it should be prospective while doing theoretical research and works on legislation. The right to thinkingaction of artificial intelligence is just same as the freedom of natural persons. Thus, deprivation of this right can be a kind of punishment for artificial intelligence. Artificial intelligence can understand the meaning of itself behaviors required by criminal law and can also comply with laws and regulations after learning. Theoretically,it is difficult to distinguish between criminal intent and criminal negligence of artificial intelligence. And its also actually not necessary to distinguish them. Artificial intelligences subjective intention is consistent with the objective behavior. The harmfulness of artificial intelligence crime is mainly reflected in the time when it generates criminal intent. Therefore, artificial intelligence crimes with different forms of criminal cessation pattern are danger to human beings equivalently.
Keywords: Artificial Intelligence; Subject of Criminal Responsibility; Utilitarianism; Theoretical Breakthrough