李立豐 王俊松
2015 年,德國大眾汽車公司員工在調試機器人時,被機器人摔至金屬板慘遭碾壓身亡,這就是震驚當時的“機器人殺人事件”。無獨有偶,Google 在測試其無人駕駛技術時,因導航故障引發交通事故,所幸無人傷亡。類似的高度智能化應用情形還有,Alpha Go 擊敗韓國圍棋手李世石、國際象棋棋王卡斯帕羅夫和計算機之間的“深藍”對決等。人工智能技術的飛速發展以及高度智能的場景化應用模式的建立引發了一系列關于人工智能主體性地位的思考,涉及的學科有哲學、法學等。比如,在人工智能主體性這一問題上,刑法學界有學者主張,鑒于人工智能技術如此突飛猛進,人類勢必要進入到一個強人工智能時代,在這個時代,機器人將會產生獨立的思考能力、意識以及控制能力,因此學者建議將其規定為刑法上的主體。①參見劉憲權、朱彥:《人工智能時代對傳統刑法理論的挑戰》,載《上海政法學院學報(法治論叢)》2018 年第2 期。也有學者認為,人工智能機器人就是人類社會生產的一種輔助工具,并不具備人的要素和屬性,因此,刑法大可不必將人工智能體視為責任主體。②參見時方:《人工智能刑事主體地位之否定》,載《法律科學(西北政法大學學報)》2018 年第6 期。上述分歧體現出人工智能時代的到來已經在法律規范層面上帶來了爭議,尤其是刑法規范是否應當對這一現象做出反應。因此,本文擬從人工智能的技術本質入手,進而對人工智能進入刑法體系產生的障礙做出分析,并進一步指出這種以人工智能技術為張貼對象的風險社會理論的虛偽性,最終以人工智能的技術本質為刑法定位的落腳點。
人工智能時代的到來符合技術發展的客觀規律,先進科學技術的進步與應用必然會在社會層面引起廣泛的關注和探討,而且,社會層面的波動也會引發法律規范層面上的聯動反應。不過,人工智能技術有無在刑法規范層面探討的必要性,這要取決于對人工智能本質的探討。刑法應從實質上了解人工智能背后的運作原理,在事實層面明確人工智能的運行本質,而后再進入到刑法規范的話語體系中進行探討,唯有此才可以全面刺破人工智能時代的面紗。
從宏觀的人工智能技術定位來看,人工智能總體上即是以科學技術為體現的一門技術學科。人工智能(Artificial Intelligence,簡稱AI)是計算機學科的一個分支,其與空間技術和能源技術并稱為20 世紀70 年代以來的世界三大尖端技術,從字面意思來看Artificial Intelligence 指的是智能的人工制品,而且,P.Winston 早在1978 年就對人工智能做出了如下評價:人工智能本質上是為了幫助人們變得更加智能的一項技術,其不僅是局限在使計算機模擬智能的研究上。③參見朱福喜:《人工智能(第三版)》,清華大學出版社2017 年版,第2 頁。除此之外,也有學者指出人工智能其實就是一門技術科學,其主要是用來模擬、延伸以及擴展人類智能,因此,人工智能本質上是計算機科學的一個分支,即其屬于計算機技術的前沿領域。④參見劉海濱:《人工智能及其演化》,科學出版社2016 年版,第1 頁。并且,人工智能作為一門跨技術領域眾多的學科,其研究都是結合具體領域,諸如問題求解、自然語言處理、人工神經網絡、遺傳算法、專家系統、知識工程、人工生命、深度學習以及智能控制等。⑤同上注,第5-8 頁。這些領域綜合起來所設計出的智能系統便是AI 系統。這些系統都是高度智能化的系統,當它們組合到一起的時候,這種計算機程序就體現出了一定的“智能化”。這些系統主要包括問題求解系統、自然語言理解和處理系統等大概12 種系統。⑥同前注③,第7-12 頁。A.Barr 和E.Feigenbum 指出人工智能作為一門學科,它屬于計算機科學的組成部分,它的主要任務就是設計智能化的系統,而這一系統要與人類的行為相似;Elain Rich 認為人工智能就是讓計算機去模擬人類大腦活動,用它解決一些只有專家才能夠處理的問題,這些活動主要包括推理、設計以及規劃等;Michael R.Genesereth 和Nils J.Nilsson 認為人工智能首先是一門科學,而這門科學的主要任務就是建立關于自然智能實體行為的理論和指導創造具有智能行為的人工制品。⑦同前注③,第2 頁。
從微觀的人工智能技術的具體運行來看,人工智能的本質就是借助算法、智能系統運行的一套完整的技術程序。人工智能的運行邏輯是建立在算法之上,算法撐起了人工智能的技術框架。⑧參見張鋌:《人工智能嵌入社會治理的邏輯、風險與政策應對》,載《浙江社會科學》2022 年第2 期。人工智能的本質是在自然語言基礎之上、以數據為對象將算法與數據相互結合應用,并且這一過程并不是簡單的模擬人腦。⑨參見劉穎:《論算法與法律行為的關系:制度影響與法律回應》,載《重慶大學學報(社會科學版)》,網絡首發論文,https://kns.cnki.net/kcms/detail/50.1023.C.20211203.0951.002.html。人工智能之所以能夠逼真地模擬人類行為,這與它的運作系統密不可分,而判斷一項AI 技術成功的標準,關鍵是看其能否通過“圖靈測試”⑩在圖靈測試中,一般需要兩個人對機器進行測試,一人扮演提問者,剩余一人和機器一樣作為被提問者。提問者只知道接受提問的是A 或者B,但至于哪一個為機器人,則不知曉。如果提問者不能區分對方是人還是機器,那就可以判定這臺機器達到了人類的智能水平。同前注③,第7 頁。。人工智能作為一門科學,其自身的特征也是獨一無二的。以利用推理為例,AI 程序系統立足于模擬人類思維的一般規律進而使用知識,即這一推理實際上是模擬人類推理形式而來。再如,Alpha Go 之所以能夠戰勝世界圍棋選手,最大的優勢在于其能夠進行不斷的自我學習。這種自我學習是一種系統上的自我學習,其主要是將圍棋巨大無比的搜索空間壓縮到可控的范圍之內,Alpha Go 自身配備的系統非常周密,加上Google 強大的硬件支撐和云計算資源,結合CPU&GPU進而不斷增強自己的學習水平和博弈能力。?同前注③,第66 頁。這背后體現的是Alpha Go 自身深度學習的能力,這其中依賴于一般的博弈算法,比如極大極小搜索算法、α-β 剪枝算法等。由此可見,無論是人工智能的設計程序抑或是人工智能的運作原理,其都主要是強調模擬人類工作、學習等方面,即人工智能的最大特征在于高度擬人化、模擬人類。
人工智能技術應用產生的風險確實也引起了人們擔憂。比如,斯蒂芬·霍金曾指出忽略人工智能的危險或是“歷史上最致命的錯誤”。?參見[美]托斯(Kalman Toth):《人工智能時代》,趙俐譯,人民郵電出版社2017 年版,第65 頁。實際上,擔憂者并不在少數。比爾·蓋茨以及牛津大學的哲學教授也曾主張人工智能威脅論,然而,人工智能專家對人工智能威脅論持反對態度,倫敦大學的金史密斯學院認知計算機系教授馬克·畢紹針對斯蒂芬·霍金的擔憂做出了評價,他認為霍金的這種擔憂完全是錯誤的。?同前注③,第80-83 頁。在刑法學界,有學者就以Alpha Go 戰勝世界圍棋冠軍為例,主張人工智能時代下的機器人已經具備了自主學習的能力,而且其擁有自主意識和意志力,進而主張人工智能機器人實施的行為可以被評價為刑法意義上的行為。?參見劉憲權、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,載《安徽大學學報(哲學社會科學版)》2019 年第1 期。
綜上所述,人工智能在事實層面上無論是從宏觀視角還是微觀視角,都能夠得出人工智能本質上是以算法、程序為核心的科學技術。從事實層面上看人工智能機器人具備獨立意識、意志力等觀點是無法成立的,技術本質決定了這種高度智能的人工智能體只可以作為人類先進的輔助工具,以人工智能技術為程序基礎的相關生成品應做產品之理解。
文章前述章節明確了人工智能的技術本質,刑法還應當立足于規范自身,在刑法體系內部檢討人工智能進入刑法理論后的障礙。本部分主要是檢討人工智能進入刑法體系中產生的障礙。人工智能有關問題無論是從法規范主體的可解釋性上,還是從刑法體系內關鍵要素如罪過形態以及刑罰論的檢討上,都無法得到刑事規范肯定性的答復。
人工智能進入到刑法領域內的首要問題是,人工智能主體是否具備刑法規范主體的可解釋性。這是因為,主體行為的可解釋性是責任承擔的基本前提,而且,權利的可實踐性正是以其具備可解釋性為關鍵前提。?參見劉艷紅:《人工智能的可解釋性與AI 的法律責任問題研究》,載《法制與社會發展》2022 年第1 期。因此,人工智能擬作為法律規范上的主體必須要經過主體理論的檢驗。畢竟,法律是由人類創造的社會產物,目的是為了調整人與人之間的社會關系。法律規范關注的首要問題便是主體問題,否則無從談及后續的法律關系以及法律責任問題。?參見孫占利:《智能機器人法律人格問題論析》,載《東方法學》2018 年第3 期。
當下,學界對于人工智能主體在刑法規范上的定位產生了爭議??隙ㄈ斯ぶ悄苤黧w地位的觀點如,人工智能時代下智能機器人因為具有了辨認能力和控制能力,因此可以作為刑事責任主體。?參見劉憲權:《人工智能時代的刑事風險與刑法應對》,載《法商研究》2018 年第1 期。還有學者從法人的角度出發,主張通過類比法人制度來賦予智能機器人權利主體資格,其認為通過這種“法律擬制”可以為立法者提供解決智能機器人權利來源的問題。?參見張玉潔:《論人工智能時代的機器人權利及其風險規制》,載《東方法學》2017 年第6 期。否定人工智能主體地位的觀點認為,行為主體意指在刑法上實施犯罪行為的主體,其通常來說指的是自然人,刑法構成要件要素中所規定的主體指的也是自然人,而且其所描述的行為主要也是指由自然人實施的行為。?參見張明楷:《刑法學》,法律出版社2021 年版,第170-171 頁。哲學層面上所指的刑法主體必須具備實踐性和社會性的本質特征,實踐性要求主體能夠進行有意識的活動,社會性要求主體能夠與特定的社會關系進行互動。?參見王利賓:《弱人工智能的刑事責任問題研究》,載《湖南社會科學》2019 年第4 期。即便是人工智能技術在無人駕駛領域的應用有著優越的表現,但在德國修訂的《道路交通法》中,也未予承認人工智能的主體地位,由此可見,立法者并不認為可以將這一主體納入到立法藍圖中,畢竟不論是自然行為論、目的行為論還是社會行為論都主張行為的發起者應當是自然人。21參見江溯:《人工智能作為刑事責任主體:基于刑法哲學的證立》,載《法制與社會發展》2021 年第3 期。
在本文看來,人工智能法律規范的主體地位是不成立的,理由如下:其一,刑法必須正視人作為規范主體的獨立性與專門性,人工智能主體性的觀點忽視了人作為規范的終極目的性。我國法律規范體系中,憲法及刑法都在其規定中明確指出立法宗旨是為了服務人類自身,人類是法律規范意義上獨一無二的主體。人工智能也不具備獲得道德主體地位的資格,22參見張今杰:《人工智能體的道德主體地位問題探討》,載《求索》2022 年第1 期。這當然會影響到它的規范主體地位。當下,就法律主體的概念而言,德國法哲學家拉德布魯赫曾做出以下定義,其主要是指能夠被特定時代實定法當作是目的本身而予以尊重的事物。23參見駱正言:《從自由意志談人工智能的法律主體資格》,載《湖南社會科學》2020 年第2 期。換言之,法律主體在特定時代下永遠是目的而不是手段。基于此,反觀當下肯定人工智能主體性的理論,可以發現這一系列觀點背后的主要目的是為了服務人類自身,即該觀點認為將人工智能視為法律規范的主體更加便于在立法上進行管理,這就意味著人工智能主體性理論始終都被視為手段而非目的。
其二,人工智能不具備法律主體要求的辨認能力和控制能力。無論是強人工智能還是弱人工智能,其所謂的能夠“自主學習”“獨立思考”等實際上都依賴于設計者所設計的基礎程序,這種“辨認能力”和“控制能力”也不過是計算機算法運行的體現,與人的意志體現并不相同。刑法規范根本無法期待人工智能機器人能夠實現獨立自動的思考。24See Gabriel Hallevy.Liability for Crimes Involving Artificial Intelligence Systems.Springer International Publishing,2015:2.畢竟,從犯罪成立的基礎要求來看,犯罪永遠都是人的行為,與人的意志無關的事件永遠無法實現犯罪構成,行為都是受制于人的思想且無關于機械或生理活動。25參見[德]費蘭茨·馮·李斯特:《德國刑法教科書》,徐久生譯,法律出版社2006 年版,第167-177 頁。即便是強人工智能高度模擬了人類行為,諸如對人類常識、直覺等特殊的感知能力的模擬,人工智能也難以實現自由意志。26參見葉良芳:《人工智能是適格的刑事責任主體嗎?》,載《環球法律評論》2019 年第4 期。由此可見,人工智能技術無論發展到哪一階段,其都是技術創新與進步的體現,其“意志”不過是人類意志的體現,人工智能始終無法與“自由意志”產生必然聯系。
其三,理論中以法人獲得主體資格的法理來類比演繹人工智能主體性的觀點是無法成立的。這一主張忽視了法人集合體人合性的本質特征,法人與人工智能體的根本區別在于法人的行為總是通過自然人來“完成”27同前注②。。單位犯罪一般是由單位的決策機構按照單位規定的決策程序做出決定,然后交由直接責任人實施。并且,單位這一主體在刑法的前置法如民法、經濟行政法都得到了確認,相比之下人工智能的主體性則未予確認。28參見劉仁文、曹波:《人工智能體的刑事風險及其歸責》,載《江西社會科學》2021 年第8 期。單位犯罪具體行為的實施還是要依靠自然人來完成,單位脫離了自然人也就不復存在,單位的意志也是全體成員意志的集合。29同前注?,第176-177 頁。此外,對于法人本身能否成為刑事責任主體當下也并未形成統一意見,在德國刑法中就不承認法人和經濟企業的刑事責任。30參見[德]烏爾斯·金德霍伊澤爾:《刑法總論教科書》,蔡桂生譯,北京大學出版社2015 年版,第9 頁。
罪過形態作為完整的犯罪體系中不可缺少的因素,也是人工智能進入刑法理論體系繞不開的話題。有學者主張在強人工智能時代下,機器人已經具備了認知能力。31參見劉憲權:《人工智能時代的“內憂”“外患”與刑事責任》,載《東方法學》2018 年第1 期。并且,學者還主張智能機器人與自然人有很多共同之處,由自然人實施的絕大多數犯罪行為智能機器人也可以實施,例如詐騙罪等。32參見劉憲權:《人工智能時代機器人行為道德倫理與刑法規制》,載《比較法研究》2018 年第4 期。需要注意的是,刑法規范注重對行為人故意或者過失這種罪過形態的判斷,故意和過失的認定在刑法體系中的位置不言自明。而且,刑法強調對故意和過失的判斷,不能僅停留在對事實的認定上,還包括對法律規范的認識和感知。33參見皮勇:《人工智能刑事法治的基本問題》,載《比較法研究》2018 年第5 期。換言之,刑法不能只要求行為主體對記述的構成要件要素具備認識,還應具備規范意義上的認識,并且,這種認識應當是對行為性質、后果以及作用的認識。
在本文看來,人工智能并不具備刑法意義上的罪過形態,原因如下:其一,人工智能體不具備故意或者過失這一罪過形態。無論是從事實層面還是規范層面,人工智能始終無法產生故意或者過失的罪過形態,無法通過其自身能力理解法律法規所規定的意義。也無法期待人工智能與刑法分則中規定的目的犯產生碰撞,比如詐騙罪要求“以非法占有為目的”等,因為特定目的產生的前提是主體必須具有自由意志,而且主體能夠認識到其行為的社會評價以及規范評價,而人工智能顯然不具備這一點。此外,立足于自主性的發展邏輯來看,人工智能難以生成較強的自由意志,更不用說能具備實質的自我意識。34參見程承坪:《論人工智能的自主性》,載《上海交通大學學報(哲學社會科學版)》2022 年第1 期。其二,故意或者過失罪過形態的證明也成為人工智能作為刑事規范主體的障礙。刑法將人工智能機器人作為法律主體的觀點在證據法上也存在障礙,即在罪責層面上對故意和過失的證明成為一大難點。刑法無法期待僅通過人工智能體的行為證明其具備犯罪意圖,這也難以達到排除合理懷疑的程度,即刑法無法判斷這是否是因為人工智能體內部程序運行出錯導致。故意、過失這種心素的記載對評價行為具有重要的意義,如果缺乏這種心素的描述行為就失去了表達的含義,失去了主觀要素的支撐,僅靠單純的“裸”行為要素似乎難以起到“篩選”犯罪的作用。35參見楊春然:《論故意在三階層犯罪論體系中的位置》,載《中外法學》2011 年第4 期。反觀智能機器人所實施的行為,正是不具備心素內容的“裸”行為,這種無意識的行為并不具備被刑法評價的資格。
人工智能除了前述理論上的障礙以外,其在刑罰論中也不具備進入到當下刑罰體系的資格,這主要體現在人工智能受刑能力的缺失以及針對人工智能增設新罪名以及新配套措施上的障礙。
1.人工智能不具備受刑能力
人工智能進入到刑罰體系中,無法期待對人工智能的處罰能產生刑罰上的意義。刑罰作為聯結行為與行為人的橋梁,其有著將行為產生的責任過渡到具體行為人身上的功能。刑罰是國家針對侵犯法益的犯罪行為而予以懲罰的一項嚴厲措施,其一般建立在剝奪性、限制性等痛苦基礎之上。本文認為,人工智能不具備受刑資格,主要體現在以下幾點:
第一,人工智能不具備受刑能力。受刑能力的關鍵是受刑者能夠感知到其行為帶來的規范意義上的否定性評價,并由此承擔精神或者身體上的痛苦。通過受刑對象對刑罰感知的回應,以此可以證明規范實施的有效性。受刑者只有借助這種由刑罰實施產生的羞恥感或者痛苦,才能體現刑罰的功能和作用,受刑者或潛在的犯罪人才會理性掌控自己的行為,國家和社會才得以正常運轉。人工智能實則并不存在情感,也不具有道德判斷和認知,且欠缺感知刑罰痛苦的能力,故導致刑罰必要性的缺失。36同前注26。持相同觀點的還有張鐳:《人工智能體可罰性辯疑》,載《南京社會科學》2018 年第11 期。因此,人工智能體不具備感知痛苦的能力決定了對其實施刑罰的無意義和不切實際性。37同前注24。畢竟,無法期待一臺冰冷的機器能夠感受到痛苦或者羞恥,即便是其未來會產生痛覺或者羞恥感,這也是建立在人類為其編寫的程序基礎上。實際上,人類創造的機器人應由人類自身為機器人的“不法”行為買單。38See Jacob Turner,Robot Rule:Regulating Artificial Intelligence.UK:Palgrave Macmillan,2019:119.當然,法人組織也不具備感知受刑能力,但我國刑法對法人犯罪規定了相應的處罰措施。這是因為,法人具備人合性的組織特征,法人組織感知受刑的能力都可以內化到內部成員。
第二,人工智能體具備受刑能力的觀點在當下規范邏輯上出現了障礙。按照部分學者主張應承認人工智能具有受刑能力的邏輯,進而也應當承認賦予智能機器人基本的權利。有學者從權利歷史演進的角度主張應遵循動物獲得權利的軌跡,認為智能機器人也應當被賦予權利,同時,指出權利主體不應是一成不變的。39同前注?。但在本文看來,法律規范賦予人工智能體權利這一做法并不現實,理由如下:其一,人工智能體無論是從技術還是從道德上來看,其在賦權過程中都存在障礙。40參見甘紹平:《機器人怎么可能擁有權利》,載《倫理學研究》2017 年第3 期。人工智能體最初是以工具身份亮相,這就決定了其最終也只得以工具來定位。法律規范無法期待人類與人工智能體或者人工智能體自身之間能夠達成社會契約,因為這種社會生活的游戲規則只有人與人之間才具備制定與遵守的資格和能力。其二,刑法規范若賦予人工智能體權利,則這一權利的根據來源不明確。我國憲法強調保護人權,若在刑法中承認機器人享有權利,但憲法條文中并未就此做出明確指示,這就造成了刑法與憲法相沖突的尷尬困境。其三,法律規范若賦予人工智能體權利,則這一權利的行使面臨一定的困難。例如,法律規范倘若賦予人工智能體生育權、財產權等基本權利,接下來所要考慮的是如何保障這一權利的行使。此外,人工智能體是否在滿足基本條件之后享有選舉權與被選舉權等,這都會為法律和社會帶來不小的挑戰。其四,理論界主張類比動物獲得權利的軌跡來啟示對人工智能體賦權的工作并不可行?,F有的法律條文對野生動物只是做出了保護性的指示,并未明確提及要賦予野生動物權利。倘若賦予動物最基本的諸如生命權等權利,那么,人類傷害或屠宰家禽剝奪生命的行為便屬于侵權行為抑或是犯罪行為,因此,動物作為權利主體并不可行,人工智能體同理亦是如此。
第三,刑法懲罰人工智能不符合刑罰的功能和目的。刑罰作為對犯罪人權利和利益的一種剝奪和限制手段,在滿足了刑法規范目的的同時,對國家和社會來說都具有相當大的副作用。41同前注?,第667-669 頁。刑法之所以主張對自然人科處刑罰,是因為對于自然人犯罪刑罰能夠發揮一般預防和特殊預防的功能,最終達到減少犯罪的效果。從一般預防功能考察,針對人工智能實施刑罰處罰是否能夠起到威懾潛在犯罪的效果,答案顯然是否定的。刑法根本無法期待潛在的人工智能會因此產生敬畏法律的意識。從這一點來看,人工智能的一般預防效果無法與規范的有效性產生聯動。同理,從特殊預防的角度來看,對人工智能科處刑罰也不具備規范上的意義。而且,對人工智能實施刑罰措施悖離了社會大眾對常識常理常情的認知,實在無法想象機器會“在意”對自己的“不法行為”實施的“刑罰”。因此,刑法對智能機器人實施刑罰并不具備任何意義。42參見劉艷紅:《人工智能法學研究的反智化批判》,載《東方法學》2019 年第5 期。
2.增設罪名及配套刑罰措施的障礙
目前,刑法學界有觀點認為,強人工智能時代刑法應增設人工智能相關犯罪以及配套的刑罰措施,以實現刑法對人工智能犯罪的規制。例如,有學者主張應當圍繞著人工智能構建新的刑罰體系。43參見劉憲權:《涉人工智能犯罪刑法規制的路徑》,載《現代法學》2019 年第1 期。還有學者主張增設濫用人工智能罪和人工智能事故罪,該學者主張在配套的刑罰措施上增設刪除數據、修改程序。44參見王燕玲:《人工智能時代的刑法問題與應對思路》,載《政治與法律》2019 年第1 期。另外,還有學者主張將人工智能有關犯罪擴充至刑法分則體系中,即在分則第六章專章增設“妨害人工智能發展罪”以及增設有關“擾亂人工智能活動罪”“非法提供人工智能技術罪”以及“非法利用人工智能罪”等。45參見李振林:《人工智能時代的刑事立法藍圖》,載《人民法院報》2021 年2 月11 日,第6 版。不難看出,上述主張增設人工智能相關犯罪觀點背后體現的正是以人類利益為中心的人類利益優先論,即上述罪名從表述來看都是將人工智能作為一種工具或者是技術資源等,人工智能在上述擬增設的罪名中并非是主體。不過應當注意的是,即便刑法主張人類利益優先,也大可不必以擴充刑法體系的方式維護人類利益,而且這一做法并不見得是最佳手段,因為刑罰圈的擴張意味著人類自由空間的壓縮,這樣看來反而會削減人類的利益,并且還會阻礙科學技術的進步。本文對增設有關罪名及配套刑罰措施的主張持否定態度,理由如下:
其一,新罪名的增設與當下既有的刑法規范相沖突。濫用人工智能罪、非法利用人工智能罪等罪名的增設不過是把人工智能當作是輔助人類的一種工具罷了。之所以要增設新罪,是因為這種觀點認為濫用、非法利用人工智能的社會危害性要高于傳統的犯罪行為,而后動輒就以新增罪名予以規制。然而,這一做法未免過于激進,對其把控不當的話極有可能阻礙科學技術的進步。以核事故、生化武器為例,人類濫用核能以及生化武器等所造成的社會危害性并不低于濫用、非法利用人工智能的行為,然而刑法并未對濫用核能等行為單獨進行規定。事實上,上述增設相關罪名的目的無非是強調對公共安全的保護,因為這種觀點認為人工智能潛在的社會危害性較大,而且其危害的對象也不特定,既有的刑法規范無法對其進行規制,因此刑法應當將這一主體單獨進行立法。然而,這一現象在既有的刑法體系內,通過現有的刑法解釋方法完全可以“以危險方法危害公共安全罪”來消解上述問題。同理,反觀增設人工智能事故罪背后的法理,不過是為了提醒研發者和使用者應當盡到注意義務,而現有的刑法體系早已對注意義務作出了規定,比如:重大責任事故罪等。因此,刑法沒有必要超出現有的體系增設新的罪名或者是擴充刑罰體系。
其二,新增的“刑罰措施”并不屬于刑法意義上的措施。既有的刑罰措施在當下都是建立在以人為主體的前提下,刑法中的處罰措施都是根據人的主體性特征所構建,這也符合刑罰處罰措施的應然狀態,因此,刑法無法期待針對人工智能再構建一套新的刑罰體系。再者,刑罰措施應當是刑法所獨有的,并且由國家壟斷其實施的權利,例如監禁刑、死刑等。反觀新增的修改程序、刪除數據等措施,并不是專屬于刑法的處罰措施,這些措施實施的權利并未由國家壟斷,一般的技術員、研發者在發現人工智能出現問題時亦可實施上述措施,這一做法似乎將執行刑罰的權利下放到了技術人員手中,顯然不具備合理性。
除了上述爭議之外,刑法增設相關罪名以及配套措施的爭議還引起了學界劃分人工智能刑事責任能力的探討。畢竟,刑罰的執行也受行為主體刑事責任能力的影響。對此,學界有觀點指出,刑法應以人工智能體智能化程度的高低作為劃分刑事責任能力的根據,即智能化程度較低的對應刑法中完全無刑事責任階段,智能化程度較高的則對應相對有刑事責任階段,智能化程度很高的則對應的是完全有刑事責任階段,對于“間接性系統異常中病毒”的情形應當類比間接性精神病人的處理原則,進而主張這種情形下的人工智能體實施的不法行為不承擔刑事責任能力。46參見馬治國、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學學報(社會科學版)》2018 年第2 期。這一主張形式上貌似合理,但從實質上來看這一觀點存在明顯的漏洞,即其主張的將技術評價標準引入到刑法規范中不存在正當性的依據,畢竟技術規范與刑事責任認定標準的出身不同,也即兩者的制定主體與制定程序都有著很大的差別。比如,刑法在對未成年人刑事責任年齡的劃分上,一貫以未成年人利益最佳原則為根據,考慮因素既有未成年的雙面角色,也有長遠利益發展的追求。47參見滿濤《:未成年人利益最佳與刑事責任年齡的降低——兼評〈刑法修正案(十一)〉第一條》,載《河北法學》2021年第7期。但是,反觀人工智能刑事責任年齡的劃分,其對無刑事責任年齡或者相對負刑事責任年齡階段的劃分并未提供可靠依據,僅是技術標準和智能程度高低在支撐著人工智能刑事責任能力的劃分。人工智能間接性中病毒或者系統異常的情形類比為間接性精神病人的觀點更是站不住腳,因為人工智能所謂的“發病”原理與精神病人并不相同,而且這一主張忽視了人工智能可被及時修復的情況。上述觀點提出的方案似乎較為隨意,且破壞了刑法的嚴肅性。
綜上所述,刑法拋開對人工智能在技術層面的考量后,僅從刑法理論視角出發也能夠得出,人工智能法律規范的主體性理論無法在刑法體系內找到合適的落腳點。因此,文章前兩部分的討論基本上終結了人工智能以獨立身份進入到刑法體系內的計劃。
人工智能屬于風險社會有關理論的典型張貼對象,因此,刑法對人工智能的探討必然要聯系到風險社會理論。刑法驗證人工智能問題真偽性的額外方案便是從作為源頭的風險社會理論入手,從根本上檢驗風險社會理論的問題,這也是刑法解決人工智能問題最透徹的辦法?;诖?,本部分首先明確人工智能與風險社會的種屬關系,而后從刑法的基本原則入手對風險社會相關理論(包括由此產生的風險刑法理論,以下簡稱“風險社會相關理論”)進行檢驗,最終得出風險社會相關理論無法通過法益保護原則和最后手段原則檢驗的結論。
應當承認的是人工智能時代的到來確實為社會發展帶來了諸多潛在的風險,而這也正是風險社會理論一貫主張的由技術發展帶來的風險,由此意味著人類已逐漸進入風險社會。對此,學界有觀點做出了肯定性回應,例如,吳漢東教授主張應當在風險社會理論的范疇中研究人工智能相關問題。48參見吳漢東:《人工智能時代的制度安排與法律規制》,載《社會科學文摘》2017 年第12 期。而且,就風險社會的發展來講,德國社會學家貝克曾指出,由現代科技造成的深刻變革致使世界正在從工業社會逐漸走向風險社會,而風險社會關注的重點就是技術進步所帶來的風險,即技術進步導致的社會轉型并由此埋下的許多潛在風險,但其并不僅僅局限于技術風險。49參見勞東燕:《風險刑法理論的反思》,載《社會科學文摘》2020 年第1 期。不過,刑法正視風險社會的到來并不意味著必然會導致風險刑法的抬頭。否則,這種由風險社會引發的諸如對“泛人工智能化”的相關探討極易制造學術泡沫。50同前注。
事實上,風險社會理論中的風險在當下出現了關注對象泛化的現象,甚至還滋生出了風險刑法理論。風險社會中的風險主要是建立在技術發展的基礎之上,并且主要是以技術發展帶來的不確定性風險。然而,當下學界有學者認為諸如政治風險、制度風險等也應當納入到風險的口袋。51參見勞東燕:《公共政策與風險社會的刑法》,載《中國社會科學》2007 年第3 期。但是,該主張忽視了貝克口中的風險社會理論的誕生背景,即政治、制度風險無法與技術風險作出同類解釋,前后兩者之間無法產生必然聯系。其實,不管風險社會理論所關注的具體對象為何,從抽象的視角來看,該理論將關注點集中在了“風險”對象身上。同時,風險社會理論在“風險”對象的發酵中還演繹出了風險刑法理論。風險刑法理論認為傳統刑法已無法高效應對風險社會所帶來的各種風險,故學界有學者對傳統刑法保護的滯后性表現出了不滿。52參見陳京春:《抽象危險犯的概念詮釋與風險防控》,載《法律科學(西北政法大學學報)》2014 年第3 期。因此,風險刑法理論受風險社會理論的啟發便應運而生。于是,風險社會理論形成了以人工智能為表征,以風險刑法理論為規范分支的較為豐富的結構體系。
風險社會相關理論能否在刑法教義學體系內站住腳,關鍵在于其能否通過刑法“入罪質檢員”法益保護原則的檢驗。刑法應當以保護法益為目的,將行為對法益造成的損害作為違法性的根據,缺少了法益保護原則的支撐,刑法體系就會被抽空。然而,當下風險社會理論在法益保護原則的檢討下出現了以下困難:第一,風險社會中的風險無法上升為刑法意欲保護的法益。風險社會中所指的風險是科學技術發展給社會帶來的風險,是傳統的一般意義上的社會風險,與刑法中關注的對象完全不同。53參見陳興良:《風險刑法理論的法教義學批判》,載《中外法學》2014 年第1 期。刑法所關注的對象都是“危險”而非“風險”,這兩者之間的對比顯然前者要比后者在程度上更為緊迫,后者實際上是中性詞,前者則是貶義詞,而刑法更關注貶義屬性的“危險”。除此之外,刑法中都是針對帶有危險性行為的犯罪,如危險駕駛罪、以危險方法危害公共安全罪等。風險這一概念更傾向于在社會層面加以理解,比如投資風險、股市風險、技術風險等。
第二,風險社會相關理論悖離了法益損害實害化的訴求。風險刑法相關理論呈現出法益保護早期化的趨勢。54參見呂英杰:《風險刑法下的法益保護》,載《吉林大學社會科學學報》2013 年第4 期。根據這一主張,刑法不再過多的關注行為對法益的侵害是否發生了具體的結果,而是轉向了以預防為主的模式,以法益是否遭到潛在的風險威脅為標準判斷行為是否入罪。這使得關注風險刑法的學者逐漸走向否定法益功能的泥沼中。55參見張明楷:《“風險社會”若干刑法理論問題反思》,載《中國檢察官》2012 年第1 期。風險刑法理論認為刑法還應當對未來可能出現的風險行為進行規制。但是,法益保護原則要求刑法規制的是對法益造成損害的行為,這一普適性的刑事立法觀在當下扮演著愈來愈重要的角色。在這個問題上,羅克辛教授一貫持否定態度,其主張刑法若是要對風險做出評價,不得脫離法益這一概念以及有關法治國的歸責原則。56參見[德]克勞斯·羅克辛:《德國刑法學總論(第1 卷)》,王世洲譯,法律出版社2005 年版,第19 頁。刑法脫離了實在化法益的指導,其在規制行為入罪方面將會變得十分危險,甚至是大幅度萎縮公民的行為。因此,風險社會下刑法是否有必要過早介入,實際上是存在疑問的,否則這種做法很容易稀釋法益保護原則。57參見[日]松原芳博:《刑法總論重要問題》,王昭武譯,中國政法大學出版社2014 年版,第17 頁。
第三,風險社會相關理論類比抽象危險犯法理的做法并不可靠。風險刑法理論經常借抽象危險犯為例進行論證,指出抽象危險犯并未引起法益損害的實害結果但卻被規定為犯罪。因此,風險刑法理論主張以此為根據作為其在刑法教義學中的延伸。但是,在本文看來,刑法增設抽象危險犯的法理與風險社會相關理論并不相同,原因有:其一,從文義解釋來看兩者關注的對象存在質的差異。抽象危險犯關注的是刑法中的“危險”,而風險相關理論關注的是“社會風險”,后者無論如何也不具備被評價為法益的資格。其二,兩組概念產生的背景時間大相徑庭,這就決定了兩者并非是同種概念。抽象危險犯概念的提出早于風險社會相關理念,抽象危險犯的概念最早可以追溯到19 世紀的《德國刑法典》《法國刑法典》,而風險刑法理論是伴隨著后工業社會所興起的概念,兩者并不同根同源。其三,抽象危險犯有著實在的法益實害結果訴求,風險社會則不具備法益保護的訴求。即便是抽象危險犯的認定也應當注重對法益侵害結果的考察,即其無論如何也不可脫離與法益實害結果的關聯。58參見黎宏:《論抽象危險犯危險判斷的經驗法則之構建與適用——以抽象危險犯立法模式與傳統法益侵害說的平衡和協調為目標》,載《政治與法律》2013 年第8 期。因此,抽象危險犯在刑法體系中一貫堅持以保護實在化的法益為原則,將法益保護最終落實到對法益實害化損害的考察中,這也就決定了其與風險社會相關理論完全不同。
最后,風險社會相關理論甚至試圖在法益內涵的擴充上有所作為,即持風險刑法論的學者主張為適應社會發展,刑法法益的內涵應當被及時更新擴充。這種觀點認為法益的概念應當被擴充至以制度保護和對制度的信賴保護為基礎的“普遍法益”上,主要包括公共安全、經濟制度等。59同前注。本文持否定態度,原因是,刑法之所以設置法益這一概念,是為了保護人類生活所必不可少的基本命財。60參見張明楷:《法益初論》,中國政法大學出版社2000 年版,第153-155 頁。法益這一概念的創設最終要服務于人本身,盡管我國刑法分則中也體現了對國家安全、公共安全法益的保護,但從實質上來看,分則中的這一系列法益最終都能夠還原為個人法益。對此,學界有觀點指出諸如這種集體法益如果不能夠被還原為個人法益,刑法也就失去了保護的必要性。61參見姜濤:《社會風險的刑法調控及其模式改造》,載《社會科學文摘》2019 年第9 期?;诖?,反觀風險社會相關理論所主張“普遍法益”,實質上就將法益保護原則空洞化了,即其無法還原到以人為本的個人法益中。
風險社會相關理論在最后手段原則的檢討中也出現了問題。刑法若要規制風險社會下的風險,至少還要經受住最后手段原則的檢驗。風險社會相關理論的主張在應對風險時直接越過了最后手段原則的訴求,即直接主張以刑法規制風險社會中的風險。例如,有學者主張為應對人工智能技術的飛速進步,考慮到技術進步會給法益帶來的一系列可能的損害,認為刑法應當進行前瞻性的立法。62同前注?。顯然,該主張并未在最后手段原則層面加以論證,即便這種由后工業社會帶來的風險已經達到了由法規范調整的地步,是否必然意味著刑法應當規制這種情形尚且存疑,畢竟刑法是保護社會的最后一道防線。
在本文看來,刑法恪守最后手段的原則結果是,風險社會相關理論的主張不具備刑法保護的必要性。刑法立足于最后手段原則的微觀與宏觀視角來審視風險社會相關理論,該理論不成立的表現如下:
從微觀角度來看,風險社會相關理論無法通過該原則內部子原則的檢討。最后手段原則項下包含三個子原則:適當性原則、必要性原則和權衡性原則,適當性原則強調的是刑法要保護的必須是值得保護的法益,并且法益保護和手段之間要具備一定的關聯性;必要性原則主張刑法手段的實施必須能夠滿足特定的立法目的;權衡性原則關注的是刑罰實施的負擔與收益要處于平衡位置。63參見楊春然:《論法教義學視角下的最后手段原則的規范構成及適用——兼論憲法對犯罪論體系的選擇》,載《中國刑事法雜志》2017 年第5 期。風險社會相關理論是否有必要由刑法進行規制,至少還應當考慮到最后手段原則內部具體的訴求。最后手段原則項下的三項子原則對風險社會相關理論的檢討如下:第一,風險社會相關理論無法通過適當性子原則的檢討。適當性原則的要求與法益保護原則的訴求存在很大程度上的重合,并且前述已經對風險社會相關理論進行了法益保護原則上的檢討,故在此不再多做贅述。第二,風險社會相關理論無法通過必要性子原則的檢討。刑法對風險的保護并不能滿足刑法中某一特定的目的,包括最主要的保護法益目的,因此其不滿足必要性原則的訴求。第三,風險社會相關理論無法通過權衡性子原則的檢討。該項子原則要求刑法應當考慮到風險的普遍性與保護手段之間的負擔。現代社會無不充斥著各種風險,例如:核電站的建設也存在核泄漏的風險,但刑法若僅僅因為存在風險而去規制,這一規制手段所造成的負擔勢必會成為社會發展的羈絆。因此,風險社會相關理論無法通過最后手段原則內部子原則的檢驗,難以獲得正當性的證立根據。
從宏觀角度來看,風險社會相關理論也無法獲得最后手段原則的支持。最后手段原則注重刑法與其他部門法的互動,刑法自身應當考慮到其手段的嚴厲性、破壞性等,因此,某一行為能夠被其他部門法手段規制時,刑法就沒有必要作出規定。除非行為已經達到其他部門法無法規制的地步,此時刑法手段才能夠被采取。然而,風險社會相關理論的主張中并未發現“風險行政法”“風險民法”的提倡,而是直接上升到“風險刑法”地步,由此可以看出,“風險刑法”顯然是越過刑法的最后手段原則做出的提議。而且,刑法的前置法規范中也并未提及針對風險社會的規制問題,也即風險社會相關理論尚未進入到民法規范、行政規范的視野中。最后手段原則主張刑法的生命在于對法條的解釋,而不是一味地就可能出現的情況去進行立法。當下社會公眾的刑事立法價值觀也一貫否定對人工智能進行超前立法,不僅僅是考慮到未來社會發展的趨勢和特點,還要提防超前立法所導致的誤判風險。64參見姚萬勤:《對通過新增罪名應對人工智能風險的質疑》,載《當代法學》2019 年第3 期。
綜上所述,在本文看來當下人工智能所造成的風險仍在可控范圍之內,故刑法大可不必針對不確定的風險進行立法。主張風險刑法的學者大都以風險的視角先入為主,忽視了刑法風險語境下風險本身的正統地位,將風險刑法與刑法風險本末倒置,其本身就是一個偽命題。因此,風險社會相關理論無法在刑法教義學體系內安身立命。
人工智能確實作為一種新的社會現象呈現出來并引起了學界的關注和探討,因此,這就需要立足于整個法規范體系為其尋找安身立命場所。當然,這并非意味著該現象在既有的刑法體系中不存在解決方案。刑法最終落腳點應為人工智能時代下刑法定位問題的探討,即刑法如何在既有法律規范體系內消解當下“人工智能熱”現象。事實上,刑法在厘清了人工智能的技術本質后,人工智能在刑法上的定位已經清晰明了。該部分在前述章節論證基礎之上,首先對強弱人工智能在法律規范上的分類提出質疑,而后對人工智能的風險來源進行分類,最終立足于既有的法規范體系從內部以及外部風險出發對刑法的定位做出探討。
目前,社會層面上出現了強人工智能與弱人工智能的相對性分類,并且這一分類迅速蔓延到刑法規范中,引起了刑法學者們的爭議。人工智能劃分為弱人工智能和強人工智能(包括超強人工智能)雖然在技術層面具備一定合理性,畢竟,科學技術在傳統意義上確實存在技術落后與先進的區分,比如臺式電腦與便攜式平板電腦就是技術先進與否的典征。但是,這一分類具體到刑法規范層面上來講是否具備合理性,有待考究。目前學界越來越多的學者主張采取這一劃分方法,其考慮到的正是人工智能時刻處于進步、發展的狀態,這種進步是建立在技術發展與應用基礎之上,故由弱人工智能可以進步到強人工智能時代。并且,學界在此基礎上展開了對強人工智能具備“意識”、能夠成為法律主體等問題的論證。不過,反對的聲音也一直存在,即也有聲音對于強弱人工智能的分類方式產生疑問,并指出從人類自身出發應當否定強人工智能的存在。65參見郭研、沙濤:《人工智能刑事責任能力之否定》,載《學術交流》2022 年第1 期。比如,有學者提出,即便是人工智能技術進化到“人工智能黑客”階段,即在該階段中“人工智能黑客”已經能夠獨立地形成一套完整的運作系統,從算法開始到學習、思考并最終能夠自主行動,這種情形中其還是無法擺脫工具的屬性,此時的責任承擔主體依然是這一程序背后的設計者、管理者等。66參見侯東德、張可法:《“人工智能黑客”的法律規制》,載《重慶大學學報(社會科學版)》,網絡首發論文,http://kns.cnki.net/kcms/detail/50.1023.c.20220222.0825.002.html。
本文認為,強弱人工智能的分類方法僅在技術層面存有意義,這一分類方法不能進入刑法規范。理由如下,刑法應當注意到技術進步并未改變機器的本質屬性。這就好比手機的發展歷程一樣,由最初的座機發展到今天的智能機,高度智能手機可以實現自助預約做飯、進行對話等高度模擬人類行為的活動,但即便是在高度智能的情況下,這一變化也并不值得引起刑法的關注。人工智能技術發展蘊含的道理也是一樣的,難以說明其由弱到強的變化就實現了刑法規制從無到有的飛躍。即便是人工智能高度智能化并通過了“圖靈測試”,這也只能說明其在功能意義上與人類主體相同,絕不意味著人工智能可以作為像人類一樣的主體。67參見王汝坤:《論廣義進化論視閾下的人工智能倫理問題》,載《上海交通大學學報(哲學社會科學版)》2022 年第1 期。再者,從哲學的角度看“強”“弱”的劃分本身就是根據人的價值標準來判斷的。如同對人類進行“低級”和“高級”劃分一樣,這一劃分顯然是以人類為中心做出的價值判斷。68參見李建會:《生物學中事實與價值的纏結:以進化是否是進步為例》,載《科學技術哲學研究》2019 年第6 期。這一將價值判斷的觀念要素代入到刑法規范記載中的做法,違背了罪行法定原則中成文化、明確性的要求。倘若將強弱劃分應用到規范層面,至少還應當說明為何人工智能由弱到強是一個“意識”從無到有的變化過程,強人工智能相較于弱人工智能成為法律主體的根據為何,而且,弱人工智能是否意味著必然不具備成為法律主體的資格等,這都存在疑問。因此,強弱人工智能的分類欲想進入刑法規范的工作十分艱難,甚至可以說這項工作永遠不會成為現實。
綜上來看,刑法規范不承認強人工智能與弱人工智能的劃分方法,而且這一劃分方法并不會影響到人工智能在刑法規范上的定位。因此,刑法規范中的人工智能概念應當舍棄這一分類方法,即將刑法中關于強弱人工智能問題的探討統一到人工智能問題的探討。
人工智能是由人類制作而成的產品。事實上,人工智能在部分階段屬于一種智能設備。69參見劉小璇、張虎:《論人工智能的侵權責任》,載《南京社會科學》2018 年第9 期。并且,早在2016 年聯合國科教文組織就通過了《關于機器人倫理的初步草案報告》,在該份報告中明確指出人工智能將作為科技產品。因此,眼下處理人工智能相關法律問題的關鍵在于明確其“產品”或者“工具”的本質屬性。70參見高銘暄、王紅:《互聯網+人工智能全新時代的刑事風險與犯罪類型化分析》,載《暨南學報(哲學社會科學版)》2018 年第9 期。人工智能在刑法上法律定位的探討應建立在其產品本質屬性的前提下。
人工智能的產品屬性決定了對其風險來源的劃分。本文認為,人工智能造成的風險可以分為兩類:一是人工智能產品本身產生的風險,可稱之為內部風險,這體現了其產品性的特征。二是因人類主體利用人工智能產品所產生的風險,可稱之為外部風險,這體現了其工具性的特征。人工智能的內部風險主要來源于產品技術本身。此時,人工智能作為產品具備完全意義上的獨立性,即不受人類的控制與利用,擺脫了人工智能工具性的屬性。這一內部風險從產品生產設計完成時就已經潛在化了,此時內部風險的演變早已脫離了人類主體的干涉,其一般情況下通過刑法的前置法規范如民法規范中的產品責任就能夠解決。除非這一內部風險的演變是人為的故意操縱,比如說故意設計錯誤程序、故意在生產制造過程中摻雜摻假、設計危險程序,此時這種情形就會涉及到刑事規范的適用(具體后文詳述)。人工智能的外部風險主要是指人工智能作為工具由人類主體利用產生的風險,此時人工智能更多地是作為工具出現在大眾視野,由此構成了人工智能外部風險的來源。在People v.Davis 一案中,加利福尼亞最高法院也認為人工智能機器人只能作工具使用。71同前注38。
綜上所述,人工智能的產品本質決定了其風險的分類,這一分類基本上奠定了人工智能法律規制的前提,人工智能的刑法定位也是建立在風險分類基礎之上。
前述部分明確了人工智能的風險原理,并對人工智能的風險進行了規范上的分類,接下來便是人工智能在刑法中具體定位的探討。前述風險劃分的工作結束后,人工智能在刑法體系中的定位就很明朗了。刑法此時的任務應當是在最后手段原則的指導下對這種內外的二元風險作出最后的規制,即刑法對于“產品屬性”和“工具屬性”兩種風險的二元定位。
1.內部風險的刑法定位
首先,民事規范在內部風險的規制上應當是首選方法。畢竟,人工智能機器人作為一種產品,原則上由缺陷產品自身產生的侵害當然適用產品責任來規制。當下,《民法典》中產品責任編對這種缺陷產品的損害已經作出了規定,主體涉及到生產者、銷售者以及運輸者和倉儲者等第三人,可以說其規定的已經相當全面了。產品的生產者因產品缺陷造成他人損害的,對其一般適用無過錯責任,比如《民法典》第1202條之規定。而對于中間的銷售者來講,其對缺陷產品承擔先行賠償的義務,但是事后可以向生產者追回,不過銷售者應當證明產品缺陷系生產者造成,比如《民法典》第1203 條之規定。對于因第三人過錯使得缺陷產品對他人造成損害的,第三人也應當承擔賠償責任。而且,《民法典》產品責任編中,不僅是對侵權主體作出了詳細規定,對于責任承擔方式也作出了具體規定,比如,侵權主體除了要承擔一般的侵權責任外,在特定的情形下,被侵權人還有權主張適用懲罰性賠償,比如《民法典》第1207 條之規定。當然,民法規范為了不過多的對技術進步造成束縛,在產品責任的免責事由中指出,生產者因“將產品投入流通時的科學技術水平尚不能發現缺陷的存在的”不承擔賠償責任。
其次,行政規范在內部風險的規制上也可以發揮作用。行政規范對于人工智能產品的生產、研發,可以要求相關主體如企業制定、出臺一系列的規章制度,包括相應的注意義務、產品的正確研發制度、引導使用規范等相關安全管理規定。企業如果未能嚴格遵守行政法規、政策而造成后果,行政規范可以采取警告或者罰款甚至是吊銷營業執照等手段。對于銷售者來說,行政法規及政策應當重點規制的是人工智能產品市場流入制度。此外,人工智能產品的特殊性(高度智能)還決定了銷售者應當盡更多的說明、教會義務,銷售者應重點強調人工智能產品的注意事項、風險告知以及使用禁忌,以保證消費者能夠做到詳細的了解和學習。此外,《治安管理處罰法》在內部風險的行政法規制上也應當被考慮有無適用的余地。
最后,刑法手段在規制內部風險中的應用。刑法手段規制風險的第一種情形為,當侵害結果的發生是因為生產者等在研發、生產環節故意造成時刑法才有適用的空間。生產者、研發者在研發、生產人工智能等產品時,對產品的零部件或者編程故意摻雜造假或者故意設計非法程序、下達非法指令,造成“缺陷產品”的生產并流入市場由此引發產品事故的,該種情形應當追究生產者生產、銷售偽劣產品罪或者以危險方法危害公共安全罪的刑事責任,原因是:第一,人工智能機器人等屬于產品的范疇,生產者、研發者在生產過程中出現了以次充好、以假充真的情形,行為造成了嚴重的社會危害性,當然應當根據生產銷售偽劣產品罪予以規制。第二,研發者或生產者故意造成系統缺陷進而投放到市場使用,該行為無異于向社會投放危險物質。人工智能畢竟屬于高科技產品,程序出錯的人工智能產品在危害性上無異于危險物品,比如,前述“機器人殺人事件”,無人駕駛汽車以及人工智能作戰武器等的危險程度甚至高于一般的危險物質。
刑法手段規制風險的第二種情形為,若研發者或者生產者在設計、生產人工智能機器人時,未盡到相應的管理注意義務,疏忽大意使不合格的人工智能產品流入市場,造成嚴重后果的,刑法規范才具備發揮作用的空間。這種情形可以過失以危險方法危害公共安全罪、重大責任事故罪或者重大安全事故罪追究相關主體的刑事責任。比如,行為人在生產作業中違規操作引發重大責任事故,則應追究主要責任人或者行為人的重大責任事故罪。該種情形下行為人不遵守操作說明以及安全管理規定或者對違規操作持過失心態,導致人工智能產品產生危害后果,滿足了重大責任事故罪的構成要件。在第二種情形所涉及罪名的適用中,一方面要注重考察危害結果的發生與否,這是因為要考慮到技術的不穩定性等復雜情形,防止因為刑罰措施過于嚴格阻礙科技進步。另一方面要注重考察研發者和生產者是否遵守相關注意義務,防止研發者和生產者在生產、作業中疏于管理或者違反有關安全管理規定而導致危害結果的發生。當然,若該技術缺陷就算盡到注意義務也難以避免,則屬于意外事件。
2.外部風險的刑法定位
人工智能的外部風險主要是指人為使用所造成的危害結果,具體又可分為正常使用和非法利用兩種情形,對于這兩種情形的規制路徑也有所不同。
第一種情形,若是在正常使用中因產品自身原因導致侵害結果產生,則應當按照產品責任的規定處理,實際上該種情況風險來源于人工智能內部,這種情形不受刑法的關注。
第二種情形,對于非法利用人工智能的情形應當納入刑法規制的范疇。該種情形下行為人主要是將人工智能作為工具使用,比如,行為人利用人工智能機器人實施的殺人行為、搶劫行為等,人工智能此時充當的是輔助工具的角色,應當根據具體情形分別按照故意殺人罪、搶劫罪等追究行為人(人工智能使用者)的刑事責任。此外,前述提到的人工智能黑客現象,明顯就是人工智能工具屬性的體現,即黑客程序設計者作為背后的責任主體,利用人工智能黑客侵入計算機的行為當然也就構成計算機類相關犯罪,如《刑法》第285 條以及第286 條規定的相關罪名。
除上述情形之外,本部分擬以當下熱度較高的無人駕駛技術為例,對其在刑法規制上做簡要分析。無人駕駛技術是將強人工智能應用于汽車駕駛領域,此時,無人駕駛技術的刑法規制結合其風險來源,可以具體分為以下情形,生產者、設計者通過設計非法程序利用無人駕駛技術在人員密集的道路交通上橫沖直撞的,該種情形下應當視具體情形追究生產者、設計者故意殺人罪或者以危險方法危害公共安全罪。若駕駛者在使用無人駕駛技術時造成交通事故,此時,如果交通事故是由駕駛者過失操作不當所致,駕駛者可根據情形被追究交通肇事罪的刑事責任;如果駕駛者故意操作導致駕駛故障,或者對產生故障后的情形持放任態度能去阻止而不阻止,任由無人駕駛汽車行駛而不去接管,此時駕駛者應當視情形被追究故意殺人罪等刑事責任??傊?,刑法在明確了人工智能產品屬性和工具屬性的前提下,結合具體情形加以分析后得出的結論往往不會超出人們對法規范中常識常理常情的認知。
人工智能時代終將到來,人類也會因此進入風險社會,刑法如果盲目追求標新勢必會引起刑法規制與科技進步的矛盾。刑法應當克制住其在當下焦躁冒進的態度,遵循緩和的積極主義刑事立法觀。72參見王俊松:《網絡智能時代的刑事立法觀:理念回應與路徑優化》,載《重慶郵電大學學報(社會科學版)》2022 年第4 期。人工智能引發的法律問題并未觸及到刑法深層次的理論探討,抑或者刑法教義學體系完全能夠消化風險社會理論涉及的有關現象。按照本文的主張,文章開篇所提的“機器人殺人事件”也只不過是普通的自動化器械故障而已,即便是機器人對話中出現的反人類情形亦是如此。人工智能威脅的產生并不來源于它本身,而是我們人類對它的態度??傊斯ぶ悄苤皇侨祟惏l展史上具有進步意義的輔助工具,傳統的法律體系完全可以將其所衍生的風險內化,而所謂的強人工智能和弱人工智能的劃分,不過是電鋸和斧頭的區別罷了。