【內容摘要】人工智能的刑事立法和刑事責任承擔都繞不開一個核心問題,即犯罪主體。強人工智能可否成為犯罪主體,須運用刑法理論對這種“可能性”詳細分析。聚焦犯罪成立條件中危害行為理論進行論證,理性探析強人工智能與傳統刑法理論的兼容性。在此基礎上討論現階段是否有必要在刑法體系當中設立這種新類型的犯罪主體,才是符合邏輯的。
【關 鍵 詞】強人工智能;犯罪主體;危害行為;理論兼容
中圖分類號:D924.1 文獻標識碼:A 文章編號:2095-4379-(2020)11-0036-03
作 者 簡 介:達朝玉(1993-),男,土族,甘肅臨夏人,中國礦業大學(北京)文法學院法律系,法律碩士,研究方向:刑法學。
智能是一個十分復雜的詞匯,是指由意識、自我、思維等等組成的有機集合。①其中強人工智能是指一種能夠進行自主地學習、通過獨立意志下自由行動、制定計劃和處理問題的智能。強人工智能與弱人工智能的分界嶺為是否具有深度學習能力,是否具有獨立意識和意志。②也即,強人工智能最明顯的特點就是無需借助人類的力量,能獨立決斷、自主行為。③換句話講,弱人工智能無法擺脫人類控制,主要特征是工具價值,它是人類行為和意志的延伸,而強人工智能是為了實現自己的意志、自主決策并自主實施的行為,因此,強人工智能的行為所產生的后果也不能完全地歸責于設計者或使用者。
一、研究強人工智能必要性
人工智能技術已經在全球范圍內蓬勃發展,為全球經濟社會的發展注入了新動能。把握好這一發展機遇,處理好人工智能在安全、法律、倫理方面的關系愈發重要,同時給國家這一領域的治理提出了新課題。另外,整個時代都該理性妥善處理好人與人工智能之間的關系。現階段是否是研究強人工智能時期,學界爭論較大,其中較為明顯的爭論焦點有:
爭議一,法學界部分學者認為法律是為人類構建的,不應該將人工智能納入法律約束的對象。有的學者提出動物也有自由意志,是不是應該把動物的行為納入預防范疇?劉艷紅教授認為:假設未來真的出現強人工智能,但它們整體智慧高于人類,也擁有自主意識,那么那個時候它們是不會接受人類制定的法律規則的,因此現階段研究其法律責任實屬沒有必要,與之相反,很可能那時候是人工智能考慮如何為人類立法了。④很多學者表示支持該觀點,他們認為人工智能若如果一直處于弱智能時期,只是工具屬性的狀態對人類來講是最安全的,如此以來既可以享受到人工智能技術帶來的科技便利,又不用為了人工智能安全倫理的問題而擔憂。但在不久的將來,人類會進入正常意識智能階段,此時人工智能將逐漸具有與我們相差無幾的意識。并且它們的智能必然遠在人類之上,萬一失控,后果不敢想象。⑤
爭議二,有學者認為,現階段來探討強人工智能犯罪的刑事責任問題沒有多大意義,因為其性質很像去證明宗教命題真實與否一樣。⑥不過有學者認為,當下的人工智能處于由弱人工智能向強人工智能發展的時期,很多技術已經令世人驚艷,所以強人工智能時代也會很快到達。這種觀點還認為,法學界里研究人工智能的學者們均未跳出當前弱人工智能的背景,不愿意相信強人工智能時代會出現,在這種觀念下做法學研究,必然也得不到有創新和客觀價值的研究成果。⑦原因就在于很多學者沒有看到人工智能發展的過程性,一直用孤立和靜止的視角來審視,因此這類觀點尚顯片面。
上述部分爭議中的觀點中大部分研究多止步于人工智能工具價值論層面,缺乏對人工智能法哲學方向的思考。而人工智能的研究——既是科技問題,也是法律問題⑧。
二、對刑法造成的挑戰
(一)挑戰類型
1.強人工智能自身對刑法的挑戰
人工智能技術正在向著更加智能化的方向發展,控制難度系數變大,風險也在隨之提高,更容易導致機器人可能出現犯罪的現象。如上文所述,我們假設強人工智能擁有獨立的思維,那么它們就完全可以支配自己的行為。誠然,刑法具有謙抑性,所以并不是每一個行為都會受到刑法的約束。犯罪是一種行為,沒有行為就沒有犯罪,而刑法上的危害行為,是指因為人的意識,在其自由意志支配下實施了客觀上侵犯法益的身體活動。
2.第三人行為對刑法的挑戰
一個危害結果,不一定是由一個行為導致的,它可能是多個行為共同合力作用的產物。人工智能自身的行為有可能會獨立完成一個危害結果,也有可能受到第三人的影響。這里的第三人就包括智能產品的設計者、服務提供者、計算機智能系統開發者、使用智能產品者,而他們都有可能作用于某一個危害行為,這就在以后認定行為時帶來了麻煩:首先,如前文所述,現行刑法對人工智能的刑事立法處于空白狀態,對一個行為是單獨導致或者是合力作用更無規定,所以在行為認定上就會變得復雜。其次,人工智能主體異化后在歸責認定時也會造成巨大的困擾,我們當下的弱人工智能基本上可以拋開真正意義上的“智能”,而是一種更加高效的工具,這點毋庸置疑。但是在弱人工智能跨向強人工智能的過程中,一個明顯的特點就是,人類對機器的控制力越來越小,而智能機器的自主性逐步提高,風險也愈加增強。
(二)核心問題——犯罪主體資格不清晰
無論是人工智能自身亦或者是第三人行為導致的刑法風險,最核心的問題就是犯罪主體資格問題,這是刑事責任追究時繞不開的關鍵點。傳統機器不管多么先進,都只能按部就班地根據設定程序運行,機器本身沒有任何自主性,而將具備深度學習、強化學習、大數據處理、機器感知以及自然語言處理等技術的智能機器人,則能夠通過大數據訓練,自動抓取信息,并自主決策或對環境做出自主回應。在法律意義上,它們是否能夠以及是否應該被賦予法律主體資格的問題,就成為我們人類迎接人工智能時代來臨之際必須正視的關鍵問題。⑨
三、強人工智能與當下犯罪主體理論的兼容性分析
(一)犯罪主體在刑法中的意義
傳統刑法研究犯罪主體要件問題,對于司法實踐中正確定罪量刑,具有至關重要的意義,在定罪方面主體作為犯罪構成要件必備要素所體現的決定機能,而在量刑方面,主體作為量刑情節而對刑事責任大小和刑罰從寬或者從嚴處罰產生的影響機能。⑩人工智能是不是法律主體的討論,是AI作為客觀存在進入和體現在法學、法律中的起點。(11)其必要性在于,犯罪主體是犯罪構成必備的條件之一,離開了犯罪主體就不存在犯罪,也不會發生刑事責任問題。(12)因此,在研究人工智能刑事責任時,首先解決的一個問題是人工智能技術背景下的智能主體(智能機器人、智能產品等)的刑法地位,其中主要就是犯罪主體資格。
(二)主體資格
按照傳統法學對于犯罪主體認定只有自然人和法人,而人工智能主體并不具備法律的主體資格與地位。這樣的劃分來源于傳統的思維模式和生活經驗,凡具有精神、意識的存在為人,凡不具有精神、意識的存在則為物,可是像人工智能技術高速發展的今天,AI似乎無法歸屬于任何一邊。倘若處于弱人工智能下的“工具屬性”的AI,我們當然可以將其視為“物”,主要原因是其基本上沒有任何思考能力,所作出的行為只不過是人類思維的體現和手足的延長。但是強人工智能絕對不是這樣簡單,擁有自我意識的人工智能會改變很多傳統的事物,包括我們的價值觀。
1.設立新的犯罪主體類型的可能性分析
科學技術日新月異,在人工智能領域隨著神經網絡技術和深度學習技術的發展,未來出現強智能機器人并非不可想象。(13)學者盧勤忠也認為,人類的智能是基于意識、思維、感覺和知覺等為基礎條件的,但是智能機器人并不一定也要按照這一模式感知世界,所以在其意識和自由意志的表現形式上就可能與人類不同。但是應當明確強人工智能機器人在刑事責任與刑罰根據上與人存在差異,如此以來,在刑事責任追究上就有必要做出符合強人工智能機器人特征的重新解讀。(14)結合上面的學者觀點,核心主要是自我意識和刑事責任承擔可能性方面所提出的觀點。人工智能如果沒有自我意識,它不會知道自己所從事的行為的目的和意義。然而,有學者認為未來AI不可能具有犯罪主體資格,譬如中國人民大學黃京平教授認為,刑事法律領域里研究智能機器人主體資格完全沒有必要。無論是目前的弱人工智機器人,還是未來的高級甚至超級智能機器人。即便其他部門法律都認為人工智能體應該有法律主體資,刑法也不應該把認為人工智能機器人有犯罪主體資格,否則勢必導致刑事責任體系的崩潰。(15)
2.當下是否有必要設立這一新犯罪主體
強人工智能體的刑事主體資格首先是一個事實判斷的問題,也即這種判斷是基于實然層面分析成為刑事主體的條件。而現階段我們是否在刑法體系中新增或者重構犯罪主體這一問題上,筆者持反對觀點,如上文中提到的,強人工智能的確是可以成為犯罪主體的,但可以成為不一定要立馬成為,至少結合當下科技水平還為時過早,論述如下:
學者陳敘言在論及承認人工智能刑事責任主體地位之必要性時指出,承認人工智能刑事責任主體地位是基于功利主義的考量,是以保護人類自身利益為目的。他認為,刑法學者應該對強人工智能的到來抱有憂患意識,理論研究和立法都應具有一定的前瞻性。(16)也有學者認為現行刑法主體概念對于人工智能法律主體規制的缺位,無形中增加了人們對于智能風險的恐懼。當下,各部門法在人工智能領域的探索已顯雛形,刑事法的規制卻略顯保守。類人型人工智能實體與自然人的相似程度比動物、單位更高,包含法律設定主體的本質要素——理性,并具備侵犯法益的可能性,從而增強了賦予其刑事責任主體地位的必要性。(17)而筆者認為,僅僅就當下現狀而言,立刻去召集刑法學者設立這一新類型的刑事責任主體操之過急,當下仍然是弱人工智能時代,所謂的人工智能產品,并非是科幻電影里無所不能的機器人,實際上還是一種工具。
(三)主體資格的確立是為了判斷刑法中的危害行為
傳統刑法上的危害行為,是基于人的意識和意志支配實施的客觀上侵犯法益的身體活動,這也是近代以來確定的危害行為觀點。按照這一基本框架展開討論強人工智能的危害行為時有三點需要明確:有體性、有害性、有意性。
第一,有體性方面,即身體活動包括舉動和靜止。這一點在未來強人工智能技術下完全可以實現,哪怕是當下的弱人工智能也可以做到,2016年Google公司推出的機器人Alpha-go(圍棋人工智能程序)以4:1戰勝圍棋世界冠軍李世石,(18)由于它是被相關開發者編輯相應程序后進行的行為,所以它只會下象棋,你要是期待它怎樣更好的在硬盤上儲存數據,它是無法完成這一超出“下棋”編程外的任務的。
第二,有害性方面,刑法只禁止具有法益侵犯性的危害社會的行為,而對社會無害的行為不會被規定在刑法中。這點和前文有體性所提及的一樣的,未來強人工智能技術下完全可以實現。但是需要細化一個概念,刑法理論認為,社會危害性體現為法益侵犯性(也就是對法益的實際侵犯和侵犯危險急迫可能性)。對此,未來有必要對強人工智能帶來的變化進行新的法益劃分,旨在明確法益及其范圍。
第三,有意性方面,刑法只調整有意識和有意志支配和控制的行為。這一點也是確定人工智能行為是否是刑法意義上的行為的重要方向。
注釋:
①孫曄,吳飛揚.人工智能的研究現狀及發展趨勢[J].價值工程,2013,32(28):5-7.
②劉憲權,張俊英.人工智能時代機器人異化與刑事責任[J].法治研究,2019(04):90-97.
③劉憲權.人工智能時代的“內憂”“外患”與刑事責任[J].東方法學,2018(01):134-142.
④劉艷紅.人工智能法學研究中的反智化批判[J].東方法學,2019(5).
⑤李劍鋒.人工智能的未來[J].中國圖書評論,2016(11):30-34.
⑥周銘川.強人工智能刑事責任之否定[J].上海政法學院學報,2019(2).
⑦徐昭曦.反思與證立:強人工智能法律主體性審視[J].中共中央黨校(國家行政學院)學報,2019,23(03):80-88.
⑧同前注10.
⑨成素梅,高詩宇.智能機器人應有法律主體資格嗎?[EB/OL].西安交通大學學報(社會科學版):1-12[2019-11-21].http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html.
⑩劉艷紅.刑法學(第二版)[M].北京大學出版社,第130頁.
(11)朱程斌,李林.人工智能作為法律擬制物無法擁有生物人的專屬性[J].上海交通大學學報(哲學社會科學版),2018(6):56.
(12)高銘暄,馬克昌.刑法學[M].第六版.北京大學出版社,第83頁.
(13)劉憲權.人工智能時代的刑事責任演變:昨天、今天、明天[J].法學,2019(1).
(14)盧勤忠,何鑫.強人工智能時代的刑事責任與刑罰理論[J].華南師范大學學報,2018(6).
(15)莊永廉,黃京平,高艷東,等.人工智能與刑事法治的未來[J].人民檢察,2018(1).
(16)陳敘言.人工智能刑事責任主體問題之初探[J].社會科學,2019(3).
(17)王耀彬.類人型人工智能實體的刑事責任主體資格審視[J].西安交通大學學報,2019(1).
(18)劉憲權.人工智能時代的刑事風險與刑法應對[J].法商研究,2018(1).