(四川大學法學院 四川 成都 610000)
(一)人工智能能不能作為刑事責任的主體。人工智能,現如今家喻戶曉的名詞,20世紀50年代被提出之后各國的科學家都對此進行了深入的研究。到現在,世界各國都將人工智能作為發展的第一要務,我國也不例外。當然,人工智能是一把雙刃劍,機遇與挑戰并存,安全和風險共生,人工智能發展的不確定性可能會帶來新的安全風險和挑戰,甚至可能會沖擊新的法律秩序、社會倫理。因此,針對人工智能建立新的法律法規、規范政策就顯得尤為必要。應全方面形成對人工智能技術的安全管控能力。這些風險如何予以規避,用什么樣的法律法規進行規制,無疑會影響到我國現行刑法。
人工智能是基于人類的設定或要求,通過計算機信息系統實施一定智能行動的實體或者程序。(王素之,2018)人工智能可以根據人工智能是否具有自我意識以及是否能獨立思考和解決問題,分為強人工智能和弱人工智能。強人工智能可以超出設計的程序范圍進行獨立判斷并作出決策,顯示出與人相似的獨立意志;而弱人工智能智能在編制的程序范圍內執行命令,只是人類智能的延伸而已并不具備自我意識以及獨立思考的能力。人類可以運用弱人工智能機器可以改造和創造世界,實現人類生產、生活的目的,給人類生活帶來便利。現在比較常見的弱人工智能主要是自動駕駛汽車、醫生機器人等。
判斷人工智能能否成為刑事責任的主體最關鍵的就是看其有無刑事責任能力,即承擔刑事責任的能力。筆者認為,強人工智能機器人可以成為刑事責任主體而弱人工智能機器人不能成為刑事責任主體。有學者認為,智能機器人因其無法產生自主意識或者缺乏獨立的思維而沒有辦法認識到其行為的意義,從而不能成為刑事責任的主體。筆者認為,此觀點是存在不妥之處的。“隨著人工智能技術的快速發展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。(杜嚴勇,2015)”因此,當人工智能技術發展到一定程度時,就有可能出現擁有自己獨立意志并且能夠獨立自主決策的強人工智能機器。在此時,擁有獨立思維的強人工智能機器實施的行為就有可能超越甚至脫離設計的程序,為實現自身的意志而實施危害人類的行為。很多人認為這好像就是天方夜譚根本不可能實現,那數百年之前又有誰相信地球是圓的呢?即使當下的人工智能技術尚不足以使機器人產生人類智能,但并不排除科技創新會帶來突破。現在最聰明的智能機器人AlphaGo就證明了通過深度的學習,顯示出了超越人類的分析判斷能力。另外,與單位相比,強人工智能機器的控制能力和辨認能力與人類更為接近。以單位犯罪為例,我們根據單位的特征對傳統的刑法理論做出修正,賦予單位“法人”的地位,對于強人工智能機器我們也需要遵循同樣的思路。
而弱人工智能機器人不能成為刑事責任的主體,弱人工智能機器人擅長推理、解決問題,但是并不真正擁有智能,與強人工智能機器人具有本質的區別。強人工智能機器具有自我意識、自我創新思維這些都是弱人工智能機器所不具備的。弱人工智能機器不具備獨立的思維意識和思考能力,只能被動地按照既定程度進行行為,有可能是因為無法區分人類或者其他物體對人類造成了誤傷;也有可能是因為原設計程序的錯誤而導致了危害社會的結果;也有可能是因為自然人以人工智能機器作為犯罪工具以此來達到既定的犯罪目的。
(二)人工智能是否有刑罰的必要性。刑事責任的存在是刑罰的前提,沒有刑事責任絕不可能適用刑罰。(趙秉志,2007)刑法懲罰的是犯罪的人,并且懲罰的手段具有一定的特殊性,根據前文的論述,強人工智能機器可以進行懲罰,而弱人工智能機器則因為不具備刑事責任能力兒無法被認定為是犯罪的人因而也沒有懲罰的必要。所以在此處我們只重點討論強人工智能機器受罰的必要。
誠然,因為法律所存在的滯后性,我們目前的法律還未將人工智能納入其中。弱人工智能時代已經來臨,強人工智能時代并非遙遙無期。當強人工智能機器憑借自己的獨立意志實施了超越了設計編程的犯罪行為時,將其納入刑法調整的范圍并非無稽之談,而是有非常必要性的。首先,對強人工智能機器適用刑罰能夠實現刑罰的震懾功能,有許多學者認為這是開玩笑,機器怎么能感受到痛苦。但是痛苦本來就是一種本質的感受,既然強人工智能機器具有獨立的思維意識并且隨著醫學的進步,賦予強人工智能機器一定的疼痛機制及主觀上的感覺判斷也不是不可能。其次,對強人工智能機器適用刑罰能夠實現刑罰的教育改造功能。強人工智能機器的運作模式決定了其具有獨特的教育改造方式,可以通過修改它的數據來改變它的思維方式。
(三)人工智能時代的刑罰體系。既然強人工智能機器能夠作為刑事主體并承擔刑事責任,那么將強人工智能機器納入刑罰調整的范圍不僅具有正當的刑事根據,還具有相應的功能、實現特定的目的。筆者認為,第一,刑罰觀念應該轉變為報應與預防相結合,由傳統的消極預防轉變為消極預防與積極預防并重。從我國的具體情況來看,《刑法修正案八》的禁止令和終身監禁以及《刑法修正案九》的職業禁止和終身監禁制度,均體現了積極預防的刑事立法取向。第二,針對強人工智能機器采取刑罰二元目的論,即對其采取法律報應論和積極預防論。
(一)確立人類利益優先的原則。未來關于刑法立法一定會考慮如何避免機器人對人類傷害的問題,可以根據阿西莫夫的機器人三大定理來進行制定。阿西莫夫的第一定理是不能傷害人類;第二定理是恪守人的命令,除非與第一條相沖突;第三條是保護自己,除非與第一條、第二條相沖突(高奇瑞,2018)。為了更合理、有效地防止人工智能機器對人類造成損害,我們應對其可能產生侵害人類利益的情況提早預防,確立人類利益優先原則。在此前提下,再認真考慮人工智能機器所產生的法律問題,正確處理問題、正確對待以做到和平共處。
(二)嚴格遵循技術中立原則。人工智能是一把雙刃劍,既是人類文明又是社會風險。面對人工智能,我們不能逃避它、否定它并阻止其生長,在技術發展程度不成熟的情況下,我們不能因為其可能帶來一定的刑事問題就阻止甚至放棄人工智能的發展。技術中立原則,最早來自于1984年環球電影訴索尼案中,其基本內容如下:“只要一項技術構成實質性非侵權使用,不管這種技術是否被用于合法或者爭議的目的,技術服務提供者都不必對用戶實施的或可能實施的侵權行為承擔責任。(何培育,2017)”在刑法中,應當嚴格恪守技術中立原則,只要在人工智能技術發展過程中沒有出現超過社會容忍度、控制力的風險,并且該技術的發展和使用可以促進社會的進步時,就不應該阻撓和制止其發展。
人工智能時代已經慢慢來臨,人類在享受人工智能帶來的便利時,也要警惕其潛在的風險,這種風險可大可小,但無論如何去減少或者規避風險才是當下的著眼點。對人工智能采取單獨立法還是采取另外的法律規制都是值得研究和考量的。面對日新月異的人工智能技術,采取什么樣的手段進行規制都是值得深思熟慮的時代話題。