摘 要:人工智能時代的來臨給我國社會帶來了重大的變化,許多人認為人工智能技術可能會對社會的穩定性造成一些影響。如果有人利用人工智能技術來危害社會,那么需要根據怎樣的客觀情況進行處理。本文通過研究人工智能技術引起的犯罪行為變化和智能機器人可能成為新的刑事責任的主體,探討得出智能機器人能夠適用的刑罰。
關鍵詞:人工智能;智能機器人;辨認和控制能力;責任主體;刑罰體系重構
中圖分類號:D924.3 ? ?文獻標識碼:A ? ?文章編號:2095-4379-(2019)26-0184-02
作者簡介:高克鑫(1997-),女,黑龍江海倫人,東北農業大學,本科在讀,研究方向:刑法。
人工智能技術一旦落到不法分子的手中會給社會帶來極大的危害,但是我國現行的法律法規對于人工智能技術的管理、約束以及對于相關犯罪的懲罰機制具有一定的滯后性。因此,處在人工智能時代的人們應該學習、研究、應用相關的法律法規來約束人工智能技術。運用人工智能技術制造出來的智能機器人按照設計和編程方式可分為兩種,一種是在設計和編程范圍內能夠行動的智能機器人,另一種是在設計和編程范圍之外能夠行動的智能機器人,這兩種智能機器人的辨識能力和控制能力是判斷能否承擔刑事責任的依據。對于第一種,本文將討論對于人們運用該技術過程中產生的犯罪行為的變化,對于第二種技術成果,我們稱其為人工智能機器人,本文的觀點是具有辨識和控制能力,能夠承擔刑事責任的“行為人”就可以成為刑事責任的主體。因此,本文把在設計和編程的范圍外能夠行動的智能機器人看作是刑事責任主體。
(一)犯罪行為中人工智能技術的應用
人工智能技術應用計算機技術能夠模擬人腦的功能,使機器人像人一樣的思維方式進行“思考”,可以對客觀事件進行分析、判斷以及解決問題的技術。隨著智能化時代的到來,如今人工智能技術在許多領域都得到了廣泛的應用。例如,醫院已經出現了醫療機器人,餐廳出現了人工智能服務員機器人,眼鏡店出現了能夠幫助人們測試視力的眼科機器人等等。
本文將其對犯罪行為的影響劃為兩類:一為犯罪分子將這項技術作為工具的應用到某些不合理不合法領域。如不法分子策劃犯罪時,利用智能機器人來進行選擇謀劃,這使行為變得難以預測,也會給司法偵破和在程序舉證等方面帶來更多的難題。二為利用人工智能技術進行網絡犯罪。例如:運用人工智能技術侵入銀行或政府等系統中,造成難以挽回的傷害。
(二)人工智能時代犯罪行為變化的應對
合理合法的應用人工智能技術能夠給人們的生活帶來便利,但是不合理不合法的利用人工智能技術就會帶來巨大的危害。因為這里的所指人工智能機器人是一種實行犯罪的工具,無需承擔刑事責任,所以要對那些違法應用人工智能技術的人員進行處罰。本文按違法的不同程度將其分為從輕、從平、從重這三個等級。
如果行為人利用人工智能技術時基于非故意的心理給社會或個人造成了傷害,屬于過失犯罪,可以“從輕”處罰。判斷行為人是否屬于過失犯罪,應該結合社會當時的普遍觀點和詢問當事人能否夠感受到其行為會對社會或是個人產生不利的影響。
假如無論應用人工智能技術與否都無法改變其犯罪行為對社會穩定性的影響,就可以“從平”處理。例如,行為人利用人工智能技術竊取他人的財物,但是這種行為與傳統偷盜沒有什么區別,只是運用的手段不同。因此,當危害社會的程度上來說沒有本質區別,都是偷竊他人財物,就無需在刑法中專門設置“用人工智能技術偷盜”。犯罪分子利用人工智能技術進行偷盜應與傳統的偷竊行為同等論處。
假如行為人利用人工智能技術進行犯罪,人們可以不假思索的得出其行為對社會具有危害性,這種行為對社會的長期發展、國家安全、個人隱私等產生了極為嚴重的威脅,但是刑法中沒有符合其行為的具體規定,那么需要按照傳統犯罪的行為進行“從重”處罰。例如,犯罪分子利用人工智能技術盜取國家秘密。由于人工智能更加高效,所以對社會或是對個人的危害都會成倍的不斷增長,而且難以控制。因此,需要從重處理。
人工智能技術具有很大的風險,需要行為人在應用時排查安全隱患,從而降低危害社會的事件發生。如果科學水平的發展使人們難以預見危害結果的發生,那么應該盡快完善人工智能技術的安全性。
(一)能夠成為刑事責任主體的智能機器人種類
判斷一類智能機器人能否成為刑事責任主體,應該將智能機器人的行為與程序之間存在的關系進行探討。正如前文所述,這里討論的是在設計和編程范圍之外能夠行動的智能機器人,當智能機器人在設計和編程控制的范圍內通過一定的學習,就可以產生自我意識,知道自己在做什么,從而超出設計和編程范圍的控制,能夠具有辨識能力和控制能力。辨識能力是指智能機器人知道自己所做的事情會對社會造成一定的積極作用或是消極作用,而控制能力是指智能機器人可以選擇做還是不做某件事情。在設計和編程范圍之外能夠行動的這類智能機器人具有自我意識,能夠按照自己的想法做事,與人腦的意識和意志相同。
(二)智能機器人可能成為刑事責任主體的理論基礎
脫離人類設計和編程范圍的智能機器人具有刑事責任能力,即辨別能力和控制能力,屬于刑法意義的“行為人”。對于判斷一個自然人是否可以成為刑事責任主體,根據我國刑法可以得知:十四歲以下犯罪可以不負刑事責任,處于十四至十六年齡段的人只對部分嚴重犯罪負刑事責任。精神病人在無法辨認自己和控制自己的行為從而造成傷害結果的也可以不用負刑事責任。其依據便是具有辨識能力和控制能力。而這一觀點便為具有辨別能力和控制能力機器人成為刑事責任的主體提供了理論依據。
許多人認為智能機器人在觸犯法律之后可以進行維修或是銷毀,為什么要進行刑罰?主要原因便是這類智能機器人具有自我意識,算是某種程度上的“人”,可以成為刑事責任的主體接受刑罰。另外由于智能機器人在其高端的科技載體上還具有一定的辨識能力和控制能力,無需面對自然帶給人類的生老病死,相較人類會發展的更加迅速,能夠為社會的發展和科學技術的進步提供大力的支持。因此,未來一定會呈現“人機合作”的發展態勢,賦予智能機器人社會成員的身份很可能會從一紙空談變為現實。
為智能機器人建立一套健全的刑罰體系,使觸犯法律的智能機器人接受法律的制裁。在構建刑罰體系時,應該結合三大原則進行編寫,這三大原則包括罪刑相適應原則、目的導向原則、節儉性原則。對智能機器人的刑事處罰內容可以是為刪除數據、整改編程、永久銷毀。這三種刑法內容能夠與三大原則相結合,可實施性很強。
隨著時代的進步,人類創造出了能夠幫助人們工作的智能機器人。但是智能化也存在著一定的風險性:不但一些犯罪分子會利用人工智能技術實施犯罪行為,而且當在設計和編程范圍之外的智能機器人形成自我意識時實施的不法行為還會直接對社會產生危害。因此,需要利用刑罰去約束這類智能機器人,使其能夠在法律的軌道中促進經濟的發展和社會的穩定。
[ 參 考 文 獻 ]
[1]安柯穎,陸紅.人工智能時代網絡安全的刑法保護——基于網絡犯罪AI化為視角[J].云南民族大學學報(哲學社會科學版),2018,35(06):145-156.
[2]劉憲權.人工智能時代機器人行為道德倫理與刑法規制[J].比較法研究,2018(04):40-54.
[3]劉憲權,林雨佳.人工智能時代技術風險的刑法應對[J].華東政法大學學報,2018,21(05):46-54.