王姝麗
摘要:人工智能時代來臨產(chǎn)生大量不可預估性風險,以刑事風險為例存在造成部分傳統(tǒng)犯罪危害性出現(xiàn)量變形成全新犯罪形式的可能性,甚至人工智能產(chǎn)品受多種因素共同作用的影響脫離人類控制出現(xiàn)危害社會的犯罪行為。目前我國現(xiàn)有的刑法體系對于人工智能產(chǎn)品相關追究主體刑事責任仍存在著一定的滯后性及局限性,一旦人工智能產(chǎn)品使用方或研發(fā)方有意實行犯罪行為時使用方或研發(fā)方僅僅承擔過失犯罪刑事責任,而無法全面評估其對危害結(jié)果是否負有預見性義務。本文以人工智能時代為切入點分析其刑事風險,就提出具體的相關主體行為刑法規(guī)則進行深入探究,旨在為相關從業(yè)人員積累更多的工作經(jīng)驗。
關鍵詞:人工智能 刑事風險 刑法應對
自上個世紀50年代達特茅斯會議明確提出人工智能概念以來,于會議召開十余年時間內(nèi)已著手開展人工智能研究,逐步認識到人工智能研究進程止步不前與人類無法實現(xiàn)其自我創(chuàng)造及自我學習預想間存在著密切聯(lián)系[1]。直至2016年由谷歌公司研發(fā)的“阿爾法狗”以4:1高分戰(zhàn)勝圍棋世界冠軍李世石,意味著人工智能技術(shù)完全崛起,正式邁入人工智能技術(shù)發(fā)展全新階段,而人工智能時代來臨產(chǎn)生大量不可預估性風險。國務院印發(fā)的《全新人工智能發(fā)展規(guī)劃》中明確提出“人工智能發(fā)展不確定性可能帶來的風險及隱患存在沖擊現(xiàn)有社會倫理及法律法規(guī)的可能性,甚至出現(xiàn)侵犯個人隱私問題”,客觀上要求盡可能提早構(gòu)建人工智能法律法規(guī)、政策規(guī)范及倫理底線,增強人工智能技術(shù)的安全管控能力。鑒于此,本文針對人工智能時代刑事風險及刑法應對的研究具有重要現(xiàn)實意義。
一、人工智能時代刑事風險
(一)危害性量變
一般說來,科技進步對人類社會所產(chǎn)生變化往往具有一定相似性,以改變?nèi)祟惿鐣钅J郊觿∩鐣L險為主要體現(xiàn),以工業(yè)革命為例大大提高人類社會生產(chǎn)效率,促使犯罪工具更為科學合理。雖然新形勢下互聯(lián)網(wǎng)技術(shù)無法推動傳統(tǒng)犯罪進行升級,但是存在促使部分傳統(tǒng)犯罪危害性發(fā)生量變的可能性[2]。從工業(yè)革命時代直至互聯(lián)網(wǎng)時代,每一次人類社會生活時代更替均成為部分傳統(tǒng)犯罪發(fā)生量變的有力條件。除提供高效便捷服務外,人工智能大大加劇人類社會風險系數(shù)。從犯罪危害性“廣”的角度來看,人工智能技術(shù)能拓展犯罪行為的危害性覆蓋面。
由于人工智能技術(shù)日益先進被廣泛應用于社會生活各個領域,出現(xiàn)在越來越多行業(yè)中,換而言之未來人工智能存在完全取代人類進行工作的可能性,甚至部分領域中人工智能展現(xiàn)出與人類相似或超越人類的卓越能力,例如:以醫(yī)療領域為例人工智能技術(shù)能精確判斷腫瘤所處位置及具體大小提供相應的手術(shù)治療方案,甚至出現(xiàn)外科手術(shù)機器人廣泛參與手術(shù)過程[3]。結(jié)合相關部門規(guī)劃方案,未來我國以實現(xiàn)智能家居、智能商務、智能金融、智能農(nóng)業(yè)及智能制造等全面智能化社會為主要目標,時刻警惕人工智能所產(chǎn)生的風險,一旦出現(xiàn)問題風險則存在造成牽一發(fā)動全身的局面。
(二)全新犯罪形式
人工智能指構(gòu)建人工構(gòu)造神經(jīng)網(wǎng)絡及利用系列編碼程序?qū)崿F(xiàn)大數(shù)據(jù)深度學習便于掌握識別數(shù)據(jù)作出相關決策的過程。從人工智能概念角度來看,人工智能系統(tǒng)深度學習無法脫離大數(shù)據(jù)利用的支持,換而言之濫用人工智能等同于濫用大數(shù)據(jù)。傳統(tǒng)觀念認為“數(shù)據(jù)利用可能涉及的犯罪類型為非法獲取計算機信息系統(tǒng)內(nèi)數(shù)據(jù)”[4]。同時,從最高人民檢察院及最高人民法院司法解釋角度來看,我國刑法及司法著重強調(diào)保護用于維護系統(tǒng)自身功能及以方位控制為核心的數(shù)據(jù),對于數(shù)據(jù)自身內(nèi)容屬性及價值保護的重視程度有待提高,但是人工智能時代下數(shù)據(jù)濫用風險存在產(chǎn)生全新犯罪形式的可能性。
由于數(shù)據(jù)中包含信息量越大則不法分子攻擊1次數(shù)據(jù)庫所獲取的信息量越多大大降低犯罪成本,促使數(shù)據(jù)過于集中自身具備不可避免的風險。一旦不法分子靈活運用人工智能技術(shù)分析海量數(shù)據(jù)或綜合分析多個數(shù)據(jù)庫則極易推演出得到關鍵敏感信息獲取超出人類預期的結(jié)果,甚至涵蓋威脅國家安全的重要信息。同時,受現(xiàn)有的數(shù)據(jù)安全防護手段難以跟上人工智能技術(shù)發(fā)展速度的影響,無法立足于全新犯罪形式作出及時有效的預警反應[5]。此外,部分不法分子主要通過干擾人工智能系統(tǒng)得以逃脫制裁及監(jiān)控,尤其是掌握或改變其原有算法后,極易造成人工智能系統(tǒng)出現(xiàn)決策錯誤或識別錯誤。
(三)脫離人類控制
一旦智能機器人歷經(jīng)深度學習后產(chǎn)生自主意識或自主意志且于自主意志支配下實施脫離人類設計及編制程序范圍內(nèi)犯罪行為則面臨著如何承擔刑事責任的問題。目前我國現(xiàn)有的法律體系下需要承擔刑事責任的主體包括單位及自然人,而相較于自然人,智能機器人不具備生命且擁有與人類相似的控制能力及辨別能力,完全存在成為刑事責任承擔主體的可行性[6]。同時,智能機器人具有獨特的兩面性,于設計及編制程序范圍內(nèi)所實施的行為全面體現(xiàn)人類意識且無法自主決定行為目標,其所實施的行為不需要承擔相應責任,而設計及編制程序范圍外所實施的行為體現(xiàn)自身意志,與其他具有刑事責任能力主體所實施犯罪行為無任何差異。
二、人工智能時代刑法應對
(一)行為人故意利用人工智能實施犯罪
除造福人類社會外,科技發(fā)展為不法分子提供可乘之機,促使不法分子利用人工智能技術(shù)實施犯罪行為,一旦具備犯罪意圖的研發(fā)方完全有機會于設計及編制程序過程中植入自身犯罪計劃促使以智能機器人為人工產(chǎn)品代表幫助其自身實現(xiàn)犯罪目標,而上述情況屬于典型行為人故意利用人工智能實施犯罪的情況。針對故意利用人工智能研發(fā)或使用相關產(chǎn)品實施嚴重危害社會的犯罪行為,必須將人工智能產(chǎn)品視為行為人實施犯罪的智能化工具,所有刑事責任由人工智能產(chǎn)品研發(fā)方或使用方全權(quán)承擔,例如:以智能機器人為例研發(fā)方以實現(xiàn)自身殺人意圖為目標設計出“智能殺手”,殺手實施殺人行為則刑事責任由研發(fā)方承擔。
雖然智能機器人通過深度學習形成自主意識及自主意志,但是產(chǎn)生自主意識及自主意志后并非所有行為均全面體現(xiàn)其自主性,尤其是智能機器人于設計及編制程序范圍內(nèi)所實施的行為則認定該行為全面體現(xiàn)研發(fā)方的意識及意志。同時,刑法要求犯罪主體具有刑事責任能力的原因為擁有刑事責任能力的行為人實施行為時具備相對自由的意志,換而言之行為人面臨多種行為選擇時能憑借控制能力及辨別能力實現(xiàn)具體問題具體分析作出選擇實施行為,而智能機器人于設計及編程程序范圍內(nèi)實施行為時不具備選擇行為目標的自由,“智能殺手”自“出生”以來以殺人為其存在意義。