(貴州民族大學(xué) 貴州 貴陽 550000)
在2016年谷歌公司研發(fā)的“阿爾法狗”與圍棋世界冠軍李世石圍棋人機(jī)大賽中,阿爾法狗以總成績4:1戰(zhàn)勝了李世石,引發(fā)了一系列的有關(guān)人工智能的思考與擔(dān)憂。劉憲權(quán)認(rèn)為一個全新時(shí)代的到來,對傳統(tǒng)的法律理念和原有的法律法規(guī)無疑沖擊最大,而我們面臨的人工智能時(shí)代,同樣也會給我們帶來一系列的法律應(yīng)對和完善的問題。[1]
人工智能時(shí)代以人工智能技術(shù)為實(shí)質(zhì),人工智能技術(shù)學(xué)習(xí)人類的思考方式,分析人類神經(jīng)系統(tǒng)基礎(chǔ)上,使計(jì)算機(jī)系統(tǒng)對數(shù)據(jù)進(jìn)行學(xué)習(xí)并且思考,使得計(jì)算機(jī)系統(tǒng)能夠進(jìn)行分析、判斷以及決策。詳細(xì)來講,個人認(rèn)為人工智能可能出現(xiàn)三大問題,一、人工智能將產(chǎn)生新的犯罪方式、方法。二、人工智能的出現(xiàn)使此前犯罪行為的危害性逐漸增大。三、人工智能的進(jìn)步進(jìn)而使得可能將來獨(dú)立實(shí)施犯罪。
人工智能的工作原理是利用人工設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)以及一系列編碼程序,對大量數(shù)據(jù)進(jìn)行精確分析,從而獲得辨認(rèn)甚至決策等技能。從最高人民法院、最高人民檢察院出臺的司法解釋中看出,我國刑法及司法實(shí)踐重點(diǎn)保護(hù)用于維護(hù)信息系統(tǒng)自身功能的、以訪問控制為主要考慮的數(shù)據(jù),沒有對數(shù)據(jù)自身內(nèi)容功能上的價(jià)值與保護(hù)的必要性。[2]
科技永遠(yuǎn)是把雙刃劍,當(dāng)每一次技術(shù)更新的時(shí)候,人們的效率會得到質(zhì)的飛躍,但與此同時(shí)帶來的問題也會更多,劉憲宗曾在相關(guān)論文中論述過,互聯(lián)網(wǎng)技術(shù)的快速發(fā)展雖然不會使得所有傳統(tǒng)犯罪都“升級”,但是確實(shí)會使得部分傳統(tǒng)犯罪的危害性發(fā)生“量變”。[3]
機(jī)器人是人工智能產(chǎn)品的代表。美國著名科幻作家阿西莫夫曾提出“機(jī)器人三原則”,即“機(jī)器人不得危害人類、必須服從人類的命令、在不違反第一條和第二條的情況下必須保護(hù)自己”。[4]但這些原則真的能束縛住機(jī)器人嗎?一旦機(jī)器人學(xué)會了像人類一樣思考的話,它便擁有了自己的思考能力以及決策意識,在人類編程之外獨(dú)立實(shí)施他想要去操作犯罪行為,對此人類就需要獨(dú)立承擔(dān)刑事責(zé)任了。
以機(jī)器人為代表的人工智盡管可能不斷深度學(xué)習(xí)產(chǎn)生自主意識和意志,并在此意志和意識來獨(dú)立實(shí)施嚴(yán)重危害社會的犯罪行為,這時(shí)機(jī)器人已經(jīng)具備刑法中犯罪主體的主觀條件,的確應(yīng)該承擔(dān)對應(yīng)的刑事責(zé)任,單單通過我國現(xiàn)行刑法對智能機(jī)器人的犯罪行為進(jìn)行定罪是很難做到的。
研發(fā)者利用人工智能故意實(shí)施犯罪行為。科技進(jìn)步為人類帶來便利的時(shí)候也為某些人實(shí)施犯罪行為提供機(jī)會,假如研發(fā)者個人創(chuàng)造人工智能是為了實(shí)現(xiàn)自己的計(jì)劃,利用智能機(jī)器人或者人工系統(tǒng)實(shí)現(xiàn)犯罪的目的。此時(shí)人工智能系統(tǒng)便是一種工具,所以此時(shí)的刑事責(zé)任應(yīng)該由其設(shè)計(jì)者來承擔(dān)。當(dāng)然此時(shí)還有一個更重要的問題就是可能出現(xiàn)一些認(rèn)識錯誤的情況,假如利用機(jī)器人去殺人的話,由于程序上出現(xiàn)了某些漏洞并沒有能夠殺死某人此時(shí)便構(gòu)成了故意殺人未遂,理由在于手段利用錯誤。其次還有另外一種情況,如你想設(shè)計(jì)一種機(jī)器人其最初目的是讓其幫助你殺死甲,但是中途智能機(jī)器人產(chǎn)生了混亂,從而殺死了乙或者丙,這在刑法中典型錯誤在智能機(jī)器人身上也不是不可能發(fā)生的。
我們知道,在過失中還會存在“疏忽大意的過失”以及“過于自信的過失,此時(shí)如果構(gòu)成犯罪是不是應(yīng)該成立有關(guān)人工智能過失犯罪的某些罪名呢?
國家允許生產(chǎn)機(jī)器人并將其投放市場,必須制定人類現(xiàn)有科學(xué)技術(shù)水平所能夠企及的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),符合標(biāo)準(zhǔn)的便不屬于缺陷產(chǎn)品,其所導(dǎo)致的危險(xiǎn)便不屬于“不合理的危險(xiǎn)”。因?yàn)槿魏我豁?xiàng)技術(shù)當(dāng)出現(xiàn)重大突破時(shí)會有這樣或者那樣的缺陷在當(dāng)時(shí)無法發(fā)現(xiàn),以此為思路,研發(fā)者便沒有故意或過失的主觀心態(tài),那么此時(shí)便不再可能追究研發(fā)者的刑事責(zé)任。
在如今刑法對于人工智能存在一定滯后性的情況下應(yīng)盡快考慮著手有關(guān)方面的規(guī)劃和補(bǔ)充,就此技術(shù)而言,使得人工智能技術(shù)的設(shè)計(jì)和利用處于一種安全的范圍中,即使人工智能可能變革原有犯罪行為,產(chǎn)生新的犯罪形式,甚至只能機(jī)器人獨(dú)立實(shí)施犯罪行為,可以說在此情況下濫用人工智能技術(shù)將會比任何時(shí)候犯罪的危害性更大。
智能機(jī)器人將可能在將來某一天擁有類似于人的辨認(rèn)能力和控制能力,也可以在人類社會中自己獨(dú)立實(shí)施某些犯罪行為,對此筆者考慮可以將刑事責(zé)任主體增加機(jī)器人(具有辨認(rèn)和控制能力)理由如下:
首先,智能機(jī)器人在設(shè)計(jì)程序范圍外實(shí)施行為完成的是其自己的意志,而意志存在是對于刑事責(zé)任能力認(rèn)定的重要依據(jù)。以單位犯罪來說,對于單位應(yīng)否成為刑事責(zé)任主體爭論的核心就在于“單位能否像自然人一樣,從而實(shí)施犯罪行為,并且具有犯罪的意識和意志,是否有承擔(dān)刑事責(zé)任的能力”。[5]德國費(fèi)爾巴哈學(xué)者曾說:“只有個人才能成為犯罪的可能的主體,而法人(如公司、大學(xué)或者學(xué)院等)決不可能成為犯罪的主體。[6]因此與單位進(jìn)行比較可以明顯發(fā)現(xiàn),智能機(jī)器人比單位有更加高意志和自由,完全有可能脫離人類產(chǎn)生獨(dú)立的意識,相對于單位來說,其運(yùn)作方式和方法都是仿照人類思考方式,刑法應(yīng)該考慮其意志自由性,考慮賦予其法律上的主體地位。
其次,智能機(jī)器人的行為完全可能成為法律意義上的行為。歷史上關(guān)于行為的理論由自然行為論、因果行為論、目的行為論等。這些行為理論普遍地認(rèn)為只有“人”的行為才可能成為法律意義上的“行為”。
綜上,筆者認(rèn)為,人類既然有能力去創(chuàng)造一個前所未有的人工智能技術(shù),那么便有理由去利用好它,我們必須重視人工智能有關(guān)刑事責(zé)任的問題,要建立嚴(yán)格的人工智能設(shè)計(jì)嚴(yán)格審批制度,從源頭上對這些風(fēng)險(xiǎn)加以防控或許是一個較為明智的選擇。因此,刑法需要在其他法律法規(guī)對人工智能產(chǎn)品的研發(fā)和使用過程作出具體規(guī)定的基礎(chǔ)上,將其中嚴(yán)重危害社會的行為納入規(guī)制的范圍。