王稅
摘? 要:人工智能技術(shù)的不斷進(jìn)步,既帶來(lái)了新的社會(huì)福利,也帶來(lái)的新的社會(huì)風(fēng)險(xiǎn)。刑法當(dāng)具有前瞻性,及時(shí)調(diào)整《刑法》規(guī)范以應(yīng)對(duì)新的刑事風(fēng)險(xiǎn),但也應(yīng)當(dāng)具有保守性,以謹(jǐn)慎的態(tài)度應(yīng)對(duì)人工智能領(lǐng)域技術(shù)創(chuàng)新,特別是強(qiáng)人工智能,其研發(fā)的合理性本身值得商榷。人工智能的行為不是《刑法》意義上的行為,也不具有刑事責(zé)任能力,所以出于法律穩(wěn)定性和社會(huì)倫理的考量,不宜賦予人工智能刑事主體地位。在行為人利用人工智能的故意犯罪中,應(yīng)當(dāng)追究行為人的刑事責(zé)任,不考慮人工智能的能動(dòng)性。在人工智能過(guò)失犯罪和人工智能失控造成的犯罪中,應(yīng)當(dāng)根據(jù)行業(yè)義務(wù)嚴(yán)格設(shè)定研發(fā)者和使用者的注意義務(wù)。
關(guān)鍵詞:人工智能;刑事責(zé)任能力;刑事主體地位
中圖分類號(hào):D914? ? ?文獻(xiàn)標(biāo)識(shí)碼:A
Analysis of the Criminal Subject Status of Artificial Intelligence and Criminal Law Response
Wang Shui
(Law School,F(xiàn)uzhou University,F(xiàn)ujian,F(xiàn)uzhou,350108)
Abstract:The continuous improvement of artificial intelligence technology has brought not only new social welfare,but also new social risks. Criminal law shall be forward-looking,the criminal norms should be adjusted in a timely manner to cope with new criminal risks. Also, they should be conservative and deal with technological innovations in the field of artificial intelligence with a cautious attitude, especially for strong artificial intelligence,the reasonability of its research and development is worthy of discussion. The behavior of AI is neither in the sense of criminal law,nor has criminal capacity. Therefore,considering legal stability and social ethics,AI should not be endowed with the status of criminal subject. In actors calculated crime by using artificial intelligence,the criminal liability of the actor should be investigated without regard to the initiative of artificial intelligence. In the crimes caused by artificial intelligence negligence and out of control of artificial intelligence,the duty of care of the researchers and users should be strictly set up according to the industrial obligations.
Key words:Artificial intelligence;Criminal capacity;Criminal subject status
一、人工智能刑事主體地位問(wèn)題的緣起
1950年,阿蘭·圖靈發(fā)表了《計(jì)算機(jī)器與智能》一文,從九個(gè)方面論證未來(lái)機(jī)器人是可以思考的智能機(jī)器人,是人工智能領(lǐng)域的開山之作[1]。1997年,IBM公司開發(fā)的深藍(lán)計(jì)算機(jī)擊敗了國(guó)際象棋世界冠軍卡斯帕羅夫;2016年,阿爾法圍棋戰(zhàn)敗了圍棋冠軍李世石,體現(xiàn)了人工智能非凡的能力。人工智能以優(yōu)越的性價(jià)比進(jìn)入家家戶戶,智能窗簾、智能掃地機(jī)、智能音箱乃至無(wú)人汽車等,給人類社會(huì)帶來(lái)極大便利。
但是,風(fēng)險(xiǎn)也離人們更近了一步。2018年3月,Uber的一輛無(wú)人車在行駛時(shí)識(shí)別系統(tǒng)故障,致一人死亡[2]。這并不是第一例無(wú)人車傷人事件,早在1957年就發(fā)生了類似的事件。技術(shù)的不斷革新并不能避免人工智能因故障帶來(lái)的風(fēng)險(xiǎn),人工智能隨時(shí)有可能脫離人的控制,造成人身、財(cái)產(chǎn)的損害,甚至危害公共安全。
在這種情況下,人工智能本身能否承擔(dān)刑事責(zé)任,即人工智能是否能夠是刑事責(zé)任主體成為刑事立法的重要問(wèn)題。有學(xué)者提出,智能機(jī)器人不是人,但必須當(dāng)人看[3]。還有的學(xué)者將智能機(jī)器人進(jìn)一步按強(qiáng)弱劃分,并認(rèn)為強(qiáng)智能機(jī)器人應(yīng)該具有刑事主體地位,承擔(dān)刑事責(zé)任[4]。弱人工智能因具有深度學(xué)習(xí)能力,其脫離控制而實(shí)施的危害行為具有機(jī)器人自身的能動(dòng)性,影響到刑事責(zé)任的分配問(wèn)題[5]。人工智能技術(shù)的發(fā)展,必然會(huì)給現(xiàn)有的法律制度和法律理念帶來(lái)沖擊,人工智能該具有何種刑事法上的法律地位,《刑法》應(yīng)當(dāng)如何應(yīng)對(duì)人工智能帶來(lái)的新刑事風(fēng)險(xiǎn),都值得進(jìn)行進(jìn)一步的研究。
二、人工智能不能成為刑事責(zé)任主體
人工智能本質(zhì)上還是人類一系列算法的產(chǎn)物,其行為不能構(gòu)成《刑法》意義上的行為,不具有刑事責(zé)任能力,貿(mào)然賦予其刑事主體地位會(huì)對(duì)現(xiàn)有法律理論造成破壞,因此人工智能不能成為刑事責(zé)任主體。
(一)人工智能的行為不是《刑法》調(diào)整的行為
《刑法》中的行為究其源頭是黑格爾的哲學(xué)[6],關(guān)于《刑法》中行為的理論,典型的有因果行為論、目的行為論、社會(huì)行為論和人格行為論。不同行為理論對(duì)《刑法》上行為的理解不同,但是其共同點(diǎn)在于,行為是人支配自由意志的行為。有學(xué)者指出,應(yīng)當(dāng)注意應(yīng)然層面和實(shí)然層面的不同,《刑法》未涵蓋但是符合《刑法》中行為的內(nèi)涵和特征的行為,立法者應(yīng)選擇合適時(shí)機(jī)將該行為納入《刑法》規(guī)制的行為范疇[5]。在上述行為理論提出的當(dāng)時(shí),人工智能還只是設(shè)想。因此,人工智能的行為雖不是《刑法》中的行為,但是并不妨礙對(duì)人工智能所實(shí)施行為在《刑法》應(yīng)然層面的探討。
筆者擬將人工智能行為的性質(zhì)分兩類討論。第一種情況是人工智能的行為沒有超出人類的控制能力和預(yù)見能力,造成一定危害的情況。此時(shí),人工智能是人類的工具,是人類行為的延伸,其行為本質(zhì)上仍然是人類的行為。
第二種情況是人工智能超出人類控制范圍,在程序設(shè)定之外實(shí)施的活動(dòng)。人工智能實(shí)施了超出人類計(jì)算和預(yù)期的行為,也就是所謂“強(qiáng)人工智能”的自主行為。有學(xué)者主張,在這種情況下,因?yàn)槿斯ぶ悄芫哂歇?dú)立的意識(shí),不能僅因?yàn)槠洳皇侨耍穸ㄆ湫袨槭恰缎谭ā芬饬x上的行為[7]。這種觀點(diǎn)假設(shè)的是人工智能失控或者超出人類的控制后,實(shí)施嚴(yán)重的危害人身、財(cái)產(chǎn)乃至公共安全的行為,特別是未來(lái)的強(qiáng)人工智能,擁有超出人類程序范圍實(shí)施行為的能力,“完全有可能自主實(shí)施與自然人實(shí)施的行為具有同等社會(huì)危害性的行為”[5]。
筆者在此提出質(zhì)疑,人工智能“為所欲為”的能力是否真的可能存在,亦即“強(qiáng)人工智能”時(shí)代是否如學(xué)者想象的那般具有“獨(dú)立意識(shí)”?筆者堅(jiān)持認(rèn)為,未來(lái)人工智能技術(shù)不管多么發(fā)達(dá),都不可能擁有和人類一般的“獨(dú)立意識(shí)”,其超出人類控制范圍實(shí)施的行為也不能是《刑法》意義上的行為。首先,人類的意識(shí)并不限于獨(dú)立的思考、判斷能力,況且諸如潛能、人腦的運(yùn)作原理等方面,科學(xué)還未能探其究竟。人們有理由相信,在科學(xué)探索出人腦的奧秘之前,強(qiáng)人工智能只是個(gè)想象。其次,人工智能不會(huì)因?yàn)樯疃葘W(xué)習(xí)獲得的類似人類的獨(dú)立的判斷能力而達(dá)到《刑法》中“自由意志”的要求。如前所述,人工智能的“判斷能力”是人類通過(guò)編程和算法賦予的,那么究其本質(zhì),它只能是一種模擬人腦的算法。正如有學(xué)者指出的“人類制造機(jī)器并決定其特性和功能,人類思維和AI永遠(yuǎn)是模擬與被模擬、操控與被操控之間的關(guān)系,人類大腦是AI可以無(wú)限接近但不可逾越的地平線”[8]。
那么該如何評(píng)價(jià)人工智能超出人類控制的行為?筆者首先要提出的是,為了便利,努力研究制造一種可能超出人類控制的智能機(jī)器人是十分危險(xiǎn)的。它將挑戰(zhàn)人類在社會(huì)中的地位,越是智能,對(duì)人類可能的威脅越大。人工智能的行為本質(zhì)上來(lái)源于人類的設(shè)計(jì)、制造,人工智能實(shí)施的危害行為不論是否超出控制,人類都難辭其咎,若將人工智能失控的行為歸罪于機(jī)器人自身,那么將會(huì)無(wú)形中降低人類的注意義務(wù),人類創(chuàng)造的風(fēng)險(xiǎn),卻由機(jī)器人承擔(dān),其后果不難預(yù)見。
(二)人工智能沒有刑事責(zé)任能力
關(guān)于刑事責(zé)任能力的本質(zhì),道義責(zé)任論認(rèn)為,責(zé)任能力的本質(zhì)在于意思決定能力,或者說(shuō)是一種犯罪能力;社會(huì)責(zé)任論認(rèn)為,責(zé)任能力的本質(zhì)是刑罰適應(yīng)能力,或者說(shuō)是一種刑罰能力[9]。
筆者認(rèn)為,人工智能無(wú)論是采取道義責(zé)任論還是社會(huì)責(zé)任論的思路,都不能得出其具有刑事責(zé)任能力的結(jié)論。道義責(zé)任論認(rèn)為,刑事責(zé)任能力的本質(zhì)在于自由的意識(shí)。小野清一郎指出,行為人的道義責(zé)任是以行為人具有意識(shí)倫理性法的規(guī)范、根據(jù)該意識(shí)決定自己和行動(dòng)的能力[9]。在這個(gè)方面,如前所述,人工智能的意識(shí)來(lái)源于研發(fā)者輸入的程序,是非標(biāo)準(zhǔn),也是研發(fā)者事先輸入的,這種意識(shí)究其根源還是人類意識(shí)的體現(xiàn),縱使在人工智能超出人類控制的情況下,也不能與人類的意識(shí)等同。人類不會(huì)創(chuàng)造出一種可以產(chǎn)生新思想的機(jī)器,人工智能只是一種通過(guò)算法的模擬。所以,根據(jù)道義責(zé)任論的觀點(diǎn),人工智能不具有刑事責(zé)任能力。
如果采用社會(huì)責(zé)任論的思路,刑事責(zé)任能力的本質(zhì)是一種處以刑罰的有效性、刑罰適應(yīng)性。劉憲權(quán)認(rèn)為,強(qiáng)人工智能具有感知刑罰痛苦的能力,并且能夠在犯罪的“快感”與刑罰的“痛感”之間進(jìn)行理性權(quán)衡,所以智能機(jī)器人可以作為刑事責(zé)任主體[7]。筆者對(duì)此持懷疑態(tài)度,費(fèi)爾巴哈的“心理強(qiáng)制說(shuō)”主張的“快感”與“痛感”是一種人類情感,而人工智能的感知是一系列算法的“程序輸出”。而且對(duì)機(jī)器人加以處罰,不論是銷毀還是監(jiān)禁,對(duì)人類來(lái)說(shuō)只是在處理一個(gè)機(jī)器而已。因此,筆者認(rèn)為不論采取哪種觀點(diǎn),人工智能都不能承擔(dān)刑事責(zé)任。
除此之外,假如承認(rèn)人工智能的刑事責(zé)任能力,會(huì)造成《刑法》理論的混亂。人工智能本為便利人類而出現(xiàn),它的本質(zhì)是一種工具,若承認(rèn)人工智能“自主”犯罪的情況下的刑事責(zé)任能力,勢(shì)必要承認(rèn)相應(yīng)情況下的權(quán)利,這樣人類創(chuàng)造的人工智能將不僅是一個(gè)工具,而是一躍成為和人類地位相等的主體,這在無(wú)形中減輕了研發(fā)者和使用者的責(zé)任,人類自己創(chuàng)造了危險(xiǎn),卻試圖讓危險(xiǎn)自身?yè)?dān)責(zé),其后果可想而知。
三、人工智能犯罪的《刑法》應(yīng)對(duì)
(一)行為人故意利用人工智能實(shí)施犯罪行為
人工智能的發(fā)展可能會(huì)導(dǎo)致新的犯罪方式的出現(xiàn),即人工智能作為一種隱蔽的、精準(zhǔn)的犯罪工具。研發(fā)者可以為了犯罪設(shè)計(jì)人工智能,使用者可以通過(guò)設(shè)定某種程序讓人工智能“巧妙”地完成犯罪,成為行為人脫罪的手段。這種情況下,人工智能發(fā)揮的是一種工具性的價(jià)值,因?yàn)樗摹笆姑本褪欠缸铮鼘?shí)現(xiàn)的是研發(fā)者或者使用者的意志,而不是人工智能自己的意志,其行為在人類的控制范圍內(nèi),也是不自由的。所以,行為人故意利用人工智能實(shí)施犯罪的,應(yīng)由行為人承擔(dān)刑事責(zé)任。
(二)人工智能研發(fā)者和使用者的過(guò)失責(zé)任
人工智能雖然智能,但是不可避免地會(huì)出現(xiàn)一些脫離原本運(yùn)行計(jì)劃的情形,甚至因此而造成嚴(yán)重的危害后果。根據(jù)劉憲權(quán)學(xué)者的分類,現(xiàn)有科技水平研發(fā)的人工智能仍然是弱人工智能,不能徹底脫離人類的掌控,研發(fā)人員和使用人員仍需負(fù)有監(jiān)管人工智能使之正常運(yùn)行的注意義務(wù)。比如,2018年3月Uber的無(wú)人駕駛汽車因?yàn)樽R(shí)別故障導(dǎo)致一名婦女死亡。根據(jù)美國(guó)在線新聞平臺(tái)Business Insider的報(bào)道,肇事車輛為半自動(dòng)駕駛的車輛,事發(fā)前工程師關(guān)掉了其無(wú)人駕駛汽車的緊急制動(dòng)功能,事發(fā)時(shí)駕車司機(jī)也沒有依道路情況及時(shí)制止汽車的闖黃燈行為,最終導(dǎo)致車禍發(fā)生[2]。本案中,一方面,肇事車輛本身有技術(shù)性缺陷,其緊急制動(dòng)系統(tǒng)被工程師于數(shù)月前關(guān)閉了,這是研發(fā)者的技術(shù)過(guò)失;另一方面,司機(jī)對(duì)于半自動(dòng)駕駛汽車沒有履行人類駕駛員的監(jiān)管義務(wù),是使用者的過(guò)失。二者的過(guò)失共同導(dǎo)致了人工智能交通肇事案件的發(fā)生。
一般情況下,研發(fā)者、生產(chǎn)者設(shè)計(jì)、生產(chǎn)有質(zhì)量缺陷的人工智能本應(yīng)屬于經(jīng)濟(jì)法上涉及產(chǎn)品缺陷責(zé)任的法律規(guī)范范疇。但是,筆者認(rèn)為,缺陷的人工智能產(chǎn)品具有巨大的潛在社會(huì)危害性,刑事法律不能袖手旁觀。刑事立法對(duì)于人工智能的研制、生產(chǎn)的規(guī)定應(yīng)當(dāng)是嚴(yán)密謹(jǐn)慎的,如果將人工智能應(yīng)用于社會(huì),那么設(shè)計(jì)者就應(yīng)當(dāng)竭盡全力地反復(fù)試驗(yàn)、排除致害因素,對(duì)社會(huì)公共安全負(fù)責(zé)。故因人工智能質(zhì)量問(wèn)題及技術(shù)因素造成運(yùn)轉(zhuǎn)的故障導(dǎo)致嚴(yán)重危害社會(huì)的實(shí)害結(jié)果,且研發(fā)人員和使用人員違反了注意義務(wù)的,應(yīng)承擔(dān)相應(yīng)的過(guò)失責(zé)任。
一般認(rèn)為,過(guò)失是對(duì)注意義務(wù)的違反,這種注意義務(wù)包括結(jié)果預(yù)見義務(wù)與結(jié)果回避義務(wù)[10]。在人工智能過(guò)失犯罪中,這一理論同樣適用。所以判定研發(fā)者和使用者的過(guò)失責(zé)任,關(guān)鍵在于對(duì)注意義務(wù)的厘定。關(guān)于人工智能過(guò)失犯罪的注意義務(wù)來(lái)源有法定義務(wù)說(shuō)[11]、行業(yè)義務(wù)說(shuō)[12]以及包括社會(huì)義務(wù)在內(nèi)的綜合義務(wù)說(shuō)[13]。筆者認(rèn)為人工智能領(lǐng)域是一個(gè)新興的領(lǐng)域,行業(yè)義務(wù)較之其他更加具體、專業(yè),更有針對(duì)性,而且與法定義務(wù)和社會(huì)義務(wù)相輔相成,應(yīng)當(dāng)是研發(fā)者、使用者的義務(wù)來(lái)源。
至于對(duì)于預(yù)見可能性的判斷,傳統(tǒng)《刑法》理論的通說(shuō)認(rèn)為,預(yù)見可能性是對(duì)具體危害結(jié)果預(yù)見的可能。筆者認(rèn)為,目前其深度學(xué)習(xí)功能一般不會(huì)超出人類的控制,人工智能具有很強(qiáng)的不確定性,應(yīng)當(dāng)在具體危害結(jié)果預(yù)見可能性的基礎(chǔ)上適當(dāng)降低預(yù)見標(biāo)準(zhǔn),具體的危害結(jié)果的預(yù)見不要求具體到危害結(jié)果的樣態(tài),而是一種籠統(tǒng)的危害結(jié)果,換句話說(shuō),是對(duì)具體于抽象的行為危險(xiǎn)而又略抽象于具體結(jié)果的危險(xiǎn)的預(yù)見,并且這種預(yù)見要求會(huì)隨著人工智能技術(shù)的水平的提高而擴(kuò)展,根據(jù)研發(fā)使用當(dāng)時(shí)人工智能的技術(shù)水平所能預(yù)見到的可能后果判斷研發(fā)者、使用者的預(yù)見義務(wù),并不要求現(xiàn)有技術(shù)已經(jīng)實(shí)際研制出避免該可能后果的有效手段。
(三)人工智能失控造成嚴(yán)重后果
當(dāng)人工智能通過(guò)深度學(xué)習(xí),形成獨(dú)立的分析能力時(shí),很可能出現(xiàn)脫離人類掌控的情形,在這種情況下,如上文所述,有學(xué)者認(rèn)為,未來(lái)人工智能可以依據(jù)自己獨(dú)立的意志,實(shí)施自由的行為,應(yīng)當(dāng)未雨綢繆,在強(qiáng)人工智能時(shí)代到來(lái)之前以及其他條件成熟時(shí),以《刑法》明文規(guī)定的形式,確立人工智能的刑事主體地位,肯定其行為的性質(zhì),由人工智能對(duì)自己的行為承擔(dān)刑事責(zé)任[11]。
筆者對(duì)此持一貫的否定態(tài)度,正如上文論證的,人工智能的行為因其工具的本質(zhì),不能擁有和人類意識(shí)等同的意識(shí),其行為不是《刑法》意義上的行為,也不具有獨(dú)立承擔(dān)刑事責(zé)任的價(jià)值。對(duì)于支持《刑法》重構(gòu)的學(xué)者所設(shè)想的人工智能因自主行動(dòng)能力超出人類控制而造成危害社會(huì)的嚴(yán)重后果的情形,筆者依然主張追究于此失控并造成損害有關(guān)的研發(fā)者、使用者的刑事責(zé)任,理由如下:
第一,人類努力研究擁有自主行動(dòng)能力、但可能脫離人類控制的人工智能的合理性本身就是有待商榷的。強(qiáng)人工智能的確會(huì)給人類帶來(lái)便利,但是弊端可能會(huì)更大。從社會(huì)層面上分析,它們一旦出現(xiàn),會(huì)危及人類的主體地位,顛覆現(xiàn)有社會(huì)秩序,因?yàn)槿祟惿鐣?huì)現(xiàn)有架構(gòu)都是以人為本的。從法律制度上講,倘若人工智能成為法律主體,承擔(dān)刑事責(zé)任,則根據(jù)一貫的權(quán)利義務(wù)相統(tǒng)一原則,勢(shì)必發(fā)展出相應(yīng)的機(jī)器人權(quán),諸如生命權(quán)、財(cái)產(chǎn)權(quán)(機(jī)器人創(chuàng)作的財(cái)產(chǎn))之類,這將是對(duì)法律體系的顛覆,對(duì)人權(quán)的威脅。從人工智能的實(shí)際效用分析,如果研制出可以獨(dú)立思考的、具有獨(dú)立行為能力的人工智能,一旦超出人類的控制,給人類生活會(huì)帶來(lái)更大的不便和危險(xiǎn)。設(shè)想若全自動(dòng)駕駛的汽車問(wèn)世,縱使程序嚴(yán)謹(jǐn),仍然是個(gè)行走的不確定危險(xiǎn),甚至大于人類駕駛的汽車的危險(xiǎn)。所以從以上三個(gè)層面分析,強(qiáng)人工智能時(shí)代未必是人類的福音,強(qiáng)人工智能能否問(wèn)世,取決于人類自身。人類應(yīng)當(dāng)權(quán)衡利弊,就如克隆技術(shù)一般,禁止人工智能技術(shù)在某些領(lǐng)域的研究。所以,強(qiáng)人工智能還是個(gè)未知數(shù),而在可預(yù)期的未來(lái),人工智能并不能完全脫離人類的掌控,所以呼吁賦予人工智能刑事主體地位未免有些杞人憂天。
第二,允許人工智能分擔(dān)刑事責(zé)任有減輕人類自身責(zé)任的嫌疑。贊成人工智能成為刑事責(zé)任主體的學(xué)者已經(jīng)考慮到了利用弱人工智能犯罪時(shí)行為人對(duì)危害行為的實(shí)際作用問(wèn)題,以及強(qiáng)人工智能與自然人共同犯罪及責(zé)任劃分等問(wèn)題,因?yàn)椴徽撌钱?dāng)下的弱人工智能還是未來(lái)可能出現(xiàn)的強(qiáng)人工智能,其自主性的融入使得行為人的作用看起來(lái)不再是100%了[5]。對(duì)于人工智能能動(dòng)性的融入,筆者持否定態(tài)度,若承認(rèn)當(dāng)代弱人工智能在人類控制下實(shí)施危害行為的獨(dú)立貢獻(xiàn),例如承認(rèn)智能武器受行為人支配的情況下實(shí)施犯罪行為的能動(dòng)性,那么相當(dāng)于無(wú)形中提升了人工智能的地位,意味著其發(fā)揮的不再是犯罪工具的價(jià)值,也意味著行為人刑事責(zé)任的降低,還意味著這部分事實(shí)上人類創(chuàng)造的風(fēng)險(xiǎn)轉(zhuǎn)由人工智能承擔(dān)。承認(rèn)強(qiáng)人工智能與自然人共同犯罪的觀點(diǎn)亦是值得商榷的,如果人類制造的機(jī)器人可以獨(dú)立地進(jìn)行犯罪,甚至可以和人類共同故意犯罪,那么研發(fā)者和使用者將難辭其咎。
人工智能的發(fā)展將使得犯罪形式更加復(fù)雜、多樣,對(duì)此《刑法》規(guī)范的調(diào)整應(yīng)當(dāng)注重對(duì)人工智能犯罪的預(yù)防,提升研發(fā)者和使用者的注意義務(wù),在人工智能超出人類控制的情況下,謹(jǐn)慎地認(rèn)定人工智能失控造成的意外事件,而非將刑事責(zé)任推給機(jī)器人。
四、結(jié)語(yǔ)
人類不能賦予人工智能包括刑事法律在內(nèi)的法律主體地位,根據(jù)社會(huì)契約論的觀點(diǎn),人們將與生俱來(lái)的權(quán)利轉(zhuǎn)讓給國(guó)家,而訂立這個(gè)契約的不包括人類制造的機(jī)器。人類的法律應(yīng)由人類遵守,不能輕易把機(jī)器納入法律主體中。機(jī)器不論多么智能,依然是人類制造出來(lái)的“物”,應(yīng)當(dāng)是客體的地位,若僅因?yàn)檫@個(gè)“物”具有一些小聰明就賦予其與人類同等的地位,在筆者看來(lái)是不合理的。人工智能的最高境界是知識(shí)的排列組合,而智慧高于知識(shí),并且由人類獨(dú)有。人類通過(guò)一系列算法賦予人工智能的是“人工的”智能,可以說(shuō)是知識(shí),但并非人類的智慧。如果貿(mào)然地重構(gòu)《刑法》,將造成《刑法》理論和規(guī)范的混亂。而且一旦人工智能擁有刑事責(zé)任能力,那么為了法律上的平等,勢(shì)必要討論賦予人工智能相應(yīng)的權(quán)利,包括實(shí)體權(quán)利和訴訟權(quán)利等,于是人類就會(huì)陷入一個(gè)法律怪圈中。所以,在人工智能超出人類控制的情況下,筆者依然主張追究研發(fā)者、使用者等相關(guān)人員的刑事責(zé)任,以工具的性質(zhì)看待人工智能發(fā)揮的作用,謹(jǐn)慎地認(rèn)定人工智能失控造成的意外事件。
刑事立法應(yīng)該給火熱的人工智能研發(fā)注射一針“鎮(zhèn)定劑”,讓人類冷靜地看待人工智能。筆者對(duì)于人工智能犯罪的相關(guān)問(wèn)題以較為保守的觀點(diǎn)貫穿始終,在刑事立法方面,筆者主張通過(guò)刑事立法,限制人工智能的過(guò)分發(fā)展,特別是慎重對(duì)待“自主意識(shí)”的開發(fā),尤其不能賦予人工智能刑事主體地位;在人工智能過(guò)失犯罪方面,研發(fā)者和使用者的注意義務(wù)是人工智能過(guò)失犯罪追責(zé)的重要標(biāo)準(zhǔn),筆者分析尚淺,這一問(wèn)題仍然值得學(xué)者深入研究。
參考文獻(xiàn):
[1]A.M.Turing.Computing Machinery and Intelligence[J].Mind(236):433-460.
[2]騰訊科技.UberCEO談無(wú)人駕駛汽車撞人案:是我們搞砸了[EB/OL].(2018-11-30)[2019-11-04].https://tech.qq.com/a/20181130/007983.htm.
[3]封錫盛.機(jī)器人不是人,是機(jī)器,但須當(dāng)人看[J].科學(xué)與社會(huì),2015(02):1-9.
[4]劉憲權(quán),房慧穎.如何劃分智能機(jī)器人的刑事責(zé)任?[J].公民與法(綜合版),2018(06):30-31.
[5]劉憲權(quán).人工智能時(shí)代刑法中行為的內(nèi)涵新解[J].中國(guó)刑事法雜志,2019(04):60-72.
[6]陳興良.“無(wú)行為則無(wú)犯罪”——為一條刑法格言辯護(hù)[J].中外法學(xué),1999(05):3-5.
[7]劉憲權(quán),胡荷佳.論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力[J].法學(xué),2018(01):40-47.
[8]張勁松.人是機(jī)器的尺度——論人工智能與人類主體性[J].自然辯證法研究,2017(01):49-54.
[9]陳興良.刑事責(zé)任能力研究[J].浙江社會(huì)科學(xué),1999(06):67-73.
[10]張明楷.刑法學(xué):第五版[M].北京:法律出版社,2016.
[11]劉憲權(quán).人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)[J].法商研究,2018(01):3-11.
[12]儲(chǔ)陳城.人工智能時(shí)代刑法歸責(zé)的走向——以過(guò)失的歸責(zé)間隙為中心的討論[J].東方法學(xué),2018(03):27-37.
[13]葉良芳,馬路瑤.風(fēng)險(xiǎn)社會(huì)視閾下人工智能犯罪的刑法應(yīng)對(duì)[J].浙江學(xué)刊,2018(06):65-72.