張金鋼
(華東政法大學 法律學院,上海 200042)
“計算機之父”馮·諾依曼指出:“技術(shù)正以其前所未有的速度增長……我們將朝著某種類似奇點的方向發(fā)展,一旦超越了這個奇點,我們現(xiàn)在熟知的人類社會將變得大不相同。”[1]當前人工智能技術(shù)的發(fā)展正逼近奇點,自1956年“人工智能”概念進入人類歷史以來(1)1956年夏季,以麥卡賽、明斯基、羅切斯特和申農(nóng)等為首的一批有遠見卓識的年輕科學家在一起聚會,共同研究和探討用機器模擬智能的一系列有關(guān)問題,并首次提出了“人工智能”這一術(shù)語,標志著“人工智能”這門新興學科的正式誕生。,人工智能技術(shù)得到了跨越式的發(fā)展,正以指數(shù)級的速度高速增長,智能機器人已經(jīng)廣泛運用于社會生活、工作和生產(chǎn)等領(lǐng)域。在過去的幾年,諸多人們設想的場景都已逐步實現(xiàn):Alpha-Go(圍棋人工智能程序)戰(zhàn)敗頂尖棋手,自動駕駛技術(shù)日漸成熟,“機器人”群體在日常大眾生活中發(fā)揮的作用越來越大……“智能時代,未來已來”[2],同時也引發(fā)了關(guān)于人工智能安全問題的擔憂,人工智能是否成為人類“最后的發(fā)明”(2)據(jù)2014年英國廣播公司的報道,著名物理學家霍金表示,“人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件”,“人工智能的全面發(fā)展可能導致人類的滅絕”[3-4]。?
人工智能技術(shù)狂飆突進,我們應該理性分析人工智能的發(fā)展對社會的影響,系統(tǒng)評估它的整體發(fā)展趨勢和效應。2017年7月20日國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》強調(diào),我國應當加快人工智能與現(xiàn)行法律制度的結(jié)合,在法律制度框架的約束和指引下充分發(fā)揮其功用,并防范其弊端。有理由預見,在不遠的將來,諸多領(lǐng)域的各式各樣的智能機器人將成為人類社會中司空見慣的事物。“圣人不治已病治未病,不治已亂治未亂。”筆者認為,切勿忽略人工智能技術(shù)發(fā)展所引發(fā)的相關(guān)刑事風險問題。“具有自主意識與意志的智能機器人是否可以成為刑事責任的承擔主體,是否具有刑事責任能力?”[5]的確,在時代巨變的態(tài)勢下,應謹慎應對人工智能技術(shù)發(fā)展所引發(fā)的新的刑事風險,通觀其態(tài)勢,審度其價值,進而尋求解決之道。
“智能機器人是人工智能技術(shù)的結(jié)晶,人工智能技術(shù)的核心就是通過模擬人類的神經(jīng)網(wǎng)絡,利用算法和程序?qū)Υ髷?shù)據(jù)加以深度學習。”[6]具有深度學習能力的智能機器人為人類開啟了一個新的進步維度,同時,對此類智能機器人的行為進行法律評價也觸發(fā)了新的難題。其難點首先在于,當智能機器人隨著人工智能技術(shù)的不斷發(fā)展開始逐漸脫離管控,將會導致什么樣的難題?
如何使人們在充分享受人工智能技術(shù)創(chuàng)新與發(fā)展成果的同時,最大限度地預防和控制人工智能技術(shù)給全社會帶來的刑事風險,是刑法需要研究解決的重要問題。時下,關(guān)于智能機器人的責任問題,民法領(lǐng)域的眾多學者已經(jīng)在研究這個難題,而在刑法領(lǐng)域討論才剛剛開始。如果智能機器人造成了具有刑法意義的結(jié)果(例如有人死亡或受傷,或者物品遭到毀壞),就會產(chǎn)生刑事責任問題:誰是行為人?誰承擔刑法上的罪責?是智能機器人背后的人——使技術(shù)發(fā)揮其作用的研發(fā)者與使用者?還是智能機器人本身?亦或無人承擔刑責,因為公眾原則上希望開發(fā)并利用此類技術(shù),因此也必須承擔其(部分的)不可預測性帶來的后果?下文概要介紹智能機器人所引發(fā)的刑事責任的可能理由及其界限,旨在探討前述問題。
眾所周知,刑法是為人制定的,如果行為人的行為導致了構(gòu)成要件所描述的結(jié)果,那么該結(jié)果就要歸責于該行為人。如果行為人能夠認識到其行為的不法性,也能夠以可期待的方式避免,卻仍然故意或者過失滿足了犯罪構(gòu)成要件,也即符合構(gòu)成要件的不法行為的非難可能性,那么刑法上的罪責則由行為人承擔。然而,我們已經(jīng)看到,具備深度學習能力的智能機器人也可以具有學習能力,并且至少能夠在引申的意義上“自主地”行動,那么智能機器人能否也像人一樣可以受刑事處罰?在開始尋求這個問題的最終答案之前,我們可以簡單回顧一下有關(guān)對非人類進行刑法懲戒的經(jīng)驗和設想。通過考察人類刑法的歷史發(fā)現(xiàn),罪責與刑罰并非由人類所壟斷。在過去的數(shù)個世紀中,直至啟蒙時期,刑法曾經(jīng)歷過并非完全以人類為中心進行構(gòu)建的時期,比如刑法史有關(guān)于歐洲近代早期針對動物的刑事訴訟程序和刑罰的記載,一起比較晚近的動物訴訟相傳發(fā)生在巴塞爾(1474年):審判對象是一只公雞,其被指控下了一個蛋,蛋中孵出了一只蛇精。這只巴塞爾的公雞和其他被判決的動物一樣,被判處死刑。隨著社會的進步和人們思想觀念的更新,針對動物的刑法也走到盡頭,自此以后,動物不再被等同于人,而是被作為“物”對待。
依照現(xiàn)代意義上的理解,機器和動物一樣不具有人的法律地位,它們不被當作自主的生命體,因為它們是以被定義好的方式發(fā)揮功能。但是在科幻作品中我們總能發(fā)現(xiàn)端倪,表明原本被設想為人類助手的機器或許還能夠做得更多,逐漸演化成人的智能機器人,一再成為科幻小說的主題。早在1950年,科幻作家艾薩克·阿西莫夫就形象地闡述了機器的法律人格問題。在小說《我,機器人》中,阿西莫夫提出了規(guī)范人與機器人之間(上下等級)關(guān)系的“機器人三定律”(3)第一,機器人不能傷害人類,也不能在人類受到傷害的時候置之不理;第二,機器人必須遵守人類發(fā)出的命令,只有當該命令違背第一定律的時候除外;第三,機器人必須保護自己,除非與第一、第二定律相沖突。。在許多科幻影片中,有著更強自主意識的機器人同樣扮演了重要角色,最典型的例子當屬史蒂文·斯皮爾伯格執(zhí)導的影片《人工智能》中的智能機器人——男孩大衛(wèi),它滿懷悔意地向它的人類媽媽保證會改過——就像經(jīng)典人物匹諾曹那樣,以便能夠回到家中,這些作品描述的智能機器人都學會了發(fā)展自我意識、感覺,可以產(chǎn)生自主的意識和意志。
“觀念的范圍是貧乏、不完善的,知識的范圍比觀念范圍更狹窄。”[7]在大眾的預設理解下,智能機器人不具備獨立的法律主體地位。同時,行為、刑事責任等這樣的概念,一直被認為是無法適用于機器的,即便是具備深度學習能力、具有辨認和控制能力的智能機器人能自主地進行活動,但是因其不能劃歸到刑法當中的行為,對機器人進行刑事責任的歸屬都不具有可行性[8-10]。可以說,此種觀點和結(jié)論是將智能機器人承擔刑事責任的可能性先驗地予以完全排除。“而這一結(jié)論又是以傳統(tǒng)理論未預見到人工智能技術(shù)會取得如此大的進展為前提的。”[11]
“法律要為智能機器人的發(fā)展提供有效創(chuàng)新激勵,就必須正確回應智能機器人對法律主體理論帶來的諸多挑戰(zhàn)。”[12]一些學者認為:“人工智能的認知和決定能力是人類賦予的,是依賴于人類的辨認能力和控制能力而存在的,是一種與人類能力相區(qū)別的擬制的能力。”[13]另外一些學者認為:“智能機器人是人類模擬自身神經(jīng)網(wǎng)絡創(chuàng)造出來的事物,比世界上任何事物都更類似于人,刑法應當尊重其自由意志,適時考慮賦予其法律上的主體資格。”[14]面對人工智能這一新興產(chǎn)業(yè),“法治不僅僅是考慮當下,也要考慮未來”[15]。“目前,在機器人的權(quán)利主體地位上,歐盟議會法律事務委員會(JURI)已經(jīng)就機器人和人工智能提出了立法提案,擬采用‘擬制電子人’的方式,賦予機器人法律主體地位。”[16]“2016年2月,美國國家公路安全交通管理局認定谷歌無人駕駛汽車采用的人工智能系統(tǒng)可以被視為司機。”[17]國內(nèi)也有論者指出:“人工智能具有獨立自主的行為能力,有資格享有法律權(quán)利并承擔義務,人工智能應具有法律人格。”[18]毋庸置疑,人類與智能機器人共存與發(fā)展已經(jīng)成為我們不可回避的趨勢,簡單地反對或阻止智能機器人可作為受刑事處罰的主體往往適得其反。有學者認為:“技術(shù)發(fā)展到一定程度后必然會有精神,如果技術(shù)發(fā)展更加智慧,它就會像大腦一般成為精神的更好載體。”[19]“智能機器人和自然人一樣,完全可能具有自主的意識和意志。智能機器人雖然是由人類設計和編制的程序組成的,同時也因為人類在其‘體內(nèi)’設計和編制的程序使其具有了思考和學習的能力,這種能力使得智能機器人可以產(chǎn)生自主的意識和意志。例如,打敗圍棋世界冠軍的Alpha-Go能夠在人類設計和編制的程序之下通過學習而掌握圍棋技術(shù)從而贏得比賽。”[5]正如雷·庫茲韋爾(Ray Kurzweil)在《人工智能的未來:揭示人類思維的奧秘》中所談論的:“當機器說出它們的感受和感知經(jīng)驗,而我們相信它們所說的是真的時,它們就真正成了有意識的人。”[20]
“刑法規(guī)范是一種結(jié)果,而不是一種前提,刑法要從社會中尋找。”[21]在這個意義上,刑法學不僅僅包括對刑法規(guī)范本身的研究,同樣包括對刑事法律與社會控制的諸多方面社會現(xiàn)象的研究。縱觀刑法的發(fā)展歷史,犯罪類型由自然犯發(fā)展到法定犯,犯罪主體由自然人發(fā)展到單位法人,這些都是刑法順應社會轉(zhuǎn)型的進化成果。
同時,刑法上的“人”有其規(guī)范意義,法律中“人”的概念并不等同于自然意義上的生命體,是其作為權(quán)利和義務的集合體,有其規(guī)范性。例如,《刑法》規(guī)定未滿14周歲的未成年人和完全不能辨認和控制自己行為的精神病人所實施的危害行為都不是犯罪行為,不能進行刑事責任歸責,從此意義上來說,他們都不是刑法意義上的人,而單位之所以是獨立的犯罪主體,可以承擔刑事責任,其根本原因是因為單位作為承載了自然人集體權(quán)利和義務的組織,被擬制為刑法上的“人”。正如有學者所言:自然人并不是自然現(xiàn)實而只是法律思想的構(gòu)造,自然人和法人都是法律權(quán)利和義務的統(tǒng)一體而成為了法律上的人[22]。由此觀之,刑法所規(guī)制的“人”并不以生物性為根本特征,而是具有刑法規(guī)范意義上的“法律人”。也即,刑事主體的賦予并不要求具備全部生物特征,核心要素的判斷才是關(guān)鍵,當智能機器人在算法的支持下,借助數(shù)據(jù)和計算,能夠像人一樣進行自我思考,感知外界變化并進行獨立的行動,擁有具備大腦所有功能的電子腦,與人一樣有了自我獨立意志,能自主支配自己外在機體,或者借助其他外在工具作出能夠影響客觀世界的行為,即成了行為自由的主體。智能機器人能夠進行編程之外的自主行為,通過算法獲得規(guī)范意識支配下的自由意志,雖然該行為受控于智能機器人內(nèi)部的集合數(shù)據(jù),且數(shù)據(jù)來源于研發(fā)設計者、操作者,但智能機器人卻不直接受控于設計者、研發(fā)者、操作者,這也是智能機器人能夠成為刑事責任主體的必要條件,是刑法所要求的“理性人”的存在,理應被賦予刑事主體資格。因此,“在舊的理論無法回答新時代所帶來的問題之時,我們所需要做的就是對舊理論加以改造和完善。將智能機器人納人刑事責任主體范圍之內(nèi)并非是沒有理論依據(jù)的,只需要我們在舊理論的基礎上灌以新的血液,就能回答人工智能時代所提出的新的疑問。”[23]
如果肯定具有自主意識和意志的智能機器人可作為受刑事處罰的主體,隨之而來的難題就是智能機器人的刑事責任問題。無論在我國還是在大陸法系國家,行為人具有刑事責任能力才成立犯罪,然后才產(chǎn)生刑事責任問題。同時,學界通常認為刑事責任能力的有無又是行為主體能否成為刑事責任主體的必備要素。“刑事責任能力是指行為主體承擔刑事責任的能力,體現(xiàn)為行為主體辨認和控制自己行為符合規(guī)范要求的能力,包括行為人認識不法與否的認識能力,以及在此基礎上控制自己行為的控制能力。”[24]智能機器人作為人工智能技術(shù)發(fā)展的代表和結(jié)晶,如上文所述,能夠深度學習,可產(chǎn)生自主意識和意志,具有辨認和控制能力,完全具備承擔刑事責任的資格。但是不可忽視的問題是,要注意具備辨認和控制能力的智能機器人的刑事責任呈現(xiàn)兩面性的特征。一種情況是智能機器人在編程內(nèi)實施行為時,其實現(xiàn)和執(zhí)行的是人的意志而非自主的意志,不具有辨認能力和控制能力,因此不承擔刑事責任。在另外一種情況下,由于智能機器人在編程外實施行為時,其實現(xiàn)和執(zhí)行的是自我生成的自主意志,應承擔刑事責任。
如前所述,當智能機器人執(zhí)行的是自我生成的自主意志,并在意志支配下從事了犯罪活動,與研發(fā)設計者、操作者的意志和主觀內(nèi)容無關(guān),可以理解為智能機器人的犯罪活動超出了研發(fā)設計者、操作者的意志,此時可以將智能機器人的行為舉動認定為“前臺亮相者”的自主行為,那么據(jù)以將之歸責于“隱身后臺者”(開發(fā)者和操作者)的因果關(guān)系就會中斷,在此種情況下,智能機器人的開發(fā)者和操作者將不產(chǎn)生相關(guān)刑事責任分擔的問題。但不可否認的是,在大多數(shù)情況下,智能機器人在設計和編制的程序范圍內(nèi)進行獨立判斷并自主作出決策,體現(xiàn)的仍然是人類的意志而非自主意志,如果這種情況下不能令智能機器人承擔刑事責任,那么我們將面臨一個緊迫問題:在何種條件下,智能機器背后的人可以以及必須為智能機器人的錯誤行為擔責?例如,如果智能軍事機器人向無辜的民眾開火,或者智能無人駕駛汽車造成其他交通參與者傷亡,那么這些智能機器人的制造者或使用者是否應受刑罰處罰?“人是主體,他既能創(chuàng)造,也應該能夠控制,道義上也有責任控制自己的創(chuàng)造物。”[25]就目前我國刑法而言,我們將從以下兩個方面和角度,確立差別化的責任規(guī)則和歸責原則,以此來厘清和確定智能機器人開發(fā)者和操作者的刑事歸責原理。
1.基于故意的可罰性
不可否認的是,“智能機器人可能通過深度學習產(chǎn)生自主意識和意志,但即使是在產(chǎn)生自主意識和意志之后,也不是每個行為都能體現(xiàn)自主意志。如果智能機器人是在設計和編制的程序范圍內(nèi)實施行為,那么應當認為此時該行為體現(xiàn)的是研發(fā)者的意志”[14]。如果智能機器人引起了刑法意義上的結(jié)果(例如人被殺或受傷或者物品遭到毀壞),而這又是由于智能機器人的開發(fā)者或操作者刻意或者在明知的情況下設定程序,借助智能機器人實現(xiàn)構(gòu)成要件,那么開發(fā)者或操作者應作為直接正犯承擔刑事責任。比如,指令官故意操縱智能軍事機器人殺害平民,或者無人駕駛汽車被研發(fā)者故意設定程序令其碾壓道路上的騎車人,這樣的情形下可以徑行確定,危害結(jié)果系由智能軍事機器人操縱者或無人駕駛汽車的研發(fā)者一手造成,他們應當作為相關(guān)犯罪構(gòu)成要件中的行為人承擔責任,因為他們是在利用——無論是多么智能化的——智能機器人,就像常人根據(jù)自身意愿使用一件工具一樣,相當于開發(fā)者或操作者實施犯罪行為的“智能工具”。這對按照自己意圖操縱智能機器的人來說,實際上是直接故意,可以理解為智能機器人的“隱身后臺者”——開發(fā)者或操作者,直接借助智能機器人的“手”實施了犯罪行為,因此,此種情況下將刑事責任直接歸責于智能機器人的開發(fā)者或操作者,并相應地予以科處刑責并無不妥。
2.基于過失的可罰性
然而,更為常見的情形是,智能機器人造成了人們并不希望的損害:智能軍事機器人的操縱者只想打擊預定的軍事目標,卻因機器人功能失靈而偏離軌道殺死了平民;智能無人駕駛汽車本應當遵守相關(guān)交通道路行駛規(guī)則,但卻違規(guī)并在十字路口撞傷騎車人,在這些情況下,只能基于過失考慮,對智能機器人的開發(fā)者或操作者進行刑事責任歸責和刑事處罰。“近代西方刑法關(guān)于過失犯罪之立法肇始于古羅馬法。在羅馬法中,過失犯之處罰,在于行為人疏忽而未認識行為之違法性,或由于行為人之錯誤,致未認識其行為之結(jié)果,凡此均可因有所需要之注意而得以避免。”[26]根據(jù)《刑法》第15條第1款,過失犯罪的成立是以對預見義務的違反為前提的,也即“應當預見但沒有預見”,“已經(jīng)預見而輕信能夠避免”。同時,義務與責任是緊密相聯(lián)的,“沒有責任就沒有刑罰(責任主義)是近代刑法的一個基本原理”[27]。而且我國刑法以懲罰故意犯罪為原則,以懲罰過失犯罪為例外。
在人工智能技術(shù)迅猛前進的時代背景之下,智能機器人的開發(fā)者或操作者在開發(fā)和操作智能機器人的過程中對預見義務的違反,為智能機器人的應用提出了新的課題。一般而言,這種預見義務的違反就源自結(jié)果的可預見性:當一個人認識到,他的行為可能造成對某種受刑法保護利益的侵害,卻仍然我行我素,那么其行為通常也就違背了預見義務。此種義務不但涵蓋法律、相關(guān)規(guī)章制度所劃定的義務,還涵射日常生活準則所要求的義務。義務規(guī)范為一般人所設,無需具體規(guī)定。換而言之,如果智能機器人實施的危害行為,是因為智能機器人的開發(fā)者或操作者的疏忽大意所導致的,且智能機器人的開發(fā)者或操作者可能利用當時的人工智能技術(shù)知道會導致這一特定危害后果的可能性,那么開發(fā)者或操作者應承擔相應的刑事責任。比如,智能軍事機器人的開發(fā)者由于編程疏忽或者操作者在使用過程中沒有按相關(guān)說明操作,對維護人類生命沒有采取相關(guān)預防、限制措施,則編程開發(fā)者和操作者要對智能軍事機器人的行為負責。“已經(jīng)預見”并不是真正的有認識,這種認識的程度十分有限,只是曾預見過危害結(jié)果發(fā)生的可能性,可以說其認識通常是模糊不清的。眾所周知,人工智能機器人的研制和開發(fā)是精細復雜的,在開發(fā)者或操作者可以避免危害結(jié)果的發(fā)生的情況下,如果智能機器人的開發(fā)者或操作者完全可以利用現(xiàn)有人工智能技術(shù),對智能機器人進行審慎的制造與編程、深入的測試以及持續(xù)的關(guān)注,“預見”到了智能機器人可能在未來實施犯罪行為并導致相應的危害結(jié)果,但輕信在現(xiàn)有的人工智能技術(shù)下這種危害結(jié)果是能夠避免的,那么則符合“已經(jīng)預見并輕信能夠避免”的情況,屬于過于自信的過失。
“調(diào)控技術(shù)的發(fā)展并不通過決定性的個別現(xiàn)象,而是依據(jù)已建立的規(guī)范的秩序基礎,而這些規(guī)范的秩序基礎又是特別通過法律和社會道德建立起來的。”[28]展望未來,人工智能無疑將是人類最具開放性的創(chuàng)新,人類社會應當鼓勵創(chuàng)新,與此同時,如果刑法過分干預,則會使前沿技術(shù)萎縮,同時給人類帶來的利益也可能會被消解掉,智能機器人的開發(fā)和操作亦是如此。
“歸責的判斷明顯是屬于規(guī)范的。然而只有在特殊情況下,有效的可宥理由的介入才排除責任。”[29]在僅僅存在過失的場合,可能會在可預見性以及結(jié)果歸責的層面出現(xiàn)問題。人工智能機器人,其決策行為并非總是可以預測的,因此對于開發(fā)者或操作者來說,智能機器人的錯誤行為的可預見性是有疑問的,同時因為人工智能技術(shù)的高度復雜性,也使得結(jié)果歸責的證明變得幾乎不可能。正如法諺所云:法律不強人所難,智能機器人作為人工智能技術(shù)發(fā)展的代表和結(jié)晶,這一技術(shù)自身是高度復雜的,同時這個領(lǐng)域中風險非常之高并且難以控制,即便是在經(jīng)過了開發(fā)、調(diào)試、制造之后的應用階段,由于受到一定地域內(nèi)人工智能技術(shù)發(fā)展進程和階段的制約,當前還不能杜絕人工智能技術(shù)的弊端,會陷入無法預測的事態(tài)當中,此時如果將與此相聯(lián)的不可避免的風險轉(zhuǎn)嫁給開發(fā)者和操作者,這是不公平的。因此,在這種情況下,即便客觀上造成了損害結(jié)果,也不能夠追究相關(guān)人員的刑事責任。
基于過失的可罰性并非要求人們必須放棄任何可能具有風險的行為,就智能機器人的開發(fā)和操作而言,如前所述,這個領(lǐng)域中風險非常之高并且難以控制,如果刑法過于積極地介入,那么刑責的威懾有可能導致(至少某些)智能機器人的開發(fā)和操作——由于缺少可控性——完全停滯甚至終止。這樣的結(jié)果雖然贏得了安全,卻損失了大量能為人們的生活帶來巨大便利的創(chuàng)新應用。任何科學技術(shù)的發(fā)展都不是以人的意志為轉(zhuǎn)移的,如果我們拒絕,必將被歷史的車輪甩在后面。
人工智能技術(shù)方興未艾,是目前科技發(fā)展的前沿與熱點問題,隨著人工智能時代的來臨,人類必將迎來人工智能技術(shù)飛速發(fā)展的時代。人工智能既是人類文明,亦有社會風險,“人工智能超越人類智能的可能性,人工智能產(chǎn)生危害后果的嚴重性,以及人工智能技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成法律以及其他規(guī)范防止風險的必要性”[30]。
無論是霍金等科學家們的警告,還是各界人士的創(chuàng)意性思考,都說明人工智能的挑戰(zhàn)是深刻的、全方位的。“人工智能技術(shù)的發(fā)展給人類社會帶來了極大的利益,但也帶來了相應的風險,刑法對相關(guān)行為進行必要規(guī)制具有正當性。”[31]所謂無規(guī)矩不成方圓,人工智能技術(shù)發(fā)展迅猛,應在法律制度框架的約束和指引下充分發(fā)揮其功用,并防范其弊端,在智能機器人研發(fā)應用的風險性與刑事歸責的合理性之間尋求平衡:一方面,保障必要的激勵,以在人工智能時代的“美麗新世界”中盡可能廣泛地遏制可控的刑事風險;另一方面,開發(fā)和利用自主行動的智能機器人所帶來的諸多可能性,而無需擔憂不可洞悉的刑法后果。
人工智能時代,智能機器人的刑事責任問題的探究具有社會現(xiàn)實背景與刑法規(guī)范意義。當前,我國刑法理論界對于智能機器人刑事責任問題的研究還處于眾說紛紜的階段,遠沒有達成共識,如何應對智能機器人帶來的刑事責任認定的挑戰(zhàn),以及如何認定智能機器人與相關(guān)人類主體之間的刑事責任歸屬與承擔,均是當前討論最富爭議性的話題,同時也是亟須解決的法律難題。從當前來說,并不存在一個清晰明了的解決方案,本文更多的目的在于提出問題,引起人們的關(guān)注和思索,共同尋找并論證妥適的刑事歸責方案。