陳偉丹 李方遠
關(guān)鍵詞 弱人工智能 刑事責任主體 獨立意識
作者簡介:陳偉丹,廣東工業(yè)大學政法學院,本科,研究方向:法學;李方遠,廣東工業(yè)大學政法學院。
中圖分類號:D924 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2020.05.221
西方哲學家說過:“技術(shù)發(fā)展到一定程度后必然會有精神,如果技術(shù)發(fā)展更加智慧,它就會像大腦一般成為精神的更好載體?!?人工智能作為一種新興技術(shù),在交通、醫(yī)療、金融領(lǐng)域的應(yīng)用效果顯著,給人類帶來許多便利。目前人工智能技術(shù)還暫處于弱人工智能階段,該階段的人工智能體只在編制的程序區(qū)域內(nèi)具有超常的技術(shù)或操作,比如戰(zhàn)勝李世石、柯潔等圍棋世界冠軍的AlphaGo,但除了下圍棋外,該人工智能在其他領(lǐng)域一無所知。隨著AI不斷發(fā)展,出現(xiàn)了數(shù)起AI犯罪之后,刑法領(lǐng)域?qū)θ斯ぶ悄艿难芯咳找媾d起,目前已有不少學者對人工智能法律主體提出批判,并形成了“工具說”“電子奴隸說”等多種學說。
筆者認為,雖然人工智能在計算、分析問題等方面的能力超過人類,但是其畢竟不具有同自然人一樣的獨立意識,僅僅是局限于人類控制下的弱人工智能。對于弱人工智能是否應(yīng)該列為刑事主體,以下將以此展開討論。
在日常生活中人工智能可以進行更高效率的數(shù)據(jù)收集、分析,幫助人類構(gòu)建舒適、安全和高效率的智慧環(huán)境。但是人工智能就是一把雙刃劍,帶來便利的同時,也會帶來風險,如2017年紹興破獲全國首例利用AI人工智能犯罪,在美國也發(fā)生了因自動駕駛而引發(fā)的交通事故……面對這把雙刃劍,我們該如何應(yīng)對?對此,犯罪主體作為犯罪行為實施者與刑事責任的承擔者,是刑法中必須厘清的概念。筆者認為,從自主意識、理性決策等方面考慮,決定賦予AI刑事主體資格是不可行的。
(一)不具有實質(zhì)性的情感和獨立意識
羅素和諾維格指出,人工智能具有像人一樣思考、行動的工具、合理地思考、合理地行動四個方面。 可見,未來人工智能的目標是具有像人類一樣的思維和理性。
如今,人工智能的能力令人驚嘆,但是人工智能的判斷只是邏輯運算的結(jié)果,而人類的意識并不是僅僅通過邏輯運算產(chǎn)生的結(jié)果。人工智能雖然在某些方面可以模擬人類的感情,但是其不懂得人類生命的意義。首先弱人工智能不能像人一樣進行外界的認知,只會做出客觀的認知,而人會帶有一定的主觀判斷;其次是情感過程,人工智能基于認知是不會產(chǎn)生相應(yīng)的情感,產(chǎn)生特定的意志過程。如邊沁所說,人活在快樂與痛苦的主宰之下。 人會有思想,情緒,價值判斷等等,基于這些情感會引發(fā)不同的行為,但弱人工智能不會受這類因素而影響其后續(xù)的行為,人工智能全都是基于編寫好的程序,接收到相應(yīng)的信息后,根據(jù)固有的算法、特定的程序完成相應(yīng)的判斷,做出特定的行動。那么可見弱人工智能是沒有能力在超出程序的范圍進行自主的信息處理并作出自主的行動。可見其意志并非獨立,不能產(chǎn)生權(quán)利義務(wù)意識,而是控制在由人編寫的程序中。
(二)不具備獨立承擔責任的能力
人工智能缺乏獨立意識,它也沒有承擔責任的能力。另外,如果人工智能的犯罪“責任”由機器人承擔,而利益由研發(fā)者或者使用者享受,那么無疑是與保護、發(fā)展人工智能的立法初衷相違背。
責任能力分為辨認自己行為的能力和控制自己行為的能力,但因此來確定其是責任主體是不恰當?shù)摹F┤?,在我國,不滿16周歲的未成年人同樣有辨認能力和控制能力,但其一般認為他們不具有刑事責任能力,因為社會不認同其具有刑事責任能力。這解釋在人工智能上,也是恰當?shù)摹N覀兪峭高^外界來斷定一個人是否有自由意思。因此,目前人工智能還無法被人類認同具有自由意思而為刑事主體。
同樣地,以黑猩猩為例,在美國紐約最高法院的一起“為黑猩猩申請人身保護令”訴訟中,法院收到了一項重要的科學專家證據(jù):人類和黑猩猩的DNA相似率接近99%;他們和人類在大腦結(jié)構(gòu)和認知發(fā)展方面有相似之處,包括交流技能的平行發(fā)展 ;黑猩猩也表現(xiàn)出自我意識,能在鏡子、照片和電視上認出自己,并有能力對自己的行為進行反思;他們表現(xiàn)出同情他人的能力,與他人的經(jīng)歷和情感相協(xié)調(diào),并模仿他人;他們的行為方式反映了道德傾向??梢?,在自然意義上的辨認外界環(huán)境以及控制自身行動上,其認知能力、意志能力甚至比某些狀態(tài)下的人類還要強。但是,法院最終否認了黑猩猩的法律人格,這是因為它表現(xiàn)出來的辨認和控制能力同人工智能一樣不具有社會意義,社會對之成為主體資格并不認同,對之像自然人般歸責沒有規(guī)制意義。另外,人工智能責任的承擔、對其科以刑罰,會使得人類的責任被讓渡,因此部分減少了人類的責任,這使得責任性被社會忽視,對于社會而言是沒有足夠的威懾力的。
(三)刑罰的不適應(yīng)性
刑罰的真正目的是懲罰犯罪,預(yù)防犯罪。一般認為,“犯罪預(yù)防是刑罰的目的,是刑罰正當化的根據(jù),為刑罰發(fā)動提供了積極理由”。
在中國大陸主要的刑罰有財產(chǎn)刑,自由刑以及生命刑,刑罰的嚴厲程度依次上升。在弱人工智能看來,它本身并不擁有任何獨立財產(chǎn),更不用在人工智能身上適用財產(chǎn)刑了。自由刑是在一段時間內(nèi)限制罪犯的自由,令其改過自新,同時也能夠給其帶來一定的煎熬和痛苦,使得不敢再犯達到特殊預(yù)防的效果,且長時間的自由刑對人的生理和心理都是極大的考驗。而弱人工智能是一個程序,則更不會有限制自由一說,其并沒有達到刑罰的目的,因為對其限制自由并不會給人工智能帶來痛苦。人工智能也不具有生命,所以生命刑也是無從談起。可以看出我們現(xiàn)有的刑罰體系對于人工智能來說不具有適應(yīng)性,對人工智能實施刑罰達不到我們的刑罰目的。因此通過現(xiàn)行刑法無法規(guī)制弱人工智能,無法實現(xiàn)法律作用。我們沒有辦法通過對人工智能科以刑罰而指望其遵守法律,人工智能的意識只是人的意識,最后真正受處罰的還是機器背后的人,就如同法人離不開背后的人,人類仍然是最終的責任承擔主體。
關(guān)于人工智能的主體地位在前文已經(jīng)闡述證明,人工智能應(yīng)以主體以外的客觀對象而存在?,F(xiàn)階段的弱人工智能,仍停留在為人所用的階段,可以說只能作為工具,嚴格來說,人工智能犯罪的實質(zhì)是人類犯罪,通過這個視角可以解決大部分涉人工智能犯罪的問題。筆者將圍繞“犯罪工具屬性”的人工智能犯罪模式以及其刑事責任歸責機制展開敘述。
(一)維持傳統(tǒng)責任主體故意犯罪的規(guī)制
現(xiàn)實中,看似機器人犯罪事件,諸如自動駕駛汽車交通肇事事件……本質(zhì)是人類犯罪。人工智能故意犯罪是指研發(fā)者故意在弱人工智能系統(tǒng)中植入與該犯罪行為有關(guān)的程序去實施犯罪或者使用者故意改造并且利用人工智能的特定行為創(chuàng)造便利條件去犯罪。此種類型的故意犯罪中,人工智能被作為犯罪“工具”來使用,就如殺人犯中的刀、寵物主人發(fā)布一定指令讓其寵物狗去咬人。該情況下,人工智能是間接正犯,那么該研發(fā)者可以被認定為正犯來追究責任。人工智能由此引發(fā)的刑事責任都應(yīng)當由研發(fā)者承擔。
(二)構(gòu)造過失犯罪的懲罰規(guī)制
在絕大多數(shù)情況下,人工智能不會破圍引起犯罪結(jié)果或者損害結(jié)果發(fā)生。但是也存在程序錯亂、偏離指令的情況。在刑法理論中,對于過失犯罪處罰的前提是違反了注意義務(wù)。以駕駛自動汽車為例,如果研發(fā)員在人工智能投入市場使用之前沒有對其進行質(zhì)量檢測,違反了應(yīng)有的注意義務(wù),在機器適用期間發(fā)生了檢測時沒有預(yù)料到的風險時,在可能的情況下要對產(chǎn)品進行召回,如果制造者并未履行這一義務(wù),就要對風險產(chǎn)生的危害結(jié)果承擔責任。同樣的,人工智能使用者使用前未履行檢查機器是否有明顯的故障的義務(wù),就需要對該后果承擔刑事責任。
但是將不可預(yù)料的風險降低至零,也是不可能完全做到的。那么當研發(fā)者、使用者都履行了注意義務(wù)還是避免不了事故發(fā)生的時候該如何規(guī)定呢?這個時候,不妨運用比例原則,將AI所帶來的利益和此風險,以及社會公眾能否容忍此風險繼續(xù)存在下去進行權(quán)衡,想必,結(jié)果就很清晰了。
就現(xiàn)階段而言,人工智能離達到主體地位的差距仍然很大。我們可以對此有一定的憂慮,但現(xiàn)在就將人工智能定位刑事主體仍為時尚早。不可否認,人工智能已經(jīng)和我們的生活息息相關(guān),但是現(xiàn)在我們更應(yīng)該考慮的是如何在發(fā)展階段就讓人工智能不會逾越法律的邊界,在開始就將人工智能限定在一定的范圍內(nèi),將人們制造人工智能進行更為嚴格的限定,這會比新增一個刑事主體更為簡便。防患于未然,也不失為一種更好的選擇。
注釋:
PhilMcNally,SohaiInayatullay著.機器人的權(quán)利——二十一世紀的技術(shù)、文化和法律(上)[J].邵水浩,譯.世界科學,1989(6).
韓旭至.人工智能法律主體批判[J].安徽大學學報(哲學社會科學版),2019(4).
[美]羅素,[美]諾維格著.人工智能:一種現(xiàn)代的方法(第3版)[M].殷建平,等,譯.北京:清華大學出版社,2013:3.
[英]邊沁著.道德與立法原理導(dǎo)論[M].時殷弘,譯.北京:商務(wù)印書館,2000:57.
儲陳城.人工智能可否成為刑事責任主體[N].檢察日報,2018年4月19日,第3版.
紐約法院為一對黑猩猩頒布了人身保護令[EB/OL].https://www.cnbeta.com/articles/deep/387303.htm,2020年4月11日訪問.
郝英兵.刑事責任論[M].北京:法律出版社,2016:序言7.