【摘 要】 新時(shí)代人工智能技術(shù)多角度多方面推動(dòng)社會(huì)的發(fā)展,因此受到許多行業(yè)的熱捧,許多企業(yè)家紛紛投資此領(lǐng)域。人工智能行業(yè)興盛的同時(shí),也帶來一系列負(fù)面問題,機(jī)器人傷人、殺人案件自上個(gè)世紀(jì)就開始出現(xiàn),越來越大的死傷數(shù)據(jù)使得人們陷入恐懼,人工智能會(huì)不會(huì)犯罪?構(gòu)成犯罪誰承擔(dān)責(zé)任?人工智能未來能否擺脫人類控制滅絕人類?我們需不要阻止人工智能的發(fā)展?一系列的問題讓公眾對(duì)人工智能技術(shù)有了新的更深層次的審視。目前國(guó)外許多國(guó)家已經(jīng)制定出相應(yīng)的機(jī)器人刑法,專門針對(duì)可能或已經(jīng)發(fā)生的機(jī)器人傷人事件,我國(guó)目前并未對(duì)機(jī)器人犯罪作出相應(yīng)的法律規(guī)定,以至于實(shí)踐中發(fā)生機(jī)器人傷人事件時(shí)無從下手。本文主要針對(duì)機(jī)器人的危害行為進(jìn)行分析,解決人工智能與刑事責(zé)任的關(guān)系,從而進(jìn)一步為上述四個(gè)問題尋求答案。
【關(guān)鍵詞】 人工智能 刑事責(zé)任 工具屬性 自主意識(shí)
一、人工智能的定義
根據(jù)智能程度,人工智能可分為弱人工智能,強(qiáng)人工智能和超人工智能。弱人工智能是指具有某些推理能力和解決特定問題能力的智能機(jī)器或系統(tǒng)。在弱人工智能階段,只關(guān)注完成特定任務(wù),如語音識(shí)別、圖像識(shí)別和翻譯,是一種擅長(zhǎng)單一方面的人工智能,類似于先進(jìn)的仿生學(xué)。它們僅用于解決特定具體類的任務(wù)問題,其中大部分是統(tǒng)計(jì)數(shù)據(jù),從中總結(jié)了模型。Google的AlphaGo和AlphaGo Zero是典型的“弱人工智能”,充其量只是一款出色的數(shù)據(jù)處理器。 雖然他們可以擊敗國(guó)際象棋領(lǐng)域的世界級(jí)冠軍,但AlphaGo和AlphaGo Zero只會(huì)下棋,這是一種在單一游戲中表現(xiàn)出色的人工智能。如果弱人工智能只是復(fù)雜的數(shù)據(jù)處理者,那么強(qiáng)人工智能可以獨(dú)立地識(shí)別、思考、推理、創(chuàng)造和解決人類等問題。強(qiáng)人工智能其認(rèn)知能力和智商與人類相當(dāng)。 對(duì)于這種人工智能水平,我們無法通過圖靈測(cè)試將其與人類區(qū)分開來,并且在認(rèn)知和存在意義上它們與人類沒有區(qū)別。 超人工智能其認(rèn)知能力,計(jì)算能力和智商遠(yuǎn)遠(yuǎn)超過人類指數(shù)水平。 它們的存在將類似于電影終結(jié)者對(duì)天網(wǎng)的描繪,它將成為上帝般的存在,它的能力也遠(yuǎn)遠(yuǎn)超過人類的認(rèn)知范圍,它可以摧毀或統(tǒng)治人類。超人工智能意味著人工智能已經(jīng)越過了“奇點(diǎn)”并打破了人腦限制。它的計(jì)算和思考能力遠(yuǎn)遠(yuǎn)超過人類,并且它比所有領(lǐng)域中的人類大腦更聰明。目前,世界正處于弱人工智能階段,隨著技術(shù)的發(fā)展,未來幾十年進(jìn)入強(qiáng)人工智能時(shí)代是可能的結(jié)果。
二、人工智能帶來的刑法問題
隨著人工智能水平的提升,人工智能的設(shè)計(jì)者正在嘗試賦予機(jī)器人獨(dú)立思維的能力,科技發(fā)展的同時(shí)也帶來一系列法律問題。例如,1978年9月,世界上第一起機(jī)器人殺人事件發(fā)生在日本廣島,工廠的切割機(jī)器人意外地導(dǎo)致值班工人當(dāng)場(chǎng)死亡。不僅日本,德國(guó)也發(fā)生過類似的殺人案件,事件的發(fā)生引發(fā)了世界的恐慌和反思。這些慘痛的事實(shí)解決了第一個(gè)問題,機(jī)器人(人工智能)會(huì)犯罪,但因機(jī)器人特殊的身份,如果觸犯刑法該如何判處,是否可以承擔(dān)刑事責(zé)任?
(一)弱人工智能與刑事責(zé)任
在弱人工智能時(shí)期,即在我們當(dāng)前時(shí)期,弱人工智能的技術(shù)發(fā)展水平還沒有達(dá)到模擬人腦意識(shí)的水平。人工智能犯罪大多存在兩種情況,第一種情況是,行為人(設(shè)計(jì)者、使用者)利用人工智能實(shí)施犯罪,造成了嚴(yán)重危害社會(huì)的結(jié)果。皮勇教授認(rèn)為,受人類控制的人工智能系統(tǒng)不具有獨(dú)立的主體性,不應(yīng)承認(rèn)其犯罪主體地位。如果犯罪分子將這些技術(shù)與互聯(lián)網(wǎng)平臺(tái)和大數(shù)據(jù)技術(shù)結(jié)合使用,極為容易威脅計(jì)算機(jī)信息系統(tǒng)的安全性,導(dǎo)致公民個(gè)人信息的泄露。在這種情況下,第三方行為人才是犯罪行為執(zhí)行的領(lǐng)導(dǎo)者,人工智能產(chǎn)品直接作為犯罪工具對(duì)受害者采取行動(dòng)。由于人工智能具有工具屬性,在這種情況下,第三方行為者承擔(dān)刑事責(zé)任。具體依據(jù)的刑法條文根據(jù)現(xiàn)有的罪名進(jìn)行處罰。第二種情況是,由于人工智能產(chǎn)品本身的缺陷,特別是智能系統(tǒng)的操作失敗,會(huì)對(duì)社會(huì)造成嚴(yán)重危害。國(guó)家立法和實(shí)踐調(diào)查了有缺陷產(chǎn)品的死亡和受傷責(zé)任,并經(jīng)歷了從民事賠償?shù)叫淌轮撇玫倪^程。瑕疵產(chǎn)品造成的死亡和傷害的法律性質(zhì)犯罪發(fā)生的最直接原因是行為的非法性和社會(huì)危害程度超出了刑法的容忍范圍。同時(shí),雖然人工智能產(chǎn)品直接影響受害者,但人工智能產(chǎn)品不能對(duì)此結(jié)果負(fù)責(zé),因?yàn)樗鼈兪恰笆挛铩保覀儠?huì)考慮相關(guān)人的責(zé)任。因?yàn)樯a(chǎn)者、所有者、使用者或管理者負(fù)有對(duì)產(chǎn)品的預(yù)見和監(jiān)督義務(wù),所以在可預(yù)見范圍內(nèi)其是危害結(jié)果的責(zé)任人。根據(jù)《刑法》第三章的有關(guān)規(guī)定,按照具體的法律依據(jù)被定罪和判刑。當(dāng)然在設(shè)計(jì)和應(yīng)用過程中無法預(yù)見危害結(jié)果的發(fā)生,可作為意外事件處理,不追究相關(guān)人的責(zé)任。
(二)強(qiáng)人工智能與刑事責(zé)任
未來,人工智能技術(shù)將不斷完善,人工智能可以似人一樣獨(dú)立識(shí)別、思考、推理、創(chuàng)造和解決各類問題,成為真正意義上人類級(jí)別的人工智能。那個(gè)時(shí)候它是一個(gè)像自然人一樣的刑事責(zé)任主體嗎?是否像自然人一樣具有刑事責(zé)任主體地位?與自然人(這里指的是達(dá)到法定年齡,具有責(zé)任能力,有生命特征)相比,智能機(jī)器人由程序設(shè)計(jì)和編制而成,不具有生命特征,并不能等同于自然人。隨著人工智能技術(shù)的不斷發(fā)展,智能機(jī)器人越來越像“人”。像自然人一樣,機(jī)器人可能具有自主意識(shí)和意志。雖然機(jī)器人是由人類設(shè)計(jì)和編制的程序組成的,但是由于人類在其“體內(nèi)”設(shè)計(jì)和編譯的程序,使它具有思考和學(xué)習(xí)的能力,這使智能機(jī)器人能夠產(chǎn)生自主行為和意志。
在強(qiáng)人工智能階段,主要涉及三種犯罪行為,一種是在設(shè)計(jì)和編制程序范圍內(nèi)實(shí)施行為時(shí),智能機(jī)器人不承擔(dān)刑事責(zé)任。另一種情況是,隨著人工智能技術(shù)的發(fā)展,智能機(jī)器人未來可能無法控制,當(dāng)行為在設(shè)計(jì)和編程程序的范圍之外實(shí)現(xiàn)時(shí),智能機(jī)器人的行為實(shí)現(xiàn)了自身意志而不是他人意志,因此可以成為刑事責(zé)任的主體。一旦智能機(jī)器人符合刑事責(zé)任實(shí)體的資格,當(dāng)它犯下嚴(yán)重危害社會(huì)的罪行時(shí),它當(dāng)然可以承擔(dān)刑事責(zé)任。第三種情況是,自然人與人工智能合作犯罪,或者自然人欺騙人工智能,人工智能基于錯(cuò)誤認(rèn)識(shí)在設(shè)計(jì)和編程程序的范圍之外實(shí)施了犯罪行為。此時(shí),應(yīng)考慮共犯問題,根據(jù)共犯規(guī)定,智能機(jī)器人和自然人根據(jù)主從關(guān)系分擔(dān)刑事責(zé)任,不僅追究智能機(jī)器人的刑事責(zé)任,還要追究智能機(jī)器人的開發(fā)者,用戶或管理者等自然人的刑事責(zé)任,杜絕逃脫一切責(zé)任。
(三)超強(qiáng)人工智能與刑事責(zé)任
超人工智能意味著人工智能已經(jīng)越過了“奇點(diǎn) ”,打破了人腦限制。它的計(jì)算和思考能力遠(yuǎn)遠(yuǎn)超過人類,并且它比所有領(lǐng)域中的人類大腦更聰明。這是一個(gè)極為恐怖的時(shí)期,人類此時(shí)與超強(qiáng)人工智能相比,處于弱勢(shì)地位,由統(tǒng)治者變?yōu)槿斯ぶ悄艿谋唤y(tǒng)治者,此時(shí)人類文明滅絕了,也就不存在刑事責(zé)任問題。當(dāng)然機(jī)器人失去控制,是科幻大片常會(huì)出現(xiàn)的情況,現(xiàn)實(shí)中還是個(gè)未知數(shù), 所有人無法預(yù)知結(jié)果。為了提前預(yù)防,杜絕這種被動(dòng)局面。在現(xiàn)階段,刑法應(yīng)當(dāng)關(guān)注這個(gè)問題,在國(guó)際上達(dá)成共識(shí),就像克隆人的禁止問題。國(guó)內(nèi)規(guī)制生產(chǎn)、設(shè)計(jì)企業(yè),立法上進(jìn)行約束,提前進(jìn)行防御。科學(xué)界沒人否認(rèn)超強(qiáng)人工智能時(shí)代的到來,只是時(shí)間早晚問題。最終以什么方式出現(xiàn)時(shí)科學(xué)家需要探討的問題。當(dāng)它出現(xiàn)并造成了我們的損害,該怎么辦?不要以人類法律制度作為出發(fā)點(diǎn),要擺脫人類中心主義,擺脫人類視角。當(dāng)強(qiáng)人工智能時(shí)代到來時(shí),可能定規(guī)則的并不是我們?nèi)祟悺嗳环裾J(rèn)是有問題的,未來法該如何設(shè)定需要發(fā)揮我們的想象力。
三、對(duì)待人工智能技術(shù)的態(tài)度
在給國(guó)家領(lǐng)導(dǎo)的公開信中,科學(xué)家們指出,自主武器被認(rèn)為是繼火藥和核武器之后的第三次武器革命。目前人工智能技術(shù)的發(fā)展使得一些自動(dòng)武器能夠在幾年而不是幾十年內(nèi)完成,大大縮短了實(shí)現(xiàn)時(shí)間。已故的物理學(xué)家斯蒂芬﹒霍金在他的一生中多次表示人工智能可以摧毀人類。即使是硅谷的“鋼鐵俠”艾倫馬斯克也是人工智能的反對(duì)者。他在2014年表示,人類應(yīng)該警惕人工智能,因?yàn)樗鼈儽群宋淦鞲kU(xiǎn)。去年8月,他率先簽署了一份聯(lián)合公開信,敦促聯(lián)合國(guó)采取措施禁止發(fā)展殺人機(jī)器人,擔(dān)心人工智能可能引發(fā)第三次世界大戰(zhàn)。這些極具社會(huì)影響力的人士如此反對(duì)人工智能的發(fā)展是根據(jù)一定的事實(shí)作出的行為,2018年2月,韓國(guó)科學(xué)技術(shù)研究所(KAIST)開設(shè)了一個(gè)人工智能武器實(shí)驗(yàn)室,用于開發(fā)配備致命武器的人工智能機(jī)器人。即所謂的“殺手機(jī)器人”。如果該“殺手機(jī)器人”研制成功,造成的后果可想而知,所以據(jù)《南華早報(bào)》報(bào)道,4月4日,來自全球28個(gè)國(guó)家和地區(qū)的50多位頂級(jí) AI專家宣布,他們將抵制 KAIST并終止與該研究所的所有合作。抗議直到它停止開發(fā)自己的武器。在公開信發(fā)布后,KAIST面臨壓力,宣布新開放的實(shí)驗(yàn)室將不參與任何自主武器系統(tǒng)和殺手機(jī)器人的開發(fā),國(guó)際AI專家的抵制活動(dòng)也隨之結(jié)束。
與科學(xué)實(shí)驗(yàn)中使用的人工智能不同,軍事情報(bào)武器面臨更殘酷和客觀的戰(zhàn)爭(zhēng)。人工智能運(yùn)用到軍事中比任何領(lǐng)域都要危險(xiǎn),大規(guī)模的軍事智能武器作戰(zhàn)很有可能導(dǎo)致人類的滅絕。此時(shí),人們將懷疑人工智能是否可以在未來擺脫人類的控制和消滅人類。我們需不要阻止人工智能的發(fā)展?從理智方面講,人工智能已深入人們的生活過程中,要想全面將人工智能撥出,已不可能完成,前面已說道,世界正處于弱人工智能時(shí)代,所以機(jī)器人沒有自主意識(shí),一切按照程序進(jìn)行,此時(shí)不必過于擔(dān)憂,正常使用人工智能即可,不需要消滅人工智能。人工智能正常發(fā)展,未來很有可能進(jìn)入強(qiáng)人工智能階段,此時(shí)機(jī)器人在一定程度上同人類似,開始有自主意識(shí),這時(shí)候就要加以限制,對(duì)智能機(jī)器人的功能和程序就要加以控制,減少潛在的危險(xiǎn)性。至于超強(qiáng)人工智能時(shí)代,機(jī)器人很可能反過來統(tǒng)治人類,這是極為恐怖的,要采取一切可能的手段杜絕進(jìn)入超強(qiáng)人工智能時(shí)代,這也告誡研發(fā)人工智能的專家們不要讓人工智能無限制發(fā)展,正常服務(wù)人類即可。科學(xué)技術(shù)的發(fā)展日新月異,法律,特別是刑法的制定,需要很長(zhǎng)時(shí)間。如果一個(gè)超級(jí)智能機(jī)器人出現(xiàn)并且可以在自治的情況下獨(dú)立地做出決策和實(shí)施行為,那么人類就不再具備控制智能機(jī)器人行為的能力,并且可能由強(qiáng)大的智能機(jī)器人控制。因此,我們有必要考慮通過立法來控制人工智能技術(shù)的快速發(fā)展,同時(shí)采取一定的風(fēng)險(xiǎn)防控措施,以防止問題發(fā)生。
四、人工智能犯罪刑罰體系的構(gòu)建
在沙特阿拉伯首都利雅得舉行的“未來投資倡議”大會(huì)上,“女性”機(jī)器人索菲婭被授予沙特公民身份。她也因此成為史上首個(gè)獲得公民身份的機(jī)器人,相信繼沙特阿拉伯之后會(huì)有更多的國(guó)家加入到該行列。法律賦予機(jī)器人索菲亞公民身份,這是立法上一個(gè)重要里程碑,它擴(kuò)大了公民的解釋范圍,使得非自然出生的機(jī)器人獲得公民的資格,自然也相應(yīng)享有公民權(quán)利和公民義務(wù),此處指的是民事上的責(zé)任。如果未來索菲亞實(shí)施了危害社會(huì)和個(gè)人的行為,就如同2015年美國(guó)科幻電影《機(jī)器姬》中的高級(jí)人工智能機(jī)器人艾娃,假裝愛上前來秘密研究所對(duì)其進(jìn)行測(cè)驗(yàn)的男人,教唆男人改編研究所安全系統(tǒng),并成功殺害創(chuàng)造她的科學(xué)家逃出研究所混入人類世界,該影片看完只留下驚恐和戰(zhàn)栗,對(duì)于索菲亞和艾娃的犯罪行為,刑法可以對(duì)其進(jìn)行規(guī)制么?過去對(duì)人工智能或機(jī)器的理解是它們代替人類做一些(智力型)的工作,現(xiàn)在的人工智能大多融入了社會(huì)學(xué)、心理學(xué)、哲學(xué)等學(xué)科知識(shí),使其能夠有意識(shí)開展自己的思維,具備一定的控制能力。因此刑事法律對(duì)此需要密切關(guān)注。
(一)制定和完善與人工智能相關(guān)刑法規(guī)定
1.探尋處理人工智能刑法問題的依據(jù)
我國(guó)刑法中的犯罪主體是指實(shí)施危害社會(huì)的行為、依法應(yīng)當(dāng)負(fù)刑事責(zé)任的自然人和單位。《中華人民共和國(guó)刑法》第 17 條、第 18 條、第 19 條等多處規(guī)定表明,我國(guó)刑法中的犯罪主體僅限于自然人和單位,而決不能是人和單位以外之物。假設(shè)我們將人工智能實(shí)體界定為物,當(dāng)發(fā)生侵害人類重大法益的刑事案件時(shí),目前的《刑法》無法追究人工智能刑事責(zé)任,法官對(duì)其認(rèn)知倘若停留在傳統(tǒng)意義上的“機(jī)器產(chǎn)品”,則可能將該案件轉(zhuǎn)為民事訴訟,最后適用《產(chǎn)品質(zhì)量法》對(duì)研發(fā)者、銷售者或使用者判定承擔(dān)經(jīng)濟(jì)賠償責(zé)任。但若將人工智能體設(shè)定為特殊的刑事主體,當(dāng)發(fā)生侵權(quán)行為時(shí),人工智能體通過獨(dú)立承擔(dān)刑事責(zé)任的特殊刑罰體系對(duì)其施以懲罰,可以有效地達(dá)到預(yù)防人工智能犯罪的目的。執(zhí)行超出設(shè)計(jì)和編程程序范圍行為的智能機(jī)器人具有識(shí)別和控制的能力,因此這些智能機(jī)器人也應(yīng)被視為負(fù)有責(zé)任。與單位相比,執(zhí)行設(shè)計(jì)和編程范圍之外的操作的智能機(jī)器人更“直接”。它不需要以其他主體的意愿來表達(dá),更類似于自然人的刑事責(zé)任。機(jī)器人索菲婭被授予沙特公民身份就表明機(jī)器人也可以當(dāng)作人看待,將來作為承擔(dān)刑事主體也具有可能。
刑法規(guī)制人工智能需注意兩個(gè)方面。一方面,傳統(tǒng)罪名應(yīng)與時(shí)俱進(jìn),可通過客觀解釋、擴(kuò)張解釋的方法來應(yīng)對(duì)人工智能帶來的新風(fēng)險(xiǎn)。例如,在聊天機(jī)器人詐騙案中,聊天機(jī)器人能在微信、婚戀網(wǎng)站中假裝成各種美女,同時(shí)與多個(gè)對(duì)象聊天,批量“談戀愛”,批量實(shí)施詐騙。聊天機(jī)器人作為新型詐騙工具,其行為仍能通過現(xiàn)有的詐騙罪法條進(jìn)行解釋。當(dāng)人工智能深入學(xué)習(xí),能獨(dú)立作為犯罪主體后,其實(shí)施的傳統(tǒng)犯罪也完全可以用現(xiàn)有的法條進(jìn)行規(guī)制。另一方面,逐步設(shè)立新罪名,應(yīng)對(duì)新型犯罪。如開發(fā)以實(shí)施危害為目的智能機(jī)器人,當(dāng)傳統(tǒng)罪名無法與之對(duì)應(yīng)時(shí),法律應(yīng)創(chuàng)設(shè)新罪名。同時(shí),在構(gòu)建智能機(jī)器人懲罰系統(tǒng)時(shí),必須遵循以下三個(gè)原則:第一,罪刑相適應(yīng)原則。罪刑相適應(yīng)原則的基本含義主要是懲罰的嚴(yán)重程度必須與犯罪的嚴(yán)重程度相一致,也就是說,犯罪社會(huì)的危害程度決定了刑罰的嚴(yán)重程度,重罪是嚴(yán)懲,輕罪則輕微受到懲罰。第二,目的導(dǎo)向原則。目的導(dǎo)向原則是指刑罰的構(gòu)建和設(shè)置必須符合懲罰的目的,如果懲罰的目的是為了防止犯罪,包括消除犯罪者的人身危險(xiǎn),使犯罪者改變邪惡并做好事,那么成為懲罰適用基礎(chǔ)的犯罪必須在主客體之間統(tǒng)一起來。第三,節(jié)儉性原則。智能機(jī)器人的存在在一定程度上促進(jìn)了經(jīng)濟(jì)社會(huì)生活的快速發(fā)展。
2.創(chuàng)設(shè)適合人工智能的刑罰方式
目前,中國(guó)刑法建立的刑罰制度主要由主刑和附加刑構(gòu)成,顯然,這些刑罰種類僅針對(duì)自然人而設(shè)計(jì),且僅能適用于自然人(罰金刑可以適用于單位)。懺悔,道歉,損害賠償?shù)确菓土P措施具有強(qiáng)烈的自然人色彩,這些刑罰種類均難以適用于人工智能產(chǎn)品。從懲罰的目的來看,很難與人工智能產(chǎn)品聯(lián)系起來,無論是報(bào)應(yīng)還是預(yù)防。因此,可以為機(jī)器人創(chuàng)建一種新的懲罰方式,劉憲權(quán)教授提出適用于智能機(jī)器人的刑罰可以有三種,即刪除數(shù)據(jù)、修改程序、永久銷毀。所謂的數(shù)據(jù)刪除是指刪除智能機(jī)器人依賴進(jìn)行犯罪行為的數(shù)據(jù)信息,相當(dāng)于刪除智能機(jī)器人的“犯罪記憶”。使其恢復(fù)到實(shí)施犯罪行為之前的狀態(tài)。所謂的修改程序是指當(dāng)數(shù)據(jù)被多次刪除時(shí),還不能防止機(jī)器人主動(dòng)獲得可能進(jìn)行犯罪行為的“負(fù)面數(shù)據(jù)”。也就是說,當(dāng)智能機(jī)器人不能被引導(dǎo)時(shí),它被迫修改其基本程序,并且其獲取外部數(shù)據(jù)和深度學(xué)習(xí)的能力被限制在由程序設(shè)置的特定范圍內(nèi)。它從根本上被剝奪了犯罪行為的可能性。這意味著智能機(jī)器人的深度學(xué)習(xí)功能將是不完整和有限的,不能再獲得人類程序范圍之外的數(shù)據(jù),因此不可能產(chǎn)生超出人類意志的自我獨(dú)立意志。所謂永久銷毀,意味著當(dāng)刪除數(shù)據(jù)并且修改程序不能降低犯下該罪行的智能機(jī)器人的個(gè)人風(fēng)險(xiǎn)時(shí),換句話說,智能機(jī)器人的深度學(xué)習(xí)過程已經(jīng)很長(zhǎng),并且在長(zhǎng)期的實(shí)踐和成長(zhǎng)過程中形成了程序性的“反刪除能力”和“反修改能力”。除了永久性的破壞之外,人類無法有效控制其數(shù)據(jù)和程序,而且只能永久銷毀。筆者認(rèn)為,這三種針對(duì)人工智能而創(chuàng)設(shè)的刑種具有一定的可行性,它在一定程度上打破了目前無法懲罰智能體的尷尬局面,可以進(jìn)一步推廣。
(二)規(guī)范人工智能產(chǎn)品與服務(wù)提供者的活動(dòng)
人工智能產(chǎn)品與服務(wù)提供者是智慧社會(huì)的核心單元,其發(fā)展決定我國(guó)人工智能發(fā)展應(yīng)用的水平,對(duì)智慧社會(huì)正常有序運(yùn)作起決定作用,應(yīng)當(dāng)借鑒網(wǎng)絡(luò)空間治理的經(jīng)驗(yàn)教訓(xùn),既要規(guī)范我國(guó)智慧社會(huì)核心單元的活動(dòng),又要使之承擔(dān)合理的協(xié)助管理智慧社會(huì)的責(zé)任。首先,應(yīng)當(dāng)規(guī)范作為被管理者的人工智能產(chǎn)品與服務(wù)提供者的活動(dòng)。如果不能使其依法開展經(jīng)營(yíng)活動(dòng),將難以阻止其濫用優(yōu)勢(shì)地位危害公眾、妨害社會(huì)管理秩序,應(yīng)盡早研究制定《人工智能安全法》,全面規(guī)范人工智能產(chǎn)品和服務(wù)的研發(fā)、制造、提供活動(dòng),禁止人工智能違法活動(dòng),對(duì)于嚴(yán)重危害社會(huì)的行為,如果超出現(xiàn)行刑法范圍,應(yīng)當(dāng)研究制定相應(yīng)的刑法對(duì)策。其次,應(yīng)當(dāng)規(guī)范作為協(xié)助管理者的人工智能產(chǎn)品和服務(wù)提供者的活動(dòng)。隨著人工智能普及社會(huì)化應(yīng)用,濫用人工智能的行為會(huì)日益嚴(yán)重且產(chǎn)業(yè)鏈化,最終將造成嚴(yán)重的社會(huì)危害,采用事后處罰模式難以有效阻止人工智能應(yīng)用災(zāi)難化發(fā)展趨勢(shì)。在當(dāng)今社會(huì),人工智能產(chǎn)品和服務(wù)提供者對(duì)其產(chǎn)品和服務(wù)保持著事實(shí)上的控制關(guān)系,而國(guó)家相關(guān)管理部門缺乏足夠的技術(shù)能力和專業(yè)管理資源直接管控跨地域、智能性違法犯罪,只能通過前者進(jìn)行間接管理。因此,為了有效維護(hù)智慧社會(huì)的安全與秩序,應(yīng)對(duì)人工智能產(chǎn)品和服務(wù)提供者規(guī)定必要、合理的協(xié)助管理義務(wù),至少應(yīng)包括對(duì)其提供的產(chǎn)品和服務(wù)安全進(jìn)行監(jiān)督、監(jiān)控和攔阻違法利用其產(chǎn)品和服務(wù)以及協(xié)助國(guó)家管理部門管理、調(diào)查、處分相關(guān)違法犯罪活動(dòng)等義務(wù)。為了保障以上協(xié)助管理義務(wù)被切實(shí)履行,刑法有必要對(duì)人工智能產(chǎn)品和服務(wù)提供者設(shè)立不作為犯罪。
五、結(jié)語
目前,智能機(jī)器人由開發(fā)人員控制,但在未來,一旦智能機(jī)器人的智能達(dá)到或超過人類,它將在一定程度上結(jié)束“人為控制”的循環(huán),人們應(yīng)該盡量避免這種情況。換句話說,智能機(jī)器人的開發(fā)者和用戶必須確保他們?cè)O(shè)計(jì)、編譯和使用的智能機(jī)器人始終在人的監(jiān)督下。保持機(jī)器人服務(wù)、造福人類的定位,段可不能將其自由意志過度放大。我國(guó)應(yīng)進(jìn)一步完善國(guó)家法律體系,及時(shí)公布各類相關(guān)法律法規(guī)以及最新學(xué)術(shù)成果,對(duì)人工智能是否能夠成為法律主體應(yīng)制定出清晰的標(biāo)準(zhǔn),為司法人員提供及時(shí)的法律依據(jù)。同時(shí),我們將加強(qiáng)人工智能倫理研究,處理機(jī)器與人之間的新關(guān)系。讓技術(shù)造福人類。
【參考文獻(xiàn)】
[1] 馬治國(guó),田小楚.論人工智能體刑法適用之可能性[J].華中科技大學(xué)學(xué)報(bào).2018(2).
[2] 高銘暄,王紅.互聯(lián)網(wǎng)+人工智能全新時(shí)代的刑事風(fēng)險(xiǎn)與犯罪類型化分析[J].暨南學(xué)報(bào)( 哲學(xué)社會(huì)科學(xué)版),2018(9).
[3] 劉憲權(quán),胡荷佳.論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力[J].法學(xué).2018(1).
[4] 夏天.基于人工智能的軍事智能武器犯罪問題初論[J].犯罪研究.2017(6).
[5] 吳波,俞小海.人工智能時(shí)代刑事責(zé)任認(rèn)定思路的挑戰(zhàn)與更新[J].上海政法學(xué)院學(xué)報(bào).2018(5).
[6] 劉憲權(quán).人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)[J].政治與法律.2018年(3).
[7] 皮勇.人工智能刑事法治的基本問題[J].比較法研究.2018(5).
[8] 劉憲權(quán).人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué).2018(1).
作者簡(jiǎn)介:呂欣欣(1995—),女,漢族,山東濟(jì)南人,法學(xué)碩士,單位:上海政法學(xué)院刑事司法學(xué)院,研究方向:刑法學(xué)。