王立博
河北省邢臺市交通運輸局法務部,河北 邢臺 054000
隨著信息化、大數據、智能化的不斷推進,現代科技的發展為人類生產、生活和社會發展帶來了許多新的機遇,大大提高了人們的生產能力和生活質量,但同時也帶來了新的社會問題和法律問題。利用AI實施犯罪,智能網聯汽車交通肇事的刑事責任等問題,對現行法律和司法機關不斷提出新的挑戰。當人類從普通機器人時代進入弱人工智能時代,智能機器人具有了深度學習能力,相當于具有了更多的人腦功能,其對行為人所要承擔的刑事責任的認定毫無疑問會產生更大的影響。[1]對此,無論是刑法理念還是刑法實踐,都必須要進行相應的調整,以更好地適應信息化時代的發展需求,使人工智能不再成為刑法規制的盲點。
在人工智能時代,智能技術下的機器尤其是智能機器人與普通的機械工具不同,它們具有一定的學習能力和認知能力,可能會對行為人的刑事責任的認定或者分擔產生影響。因此,有必要根據人工智能在犯罪中的涉及深度以及現行法律能否規制情況,對涉人工智能犯罪的類型進行科學合理的劃分,從而為刑法應對與機制完善夯實基礎。
該類犯罪指的是根據現行的《刑法》以及相應的司法解釋,可以進行有效規制的犯罪行為。涉人工智能犯罪中,人工智能既可能是實際行為人用于實施犯罪的工具,也可能是因程序設計不當而實施過失犯罪的直接主體,雖然刑法的滯后性沒有針對人工智能犯罪進行定向規制,但傳統的刑法仍然能夠對相應的犯罪行為進行規制,或者通過司法解釋的方式予以補充應對。例如,浙江省紹興市辦理的利用人工智能技術實施的“特大侵犯公民個人信息案”被稱為“全國首例利用AI犯罪案”,犯罪行為人利用人工智能的深度學習功能,讓智能機器人學會對圖片驗證碼進行識別的技術,從而破解了很多網站設置的安全防護措施,成功獲取大量的公民個人信息。該案的犯罪手段是利用人工智能技術實施犯罪行為,但追根究底仍然是以非法方法獲取公民個人信息的違法行為,現行《刑法》第二百三十五條“侵犯公民個人信息罪”已經足以進行規制。對于這種相對較弱的涉人工智能犯罪,不難發現人工智能實際上與傷人的刀、騙錢的謊言等并無二致,都是犯罪分子實施犯罪的作案工具,因而可以直接運用《刑法》的相關法條就能夠解決相應的司法問題。
隨著人工智能技術的快速發展,傳統犯罪在人工智能運用下逐漸出現了新的犯罪特征,導致現行的《刑法》法條無法完全涵蓋相應的犯罪類型。從犯罪的本質來看,部分涉人工智能犯罪并沒有跳出“犯罪”的范疇,其根本屬性并沒有發生變化,但由于行為模式、主觀意愿等與傳統犯罪相比有了明顯的變化,造成現行《刑法》不能有力、有效地進行行為規制,進而形成司法實踐中的爭議。當前正處于弱人工智能階段,絕大多數的人工智能程序仍然依賴研發與編程,其實施的行為背后都有著“人”的影子。然而,由于人工智能的深度學習和快速反應能力,其行為雖然源于人類設定的程序,但隨時有可能會超出人類能力本身,從而實施超出法律所能考慮的規制范圍。如傳統的交通肇事犯罪,一般都是汽車質量或者駕駛員的責任,但智能網聯汽車如果因為非車輛本身問題而造成交通事故,則會因為不存在駕駛員而無法直接依據交通肇事罪的規定來確定刑責,而能否將責任轉移給智能汽車的設計者或者使用者,則是當前司法理論與實務界一直爭議的課題。
隨著現代人工智能技術的發展,許多人工智能產品已經成為人們生活與生產的重要替代品,而智能產品的物質形態與其實際發揮的精神作用,導致在刑法構成要件上出現了明顯的割裂,進而成為現行法律規制的漏洞。例如,人工智能技術經與神經技術、生命科學相結合,已經能夠為殘疾人群提供與人體幾乎相同的智能假肢,如果行為人損毀該假肢,從傳統刑法理念來看屬于毀壞財物的行為,但人工智能假肢對于受害者來說相當于身體的一部分,而損毀人類肢體的行為則構成故意傷害罪,導致出罪與入罪之間的界限愈發模糊。又如虛擬世界中的人工智能機器人,其在與人類或者其他人工智能軟件進行對話交互中,逐漸進行深度學習并掌握聊天技巧,而個別網民對其進行刻意地引導,使聊天機器人學會并發表關于反人類、反社會等言論。對此行為,由于程序設計者并沒有故意設定非法言論的相關程序,而網民的誘導行為也不必然構成刑事犯罪,導致虛擬機器人的違法行為將無法被現行《刑法》所規制,成為司法領域的“漏網之魚”。
針對涉人工智能犯罪的刑法研究和實踐現狀,有必要通過司法解釋補齊規制漏洞、完善部分犯罪的構成要件、增設相應的新罪名等方式,對刑法規制不足以及無法規制的犯罪問題進行有效規制,盡可能地完善立法、健全司法體系,從而為營造安定祥和的社會環境奠定良好的法治基礎。
法律的穩定性是法律權威性的必然要求,只有穩定的法律才能夠指導和規范人們的行為,從而形成更加有序的社會規則。而穩定性的弊端就是滯后性,特別是隨著我國市場經濟和科學技術的快速發展,人們的生產、生活等理念發生著日新月異的變化,穩定的法律已經遠遠不能滿足現實案例的需要,而頻繁進行法律修訂又容易破壞法律的穩定性,導致法律的權威喪失、約束失效。因此,對于法律雖有宏觀規制,但又無法精準涵蓋司法實踐的問題,可以通過司法解釋的方式來補齊原法律條文的漏洞,使其更加具有現實性和可操作性。
例如,有人提出同樣作為犯罪的工具,與刀、槍等完全無自主意識的工具相比,人工智能作案工具可能會出現目標與對象的偏差,也就是說利用人工智能實施犯罪的行為人,其預想的行為可能與人工智能的最終行為對象并不一致,如上文所述的侵犯公民個人信息案,人工智能可能會在圖片識別驗證、竊取公民個人信息的同時,因程序設計的缺陷而大范圍地泄露公民個人信息并造成特別嚴重的后果,導致行為人可能會承擔更加嚴重的罪責。這種情況下,可以依據法學理論中關于事實認識錯誤的理論,從主觀故意與過失的角度進行相對明確具體的解釋,其中行為人利用人工智能實施目標內犯罪的行為及其造成的后果以直接故意犯罪論之,在人工智能設計的能力范圍內但超出行為人預想的執行目標范圍的行為及其造成的后果以間接故意犯罪論之,而人工智能實施的超出行為人所能夠或者應當能夠預判的行為及其造成的后果,則以過失犯罪論之,從而明確了人與人工智能之間的刑責界限,避免過度打擊或者放任犯罪。
又如,在《刑法》中搶劫罪具有“當場性”的犯罪特點,而人工智能時代行為人可以通過向人工智能機器人下達明確指令的方式,由機器人對被害人進行威脅,甚至可以通過設計相應的搶劫程序讓機器人進行自主搶劫,從而突破了傳統刑法“當場性”在時間和空間上的界定。對此,有必要通過司法解釋的方式,擴大“當場性”的含義范圍,根據人工智能接受指令的情況,將其視為行為人在犯罪現場的延伸。這種概念的擴大或者限縮解釋,就是在保持刑法穩定性的前提下更加契合新時代司法實踐的新要求,以最小的立法成本來滿足司法實踐的需求。
現行的《刑法》關于犯罪行為的規制,通常都是將“人”作為犯罪的行為主體和客體,將“物”作為犯罪的工具、手段或客體,而人工智能的出現,在一定程度上模糊了人與物之間的界限,因而需要通過運用法學理論和社會常識,從犯罪構成要件的角度進行更新和調整,使其既遵循傳統刑法關于犯罪的理論解讀,同時又符合人工智能時代的司法實踐要求。例如,對照我國通說的犯罪構成四要件理論,將人工智能納入到刑事犯罪的行為主體范疇,對犯罪主觀方面進行適當的延伸解釋,從而解決人工智能在深度學習時所形成的自主行為下觸犯刑律卻難以追責的難題。賦予人工智能刑事責任主體地位的初衷,是為了彌補涉人工智能過失犯罪的歸責間隙,使人工智能體承擔行為人難以預見與避免的行為結果所引發的刑事責任。[2]
例如,在上文提到的智能網聯汽車交通肇事問題,如果肇事的原因是汽車的人工智能自主選擇違反交通法規,刑法追責的主體就不能仍然沿用傳統的刑法規定,對所謂的“交通運輸人員”進行責罰。當然,針對智能網聯汽車因程序設計問題而導致其交通肇事的,也可以追溯到人工智能程序的設計者或者編程者,但這里必須要有一個前提,那就是程序的設計者或者編程者具有可歸責性。如果智能汽車的程序并沒有設計上的問題,而是智能網聯汽車在運行過程中通過人工智能的深度學習而自發作出了某種選擇,進而造成了交通事故,那么是否應該對“無辜”的程序員或者所在公司進行追責?筆者認為,人工智能的存在,確實在一些情況下會超出設計者的初衷或者預期,然而不能因此而完全免去設計者的義務。事實上,在研發、設計和生產人工智能機器時,相關人員必須充分考慮到人工智能通過學習后可能會實施的行為,并且將相應的規則錄入到程序當中,從而提前做好風險防范與規避,否則就應當承擔過失的責任。人工智能時代的危險駕駛行為概念發生了擴容,擴張到造成駕駛危險的行為,也就應當包括企業和政府雙方的風險管理不力行為,這是人工智能時代的刑法和交通法需要解決的問題。[3]從刑法應對角度來講,就是要將人工智能的研發者、設計者、生產者納入到犯罪構成的要件當中,讓他們承擔著本應由代表“人”的人工智能所承擔的法律責任。
信息化時代的到來,傳統的法律特別是《刑法》受到了巨大的沖擊,而司法解釋的修補功能并不足以應對所有的變化,在必要的時候仍然需要進行《刑法》的修訂,通過增設相應的新罪名來彌補現行《刑法》的缺失。從我國刑事立法的歷史進程來看,自1997年《刑法》制定以來,25年間先后歷經了11次修正,平均2年多就會修正1次。例如,當大數據概念甚為普及時,公民的個人信息成為了商家的“香餑餑”,非法收集、販賣、竊取、收買公民個人信息的行為屢見不鮮,人們深受諸多詐騙或者廣告騷擾之苦,因而《刑法修正案(九)》就增設了侵犯公民個人信息罪,將這項《刑法》中的空白填補起來,從而切實保障人們的合法權益。而人工智能技術的日益成熟,也同樣帶來了許多現行《刑法》無法規制的新問題,因而也有必要通過立法、修正的方式,對新的不法行為進行法律規制,從而更好地維護社會的公平正義。
例如,針對人工智能產品本質是物但性能類人的特點,建議增設“濫用人工智能產品”和“人工智能產品肇事”相關罪名。前者是對人工智能產品的后臺進行規制,通過約束和限制產品研發者、設計者、生產者的方式,倒逼相關人員更加嚴謹地進行技術論證、嚴格地進行產品研發和投入使用,避免尚未成熟的技術、尚未完善的產品流通到市場上,給社會造成不必要的負擔。而后者是對人工智能產品本身進行規制,通過將人工智能視為刑事責任上的主體,對于確實無法歸責于人的產品肇事行為,通過對人工智能進行必要刑罰的方式,避免犯罪行為背后的追責“真空”。例如,人工智能汽車在正常行駛過程中可能會與常人一樣遇到行人緊急出現在車前,而剎車不及、急轉方向將會撞上另一名行人,也就是無論如何應對都必然會造成人員傷亡時,要求產品研發者、設計者或生產者提前設計好二選一的程序顯然不合常理和人情,追究相關人員的故意或過失責任并不合理。因此,通過將該行為定為人工智能產品肇事罪的方式,可以提前將相關問題明確化,從而發揮刑事法律預防犯罪和規范秩序的作用。
當前正處于弱人工智能時代,人工智能的犯罪在很多情況下都是人類意識和行為的延伸,與人工智能產品的研發者、設計者、生產者有著千絲萬縷的關聯,因而在大多數情況下現行《刑法》仍然能夠切實應對。然而,隨著人工智能技術的不斷發展和成熟,人工智能與人類之間的界限將愈發模糊,如何提前預判并完善刑法,是當前法律理論與實務界不可回避的重要課題,也是刑法應對策略得以有效實施的根本保障。