盧有學,竇澤正
(西南政法大學 法學院,重慶 401120)
近年來,大數據、超級計算機以及機器學習的迅猛發展和日臻成熟,使人工智能(AI)技術在信息通信技術(ICT)領域得以快速發展,并被運用到各行業的解決方案中,比如自動駕駛、智能醫療、智能投顧、智能家居以及眾多的互聯網服務領域。可以預想,人工智能系統會逐漸滲透到社會生活的各個領域,并不斷接近甚至超過人類的思維水平,使得機器不再是設計者或使用者的延伸,不再是“代表”設計者或使用者的意志,而是成為一種高度自主、脫離人類控制且獨立作出判斷的新的范式,即“不需要人類介入或者干預的‘感知-思考-行動’”[1]。
但是,隨著“互聯網+”向“人工智能+”轉型進程的不斷加快,人們對人工智能技術的風險以及技術濫用也越發擔憂。例如,2016年1月20日,特斯拉無人駕駛汽車在京港澳高速河北邯鄲段發生一起追尾事故,這是國內首例無人駕駛汽車致人死亡的案件。因此,為了應對自動駕駛汽車所帶來的技術風險,許多國家都在不斷地進行探索與創新:美國于2015年10月底發布了《美國國家創新戰略》,突出了與人工智能相關的內容(如自動駕駛汽車、精準醫療以及智慧城市等);我國為了抓住人工智能發展的重大戰略機遇與應對伴隨機遇的風險,也于2017年7月8日印發實施了《新一代人工智能發展規劃》。雖然人工智能的突飛猛進會產生一系列的風險,但就目前的發展情況而言,我們首先必須面對的是智能駕駛汽車所引發的風險,即自動駕駛汽車引發交通事故后,應如何確定犯罪主體、如何查明主觀罪過、如何在“允許的風險”責任分配體系崩壞的情形下重新進行刑事責任的分配,以及如何證明存在共同犯罪的可能性。本文旨在對此進行論證,并提出可行性建議。
人工智能依據其形態的不同,可分為非實體形態人工智能(如圍棋程序AlphaGo)與實體形態人工智能。自動駕駛汽車屬于后者,它可以通過感知與分析、理解與思考、交互與決策,完整地實現人工智能的層次結構,即基礎設施層、算法層、技術層和應用層(行業解決方案)[2]24。依據美國汽車工程師協會(SAE)的標準,自動駕駛汽車視其智能化、自動化水平,分為無自動化、駕駛支援、部分自動化、有條件自動化、高度自動化、完全自動化六個等級。本文所說的自動駕駛便是指達到了完全自動化的水平,即由無人駕駛系統完成所有的駕駛操作(人類駕駛者在可能的情況下接管),在所有的道路和環境條件下駕駛,駕駛操作、周邊監控以及支援都由系統完成,并且駕駛系統作用于全域。[2]79從法哲學角度看,該階段的人工智能符合了康德關于理性的要求,即:具備了思辨理性(理論理性)和實踐理性,能夠如同人類一樣反思自身,并且通過這種反思,理性進入了“自在之物”,踏入了自由的王國。[3]易言之,該階段的人工智能已經具備了成為權利義務承擔者的資格,能夠在自由意識的支配下進行自我反思。將前述法哲學思想轉化為刑法語言即是:當自動駕駛真正達到完全自動化水平時,自動駕駛就發生了質變,成為了具備控制能力與辨認能力的強人工智能。作為強人工智能的自動駕駛汽車,在大數據支撐下,通過深度學習與人工智能算法,能在缺乏預設的情形下自主決策(即在設計的程序之外作出反應),實施相應行為,并感知行為的社會意義,從而實現其自主意識。
一般認為,交通肇事罪的主體是從事交通運輸業務的人員以及非交通運輸人員。可見,傳統的交通肇事罪的犯罪主體是自然人。同時,《道路交通安全法》第19條第1款也規定“駕駛機動車,應當依法取得機動車駕駛證”,從側面要求了駕駛主體必須是自然人。但在自動駕駛情形下,人已不實質參與駕駛行為,其作為駕駛主體已經虛化,退居二線,使刑事責任主體“消失”。由于自動駕駛的完全自動化,智能駕駛系統作用于全域,駕駛操作、周邊監控以及支援都由系統完成。因此,當自動駕駛汽車引發重大交通事故時,無法對乘客或駕駛者(指處于駕駛位的人員)追訴過錯侵權,使其承擔民事責任,至于將危害行為、刑事因果關系以及主觀罪過歸咎于乘客或駕駛者,更缺乏相應的歸責基礎。
誠然,在“無行為無犯罪”原則指引下,無法將刑事責任歸于乘客或駕駛者。但自動駕駛引發的重大交通事故刺破了該原則的“面紗”,在“無行為無犯罪”原則失靈以及危害結果已然發生的情形下,交通肇事罪的內在要義無法契合自動駕駛帶來的流變,故需另辟蹊徑解決犯罪主體問題。我們認為,自動駕駛汽車的智能程序編寫者,自動駕駛汽車的制造商、銷售商、使用者,以及自動駕駛汽車本身、自動駕駛汽車監管機構等,都是可能承擔交通肇事刑事責任的犯罪主體。
我國刑法不承認“客觀歸罪”,因此,傳統的交通肇事罪歸責時,除犯罪主體必須是自然人、存在客觀危害行為以及危害行為與交通事故之間具有因果關系外,自然人還必須有主觀罪過(過失),即應當預見自己的行為可能發生危害社會的結果,卻因疏忽大意而沒有預見,或者已經預見卻輕信能夠避免,以致發生危害結果。未來進入“人工智能+”時代后,人工智能能否產生與人類相當甚至超出人類思維水平的意識,目前存在很大爭議。第一,可以肯定,此處的人工智能并不包括“弱人工智能”。弱人工智能只是人體功能的延伸和人類改造社會的工具,本質上不具有辨認和控制能力,其意志活動受制于人類編制的運行程序,不具有誕生人類意識的可能性,即使被利用來實施犯罪,也不會成為承擔刑事責任的主體,且不會被考慮主觀罪過。第二,未來可能出現的強人工智能、超人工智能能否誕生自主意識,能否實現泰格馬克關于“生命2.0”(不能更新硬件,但可更新軟件)甚至“生命3.0”(既可更新硬件,也可更新軟件)的暢想[4]?有學者認為,“人工智能的思維模擬永遠從屬于人類意識活動”[5],即人工智能缺乏生命的本質特性。也有學者認為,人工智能本身沒有內源性的行為能力與權利能力,最關鍵的是它只有形式邏輯能力而不具備辯證邏輯思維。[6]還有學者認為,人工智能沒有靈魂,無法存在繁殖性的肉體或者真實情感。[7]他們都否認人工智能產生類人意識思維的可能性。然而,根據神經科學家托諾尼提出的整合信息理論,意識未必是人類獨有的,人工智能也可能發展出自己的意識,并且其意識的范圍可能比人類更寬廣。[4]因此,假如自動駕駛汽車本身滿足了除主觀罪過(過失)以外交通肇事罪的成立所需的全部構成要件,則其是否應受到刑事懲罰的關鍵便在于它能否誕生自主意識。
日本刑法學者大塚仁認為:“因果關系是在犯罪的實行行為與犯罪結果之間存在的必要關系,是決定構成要件符合性的重要因素。”[8]因此,只有當犯罪結果歸屬于實行行為(危害行為)時,行為人才對結果負責。[9]188但我們更傾向于將因果關系理解為相互繼起的可預計性或可解釋性[10]。在傳統的交通肇事罪案件中,要使交通肇事者(自然人)承擔刑事責任,必須明確其行為與交通事故之間存在可預計性或可解釋性。自然人駕駛者是否與交通事故之間存在必要關系,即是否存在相互繼起的可解釋性或可預計性,可通過交通事故鑒定等實體性手段和舉證質證等程序性手段查明事故發生的原因,從而認定自然人駕駛者是否違反了合理注意義務。當然,如前述,自動駕駛汽車引發的交通事故的犯罪主體可能包括自動駕駛汽車的智能程序編寫者、智能芯片研制商和智能汽車的制造商、銷售商、使用者以及自動駕駛汽車本身、自動駕駛汽車的監管機構。除自動駕駛汽車本身外,其余主體如果能夠承擔刑事責任,其可解釋性雖比自然人駕車引發交通事故的可解釋性稍復雜,但依然存在解釋、驗證的余地。如果交通事故的引發在于自動駕駛汽車本身,則其實行行為與危害結果之間的可解釋性幾乎難以證立。在此情境下,盲目適用交通肇事罪的處罰不符合法律的本質,并且也與罪刑相適應原則相悖。[11]
自動駕駛汽車本身存在算法“黑箱”,即在人工智能的算法層,深度學習從原始特征出發而自動學習高級特征組合,整個過程是端到端的,直接保證最終輸出的是最優解。但中間的隱層是個“黑箱”,我們不知道機器提取了什么特征。[2]27換言之,算法“黑箱”存在透明化困境,即自動駕駛汽車在引發交通事故前所作出的自主決策,整個決策流程隱匿于“黑箱”中,設計師都可能無法獲悉智能程序是如何作出決策的。自動駕駛汽車的自主決策之不可解釋性與不透明性帶來了歸因上的難題,加大了責任確定和責任分配的難度,導致難以將肇事結果歸屬于實行行為。為解決“黑箱”中的歸因問題,自動駕駛汽車必須在程序層面具有可責性,證明其在交通肇事之前為何以及如何作出某種特定行為。在這方面,電氣和電子工程師學會(IEEE)2016年12月發布的《合倫理設計:利用人工智能和自主系統(AI/AS)最大化人類福祉的愿景》中,便規定了可被問責、運作透明等原則。但是,即使法律強制要求“黑箱”透明化或可以對自動駕駛汽車進行訴訟法程序上的交叉詢問,也仍面臨諸多困境,如技術性障礙(如機器學習模型是如何誕生的)、技術文盲、經濟成本以及商業(國家)秘密。
《最高人民法院關于審理交通肇事刑事案件具體應用法律若干問題的解釋》(以下簡稱《解釋》)第5條第2款規定:“交通肇事后,單位主管人員、機動車輛所有人、承包人或者乘車人指使肇事人逃逸,致使被害人因得不到救助而死亡的,以交通肇事罪的共犯論處。”第7條規定:“單位主管人員、機動車輛所有人或者機動車輛承包人指使、強令他人違章駕駛造成重大交通事故,具有本解釋第二條規定情形之一的,以交通肇事罪定罪處罰。”雖然以上兩個條款(特別是前者)之規定與我國刑法關于共同犯罪之規定存在罪過沖突,但這里僅討論具體司法解釋之規定,不對該《解釋》與現行刑法條文及理論的沖突展開評述。如前述,在自動駕駛的情形下,人已不實質參與駕駛行為,其作為駕駛主體已虛化。因此,在自動駕駛引發交通事故的情形下,《解釋》的適用就存在疑難,即自然人肇事者能否等同于自動駕駛汽車,自動駕駛汽車是否能在交通肇事共犯體系中找到適格的定位。如果肇事主體不適格,該《解釋》就存在規制漏洞;如果肇事主體適格,則需要證明自動駕駛汽車具有與自然人肇事者相同的法律地位,其在重大交通事故發生前所作出的決策以及實施的行為與自然人無異。
如前述,自動駕駛對交通肇事犯罪規制提出了諸多挑戰。目前國際上對包括自動駕駛在內的人工智能之責任進行了探索,但探索方向一般是民事責任,在對智能機器人的民事立法與監督管理上作了一些嘗試性規定。如:美國交通部于2016年出臺《聯邦自動駕駛汽車政策》;德國監管機構開始注意自動駕駛汽車的可解釋性、透明性和可追溯性,2017年5月通過了自動駕駛法案;英國自動駕駛汽車中心對產品責任及保險提出了相關建議。刑事責任方面的探索仍是空白。我們將嘗試探索自動駕駛的交通肇事刑事責任,即根據主體性質的不同,分別探討自然人(單位)與自動駕駛汽車本身成為交通肇事犯罪主體的可能性。討論自然人(單位)的刑事責任前,先說明一下傳統交通肇事罪的刑事責任主體,即在自動駕駛情形下,傳統的汽車駕駛人員、操縱人員的認定缺乏現實基礎,乘客與駕駛者均無合理注意義務,不存在安全管理人員。那么,基于自動駕駛的特殊性,自動駕駛汽車的智能程序編寫者、制造商、使用者、銷售商和監管機構是否都應納入承擔交通肇事罪刑事責任的主體范圍?
第一,智能程序編寫者不應納入交通肇事罪主體范圍。成立過失犯罪一般須存在過失可罰性,即危害結果發生的可預見性。具體講,要將智能程序編寫者納入交通肇事罪的主體范圍而使其承擔刑事責任,編寫者對交通事故具有可預見性是個必備因素。但在自動駕駛情形下,這種一般性過失犯罪所要求的“可預見性”遭遇了瓶頸:自動駕駛本身運行時不具備可預見性,因為像自動駕駛這樣的強人工智能的運行都是開放的(能在缺乏預設的情況下自主決策并實施相應行為),高度智能化帶來的結果就是智能程序可以擺脫編寫者給它預設的行為模式;編寫者也不具備完整的可預見性,因為自動駕駛的智能程序編寫異常復雜,編寫者不可能考慮到實際生活中的所有情形并預設毫無漏洞的運行規則,而只能按照既定的智能程序測試流程對編寫的運行規則進行完備的測試。因此,不應將智能程序編寫者納入交通肇事罪的主體范圍;否則,他們進行自動駕駛研究將冒著犯罪的風險,這不僅會極大地阻礙我國智能機器人的發展,更與當代的社會利益相違背。其實,在無其他自然人或單位影響的情形下,程序編寫者的刑事責任轉移至自動駕駛汽車本身,即自動駕駛汽車可以成為交通肇事罪的犯罪主體。當然,如果編寫者惡意編寫程序,將人工智能作為犯罪工具,自應以相應的故意犯罪論處。
第二,自動駕駛汽車的銷售商與監管機構不應納入交通肇事罪主體范圍。銷售商只是自動駕駛汽車流向市場的中轉站,并無刑法上的謹慎義務。基于過失的可罰性有一個前提,即行為人違背了謹慎義務,該義務源自危害結果的可預見性。銷售商雖對所售商品有缺陷檢查義務與隱患注意義務,但這類義務并非源自危害結果的可預見性,而是源自民商事主體應負的責任,即民事結果的可預見性。而且,自動駕駛汽車銷售商的檢查注意義務是一種形式義務,即僅進行程序性的常規檢查,因為銷售商客觀上缺乏進行實質檢查的能力,或者受到經濟成本、商業(國家)秘密等現實因素限制。監管機構也無刑法上的謹慎義務,不是刑事責任承擔主體,但負有相應行政責任,嚴重者可構成瀆職等罪。
與上不同,自動駕駛汽車的創造主體(制造商)與控制主體(使用者)應當納入交通肇事罪的主體范圍,適用相應的刑罰措施。
人類對“可容忍風險”與社會整體利益的平衡與取舍是智能機器人不斷發展進步的重要原因。智能機器人的使用價值和它客觀上帶來的風險,是人類在智能時代必須面對的抉擇。兩者相較,如果智能產品蘊含的風險是社會進步所必須承擔的代價,那么注意(謹慎)義務就必須限制、減輕。當然,對于一些重大法益,如國家安全、公共安全等,盡管社會接受了智能機器人所帶來的某些風險,也必須筑起預防的“城墻”。為將那些傷及重大法益的風險降至最低,人類必須在智能機器人的制造與使用中盡到應盡之義務,否則,以科學完備的智能機器人監管機制[12]為基礎的刑法介入就勢在必行。
具體講,自動駕駛汽車的制造商有風險控制之義務,使用者則有日常檢查與風險制止之義務。風險控制義務是從制造商具備對自動駕駛汽車進行實質檢查的能力而推導出來的。如果制造商在自動駕駛汽車尚未進入流通領域時進行全面完善的實質檢查能夠規避其進入流通領域后的交通肇事,卻因過失而未履行相應的風險防控義務,導致自動駕駛汽車在流通領域發生交通肇事,就可以通過交通肇事罪對制造商進行規制。而使用者負擔的日常檢查義務,包括送檢維修、保養,也屬于刑法上的謹慎義務,并涵蓋風險制止義務。具體分兩種情況:一是使用者按照相關操作說明盡到此義務,在此過程中發現自動駕駛汽車存在異常狀況,卻主觀認為不會發生交通肇事,客觀上也未履行風險制止之義務,最終導致交通肇事,就須對肇事承擔刑事責任;二是使用者由于未按相關操作說明盡到此義務而未發現自動駕駛汽車存在的異常狀況,因而未能及時履行風險制止義務,也須對交通肇事承擔刑事責任。
那么在自動駕駛情形下,制造商與使用者應如何具體承擔刑事責任?我國《刑法》第133條雖對交通肇事規定了三種不同的量刑檔次,即依據不同情節針對自然人施以不同種類的自由刑(有期徒刑或拘役),但這種刑罰設計不能直接適用于自動駕駛領域的交通肇事,須為自動駕駛領域作出調整。
自動駕駛汽車制造商刑事責任的承擔應采取“雙罰制”,具體為“雙罰金制”模式,即對制造單位本身施以罰金刑,且其主管人員與直接責任人員也以罰金作為刑事責任承擔方式。對未盡風險控制義務的制造商處以“無限額”罰金刑,應無異議。而對其主管人員和直接責任人員也處以罰金刑,主要原因在于:交通肇事罪本是過失犯罪而非過失單位犯罪,但在自動駕駛造成交通事故的情形下,隨著風險控制義務的轉移,該罪由自然人犯罪過渡到了單位犯罪,而制造商又不能適用原本懲罰自然人駕駛者的自由刑,故以罰金刑代替自由刑是落實主管人員和直接責任人員刑事責任的合理途徑。
自動駕駛汽車使用者刑事責任的承擔分為單位、個人兩種情況。無論哪種情況,使用者都只對自動駕駛汽車承擔日常檢查(含送檢保養、維修)與風險制止義務。如果已盡到應盡義務而仍引發重大交通事故,使用者就只承擔相應的民事賠償責任(且有權向制造商追償)而不承擔刑事責任;如因未盡上述義務而引發重大交通事故,則除承擔民事賠償責任外,還應承擔相應的刑事責任,即罰金。
在自動駕駛汽車造成重大交通事故(排除上一部分所述自然人或單位因素)的情形下,客觀的法益損害是存在的。因此,交通肇事罪的成立關鍵在于主觀方面的認定。我們認為,自動駕駛汽車與傳統刑法中承擔刑事責任的自然人并無本質區別。下面從主體要件與主觀罪過兩個方面進行闡述。
如前所言,從法哲學視角看,自動駕駛符合康德關于理性的要求,具備思辨理性(理論理性)和實踐理性,使作為強人工智能的自動駕駛汽車成為潛在的權利義務承擔者,能在自由意識支配下進行自我反思。將理性置于刑法語境,自動駕駛汽車便是具備辨認能力與控制能力的刑事責任承擔主體。
犯罪主體在法律條文上用“……者”來表現,自然人即屬于此。作為構成要件要素的行為主體,只要求是自然人,而不要求其他內容。[9]131并且一般認為,作為行為主體的自然人必須具備相應的刑事責任能力,包括辨認能力與控制能力。辨認能力是指行為人具有對自己行為在刑法上的性質、后果和意義的分辨認識能力,亦即行為人能夠認識自己的行為是否為刑法所禁止、譴責和制裁。[13]可見,辨認能力是在事實層面與規范層面上的“不可違反刑法”,自動駕駛也能實現這種能力,因為它憑借大數據、超強計算能力與深度學習優勢,能夠實現駕駛狀態的全域感知,對駕駛行為進行精準控制,如可以通過自動駕駛的軟硬件(傳感器、地圖和定位、決策)來避免在正常行駛狀況下違反交通法規甚至傷及人員。控制能力是指行為人具備支配、決定自己是否以行為觸犯刑法的能力。控制能力是自動駕駛的必備能力,是智能程序編制的核心內容。自動駕駛相較于人類而言,擁有超強的處理能力(如復雜地形的識別)、極快的反應速度(如緊急情況下的自我決策與處斷)和精準的控制能力(如自動行駛過程中的精準測距、根據城市道路狀況與人口密度進行精準制動等)。因此,自動駕駛汽車完全符合關于行為主體辨認能力和控制能力的要求,可視為交通肇事罪的犯罪主體。實踐中,德國已于2016年4月通過了交通部起草的法案,認可“駕駛者”不限于自然人,即把“駕駛員”定義擴展至能夠完全控制車輛的自動系統。2018年4月,美國加州允許“徹底無人”自動駕駛汽車上路測試,客觀上為今后將自動(無人)駕駛汽車視為行為主體創造了條件。
主觀的構成要件要素包括責任要素,故意、過失就是其典型。故意、過失作為罪過的表現形式,依據我國《刑法》第14條第1款、第15條第1款之規定,二者都包含認識因素與意志因素。認識因素與辨認能力、意志因素與控制能力存在緊密聯系,并且,與人類刑事責任主體相較,作為強人工智能的自動駕駛汽車具有更強的辨認能力與控制能力,因此符合對行為主體辨認能力與控制能力的要求,在主觀構成要件要素上具備了形成責任要素的可能性,即在行為主體突破傳統刑法條文與刑法理論時,自動駕駛汽車就具備了主觀上形成罪過之可能性。在主觀罪過的判斷上,應給予自動駕駛汽車比對自然人駕駛者更嚴的判斷標準,因為自動駕駛汽車在道路交通領域比人類駕駛者更強大:一是其辨認能力與控制能力更強,且會隨著智能時代的進步而不斷進步,而人類駕駛者的辨認能力與控制能力會隨著身體狀況的老、病等改變而變弱;二是自動駕駛汽車對道路交通領域的認識源自程序、算法與深度學習,而自然人駕駛者對道路交通領域的認識源自生活經驗的積累與法律知識的學習。
行為主體從自然人駕駛者擴展至自動駕駛汽車,后者能在缺乏預設的情形下憑借大數據、深度學習和智能算法而動態地演進,產生相當于人類甚至超越人類的自主決策。故,以算法為核心的自動駕駛決策系統作出的交通肇事(過失)行為符合刑法中作為犯罪構成要件要素的行為之條件,即行為主體實施危害行為而侵犯了法益。換言之,自動駕駛汽車在設計程序之外作出的違背交通運輸法規的過失(交通肇事)行為,可成為刑法意義上的危害行為,自然也就會侵犯道路交通運輸安全的刑法法益。
如前所述,自動駕駛汽車在交通領域的主觀罪過判定標準嚴于自然人駕駛者。那么直接影響的是自動駕駛汽車所實施的危害行為與危害結果之間的因果關系,即相互繼起的可預計性或可解釋性。前文提到,自動駕駛汽車運行過程中存在算法“黑箱”,其流入市場后所經歷的環境復雜性遠超實驗模擬環境,在不斷更新的大數據支撐下,交通事故發生前通過算法與深度學習而作出自主決策的整個流程隱匿于“黑箱”中,設計師都可能無法獲悉其所以然。自主決策算法的不透明性造成了歸因難題,即因果性上不具有相互繼起的可解釋性或可預計性,加大了責任確定和責任分配的難度。上文還提到,為解決歸因問題,自動駕駛汽車必須在程序上具有可責性,證明其在交通肇事前為何以及如何作出某種特定行為。對此,有人建議保留設計或生產自動駕駛汽車時的數據,將其與交通事故后自動駕駛汽車“黑匣子”所存儲的數據進行對比,以此來解決程序的可責性問題。但是,在可追責性和可驗證性計算機科學還不夠發達的當下,即使學習算法公開透明,其產生的內部決策邏輯也并非總是可以理解,對于程序設計者同樣如此。因此,這種對比并不能在科學法則的層面實質性地解決可責性問題。
在傳統的刑法因果關系理論中,因果性的判斷基于科學法則;但是隨著時代的進步,基于現有的科學法則,對某些特定場合下的刑事追責變得困難甚至不可能,即在某些公害犯罪的場合,因果關系呈現出多因性和間接性、不緊密性和隱蔽性等特點,使得這類犯罪的原因與結果之間的條件關系如果按照科學法則進行判斷,都會變得不確定起來。[14]為了解決公害犯罪刑事追責問題,提出了疫學因果關系論。該理論認為,某種因子與疾病之間的關系,即使在醫學、藥理學上得不到科學證明,但若大量的統計觀察能夠說明該因子對產生疾病具有高度的蓋然性,也就可以肯定其因果關系。[15]130但此理論一般專用于處理公害犯罪,不能直接引入自動駕駛汽車這類強人工智能所引發的交通肇事等犯罪,除非真是一般意義上的公害犯罪。為了解決強人工智能的可責性問題,需要對疫學因果關系理論進行改造重構,我們將改造之后的因果關系理論稱為智能因果關系理論,即概念本質上僅取“存疑即罰”之理念。這種智能方法論原則上不能一概地、積極地判定強人工智能犯罪,只能運用于強人工智能犯罪的消極判斷中,作為判斷強人工智能犯罪因果關系的最后手段。智能因果關系理論的價值理據如下:
第一,智能因果關系可以運用于認定刑法因果關系。對此,是存在質疑的:在傳統的因果關系理論中,“相當因果關系”以存在自然法則上的條件關系為前提;而智能因果關系只是對條件關系的蓋然性的證明,在條件關系是否存在尚不明確的情況下就肯定相當因果關系,無疑破壞了相當因果關系理論的構造。也就是說,只有確定了自然科學的因果法則,才能肯定刑法上的因果關系。[15]130但我們認為上述質疑的理由不能成立。刑法上的因果關系的判斷不同于哲學上的因果關系的判斷,刑法上的因果關系的判斷是一種規范性判斷,而非全是自然科學因果法則指導下的事實性判斷。在很大程度上,刑法上因果關系的判斷也只是一種高度蓋然性的判斷,而非完全肯定的因果關系。
第二,如今我們處在一個高風險的社會,尤其是未來進入強人工智能時代,強人工智能雖然帶來高收益,但也伴隨著高風險性,這一客觀現實決定了智能因果關系運用于認定刑法因果關系具有可行性和必要性。可將智能因果關系視為特殊的因果關系的判斷準則,其跳脫于一般的歸責構造之外。
第三,自動駕駛汽車引起的重大交通事故存在自主決策的“黑箱”,具有隱蔽性、高科技性等特點,基于科學法則的因果性判斷并不能在實質的層面解決可責性問題,不足以應對智能機器人犯罪。因為“黑箱”的存在,因果流程的判斷極度復雜,甚至是不可能的,所以引入智能因果關系理論是解決刑事責任承擔問題的有效路徑。這樣不僅能夠保障被害人的權益,維護智能時代交通秩序的安定,更能凸顯出司法應對自動駕駛時代所帶來的各種風險的能力。
當然,在能將交通肇事的刑事責任歸于自動駕駛汽車的同時(基于司法解釋的交通肇事的共犯體系也能成立),民事責任的承擔可能會成為焦點,主要集中于自動駕駛汽車的制造商與所有權者、使用者。在民事責任領域應采取嚴格責任,自動駕駛汽車的自主性(智能性)程度決定民事責任的分配,即自主性程度越高,制造商的責任就越小。隨著智能機器人技術的不斷發展,民事責任的承擔從制造商不斷向所有權者、使用者轉移,再輔以強制保險、賠償基金以及與之相配套的智能機器人法律地位(如電子人等)與登記制度,立體化地分流責任,使智能研發的經濟動力與技術動力得到有效維護。
上文解決了自動駕駛汽車作為犯罪主體的適格問題以及實行行為與危害后果的可解釋性疑難,從而使自動駕駛汽車能夠成為交通肇事的刑事責任主體。但它作為特殊的犯罪主體,傳統的刑罰措施對其已然失效,比如:智能機器人既不會變老,也不會衰弱,對其適用自由刑毫無意義;自動駕駛汽車作為道路交通領域的強人工智能,其自身是沒有財產的,罰金刑也無從適用。根據智能機器人的特殊性,需對其適用新的刑事處罰體系。對自動駕駛汽車這類強人工智能進行刑事處罰,讓其承擔刑法上的責任,必須具備一個前提條件,即該階段的人工智能具備了像人類一樣感知刑罰痛苦的能力。換言之,該階段的強人工智能已被嵌入了“道德代碼”,具備了倫理思考與道德評價的能力(即此階段的智能機器人又是道德機器人、倫理機器人),能夠感知或是理解因其自身犯罪而受到的與刑事懲罰相關的倫理指責。這也正契合了前文所提到的康德關于理性的認識與思考,只有人工智能能在自由意識支配下進行自我反思,身份上具有了權利義務承擔者的資格,對其進行刑事評價才具有實際意義。
有學者認為,刪除數據、修改程序和永久銷毀是有效的應對強人工智能犯罪的刑罰手段。[16]具體應用到自動駕駛汽車交通肇事犯罪,刪除數據是指清空自動駕駛汽車實施交通肇事行為所依賴的數據信息。修改程序是指在多次清空數據信息后,如果仍無法阻止自動駕駛汽車獲取實施交通肇事行為的負面數據,即該車仍不能被正面引導,則通過修改行車程序,將自動駕駛汽車的功能限定在人類設定的程序內,使其只能在設定的程序范圍內獨立判斷并實施行為,換言之,剝奪了自動駕駛汽車的辨認能力與控制能力,將自動駕駛汽車的自主性降低到弱人工智能的層次,從根本上剝奪自動駕駛汽車實施交通肇事犯罪的可能性。永久銷毀是指在上述兩種方法已然無法對自動駕駛汽車的人身危險性起到有效抑制,即自動駕駛汽車已在使用過程中產生了“耐藥性”時,除永久銷毀外,已無其他降低其人身危險性之措施。這是一種層次分明、適用具有順序性的階梯式刑罰設計,其設計理念圍繞著人身危險性展開。但這種“三階層”刑罰體系并不能適用到所有強人工智能的犯罪,因為該體系在處理強人工智能對重大法益的侵害時存在重大風險,即無法將強人工智能的人身危險性控制在合理限度內。
人身危險性是由行為人特定人格決定的犯罪可能性或再犯可能性。[17]特定人格的形成源于自然人對生活的體驗與經歷,而強人工智能的“人格”則是依靠大數據、深度學習與算法,二者的人身危險性自不能等同視之。如前述,自動駕駛汽車運行過程中存在算法“黑箱”,造成交通事故后刪除其所依賴的數據信息,不僅不能保證其所刪除的信息與造成交通事故的信息相關(由于“黑箱”的存在,不清楚自動駕駛汽車是如何作出自主決策以及所作出的自主決策到底依賴了哪些信息),而且即便是刪除的數據信息都與交通肇事相關,但自動駕駛汽車憑借其自身強大的學習與運算能力仍可能快速地重新獲取實施交通肇事犯罪的相關數據信息。強人工智能人身危險性之預防顯然比自然人人身危險性之預防更加困難。因此,應采取修改程序與永久銷毀“兩階層”刑罰體系,并取消修改程序與永久銷毀的適用順序性,以自動駕駛汽車實際對公共道路交通安全所造成的法益侵害之大小擇一適用。至于擇一適用之具體標準,可將肇事逃逸和其他特別惡劣情節(具體內容暫難設想)作為自動駕駛汽車刑罰適用的分界點,即:自動駕駛汽車違反交通運輸管理法規,因而發生重大交通事故,但無逃逸和其他特別惡劣情節,適用修改程序;一旦存在逃逸或其他特別惡劣情節,則適用永久銷毀。這種依據強人工智能對法益侵害之大小而擇一適用刑罰的方式完全符合罪刑法定原則,在同一犯罪構成中能夠做到量刑適當。“兩階層”的刑罰設計主要是為了維護刑法所保護的國家安全、道路交通安全、公民生命安全等重大法益,而采取謹慎態度來對待強人工智能對這類法益的侵害,將其再犯之可能性降至最低。
至于強人工智能造成一般法益侵害的情況,則仍對其適用具有順序性的“三階層”刑罰體系。這主要是基于經濟與預防角度的考慮:(1)經濟角度的考慮。一是強人工智能的研發成本與制造成本頗高,如果僅因強人工智能對一般法益實施了侵害,就直接適用修改程序或永久銷毀,不僅不符合強人工智能發展的經濟規律,也不符合罪刑法定原則;二是對強人工智能的刑罰的實現也需要頗高的人工成本,因此在不違背罪刑法定原則的前提下,順序性地適用“三階層”刑罰體系不僅有利于緩解刑罰實現所帶來的經濟負擔,還有利于強人工智能的重復利用,從而更多地造福于人類社會。(2)預防角度的考慮。如前所述,強人工智能具備了像人類一樣感知刑罰痛苦的能力,具備了倫理思考與道德評價的能力,能夠感知或是理解因其自身犯罪而受到的與刑事懲罰相關的倫理指責。這就意味著強人工智能也如同人類一樣,在刑法對其進行否定評價之時,能夠在自由意識支配下進行自我反思,將正確的社會倫理價值觀植入其“大腦”,從而實現行為矯正與(一般)預防之目的。如果直接對觸犯一般法益的強人工智能適用銷毀等刑罰,既與經濟效益沖突,也與刑罰的(一般)預防之目的相違背。
上述刑罰體系之設計只是一個應對強人工智能犯罪的初步構想。為了應對強人工智能時代可能出現的各種類型的犯罪,應隨著科學技術的演進逐步確立強人工智能原則(智能機器人原則)。因為對強人工智能進行懲罰的法理基礎不僅源于其對法益的侵害,還源自其違背了本應恪守的智能機器人原則。只有智能機器人原則逐步確立與完善,針對強人工智能的各種犯罪的刑罰體系設計才會愈加系統與科學,對強人工智能犯罪進行刑法規制的法治環境才會愈加合理與透明。