[摘 要]基于人工智能內在的復雜性與不可控性,人工智能的刑事因果關系相較于傳統因果關系更為抽象。目前學界主要有兩種針對人工智能刑事因果關系的判斷標準——風險標準模式與雙重篩選的條件說。當前,人工智能仍然處于初級階段,并未具備法律主體的身份。但無論人工智能是否具備法律主體資格,當根據風險標準模型來分析具體案例時,都必須考慮到行為主體的行為分類、主觀狀態及其他可能存在的干預因素,這可能會對原有的刑事因果關系產生影響。按照雙重篩選的條件說則不需要考慮區分情形、主觀上是故意還是過失,以及介入因素等問題。
[關鍵詞]人工智能;刑事因果關系;風險標準模式;雙重篩選;
條件說
一、問題的提出
當前人工智能技術的飛速發展已經超出了人類的社會預期,現實中已發生多起人工智能犯罪案件。在人工智能下面臨的法律問題主要表現在人工智能主體資格的可適應性,然而,隨著深入人工智能時代,法律因果關系的調節及其適當性可能會經歷某種程度的削弱和偏差。因此,確定如何將人工智能及其行為和結果歸因于客觀現象并于其進行主觀責難的法律因果關系,顯得尤為關鍵。人工智能的行為和傳統法律行為有著明顯的差異,同樣,確認其刑事因果關系的方式也和確定傳統行為的法律因果關系的方法有所不同。在涉及涵蓋兩個或多個主體的情況下,確定犯罪結果和不同主體間的刑事因果關系如何建立,將是學者們需要深入研究的問題[1]。
二、人工智能刑事因果關系的判斷標準
解決人工智能的刑事責任問題,需要明確識別人工智能的犯罪行為和產生的效果之間的因果關系。因此,確定何種準則用于確認人工智能的刑事責任中的因果關系,顯得極為關鍵。
(一)風險標準模式
風險標準模式起源于英美法律系統,它可以根據行動的種類將其劃分為積極和消極的行為,其中因果關系的判斷關鍵在于行為風險的相關性。在積極行為中,行為者是利用定向的人工智能進行違法行為。在使用人工智能時,行為者意識到自己擔負的法律風險,且可以預測由此風險帶來的后果,所以,可以肯定的是,行為者就是人工智能行為的實施者,并且與結果存在因果關系。
在行為層面,表現為主體對具有指導性的人工智能不履行職責。透過行為邏輯來看,若某人有意識地進行某種活動,他能夠預測和理解潛在的危險。但是,從非行動的角度來看,一個人可能會故意、疏漏或意外地不去行動,這種情況下他可能無法預見行為可能引發的風險。因此,在法律上分析因果關系時,分析的核心主要是行為者在不作為的情況下對風險的認識能力。不作為的風險認知能力可以再細分為主動不作為和被動不作為的認知能力。首先,對主動不作為的風險認知能力而言,主動不作為受到有意識的行為控制,行為者對不作為可能帶來的風險明顯能夠預見,認識上沒有障礙,因此,應該直接確認行為者在人工智能行為中存在刑事因果關系。然后,在被動不作為的風險認知能力中,被動不作為是受到疏忽的行為控制,其不作為的義務實際上是要求行為人對該風險保持注意并有行動義務,并且產生的風險是可以避免的。這個時候的風險判定僅限于行為者能夠認識的范圍內,對超出范圍的風險則不被認為存在刑事因果關系,無需承擔刑事責任。
(二)雙重篩選的條件說
根據條件論的基本框架,雙重篩選條件將客觀歸責理論的理性思考融入其中,形成了確定因果關系判斷的標準[2]。仔細觀察,客觀歸責理論將行為結果歸咎于三個因素:首先,行為造成了無法容忍的危險;其次,行為誘發了無法忍受的危險;最后,結果沒有超出構成犯罪的保護范圍。在上述三個因素中,前兩個用于定義條件論中所涉及的因果關系需要的一個元素——行為;而最后一個因素則用于確定條件論涉及的因果關系所需的另一個元素——結果。
在雙層篩查機制中,“初級篩查”意指從法律規定的領域篩選出結果并排除其他結果。比如,一位醫生在人工智能醫療機器人的輔助下成功地為患者實施了截肢手術,挽救了患者的生命。然而,這樣的手術結果并不屬于法律規定的領域中的結果,因此,無需探討醫生的行為與患者康復結果之間的因果關聯。然而,當醫師因其醫療行為的失誤造成患者去世時,此時的死因已然進入了法制的監管范圍之內。“第二次過濾”則是在眾多因素中挑選出引發后果的關鍵原因——也就是那些直接影響到事件發生的個體行動。例如,甲的攻擊導致乙受到輕微傷害,這個傷勢在正常情況下不會致命,但乙的血友病癥使得傷口無法止血,最終走向死亡。在此事件中,乙的死因有兩點:一是甲的攻擊行為,二是乙的血友病狀況。雖然乙的血友病并未直接導致其死亡,但它構成了死亡發生的一種特定環境,與任何人的行為無關,應該被視作導致結果出現的“條件”而非“原因”。總的來說,在進行雙重篩選的條件時,首先參照客觀歸責理論中對結果歸責判斷標準的第三條規則(不超過構成要件保護的限定范圍)來篩查因果關系中的各元素,然后根據客觀歸責理論對結果歸責判斷的第一條規則(產生了禁止的危險)和第二條規則(實現了禁止的危險)進行第二輪篩選,抽取出對具體結果有“觸發”作用的行為。終極推斷是,經過雙重篩選的原因和結果之間形成了刑法上的因果關系,這樣的做法最大的優點就在于可以避免介入因素的干擾。
三、兩種判斷標準的具體適用
2018年,美國一輛Uber無人車撞死行人事件是世界上首例由無人駕車造成的人身傷亡案例,引起了一系列自動駕駛汽車管理方式及法律職責等問題的大量爭論與探討。目前的人工智能仍屬于弱人工智能,不具有法律主體資格。所以通常情況下,一旦出現車禍事件,首要的責任方就是車輛駕駛人,根據他們的職責履行情況及錯誤程度來確定他們應該負有的法律后果。在這場涉及Uber無人車的意外中,該車型應當處于至少第四級的等級水平之上;依據美國的機動車工程協會 (SAE) 對自動化駕乘系統的分層定義來看,當達到或超過第四個層次的時候,這個智能化的控制設備就能完全替代人類操作員完成所有必要的行駛任務并無需再由人工監控路況或者操縱環境了。如果假定當時那臺 Uber 公司的汽車滿足第四個層次的要求,那么依照風險標準模式去衡量此事態發展過程中車主對于可能出現的故障狀態沒有預見到的必要性和必須采取措施避免這種不幸的發生的可能性也是無稽之談——因為他的舉動并不構成一種積極的、不作為的行為方式,并且他跟受害者最終喪生的結果并沒有任何直接關聯。反之,若當時的道路條件不符合運行要求,需要司機接管駕駛活動,此時,司機對風險具有作為義務,卻因過失而未實施,司機的消極不作為與死亡結果之間存在直接的刑事因果關系。按照雙重篩選的條件說,自動駕駛汽車致人死亡的結果沒有超出犯罪構成要件的保護范圍,屬于第一重篩選中法律規制范疇內的結果。雖然被害人所遭受的不允許的危險是由自動駕駛汽車的故障所導致的,但由于自動駕駛汽車并非刑法的獨立主體,在第二次篩選中可以忽視自動駕駛汽車故障這個因素。而對于司機的行為,若當時的道路運行條件正常,則司機沒有注意義務和作為義務,其行為沒有制造不被允許的危險,不符合客觀歸責理論中條件一,經過第二重篩選應當予以排除。如果那時的駕駛環境存在異常,要求駕駛員掌管駕駛任務,那么駕駛員需要履行相關的作為義務。他的不作為行為給受害者帶來并執行了不應存在的風險,這將作為導致受害者死亡的“施因”,兩者之間建立了刑法上的因果關系。假如本案中的司機在自動駕駛汽車撞向行人時故意加速,使行人被嚴重撞擊,此時司機的加速行為對于自動駕駛汽車致人死亡這一因果關系中屬于介入因素,且該介入因素異常,獨立于自動駕駛汽車撞人的先前行為,在認定刑事因果關系時就要比較司機的加速行為與自動駕駛系統提供者的先前行為之間作用大小,若先前行為的作用大,則自動駕駛系統提供者的行為與結果有刑法上的因果關系;若介入因素作用大,則司機的加速行為與結果之間有刑法上的因果關系;若二者作用都大,則死亡結果與二者都有刑事因果關系,屬于二因一果。關于介入因素對刑事因果關系的影響比較復雜,此處不再進行深入討論。
一般而言,當汽車被改裝成自動駕駛汽車后,汽車制造商不對改裝后的缺陷承擔法律責任。自動駕駛系統作為一種工具,離不開算法的設計與運用,在運行過程中需要依靠編程的支配與控制,通過人工設定人工智能產品可能遇到的不同情形,設置特定的邏輯程序來使人工智能產品做出正確的行為與動作。因此,自動駕駛系統的設計研發人員顯得尤為重要,當危害結果發生時,設計研發者應當承擔一定的責任并履行相應的法律義務。按照風險標準模式,本案中的自動駕駛系統提供者Uber公司明知自己提供的自動駕駛系統技術存在明顯的設計缺陷,主觀上存在故意,對自動駕駛汽車傷人的行為引發的風險必然是可預見、可認識的,雖然Uber公司沒有直接實施傷人行為,但其積極不作為行為能夠直接認定與被害人的死亡存在刑法上的因果關系。按照雙重篩選的條件說,被害人死亡的結果屬于第一重篩選中法律規制范疇內的結果,Uber的設計研發行為為自動駕駛汽車帶來了技術上的缺陷,給被害人創造并實現了不被允許的危險,屬于第二重篩選中導致結果發生的原因(即引起結果發生的人的行為)。經過雙重篩選后,可以得出Uber設計研發有缺陷的自動駕駛系統的行為與被害人死亡的結果之間存在刑法上的因果關系。綜合前面的分析,Uber公司才是這起事故最可能的責任承擔者。
假設將此案置于認定人工智能具有法律主體資格的環境中,那么本案中的Uber也將成為法律主體,承擔相應的法律責任。認定自動駕駛汽車具有法律主體資格就意味著自動駕駛汽車在運行過程中完全不需要司機接管駕駛活動。按照風險標準模式,司機對于自動駕駛汽車失控的風險不具備作為義務、注意義務,其行為不屬于消極不作為,與被害者的死亡結果之間不具有刑事因果關系。在作為層面,自動駕駛汽車作為法律主體且設計研發者在生產制造自動駕駛汽車的過程中不存在故意或過失時,自動駕駛汽車的傷人行為是自動駕駛汽車主動實施傷人行為并將自己置于法律風險之中,且對該風險帶來的結果具有一定的可預見性,此時自動駕駛汽車的行為與傷人的結果之間存在直接的刑事因果關系。在不作為層面,自動駕駛汽車可以是故意沒有采取剎車措施、過失沒有采取剎車措施或完全沒有意料到后果未及時采取行動,此時對行為引發的風險未必能預見。所以在刑事因果關系判斷上,其風險標準的邏輯在于自動駕駛汽車在不作為時對風險的認識可能性。積極不作為是出于故意的意思表示,此時自動駕駛汽車對不作為引發的風險明顯可預見,不存在認識的障礙,故應當認定自動駕駛汽車的行為與傷人結果之間存在刑法上的因果關系。在消極不作為的風險認識可能性中,消極不作為是出于過失的意思表示,其不作為義務來源實質是要求自動駕駛汽車對該風險具備注意義務和作為義務,且引發的風險是可以避免的。此時風險標準僅局限于認識到的風險范圍以內,對超出風險范圍不可認識的風險不予認定刑事因果關系,不承擔刑事責任。
按照雙重篩選的條件說,司機不存在相應的接管義務,其行為不屬于消極不作為,沒有為被害人制造并實現不被允許的風險,因此,司機的行為與被害人死亡之間不存在刑法上的因果關系。而對于作為法律主體的自動駕駛汽車來說,被害人死亡的結果屬于第一重篩選中法律規制范疇內的結果,自動駕駛汽車剎車失敗,給被害人創造并實現了不被允許的危險,屬于第二重篩選中導致結果發生的原因(即引起結果發生的人的行為)。經過雙重篩選后,可以認定自動駕駛汽車的行為與被害人死亡的結果之間存在刑法上的因果關系。因此,若自動駕駛汽車與自動駕駛系統提供者均通過雙重篩選,則認定二者皆與被害人死亡之間存在刑法上的因果關系;反之,只認定一方存在刑法上的因果關系。由此可以看出,按照雙重篩選的條件說,無需考慮行為人的行為情形以及主觀因素,避免了在適用介入因素時對“異常”判斷的不確定性,更適合人工智能刑事因果關系的認定。
通過上述分析可看出,無論人工智能是否被賦予法律主體資格,在適用風險標準模式時都需要區分行為主體作為與不作為、主觀上是故意還是過失,以及是否存在介入因素等多種情形,推理過程較為復雜,易出現因果關系判斷失誤的情況,而按照雙重篩選的條件說則更直接明了,推理過程清晰明確,且不需要區分多種情形,也不必考慮介入因素的問題。相比較而言,在司法實踐中適用雙重篩選的條件說更能有效解決與人工智能有關的刑事責任歸屬問題。
結束語
當前的人工智能是弱人工智能,并未具備法律主體地位,也沒有考慮到人工智能的獨立行為。在具體案例中分別適用兩種判斷標準認定刑事因果關系都能得到合理的答案,只是在適用風險標準模式時需要區分多種情形,考慮介入因素等問題,雙重篩選的條件說則簡化了刑事因果關系認定流程,避免了在適用介入因素時對“異常”進行不確定判斷,整體來看,雙重篩選的條件說更能有效直接地解決當前人工智能的刑事因果關系問題,更好地解決人工智能領域刑事責任歸屬問題。
參考文獻
[1]劉志強,方琨.論人工智能行為法律因果關系認定[J].學術界,2018(12):76-92.
[2]劉憲權.涉人工智能犯罪中的歸因與歸責標準探析[J].東方法學,2020(3):66-75.
作者簡介:楊毅(1997— ),女,漢族,山東臨沂人,華南理工大學,在讀碩士。
研究方向:法學理論。