□ 曾粵興 高正旭
在目前法律框架下,刑法所需要做到的是針對(duì)人工智能所產(chǎn)生的刑法問題尋找合適的切入點(diǎn)實(shí)現(xiàn)對(duì)人工智能相關(guān)主體的刑事責(zé)任判斷,從而使刑法有效參與到人工智能的治理活動(dòng)中。我國具體負(fù)責(zé)推進(jìn)規(guī)劃實(shí)施人工智能發(fā)展戰(zhàn)略的科技部下屬國家新一代人工智能治理專業(yè)委員會(huì),于2021年9月25日發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡稱《倫理規(guī)范》),本文將結(jié)合該規(guī)范的相關(guān)內(nèi)容,對(duì)人工智能的刑法歸責(zé)路徑進(jìn)行探討。
從國家對(duì)人工智能技術(shù)發(fā)展的具體要求來看,《倫理規(guī)范》第3條第4款的規(guī)定延續(xù)了《發(fā)展規(guī)劃》中“確保人工智能安全、可靠、可控發(fā)展”的要求,明確指出人工智能開發(fā)需要堅(jiān)持可控可信的原則,不能剝奪人類的“充分自主決策權(quán)”,人類有權(quán)隨時(shí)退出與人工智能的交互,有權(quán)隨時(shí)終止人工智能的運(yùn)行,從而確保人工智能始終處于人類控制之下。所以即使人工智能技術(shù)對(duì)國家發(fā)展具有戰(zhàn)略意義,完全脫離自然人管控范圍的超強(qiáng)人工智能也不是我國人工智能技術(shù)的發(fā)展方向。
刑法中的歸因判斷,是指通過行為人的行為與損害結(jié)果之間的因果關(guān)系,確定結(jié)果是否可以歸屬于一定的行為。基于算法的獨(dú)立運(yùn)行邏輯,在歸因上需要判斷算法的獨(dú)立運(yùn)行是否會(huì)割裂損害結(jié)果與相關(guān)主體行為之間的因果關(guān)系。因?yàn)槿绻J(rèn)為算法的運(yùn)行邏輯對(duì)人工智能設(shè)計(jì)者或使用者而言是不可知、不可控的過程,則難以認(rèn)為算法所導(dǎo)致的損害可以歸屬于相關(guān)的法律主體。
雖然對(duì)算法黑箱的認(rèn)識(shí)具有一定分歧,但從以下角度來看,算法黑箱的存在并不能否認(rèn)弱人工智能所具有的工具屬性,也就不能割裂人工智能損害結(jié)果和相關(guān)主體行為之間的因果關(guān)系。
上文的分析指出了刑法對(duì)人工智能相關(guān)主體進(jìn)行歸責(zé)不存在根本性障礙的問題,接下來需要討論的是刑法需要對(duì)什么樣的主體進(jìn)行歸責(zé)和應(yīng)當(dāng)以什么樣的切入點(diǎn)對(duì)相關(guān)主體進(jìn)行歸責(zé)。
確定需要追責(zé)的主體范圍后,我們可以進(jìn)一步考察確認(rèn)相關(guān)主體刑事責(zé)任的具體路徑。
以自動(dòng)駕駛汽車為例,自動(dòng)駕駛汽車責(zé)任判斷的難點(diǎn)在于確認(rèn)當(dāng)自動(dòng)駕駛造成損害時(shí)自動(dòng)汽車究竟處于哪一主體的控制之下。《倫理規(guī)范》第15條規(guī)定了人工智能生產(chǎn)者具有“加強(qiáng)質(zhì)量管控,不得經(jīng)營、銷售或提供不符合質(zhì)量標(biāo)準(zhǔn)的產(chǎn)品與服務(wù)”的義務(wù);第22條規(guī)定了人工智能的使用者具有“主動(dòng)掌握人工智能產(chǎn)品與服務(wù)的運(yùn)營、維護(hù)、應(yīng)急處置等各使用環(huán)節(jié)所需技能,確保人工智能產(chǎn)品與服務(wù)安全使用和高效利用”的義務(wù)。從這兩條規(guī)定來看,在產(chǎn)品缺陷導(dǎo)致自動(dòng)汽車肇事時(shí),可以對(duì)相關(guān)生產(chǎn)商以生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪定罪處罰。從邏輯上說,如果生產(chǎn)者明知自動(dòng)駕駛系統(tǒng)存在嚴(yán)重的算法缺陷,可能導(dǎo)致使用過程中出現(xiàn)肇事結(jié)果而予以隱瞞,最終導(dǎo)致使用者肇事結(jié)果的發(fā)生,其主觀上具有放任的故意,從而競合以危險(xiǎn)方法危害公共安全罪,應(yīng)當(dāng)以較重的罪名從重處罰。但筆者認(rèn)為,鑒于人工智能尚處于需要進(jìn)一步發(fā)展的狀態(tài),嚴(yán)苛的責(zé)任固然可能存在一般預(yù)防的功能,但也可能壓抑設(shè)計(jì)者、生產(chǎn)者的探索熱情,因此,筆者主張即使上述邏輯推演能夠成立,也應(yīng)當(dāng)立足于司法的謙抑而作出有利于被告的認(rèn)定。質(zhì)言之,僅僅以法定刑相對(duì)于較輕的生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪問責(zé),即可在一般預(yù)防與特殊預(yù)防之間找到平衡點(diǎn)。而在自動(dòng)汽車不存在產(chǎn)品問題時(shí),根據(jù)《倫理規(guī)范》第3條的規(guī)定,人工智能使用者“有權(quán)隨時(shí)終止人工智能系統(tǒng)的運(yùn)行,確保人工智能始終處于人類控制之下”的規(guī)定,似乎可以推導(dǎo)出使用者有預(yù)見肇事結(jié)果的義務(wù)和能力的,從而進(jìn)一步演繹出使用者對(duì)事故存在過失的結(jié)論,最終要求使用者對(duì)交通肇事結(jié)果承擔(dān)罪責(zé)。對(duì)使用者而言,一般不會(huì)出現(xiàn)明知車輛自動(dòng)駕駛系統(tǒng)存在算法缺陷有肇事可能仍然敢于駕馭的情況,因此很難得出使用者對(duì)肇事結(jié)果存在故意的結(jié)論。
上文指出了算法黑箱不能成為刑法歸責(zé)的障礙,因?yàn)樗惴ㄈ蕴幱谙嚓P(guān)主體所能支配的范圍。但是僅僅論述至此,還不能說刑法因果關(guān)系的判斷已跨過了算法這一技術(shù)邏輯的障礙。因果關(guān)系是危害行為與危害結(jié)果之間的引起與被引起的關(guān)系,但在刑法視野下,并不是所有對(duì)危害結(jié)果產(chǎn)生作出貢獻(xiàn)的行為都是刑法規(guī)制的對(duì)象。刑法需要對(duì)條件因果關(guān)系加以限制,確定具體的一個(gè)或數(shù)個(gè)行為進(jìn)行歸責(zé)。對(duì)于人工智能造成的損害而言,關(guān)鍵在于確認(rèn)具體的損害結(jié)果究竟需要?dú)w因于研發(fā)、供應(yīng)、管理、使用的哪一個(gè)或哪幾個(gè)環(huán)節(jié)。
在人工智能治理領(lǐng)域中,除了對(duì)法律邏輯與技術(shù)邏輯進(jìn)行區(qū)分以外,還需要避免出現(xiàn)刑法與前置法功能的混淆。
算法安全這一法益搭建了刑法參與人工智能法律治理的橋梁,在共治關(guān)系中,前置法為人工智能相關(guān)主體設(shè)定的義務(wù),是刑法據(jù)以判斷刑事責(zé)任的依據(jù),為了避免刑法對(duì)人工智能技術(shù)的進(jìn)步產(chǎn)生阻礙和混淆刑法與前置法的不同功能,在對(duì)人工智能相關(guān)主體的規(guī)制中刑法需要保持合理的謙抑,堅(jiān)持刑法在法律體系中的后置保障法地位。
《倫理規(guī)范》中的相關(guān)規(guī)定,為今后人工智能法律規(guī)范的制定提供了宏觀指導(dǎo),但具體的規(guī)范細(xì)節(jié)還需各個(gè)部門法進(jìn)一步細(xì)化規(guī)定,所以以上罪名設(shè)計(jì)的構(gòu)想是否成立,或者是否還有必要繼續(xù)增加保護(hù)算法安全的新罪名,需要繼續(xù)觀察人工智能技術(shù)的發(fā)展情況和前置法律的立法情況,使刑法與前置法在人工智能治理領(lǐng)域中保持良好的互動(dòng)。
通過結(jié)合《新一代人工智能倫理規(guī)范》的相關(guān)規(guī)定和人工智能技術(shù)發(fā)展的基本特征,可以看出具有工具屬性的人工智能技術(shù),其產(chǎn)生的社會(huì)風(fēng)險(xiǎn)仍是一種人為風(fēng)險(xiǎn),故并不會(huì)對(duì)刑法理論產(chǎn)生顛覆性的影響。刑事立法與刑法理論需要根據(jù)人工智能技術(shù)的特征,為人工智能的刑法治理提供有效的方案。以算法安全為紐帶對(duì)人工智能相關(guān)主體進(jìn)行刑事歸責(zé),是使刑法有效參與人工智能法律治理的理論嘗試,為刑法對(duì)人工智能相關(guān)主體的刑事責(zé)任認(rèn)定提供了可能的路徑。在具體方案的設(shè)計(jì)上,還需在厘清刑法與技術(shù)邏輯、刑法功能與前置法功能關(guān)系的基礎(chǔ)上,明確共治關(guān)系中刑法規(guī)制的范圍和應(yīng)具有的功能,從而與人工智能的其他治理手段形成有效配合,實(shí)現(xiàn)人工智能技術(shù)法律治理的效果最大化。□