內容摘要:當人工智能自主決策介入侵害結果發生的因果流程時,確立將結果歸屬于人的行為的判斷機制、明確處罰范圍,才是涉人工智能的刑法適用研究的應然問題域。愈發自主化的智能決策介入結果發生的因果流程,將會在事實認定和規范評價上引發故意犯和過失犯共通的歸責難題。現有理論的應對或否定追溯至行為人的處罰,或前置化對行為人的處罰,其實是避開了對于算法侵害的事后規制。人工智能自主決策并非規范的介入事項,也不會成為刑事歸責的絕對障礙。結果歸屬判斷無需對算法模型進行全局解釋,而是要事后查明行為與自主決策侵害間的“基本事實關聯”,與政策層面的風險管控形成互動銜接。在具體判斷中,應當事后確認相關主體的行為對于智能決策侵害的現實作用關聯;當存在多方主體時,通過對行為之間關聯性的判斷以及原因競合時各自作用力的評價來決定結果歸屬。
關鍵詞:通用型人工智能;自主決策;ChatGPT;結果歸屬
中圖分類號:D924 文獻標識碼:A 文章編號:2095-7076(2024)04-0027-13
DOI:10.19563/j.cnki.sdfx.2024.04.003
一、問題的提出
為了提升生活生產的效率與便利,應用人工智能的自動駕駛汽車、護理機器人、醫療智能診斷機器人、產業機器人等產品已經滲透到社會生活中,將判斷委任于人工智能的場合逐漸增加。即使是弱人工智能,也可以通過學習建構出人類無法理解的思考過程,更遑論能夠從一個情境中獲取的知識應用于其他情境的通用型人工智能。①①ゲーツェル·ベン「汎用人工知能概観」人工知能29巻3號(2014年)230頁參照。通用型人工智能通過自主學習適應多場景任務,其迭代發展態勢與深度融入現實的技術核心正是適應不同境況進行自主決策的能力。然而,人工智能的自主決策能力在改變生活方式的同時也重塑了犯罪事實形態,不僅會因智能產品自身問題導致自主決策侵害行為,更為嚴峻的是犯罪分子會利用人工智能的深度學習和自主決策而提升犯罪能力。
近年來,刑法理論中關于人工智能的刑事法研究正在如火如荼地展開。但實際上,并非涉人工智能的所有風險都值得作為刑法解釋學的研究對象,部分事實形態只是傳統問題在人工智能應用新場景中的再現。人工智能產品作為機械設備的物理故障導致損害時,并未突破生產、銷售不符合安全標準的產品罪構成要件的涵攝范圍和保護法益的具體類型。①①參見熊波:《我國人工智能刑法的行政前置性立法探析》,載《重慶大學學報(社會科學版)》2023年第2期,第238頁。部分刑法理論出現適用困境,也并非源于理論本身的構造,而是依賴于該新興領域本身的發展水平。在自動駕駛領域判斷駕駛者的歸責時信賴原則的適用,就取決于自動駕駛技術發展到什么階段,是否已經研發出允許否定潛在駕駛者過失的駕駛系統。有學者指出:“像人工智能這樣的研究熱潮往往容易是暫時性的,不用等到所謂‘技術奇點’的到來,很可能數年間就會冷卻下來,可以設想會在尚未形成共有的學術性討論成果的狀態下就結束了。”②②深町晉也「企畫趣旨——人工知能の開発·利用をめぐる刑事法規制を考えるにあたって」法律時報91卷4號(2019年)4頁。為了避免這樣的結局,相關研究不應僅熱衷于憑借新興技術的話題展開理論性革新,如何在這場“熱潮”中形成和保留具有延展性的成果才更為重要。因此,應當明確并聚焦于人工智能產品的現實應用給刑法規制帶來的真正問題域。
2024年8月1日,歐盟《人工智能法案》正式生效,其中關于人工智能的定義強調的就是自主性和推斷性。其自主性帶來巨大便利的同時,“也存在著人工智能的自律性判斷將會產生人類無法預測的動作的危險性,由此導致損害發生的消極側面。”③③山下裕樹「AI·ロボットによる事故の責任の所在について——自動運転者の事案を中心に」ノモス=Nomos45號(2019年)95頁。例如2024年4月,一輛正運行完全自動駕駛(FSD)模式的特斯拉汽車在西雅圖附近撞死一名摩托車手。④④https://m.163.com/dy/article/J8E0JQND0519DDQ2.html,2024年8月2日訪問。直接導致損害的是自動駕駛系統運行的錯誤指令,對此,即使動用數據、計算機犯罪也無法全面評價傳統法益的損害。因此,涉人工智能侵害的刑事規制真正面臨的問題是,在面向人身、財產等傳統法益侵害的因果流程中,“人工智能經過深度學習在正常運轉的過程中基于自主意識的支配實施了侵害行為”⑤⑤石井徹哉『AI·ロボットと刑法』(成文堂,2022年)203頁參照。,該如何評價結果歸屬?在發生傳統法益的現實侵害結果時,如果不確立一般意義上的歸責機制,很容易發生過大處罰或過小處罰的問題:若著眼于投放人工智能產品的流通行為,會產生過大處罰的危險;若著眼于算法決策的“黑箱性”導致危險源難以特定,會產生過小處罰的問題。⑥⑥深町晉也「企畫趣旨——人工知能の開発·利用をめぐる刑事法規制を考えるにあたって」法律時報91卷4號(2019年)5頁參照。涉人工智能侵害的刑事歸責機制的確立是促進人工智能技術發展的重要動力,因為如果在什么場合處罰是不明確的,公權力的規制介入也是不明確的,就會導致人工智能開發行為的萎縮。
本文首先明確人工智能自主決策的介入對于刑法歸責造成了什么樣的難題,并對現有應對方式的根本考慮展開分析;其次,從解釋學中結果歸屬原理出發對于人工智能自主決策的介入引發的歸責障礙進行實質評價,并確立涉人工智能侵害的結果歸屬應當遵循的基本路徑;最后,結合涉人工智能技術的事實領域的固有特點,圍繞相關責任主體的行為與智能決策導致侵害之間的關聯性展開結果歸屬的具體判斷。
二、人工智能自主決策導致的刑事歸責困境及對策分析
(一)人工智能自主決策阻礙歸責認定:故意犯與過失犯共通的難題
人工智能的自主決策能力取決于技術發展的程度,現有理論在涉及這一問題時習慣于區分弱人工智能和強人工智能。由于強人工智能已經具備了獨立意識,“對強智能機器人超出設計和編制程序范圍實施的嚴重危害社會行為的定性,實際上與對強智能機器人刑事責任主體地位的討論殊途同歸。”⑦⑦劉憲權:《人工智能時代刑法中行為的內涵新解》,載《中國刑事法雜志》2019年第4期,第66頁。如此一來,強人工智能的歸責問題實際上被刑事責任主體地位的討論所替代。與之相對,“在弱人工智能的時代景象下,人工智能主體雖然借助模擬算法能夠在諸多方面獲得與人類相似的控制能力,但其仍然是在人類先期技術框架設定內進行的模擬運算。”⑧⑧王霖:《自動駕駛場景下過失犯歸責困境巡檢與路徑選擇——以規范歸責模式為視角》,載《河北法學》2020年第3期,第96頁。據此,涉弱人工智能侵害的歸責被認為不存在特殊問題。
人工智能的社會價值在于脫離人的操控自主地完成各項社會任務和適應各種社會情境,人工智能的“脫工具化”以及人與侵害行為“分離化”的現象將會愈發顯著。“智能化工具實施危害行為的原始發動力的確是人類提供的,但是整個算法循環運作過程卻無人類直接參與。”①①房慧穎:《人工智能犯罪刑事責任歸屬與認定的教義學展開》,載《山東社會科學》2022年第4期,第142頁。例如,即使為自動駕駛汽車的生產和銷售設計了嚴密的安全標準,只要開放了自主學習的功能,也不能完全防控其在應對特殊路況時產生的安全風險。再如,生成式人工智能依托于巨大規模參數的大規模預訓練模型的智能化程度飛躍提升,研發者和使用者的自由意志不能決定生成的內容。②②參見王遷:《再論人工智能生成的內容在著作權法中的定性》,載《政法論壇》2023年第4期,第26頁。于是,就有學者指出:“認為人工智能僅能作為工具和客體,通過穿透算法讓開發者承擔法律責任的制度設計可能在不久的將來遭遇問責挑戰。”③③張欣:《生成式人工智能的算法治理挑戰與治理型監管》,載《現代法學》2023年第3期,第115頁。
隨著大規模算法在深度學習中的廣泛應用,試圖以“工具性”來弱化人工智能的行為對于侵害流程的參與只能是掩耳盜鈴,正面展開對涉人工智能侵害的結果歸屬機制的具體分析才是應然之舉。在過失犯罪的認定中,即使可以認定設計者和制造者存在某種義務違反的行為,但如果不能對自主決策的形成要因進行特定化,就不能認定該義務違反是能夠為過失犯處罰奠定基礎的注意義務違反。現有理論對此的討論大多聚焦于過失犯的歸責,同時認為人工智能產品致害問題并未給故意犯罪的歸責理論帶來沖擊。④④參見姚瑤:《人工智能時代過失犯理論的挑戰與應對——以自動駕駛汽車交通肇事為例》,載《浙江社會科學》2022年第12期,第59頁。但是,在行為人有意利用人工智能的故意犯罪中,若行為人的利用行為和侵害結果之間,介入了行為人無法掌控的人工智能基于自主學習的自主決策,是否能歸責就存在討論的空間。尤其是當人工智能的自主決策突破了行為人意圖侵害某一特定對象的指令時,在討論錯誤論的問題之前,對于介入了人工智能自主決策而導致侵害結果發生的客觀因果流程,能否肯定結果歸屬就存在疑問。因此,人工智能自主決策介入侵害流程引發的結果歸屬的困境,是故意犯和過失犯所共通的難題。
一般認為,人工智能自主決策介入侵害流程后,主要導致難以查清因果經過。“對于人工智能造成的損害而言,關鍵在于確認具體的損害結果究竟需要歸因于研發、供應、管理、使用的哪一個或哪幾個環節。”⑤⑤曾粵興、高正旭:《論人工智能技術的刑法歸責路徑》,載《治理研究》2022年第3期,第120頁。然而,“AI深層學習技術使得在開發階段的各個數據學習和編程行為對于實際場景中的AID(Artificial Intelligence Device,人工智能產品)的個別具體的信息處理和舉動究竟施加什么影響,是無法理解的(黑箱性)。”⑥⑥稲谷龍彥「人工知能搭載機器に関する新たな刑事法規制について」法律時報91卷4號(2019年)54頁。智能程度提升的反面是算法可解釋性的減弱,在事后裁判中證明設計者、制造者、販賣者、使用者中哪一個具體的輸入行為與侵害結果之間存在關聯,并不容易。于是出現所謂“歸責間隙”,即客觀上不存在可以歸屬結果的主體。⑦⑦日原拓哉「AIの利活用における刑法上の諸問題(1)——利用者と製造者の刑事責任を中心に」立命館法學2號(2022年)146頁參照。
實際上,即使能查明人工智能自主決策在事實上的發生機制,能否肯定規范意義上的歸責仍然需要討論。即使多數學者還是傾向于現階段否認人工智能具有刑事責任能力,也不得不承認,智能機器人的確可以通過深度學習形成自主意識和意志。⑧⑧參見孫道萃:《人工智能刑法研究的反思與理論迭進》,載《學術界》2021年第12期,第65頁。還有學者指出,雖然人工智能體不符合犯罪主體的要件,但其卻能實現侵害行為的有體性要件,可認定此侵害行為系人工智能機器人的犯罪行為。⑨⑨參見馬治國、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學學報(社會科學版)》2018年第2期,第108頁。問題在于,按照溯及禁止論,因果流程中存在第三人基于自律性決定的行為介入時,要否定對第一行為人的正犯性結果歸屬。⑩⑩杉本一敏「因果関係」曽根威彥=松原芳博編『重點課題刑法総論』(成文堂,2008年)35頁參照。溯及禁止論的基本原理是,只要因果流程中介入其他介入者的自律行為,就不能認為結果的發生是行為人的自律性主導的結果,或者說不能認為結果是在行為人的領域內發生,不應由行為人負第一次責任。島田聡一郎『正犯·共犯論の基礎理論』(東京大學出版會,2002年)349頁參照。當人工智能的自主決策導致侵害結果發生時,不論所介入的人工智能是否需要承擔刑事責任,都不可否認行為人的行為與結果發生之間介入了一個基于自主性的舉動。按照溯及禁止論,由此導致行為人實際上不再能實質掌控侵害結果發生的因果流程,因此就不能將結果發生歸責于行為人。當行為人的先前行為是過失行為時,上述難題自不待言;即使行為人有意利用人工智能的自主決策造成損害,是否能夠要求行為人對侵害結果承擔既遂責任,也不無商酌的余地。①①在一般場景中,若行為人直接引發他人實施犯罪行為的犯意,也只能作為教唆犯處罰;若行為人只是利用他人的故意犯罪行為,且不能認為行為人支配了整個犯罪事實,要限制認定“正犯背后的正犯”,一般不能要求行為人對結果發生承擔正犯性的既遂責任,充其量只能認定為片面的幫助犯。
(二)刑法理論應對人工智能自主決策引發歸責難題的現有對策
現有理論已經注意到人工智能自主決策的介入對于刑事歸責體系的沖擊,雖然大部分的討論都限定在過失歸責的語境下,但仍然從立法論或解釋論的層面提出了應對方案。基本上可以概括為以下四種:
第一種,承認人工智能的刑事責任主體地位,主張從立法和制度上建構針對人工智能體本身的刑事處罰體系。人工智能刑事責任主體肯定論正是基于人工智能的自主決策能力。“在立法論層面構建適用于人工智能主體的罪狀體系與刑罰措施,那么目前為學界所困擾的人工智能事故的過失歸責難題就會迎刃而解。”②②王霖:《自動駕駛場景下過失犯歸責困境巡檢與路徑選擇——以規范歸責模式為視角》,載《河北法學》2020年第3期,第95頁。刑法通過將調整對象由人的行為轉向智能體的行為,直接回避了人的行為的因果流程中介入了智能體自主決策行為所導致的歸責難題。難怪有學者指出:“人工智能主體化觀點,實質上反映了理論在人工智能面前的無奈和妥協,跳過人工智能背后的數據問題、算法問題的刑法評價,意圖通過直接賦予人工智能主體資格解決犯罪的評價問題。”③③于沖:《刑事合規視野下人工智能的刑法評價進路》,載《環球法律評論》2019年第6期,第43頁。
第二種,通過“允許危險”的法理否定在人工智能自主決策造成侵害的場合對人的歸責。智能系統具有高度復雜的智能性和適應性,在特定場景中可能會作出難以預測的侵害性行為,在此意義上來說將人工智能系統置于現實社會應用的投放行為就是一種危險行為。但是,“生產社會倫理上可接受并且有益于社會的產品,即使其創設了可識別的風險,而且這種風險只有通過停止生產才能避免,那么制造商在生產過程中以及之后能夠采取所有措施盡可能地減少這種風險,他們就不違反注意義務”④④[德]埃里克·希爾根多夫:《自動系統、人工智能和機器人——一個刑法角度的定位》,黃笑巖譯,載《法治現代化研究》2019年第1期,第89頁。。因此,只要行為人在設計、制造和使用人工智能的過程中沒有違反相應的義務,人工智能自主決策的侵害可能性就是允許的危險,不能再追究相關責任主體的刑事責任,自動駕駛技術即如此。⑤⑤坂下陽輔「人工知能の開発·利用における過失——自動運転車と過失責任を素材に」法律時報91卷4號(2019年)16頁參照。
第三種,在立法層面提倡對涉人工智能侵害采用危險犯甚至抽象危險犯的立法方式,從而回避對于實害結果的歸屬難題。相較于直接肯定人工智能體的刑事責任是直接阻斷了對人的刑事歸責,這種對策則是旨在積極肯定對人工智能背后的人的刑事處罰。比如希爾根多夫教授就指出,可以考慮對可自主造成損害的自動系統引入抽象或者具體危險犯,將損害結果的出現作為可罰性的客觀前提。⑥⑥[德]埃里克·希爾根多夫:《自動系統、人工智能和機器人——一個刑法角度的定位》,黃笑巖譯,載《法治現代化研究》2019年第1期,第92頁。我國也有學者提出設置危險犯的必要性。⑦⑦參見郭旨龍:《中國刑法何以預防人工智能犯罪》,載《當代法學》2020年第2期,第55頁。之所以會主張將損害結果排除在犯罪成立要件之外,是考慮到非法利用人工智能行為的危險性高、損害后果分散等特點,也是由于人工智能的自主學習導致其運行機制難以被證明。
第四種,將人工智能犯罪的法益定位為“算法安全”,通過對法益內容的抽象化來消解實害因果流程的復雜化導致的歸責難題。主張“算法安全”法益觀的學者指出,人工智能犯罪的共同特征是“算法安全犯罪”,是危害公共安全的犯罪。⑧⑧參見魏東:《人工智能算法安全犯罪觀及其規范刑法學展開》,載《政法論叢》2020年第3期,第107頁。算法安全的法益定位是將人工智能技術視為對公共安全造成威脅的社會風險。“如果行為人侵害了對法益的(無憂慮地)自由支配所必要的安全條件,那么,這便是抽象危險。”①①[德]烏爾斯·金德霍伊澤爾:《刑法總論教科書》,蔡桂生譯,北京大學出版社2015年版,第67頁。當法益內容是現實發生的人身、財產損害的實害結果時,由于自主性算法的介入,很難事后證立發展至結果的具體因果流程;但如果將構成要件結果定位為抽象化、秩序化的安全性法益損害,自然免于因果流程的事實性證明問題,這無異于將人工智能犯罪導向了抽象危險犯。
(三)現有對策特點:避開對人工智能自主決策介入的事后考察
上述現有對策并非局限于刑法解釋學的層面,而是從立法傾向、政策安排的角度對人工智能自主決策的風險規制進行建構,但在價值傾向上已經出現了對立。
第一種承認人工智能刑事責任主體地位的路徑和第二種運用“允許危險”法理否定歸責的路徑,都是考慮到人工智能自主決策的侵害脫離人的支配領域,在否定追溯至自然人歸責的方向上運作。“機器人作為‘自我答責’的第三人介入則適用于為機器背后的人類行為人開脫責任。”②②[瑞士]比揚·法塔赫-穆加達姆:《刑法中的創新責任:在嚴格責任、過失與容許風險之間》,唐志威譯,載《蘇州大學學報(法學版)》2022年第3期,第56頁。可是,這種路徑無異于放棄了對于因果性地惹起結果發生的自然人進行特定化和歸責的努力。③③山下裕樹「AI·ロボットによる事故の責任の所在について——自動運転者の事案を中心に」ノモス=Nomos45號(2019年)99頁參照。退一步而言,即使認可人工智能的刑事責任主體的地位,仍然不能回避對于背后自然人的歸責問題。同樣,“允許危險”的法理雖然仍聚焦于對背后行為人的歸責,但在危害結果現實發生后,一律以危險被允許的判斷阻斷歸責可能性,也存在疑問。“允許危險”的法理將算法自主化導致的歸責間隙予以事前的合理化,極大限制了對人的歸責。
第三種主張危險犯立法的路徑和第四種主張算法安全法益觀的路徑,是著眼于人工智能自主決策導致侵害發生的不可控制性和危害嚴重性,通過消解事后對事實因果流程的證明義務,前置化對于相關行為主體的處罰。危險犯的立法方式直接將具有危險性的人工智能投入行為認定為處罰的對象;算法安全法益觀的路徑將法益的內容進行抽象化,由此導致法益侵害與義務違反并無二致。可以說,算法安全的法益觀與危險犯的立法模式都是將處罰根據和評價重點從侵害結果的發生轉向了義務違反。
兩種類型的對策雖然在處罰傾向上呈現出相反的價值取向,但實際上,適用“允許危險”法理的路徑與主張危險犯立法模式的路徑實質上都是將對人工智能侵害的處罰根據訴諸相關責任主體的義務違反,將考察重心轉向了相關行為主體的行為是否符合事前設立的行為規范標準,從而避開了對于具體事實因果流程的事后證立。從立法與政策的層面來說,對于人工智能自主決策風險的事前規制是必要的。但是,從刑法適用的層面而言,當已經現實發生了人工智能自主決策導致的侵害結果時,如果仍然將歸責的依據訴諸相關主體的行為對于事前標準的行為規范的偏離,基本上是適用了以“不允許的危險創設”與“不允許的危險實現”為判斷架構的客觀歸責論。客觀歸責論討論的不單是將結果歸屬于行為人的問題,而是對構成要件的歸責,而行為無價值二元論認為構成要件的核心即在于事前標準的行為規范違反性。客觀歸責論自稱是規范性的歸責理論,其所宣稱的“在因果主義的框架中無法理解的規范性思考”,實質上就是對于行為規范違反性的確認。但是,與其說這樣的思考方式解決了人工智能自主決策介入侵害流程的歸責困境,不如說是直接避開了對算法侵害的事后規制。即使人工智能運行中基于自主決策導致了侵害結果,也無需再對自主決策的算法機制與人的行為之間的互動關系進行事后考察,從而展開了與傳統責任框架所不同的事前預防導向的判斷。
三、人工智能自主決策介入刑事歸責判斷的障礙紓解及路徑定位
(一)人工智能自主決策的介入不會成為刑事歸責的絕對障礙
在前行為的因果流程中出現了獨立的介入事項直接導致結果發生時,便不能再將結果歸屬于前行為。一般而言,自律性行為的介入與前行為之間的關聯性很難認定,這也是人工智能基于自主學習程序作出決策導致侵害發生時,將侵害結果歸屬于相關責任主體的行為存在障礙的重要原因。但是,人工智能的自主決策并非獨立的介入事項,原則上也不會成為阻礙歸責的絕對障礙。
人工智能自主決策的介入不能在規范意義上與人的行為的介入等同,至少在客觀層面,仍然要將其定位為人的行為危險性的內在要素。有學者指出,當人利用人工智能機器人犯罪時,即便該機器人是自控型的,也可以用間接正犯的理論對具體人進行歸責。①①參見儲陳城:《人工智能時代刑法歸責的走向——以過失的歸責間隙為中心的討論》,載《東方法學》2018年第3期,第28頁。但是,間接正犯的解釋構造是將人工智能的行為視為規范意義上獨立的被利用事項,這并不妥當。“因果關系論的機能是,在存在導致結果的復數條件的場合,判斷現實發生的結果應該歸屬于哪里,是否能歸屬于實行行為。”②②星周一郎「演習刑法」法學教室430號(2016年)119頁。因此,在存在介入事項的場合,實際上是在判斷將結果歸屬于行為人的行為還是介入事項。但是,只有人的原因才是刑法的問題,而關于物的原因,即使明確其與結果之間具有因果性,也不可能喚起他行為的可能性,論證刑法上的因果關系是沒有意義的。③③齋野彥彌「原因の複數と因果性について」現代刑事法3卷6號(2001年)54頁參照。雖然人工智能的自主決策行為通常會獨立于人的實際掌控,但是,其根本上仍然是按照程序設計者事先編制的、具有學習能力的程序而運行的。人工智能不具有自我意志和自我決定,無法對自己的行為作出應答。④④參見劉艷紅:《人工智能的可解釋性與AI的法律責任問題研究》,載《法制與社會發展》2022年第1期,第87頁。正如有學者所指出,人工智能體基于深度學習做出表現于外部世界的反應或舉動難以認定為刑法中的“行為”。⑤⑤參見劉仁文、曹波:《人工智能體的刑事風險及其歸責》,載《江西社會科學》2021年第8期,第150頁。因此,不能將人工智能產品的舉動在不和人類的自由意志相關聯的形式下作為規范評價的對象。⑥⑥稲谷龍彥「人工知能搭載機器に関する新たな刑事法規制について」法律時報91卷4號(2019年)55頁參照。
退一步而言,即使將人工智能自主決策的介入等同于人的自律性行為的介入,也并非按照溯及禁止論的設想一概阻卻對先前行為主體的歸責。溯及禁止論也不得不承認存在例外的情形:“如果故意且有責的介入行為與實行行為密切相關,且實行行為階段能預想到該介入的,對于這種例外情形,就不適用溯及禁止的設想。”⑦⑦橋爪隆『刑法総論の悩みどころ』(有婓閣,2020年)28頁。自律性行為的介入不能成為否定對先前行為主體歸責的決定性根據,因為“我們現在檢討的是行為人本身的責任問題,而不是檢討第三人責任的問題;而認可第三人的責任,并不當然就要阻卻行為人的責任”。⑧⑧黃榮堅:《基礎刑法學(上)》(第4版),臺灣元照出版有限公司2012年版,第345頁以下。即使在遙遠的未來,人工智能發展為具有類似于人的意識,在不同責任主體的主觀意識之間也可以具備心理因果聯系,互相影響著彼此的客觀行為,仍然不能否認相關行為人對于人工智能的自主行為直接導致的結果承擔責任的可能性。更何況,在當前人工智能的發展背景下,刑法規范所對應的現實領域尚且沒有發生“質”的改變,規范調整直接作用的對象并非人工智能的自主決策程序本身,而是程序運作背后實際發揮影響力的人。因此,判斷的重點并非在于人工智能的自主決策如何地自主化和智能化,而是應當追根溯源至相關責任主體的行為危險性,從而解明事實關聯上的“人機關系”。
(二)刑事歸責的路徑:事后解明算法機制的“基本事實關聯”
當運用客觀歸責論解決涉人工智能自主決策侵害的刑事歸責問題時,相關責任主體的義務違反行為會成為考察重點。而確立行為的義務違反性,就是在事前判斷行為是否創設了不被允許的危險。但是,“行為創造結果風險的屬性與現實已經發生結果的具體因果流程沒有任何關系。行為創造結果風險是對行為屬性的判斷,這種判斷僅僅是一種類型上的抽象判斷。”⑨⑨董玉庭:《從客觀因果流程到刑法因果關系》,載《中國法學》2019年第5期,第358頁。在一般預防目標下,只要相關主體的行為存在義務違反即可歸責,未必能夠建立起事前標準的行為規范違反與侵害后果之間的關聯性。當然,事前的監管模式對于預防人工智能危害而言同樣不可或缺。歐盟的《人工智能法案》根據人工智能的任務和適用領域劃分不同的風險等級,建立起全覆蓋式監管機制。但是,隨著人工智能自主性和適應性的提高,人工智能對于現實世界的危害發生可能性以及發生方式更多是取決于終端用戶的使用場景。預先在法律中假設人工智能的特定功能,并據此衡量風險和建立相應的應對機制,是難以實現的。①①參見汪海洋、魏書敏:《基于風險的通用人工智能監管——以歐盟〈人工智能法案〉視角展開》,載《科技與法律(中英文)》2024年第2期,第88頁。因此,政策性層面的風險管控也要重視從事后視角錨定影響危害結果發生的具體因素,并據此展開針對性的規制措施。當人工智能的自主決策導致了現實的侵害結果時,就要根據刑法歸責來實現一般預防。如此一來,只有在刑法的適用中強調事后解明算法機制的重要意義,才能與技術監管層面中算法透明的規制進路形成互動銜接。
值得注意的是,在事后判斷人工智能自主決策導致侵害的因果流程時,一般預見可能性的標準就會失去效用。一般預見可能性和經驗通常性是相當因果關系說中考察具體因果流程的絕對性標準。但是,“從該危險合乎規律地發展出來的各種具體因果流程,不論其能否為行為人事先所預見,都必然處于其可控制的范圍之內,而絕不屬于被責任原則嚴格排除于歸責范圍之外的偶然事件”。②②陳璇:《刑法歸責原理的規范化展開》,法律出版社2019年版,第148頁。一般預見可能性標準考察因果流程時的缺陷,在人工智能自主決策侵害的歸責領域更加被放大顯現出來。既然連程序設計者、生產制造者對于人工智能自主決策的預見都變得越發困難,更難要求一般人(哪怕是技術領域的一般人)對于具體流程存在預見可能。正如有學者指出:“在以算法為紐帶評價人工智能犯罪的歸因問題時,算法中科技邏輯所形成的壁壘直接切斷了以‘一般人經驗’作為判斷基準的可能性。”③③曾粵興、高正旭:《論人工智能技術的刑法歸責路徑》,載《治理研究》2022年第3期,第121頁。更何況,“個人的知識水平、理解能力以及在技術發展的不同階段,所謂的‘相當性’的判斷都會變得恣意。”④④劉憲權:《涉人工智能犯罪中的歸因與歸責標準探析》,載《東方法學》2020年第3期,第68頁。一般預見可能性標準的失效并不代表歸責的不可能,歸責的評價原本就不需要滿足這一事前標準,而是要事后個別地考察作為歸責對象的行為與侵害結果發生之間的具體關聯。因此,“對于人類與機器人和人工智能系統之間的合作,要在個案中詳細地審查:機器如何參與決定的作出,人類的行為空間如何發揮作用。”⑤⑤[德]蘇珊·貝克:《數字化和人工智能對刑事責任的擴散》,王德政譯,載《吉首大學學報(社會科學版)》2022年第5期,第81頁。
“基于深度學習而不斷進化的AI的判斷和舉動機制逐漸黑箱化……判明個別的哪個開發行為成為侵害事故發生的原因是很困難的。”⑥⑥坂下陽輔「人工知能の開発·利用における過失——自動運転車と過失責任を素材に」法律時報91卷4號(2019年)14頁。通用人工智能的發展離不開大數據、傳感網、腦科學等技術,智能決策的作出并非僅依靠既有知識的邏輯推理,還基于龐大數據獲取的經驗,這也是“算法黑箱”產生的根本原因。基于此,有學者指出,通用人工智能的規制核心不在于“算法可釋”,而是聚焦于使得特定主體在特定場景下對模型產生足夠的信任。⑦⑦參見王沛然:《從控制走向訓導:通用人工智能的“直覺”與治理路徑》,載《東方法學》2023年第6期,第193頁。但是,即使說智能決策中包含了基于大數據的經驗性內容,也并不代表決策的作出完全脫離了人的控制。“聯結主義的人工神經網絡在本質上還是基于數據方法的運算程序和統計工具,其核心原理是在大量數據的基礎上,根據一定的特征、權重和概率來決定輸出。”⑧⑧王鋼:《人工智能刑事責任主體否定論——基于規范與語義的考察》,載《蘇州大學學報(法學版)》2022年第4期,第70頁。雖然人工智能系統具有合理程度的自我理解和自主的自我控制屬性,但并非基于意識的高級智能。⑨⑨參見魏屹東:《關于通用人工智能的哲學思考》,載《南京社會科學》2024年第2期,第10頁。因此,當前人工智能的決策作出并不是基于類似于人的意愿的自主意識,仍然受到開發者、設計者、生產者、使用者等責任主體的行為影響,即使說算法機制的解明是困難的,也并非不可行。
實際上,因難以查明內部科學機制而導致的歸責難題并非人工智能領域所特有。囿于科學技術發展和人類認知能力,人們往往難以完全解明特殊和新興領域內侵害發生的微觀機制。例如德國的“皮革噴霧劑案”,公司生產的皮革噴霧劑導致特定的消費者罹患肺水腫,但是無法查明噴霧劑中哪種特定的物質或者物質的組合能夠導致肺水腫的病癥。刑事審判庭仍然認為,“損害事件發生的原因只可能是,個別成分或該成分與其他物質的組合具有毒理學的作用機理,導致了病癥的出現。這一事實認定足以用來肯定因果關聯的存在。”①①[德]英格博格·普珀:《德國刑法總論:以判例為鑒》(第4版),徐凌波、喻浩東譯,北京大學出版社2023年版,第18-19頁。在此,只要確認損害的發生確實是行為人的行為所導致的,即使無法具體解明其中科學法則意義上的發生機制,也能認定行為人的行為與損害發生之間的基本事實關聯。有學者就指出:“即使沒有解明具體的因果經過,只要能夠明確該當行為導致了結果的發生,也可以肯定過失犯的成立。”②②坂下陽輔「人工知能の開発·利用における過失——自動運転車と過失責任を素材に」法律時報91卷4號(2019年)15頁。
算法透明在技術上無法實現的論點站不住腳,有些模型本身就具有很好的內在透明性,有些模型雖然不具有內在透明性,但可以通過各種各樣的事后透明方法得以彌補。③③參見安晉城:《算法透明層次論》,載《法學研究》2023年第2期,第59頁。算法的可解釋性可以分為兩種,一種是對模型的全局性解釋,旨在實現算法本身及其整體運算邏輯的透明化;另一種是對輸出結果的局部解釋,旨在實現對輸出結果具有針對性的個別化、具體化的解釋。④④參見周翔:《算法可解釋性:一個技術概念的規范研究價值》》,載《比較法研究》2023第3期,第189頁。實際上,算法黑箱問題只是對于前者全局性解釋的難以實現而言,而對于后者輸出結果的局部解釋而言,即使是黑箱算法模型,在技術領域內也存在事后解釋的可能性。⑤⑤増井紀貞「機械學習の解釈性」人工知能33卷5號(2018年)642頁參照。在進行刑法上的歸屬判斷時,根本無須解明整個算法模型的運作機理,只需要事后查明特定侵害結果的發生與相關責任主體的行為之間的作用關系即可。人類有能力通過準備高質量數據、開放持續學習、建立倫理指南和監督機制引導人工智能作出合理、道德且可靠的決策。生成式人工智能經過自主學習會產生違法犯罪的內容,最大的原因還是在數據來源方面存在數據獲取侵權、數據內容違法、吸收虛假信息三種風險。⑥⑥參見支振鋒:《生成式人工智能大模型的信息內容治理》,載《政法論壇》2023年第4期,第40頁。表面上人的行為并未直接控制人工智能作出自主決策,但實際上,在將增強學習算法(Reinforcement Learning)嵌入到應用程序源代碼的過程中,相關責任主體的行為將會持續發揮作用。
(三)前置法領域義務規范欠缺時仍存在刑事歸責的余地
現有理論中,允許危險的法理和客觀歸責論的路徑都是以前置法領域的義務規范違反作為對人工智能侵害進行刑事歸責的必要條件。不可否認的是,如果將來的刑事立法采用行政犯的方式來專門規定涉人工智能的過失犯或結果犯,對于侵害結果的歸責對象就必須是以違反前置法規范為要素的行為。但當前階段,人工智能產品作為新興科技的社會應用,在生產使用和司法實務的認定中都尚未形成規范的注意義務標準。并且,人工智能侵害會涉及不同前置法領域的行為規范,既可能是生產、銷售不符合安全標準的產品罪中產品的國家標準、行業標準,也可能是重大責任事故罪中生產、作業的安全管理規范,還會涉及醫療事故罪中的診療技術規范、交通肇事罪中的交通安全法規等等。還有學者指出,在自動駕駛領域的歸責中,要“跳出交通肇事罪的構成要件,轉向過失致人重傷、死亡罪”。⑦⑦姜濤,刁永超:《自動駕駛汽車涉罪的歸責難題及其解決方案》,載《學術界》2021年第5期,第159頁。“自然犯中利用人工智能手段殺人、放火、搶劫、盜竊、詐騙等行為類型,就不屬于行政不法前置性立法規則所需要考慮的行為范圍。”⑧⑧熊波:《我國人工智能刑法的行政前置性立法探析》,載《重慶大學學報(社會科學版)》2023年第2期,第238頁。如果以特定前置法行為規范的違反作為歸責的必要條件,當不存在此前置法規范違反時,還可能存在彼前置法規范違反;即使不存在任何明確的前置法規范違反,還有過失致人重傷、死亡等自然犯罪的適用余地。⑨⑨張明楷教授指出,在不滿足特殊法條構成要件的場合,還是可以重新適用普通法條。參見張明楷:《刑法學(上)》(第6版),法律出版社2021年版,第630頁以下。
以前置法行為規范為標準的“允許危險”法理,以允許這種危險發生的方式,在事后裁判中完成了本應前置性討論的重要利益衡量。允許的危險是指,“如果僅由于某個行動是危險的就予以禁止,會嚴重損害社會有用性以及國民的行動自由,因此在一定范圍內,只要社會有用性或者行動自由的利益凌駕于危險的害惡,就予以允許的考慮方法”⑩⑩小林憲太郎『刑法的帰責―フィナリスムス·客観的帰屬論·結果無価値論』(弘文堂,2007年)264頁。。而嚴密且具體地衡量不同性質的事物是很困難的,最終還是會根據一般的社會價值基準進行評價。但是,這種考慮“包含了對‘生命價值’的計算,裁判所實質上在進行著對社會影響極大的政策性判斷,根據裁判所本應具有的制度性能力和基礎,這并不是妥當的解決”。①①稲谷龍彥「人工知能搭載機器に関する新たな刑事法規制について」法律時報91卷4號(2019年)56頁。有學者提出疑問:當人工智能機器人還只是例外存在時,其所產生的損害就只會是異常的風險。若將之作為允許的危險,對于沒有利用人工智能機器的人類,只不過是強制地施加損害。②②山下裕樹「AI·ロボットによる事故の責任の所在について——自動運転者の事案を中心に」ノモス=Nomos45號(2019年)97頁。還有學者對允許危險的適用結論表示懷疑,明確指出包括性地否定制造者的過失責任并不妥當。③③木村光江「自動運転と過失責任」秋吉淳一郎ほか『これからの刑事司法のあり方』(弘文堂,2020年)48頁。不論如何強調行為的社會有用性,允許危險的發生不代表可以允許法益侵害結果的發生。例如在自動駕駛領域,不能說交通領域便利和高效的利益相較于防止具有生命危險的事故更優越。“德國實證研究表明,在傳統人類駕駛的車輛中,90%-95%的事故是由人類的錯誤行為引發;在自動駕駛時代,這一數據可能會發生反轉,即事故是由機器、電腦、算法的錯誤引發。”④④石井徹哉『AI·ロボットと刑法』(成文堂,2022年)32頁。但是“即使說比人駕駛的場合危險更低,但自動駕駛引發死傷事故本身是不可避免的。”⑤⑤稻谷龍彥「技術の道徳化と刑事法規制」松尾陽編『アーキテクチャと法』(弘文堂,2017年)109頁。“人駕駛導致事故引起的死傷,可以歸屬于人的責任,等于是說如果人合理駕駛的話就可以避免事故發生。與之相對,自動駕駛的應用導致的更少的死傷人數,卻是‘伴隨人工智能產品的實用化作為命運而必須接受的’。”⑥⑥松宮孝明「自動運転車をめぐる刑事法的諸問題」立命館法學1號(2021年)4頁。因此,如果事前允許并且事后一律否認歸責,無異于將這一部分必然會發生的生命犧牲當作了人工智能技術發展的手段而利用。
四、人工智能自主決策介入刑事歸責的判斷機制:基于行為的作用力
(一)相關主體的行為對人工智能自主決策施加作用的具體判斷
1.行為人的行為具有導致智能決策侵害的危險內容
人工智能自主決策侵害的獨有問題域在于算法、程序上的開發錯誤,這一危險性很多場合下直到運營中才能識別出來。當人工智能被投入運營后,相關主體就難以對算法決策的作出施加直接的支配和控制,但并不意味著不能認識到系統運行的風險。人工智能可信賴的關鍵要素之一,就是人的能動性和監督。“對于智能產品或智能機器人的潛在風險,設計者、操作者與所有者負有一定的監管義務,在法定條件下,需要承擔刑事責任。”⑦⑦孫道萃、王曉杰:《刑法面向人工智能的理論應答》,載《學術交流》2022年第12期,第131頁。尤其對于開放型的人工智能系統(Open AI)而言,這類系統在訓練階段結束后還會在使用過程中繼續學習,產品的設計者和生產者應當對于后續學習階段的決策作出承擔一定程度的監管義務。還有學者提出,為了確保投入市場后能切實履行監管義務,人工智能產品的生產者要在投入市場之前的階段履行建立安全確保體制的事前整備義務。⑧⑧遠藤聡太「人工知能(AI)搭載機器の安全性確保義務と社會的便宜の考慮)法律時報91卷4號(2019年)25頁。歐盟《人工智能法案》也規定,在設計開發階段就應該開始建立和維護風險管理系統。開放持續學習的人工智能系統會在投入市場后根據外在環境的變化以及使用者的操作習慣而進行自主學習,無論事前的防范措施如何完善,都無法根除其自主決策導致侵害的可能性。因此,為了應對智能產品因自主學習導致侵害的危險流動性,事前有必要整備相應的制度性安排,從而在投入應用后可以迅速且合理地施展安全確保措施。
當人工智能產品投入社會應用之后,開發生產者要對人工智能產品的安全運行進行持續監管。首先,最重要的環節就是要適時地進行升級改造和信息收集。以往在傳統的醫藥品或工業制品領域,對于賦予生產者在產品流通后的監督義務持較為慎重的態度。而對于搭載人工智能的產品而言,通過網絡通信等信息技術的應用可以確實且容易地進行信息收集。⑨⑨神例康博「欠陥製造物の回収とその限界に関する覚書―いわゆる薬害エイズ·ミドリ十字事件刑事判決を契機として」板倉宏博士古稀祝賀論文集編集委員會編『現代社會型犯罪の諸問題』(勁草書房,2004年)183頁參照。基于人工智能自主學習導致侵害發生的危險不確定性,以及投入應用后持續監管義務履行的容易性,應當要求開發生產者持續監視人工智能產品整個生命周期內的運行,適時地進行升級改造,并且收集和分析關于可能發生侵害的安全性信息。其次,生產方還要履行警告義務和回收義務。雖然在人工智能產品的設計和生產階段無法辨明潛在的決策危險,但一旦在投入使用后基于持續的監視義務的履行而發現了侵害可能性,或者已經現實發生了侵害事件,應當賦予負責開發、生產以及銷售的行為主體警告義務和回收義務。最后,人工智能產品的提供者應當確保使用者明確產品的性能、功能、使用規則,從而防止因使用者操作不當而引發侵害的危險。另一方面,使用者對于人工智能自主決策的侵害也要承擔監管和防止的義務。例如,ChatGPT用戶是人工智能系統輸出內容的控制者之一,理應對輸出內容負有監督義務,并對其可能實施的嚴重危害社會的行為負有預見義務,盡其所能避免此類行為的產生。①①參見鄧建鵬、朱懌成:《ChatGPT模型的法律風險及應對之策》,載《新疆師范大學學報(哲學社會科學版)》2023年第5期,第50頁。
2.行為人的行為與智能決策侵害間的現實作用關聯
算法決策在理性參與程度的評價上存在兩個極端,一個極端是人類發出命令,算法線性地執行命令;另一個極端是人類放棄決策權,僅設定一個抽象功能,算法完全自治地實現這一功能。②②參見于霄:《算法民事歸責的理性標準》,載《河南大學學報(社會科學版)》2023年第2期,第44頁。現實中的情形往往處于這兩種極端的中間地帶,重要的衡量標準就是人的行為對于智能決策的控制和支配程度。一般而言,開發者的程序設計錯誤、生產者的缺陷產品制造等,會使得人工智能從一開始就具備損害能力,直接導致運行中偏離目標設置發生侵害性事件。例如,在算法侵害中,算法開發者的數據結構選擇、算法邏輯制定會成為直接影響力的來源;再如,程序設計者在設計程序架構時并未將機器人工學三原則事先寫入,從而直接導致人工智能自主決策的侵害性;③③這可能會導致自動駕駛汽車在行駛中出現“路怒癥”,從而直接危害人類的生命。石井徹哉『AI·ロボットと刑法』(成文堂,2022年)197頁參照。又如,由于“預見可能性的內容和程度與被科予的注意義務的內容是存在相關關系的”,④④樋口亮介「注意義務の內容確定プロセスを基礎に置く過失犯の判斷枠組み(1)」法曹時報69卷12號(2017年)17頁。如果相關行為主體從一開始就意識到人工智能因錯誤行為而具備了侵害性,產品的投放行為本身也可以被評價為侵害結果發生的直接危險來源。
然而,人工智能產品從設計、生產、流通再到實際應用會經歷較為漫長的過程,最終的智能決策導致侵害發生時,相關行為主體的行為與結果發生之間的因果鏈條也會呈現出時間間隔久、作用機制復雜的特點。因此,在基于一定的事實前提賦予行為人安全確保義務的場合,結果的發生也必須在該事實前提的影響力范圍之內。例如,日本著名的三菱汽車輪胎脫落事件中,日本最高裁判所認為,被告人所懈怠的召回義務是基于輪轂強度不足才產生的,如果事故的發生是由于使用者導致的輪胎磨損,則否定因果關系,只有當輪胎脫落是起因于輪轂強度不足時,才能肯定因果關系。⑤⑤松原芳博「客観的帰屬論の系譜」淺田和茂ほか編『刑事法學の系譜:內田文昭先生米壽記念』(信山社,2022年)281頁參照。據此,雖然要求對人工智能產品的召回義務,但當人工智能的自主決策導致侵害的原因并不包含在賦予其召回義務的事實基礎的場合,即并非由于研發、生產行為導致自主決策具有侵害性,而是由于使用者的不當操作或第三人的惡意攻擊,同樣不能認定召回義務的違反與自主決策侵害之間的歸屬關系。
即使行為人在先前階段最大限度地履行了安全確保義務,是否能絕對地避免侵害性自主決策的作出,在證明上是困難的。于是,合義務替代的判斷中,有學者主張適用危險升高理論。⑥⑥參見王霖:《自動駕駛場景下過失犯歸責困境巡檢與路徑選擇——以規范歸責模式為視角》,載《河北法學》2020年第3期,第104頁。危險升高理論的初衷是一般性地禁止會提升結果發生危險的行為,在無須百分之百地要求結果能夠避免的意義上,緩和了對義務違反行為與結果發生之間關聯性的證明要求。在人工智能自主決策侵害的事實領域中,涉及算法機制的因果關系證明對于算法可解釋性的技術性要求很高,緩和證明要求的觀點確實能避免歸責的困難。但是,通過技術鑒定解明算法機制,確認行為與自主決策侵害的發生之間存在“基本的事實關聯”,是將侵害結果歸屬于相關行為主體的必要前提。因此,對于專業的技術問題,如果技術領域無法查清與人的行為之間具有關聯性,法律需要遵守“存疑有利于被告”原則。①①參見曾粵興、高正旭:《論人工智能技術的刑法歸責路徑》,載《治理研究》2022年第3期,第122頁。可以設想的是,由于黑箱算法運行機制的高度復雜,在很多場合中技術性鑒定結論往往只能是“概率性”的。對此,要區分“不確定性”的鑒定結論和“無法得出結論性意見”的鑒定結論。雖然司法希望鑒定結論是確定不疑的,但“科學技術只能給出不確定的答案”。②②陳永生:《論刑事司法對鑒定的迷信與制度防范》,載《中國法學》2021年第6期,第268頁。“雖然‘不確定性’司法鑒定意見沒有外在的‘確定性’,但不可否認它也是趨向于高概率的正確性。”③③譚趁尤、郭華:《科學≠確定:司法鑒定意見本質的再認識》,載《社會科學家》2020年第12期,第106頁。因此,對于“不確定性”鑒定結論不能一概得出否定歸責的結論,而是要結合鑒定的原理來判斷其結論的可靠性。
(二)多主體對于人工智能自主決策侵害施加作用的關聯與競合
1.人工智能自主決策侵害中作用力來源的多主體責任
人工智能在社會應用中導致侵害結果發生后,在結果歸屬中選取歸責對象時,往往會追溯到復數行為主體的行為。僅算法編寫這一個階段,復雜算法的編寫通常涉及算法工程師、數據科學家等多個不同背景和專業領域的人員。即使能夠證實特定復數行為主體的行為與自主決策侵害之間具有事實關聯,由于各個行為人之間不存在意思聯絡,如何在復數行為主體間分配結果發生的責任也成為問題。一般而言,可以將涉及人工智能侵害的行為主體分為兩類,一類是生產者,包括算法設計、產品制造、銷售供應等前端環節;另一類是使用者,即當人工智能實際投入應用后操作和管理的人員。
在復數行為主體參與的結果歸屬判斷中,關鍵在于明晰各方主體的行為參與損害發生的具體作用機制。作為前端責任主體的生產者的行為是通過對產品性能、算法機制的影響參與侵害發生,作為后端責任主體的使用者的行為則是在人機交互的過程中對人工智能自主決策的行為產生影響。當現實結果發生時,前端與后端的復數責任主體的行為對于結果發生的作用力會存在多種組合形式,尤其是復數的作用力以不同的作用機制同時發生時,結果歸屬的判斷會出現問題。對此,既需要建構多方主體施加的作用力之間的關聯性判斷,在互無關聯的作用力發生競合時,還需要對各自單獨的作用力展開分析。
2.多主體對于人工智能自主決策施加作用的行為的關聯性判斷
雖然人工智能的自主決策并非規范意義上的介入事項,當使用者的不當行為對算法決策產生影響時,相較于生產者的行為而言,使用者的行為就是獨立的介入事項。判斷對生產者的結果歸屬時,就需要評價生產者的行為與使用者的行為之間的關聯性。先前行為與介入事項之間的關聯性存在不同的類型,有學者區分行為人的行為施加了誘發介入事項影響的場合,與行為人的行為制造了觸發結果狀況的場合。④④安田拓人「実行行為と因果関係」法學教室487號(2021年)99頁參照。結合人工智能自主決策導致損害發生的具體情境,可以區分以下三種情況:
第一種,生產者沒有履行或者沒有充分履行安全確保義務的行為,對于使用者的不當行為產生直接影響。例如,使用者遵照說明書的使用方法進行操作,但由于說明書存在錯誤,而導致人工智能的行為造成侵害。此時,使用者的錯誤操作行為是受到生產者提供錯誤說明書行為的直接心理影響,應當肯定二者之間存在關聯。只要可以證明是生產者導致的程序錯誤、產品缺陷或者未正確履行告知義務使得使用者無法采取適當操作,甚至阻礙使用者采取適當操作時,即使侵害的發生是由于使用者的錯誤行為直接導致,也理應追究生產者的責任。
第二種,生產者沒有履行安全確保義務的行為制造了更加容易發生使用者不當行為的具體狀況。在過失競合特別是管理過失中,判斷安全體制確立義務違反和結果之間的因果關系時,經常會認定行為人設定的危險狀況實現于結果。①①島田聡一郎「自動車のトランク內に被害者を監禁した行為と同車に自動車が追突して生じた被害者死亡との間に因果関係があるとされた事例」ジュリスト1332號(2007年)158頁參照。由于生產者對于人工智能的算法設計原理和算法運行機制的掌控度更高,理應在具體設計中考慮到使用者可能的不當操作會導致自主決策產生侵害的情形,并配置相應的警示措施。例如,醫療人工智能由于算法設計的缺陷而作出錯誤決策時,就是制造了一個危險的狀況,此時如果醫務人員采納該決策的行為并無“嚴重不負責任”的情形,就要認為生產者的行為與醫務人員的行為之間存在關聯,應當追究生產者的責任。
第三種,使用者的不當行為處于生產者的監督管轄的范圍之內,生產者怠于履行監管防控的義務,放任結果發生或者擴大,也要同時對侵害結果負責。考慮到推廣人工智能技術的社會性目標是特定領域中使用效率的提升和對使用者的便利性,在刑法歸責的討論中形成了原則上由生產者負責的價值傾向和規范性安排。“人工智能越智能,使用者所承擔的責任范圍越小,而研發者與生產者的責任范圍則相對擴張。”②②張旭、楊豐一:《恪守與厘革之間:人工智能刑事風險及刑法應對的進路選擇》,載《吉林大學社會科學學報》2021年第5期,第89頁。不斷進行自主學習的人工智能產品就是一個不穩定的“危險源”,對該危險源起支配管理地位的生產者就要對此負責。正如張明楷教授指出:“雖然介入了被害人不適當或者異常的行為,但是,如果該異常行為屬于被告人的管轄范圍之內的行為,仍然能夠將結果歸屬于被告人的行為。”③③張明楷:《刑法學(上)》(第6版),法律出版社2021年版,第244頁。例如在自動駕駛領域,生產者不僅要保證汽車交付時的算法安全,還要確保汽車交付后經過自主學習的算法安全。
3.多主體對于人工智能自主決策施加作用力發生競合時的判斷
人工智能的自主決策通常受到來自多方主體行為的直接影響,不論是準備了可能產生危害性的數據,還是未能建立起完善的模型,都會成為人工智能自主決策侵害的原因。傳統刑法理論中“競合性作用關系”最適宜描述人工智能自主決策侵害的因果流程:“第一個行為產生后,本身不足以造成危害結果,或者雖有這種實在可能性,但還不具有當時就出現這種結果的條件。相對獨立因素介入后,在一個行為所造成的現實狀態基礎上,又加上積極的力量,從而與第一個行為的力量共同作用,協力促成危害結果的產生。”④④張紹謙:《刑法因果關系研究》(第2版),中國檢察出版社2004年版,第179頁。只要某一行為主體的義務違反行為對結果發生施加了現實影響力,即使同時還存在來源于其他行為主體的影響,也不會影響結果歸屬。在此意義上,即使各方行為主體均是過失犯罪,也無需確立生產者與使用者的“共同注意義務”,只需要各自作為過失的同時犯單獨評價即可。
在“原因競合”的場合,并非各方行為主體對錯誤算法決策的作出施加了任何影響都足以肯定結果歸屬。“如果不是共同犯罪,而是兩個以上互無聯系的行為人的危害行為共同造成一個危害結果,更應實事求是地分清原因的主次,恰如其分地區別對待。”⑤⑤馬克昌:《犯罪通論》,武漢大學出版社1991年版,第218頁。在人工智能侵害的場景中,之所以會出現原則上由生產者負責的價值傾向,也是因為一般而言生產者對于算法運行機制的支配力更強,因而對于侵害性自主決策的作用力也更為主要。“在智能駕駛與人的駕駛地位相互剝離過程中,技術的研發者與產品的設計者、甚至產品的運營者,對智能駕駛更負有實際的控制力和管理力。”⑥⑥孫道萃:《人工智能駕駛的刑法解構與回應路徑》,載《西安交通大學學報(社會科學版)》2022年第2期,第161頁。還有學者認為,“算法控制不是刑法意義上的行為,研究對象只能是算法制造和使用行為。”⑦⑦皮勇:《論自動駕駛汽車生產者的刑事責任》,載《比較法研究》2022年第1期,第60頁。使用者很難洞悉算法的運行機制,也無法掌控在各種應用情境中算法的決策傾向,其操作也更多是為了實現社會目的而不是影響算法。但這種價值傾向的評價并不是絕對的,以ChatGPT為代表的生成式人工智能的發展就存在扭轉這種支配性局面的可能。生成式人工智能的服務提供者確實能在一定程度上控制和避免侵害性內容的生成,但生成內容的產生是用戶與人工智能協同作用的結果。不僅如此,相較于上游端的研發者和服務提供者而言,終端用戶“在與模型互動的過程中提供的數據和信息會‘反哺’模型,推動模型的進化甚至‘黑化’”①①張欣:《生成式人工智能的算法治理挑戰與治理型監管》,載《現代法學》2023年第3期,第115頁。。在此意義上,對于生成式人工智能所產生的侵害而言,在很多場合中用戶的作用力顯然更為主要。②②歐盟的《人工智能法案》側重于對人工智能產品的提供者方的規制。對此,有學者就指出,人工智能產品的用戶也是重要的責任主體,法案僅要求提供者評估人工智能系統在初期的風險是不夠的。參見曾雄、梁正、張輝:《歐盟人工智能的規制路徑及其對我國的啟示——以《人工智能法案》為分析對象》,載《電子政務》2022年第9期,第68頁。
五、結語
當人工智能的自主決策介入傳統法益侵害發生的因果流程時,會引發刑事歸責的困境。對此,既不能通過一概賦予人工智能刑事責任主體地位來回避問題,也不能繼續以人工智能的“工具性”來消解問題。在當前以及未來可現實性預估的發展階段,人工智能自主決策介入侵害流程的事實領域并未發生質的變異,其雖然引發了理論性的難題,但不能顛覆已有的基本理論架構。對此,應當在紓解理論層面的難題的基礎上,以相關責任主體的行為與人工智能的自主決策之間的現實作用關聯為事實根據,結合人工智能產品的發展階段、應用場景來合理評價結果歸屬。未來,通用人工智能將會代替人類進行高精度的認知、判斷和操作,終將承繼迄今為止人類社會的大部分任務。但是,智能化本身不會直接帶來規范層面的變動,其直接作用的只能是社會生活事實。應對智能化時代的法律性調整和制度性變革也不能徑行從人工智能的技術構造中推導出來,而是要通過人工智能的行為方式以及現實因果流程的樣態來把握。因此,從應對方式上來說,與其任由技術發展改變法律內容,在既有的法律框架中回應新形態的生活事實,以新形態的事實領域反哺刑法解釋學原理的完善,才是討論的應然方向。
Criminal Liability for Artificial Intelligence Autonomous
Decision-Making Intervention in Infringement Processes
Abstract: When autonomous decision-making by artificial intelligence (AI) leads to harmful outcomes, the determination for the attribution of results is a crucial factor regarding the study of the application of criminal law on AI issues. In the causal process of autonomous intelligent decision-making, the problem of attributing responsibility arises in both factual determination and normative evaluation, which presenting challenges to intentional and negligent offenses. The existing theoretical approaches have sidestepped post-hoc regulation of algorithmic harm. The decision-making by AI is not an intervention in the normative sense and does not pose an obstacle to attributing results, whereas the Result Attribution does not require a comprehensive explanation of algorithmic models, instead, it involves establishing the “basic factual connection” between the behavior and the harm. In specific determinations, the post-hoc confirmation of the real causal relationship between behavior and the results shall be compulsory. When there are multiple responsible parties, attributing the outcomes involves with the assessment of the interrelationship of behaviors and the evaluation of the respective causal effects.
Keywords: Artificial General Intelligence; Autonomous Decision-making; ChatGPT; Result Attribution