房慧穎
(華東政法大學 刑事法學院,上海 200042)
與工業革命塑造的勞動者駕馭無自主能力的機械化工具的生產力結構不同的是,智能革命締造的生產力結構是勞動者利用有自主能力的智能化工具。(1)何立民:《人工智能時代是什么時代?》,《單片機與嵌入式系統應用》2020年第4期。“駕馭”意味著機械化工具作用的發揮離不開勞動者的直接操控,而“利用”則意味著智能化工具作用的發揮無需勞動者的直接參與,勞動者僅需啟動智能化工具,并等待著“享受”智能化工具所產生的成果。(2)黃素珍:《人工智能的責任困境:以自主能動性和道德圖靈測試為探討中心》,《山東社會科學》2020年第4期。由此,“工具化”的生產工具逐步演變為“本體化”的生產工具。這意味著直接實施“危害行為”的主體由人轉變為智能化工具,由此造成行為與人的分離化。(3)于沖:《刑事合規視野下人工智能的刑法評價進路》,《環球法律評論》2019年第6期。問題在于,智能化工具實施危害行為的原始發動力的確是人類提供的,但是整個算法循環運作過程卻無人類直接參與。確切地說,人類被排除在了算法循環之外,被動接受算法運行結果。(4)[英]瑪格麗特·博登:《人工智能哲學》,劉西瑞等譯,上海譯文出版社2001年版,第11頁。“危險在于沒有人能確保該算法設計正確,尤其是當它與眾多算法交互時。”(5)[美]皮埃羅·斯加魯菲:《智能的本質:人工智能與機器人領域的64個大問題》,任莉等譯,人民郵電出版社2017年版,第169頁。換言之,當數量驚人的算法交互運作,且速度遠超人類想象時,人類社會所面臨的風險以及對危害結果進行歸責的困難便顯而易見了。
由于人工智能犯罪與普通犯罪相比,存在行為與人分離這一顯著特征,在人工智能犯罪刑事責任歸屬與認定方面,也就存在區別于普通犯罪的特質。本文所要解決的問題是,其一,人工智能犯罪的刑事責任歸屬應遵循什么樣的標準,也即人工智能犯罪的刑事責任在智能機器人的生產者和使用者之間應當如何分配?其二,人工智能犯罪刑事責任的認定應遵循什么樣的標準,也即刑法應如何確定智能機器人的生產者或者使用者構成犯罪的尺度或底線?以上問題需結合智能機器人的本質屬性以及人工智能犯罪的實質,契合刑法理論在人工智能時代的走向,以得出妥善的結論。
在現階段,智能機器人尚不具有獨立自主的意識和意志,其本質屬性仍是人類的工具。人工智能犯罪實質上是人類犯罪,刑法規制人工智能犯罪并非規制智能機器人所實施的犯罪行為,而是規制智能機器人背后的人類過錯。
現階段的智能機器人在人類編寫的算法控制之下,為了滿足人類的需求而運作,盡管在運作過程中,智能機器人能夠發揮相當程度的自主性,無需人類的逐步操控。換言之,在程序運作時,人類被排除在了控制智能機器人的算法循環之外,被動接受算法的運行結果,但這并不意味著智能機器人取得了自主性,擺脫了作為人類工具的“命運”。事實上,在智能機器人運作過程中,其自主性的發揮完全在程序編寫者的預期范圍內,仍符合作為工具的兩大屬性,即可為人類所支配,不能在自主意識和意志支配下實施影響客觀世界的行為。
一方面,智能機器人可為人類所支配。能夠為人類支配的工具具有千差萬別的表現形式,但其在本質上都是對人類身體某一部分機能的替代。從遠古時代人類打造的石器、青銅器、鐵器等工具到近現代人類發明創造的各種大型機械等工具,都是對人類手、腳等軀體功能的替代。而在智能時代,計算機、智能機器人等實現的主要是對人類大腦功能的替代。盡管智能機器人與其他工具相比,在復雜程度、精密程度、對人類身體的替代程度上具有天壤之別,但是智能機器人并未超越工具的本質屬性,都是在人類的支配下替代人類身體某一部分機能。
另一方面,智能機器人不能在自主意識和意志支配下實施影響客觀世界的行為。智能機器人能夠在人類編寫的程序控制之下自動運作,對客觀世界產生影響,其自動運作的前提是遵循人類編寫的程序。盡管從外觀上看來,智能機器人在一定程度上發揮了主觀能動性,但究其實質,程序體現了編寫人的意識和意志,而非智能機器人自身的意識和意志。事實上,智能機器人并無自主意識和意志,其實施的所有影響客觀世界的行為均體現人類的意識和意志。
以自動駕駛汽車為例,盡管自動駕駛汽車能夠自主確定行駛速度、最優路線,但是其所實施的上述行為均在人類編寫的程序控制之下,遵循人類輸入的指令。換言之,盡管自動駕駛汽車在外觀上表現出一定的主觀能動性,但是這種主觀能動性的發揮實質上是人類意識和意志的具體化,并非體現自動駕駛汽車自身的意識和意志。自動駕駛汽車的一切行為均受控于人類,即為人類所支配。
從形式上看,人工智能犯罪是智能機器人作出的危害社會行為,但實質上人工智能犯罪體現的并非智能機器人的過錯,而是智能機器人背后的人類過錯。人工智能犯罪本質上是人類在使用智能機器人過程中故意或者過失地導致嚴重危害社會結果發生的行為。
首先,指導和控制智能機器人作出行為的是人類編寫的算法,產生刑事風險的算法偏差并非智能系統本身運作過程所存在的技術性偏差,而是融入了人為影響的由算法導致的“技術霸凌”。信息技術、人工智能技術發展的三要素是算法、數據和算力(6)賽迪顧問股份有限公司:《2018人工智能核心產業發展白皮書》,《中國計算機報》2018年11月26日第8版。,算法對智能系統的運作有著決定性影響。算法具有高度的專業性,未受過專業訓練的人往往無法掌握算法的運作原理,更無法對算法的運作過程施加影響。因此,算法的高度專業性使得算法的編寫與運行過程被極少數專業人士所掌握。(7)周游:《我國亟待建立人工智能算法審查機制》,《中國計算機報》2018年5月14日第12版。算法作為智能技術的核心體現,本身是中立的,不具有個人偏好或者人類的善惡價值。但是,智能技術本身的中立并不代表智能系統運行之后產生的結果中立。智能系統運作的過程看上去體現了充分的自主性,并非受到人為控制,但是智能系統運作的原動力——算法,在被編寫與設計的階段,往往會不可避免地受到算法設計者倫理道德、價值取向、結果導讀、指標標準的影響。(8)于沖:《刑事合規視野下人工智能的刑法評價進路》,《環球法律評論》2019年第6期。“即使算法結果是由數據自動化處理得出,從本質上講就是人為編制的運算法則,其中的回報函數體現著工程師的設計意圖和價值取向。”(9)于沖:《人工智能的刑法評價路徑:從機器規制向算法規制》,《人民法治》2019年第17期。融入了設計者不良倫理道德、不當價值取向的算法,即是存在偏差的算法。某一算法的編寫往往影響不只一個智能系統,而可能會同時作用于多個系統,又或者,一個智能系統可能會影響一個特定領域,也可能會影響多個領域。算法偏差的影響非個人力量所能比擬,其通常會呈現規模化、系統化特征,從而對社會發展不利。
其次,現階段的智能機器人不具有實質意義上的法律人格。歐洲議會在2016年針對智能機器人在外觀上能夠自主作出并執行決策的情況,在立法建議報告中提出賦予智能機器人“電子人格”,但并沒有如何貫徹智能機器人“電子人格”的建議。賦予智能機器人“電子人格”,意味著承認智能機器人的行為能力與責任能力,而具有行為能力與責任能力的智能機器人在給他人造成損害時,應承擔相應的賠償責任。在該立法建議中,對智能機器人造成損害時所承擔的賠償責任的具體落實,僅提議智能機器人的生產商為其購買強制性保險。假定智能機器人具有“電子人格”能夠獲得法律的認可,最終承擔責任的仍舊是人類,且賦予智能機器人所謂的“電子人格”并未在實質上影響人類社會的法律關系。因此,目前智能機器人還不可能具有實質意義上的法律人格。
最后,現階段的智能機器人不具有實質意義上的刑事責任能力。智能機器人的設計者、生產者作為信息技術領域和人工智能技術領域的專業人士,是智能時代社會風險源頭的有力影響者甚至是實際控制者。而現階段的智能機器人不具有自主的意識和意志,無論是人類故意利用智能機器人實施犯罪行為,還是在使用智能機器人過程中因過失導致嚴重危害社會的結果,智能機器人都只是作為工具而存在,危害后果的發生并非智能機器人意識和意志作用的結果。智能機器人作出的所有行為,均未超出人類編寫、設計的程序范圍。智能機器人的行為目的、行為邊界由人類界定。換言之,智能機器人在完成人類設定目的的過程中能夠發揮自主性,但是自主性的發揮被嚴格限定在人類編寫的程序射程之內,也即智能機器人的行為均在人類的概括掌控之下。
人工智能犯罪的刑事責任歸屬應遵循什么樣的標準,也即人工智能犯罪的刑事責任在智能機器人的生產者和使用者之間應當如何分配?如果生產者或者使用者故意利用智能機器人實施犯罪行為,則只需根據生產者或者使用者的故意內容確定其刑事責任,此時不存在刑事責任歸屬的難題。當生產者或者使用者都不存在犯罪故意,卻在過失的情況下導致了嚴重危害社會的結果發生時,應如何確定刑事責任的歸屬?筆者認為,除使用者違反操作規程使用智能機器人的情況之外,過失犯罪刑事責任均應由生產者承擔。也即人工智能過失犯罪刑事責任以歸屬于智能機器人生產者為原則,以歸屬于智能機器人使用者為例外。
首先,智能機器人生產者承擔的注意義務遠多于智能機器人使用者,使用者只應承擔按照操作規程使用智能機器人的注意義務。理論上認為,對過失犯罪而言,無結果即無犯罪。追究智能機器人生產者或者使用者過失犯罪刑事責任的前提是,生產者或者使用者違反注意義務并因此導致嚴重危害社會的結果發生。因此,探討人工智能過失犯罪刑事責任歸屬問題的關鍵便是,誰承擔并違反了注意義務。與使用普通產品不同,使用智能機器人時,使用者對智能機器人發揮的影響力極弱,智能機器人按照算法決定的程序作出行為,使用者只是單純利用算法運作所產生的結果。而生產者是算法的編寫者,能夠從根本上決定智能機器人的行為,能夠對智能機器人的作用發揮產生決定性影響。不同主體所承擔的注意義務理應根據對智能機器人影響力的大小而調整。因此,生產者應承擔絕大部分注意義務,而使用者只承擔極少部分注意義務,也即只要使用者未違反操作規程使用智能機器人,便應當認為使用者未違反注意義務。
其次,人工智能過失犯罪刑事責任原則上歸屬于智能機器人生產者,符合“支配原則”。“支配原則”是指,“風險屬于誰的管轄范圍,誰便需要對風險及由此產生的結果來負責”(10)勞東燕:《過失犯中預見可能性理論的反思與重構》,《中外法學》2018年第2期。。算法是智能機器人運作的動力和依據,而算法由智能機器人生產者掌控。當算法存在瑕疵時,智能系統將會在運作過程中將這一瑕疵傳遞并放大,進而帶來不良后果。(11)于沖:《刑事合規視野下人工智能的刑法評價進路》,《環球法律評論》2019年第6期。如果智能機器人生產者在編寫算法過程中將存在瑕疵的數據輸入,可能引發嚴重的社會危害后果,甚至帶來相應的刑事風險。(12)李智勇:《終極復制:人工智能將如何推動社會巨變》,機械工業出版社2016年版,第90頁。尤其是對于與生命健康或者財產安全息息相關的領域而言,如自動駕駛、醫療、工程機械等智能系統,一旦原始數據存在瑕疵,將會造成難以想象的惡果。而使用者在使用智能機器人過程中,一般無法干預智能機器人的運作過程。生產者的支配力不僅作用于智能機器人的生產領域,而且可以延伸到智能機器人的使用領域。這與普通產品的生產和使用存在質的區別。以汽車為例,普通汽車在生產領域由生產者支配,而在使用領域則由使用者支配。如果普通汽車發生交通事故,除汽車本身存在瑕疵,如剎車系統存在故障外,都應被認為是在駕駛員支配領域發生的事故,即應由駕駛員而非汽車生產者承擔責任。但對于自動駕駛汽車而言,即使是汽車使用領域,也仍屬于汽車生產者的支配范疇。只要自動駕駛汽車的使用者未違反汽車操作規程,則無論是因汽車本身瑕疵而引發交通事故,還是因汽車違反交通規則而引發交通事故,均屬在汽車生產者支配領域發生的事故。
再次,人工智能過失犯罪刑事責任原則上歸屬于智能機器人生產者,契合“合理信賴原則”。“合理信賴原則”是指,智能機器人使用者有理由相信智能機器人生產者會按照法律法規、人工智能行業規范的要求生產出值得信任、不存在產品瑕疵、能夠安全使用的智能機器人,只要使用者遵循智能機器人的操作規程,智能機器人便會正常發揮作用,不會引發事故。基于“合理信賴原則”,智能機器人的生產者應當在當前技術發展程度內,窮盡智能機器人可能引發事故的所有瑕疵并及時糾正。智能機器人含有較高科技含量,非專業人士無法掌握其運作規則。因此,智能機器人使用者不可能具有預見并糾正智能機器人瑕疵的能力,只能信賴智能機器人生產者能生產出符合安全標準的無瑕疵智能機器人。“市場經濟通過交換關系將不同的利益主體聯系到一起, 這是人類合作秩序的擴展。為保障人類的合作, 為保證社會秩序的公正和公平, 市場經濟必然伴隨著道德倫理和法律制度的建設。”(13)高劍平、曲用心:《論利益內在的矛盾運動——基于歷史唯物主義的視野》,《新時代馬克思主義論叢》2021年第1期。而智能機器人生產者應遵循法律法規、人工智能行業規范以及產品說明和承諾,預見智能機器人的瑕疵并及時進行糾正,以防引發嚴重危害社會的后果。
最后,人工智能過失犯罪刑事責任原則上歸屬于智能機器人生產者,契合人工智能技術誕生的最初宗旨。人工智能技術之所以誕生,主要是科學家們希望通過探求能夠替代人類大腦的機器,將人類從繁雜勞動中解放出來,為人類探求更高層次的生命價值和人生意義留出更充足的大腦空間。如果法律仍為智能機器人使用者設定較高的注意義務,則與智能機器人的設計與生產初衷背道而馳。仍以自動駕駛汽車為例,生產者為汽車設計自動駕駛程序,初衷就是把駕駛員從駕駛的疲勞與機械動作中解放出來,以便“駕駛員”能夠在汽車行駛過程中同時實施其他行為。正因如此,與普通汽車相比,自動駕駛汽車“駕駛員”在汽車行駛途中理應承擔遠小于普通汽車駕駛員的注意義務。換言之,自動駕駛汽車“駕駛員”只需遵循汽車操作規程來啟動汽車以及在汽車發出警報等必要時刻介入駕駛行為,在其他時間無需干擾自動駕駛汽車的自動運行。在行駛過程中遵守交通法律法規,控制汽車的行進方向、路線、速度等,是自動駕駛汽車程序運行所能自動達成的要求和目標,無需使用者介入。如果法律賦予自動駕駛汽車使用者除簡單、必要地按照操作規程所需作出動作之外的義務,如持續地監督自動駕駛汽車的運行狀況,則與自動駕駛汽車的設計與生產初衷相悖。
對智能機器人所實施行為能夠產生決定性影響的是智能機器人生產者。當生產者或者使用者都不存在犯罪故意,卻在過失的情況下導致了嚴重危害社會的結果發生時,除使用者存在違反操作規程使用智能機器人的情況之外,過失犯罪刑事責任均應由生產者承擔。但是,這并不意味著對智能機器人生產者的刑事歸責具有隨意性。相反,刑法認定智能機器人生產者構成過失犯罪應遵循什么樣的標準,也即刑法應如何確定智能機器人生產者構成犯罪的尺度或底線,是一個值得深入探究的課題。
第一,確定智能機器人生產者構成過失犯罪的標準時,應遵循在安全與發展中求平衡的原則。(14)房慧穎:《預防刑法的天然偏差與公共法益還原考察的化解方式》,《政治與法律》2020年第9期。應當看到,刑法認定智能機器人生產者構成過失犯罪的標準,會直接影響人工智能技術為社會帶來的風險及智能機器人生產者技術創新的熱情。具體而言,如果智能機器人生產者構成過失犯罪的標準過低,即智能機器人生產者動輒面臨被追究刑事責任的風險,則其研發、設計、生產智能機器人的積極性將大大降低,這將會限制甚至阻礙人工智能技術的進步與發展;如果智能機器人生產者構成過失犯罪的標準過高,則生產者在研發、設計、生產智能機器人時可能會不認真履行保證人義務,從而導致產品安全問題產生,進而導致人工智能技術風險的不當升高。“過失犯是開放的構成要件,對于過失犯的把握要非常謹慎。”(15)儲陳城:《人工智能時代刑法歸責的走向——以過失的歸責間隙為中心的討論》,《東方法學》2018年第3期。刑法所設定的智能機器人生產者構成過失犯罪的標準既不能過高,也不能過低,而應盡量在降低人工智能技術風險與促進人工智能技術發展之間達到平衡。
第二,確定智能機器人生產者構成過失犯罪的標準時,應依循現有科技發展水平設定生產者的注意義務。違反注意義務是構成過失犯罪的前提,法律所設定的智能機器人生產者注意義務的多少將直接影響對智能機器人生產者是否構成過失犯罪的認定。隨著人工智能技術的發展,人類可以通過編寫算法達成越來越多的目的,但是“技術黑箱”始終存在,算法始終都有不可控制、不可解釋的側面。(16)沈偉偉:《算法透明原則的迷思——算法規制理論的批判》,《環球法律評論》2019年第6期。智能機器人生產者對于智能機器人投入使用后的所有風險,在當前的技術水平之下,未必能夠全面地預見和避免。對于當前技術水平下生產者無法預見的風險產生危害結果的情況,當然不能認為生產者違反了相應的注意義務。(17)房慧穎:《預防性刑法的風險及應對策略》,《法學》2021年第9期。筆者在此僅強調具有結果預見可能性是生產者違反注意義務的前提,而不強調具有結果回避可能性是生產者違反注意義務的前提,原因在于,具有結果預見可能性是具有結果回避可能性的前提和基礎。生產者不具有結果預見可能性時,必然也不具備結果回避可能性。當然,假如在生產智能機器人時,生產者對智能機器人所造成的嚴重社會危害結果具有結果預見可能性,基于人工智能風險在當前技術水平下存在一定程度的不可控性,生產者應完全切斷具有較高風險的智能機器人投入使用領域的渠道,以防不可控的具有較高風險的智能機器人在投入使用領域后帶來嚴重危害社會的結果。
第三,確定智能機器人生產者構成過失犯罪的標準時,應遵循“被允許的危險”原則。人工智能技術發展創新所帶來的無法預測、無法避免的風險應由全人類共同分擔,而非由智能機器人生產者承擔。雖然人工智能技術已歷經近70年發展歷程,但從總體而言,人工智能技術仍處于初級發展階段。在人工智能技術的創新及應用過程中,仍存有諸多人類無法預測、無法避免的風險。既然人工智能技術發展創新所產生的“紅利”由全人類共同享受,則其所帶來的無法預測、無法避免的風險也理應由全人類共同承擔。“如果沒有證據證明任何人有注意義務的違反的話,雖然會出現責任的空白地帶,但是鑒于刑法的謙抑精神,應該將這種空白地帶讓社會全體來承擔。”(18)儲陳城:《人工智能時代刑法歸責的走向——以過失的歸責間隙為中心的討論》,《東方法學》2018年第3期。這種無法預測、無法避免的風險現實化后所產生的危害結果,即屬于刑法理論中的“被允許的危險”(19)[日]西田典之:《日本刑法總論》,劉明祥等譯,中國人民大學出版社2007年版,第104頁。。“被允許的危險”當然不能作為智能機器人生產者承擔刑事責任的來源和依據。
第四,確定智能機器人生產者構成過失犯罪的標準時,應遵循“法律不強人所難”原則。“法律要求行為人的義務是以行為人能夠履行義務為前提的。所以,預見義務是以預見可能為前提的。如果行為人沒有預見能力,則不要求其必須履行負有的義務。”(20)劉憲權:《刑法學》,上海人民出版社2016年版,第161頁。如果基于當前社會生產力的發展水平與人工智能技術發展現狀,智能機器人生產者在設計、研發、生產智能機器人過程中,已經根據法律法規、人工智能行業規范、人工智能產品承諾等充分盡到了審慎義務,但仍未能阻止智能機器人引發嚴重危害社會的結果,則應認為智能機器人生產者對該危害結果的發生沒有能力預見,智能機器人生產者也就沒有義務阻止該結果發生。
行為人違反注意義務是構成過失犯罪的前提。關于認定行為人違反注意義務的標準,刑法理論上存在諸多學說。舊過失論認為,注意義務的核心是結果預見義務;新過失論認為,注意義務的核心是結果避免義務,而履行該義務的前提是對危害結果具有具體預見可能性;新新過失論也認為,注意義務的核心是結果避免義務,但是與新過失論不同的是,新新過失論認為,履行結果避免義務的前提僅是對危害結果具有抽象預見可能性。(21)馬克昌:《比較刑法原理——外國刑法學總論》,武漢大學出版社2015年版,第228-233頁。分析上述學說可知,舊過失論只關注結果預見義務而忽視結果避免義務,有可能導致認定行為人違反注意義務的標準過低,從而導致過失犯罪成立范圍不當擴大,并不足取;而新新過失論提出的對危害結果僅具有抽象預見可能性的觀點,導致作為履行結果避免義務前提的結果預見義務的內容模糊不清,且缺乏可操作性,也不足取。(22)[日]松尾浩也等:《刑法判例百選I總論》,有斐閣1997年版,第108頁。因此,舊過失論和新新過失論因自身所存在的不足,不宜作為認定智能機器人生產者構成過失犯罪的參考理論。而在判斷智能機器人生產者是否違背注意義務時,新過失論頗具可取之處,可以作為重要參考。
在風險社會中,諸多風險雖可以被預見卻無法被避免,而新過失論排除了智能機器人生產者預見危害結果卻無法避免危害結果從而構成過失犯罪的情況,在一定程度上避免了不當擴大認定智能機器人生產者構成過失犯罪的范圍。具體而言,智能時代不僅帶來了物質文明的加速發展,也導致人類面臨的風險急劇增加。人類為了享受現代文明的便捷、舒適,就不得不容忍一定程度的風險。在現代社會,諸多風險雖可以被預見但無法被完全避免。(23)房慧穎:《新型操縱證券市場犯罪的規制困局與破解之策》,《華東政法大學學報》2022年第1期。以汽車等交通工具為例,其在帶來人類出行效率提高的同時,也內含著導致被害人死傷的風險。人類雖可通過規范駕駛行為、提高汽車的安全性能等方式降低事故發生幾率,但卻無法在根本上杜絕汽車所帶來的交通安全風險。人工智能領域的情況亦是如此。智能機器人在替代人類大腦、減輕人類負擔、方便人類生活的同時,也包含著人類可能預見但卻無法從根本上完全避免的風險。新過失論強調結果避免義務,而非像舊過失論那樣強調結果預見義務,有利于將智能機器人生產者預見危害結果但無法從根本上避免危害結果的情況排除,避免不當擴大認定智能機器人生產者構成過失犯罪的范圍。
智能時代的風險是與便捷、舒適的現代生活共存的。換言之,人類社會面臨兩種選擇:一是人類在享受現代物質文明的同時承擔技術發展所帶來的相應風險;二是人類為了從根本上杜絕現代文明所帶來的風險,從而舍棄現代文明。第一種選擇是理性的,是人類社會發展的必由之路,而第二種選擇是荒謬的。(24)房慧穎:《預防性刑法的具象考察與理念進路》,《法學論壇》2021年第6期。正因如此,人工智能技術發展過程中伴隨的抽象危險一直存在,將內容模糊不清的抽象危險作為智能機器人生產者預見義務的內容顯然并不合理。將具體的、可感知的具體危險作為認定智能機器人生產者預見義務的內容,更有利于限制對生產者注意義務范圍的認定,也更有利于限縮生產者過失犯罪成立的范圍,從而維持技術發展與風險防范的平衡。
根據新過失論,智能機器人生產者違反結果預見義務是認定其違反結果回避義務的前提,違反結果回避義務是認定其違反注意義務的核心,而違反注意義務是認定其構成過失犯罪的必要條件。
首先,智能機器人生產者違反結果預見義務是認定其違反結果回避義務的前提。“以客觀預見義務的面目出現的預見可能性,只是作為結果避免義務的前提而存在,或者確切地說,是作為履行安全標準的必要前提,它本身并不具有獨立的意義。”(25)勞東燕:《過失犯中預見可能性理論的反思與重構》,《中外法學》2018年第2期。換言之,智能機器人生產者違反結果回避義務,則其必然違反了結果預見義務,反之則不成立。具體而言,智能機器人生產者違反結果回避義務的前提是根據現有科技發展水平,其有能力預見到行為所造成的具體危害社會結果并采取相應措施阻止結果發生,但因為疏忽大意而沒有預見或者已經預見而輕信能夠避免,從而導致危害社會結果發生。此種情況下,才能認為智能機器人生產者違反了結果回避義務。反之,并不能由智能機器人生產者預見到其行為所造成的具體危害社會后果,推斷出其違反了結果回避義務。例如,根據現有科技發展水平,智能機器人生產者并無能力阻止危害結果發生,此時不能認為智能機器人生產者違反了結果回避義務,否則便可能不當擴大智能機器人生產者構成過失犯罪的范圍。
其次,智能機器人生產者違反結果回避義務是認定其違反注意義務的核心。如果智能機器人生產者違反了注意義務,則其必然違反了結果回避義務,反之則不成立。例如,自動駕駛汽車因生產者編寫的算法瑕疵而超速行駛,與超速駕駛摩托車的某甲相撞并導致某甲死亡。在這個案例中,由于不具有結果回避的可能性,所以應當否定生產者的結果回避義務,則無論其是否違反了結果預見義務,都不能認為其違反了注意義務。但反之,如果智能機器人生產者違反了結果回避義務,并不必然能夠得出其違反了注意義務的結論。根據《刑法》第16條之規定,智能機器人生產者雖然違反了結果回避義務,但是不是出于故意或過失,而是由不具有結果預見可能性所引起的,則不能認定行為人違反了注意義務。
最后,智能機器人生產者違反注意義務是認定其構成過失犯罪的必要條件。如果智能機器人生產者構成過失犯罪,則其必然違反了注意義務,反之則不成立。“為了成立過失,違反法律上認為必要的注意義務是必要的。”(26)馬克昌:《比較刑法原理——外國刑法學總論》,武漢大學出版社2015年版,第234-235頁。如前文所述,智能機器人生產者應遵守的注意義務范圍不僅限于法律法規的規定,還應包括人工智能行業規范和生產者對人工智能產品的承諾。無論智能機器人生產者的行為在客觀上是否造成了嚴重危害社會結果,只要其遵守了法律法規規定、人工智能行業規范和對人工智能產品的承諾,就不能認為智能機器人生產者違反了注意義務,更不可能認定其構成過失犯罪。(27)房慧穎:《智能風險刑事治理的體系省思與范式建構》,《山東社會科學》2021年第2期。但反之,如果智能機器人生產者違反了注意義務,則不必然能夠得出其構成過失犯罪的結論。“盡管行為人侵害了法益,但仍需考察,其所違反的規范是否是用于保護該類法益。若否,則規范的違反并沒有對被害人造成相關的危險。”(28)[德]埃里克·希爾根多夫:《因果關系與客觀歸屬——原理與問題》,徐凌波譯,載陳澤憲主編:《刑事法前沿》(第7卷),中國人民公安大學出版社2013年版,第127頁。刑法的規范保護目的與其他法律的規范保護目的不完全一致。智能機器人生產者雖違反了注意義務,但該注意義務與危害結果不存在直接關聯時,不能認定智能機器人生產者構成過失犯罪。此時,危害結果的發生無法歸因于智能機器人生產者實施的行為,也就無法將危害結果歸責于智能機器人生產者。