摘 要:ChatGPT 類生成式人工智能產品數據處理不可控,提供者刑事責任不明確,將會引發刑事治理難題。在產品投入流通時,如果ChatGPT 類生成式人工智能產品符合國家標準、行業標準,并不存在當前科學技術水平能夠發現的缺陷,一般不宜追究產品提供者的刑事責任;在產品投入流通后,產品提供者應承擔適度的安全管理義務。違反安全管理義務,有可能承擔刑事責任。有限度追究產品提供者的刑事責任,既符合網絡領域積極主義刑法觀的趨勢,也有利于實現鼓勵科技創新和防范產品風險之間的平衡,還符合社會公眾的期待。提倡“全面性考察”方案,用以限制產品提供者成立幫助信息網絡犯罪活動罪的范圍。在具體貫徹“全面性考察”方案時,可以“超過半數規則”作為產品提供者主觀“明知”的認定標準。
關鍵詞:ChatGPT 生成式人工智能 數據安全 安全管理義務 刑事責任
一、問題緣起:ChatGPT 類生成式人工智能產品引發的刑事治理挑戰
憑借高度“擬人化”“智能化”的表現,由美國OpenAI 公司研發的生成式人工智能模型ChatGPT 一經面世,便迅速引發社會廣泛關注。與此同時,我國諸多科技公司也相繼確認正在研發ChatGPT 類生成式人工智能產品。該類人工智能技術的突飛猛進,將會給各個行業、領域帶來深刻變革。但利之所在弊亦隨之,人工智能產品也存在安全性和可靠性等問題。①例如,意大利便曾因發生一起數據泄露事件,宣布暫時禁用ChatGPT。②隨后,馬斯克及全球千名科技人士聯名呼吁至少暫停半年對更強大人工智能系統的開發和訓練。③ ChatGPT 類生成式人工智能模型的出現,將會引發一系列新的刑事法律風險。
(一)數據處理不可控,易造成數據安全隱患
其一,數據來源問題。在產品研發階段,ChatGPT 類生成式人工智能產品的整體架構分為語料體系、預訓練算法與模型、微調算法與模型。④其中,語料體系的參數量,是決定產品最終輸出“答案”的重要因素之一。以ChatGPT 各代模型為例,OpenAI 于2018 年6 月推出的初代GPT 參數量為1.17 億;2019 年2月推出的GPT-2 參數量為15 億;而2020 年5 月升級的GPT-3 參數量則為1750 億;此后,OpenAI 未再公布后續版本的參數量。⑤相較之下,國內如阿里公司的“通義M6”、騰訊公司的“混云”參數量均達到萬億級別。⑥在監管尚不完備的情況下,ChatGPT 類生成式人工智能產品語料體系的參數可能存在違規問題。例如,語料體系中的參數是否均來源于公開渠道?是否侵犯他人的隱私、商業秘密?是否涉及國家秘密或者情報?即使來源于公開渠道,是否又可能存在虛假信息的問題?
而在產品應用階段,也可能存在數據來源不合規的現象。根據OpenAI 公司官網公開的《隱私政策》,ChatGPT 類生成式人工智能產品除了從書籍、雜志、論壇、網站等渠道收集的語料參數之外,當用戶使用該公司的服務或者與他們溝通時,用戶創建的賬戶信息、通信信息以及技術信息等數據均可能被該公司所收集。⑦倘若用戶使用的是包含虛假信息、個人隱私、商業秘密、國家秘密或者情報等的各種數據與ChatGPT類生成式人工智能產品進行交互,這些數據均會被產品所收集作為語料體系的參數量。
其二,數據提供問題。ChatGPT 類生成式人工智能產品的“答案”輸出,主要依靠預訓練算法模型和微調算法模型。區別于搜索引擎的檢索功能,ChatGPT 類生成式人工智能產品的特點在于,能夠更好理解自然語言,并且生成更加全面、合理和準確的結果。一方面,獲取而來的他人隱私、商業秘密、國家秘密或者情報,有可能被產品提供給用戶;另一方面,原本語料體系中互相獨立的參數有可能會發生“化學反應”,生成包含公民個人隱私、商業秘密、國家秘密或者情報的數據,進而提供給用戶。除此之外,還可能存在輸出“虛假信息”的問題。正如有學者所言:“雖然人類設計、制造了它們,但它們的行為卻不受人類的直接指令約束,而是基于對其所獲取的信息的分析和判斷,而且,它們在不同情境中的反應和決策可能不是其創造者可以預料到或者事先控制的。”⑧概而言之,在數據提供階段,可能存在數據內容違法、信息虛假等問題。退一步說,即使ChatGPT 類生成式人工智能產品獲取和提供的數據均系合規,也仍然存在被他人用于實施違法犯罪活動的可能。例如,黑客使用ChatGPT 類生成式人工智能產品輔助編寫代碼破壞他人網站,等等。
(二)法律監管不完備,提供者刑事責任不明
黨的二十大深刻指出“加快建設數字中國”。習近平總書記提到:“數字經濟事關國家發展大局。”中共中央、國務院印發《數字中國建設整體布局規劃》明確要求:“強化數字技術創新體系和數字安全屏障‘兩大能力’,優化數字化發展國內國際‘兩個環境’。”《新一代人工智能發展規劃》也指出:“在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰。加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。”2023 年7 月10 日,《生成式人工智能服務管理暫行辦法》正式頒布。該法第21 條規定:“提供者違反本法規定……構成犯罪的,依法追究刑事責任。”然而,關于ChatGPT 類生成式人工智能產品提供者的具體刑事責任尚不非常明確。
作為新型人工智能技術,ChatGPT 類生成式人工智能產品將使得個人、公共及國家安全面臨嚴峻風險,刑法不能坐視不理。“解鈴還須系鈴人”。對ChatGPT 類生成式人工智能產品引發的刑事風險須從源頭治理。產品風險的源頭在于提供行為,因此,防范產品帶來的風險離不開對研發、提供行為的合理監管,以及提供者刑事責任的合理設置。具體而言,若賦予產品提供者過多“條條框框”,則會加重企業負擔,限制人工智能技術的發展,不利于我國公司在國際社會的競爭,從而可能發展成新的“卡脖子”問題;反之,若對產品提供者不加任何限制,監管始終處于缺位狀態,那么,將會使得ChatGPT 類生成式人工智能產品淪為違法犯罪行為肆虐的重災區,不僅可能危害個人的合法權益,還有可能危害國家安全。而ChatGPT 類生成式人工智能產品深度學習以及“一對多”服務對象不特定的性質,既會影響對產品提供者預見可能性等問題的判斷,⑨也可能會沖擊共犯從屬性等基礎理論,⑩進而影響產品提供者承擔刑事責任的范圍。本文基于ChatGPT 類生成式人工智能產品可能引發的刑事治理難題,力圖為合理設置產品提供者的刑事責任范圍提供一定思路。
二、ChatGPT 類生成式人工智能產品提供者刑事追責的必要性
在大多數情況下,商業主體研發ChatGPT 類生成式人工智能產品,將會改進人類生活、提升科技水平。然而,科技產品因其本身所具有的便利性,同樣有可能被他人作為犯罪工具而使用。當產品提供者的行為符合刑法規定的具體構成要件時,就有可能承擔相應的刑事責任。對ChatGPT 類生成式人工智能產品提供者的刑事責任,需進行類型化分析。主要可以劃分為三種行為類型:一是為自己實施犯罪而研發ChatGPT 類生成式人工智能產品;二是產品提供者與他人“通謀”,由產品提供者研發ChatGPT 類生成式人工智能產品,并提供給使用者用以實施犯罪;三是產品提供者與他人沒有“通謀”,研發的ChatGPT 類生成式人工智能產品既可以被用戶合法使用,也可以被非法使用。
其中,為自己犯罪準備“工具”以及與他人“通謀”實施共同犯罪,此兩種情形,刑事責任分析較為簡單,前者按照其所犯之罪追究刑事責任,后者按照共同犯罪追究刑事責任即可。?例如,產品提供者以營利為目的,研發ChatGPT 類生成式人工智能產品,并利用其制作、出售假冒他人的美術作品,應當追究其侵犯著作權的刑事責任。?此時,ChatGPT 類生成式人工智能產品屬于行為人實施犯罪的工具,并非用于銷售,不屬于產品范疇,無須按照生產、銷售產品類犯罪追究刑事責任,其行為充其量屬于侵犯著作權犯罪的預備行為。再如,產品提供者與使用者“通謀”,由其研發能夠生成“釣魚”郵件、詐騙“腳本”的ChatGPT 類生成式人工智能產品,再提供給使用者,由使用者利用該產品實施詐騙行為。在這種情況下,產品提供者和使用者成立共同犯罪,提供ChatGPT 類生成式人工智能產品的行為屬于詐騙罪正犯的幫助行為;當然,如果提供ChatGPT 類生成式人工智能產品的行為對詐騙結果的發生起重要作用,按照實質客觀說中的“重要作用說”,?產品提供者也可能屬于共同犯罪中的正犯范疇。
需要討論的問題是,如果產品提供者與使用者之間沒有“通謀”,研發并提供的ChatGPT 類生成式人工智能產品既可以被合法使用,也可以被非法使用,使用者利用產品實施違法犯罪行為,能否追究產品提供者的刑事責任?例如,產品提供者研發的ChatGPT 類生成式人工智能產品既可以向用戶推薦合法視頻的觀看網站,也可以向用戶推薦淫穢色情網站。此時,雖然ChatGPT 類生成式人工智能產品并非專門用于違法犯罪活動,但是在客觀上確實為他人實施違法犯罪行為提供了幫助。
有觀點認為,如果產品提供者是出于合法目的,并未賦予產品實施任何犯罪行為的能力,但使用者借助人工智能產品實施犯罪行為,不能追究提供者的刑事責任。在這種觀點的內部,又存在不同論證方向。例如,劉憲權教授認為,在這種情況下,人工智能產品僅是被作為犯罪使用的工具,只能追究使用者的刑事責任。?江溯教授則認為,人工智能產品對社會造成的危險屬于“允許的風險”,不宜通過刑法進行規制。?上述觀點立足于限制幫助行為的處罰范圍角度,避免刑法過度干預,這種立場值得肯定。但可能存在疑問的地方在于,幫助犯本就不存在定型性,而在提供產品的行為確實使得法益風險升高的情況下,如何界定其屬于“允許的風險”?例如,汽車在道路上行駛的風險屬于“允許的風險”,如果汽車提供者明知他人利用汽車實施故意殺人行為,仍然提供汽車,是否也可按照“允許的風險”排除客觀歸責?如果得出肯定結論,那么一個有意支配因果進程實現法益侵害的罪犯,只要他足夠狡猾,將自己的行為隱藏在“允許的危險”的外衣之下,就可以輕易逃避刑罰的制裁。?這種全面不可罰的結論,顯然是不能被廣泛接受的。更何況,利用網絡實施犯罪的社會危害性通常高于一般犯罪行為的社會危害性。?隨著人工智能技術的快速發展,智能網絡對犯罪的協助作用將越發突出,全面不可罰的觀點可能放縱犯罪。?
事實上,如果按照傳統的幫助犯理論,只要能夠證明產品提供者主觀上存在明知,客觀上具有幫助性,且對犯罪結果的發生具有因果性,就可以追究行為人的刑事責任。?但是,這種“全面可罰性”的方案,必然擴大刑罰的處罰范圍,侵犯公民的個人自由空間,干預國民的正常生活。?尤其是在網絡時代,智能產品服務的對象數以萬計,因此,當下的理論主要是從限制處罰的角度,力圖限縮幫助犯的成立范圍。21對于智能產品,有觀點認為,智能產品提供者具有安全管理義務,對于提供者在人工智能產品的設計、生產、銷售階段未預見到、上市后才發現產品有缺陷,但發現之后又未及時通過系統升級、更新等手段解決產品缺陷的,可以對其追究刑事責任。22此觀點認為賦予產品提供者一定的安全管理義務,對保護法益具有重要作用。
本文認為,對ChatGPT 類生成式人工智能產品提供者的刑事規制,既不能失之于寬,也不能失之于嚴,可以借鑒“避風港”原則,23將產品提供者的刑事責任限制在一個合理的范圍內,在保護法益的同時,不至于妨礙技術的進步。亦即,有限度地追究ChatGPT 類生成式人工智能產品提供者的刑事責任。具體而言,在產品投入流通時,只要研發的ChatGPT 類生成式人工智能產品符合國家標準、行業標準,并不存在當前科學技術水平能夠發現的缺陷,一般不宜追究產品提供者的刑事責任;而在產品投入流通后,產品提供者應承擔適度的安全管理義務。若其違反安全管理義務,則將承擔相應的刑事責任。例如,產品參數中存在國家秘密或情報,監管部門責令產品提供者采取刪除數據、優化算法等改正措施而其拒不改正,致使國家秘密或情報被境外的機構、組織、人員獲取,應當追究其刑事責任。24
其一,有限度追究ChatGPT 類生成式人工智能產品提供者的刑事責任,符合我國網絡領域積極主義刑法觀的趨勢。“鑒于數字經濟的戰略性地位,以及網絡犯罪在數字技術加持下的異化,刑法的擴張具有必要性。”25在司法層面,例如“快播案”。26“快播”既可以作為合法視頻的播放軟件,也可以被用戶用于下載、觀看淫穢色情視頻。雖然軟件商作無罪抗辯,但是法院最終駁回辯方關于“技術中立”責任豁免以及“中立的幫助行為”等觀點,認定“快播公司”構成傳播淫穢物品牟利罪。27而在立法層面,我國從《刑法修正案(七)》開始便呈現預防性立法的跡象,在隨后的幾次修正案中,這種積極主義的刑法觀逐漸得以正式確立。28以《刑法修正案(九)》為例,在該修正案中相繼增設了拒不履行信息網絡安全管理義務罪、非法利用信息網絡罪以及幫助信息網絡犯罪活動罪等犯罪,反映了網絡領域積極主義刑法觀的趨勢。29若刑法對ChatGPT 類生成式人工智能產品提供者的規制處于觀望立場,既不利于智能產品的高質量發展,也不符合網絡領域積極主義刑法觀的發展趨勢。30
其二,有限度追究ChatGPT 類生成式人工智能產品提供者的刑事責任,有利于網絡領域的法益保護。ChatGPT 類生成式人工智能產品的應用風險不可控,忽視產品提供者對產品的安全管理義務,勢必造成嚴重的法益侵害或危險。31如果對研發及提供行為不加以限制,讓人工智能技術超出人類的可控范圍,一旦該類產品被利用作犯罪工具,產生的危害結果可能數倍嚴重于傳統犯罪,甚至可能給人類社會帶來毀滅性的打擊。32 ChatGPT 類生成式人工智能產品的提供者掌握著技術、數據的優勢,對其產品和服務保持著事實上的掌控關系,而國家監管部門缺乏足夠的技術能力和管理資源,只能對產品進行間接管理。此外,從法律經濟學的視角來看,倘若業務性中立幫助行為發揮了不可替代的作用,刑罰處罰業務性的中立幫助行為的收益就會大于成本。33因此,為了能夠保護法益、維護社會秩序,應當對產品提供者賦予適度的安全管理義務,而且有必要將其上升為刑法義務。34
其三,有限度追究ChatGPT 類生成式人工智能產品提供者的刑事責任,有利于實現鼓勵科技創新和防范產品風險之間的平衡。ChatGPT 類生成式人工智能領域的安全與發展不可偏廢。35為了鼓勵科技創新,我國法律明確規定了產品提供者責任的免除條款。例如,《中華人民共和國產品質量法》(下文簡稱《產品質量法》)第41 條第2 款規定了生產者的三種免責事由,亦即,“未將產品投入流通的;產品投入流通時,引起損害的缺陷尚不存在的;將產品投入流通時的科學技術水平尚不能發現缺陷的存在的”。該條第2 款第3 項表明,只要在ChatGPT 類生成式人工智能產品投入流通時,科學技術水平尚不能發現缺陷的存在,提供者就不用承擔賠償責任。與之類似,在《民法典》以及《信息網絡傳播權保護條例》中均存在“通知”后“移除”排除侵權責任的規則。36根據法秩序統一性原理,在規范保護目的相同的場合下,刑法絕對從屬于前置法。37既然前置法都免除了產品提供者的民事賠償責任,那么,也不能按照《刑法》第146 條生產、銷售不符合安全標準的產品罪和第140 條生產、銷售偽劣產品罪追究其刑事責任。
然而,倘若完全免除產品提供者的責任,不賦予其適度的安全管理義務,則可能會使ChatGPT 類生成式人工智能產品的使用處于混亂、無序狀態,間接造成利用ChatGPT 類生成式人工智能產品實施違法犯罪行為的泛濫。鑒于產品投入流通后,提供者仍然可以通過程序更新、系統升級等手段填補漏洞,并且由于ChatGPT 類生成式人工智能產品屬于高端智能科學技術,只有提供者掌握其程序算法,因此,在產品投入流通之后賦予提供者更多義務,實屬必要。例如,《生成式人工智能服務管理暫行辦法》第14 條便規定:“提供者發現違法內容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告。提供者發現使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫停或者終止向其提供服務等處置措施,保存有關記錄,并向有關主管部門報告。”另外,第21 條同時規定:“構成犯罪的,依法追究刑事責任。”由此可見,對于ChatGPT 類生成式人工智能產品的提供者,刑法既要體現包容,也需要將其納入刑法規制范圍。有限度地追究生成式人工智能產品提供者的刑事責任,有利于平衡二者之間的關系。
其四,有限度追究ChatGPT 類生成式人工智能產品提供者的刑事責任,源于智能產品與普通產品之間的差異性。ChatGPT 類生成式人工智能產品的價值包含產品的使用及后續服務。根據《產品質量法》第2 條第2 款:“本法所稱產品是指經過加工、制作,用于銷售的產品。”在大眾的傳統觀念里,研發行為處于銷售之前。既然產品投入流通時可以“發展風險”進行免責抗辯,那么,在此之后為何能夠追究產品提供者的刑事責任?這主要是因為智能產品的特殊性。與普通產品相比,ChatGPT 類生成式人工智能產品更為復雜與特殊,當下并非完全安全、可靠。38在不限制其發展的同時,只有明確其流通后產品提供者的安全管理義務,并予以刑法規制,才能有效防范風險。例如,《生成式人工智能服務管理暫行辦法》第13 條明確規定ChatGPT 類生成式人工智能產品提供者的安全管理義務貫穿于服務過程中。產品提供者的安全管理義務不僅存在于研發階段,也存在于產品投入流通后,亦即生命周期內的靜態維護中。39
其五,有限度追究ChatGPT 類生成式人工智能產品提供者的刑事責任符合公平正義的理念。一方面,對產品提供者不宜輕易追究刑事責任。例如,如果是在ChatGPT 類生成式人工智能產品投入流通后發現漏洞,且該漏洞不能被現有技術所解決,則因不具備“期待可能性”,不能追究產品提供者的刑事責任。再如,“毒販”利用某些社交軟件的通訊功能幫助其實施販毒行為,即使社交軟件的提供者預想到有用戶會這么做,也不應動輒追究社交軟件服務商的刑事責任。否則,企業為了規避風險,通過尋求自我管理的方式控制風險,不利于科學技術的發展。40另一方面,完全免除產品提供者的刑事責任也不符合民眾對法規范的合理期待。例如,如果在產品流通之后發現安全漏洞,可以通過及時采取停止生成、停止傳輸、消除等處置措施填補漏洞,而產品提供者經監管部門責令采取改正措施,卻在合理期限內拒不作為,致使產品被使用者用于違法犯罪,造成嚴重后果,此時,若仍然不追究產品提供者的刑事責任,顯然不符合預防犯罪的刑罰目的,不利于公平正義理念的實現。41
三、ChatGPT 類生成式人工智能產品提供者刑事追責的限制方案
在事前無通謀的前提下,ChatGPT 類生成式人工智能產品只是作為使用者的犯罪工具。對于產品使用者,可以直接按照現行刑法中的有關條文加以規制。42此時,對于產品提供者的刑事責任問題,在理論上可能存在兩種論證邏輯路徑,一種是從中立幫助行為理論的角度分析;43另一種是從正犯成立的角度來分析。44《刑法修正案(九)》以立法形式增加了拒不履行信息網絡安全管理義務罪、非法利用信息網絡罪以及幫助信息網絡犯罪活動罪等多個規制“網絡服務提供者”的犯罪,ChatGPT 類生成式人工智能產品提供者的提供行為可以劃分為兩類,分別對應其中兩種犯罪:其一,產品提供者明知他人利用信息網絡實施犯罪,向使用者提供ChatGPT 類生成式人工智能產品,涉及幫助信息網絡犯罪活動罪的適用;其二,產品提供者經監管部門責令采取改正措施而拒不改正,違反安全管理義務,涉及拒不履行信息網絡安全管理義務罪的適用。其中,拒不履行信息網絡安全管理義務罪的適用相對較為容易判斷,需要討論的問題是,產品提供者是否可能構成幫助信息網絡犯罪活動罪?正如前文已述,對產品提供者進行刑事追責具有必要性,應當將其刑事責任限定在合理的范圍內,特別是應當將部分中立性質的行為排除在規制范圍以外。雖然關于幫助信息網絡犯罪活動罪的性質,存在幫助犯的量刑規則以及幫助行為正犯化等多種不同觀點,45但是不可否認,該罪在某種程度上屬于“幫助行為”。因此,可以嘗試借鑒中立幫助行為理論對提供者的刑事追責進行限制。
(一)中立幫助行為理論之梳理
所謂中立幫助行為,主要是指“外觀上無害,客觀上對正犯行為、結果起到促進作用的行為”。46與德日刑法對中立幫助行為的司法態度由主張入罪向主張限縮可罰范圍的轉變不同,我國則有不斷擴張網絡中立幫助行為可罰性的趨勢。47刑法理論中,中立幫助行為理論作為限制處罰的方案,大體存在主觀說、客觀說以及折中說三大立場。48
1. 主觀說及其反思
主觀說認為,應當立足于行為人的主觀內容劃定中立幫助行為可罰性的范圍。在主觀說內部,主要存在確定故意與否說與促進意思有無說。其中,前者認為,基于不確定的故意而幫助的行為不可罰,只有在確定故意下的幫助行為才具有可罰性;后者則認為,僅是知道他人實施犯罪而提供幫助行為并不具有可罰性,還必須具有通過幫助行為促進他人犯罪的意思。49例如,便利店銷售人員明知他人將去實施犯罪而仍售賣商品,該行為是否構成犯罪,主觀說可能得出不同結論。確定故意與否說關注的是銷售人員是否具備確定的故意;而促進意思有無說則更關注的是銷售人員的售賣行為是否存在促進他人犯罪的意思。主觀說在德國刑事司法中一直占據著重要地位,其所具有的價值可見一斑。我國的刑事立法與司法解釋主要采取主觀說的立場,50主觀說在國內理論界也不乏支持者。例如,有觀點認為日常生活行為轉化為幫助犯,行為人須滿足認識到“促進制造違法事實”的社會意義。51再如,有觀點認為,可以采取“犯罪意思聯絡說”作為限制中立幫助行為處罰范圍的方案。52
主觀說立場遭到不少批評。其一,如果持確定故意與否說,沒有充分的依據。區別對待未必的故意,也與犯罪故意的法律規定相矛盾。事實上,在客觀上存在高度蓋然性、行為人主觀上也存在認識的場合,不處罰幫助行為的結論并非十分合理。53其二,如果持促進意思有無說,缺乏操作可行性。一方面,促進意思有無的判斷標準模糊不清,什么樣的意思屬于促進犯罪意思沒有具體標準;另一方面,無促進意思的行為與有促進意思的行為可能客觀行為基本相同,根據口供認定要么放縱犯罪,要么容易產生冤假錯案。54其三,無論是采取哪一種主觀說,均面臨方法論的質疑。刑法懲罰的是行為,而不是行為人的主觀故意。故意是客觀構成要件所反映的主觀要件,不考量客觀構成要件而直接對主觀要件進行否定,與行為刑法的基本立場相沖突。并且,這種觀點在證據認定上面臨巨大困難,也容易陷入“心情刑法”的困境。何況,中立幫助行為之所以被作為單獨問題進行探討,就是因為某些幫助行為即使存在主觀惡意,也不宜認定為幫助犯。55進一步說,過度重視主觀要素的做法,也極易侵犯正當法益,存在過度限制公民自由的嫌疑。56
2. 客觀說及其反思
與從行為人主觀內容中尋找可罰性標準的主觀說不同,客觀說則是從幫助犯的客觀構成要件的角度確定限制刑事處罰的標準。然而,客觀說內部存在社會(職業)相當性說、客觀歸責論、溯及禁止論以及利益衡量說等多種不同觀點。其中,社會相當性說認為,如果系歷史的社會生活形成的秩序范圍內具有相當性的行為,即使造成了構成要件的結果,也不具有構成要件符合性。57職業相當性說,則將職業規范作為相當性的判斷標準。例如,有觀點認為,當網絡幫助行為被行業規范所容許時,不能進行歸責。58客觀歸責論認為,應當通過演繹客觀歸責理論,確定中立幫助行為的可罰性邊界。具體來說,要判斷幫助行為是否升高正犯行為的風險、是否違反行為準則導致風險升高以及升高的風險是否處于規范保護目的之內。59溯及禁止論提出,在社會的相互交往過程中,存在相互的預期,個體只有超越了規范設置的角色預期,規范才能予以制裁。60而近來,由于網絡中立幫助行為的爭議較大,有諸多學者提出應當基于利益衡量原則,明確處罰邊界。61例如,儲陳城副教授主張通過利益衡量原則劃分刑法規制網絡技術領域的界限。62
客觀說分別承受不同方面的質疑。首先,社會相當性的判斷標準并不明確,以此作為中立幫助行為可罰性的標準,將會喪失法的安定性。63而在社會相當性理論基礎上提出的職業相當性說,雖然相當性的判斷標準較為明確,但為何因是否違反職業規范而得出不同的入罪標準,顯然缺乏充分的論證。64其次,客觀歸責論過于抽象,缺乏具體的操作標準,容易導致行為出入罪的隨意性。事實上,先前主張以行為是否制造法所不允許的危險來判斷中立幫助行為處罰界限的陳洪兵教授,也轉向從利益衡量原則的角度判斷幫助行為的構成要件符合性。65再次,溯及禁止論在限制處罰方面具有重要價值,但是就中立幫助行為理論適用的場景而言,一般都具有獨立價值,按照該理論可能導致全面不可罰的結果。66最后,利益衡量原則在具體案件中缺乏明確的利益衡量標準,反而有可能得出全面處罰的結論。67例如,面包店的營業員明知他人購買面包是為了投毒殺人,仍然出售面包。一方面是面包店的出售自由,而另一方面是他人的生命法益。以生命法益大于自由法益為根據,認定營業員構成犯罪顯然是存在疑問的。
3. 折中說及其反思
折中說是在主觀說和客觀說的基礎上提出來的,既重視行為人的主觀要素,同時也采納了客觀說中的積極部分。其中,典型的代表是德國的羅克辛教授。一方面,羅克辛教授認為應當重視行為人的主觀要素;另一方面,羅克辛教授也積極提倡客觀歸責論。68可以說,羅克辛教授的折中說與主觀說的立場更加親近,我國也有學者提出以客觀說為基礎的折中說。根據該觀點,主觀要素僅具有限制處罰范圍的作用,而不能作為獨立的犯罪化事由,這也是其與側重主觀說的折中說的根本性區別。69此外,陳興良教授贊同以“客觀關聯性+ 目的關聯性”雙層次標準說來限定中立幫助行為的處罰范圍。70
折中說的立場同樣面臨詰難。第一,雖然折中說力圖吸納主觀說與客觀說的優點,但似乎并沒有克服主觀說與客觀說各自存在的問題。例如,羅克辛教授一再強調自己是基于客觀歸責的立場,但是在具體解決方案中,強調的又是犯罪意思關聯等主觀內容。這顯然是依據主觀內容解決歸責問題,與客觀歸責論的要求并不相符。71第二,無論是親近主觀說的折中說,還是以客觀說為基礎的主觀說,均將行為人的主觀內容作為限制處罰的標準。然而,刑法關于故意的規定并沒有作出具體區分,將此標準用于界定中立幫助行為的可罰性范圍,缺乏實定法根據。72
(二)“全面性考察”方案之提倡
根據《刑法》第287 條之二規定的幫助信息網絡犯罪活動罪,客觀方面要求行為人為他人犯罪提供技術支持或者提供其他幫助,而主觀方面則是要求行為人“明知他人利用信息網絡實施犯罪”。顯然,依據客觀說限制產品提供者構成該罪的可行性較低。只能考慮借助主觀說或者折中說。在主觀方面,需要探討的問題是,如何證明產品提供者“明知”他人利用信息網絡實施犯罪?對于該罪的“明知”,可以采用推定的方法。73最高人民法院、最高人民檢察院《關于辦理非法利用信息網絡、幫助信息網絡犯罪活動等刑事案件適用法律若干問題的解釋》(以下簡稱《網絡犯罪解釋》)第11 條列舉了可以認定行為人“明知”他人利用信息網絡實施犯罪的七種情形。其中,第7 項“其他足以認定行為人明知的情形”作為認定“明知”的兜底性條款。如何限制該兜底性條款的適用,是司法需要面對的問題。
主觀說中的確定故意與否說與促進意思有無說,均無法解決缺乏實定法根據的問題。基于ChatGPT類生成式人工智能產品“一對多”服務對象不特定的性質,本文提倡親近于主觀說的“全面性考察”方案,用以限制產品提供者構成幫助信息網絡犯罪活動罪的范圍。所謂“全面性考察”方案,是指對于中立幫助行為應當進行全面性評價,進而決定是否追究行為人刑事責任。根據這種方案,能否追究產品提供者的刑事責任,取決于:其一,產品提供者對自己的行為被利用實施具體犯罪是否存在認識和容許,并且實際上發生了具體犯罪。其二,是否存在非例外范圍的人利用中立幫助行為具有高度的蓋然性,產品提供者對此具有認識和容許。74簡言之,“全面性考察”要求行為人對他人利用信息網絡實施犯罪的認識具有“例外性”。在日本的“Winny 案”中,二審法院及最高法院改判被告人無罪。其中,最高法院的裁判理由就是,以違法犯罪的數量作為認定標準,將會因為統計時期、方法的不同,造成結果的差異。幫助犯的成立,不僅需要產品只用于或主要用于違法用途,還需要提供者對產品被利用實施違法犯罪超越一般可能性具有認識和容許。75亦即,行為人能夠認識和容忍這種行為擴張到“非例外”范圍。
“全面性考察”方案非常契合對網絡智能產品提供者刑事責任的考量。在傳統的中立幫助行為案件中,幫助行為所針對的通常是特定的主體,即幫助行為人和正犯是“一對一”的關系。而在ChatGPT 類生成式人工智能產品涉及犯罪的案件中,通常突破了“一對一”的關系,其所提供的服務,既可以作為合法用途,也可以作為犯罪使用,存在“一對多”服務對象不特定的問題。按照傳統幫助犯的認定規則,只要提供者主觀存在故意(放任),客觀上提供了幫助,且與犯罪結果之間具有因果關系,就可以認定ChatGPT類生成式人工智能產品提供者幫助犯的刑事責任。顯然,這種認定結論對產品提供者過于苛刻,不利于科學技術的發展。而“全面性考察”方案,能夠為產品提供者“松綁”,避免產品提供者動輒被追究刑事責任,有利于維持公民日常生活的穩定性。
(三)“全面性考察”方案之貫徹
在具體認定犯罪的過程中,“全面性考察”方案該如何貫徹,存在疑問。亦即,如何界定行為人主觀認知中的“非例外性”?有觀點提出:“只能結合案件的具體情況,從社會通念的角度,進行綜合的考量。”76這種由法庭進行自由裁量的方法,不具有明確的判斷規則,可能導致“類案不同判”的現象頻繁發生,也不利于裁判文書的說理。因此,貫徹“全面性考察”方案需要為其找到合適的判斷標準。
本文嘗試以“超過半數規則”來認定幫助信息網絡犯罪活動罪中的主觀明知。如果產品服務的對象中,實施違法犯罪活動的數量超過全部用戶的半數以上,便可認定產品提供者具有幫助信息網絡犯罪活動罪中的主觀明知;反之,則不能追究產品提供者構成幫助信息網絡犯罪活動罪的刑事責任。77采用“超過半數規則”的具體理由在于:
其一,“超過半數規則”具有明確的區分標準,易于司法實踐的操作。沒有明確標準的“例外性”作為判斷標準,容易導致司法認定的隨意化。ChatGPT 類生成式人工智能產品服務內容是向用戶提供其所輸出的數據,倘若讓產品提供者監督其與每個用戶之間交互的內容,既不現實,也無必要。正如車浩教授所言:“要求企業履行網絡警察的義務,最終可能會阻礙甚至窒息整個互聯網行業的發展。”78如果用戶中涉及違法犯罪的數量超過半數以上,便很難認定產品提供者沒有超越一般可能性的認識和容許,顯然,此時認定“非例外性”也無太大爭議。因此,以“超過半數規則”作為認定產品提供者具有幫助信息網絡犯罪活動罪主觀明知的標準,具有明確性,在司法認定時也存在可操作性。
其二,“超過半數規則”與“紅旗規則”具有天然的統一性,能夠防止“鴕鳥政策”實施者逃避責任。79“紅旗規則”源于知識產權法。所謂“紅旗規則”,是指“當侵犯著作權的事實顯而易見,就像紅旗一樣飄揚,網絡服務提供者就不能裝作看不見,或以不知道侵權的說辭來推脫責任”。80與此相對應,在司法層面應當存在類似“紅旗規則”的例外情形,避免產品提供者規避安全管理義務,推卸自己的責任。“超過半數規則”與“紅旗規則”具有相似性,以此作為認定主觀明知的標準較為合理。具體來說,如果ChatGPT 類生成式人工智能產品所服務的用戶,超過半數均利用產品實施違法犯罪行為,產品提供者不能裝作看不見,或以不知道為由進行有效抗辯。“超過半數規則”有利于讓產品提供者主動采取措施防范產品風險,避免產品提供者事不關己、高高掛起的“看客心態”。
其三,“超過半數規則”有利于區分行為人主觀的“明知”與“通謀”,合理劃定共犯責任與幫助信息網絡犯罪活動罪的成立范圍。對于事前已經“通謀”實施共同犯罪的行為人,產品提供者提供ChatGPT 類生成式人工智能產品的行為既可能是幫助行為,也可能起到重要作用。需要注意的是,刑事立法設立幫助信息網絡犯罪活動罪,其法定刑標準較低,為“三年以下有期徒刑或者拘役,并處或者單處罰金”。而如果成立詐騙罪的共犯,法定刑則可能為“十年以上有期徒刑或者無期徒刑,并處罰金或者沒收財產”。對于犯罪主體“明知”的要求與共犯中的“通謀”應當有所區別,方可體現立法意圖。“超過半數規則”也能避免刑事司法動輒懲罰網絡中立幫助行為,以及因認定標準過低導致人工智能技術的研發停滯不前、缺乏動力。
四、結語
曾幾何時,人工智能還只是存在于科幻電影、小說中。然而,伴隨著AI 研究熱潮的興起,ChatGPT 類生成式人工智能產品讓我們深切感受到“科幻正在照進現實”。當下,雖然仍處于弱人工智能發展階段,智能產品只具備工具屬性,還不具備刑事責任主體資格,但是可以預見,隨著各種ChatGPT 類生成式人工智能產品的推出以及不斷升級,犯罪手段也將日益進化,利用人工智能產品實施違法犯罪行為,進而造成法益侵害或者危險的數量將會呈指數級增長。正如“每一枚硬幣總有兩面,每一朵美麗的玫瑰花都會帶刺”,人工智能產品在給人類生活帶來極大便捷的同時,隱含著巨大的法益侵害風險,對其進行刑事治理面臨嚴峻挑戰。事實上,之前幾次工業革命中科學技術的革新都會讓法律的滯后性無限放大,立法修改高度頻繁,甚至可以說是“疲于奔命”。過去幾千年的人類社會,從來沒有哪個時代如今天這般“日新月異”。人工智能技術對于人類社會具有劃時代的意義。刑法治理應當在鼓勵技術創新的前提下,盡可能規避新型技術引發的法律風險,平衡好鼓勵科技創新與防范產品風險二者之間的關系,為ChatGPT 類生成式人工智能產品安全發展提供充分的刑法保障。
本文系上海市哲學社會科學規劃課題“輕罪立法研究”(項目編號:2022ZFX004)、華東政法大學優秀博士學位論文培育項目“漏罪的刑罰問題研究”(項目編號:2023-1-018)階段性成果。