999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能技術(shù)風(fēng)險的刑法謹(jǐn)慎性規(guī)制

2024-05-10 00:43:33童云峰張學(xué)彬
關(guān)鍵詞:規(guī)則人工智能

童云峰 張學(xué)彬

(1.華東政法大學(xué) 中國法治戰(zhàn)略研究院,上海 201620;2.東華理工大學(xué) 文法與藝術(shù)學(xué)院,江西 南昌 330013)

一、問題的提出

進(jìn)入數(shù)字時代,生成式人工智能技術(shù)火爆出圈,其規(guī)?;膽?yīng)用在催生新的經(jīng)濟(jì)增長點(diǎn)的同時,也帶來了一系列法律問題。例如,美國游戲設(shè)計師杰森·艾倫(Jason Allen)利用能夠組裝素材的AI繪圖工具M(jìn)idjourney生成的繪畫作品獲得藝術(shù)博覽會比賽一等獎,引發(fā)藝術(shù)創(chuàng)作被機(jī)器取代的討論,其可能涉及知識產(chǎn)權(quán)侵權(quán)風(fēng)險[1]。再如,某用戶利用DeepFake(深度偽造)將情色電影主人公的臉替換成某女演員的臉,引發(fā)網(wǎng)友大規(guī)模的評論與轉(zhuǎn)發(fā),該行為可能涉及對肖像權(quán)或名譽(yù)權(quán)的侵犯[2]。又如,2023年初,意大利停止使用ChatGPT,因為ChatGPT涉及對公民個人信息的非法收集與處理,侵害了個人信息權(quán)益與數(shù)據(jù)安全[3]。毋庸置疑,提供和使用生成式人工智能服務(wù)不可避免地攜帶技術(shù)風(fēng)險,并對傳統(tǒng)法律適用帶來新的挑戰(zhàn)。

在既有研究中,較多學(xué)者強(qiáng)調(diào)對生成式人工智能等相關(guān)技術(shù)行為進(jìn)行入罪規(guī)制,將具有保障法地位的刑法推上臺前。例如,有學(xué)者認(rèn)為,可以增設(shè)“濫用人工智能罪”和“人工智能產(chǎn)品事故罪”,從故意犯罪和過失犯罪兩方面對人工智能技術(shù)提供者或使用者的行為加以規(guī)制[4]。同時,針對提供和使用生成式人工智能技術(shù)行為侵犯數(shù)據(jù)法益的情形,主張增設(shè)“非法分析數(shù)據(jù)罪”和“操縱數(shù)據(jù)罪”,并修改“拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪”[5]。不可否認(rèn),提供和使用生成式人工智能服務(wù)所伴隨的風(fēng)險需要刑法的介入與規(guī)制,在未來強(qiáng)人工智能時代,更需要前瞻性的立法與嚴(yán)密的刑法規(guī)范體系予以應(yīng)對,以避免風(fēng)險走向人類無法控制的地步。但也應(yīng)當(dāng)看到,生成式人工智能技術(shù)仍處于發(fā)展初期,各國都試圖搶占生成式人工智能大模型技術(shù)的高地,我國曾經(jīng)錯過第一次和第二次工業(yè)革命的機(jī)遇,導(dǎo)致關(guān)鍵技術(shù)仍被西方國家“卡脖子”,面對新一輪的人工智能技術(shù)革命,我們不能再錯過時機(jī),否則將無法再實現(xiàn)前沿技術(shù)領(lǐng)域的“彎道超車”。在我國,尚未出現(xiàn)因生成式人工智能技術(shù)導(dǎo)致嚴(yán)重?fù)p害公民利益或者危害社會安全的案例。因此,適用刑法規(guī)制這一技術(shù)應(yīng)當(dāng)十分謹(jǐn)慎,過度的犯罪化將會打擊提供者和使用者的積極性,不利于生成式人工智能技術(shù)的突破與創(chuàng)新。換言之,我國面對生成式人工智能技術(shù),既應(yīng)注意其所帶來的法律風(fēng)險,又應(yīng)看到其所提供的價值效用與貢獻(xiàn),應(yīng)合理發(fā)揮法律的規(guī)制作用(尤其是刑法的預(yù)防性和保障性作用),實現(xiàn)利益提供的最大化。因此,考察刑法規(guī)制生成式人工智能技術(shù)提供和使用行為的限度,是當(dāng)前理論界與實務(wù)界需要直面的問題。

鑒于前述問題,筆者立足于法教義學(xué)視角,采取以下論述策略:先論證刑法謹(jǐn)慎性規(guī)制生成式人工智能技術(shù)提供和使用行為的必要性,再明確刑法介入規(guī)制的原則,繼而檢視刑法適用的雙重限度。在刑法適用范圍之外,需要明確技術(shù)規(guī)則、行業(yè)規(guī)則、前置法與刑法的適用邊界;在刑法適用范圍之內(nèi),應(yīng)劃定重罪與輕罪的適用邊界。旨在實現(xiàn)風(fēng)險防控與技術(shù)創(chuàng)新的合理平衡,保障生成式人工智能技術(shù)的有序發(fā)展,挖掘生成式人工智能技術(shù)向好向善的服務(wù)型工具價值。

二、生成式人工智能技術(shù)風(fēng)險刑法謹(jǐn)慎性規(guī)制的證成

在介紹謹(jǐn)慎性規(guī)制之前,先闡述與其相對的敏捷型治理。敏捷型治理濫觴于1991年的制造業(yè)領(lǐng)域,在2018年世界經(jīng)濟(jì)論壇中被正式定義為一套具有柔韌性、流動性、靈活性或適應(yīng)性的行動或方法,是一種自適應(yīng)、以人為本以及具有包容性和可持續(xù)的決策過程[6]。換言之,敏捷型治理重點(diǎn)強(qiáng)調(diào)法律治理的靈活性、及時性、有效性和回應(yīng)性。敏捷型治理主要適用行政法和民法,強(qiáng)調(diào)法律規(guī)制的及時回應(yīng)性;謹(jǐn)慎性規(guī)制主要適用于刑法,強(qiáng)調(diào)刑法的謙抑性,在能夠適用非刑法措施解決問題的情況下盡量不適用刑法。筆者認(rèn)為,生成式人工智能技術(shù)作為初創(chuàng)的前沿技術(shù),面對其所帶來的風(fēng)險,在適用行政法與民法時可以進(jìn)行敏捷型治理,但在適用刑法時應(yīng)當(dāng)進(jìn)行謹(jǐn)慎性規(guī)制。

(一)生成式人工智能技術(shù)風(fēng)險刑法謹(jǐn)慎性規(guī)制的基本邏輯

生成式人工智能作為引領(lǐng)時代潮流和推動社會進(jìn)步的核心技術(shù),誰掌握了這項技術(shù),誰就能在國際技術(shù)競爭舞臺上掌握話語權(quán),并將自己的價值觀通過生成式人工智能服務(wù)潛移默化地傳遞給全世界。在新一輪技術(shù)革命競爭中,我國必須搶抓機(jī)遇并占據(jù)一席之地,否則未來將遭遇無休止的技術(shù)封鎖。因此,面對生成式人工智能技術(shù)帶來的風(fēng)險,需要持有包容態(tài)度并構(gòu)建容錯機(jī)制,法律監(jiān)管不能過于嚴(yán)苛,刑法適用必須十分謹(jǐn)慎。法律規(guī)制生成式人工智能技術(shù)并非約束技術(shù)發(fā)展,而是防控技術(shù)衍生的風(fēng)險。當(dāng)前生成式人工智能技術(shù)衍生的刑事風(fēng)險包括:①以生成式人工智能技術(shù)為“幌子”或“噱頭”的風(fēng)險,即實施與生成式人工智能技術(shù)無關(guān)的犯罪行為,如傳銷等,對于該類行為必須嚴(yán)懲,避免生成式人工智能技術(shù)被污名化;②以生成式人工智能技術(shù)為“工具”的風(fēng)險,如利用生成式人工智能技術(shù)生成虛假信息并大肆傳播;③以生成式人工智能系統(tǒng)為“對象”的風(fēng)險,例如,不法分子侵入大模型系統(tǒng)的數(shù)據(jù)庫,非法獲取數(shù)據(jù)或個人信息,并且,隨著多領(lǐng)域的交叉融合,出現(xiàn)了諸如綜合生物、體育等多重因素的運(yùn)動員生物識別信息,這些特殊類型的個人信息一旦被非法獲取和使用,將面臨更加持續(xù)的權(quán)益侵害[7];④生成式人工智能技術(shù)的漏洞風(fēng)險,例如大模型系統(tǒng)存在漏洞導(dǎo)致數(shù)據(jù)、商業(yè)秘密或個人信息泄露等。上述風(fēng)險實際上與區(qū)塊鏈等新興技術(shù)風(fēng)險具有相似性,刑法的介入需要謹(jǐn)慎[8]。筆者強(qiáng)調(diào)刑法謹(jǐn)慎性規(guī)制的基本邏輯,應(yīng)當(dāng)包括以下內(nèi)容。

1.刑法規(guī)制的后衛(wèi)性

所謂刑法規(guī)制的后衛(wèi)性,即先讓技術(shù)規(guī)則、行業(yè)規(guī)則、前置法調(diào)整,最后才讓刑法介入。本研究所指的“生成式人工智能”是在大數(shù)據(jù)處理、自然語言學(xué)習(xí)、生物識別等多種技術(shù)的加持和聯(lián)結(jié)下,形成的具有類人化特征的系統(tǒng)或機(jī)器,例如ChatGPT等。在技術(shù)失靈的情況下,其極易衍生系統(tǒng)性風(fēng)險,侵犯使用者利益。因此,為了規(guī)制生成式人工智能的技術(shù)風(fēng)險,應(yīng)當(dāng)采取包括技術(shù)規(guī)則、法律規(guī)范在內(nèi)的多元共治模式,并且遵循遞進(jìn)性的標(biāo)準(zhǔn),從而實現(xiàn)刑法對生成式人工智能技術(shù)風(fēng)險的謹(jǐn)慎性規(guī)制。

首先,應(yīng)發(fā)揮自律規(guī)則自治作用應(yīng)對技術(shù)風(fēng)險。強(qiáng)調(diào)代碼自治的技術(shù)規(guī)則和行業(yè)自治的行業(yè)規(guī)則是規(guī)制提供和使用生成式人工智能行為的首選規(guī)范。技術(shù)規(guī)則關(guān)涉生成式人工智能的整體運(yùn)行,生成式人工智能按照其預(yù)定的操作指令輸出相關(guān)結(jié)果,使用生成式人工智能行為的風(fēng)險往往來源于技術(shù)內(nèi)因。因此,應(yīng)當(dāng)首先通過調(diào)整和應(yīng)用代碼,以事先執(zhí)行的方式對生成式人工智能加以限制。除了技術(shù)規(guī)則,行業(yè)規(guī)則也具有一定的自治性和約束性。例如,圖書館行業(yè)協(xié)會可以規(guī)定“文心一言”、ChatGPT在智能服務(wù)中的使用規(guī)則,以此約束工作人員,避免損害讀者權(quán)益,實現(xiàn)對風(fēng)險的預(yù)先防控。

其次,應(yīng)發(fā)揮前置法先治作用化解衍生風(fēng)險。自律規(guī)則在應(yīng)對知識產(chǎn)權(quán)侵權(quán)、個人隱私泄露等法律風(fēng)險時“力有不逮”,此時便需要法律的介入。一方面,應(yīng)當(dāng)充分運(yùn)用民法規(guī)范來應(yīng)對衍生風(fēng)險。例如,網(wǎng)絡(luò)服務(wù)提供者往往會以在線服務(wù)協(xié)議或者隱私聲明的形式告知用戶收集處理個人信息的規(guī)則,意思自治的“合同”可以阻卻刑事違法性。若雙方發(fā)生糾紛,可以按照協(xié)議的規(guī)則進(jìn)行處理,而無需刑法介入。另一方面,在充分運(yùn)用民法規(guī)范后,可以進(jìn)一步求助于行政法規(guī)范來化解衍生風(fēng)險。《生成式人工智能服務(wù)管理暫行辦法》作為我國首部該領(lǐng)域的監(jiān)管規(guī)范,為多行業(yè)監(jiān)管、分類分級監(jiān)管的主基調(diào)奠定了基礎(chǔ)。當(dāng)生成式人工智能因算法規(guī)范、數(shù)據(jù)來源等問題可能侵犯用戶權(quán)益時,可以請求相關(guān)部門對其進(jìn)行合規(guī)審查,完善相關(guān)技術(shù),及時化解風(fēng)險,避免刑法過早介入。

最后,應(yīng)發(fā)揮刑法在保護(hù)重要法益方面的后治作用。在自治規(guī)則和前置法無法有效規(guī)制提供和使用生成式人工智能的行為時,應(yīng)當(dāng)考慮通過刑法來化解風(fēng)險。一方面,生成式人工智能風(fēng)險的防控與技術(shù)創(chuàng)新需要平衡,發(fā)揮刑法化解風(fēng)險的后治作用有利于違法行為的矯治,同時保護(hù)提供者的積極性,促進(jìn)技術(shù)的發(fā)展。另一方面,對生成式人工智能治理邏輯已然不同于傳統(tǒng)物理空間的治理邏輯,因此,應(yīng)當(dāng)在尊重自身技術(shù)優(yōu)勢的基礎(chǔ)上,充分發(fā)揮法律治理與技術(shù)治理的互補(bǔ)作用[9],形成“自治規(guī)則-前置法-刑法”的遞進(jìn)性規(guī)制方案,構(gòu)建風(fēng)險及時化解和刑法兜底保障的治理格局。

2.刑法規(guī)制的保護(hù)性

所謂刑法規(guī)制的保護(hù)性,是指刑法對生成式人工智能進(jìn)行規(guī)制的目的,并非調(diào)控關(guān)涉生成式人工智能的社會秩序,亦非純粹防控風(fēng)險,而是要保護(hù)被不法行為嚴(yán)重侵害的法益。換言之,刑法并非社會秩序管理法,而是法益保護(hù)法。

第一,沒有造成法益損害的行為無需刑法介入規(guī)制。法益包括個人法益和超個人法益,超個人法益必須能夠還原為個人法益才具備刑法保護(hù)的必要性,但歸根到底也是服務(wù)于個人的。刑法通過舉止規(guī)范和制裁規(guī)范共同實現(xiàn)法益保護(hù),保護(hù)法益也是解釋犯罪構(gòu)成要件的當(dāng)然目標(biāo)[10]。換言之,脫離法益保護(hù)的刑法規(guī)制將欠缺合法性和正當(dāng)性。如果使用生成式人工智能技術(shù)的行為沒有侵犯個人法益,或者侵犯了無法還原為個人法益的純粹超個人法益,則無需介入規(guī)制。

第二,造成輕微法益損害的行為亦無需刑法介入規(guī)制。犯罪的本質(zhì)是侵害法益,但并非任何侵害法益的行為都是犯罪行為,因為刑法只規(guī)制具有可罰違法性的行為,即在量上具有一定的嚴(yán)重程度,在質(zhì)上是值得科處刑罰的行為。在面對新興技術(shù)領(lǐng)域時,刑法的介入應(yīng)當(dāng)謹(jǐn)而慎之,對于“嚴(yán)重侵害法益”的認(rèn)定更應(yīng)當(dāng)采取實質(zhì)解釋論嚴(yán)格認(rèn)定,避免將輕微侵害法益的行為升格為犯罪行為進(jìn)行處理[11]。例如,提供者通過程序設(shè)定可以使ChatGPT等生成式人工智能煽動不特定用戶實施相關(guān)犯罪,此時提供者可能構(gòu)成相關(guān)煽動類犯罪[12]。然而,在認(rèn)定諸如煽動分裂國家罪、煽動顛覆國家政權(quán)罪時,并不能僅僅以ChatGPT生成相關(guān)言論就將其提供者的相關(guān)行為作為犯罪處理。雖然這些罪名大多為抽象危險犯,但其仍然需要進(jìn)行解釋和判斷。此時應(yīng)當(dāng)根據(jù)行為人的主觀責(zé)任,行為人對生成式人工智能的程序設(shè)定、數(shù)據(jù)擇取、后期編程等行為以及生成式人工智能整合、制作文字、圖像、音頻等情節(jié),綜合判斷其是否威脅或者侵害了國家法益,是否使得國家統(tǒng)一和政權(quán)穩(wěn)定陷入危險。對于尚未嚴(yán)重侵害刑法法益,且能夠通過前置法予以規(guī)制時,刑法不應(yīng)當(dāng)“走上臺前”。

3.刑法規(guī)制的就輕性

所謂刑法規(guī)制的就輕性,是指在適用刑法規(guī)制作為創(chuàng)新性的生成式人工智能技術(shù)時,應(yīng)當(dāng)在全面保護(hù)法益的前提下優(yōu)先考慮適用輕罪,在輕罪無法達(dá)到規(guī)制效果時,再考慮適用重罪,遵循“就輕不就重”的原則。當(dāng)自治規(guī)則、前置法難以全面保護(hù)法益時,刑法才需要介入。然而,在適用刑法規(guī)范時,同樣應(yīng)當(dāng)秉承刑法謹(jǐn)慎性規(guī)制的理念,尤其是在重罪法條不明確的情況下,不能為了科處刑罰而適用重罪。例如,在許可研發(fā)生成式人工智能之前,需要事先審核研發(fā)者是否建立內(nèi)容識別與過濾機(jī)制、能否達(dá)到合法安全的法律要求。對于違反相關(guān)研發(fā)許可制度的情節(jié)嚴(yán)重的行為,可能構(gòu)成非法經(jīng)營罪。此時,若生成式人工智能生成了整合他人權(quán)利作品的內(nèi)容,并通過信息網(wǎng)絡(luò)進(jìn)行傳播,則可能構(gòu)成侵犯知識產(chǎn)權(quán)罪。由于罪刑法定原則要求刑法規(guī)范及其適用必須具有明確性,通過刑法解釋,非法經(jīng)營罪的兜底條款實際上具有很大的解釋空間。因此,在沒有刑法條文明文規(guī)定的情況下,為了限縮重罪的適用范圍,保護(hù)技術(shù)發(fā)展的創(chuàng)新性,堅守包容審慎原則,應(yīng)當(dāng)將該行為認(rèn)定為侵犯知識產(chǎn)權(quán)罪,而非認(rèn)定非法經(jīng)營罪。概言之,在適用刑法規(guī)范時,應(yīng)當(dāng)始終堅持自由保障和法益保護(hù)的理念,如果能夠通過適用輕罪實現(xiàn)規(guī)制效果,決不能適用刑罰更為嚴(yán)重的且規(guī)范模糊的重罪。只有在輕罪保護(hù)法益不充分時,才應(yīng)當(dāng)適用重罪。

(二)生成式人工智能技術(shù)風(fēng)險刑法謹(jǐn)慎性規(guī)制的法理證成

在勾勒生成式人工智能技術(shù)刑法謹(jǐn)慎性規(guī)制的輪廓和特點(diǎn)之后,還需要進(jìn)一步闡釋該模式的合理性。對此,本研究主要從技術(shù)中立原理、刑法謙抑性原則和可允許風(fēng)險理論三個方面進(jìn)行學(xué)理證立。

1.技術(shù)中立原理的要求

“技術(shù)中立”原理濫觴于美國最高法院在索尼案(Universal City Studios. Inc. v. Sony Corporation of America)中確立的“實質(zhì)性非侵權(quán)用途”規(guī)則,意指在技術(shù)具有合法用途與非法用途時,不能僅僅因為其成為侵權(quán)工具而使技術(shù)提供者承擔(dān)法律責(zé)任[13]。換言之,不能因為非法使用技術(shù)帶來風(fēng)險,就將全部責(zé)任歸咎于技術(shù)本身。

其一,技術(shù)中立原理應(yīng)被堅守和發(fā)展。當(dāng)前學(xué)界存在一種否定技術(shù)中立原理的思潮,認(rèn)為“技術(shù)本惡”需要法律尤其是刑法的規(guī)制。實際上,技術(shù)只是人類研制出來方便生活的工具,技術(shù)工具本身并無善惡之分,但利用技術(shù)的行為有善惡之別,不能將惡意使用技術(shù)行為的可譴責(zé)性錯誤歸咎于技術(shù)本身。因此,我們應(yīng)該堅守技術(shù)中立原理,并在此基礎(chǔ)上將智能技術(shù)視為工具并促使其向善發(fā)展,這意味著與新技術(shù)相關(guān)的規(guī)制工具主義傾向于在收益和風(fēng)險之間達(dá)成某種可接受的平衡。刑法的目的不僅僅是要對不當(dāng)行為作出間接回應(yīng),而且還要采取任何可能奏效的措施來減少犯罪,法律的道路應(yīng)當(dāng)是不斷進(jìn)步的,我們應(yīng)當(dāng)在規(guī)制犯罪和提高安全水平方面做得更好[14]。換言之,刑法在規(guī)制技術(shù)風(fēng)險時,并非一味地預(yù)防或懲罰犯罪,而是要實現(xiàn)多方利益的平衡。刑法謹(jǐn)慎性規(guī)制的目的就是要實現(xiàn)技術(shù)的創(chuàng)新利益與安全利益的平衡,這一點(diǎn)符合規(guī)制工具主義的要求。

其二,刑法規(guī)制生成式人工智能技術(shù)的本質(zhì)是規(guī)制技術(shù)背后的行為。刑法規(guī)制的對象應(yīng)當(dāng)關(guān)涉生成式人工智能技術(shù)的行為,而非技術(shù)本身。應(yīng)當(dāng)肯定,雖然生成式人工智能具有“類人性”,但其本質(zhì)上和網(wǎng)絡(luò)爬蟲等技術(shù)一樣,仍是一種技術(shù)和工具,并無好壞之分[15]。而使用生成式人工智能的行為體現(xiàn)了使用者的主觀意志,行為可能侵犯法益,繼而具有評價的必要性。這一重要原理在我國關(guān)涉人工智能犯罪的司法實踐中有所體現(xiàn),如蕭山區(qū)檢察院追究了虞某利用“AI換臉”技術(shù)制作淫穢換臉視頻并在網(wǎng)絡(luò)上傳播行為的刑事責(zé)任[16]。因此,無論是行業(yè)規(guī)則抑或法律規(guī)范,其規(guī)制的重心都應(yīng)當(dāng)是使用生成式人工智能的行為,而非不具有評價意義的中立技術(shù)本身,這是本研究討論刑法謹(jǐn)慎性規(guī)制的邏輯前提。易言之,技術(shù)中立原理要求刑法需重點(diǎn)規(guī)制非法利用生成式人工智能技術(shù)的行為,即約束行為并非阻礙技術(shù)發(fā)展。為了避免刑法規(guī)制誤傷中立的技術(shù),需要刑法十分謹(jǐn)慎地規(guī)制關(guān)涉生成式人工智能技術(shù)的行為。

其三,技術(shù)的客觀性和兩面性要求刑法只需規(guī)制惡意利用技術(shù)的違法行為。生成式人工智能可能會成為他人過度獲取個人信息抑或整合他人作品侵犯知識產(chǎn)權(quán)的工具。但是,“技術(shù)的歸技術(shù)”,由生成式人工智能引發(fā)的技術(shù)風(fēng)險應(yīng)當(dāng)首先遵循技術(shù)規(guī)則,在其內(nèi)部尋找技術(shù)內(nèi)因,而非徑直適用法律(尤其是刑法)。另外,生成式人工智能作為技術(shù)工具,若被善意使用,可能會產(chǎn)生社會效益。但其他不法分子也會利用生成式人工智能技術(shù)實施違法犯罪行為,對此需要刑法強(qiáng)力介入規(guī)制。概言之,刑法的打擊半徑只能被限縮在惡意使用生成式人工智能行為的范圍內(nèi)。在此意義上,技術(shù)價值使用的兩面性有利于明確刑法的苛責(zé)范圍[17]。

2.刑法謙抑性原則的要求

刑法的謙抑性原則是處理刑法與其他部門法之間關(guān)系,以及刑法內(nèi)部規(guī)范適用順序的重要原則。刑法謹(jǐn)慎性規(guī)制關(guān)涉生成式人工智能技術(shù)的行為,正是刑法謙抑性原則的基本要求。具言之,該原則對刑法謹(jǐn)慎性規(guī)制的影響主要體現(xiàn)在以下兩個方面。

一方面,在處罰范圍方面,刑法的介入應(yīng)當(dāng)具有補(bǔ)充性。由于刑法在法律體系中處于保障法的地位,故凡是其他法律能夠規(guī)制違法行為,保護(hù)合法權(quán)益時,就不應(yīng)適用刑法[18]。應(yīng)當(dāng)看到,生成式人工智能目前仍處于初步發(fā)展時期,其應(yīng)用尚未全面普及,使用生成式人工智能造成的危害行為主要集中在民事侵權(quán)、行政違法領(lǐng)域。《生成式人工智能服務(wù)管理暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《生成式人工智能預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)安全規(guī)范》等既有前置性規(guī)范性文件在一定程度上能夠應(yīng)對生成式人工智能引發(fā)的風(fēng)險。因此,刑法應(yīng)當(dāng)保持足夠的謙抑性,構(gòu)建前置法優(yōu)先處理為原則與刑事法優(yōu)先處理為例外的規(guī)制模式[19]。

另一方面,在處罰程度方面,刑法的適用應(yīng)當(dāng)具有寬容性。重刑主義既具有積極價值,亦具有消極影響。事實上,刑罰的一味嚴(yán)厲不僅不符合罪責(zé)刑相適應(yīng)原則,而且極易激起行為人的犯罪情緒,導(dǎo)致重新犯罪的發(fā)生。進(jìn)入法典化時代以來,民法典的出臺不僅匡正了自身混亂的規(guī)范體系[7],而且其人文關(guān)懷理念也助推了刑法的人文化成,促進(jìn)我國刑法從重刑工具主義向輕刑人本主義轉(zhuǎn)型[20]。而刑法減少介入、減輕干預(yù),以最經(jīng)濟(jì)合理的方式規(guī)制危害行為恰是刑法謙抑原則的重要體現(xiàn)。因此,面對新興的生成式人工智能技術(shù),刑法應(yīng)當(dāng)保持足夠的寬容度,在提供和使用生成式人工智能行為可能同時觸犯輕罪和重罪時,應(yīng)當(dāng)優(yōu)先適用輕罪。在適用輕罪時,如果能夠通過較輕刑事責(zé)任方式規(guī)制危害行為,就不應(yīng)當(dāng)選擇嚴(yán)厲的刑罰。如此方可發(fā)揮刑法的最大功用,在保護(hù)技術(shù)創(chuàng)新積極性的同時實現(xiàn)了對風(fēng)險的有效防控。

3.刑法可允許風(fēng)險理論的要求

進(jìn)入風(fēng)險社會,越來越多的新型風(fēng)險威脅或侵害法益,然而有些風(fēng)險是必不可少的,例如,交通運(yùn)輸、研制新藥物、建設(shè)核電站等產(chǎn)生的風(fēng)險。因此,為了緩解社會發(fā)展與風(fēng)險防控的緊張關(guān)系,可允許的風(fēng)險理論應(yīng)運(yùn)而生。其是指只要行為人在實施對社會有益的危險行為時遵守了相應(yīng)的規(guī)則,即使發(fā)生了一定的危害結(jié)果,也允許該危險行為的存在[21]。實際上,生成式人工智能技術(shù)引發(fā)的風(fēng)險大多是可允許的風(fēng)險,具言之,可從利弊衡量、必要性考量、災(zāi)難性后果評估三個方面進(jìn)行考察[22]。

第一,生成式人工智能帶來的社會效益遠(yuǎn)遠(yuǎn)大于所引發(fā)的風(fēng)險。一方面,生成式人工智能是數(shù)字時代先進(jìn)生產(chǎn)力的代表,在教務(wù)教學(xué)、行政管理、商務(wù)辦公等領(lǐng)域具有廣闊的應(yīng)用空間,能夠便捷人類生活、促進(jìn)社會發(fā)展。另一方面,生成式人工智能仍未超脫人類控制,尚未具備危害公民生命財產(chǎn)安全的能力。雖然可能會侵犯公民個人信息或者知識產(chǎn)權(quán),但與其帶來的社會效益相比,其風(fēng)險和不利仍然較小。換言之,生成式人工智能帶來的大多風(fēng)險屬于技術(shù)創(chuàng)新過程中法律可允許的風(fēng)險,只有一小部分嚴(yán)重侵害法益的風(fēng)險才需要刑法介入調(diào)適。這就需要刑法謹(jǐn)慎性規(guī)制,以妥當(dāng)甄別法律可允許的風(fēng)險與刑法不容許的風(fēng)險。

第二,生成式人工智能的技術(shù)風(fēng)險是創(chuàng)新必然攜帶物,且其與獲得利益之間并不沖突。一方面,雖然生成式人工智能的技術(shù)發(fā)展攜帶風(fēng)險,但“風(fēng)險與收益并存”,其也會創(chuàng)造經(jīng)濟(jì)效益,并且其所帶來的便捷是人類所必要的。另一方面,從物理社會到數(shù)字時代,再到智能時代,人工智能技術(shù)是歷史發(fā)展的必然結(jié)果,其他技術(shù)尚難以為人類提供同等智慧。概言之,生成式人工智能技術(shù)能夠為人類帶來獨(dú)特的利益,這是其他方法無法實現(xiàn)的。因此,即使生成式人工智能技術(shù)具有風(fēng)險,但這些風(fēng)險也應(yīng)該得到容忍。

第三,生成式人工智能技術(shù)風(fēng)險目前尚未引發(fā)災(zāi)難性后果。我國的“文心一言”仍處于試驗性使用階段,尚未發(fā)生嚴(yán)重侵犯法益的行為,同時由于該技術(shù)的可控性,其難以產(chǎn)生災(zāi)難性的社會風(fēng)險。此外,目前所表露的風(fēng)險大多與生成式人工智能技術(shù)沒有必然的因果關(guān)系,例如,大多虛假信息是輸入數(shù)據(jù)量有限帶來的結(jié)果,而非技術(shù)本身的缺陷。應(yīng)當(dāng)肯定,無論是風(fēng)險發(fā)生的概率,抑或風(fēng)險的種類,都不符合災(zāi)難性后果的標(biāo)準(zhǔn),更不會造成更大的法益侵害。因此,對于仍處于試錯階段的生成式人工智能技術(shù)而言,尚無刑法全面介入規(guī)制之必要。

綜上所述,在生成式人工智能引發(fā)的風(fēng)險中存在可允許的風(fēng)險。對此,應(yīng)當(dāng)秉承刑法有限性規(guī)制的理念,一方面,不應(yīng)僅僅因為生成式人工智能具有風(fēng)險而不加區(qū)分地通過刑法進(jìn)行規(guī)制,這不僅會違反該理論,最終還會招致被廣泛期待的創(chuàng)新性技術(shù)的萎縮以及停滯。另一方面,如果涉及生成式人工智能的不法行為逾越了可允許風(fēng)險的標(biāo)準(zhǔn),產(chǎn)生了嚴(yán)重的法益侵害結(jié)果,才應(yīng)當(dāng)允許刑法的介入。

三、形塑生成式人工智能技術(shù)風(fēng)險刑法謹(jǐn)慎性規(guī)制模式的原則

如前所述,對于生成式人工智能技術(shù)風(fēng)險的防控,刑法需要另辟蹊徑,采取謹(jǐn)慎性規(guī)制的模式和方案,而在構(gòu)建與適用的過程中,需要秉承以下原則。

(一)法益保護(hù)原則

自霍布斯(Hobbes)以來,安全保障就被視為政府的基本服務(wù),刑法同樣也是為安全保障需求服務(wù)的,然而將刑法作為提供安全保障的工具之時,對于其運(yùn)用界限卻存在激烈的爭論,但就目前的刑法理論而言,刑法服務(wù)于法益保護(hù)獲得了一致的認(rèn)可[23]。法益是刑法教義學(xué)理論中重要組成元素,法益已經(jīng)不再是規(guī)范形式上犯罪構(gòu)成的要件,而是規(guī)范實質(zhì)上所要保護(hù)的現(xiàn)實利益,法益日趨走向?qū)嵸|(zhì)化[24]。確立刑法的法益保護(hù)原則應(yīng)當(dāng)堅守以下要點(diǎn)。

首先,應(yīng)當(dāng)將純粹的悖德行為排除出刑法的規(guī)制范疇。西方國家的刑法禁止遇見危險不救助、不報告等行為,于是我國有些學(xué)者主張見危不救行為應(yīng)入罪。實際上,道德規(guī)范和法律規(guī)范之間仍具有一定的界限。道德規(guī)范之所以能夠上升為刑法規(guī)范,并不是要用法律來維護(hù)道德,而是因為違反道德的行為恰好威脅或損害了刑法要保護(hù)的重要法益[25]。因此,當(dāng)生成式人工智能被用作招聘評估等工作,但因為存在不公正的程序設(shè)定而輸出了具有歧視性、偏見性的結(jié)果時,就不能適用刑法追究其提供者或者使用者的責(zé)任。換言之,不侵害刑法法益的純粹悖德行為不能受到刑法的規(guī)制,否則,法律規(guī)范便“僭越”了道德規(guī)范范圍,有違刑法自由保障的機(jī)能,這是刑法謹(jǐn)慎性規(guī)制生成式人工智能技術(shù)風(fēng)險時需要堅守的底線原則。

其次,純粹的管理秩序不應(yīng)當(dāng)成為刑法保護(hù)的法益。進(jìn)入風(fēng)險社會,集體法益的規(guī)定更有利于預(yù)防和防控重大風(fēng)險的發(fā)生,但法益是法律所保護(hù)的人的利益,應(yīng)當(dāng)具有明確性,故只有當(dāng)集體法益能夠還原為個人法益,能夠促進(jìn)個人自由發(fā)展時,才可謂刑法值得保護(hù)的法益。因此,僅僅為行政法所保護(hù)的純粹的管理秩序不能成為刑法保護(hù)的法益。例如,《生成式人工智能服務(wù)管理暫行辦法》對生成式人工智能服務(wù)提供者收集、存儲用戶個人信息的行為作了規(guī)定,倘若提供者過度存儲了無法識別個人身份抑或?qū)€人無用的個人信息時,其也只是違反了監(jiān)管部門的管理規(guī)范,但無法對個人權(quán)益造成損害,此時就不應(yīng)當(dāng)適用刑法。應(yīng)當(dāng)明確,在我國生成式人工智能發(fā)展以追求“安全發(fā)展”為價值方向的背景下,行政監(jiān)管范圍會有所擴(kuò)張,此時應(yīng)當(dāng)避免刑法調(diào)整對象的過度化,使其成為替代政府管理或者因管理無力而“兜底保障和威懾”的“社會管理法”[26]。

最后,需要明確的是,并非所有法益都要刑法保護(hù),只有那些重要的并且可以被刑法規(guī)范涵括的法益才應(yīng)得到刑法保護(hù)。犯罪是對較為重要法益的破壞,據(jù)此降低個人的安全感并危及社會安寧,因此,有必要采取刑罰措施作為有效的制裁手段來應(yīng)對犯罪行為。而為了避免刑罰濫用,往往發(fā)揮實質(zhì)法益概念與形式法益概念的立法批判機(jī)能,來劃定刑事處罰的合理邊界和范圍[27]。一方面,實質(zhì)法益概念的根據(jù)來源于憲法,唯有憲法中關(guān)涉公民基本權(quán)利以及保障基本權(quán)利實現(xiàn)的基本條件才能成為刑法立法所要保護(hù)的重要法益。因此,基于生成式人工智能技術(shù)風(fēng)險而增設(shè)罪名時,應(yīng)當(dāng)著重考察法益保護(hù)的正當(dāng)性,避免超越刑法規(guī)制范疇。另一方面,應(yīng)當(dāng)通過解釋論發(fā)揮形式的法益概念的立法批判機(jī)能。因此,在認(rèn)定使用生成式人工智能行為構(gòu)成罪名時,不能僅僅依據(jù)刑法條文表面機(jī)械地認(rèn)定所要保護(hù)的法益,而是應(yīng)當(dāng)確定具有實質(zhì)意義的法益,以此避免刑法打擊范圍的不當(dāng)擴(kuò)大。

(二)比例原則

刑法的基本原則除了固有的罪責(zé)原則和罪刑法定原則外,還有植根于憲法和行政法而與罪責(zé)原則內(nèi)涵有部分相似的比例原則。比例原則包括適當(dāng)性原則、必要性原則和相當(dāng)性原則。適當(dāng)性原則是指,刑法所采取的手段必須是達(dá)成保護(hù)法益與建立并維系社會共同生活的和平與秩序的刑法目的之適當(dāng)手段;必要性原則強(qiáng)調(diào),刑法的處罰規(guī)定必須是為了達(dá)成刑法目的而造成最小侵害的必要手段;相當(dāng)性原則(即狹義比例原則)是指,刑法使用的手段與其所要達(dá)成的目的必須相當(dāng)[28]。將比例原則引入刑法領(lǐng)域,對于貫徹法益保護(hù)原則具有方法論意義,可以作為法益保護(hù)原則的有益補(bǔ)充,但要避免簡單的話語轉(zhuǎn)化和機(jī)械套用[29]。對于生成式人工智能技術(shù)風(fēng)險的規(guī)制,在通過比例原則檢視之后,才可以適用刑法。換言之,比例原則的考察流程也就是刑法謹(jǐn)慎性規(guī)制的過程。

首先,當(dāng)刑罰手段無法有效實現(xiàn)法益保護(hù)目的時不能適用刑法。適當(dāng)性原則是用來評判國家權(quán)力行使的正當(dāng)性,因此其既包括對發(fā)動刑罰權(quán)是否是為了保護(hù)法益的目的正當(dāng)性的審查,也包含對實施刑罰是否有助于實現(xiàn)該目的的手段有效性的檢視。在目的正當(dāng)性方面,雖然不能否定刑事立法的正當(dāng)性,但是在認(rèn)定與生成式人工智能相關(guān)的罪名時,仍然需要考察刑法所保護(hù)的法益是否具備憲法上的正當(dāng)根據(jù),是否具有重要價值,是否符合明確具體要求。在手段有效性方面,需要判斷適用刑法是否能夠有效保護(hù)提供和使用生成式人工智能行為所侵害的法益,對此,不能僅僅通過簡單的邏輯推理或者思維論證來認(rèn)定,而是需要通過一定的實證調(diào)研和后果考察來分析。但是,如果適用罪名能夠防止嚴(yán)重后果的發(fā)生,抑或適用輕罪有利于預(yù)防重罪時,應(yīng)當(dāng)肯定刑罰手段的有效性。

其次,應(yīng)當(dāng)適用能夠達(dá)成規(guī)制效果并對行為人造成最小損害的手段。應(yīng)當(dāng)看到,必要性原則和謙抑性原則具有一定的重合,但是兩者仍具有不同的價值意義。前者傾向于審查方法和程序,后者則貫穿了法益保護(hù)的實質(zhì)概念。因此,在利用比例原則的“三原則”判斷刑法是否應(yīng)當(dāng)介入生成式人工智能技術(shù)風(fēng)險時,應(yīng)當(dāng)注重結(jié)合法益保護(hù)原則、刑法補(bǔ)充性原理、后果考察理論等具有實體意義的內(nèi)容來輔助審查。例如,不能因為刑罰的嚴(yán)厲便僅僅從形式上認(rèn)為適用民法或者行政法對生成式人工智能的提供者或者使用者的損害最小,而是應(yīng)當(dāng)在全面有效保護(hù)法益和促進(jìn)技術(shù)創(chuàng)新的基礎(chǔ)上,權(quán)衡刑罰和非刑罰措施的利弊,選擇合比例的法律規(guī)范。

最后,利用生成式人工智能技術(shù)造成的法益侵害程度明顯大于技術(shù)利益時可以適用刑法。例如,杭州某小區(qū)居民為測試ChatGPT技術(shù)的使用效果,嘗試用ChatGPT寫一篇杭州市取消依照尾號限行的新聞稿,隨后將生成的虛假新聞稿轉(zhuǎn)發(fā)在小區(qū)業(yè)主群里進(jìn)行分享。該消息被不明真相的業(yè)主轉(zhuǎn)發(fā),導(dǎo)致虛假信息廣泛傳播。后警方介入調(diào)查后證實該消息為謠言[30]。該案中的雙方利益分別為公眾的信賴?yán)婧屠蒙墒饺斯ぶ悄芗夹g(shù)生成信息的便捷利益,該虛構(gòu)并肆意傳播行為對公眾信賴?yán)娴那趾Τ潭让黠@大于因技術(shù)而生的便捷利益,是故該案就具備了刑法規(guī)制的正當(dāng)性。

四、生成式人工智能技術(shù)風(fēng)險刑法謹(jǐn)慎性規(guī)制模式的適用與展開

如前所述,數(shù)字時代下生成式人工智能風(fēng)險的防控與管理是由技術(shù)引發(fā)的法律問題,需要由技術(shù)規(guī)則、行業(yè)規(guī)制、前置法和刑法等規(guī)范共同應(yīng)對。而在多元共治格局中,如何具體適用生成式人工智能技術(shù)風(fēng)險的刑法謹(jǐn)慎性規(guī)制模式?需要重點(diǎn)把握刑法介入的時機(jī)和限度,即應(yīng)分別廓清刑事法治外部的技術(shù)規(guī)則、行業(yè)規(guī)制、前置法和刑法的適用畛域,以及刑事法治內(nèi)部的重罪和輕罪作用邊界。

(一)技術(shù)規(guī)則、行業(yè)規(guī)則與刑法的適用邊界

技術(shù)規(guī)則以代碼為依托,是程序設(shè)定和運(yùn)行所需要遵循的基本原理和規(guī)范。行業(yè)規(guī)則多為生成式人工智能行業(yè)領(lǐng)域的協(xié)會等自治組織以及研發(fā)公司制定的自治性規(guī)范,屬于“軟法”范疇[31]。由于生成式人工智能產(chǎn)業(yè)鏈、運(yùn)行鏈往往涉及多方利益,需要借助外部的強(qiáng)制規(guī)范予以行為引導(dǎo)和利益安排,故單純通過自治的技術(shù)規(guī)則、行業(yè)規(guī)則解決爭議問題較為有限。因此,技術(shù)規(guī)則、行業(yè)規(guī)則與法律乃至刑法的作用邊界并非清晰明了,此時需要秉持法益保護(hù)原則和比例原則使法律規(guī)范在規(guī)定范圍內(nèi)作出適度的讓步,以擴(kuò)大自治規(guī)則的作用空間。具言之,主要包括以下兩種情形。

第一,個人以娛樂學(xué)習(xí)為目的使用生成式人工智能,如其生成虛假信息時,可以通過技術(shù)措施來解決,無需法律甚至刑法的介入。以“文心一言”為例,在該種情形下需要注意以下兩點(diǎn)。一是生成虛假信息問題?!拔男囊谎浴蓖ㄟ^海量復(fù)雜的語料庫進(jìn)行訓(xùn)練,但是深度學(xué)習(xí)技術(shù)也僅僅是在理解人類語言排列關(guān)系和特征的基礎(chǔ)上進(jìn)行語言輸出的重組和優(yōu)化,卻無法理解其相互之間的內(nèi)在邏輯。因此,“文心一言”生成虛假信息在所難免,法律規(guī)范需要容忍這一適度的可允許的技術(shù)風(fēng)險。倘若其輸出的是危害國家安全、煽動民族仇恨的內(nèi)容時,則表明其已然具有了“感情色彩”,一定程度上融入了提供者的價值判斷且表明提供者未盡足夠?qū)徍肆x務(wù),此時法律不應(yīng)容忍其對社會公共利益的冒犯或侵害。二是個人以娛樂學(xué)習(xí)為目的的場景下使用時,如果個人惡意傳播“文心一言”生成的虛假險情、疫情等信息,擾亂社會秩序時,便需要通過刑法來定罪處罰,而不能僅僅通過改進(jìn)技術(shù)來處理風(fēng)險。因此,需要著重判斷行為人使用的目的和場景。例如,如果“文心一言”被用于輔助政府機(jī)關(guān)作公共決策,由于這涉及公共利益,百度公司以及政府機(jī)關(guān)需要承擔(dān)更多的注意義務(wù),此時就需要法律甚至刑法規(guī)范相應(yīng)的行為;然而,如果個人僅以娛樂學(xué)習(xí)為目的使用“文心一言”,如果生成了虛假信息,個人應(yīng)當(dāng)具有判斷意識,如個人造成傳播后的不良后果,個人應(yīng)對其負(fù)相應(yīng)責(zé)任。同時,由于市場競爭機(jī)制的存在,用戶可能會選擇其他生成式人工智能服務(wù),這在一定程度上會促進(jìn)“文心一言”的技術(shù)改進(jìn),彌補(bǔ)技術(shù)缺陷,繼而阻卻刑法的介入。

第二,違反使用規(guī)則的行為可以依照行業(yè)規(guī)則進(jìn)行處理,無需適用刑法。新興的生成式人工智能領(lǐng)域具有區(qū)別于其他行業(yè)的特有規(guī)則,如深圳市人工智能行業(yè)協(xié)會制定的《新一代人工智能行業(yè)自律公約》《人工智能企業(yè)評估規(guī)范》等就對人工智能產(chǎn)業(yè)發(fā)展、行為規(guī)范等作了規(guī)定。除此之外,行業(yè)規(guī)則也可以包含人工智能企業(yè)或者提供者對于生成式人工智能服務(wù)制定的使用規(guī)則。就使用規(guī)則與刑法的作用邊界而言,刑法需要維護(hù)基本的使用秩序,但不能淪為保護(hù)具體使用規(guī)則的工具[32]。例如,“文心一言”的用戶協(xié)議實際上就相當(dāng)于百度公司與用戶之間簽訂的服務(wù)合同,當(dāng)百度公司履行了足夠的提示義務(wù)且用戶進(jìn)行使用時,合同便成立。倘若行為人通過輸入無意義的亂碼、變體諧音文字或者特殊破解字符的方式來對抗過濾機(jī)制,繼而實現(xiàn)其輸入不當(dāng)言論或者誘導(dǎo)“文心一言”輸出不當(dāng)言論的目的時,百度公司可以根據(jù)用戶協(xié)議對行為人予以警示,或者采取限制、鎖定賬號的處理措施。此類行為只是對使用規(guī)則的違反,并不涉及任何的計算機(jī)犯罪或者非法利用網(wǎng)絡(luò)犯罪。對該類行為的規(guī)制,需要的是技術(shù)的改進(jìn)以及行為的規(guī)范,而非刑法的介入。

(二)民法、行政法與刑法的適用邊界

經(jīng)過上述規(guī)范的處理能夠“過濾”一部分不應(yīng)由刑法介入的行為,然而,技術(shù)規(guī)則、行業(yè)規(guī)則畢竟是自治性規(guī)范,缺乏足夠的強(qiáng)制約束力和有效的懲戒措施。因此,對于自治規(guī)范難以化解的風(fēng)險應(yīng)當(dāng)考慮由民法、行政法等前置法在先處理,刑法置后處理。具言之,可以在以下情形下劃清前置法與刑法的作用邊界。

第一,當(dāng)行為同時構(gòu)成犯罪未遂與民事不法時,應(yīng)當(dāng)優(yōu)先認(rèn)定民事不法。應(yīng)當(dāng)肯定的是,只有當(dāng)未遂犯具有實現(xiàn)既遂結(jié)果的緊迫危險或者具有與既遂犯相當(dāng)?shù)纳鐣:π?繼而達(dá)到了值得刑事處罰的標(biāo)準(zhǔn)時,才應(yīng)當(dāng)認(rèn)定為犯罪。以數(shù)額犯為例,倘若生成式人工智能未經(jīng)用戶許可,非法獲取其個人信息,但是卻未達(dá)到司法解釋規(guī)定的非法處理個人信息50條、500條、5000條的數(shù)額入罪標(biāo)準(zhǔn)時,可以在充分保護(hù)法益的前提下將其認(rèn)定為民事侵權(quán),而不作為犯罪處理。因為侵犯公民個人信息罪本身屬于基本刑在3年以下的輕罪,犯罪性質(zhì)不如殺人、搶劫行為嚴(yán)重,在沒有其他嚴(yán)重違法情節(jié)時,其未遂犯產(chǎn)生的社會危害性整體較小,并不值得發(fā)動刑罰。同時,通過認(rèn)定民事侵權(quán)并使提供者承擔(dān)民事責(zé)任,不僅有利于彌補(bǔ)用戶的損害,更有利于避免刑事處罰的不當(dāng)擴(kuò)大,更好地激發(fā)提供者的創(chuàng)新能力。

第二,當(dāng)破解技術(shù)措施使用生成式人工智能時,不應(yīng)當(dāng)通過擴(kuò)大解釋使其適用侵犯著作權(quán)罪,而是應(yīng)當(dāng)適用民事法律規(guī)制該類行為。刑法對通過破解激活碼或者收費(fèi)程序而無償使用作品的行為作了禁止性規(guī)定,違反此類規(guī)定應(yīng)當(dāng)以侵犯著作權(quán)罪追究刑事責(zé)任,然而,由于著作權(quán)法是賦權(quán)法,故認(rèn)定該罪的構(gòu)成要件需要參照前置法律?!吨腥A人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)第49條第3款規(guī)定的“接觸技術(shù)措施”的范圍卻僅限于“未經(jīng)權(quán)利人許可的瀏覽、欣賞作品”。由于生成式人工智能是用來“運(yùn)行和使用”的,而不是單純地用于“瀏覽和欣賞”,這就導(dǎo)致行為人通過破解程序無償使用生成式人工智能的行為并不在著作權(quán)法保護(hù)的范圍內(nèi),那么刑法更不應(yīng)當(dāng)對其進(jìn)行規(guī)制[33]。但需要看到的是,該類行為難以受到著作權(quán)法保護(hù)將極大地挫傷提供者的積極性,損害其經(jīng)濟(jì)利益,也不符合知識產(chǎn)權(quán)保護(hù)的本意。因此,需要對《著作權(quán)法》中的“瀏覽、欣賞”作體系解釋與目的解釋,使其包含“運(yùn)行使用”的含義,由此可以根據(jù)《著作權(quán)法》第53條第6項,追究行為人的民事責(zé)任。換言之,刑法不能將構(gòu)成民事侵權(quán)都存有爭議的行為直接解釋為犯罪,否則有違罪刑法定原則。

第三,算法妨害行為可以由行政法進(jìn)行規(guī)制,算法損害行為可以由刑法進(jìn)行規(guī)制。算法妨害是指對個人身份、名譽(yù)、行為等帶來的抽象性的過程侵害[34],例如“文心一言”可能根據(jù)用戶提問“描繪”出“人格畫像”但未侵害名譽(yù)權(quán),或者向用戶提供符合其個人喜好的內(nèi)容但未侵害其行為自由等。算法損害則以結(jié)果為本位,例如由于算法缺陷導(dǎo)致生成嚴(yán)重錯誤的決策或者歧視性、危害性的言論。由此可見,單一的算法妨害并不會侵害用戶的具體權(quán)益,不會產(chǎn)生個人歸責(zé)的問題,但是由于生成式人工智能的廣泛使用,其可能會對公平競爭的市場秩序、社會公共利益等產(chǎn)生累積性、集合性以及規(guī)模化的負(fù)面影響,因此需要行政法進(jìn)行必要的指導(dǎo)和規(guī)范,而不是適用刑法予以超前的預(yù)防性打擊。行政法相較于民法、刑法等具有事前、事中的過程性監(jiān)管優(yōu)勢,例如,可以設(shè)定行政許可選擇出合法合規(guī)的算法機(jī)制,或者進(jìn)行行政指導(dǎo)引導(dǎo)算法向好向善?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》便是通過行政法監(jiān)管算法機(jī)制的有益探索和嘗試。相反,由于算法損害具有了危害性結(jié)果,逾越了可容許的風(fēng)險,此時可以考慮適用刑法予以規(guī)制。例如,前述杭州取消車輛限號造謠案在一定程度上具有刑法規(guī)制的正當(dāng)性。概言之,由算法引起的抽象性、過程性的侵害應(yīng)當(dāng)由行政法處理,無需刑法的提前介入。

第四,網(wǎng)絡(luò)服務(wù)提供者未履行適當(dāng)管理義務(wù)時,應(yīng)當(dāng)優(yōu)先適用行政法,而非適用拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪。當(dāng)前,ChatGPT等對話式人工智能已經(jīng)接入許多網(wǎng)絡(luò)服務(wù)平臺,因此,當(dāng)發(fā)生與ChatGPT相關(guān)的違法犯罪后果時,網(wǎng)絡(luò)服務(wù)平臺可能會面臨刑事處罰風(fēng)險。然而,一味適用拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪來對網(wǎng)絡(luò)服務(wù)平臺進(jìn)行規(guī)制可能過于嚴(yán)格,主要體現(xiàn)在以下兩個方面。一是適用行政法也可以實現(xiàn)有效的規(guī)制效果。拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪是法定犯和不作為犯,其前置法主要有《網(wǎng)絡(luò)安全法》《關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)的決定》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等。當(dāng)網(wǎng)絡(luò)服務(wù)平臺不履行管理義務(wù)時,可能會受到限期整改、封禁網(wǎng)站等處罰,這足以實現(xiàn)規(guī)制效果。因此,拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪的設(shè)定有“濫用”刑法威懾功能的嫌疑,在具體適用時應(yīng)當(dāng)保持謹(jǐn)慎。二是并非所有違反管理義務(wù)的行為都需要承擔(dān)刑事責(zé)任。前置法規(guī)定了網(wǎng)絡(luò)服務(wù)平臺的行政義務(wù),其中要求對所有網(wǎng)絡(luò)用戶都必須進(jìn)行實名認(rèn)證,然而,這對于打擊利用ChatGPT、“文心一言”等進(jìn)行違法犯罪的行為并未發(fā)揮足夠的預(yù)防作用,其與“違法信息傳播”“用戶信息泄露”“刑事案件證據(jù)滅失”之間的因果鏈條過長,沒有制造出法所不允許的風(fēng)險,因此應(yīng)當(dāng)歸屬于行政違法行為,而非犯罪行為[35]。概言之,為了避免施加嚴(yán)苛的刑法義務(wù)、妨礙網(wǎng)絡(luò)的正常運(yùn)行,應(yīng)當(dāng)首先適用行政法規(guī)制網(wǎng)絡(luò)服務(wù)平臺,而非直接適用拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪。只有在生成式人工智能技術(shù)風(fēng)險的擴(kuò)大與網(wǎng)絡(luò)服務(wù)平臺未履行管理義務(wù)之間具有直接關(guān)聯(lián)性時,如生成式人工智能大量傳播違法犯罪信息但網(wǎng)絡(luò)服務(wù)平臺未采取相應(yīng)措施,才應(yīng)當(dāng)考慮適用刑法。

(三)重罪與輕罪的刑法適用邊界

應(yīng)當(dāng)肯定,當(dāng)提供或使用生成式人工智能行為造成的后果同時符合重罪與輕罪的構(gòu)成要件時,應(yīng)當(dāng)根據(jù)法條競合或者想象競合的原理選擇適用罪名。本研究在此討論的是,在某些具體情形下,在全面保護(hù)法益的基礎(chǔ)上優(yōu)先考慮適用輕罪,只有輕罪無法實現(xiàn)對法益的全面保護(hù)時,才應(yīng)當(dāng)適用重罪。具言之,主要包括以下兩種情形。

第一,當(dāng)提供或使用生成式人工智能行為符合輕罪的構(gòu)成要件,通過刑法解釋貌似符合具有“兜底”性質(zhì)的重罪的構(gòu)成要件時,應(yīng)當(dāng)適用輕罪[36]。罪刑法定原則要求構(gòu)成要件應(yīng)當(dāng)具有明確性,在能夠適用較為具體的罪名實現(xiàn)法益保護(hù)的目的時,就不應(yīng)當(dāng)選擇對行為人處罰較重且權(quán)益侵害較大的罪名,這是比例原則中必要性的應(yīng)有之義。例如,對于提供者利用深度偽造技術(shù)生成貶損他人名譽(yù)、榮譽(yù)的視頻并通過生成式人工智能惡意傳播給用戶的行為,在無法認(rèn)定該行為擾亂現(xiàn)實社會秩序時,應(yīng)當(dāng)優(yōu)先適用侮辱罪對其進(jìn)行規(guī)制。因為尋釁滋事罪本身屬于“口袋罪”,相關(guān)的構(gòu)成要件和所要保護(hù)的法益較為模糊,同時其司法解釋爭議較大,此時貿(mào)然適用尋釁滋事罪不符合人權(quán)保障原則。

第二,當(dāng)提供或使用生成式人工智能行為符合預(yù)防性輕罪的構(gòu)成要件,通過刑法解釋難以符合實害性重罪的構(gòu)成要件時,應(yīng)當(dāng)適用輕罪。本研究所說的預(yù)防性罪名是指具有一定預(yù)防性質(zhì)的罪名,如預(yù)備行為實行化的非法利用信息網(wǎng)絡(luò)罪。而實害性罪名則是相對于預(yù)防性罪名而言的,是以實害結(jié)果為構(gòu)成要件的罪名。當(dāng)行為人利用ChatGPT、“文心一言”等生成式人工智能技術(shù)收集、分析證券、期貨市場交易信息,評估、預(yù)測交易走向時,有可能會觸犯操縱證券、期貨市場罪。然而,無論是刑法規(guī)定還是司法解釋,都未將利用技術(shù)優(yōu)勢規(guī)定為操縱市場的行為方式,故其面臨著解釋論上的難題。此時,如果能夠查明行為人在此之前為了實施該罪而利用生成式人工智能通過信息網(wǎng)絡(luò)發(fā)布相關(guān)違法信息,對此可以適用刑罰更為輕緩的非法利用信息網(wǎng)絡(luò)罪進(jìn)行規(guī)制。當(dāng)然,該罪第3項所指的“信息”應(yīng)當(dāng)限縮解釋為“違法犯罪信息”,以此排除不值得刑罰處罰的行為,更好地保持刑法的謹(jǐn)慎性規(guī)制。

猜你喜歡
規(guī)則人工智能
我校新增“人工智能”本科專業(yè)
撐竿跳規(guī)則的制定
數(shù)獨(dú)的規(guī)則和演變
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
規(guī)則的正確打開方式
幸福(2018年33期)2018-12-05 05:22:42
人工智能與就業(yè)
讓規(guī)則不規(guī)則
Coco薇(2017年11期)2018-01-03 20:59:57
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
TPP反腐敗規(guī)則對我國的啟示
下一幕,人工智能!
主站蜘蛛池模板: 久久精品这里只有国产中文精品| 国产精品对白刺激| 亚洲不卡影院| 久久久久无码精品国产免费| 免费在线播放毛片| 99在线观看国产| 国产无套粉嫩白浆| 亚洲综合片| 亚洲人成网7777777国产| 国产不卡国语在线| 国产精品久久久久久影院| AV老司机AV天堂| 国产特级毛片aaaaaa| 国产午夜人做人免费视频中文| 日韩美毛片| 色精品视频| 97视频精品全国在线观看| 久久毛片网| 国产第一页免费浮力影院| 亚洲色图欧美激情| 久久国产亚洲欧美日韩精品| 亚洲制服丝袜第一页| av在线手机播放| 亚洲国产成人麻豆精品| 久久亚洲黄色视频| 制服丝袜一区| 91久久国产成人免费观看| 亚洲国产精品日韩欧美一区| 精品国产免费观看| 国产精品亚洲一区二区在线观看| 蜜芽国产尤物av尤物在线看| 欧美黄色网站在线看| 国产精品第三页在线看| 久久亚洲国产最新网站| 五月婷婷综合网| 国产免费羞羞视频| 国产日韩精品一区在线不卡 | 亚洲有码在线播放| 一级毛片免费不卡在线| 一级毛片视频免费| 亚洲国产日韩欧美在线| 免费人成在线观看视频色| 天堂在线www网亚洲| 国产99视频精品免费观看9e| 精品国产网站| 狠狠操夜夜爽| 久久午夜夜伦鲁鲁片无码免费| 欧美成人精品一级在线观看| 亚洲国产天堂久久九九九| 日本尹人综合香蕉在线观看| 毛片大全免费观看| 色综合天天操| 丁香六月激情综合| 免费无码AV片在线观看中文| 91无码视频在线观看| 2021国产乱人伦在线播放| 777国产精品永久免费观看| 成人免费视频一区二区三区| AV无码无在线观看免费| 国产成人一区免费观看| 精品无码国产自产野外拍在线| 国产福利在线观看精品| 福利在线免费视频| 97国产在线视频| 四虎在线观看视频高清无码| 国产亚洲男人的天堂在线观看 | 尤物特级无码毛片免费| 一级毛片网| 美美女高清毛片视频免费观看| 91原创视频在线| 国产精品网曝门免费视频| 久久这里只有精品国产99| 欧美一级夜夜爽www| 国产精品乱偷免费视频| 超碰色了色| 亚洲视频a| 亚洲欧洲美色一区二区三区| 国产精品免费p区| 国产91色| 成AV人片一区二区三区久久| 在线视频精品一区| 久久综合五月婷婷|