摘 要:面對深度合成服務帶來的法律風險,我國在生成式人工智能領域頒布了一系列部門規章,試圖在規范產業發展的同時為相關主體設置明確的義務內容,并為其承擔相應法律責任提供依據。相較深度合成服務的使用者、內容的傳播者以及傳播服務的提供者,立法并未就深度合成服務提供者的行為是否要、以及在何種程度上為深度合成可能造成的損害承擔責任作出明確規定。隨著技術的迭代發展,價值及主體多元性和法律確定性之間的張力被進一步放大,這給依據上位法歸責時不同責任主體和責任類型的區隔帶來困難。特別是刑事責任的承擔,受損法益的確定及其與深度合成服務提供行為之間的關聯都是歸責過程中需要解決的難題。人工智能技術的復雜機理和飛速發展加劇了立法與司法對于鼓勵創新和規制風險的平衡難度。鑒于此,需要對深度合成服務提供行為的規范及不同層級立法之間的邏輯關聯進行梳理,通過類型化的歸責思路,并在責任劃分上考慮比例原則,以實現深度合成服務提供行為責任的確定性,由此實現技術向上向善的深度合成生態塑造。
關鍵詞:深度合成服務;生成式人工智能;歸責;責任邊界
作者簡介:馬樂,華東政法大學涉外法治學院教授(上海 200042)
基金項目:教育部人文社科青年基金項目“標準必要專利國際平行訴訟中的禁訴令問題與中國對策研究”(23YJC820023);華東政法大學校級科研課題“‘兩個統籌’在涉外法治實踐中的具體應用與探索”
DOI編碼:10.19667/j.cnki.cn23-1070/c.2025.05.011
深度合成服務(deep synthesis)是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。作為人工智能的具體領域,深度合成以人工智能深度學習為方法,以合成逼真內容為目標,廣泛應用于影視娛樂、文化教育、通信社交、醫療診斷等行業,體現出巨大的商業和社會價值。與之相伴,深度合成服務被濫用并造成他人及社會公共利益受損的情況同樣不容忽視。通過換臉、聲音合成等深度偽造(deep fake)技術進行違法甚至犯罪活動的現象已經引起各國重視,并促動專門立法予以規制。從技術中立性上,不論是深度合成抑或帶有負面意涵的深度偽造,其本身并非立法動因。其所引發的安全、倫理及社會風險才是立法必要性的體現。這也是促使深度合成服務由技術概念演化為法律概念的原因。針對這種風險,我國近年來出臺了一系列部門規章及相應的強制性國家標準,試圖通過立法和政策制定明確深度合成服務各相關利害關系方的義務內容。此舉對于規范包括深度合成在內的人工智能產業發展,實現技術向上向善起到防患于未然的積極作用。但是,對于深度合成服務被濫用的風險及其造成的損害,相關主體的責任追究則更為復雜。特別是對于深度合成服務提供者,其歸責問題不僅關系到個案,而且涉及鼓勵創新與風險防控的平衡實現,需要結合現行立法作深入分析。
一、明確深度合成服務提供者義務的立法檢視
“凡有法律之處,人類的行為在某個意義上就不是隨意的,或者說是‘具義務性的’。”義務對于法律,特別是具有強制性的法律責任的確定具有重要的前提性價值。從《互聯網信息服務算法推薦管理規定》(簡稱《算法規定》),到《互聯網信息服務深度合成管理規定》(簡稱《深度合成規定》),再到《生成式人工智能服務管理辦法》(簡稱《生成式人工智能辦法》)及《人工智能生成合成內容標識辦法》(簡稱《標識辦法》),我國近幾年在深度合成領域的立法從產業規范角度都試圖明確深度合成服務提供者法定義務的內容。法定義務的明晰既是法院判斷服務提供行為合法性的標準,也是對具有違法性的服務提供行為進行歸責的前提。由是,現行立法試圖通過個人信息保護、生成內容標識以及深度合成內容管理三個方面明確深度合成服務提供者的義務內容,從而為法律責任的承擔創設依據。
(一)個人信息保護義務趨于嚴格
作為深度合成服務的核心功能,AI換臉、聲音合成的運用隨著技術的日趨成熟而愈加廣泛,其背后涉及的個人信息保護問題已然成為立法者密切關注的焦點。生成式人工智能技術的躍進使個人信息保護面臨嚴峻挑戰,包括:告知同意規則和最小必要原則因無法在人工智能服務的應用實踐中得到有效貫徹而存在被架空、被虛置的問題,個人信息泄露問題空前嚴重等。由于自然人的人臉、人聲信息等生物識別信息屬于敏感個人信息,我國人工智能立法對深度合成服務提供者課以嚴格的個人信息保護義務。在《個人信息保護法》《網絡安全法》《數據安全法》等法律規定基礎上,《深度合成規定》與《生成式人工智能辦法》對深度合成服務提供者的個人信息保護義務作出更加細致的規定。
與此同時,服務提供者還應依法及時受理和處理個人關于查閱、復制、更正、補充、刪除其個人信息等的請求。為履行個人信息保護義務,提供人臉、人聲等生物識別信息編輯功能的深度合成服務提供者至少應履行兩方面義務。第一,深度合成服務提供者應根據《深度合成規定》提示服務使用者依法告知被編輯的個人,并取得被編輯個人的單獨同意。全國網絡安全標準化技術委員會出臺的《數據安全技術敏感個人信息處理安全要求》(GB/T 45574-2025)也以國家標準的形式進一步對個人信息處理者課以相應要求。第二,為加強技術管理,深度合成服務提供者應根據《深度合成規定》依法自行或委托專業機構對具有生成或編輯人臉、人聲等生物識別信息功能的模型、模板等工具開展安全評估。前述義務與《個人信息保護法》敏感個人信息處理規則的相關規定高度吻合,是我國人工智能立法精細化的重要體現。
(二)生成內容標識義務漸次細化
為消解深度合成引發的安全和倫理風險,避免導致公眾對深度合成作品產生混淆或誤認,立法要求深度合成服務提供者履行生成內容標識義務,向公眾提示深度合成情況。根據《生成式人工智能辦法》,深度合成服務提供者應按照《深度合成規定》對圖片、視頻等生成內容作出標識。具體而言,深度合成作品的標識可分為兩類。第一類是“普通標識”。在一般情形下,深度合成服務提供者應采取技術措施對使用其服務生成的所有作品添加標識,此種標識的添加以不影響用戶使用為限。第二類是“顯著標識”。此種標識適用于深度合成服務生成的作品可能導致公眾混淆或誤認的情形。《深度合成規定》進一步以列舉方式對服務提供者應當就生成內容進行顯著標識的情形作出規定。其共性在于對自然人行為的模擬以及對個人身份特征的顯著改變。實踐中常見的深度偽造換臉作品即屬此類。《深度合成規定》進一步明確,深度合成標識不得被刪除、篡改、隱匿。在此基礎上,國家網信辦等部門聯合制定的《標識辦法》及配套強制性國家標準《網絡安全技術 人工智能生成合成內容標識方法》對深度合成服務提供者的標識義務作出兼具確定性和實操性的要求。由此,深度合成服務提供者標識義務的內容進一步具體化,為企業合規、行政執法乃至法院裁判提供重要指引。
當然,也有學者認為,在深度偽造等領域,標識義務對減輕違法行為的危害性作用有限。我國盡管已經制定了相關規定和標準,但對于違反標識要求的處罰措施還需要進一步明確,應制定并完善未按要求進行標識行為的界定辦法、分類細則以及相應的處罰標準。
(三)深度合成內容管理義務更為嚴苛
鑒于深度合成服務提供者對生成內容具有較強控制力,安全港規則下的“通知—刪除”模式是否能滿足人工智能時代保護個人權益和網絡空間秩序的現實需求仍有待觀察。在此背景下,我國人工智能立法認可深度合成服務提供者應履行內容審查與管理的積極義務。《深度合成規定》和《生成式人工智能辦法》均要求服務提供者加強深度合成內容管理,主動履行生成內容審核義務。
需要指出的是,上述部門規章規定的深度合成內容管理義務的合理性與必要性仍存爭議。生成式人工智能服務提供者雖然能夠對生成內容產生決定性影響,但用戶的不當誘導也是違法內容生成的重要影響因素,這一點在學界已有共識。與此同時,生成式人工智能是一條價值產業鏈,面對生成內容應用的多領域、多主體,服務提供者往往難以實現對生成應用帶來的風險的完全控制。據此,僅要求服務提供者而未要求服務使用者承擔內容管理義務并不合理。現行法對服務提供者內容責任的規定事實上要求其承擔無過錯責任,這也被認為對服務提供者而言負擔過重。有鑒于此,一些國家的立法更強調內容傳播服務提供者的管理義務和責任。例如,英國在 2023年出臺的《在線安全法案》(Online Safety Act)為保護用戶(特別是兒童)免受接觸具有危害性內容受到的侵害,規定網絡服務提供者需采取年齡驗證或年齡估計等措施以確保兒童在正常情況下無法接觸到網絡色情內容等相關信息。美國于 2025年首次以聯邦立法形式通過《打擊技術性深度偽造在網站與網絡上傳播以應對已知濫用工具法案》(Take it Down Act,簡稱《刪除法案》),對傳播平臺課以“通知-刪除”義務并就惡意傳播者的行為規定刑事責任,旨在應對非自愿發布的私密影像或利用人工智能制作的深度偽造內容在網站和社交媒體上的傳播。
總體而言,基于更為嚴格的網絡內容監管政策,我國人工智能立法對服務提供者的內容管理義務設置也更為嚴苛。《深度合成規定》和《生成式人工智能辦法》等法律試圖通過明晰服務提供者的義務內容對深度合成服務提供行為作出引導和規范。據此,深度合成服務提供者在實踐中能夠合理預期其服務提供行為所應達到的標準,而這也有助于深度合成服務提供產業在法治軌道上健康發展、有序推進。可以認為,現有人工智能立法進展不僅映射出國家對防范化解深度合成所造成風險的高度重視,也是實現技術向上向善目標的題中之義。當然,需要指出的是,對于違反個人信息保護義務而引發的法律責任,《個人信息保護法》《網絡安全法》《數據安全法》等上位法在實踐中會遭遇作為規制對象的深度合成服務提供者主體身份難于認定等問題。上述立法從不同主體角度建構其責任條款,而深度合成服務提供者落入哪一個主體范疇是關鍵。從義務內容及責任結果來看,違反生成內容標識義務會引發何種責任也需進一步明確。相比前兩種義務,深度合成內容管理義務與深度合成服務提供者聯系更緊密,應當成為其歸責的主要考量依據。但是,鑒于內容管理義務的嚴苛性爭議仍然存在,違反內容管理義務至何種程度會導致相應責任的考慮因素愈加復雜。由此,從義務內容角度具象歸責要件在當前法律體系內仍然存在不少困難。
二、深度合成服務提供行為的歸責障礙
如前所述,我國人工智能立法基于安全利益的考量對深度合成服務提供行為的法律責任作出規定。然而,在具體歸責過程中,特別是對刑事責任的確定、價值及主體的多元性和法律確定性之間的張力被人工智能技術的復雜性進一步放大,由此也導致法律責任的確定與實現面對諸多障礙。
(一)責任邊界問題
行政責任與刑事責任邊界的劃分不僅關乎深度合成服務提供者的經營權益與商業利益,其背后更是涉及鼓勵科技創新與規制深度合成風險這對緊張關系的處理與調和。有觀點指出,平衡安全與發展的關系是實現生成式人工智能法治化的重要理念,既要反對美國人工智能立法過度自由主義的傾向,也要警惕歐盟人工智能立法過度監管的問題。對此,也有觀點認為我國人工智能立法應當以激勵創新為先。為實現專利優化、促進科技創新,我國對人工智能技術的支持力度應大于規制力度,需要適度容忍人工智能技術應用帶來的風險。以 ChatGPT為例,其代表的生成式人工智能的主要功能在于提供信息內容服務。即便此類服務存在缺陷,通常也不會危及人的生命、健康等重大利益,產生的風險也不會直接作用于人并產生損害。法院認定服務提供者過錯應以“現有技術水平”為標準,無論是用戶輸入數據環節還是人工智能輸出環節,現有技術都難以實現對虛假信息的有效甄別。國外也有學者認為,人工智能生產者應否承擔刑事責任很大程度上取決于事件的發生是否超出“容許風險”的邊界。這一邊界會隨著技術的發展和成熟而不停移動。在某項技術尚屬新興科技的階段,不宜輕易動用刑法。同時,也有觀點強調該領域立法(特別是刑事立法)應以規制風險為本。人工智能是風險社會中的重要風險源,在對涉人工智能犯罪進行刑事責任分配的過程中,應當以防控風險為出發點,同時兼顧對科技創新的激勵和保障,并在此基礎上準確厘定人工智能產品設計和制造者的刑事責任以及人工智能產品使用者的刑事責任。上述觀點體現了生成式人工智能領域激勵技術創新與防范安全風險之間平衡的難度。前者期待立法、執法、司法對人工智能服務提供行為和服務使用行為秉持寬容態度,后者要求依法嚴懲涉生成式人工智能違法犯罪行為。對此,也有國外學者提出,對 ChatGPT等人工智能服務提供者的責任追究應將其對人工智能技術發展的潛在影響納入考慮范圍。如果取消服務提供者的責任豁免,將會導致服務提供者守法成本過高,進而削弱其研發新技術、擴大經營規模的動力和積極性,不利于鼓勵人工智能技術發展。因此,理想的法律責任設計不應使服務提供者完全免責,同時使其承擔的責任與產品造成的社會危害程度相稱。
相比于民事責任和行政責任,刑事責任的追究不僅更為嚴厲,而且意味著涉案行為具有最大程度的可譴責性。在國家政策鼓勵人工智能技術創新的背景下,立法、司法層面對刑法謙抑性的呼喚無疑更加強烈。但另一方面,倘若刑法介入的標準過于嚴格將導致深度合成服務提供者和使用者的違法成本過低,不足以威懾服務提供者和使用者,從而不利于實現深度合成服務生態系統的健康發展和良性循環。由此,平衡“保護”與“發展”所涉考量因素的復雜性加大了劃定刑法規制邊界的難度。深度合成服務提供行為刑事歸責的尺度更難拿捏。具體而言,民事責任與刑事責任的界分涉及自然人肖像權、名譽權以及個人信息權益等私權保護。有學者指出,在輕微的刑事犯罪與較嚴重違法行為之間存在模糊地帶。在輕罪范圍內,如果民事責任的承擔足以達到維護社會秩序和規范行為的效果,法院可以排除刑法的適用,考慮優先適用民法。行政責任與刑事責任的邊界厘定則涵蓋消解個人信息安全風險、信息內容風險以及數據安全風險等多重關乎社會公共利益的考量。而行政治理的本質在于管理而非懲治,其優勢在于效率優先,并通過權力運行的靈活性、積極性與主動性來實現。②立法就深度合成服務提供者課以的標識義務試圖從公法角度建構起對公民的隱私保護,但從與刑法規范的銜接來看,還存在理念上進一步溝通的必要。③可見,在深度合成技術發展過程中,有關創新和安全優先性的價值觀差異、對不同類型責任制度功能的評價差異、就受保護法益重要性的不同看法等都會影響不同責任邊界的劃定。
(二)刑事可歸責性問題
深度合成服務提供者的刑事歸責因服務提供行為和服務使用行為的牽連關系而更具復雜性。有觀點認為,現行刑法對深度偽造的處置側重于打擊深度偽造產業鏈的上游和下游,將深度偽造的刑法評價依附于后續行為的刑法評價,忽略了深度偽造的獨立危害性。我國人工智能立法對深度合成服務提供者、技術支持者以及使用者的職責劃分并不明確。鑒于深度合成服務應用場景復雜多元,其可能被服務使用者用于實施各種各樣的犯罪行為。以使用深度合成服務生成“換臉視頻”為例,服務使用者可能構成的犯罪包括但不限于:編造、故意傳播虛假信息類犯罪,誹謗罪,敲詐勒索罪,詐騙類犯罪或盜竊罪,尋釁滋事罪,傳播淫穢物品罪,組織播放淫穢音像制品罪,宣揚恐怖主義、極端主義、煽動實施恐怖活動罪,制作、復制、出版、販賣、傳播淫穢物品牟利罪等。有學者以人工智能產品是否具有辨認能力和控制能力為依據,將人工智能產品劃分為強人工智能產品和弱人工智能產品,并認為弱人工智能產品僅為行為人實施犯罪的工具。值得探討的是,在用戶濫用深度合成服務實施違法犯罪行為的情形下,服務提供者應承擔何種責任?
《深度合成規定》和《生成式人工智能辦法》明晰深度合成服務提供者義務的努力值得肯定,但當前的規則供給仍然無法滿足未來審判實踐對深度合成服務提供者進行刑事歸責的司法需求。按照罪刑法定要求,刑事審判實踐中法院對犯罪嫌疑人定罪量刑的前提是現行法對具有刑事可歸責性的行為業已作出清晰界定。然而,相較深度合成服務使用行為,深度合成服務提供行為的可歸責性更難認定。從主體來看,深度合成犯罪可能涉及深度合成服務提供者、深度合成服務技術支持者、網絡信息內容傳播服務提供者(如平臺、應用程序)、深度合成服務使用者等多重主體。就違法行為的確定性而言,后兩者行為的危害性更易觀測。美國《刪除法案》即主要針對此二者的行為。從主觀方面來看,在深度合成服務的產業化背景下,深度合成服務提供者與下游濫用深度合成服務的使用人因缺乏犯罪意思聯絡很難被認定為具有共同犯罪故意。另外,盡管《深度合成規定》《生成式人工智能辦法》《標識辦法》等部門規章對深度合成服務提供者的義務作了細化,但其更多是從產業規范角度進行的管理性規定,而并未對被保護法益作明確界定。并且,這些規定本身也不能作為定罪量刑的依據。行政法規定的注意義務不必然等于刑法意義上的注意義務。即使在具體罪名的考量上,如拒不履行信息網絡安全管理義務罪,法院對所涉義務內容的認定依據也僅限“法律和行政法規”,而不包括部門規章。從這個意義上來說,深度合成服務提供行為的刑事可歸責性仍然存在不確定性。
三、深度合成服務提供行為歸責的類型化
我國對深度合成服務提供行為的歸責應當在區分受損法益的基礎上采取類型化進路,在“行為-義務-法益-責任”的邏輯框架下實現責任劃分的確定性和精細化,同時在責任嚴苛程度上考慮比例原則。
(一)民事責任
以ChatGPT為代表的深度合成服務的提供和使用涉及知識產權侵權問題,此類侵權行為多發生于數據訓練階段和文本生成階段,其中對著作權的侵害體現得尤為明顯。由于服務提供者在技術研發的過程中通常會將大量源自互聯網的信息和內容作為訓練數據“投喂”給 ChatGPT,其中可能包含他人享有著作權的作品。此類未經授權的作品隨即進入生成式人工智能的語料庫,為人工智能應用所存儲、學習和分析,進而被人工智能模型所“吸收”和“內化”。在內容輸出端,前述涉及他人著作權的作品被“打碎”后經過重組,被 ChatGPT整合成用戶輸入問題的答案而提供給用戶。而在整個過程中,著作權人不僅無法獲得相應的報酬和財產權益,而且面臨其作品完整性被破壞的嚴重威脅。深度合成算法技術的底層邏輯致使其不可避免地需要利用原有作品,并衍生出新型的“深度合成物”,從而構成對著作權法的挑戰,包括深度合成物難以納入著作權法所規定的“作品”范疇,合理使用制度難以判定對原作品的深度合成行為,以及現行著作權法難以協調深度合成“作品”與原作品的保護邊界等。
《生成式人工智能辦法》明確要求服務提供者開展訓練數據處理活動不得侵害他人依法享有的知識產權。在此基礎上,全國信息安全標準化技術委員會發布的《生成式人工智能服務安全基本要求》在對“訓練語料”這一術語作出界定的基礎上,要求強化語料來源管理,充分過濾全部語料中的違法不良信息。具體而言,服務提供者兼具內容生產者與平臺管理者的雙重身份,負有審核等安保義務。其違反安保義務,原則上應當承擔具有間接侵權責任屬性的相應的補充責任,而在“知道或者應當知道”的情況下,服務提供者應當承擔連帶責任,乃至懲罰性賠償責任。此外,深度合成服務提供行為的民事責任還主要體現在對他人人格權的侵害上。例如,深度合成服務提供者通過提供“換臉技術”生成破壞他人肖像完整性的視頻,可能構成肖像權侵權。
(二)行政責任
除了民法層面的私權救濟,如果深度合成服務提供行為同時構成對網絡秩序甚至社會秩序的破壞,相關部門應當依法追究行政責任以維護社會公共利益。對于違反個人信息保護義務的深度合成服務提供行為,《個人信息保護法》第66條、《網絡安全法》第64條均可適用。《個人信息保護法》旨在保護個人信息權益,使數據免受商業企業和政府組織的無端剝削。《網絡安全法》則是出于網絡安全保障的目的保護自然人個人身份的各種信息。但應指出,在深度合成服務提供行為的語境下,兩種責任存在競合的可能,而實踐中如何處理此類責任競合問題尚需觀察。與此同時,《網絡安全法》第 68條、第69條以及《數據安全法》第45條可適用于違反網絡信息管理義務、數據安全保護義務的服務提供行為的責任追究。雖然法律責任設計的針對性仍有進一步提升的空間,但不可否認,現有行政責任體系基本能夠對危及網絡安全秩序的深度合成服務提供行為作出有效應對,對防范大規模侵害個人信息的風險頗有助益。
此外,包括《深度合成規定》《生成式人工智能辦法》《標識辦法》在內的部門規章從行政法的角度對深度合成服務提供者的義務作了漸次細化的規定。服務提供者的義務也由此逐步體系化,具體體現為:以標識義務為核心,其作為直接且關鍵的治理抓手,能夠有效確保生成內容的透明度與可追溯性;同時,輔以審核監督義務與協助義務,構建起從內容生成、傳播到責任追溯的全流程監管機制,為生成式人工智能內容的規范化治理提供系統性保障。由此,立法意在通過明確的義務性規定為規制深度合成服務行為提供依據。然而,也有學者認為,鑒于深度合成服務提供者與相關主體的邊界不清、義務違反的法律后果不清、罰則不清等問題,應當在高位階立法中明確規定行政處罰規則。例如,對于未履行添加標識義務的技術服務提供者、未設置核驗機制和標識功能的內容傳播服務提供者,應當以法律、行政法規的形式明確具體主管部門給予警告、通報批評、責令限期改正等權限,并根據行業發展情況和具體違法情節,合理設置罰款、限制開展生產經營活動、責令停產停業等行政處罰的要件與限度。
(三)刑事責任
刑法的謙抑性在深度合成服務提供行為的歸責上應同樣適用。有觀點認為,《深度合成規定》關于“構成犯罪的,依法追究刑事責任”的條文意在僅處罰造成嚴重后果或有其他嚴重情節的行為,如引起信息接收者死亡、重傷或重大財產損失等實害后果,或者對大量用戶散布虛假的險情、疫情、災情、警情、恐怖信息等,而關于嚴重后果或其他嚴重情節的評價標準,可以借鑒歐盟《人工智能法》的處罰規定,考慮包括違法“行為及其后果的性質、嚴重程度和持續時間”“人工智能系統的目的”“受影響者的人數及其所受損害的程度”“適用于案件情節的任何其他加重或減輕處罰的因素,如直接或間接從侵權行為中獲得的經濟利益或避免的損失”等因素,并將嚴重情節的評判標準規定到刑法或相關司法解釋中。在數據犯罪領域,亦有觀點認為,現行刑法未對公共利益數據、國家安全數據等關乎重大利益且非法處理行為容易產生重大風險的公法益數據給予更高程度的保護,實踐中有必要針對此類數據增設新罪。不論是否通過設立新罪進行規制,從受侵害法益的特性考慮深度合成服務提供行為的責任類型及程度都有其必要性與合理性。
例如,從深度合成產業鏈的角度,專門提供深度偽造技術服務的人員,為他人提供虛假注冊、刷臉支付等黑產服務,幫助他人實施詐騙等違法犯罪活動可能構成非法利用信息網絡罪、幫助信息網絡犯罪活動罪等獨立罪名。再如,就著作權侵權而言,如果數據提供者、開發者在獲取預訓練數據、優化訓練數據階段實施了非法復制他人作品的行為,即使后續作品的傳播在人工智能平臺進行也無法阻斷對開發者的歸責,數據提供者、開發者應當構成侵犯著作權罪。需要注意的是,作為觸發刑罰啟動條件的“違法所得數額較大”這一要件無法對涉案行為的法益侵害作出準確衡量。前述復制品數量標準亦是如此。另外,在深度合成服務提供行為的刑事歸責中,且不論在很多情況下具有違法性的“復制”行為的直接實施主體并非服務提供者;即便服務提供者未盡知識產權侵權識別義務,令其承擔刑事責任仍可能過于嚴苛。有觀點認為,生成式人工智能背景下著作權的刑法保護要適度,可以先從行政法和民法角度進行救濟,尋求更加綜合和靈活的解決方案。再者,從技術發展的角度來看,同質化風險可能給歸責帶來麻煩。如果人工智能的底層邏輯相同,那么隨著時間的推移,不同公司的人工智能生成作品可能會趨近,最終引發版權爭端。由此,著作權侵權責任的認定也將變得更加復雜。事實上,《民法典》和《著作權法》已經構筑起著作權侵權引發懲罰性賠償的民事責任體系,并且后者還專門規定了針對該行為的行政責任。在這種情況下,對于有侵害知識產權之虞的深度合成提供行為,刑事責任的適用應當更為審慎。
結 語
深度合成服務的廣泛應用及其濫用所引發的法律后果使得人工智能技術迭代過程中的風險受到高度關注。對此,我國立法率先做出反應并通過細化深度合成服務提供者的義務確立了對風險嚴格管控的趨向,并為產業健康發展建立規范體系。深度合成服務提供者法定義務的明確有益于規范其行為并為法律責任的確定提供參考甚至依據。但是,綜合《生成式人工智能辦法》《深度合成規定》《標識辦法》等相關立法及政策文件的義務性規定來看,囿于深度合成服務提供者主體身份在相關上位法中的模糊性以及深度合成服務提供行為與法律后果之間因果關系的不確定等因素,義務性規定尚不足以為深度合成服務提供行為的歸責提供明確依據。而在行為的歸責過程中,價值及主體的多元性和法律確定性之間的張力被人工智能技術的復雜性進一步放大,由此也導致法律責任的確定與實現面對諸多障礙,包括:不同類型責任之間的邊界有待廓清;深度合成服務提供者與使用者、傳播者及網絡傳播服務提供者等其他利害關系方的法律責任尚需厘定;深度合成服務提供行為的刑事可歸責性難于認定。這些現實困境對立法規定的實施提出了挑戰。而人工智能技術的復雜性進一步加劇了法律在鼓勵創新和規制風險上的平衡難度。有鑒于此,我國對深度合成提供行為的歸責應當在區分受損法益的基礎上采取類型化進路,在“行為-義務-責任”的邏輯框架下實現責任劃分的確定性和精細化,同時在責任嚴苛程度上考慮比例原則。在各國對人工智能立法探索方興未艾的當下,我國的立法在實現技術向上向善理念上作出有益的嘗試,為規范深度合成服務產業發展乃至推進全球人工智能治理都有積極貢獻。
[責任編輯 李宏弢]