摘要:生成式人工智能技術是重要新質生產力,同時也造成機器生成與人類創作內容之間混淆和誤認的現實風險,生成式人工智能內容標識制度成為預防風險的靶向路徑。現行內容標識制度存在法律規定缺位、履行主體錯位、邊界限度越位的現實漏洞,樹立“生成式人工智能與人類創作協同發展”的本質目的是彌補漏洞的前提。同時,應以“現有技術水平”和“比例原則”為基本原則,在合理限度之內重新建構分類主體下的內容標識義務框架。遵循內容標識的技術機理,合理優化標識規則:通過內容憑證系統,實行“技術審核+人工審核+用戶投訴舉報”為核心的標識方式,采用“生成式人工智能貢獻度+風險文字提示”的標識信息,并參照《商標法》對混淆或誤認的標識條件進行合理解釋。
關鍵詞:生成式人工智能;內容標識主體;內容標識義務;內容標識規則
一、引言
科技創新是發展新質生產力的核心要素。ChatGPT作為新型人工智能技術,拉開顛覆性技術變革的帷幕,人工智能生成內容(AIGC)近乎人類創作的文本、圖片、視頻等,且可信度與仿真度仍在持續提升,使得公眾難以辨別其內容是機器生成還是人類創作。然則,算法黑箱造就生成式人工智能內生機理的不可解釋性,無法解決當下AIGC的混淆和誤認難題,只能尋求外部方式增強AIGC混淆的風險防控。基于此,生成式人工智能內容標識制度成為預防風險的靶向路徑。2024年2月作出判決的全國首例“AIGC服務提供者著作權侵權案”,將AI服務提供者的“顯著標識”義務作為構成著作權侵權的主觀故意認定的標準之一。
針對生成式人工智能內容標識制度,目前學界研究仍顯單薄,主要集中在人工智能服務提供者義務、人工智能風險規制或者社會治理層面。學界缺乏對內容標識的專門研究。本文立足生成式人工智能內容標識制度施行的現實困境并予以分析,修正生成式人工智能內容標識制度的目的導向和邏輯依歸,理性建構分類主體下的內容標識義務框架,在遵循內容標識的技術機理的基礎上,合理優化內容標識的具體規則,合理地地為生成式人工智能技術產業預留發展空間。
二、生成式人工智能內容標識制度的現實漏洞
生成式人工智能內容標識需要具備形式外觀的警示功效和區分信息來源的實質作用。生成式人工智能內容標識未能有效發揮預期作用,內容標識制度存在法律漏洞是直接原因。
(一)生成式人工智能內容標識制度的法律規定缺位
1.生成式人工智能內容標識的術語缺乏法律解釋
《生成式人工智能服務管理暫行辦法》以引致條款的方式適用《互聯網信息服務深度合成管理規定》(以下簡稱《深度合成管理規定》)對于“內容標識”的具體規定。《深度合成管理規定》作為生成式人工智能內容標識制度的主要法律,目前仍存在諸多術語模糊的問題。一方面,《深度合成管理規定》第16條中“不影響用戶使用的標識”存在異議。倘若依據其他法律規范只采用顯著標識的方式,該術語可能采用“不影響用戶使用的顯著標識”的解釋;如果基于法條之間的并列關系,則通過第17條的顯著標識判斷第16條是采用隱性標識。另一方面,當前生成式人工智能顯著標識的要求缺失其判斷標準的解釋。《深度合成管理規定》第17條“可能導致公眾混淆或者誤認的”予以顯著標識,但未曾指明“混淆和誤認”的判斷標準。依據《深度合成管理規定》,并非所有的AIGC都需顯著標識,而是達到足以構成“混淆和誤認”的程度。判斷標準的欠缺將極易導致所有的AIGC被打標,造成抑制生成式人工智能技術發展的不利后果。
2.生成式人工智能現有的標識規則存在規范漏洞
一方面,我國以表現方式為標準的標識方法存在實施漏洞。我國出臺的《網絡安全標準實踐指南—生成式人工智能服務內容標識方法》(以下簡稱《生成式人工智能服務內容標識方法》),只圍繞文本、圖片、音頻、視頻四類生成內容給出內容標識辦法,忽略內容本身,標識方法合理性存疑。除此以外,內容標識的對象和范圍亦無所規定。另一方面,《深度合成管理規定》對于“其他具有生成或顯著改變信息內容功能的服務”和“前者規定之外的服務”均采用顯著標識的方式,存在規范漏洞。第17條第2款中,“深度合成服務提供者提供前款規定之外的深度合成服務”應當是指“其他具有生成或者顯著改變信息內容功能的服務”之外的服務,兩者風險必然是有層級劃分,那么前者的風險是否需要顯著標識?且該款提供者的提醒義務是否僅限于前者?倘若如此,使用者標識范圍被嚴格限制,顯然不妥。
(二)生成式人工智能內容標識制度的履行主體錯位
1.生成式人工智能內容標識的履行主體范圍存疑
在內容標識制度的探索期,由提供付費搜索信息服務的互聯網信息搜索服務提供者承擔內容標識義務,技術提供者未涉及標識義務。在標識制度的建構期,內容標識的履行主體增加網絡音視頻信息服務提供者和使用者。在標識制度的初步發展期,《深度合成管理規定》明確將主體分類為服務提供者、技術支持者、服務使用者,并由服務提供者承擔內容標識義務。當生成式人工智能服務提供者參照《深度合成管理規定》履行內容標識義務,生成式人工智能服務提供者與深度合成服務提供者的范圍就產生沖突。與深度合成服務提供者的范圍不同,《生成式人工智能服務管理暫行辦法》第22條顯示生成式人工智能服務提供者不僅包含提供生成式人工智能服務的組織和個人,還包含提供可編程接口等方式提供服務的組織和個人。換言之,生成式人工智能服務提供者和技術提供者均負有內容標識義務。
2.生成式人工智能內容標識的履行主體義務錯配
義務履行因主體而異,人工智能價值鏈條中服務提供者僅是其中一環,技術提供者與使用者均處其中,現有的內容標識義務呈現匹配失當。據現行規定,生成式人工智能服務提供者承擔主動標識義務和提示、提供標識功能義務。首先,服務提供者的內容標識義務是否與其技術水平相匹配。生成式人工智能服務提供者對內容的控制能力影響其履行標識義務標準的高低。倘若技術水平達到一定標準,則負有對涉嫌侵權的內容予以標識的義務。其次,履行內容標識的主體究竟是生成式人工智能服務提供者還是技術提供者。有學者支持技術持有者應承擔溯源標記的明確義務。就概念理解,生成式人工智能服務提供者是將技術提供者包含在內,由此產生兩種情形:一種是服務提供者從技術提供者處購買生成式人工智能投入市場,是否僅對“內容標識技術”履行監管義務或更新義務;另一種情形是服務提供者亦是技術提供者,內容標識義務不存在錯配情形。最后,《深度合成管理規定》要求服務提供者提醒使用者“可以”進行顯著標識,使用者不存在內容標識義務。使用者是AIGC最為重要的傳播者,用戶上傳AIGC僅靠平臺審查或標識猶如大海撈針,使用者更應承擔標識義務。
(三)生成式人工智能內容標識制度的邊界限度越位
1.現有內容標識要求超出提供者控制能力限度
內容標識制度需要設定行動的邊界,超出預知和控制限度將會導致技術失控,合理的內容標識制度框架能夠協助技術在不當裹挾的狀態下得以良性運轉。我國現有的內容標識制度在以下層面超出服務提供者的預知和控制限度:第一,統一性的內容標識義務,忽略生成式人工智能服務提供者的內容控制能力差別化。國外相關專家選取服務提供者的多項在線檢測工具,評估其識別ChatGP-4與人類書寫文本方面的有效性,表明自動檢測工具可以識別ChatGPT-4生成文本,但準確性存在顯著差異。除卻Google、抖音等大型生成式人工智能服務提供者,市場中存有大量技術一般的中小型服務提供者。自動檢測工具的技術差異導致服務提供者內容控制能力差異化。第二,內容標識的識別作用僅限于區分功效,而并非價值識別功能。內容標識是信息助推的實踐,是一種依照文本、圖片、音頻、視頻等類別打標的形式標識,僅能夠對內容來源進行標識。深入探測內容價值,服務提供者存在現實不能:當下檢測技術工具無法達到識別內容質量高低的水平,超出普遍人工智能技術檢測限度;且依靠人工識別成本過大,超出服務提供者能力范圍。
2.無差別貼標引發公眾的過度質疑和過度信任
內容標識可以降低生成式人工智能風險,減少社會公眾對AIGC的信任度,亦會引發公眾過度質疑。一方面,錯誤標識誘導用戶過度質疑。OpenAI分類器能準確地將26%的AI編寫文本識別為“可能是AI生成的”,同時錯誤地將9%的人工編寫文本標記為AI生成,OpenAI建議用戶將此標識作為補充信息,不可完全依賴。另一方面,生成式人工智能服務提供者采用無差別貼標的方式,極易誘導用戶對所有的貼標內容產生質疑,肯定內容標識是區分內容來源的決定性因素。在人工智能生成新聞的一項調查中表明,大部分公眾認為具有內容標識的新聞可信度較低,即使文章本身并未被評估為不準確或不公平。然而,內容標識真偽區分功能的實現,也可導致公眾對無標識內容的過度信任。生成式人工智能系統性能高低的關鍵判斷因素是生成物的不可區分性。當添加標識的內容被過分質疑,未添加標識的內容將被過分信任,形成“過濾泡沫”或“回音室”。結合《深度合成管理規定》“混淆和誤認”的判斷標準闕如和技術檢測能力的局限性,有兩種內容會被遺留在外:一種是幾乎與人類創作物媲美的生成物,一種則是尚且無須被標識的生成物。誠然,無差別標識的方式引發兩種價值判斷極端,超出既有價值和目的限度,亟需重塑。
二、生成式人工智能內容標識制度的目的糾偏與邏輯修正
內容標識可以協助公眾區分信息真偽,內容標識的準確性要求生成式人工智能技術持續優化。內容標識的相關法律制度尚處于不完整或不圓滿狀態,完善漏洞之前具有兩層考量:一是確定內容標識制度的立法目的是否偏移;二是保證內容標識制度的建構邏輯處于理性范圍。
(一)生成式人工智能內容標識制度的目的導向糾偏
1.現有“區分人工智能生成與人類創作”的導向偏移
內容標識制度并非以增強產品可信度為目的,相反是遏制社會公眾對生成物的可信賴性。現行內容標識相關法律僅明確“區分人工智能生成與人類創作”的目的導向,主要功效是避免用戶混淆和誤認。從政策的角度而言,我國堅持以科技更好增進人民福祉的重要理念。當前嚴格“區分人工智能生成與人類創作的”目的,不僅導致公眾過度質疑和信任的雙向極端,還導致科技促進人類發展的政策理念的逐漸偏移。從法律與科技關系的角度而言,法律制度的設計應當遵循技術發展的自然規律,促進科技為公眾服務,限制科技的不良運營,科技賦能法律制度建設。內容標識制度的建設目的不應單是對AIGC予以區分,而是對生成式人工智能的不良發展予以限制。內容標識可能會給所有AIGC粘貼“虛假”標簽,這成為阻礙公眾探索人工智能生成工具的表現潛力,形成一個潛在的嚴格和限制性的創作環境。
2.樹立“生成式人工智能與人類創作協同發展”的目的導向
面對內容標識制度現有的法律漏洞,要充分發揮內容標識制度的立法目的功能,立法目的是立法活動的方向選擇和法律解釋的重要標準。內容標識制度的目的導向需要校準,不同的政策目標需要不同類型的標識和識別閾值。一方面,生成式人工智能內容標識制度并非顛覆生成式人工智能的生產環境,而是在生產基礎上提高人類辨識度和機械準確性。生成式人工智能依靠數據訓練鍛煉輸出能力,內容標識能夠在一定程度上避免侵權,同時亦能夠提高生成式人工智能的機械準確性。美國版權清算中心之所以要求標識AIGC,是因為可以采用高質量的人類創作作品而非AIGC投入下一次模型訓練。另一方面,內容標識制度能夠增強人類對AIGC的高質量把控,擴展生成式人工智能技術的科技影響力,本質是促進生成式人工智能技術與“人類創作本位”的協同發展。生成式人工智能的生成能力不可小覷,目前已經出現能夠與人類創作作品水平相當的產品。文生視頻AI模型Sora引爆全球網絡,它可以生成高質量、長時間、多景別的圖片、視頻等。人類可以使用生成式人工智能創作更高質量的作品,只需標注其輔助身份即可,由此挖掘生成式人工智能技術的潛力,本質上也是促進人類文化藝術的進步。需注意的是,本文并未否定內容標識的區分功能,而是將其作為直接目的,只是將其作為本質目的會導致內容標識的邊界和限度超出合理范圍。
(二)生成式人工智能內容標識主體的現有邏輯修正
1.生成式人工智能內容標識主體的現有邏輯
《深度合成管理規定》與《生成式人工智能服務管理暫行辦法》的主體范圍顯現沖突和矛盾,將會導致內容標識制度的施行收效甚微。學界對內容標識主體的討論如火如荼,主要存在三種學說。第一種是“服務提供者說”,該學說認為內容標識義務是生成式人工智能服務提供者應當負有的義務。該學說肯定服務提供者在內容標識中的主要義務,但忽略服務者的現有技術水平和技術中立等要素,同時稀釋了技術提供者在內容標識中的技術價值以及使用者的傳播價值。第二種是“技術提供者說”,該學說認為技術開發者把握生成式人工智能的內容標識程序設計,應當由其承擔內容標識義務。該論點立足技術角度,擴展技術提供者設計內容標識程序的義務,卻弱化了服務提供者在內容生產鏈條中的主要地位。第三種是“協同配合說”,該學說認為識別義務應當在信息源頭及時規范,生成式人工智能服務提供者和使用者應當協同配合技術提供者履行內容標識義務。此學說肯定了服務提供者、使用者、與技術提供者在生成式人工智能內容標識過程中同向關系,然則對內容標識義務的主次關系存在銜接錯位。
2.生成式人工智能內容標識主體的邏輯依歸
生成式人工智能內容標識主體必須修正其現有邏輯。第一,界定生成式人工智能服務提供者的地位。生成式人工智能服務提供者區分于算法推薦服務提供者、網絡自動存儲和傳輸服務提供者等,源于其獨特的“內容生成”行為。雖與網絡內容服務提供者的上傳內容行為類似,但仍存在“機器生成”與“專業人員上傳”的本質差異。深度合成技術包含深度學習、虛擬現實等為代表的生成合成算法技術,包含生成式人工智能。因此,生成式人工智能服務提供者亦不與深度合成服務提供者等同,而是屬于新型網絡服務提供者。第二,明確《生成式人工智能服務管理暫行辦法》中服務提供者的涵攝范圍。一方面,從內容標識義務的分配方面,生成式人工智能服務提供者承擔所有的內容標識義務,顯然已經超出其對生成內容的控制能力和技術能力,畢竟技術提供者才是設計內容標識程序的重要主體。另一方面,現有服務提供者概念存在模糊,將提供編程接口的技術提供者包含在內,導致服務提供者的外延范圍無法確定。筆者認為,現行服務提供者概念無法涵攝技術提供者,應增加技術提供者的概念,并且內容標識義務理應重新分配。第三,確定生成式人工智能價值鏈條的主體類型。生成式人工智能技術提供者、服務提供者以及使用者等,各類主體在生成式人工智能生產價值鏈條中不可或缺。前者作為主要部署者,應在創作過程中承擔主要義務,而后兩者應屬于協助標識的層級。
(三)生成式人工智能內容標識義務的標準邏輯矯正
1.以“現有技術水平”調適限度
一方面,技術提供者內容標識義務的設定應當在技術提供者現有技術水平范圍內。從“現有技術水平”考察,生成式人工智能技術提供者和服務提供者是生成式人工智能的研發者和部署者,擁有對生成式人工智能技術的高于使用者的有限控制能力。之所以控制能力是有限度的,是因為生成式人工智能技術具有可解釋性弱的特征,遵循深度學習的運行機理,并且疊加輸出失準或數據不潔的特性。技術提供者在現有技術水平范圍內可以保證內容標識義務履行的可靠性和準確性,只有在預估不能和不可避免的情況下才可得以豁免。另一方面,服務提供者內容標識義務的設定應當考慮其現有技術水平。生成式人工智能服務提供者是生成式人工智能技術的部署者,其技術水平一般與技術設計者相比仍有所差距,兩者合二為一的情形除外。生成式人工智能服務提供者更多是內容標識技術的運營者,更多承擔運行內容標識技術、更新內容標識技術和培養專業標識人員等服務職能。現有的內容標識義務分配已經超出服務提供者的技術限度,亟須在現有技術水平范圍內予以調適。
2.以“比例原則”協調利益均衡
比例原則注重相關主體利益的均衡,要求適當性、必要性和均衡性。該原則是一項理性的行為準則,可以作用于民法在內的整個法律秩序,同時可以作為民法的基本原則發揮作用。首先,內容標識義務的分配需要遵循適當性原則。上文所述,我國應遵循生成式人工智能協議人類創作的目的導向,內容標識義務的分配應以符合目的為最低標準。換言之,內容標識義務分配只要達到技術發展和人類創作協同發展的目的,就是正當和合理的,而無需過分限制生成式人工智能的運行。其次,內容標識義務的范圍應當遵循必要性原則。內容標識技術的無法識別內容價值的局限性,可能導致義務主體因無法達成區分目的而承擔過錯損失,內容標識義務的設定應符合對人工智能價值鏈上所有主體最小侵害的方式。因為不同主體承擔不同義務,其責任豁免的條件亦不相同,過分擔負可能導致主體無法避免自身利益的損害。最后,內容標識義務的解釋應當遵循狹義比例原則。狹義比例原則是在均衡性判斷中,對目的與手段予以比較衡量,也可表現為法的解釋。以遵循內容標識制度的價值取向為前提,對內容標識義務予以合理解釋,保證內容標識義務主體付出的成本與取得收益間的合理比例。
三、生成式人工智能內容標識制度主體類型化及義務分配
生成式人工智能內容標識制度應遵從“生成式人工智能和人類創作協同發展”的目的導向,依照生產價值鏈對主體做類型化區分,并結合“現有技術水平”和“比例原則”實行合理限度的義務分配。
(一)生成式人工智能技術提供者的內容標識義務
1.數據來源標識義務
首先,生成式人工智能技術提供者作為基礎性網絡服務提供者,僅提供技術服務,其擁有法定之獨立地位,且負有內容管理的配合義務。數據來源標識是生成式人工智能技術提供者履行信息披露義務的方式之一,我國為統一和細化數據標注,出臺《人工智能面向機器學習的數據標注規程》,技術提供者存在數據來源標注的可實施性。其次,數據來源標識義務能夠協助公眾評估輸出內容的可靠性和可信度。內容標識制度的最低要求是辨別機器生成與人類創作,在辨別機器生成內容的價值上缺乏技術可行度。數據來源標識可以協助公眾判斷輸出來源的真實性和準確性,確保部分內容是知識產權法保護的內容,或提醒使用者數據來源存在問題。最后,數據來源標識是技術提供者更新內容標識技術的重要前提。標記數據來源對監督機器學習尤為重要,內容標識技術的升級能反哺生成式人工智能學習訓練。技術提供者可以通過內容標識避開AIGC進入訓練數據集,采用更高質量和真實性的人類創作作品。
2.設置標識功能義務
生成式人工智能作為技術提供者,理應為中下游市場提供內容標識功能。歐盟將內容標識作為一項披露義務賦予人工智能系統提供者。《人工智能法案》第52條中規定:“生成合成音頻、圖像、視頻或文本內容的人工智能系統(包括GPAI系統)的提供者應確保人工智能系統的輸出以機器可讀的格式標記,并可檢測為人工生成或操縱。”技術提供者的內容標識技術設計為中下游部署者和使用者提供技術支持。以Geniusee為例,它提供生成式人工智能開發服務,包含人工智能驅動的應用程序開發、聊天機器人開發以及提示工程等服務。技術提供者需踐行內容標識義務,將內容標識技術無縫集成至服務提供者的基礎設施和系統中,保持技術運行的平穩性和兼容性。因為生成式人工智能模型的正確性絕大部分取決于訓練數據質量和相應的學習過程。短視頻平臺 TikTok正通過Adobe開發的“內容憑證”(Content Credentials)標記系統加強自身識別和標注功能。該系統可嵌入圖像或視頻的元數據中,顯示 AI 處理生成的狀態,且已經在多款 Adobe 軟件獲取支持和推廣。
3.監督標識義務履行
生成式人工智能技術仍然存在輸出不準確的局限性。解決輸出的局限性一般采用兩種方式:第一種方式,技術提供者予以內部監督。我國目前尚未制定生成式人工智能專門法律,主要依賴軟法實現內容治理需求。生成式人工智能模型的動態性和可變性,使生成式人工智能基礎技術理解極其復雜多變,監管機構在生成式人工智能的監管中存在技術障礙。技術服務提供者應通過行業規范等方式,應觀測下游服務提供者內容標識技術的應用風險是否超出預期水平。第二種方式,對下游服務提供者提供標識功能的外部監督。美國《2023人工智能標識法案》規定生成式人工智能系統的開發者對下游供應者實施監管程序,監督下游供應者是否按照要求實施必要的披露義務。因此,技術提供者理應實行對下游服務提供者內容標識功能履行的外部監督。
(二)生成式人工智能服務提供者的內容標識義務
1.履行內容標識義務
運行內容標識技術對機器輸出自動標識是服務提供者的法定義務。依照《深度合成管理規定》第16條和第17條規定,服務提供者主要承擔隱性標識和顯著標識兩種標識義務。然則,內容標識技術存在技術局限,無法保證其核實的精確性。倘若服務提供者僅是單純的系統運營者,僅采用人工智能攜帶的內容標識技術顯然不足以達到理性人的注意限度。因此,服務提供者還應當負有選拔專業審核人員予以人工標識的義務。筆者認為,具體至法條,應在《深度合成管理規定》第16條增設第2款:“深度合成服務提供者對使用其服務生成或編輯的信息內容,發現未作標識的,應當由專業人員作出補充標識,方可繼續傳輸。”該增設法條并非毫無依據,2022年我國《互聯網信息服務算法推薦管理規定》第9條第1款,同樣表述算法推薦服務提供者應當承擔內容標識技術漏洞下的補充標識義務。
2.評估標識技術義務
生成式人工智能服務提供者的內容標識技術固步自封,必然損害人工智能產業鏈合力。服務提供者應當對內容標識技術予以評估,修正內容標識技術偏差,更新優化內容標識技術。美國白宮2023年發布《關于安全、可靠、值得信賴地開發和使用人工智能的行政命令》屬于生成式人工智能的首套監管規定,其中測試和評估環節也包含了技術部署者的性能監控。不僅如此,服務提供者應當履行內容標識技術檢測,依據行業技術標準予以評估。目前,域外初步通過人工智能伙伴關系(PAI)等論壇制定識別AIGC的通用標準。美國《算法問責法案》第三部分要求自動化決策系統運行之前應當接受公正性、透明的和可問責性等方面的評估。倘若服務提供者的標識技術在既有的行業技術標準之下,可以認為其不滿足技術標準而承擔一定的責任。綜上所述,我國應在《深度合成管理規定》第17條增設第3款:“深度合成服務提供者應定期對內容標識技術展開技術評估并及時反饋至深度合成技術提供者,確保技術按照預期標準實施。”
3.提供標識功能義務
《深度合成管理規定》第17條第2款將服務提供者為使用者提供和提示標識功能作為法定義務之一。首先,服務提供者應當對內容標識作出清晰、簡潔的釋義,便于使用者了解標識的重要性。畢竟服務提供者很難監測到使用者是否合理標識,只能依靠使用者的自覺性和道德性。其次,服務提供者應當對內容標識功能進行顯著提示,以使用者“明確知曉”的方式提醒使用者履行主動標識義務。“明確知曉”應當達到普通社會公眾能夠注意到的程度,例如文字突出顯示、標識選項或者彈框提示等。最后,服務提供者應以文字、流程圖等方式展現內容標識功能操作流程,便于使用者正確操作。筆者認為,應當將《深度合成管理規定》第17條第2款修改為:“深度合成服務提供者提供前款規定之外的深度合成服務的,應當提供顯著標識功能,并以深度合成服務使用者明確知曉的方式提示其進行顯著標識義務。”
4.設置投訴機制義務
《生成式人工智能服務管理暫行辦法》第15條僅設置投訴舉報機制,未規定舉報后的服務提供者處理行為,極易使該機制成為空談,無法發揮應有的作用。當然,并非所有的投訴舉報都應當予以及時處理,欠缺有效性可能會引發舉報機制的濫用行為。由此,投訴舉報機制的“有效性”應當實行嚴格條件。因此,參考避風港規則中“通知有效性”認定標準,增設第15條第2款:“權利人向該服務提供者提交書面投訴或舉報,應當包含以下內容:權利人的姓名、聯系方式和地址;要求過濾、增加內容標識或中止、終止服務等的文本、圖片、視頻等的名稱和網絡地址;初步證明材料。”同時,服務提供者應履行動態過濾,即應當自行過濾與投訴舉報有效的內容構成實質性相似的其他內容。動態過濾基于服務提供者的內容過濾義務,不存在超出能力范疇的情形。增設第15條第3款:“服務提供者接到權利人舉報或投訴后,應當立即或者及時審查,依據處理流程和反饋時限,受理、處理公眾投訴舉報,并根據初步證據和投訴或舉報類型及時履行過濾、添加內容標識或中止、終止服務等必要措施,并應在3個月內通過模型優化訓練等方式防止再次生成。”
(三)生成式人工智能服務使用者的內容標識義務
1.主動添加標識義務
《深度合成管理規定》第17條規定生成式人工智能使用者“可以”進行顯著標識。“可以”是一種授權性行為,即授權使用者擁有顯著標識的選擇權。生成式人工智能使用者應當從顯著標識權利轉向主動添加標識義務。首先,法律設定義務的目的是在于保障權利的實現,使用者承擔標識義務的目的也是保障其知情權的體現。其次,設定義務能夠防止使用者“搭便車”、故意不標識使用內容的不當行為等。最后,設定義務存在現實必要性。第一,使用者標識大量縮減服務提供者人工審核標識的時間成本,同時又能提高內容標識技術的一致性。第二,使用者通過提示增強內容標識技術控制質量的能力,同時也可以作為判斷標識準確性的參考點。第三,使用者基于提示信息進行標識,可以加強各類內容標識技術之間的互操作性,便于技術提供者及時更新標識技術,擴大檢測范圍。綜上所述,筆者認為我國應增設《深度合成管理規定》第17條第3款:“深度合成服務使用者對使用其服務生成或者編輯的信息內容,應當使用顯著標識功能添加顯著標識。”
2.禁止破壞標識義務
我國《深度合成管理規定》第18條規定任何主體均負有禁止破壞標識義務,本文將其放入本節進行統一討論。首先,應補充該條款“刪除、篡改、隱匿”行為缺乏的相應法律解釋。筆者認為,可以參照《著作權法》中“權利管理電子信息”的相關規定。權利管理電子信息源于傳統著作權制度下的著作權標識制度,是一種識別版權內容的信息。依據“權利管理信息”的相關解釋,“刪除標識”行為可以解釋為:去除內容或者其復制品上的全部內容標識,并且不存在任何內容標識存在于內容復制件或內容本身相結合出現;“篡改”行為是對內容標識的替換行為、部分刪除行為或者添加虛假內容標識的行為;“隱匿”行為是將原有的內容標識以某種手段隱藏至技術或用戶無法識別的行為。其次,應當對該條款予以修正,以添加“等”字為手段,形成開放性立法規定。除了法律規定的既有行為之外,還存在同樣效果的其他行為,封閉式立法規定不能適應當下技術發展的背景,可能產生滯后性。因此,《深度合成管理規定》第18條應修改為:“任何組織和個人不得對本規定第十六條和第十七條規定的深度合成標識采用刪除、篡改、隱匿等技術手段。”
四、生成式人工智能內容標識制度中標識規則的合理優化
在生成式人工智能內容標識具體規則的規定上,我國法律規定未能脫虛向實。在標識技術方面,現有技術均存在技術局限性;在標識信息方面,未能評估標識語言差別化的影響;在標識條件上,未能厘清混淆和誤認的邊界,亟需優化。
(一)生成式人工智能內容標識方式的完善
現有的內容標識技術利弊共存。人工智能技術水印提供了防止人機邊界不可逆轉所需的最低限度,引入機器生成與人類創作之間的可識別性差異。我國《生成式人工智能服務內容標識方法》采用水印技術進行標識,基于感知能力為標準劃分為顯式標識和隱式標識。顯式標識可以使人類觀察感知,隱式水印則將信息隱藏在數字內容中證明完整性、所有權或提供附加信息。然而,采用人工智能技術水印呈現技術方面的局限性。一方面,水印技術系統尚且無法實現其互操作性。不同的水印系統可能無法讀取其他技術生成的水印;另一方面,水印技術系統魯棒性不足,容易受到技術攻擊,這種攻擊容易將人類創作誤認為機器生成予以錯誤標識。為解決當下出現的技術問題,七國集團(G7)的《開發先進人工智能系統組織國際行為準則》要求這些組織與標準制定組織(SDO)合作,制定互操作性的國際水印技術標準和規則。基于此,我國不僅需要出臺統一的技術水印標準和規則,而且還要加大技術水印系統的魯棒性測試。
僅采用人工智能技術水印和內容檢測技術進行共同協作,并不能完全區分所有的機器生成與人類生成內容。國外一項研究采用五種常見的大型AI內容檢測器檢測生成式人工智能的生成內容,結果顯示,雖然五個內容檢測器均能在一定程度上檢測成功,但是仍舊無法令人信服地檢測來自上下文機器生成文本的人工智能生成內容。為了彌補當下內容檢測技術的不足,我國應當實行以“技術審核+人工審核+用戶投訴舉報”為核心的標識方式。就人工審核而言,技術審核是現在生成式人工智能平臺的主要方式,人工審核方式也不可或缺。人工審核有利于智能平臺建立或更新內容審核標準,還有助于內容檢測技術的優化,使內容檢測技術更新至最優狀態。在使用最新內容檢測技術的前提下,服務提供者的人工審核成本會控制在合理限度之內,符合比例原則。就用戶投訴舉報而言,用戶通過投訴、舉報的途徑,也能夠彌補內容檢測技術的技術漏洞,避免因技術漏洞附隨的侵權損害,發揮補充審核的作用。
(二)生成式人工智能內容標識信息的更新
現有標識信息均無法實現“生成式人工智能與人類創作協同發展”的本質目的。《生成式人工智能服務內容標識方法》規定了兩類標識信息,第一類是顯式水印中的提示文字“由人工智能生成”或“由AI生成”等信息;第二類是隱式水印中的服務提供者名稱、內容ID或其他擴展字段內容。第一類顯式水印無差別標識的方式,只可查明真偽,無法協助人類辨識風險程度,導致公眾過度懷疑AIGC;第二類標識信息屬于隱式標識,僅可通過技術手段檢測,而無法被公眾肉眼識別,可能導致公眾陷入因無法識別對未標識信息過度信任的處境。基于此,生成式人工智能內容標識的標識信息至關重要。筆者認為,生成式人工智能內容標識應當采用“生成式人工智能貢獻度+風險文字提示”的技術手段予以標識,使用“顯式標識為主”的標識方式。
標注生成式人工智能貢獻比例并非技術不能。國外團隊在評估大型AI內容檢測器的過程中發現,除GPTZero分類器和OpenAI分類器以外,其他AI檢測器均詳細地說明了人工智能或人類貢獻的百分比。由此可以推斷,現有大部分內容檢測器已經可以檢測人工智能或人類貢獻的百分比,不僅可以協助公眾判斷內容來源,還可以為公眾提供內容風險的判斷依據。貢獻度標識為解決無差別標識提供新的路徑,可以依據風險程度劃分標識信息,形成層級劃分的“風險文字提示”。OpenAI內容檢測器將提示文字劃分為五重層級,分別為:由AI生成、可能由AI生成、不清楚是否是AI生成、不太可能是AI生成和不是AI生成,但該分類缺乏準確度。筆者認為,倘若將貢獻度數據和風險文字提示相結合,可以恰好形成一套相對完善的風險判斷系統。我國可以在內容檢測器中引入貢獻度百分比,并依據潛在的隱式標識信息,綜合判斷生成式人工智能內容的風險程度,為社會公眾提供層級的“風險文字提示”。不同的“文字提示”標識產生不同的解釋。Epstein等學者研究各國內容標識提示術語發現,標識“AI生成”“使用AI工具生成”等詞與生成式人工智能內容有關,而“Deepfake”和“Manipulated”則與誤導性內容有關。為使“提示文字”統一并且適應國際需求,筆者認為,“風險文字提示”主要為“完全AI生成、由AI實質貢獻、由AI部分生成、不是AI生成”四個階段,并分別采用紅色、藍色、黃色、綠色的文字顏色提醒公眾內容的風險程度。
(三)生成式人工智能內容標識條件的解讀
《深度合成管理規定》中顯式標識的條件則是“可能導致公眾混淆或誤認”,并未對構成“混淆或誤認的”的要件予以解釋,導致隱式標識和顯式標識邊緣的模糊化。筆者認為,對于“混淆或者誤認”的解釋,可以參照我國《商標法》中混淆可能性的相關解釋。首先,兩者基本目的一致。防止混淆是商標權保護制度的基本任務,而防止混淆或誤認同樣是內容標識制度的基本目的。其次,兩者是對“來源”予以區分。商標是商標權人標識商品來源的區別標志,內容標識是生成式人工智能主體標識內容來源的區別標識。最后,兩者“混淆”的主體范圍相同。《商標法》混淆可能性的主體范圍是相關消費者之外的其他容易發生混淆的主體,被稱為“相關公眾”。生成式人工智能內容標識的主體同樣在《深度合成管理規定》第17條中采用“公眾”的表述。
生成式人工智能內容標識制度中的“混淆或誤認”應當明確其概念、類型、混淆程度以及混淆或誤認的判斷方法。首先,“混淆或誤認”的概念。我國《商標法》中的混淆指的是:“已經或者可能對商品或者服務的來源及有關方面發生錯誤認識的狀態。”據此,內容標識制度中“混淆或誤認”是指可能對生成式人工智能內容的來源發生錯誤認識的狀態。區別在于內容標識僅規定可能混淆的狀態。其次,“混淆或誤認”的程度。我國采用“可能導致公眾混淆或者誤認”的表述,是指只要發生足以產生混淆結果的可能性即可,而無需混淆事實的實際發生,即混淆可能性。《商標法》中的“可能性”含義是極大的蓋然性、明顯的可能性或者具有較大現實的可能性。同步到內容標識制度中,“混淆或誤認”的“可能性”程度也可以理解為是對結果發生的一種較大概率的可能性,即高度蓋然性。最后,“混淆或誤認”的判斷規則。我國商標法判斷“混淆可能性”的基本規則主要是:以商標使用為前提、以相關公眾的一般注意力為標準,以商標和商品相似性為基礎及以商標的顯著性和知名度為參照。鑒于內容標識制度與商標法參照要素的差別,其“混淆或誤認”的可能性判斷規則主要包含:以使用深度合成服務為前提,以相關公眾一般注意力為標準,以內容貢獻比為參照。
五、結語
生成式人工智能的發展日新月異,其內容生產技術愈發先進。生成式人工智能內容標識制度為避免公眾陷入混淆和誤認的陷阱提供了現實保障。現有的內容標識制度存在諸多現實漏洞,彌補漏洞的首要前提就是明確內容標識制度的本質目的。同時,為防止內容標識制度導致公眾產生過度懷疑或信任危機,并預防該制度超出既有限度,應當以“現有技術水平”和“比例原則”為基本原則。在人工智能價值鏈中,技術提供者、服務提供者與服務使用者均處其中,基于主體類型化予以義務分配更顯公平。為保證內容標識制度實施的可行性,應結合最新技術優化現有的標識方式、標識信息和標識條件。在合理限度內優化生成式人工智能標識制度,是生成式人工智能技術發展的重要推力,亦是促進人類文明社會和生成式人工智能技術協同發展的重要路徑。
Review and Optimization of Generative AI Content Labeling System
Abstract: Generative AI technology is an important new productive force, but it also causes the real risk of confusion and misidentification between machine-generated and human-created content, and the generative AI content identification system has become a targeted path to prevent risks. The current content identification system has practical loopholes such as the lack of legal provisions, the dislocation of the performance subject, and the overstepping of boundary limits, and the essential purpose of establishing “the coordinated development of generative AI and human creation” is the premise of making up for the loopholes. At the same time, the content identification obligation framework under the classification subject should be reconstructed within reasonable limits based on the basic principles of \"state of the art\" and \"principle of proportionality\". Follow the technical mechanism of content identification and reasonably optimize the identification rules: through the content voucher system, the identification method with “technical review + manual review + user complaint and report” as the core is implemented, and the identification information of “generative artificial intelligence contribution + risk text prompt” is adopted, and the confusion or misidentification of the marking conditions is reasonably explained with reference to the Trademark Law.
Keywords: Generative AI; Content Identification Subjects; Content Identification Obligations; Content Identification Rules