文 |國網思極網安科技(北京)有限公司 尹琴 郭晨萌 李寧 湯文玉 崔宇 唐恒
隨著ChatGPT大語言模型的火爆,我國也出現了“文心一言”“通義千問”等,生成式人工智能技術(AIGC)的應用對社會和行業產生了廣泛的影響。它可以幫助企業更快地生產高質量的內容,從而提高效率和降低成本。然而,AIGC也存在一些潛在的風險和挑戰,例如可能會被用于制造虛假信息、侵犯版權和知識產權等問題。因此,在使用AIGC時需要注意社會責任,并采取措施確保其使用是負責任和有益于整個社會。本文針對我國出臺的《生成式人工智能服務管理辦法(征求意見稿)》進行解讀,并通過分析企業面臨的版權歸屬、數據泄露風險、不良信息傳播、深度偽造等風險,提出了開展登記備案、確保數據來源要合理合規、明確數據內容標識、做好隱私信息保護、建立審查過濾機制等相關對策建議。
2023年04月,國家互聯網信息辦公室根據《中華人民共和國網絡安全法》等法律法規發布了《生成式人工智能服務管理辦法(征求意見稿)》(后面簡稱“管理辦法”)。該管理辦法旨在促進生成式人工智能技術健康發展和規范應用,確保其符合法律法規要求,尊重社會公德和公序良俗。文件內容包括:定義生成式人工智能技術、提供者需遵守的法律法規要求、預訓練數據和標注規則的要求、用戶身份信息收集和使用的要求、用戶投訴處理機制等。該辦法主要有21條,本文將進行分析解讀。
管理辦法中第三條明確提出國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源。從中可以看出,國家對AIGC的重視,尤其是強調AI算法、框架等的國產自主可控性。國產化首先可以減少對外國產品和技術的依賴,提高一個國家的經濟獨立性和國家安全。其次,可以促進技術轉移和提高技術競爭力,從而推動一個國家的經濟發展。
第四條明確提出“提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗”。具體包括要體現社會主義核心價值觀、防止歧視(第十二條也再次強調該點)、保護知識產權杜絕不公平競爭、確保信息真實、尊重個人合法利益等。從本質上看,該條款是我國社會主義核心價值觀的體現。
在可用性和真實性方面,提供者應當在生命周期內,提供安全、穩健、持續的服務,保障用戶正常使用(第十四條),同時需要對生成內容進行標識(第十六條),這是最基本的權利要求。提供者需要求用戶提供真實身份信息,符合網絡安全法規定(第九條)。如果采用人工標注,提供者還需制定符合本管理辦法的標注規則,確保標注內容的正確性(第八條)。此外,還應當指導用戶科學認識和理性使用生成式人工智能生成的內容,杜絕違法現象出現(第十八條)。
在隱私保護和合法性等方面,第五條明確提出“提供者承擔該產品生成內容生產者的責任”,且要保護個人隱私信息、用戶畫像以及保護用戶輸入和使用記錄等(第十一條),還要采取措施防范用戶過分依賴或沉迷生成內容(第十條),且需要提供可影響用戶信任、選擇的必要信息(十七條)。第七條明確提出“提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。”此外,提供者應當建立用戶投訴接收處理機制,及時處理個人關于更正、刪除、屏蔽其個人信息的請求,防止個人權利被侵害(第十三條)。對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成(第十五條)。
第六條明確提出利用AIGC提供服務前,需要向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。這是為了確保生成式人工智能產品和服務符合法律法規的要求,尊重社會公德、公序良俗,不含有違反國家政策的內容,并且保護用戶的個人信息和隱私。評估備案可以幫助監管部門對生成式人工智能產品和服務進行有效監管,防止不良內容的傳播和個人信息泄露等問題。同時,也可以促進企業遵守相關法律法規,提高企業的社會責任感和公信力。
第十九條和第二十條明確規定,如果用戶在使用AIGC產品或服務過程中違反法律法規,違背商業道德、社會公德行為時,應當暫停或者終止服務。除了本管理辦法,第二十條還規定網信等部門還可根據《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》等法律、行政法規的規定予以處罰,根據情況可以警告、通報批評、暫停服務、罰款,甚至給予治安管理處罰或者追究刑事責任。
AIGC的訓練需要大量數據,訓練數據和生成的數據版權存在較大的法律風險。首先,訓練數據來源是否被授權,利用爬蟲從網絡爬取的數據就容易引起法律糾紛。例如,全球知名圖片提供商Getty Images起訴熱門人工智能(AI)繪畫工具Stable Diffusion的開發者Stability AI,稱其非法從網站竊取了數百萬張圖片,侵犯了版權。其次,AIGC生成的數據版權是否屬于AIGC服務“提供者”,這是一個在知識產權法學界存在較大爭議的問題。
AIGC模型的訓練需要大量的數據,龐大的數據中可能包含很多人的敏感信息,同時AIGC在使用過程中會不斷提取使用者輸入的信息作為訓練數據,進行不斷迭代訓練。因此,AIGC可能造成個人信息泄露的風險。當前以ChatGPT為代表的AIGC并沒有獲得用戶的同意,違法我國《網絡安全法》《數據安全法》《個人信息保護條例》等法律法規的規定。
AIGC生成內容的同時,可能會引入政治傾向、歧視等問題。帶有該類問題的不良信息的傳播,可能會存在加劇歧視的風險,例如生成種族歧視、性別歧視、暴力、血腥色情等等違背法律和公序良俗的內容,給整個社會、國家造成較大的安全風險。
AIGC可以生成文字、圖像、視頻等,因此可以用于實現AI換臉、合成語音、人臉合成、視頻生成等場景。一旦被不法分子利用,可以用于金融詐騙、敲詐勒索等,對于社會造成極大的危害。
對于AIGC的產品或服務,一律采取登記備案的方式,并評估其安全風險。一旦出現問題,便于溯源追責。例如,市場上魚龍混雜的APP、小程序等均需要備案登記和評估,只有授權后才可以進入市場,否則將一律封禁處罰。
企業在訓練自己的AIGC產品或者提供服務前,要對訓練數據逐一排查,確保訓練數據來源可靠、獲得授權等,杜絕版權糾紛問題。例如,爬取知名網站的圖片作為訓練數據,必須取得對方網站的書面授權,否則一律視為侵權。
企業如果提供的數據是由AIGC生成的,建議明確標注為AIGC生成。例如,合成的圖片、視頻、語音等,避免產生因深度偽造產生的誤導糾紛等。
AIGC企業在獲取用戶信息時,首先要獲得用戶同意,取得用戶授權;其次,要做好用戶個人隱私信息的保護,例如采取加密、差分隱私等技術手段確保用戶隱私不被泄露。
建議AIGC企業不斷完善審核不良信息的特征庫,加強對生產內容的審查和過濾,確保應用當中盡量少的、有違法和違反公序良俗的內容,在發現這些信息后應當要及時處置。另外,在處置時需要保存有關的處置和改進的記錄,并將這些日志信息進行封存。如果發現用戶中有違法使用者,可以警示或限制他們使用一些功能等等。
AIGC是一把雙刃劍,在提高效率的同時,也引入了安全風險隱患。因此,需要加強立法、加強監督、合理引導,最大限度降低風險,發揮AIGC最大價值,為我國經濟健康穩定發展貢獻AI智慧。