辛勇飛

當前,生成式人工智能正在加速發展,不斷催生新場景、新業態、新模式和新市場,賦能千行百業。與此同時,其暴露出的安全風險也引發了各國監管部門的廣泛關注,意大利、德國、法國、西班牙等多個國家的數據保護監管機構對ChatGPT表達擔憂或發起調查。近日,國家網信辦聯合國家有關部門公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)。《辦法》是我國促進生成式人工智能健康發展和規范應用的專門立法,界定了生成式人工智能技術的基本概念,規定了生成式人工智能服務提供者的制度要求,為生成式人工智能的健康發展指明了方向。
一、促進發展,鼓勵生成式人工智能研發創新
新一代人工智能是推動科技跨越發展、產業優化升級、生產力整體躍升的驅動力量。習近平總書記高度重視人工智能技術發展,指出要加快新能源、人工智能、生物制造、綠色低碳、量子計算等前沿技術研發和應用推廣。中共中央政治局4月28日召開會議強調,“要重視通用人工智能發展,營造創新生態,重視防范風險”。
《辦法》立足于促進生成式人工智能健康發展和規范應用,在總則中明確了國家堅持發展和安全并重、促進創新和依法治理相結合的原則,并在技術發展與治理一章中提出了一系列鼓勵措施。一是鼓勵創新應用。生成式人工智能應用場景豐富,可以與各行業深度結合,助力實現各行業智能化變革。《辦法》明確提出鼓勵生成式人工智能技術在各行業、各領域的創新應用,有助于生成式人工智能賦能千行百業。二是鼓勵多方協作。生成式人工智能在技術創新、數據資源建設、轉化應用、風險防范等方面涉及多方主體,為此,《辦法》鼓勵行業組織、企業以及各個相關機構之間開展協作。三是鼓勵自主創新與國際合作。生成式人工智能尚處于發展階段,而我國在生成式人工智能相關算法、芯片等技術研發方面起步相對較晚。《辦法》一方面鼓勵生成式人工智能相關基礎技術的自主創新,另一方面鼓勵平等互利開展國際交流與合作,從而促進我國人工智能技術發展。四是鼓勵資源共享。算力是支撐數字經濟蓬勃發展的重要“底座”,數據是生成式人工智能的重要資源。為此,《辦法》提出推動生成式人工智能基礎設施和公共訓練數據資源平臺建設的措施,促進算力資源協同共享,提升算力資源利用效能。
二、劃定底線,推動生成式人工智能向上向善
以ChatGPT為代表的生成式人工智能在社會變革中具有重要作用,但其可能存在的數據違法收集、知識產權侵權、生成虛假信息等問題同樣不容忽視。
《辦法》積極回應生成式人工智能帶來的社會問題,明確提供和使用生成式人工智能服務的法律底線。一是不得生成違法內容。《辦法》落實《網絡安全法》等法律的規定,強調提供和使用生成式人工智能服務應當堅持社會主義核心價值觀,不得生成法律、行政法規禁止的內容。二是防止歧視。訓練數據本身存在歧視內容、算法更傾向于某些特征值、標注人員的主觀判斷等因素可能導致歧視問題,給社會帶來不良后果,如邊緣化弱勢人群或者煽動仇恨與暴力。為減少歧視現象發生,《辦法》要求在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止歧視。三是尊重知識產權和他人合法權益。生成式人工智能在個人信息的處理過程中,可能存在違法收集、使用個人信息等風險;生成式人工智能的訓練數據中如包括他人已發表并享有著作權的作品,也可能給知識產權造成侵害。為減少侵權事件的發生,《辦法》強調尊重知識產權、商業道德;尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益。四是提高生成內容準確性和可靠性。自生成式人工智能面世之初,其存在的“一本正經地胡說八道”現象便引起了人們的警惕。這種虛假信息的產生很可能會誤導用戶,加劇社會對共享信息的不信任。如何保障生成內容的真實性,既是產業界為進一步擴大生成式人工智能商用范圍需要克服的技術難題,也是監管部門需要重點考量的問題。《辦法》要求生成式人工智能服務提供者(以下簡稱“提供者”)基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。這一要求充分體現了發展與安全并重的原則,符合生成式人工智能的技術原理與產業需要。
三、細化責任,構建生成式人工智能治理體系
生成式人工智能從研發到落地需要經歷多個環節,包括訓練數據處理、數據標注、提供服務等。清晰界定不同環節的要求更有利于降低生成式人工智能的安全風險,增強制度的可落地性。
《辦法》明確提供者的義務與責任,提供者是利用生成式人工智能技術提供生成式人工智能服務的組織、個人,包括通過提供可編程接口等方式提供生成式人工智能服務的組織、個人。在訓練數據處理環節,提供者應當使用具有合法來源的數據和基礎模型,并采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。在數據標注環節,提供者應當制定標注規則,開展數據標注質量評估,并對標注人員進行培訓。在提供服務環節,提供者應依法承擔網絡信息內容生產者責任,按照《互聯網信息服務深度合成管理規定》對圖片、視頻等生成內容進行標識;發現違法內容的,應當及時采取處置措施、進行整改并向有關主管部門報告;應依法承擔個人信息處理者責任,對生成式人工智能服務使用者的輸入信息和使用記錄依法履行保護義務,及時受理和處理個人關于查閱、復制、更正、補充、刪除其個人信息等的請求;應履行用戶管理義務,明確并公開服務適用情況,指導使用者科學理性認識和依法使用技術,采取未成年人防沉迷措施,依法處置從事違法活動的使用者,建立健全投訴、舉報機制;應提供安全、穩定、持續的服務。
四、強化披露,明確生成式人工智能監管手段
人工智能算法具有“黑箱”特性,表現為行為不可控、決策機制難以解釋,給人工智能監管帶來了一定困難。為此,《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等規范已經明確了算法備案、安全評估等監管手段,提高算法的透明度與可問責性。
《辦法》與現有規范一脈相承,延續了此前監管手段,同時明確了分類分級監管的原則,健全了我國人工智能治理體系。一是明確了安全評估與算法備案要求。為有效應對算法“黑箱”問題,《辦法》對提供具有輿論屬性或者社會動員能力的生成式人工智能服務,提出了安全評估與算法備案要求。二是明確了信息披露要求。《辦法》明確了提供者應配合主管部門的監督檢查,按要求對訓練數據來源、規模、類型、標注規則、算法機制機理等予以說明。
《辦法》是在區塊鏈、汽車數據、算法推薦、深度合成等立法之后,我國對新興領域立法的又一次探索。《辦法》充分協調了發展與安全之間的關系,一方面提出了生成式人工智能發展的鼓勵措施,另一方面明確了生成式人工智能的法律底線,構建了生成式人工智能精細化治理體系,有利于推動生成式人工智能健康有序發展,為世界貢獻人工智能治理的中國智慧和中國方案。
來源:網信中國