





摘" "要:為推動生成式人工智能的健康發展,防范其潛在風險,文章構建了一個基于全生命周期的生成式人工智能治理框架,旨在通過對技術要素與主體要素的治理協同,實現技術進步與社會價值的和諧統一。首先,通過文獻分析將生成式人工智能的風險分為技術安全風險、社會倫理與法律風險、信息傳播風險三類,并理清這些風險在全生命周期各階段的具體表現;其次,從數據資源、算力資源、算法模型三個方面分析治理的技術要素,并從政府、企業、社會三個層面分析治理的主體要素;再次,基于各階段的風險表現以及技術與主體要素的分析,構建全生命周期視角下的生成式人工智能治理框架;最后,依托治理框架對生成式人工智能在虛假信息傳播案例和國家監管方面的典型案例進行深入討論,展示了該框架的實際可行性和有效性,以期為生成式人工智能的綜合治理提供理論指導和實踐參考。
關鍵詞:全生命周期;生成式人工智能;技術治理;主體治理;治理框架
中圖分類號:D922.17" "文獻標識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024074
Research on the Generative Artificial Intelligence Governance Framework from the Perspective of the Full Life Cycle
Abstract In order to promote the healthy development of generative artificial intelligence and prevent its potential risks, this paper constructs a generative artificial intelligence governance framework based on the full life cycle, aiming to achieve the harmonious unity of technological progress and social value through the governance coordination of technical elements and subject elements. First, through literature analysis, the paper divides the risks of generative artificial intelligence into three categories: technical security risks, social ethics and legal risks, and information dissemination risks, and clarifies the specific manifestations of these risks at various stages of the full life cycle; secondly, the technical elements of governance are analyzed from three aspects: data resources, computing resources, and algorithm models, and the subject elements of governance are analyzed from three levels: government, enterprise, and society; thirdly, based on the risk manifestations at each stage and the analysis of technical and subject elements, a generative artificial intelligence governance framework is constructed from the perspective of the full life cycle; finally, based on the governance framework, the paper conducts an in-depth discussion of typical cases of generative artificial intelligence in 1 information dissemination cases and national supervision, demonstrating the practical feasibility and effectiveness of the framework, in order to provide theoretical guidance and practical reference for the comprehensive governance of generative artificial intelligence.
Key words full life cycle; generative artificial intelligence; technology governance; subject governance; governance framework
在當今技術革新的浪潮中,以ChatGPT為代表的生成式人工智能(Generative Artificial Intelligence,GAI)技術迅猛發展,其應用范圍已逐步滲透至多個領域,顯著提高了社會生產效率和生活便利性[1]。然而,其造福人類社會的同時,也暴露出一系列潛在風險[2],如數據安全風險、算法歧視、虛假信息傳播等。這些風險不僅威脅個人隱私和信息安全,也對社會穩定、經濟發展和意識形態安全構成挑戰。針對這些問題,我國高度重視生成式人工智能的治理工作,在構建適應生成式人工智能特點的治理體系方面積極探索,先后出臺了《生成式人工智能服務管理暫行辦法》和《生成式人工智能服務安全基本要求》等重要文件,對生成式人工智能的算法設計、訓練數據選擇、模型生成和優化等方面提出了明確要求[3-4]。
在學界,國內外也對生成式人工智能的風險與治理展開了深入研究,并提出了多種治理策略。然而,現有研究多聚焦于單一風險或特定領域,對生成式人工智能全生命周期風險的系統分析和治理框架的研究尚顯不足。因此,本文旨在從全生命周期視角出發,對生成式人工智能的風險進行全面梳理,理清各階段的風險特征,分析治理的技術與主體要素,構建了一個以技術要素為基礎、多主體要素參與的協同治理框架。結合生成式人工智能的虛假信息傳播和國家治理監管案例,將理論框架應用于模型訓練、服務發布、內容生成和內容傳播四個階段,以期為生成式人工智能的健康發展提供理論指導和實踐參考。
1" "生成式人工智能的風險分類
生成式人工智能作為一項新興技術,為社會帶來巨大進步的同時也伴隨著諸多潛在風險。國內外相關學者對其風險進行了廣泛研究與討論。張峰等探討了人工智能應用伴生的社會倫理風險,認為ChatGPT等應用的迅速發展引發了違背社會秩序的倫理問題[5]。在生成作品的原創性和著作權的歸屬問題上,李月泉和劉娟認為生成式人工智能不應被視為獨立的權利主體,只有包含人類獨創性的生成內容才能被認定為作品[6]。此外,王延川和趙靖指出生成式人工智能可能加劇意識形態撕裂、操縱與解構的風險,對國家意識形態安全構成威脅[7]。因此,本文基于對各類生成式人工智能風險的研判,歸納整理相關文獻,總結出生成式人工智能風險分類(見表1)。
1.1" " 技術安全風險
技術安全風險主要涉及到生成式人工智能在數據訓練、算法模型等技術端所引發的風險。根據相關文獻,技術安全風險源自三個方面。一是大模型在數據收集和處理過程中形成的數據安全風險,在這些過程中,可能因數據分布不均衡、主觀偏見或技術漏洞而引發安全隱患,如數據泄露、數據失真等;二是算法層面的不透明、難理解等特點導致的生成式算法風險,由于算法缺乏可解釋性,生成式人工智能可能帶有意識形態偏向,導致其生成的內容呈現出重復性和偏好性特征,加固了原有算法推薦的邊界,使得信息環境更加封閉;三是不法分子通過技術手段非法惡意攻擊或竊取敏感信息、創建惡意軟件及不良APP的開發和傳播等一系列技術濫用風險。
1.2" " 社會倫理與法律風險
生成式人工智能在推動社會進步、經濟發展的同時,不可避免地出現了價值觀念偏頗、社會結構失衡等社會倫理與法律風險,該類風險主要源自三個層面:一是生成內容在價值觀念、思想意識及政治傾向輸出時伴隨的意識形態風險。生成式人工智能的內容生成依賴操控者對算法技術的應用,一旦操控者為不法分子或國外敵對勢力,其可能生成特定思想和價值導向的內容,引發更大的群體極化風險,使受眾對主流意識形態產生偏見,影響國家意識形態安全。二是生成式人工智能技術在賦能社會經濟發展時所帶來的經濟風險。一方面技術進步導致部分傳統崗位被機器取代,引發就業結構調整和大量失業,不同行業和職位間的收入差距逐漸拉大;另一方面模型訓練等過程中的高能耗問題以及由此可能產生的環境負面影響也亟待引起關注。三是以知識產權、隱私權侵犯風險及訓練數據、生成內容的合法性為表現的法律風險。生成式人工智能對海量數據的依賴,不僅會涉及到未經授權收集、使用、披露或處理個人信息的行為,還會涉及到訓練數據集的合法性問題,其來源是否正規、是否包含敏感信息,以及是否存在侵犯他人隱私權或其他權利的風險。
1.3" " 信息傳播風險
信息傳播風險通常發生在數據收集的初始階段和內容傳播的末端,主要體現在兩方面:一是以信息繭房、過濾氣泡、數字鴻溝為代表的信息壁壘問題。個體在面對海量信息時,往往傾向于接受與自己相似的觀點,而生成式人工智能的精準算法推送進一步減少了個體接觸多元信息的機會。算法根據用戶的喜好、搜索行為等信息,為其篩選可能感興趣的內容,同時屏蔽其他觀點,使用戶陷入由算法“定制”的信息環境。這種現象造成了社會群體在信息獲取、使用以及信息通信技術(ICT)受益程度上的顯著差異。二是虛假信息、不良信息傳播及信息泛濫導致的傳播風險。一方面,生成式人工智能可能在個人、群體或社會中傳播錯誤的、誤導性的信息;另一方面,其高效生成內容的能力可能導致信息過載,使得公眾難以辨別真偽,增加信息篩選的難度。
本文將生成式人工智能的風險分為三類,但這些風險通常并非單獨出現,而是貫穿于全生命周期的各個環節,且可能在不同階段交織、演變。這些復雜的風險關系要求從全生命周期的視角進行系統的分析。為此,本文結合阿里巴巴人工智能治理研究中心對生成式人工智能的風險分析與劃分結果[31],構建了生成式人工智能的全生命周期風險架構圖(見圖1),呈現了生成式人工智能在各階段的風險表現,能夠全面揭示風險在各階段的分布特點,為后續的風險治理提供清晰的結構框架。
2" "生成式人工智能的治理要素分析
生成式人工智能的治理需要圍繞技術要素與主體要素兩大核心展開,形成雙重優化與協同推進的綜合治理框架。首先,技術治理以海量數據、龐大算力和智能算法三大核心要素為切入點,以確保生成式人工智能的基礎穩固與安全發展。在嚴格遵循國內外現行生成式人工智能治理政策法規的基礎上,本文依據《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)、《生成式人工智能服務安全基本要求》、歐盟《人工智能法案》等頂層治理的要求,進一步拓展主體要素的協同治理,整合政府、企業和社會的多元力量,共同構筑一個全面而嚴謹的治理體系。
2.1" " 技術要素
針對各類生成式人工智能風險,本文依托吳沈括提出的生成式人工智能發展三大核心要素:海量數據、龐大算力、智能算法[32],以技術為基石構建生成式人工智能技術治理體系,致力于推動關鍵技術的廣泛應用。
2.1.1" "數據資源
訓練數據集是生成式人工智能的基礎,亦是一種聚合型權益客體,可以成為規制生成式人工智能的重要切入點。然而,現有規制框架卻呈現出風險防范形式化的現象,對于數據偏倚、數據泄露、數據失真等問題依然難以有效解決,可以從實施數據質量評估與清洗、利用加密與匿名化技術來治理以上風險。首先考慮數據質量評估與清洗,一方面要建立定期的數據質量評估流程,使用自動化工具和手動檢查相結合的方法來檢測數據的準確性、完整性和一致性;另一方面是在評估過程中,對發現的問題數據進行清洗,包括去除重復記錄、糾正錯誤信息、填補缺失值和過濾無關數據等。其次是實施加密與匿名化技術。加密是對存儲和傳輸的數據實施加密,確保數據在靜止和移動狀態下均受到保護。匿名化則是對個人數據進行匿名化處理,移除或轉換直接標識符(如姓名、地址、電話號碼等),以及任何可以用來直接識別個人的信息。此外,使用數據脫敏技術對敏感信息進行掩蓋或變形,確保即使在數據被訪問時,也不會泄露個人身份或敏感信息。
2.1.2" "算力資源
算力,即計算機的計算能力,通常用于表征計算機或其他計算設備的基本性能指標。在技術治理體系內通常扮演著重要角色。然而,通過算力優化以提高數據處理效率的同時,諸如成本、能源消耗、算力資源安全性等風險與挑戰亦不容忽視。鑒于此,從三個方面實施治理策略。首先是實施算力資源管理系統,使用自動化調度算法來優化資源分配,根據任務優先級和需求動態調整資源,同時采用云服務和分布式計算來提高資源利用率。其次是建立和維護安全的基礎設施,涵蓋物理安全、網絡安全和數據保護等方面,定期進行安全審計和風險評估,建立災難恢復計劃和備份系統。最后是采用節能技術和綠色能源解決方案,通過優化數據中心的設計與運營,提高能源利用效率并推行碳足跡管理及減排策略。
2.1.3" "算法模型
針對生成式算法相關風險,如算法黑箱、算法歧視等,可以從算法模型的三個方面進行有效規避。一是增強算法透明度和可解釋性。通過優先選擇或開發易于解釋的模型,如決策樹、線性模型等,或者在復雜模型(如深度學習模型)中嵌入解釋性組件,還可以為每個算法模型創建詳細的文檔,包括模型的目的、設計原理、使用的數據、預期的使用場景和限制等。二是進行公平性審計,技術人員定期進行算法公平性審計,檢查算法輸出是否存在不公平的偏見或歧視。三是采用技術手段(如對抗性訓練、模型正則化)來提高模型的魯棒性,進而實現模型加固的目的。
2.2" " 主體要素
在當前生成式人工智能風險快速演進的背景下,傳統的單一主體治理模式已顯不足,亟需構建多方主體協同參與的治理體系。本文從政府、企業和社會三個維度構建了一個有機協同治理體系(見圖2)。在該體系中,政府擔任引領和主導的角色,企業和社會則承擔起關鍵的支撐職能。政府負責監督企業依法合規運作,并通過制定相關政策,促進社會對生成式人工智能技術的理解與接納;企業和社會力量應全方位、多渠道地參與到政府生成式人工智能相關法律法規的制定過程中,積極提出建議和策略。
2.2.1" "政府層面
政府作為國家公共行政權力的象征和執行主體,是實現生成式人工智能有效治理的關鍵力量。
第一,政府需要重視生成式人工智能的監管,設立監管機構,通過機構來有效治理生成式人工智能風險,同時增強監管力度并鼓勵創新。傳統的政府監管模式對于層出不窮的生成式人工智能風險有著分散性、滯后性等弊病,影響行業發展。政府層面的監管應該從監督模型訓練、服務審查與監管、加強對傳播平臺的監管三個視角出發。首先,在監督模型訓練方面,監管機構需重點關注數據使用的合法性和模型輸出的合規性。機構必須制定嚴格的訓練數據篩選標準,以此來確保數據來源合法、無偏見,并定期對模型進行審計,保證其輸出結果不違反法律法規和社會倫理觀念。其次,機構必須保障生成式人工智能服務的安全性與可靠性。針對新發布的服務,機構應進行內容審查,確保其恪守主流價值觀;對已發布的服務,機構要實施持續監控策略,及時發現并處理潛在風險。最后,機構還要加強對傳播平臺的監管,明確其應該擔負的責任,建立高效的舉報與處理機制,對違規內容進行快速響應,并且推動跨部門協作形成監管合力,對違規平臺進行處罰,凈化網絡環境。
第二,政府通過制定法律法規來有效規制生成式人工智能風險。2017年,人工智能首次被納入我國政府工作報告,報告提出要加快人工智能等技術的研發和轉化,并培育壯大新興產業。同年7月,國務院發布《新一代人工智能發展規劃》,為人工智能的長遠發展奠定政策基礎。隨后2019年,國務院相繼發布《新一代人工智能治理原則》和《新一代人工智能倫理規范》。2021年,國家互聯網信息辦公室聯合公安部等四部門聯合發布了《互聯網信息服務算法推薦管理規定》。2022年,深圳與上海兩地提出要建立人工智能倫理(專家)委員會,并采用風險分類分級機制對人工智能進行管理[33]。通過對歷次治理法規的整理研究,本文發現以往對于生成式人工智能治理的法律法規多借鑒于傳統治理方式進行立法,但生成式人工智能具有瞬息萬變的特點,因此傳統的立法手段對于生成式人工智能治理缺乏一定的針對性。我國的立法治理可以從生成式人工智能的全生命周期出發,依據各階段已經發生和潛在的風險,從模型合法性、服務合法性、內容合法性、傳播合法性、責任歸屬權五個維度構建全面的立法管理體系,爭取早日形成一種持續有效的治理策略。
第三,政府應制定生成式人工智能戰略規劃并進行戰略引領,嚴格依照《辦法》相關要求,支持行業組織、企業、公共文化機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作,確保生成式人工智能新技術的成長之路始終與國家的最高利益保持同步。政府應制定技術創新與產業升級戰略,通過明確技術發展方向與產業升級目標,及時提供資金政策激勵研發創新;搭建產學研平臺加速成果轉化,促進產業鏈協同,有效推動生成式人工智能技術與產業深度融合;強化人才培養與引進,建立監測評估機制,構建與完善產業生態系統,實現經濟結構的優化和技術的全面進步。
2.2.2" "企業層面
在生成式人工智能治理的關鍵領域,企業的發展與治理實踐緊密相連。作為技術創新的驅動者,企業不僅在促進技術進步方面發揮著基礎性作用,還是推動行業實現健康、可持續發展的關鍵力量。因此,本文將從樹立“科技向善”的企業文化、建立健全的安全評估與反饋機制、構建生成式人工智能行業標準、技術治理常態化四個方面進行具體分析。
首先,樹立“科技向善”的企業文化理念至關重要。企業文化是其核心競爭力的根基,也是戰略支撐和企業的精神源泉。健全的企業文化不僅能夠塑造正確的價值觀,更能激發員工的創新精神,促進企業技術和管理的持續革新,從而鞏固并提升企業的市場競爭力。基于此,可從“四項基本原則”來建立“科技向善”的企業文化,并依此高效管理生成式人工智能的相關風險。一是公正性與多樣性原則。在初始訓練過程中,涉及大量數據資源的收集與整合,其中不乏混雜著質量參差不齊的數據。因此,企業必須嚴格審核數據集的來源與質量,應用去偏見技術,降低算法可能帶來的歧視風險。二是透明性與可解釋性原則。企業應當發布算法透明度報告,詳細闡釋算法的工作機制和決策邏輯,便于用戶更好地理解并監督算法的運作。三是責任與合規性原則。依照監管部門要求,企業在服務發布后需要動態監測其合規性,自動化糾正任何偏離合規標準的行為。四是安全和隱私保護原則,建立內容過濾機制防止不良信息傳播,同時應用差分隱私等技術保護用戶隱私。
其次,企業應當建立健全的安全評估與反饋投訴機制來確保技術安全、增強用戶信任、實現合規經營以及塑造行業規范。一是設立倫理與偏見審查委員會,對模型訓練中可能引入的偏見和歧視性內容進行審查和糾正。二是在服務正式發布前進行全面安全評估,包括但不限于代碼審查、漏洞掃描、滲透測試等,確保系統無重大安全隱患。三是建立自動與人工相結合的內容審核系統,實時批量審核生成內容,防止輸出違法、有害或誤導性信息。四是建立便捷的用戶反饋渠道,鼓勵用戶對生成內容及服務質量進行反饋,及時收集并處理用戶投訴和建議。
最后,從構建行業標準和技術治理常態化兩個方面完善企業層面的治理措施。在行業標準構建方面,一是需要制定統一的API接口準則,方便開發者接入和使用,提升服務的易用性和兼容性;二是需要設定算法效率和準確性的基本標準,確保算法能夠在多樣化應用場景中穩定運行,提供高效、精準的服務,滿足用戶需求。在技術治理常態化方面,一是實行數據合規性審查,確保訓練數據來源合法,同時對敏感信息進行脫敏處理,避免個人隱私泄露;二是進行技術安全與合規測試,對代碼進行安全審計,排除惡意代碼或漏洞,同時嚴格監控模型訓練過程,確保其符合行業標準和法律法規,有效提升透明度與合法性。
2.2.3" "社會層面
在生成式人工智能的主體治理體系中,除了政府與企業發揮關鍵治理作用外,社會也同樣是核心治理主體,以下從四個方面探討社會層面的治理路徑。
一是設立公眾教育與參與機制。新興技術的使用不應局限于少數群體,更需要全民參與,確保技術成果的共享性和普惠性。為增強公眾的法律素養,社會應組織法律知識專題講座與研討會,聚焦生成式人工智能相關法律法規(如數據保護法、版權法等),幫助公眾理解相關法律條文,并依法維權。與此同時,為確保技術開發符合高標準和高質量要求,社會必須培養專業模型訓練師,開展系統性的價值觀教育與專業技能培訓,從根本上保障技術的可信性。
二是專注于文化與價值觀的塑造。技術發展的最終目的是提升人類福祉、推動社會和諧發展。生成式人工智能技術廣泛應用的同時產生大量內容,其中夾雜的價值觀偏差、輿論導向等問題嚴重威脅著主流文化的健康發展。社會力量應積極研究并制定正確的人工智能文化與價值觀導向原則,在初始訓練階段即注入正確的文化和價值觀語料,確保其在內容生成中恪守社會主流價值觀,避免出現偏見或歧視。同時,應定期對生成內容進行有效監控與評估,保證其符合社會期望和倫理規范,并及時調整相關算法和訓練策略,以維護技術發展的社會價值底線。
三是強化市場與社會責任。這一舉措將通過四方面實現:完善生成式人工智能產品交易市場、明確用戶行為規范、建立生成式人工智能行業協會以及設定生成式人工智能系統認證標準。第一,加強生成式人工智能產品交易市場的建設,確立一個公平、公正、透明的市場競爭環境,為高質量產品和服務的出現奠定基礎;第二,社會組織向公眾普及應用生成式人工智能的行為規范,促使用戶更加負責任地使用技術;第三,推動成立專門的生成式人工智能行業協會或聯盟,制定行業自律規范,鼓勵企業之間進行交流與合作,共同提高行業標準;第四,制定并實施生成式人工智能系統認證標準,構建認證體系,對達標的產品和服務進行認證并發放證書,為消費者提供可靠的決策參考。
四是促進社會組織協同增效,調動各界力量共同應對生成式人工智能風險,營造和諧穩定的社會環境。細梳社會組織參與生成式人工智能風險治理的職能(見圖3)可以發現,高校等研究團隊發揮其學術影響力,積極研究相關風險并提出防范策略,舉辦學術交流活動,助力社會各界更好地理解和應對生成式人工智能帶來的機遇與挑戰;慈善基金會和互聯網發展基金會等機構聯合成立生成式人工智能社會基金會,提供資源和資金支持。大學生志愿者和社會服務團隊也應積極投身相關工作,依托基層力量開展風險預防和監控,提升社會的自我保護能力。
3" "生成式人工智能的治理框架構建
在探討生成式人工智能的全生命周期管理時,阿里巴巴人工智能治理研究中心將其細分為:模型訓練、服務發布、內容生成以及內容傳播四個階段。本文基于這一全生命周期視角,結合前文所述生成式人工智能在整個生命周期中的風險表現,依托技術與主體雙重治理要素,構建了一個以技術為基礎、政府引領、企業與社會共同參與的生成式人工智能協同治理框架(見圖4)。其中,G、S、F分別代表政府、社會、企業三方,G1、S1、F1分別表示三方的一級治理職能,G11、S11、F11分別表示三方的二級治理職能(具體各階段風險與治理職能見表2)。
強大的數據、算力、算法是研發生成式人工智能的核心技術,貫穿于生成式人工智能研發和運用的整個生命流程,對應誘發風險的技術邏輯為“來源于數據”“加劇于算法”“溢出于模型”[34]。鑒于此,治理主體應當以技術為核心基礎,致力于數據與算力、算法的全鏈條、全覆蓋治理,確保底層技術創新研發中融入可信賴的價值觀,并保障倫理要求在生成式人工智能全生命周期中得到內化。首先,在數據層面,著重強調實施數據質量評估與清洗的重要性,并采用加密與匿名化技術以保障數據安全。針對語料庫數據管理,確立具體的管理指標和操作規則以控制訓練數據的質量;引入數據加密、密鑰管理和訪問控制等核心技術,以有效降低數據泄露、篡改和破壞的風險。其次,在算力層面,致力于建立算力資源管理系統、增強算力基礎設施的安全性、推動綠色能源在算力資源中的應用,以確保資源的穩定可靠,提升資源管理效率,促進可持續發展。最后,在算法層面,主要是增強算法透明度和可解釋性,并進行公平性審計。相關方通過詳細記錄算法編輯痕跡(包括算法變量、決策基本規則和因素權重、算法運行邏輯等)以提升算法透明度與可解釋性;創建專用于審計算法公平性的數據集及評估指標,客觀公平地對算法進行評價;采用對抗訓練、數據增強和模型正則化等技術,增強模型抵御干擾和攻擊的能力。
3.1" " 模型訓練階段
模型訓練階段是確立模型性能與安全性的關鍵時期。然而,在訓練數據的收集、處理、分析以及算法的設計、執行過程中,諸多因素可能導致數據偏倚、失真等問題;算法的不透明性與難解釋性亦引發了算法黑箱及算法反噬等現象;此外,訓練過程需要大量算力資源支持,由此產生了高能耗問題。針對該階段在數據安全、生成式算法、經濟和法律方面的風險表現,依據本文治理框架,主要治理路徑如下。
首先,政府應發揮其立法主體作用,制定針對于該階段具體場景、特定風險的法規,如模型合法性、訓練數據安全規范等專門規定。鑒于該階段涉及大量訓練數據,政府可以實行“數據審查與清洗報告”制度,要求企業在開始訓練前向監管部門提交詳細報告。此報告必須公開且接受獨立審查,內容包括數據來源、清洗措施與偏見識別策略等,列明所有潛在的偏見風險(如性別、種族差異等),并提出緩解措施。
其次,企業應當主動遵循政府引導,參照《辦法》要求來開展預訓練、優化訓練等數據處理活動。為增強算法透明度,企業可以引入可解釋性增強模塊,如LIME或SHAP等可解釋性工具,實時生成模型訓練過程中的決策路徑報告,確保每個訓練步驟及決策過程均可清晰追溯與審查。此外,企業應當開發實時資源監測工具,記錄和分析該階段的能源消耗與碳排放情況。如在云計算服務中,企業可以通過提供訓練所需的具體硬件消耗報告來優化云計算資源調配,從而最大限度減少能源浪費和碳排放。
最后,企業應基于社會反饋實時校準模型訓練過程。通過引入社會反饋模塊,不同社會群體可以通過專業平臺參與訓練階段的審查和反饋,企業據此動態調整訓練數據權重。如當模型輸出在某些文化或社會群體中存在偏見時,反饋模塊立即觸發,企業回溯訓練數據,找到潛在問題的來源,剔除或加權修正這些數據,以保證模型的公平性與準確性。
3.2" " 服務發布階段
在服務發布階段,服務提供者需要選擇安全有效的模型作為基礎,以構建完整的算法服務體系。盡管此階段不涉及模型訓練或應用數據,但它決定了模型的核驗機制、使用方式及調用工具集的選擇。因此,該階段可能會出現未經充分核驗即部署模型、錯誤或不當調用工具集等問題,由此引發生成式人工智能自動化攻擊、惡意軟件創建、信息竊取等負面現象。
首先,政府應強制要求服務提供商完成安全評估和合規性認證,對于未達標服務,有權禁止其發布或施加限制。同時,應基于模型特征(如開放性、易濫用性)實施動態監管策略。生成式人工智能服務發布時必須附上“反濫用聲明”,并在后續出現惡意濫用行為時,依據《中華人民共和國網絡安全法》及《中華人民共和國數據安全法》追責與處罰。
其次,企業需強化自律和技術保障,確保API接口標準化,并建立自動化安全漏洞掃描系統以進行綜合安全評估。通過應用最新技術自動識別并修復模型中的潛在漏洞、濫用及不當行為(如深度偽造),減少人為錯誤。此外,企業應在服務發布后部署實時監控系統,以監測異常用戶行為(如惡意輸入或誘導生成內容),并采取自動化響應措施(如凍結賬戶、警告用戶、刪除內容等)防范風險。如當用戶輸入惡意指令或誘導性提示(如生成暴力、仇恨言論等)時,平臺自動彈出警告或限制使用相關功能。
最后,政府戰略規劃應引領市場與社會組織強化責任擔當,完善生成式人工智能產品交易市場的建設,確保該市場不僅需要滿足常規商業需求,更需要注重服務的安全與合規性。為此,可引入第三方認證機構進行服務預發布審核,實施多層次審核流程,建立定期復審機制,確保服務持續符合最新的安全與合規要求。
3.3" " 內容生成階段
在內容生成階段,生成內容是用戶與模型交互的產物。用戶的使用意圖及其是否主觀輸入惡意信息或誘導行為,在很大程度上決定了模型輸出內容的安全性。因此,在具體實踐中,內容生成階段的風險主要源自兩方面:一是用戶的惡意輸入和誘導,二是訓練數據與算法模型本身存在的錯誤價值導向。
首先,針對來源于用戶惡意輸入和誘導造成的風險,一方面,按照《辦法》要求,明確網絡信息內容生產者要依法承擔相應的法律責任,以此法律框架約束用戶不當行為;另一方面,企業可構建基于深度學習的輸入檢測模型,實時識別用戶輸入中的惡意意圖,并提供引導性反饋,提示用戶重新審視輸入內容,避免生成有害內容。此外,企業應建立動態內容生成倫理決策引擎,在內容生成過程中動態接入國家法規更新、社會道德標準、行業倫理規范等信息源,保證生成內容符合最新社會倫理要求。企業還可以實施審查與標簽化機制,對每條生成內容進行實時安全評分,根據評分結果標注“風險標簽”,采取相應措施。如在內容生成之前,系統從倫理性、合法性、社會影響等多維度對內容進行評分,若評分低于安全閾值,則自動標記為高風險等級并啟動人工審查流程,確保內容符合發布標準。
其次,針對由于訓練數據和算法模型本身錯誤價值觀念引起的風險,治理工作要重點關注工具采用的算法模型、訓練數據的來源。為從源頭遏制風險,回溯至初始訓練階段,企業與社會組織應積極培育專業模型訓練師,開展系統性的價值觀教育與技能培訓,確保其能在訓練階段及時剔除不符合主流價值觀的訓練素材,保證生成恪守社會主流價值觀的內容,避免出現偏見或歧視。
3.4" " 內容傳播階段
內容傳播階段是信息擴散的關鍵環節。在此階段,生成內容通過算法推薦和信息流動迅速傳播,尤其在社交媒體等平臺上,算法對內容的篩選和推送可能導致過濾氣泡現象,限制用戶接觸多元信息。同時,由于用戶獲取信息能力存在差異,數字鴻溝問題日益加劇,部分群體可能無法有效辨別生成內容的可信度,從而加劇信息不平等。此外,虛假信息和深度偽造內容在社交平臺上傳播速度極快,可能誤導社會輿論,甚至引發政治、經濟等領域的危機。
首先,針對以意識形態撕裂為代表的意識形態風險,政府應發揮頂層設計的指導作用,從維護國家意識形態安全出發,明確界定意識形態風險的邊界與管理原則,確保各方參與者有章可循。同時,企業和社會應開展廣泛的意識形態教育活動,利用學校、社區、媒體等多渠道普及正確的價值觀與社會倫理觀念。
其次,針對知識產權侵犯、生成式人工智能責任歸屬等法律風險,政府應規定生成內容具備可追溯性,要求企業為每條生成內容創建“數字指紋”,記錄內容從輸入到生成再到修改的全過程。企業則可以利用區塊鏈等去中心化技術構建分布式內容溯源系統,確保用戶能夠追蹤生成內容的歷史記錄和修改軌跡,明確責任歸屬。此外,社會組織應當與企業建立智能合約機制,對違規行為自動觸發追責流程,強化責任落實和技術保障。
最后,針對以虛假信息和不良信息傳播等為代表的信息傳播風險,政府可以推動企業與社會建立多層級輿情反饋和引導機制。當生成內容引發公眾熱議時,平臺通過實時輿情分析系統匯總用戶的點贊、評論等正負面反饋,及時識別爭議內容并調整傳播策略,避免進一步擴散誤導性信息。同時,根據《深度合成管理規定》《生成式人工智能服務內容標識方法》的規定履行內容標識義務,具體措施包括在生成內容的顯著位置加注“生成內容”或“人工智能生成”等字樣,以確保信息透明化,保障用戶知情權和選擇權;或采用隱形標識技術,通過時空域水印或變換域水印的方式實現標識信息[35]。在未公開顯示的情況下,隱形標識應當提供給監管部門或相關方,以便在內容審核和監管過程中進行有效追蹤。
4" "案例討論
本章應用全生命周期視角下的生成式人工智能治理框架對兩個典型案例進行討論。案例一探討生成式人工智能如何被用于制造和傳播虛假信息,分析技術要素在風險治理中的作用;案例二則重點探討意大利對ChatGPT的監管案例,從政府、企業和社會主體要素出發,討論國家在生成式人工智能監管中的挑戰與解決方案。兩者均從全生命周期的不同階段揭示了生成式人工智能的治理難點,提供了實踐中應對風險和實施有效監管的經驗及啟示。
4.1" " 案例一:生成式人工智能的虛假信息傳播案例
2023年4月,甘肅省平涼市公安局成功偵破一起利用生成式人工智能傳播虛假新聞的案件。嫌疑人洪某弟利用ChatGPT等工具批量生成虛假新聞內容,以牟取非法流量返利,其中發布關于“甘肅火車事故致9人死亡”的虛假報道,點擊量達到1.5萬次,嚴重擾亂了公眾認知和社會秩序[36]。
(1)技術要素:海量數據、龐大算力與算法模型
海量數據在虛假信息的生成中扮演了關鍵角色。洪某弟借助“易撰”工具搜集社會熱點新聞作為訓練數據,再結合ChatGPT生成具有高社會關注度的虛假新聞。由于數據未經驗證,且缺乏真實性和質量評估,虛假信息迅速傳播并吸引公眾注意。這種缺乏有效篩查的數據處理方式不僅放大了虛假信息的影響,還揭示了現有治理框架在防范數據失真方面存在的不足,凸顯了數據質量控制在防止虛假信息擴散中的重要性。因此,有必要建立嚴格的數據質量控制體系,包括評估和清洗不實數據,同時采取措施保護數據隱私,如應用加密和匿名化等技術。
在龐大算力的支持下,生成式人工智能顯著提升了內容生產的效率和規模,使洪某弟能在短時間內生成大規模虛假新聞并發布,加速了虛假信息的蔓延。因此,相關方必須優化算力資源的分配,提升基礎設施的安全性與穩定性,確保技術在推動效率的同時能夠保障信息安全。
隨著算法模型不斷迭代,生成內容在邏輯性與語言流暢度上已達到較高水準,極大增加了辨別信息真偽的難度。洪某弟利用該特點生成的虛假新聞不易從形式上辨別真假,具有極強的誤導性,容易使公眾放松警惕。為減少此類誤導性輸出,算法應定期進行公平性審計和對抗性訓練,同時提高穩健性。
(2)服務發布階段:合規性審查與透明化管理不足
本案例中,生成式人工智能工具被濫用于制作虛假新聞,暴露了服務發布階段合規性審查與透明化管理的不足。首先,該工具發布前未對模型功能的合法性及濫用風險進行全面評估,使洪某弟能夠利用其生成誤導性信息。其次,平臺未能為用戶行為制定明確規范,使得洪某弟這種濫用行為未受到有效約束。因此,服務發布階段需要強化內容合法性審查,并建立明確的透明化管理機制。
(3)內容生成階段:真實性審核與價值引導的失衡
虛假新聞的生成過程反映了內容生成階段對真實性審核與價值引導的失衡。案例中生成式人工智能工具未配備有效的內容審核機制,因此當洪某弟生成表面上看似真實、但實際上帶有誤導性的虛假新聞時,相關方未能從其源頭及時遏制。同時,工具也未對生成內容的價值導向進行評估,洪某弟為吸引流量編造的事故新聞帶有恐嚇性質,煽動公眾情緒,易激起社會恐慌,從而加劇其對社會的負面影響。因此,內容生成階段需要注重真實性的自動化審核,同時通過價值評估確保內容的社會正向引導。
(4)內容傳播階段:動態監管與用戶反饋機制不足
“甘肅火車事故致9人死亡”新聞短時間內點擊量達到1.5萬次,表明內容傳播階段中動態監管和反饋機制嚴重失靈。一方面,平臺未能對內容實時監控,無法及時發現并封禁虛假信息,反映出現有治理對生成式人工智能內容的動態監控能力不足;另一方面,發布平臺的審核機制未能對生成內容進行透明化標識,導致公眾難辨真偽。同時,平臺缺乏完善的用戶反饋機制,部分用戶已判斷出新聞的虛假性,但可能由于平臺限制而無法及時反饋,或者用戶已及時反饋但平臺響應速度緩慢,進而助長虛假新聞的傳播。為此,該階段需要引入動態監管機制,完善用戶反饋的閉環管理,阻止虛假內容的大范圍傳播。
4.2" " 案例二:生成式人工智能的國家監管案例
2023年3月,因涉及隱私保護和《通用數據保護條例》(GDPR)合規問題,意大利數據保護機構對ChatGPT開展調查,并要求OpenAI必須在20天內提交針對違規行為的整改措施。該事件成為全球首例生成式人工智能監管干預案例,引發了其他歐洲國家數據保護機構的廣泛關注與討論。最終,OpenAI承諾整改后恢復服務,改進數據收集和隱私保護機制,并加強透明度和合法性[37]。
(1)主體要素:政府、企業、社會的角色與責任
意大利政府作為公共權力承載體,在生成式人工智能治理中發揮重要的引領作用。在發現ChatGPT涉嫌違反數據收集相關法規時,意大利數據保護局迅速采取臨時限制、全面禁用、違規調查、限期整改、解禁等系列措施,積極督促OpenAI確保其在數據隱私方面的合規性。該舉措不僅體現了政府對人工智能技術的規范能力與執行力度,也向全球傳遞出明確信號:生成式人工智能的發展必須遵循透明、公正和合法的路徑,確保公眾隱私和數據安全。
在政府的監管下,OpenAI迅速響應,在3月31日全面禁用ChatGPT后立即啟動內部審查,并于4月6日與意大利數據保護機構舉行高層會議,提交整改承諾。最終,4月28日,OpenAI向意大利數據保護局提交了詳細的改進計劃,涵蓋增強數據透明度、強化用戶權利保護以及提供便捷的數據權利行使機制。這些行動不僅展示了企業在生成式人工智能治理中的關鍵支撐作用,也通過建立健全的安全評估與反饋機制確保了技術應用的安全性和可靠性,還樹立了“科技向善”的企業文化形象、提升了用戶信任。
此外,該案件還引發了社會對生成式人工智能隱私保護的高度關注。社會輿論和媒體監督發揮了積極作用,促使政府和企業更加重視技術的社會影響。如德國BfDI、法國CNIL、西班牙AEPD等歐洲多國數據保護機構都明確表達了對生成式人工智能的關注和立場,表示可能進行跟進或采取措施。這種由政府引領、企業和社會共同參與的模式,為生成式人工智能技術的健康發展奠定了堅實基礎,也為其他國家和地區提供了可借鑒的治理經驗。
(2)模型訓練階段:強化數據保護與隱私合規性
在模型訓練階段,意大利政府要求OpenAI嚴格遵守數據保護規范,確保不會在訓練過程中濫用個人數據。具體而言,OpenAI必須保證所使用的數據經過用戶明確授權,且所有數據處理和存儲活動完全符合GDPR的相關要求。此外,政府還要求OpenAI建立健全的數據治理機制,嚴格限制數據的使用范圍,避免因數據濫用而引發潛在風險。依托本文治理框架,政府通過要求企業強化模型訓練階段的數據合規管理,有效保障了用戶隱私權及數據安全。
(3)服務發布階段:落實隱私政策與合規性審查
在服務發布階段,意大利政府實施了嚴格的合規性審查,審查結果顯示OpenAI在服務初期未能完全滿足GDPR的規定,由此引發了監管干預。對此,意大利政府明確要求OpenAI提高隱私政策的透明度,詳細闡明數據處理方式,并且加強建設法律合規機制,確保數據使用過程的合法性及安全性。該舉措也再次說明,生成式人工智能服務在發布時必須嚴格遵守隱私保護政策,且需要通過全面的合規性審查,為技術規范化發展提供有力保障。
5" "結語
當前,生成式人工智能的深度偽造技術為用戶提供了信息獲取的新視角,但其真實性與合法性給監管帶來了極大的挑戰。因此,加強生成式人工智能治理愈發重要,其治理模式也需要不斷調整和優化,以適應新的技術發展趨勢和社會需求,更好地服務于人類社會,推動社會進步和經濟發展。
本文從全生命周期視角出發,分析了生成式人工智能的潛在風險,針對各階段的特點及風險表現,構建了一個以技術為基礎、政府為引導力量、企業與社會共同參與的協同治理框架。該框架涵蓋了數據資源、算力資源、算法模型等技術治理要素,以及政府、企業、社會等主體治理要素。依據理論框架深入討論生成式人工智能的虛假信息傳播案例和國家監管案例,展示該框架的可行性和必要性,旨在為生成式人工智能的健康發展提供理論支撐和實踐參考。
參考文獻:
[1]" 蒲清平,向往.生成式人工智能——ChatGPT的變革影響、風險挑戰及應對策略[J].重慶大學學報(社會科學版),2023,29(3):102-114.
[2]" 王芳,朱學坤,劉清民,等.生成式人工智能研究進展[J].圖書與情報,2024(4):45-64.
[3]" 國家網信辦,國家發展改革委,教育部,科技部,工信部,公安部,廣電總局.生成式人工智能服務管理暫行辦法[EB/OL].[2024-08-26].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.
[4]" 全國網絡安全標準化技術委員會.生成式人工智能服務安全基本要求[EB/OL].[2024-09-26].https://www.tc260.org.cn/upload/2024-03-01/1709282398070082466.pdf.
[5]" 張峰,江為強,邱勤,等.人工智能安全風險分析及應對策略[J].中國信息安全,2023(5):44-47.
[6]" 李月泉,劉娟.生成式人工智能的著作權問題及其保護對策[J].傳播與版權,2024(12):107-110.
[7]" 王延川,趙靖.生成式人工智能誘發意識形態風險的邏輯機理及其應對策略[J].河南師范大學學報(哲學社會科學版),2023,50(4):1-7.
[8]" 盧安文.生成式人工智能:風險、監管與治理模式探究[J/OL].重慶郵電大學學報(社會科學版),1-15[2024-09-29].http://kns.cnki.net/kcms/detail/50.1180.C.20240628.0838.004.html.
[9]" 馬治國,張楠.通用人工智能的數據風險及法治應對路徑[J].北京工業大學學報(社會科學版),2024,24(5):131-142.
[10]" 曹賢平.人工智能文生視頻大模型Sora對科技倫理的沖擊及應對[J].新疆師范大學學報(哲學社會科學版),2025,46(1):142-148.
[11]" 向繼友,吳學琴.ChatGPT類生成式人工智能的意識形態風險及其防控策略[J].江漢論壇,2023(12):53-59.
[12]" 方興東,鐘祥銘.谷登堡時刻:Sora背后信息傳播的范式轉變與變革邏輯[J].現代出版,2024(3):1-15.
[13]" GUPTA M,AKIRI C,ARYAL K,et al.From ChatGPT to ThreatGPT:Impact of Generative AI in Cybersecurity and Privacy[J].IEEE Access,2023,11:80218-80245.
[14]" CHUGH H.Cybersecurity in the Age of Generative AI:Usable Security amp; Statistical Analysis of ThreatGPT[J].International Journal for Research in Applied Science and Engineering Technology,2024,12(1):1-9.
[15]" 李穎.生成式人工智能ChatGPT的數字經濟風險及應對路徑[J].江淮論壇,2023(2):74-80.
[16]" 胡楓,張超.生成式人工智能的理論審視、風險揭示及治理路徑——以ChatGPT為視角[J/OL].南京郵電大學學報(社會科學版),1-11[2024-09-26].https://doi.org/10.14132/j.cnki.nysk.20240625.001.
[17]" 嚴馳.生成式人工智能大模型全球治理的理論證成與初步構想[J].中國科技論壇,2024(5):140-148.
[18]" 徐昕.數字技術資本主義應用的意識形態批判[J].中國地質大學學報(社會科學版),2024,24(3):10-19.
[19]" 尤凱,王雪,李新紅.生成式人工智能對學術期刊的影響與建議:以ChatGPT為例[J].出版廣角,2024(6):77-80.
[20]" 劉瑋.ChatGPT類生成式人工智能嵌入數字政府建設:可供、限制與優化——基于技術可供性視角[J].情報理論與實踐,2023,46(10):69-76.
[21]" 周毅,郭朗睿.公共數據開放中隱性數據安全風險治理機制的構建及其實現[J].情報理論與實踐,2024,47(12):63-71.
[22]" 徐偉,韋紅梅.生成式人工智能訓練數據風險治理:歐盟經驗及其啟示[J/OL].現代情報,1-15[2024-10-06].http://kns.cnki.net/kcms/detail/22.1182.G3.20241121.1509.002.html.
[23]" 滕海波.對以ChatGPT為代表的生成式人工智能規制的思考[J].互聯網天地,2023(6):38-44.
[24]" 李川.生成式人工智能場域下個人信息規范保護的模式與路徑[J].江西社會科學,2024,44(8):68-80.
[25]" 朱蘭蘭,高玉婷,霍婕.AIGC視域下科學數據開放共享風險及對策——基于WSR理論分析框架[J].檔案管理,2024(4):18-21.
[26]" 李沖,李霞.人工智能風險的試探性治理:概念框架與案例解析[J].中國軟科學,2024(4):91-101.
[27]" 張海,段薈,王東波.信息資源管理領域生成式人工智能:研究現狀、研究主題及研究展望[J].情報雜志,2024,43(10):150-156.
[28]" 姚建軍,崔宇航.從解構到建構:ChatGPT意識形態性的生成機理及應對策略[J].中共天津市委黨校學報,2023,25(6):53-62.
[29]" BRUNO A,MAZZEO P L,CHETOUANI A,et al.Insights into Classifying and Mitigating LLMs' Hallucinations[J].arXiv preprint arXiv,2023:2311.08117.
[30]" 郭海玲,衛金金,劉仲山.生成式人工智能虛假信息協同共治研究[J].情報雜志,2024,43(9):121-129,165.
[31]" 阿里巴巴人工智能治理與可持續發展研究中心.生成式人工智能治理與實踐白皮書[EB/OL].[2024-10-08].https://s.alibaba.com/cn/aaigWhitePaperDetails.
[32]" 吳沈括.專家解讀|構建面向AI時代的數據治理新生態[EB/OL].[2024-10-06].https://www.cac.gov.cn/2023-08/29/c_1694965943882536.htm.
[33]" 東方財富網.生成式AI發展與監管白皮書⑤:發展治理“雙輪驅動” “世界之問”下的中國方案[EB/OL].[2024-10-26].https://finance.eastmoney.com/a/202307262792469765.html.
[34]" 王干一.ChatGPT等生成式人工智能誘發意識形態風險的機制、邏輯與治理[J].成都行政學院學報,2024(3):94-105.
[35]" 李濤.文生視頻類人工智能在圖書領域的應用場景及有效治理[J].圖書與情報,2024(4):101-110.
[36]" 澎湃新聞.甘肅首例AI虛假信息案,男子用ChatGPT編假新聞牟利[EB/OL].[2024-10-04].https://www.thepaper.cn/newsDetail_forward_22999940.
[37]" 安全內參.AIGC研發及應用數據隱私合規義務識別:以意大利監管ChatGPT為切入點[EB/OL].[2024-10-04].https://www.secrss.com/articles/54726.
作者簡介:黃煒(1979-),男,湖北工業大學經濟與管理學院教授,博士生導師,武漢晴川學院商學院特聘教授,湖北數字工業經濟發展研究中心研究員,研究方向:網絡信息智能處理;張玉瀅(2002-),女,湖北工業大學經濟與管理學院碩士研究生,研究方向:人工智能;劉勇(2005-),男,湖北工業大學經濟與管理學院本科生,研究方向:科技政策;張瑞(1992-),女,湖北工業大學經濟與管理學院講師,研究方向:知識流動。