摘 要:快速地技術迭代與廣泛應用表明生成式人工智能在驅動經濟社會發展方面具有巨大潛力,但同時它也可能帶來多種挑戰與風險。在系統回顧相關學術文獻的基礎上,文章梳理了生成式人工智能的關鍵技術、技術發展歷程及應用場景,分析了生成式人工智能在數據訓練、算法模型、內容利用等方面存在的風險,總結了生成式人工智能風險治理的策略,包括實施全生命周期的數據質量控制,提高AI風險治理的技術能力,對組織結構進行適應性優化,強化問責機制和標準約束,同時提出未來生成式人工智能發展應堅持發展創新與風險治理并重的原則,完善政策法規與技術標準體系,建立多元包容的國際合作共治體系,充分激發企業活力。本文可以為生成式人工智能領域的學術研究、技術開發和政策制定提供參考借鑒。
關鍵詞:生成式人工智能;大語言模型;風險治理;AIGC; AI幻覺;政策分析
中圖分類號:G354.5 文獻標識碼:A DOI:10.11968/tsyqb.1003-6938.2024045
Progress in Generative Artificial Intelligence Research
Abstract The rapid iteration and wide application of generative artificial intelligence (GAI) technology have demonstrated its immense potential in driving economic and social development. At the same time, it also brings challenges and risks. Based on a comprehensive review of relevant literature, this paper identifies the key technologies, development history, and application scenarios of GAI, analyzes the risks in data training, model building, and content generation, summarizes the risk governance strategies for GAI, such as implementing data quality control throughout the entire lifecycle of GAI, enhancing technical capabilities to manage AI risks, optimizing organizational structures for adaptability, and strengthening the constraints by accountability mechanism and technical standards. Additionally, this paper proposes that the future development of generative artificial intelligence should adhere to the principle of balancing innovation with risk management, improve the system of policies, regulations, and technical standards, establish a diverse and inclusive framework for international cooperation and governance, and fully stimulate the vitality of enterprises. This study is expected to provide reference for GAI related research, technology development, and policy making.
Key words generative artificial intelligence; Large Language Model(LLM); risk governance; AIGC; AI hallucination; policy analysis
生成式人工智能正迅速應用于教育、醫療、金融、法律、制造業、氣象預測、廣告創作、新媒體、游戲等經濟社會的各個領域,對促進新質生產力發展、完善現代產業體系、形成國際競爭新優勢具有重要意義。伴隨著生成式人工智能的快速發展,其潛在的風險與挑戰也引發了廣泛關注。生成內容的真實性、原創性和倫理合規性成為公眾和學術界討論的焦點。同時,生成式人工智能的應用可能造成隱私泄露、算法歧視、生成內容幻覺和虛假信息泛濫等社會問題,有效規制的缺失又可能會使虛假信息在社會層面廣泛擴散,進而引發更大的社會風險。因此,既要支持負責任、可信賴的AI創新,又要管理其潛在的風險,成為中、美、歐等國家和地區共同關注的課題。學術界也在短時間內發表了大量的研究成果,就相關問題展開探討。為了更加系統地理解當前生成式人工智能領域的學術研究成果和各國政策關注的核心議題,本文將全面梳理生成式人工智能的關鍵技術、發展歷程和應用場景,總結生成式人工智能存在應用的倫理、法律與社會風險,并在此基礎上分析生成式人工智能的風險治理與創新發展策略,為促進我國生成式人工智能更好地賦能經濟社會發展提供參考。
1 生成式人工智能的關鍵技術、發展歷程與應用場景
1.1 生成式人工智能的關鍵技術
人工智能(Artificial Intelligence)根據用途可分為決策式人工智能(Discriminant AI)和生成式人工智能(Generative AI)[1]。決策式AI專注于數據洞察并做出決策,應用于自動駕駛、智能推薦、人臉識別等自動化決策領域。生成式AI則能夠通過模型訓練生成新穎、有意義的內容,如文本、圖像代碼或視頻等[2]。這些由人工智能技術自動生成而非由人類創作的內容被稱為人工智能生成內容(Artificial Intelligence Generated Content,AIGC)[3],而之與相對應的人類創作內容則被稱為HGC(Human Generated Content)。
生成式AI的關鍵技術包括生成對抗網絡(Generative Adversarial Networks,GAN)[4]、變分自編碼器(Variational Autoencoder,VAE)[5]、擴散模型(Denoising Diffusion Probabilistic Models,DDPM)[6]、強化學習(Reinforcement Learning,RL)[7]和Transformer[8]等。GAN通過生成器和判別器的對抗訓練生成接近真實的數據,廣泛應用于藝術創作和圖像生成;VAE通過編碼器將輸入數據映射到低維空間,再通過解碼器生成新的數據;DDPM則通過逐步向數據中添加噪聲并學習逆向去噪過程生成高分辨率圖像,已在圖像生成任務中展現出優異的性能;RL根據試錯學習和環境反饋信號來優化生成策略,通過與環境的交互評估生成內容的質量,進而調整生成策略,提高生成結果的多樣性和適應性;Transformer通過其自注意力機制,能夠高效捕捉和生成序列數據的上下文信息,為生成式人工智能在文本生成任務中的成功奠定基礎。此外,Transformer的并行計算能力可以大大提高訓練效率,使得在大規模數據上預訓練和微調這些模型成為可能,進而推動生成式人工智能在文本生成、問答系統、機器翻譯等多個領域的應用和發展。
大語言預訓練模型(Large Language Models,LLMs)是基于Transformer架構的生成式人工智能模型的典型代表,如BERT和GPT系列模型。BERT作為基于雙向Transformer架構的代表性模型,通過同時考慮上下文信息實現了更加準確和全面的文本理解和生成能力[9]。經過預訓練和微調后,BERT在問答系統、文本分類等多種自然語言處理(NLP)任務上表現優異。GPT系列模型采用Transformer的解碼器結構,運用自回歸方法進行語言建模。GPT-1開創了基于Transformer的大規模預訓練方法,使用無監督預訓練加有監督微調模式,能夠生成高質量、連貫且上下文相關的文本[10]。GPT-2提出了“Zero-shot”學習的理念,即在沒有額外微調的情況下,僅憑預訓練模型就能執行特定任務[11]。GPT-3引入了上下文學習(In-context Learning)模式,使模型能夠通過分析提供的文本上下文進行學習,從而在無需額外訓練的情況下,靈活地適應和執行各種任務[12]。InstructGPT通過從人類反饋中進行強化學習(Reinforcement Learning from Human Feedback,RLHF),使模型生成的內容更加符合用戶的具體指令和需求,從而提升了模型的實用性和可靠性[13]。而ChatGPT,作為InstructGPT的進一步優化版本,通過更深入的強化學習和微調策略,不僅保持了強大的語言生成能力,還顯著提升了與用戶交互的自然度和流暢度。Sora是OpenAI推出的一項尖端的生成式AI技術,結合了DDPM、Spacetime Patch和Transformer架構,能夠根據文本指令創造出逼真且富有想象力的視頻,代表了“文生視頻”領域的一大飛躍[14]。
1.2 生成式人工智能的技術發展歷程
生成式人工智能的技術發展共經歷了三個階段。第一階段為二十世紀五六十年代的起源階段,主要基于規則驅動的方法,通過編寫一系列規則來生成新的內容[15]。第二階段為早期探索階段,生成式技術以機器學習為基礎逐漸發展起來。這個時期的研究者們開始嘗試采用統計方法來生成新的數據,如文本、圖像等。其代表技術包含隱馬爾可夫模型(Hidden
Markov Model,HMM)[16]、高斯混合模型(Gaussian Mixture Models,GMM)[17]等,但在文本與圖像的生成內容中,缺乏連貫性與創造性。第三階段為成熟階段,隨著深度學習算法的快速發展,生成模型的性能得到了顯著提升。生成式對抗網絡(GAN)、變分自編碼器(VAE)、擴散模型(DDPM)等技術的出現,極大地推動了生成式技術的發展。這三類技術被廣泛應用于生成文本、圖像、音視頻等領域。同時,生成模型在各個領域的發展雖遵循了不同路徑,但最終出現了交集:Transformer架構[8]。Transformer于2017年首次用于NLP任務,隨后成為各領域許多生成模型的主要支柱。基于以上各項技術的提出,近年來,多模態生成模型DALL-E、CLIP與大語言模型ChatGPT更進一步推動了生成式人工智能的發展,顯著提升了生成內容的質量與用戶體驗。Sora結合ChatGPT系列的技術優勢,能夠模擬現實世界中的物理交互與動態變化,生成復雜的視頻場景[18],成為生成式人工智能的重大突破。張亞勤提出,AI大模型的五個未來發展方向包括多模態智能、自主智能、邊緣智能、物理智能和生物智能[19]。李彥宏指出,在大模型基礎上衍生出的智能體,能夠通過自然語言處理技術理解和響應用戶的自然語言指令,并通過不斷學習用戶交互數據提升自身的服務能力,通過動態交互對話、任務自動化和智能推薦滿足用戶的復雜需求[20]。
1.3 生成式人工智能在經濟社會中的應用場景
作為一項迅速發展的前沿技術,生成式人工智能推動了經濟社會諸多行業的創新,顯著提升了生產力[21]。人工智能生成內容(AIGC)包括文本、圖像、視頻、語音、代碼和三維場景等,具有高效性、創造性、多樣性和廣泛適用性[22]。文本生成主要用于聊天機器人、內容創作等[23];圖像生成用于創作藝術作品和視覺內容[24];視頻生成廣泛應用于娛樂和廣告領域[25];語音生成則利用WaveNet等工具生成人類語音,用于虛擬助手、有聲讀物和自動客服[26-27];三維場景生成技術則在游戲、虛擬現實和建筑可視化中得到應用[28]。
在傳媒和出版領域,生成式人工智能被用于自動撰寫新聞和生成音視頻內容[29-30]。如NVIDIA的PYoCo模型運用時間注意力機制、級聯生成架構等技術,通過文本描述生成高質量的視頻,并確保視頻內容的時間一致性和高分辨率,改變了內容生產和傳播的方式[31-32]。
在產品設計和廣告創意領域,生成式人工智能正在重塑商業模式[33]。如Adobe Sensei利用機器學習和生成技術自動生成設計元素、編輯圖像和優化廣告內容,幫助設計師更快地對接客戶需求,生成個性化的廣告[34]。
在公共服務領域,生成式人工智能嵌入敏捷政府的治理過程[35-36],推動公共服務自動化,提升政府的服務能力[37-38]。如北京市昌平區政務服務管理局的智能問答機器人“平平”通過理解和生成人類語言,實現了全天候在線服務和智能問答[39];清華大學圖書館采用AI導航助手依托數據庫導航實現AI增強問答,采用AI閱讀助手依托水木搜索實現AI增強閱讀[40]。
在司法領域,生成式AI被用來提升審判效率和質量。如深圳中院的人工智能輔助審判系統通過立案智審、智能閱卷、智能庭審和智能文書生成等功能模塊,在提升審判效率的同時保留了法官的自主決策權[41]。
在醫療領域,生成式人工智能被用于醫療影像分析[42]。如北京天壇醫院的“龍影”大模型結合深度學習和圖像處理技術,通過生成對抗網絡(GANs)精確提取和分析醫學圖像特征,輔助醫生進行診斷[43]。
在教育領域,生成式人工智能應用于教育實踐[44-45],輔助生成個性化的教育內容[46]。如清華大學開發的AI助教系統運用生成式預訓練模型(GPT)分析學生的學習數據,生成個性化的教育內容和反饋[47-48]。
在科學研究領域,生成式人工智能被用來加速新材料、新療法和新藥物的發現。如Insilico Medicine利用生成對抗網絡(GANs)和強化學習(RL)技術,進行新靶點發現和藥物分子結構的設計[49]。
在金融領域,生成式人工智能被用于市場預測、個性化營銷內容生成[50-51]。如摩根大通的LOXM系統通過生成多樣化的投資場景,更準確地預測市場動向并優化投資策略[52]。
在制造業領域,生成式AI的應用能夠推動產業轉型[53],有助于生產效率的提升和產品質量控制。如Ford公司通過AI系統監控車輛制造過程中的質量問題,提前檢測到缺陷并進行修復,從而減少廢品率,提升產品質量[54]。
在網絡安全領域,人工智能大模型在風險識別、數據安全、垃圾郵件和釣魚攻擊過濾等方面有巨大潛力,同時也存在誤報率、數據質量、模型泛化能力、可解釋性問題和實時性能等方面的挑戰[55]。
2 生成式人工智能風險研究
2.1 各技術環節存在的風險
風險是指事件發生概率和相應事件后果程度的綜合衡量。生成式人工智能從準備、運算到生成內容[56],涉及數據、算法和算力三個基本要素[57],在數據訓練[58]、模型運算、內容輸出、內容利用各個環節上存在風險,需要進行識別和治理。
2.1.1 數據風險
生成式AI需要依靠對大量訓練數據的學習才能生成新內容,如百度“文心一言”的訓練數據包括萬億級網頁數據、數十億的搜索數據和圖片數據、百億級的語音日均調用數據,以及5500億事實的知識圖譜等[59]。在生成式AI對海量數據進行采集、存儲、標注、利用和銷毀過程中,可能發生如下風險:
一是訓練數據采集風險。包括數據采集手段非法、采集范圍不當、數據含有偏見或故意投毒、篡改,以及模型訓練過多依賴生成數據等[60-61]。含有偏見、受到污染、篡改的數據將嚴重影響輸出內容的質量,產生AIGC的幻覺問題[62-63]。如美國訓練數據中存在的偏見使語言模型對非裔美國人等群體的判斷存在偏見[64],而目前緩解這一偏見的人類偏好對齊做法,可能會在表面上掩蓋語言模型更深層次上的種族主義,從而加劇隱性和顯性刻板印象之間的差異[65]。Shumailov等指出使用AI生成的數據訓練AI模型可能導致“模型崩潰”,即模型在多代迭代后出現性能退化和輸出質量下降的現象[66]。
二是數據存儲風險。主要包括大聚集數據的內部泄露[67]、通過外部攻擊進行數據篡改、投毒、刪除等[68],基于有毒數據生成的模型可能輸出有害或錯誤的結果,進而侵犯個人隱私或商業秘密,甚至危害國家安全[69]。
三是數據標注風險。主要是由標注者的能力水平、價值偏見以及監管不力等造成的訓練數據質量低下問題。在面部識別技術的訓練中,標注不當或數據集中某些種族群體的代表性不足,可能導致模型在識別少數群體時出現顯著誤差[70]。
四是數據選擇性利用風險。主要包括有選擇地利用數據進行訓練導致生成結果的偏見。如果開發者在訓練過程中有意或無意地排除某類數據,模型的輸出將難以反映現實情況。如在自動化招聘工具中,有模型因使用偏向男性的數據集,導致系統在篩選簡歷時對女性求職者產生偏見[71]。
五是數據刪除階段的風險。包括刪除不徹底、數據進入大量生成內容后難以完全刪除等,進而造成侵權問題。盡管法律或公司政策要求刪除數據,但是許多企業發現難以完全刪除在多個系統中復制的用戶數據,如果數據已經被AI模型使用生成內容,即便刪除原始數據也無法完全抹除其影響[72]。
2.1.2 算法與模型風險
算法是生成式人工智能的核心技術,隱含著技術開發人員的觀念與思維模式,在設計、開發和應用過程中可能隱藏如下風險:
一是算法歧視破壞社會公平。算法偏見是指由于初始算法、樣本數據或其他原因所形成的思維慣性而導致生成式人工智能系統在運行過程中出現有偏向性的舉措或選擇[73],如基于種族、性別、宗教等顯性特征,在輸出內容中對條件相同的人實施差別待遇[74-75]。
二是算法的不可解釋性和追責難問題。生成式人工智能的內部運行機制被稱為“算法黑箱”,即輸出內容或做出決策的原理難以被解釋和監控[76]。這導致對生成式人工智能參與的行為追責困難[77],阻礙了生成式人工智能參與重要決策。
2.1.3 內容生成風險
由大模型生成的內容可能會偏離真實世界的事實或不能準確反映用戶指令,由此產生幻覺(Hallucination)風險。AI幻覺主要分為兩類:
一是事實性幻覺。AI生成的內容有可能與現實世界的事實不一致,如捏造不存在的人物、事件或數據等。造成這種問題的原因通常是模型觸及知識邊界,數據利用不足,或者訓練數據中特定領域知識不準確、不充足[78]。
二是忠實性幻覺。AI生成的內容有可能沒有忠實地反映用戶的指令或對話背景。這通常是因為AI模型訓練中能力不對齊和架構缺陷[79]、解碼策略隨機性和表示能力不足[80]等問題導致AI模型在理解復雜指令和多層次上下文推理中表現欠佳。
2.2 利用不當導致的風險
生成式人工智能不僅在各個技術環節存在隱患,若應用不當且生成內容傳播失控時,還可能會引發一系列交織的倫理、法律、政治、社會和經濟風險。
2.2.1 倫理風險
倫理風險主要指利用生成式人工智能技術從事違背社會道德的活動[81],從而對人與社會和自然之間的關系準則產生影響[82],包括違背學術道德[83]、導致情感異化、人類主體性價值消解等。
首先,利用生成式人工智能實施學術不端的行為[84-85]有多種形式,如生成虛假學術文章[86]、編造不存在的引用[87]、通過重新措辭剽竊他人作品[88]以及生成虛假的數據和圖表[89]。AI編撰的內容表面上符合學術標準,但實際上缺乏實驗和證據支持,誤導讀者和評審,擾亂學術界的規范和誠信。
其次,長期使用生成式人工智能可能會使人產生技術依賴[90-91],并對個體的神經系統產生實質性影響,導致批判性思維受損和記憶保持能力改變[92]。與此同時,擬人化程度越來越高的生成式人工智能為人類創造能夠提供情感支持的數字空間,但人機交往的單向性可能會使人類陷入“群體性孤獨”,長期的單向人機交往可能導致人類情感異化[93]。
最后,由于生成式人工智能愈發具有自主道德行動能力[94],人的主體價值被削弱或消解[95-97],有學者認為生成式人工智能有可能會顛覆傳統人本主義道德體系[98-99]。生成式人工智能也可能引導人類做出含有道德傾向的決策[100-101],所以AI是否擁有權利[102],人工智能權利的基礎和來源[103],人工智能的權利是否應當與人類權利保持一致[104-105]等問題將受到關注。
2.2.2 法律風險
生成式人工智能在高效完成用戶指令的同時,其算法不透明,數據來源具有隱蔽性,輸出內容具有匿名性[106],因此容易產生法律風險。
首先,生成式AI的無約束使用可能侵犯知識產權[107-110]。2023年Stable Diffusion用戶李昀鍇狀告百家號不當傳播自己利用AI生成的圖片,成為中國首例AI生成圖片侵犯知識產權案[111]。此外,訓練數據集可能未經所有者授權,導致數據產權糾紛[112],如湯森路透曾指控羅斯智能公司“非法復制其法律數據庫內容以訓練人工智能系統”,導致羅斯智能公司在版權糾紛下被迫停業[113]。
其次,遠程生物識別,如遠程人臉識別、指紋收集可能會給個體的基本權利帶來風險。生成式AI有可能侵犯隱私[114]和個人信息[115-116],被用于偽造他人信息實施詐騙或勒索[117]。如2024年韓國警方某加密軟件中存在大量社交群組利用Deepfake(深度偽造)技術換臉合成色情照片和視頻,參與用戶多達22萬人[118]。
最后,生成式AI還面臨算法失控、算法濫用、算法欺詐等風險。McAfee調查發現,生成式人工智能被犯罪分子用來克隆聲音,以實施詐騙,超過70%的受訪者難以辨別真實語音與克隆語音的差異,約10%的受訪者表示曾收到AI生成的語音詐騙消息,其中77%的受害者在收到此類消息后蒙受了財務損失[119]。
為應對生成式AI的潛在法律風險,美國加州議會擬定了《SB-1047前沿AI大模型安全創新法案》,旨在對高風險AI模型建立安全標準,防止濫用和災難性后果,但遭到包括李飛飛在內的科學家們的強烈反對,他們認為這將損害AI生態系統,不必要地懲罰開發者,扼殺開源社區,并阻礙學術研究,且對模型風險的評估方法不科學[120]。在應對生成式AI的潛在法律風險與促進技術創新之間,如何取得平衡仍然是一個巨大的挑戰。
2.2.3 政治風險
生成式AI技術能夠在極短時間內生成大量內容,并通過社交媒體、搜索引擎優化等渠道迅速擴散[121],傳播范圍遠超傳統人類生成內容(HGC)。同時,通過分析用戶的行為數據和興趣偏好,AI能夠生成高度定制化的內容,并通過智能推薦系統精準推送給特定用戶群體[122]。然而,盡管個性化的定向傳播方具有廣泛的應用場景,但如果監管不當也可能會帶來諸多政治風險。
首先,A生成內容泛濫有可能污染網絡信息環境。生成式AI可能被用于大規模傳播虛假信息、謠言、煽動性言論等有害內容[63],污染網絡信息環境[123],破壞社會公序良俗[124]。
其次,生成式AI可以自動產生虛假新聞,并通過偽造可信來源的方式迅速傳播。這種大規模傳播的虛假信息不僅會混淆公眾視聽,還可能導致社會信任體系的崩潰,引發公眾的普遍焦慮和不安[125]。
第三,生成式AI可能被用于輿情操縱,影響公眾認知[126-127]。如在美國總統選舉中,生成式AI被用于生成大量宣傳內容,通過社交媒體平臺影響選民的政治傾向和投票意圖[128],進而削弱公眾對政府和社會機構的信任[129]。
最后,AI生成內容可能帶有某種特定的意識形態偏向,故意曲解事實或隱瞞真相。借助于特定事件情境,這些意識形態材料可能被用于國家間的輿論戰或信息戰,嚴重威脅國家意識形態安全[130]。通過有偏內容的輸出來影響公眾觀點,甚至成為境外勢力干預內政的手段[131]。
2.2.4 社會風險
生成式人工智能技術應用的社會風險主要涉及勞動力替代與就業難題、社會不公加劇、新型智能鴻溝的出現等。
首先,自動化程度的提高使低技能和重復性的工作需求減少[132]。生成式人工智能強大的知識生產與應用能力使其能夠承擔的工作類型越來越多,人類腦力勞動領域的咨詢、分析、教育以及媒體制作等過去“專屬于人的崗位”將被機器取代[133]。雖然生成式人工智能催生的新興職業在一定程度上增加了就業機會,但高技能職位要求技術教育與技能提升[134],而就業壓力的持續增大可能帶來社會穩定方面的風險[135]。
其次,人工智能生成的歧視與偏見性信息[136]的廣泛傳播可能會加劇社會不公[137]。計算資源分配不均以及數據和算法歧視等技術鴻溝、訪問限制等政策變量、人機協同能力等用戶差距均會導致不同個體在與生成式人工智能交互的各個環節上拉開差距,尤其會放大數字弱勢群體的脆弱性,使之在人工智能技術發展的浪潮中被進一步邊緣化[138],從而出現新型智能鴻溝。
最后,過度依賴與AI的交互可能會改變傳統的人際交互模式,導致個體認知與情感能力削減、自我身份認同困難和自我存在意義消解等風險[69,139]。
2.2.5 經濟風險
當前,由于數據、算力以及專業壁壘,生成式人工智能的基礎模型和微調模型的市場高度集中并主要被極少數大型科技企業所壟斷[140]。自從2020年GPT-3的突破以來,只有11個大型基礎模型得以建立,其中有8個基礎模型由大型平臺直接開發,如谷歌/DeepMind、Meta、微軟和百度等,其他模型也離不開大型平臺的間接投資和控制[141]。為了應對生成式人工智能市場競爭可能帶來的風險,美歐英的競爭管理機構聯合發表聲明,提出保護人工智能生態系統中的競爭原則,內容包括公平交易、互操作性、自由選擇和消費者保護等[142]。
3 生成式人工智能風險治理與創新發展對策研究
3.1 生成式人工智能風險治理對策
負責任的人工智能強調以人為本、社會責任和可持續性,有效解決、記錄和管理人工智能風險和潛在的負面影響,從而帶來更值得信賴的人工智能系統[143]。針對生成式人工智能應用可能帶來的種種風險,現有研究從生態體系建設、數據質量管理、治理技術、組織結構優化、問責機制建設等方面提出了治理對策。
(1)構建可信賴人工智能生態體系,實施政府主導下的AI風險協同治理
生成式人工智能生產、應用的產業鏈十分復雜,使得算法檢視性工具、算法風險評估性工具和算法主體責任制存在局限[144],單一的政府治理難以實現生成式人工智能風險的有效治理,因此需要實施政府主導下的企業、社會多元主體協同治理[145]。如建立虛假信息等級評估制度,以政府主導強化多元主體間的協同,強化效能管理和快捷響應[146]。商湯科技指出,人工智能治理應當是一個價值牽引、技術先行、 多方參與、分層推進的動態進程[147]。歐盟《人工智能白皮書》(2020)提出構建可信賴人工智能生態系統,包括與會員國合作、支持建立世界領先的測試中心、通過吸引頂尖教授和科學家來提升歐洲人工智能研究中心的能力、關注中小企業、與私營部門合作、推動公共領域應用人工智能、加強安全訪問數據和計算基礎設施的建設、引入非歐盟組織和政府觀察員[148]。阿里巴巴《生成式人工智能治理與實踐白皮書》提出,政府在生成式 AI 治理中應完善頂層設計、健全治理體系、推動國際合作;產業界應通過標準化形成行業自律、建設分類分級治理制度、持續發展治理技術、合理分配主體責任、吸收多方意見;社會應普及新技術,彌合公眾認知鴻溝,校企聯合助力人才培養[149]。
(2)實施人工智能風險評估,進行風險分級分類管理
對人工智能的風險進行評估,有助于明確治理范圍,實施精準治理。歐盟《人工智能法案》[150](2024)將人工智能風險劃分為不可接受的風險(需要禁止,如社會評分系統和操縱性人工智能);大部分涉及文本的高風險人工智能系統(需要管制);風險有限的人工智能系統(透明度義務較輕),但開發人員和部署人員必須確保終端用戶知道他們正在與人工智能(聊天機器人和深度冒充者(Deepfakes)進行交互;極小風險(不受監管),包括目前歐盟單一市場上可用的大多數人工智能應用程序,如支持人工智能的視頻游戲和垃圾郵件過濾器等。美國商務部國家標準與技術研究所(NIST)發布的《人工智能風險管理框1.0》提出,與不直接與人類交互的AI系統相比,設計或部署用于直接與人類互動的AI系統,如由個人身份信息等敏感或受保護數據組成的大型數據集上進行模型訓練,或者輸出內容對人類有直接或間接影響,應設定更高的風險初始優先級[143]。中國信息通信研究院建議聚焦人工智能應用場景,以監管沙箱試點摸清場景應用風險特點,針對典型風險細化治理規則和方案[151]。商湯科技將人工智能治理的實現分為可用、可靠、可控、可信四個層次,并依據AI對最終產品安全、個人權益、市場公平、公共安全和生態安全的影響程度,將倫理風險由低至高劃分為E0至E4四個等級[147]。
(3)強化AI項目管理,實施項目全周期風險管理
生成式人工智能被用于改造傳統產業,具有顯著的項目屬性。因此,需要強化AI項目管理,將風險管理貫穿于項目生命周期的各個階段,包括規劃階段、商業和技術規范階段、測試階段和部署階段[152]。在規劃階段設定AI的安全、倫理和法律標準,明確監管范圍;在商業和技術規范階段制定生成式AI技術和商業規范,利用自動化工具監控數據質量、隱私保護和算法合規性;在測試階段通過自動化模擬測試和算法優化,確保AI在不同場景下安全運行,并根據測試結果進行調整;在部署階段則需要AI系統運行中進行實時監控,檢測問題后自動調整,確保系統穩定、安全。阿里巴巴提出,在AI模型訓練階段,對訓練數據進行篩選和過濾以剔除含有風險的數據,對模型實施全面的安全評測,通過模型對齊與內生安全增強確保模型遵循人類的價值觀;在服務上線階段,服務提供者需要選擇安全有效的模型,并進行模型核驗,確保服務使用的工具集(如插件)的合理性和必要性,并執行合規動作,如算法安全自評估和算法備案;在內容生成階段,需要對賬號進行管理,保護個人信息,建立內容審核與處置機制,包括建立審核制度、專職團隊,對生成內容進行分類分級,并采用技術手段進行內容審核;在內容傳播階段,需要添加標識以提示內容是由人工智能生成,并建立風險監測和應急處置機制,以快速響應和控制虛假信息的傳播[149]。
(4)嚴格控制數據質量,實施AI全生命周期數據治理
生成式人工智能的風險與數據質量密切相關,數據質量管理應當貫穿生成式人工智能的全生命周期[153]。在預訓練階段應對數據收集、標注、準備、降維、增強和版本控制環節進行治理,尤其是對數據進行嚴格過濾,避免使用AI生成數據訓練模型,減少模型崩潰風險[66];在評估階段應開展同分布評測、異分布評測及相關評測數據集的治理, 引入嚴格的標準數據審查機制,減少數據中的隱性或顯性偏見,減少算法輸出的歧視性結果[154];在部署推理階段需要對部署數據、指令數據集、偏好數據集、強化學習數據集、提示工程數據、運維監控數據等進行治理;運維監控階段的數據治理包括運維數據的治理、數據的安全治理、數據的理解呈現、數據的質量保證、數據存儲檢索的治理等,更新存儲知識庫資源以擴展模型的知識邊界,避免錯誤信息引入,確保生成結果的時效性與正確性;在退役(迭代)階段則需要合規處置數據、對模型知識數據進行遷移復用、對大模型全生命周期的技術與經驗數據進行繼承[155]。中國信息通信研究院指出,大模型發展需要重視個人隱私保護問題,包括確保訓練數據來源的合法性,堅持數據使用透明和可問責原則,保障用對戶交互信息的刪除權[155]。信息系統審計與控制協會(Information Systems Audit and Control Association,ISACA)強調確保人工智能系統決策過程和數據來源的透明度和可追蹤性,企業需要增強審計功能來監控AI系統的決策,保證決策過程的透明度,追蹤數據來源以確保數據的可靠性,實施記錄和監控操作以快速響應問題,確保符合數據保護和隱私法規,從而提高用戶對AI系統的信任度[156]。
(5)以AI治理AI,開發智能化的技術工具應對算法風險
當前,人工智能的性能提升遠超安全技術的發展,這種不平衡導致“Crippled AI”,即高性能但安全性不足的AI系統[157]。為了跟隨高速迭代的AI系統,“以技術治理技術,以AI治理AI”是一種新型算法治理方向。“AI治理AI”通過智能算法自我監管,提高效率并解決傳統人工監管迭代慢的局限性[158]。2022年6月,Meta與美國司法部達成法律和解,同意刪除廣告商用來間接分析和定位某些受眾群體的特殊廣告工具,并同意部署一個新的“方差減少系統”(VRS)以消除其廣告定位和投放系統中機器學習算法的偏見[159],通過開發治理技術減少了住房廣告中的性別和種族偏見風險。人民日報社傳播內容認知全國重點實驗室基于“AI治理AI”的理念,打造AIGC-X平臺,實現對人工智能生成內容的精準識別,在文本識別方面,基于人工智能生成模型傾向于采用高頻詞的特點,構建語義與風格特征融合的語言模型評價方法;在圖像識別方面,研發基于視覺上下文、子塊信號特征的人工智能生成圖像檢測模型,實現對人工智能生成圖像的精確識別;在視頻識別方面,通過提取真實視頻中人物的視覺、音頻特征,建立人物關聯特異性模型,檢測出合成人物在全局一致性、幾何特性等方面與真實人物存在的偏差[160]。商湯科技建立了模型體檢平臺,對模型進行推理攻擊和逆向攻擊測試,檢測算法模型對數字世界白盒對抗、數字世界黑盒查詢對抗魯棒準確率、數字世界遷移攻擊對抗魯棒準確率、物理世界對抗樣本攻擊成功率、模型后門攻擊成功率,以判定算法模型是否符合設計要求[147]。阿里巴巴則建議提升模型的魯棒性、可解釋性、公平性,并構建有效的防濫用機制,以提高模型的可靠性和用戶的信任,具體措施包括:開發評估工具來測試和強化模型抵御攻擊的能力,提高模型韌性;使用模型可視化和解釋性工具來揭示模型的決策邏輯;通過在訓練過程中引入公平性約束并平衡數據來減少偏見;建立內容審核和版權監測系統來防止模型濫用[149]。
(6)強化生成內容檢測,提高AI生成內容的準確性與可靠性
生成式人工智能容易生成虛假信息,帶來幻覺問題,對社會和個人造成誤導,緩解AIGC的幻覺風險需要強化內容治理,措施包括數據質量控制、優化訓練過程、改進解碼推理算法和強化后處理機制。在數據層面,減少幻覺的關鍵在于嚴格篩選和驗證數據來源,避免錯誤信息和偏見的引入,同時加強對數據利用的優化,定期更新數據集以擴展模型的知識邊界[161]。在模型訓練層面,可以利用技術手段優化預訓練模型的架構。如借助Self-Alignment機制,根據檢測出來的事實性幻覺對模型進行微調[162];通過人類反饋強化學習減少毒害內容的產生,讓模型與指令需求保持一致[13]。在推理層面,可以通過降低解碼過程中的隨機性實現算法優化,如調整采樣溫度(Temperature)或采用束搜索等確定性策略,減少生成錯誤的概率[163]。在生成內容后,可以引入外部知識庫進行事實驗證或使用語言模型檢測邏輯錯誤,進一步提高生成內容的準確性和可靠性[164]。
(7)進行組織結構的適應性優化,實施敏捷治理與自我規制
為了應對潛在、復雜、瞬時的AI風險,還需要對組織結構進行優化,提高AI環境下的組織韌性。現有研究提出兩種優化方向:敏捷與適應性治理,自我規制調整。
首先,敏捷治理被視為應對生成式人工智能技術快速變革的關鍵策略,強調通過動態調整和靈活應變[165],提高組織應對復雜性和不確定性的能力[166]。阿里巴巴提出,生成式人工智能的發展還存在著較大的不確定性,采用過重、不科學的治理方式會抑制產業的發展,而敏捷治理作為更加順應科技研發應用的治理模式,通過小步快走、迭代試錯、動態更新,可以解決技術高速演進的不確定性問題[149]。中國信息通信研究院則建議堅持敏捷治理理念,強化跨部門協同和多元敏捷互動機制,平衡創新發展和風險治理[151]。
其次,為了進一步提升AI系統的安全性與合規性,組織內部自我管理型規制的引入成為必要。通過強化平臺自律和合規建設,平臺企業能夠主動識別和排除潛在的安全隱患,從源頭減少AI系統帶來的風險[167]。德勤報告發現僅23%的企業認為自己為生成式AI的風險管理和法規合規做好準備,41%的企業難以精確衡量生成式AI的影響,并建議企業管理層應持續關注生成式AI戰略,加強數據管理、風險控制和價值衡量,推動生成式AI深入嵌入業務流程,并通過跨部門合作和強有力的監管框架確保技術的長期成功和合規性[168]。ISACA指出組織需要構建AI倫理準則,以確保AI技術的發展與應用遵循倫理原則、透明度、公正性,涵蓋利益相關者的權益,確立責任與問責機制,并進行持續的倫理審視與教育培訓,促進AI技術負責任的演進[158]。
(8)采用“軟硬法”結合治理方式,強化問責機制與標準約束
應對AI對技術發展帶來的法律爭議,還需要加強政策法規和技術標準建設。在大模型治理過程中,可以使用強制性法律(硬法)和非強制性的指導性文件、標準、倫理原則(軟法)的“軟硬法”結合的治理方式[151]。現有研究從生成式人工智能的法律責任、法律準則、安全體系、技術標準等視角提出具體建議。
首先,人工智能系統的不可預測性和自主性可能導致責任漏洞,包括證明過錯、因果關系以及界定生產者與使用者的責任,因此需要調整現有的責任規則[169],包括明確顯性隱性披露體系,確定內容責任主體,完善投訴機制[170]。
其次,監管機構應制定和完善相關法律法規,明確數據使用、隱私保護、算法偏見等方面的規范[171]。如中國在算法備案與評估方面提出了一系列措施[172];歐盟出臺了AI法案,建立了歐盟通用的AI法律規制框架,并于2024年8月1日正式生效[173]。
第三,研究AI安全可信指南,統籌規劃AI安全標準體系,并加快建設AI安全檢測能力[174],可以從確定績效、設計和內部管理三類標準方向以保障人工智能生成內容的安全[175]。
最后,完善生成式人工智能技術專利標準。如引入人工智能作為技術“發明人”的制度設計,創立人工智能生成技術方案的專利性標準[176]。
3.2 生成式人工智能創新發展對策
生成式人工智能是一項新興的顛覆性技術,對于未來經濟社會發展的影響十分深遠。為進一步推動生成式人工智能產業高質量發展和創新應用,政策制定部門和學術界提出了一系列發展對策。
(1)堅持發展創新與風險治理并重的原則
1982年,大衛·科林格里奇在其《技術的社會控制》一書中提出了科林格里奇困境(Collingridge's Dilemma):一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以發展。反之,如果控制過晚,已經成為整個經濟和社會結構的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變[177]。生成式人工智能的發展也面臨這種技術控制的兩難困境[178]。在生成式人工智能技術的創新發展過程中,如何平衡技術進步與潛在風險是各國政策制定的重要議題。現有研究對主要經濟體在生成式人工智能的發展[179]、監管[180]、教育[181]等方面的政策進行了比較研究,明確了各國對生成式人工智能技術的社會功能、潛在影響與戰略定位。這些政策法規基本上秉持發展與治理并重的政策原則,旨在通過設定法律框架和治理機制,促進技術的負責任發展[182],不斷尋求創新和規制的平衡點[183]。
在AI發展方面,美國將人工智能界定為戰略競爭的前沿領域,堅持絕對安全理念,依賴技術優勢推行單邊主導型治理,嘗試構建以美國為中心的非對稱單向度的數據流動秩序[184]。此外,美國政府重視AI基礎設施長期投資和人工智能研究,以增強美國在制造領域的競爭力[185]。美國白宮發布的報告認為,AI有潛力徹底改變科學研究的方式,通過快速運行數百萬次基于計算機的模擬實驗,為現實世界中重要的科學實驗提供指導;同時AI的發展需要解決數據偏見、計算能源、錯誤生成以及濫用等問題,建議采用負責任和可信賴的AI使用原則以及鼓勵創新的AI集成方法[186]。
中國的生成式人工智能政策體現出強烈的國家主導特征,重點在于通過政府規劃和投資推動技術在國家安全和經濟競爭力方面的應用[187]。在技術和應用監管方面,具有風險分析中性、深入技術管理、技術應用范圍廣、新興市場應用潛力強等特點[188]。在借鑒其他國家的生成式人工智能監管經驗的基礎上,我國生成式人工智能管理制度的設計應該堅持發展與安全并重[189]、促進創新與依法治理相結合的監管原則[190]。為了進一步促進生成式AI的健康發展,需要堅持發展創新與風險治理并重的原則,確保技術進步與安全、合規和倫理責任相協調,使生成式AI在促進經濟社會進步的同時,符合公共利益和人權保障的要求[191]。
(2)加速AI產業布局,充分激發企業活力
AI產業規模發展迅猛,成為世界各國關注的焦點。2023年,全球AI市場價值超過1300億歐元,預計到2030年將增長至近1.9萬億歐元。美國在AI私人投資方面以625億歐元領先,中國以73億歐元位居次席,而歐盟和英國合計吸引了90億歐元的私人投資[192]。2024年我國政府工作報告提出深化人工智能研發應用,打造具有國際競爭力的數字產業集群[193]。美韓等國也在加速AI制造產業布局,以激發AI在促進生產力提升和產業升級方面的巨大潛能[194]。
企業是技術創新的主體,生成式人工智能發展離不開企業創新賦能。得益于麥肯錫、埃森哲和AIport等機構報告,企業高管已經認識到生成式AI的變革潛力,并計劃加大對人工智能領域的投資力度[195-196]。歐盟報告指出,在全球AI競爭中,中美處于領先地位,歐盟相對落后,建議通過Horizon Europe、Digital Europe、EIC Accelerator和InvestEU計劃為歐洲的初創企業和中小企業提供資金,幫助企業開發可信賴的AI技術,并修改歐洲高性能計算聯合企業(EuroHPC Regulation)的相關限制,以便歐盟公司可以使用AI超級計算機來訓練大型語言模型[192]。歐盟審計部門則發現由于缺乏協調和明確的投資目標,歐盟在AI投資方面沒有跟上全球領導者的步伐;中小企業采用AI技術的基礎設施和資本支持的實施進展緩慢,到審計時尚未產生顯著結果;盡管委員會設法從歐盟預算中增加了對AI研究項目的資金投入,但并未監控這些投資對發展歐盟AI生態系統的貢獻[197]。
研究表明,中國企業領導層對生成式 AI 的認知度正在提升,試點和推廣活動增多,企業內部的知識管理和答疑成為 AI 應用的關鍵場景,但預算投入有限,轉化率有待提高[198-199]。美國則更多地依賴市場驅動的創新模式,注重通過法規和市場力量推動AI技術的發展,同時重視保護個人隱私和數據安全[200]。美國智庫ITIF的報告《中國在人工智能領域的創新能力如何?》指出,中國在AI研究和應用方面取得顯著進展,同時私人部門參與不足抑制了技術商業化轉化率[177]。為了進一步促進我國生成式人工智能的發展和應用,政府應加速AI產業布局,充分激發企業活力,將企業的變革計劃轉化為創新實踐,使其成為生成式人工智能創新發展的主體。
(3)構建多領域、分層次法律架構,在合規的基礎上兼顧敏捷治理
生成式人工智能廣泛應用于許多行業,但是各行業相關法律詞義模糊,制度供給體系雜亂[201],目前實踐只能參照通用性法律法規而少有專門規定可循。立法供給不足和司法裁判機制的缺失[202],監管工具不完善[203],導致司法機關在處理生成式人工智能相關案件時面臨困難。為了應對生成式人工智能帶來的復雜政策和法律挑戰,需要進一步建立和完善法律框架體系[204],針對生成式人工智能的不同應用領域構建多領域、分層次的法律架構,以實現生成式人工智能的分層精準治理。
歐洲在生成式人工智能政策制定方面展現出引領者的姿態,制定了嚴格的合規框架并推動跨大西洋合作,以確保AI技術的發展既符合社會公共利益,又能夠保障基本人權[205]。歐盟在2020年發布的《人工智能白皮書》中提出構建可信賴人工智能生態系統,并確定了七項關鍵要求:人事代理機構和監管,技術魯棒性和安全性,隱私和數據治理,透明性,多樣性、非歧視性公平,社會和環境福祉,問責制[148]。歐盟的政策優先級在于建立信任與維護社會公正[206],其監管模式主要依托法律、法規和指令等實施全面的強監管策略[207]。
為確保生成式人工智能技術在合規框架內具備必要的創新發展靈活性與有效性,可以考慮在法律架構的基礎上引入安全港機制,為技術開發者和企業提供法律保護,減少創新過程中的阻力,從而使人工智能在發展合規的基礎上保持足夠的彈性[208]。
(4)加強國際合作,建立多元包容的共治體系
人工智能的發展和應用具有全球性質,需要各國政府和區域組織共同努力。通過國際合作和制度創新,構建多元協同、包容、敏捷、高效的共治體系,促進生成式人工智能合規、安全的使用[60]。聯合國發布的《以人為本的人工智能治理》報告建議實施問責機制,加強國際合作,以應對人工智能帶來的挑戰和機遇,具體包括建立國際人工智能科學小組、開展政策對話、促進可互操作的治理方法、利用《2030年可持續發展議程》指導人工智能的發展、建立能力發展網絡、創建全球人工智能基金、制定全球人工智能數據框架,并在聯合國秘書處內設立人工智能辦公室等舉措[209]。美國國家科學技術委員會發布的《2020-2024年人工智能研發進展報告》則強調需要國際合作、公私部門合作等方式推動AI進步[186]。2024年,美國、歐盟、英國等10個國家和組織簽署了多邊條約《歐洲委員會人工智能與人權、民主和法治框架公約》,其中包含程序保障、公眾咨詢、數字素養努力和人權侵犯補救等相關規定,通過責任、非歧視、隱私和可靠性等原則確立國際法中關于尊重人權的AI活動的基線[210]。該公約要求簽署國對AI產生的危害和歧視性結果負責,要求評估、管理、監督AI系統全周期內可能產生的影響,并確保透明度和公眾參與,同時AI侵權的受害者應擁有法律追索權。關于AI的發展,中國堅持多邊主義,以總體國家安全觀為指引,朝著構建網絡空間命運共同體的方向,推動人工智能的全球治理朝著普惠、包容、彈性、靈活的方向發展[182]。
(5)推進AI知識普及,提升AI素養和培育AI人才
生成式AI的創新發展不能僅依賴專家和技術開發者,公眾的參與和理解至關重要。政府可以制定政策,促進AI教育,提升公眾對AI技術的認知與理解[44-46]。通過普及AI基礎知識、開展技能培訓和加強信息公開,使更多人了解生成式AI的潛力與風險[211]。同時,將AI理論和實踐納入中小學教育體系,從早期培養公眾的AI素養,為未來的技術應用和社會變革奠定基礎[45]。美國智庫ITIF建議,美國應該加強研發投入和勞動力培訓以保持全球領導地位[212]。ISACA指出,AI可能造成就業替代和技術濫用風險,教育系統需要更新課程和教學方法,政策制定者需要關注弱勢就業群體利益,以確保社會的整體福祉[156]。北京大學提出了一套“通識、通智、通用”人工智能復合型頂尖人才培養框架,旨在為未來打造一支兼具人文素養和專業深度的科技王牌軍[213]。
4 結語
現有研究針對生成式人工智能的核心技術、行業應用、存在風險、政策法規、發展對策展開了大量有益的探索,提出了很多有價值的觀點與思路,但仍存在一些局限,如缺少關于技術的經濟社會影響的定量研究;政策法規對于生成式人工智能技術的促進作用與制約機理研究不足;對AIGC風險的識別與應對研究仍需要深化。未來研究需要在深化技術原理與應用研究的同時,系統評估生成式人工智能技術與經濟社會的交織作用關系,發展適應數據訓練、算法構造、內容生成三階段的風險動態識別與應急管理策略,以促進生成式人工智能合規、負責任、可持續的發展和應用。
參考文獻:
[1] Lv Z.Generative artificial intelligence in the metaverse era[J].Cognitive Robotics,2023,3(2):208-217.
[2] Feuerriegel S,Hartmann J,Janiesch C,et al.Generative ai[J].Business & Information Systems Engineering,2024,66(1):111-126.
[3] Cao Y,Li S,Liu Y,et al.A comprehensive survey of ai-generated content(aigc):A history of generative ai from gan to chatgpt[J].arXiv preprint arXiv:2303.04226,2023.
[4] Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.
[5] Kingma D P.Auto-encoding variational bayes[J].arXiv preprint arXiv:1312.6114,2013.
[6] Ho J,Jain A,Abbeel P.Denoising diffusion probabilistic models[J].Advances in neural information processing systems,2020,33(1):6840-6851.
[7] Mnih V.Playing atari with deep reinforcement learning[J].arXiv preprint arXiv:1312.5602,2013.
[8] Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need.Advances in neural information processing systems[J].Advances in neural information processing systems,2017.
[9] Devlin J.Bert:Pre-training of deep bidirectional transformers for language understanding[J].arXiv preprint arXiv:1810.04805,
2018.
[10] Radford A.Improving language understanding by generative pre-training[J].2018,1(5):1-10.
[11] Radford A,Wu J,Child R,et al.Language models are unsupervised multitask learners[J].OpenAI blog,2019,1(8):9-10.
[12] Brown T B.Language models are few-shot learners[J].arXiv preprint arXiv:2005.14165,2020.
[13] Ouyang L,Wu J,Jiang X,et al.Training language models to follow instructions with human feedback[J].Advances in neural information processing systems,2022,35(1):27730-27744.
[14] OpenAI.Video generation models as world simulators[EB/OL].[2024-08-01].https://openai.com/index/video-generation-models-as-world-simulators/.
[15] Bobrow D.Natural language input for a computer problem solving system[J].1964,1(1):1-5.
[16] Brown P F,Cocke J,Della Pietra S A,et al.A statistical approach to machine translation[J].Computational linguistics,1990,16(2):79-85.
[17] Rabiner L R.A tutorial on hidden Markov models and selected applications in speech recognition[J].Proceedings of the IEEE,1989,77(2):257-286.
[18] Liu Y,Zhang K,Li Y,et al.Sora:A review on background,technology,limitations,and opportunities of large vision models[J].arXiv preprint arXiv:2402.17177,2024.
[19] 清華大學人工智能國際治理研究院.張亞勤:人工智能發展的一些觀點[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/-EFYd98t6TU7j_uRTJJgVQ.
[20] 李彥宏.李彥宏WAIC圓桌訪談:開源模型是智商稅,智能體正在爆發[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/CUoM87LRvlw53M_NxOaiDA.
[21] 梁正.新興技術視域下的人工智能善治——發展現狀、風險挑戰與治理思路[J].人民論壇·學術前沿,2024(14):12-22.
[22] Chen C,Wu Z,Lai Y,et al.Challenges and remedies to privacy and security in aigc:Exploring the potential of privacy computing,blockchain,and beyond[J].ArXiv preprint arXiv:2306.00419,2023.
[23] 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰[J].山東大學學報(哲學社會科學版),2023(3):127-143.
[24] Karras T,Laine S,Aila T.A style-based generator architecture for generative adversarial networks[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition[C].Long Beach,CA,USA,2019,4401-4410.
[25] Castrejon L,Ballas N,Courville A.Hierarchical video generation for complex data[J].ArXiv preprint arXiv:2106.02719,2021.
[26] Oord A,Dieleman S,Zen H,et al.Wavenet:A generative model for raw audio[J].ArXiv preprint arXiv:1609.03499,2016.
[27] Wu J,Gan W,Chen Z,et al.Ai-generated content (Aigc):A survey[J].arXiv preprint arXiv:2304.06632,2023.
[28] Mildenhall B,Srinivasan P P,Tancik M,et al.Nerf:Representing scenes as neural radiance fields for view synthesis[J].Communications of the ACM,2021,65(1):99-106.
[29] 匡文波,姜澤瑋.智能媒體新質生產力:理論內涵、運作邏輯與實現路徑[J].中國編輯,2024,2(7):29-35.
[30] 漆亞林.新質生產力全域賦能:智能媒體高質量發展新路向[J].編輯之友,2024,4(6):74-83.
[31] 胡翼青,黃悠然.生成式人工智能背景下的媒體融合——基于產能的視角[J].中國編輯,2024,1(5):28-34.
[32] Theodore M.NVIDIA unveils PYoCo,a new text-to-video diffusion model[EB/OL].[2024-08-12].https://80.lv/articles/nvidia-unveils-pyoco-a-new-text-to-video-diffusion-model/.
[33] 火山引擎,RollingAI,InfoQ研究中心.生成式AI商業落地白皮書——給CXO的AI轉型戰術指南[EB/OL].[2024-08-12].https://www.infoq.cn/minibook/E2hbDbQTdoffVOGc9PSN.
[34] Adobe.引領變革,Adobe發布全新生成式人工智能Sensei GenAI服務[EB/OL].[2024-07-26].https://www.adobeacp.com/content/news?id=1680873211777063.
[35] 王春英,姚亞,滕白瑩.生成式人工智能嵌入敏捷政府建設:影響、風險與應對[J].北京行政學院學報,2024,11(3):73-83.
[36] Straub V J,Morgan D,Bright J,et al.Artificial intelligence in government:Concepts,standards,and a unified framework[J].Government Information Quarterly,2023,40(4):101881.
[37] 汪波,牛朝文.從ChatGPT到GovGPT:生成式人工智能驅動的政務服務生態系統構建[J].電子政務,2023,1(9):25-38.
[38] 張洪雷.生成式人工智能參與數字政府建設的技術躍遷、目標導向與可行路徑[J].南昌大學學報(人文社會科學版),2023,54(4):100-109.
[39] 北京日報網.昌平政務服務機器人入選“互聯網助力經濟社會數字化轉型”特色案例[EB/OL].[2024-08-01].https://news.bjd.com.cn/2022/12/09/10258790.shtml.
[40] 清華大學圖書館AI服務新體驗[EB/OL].[2024-08-01].https://lib.tsinghua.edu.cn/info/1073/6869.htm.
[41] 深圳市人民政府門戶網站.深圳法院人工智能輔助審判系統打造司法智能化轉型的“深圳樣本”[EB/OL].[2024-08-01].https://www.sz.gov.cn/cn/xxgk/zfxxgj/zwdt/content/post_11399256.html.
[42] 陳雋柏,吳國平,張童,等.語言學視角下人工智能生成內容與用戶生成內容的對比研究——以在線醫療服務場景為例[J/OL].情報理論與實踐,1-13[2024-08-01].http://kns.cnki.net/kcms/detail/11.1762.G3.20240325.1844.004.html.
[43] 北京天壇醫院.北京天壇醫院和北京理工大學團隊合作創建醫學影像大模型首位中文數字放射科醫生誕生[EB/OL].[2024-08-01].https://bifns.bjtth.org/Html/News/Articles/211808.html.
[44] 王帥杰,湯倩雯,楊啟光.生成式人工智能在教育應用中的國際觀察:挑戰、應對與鏡鑒[J].電化教育研究,2024,45(5):106-112.
[45] 齊彥磊,周洪宇.技術、制度與思想:生成式人工智能在教育領域中應用的演進邏輯[J].電化教育研究,2024,45(8):28-34.
[46] 黃榮懷.人工智能大模型融入教育:觀念轉變、形態重塑與關鍵舉措[J].人民論壇·學術前沿,2024(14):23-30.
[47] 清華大學.從“工具”到“伙伴”,當大學課堂多了AI助教[EB/OL].[2024-08-01].https://www.tsinghua.edu.cn/info/1182/110370.htm.
[48] 趙麗,劉寅生.教育對話的技術轉向:嬗遞路徑、應用困頓與范式重構——兼論對ChatGPT的邏輯審視及展望[J].華東師范大學學報(教育科學版),2024,42(8):76-84.
[49] WIRED Middle East.The world’s first fully AI-generated drug aims to treat a deadly lung disease[EB/OL].[2024-07-26].https://wired.me/science/insilico-ai-drug/.
[50] 劉志雄.生成式人工智能賦能普惠金融:現實基礎、關鍵風險挑戰與應對策略[J].人民論壇·學術前沿,2024,5(6):86-93.
[51] 申么,申明浩,丁子家,等.生成式人工智能與銀行業變革:典型事實、實踐問題與破局之策——以ChatGPT為例[J].南方金融,2023,5(11):64-76.
[52] 金評媒.“逼死”交易員:摩根大通的AI機器人都可以執行高頻交易[EB/OL].[2024-08-01].http://www.jpm.cn/article-37348-1.html.
[53] 鄭世林,陶然,楊文博.ChatGPT等生成式人工智能技術對產業轉型升級的影響[J].產業經濟評論,2024,2(1):5-20.
[54] Digital Defynd.20 Generative AI case studies[EB/OL].[2024-07-27].https://www.digitaldefynd.com/generative-ai-case-studies.
[55] 譚曉生.AI如何重塑網絡安全的未來?[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/M99SYg2jGSOv-BiLr9i9Mw.
[56] 劉艷紅.生成式人工智能的三大安全風險及法律規制——以ChatGPT為例[J].東方法學,2023,11(4):29-43.
[57] 支振鋒,劉佳琨.倫理先行:生成式人工智能的治理策略[J].云南社會科學,2024,1(4):60-71.
[58] 丁道勤.生成式人工智能訓練階段的數據法律問題及其立法建議[J].行政法學研究,2024(6):16-28.
[59] 康驍.行政法如何應對生成式人工智能——基于算法、訓練數據和內容的考察[J].云南社會科學,2024,6(4):80-88.
[60] 徐偉,何野.生成式人工智能數據安全風險的治理體系及優化路徑——基于38份政策文本的扎根分析[J/OL].電子政務,1-17[2024-07-29].http://kns.cnki.net/kcms/detail/11.5181.TP.20240516.1831.010.html.
[61] 吳靜.生成式人工智能的數據風險及其法律規制——以ChatGPT為例[J].科技管理研究,2024,44(5):192-198.
[62] Fountain J E.The moon,the ghetto and artificial intelligence:Reducing systemic racism in computational algorithms[J].Government Information Quarterly,2022,39(2):1-17.
[63] Bruno A,Mazzeo P L,Chetouani A,et al.Insights into classifying and mitigating LLMs' hallucinations[J].ArXiv preprint arXiv:2311.08117,2023.
[64] Nangia N,Vania C,Bhalerao R,et al.CrowS-pairs:A challenge dataset for measuring social biases in masked language models[J].ArXiv preprint arXiv:2010.00133,2020.
[65] Hofmann V,Kalluri P R,Jurafsky D,et al.AI generates covertly racist decisions about people based on their dialect[J].Nature,2024,633(8028):147-154.
[66] Shumailov I,Shumaylov Z,Zhao Y,et al.AI models collapse when trained on recursively generated data[J].Nature,2024,631(8022):755-759.
[67] 王良順,李想.生成式人工智能服務提供者的數據安全保護義務研究[J].南昌大學學報(人文社會科學版),2023,54(6):72-83.
[68] 姚璐,武政堯.挑戰與應對:人工智能與國家政治安全[J].中國信息安全,2023,2(7):79-82.
[69] 江輝.論生成式人工智能應用的國家安全審查[J].云南社會科學,2024(4):72-79.
[70] Wang M,Deng W,Hu J,et al.Racial faces in the wild:Reducing racial bias by information maximization adaptation network[A].Proceedings of the ieee/cvf international conference on computer vision[C].2019:692-702.
[71] Hunkenschroer A L,Luetge C.Ethics of AI-enabled recruiting and selection:A review and research agenda[J].Journal of Business Ethics,2022,178(4):977-1007.
[72] Mohammad Amini M,Jesus M,Fanaei Sheikholeslami D,et al.Artificial intelligence ethics and challenges in healthcare applications:a comprehensive review in the context of the European GDPR mandate[J].Machine Learning and Knowledge Extraction,2023,5(3):1023-1035.
[73] 劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019,40(6):55-66.
[74] 楊成越,羅先覺.算法歧視的綜合治理初探[J].科學與社會,2018,8(4):1-12.
[75] 馬海群,張濤.國內外算法風險研究:框架、特征及展望[J/OL].情報理論與實踐,1-11[2024-08-02].http://kns.cnki.net/kcms/detail/11.1762.G3.20240807.1551.004.html.
[76] 曾雄,梁正,張輝.人工智能軟法治理的優化進路:由軟法先行到軟法與硬法協同[J].電子政務,2024,43(6):96-107.
[77] 孫那,鮑一鳴.生成式人工智能的科技安全風險與防范[J].陜西師范大學學報(哲學社會科學版),2024,53(1):108-121.
[78] Chowdhery A,Narang S,Devlin J,et al.Palm:Scaling language modeling with pathways[J].Journal of Machine Learning Research,2023,24(240):1-113.
[79] Perez E,Ringer S,Luko?觢iūtK,et al.Discovering language model behaviors with model-written evaluations[J].ArXiv preprint arXiv:2212.09251,2022.
[80] Chern I,Chern S,Chen S,et al.FacTool:Factuality detection in generative AI--A tool augmented framework for multi-task and multi-domain scenarios[J].ArXiv preprint arXiv:2307.13528,2023.
[81] Schiff D,Borenstein J,Biddle J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection[J].IEEE Transactions on Technology and Society,2021,2(1):31-42.
[82] Wach K,Duong C D,Ejdys J,et al.The dark side of generative artificial intelligence:A critical analysis of controversies and risks of ChatGPT[J].Entrepreneurial Business and Economics Review,2023,11(2):7-30.
[83] Guleria A,Krishan K,Sharma V,et al.ChatGPT:ethical concerns and challenges in academics and research[J].The Journal of Infection in Developing Countries,2023,17(9):1292-1299.
[84] 韓婧,石磊.AIGC背景下的知識產權保護與制度創新[J].科技與出版,2024,23(7):5-6.
[85] 陳曉峰,沈錫賓.生成式人工智能重塑科技期刊產業的影響、挑戰及應對策略研究[J].中國科技期刊研究,2024,35(7):890-898.
[86] Elkins K,Chun J.Can GPT-3 pass a writer’s Turing test?[J].Journal of Cultural Analytics,2020,5(2):1-10.
[87] Walters W H,Wilder E I.Fabrication and errors in the bibliographic citations generated by ChatGPT[J].Scientific Reports,2023,13(1):14045.
[88] Dehouche N.Plagiarism in the age of massive Generative Pre-trained Transformers(GPT-3)[J].Ethics in Science and Environmental Politics,2021,21(1):17-23.
[89] Khalifa M,Albadawy M.Using artificial intelligence in academic writing and research:An essential productivity tool[J].Computer Methods and Programs in Biomedicine Update,2024,21(12):1-18.
[90] 楊彥軍,張佳慧,童慧.數字媒介技術依賴的多學科析因及整合性闡釋[J].電化教育研究,2020,41(8):26-32.
[91] 童慧,楊彥軍.基于“技術道德化”理論的生成式人工智能教育應用潛能與風險研究[J].電化教育研究,2024,45(7):12-18.
[92] Bai L,Liu X,Su J.ChatGPT:The cognitive effects on learning and memory[J].Brain-X,2023,1(3):30-39.
[93] [美]雪莉.特克爾.群體性孤獨:為什么我們對科技期待更多,對彼此卻不能更親密?[M].周逵,劉菁荊,譯.杭州:浙江人民出版社,2014.
[94] 馮子軒.生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學學報,2024,27(1):61-71.
[95] Ca?觡as J J.AI and ethics when human beings collaborate with AI agents[J].Frontiers in psychology,2022,13(1):1-13.
[96] 李韜,周瑞春.生成式人工智能的社會倫理風險及其治理——基于行動者網絡理論的探討[J].中國特色社會主義研究,2023,5(6):58-66.
[97] 何煒.生成式人工智能技術的倫理風險及負責任創新治理研究[J].世界科技研究與發展,2024,46 (4):548-559.
[98] 盧家銀.美德與規范的內在主義協同:生成式人工智能的傳播倫理進路[J].新聞界,2024(8):15-23.
[99] 汝緒華,汪懷君.數字資本主義的話語邏輯、意識形態及反思糾偏[J].深圳大學學報(人文社會科學版),2021,38(2):149-160.
[100] Weidinger L,Uesato J,Rauh M,et al.Taxonomy of risks posed by language models[A].Proceedings of the 2022 ACM Conference on Fairness,Accountability,and Transparency[C].2022:214-229.
[101] 李偉,林彥虎.協助自殺人工智能潛在倫理問題及其有效防治[J].科學技術哲學研究,2023,40(3):122-128.
[102] 封錫盛.機器人不是人,是機器,但須當人看[J].科學與社會,2015,5(2):1-9.
[103] 張玉潔.論人工智能時代的機器人權利及其風險規制[J].東方法學,2017,23(6):56-66.
[104] Putman H,Putnam H.Robots:Machines or artificially created life?[J].The Journal of Philosophy,1964,61(21):668-691.
[105] Hauer T.Machine ethics,allostery and philosophical anti-dualism:will ai ever make ethically autonomous decisions?[J].Society,2020,57(4):425-433.
[106] 張詩濠,李赟,李韜.ChatGPT類生成式人工智能的風險及其治理[J].貴州社會科學,2023,12(11):138-143.
[107] 刁佳星.生成式人工智能服務提供者版權侵權注意義務研究[J].中國出版,2024,8(1):25-30.
[108] 張平.人工智能生成內容著作權合法性的制度難題及其解決路徑[J].法律科學(西北政法大學學報),2024,42(3):18-31.
[109] Gregor S.Responsible artificial intelligence and journal publishing[J].Journal of the Association for Information Systems,2024,25(1):48-60.
[110] 劉倩,王京山,詹洪春.關于生成式人工智能的應用規范研究與啟示——基于國際學術出版界的相關規范政策視角[J].科技與出版,2024(8):27-33.
[111] 澎湃新聞.首例AI生成圖片侵權案始末:原告勝訴放棄賠償,有律師質疑判決[EB/OL].[2024-08-02].https://www.thepaper.cn/newsDetail_forward_25963744.
[112] 張濤.生成式人工智能訓練數據集的法律風險與包容審慎規制[J].比較法研究,2024,16(4):86-103.
[113] 清華大學智能法治研究院.AI訓練數據的合法性邊界:Westlaw訴Ross Intelligence案解讀[EB/OL].[2024-08-02].https://www.secrss.com/articles/65016?app=1.
[114] 新浪財經.韓國出現“深度偽造”技術下的新“N號房”案件,受害者多為未成年人[EB/OL].[2024-08-01].https://finance.sina.com.cn/jjxw/2024-08-29/doc-incmihkh2825937.shtml.
[115] 張濤.生成式人工智能中個人信息保護風險的類型化與合作規制[J].行政法學研究,2024(6):47-59.
[116] 朱榮榮.類ChatGPT生成式人工智能對個人信息保護的挑戰及應對[J/OL].重慶大學學報(社會科學版),1-14[2024-08-01].http://kns.cnki.net/kcms/detail/50.1023.C.20230921.1151.002.html.
[117] 劉霜,祁敏.生成式人工智能的刑事法律風險及其合規治理[J].河南社會科學,2024,32(8):47-58.
[118] 新京報.韓國女性陷入深度偽造AI換臉,人工智能技術生成逼真虛假內容[EB/OL].[2024-08-02].http://epaper.bjnews.com.cn/html/2024-09/02/content_847965.htm.
[119] McAfee.Beware the Artificial Impostor Report[R/OL].[2024-07-27].https://www.mcafee.com/content/dam/consumer/en-us/resources/cybersecurity/artificial-intelligence/rp-beware-the-artificial-impostor-report.pdf.
[120] 機器之心.李飛飛親自撰文,數十名科學家簽署聯名信,反對加州AI限制法案[EB/OL].[2024-08-12].https://mp.weixin.qq.com/s/EkxZ-r4-Swaj5l8ioJyQ7Q.
[121] Bontridder N,Poullet Y.The role of artificial intelligence in disinformation[J].Data & Policy,2021,32(3):1-14.
[122] Benzie A,Montasari R.Artificial intelligence and the spread of mis-and disinformation[M].Artificial intelligence and national security.Cham:Springer International Publishing,2022:1-18.
[123] 向征.“黑鏡”中的對壘:生成式人工智能背景下網絡意識形態風險與防范[J].社會科學戰線,2024,23(4):18-24.
[124] 張愛軍,王芳.人工智能視域下的深度偽造與政治輿論變異[J].河海大學學報(哲學社會科學版),2021,23(4):29-36,106.
[125] Trandab?D,Gifu D.Discriminating AI-generated fake news[J].Procedia Computer Science,2023,225(1):3822-3831.
[126] 魏俊斌.網絡輿情智能生成風險防控的PDRR體系構建[J].南京社會科學,2024(6):76-87.
[127] 黃日涵,姚浩龍.“再塑造”與“高風險”:生成式人工智能對輿論安全的影響[J].情報雜志,2024,43(4):121-127.
[128] 孫成昊,譚燕楠.生成式人工智能對美國選舉宣傳的介入:路徑、場景與風險[J].世界經濟與政治論壇,2024,12(4):1-22.
[129] 周文培.論人工智能大模型在國際傳播中的實踐與應用[J].傳播與版權,2023,7(24):52-55.
[130] 何茂昌.ChatGPT的意識形態風險:樣態、肇因及防范[J].西南民族大學學報(人文社會科學版),2023,44(12):188-197.
[131] 張楚凡,張佳琳.數字政府建設與ChatGPT模型的互動研究——基于問題、法治與規制視角分析[J/OL].重慶大學學報(社會科學版),1-17[2024-08-02].http://kns.cnki.net/kcms/detail/50.1023.C.20240118.1741.004.html.
[132] 鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術發展的經濟和社會影響[J].產業經濟評論,2023,6(3):5-21.
[133] 孫偉平,劉航宇.生成式人工智能與知識生產方式的革命——從Sora的沖擊波談起[J].思想理論教育,2024,21(5):12-18.
[134] 徐國慶,蔡金芳,姜蓓佳,等.ChatGPT/生成式人工智能與未來職業教育[J].華東師范大學學報(教育科學版),2023,41(7):64-77.
[135] 吳冰藍,周麗萍,岳昌君.ChatGPT/生成式人工智能與就業替代:基于高校大學生能力供求的視角[J].教育發展研究,2023,43(19):40-48.
[136] 丁國峰,壽曉明.生成式人工智能算法的法律風險及其規范化防控[J].云南大學學報(社會科學版),2024,23(3):107-119.
[137] 楊亞紅,孫巖,余黨會.學術出版行業生成式人工智能作品相關責任與風險分析研究綜述[J].中國科技期刊研究,2023,34(12):1601-1607.
[138] 孫榕,李白楊.生成式人工智能(GAI)背景下的新型數字鴻溝識別框架研究[J/OL].圖書情報知識,1-12[2024-08-02].http://kns.cnki.net/kcms/detail/42.1085.G2.20240321.1548.002.html.
[139] 崔中良.生成式人工智能作為敘事主體的社會風險及治理[J].云南社會科學,2024,12(2):47-58.
[140] 李希梁,張欽昱.生成式人工智能的反壟斷規制[J].電子政務,2024,2(5):53-63.
[141] H?觟ppner T,Streatfeild L.ChatGPT,Bard & Co.:An introduction to AI for competition and regulatory lawyers[EB/OL].[2024-07-12].https://ssrn.com/abstract=4371681.
[142] 新華網.美歐英關于生成性人工智能基礎模型和人工智能產品競爭的聯合聲明[EB/OL].[2024-08-12].http://www.news.cn/world/20240724/d1124218f501455d8dd63140db54f31c/c.html.
[143] NIST.AI 100-1:Artificial Intelligence Risk Management Framework(AI RMF 1.0)[EB/OL].[2024-08-12].https://doi.org/10.6028/NIST.AI.100-1.
[144] 張旭芳.生成式人工智能的算法安全風險及治理路徑[J].江西社會科學,2024(8):90-100.
[145] 王芳.論政府主導下的網絡社會治理[J].人民論壇.學術前沿,2017(7):42-53,95.
[146] 何宇華,李霞.生成式人工智能虛假信息治理的新挑戰及應對策略——基于敏捷治理的視角[J].治理研究,2024,40 (4):142-156.
[147] 商湯人工智能倫理與治理委員會.“平衡發展”的人工智能治理白皮書——商湯人工智能倫理治理年度報告(2022年)[R/OL].[2024-08-02].https://www.sohu.com/a/791841367_121823480.
[148] European Commission.White Paper:On Artificial Intelligence-A European approach to excellence and trust(2020)[EB/OL].[2024-08-12].https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial-intelligence-feb2020_en.pdf.
[149] 阿里巴巴人工智能治理與可持續發展研究中心.生成式人工智能治理與實踐白皮書[R/OL].[2024-07-23].https://hub.baai.ac.cn/view/33508.
[150] European Commission.High-level summary of the AI Act(2024)[EB/OL].[2024-08-12].https://artificialintelligenceact.eu/high-level-summary/.
[151] 中國信息通信研究院政策與經濟研究所.大模型治理藍皮報告——從規則走向實踐[R/OL].[2024-08-02].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/P020231124526622371194.pdf.
[152] 張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法學,2023,45 (3):108-123.
[153] 劉鑫,畢超.人工智能大模型的數據治理[J].信息安全與通信保密,2024,3(6):45-55.
[154] 陳銳,江奕輝.生成式AI的治理研究:以ChatGPT為例[J].科學學研究,2024,42 (1):21-30.
[155] 經濟合作與發展組織.OECD 人工智能原則概覽[EB/OL].[2024-08-02].https://oecd.ai/en/ai-principles.
[156] ISACA.The promise and peril of the AI revolution:managing risk[R/OL].[2024-08-02].https://www.isaca.org/resources/white-papers/2023/the-promise-and-peril-of-the-ai-revolution.
[157] 上海人工智能實驗室.周伯文:探索人工智能45°平衡律[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/US5vXn1FJ
Tu-9iMO_bJ48w.
[158] 高志宏.回應與超越:生成式人工智能法律規制——以《生成式人工智能服務管理暫行辦法》為視角[J].社會科學輯刊,2024,3(5):121-130.
[159] Albert J.Not a solution:Meta’s new AI system to contain discriminatory ads[EB/OL].[2024-07-23].https://algorithmwatch.org/en/meta-discriminatory-ads/.
[160] 葉蓁蓁.開創研發應用新范式探索“用AI治理AI”——探討智能互聯網時代AI應用和治理之道[J].傳媒,2023(11):12-13.
[161] Huang L,Yu W,Ma W,et al.A survey on hallucination in large language models:Principles,taxonomy,challenges,and open questions[J].ArXiv preprint arxiv:2311.05232,2023.
[162] Zhang X,Peng B,Tian Y,et al.Self-alignment for factuality:Mitigating hallucinations in LLMs via self-evaluation[J].ArXiv preprint arXiv:2402.09267,2024.
[163] Yehuda Y,Malkiel I,Barkan O,et al.InterrogateLLM:Zero-resource hallucination detection in LLM-generated Answers[A].Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics,Bangkok,Thailand[C].2024:9333-9347.
[164] Dhuliawala S,Komeili M,Xu J,et al.Chain-of-verification reduces hallucination in large language models[J].ArXiv preprint arXiv:2309.11495,2023.
[165] Reuel A,Undheim T A.Generative AI needs adaptive governance[J].arXiv preprint arXiv:2406.04554,2024.
[166] Policy practice and digital science:Integrating complex systems,social simulation and public administration in policy research[M].Springer,2015.
[167] 童云峰.生成式人工智能技術風險的內部管理型規制[J/OL].科學學研究,1-13[2024-07-29].https://doi.org/10.16192/j.cnki.1003-2053.20240304.001.
[168] Deloitte.State of Generative AI in the Enterprise:Q3 Report[R/OL].[2024-08-02].https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-generative-ai-in-enterprise.html.
[169] Buiten M,De Streel A,Peitz M.The law and economics of AI liability[J].Computer Law & Security Review,2023,48(1):1-23.
[170] 姚志偉,李卓霖.生成式人工智能內容風險的法律規制[J].西安交通大學學報(社會科學版),2023,43(5):147-160.
[171] Song H.Legal Risks and Governance Path of Generative Artificial Intelligence[J].Journal of Beijing Institute of Technology (Social Sciences Edition),2024,26(3):134-143.
[172] Zhu S,Ma G.The Chinese path to generative AI governance[J].Available at:SSRN 4551316.
[173] European Commission.AI Act enters into force[EB/OL].[2024-08-02].https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en.
[174] 朱倩倩,張振乾,高云龍.我國人工智能安全檢測能力現狀及治理建議[J].信息安全與通信保密,2024(5):62-68.
[175] 張學府.生成式人工智能服務信息內容安全的三類標準——基于《生成式人工智能服務管理暫行辦法》的分析[J].中國行政管理,2024(4):120-128.
[176] 劉鑫.人工智能生成技術方案的專利法規制——理論爭議、實踐難題與法律對策[J].法律科學(西北政法大學學報),2019,37(5):82-92.
[177] Genus A,Stirling A.Collingridge and the dilemma of control:Towards responsible and accountable innovation[J].Research policy,2018,47(1):61-69.
[178] 沈芳君.生成式人工智能的風險與治理——兼論如何打破“科林格里奇困境”[J].浙江大學學報(人文社會科學版),2024,54(6):73-91.
[179] 顧男飛.生成式人工智能發展的產業促進與風險規制——以Sora為例[J/OL].圖書館論壇,1-9[2024-08-01].http://kns.cnki.net/kcms/detail/44.1306.G2.20240508.1109.004.html.
[180] 朱旭峰,樓聞佳.發展還是監管?人工智能政策的國際比較研究[J].學海,2024(4):76-85.
[181] 胡小勇,朱敏捷,陳孝然,等.生成式人工智能教育應用政策比較:共識、差異與實施進路[J].中國教育信息化,2024,30(6):3-11.
[182] Li J,Cai X,Cheng L.Legal regulation of generative AI:a multidimensional construction[J].International Journal of Legal Discourse,2023,8(2):365-388.
[183] Ferrari F,van Dijck J,van den Bosch A.Observe,inspect,modify:Three conditions for generative AI governance[J].New Media & Society,2023:14614448231214811.
[184] 沈逸,高瑜.大國競爭背景下的人工智能安全治理與戰略穩定[J].國際展望,2024(3):50.
[185] The White House.National Artificial Intelligence research and development strategic plan:2023 Update[EB/OL].[2024-07-21].https://www.whitehouse.gov/wp-content/uploads/2023/05/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf.
[186] National Science and Technology Council.Artificial Intelligence research and development interagency working Group.2020-2024 Progress Report:Advancing Trustworthy Artificial-Intelligence Research and Development[R/OL].[2024-07-22].https://www.nitrd.gov/pubs/AI-Research-and-Development-Progress-Report-2020-2024.pdf.
[187] Roberts H,Cowls J,Hine E,et al.Governing artificial intelligence in China and the European Union:Comparing aims and promoting ethical outcomes[J].The Information Society,2023,39(2):79-97.
[188] 洪延青.我國生成式AI新規的認識和理解之十三:立法的中美歐比較[EB/OL].[2024-07-19].https://mp.weixin.qq.com/s/RwSt8b7L5Ceznr1Vaht1Xw.
[189] 徐磊.發展與安全并重:生成式人工智能風險的包容審慎監管[J].理論與改革,2024,12(4):67-83.
[190] 和軍,楊慧.ChatGPT類生成式人工智能監管的國際比較與借鑒[J].湖南科技大學學報(社會科學版),2023,26(6):119-128.
[191] 中國日報網.AI治理:平衡發展與風險,邁向全球共治[EB/OL].[2023-07-18].https://column.chinadaily.com.cn/a/202407/18/WS6698a9c1a3107cd55d26b9a3.html.
[192] Madiega T,Ilnicki R.AI investment:EU and global indicators.European Parliamentary Research Service[R/OL].[2024-08-02].https://www.europarl.europa.eu/thinktank/en/document/EPRS_ATA(2024)760392_EN.
[193] 國務院.深化大數據、人工智能與實體經濟融合發展指導意見[EB/OL].[2024-07-22].https://www.gov.cn/gongbao/202
4/issue_11246/202403/content_6941846.html.
[194] 韓國產業通商資源部.韓政府成立“AI自主制造聯盟”加速AI與制造業融合[EB/OL].[2024-07-19].http://kr.mofcom.gov.cn/article/jmxw/202407/20240703524978.shtml.
[195] AIport.Global GenAI Landscape 2024:Roughly Half of Nations That Invest in AI Develop Generative Models[R/OL].[2024-08-02].https://hackernoon.com/global-genai-landscape-2024-roughly-half-of-nations-that-invest-in-ai-develop-generative-models.
[196] Chui M,Hazan E,Yee L,et al.生成式AI的突破之年[R/OL].[2024-07-30].https://www.mckinsey.com.cn/wp-content/uploads/2023/09/%E7%94%9F%E6%88%90%E5%BC%8FAI%E7%9A%84%E7%AA%81%E7%A0%B4%E4%B9%8B%E5%B9%B4_2023-%E9%87%91%E8%9E%8D%E5%AD%A3%E5%88%8AGenAI0908.pdf.
[197] European Court of Auditors.Special report 08/2024:EU Artificial intelligence ambition[R/OL].[2024-08-02].https://www.eca.europa.eu/en/publications?ref=SR-2024-08.
[198] 王小林,謝妮蕓.未來產業:內涵特征、組織變革與生態建構[J].社會科學輯刊,2023,13(6):173-182.
[199] 董華,張皓越,高愛宇.生成式人工智能大模型賦能傳統出版企業轉型升級路徑研究——基于扎根理論的質性研究[J].出版科學,2024,32(4):37-46.
[200] Hine E,Floridi L.Artificial intelligence with American values and Chinese characteristics:a comparative analysis of American and Chinese governmental AI policies[J].AI & SOCIETY,2024,39(1):257-278.
[201] 胡玲,馬忠法.論我國企業數據合規體系的構建及其法律障礙[J].科技與法律,2023,1(2):42-51.
[202] Tourki Y,Keisler J,Linkov I.Scenario analysis:a review of methods and applications for engineering and environmental systems[J].Environment Systems & Decisions,2013,33(1):3-20.
[203] 宋華健.論生成式人工智能的法律風險與治理路徑[J].北京理工大學學報(社會科學版),2024,26(3):134-143.
[204] Migliorini S.China's Interim Measures on generative AI:Origin,content and significance[J].Computer Law & Security Review,2024,53(1):1-10.
[205] 丁曉東.人工智能風險的法律規制——以歐盟《人工智能法》為例[J].法律科學(西北政法大學學報),2024,42(5):3-18.
[206] Hu S,Li Y.Policy Interventions and Regulations on Generative Artificial Intelligence:Key Gaps and Core Challenges[A].Proceedings of the 25th Annual International Conference on Digital Government Research[C].2024:1034-1036.
[207] 陳鳳仙,連雨璐,王娜.歐美人工智能監管模式及政策啟示[J].中國行政管理,2024(1):77-88.
[208] 汪慶華,胡臨天.生成式人工智能責任機制的技術與法律建構[J].中國法律評論,2024(4):114-130.
[209] UN.Advisory Body on Artificial Intelligence.Governing AI for humanity:Final report[R/OL].[2024-07-22].https://digitallibrary.un.org/record/4042280?v=pdf.
[210] United States Department of State.The council of Europe’s framework convention on Artificial Intelligence and human rights,democracy,and the rule of law[EB/OL].[2024-08-11].https://www.state.gov/the-council-of-europes-framework-convention-on-artificial-intelligence-and-human-rights-democracy-and-the-rule-of-law/.
[211] Casal-Otero L,Catala A,Fernández-Morante C,et al.AI literacy in K-12:a systematic literature review[J].International Journal of STEM Education,2023,10(1):29-31.
[212] Omaar,Hodan.How innovative is China in AI?Information Technology and Innovation Foundation[R/OL].[2024-08-02].https://www2.itif.org/2024-chinese-ai-innovation.pdf.
[213] 人民資訊.北京大學發布《人工智能人才培養方案》[EB/OL].[2024-08-15].https://sai.pku.edu.cn/info/1082/2018.htm.
作者簡介:王芳,女,南開大學商學院、南開大學網絡社會治理研究中心教授,博士生導師;朱學坤,男,南開大學商學院信息資源管理系博士研究生;劉清民,男,南開大學商學院信息資源管理系博士研究生;岳之楠,男,南開大學商學院信息資源管理系博士研究生;王美權,女,南開大學商學院信息資源管理系博士研究生;張馨月,女,南開大學商學院信息資源管理系博士研究生;楊天德,男,南開大學商學院信息資源管理系博士研究生;馬鑫,男,南開大學商學院信息資源管理系博士研究生;張超,男,南開大學商學院信息資源管理系博士研究生。