繆青海 王興霞, 楊 靜, 趙 勇 王雨桐 陳圓圓 田永林 俞 怡 林懿倫 鄢 然 馬嘉琪 那曉翔 王飛躍,
繼ChatGPT[1]之后,視頻生成大模型Sora 又一次掀起了全球智能化浪潮[2-3].Sora 借助跨模態基礎模型(Foundation model)的強大能力,初步展現出世界模擬器的潛力,加速從語言智能向想象智能的轉變.在此背景下,生成式人工智能(Generative artificial intelligence,GenAI)作為實現通用人工智能(Artificial general intelligence,AGI)的重要方式之一,成為各國重點關注的領域.近年來,我國高度重視新質生產力的發展,在生成式人工智能領域也呈現出“百模大戰”的繁榮局面,但在創新首發、最高水準等方面整體水平距離世界先進仍有不小差距.因此,應對挑戰,從算力、數據、算法、人才、產業、安全、治理等方面探討應對策略,成為當務之急.
本文首先簡述國內外生成式人工智能的起源、發展與現狀,在此基礎上從數據、算力、算法、生態等方面對中外生成式人工智能發展進行對比、分析.面對我國生成式人工智能所面臨的挑戰,討論相應的對策,特別是探討區塊鏈技術、DAO 與DeSci機制對于建立智能聯邦生態和基礎智能系統的重要意義,最后展望生成式人工智能的未來發展與社會影響.
基于大模型的生成式人工智能(GenAI)涉及多種算法、模型和理論,而深度學習則是構建這些模型的基石.深度學習利用多層神經網絡來學習輸入數據中的復雜模式和規律,實現了對數據特征的高效提取和表示[4].深度學習的研究歷史可以追溯到上世紀50 年代和60 年代,由于當時計算資源有限、數據稀缺以及算法的限制,深度學習并沒有受到廣泛的關注和應用.直到20 世紀末和21 世紀初,隨著計算機性能的提升和大規模數據的可用性增加,卷積神經網絡(CNNs)[5]、循環神經網絡(RNNs)[6]、深度信念網絡(Deep belief networks)[7]等深度學習模型先后被提出,尤其是在2012 年,AlexNet在ImageNet 數據集上取得了顯著的性能提升[8],引發了廣泛的關注和熱議,深度學習開始逐漸成為人工智能領域的研究熱點.深度學習的另一個里程碑是Vaswani 等于2017 年提出Transformer[9],其引入了自注意力機制(Self-Attention mechanism),使得模型能夠在不依賴于序列位置的情況下對自然語言序列中的單詞進行建模,有效地捕捉長距離依賴關系.Transformer 不僅被應用于機器翻譯、語言建模、文本生成等自然語言處理任務,還被廣泛應用于圖片、視頻、語音處理與分析等多個領域[10-12].
隨著Transformer 的出現,深度學習模型規模迅速擴大,BERT、GPT 等一系列預訓練語言大模型在自然語言處理領域取得突破性進展,在包括文本生成、問答、閱讀理解、邏輯推理等幾乎所有自然語言處理任務上取得了最高技術水平 (State of the art,SOTA)[13-22].在此基礎上,OpenAI 開發了基于GPT-3.5 及以上版本的ChatGPT,由于其出色的對話生成性能,引發了人們對智能對話系統的廣泛興趣和關注,成為了近年來研究和應用領域的熱點之一.隨著基于Transformer 的預訓練模型在自然語言處理領域取得成功,該技術在計算機視覺和多模態預訓練模型領域也開始得到應用,并展現出了出色的性能[23-24].
另一方面,擴散模型(Diffusion models)[25]也是一類生成式人工智能模型,它們通過模擬數據的擴散過程來生成新的樣本.這些模型的工作原理類似于物理學中的擴散過程,即從高濃度區域向低濃度區域逐漸擴散,直至達到平衡狀態.在生成任務中,擴散模型通常從一個隨機噪聲分布開始,然后逐步引導這個噪聲向目標數據分布轉變.這個過程可以通過迭代的方式進行,每一步都會使噪聲更加接近真實的數據分布.具體來說,擴散模型包含兩個主要階段: 正向擴散(Forward process)和反向生成(Reverse process).擴散模型在圖像生成、文本生成等領域表現出色,能夠生成高質量的樣本.與其他生成模型如生成對抗網絡(GANs)和變分自編碼器(VAEs)相比,擴散模型具有獨特的優勢,例如更好的樣本多樣性和更平滑的生成過程.
表1 列出了國外典型的GenAI 模型.在自然語言處理領域,2018 年是大語言模型(LLMs)發展的重要節點.OpenAI 和Google 相繼推出了基于Transformer 的GPT-1 和BERT 模型[10-11],為這一領域的發展奠定了基礎.GPT 和BERT 模型的發布引領了大語言模型的發展方向.隨后,RoBERTa 對BERT進行了改進和優化,通過改進掩碼方式、增加數據集規模和優化訓練方法,提升了在多個自然語言處理任務上的性能[26].BART 結合了編碼器解碼器結構和掩碼語言模型的訓練方式,能夠同時處理生成和填充任務[27].T5 則通過轉換器架構實現了多種任務的統一模型,進一步提高了自然語言處理任務的效率和性能[28].GPT 系列模型采用了自回歸生成方式,其中模型會逐步生成文本,每個詞的生成都依賴于先前生成的內容[29].這種生成方式使得GPT模型在文本生成任務中表現突出,尤其在生成連貫、自然的文本方面效果顯著.2023 年3 月發布的GPT-4 具備多模態輸入輸出能力,能夠處理文字、圖像和語音數據[30].Google 隨后推出了PaLM 2,通過強化邏輯和推理訓練,該模型在某些邏輯和推理任務上超越了GPT-4[31].在開源大語言模型領域,Llama系列模型是典型代表,Meta 于2023 年6 月發布的Llama 2 在性能上接近于GPT-3.5[32-33].大語言模型最新的進展是Anthropic 于2024 年3 月發布了Claude 3,該模型在多項任務上超越了GPT-4[34].

表1 國外主要GenAI 模型Table 1 Typical foreign GenAI models
隨著大語言模型在自然語言處理領域的成功應用,人們開始探索將這些模型擴展到計算機視覺領域.與傳統的卷積神經網絡(CNN)模型相比,Vision Transformer (ViT)模型通過引入自注意力機制,并利用更大規模數據集進行學習,在包括圖像分類、目標檢測、語義分割、圖像生成和視頻摘要等多個領域實現了顯著的精度提升[35].OpenAI 在2021 年1 月發布了DALL·E 模型,該模型根據給定的文本描述生成與描述相匹配的圖像.隨后,擴散模型逐步受到關注,OpenAI 在2022 年4 月、2023 年9 月先后發布了DALL·E 2 和DALL·E 3 模型,進一步提升了圖像生成的準確性和創意性[36-37].Stability AI 在2022 年8 月發布了Stable Diffusion 模型[38],該模型在生成圖像時具有更好的穩定性和控制性,被視為圖像生成發展過程中的一個里程碑事件.相比于圖像生成更多地關注單個靜態圖像的質量和內容,視頻生成除了要考慮靜態內容的生成外,還需要考慮時間維度上的連續性和動態變化,因而模型需要更深層次地理解時間序列數據,并能夠準確地預測和生成未來的幀.在近幾年的研究中,視頻生成領域涌現出多項引人注目的模型和技術,為視頻內容的創作和生成開辟了新的前景.Meta 于2022 年9 月發布了Make-A-Video 模型,該模型以其卓越的視頻生成能力為用戶提供了高質量視頻內容的創作平臺[39].隨后,在2023 年2 月,Runway 公司推出了Gen-2 模型,該模型通過引入創新的算法和訓練技術,進一步提升了視頻生成的質量和多樣性.Google 于2024 年1 月發布了基于擴散模型的Lumiere,利用Space-Time U-Net(STUNet) 架構捕捉視頻中的時空信息,有效提高了視頻的長度、運動的連貫性和一致性[40].近期,OpenAI 發布了Sora 模型,引發了全球的關注,該模型生成的畫面可以很好地展現場景中的光影關系,物體間的物理遮擋、碰撞關系[41].
通過上述分析,我們認為生成式人工智能(GenAI)研發范式與之前的深度學習有著明顯的不同之處.在過去,深度學習的理論與算法研究主要由大學和學術界參與,而生成式人工智能的發展主要由包括OpenAI,Google,Meta,Anthropic,Midjourney和Stability AI 在內的多家公司推動.這些公司在生成式人工智能領域投入了大量資源,并通過研發和商業應用推動了技術的進步和應用,使得生成式人工智能能夠更快地從實驗室走向市場,并在各個領域取得廣泛的應用和影響.
自2022 年11 月30 日ChatGPT 面世以來,國產大模型迅速涌現,呈現出百家爭鳴的態勢.如圖1所示,不論是工業界還是學術界,都紛紛推出具有各自特色的大模型,并持續進行迭代與升級.百度于2019 年首次推出文心1.0 通用大模型[42],該模型當前已升級至4.0 版本.阿里云、華為、騰訊、科大訊飛等廠商相繼推出通義千問[43]、盤古[44]、混元1https://hunyuan.tencent.com/、星火2https://xinghuo.xfyun.cn/等大模型并向公眾開放.在這場“百模大戰”中,不少初創企業也展現出了令人矚目的成績,如2023 年4 月成立的北京月之暗面科技有限公司,其發布的Kimi 智能助手3https://kimi.moonshot.cn/大模型一經推出即支持高達20 萬漢字的無損上下文長度,并在最新版本中將此指標擴展至驚人的200 萬漢字,引起了廣泛關注.除此之外,學術界也在積極參與國產大模型的研究當中,例如中國科學院自動化所于2021 年6月發布的全球首個圖文音(視覺-文本-語音)三模態預訓練模型——紫東太初大模型4https://taichu-web.ia.ac.cn/,北京智源研究院的悟道大模型5https://www.baai.ac.cn/,以及上海人工智能實驗室與復旦大學等單位于2023 年6 月聯合發布的書生·浦語通用大模型(InternLM)[45].當前,國產通用大模型已不乏百億,甚至千億參數量級的選手.為了促進國產大模型技術與市場的進一步發展,一些廠商提供了開源版本的大模型,例如阿里云的Qwen 系列開源模型,零一萬物的Yi 系列開源模型6https://www.lingyiwanwu.com/,以及智譜華章公司的GLM 系列7https://zhipuai.cn/,科大訊飛的iFlytekSpark 系列,百川智能的Baichuan 系列[46]等.

圖1 國產大模型發展全景Fig.1 Panorama of the development of domestic large models
在專用領域大模型方面,國內的大模型主要集中在工業、醫學、金融、交通、教育、農業、傳媒、司法、AI4S 等領域[47-63],如圖1 所示.
1)在AI4S 領域,華為盤古氣象大模型基于39年的全球氣象數據開發了基于三維深度神經網絡和地球特定先驗知識的實時氣象預測系統,在預測精度上首次超越傳統的基于數值的預測方法[64].華東師范大學的研究者構建了ChenGPT1.08https://www.ecnu.edu.cn/info/1426/65145.htm,可以實現化學專業知識、生物醫藥以及通用領域的知識問答.上海交通大學發布的白玉蘭科學大模型BAIChem9https://www.seiee.sjtu.edu.cn/index_news/8667.html,能夠實現快速高效的藥物分子設計,并在逆合成、產率預測、催化劑推薦等任務上取得了較高準確率.
2)在教育領域,華東師范大學和北京語言大學在預訓練大模型的基礎上,分別建立EduChat[65]和桃李教育大模型10https://github.com/blcuicall/taoli,能夠實現考題設計與解答、課程咨詢問答等功能.學而思開發了九章大模型(Math-GPT)11https://www.mathgpt.com/能夠解決數學課程中的習題并提供解題思路.網易有道發布了子曰教育大模型12https://ziyue.youdao.com//home,支持聽說讀寫等多任務的智能培訓.
3)在工業領域,中國科學院大連化物所發布了化工大模型13http://dicp.cas.cn/xwdt/kyjz/202403/t20240324_7050498.html,能實現化工知識問答、化工流程自動生成等功能.中工互聯公司針對工業領域的故障預測、智能維護、方案優化等任務,構建了“智工”大模型14http://www.ciictec.com/ciigpt,成為中國工業領域首個開源大語言模型.中煤科工西安研究院利用礦井信息系統,構建了地質垂直領域大模型——GeoGPT15http://www.cctegxian.com/html/news/2023-12-18/4185.html,實現地質行業知識問答,并成功應用于透明地質保障任務中.
4)在醫學領域,華南理工大學構建了生活空間健康大模型“扁鵲”(BianQue)[66]和心理健康大模型“靈心”(SoulChat)[67],分別用于生理健康診斷問答以及心理健康咨詢.香港中文大學基于中文問診數據,構建了華佗GPT 模型[68],用于智能醫療問答.浙江大學的研究團隊構建了啟真醫療大模型16https://github.com/CMKRG/QiZhenGPT.醫聯科技推出了medGPT 大模型17http://web-qa.medlinker.com/pc/product/medgpt,能夠對近3 000種疾病進行初步診斷.在中醫藥大模型方面,百度健康與固生堂聯合發布了岐黃問道大模型18http://www.dajingtcm.com/node/21;華東師范大學研發神農中醫藥大模型(ShenNong-TCM)19https://github.com/ywjawmw/TCMEB;復旦大學和同濟大學合作研發了仲景中醫大語言模型(CMLM-ZhongJing)20https://github.com/SupritYoung/Zhongjing.
5)在金融領域,中國科學院成都計算機應用研究所開發了用于金融知識問答的大模型“聚寶盆”21https://github.com/jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese.git.度小滿發布了中文金融領域的首個千億級開源大模型“軒轅”[69].恒生電子發布了金融大模型LightGPT22https://www.hundsun.com/lightgpt.瀾舟科技發布了以金融為核心應用的孟子大模型23https://www.langboat.com/portal/mengzi-gpt.香港科技大學研發了面向投資的金融大模型InvestLM24https://github.com/AbaciNLP/InvestLM.
政策面上,為了國產大模型的規范化和健康化發展,國家網信辦聯合國家發展改革委、教育部、科技部等七部門聯合發布《生成式人工智能服務管理暫行辦法》,規定對生成式AI 大模型實施“備案制”管理.此外,為了滿足當前國產大模型發展所引發的巨大算力需求,我國陸續出臺了《全國一體化大數據中心協同創新體系算力樞紐實施方案》、《算力基礎設施高質量發展行動計劃》、《“十四五”數字經濟發展規劃》等一系列文件推動算力基礎設施建設.
為了增強對蓬勃發展的國產大模型的認識,新華社研究院中國企業發展研究中心于2023 年發布了三版《2023 年人工智能大模型體驗報告》,回顧了大模型產品市場的激烈競爭,并對當前大模型產品和廠商進行了整體測評.同時,多個機構也推出了各自的大模型評測體系和排行榜,如“司南” (Open-Compass)、C-Eval、SuperCLUE 等,從中不難看出,廠商間的競爭激烈,得分頻繁變動,這不僅展現了國產大模型的競爭態勢,也彰顯了該行業的活力與吸引力.
本節在分析國內外進展的基礎上,從算力、數據、算法以及產業生態等四個維度對中美生成式AI 領域現狀進行對比.由表2 可見中美之間存在顯著差異,美國領先優勢明顯.

表2 中美生成式AI 領域現狀Table 2 Current status of generative AI fields in China and the United States
首先,在算力方面,美國企業英偉達占據全球AI 計算的壟斷地位,而華為在中國AI 計算領域最為領先.目前,雙方主力計算卡分別是英偉達的H100(SXM)25https://resources.nvidia.com/en-us-tensor-core/nvidia-tensorcore-gpu-datasheet和華為的昇騰Ascend 910 系列26https://e.huawei.com/cn/products/computing/ascend.以AI 計算基準精度FP16 來看,H100(SXM)算力達到了1 979 TFLOPS,華為Ascend 910 為280 TFLOPS;以大模型訓練所倚重的顯存來看,H100(SXM)具有80 G 第三代高帶寬顯存HBM3,華為Ascend 910 為16 G DDR4,而內存類型的不同帶來更大差距;卡間互聯數據傳輸帶寬是訓練大模型的重要瓶頸之一,H100(SXM)憑借英偉達獨有的NVLINK技術具有900 GB/s 的帶寬,昇騰910 的帶寬參數不詳.除此之外,驅動、算子及API 接口是發揮硬件設備并行計算能力的支撐要素,是AI 算法的基石.英偉達的計算統一設備架構CUDA,自2006 年創建后不斷迭代、性能完善、用戶眾多,在此基礎上發展出CuDNN 等專用庫,已形成軟硬件協同的生態優勢.而華為自研的異構計算架構CANN 自2018年發布,起步較晚,功能正在逐步完善.需要注意的是,英偉達在2023 年中發布了H20027https://www.nvidia.com/en-us/data-center/h200/,第三代HBM顯存容量提升到141 G,大模型(Llama2 70B)的推理速度相比H100 翻倍.2024 年3 月,英偉達發布新一代GB200 Grace Blackwell 計算核心28https://www.nvidia.com/en-us/data-center/gb200-nvl72/,半精度FP16 算力達到10 000 TFLOPS,顯存容量達到384 G,大模型訓練性能大幅提升.華為的升級版本Ascend 910B 和920 系列在算力、顯存方面都有提升,但具體數據沒有公布.在短期內,國內外算力差距進一步拉大.
其次,在訓練數據方面,美國已經形成了政府、社會之間職責清晰、分工明確、相互合作的運行機制29阿里研究院《中美大模型的競爭之路: 從訓練數據講起》報告..一方面,政府建立數據開放平臺,負責維護和管理,確保數據質量,提高可用性,降低公眾使用門檻.例如,PubMed30https://pubmed.ncbi.nlm.nih.gov/論文檢索系統包含了超過3 600萬條生物醫學文獻,國家氣象和海洋局、聯邦和地方法院也都實現了數據公開,并提供了API 接口供調用.另一方面,社會力量(開源/非盈利組織、互聯網公司研究部門、學界和多類型機構等)整合政府的開放數據和網絡的公開數據,提升數據精細度和專業性,形成以開源為主的高質量訓練語料.例如Eleuther AI 開發的825 GB 英文語料庫The Pile31https://pile.eleuther.ai/,DeepMind 聯合33 家學術實驗室創建了Open X-Embodiment 開源數據集等.此外,在政府與社會力量協同方面,美國聯邦政府采取“應開盡開”的原則,發揮了AI 訓練數據“匯聚融合”的作用,建立統一的數據匯聚標準,推動多方協作的數據資源開發利用,促進多方數據融合.我國公共數據包括各級行政機關獲取的數據,范圍較廣,但在開放共享和開發利用上存在不足,例如天氣數據在數據范圍和歷史跨度上有較大限制,法律領域的裁判文書網由社會公開轉為僅供內網查詢.社會力量主要結合海外優質開源數據集,中文語料主要來源于網絡公開數據,政府數據貢獻少.總體而言,中文語料庫的量、質、開源情況都不如英文,這導致了訓練大模型的困難,其中公共數據開放不足和企業合規意識低是主要原因之一.相比之下,與美國政府和社會力量協同開放數據以服務于訓練語料的模式有所不同,我國尚未形成對大模型提供有效數據資源的生態,存在數據資源碎片化和流通機制不完善的問題.
第三,在算法、模型的創新方面,美國處于全面領先.2017 年谷歌提出的Transformer 已經成為生成式AI 的核心模塊.在大語言模型方面,谷歌的BERT 和OpenAI 的GPT 最先開啟了新時代,特別是OpenAI 發布的ChatGPT 成為AI 發展路程上的一個里程碑.而后續的GPT-4 以其在多數任務指標上的優異表現,在眾多語言大模型中仍然占據榜首.Meta 開源的Llama 大模型雖然稍晚、性能稍遜,但是因其開源屬性,成為世界上眾多大模型的源頭.在文本生成圖像方面,OpenAI 的DALL·E和谷歌的Imagen 在2022 年最先發布,以其高真實度的效果迅速引起了全球范圍的注意,AIGC 進入新時代.在文本生成視頻方面,OpenAI 在2024 年2 月發布Sora,再次取得歷史性突破.在大語言模型領域,國內的百度、智源、中國科學院等單位具有先發優勢,推出文心一言、GLM 等大模型.2022 年以來在開源力量等因素的推動下,國內形成“百模大戰”的繁榮局面,但整體上的性能沒有超過GPT-4 等國外模型.而在文本生成視頻方面,國內與Sora 的差距更為明顯.
最后,在企業、學術、人才等產業生態方面,美國仍然全面的領先.根據State of AI Report 202332https://www.stateof.ai/統計數據,初創企業“獨角獸”是引領AI 創新的重要力量,2022 年以來,美國的AI 初創企業累計315 家,總估值5.9 萬億美元,而同期中國初創企業70 家,估值1.3 萬億美元,是美國的22%.在頂級研究機構和人才方面,根據AMiner33https://www.aminer.org/統計數據,美國占比超過55%,而中國不足14%,約是美國的四分之一.從過去三年發表的高被引論文數量來看,美國220 多篇,中國60 多篇,只是美國的四分之一稍多.在AI 創新活力城市數量來看,美國33 座城市入選,而中國是19 座,約為美國的60%.
綜合分析,我國在算力設施、數據質量、技術水平、創新能力、資金投入、人才儲備、產業發展、生態建設等方面全面落后.結合國際環境等因素,縮短差距面臨諸多挑戰.
技術進步拓展了人工智能在復雜任務處理中的能力,但同時也帶來了前所未有的安全風險.這些風險遍及人工智能全生命周期的各個階段,包括數據采集和標注、模型研發和訓練、模型部署和上線、模型開放和應用,如圖2 所示.隨著應用領域增多,其風險影響范圍也從技術本身擴展到特定行業領域,甚至覆蓋全社會群體.例如,數據采集和標注階段,風險從數據本身的質量,發展到對知識產權的侵害和個人隱私的泄露;模型研發和訓練階段,風險從模型魯棒性和有效性,發展到可解釋性和可審計性;模型部署和上線階段,風險從代碼安全、網絡安全問題,發展到價值觀與意識形態、虛假信息和幻覺等問題;模型開放和應用階段,風險從對技術本身的信任問題,發展到強人工智能可控及造成災難性風險(戰爭、失業、社會動蕩)問題.同時,新型風險如侵犯隱私、幫助犯罪等,也隨著智能體交互協作等技術的發展和應用,呈現出影響范圍快速擴大的趨勢,引起各國政府、科研機構、企業等社會各層面的高度重視.因此,采取全方位、體系化的安全治理措施以應對風險已成為國內外共識.

圖2 人工智能全生命周期四階段主要風險,風險影響范圍隨技術發展逐漸增大Fig.2 The main risks of the four stages in the artificial intelligence lifecycle,and the risk impact gradually increases with technological development
當前,各國公司和機構往往使用不同的安全維度以定義和應對人工智能技術風險.例如,OpenAI將“對齊”作為其發展通用人工智能的核心理念,強調“有用、真實、無害”作為其指導原則[70].斯坦福大學的HELM 模型側重于技術細節,從準確性、不確定性/校準、魯棒性、公平性、偏見、毒性和推斷效率等維度全面評估模型性能及其社會影響[71].歐盟強調安全治理維度應包括人權尊重、技術與安全、隱私與數據治理、透明度、多樣性、非歧視與公平、社會與環境福祉以及問責制等[72].美國則側重責任、公平、可追溯、可靠、可治理性等要求,注重人工智能系統的透明度、責任歸屬和治理能力.不同治理維度反映出國際社會在人工智能安全方面的多元化關注,旨在確保技術發展促進社會福祉的同時,又能有效避免負面影響.
相應地,國際實踐采用了一系列創新方法以確保人工智能的安全發展.水印技術廣泛應用于保護知識產權和個人隱私,通過在數據或模型中嵌入隱形標記,確保產權可追溯且數據合法使用[73].安全對齊技術通過確保人工智能系統的價值觀與其研發機構所在的社會價值觀一致,以避免數據可能帶來的偏見或歧視.人類反饋強化學習通過整合人類反饋來優化模型決策,確保人工智能行為更加符合人類期望和道德標準[74].對抗樣本防御機制致力于提升模型魯棒性,確保人工智能系統能抵御惡意輸入,維持決策的穩定和可靠[75].這些方法已在多個安全維度上取得顯著成效.
在國內,人工智能安全治理的重心放在大模型的部署與應用階段,主要關注大模型部署應用過程中的內容管理與合規性,以及在產業融合中可能出現的安全風險.依據《生成式人工智能服務管理暫行辦法》等規定,國內治理維度聚焦違反社會主義核心價值觀內容、歧視性內容、商業違法違規、侵犯他人合法權益、無法滿足特定服務類型的安全要求、模型應拒答的內容及模型不應拒答的內容等七大維度[76],旨在確保人工智能在實際應用中的安全性、合法性和道德性,反映了國內在人工智能治理方面的具體需求和重點關注領域.
針對風險治理,國內采取了覆蓋法律法規、內部治理、第三方評測及針對特定產業垂域的綜合措施,架構如圖3 所示.法規層面,我國發布了《生成式人工智能服務管理暫行辦法》等一系列法律法規和指導性文件,確保人工智能發展符合倫理與法治要求[77].內部治理重視治理工具開源、測評數據集構建,研發紅藍攻防測試和復雜場景沙箱仿真環境測試等技術,增強模型的安全性和魯棒性[78-82].第三方評測通過共建數據激勵和開放組件,鼓勵多方參與和技術共享,提升評測的透明性和客觀性[83].針對車聯網、自動駕駛和工業互聯網等產業垂域,采用沙箱測試、多智能體協同測評與認證等手段,確保模型在復雜應用場景中的安全可靠[84-88].

圖3 國內人工智能安全評估體系Fig.3 Artificial intelligence safety evaluation system in China
國內外在人工智能安全治理的實踐差異主要源于產業結構和應用重點的不同.國際上,主要是歐美國家,源于其在創意產業、法律法規、技術研發等領域的先進地位,其治理手段更多聚焦于技術創新的開發與實施、價值觀對齊及模型的公平性、透明度和可追溯性,反映出對數據隱私、產權保護[89-90]等問題的重視.相對而言,國內治理則更側重于大模型的內容管理、合規性以及滿足產業特定需求,這與中國全球首位的網民數量、高度覆蓋居民生活方方面面的數字產業現狀密切相關.此外,國內在法律法規的制定上表現出更多的明確性和具體性,為人工智能的健康發展提供了法律框架和政策指導.這種差異源于展示了技術發展與應用在全球范圍內的多樣性,也體現了不同文化背景和社會價值觀的影響.
未來的安全治理將朝著形成框架性風險體系的方向邁進,通過推行人工智能分級分類制度,為不同行業提供定制化的安全解決方案,保障交通、醫療、教育、金融等關鍵領域的應用安全;更為關鍵的是,人工智能安全不僅是技術領域的挑戰,更是關乎全人類福祉的全球性議題,國際合作、全社會參與將是核心.必須不斷加強國際合作,推動彌合各國數字鴻溝,應對全球人工智能安全挑戰;開展產學研合作與安全社區構建,促進安全技術創新和公眾信任,確保技術的普惠性和持續發展.
在生成式人工智能領域,我國在算力、數據、人才、產業、安全、治理、生態等方面面臨系統性挑戰.
首先,算力短缺是我國當前面臨的首要挑戰.針對這一困境,我國應統籌發展高能效AI 計算硬件體系: 一方面,大力研發專門用于生成式AI 的處理器,突破傳統的體系結構,同時特別加強芯片制造工藝的投入,形成完整的微電子產業鏈,完善智能計算底層算法與軟件.另一方面,注重AI 計算的能效設計,優化算力與帶寬的損耗,同時將可再生能源,如水電、太陽能和風能,整合到AI 計算設施中,參考比特幣“挖礦”的算力集中模式,發揮我國西部可再生能源的優勢,推廣“東數西算”,使生成式AI 計算更具經濟性,同時帶動國家全域發展.
其次,數據的質與量直接決定著大模型的性能.面對我國AI 數據存在的諸多問題,聯邦數據[91-93]是有效應對方案.聯邦數據在基于人工智能的應用中扮演重要角色,可有效解決數據資源短缺、碎片化、不共享等挑戰.它將大數據轉化為數據智能,通過數據實驗探索最佳解決方案,可有效應對數據安全和隱私問題.聯邦數據架構包括真實數據、虛擬數據、聯邦數據實驗、聯邦融合、聯邦安全和可信聯邦智慧六個組成部分.實際數據和數字孿生體生成的虛擬數據被處理和檢索,聯邦數據實驗利用強化學習和并行強化學習找到最佳模型參數,聯邦融合將本地模型合成全局最優模型.數據安全和隱私由聯邦安全組件實現,確保數據所有權和使用權分離.通過聯邦數據實驗和聯邦融合,可獲得可信聯邦智慧,提高人工智能的自學習能力.
最后,彌補中外人工智能的差距離不開可持續發展的生態環境.AI 人才創新AI 方法,AI 方法促進AI 產業,AI 產業促進社會繁榮,富裕、開放、公平的社會環境培育和吸引更優秀的人才.中國科學院王飛躍研究員提出的“聯邦生態”為創建這一良性循環提供建設性框架[93].除了聯邦數據外,聯邦生態系統還包括聯邦控制和聯邦管理,其最終目標是提供聯邦服務.聯邦控制[94]是聯邦生態的核心執行部分,旨在維護信息安全,保護數據的所有權、控制權、隱私權和使用權.它通過分布式控制策略,為復雜系統提供高效、安全、可靠的控制和管理,確保各子系統的信息安全和權益保護.聯邦控制通過定義聯邦合約實現數據的聯邦,建立聯邦數據的控制體系,包括存儲、傳輸、共享和使用,同時保證數據安全.聯邦管理[95]根據聯邦生態的總體目標和要求做出管理決策,并根據系統狀態實時動態調整,以達到最優狀態,實現整個生態系統的智能化管理.通過聯邦管理決策,聯邦生態能夠更好地實現其目標,在保證安全的前提下轉化為聯邦智能安全.聯邦服務是通過對聯邦數據的控制和管理實現的,是聯邦管理的最終目的.它利用設計的聯邦管理規則,在保障節點數據安全和隱私的前提下,實現對聯邦數據的管理和控制,不斷產生新的數據,用于優化管理決策.
近年來,區塊鏈技術、去中心化自治組織和分布式自治運營(DAO)機制在DeSci 浪潮推動下成為AI 生態新引擎[96-100].DeSci 旨在建立一個去中心化、透明和安全的網絡,供科學家共享數據、信息和研究成果.去中心化特性使科學家能以更公平、民主的方式合作.DAO 是DeSci 的實現方式,為人工智能創新和應用提供了新的組織形式.DAO 是一種通過代碼在區塊鏈網絡上運行的數字組織,成員擁有決策和執行權,實現了民主和透明.基于DAO的工作顯示出未來發展潛力.區塊鏈技術在DeSci中扮演重要角色,確保了真實、可信、可靠、可用和高效.聯邦控制依賴于區塊鏈技術的支持,實現了聯邦安全、共識、激勵和合約.聯邦安全利用區塊鏈的安全機制,在加密、傳輸和驗證聯邦數據時發揮作用.聯邦共識確保了聯邦節點之間的分布式共識.聯邦激勵設計了快速、穩定、正向的激勵措施,平衡了節點之間的利益,提高了系統效率.聯邦合約通過智能合約算法自動、安全地實現了聯邦控制.
聯邦生態可以全面處理從數據生產到數據使用再到服務用戶的全過程問題.它基于智能生態系統研究思想,能將數據轉化為智能,適用于各種聯邦形式.聯邦生態通過建立松散的聯盟關系,加強隱私保護,調動積極性,提高參與度,以提高整體績效.區塊鏈的TRUE 和分布式自治管理之DAO 相結合即為“真道” (TAO),形成完整的可信AI 生態系統[101-102].
伴隨GenAI 的通用智能技術發展,未來的智能社會和產業將圍繞Karl Popper 的三個世界[103]之大模型展開.物理世界之機器人、心理世界之生物人、人工世界之數字人將按Pareto 法則組成一個嶄新的世界: 80%以上是數字人、15%以下是機器人、5%以下是生物人[104-106].受GenAI 驅動,數字人完成認知和決策任務,機器人主要負責物理勞動和操作,生物人依托數字人和機器人進行更高層次的創新和管理.
工作將以三種模式由三種員工協調完成: 上午AM (Autonomous mode,自主模式),數字人在機器人的輔助和生物人的關注下完成絕大部分工作,時長20 小時以上;下午PM (Parallel mode,平行模式),數字人和機器人在生物人的遠程或云端指導下完成大部分工作,時長三小時以下;晚間EM(Expert or emergency mode,專家或應急模式),生物人必須趕赴現場,在數字人和機器人的幫助下完成工作,時長一小時以內.新的工作模式和分工方式可以減輕勞動強度、提高生產效率和擴大服務范圍,有效應對當前面臨的人口負增長和老齡化的問題,同時將重塑人類的工作和生活方式.未來人類將立法禁止“996 (碼農)”的工作方式,演化為“1023智儂節”: 每天早上十點上班,下午二點下班,每周工作四天,每年從一月二十三日開始工作,十月二十三日結束工作,啟動一年一度的智儂節,希望其他節日假期依然保留.