





摘" "要:人工智能治理范式是在人工智能技術治理中面對責任分配、資源配置、規則制定及挑戰應對等問題時逐步形成的具有指導性、規范性及系統性的范例。文章通過引入范式變革理論,認為人工智能技術發展過程中不斷產生的問題,以及人工智能治理導向、主體、內容的持續修正和調節需求是人工智能治理范式具有進步性和動態性的理論根源。基于此,對全球主要國家和國際組織發布的人工智能政策進行量化分析,通過量化政策發布機構、文件類型的時序變化,以及采用BERTopic主題建模歸納總結不同階段人工智能治理內容的側重點,解構人工智能治理范式的變革趨勢,洞察人工智能治理復雜性。
關鍵詞:人工智能治理;范式變革;政策研究;主題建模
中圖分類號:TP18" "文獻標識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024059
Paradigm Shift in Artificial Intelligence Governance: A Study Based on Policy Analysis and Topic Modeling
Abstract The paradigm of artificial intelligence (AI) governance has emerged as a guiding, normative, and systematic framework to address challenges in responsibility allocation, resource distribution, rule-making, and problem-solving in AI governance. By introducing the theory of paradigm shifts, this study posits that the progressive and dynamic nature of AI governance paradigms is rooted in the continuous emergence of challenges in AI development and the ongoing need for adjustments in governance orientations, stakeholders, and content. This paper conducts a quantitative analysis of AI policies released by major countries and international organizations, examining the temporal evolution of policy-issuing institutions and document types. Using BERTopic modeling, it identifies and summarizes the shifting focal points of AI governance across different stages. By deconstructing the transformative trends of the AI governance paradigm, this study sheds light on the inherent complexity of AI governance.
Key words artificial intelligence governance; paradigm shift; policy research; topic modeling
人工智能作為展現類人智能行為的計算機系統能力,不僅正在為全球各行各業提供前所未有的機遇,其技術復雜性也正蘊含著潛在的風險與挑戰。斯坦福大學以人為本的人工智能研究所最新發布的《2024人工智能指數報告(Artificial Intelligence Index Report 2024)》將“嚴重缺乏對大語言模型責任制的穩健性和標準化評估”作為年度人工智能十大發展要點之一,指出目前缺乏關于負責任的人工智能這一概念的標準化界定。頂尖模型的使用風險和復雜性逐步構成了人工智能的陰暗面,引發社會爭議。為了應對這些挑戰,目前已形成了風險治理范式、過程導向治理范式以及基于人工智能技術開發與迭代速度形成的治理范式等,人工智能治理范式研究已成為全球性議題。
“范式”一詞可以追溯到亞里士多德在《修辭學》一書中的應用,指一種最好的、最具指導性的例子。1962年托馬斯·庫恩在其著作《科學革命的結構》中引入“范式”一詞,指出“范式”需要具備兩個特征,一是需要“空前地吸引一批堅定的擁護者”,使他們脫離科學活動的其他競爭模式;二是必須具備開放性,具有許多的問題,以留待“重新組成的一批實踐者去解決”[1]。庫恩將這一概念帶到了科學界并強調科學發展與科學進步是一種動態的過程,提出科學革命是指科學發展中的非累積性事件,其中舊范式全部或部分地為一個與其完全不能并立的嶄新范式所取代,“革命通過擺脫那些遭遇到重大困難的先前的世界框架而進步”[1]。這里的“革命”即指“世界觀的改變”,也就是范式變革(Paradigm Shift)。人工智能技術的突破性進展正塑造著第四次工業革命,所帶來的指數級技術變革和全球影響范圍也預示著整個生產和治理體系的轉型與變革[2],同時導致了傳統的技術治理范式無法有效監管人工智能技術、解決相應爭議,催生了傳統治理范式與新興人工智能之間的各種矛盾,成為公認的反常現象,這意味著人工智能治理范式的變革必然發生,正在經歷新舊轉化和科學革命。
目前關于人工智能治理范式變革的研究主要集中在對算法、數據等具體內容的范式轉變,但缺乏全球視角以及政策層面的研究。官方政策文件是“信息的載體,用于傳達或反映官方意圖、目標、承諾、建議、‘思維’、意識形態和對外部時間的反應”,反映出政策參與者提出不同發展觀點與偏好,提供了豐富的機會來探索人工智能治理的實質性問題和策略、新出現的共識和分歧以及動機與前景。因此,本研究深入分析全球主要國家和國際組織發布的人工智能政策結構和內容,通過定量分析驗證這一變革現象,為完善人工智能治理政策體系、應對人工智能治理需求提供依據和參考。
1" "文獻綜述
1.1" " 人工智能政策研究
政策不僅是“物質的”和“制度的”……而且是“觀念性的”[3]。公共政策與范式具有相似的理念成分,范式變化對政策的影響貫穿于政策理論的變化,政策是由潛在的觀念范式塑造的,這些范式構建了政策制定者看待現實、識別問題和解決方案的方式,因此不同國家有關人工智能治理的理念往往會呈現在政策過程中。此外,人工智能治理政策由目標、工具和權衡三部分組成,各國政府在制定政策時受到時代背景和技術迭代的影響,會持續改變上述三部分的權重配置,因此人工智能政策處于不斷動態變化的狀態,人工智能治理范式也因而發生變革[4]。倫德瓦爾等將科技政策定義為實現國家目標可實施或已實施的促進科學、技術知識和生產、擴散和應用的相關政策[5]。通過對政策的發展趨勢進行量化呈現與規律性預判,發現隱藏于政策文獻背后的政策信息與內引規律。因此,學界圍繞人工智能政策展開研究,基于政策信息學探討人工智能治理的動態演變過程。
目前關于人工智能政策的內容研究主要以定量與定性分析相結合為主,從政策議程、政策工具與政策擴散等不同角度探討當前相關政策的演進邏輯與現狀。如張濤和馬海群對我國人工智能政策主題熱點及其演進進行分析,按政策發布時間進行分段,指出萌芽期主題熱點、發展期主題熱點和趨緩期主題熱點[6]。周慎等從智庫的視角出發,構建“全球智庫人工智能出版物數據庫”,深入分析全球智庫在人工智能議程設置上呈現的主體、主題與歷時性特征,歸納議程聚類[7]。張越等對人工智能的政策工具演變進行分析,發現近年來世界人工智能領域顛覆性技術政策工具結構經歷了從“資金投入”導向至“目標規劃”“技術治理”“技術應用”導向的轉變[8]。陳少威和吳劍霞指出人工智能治理風險體現出了較強的共性特征和外溢效應,“命令-控制”基礎上的傳統治理工具無法應對新的治理需求[9]。國外學者也圍繞人工智能政策的演進與擴散展開研究。如Calo指出人工智能技術的快速發展帶來了法律和道德上的困境,現有的法律框架和道德標準無法應對新型技術挑戰,因此需要抓住政策制定時機,并將人工智能政策引導到公共利益層面[10]。Patricia等開發了涵蓋現代公共政策制定所有階段的人工智能監管概念框架,以此實現公平、自由和長期可持續性等社會價值觀[11]。Floridi和Cowls指出圍繞人工智能倫理的政策、規范等數量激增會導致“原則泛濫(Principle Proliferation)”問題,已有原則的重疊性較高,因此需要構建新的人工智能倫理政策框架,明確要增強對技術可理解性、責任性原則的重視[12]。
1.2" " 人工智能治理范式變革研究
范式變化不僅僅是一種量上的變化形式,而且是一種質上不同的變化形式。目前國內外學者關于范式變革的研究覆蓋不同學科和研究領域,其中人工智能研究領域也引入了范式變革的思想與概念,從不同角度探究這一科學領域的革命性過程。具體包括人工智能技術范式的變革、人工智能技術賦能不同領域的轉型與發展,以及人工智能治理的范式轉變。如孟令宇和王迎春指出我國傳統的以生命醫學倫理為基礎的科技倫理審查范式在人工智能等新興技術應用方面存在挑戰,人工智能倫理審查范式創新需從理論、職能、方法三個維度進行[13]。梅亮等指出人工智能面向機器信任與倫理、武器應用、算法黑箱、產品問責、大數據隱私風險、就業替代等負外部性議題引導舊有科技創新治理范式向科技與社會深度嵌入下創新責任的制度化過程轉移,并從責任式創新的角度構建了包括技術、經濟、倫理和社會四維度的人工智能技術創新治理分析框架[14]。張富利指出了人工智能治理范式變革的必然性,認為技術的發展將導致文化的變革,未來建構的難題是機器倫理學難以作為機器倫理的基礎存在,需要從多元整合的視角下從理論到規范來化解人工智能風險[15]。姜李丹和薛瀾闡釋了我國新一代人工智能適應性治理經歷的探索式治理、回應式治理、集中式治理、敏捷式治理的范式變革歷程,并且指出不同范式下技術創新力度與風險規制力度的組合特征存在顯著的階段性差異[16]。
由此可見,目前國內外學術界均已關注到人工智能治理范式在不同階段下具有鮮明的區別,嘗試將人工智能治理范式按照時間進行歸納與特征總結,并從人工智能議程設置過程視角探究人工智能治理范式的變革進度。但目前我國圍繞這一范式變革現象的研究仍然以論述為主,缺乏對這一變革現象的實證研究,也尚未將這一變革過程進行可視化呈現。因此本研究需要將范式變革理論引入人工智能治理層面,賦予這一變革現象理論性闡釋,并從政策文本分析角度切入,通過量化研究驗證變革現象。
2" "研究設計
2.1" " 數據收集與篩選
本研究基于經濟合作與發展組織(Organization for Economic Cooperation and Development,OECD,以下簡稱“經合組織”)開發的人工智能政策觀察數據庫(OECD.AI Policy Observatory)在各國人工智能軟件開發、科學研究、資金投入、模型和數據庫方面的實時數據排名,選取了美國、歐盟、中國、英國、澳大利亞、日本、德國、韓國、新加坡、印度、加拿大、俄羅斯、法國、芬蘭13個在人工智能技術發展與治理監管方面具有一定代表性與先進性的國家和聯盟,以及聯合國、經合組織、七國集團(G7)、二十國集團(G20)、國際電信聯盟、世界經濟論壇、世界衛生組織、網絡自由聯盟8個在人工智能監管領域具有國際影響力的國際組織。將上述21個國家或組織作為人工智能治理相關政策文件的來源地區,將政策文件的檢索時間范圍設置在2010年1月1日到2024年9月30日,首先以OECD.AI數據庫提供的政策文件名錄為索引,通過URL自動爬取政策文本原文;其次,采取滾雪球法擴展政策文件的獲取來源,包括各國政府部門官方網站提供的政策文本鏈接、各國法律政策文件官方數據庫以及學術文獻中關于人工智能政策的附錄,以“人工智能”為主題詞進行全文模糊查找,對與人工智能相關的政策文本文件進行手動檢索、采集與補充。
為提高后續分析的針對性與準確性,確保所選取的政策文本內容與人工智能治理這一主題緊密貼合,在政策文本篩選過程中主要遵循三個標準:(1)以國家層面發布的政策文件為主。國家甚至國際層面的政策文件往往會影響地方治理戰略制定,同時國家宏觀層面的政策文件更能代表一個國家在人工智能治理方面的核心理念與手段,因此地方發布的文件暫時不予考慮。(2)以具備高度的人工智能技術相關性文件為主。斯坦福大學人工智能指數研究團隊基于政策文件與人工智能技術的實際相關性,將全球人工智能政策文件分為高、中、低三個相關度等級。其中,高相關度政策文件是指直接聚焦于人工智能治理的法規與政策;中相關度政策文件雖然包含重要的人工智能政策要素,但具有更加寬泛的關注重點,并不完全以人工智能為中心。低相關度政策文件只是順便提及人工智能,而沒有對人工智能進行實質性立法關注。本研究選取相關級別為中級和高級的各國人工智能政策文件,盡管部分政策文件的標題沒有直接提及人工智能,但其關注具體人工智能技術,如無人駕駛、面部識別等,也屬于收集范疇,而與人工智能及其具體技術實質性立法關注無關的政策文件則被排除在外。(3)以具備法律約束性或政策指導性的現行文件為主。首先,由于不同國家或組織的立法程序、責任部門均有所差異,政策文件的生效時間各異,因此將剔除暫未生效、仍在立法程序過程中的文件;其次,由于立法程序歷時較久,過程中會生成各種不同類型的文件,部分過程中產出的文件具有臨時性,在進入后續立法流程時已被修改或取消,這類文件將不被納入本次文本分析中,但由政府部門、研究機構和智庫產出的具有政策指導性與影響力的戰略報告則屬于此次文件篩選范圍。
在根據上述步驟和標準對全球主要國家和組織發布的政策文本進行采集后,最終選取了2010年-2024年間全球人工智能治理政策文本共計338份,所有文本均可在官方網站和數據庫中公開查閱和下載(具體時間與國家分布見圖1)。
2.2" " 政策特征分析
對政策文件進行量化研究的基本方法是對政策文件基礎屬性的分析。本研究對338份人工智能政策文件的發布時間、發布機構和政策類型等元數據進行統計分析,以此揭示當前人工智能治理的屬性特征,從宏觀層面初步構建當前人工智能治理的政策演變過程。
2.3" " 主題建模分析
在了解人工智能政策文件宏觀特征之后需要進一步對這338份政策文本的內容進行語義分析,通過對不同國家在不同時間節點發布的政策文本主題及熱點的分析,探尋全球主要人工智能國家在人工智能治理內容方面存在的差異與變化趨勢,從而驗證人工智能治理范式的變革現象。在政策文件收集的過程中,考慮到大部分國家都是采用英語發布官方政策文件,而中國、日本、韓國、俄羅斯等非英語母語國家的部分政策文件也能夠在其官方網站上獲取英文原文,因此本研究將所有政策文本語言統一為英語,非英語且官方網站沒有提供權威英文版本的政策文件由Google翻譯并進行了人工核對,確保翻譯件的準確性。
2.3.1" "BERT模型
基于變換器的雙向編碼器表示技術(Bidirectional Encoder Representations from Transformers,以下簡稱“BERT模型”)是Google公司于2018年推出的自然語言處理預訓練模型,其訓練過程主要分為預訓練(Pre-training)和微調(Fine-tuning)兩個階段。這一模型能夠準確把握上下文語境信息,具備強大的預測和理解能力,尤其在處理英文文本方面表現出色;同時得益于Transformer的自注意力機制,模型能夠靈活適應多種下游任務,實現文本對之間的雙向交叉注意力,有效捕捉句子之間的相互關系,為問答、自然語言推理等需要深入理解句子對關系的任務提供更強的建模能力,也能夠使BERT模型在處理文本對時更加簡潔高效[17]。
近年來國內外研究者通過引入BERT模型開展文本分類、情感分析、主題識別等研究,圖情領域一方面基于BERT模型與其他模型的結合對學科交叉研究演化[18]、專利技術主題聚類[19]、用戶需求識別與趨勢預測[20]等進行研究,另一方面通過融合BERT深度學習算法構建并動態修正專利檢索策略,以此提高科技數據獲取的精準性[21]。綜合上述因素,本研究選取BERT模型對338份人工智能治理英文政策文本文件進行主題抽取,以此了解人工智能政策在不同時間節點的演變趨勢與特征。
2.3.2" "文本分組與預處理
為深入考察不同國家人工智能治理內容的側重點及其演變趨勢,驗證人工智能治理范式的變革現象,本研究首先對338份政策文件進行了系統地分組預處理,以此實現對政策文本更加細化的關鍵詞抽取和高度凝練的主題詞總結。不同類型國家在人工智能技術發展的不同時間節點會有不同的治理側重點,因此本研究分組包括國家政體類型和時間節點兩個維度。
在國家政體類型方面,由于不同國家的法律程序、權力分配與治理文化均有所差異,不同類型國家發布的人工智能治理政策文本往往各有側重,因此本研究依據國家類型學原理,從政體的角度對各主要科技大國進行縱向分組。政體的概念有狹義與廣義之分,狹義上的政體是指國家權力組織形態,即“國家政權組織形式”,而廣義的政體還包含“國家結合形態”和“國家象征形態”兩個概念[22]。政體的選擇關系到建立一個什么樣的國家這一重大問題,政體的確定也是由國家所處的具體政治社會經濟文化背景等不同層面決定,所以擁有相同政體的國家在治理方面往往更具相通性。因此將全球主要人工智能國家按照政體來進行分類,可以從一定程度上了解不同政權組織形式、結合形態的國家在人工智能治理方面的偏好。本研究以中華人民共和國外交部官方網站上“國家和組織”板塊對全球各國政體的界定為準,將政策文件來源國按照政體進行分類,共得到5個政體類別,同時歐盟和其他國際組織被統一歸為國際和地區組織類別(具體分類見表1)。
在時間節點維度方面,不同政策文本的發布時間不同,且人工智能技術在發展過程中也有非常顯著的階段性特征,因此根據人工智能技術發展與治理政策發布的集中程度將橫向時間線分為人工智能治理起步(2010年-2016年)、人工智能技術發展熱潮(2017年-2022年)和強人工智能時代(2023年-2024年)三個主要時間節點,通過時間節點與國家政體分類對收集到的政策文件進行文本分組處理,共得到18個子組,并對每一個子組進行去除停用詞等預處理。
由于本研究采集到的政策文本均為英文文本,因此首先使用了Python自帶的英文停用詞表(English_Stop_Words)和正則表達式進行第一輪去除停用詞,刪除了英文文本中的無效單詞、數字和標點符號,使得文本更加規范化,并在此基礎上對各子組進行第一輪生成嵌入和主題建模,得到的第一輪聚類結果往往沒有實際意義,但是可以作為自定義去除停用詞表,尤其是涉及國家和發文機構名稱、常見政策類型后綴以及無分析意義的動詞、副詞和形容詞等,在此結果上手動整理形成新的自定義去除停用詞表,應用于正式主題建模環節。此外,由于BERT模型的預訓練模型在處理文本時存在最大字符數限制(通常為512字符),而大部分政策文本均為長文本文件,因此本文引入滑動窗口機制(Sliding Window),確保在建模過程中保留足夠的上下文信息[23]。具體來說,即將窗口的最大長度設為512字符,步幅設為400字符,使得每個片段與前一個片段重疊112字符,確保每個片段在分割時保留足夠的上下文信息,減少因截斷導致的語義丟失。
2.3.3" "最佳主題數與一致性檢驗
本研究使用了BERTopic支持的高性能模型sentence-transformers/all-MiniLM-L6-v2來生成句子級別的嵌入,通過對文本上下文的建模生成語義向量,在一定程度上超越了傳統詞向量局限,確保主題建模的語義一致性,并在此基礎上對文檔嵌入進行聚類,以此生成主題。默認情況下的BERTopic使用HDBSCAN進行聚類。與K-means算法不同,HDBSCAN是一種分層的、基于密度的方法,適合處理不同密度的聚類,因此更加適合處理政策文本,發掘其中細微差別;同時能夠從核心簇中檢測并分離出噪聲或離群點,將無法很好歸入任何聚類的文檔都歸類為“噪音”,貼上“-1”的標簽,由于在文本預處理階段已經使用通用英語停用詞表和自定義停用詞表對文本數據進行了清洗,基于此形成的“-1”標簽下的關鍵詞不屬于無效詞匯,而是屬于更加寬泛和通用的詞匯,由筆者基于研究經驗與實際情況手動歸類為其他主題下。此外,HDBSCAN并不需要事先指定聚類的數量,但其自動聚類結果會隨著參數變化發生改變,包括聚類樣本的最小數量(min_cluster_size)等。因此本研究綜合了K-means聚類中確認最佳主題數的手肘法(Elbow Method),通過解釋和驗證聚類分析的一致性幫助找到數據集中合適的聚類數量范圍,并在此基礎上調整HDBSCAN的參數,以此獲得更符合數據結構和研究需求的主題數量。
在上述參數調整的基礎模型上輸出每個主題的關鍵詞和各個文本窗口對應的主題分配后,本研究對每個主題的關鍵詞進行排序,提取了前15個最具代表性的關鍵詞來描述該主題。為評估主題建模效果,使用主題一致性(Coherence Score)作為模型評估指標,考察了不同子組的主題一致性得分,同時筆者在此基礎上根據自己的研究常識與對政策原文的理解手動調整主題關鍵詞并進行降噪處理,生成了最終的主題高頻關鍵詞,并再次計算主題一致性得分,得到18個子組的c_v一致性得分均高于0.5,不同子組得到最終的主題關鍵詞。
3" "結果分析
3.1" " 人工智能政策文本特征演變
3.1.1" "發文機構
一方面,全球人工智能政策發布以機構單獨發文為主,但合作發文趨勢有所變化,且國家間存在差異。從總體上看,自2010年以來,全球各國人工智能政策以機構單獨發文為主,由單一機構獨立發布的政策文件占比維持在80%左右,可見當前全球人工智能治理總體仍然以專門機構為主,各國暫未形成穩定的合作治理網絡(見圖2)。具體來說,我國在機構合作發文方面的演變趨勢與英國、法國等歐洲地區的國家正好相反,英法等歐洲國家早期注重不同政府部門與非政府機構的合作發文,多份文件由不同政府部門、政府咨詢機構和國家級智庫共同發布,較早體現出在人工智能政策文本設計與頒布方面的合作特性。而我國人工智能領域的早期政策以單獨機構為發布主體,近五年來逐步呈現出較強的合作趨勢,2019年之后機構合作發布的政策文件數量占比顯著上升,并在2022年達到峰值,當年所有政策文件均為多家機構合作發布,且2024年發布的《全球人工智能治理上海宣言》由9家機構共同發布,是全球人工智能政策發布機構合作數量最多的文件,包括國家行政部門、國家級智庫單位以及地方政府等不同類型機構,體現了政策合作網絡與多元的治理格局;相較于此,盡管美國是人工智能政策文件數量發布最多的國家,在人工智能治理議程設置與政策發布方面卻缺乏合作共建的理念與格局,2022年和2024年發布的所有政策文件均以單獨機構為責任主體,體現美國在人工智能治理方面的分散性。
另一方面,本研究聚焦政策發布數量最多的六大經濟體(美國、歐盟、中國、英國、澳大利亞、日本),形成機構發文熱力圖(見圖3)。從參與人工智能政策文件頒布的機構數量來看,中國在新興人工智能發展十余年間共有30家機構主導過人工智能政策文件的制定與頒布,是全球人工智能主要經濟體中數量最多的國家,美國人工智能政策文件發布機構數量位居第二,在一定程度上反應出人工智能治理覆蓋范圍的廣泛性,也能體現以中國和美國為首的超級大國在人工智能治理方面正在向不同維度、不同空間和不同領域多維擴散。
從發文機構的業務領域來看,我國工信部是人工智能政策發布的早期主體,并持續主導人工智能相關政策的發布,作為負責推動重大技術裝備發展和自主創新的國家行業管理部門,工信部在規制人工智能產業發展方面持續發揮核心作用;而發改委、科技部、國家互聯網信息辦公室逐步成為近年來推動人工智能治理政策制定與發布的重要責任主體,同時中國信息通信研究院作為我國ICT領域具有重大影響的智庫機構,也在人工智能治理方面發揮作用。美國的人工智能政策發布主要責任方是美國總統,其中美國總統行政辦公室和美國國家科學技術委員會是多年以來持續主導本國人工智能政策文件制定與頒發的主要機構,負責對人工智能治理進行宏觀把控與全面規制,總統行政辦公室作為傳達總統指令,為總統決策及有效執政提供支持的機構,其下轄的白宮科技政策辦公室是發布人工智能戰略性文件的主要部門;國家科學技術委員會作為總統內閣級科學技術顧問委員會,旨在協調科技政策制定過程、確保科技政策決定和計劃與總統的政策重點一致、將總統的科技政策議程整合到聯邦政府并促進國際科技合作,在人工智能政策過程中承擔重要的咨詢與支撐責任。美國早期的人工智能政策來源是交通部,近年來逐步向能源部、國防部、商務部等其他部門轉移,從不同領域強化對人工智能技術的治理。歐盟作為超國家經濟體,既強調各成員國之間的協同性,又需要歐盟立法與執法機構成員的獨立性與客觀性,同時歐盟的政策、規章、制度與法案頒布的機構與流程都相對固定,因此歐盟的人工智能政策責任機構集中在歐洲議會、歐盟委員會和歐盟理事會。英國人工智能政策主要責任機構早期以商業、能源與工業戰略部為主要責任機構,但該機構于2023年被拆分為商業和貿易部、能源安全和凈零排放部以及科學、創新和技術部,因此后期主要的政策發布機構以英國數字、文化、媒體與體育部,英國科學、創新與技術部為主,同時還圍繞數據與信息安全問題、技術倫理問題和人工智能問題設置了很多專門機構,都成為近年來本國人工智能政策產出的重要機構。澳大利亞工業、科學、能源與資源部是核心發布機構,不僅是本國第一個發布人工智能相關政策文件的機構,且幾乎每年都有新文件發布。值得注意的是,澳大利亞國家電影與聲音檔案館(National Film and Sound Archive of Australia,NFSA)于2023年發布了一份名為《NFSA機器學習和人工智能創造與使用準則》的政策文件,這份文件是全球主要人工智能國家中唯一一份以國家文化機構為責任主體頒布的政策文件,作為本國開發、保管和維護澳大利亞國家藏品和文化遺產的機構,NFSA從技術、文化和法律三個層面制定政策文件,實現人工智能在提升檔案工作效率、增強藏品可訪問性方面的正向作用。法國、加拿大、印度等國雖然在不同階段的人工智能政策發布機構較為集中,但也在一定程度上體現出從經濟、工業相關部門逐步向科技、創新與研究部門轉移的趨勢。相比之下,日本、芬蘭兩國在人工智能治理與政策制定方面始終以經濟產業部門為主,強調人工智能技術的經濟性,而韓國則始終以科技部門為主,集中在科學技術信息通信、信息社會發展等方面,側重ICT的發展及其對社會的影響。相反,俄羅斯則是從早期以數字發展、通信與大眾傳媒部為主要政策發布機構轉移到由俄羅斯聯邦經濟發展部發布,體現對人工智能政策在國家經濟層面影響力與發展潛力的重視。
此外,各國和歐盟均已設立了專門的人工智能專門機構,并在2019年之后持續發布人工智能政策文件,其中法國、芬蘭等歐盟成員國不僅以歐盟的人工智能高級別專家組為主要人工智能政策來源機構,也在2023年左右設立了國家層面的人工智能委員會,在歐盟統一協調下以國家利益為出發點進一步開展人工智能專門治理工作。
3.1.2" "文件類型
本研究以OECD.AI政策觀察數據庫中的政策類型為基礎,結合部分政策文件發布機構對其類型的定義,將收集到的338份人工智能政策文件分為法律法規文件、計劃指南和準則、國家戰略文件、國際政府間標準、聯合宣言或聲明、政策分析與建議報告、政府報告七個類型(見圖4)。
早期人工智能政策類型以計劃、指南和準則為主,但隨后五年轉向國家戰略文件、法律法規文件,2016年后計劃、指南和準則重新增多并成為主導,并且從這一年開始各國人工智能政策文件數量開始直線上升,這三類政策文件在人工智能技術十余年發展歷程中始終占據主要地位。2018年起政策分析與政策建議報告的數量激增,側重于數據收集與分析、政策問題描述、現狀調研評估與政策影響展望等,在政策過程中發揮咨詢作用。同時各國聯合宣言或聲明也經歷逐年增多后進入平穩期,2019年首部關于人工智能的國際政府間標準出臺,人工智能技術治理逐步成為全人類需要直面并共同解決的社會問題,各國在本國治理經驗的基礎上開始尋求合作之道與共性需求,可見各國實現人工智能治理的載體逐步從適用于各國治理特征的規制性文件向普適于全球治理共性的構成性文件轉移。同時,基于Tolbert將公共政策細化分為實質性政策和程序性政策的理論[24]可知,計劃、指南和準則因關注執行方式、標準與程序,不直接涉及利益分配,可視為程序性政策;國家戰略文件設定總體目標與發展方向,具有長期性和宏觀性,也屬于程序性政策。法律法規文件則因高強制性和行為規制作用,應為實質性政策。可見當前全球人工智能治理仍處于程序性政策階段,但強人工智能時代使得實質性政策更加重要,AI立法成為全球重大議題。
3.2" " 人工智能政策內容主題詞演變
本研究基于BERTopic模型抽取出18個子組的高頻主題關鍵詞并進行歸納總結,得出了人工智能治理起步階段、人工智能技術發展熱潮階段和強人工智能時代三個關鍵時間節點不同類型國家人工智能治理的側重點(見表2)。
3.2.1" "人工智能治理起步階段
各國人工智能治理的起點是技術安全、人工智能倫理與全球協同合作等基礎性治理議題。在技術安全層面,隨著自動駕駛與自動化決策系統等技術的興起與發展,部分國家率先構建防范算法偏見與自動化錯誤的制度屏障,以此規避機器代替人類完成駕駛、決策等任務可能帶來的風險與問題,如加拿大2016年發布的《自動化決策管理指令》文件著重強調系統合規性、透明性和公平性,旨在確保自動化決策系統的部署不會對用戶、機構及社會產生不良影響,尤其提出要“在自動化決策系統的開發或修改過程中完成性別分析”,以此避免決策系統對特定群體產生偏見,造成錯誤決策。同時,德國、美國也聚焦自動駕駛領域,通過頒布專門政策文件確立最初的技術安全標準與監管框架,形成人工智能技術開發領域的早期政策范式。在技術倫理層面,如何正確平衡人工智能與人類關系,解決人工智能技術可能帶來的倫理問題成為治理起步階段的主題之一。2014年歐洲科學與新技術倫理小組起草的《安全和監視技術倫理》政策指出了相關技術的應用會帶來侵犯隱私權、數據濫用、個體權力失衡等倫理挑戰,提倡“正和(Positive-Sum)”和“雙贏(Win-Win)”的治理模式;同時,以德國和歐盟為首的歐洲地區和我國成為早期推動人工智能治理合作與共享的國家,尤其是歐盟在人工智能治理初期就開始貫徹關于人權、自由、倫理和合作等價值觀與核心理念。此外,我國在這一階段更加注重宏觀規劃與戰略布局,從制造業發展切入,強調數字化轉型與技術變革路徑,但是沒有直接關于人工智能治理的政策文本。
3.2.2" "人工智能技術發展熱潮期
人工智能技術發展熱潮促使各國人工智能治理重點發生轉移,從關注單一自動化技術向多元新興技術轉變,從宏觀治理向精細治理轉變,從預測性防范治理向實證性風險治理轉變。一方面,通過頒布專門政策文件監管新興人工智能技術。從這一階段的主題分布可以看出,圍繞人工智能技術本身的治理已經從早期對自動化技術的治理拓展至對面部識別、機器學習與神經網絡、遙感技術、大數據與數據空間等不同具體技術的全面治理,自動駕駛技術雖然發展較早,但仍然是不同國家在不同時間段內始終關注的重點。另一方面,新興技術的全面開發、持續發展與逐步推廣應用所帶來的各種問題更加顯著,如數據安全遭到威脅、個人隱私遭到泄露等。盡管早期的人工智能治理已經對技術漏洞和潛在風險做出了一定回應,但仍然偏向于事前預測與規定,但在人工智能技術發展熱潮階段,各國對人工智能技術完全成熟前可能存在的風險與負面影響有了更加清晰的認知和更為準確的判斷,如英國政府2020年頒布的《在線危害白皮書》明確指出在線環境中的危險內容,包括恐怖主義、在線欺凌和自我傷害等,容易造成對兒童等特殊群體的潛在危害,并要求通過設立獨立監管機構、加強教育手段、推廣國際合作的方式提升公眾對互聯網安全的信心與在線空間的安全性;又如日本國家先進工業科學技術研究所制定的《機器學習質量管理指南》指出人工智能故障可能造成的社會損失,為基于機器學習的產品提供了系統的質量管理模型。
更重要的是,這一階段各國開始對人工智能技術在國家經濟、自然環境、城市建設、等社會層面產生的影響進行更加具有針對性的監管與規范。一是研究、教育與人才培養始終是各國人工智能治理重要組成部分,首先是人工智能技術在教育領域的實際應用治理,如我國政府和聯合國教科文組織2019年在北京合作舉辦國際人工智能與教育大會并發布《北京共識》,從智能時代的教育政策規劃、教育管理和供給、教學教師、學習評價等方面提出詳細建議;美國國會研究處2018年頒布的《人工智能與教育》探討了AI在教育中的潛力、挑戰和政策需求,強調保護學生隱私和數據安全的重要性,以及教師和學生兩個不同群體對新技術的適應能力。其次是支持國家培養人工智能領域的專業人才和提升公眾數字素養,如美國教育部與國家科學技術委員會STEM教育委員會制定了美國STEM教育的戰略文件,旨在讓所有美國人終身享有高質量的STEM教育,使美國在STEM素養方面成為全球領先者;印度電子與信息技術部通過發起“2022青少年負責任的人工智能-全國中小學生計劃”培養8-12年級的中小學生有關人工智能技能和社會責任意識,不同于大部分國家對人工智能專業高等教育的重視,印度這一計劃將培養對象前置為中小學生,體現出對全民人工智能素養的重視。
二是人工智能技術發展下產生的就業、勞動力和人力資本問題引起部分國家和組織的關注,經合組織2022年發布的《節省勞動力技術與就業水平:機器人真的讓工人變得多余了嗎?》政策分析報告基于技術分析專利文本和職業分類匹配方法探討機器人和自動化技術對就業水平的影響,呼吁全球關注人工智能技術可能帶來的就業威脅開展政策討論,并提出平衡節省勞動力技術(Labor-saving Technology)發展與就業水平之間關系的政策建議;2021年美國平等就業機會委員會發布了一份名為《高科技,低包容性:2014-2022高科技勞動力與行業多樣性》的政府報告,分析了2014年-2022年間高科技從業人員在性別、年齡和種族等方面的變化,以及高科技領域就業情況與全美就業市場之間的關系,以此提升高新技術行業勞動力結構的平等與包容。
三是人工智能技術在國防與領土完整等地緣、軍事和政治問題中的應用與可能產生的影響成為治理重點。美國國會研究處、國防部武裝部隊聯合人工智能中心、國土安全部等機構在這一階段發布了大量關于美國地面部隊、空軍部隊和國防人工智能戰略文件,不僅探討了人工智能技術對降低士兵風險等較為積極的一面,更是強調了AI技術對21世紀戰爭形態的影響和作為國家戰略資源與競爭力的角色;英國國防部發布的《國防人工智能戰略》也強調了人工智能對軍事競爭的重要性,旨在通過人工智能提升英國國防能力。
3.2.3" "強人工智能時代
人工智能技術向社會和公眾生活的深度嵌入與蔓延擴散必然會引起各國對這一新興技術的擔憂,因此技術熱潮期的人工智能治理重點會集中于相對負面與消極的影響以及對其應用效果的評估上。但是近兩年來生成式人工智能技術迅猛發展,強人工智能時代來臨,各國治理重點與目標逐步從風險認知與應對轉向如何更加科學規范地擁抱技術這一層面,盡管風險治理仍然是一項重要議題,但合作、共享、人權、規范、法治成為最新的治理目標。
首先,各國通過共同頒布合作宣言等形式推進全球人工智能治理合作共享與全球化,技術可持續發展的理念逐步成為全球共識。中國國家互聯網信息辦公室于2023年發布的《全球人工智能治理倡議》呼吁各國通過對話和合作共同應對人工智能快速發展帶來的風險和挑戰,以此促進AI技術造福人類并構建人類命運共同體;德國、新加坡等頒布的國家人工智能行動計劃與戰略規劃中均提及人工智能治理的國際合作,以本國為中心輻射周邊地區,形成更加開放包容、合作共享的人工智能治理模式。
其次,人工智能治理更加強調人類在技術發展中的主導性和主動性,比起前期治理過程中對人類可能受到威脅與傷害的關注,當前各國更加重視人類權益、人機關系的探討,人與機器的交互與共存成為治理重點。聯合國人工智能高級顧問委員會2023年發布《為人類治理人工智能》,強調人工智能治理的包容性與全球化,應當植根于國際人權法和可持續發展目標,以公眾利益為核心,形成跨國家、跨領域的人工智能全球治理。此外,推動人工智能治理立法進程、探索人工智能治理規范化框架成為重點。經合組織發布多項關于人工智能技術的治理框架,不僅為金融領域的人工智能技術設計了專門的治理框架,還為新興技術這一通用技術概念制定專門評價指標框架,同時也對人工智能系統設計分類框架,為從多維度、多視角、多領域監管人工智能技術提供精細化規范指南。
與此同時,更多國家和地區在人工智能治理政策文件中討論了關于技術監管的利益相關者問題,英國科學、創新與技術部于2023年3月發布的《促進創新的人工智能監管方法》中指出評估人工智能監管框架有效性的重要指標是評估監管機構、行業界、學術界和民間社會等不同利益相關者在人工智能生命周期中可能產生的影響;印度電子與信息技術部2023年發布的《印度人工智能報告》中明確了國家數據共享平臺的利益相關者涉及政府、企業、研究機構、學術界、媒體組織和民間社會,體現出印度在數據治理方面對不同利益相關者權益的維護與保障。
4" "人工智能治理范式變革現象
4.1" " 治理導向
首先,人工智能治理導向處于從分散性治理向統一性治理的演變中。此處的分散性體現在兩個維度,一是AI技術所引發的具體問題相較于通用法律問題的分散性。從政策文件類型的演變情況來看,全球主要國家已針對本國人工智能技術發展與技術治理制定了國家層面的戰略規劃,并在初期階段發布了多份計劃、指南、準則、標準、法規等規制性政策文件,為人工智能治理提供更為宏觀且程序性較強的指導策略,同時具有分析和建議作用的報告型政策文件也逐漸增多。然而這些政策文件主要解決的是各種具體問題,問題的多樣性和分散性導致技術治理的分散性,但近年來人工智能技術在人類社會中的高度普及和深度嵌入使得共性問題日益凸顯,因此治理導向也從指導如何治理的程序性政策逐步轉向了保障治理效果的實質性政策文件,更加強調將分散的具體問題轉化為統一的法律問題,采取強硬的立法手段開展更加規范化的統一治理。二是各國層面相較于國際政府間的分散性。前期各國政策文件更多從本國利益、發展需求甚至傳統路徑依賴的角度出發,以解決國內問題為核心,但近年來應對人工智能挑戰與解決人文問題的合作宣言、國際政府間標準和國際組織共識等文件不斷增多,可以看出人工智能治理的導向正從國家利益層面提升至國際利益層面,解決全人類于人工智能時代所面臨的共性問題、實現全人類利益一致性成為最新導向。
其次,人工智能治理導向正從實現經濟效益向更加注重社會利益的方向轉變。從政策文件的內容演變情況來看,早期的人工智能治理政策與傳統科技政策內容相似,聚焦于人工智能產業發展、人工智能科技企業治理、由此產生的經濟效益以及相關行業的人才就業市場等問題。但是傳統的科技治理范式顯然無法解決人工智能技術對社會生活、自然環境和國家競爭力等全方位的影響與滲透,因此現階段已轉變為以解決人工智能技術創新所帶來的社會、倫理及人文問題為目標驅動下的治理范式。經濟效益已不是各國開展人工智能治理的唯一目標,提升人工智能技術的包容性與多元主體的參與性成為更加深刻和普遍的治理導向。
4.2" " 治理主體
一是人工智能治理主體的合作性顯著增強。一方面,我國在人工智能政策發布機構的合作程度方面變化最為明顯,從早期的獨立機構發文為主到近年來主要以不同機構合作發文為主,不僅是國家行政部門之間的合作更加緊密,并且是國家行政部門與地方級政府、國家級智庫、科研院所等不同類型的機構合作顯著增多,政策制定過程中不同類型機構的介入與合作從一定程度上可以保障不同利益相關者的權益,而我國人工智能技術的治理主體日益顯著的多元特性體現出我國人工智能治理過程中越加廣泛的參與程度。盡管如此,目前其他國家在頒布人工智能治理政策方面仍然以單一部門獨立發文為主。盡管如此,不同國家政府部門之間的合作宣言卻越來越多,基于共同價值觀達成技術治理原則,可見各國在技術治理主體方面也正在共同價值觀和治理理念驅動下形成緊密的合作網絡。
二是人工智能政策發文機構類型與專業領域呈現擴散趨勢。一方面,國家行政部門作為早期單一的治理主體,難以全面涵蓋不同利益相關者和不同社會群體的需求和視角,近年來國家級智庫、科研機構等通過與政府部門合作的方式發布了政策建議報告。首先,這些政策建議報告寫作團隊的靈活性和專家人員組成的多樣性能夠使得這些報告在開展政策分析和提供政策建議的過程中更加全面深刻,能夠代表多元利益相關者的聲音與期待;其次,這些政府外部機構往往會通過各種研究方法對已有政策進行評估與修正,保障技術治理過程更加科學和專業。另一方面,參與人工智能治理的國家政府部門和其他機構的業務領域不斷擴張并轉移,主要體現在從經濟、產業部門向科技、創新、教育等部門轉移,尤其是澳大利亞的國家文化機構也加入技術治理主體,體現出人工智能治理主體業務范圍的擴散。此外,人工智能專門治理組織與機構的出現也標志著人工智能治理結構日趨清晰和完整,如中國新一代人工智能發展推進辦公室、歐盟人工智能高級別專家組、英國人工智能委員會、新加坡人工智能辦公室等,體現出人工智能技術治理不再是某一業務部門的子任務,也不是依附于某一專業的附屬領域,而是作為全新領域開展專門性、權威性的治理工作,更加體系化、規范化的治理結構出現。
除此之外,國際組織也在近年來成為全球人工智能治理主體的重要組成部分,不僅體現在各國政府部門與國際組織的合作更加緊密,也體現在國際組織站在保障人權、推進可持續發展等更為宏觀的視角頒布的獨立政策和相關的政策分析報告。國際組織超越國家利益,治理視角相對獨立,更能代表全球共同目標,也使得人工智能治理上升為全球性議題。但與此同時,大多數國際組織仍然是發達國家主導,宣揚的技術治理理念與價值觀也會受到組織成員國的影響,一定程度上也有可能產生一定的偏見性,甚至會加深不同國家在人工智能治理方面的鴻溝和不平等性。
4.3" " 治理內容
從總體來看,盡管全球人工智能治理熱點正呈現出較為顯著的動態演變特征,但一些基礎性議題仍然具有長期性與穩定性,始終是人工智能治理的重點內容。一是數據治理議題,具體涵蓋了數據載體與內容的安全性、數據責任者和擁有者的權益保障、數據共享理念與價值導向以及數據治理框架的構建等多個維度;二是關于人工智能技術倫理的探討,作為與人工智能技術持續開發和全面應用相伴相生的議題,始終貫穿技術治理全過程,人工智能技術的類人特性、高模仿力和自主性不僅催生了諸多倫理道德層面的挑戰和爭議,并且其在戰爭、地緣政治等高度敏感領域的應用和潛在影響也引發了國際社會的擔憂,因此這類議題始終是人工智能治理的長期性議題之一;三是關于人機關系的規制問題,人工智能的開發、應用和監管過程均涉及到不同利益相關者,而治理理論本身也強調利益相關者這一核心要素,因此人類與人工智能技術之間的關系處理必然是有效治理這一技術的關鍵,同時生成式人工智能的出現與普及使得人機交互性越加明顯,這一議題在人工智能治理中所占比重也因此變得越加重要。
從具體內容的演變特征來看,當前各國在人工智能治理重點方面發生了較為明顯的變化,既有共性演變路徑,又有差異化演變特征。在共性演變方面,首先,各國在人工智能治理早期的目標各有側重,如我國主要圍繞人工智能行業發展與產業轉型提供戰略規劃與宏觀指導,而英國和歐盟等歐洲地區則更加關注數據安全與隱私保護等方面的治理,美國、新加坡、印度等國則是從技術本身及其可能存在的風險與危機切入展開具體的治理工作,但是隨著時間推移,各國治理目標與側重點趨于更加統一的態勢,近年來對于如何提升人工智能標準化、規范化、體系化治理傾注了更多資源與探索,致力于開發標準化監管框架和結構,進一步體現為對人工智能高強度立法化的治理傾向。其次,技術層面的治理從僅關注單一技術向更多技術細化治理轉變,由于人工智能技術發展迅猛、創新迭代速度很快,因此自動駕駛技術、信息通信技術和網絡安全技術等早期人工智能技術或僅與人工智能技術相關聯的技術不再是治理重點,面部識別技術、遙感技術、元宇宙等新興人工智能技術成為當前技術治理的核心內容。最后,早期關于人工智能領域人才方面的治理重點主要是對就業市場和就業機會的關注,但隨著人工智能技術爭議越來越大,生成式人工智能技術這類更加方便使用、對人類模仿性更強的技術出現與普及越加引起了公眾對技術是否會取代人類、技術是否會影響專業發展和職業規劃方面的擔憂,因此人工智能技術素養、人工智能學科教育以及人工智能人才培養成為新興話題。
在差異化演變方面,大部分國家在人工智能治理側重點方面的演變主要是從聚焦技術本身逐步轉向社會應用與人機交互等人文倫理層面,但歐盟以及大部分國際組織則具有相反的演化特征,即這些組織更多首先關注人工智能技術的倫理問題,以及社會公眾的技術素養和權利保護等,但是近年來開始更加關注市場等經濟性話題和技術本身的發展問題。此外,人工智能技術在國防和地緣政治方面的應用與影響也成為了近年來很多國家和地區的重點議題,這一高度敏感議題關注度的不斷提升也從側面反映出人工智能技術在治理與監管方面的重要性。
5" "結語
本研究引入范式變革的理論視角,通過對全球主要國家和國際組織在人工智能領域發布的政策文件進行定量分析,揭示了當前人工智能治理范式在治理導向、治理主體和治理內容方面經歷顯著的演變趨勢。這一研究不僅為進一步探索人工智能治理范式變革的路徑及其背后的驅動因素奠定了先決基礎,也為我國構建順應時代發展需求的人工智能治理范式提供借鑒。但是本研究只選取了國際與各國宏觀層面的政策文件,并未研究各國地方性政策文件,且缺少對具體政策文本的定性研究,導致文本分析仍然不夠細致深入。后續將采用多種研究方法提升論證的深度與廣度,以具體國家發布的所有政策文件為研究對象,根據國家類型、文化背景和治理路徑的獨特性開展更加細化的研究,以此全面洞察人工智能治理的復雜性,持續為我國人工智能治理范式與政策體系提供參考與支持。
參考文獻:
[1]" [美]托馬斯·庫恩.科學革命的結構[M].金吾倫,胡新和,譯.北京:北京大學出版社,2003:9.
[2]" Klaus Schwab.The Fourth Industrial Revolution:what it means,how to respond.World Economic Forum[EB/OL].[2024-08-11].https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/.
[3]" Daigneault P M.Reassessing the concept of policy paradigm:aligning ontology and methodology in policy studies[J].Journal of European Public Policy,2013,21(3):453-469.
[4]" Hetrick Ryan T.U S.AI Policy-A Balancing Act[D].The United States Military Academy at West Point,2023.
[5]" Lundvall B,Borrás S.Science,Technology and Innovation Policy[A].Fagerberg J,Mowery D C,Nelson R ed.The Oxford Handbook of Innovation.Oxford:Oxford University Press,2005:599-631.
[6]" 張濤,馬海群.中國人工智能政策主題熱點及演進分析[J].現代情報,2021,41(11):150-160.
[7]" 周慎,湯欣雯,于汶生.全球智庫人工智能議程設置演變與發展——基于60年(1962-2021)智庫出版物數據[J].智庫理論與實踐,2023,8(3):59-70.
[8]" 張越,曹悅,白晨.人工智能顛覆性技術政策工具演變分析[J].情報科學,2023,41(10):121-128.
[9]" 陳少威,吳劍霞.人工智能治理風險和工具的識別與匹配研究——基于政策文本的分析[J].中國行政管理,2022(9):23-30.
[10]" Calo R.Artificial Intelligence Policy:A Primer and Roadmap[J].UC Davis Law Review,2017(51):399-429.
[11]" De Almeida P G R,Dos Santos C D,Farias J S.Artificial Intelligence Regulation:A framework for governance[J].Ethics and Information Technology,2021,23(3):505-525.
[12]" Floridi" Luciano,Josh Cowls.A unified framework of five principles for AI in society[J].Machine learning and the city:Applications in architecture and urban design,2022:535-545.
[13]" 孟令宇,王迎春.探索人工智能倫理審查新范式[J].科學與社會,2023,13(4):97-113,165.
[14]" 梅亮,陳勁,吳欣桐.責任式創新范式下的新興技術創新治理解析——以人工智能為例[J].技術經濟,2018,37(1):1-7,43.
[15]" 張富利.全球風險社會下人工智能的治理之道——復雜性范式與法律應對[J].學術論壇,2019,42(3):68-80.
[16]" 姜李丹,薛瀾.我國新一代人工智能治理的時代挑戰與范式變革[J].公共管理學報,2022,19(2):1-11,164.
[17]" Kenton J D M W C,Toutanova L K.BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding[J].2019(1):2.
[18]" 袁毅,孟盈.基于BERT-LDA的國外LIS領域學科交叉研究演化分析與前沿主題識別[J].數字圖書館論壇,2024,20(9):1-15.
[19]" 阮光冊,周萌葳.基于Sentence-BERT的專利技術主題聚類研究——以人工智能領域為例[J].情報雜志,2024,43(2):110-117.
[20]" 趙敬華,謝婉瑜,呂錫婷,等.基于RF-BERT和UGC的用戶需求識別及其發展趨勢預測[J].情報科學,2024,42(1):132-142.
[21]" 周瀟,高雅倩,樊嘉逸.基于BERT詞嵌入的專利檢索策略研究[J].情報學報,2023,42(11):1347-1357.
[22]" 焦洪昌.憲法學[M].北京:中國政法大學出版社,2003.
[23]" Wang Z,Ng P,Ma X,et al.Multi-passage BERT:A globally normalized BERT model for open-domain question answering[J].arXiv preprint arXiv,2019:1908.08167 .
[24]" Tolbert C J.Rethinking Lowi’s Constituent Policy:Governance Policy and Direct Democracy[J].Environment and Planning C:Government and Policy,2002,20(1):75-93.
作者簡介:魏弋,女,南京大學信息管理學院博士研究生,研究方向:智庫研究與評價、人工智能治理;李剛,男,南京大學信息管理學院教授,研究方向:智庫評價理論與方法、智庫信息系統與知識管理、社會科學評價理論與方法、圖書館與檔案學理論基礎。
收稿日期:2024-09-12;責任編輯:柴若熔