自2013年十八屆三中全會首次提出“中國特色新型智庫”這一概念以來,盡管學者們從不同角度界定了新型智庫的概念,但所有的界定都繞不過研究方法躍遷。也就是說,隨著互聯網和信息技術的廣泛應用,智庫的研究方法和研究資源得到了極大拓展,以海量數據(內容)為基礎、通過數學模型以及各種自動化的計算工具,極大地提高了智庫研究成果新穎性、及時性和廣泛性,也保證了智庫研究結果的科學性和準確性[1],成為新型智庫的核心特征。新型智庫在研究方法方面的變革,決定了其由傳統的依靠信息情報分析與專家經驗、以精英專家主導的工作模式,轉向了面向數據(內容)以模型和算法為驅動力的工作模式。這種模式的轉變在一定程度上決定了新型智庫在組織方式、運行機制、管理模式、制度規范等方面的其他特征。
2022年年底至2023年年初,以聊天生成預訓練轉換器(chat generative pre-trained transformer,ChatGPT)為代表的大模型技術爆發式迭代,大語言模型已經具備了代碼生成、文本創作、多語言翻譯的能力,人工智能生成內容(artificialintelli-gencegeneratedcontent,AIGC)技術開始進人了人們的視野。2024年2月,OpenAI發布的Sora模型,引起了不小的轟動,Sora模型的出現被認為是AIGC技術進入了可應用時代,因此,有人把2024年稱為AIGC技術應用落地的“元年”。AIGC技術的顯著特點在于其能夠依據用戶的要求,高效且自動化地生成內容,這一過程極大地提升了內容生產的效率,有效地減輕了用戶的負擔,并能夠保證所生成的內容高度貼合用戶的期望(“一本正經胡說八道”的痕跡越來越淡)。此外,隨著AIGC技術的日趨完善,由AIGC技術驅動的海量信息已經在互聯網平臺上大規模傳播,在信息傳播領域有著強大的影響力。2025年1月,巴黎人工智能行動峰會(ArtificialIntelligenceActionSummit)公布了由圖靈獎得主、計算機科學家約書亞·本希奧(YoshuaBengio)擔任主席,全球30多個國家,近百名科學家共同完成的《國際AI安全報告》(InternationalAISafetyReport),該報告將AI帶來的風險歸納為3大類13小類[2],其中與數據(內容)直接相關的風險高達6類,約占風險總數的一半。該報告表明,由AIGC技術所生成的擬真內容,正對社會各個領域產生全方位、深層次的巔覆性作用,特別是在知識密集型、以內容為中心的工作領域,AIGC技術正在改變著其工作范式、業務流程以及生態。
新型智庫的核心競爭力在于系統性的信息分析和創新性的內容利用,典型地屬于知識密集型、以內容為中心的工作領域。AIGC技術與應用的進展,對新型智庫的研究范式與知識生產方式帶來了新的挑戰。AIGC技術出現之前,AI技術主要是通過算法和工具為智庫研究進行賦能,例如,可以利用各種AI算法LDA、BERT等提升智庫研究中的知識挖掘能力,利用各種可視化工具直觀地展示各類數據,突破了手工作業的局限,有效地提升了智庫工作的效率。AI對智庫工作一直發揮著助力和正向驅動的作用,存在的潛在風險并不突出。然而,AIGC技術出現之后,AIGC技術所特有的生成內容不可控性、事實性偏差累積效應及認知誤導風險,正在對新型智庫產生巨大影響,成為制約新型智庫更進一步發展的深層隱患。
AIGC技術對新型智庫工作所帶來的挑戰是多方面的,但筆者認為以下兩個方面的風險需要引起當今新型智庫的充分重視。
一方面,數據(內容)可靠性的風險。在AIGC時代,數據(內容)風險的來源有兩個。一是,內容本身就是偽造的。也就是說,內容偽造者懷著特定的政治、經濟或社會動機,利用特定的、具有偏向性的提示詞,故意引導AIGC模型生成特定的帶有偏見或虛假的信息。這類偽造信息,隨著AIGC技術的進步,內容的逼真度持續提升,往往以假亂真,即使是專業的用戶也很難辨別。例如,2024年7月,四川網警公布了10起用AIGC技術編造不實消息的典型案例[3],包括“山體滑坡致八人遇難”“喜德縣地震”“巴中警民對崎”“成都公交車失控”“地下熱管道破裂”“建筑工地事故”等與社會穩定、公共秩序相關的內容,雖然有個別案例是完全憑空捏造,但相當一些案例采用了移花接木的手段,將以往發生的社會新聞,換個名稱、換個地點進行嫁接,更有甚者以真實的事件為基礎,利用AIGC技術生成圖片,夸大不良事件的后果,造成了不良的社會影響。這些AIGC內容的共同特點是圖文并茂,文字規范流暢,如果不在現場,很難辨別其真偽。這類信息一旦被智庫研究采信,所帶來的后果是可想而知的。二是,AIGC模型的訓練數據或者AIGC模型本身有缺陷,在模型訓練過程當中出現了部分錯誤,導致生成的內容也有不準確的地方,甚至是錯誤的,這一類的問題更具隱蔽性,可能更難發現。例如,《警惕AI幻覺:大模型生成內容的真相與謊言》一文中,列舉了一些典型的AIGC技術生成的錯誤內容[4],其中,一個典型例子是訓練數據不準確導致AIGC模型編撰了一個不存在的政策文件,用來支持其所生成的內容;另一個典型的例子是AIGC模型由于本身的問題,將“國家級專精特新企業達到743家,市級專精特新企業超過8,600家”籠統地生成為“專精特新企業超過8,600家”。這類錯誤在邏輯上似乎都沒有太大的問題,但在需要以這些內容作為決策的依據時,往往會給人以誤導。
另一方面,隨著AIGC技術的發展,AIGC模型的推理能力越來越強,已經能夠支持多輪對話并保持連貫性、理解使用者的意圖、處理復雜邏輯關系、綜合理解文本和圖像,甚至能進行預測。AIGC技術在強大算力的加持下,可以處理真正意義上的海量數據,有效彌補了人腦在面對龐大信息時于搜集、處理和分析上所固有的自然局限,通過對數據內容及其關系、模式的深度解析、挖掘和發現,為研究人員解決輔助決策問題提供了有力支持,極大地提高了研究人員的工作效率,甚至能夠完成研究人員很難做到的系統總結、深度提煉與有機融合。也就是說,AIGC技術形成的總結性內容及其展示方式,相較于人類耗費大量時間所產出的內容,在邏輯性、完整性和專業性上有著更為卓越的品質與深度,這就使人們在自覺或不自覺地將自身的決策能力、思考能力乃至情感寄托讓渡于AIGC技術,導致所謂的AI依賴(AIdependence)。現有研究表明,AI依賴確實存在,并且在多個領域都已經產生了明顯的影響,在智庫研究領域也不例外。海倫娜·瓦康塞洛斯(HelenaVasconcelos)等的研究表明,隨著任務難度的增加,對用AIGC技術生成結論的過度依賴也會增加[5]。當人們面對比較復雜的決策性任務時,人們會更傾向于完全接受AI的結論,而不再去做進一步主動的深度思考。產生AI依賴的原因是多方面的,但至少有一點需要重視,這就是人的本能。生物學、心理學和認知科學的研究表明已經證實,人類有追求效率和省力的本能。在進化過程中,保存能量意味著更高的生存機會,所以大腦傾向于選擇“最小努力原則”的方式進行工作,大腦處理信息需要消耗能量,面對復雜任務時,人類更愿意依賴外部工具,而AIGC技術可以將報告寫作等復雜認知操作轉化為低能耗的人機交互,完美契合了人類生物體“節能優先”策略。智庫研究人員也同樣具有這樣的本能,不可避免地存在這樣的問題。
上述兩類風險分別存在于智庫工作的初始端與輸出端,深刻地影響智庫研究的質量。智庫研究的科學性建立在數據采集與處理的準確性基礎之上,如果原始數據失真,即便是后續各個環節再努力,也無法得出正確的結論。在智庫產品的終端輸出環節,過度依賴AIGC技術實際上就是研究人員的批判性思維“外包”給了算法,這本身與智庫作為“社會大腦”和“思想庫”應具備原創性思維功能的要求相悖。
為解決上述問題,筆者認為關鍵是處理好“認知主導”與“技術賦能”兩者之間的關系。具體地說,新型智庫建設需要構建“制度一素質一技術”三位一體的協同機制保障。在制度維度,應建立AIGC工具應用的規范化管理體系,完善數據全生命周期的質量監控與可信性認證機制,確保智庫各項業務的科學性與倫理合規性。在人員素質維度,需強化研究人員的AI素養,提升研究人員在使用AIGC工具過程中進行人機協同的能力,重點突出人員在價值判斷、邏輯重構與跨學科整合中的主體性作用。在技術維度體系,需要根據特定智庫的方針任務及功能定位,研發適配性AIGC技術架構,包括:完善“數據采集一清洗一驗證一存儲一評估”全流程技術鏈;本地化部署AIGC生成模型;構建用于訓練模型的領域適配的標準訓練數據集。這種“制度一素質一技術”三位一體的協同機制以制度為保障、通過研究人員的能力提升,以與智庫工作適配的技術創新為支撐,可以使新型智庫借助AI發展帶來的紅利可持續地健康發展。
參考文獻:
[1]杜志章,程聰瑞,王媛媛,等.中國特色新型智庫建設 這十年:回顧、反思與展望[J].決策與信息,2024(6): 14-33.
[2]AI Action Summit. International AI safety report: Theinternational scientific report on the safety of advanced AI[R/OL].(2025-01-29)[2025-03-01].https:// assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_ accessible_f.pdf.
[3]環球網.四川網警依法查處10起利用AI造謠典型案 例[EB/OL]. (2024-07-27)[2025-03-01].https://baijiahao. baidu.c0m/s?id=1805719139165420605amp;wfr=spideramp;- for-pc.
[4] 中投顧問.警惕AI幻覺:大模型生成內容的真相與謊 言[EB/OL]. (2025-03-12)[2025-03-08]. https://zhuanlan. zhihu.com/p/29664691955.
[5] VASCONCELOSH,JORKE M,GRUNDE-MCLAUGHLINM,etal.Explanationscan reduce overreliance on AI systems during decision-making[J].Proceedings of the ACM on Human-Computer Interaction,2023,7(CsCW1): ArticleNo.129.
Abstract: [Purpose/Significance] This study analyzes two major challnges posed by AIGC technology to the development of New Think Tanks with Chinese characteristics: data reliability and technological dependency. It investigates potential risks and proposes response strategies aimed at strengthening the scientific rigor and operational independence of these Think Tanks in the age ofartificial inteligence.[Method/Process] Through literature review and case studies, this study examines the currnt application and risks ofAIGC technology in Think Tank research.It systematically evaluates its impact from perspectives suchasdata authenticity,model faws,and cognitive dependency, proposing a tripartite collaborative governance framework integrating“institution,competence,and technology\".[Result/Conclusion] While AIGC technology improves the efficiency of Think Tank research, italso introduces risks including compromiseddataauthenticity,biases in AI-generated content,and over-reliance on technology by researchers.New Think Tanks should establish robust data governance mechanisms,enhance researchers’AI literacy,and develop adaptive technological systems toachieve a balance between cognitive leadershipandtechnological empowerment,therebyensuringscientificrigor,originality,and socialresponsibility in Think Tank outputs.
Keywords:New Think Tanks AIGC technologydata reliabilitytechnological dependencyparadigm of Think Tank