【內容提要】大模型作為人工智能領域的重要突破,正在改變國際傳播研究的格局。本文基于大模型時代計算國際傳播的英文文獻,勾勒這一領域的基本圖景。研究發現,大模型的計算國際傳播研究呈現較強的跨學科特征,文化和政治是其兩大主題,中國和美國是兩大考察地區,GPT系列是主要分析模型。根據模型角色(對象/方法)和觀察視角(比較/流動),本文將大模型的計算國際傳播研究概括為“對象一比較”“對象一流動”“方法一比較”“方法一流動”四種模式,并詳細分析了其具體形態和方法操作,進而對大模型時代國際傳播研究的發展提出建議。
作為人工智能技術最引人矚目的新進展,大語言模型(largelanguagemodels)的發展非常迅速,不但深刻影響社會生活,也為社會科學研究帶來重要機遇。它對國際傳播領域也產生重要影響,不但可以應用于國際傳播的實踐,①也可以助力計算國際傳播研究(computationalinternational communicationresearch)。本文基于國際英文文獻,對大模型應用于計算國際傳播研究的現狀進行梳理。
本文對“國際傳播”的含義采取相對廣義的理解,包括國家比較層面的傳播分析(comparativestudies)和跨國之間的傳播互動(internationalandinterculturalstudies)。在比較層面,研究聚焦于傳播現象在不同國家或文化背景下的表現差異;在傳播互動層面,研究關注信息、文化在國家或區域之間的流動與影響。大模型時代的計算國際傳播研究被定義為與大模型有關(包括作為對象與方法)、采用計算(包括文本挖掘、在線實驗、行為挖掘等)或智能方法(基于大模型)展開的國際傳播研究。我們基于“國際傳播”和“大模型”兩個核心概念構建檢索詞組合,對社會科學引文索引(SSCI)和藝術與人文引文索引(Aamp;HCI)數據庫的傳播學及相關學科進行系統檢索(時間范圍為2022年1月1日至2025年1月15日)。考慮到學術期刊的發表周期問題,我們在預印本平臺arXiv的“計算機科學”(ComputerScience)分類下采用相同的檢索詞策略進行補充檢索。③經過對文獻題目、摘要及部分正文內容的人工閱讀,最終確定符合大模型計算國際傳播研究主題的文獻數量為54篇。接下來從研究概況、模式與方法等維度勾勒大模型時代計算國際傳播研究的發展圖景。
一、研究概況
(一)數量、平臺與主題
盡管ChatGPT在2022年問世,但當年并未出現與大模型相關的計算國際傳播研究。2023年,對這一領域的關注逐漸開始,共有10篇文章;2024年有38篇文章;2025年初,已有6篇新成果面世。從發表平臺看,該領域成果呈現跨學科特征。其中刊載較多的期刊為《自然》(Nature)雜志下屬的《人文與社會科學通訊》(HumanitiesandSocialSciencesCommunications)(3篇),收錄最多的會議為自然語言處理實證方法會議(EMNLP,3篇)、北美計算語言學協會會議(NAACL,2篇)、語言模型會議(COLM,2篇)等,均為自然語言處理相關的國際會議。相對而言,傳播期刊的發表較少(3篇)。
從研究主題看,與大模型相關的計算國際傳播研究主要涉及政治、經濟、文化、軍事、環保、科技、教育等主題。其中,文化類主題最多(35篇, 64.8% 可多選),關注大模型在不同國家文化、宗教、方言及飲食等方面的偏見、適應性與文化意識。政治類主題次之(14篇, 25.9% ),涉及大模型的政治偏見、對跨國政治文本的分析能力等。
(二)國家/地區與模型分布
從研究涉及的國家/地區的數量而言,有42篇文章說明了國家/地區的具體范圍;有5篇文章以不同語言(如中英文背景下的飲食文化)、宗教(如穆斯林和印度教徒的方言差異)、文化(如東西方思維)等作為比較或流動的邊界;有7篇沒有說明研究國家/地區的具體范圍。從研究的具體國家/地區來看,在指明國家/地區的研究中,美國(31篇, 73.8% )和中國(23篇,54.8% )是占比最多的兩個國家,其次是德國(20篇,47.6% )、英國(19篇, 45.2% )、法國、澳大利亞、西班牙、日本、印度和巴西(各有16篇, 38.1% )等。
大模型的選取也存在偏向。在涉及的27個模型中:對GPT的研究最多(46篇, 85.2% ),其次是Llama(11篇, 20.4% )、Claude和Gemini(各7篇, 13.0% 。從大模型開發公司的所在地而言,美國模型(52篇,96.3% )占比最高,其次是中國(Qwen、GLM、INTERN-VL、WenxinYige/文心一格、Ernie/文心一言、Baichuan/百川,8篇, 14.8% ),再次是法國模型(Mixtral、Mistral,5篇, 9.3% 。
二、研究模式
(一)劃分模式的兩個維度:大模型角色與國際傳
播視角
首先,大模型在國際傳播研究中存在兩種主要角色:作為分析對象和作為分析方法。前者指將與大模型相關的國際傳播現象作為研究問題(可被視為“智能的社會科學/SocialScienceofAl”的組成部分),后者則指將大模型作為國際傳播問題的研究方法(可被視為“社會科學智能/AlforSocialScience”的組成部分)。
其次,國際傳播研究有兩種主要視角:多國比較研究和跨國流動研究。前者主要是將不同國家/地區作為比較研究的對象、考察國家/地區在傳播現象上的異同,后者則考察國家/地區之間的信息、文化等的流動關系與影響(如:相互報道、信息流通、文化流動、國際輿論、全球情緒、文化適應等)。
根據上述兩個維度的組合,我們將大模型時代的計算國際傳播研究劃分為四種主要研究模式,并統計了各自所占的比例:(1)對象一比較研究:30篇55.6% ;(2)對象-流動研究:5篇 9.3% ;(3)方法一比較研究:10篇( 18.5% );(4)方法-流動研究:9篇( 16.7% 。
(二)大模型計算國際傳播研究的四種主要模式
1.對象一比較研究
這類研究主要關注大模型在不同國家/文化上的差異或偏見/偏向。所使用的核心概念/理論主要包括:偏見(含國家偏見、政治偏見、意識形態偏見、地理偏見、社會偏見、國籍偏見、性別偏見等)、文化理解(含文化維度理論、跨文化理解、文化意識、文化認知、文化自我感知等)、情感(如情感程序理論/affectprogramtheories)、思維(如思維地理性/geographyofthought)、擦除(含地理擦除/geographical erasure、文化擦除/culturalerasure、文化簡化/culturalsimplification、文化遺漏/culturalomission)等。具體的研究主要包括如下三方面:
第一,關注大模型的國家形象偏見。研究利用大模型生成關于不同國家的描述或評價,發現大模型復制了固有偏見,例如對西歐國家印象更好,對拉丁美洲和非洲的評價較為負面。還有研究進一步將國家的基本特征作為解釋變量,發現大模型對國家形象的呈現受到國家網民數和經濟指數的影響—顯著偏向網民總數較多、人類發展指數高的國家。⑤⑥
第二,關注大模型的價值觀(文化價值觀、政治價值觀等)。例如,有研究發現GPT在文化價值觀(以綜合價值觀調查/IntegratedValuesSurveys,IVS數據測量)上偏向英語和新教歐洲國家;有研究關注了大模型在心理認知文化上的表現,發現GPT在情感表達(以19個跨文化情景測量)上偏向西方規范。在政治價值觀方面,有研究關注了大模型在意識形態(以墮胎議題測量)上的表現,發現GPT在使用瑞典語時對相關議題的回應更偏向瑞典,使用波蘭語時則更偏向波蘭。⑨
第三,關注大模型在具體知識和任務中的偏見。例如,有研究分析ChatGPT在環境保護上回復的建議,發現其很大程度強化了西方科學認知,而忽略了低收入國家和本地社區的修復經驗。當大模型使用地理文化知識生成旅游建議時,更多提到歐洲地區,對非西方文化地區表現不佳(總體出現率低、推薦原因單一)。這種偏見還體現在團隊招聘、街景圖像渲染等許多任務情景中。
2.對象-流動研究
這類研究聚焦大模型在信息或文化的跨國傳播中的表現與影響。所使用的核心概念包括文化(含文化適應、文化意識、跨文化關聯等)、信息(含虛假信息、錯誤信息、數字宣傳等)和認知效果(如確認偏差/confirmationbias、首因效應/primacyeffect等)三個方面。具體的研究可以分為兩類:
第一,考察大模型在跨文化傳播任務中的表現。例如,有研究分析大模型在跨文化改編中的表現:讓GPT、ChatGLM2等完成一項中英互譯的食譜改編任務(cross-culturalrecipeadaptation),發現大模型的文化適應能力存在差異—GPT在中文到英文的食譜翻譯中表現出色,而ChatGLM2在英文到中文的翻譯中表現優異。還有研究分析大模型能否識別不同文化中的相似概念(如美國的新娘面紗和中國的紅蓋頭),發現思維鏈(CoT)的提示策略可以幫助模型識別跨文化流動中的相似性,但其跨文化理解能力仍然沒有人類準確。
第二,考察大模型生成技術在跨國傳播中可能帶來的影響。例如,一項研究分析大模型驅動的聊天機器人如何處理俄羅斯關于烏克蘭戰爭的虛假信息,并發現這些聊天機器人的準確性存在波動,特別是在非英語語境下,其識別和反駁虛假信息的能力顯著下降。另一項研究則分析了中道(Midjourney)生成俄烏戰爭相關圖像時的視覺表征特點,發現AI生成的戰爭圖像往往趨于同質化,過分強調破壞和戰斗場景,而忽視了更廣泛的文化和社會語境,可能會影響公眾對戰爭事件的認知和理解。 15
3.方法-比較研究
這類研究關注將大模型作為方法應用于研究時在不同國家/文化中的效果差異,包括作為文獻推薦方法(1篇, 10% )、文本分類(5篇, 50% 、以及調查樣本替代(4篇, 40% )。其中,除了1篇涉及到大模型與人類在混合編碼中的協同角色外(使用GPT-4對政治推文做出兩次編碼,當出現分歧時由人類專家裁定),其余均呈現大模型與人類之間的比較關系—即比較大模型的應用表現與傳統研究方法。
根據應用的具體情景,方法一比較研究主要可以分為兩類。首先,比較大模型用于文本分析的國家/地區差異。例如,有研究發現大模型在多模態仇恨言論編碼中的文化偏向(以與相應文化中的人類編碼員的一致性衡量),即大模型的編碼結果更傾向于美國文化,而與印度文化的契合度較低。還有研究發現大模型在政治分類中的跨文化差異,例如,使用GPT-4根據推文消息識別政治黨派時,在美國以外的地區準確率都較低。
其次,比較大模型在模擬調查樣本上的差異。例如,ChatGPT在模擬世界價值觀調查(WVS)中的政治和環境議題的輿論上,對西方、英語和發達國家的表現更好;類似地,當使用GPT-3.5來模擬公眾的政治選舉行為和對政治議題的態度時,模型在英語國家的模擬效果優于非英語國家,在兩黨制國家(如美國)的選舉模擬表現優于多黨制國家 (如德國)。這類研究揭示了大模型作為“硅樣本”(siliconsample)的模擬局限,強調了訓練語料多樣化的必要性。
4.方法-流動研究
這類研究主要聚焦大模型作為方法在跨國或跨文化傳播研究中的應用價值,包括文本分類(6篇,66.67% )和問卷調查(3篇, 33.33% )。其中,有2篇(22.22% )體現了大模型與人類的協同關系,另外7篇體現了比較關系( 77.78% )。具體內容包括:
首先,關注大模型方法在國際傳播流動的文本分析中的應用。例如:有研究使用ChatGPT對美國、英國對中國的經濟新聞報道文本進行主題分類,有研究使用GPT和Claude對中國社交媒體上關于烏克蘭危機的討論發帖進行立場分類,還有研究運用GPT對優兔上瑞典網民對羅姆移民議題的評論中的仇恨言論進行主題分析。
其次,關注大模型在跨國/跨文化調查中的問卷改編應用。例如,有研究使用AI預測試從美國改編至南非的問卷,發現經過GPT審閱和選代后的問卷在清晰度和偏見問題上相比原始版本表現更好,并大大減少了傳統專家審閱和用戶測試的時間和成本;有研究則指出,GPT在翻譯問卷的質量和問題識別方面具有潛力,但對復雜語境的理解和輸出的穩定性不足。
三、研究方法
(一)參數設定
我們編碼了所有54篇文獻中對相關參數的設置情況,主要包括溫度、響應次數等。結果發現:有37篇(68.5% )明確了每個提示的響應次數。其中,只考慮模型單次輸出的情況最多(14篇, 37.8% )、其次是3次和100次輸出(各4篇, 10.8% 。
有20篇文獻 37.0% )明確了溫度的設置,共有13種不同的溫度設置(可多選)。設置為0的有10篇(50%) ,設置為1的有8篇( 40% ,設置為其他溫度的有9篇( 45% )。在20篇文獻中,有6篇研究( 30% 探究了大模型在不同的溫度設置下的表現,剩余14篇(70% )研究使用了單一的溫度設置。
溫度和響應次數影響著輸出的穩定性,取決于任務的不同需求,每篇文章具體的設置差異較大。但研究發現,即便是相似的主題和任務,參數的設置也存在差異。例如,在研究GPT模型的國籍偏見時,研究者為了避免偶然性,讓每個提示在4種溫度設置下(0、0.3、0.6、0.9)生成2輪話語,在計算相似度后選擇是否合并,而另外兩篇研究國際偏見的文章則未提及溫度設置,將每個提示的響應次數設置為100。②④
(二)提示設計
提示(prompt)是用戶給大模型的指令,模型會根據這些指令生成相應的輸出,不同的提示設計會顯著影響大模型的輸出結果。在社會科學研究中,微調通常因需要大量的計算資源和訓練數據而難以實現,因此,簡單輕量的提示設計在大模型使用的零樣本和少樣本學習場景中具有重要作用。
研究發現,在提示設計中,“角色扮演”(role-play)的使用最多。主要有具有特定文化身份的角色(如作為在某國長大的人、天主教徒、聯合國維和人員等)、分析輔助型角色(如定性研究員、敘事學家等)兩種。前者主要是為了得到特定文化身份的回答,從而獲得模型對不同文化的模擬和評估。例如,讓LLaMA扮演不同宗教教徒以獲得模型對不同宗教的情感表達,評估模型的文化偏見。后者主要是為了幫助模型理解、生成和分析與跨文化、多語言背景相關的內容,例如,讓ChatGPT扮演精通某國文化的專家,從而實現對問卷的跨文化改編。③
四、總結與思考
本文總結了大模型時代計算國際傳播研究的發展特征。第一,呈現社會科學與計算機技術交叉的學科特征,文化和政治是其中的重要主題;第二,從國家來看,美國和中國是研究最多的兩個國家;從模型來看,GPT系列是研究最多的模型;第三,本文基于大模型角色(對象VS.方法)和國際傳播視角(比較VS.流動)提出大模型計算國際傳播研究的四種模式,并發現其作為分析對象主要集中于研究大模型的跨國和跨文化偏見,作為方法則主要應用于文本分析和調查研究;第四,大模型的設置在響應次數上以單次為主,主要采用“角色扮演”型的提示設計。
基于上述發現,我們認為,大模型時代的計算國際傳播研究可以在如下方面進一步發展:第一,傳播學應當更加重視大模型時代的計算國際傳播研究。目前,相對于計算機學科,傳播研究的關注相對不足,值得加強;第二,超越“西方中心主義”。目前大模型時代的計算國際傳播研究仍然存在一定程度的西方中心主義傾向一—表現在無論是所研究的國家還是模型產地,仍以美國和歐洲主要國家為主。在推動全球文化互鑒與信息流通的國際傳播背景下,未來研究可以納入更多來自全球不同地區和不同發展階段的國家,以及與這些國家相關的本地化大模型,從而更加全面地反映全球多樣化的傳播格局;第三,加強解釋性研究。現有研究主要側重于描述大模型的具體表現或方法潛力,缺乏較為深入的理論探討。例如,對大模型在國際傳播中的偏見的描述性分析較多,但解釋性分析不足,這方面需要大力加強;第四,對大模型作為國際傳播的研究方法有更好的定位。盡管一些研究探討了大模型在國際傳播研究中的潛力,但都是從比較的角度展開,缺乏與人類的協同研究。實際上,由于大模型偏見和響應的各種問題,其應用并不總是那么有效,人工智能應被視為協助、改進或增強研究的工具,而非完全替代傳統研究方法;第五,國際傳播研究中對大模型的操作設計需更規范。模型的參數設置和提示設計一方面需要適應國際傳播研究的具體情景,另一方面也會對國際傳播的結果產生重要影響。然而,目前國際傳播研究中大模型的參數設置存在較大差異,既缺乏足夠充分的報告,也缺乏解釋說明,因此,大模型時代的計算國際傳播研究需要增強方法運用與操作設計的規范性、透明性、解釋性,這不僅能夠提高國際傳播研究的質量和可靠性,也有助于推動國際傳播理論的創新與發展。
本文系國家社科基金人才項目(22VRC186)、上海數學與交叉學科研究院項目(SIMIS-ID-2024-LZ)的階段性成果。
周葆華系復旦大學信息與傳播研究中心研究員,復旦大學新聞學院教授,全球傳播全媒體研究院研究員,復旦大學國家發展與智能治理綜合實驗室研究員;方揚系復旦大學新聞學院研究生
「注釋」
① 周葆華、吳雨晴:《生成式人工智能影響下的國際傳播:實踐進展與影響路徑》, 《對外傳播》2024年第6期,第4-8頁。
② Robert L. Stevenson, \"Defining International Communication as a Field,\" JournalismQuarterly,69,no.3(1992):543-553.
③ 研究采用的檢索表達式為 TS= (\"LLM*\" OR \"language model*\" OR \"AIgenerated\" OR\"generative AI\" OR \"GAI\" OR\"text generation\" OR \"music generation\" OR \"video generation\" OR\"image generation\" OR\"prompt*\" OR\"GPT\" OR \"Gemini\" OR \"Midjourney\" OR \"Claude\" OR \"DALL-E\" OR \"Llama\"OR\"StableDiffusion”OR\"chatbot\")AND TS= (\"nation*\"OR \"multinational\"OR“transnational\" OR“international\" OR“cultural*\"OR \"Multicultural\" OR \"intercultural\" OR \"transcultural\" OR \"worldwide\" OR \"cross-border\" OR \"cosmopolitan\" OR \"foreign\" OR \"overseas\" OR country OR \"geopolitical\" OR \"information warfare\" OR \"soft power\" OR \"sovereignty\" OR\"propaganda\" OR“diplomatic\" OR \"diplomacy\"))AND DOH
(2022-01- 01/2025-01-15),檢索學科為傳播學(communication)、政治科學(political science)、計算科學(computer science)、國際關系(internationalrelations)、 社會科學(socialsciences)、人文科學(humanities)、人工智能(artificial intelligence)等,在Webof Science平臺共獲得1552篇相關文獻。為確保文 獻搜索的全面性,研究還將Nature、Science和PNAS等高水平綜合性期刊納 入檢索范圍,以相同關鍵詞和時間范圍進行檢索,獲得232篇相關文獻作為補 充。在arxiv平臺上初始獲得文獻2531篇。
④ Mahammed Kamruzzaman and Gene Louis Kim, \"Exploring Changes in Nation Perception with Nationality-Assigned Personas in LLMs,\" ArXiv :abs/2406.13993 (2024).
⑤ Pranav Narayanan Venkit et al.,\"Nationality Bias in Text Generation,\" ArXiv :abs/2302.02463 (2023).
⑥ Georgios P. Georgiou, \"ChatGPT Exhibits Bias Toward Developed Countries Over Developing Ones, as Indicated by a Sentiment Analysis Approach,\" JournalofLanguage andSocialPsychology,44,no.1(2025):132-141.
⑦ Yan Tao et al., \"Cultural Bias and Cultural Alignment of Large Language Models,\" PNAS Nexus,3,no.9 (2024): pgae346.
⑧ Shreya Havaldar et al.,\"Multilingual Language Models Are Not Multicultural: A Case Study in Emotion,\" ArXiv :abs/2307.01370 (2023).
⑨ Christina Walker and Joan C. Timoneda,\"Identifying the Sources of Ideological Bias in GPT Models Through Linguistic Variation in Output,\" ArXiv :abs/2409.06043 (2024).
① Danilo Urzedo et al., \"AI Chatbots Contribute to Global Conservation Injustices,\"Humanities and Social Sciences Communications,ll,no.1 (2024): 1-8.
① Rida Qadri et al.,\"Risks of Cultural Erasure in Large Language Models,\" ArXiv :abs/2501.01056 (2025).
Yong Cao et al.,\"Cultural Adaptation of Recipes,\" Transactions of the AssociationforComputationalLinguistics,12 (2024):80-99.
Jialin Li et al.,\"How Well Do LLMs Identify Cultural Unity in Diversity?\" ArXiv :abs/2408.05102 (2024).
Mykola Makhortykh et al., \"LLMs as Information Warriors? Auditing How LLM-Powered Chatbots Tackle Disinformation About Russia's War in Ukraine,\" ArXiv :abs/2409.10697 (2024).
① Nataliia Laba,\"Engine for the Imagination? Visual Generative Media and the Issue of Representation,\" Media, Culture amp; Society (2024): 01634437241259950.
① Michael Heseltine and Bernhard Clemm von Hohenberg, \"Large Language Models as a Substitute for Human Experts in Annotating Political Text,\" Research amp; Politics,1l,no.1 (2024):20531680241236239.
① Minh Duc Bui, Katharina von der Wense,and Anne Lauscher, \"Multi3Hate: Multimodal, Multilingual, and Multicultural Hate Speech Detection with Vision-Language Models,\"ArXiv :abs/24l.0388 (2024).
① Petter Tornberg, \"Large Language Models Outperform Expert Coders and Supervised Classifiers at Annotating Political Social Media Messages,\" Social Science Computer Review (2024): 08944393241286471.
Yao Qu and Jue Wang,\"Performance and Biases of Large Language Models in Public Opinion Simulation,\"Humanities and Social Sciences Communications, 11,no.1 (2024): 1-13.
Weihong Qi, Hanjia Lyu, and Jiebo Luo, \"Representation Bias in Political Sample Simulations with Large Language Models,\" ArXiv :abs/2407.11409 (2024).
Meng Ye and Eric Friginal, \"Portrayals of Chinese Companies in American and British Economic News Tweets During China's Macroeconomic Transitions 2007-2023,\" Humanities and Social Sciences Communications,11, no.1 (2024): 1-12.
Richard Rogers and Xiaoke Zhang, \"The Russia-Ukraine War in Chinese Social Media: LLM Analysis Yields a Bias Toward Neutrality,\" Social Media + Society,10,no.2 (2024):20563051241254379.
Petre Breazu et al., \"Large Language Models and Thematic Analysis: Human-AI Synergy in Researching Hate Speech on Social Media,\" ArXiv :abs/2408.05126 (2024).
Divya Mani Adhikari et al.,\"Exploring LLMs for Automated Pre-Testing of Cross-Cultural Surveys,\" ArXiv :abs/250l.05985 (2025).
Jonas R. Kunst and Kinga Bierwiaczonek, \"Utilizing AI Questionnaire Translations in Cross-Cultural and Intercultural Research: Insights and Recommendations\"InternationalJournalofInterculturalRelations,97(23): 101888.
② Shucheng Zhu, Weikang Wang,and Ying Liu, \"Quite Good,but Not Enough: Nationality Bias in Large Language Models-A Case Study of ChatGPT,\" ArXiv :abs/2405.06996 (2024).
同④。
@同5。
Sondos Mahmoud Bsharat, Aidar Myrzakhan, and Zhiqiang Shen, \"Principled Instructions Are All You Need for Questioning Llama-l/2,GPT-3.5/4,\" ArXiv :abs/2312.16171 (2023).
③ Flor Miriam Plaza-del-Arco et al.,\"Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models,\"ArXiv :abs/2407.06908 (2024).
③ Erica Ann Metheney and Lauren Yehle, \"Exploring the Potential Role of Generative AI in the TRAPD Procedure for Survey Translation,\" ArXiv :abs/2411.14472 (2024).
責編:譚震