在DeepSeek掀起的又一輪全球AI創(chuàng)新與應(yīng)用浪潮中,巴黎人工智能峰會于2025年2月10日隆重開幕。峰會由法國和印度兩國元首聯(lián)合主持,匯聚全球100多個國家的領(lǐng)導(dǎo)人以及國際組織領(lǐng)導(dǎo)人、學(xué)術(shù)界權(quán)威、企業(yè)高管、非政府組織代表,圍繞人工智能技術(shù)的前沿創(chuàng)新、治理體系和社會影響展開了100多場深入探討。而巴黎峰會只是這些年諸多全球AI治理的會議之一,依然不能指望帶來更有成效的全球治理機(jī)制和更清晰的行動路線。全球AI治理陷入典型的科林格里奇困境:尋找發(fā)展與安全平衡點的現(xiàn)實性與緊迫性急劇上升;圍繞AI收益與風(fēng)險、治理的時機(jī)和行動力度等相關(guān)爭議與分歧與日俱增;理論研究、規(guī)范倡議與政策關(guān)注程度迅速提升,但在實際中得以確定與落實的難度也與日俱增。1]
與蒸汽機(jī)、電力和互聯(lián)網(wǎng)在過去幾個世紀(jì)中所起的作用相似,AI技術(shù)正在成為塑造未來世界的關(guān)鍵力量。AI智能正在改變?nèi)祟愃枷搿⒅R、感知和現(xiàn)實,任何領(lǐng)域的專家都無法僅憑一己之力理解一個機(jī)器能夠自主學(xué)習(xí)和運(yùn)用邏輯的未來。這已超出目前人類理性可及的范圍,需要社會合作才能更好地理解和適應(yīng)未來。2]AI治理可以被定義為一套政策、規(guī)范、法律和機(jī)構(gòu)的集合,旨在塑造人工智能的構(gòu)建和部署方式,在確保這些系統(tǒng)在符合組織目標(biāo)、法律和道德要求的同時,促進(jìn)有效、安全、包容、合法和適應(yīng)性的決策。AI治理不僅涉及政府行為,還包括社會各界的行動與規(guī)范。它強(qiáng)調(diào)通過各方合作,平衡AI技術(shù)的利益與風(fēng)險,并通過激勵與制裁機(jī)制來實現(xiàn)理想成果。[3][4]
AI治理已成為全球最炙手可熱的學(xué)術(shù)焦點之一,呼應(yīng)著AI技術(shù)浪潮及其驅(qū)動的社會變革。從2022年11月ChatGPT發(fā)布,到2025年DeepSeek的爆火,以AIGC主導(dǎo)的這一輪AI浪潮已經(jīng)進(jìn)入實質(zhì)性的商業(yè)化驅(qū)動和主流化應(yīng)用的落地階段。伴隨而來的是從算法偏見到隱私保護(hù)、從虛假信息到信任危機(jī)、從信息不對稱到智能鴻溝等一系列不可預(yù)見的風(fēng)險和復(fù)雜的治理挑戰(zhàn)。AI治理不僅成為科技與社會互動的重要領(lǐng)域,更是各國權(quán)力博弈與國際規(guī)則制定的核心場域。這一技術(shù)與社會深度嵌合,所引發(fā)治理困境的復(fù)雜性與不確定性越來越大。由此,AI技術(shù)亟待治理的問題不僅是其新穎性所造成的,還是其所引發(fā)的大規(guī)模變革并成為國家和社會影響源的結(jié)果。
當(dāng)前的AI治理知識體系是圍繞AI技術(shù)的演進(jìn)與應(yīng)用實踐中,不斷應(yīng)對問題與風(fēng)險構(gòu)筑和創(chuàng)造相應(yīng)的知識體系,但系統(tǒng)的基礎(chǔ)性理論尚未形成,對潛在可能的風(fēng)險的認(rèn)識也未達(dá)成共識,全球性治理機(jī)制更亟待建立。在這種背景下,新聞傳播學(xué)、公共管理、法學(xué)、科技哲學(xué)和國際關(guān)系學(xué)等不同學(xué)科,沿著不同學(xué)理路徑,掀起了研究熱潮。而洞察AI治理,必須具有跨學(xué)科、多領(lǐng)域的知識視角,在爆炸式的各種碎片化的學(xué)術(shù)洞見中,具備構(gòu)建馬賽克式的拼裝與融合的能力。在缺乏全景式學(xué)術(shù)知識體系的現(xiàn)實下,我們通過全球性、跨學(xué)科、多維度的概覽式考察,梳理AI治理多學(xué)科的國內(nèi)外學(xué)術(shù)論文,重點探討了AI在網(wǎng)絡(luò)治理、社會治理、國際合作和智能治理鴻溝中的最新進(jìn)展以及面臨的具體困境,揭示AI治理在權(quán)力博弈、技術(shù)規(guī)制和社會價值平衡中的深刻變革與未來發(fā)展方向。通過更加全面的認(rèn)識,為我們理解當(dāng)今的智能傳播變革和與影相隨的風(fēng)險,建構(gòu)AI治理知識體系提供啟示。
一、智能技術(shù)的科林格里奇困境:智能技術(shù)的本質(zhì)與治理
了解AI治理,首先需要了解這場智能革命的本質(zhì)。以AIGC為代表的這一輪智能浪潮,首先是傳播革命。傳播視角為我們理解這場智能革命以及把握AI治理的底層路徑,提供了很好的切入點。AI技術(shù)的核心在于數(shù)據(jù)、算法與算力的三元耦合體系如何重構(gòu)信息社會的權(quán)力網(wǎng)絡(luò),通過技術(shù)物質(zhì)性與傳播實踐的深度互嵌,推動傳播生態(tài)從媒介化向算法化轉(zhuǎn)型。數(shù)據(jù)成為智能技術(shù)的“新石油”,通過行為剩余捕獲,完成傳播資源私有化——用戶每一次點擊、滑動與社交互動都被平臺轉(zhuǎn)化為可計算、可交易的數(shù)字資產(chǎn)。算法被視為“隱形的編輯室”,話語與知識的生成和傳播都受到計算程序算法邏輯的支配。算力則是傳播基礎(chǔ)設(shè)施霸權(quán)的根本,算力競爭本質(zhì)是傳播基礎(chǔ)設(shè)施控制權(quán)的爭奪。由此,數(shù)據(jù)驅(qū)動算法迭代,算法效能依賴算力支撐,而算力擴(kuò)張又加速數(shù)據(jù)殖民化進(jìn)程,三者共同構(gòu)成“技術(shù)一資本一權(quán)力”的閉環(huán)系統(tǒng)。
AI治理的崛起就是技術(shù)、資本與權(quán)力演進(jìn)之間結(jié)構(gòu)性張力的產(chǎn)物,這種復(fù)雜性就是造成科林格里奇困境[5]的根源。AI技術(shù)的快速迭代導(dǎo)致這一困境尤為突出。AI的創(chuàng)新速度已遠(yuǎn)超摩爾定律的預(yù)期,治理規(guī)則滯后性加劇,陷入了創(chuàng)新自由與風(fēng)險控制的動態(tài)博弈。科林格里奇困境在AI治理中進(jìn)一步凸顯為技術(shù)發(fā)展的不可逆性與治理介入時機(jī)選擇的矛盾。在巴黎人工智能行動峰會上,科林格里奇困境的技術(shù)治理悖論再度具象化。技術(shù)自由主義學(xué)派的邁克爾·喬丹(MichaelI.Jordan)堅持認(rèn)為,AI技術(shù)監(jiān)管應(yīng)該在創(chuàng)新成熟之后進(jìn)行,警示“過早規(guī)訓(xùn)可能凍結(jié)技術(shù)奇點演化的拓?fù)淇臻g”。而技術(shù)控制論陣營的斯特凡·馬拉特(StéphaneMallat)則指出監(jiān)管是不可避免的。這種分歧折射出在AI技術(shù)下,破解科林格里奇困境所面臨的問題:如何在技術(shù)創(chuàng)新的自由度與社會控制的有效性之間建立動態(tài)平衡?從而既不壓制創(chuàng)新,也不讓其失控。
基辛格博士(HenryAlfredKissinger)將AI技術(shù)與古登堡現(xiàn)代印刷術(shù)引發(fā)的變革作了很好的對照。方興東和鐘祥銘通過“谷登堡時刻2.0”這一概念,將Sora等AI技術(shù)的誕生界定為媒介生產(chǎn)和媒體形態(tài)的關(guān)鍵轉(zhuǎn)變,尤其在信息生產(chǎn)、傳播速度和社會融合等方面帶來根本性變化,將引發(fā)治理時序的挑戰(zhàn)。這種技術(shù)躍遷與治理滯后的矛盾,恰是科林格里奇困境在時間維度的典型體現(xiàn)。AI治理的關(guān)鍵在于時機(jī)的把握,探索“先發(fā)展,再治理”和“邊發(fā)展,邊管理”兩種節(jié)奏的靈活組合。6]“先發(fā)展,再治理”可能會導(dǎo)致技術(shù)發(fā)展過程中規(guī)則真空的出現(xiàn),進(jìn)而形成“贏者通吃”的壟斷格局。就過往案例來看,谷歌2024年處理全球 89.79% 的搜索請求,其算法權(quán)重直接影響超50億用戶的認(rèn)知框架。7]一些早期放任數(shù)據(jù)采集的行為使谷歌、字節(jié)跳動等這類平臺企業(yè)積累超大規(guī)模行為數(shù)據(jù)庫,形成“數(shù)據(jù)寡頭”對公共話語的隱性控制。
AI技術(shù)的“無國界”特性也使其治理困境變得更加復(fù)雜。一方面,跨國科技巨頭通過數(shù)據(jù)殖民主義構(gòu)建數(shù)字霸權(quán),加劇全球南北技術(shù)鴻溝;另一方面,地緣政治競爭推動AI軍事化發(fā)展,自主武器系統(tǒng)的擴(kuò)散使國際安全面臨“去人類化”威脅。在此背景下,以主權(quán)國家為核心的傳統(tǒng)治理體系難以有效應(yīng)對AI技術(shù)帶來的跨國界、跨領(lǐng)域挑戰(zhàn)。而深層的困境則指向人類文明秩序的挑戰(zhàn)——AI技術(shù)對主體性認(rèn)知的顛覆迫使社會重新審視“人機(jī)共生”時代的倫理底線。技術(shù)一旦嵌入社會結(jié)構(gòu),其退出成本將遠(yuǎn)超初期收益。這些復(fù)雜性使之區(qū)別于其他任何技術(shù),需要突破傳統(tǒng)非此即彼的治理思維。AI可能成為第一種具備自我改進(jìn)功能的技術(shù),對其治理不能簡單套用陳舊的框架[8]“先發(fā)展,再治理”的傳統(tǒng)線性思維無法應(yīng)對AI技術(shù)帶來的非線性風(fēng)險傳導(dǎo),需要探索更加靈活、前瞻和包容的治理模式,以實現(xiàn)AI技術(shù)發(fā)展與社會穩(wěn)定的動態(tài)平衡。
基于此,張凌寒和于琳引入敏捷治理理念,9]在技術(shù)演進(jìn)軌跡中植入動態(tài)糾偏機(jī)制,通過“邊發(fā)展,邊管理”的協(xié)同治理模式,將傳統(tǒng)治理的剛性框架轉(zhuǎn)為彈性化。劉欣和蔣雪穎建議將技術(shù)治理和倫理治理并行推進(jìn),建立全生命周期訓(xùn)練數(shù)據(jù)集、制定多項標(biāo)準(zhǔn)和機(jī)制。同時,以人的價值需求為導(dǎo)向,遵循HCAI方針及相關(guān)原則,從而平衡技術(shù)與倫理。10]陳昌鳳等人構(gòu)建的CHAT倫理框架,實質(zhì)是將人類文明的基因通過構(gòu)建倫理治理體系,編譯為技術(shù)代碼深入操作系統(tǒng),成為技術(shù)迭代的默認(rèn)選項。1]這種倫理代碼化與常江提出的介入性傳播理念形成共振。常江主張傳播干預(yù)社會進(jìn)程,強(qiáng)調(diào)人類作為技術(shù)使用者,必須對人工智能與媒體生態(tài)共生關(guān)系的批判性理解,形成“有節(jié)制的”自動化媒體生態(tài)。12]喻國明等從傳播理性到人機(jī)協(xié)同進(jìn)行全方位的治理路徑探索。13]協(xié)同合作、多管齊下進(jìn)行治理,或?qū)崿F(xiàn)AI發(fā)展與治理的同步推進(jìn)。14]這些治理策略共同為解決AI治理的兩難困境提供了可行的參考,推動了技術(shù)發(fā)展與社會穩(wěn)定前行的可能性。
二、AI浪潮中網(wǎng)絡(luò)治理之變:風(fēng)險應(yīng)對與生態(tài)優(yōu)化
互聯(lián)網(wǎng)不僅是信息與輿論傳播的主陣地,也是AI技術(shù)賴以生存和擴(kuò)展的空間。隨著AI的深度融合,網(wǎng)絡(luò)治理面臨的風(fēng)險愈發(fā)復(fù)雜,特別是算法偏見、虛假信息泛濫與網(wǎng)絡(luò)輿論生態(tài)失控等問題已成為當(dāng)下亟需解決的重要議題。互聯(lián)網(wǎng)建構(gòu)的全球一體化的網(wǎng)絡(luò)空間是AI治理科林格里奇困境的根源之一。網(wǎng)絡(luò)空間作為一個開放的復(fù)雜系統(tǒng),其中的諸多問題都是由具有多樣性、綜合性、系統(tǒng)性的因素造成的。15]治理的復(fù)雜性和難度超越了現(xiàn)實社會的治理,尤其是超越了人類理性可以理解和規(guī)劃的能力。
當(dāng)算法系統(tǒng)已深度嵌入數(shù)據(jù)選擇、信息過濾與模型設(shè)計的全鏈條時,社會既無法承受技術(shù)失控引發(fā)的算法綁架與價值異化,又難以在技術(shù)萌芽期預(yù)判其倫理風(fēng)險,使工具理性與價值理性實現(xiàn)動態(tài)平衡,導(dǎo)致人們在馴化算法的同時無形中被算法所馴化。彭蘭揭示的這種“算法囚禁”現(xiàn)象恰是科林格里奇困境在算法上難以平衡的具像化問題。[16]人機(jī)協(xié)同治理可以避免單一主體應(yīng)對的不足,整合人類智慧與計算系統(tǒng)能力,保持工具理性與價值理性統(tǒng)一。17]當(dāng)大模型以數(shù)據(jù)喂養(yǎng)獲得強(qiáng)大的內(nèi)容生成能力時,資本與技術(shù)權(quán)力的隱性操控已悄然植人算法系統(tǒng)以及信息生產(chǎn)與傳播的鏈條。具體來說,在數(shù)據(jù)喂養(yǎng)和算法訓(xùn)練中,生成式人工智能所武裝起的內(nèi)容創(chuàng)造能力與信息模擬的便利,實則背后隱藏著資本與技術(shù)的強(qiáng)力掌控。18]由此,需要重新界定在此背景下所生產(chǎn)的知識作為公共產(chǎn)品的邊界,支持集體智慧的發(fā)展。[19]
生成式人工智能的崛起使虛假信息在互聯(lián)網(wǎng)中裂變生產(chǎn)、急劇擴(kuò)散。漆晨航指出“虛假信息”模糊的困境,導(dǎo)致當(dāng)前公權(quán)力介入限度難把握。[20]這實則是技術(shù)迭代速度超越法律概念更新的速度。由此,周妍和沈天健對生成式人工智能虛假信息作出如下界定:“經(jīng)由生成式人工智能大模型生產(chǎn)的,文本真實性遭到技術(shù)性操縱并對社會公序具有危害性的信息”,他們提出三級治理框架,為在技術(shù)創(chuàng)新與技術(shù)失控風(fēng)險需求之間構(gòu)建緩沖帶。從創(chuàng)設(shè)層的監(jiān)測到散播層的數(shù)字水印,再到流通層的信息遮蔽,這種分層治理策略試圖在技術(shù)生命周期不同階段植人差異化控制機(jī)制。[21]雷霞提出的區(qū)塊鏈溯源和場景化數(shù)字人引導(dǎo),也在技術(shù)架構(gòu)中留下價值理性的標(biāo)記[22]但這些治理路徑的共同困境在于,如何在規(guī)范虛假信息和提升信息透明度的同時,避免形成過度監(jiān)管。胡泳建議從多維度安排實現(xiàn)問責(zé)分配,綜合考慮治理結(jié)構(gòu),明確各類參與者責(zé)任,平衡政府監(jiān)管。突出互聯(lián)網(wǎng)平臺的把關(guān)人角色,運(yùn)用技術(shù)和算法識別虛假信息,針對人工智能內(nèi)容采取措施,同時調(diào)整財務(wù)激勵。23]才能在政府監(jiān)管、技術(shù)自治與市場激勵之間保持微妙張力。
而網(wǎng)絡(luò)輿論生態(tài)的液態(tài)化轉(zhuǎn)型,使得科林格里奇困境在信息傳播領(lǐng)域呈現(xiàn)復(fù)雜化態(tài)勢。當(dāng)社交機(jī)器人突破以人為中心的輿論生產(chǎn)格局,輿論本體受商業(yè)資本與技術(shù)壟斷影響、公眾認(rèn)知被算法重塑時,技術(shù)賦權(quán)與認(rèn)知操縱的邊界將模糊,信息自由與事實扭曲也形成沖突。構(gòu)建良性場域提升輿情監(jiān)測與預(yù)判能力是基礎(chǔ),凝聚多元主體合力、進(jìn)行多方合作明確責(zé)任規(guī)范行為、強(qiáng)化自律機(jī)制是實現(xiàn)輿論生態(tài)良性循環(huán)的重要路徑。24]還需結(jié)合知識圖譜與生成式AI的分析模型,在社交媒體輿情治理中實現(xiàn)信息預(yù)警、輿論構(gòu)建策略分析、跨語言信息處理等應(yīng)用。25]而“FAITH”體系(向善、真實、習(xí)慣、透明、人本),為發(fā)揮多元主體的側(cè)芽效應(yīng)提供框架,以破解技術(shù)頂端優(yōu)勢帶來的治理困局。19]這種多元共治模式既承認(rèn)技術(shù)發(fā)展的不可逆性,又通過制度彈性為價值理性保留干預(yù)空間,在維持主干技術(shù)生長的同時培育替代性技術(shù)發(fā)展可能,為技術(shù)創(chuàng)新保留自我糾偏的機(jī)會。
總之,互聯(lián)網(wǎng)作為AI生存與擴(kuò)張的母體,構(gòu)建了全球一體化的復(fù)雜系統(tǒng)。互聯(lián)網(wǎng)AI治理的出路不在于消除困境,而在于構(gòu)建一個可以在算法架構(gòu)中預(yù)埋倫理糾偏機(jī)制,在技術(shù)迭代中預(yù)留價值校準(zhǔn)接口,使工具理性與價值理性在動態(tài)博弈中達(dá)成相對平衡的治理生態(tài),
三、AI如何驅(qū)動社會治理:智能城市建設(shè)中的治理新篇
全球整體性的AI治理規(guī)范和機(jī)制是很難把握的,不妨先回到范圍有限、場景確定和更加具體的治理實踐之中,尋找AI治理科林格里奇困境的特性與邏輯。無論是在教育、醫(yī)療健康,還是智能城市等領(lǐng)域,AI技術(shù)的應(yīng)用都面臨如何平衡創(chuàng)新推動與社會風(fēng)險管控的核心挑戰(zhàn)。在教育領(lǐng)域,AI技術(shù)尤為契合知識密集型的學(xué)習(xí)與教學(xué)活動。基于算法和知識庫構(gòu)建的AI工具能夠有效支持和增強(qiáng)教育者與學(xué)習(xí)者的認(rèn)知和問題解決能力,[26]從而構(gòu)建認(rèn)知增強(qiáng)系統(tǒng),形成知識權(quán)力再分配的局面。喻國明等人指出,提示工程能力作為統(tǒng)攝性能力,連接人類需求與人工智能技術(shù),協(xié)調(diào)教學(xué)模式各要素,是人人所需具備的技能。[27]然而,AI賦能教育治理面臨倫理與法律邊界考慮不足,治理理念、模式與制度不完善,技術(shù)融合應(yīng)用存在短板,治理體系智能化轉(zhuǎn)型力度不夠等問題。28]因此,教育系統(tǒng)既需要AI技術(shù)突破傳統(tǒng)認(rèn)知邊界,又必須警惕算法推薦引發(fā)的認(rèn)知窄化甚至知識異化,更需防范技術(shù)能力差異導(dǎo)致的社會知識分層固化。這種既要拆除圍墻又要重建邊界的悖論,迫使AI教育的治理體系必須在效率至上與價值守護(hù)之間尋找動態(tài)平衡點。
一方面,醫(yī)療健康領(lǐng)域的科林格里奇困境,呈現(xiàn)出技術(shù)賦能與情感異化的雙重性。AI在醫(yī)學(xué)影像診斷中能夠快速、準(zhǔn)確地分析X光、CT等影像數(shù)據(jù),幫助醫(yī)生提高診斷效率和準(zhǔn)確性,減少人為誤差,但這也正在消解醫(yī)患互動的情感溫度。當(dāng)算法將病癥轉(zhuǎn)化為數(shù)據(jù)流時,醫(yī)療實踐面臨被技術(shù)解構(gòu)的危機(jī),機(jī)器學(xué)習(xí)的冷理性與健康傳播的情感需求形成結(jié)構(gòu)性沖突。從健康傳播角度而言,AI驅(qū)動的智能推薦系統(tǒng)能增強(qiáng)信息的可關(guān)聯(lián)性,改變了健康傳播的方式。然而,缺乏對情感傳播的有效引導(dǎo)與規(guī)范是目前該領(lǐng)域治理的主要缺口。媒介在情感表達(dá)中的作用可能導(dǎo)致這種情感連接的偏移,導(dǎo)致這種缺乏情感連接的弱關(guān)系在網(wǎng)絡(luò)中引發(fā)誤解和沖突。29]另一方面,醫(yī)療健康涉及多個學(xué)科領(lǐng)域,需要跨學(xué)科的研究和協(xié)同治理。然而,當(dāng)前各學(xué)科之間的協(xié)作不夠緊密,在健康信息管理、醫(yī)療技術(shù)應(yīng)用等方面,缺乏綜合多學(xué)科知識的研究和治理方案。這種跨學(xué)科協(xié)同治理的需求與學(xué)科壁壘的存在,折射出技術(shù)創(chuàng)新速度與跨學(xué)科交叉能力的根本性失衡的困境。
AI的廣泛應(yīng)用催生了“AI城市主義”—一種受AI影響的城市主義,旨在探討人工智能如何影響城市的生活、治理和規(guī)劃。30]智能城市的概念已經(jīng)超越了信息通信技術(shù)(ICTs),拓展至公共管理、城市規(guī)劃和信息系統(tǒng)管理等領(lǐng)域。治理模式也由傳統(tǒng)的管理型向協(xié)作型治理轉(zhuǎn)變,是一個受“社會一技術(shù)”的互動影響的動態(tài)過程。[31]這一轉(zhuǎn)變要求人們在技術(shù)推動城市發(fā)展的同時,找到技術(shù)便利與潛在的社會風(fēng)險的平衡點,尤其是如何避免技術(shù)主導(dǎo)而導(dǎo)致治理模式的失控。數(shù)據(jù)在智能城市中的雙面性體現(xiàn)了這一矛盾的復(fù)雜性。一方面,數(shù)據(jù)的集成提升了城市的可持續(xù)性和韌性,促進(jìn)了實時監(jiān)測、數(shù)據(jù)驅(qū)動決策和其他合作;另一方面,城市作為數(shù)據(jù)的巨大生成器,創(chuàng)造了真實的、復(fù)雜的城市環(huán)境數(shù)據(jù)供AI學(xué)習(xí)提升。[32]
這導(dǎo)致AI技術(shù)在智能城市中的應(yīng)用與治理規(guī)則始終存在時序錯配的科林格里奇困境。杭州城市大腦作為智能城市治理的典型案例,通過數(shù)字化治理要素和流程,為政府?dāng)?shù)字化轉(zhuǎn)型提供支持,提高信息獲取和決策效率。盡管技術(shù)作為中介促進(jìn)了智能城市治理中利益相關(guān)者之間的互動與協(xié)作,[33]我們?nèi)孕杈柚卫硪?guī)則落后的智能城市可能使社會、空間分化,對公民造成控制和監(jiān)視。同時,技術(shù)自身的限度也將導(dǎo)致部分難以數(shù)字化的社會元素存在AI壁壘。一旦治理規(guī)則跟不上技術(shù)運(yùn)用的程度,“技術(shù)型治理”則將偏離賦能本意,使得組織對技術(shù)的吸納有限,造成技術(shù)與制度不同步,促使資源浪費(fèi)和效率低下等問題的發(fā)生。[34]當(dāng)這種技術(shù)優(yōu)先的邏輯重塑城市基礎(chǔ)設(shè)施時,治理框架的滯后性已為AI技術(shù)權(quán)力的隱性擴(kuò)張預(yù)留了空間。而技術(shù)黑箱性與公共透明性的不足,進(jìn)一步加劇了治理失效風(fēng)險。由此,無論是在AI驅(qū)動的社會服務(wù),還是在數(shù)字政府傳播中如何控制技術(shù)的邊界、確保治理的時序平衡點與透明性,始終是AI技術(shù)嵌入社會發(fā)展中無法回避的重要問題。
四、呼喚全球機(jī)制:國際合作治理的時代呼喚與戰(zhàn)略布局
AI治理是一個關(guān)鍵的全球性問題,必須超越技術(shù)創(chuàng)新,跳脫單一的國家層面,關(guān)注社會結(jié)構(gòu)的深刻變化并在全球范圍內(nèi)通過廣泛的合作與共識,形成有效的治理框架。AI技術(shù)的深度全球化、超越國界的開放性以及現(xiàn)實社會運(yùn)行與治理的區(qū)域化和本地化,構(gòu)成了突破科林格里奇困境所要面對的實踐場景。其引發(fā)的控制危機(jī)已超越技術(shù)本身,直指人類文明秩序的根基。
AI技術(shù)的發(fā)展和應(yīng)用深刻改變了信息傳播的格局。DeepSeek的出現(xiàn)標(biāo)志著智能傳播的全面主流化,同時也帶來了新的社會控制危機(jī)。這類生成式AI所帶來的控制問題超越了技術(shù)本身,關(guān)系到維系人類生存與社會秩序的根本能力。因此,AI治理不僅需要對技術(shù)進(jìn)行革新,更需要在社會結(jié)構(gòu)和全球治理層面上的深思和重構(gòu)。35]生成式
AI大模型一定程度上鞏固了美國在全球的數(shù)字霸權(quán)地位,對其的治理是一個開放性、國際性的議題。[36]馬愛芳和胡泳從人工智能的跨國性特點出發(fā),探索了其技術(shù)開發(fā)模式、影響范圍及與跨國資本深度嵌套的問題,認(rèn)為這種跨國性加劇了全球不平等,并擴(kuò)大了治理風(fēng)險。37]AI治理的本質(zhì)是人與人、國家與國家之間的共識問題。只有通過有效的全球合作,才能為AI的可持續(xù)發(fā)展找到正確的應(yīng)對之道。[38]由此,AI技術(shù)的高度互聯(lián)性與無國界特征使得全球性AI治理不僅是技術(shù)創(chuàng)新和規(guī)范的簡單疊加,更是全球協(xié)作與責(zé)任共享的必然要求。
當(dāng)前是AI治理的全球格局間不容發(fā)的關(guān)鍵時刻。AI全球治理的困境本質(zhì)上是一場“規(guī)則真空”與“權(quán)力重構(gòu)”的斗爭。歐洲的數(shù)字治理實踐不僅是對技術(shù)發(fā)展的反應(yīng),也是對全球治理結(jié)構(gòu)的積極貢獻(xiàn)。[38]歐盟選擇“倫理優(yōu)先”導(dǎo)向,構(gòu)建了一套集中化、垂直統(tǒng)一的治理架構(gòu),通過了《人工智能法》,旨在確保AI系統(tǒng)的安全性、創(chuàng)新促進(jìn)性、基本權(quán)利尊重和內(nèi)部市場維護(hù)。[39]同時,歐盟借助如《通用數(shù)據(jù)保護(hù)條例》(GD-PR)強(qiáng)化個人數(shù)據(jù)保護(hù)與倫理規(guī)制,凸顯其在全球AI治理中的領(lǐng)導(dǎo)地位。相比之下,美國則奉行“創(chuàng)新優(yōu)先”策略,通過州一級的分散立法和靈活的領(lǐng)域法,賦予企業(yè)更大的創(chuàng)新自由和自治能力,同時在數(shù)據(jù)隱私法的實施中展現(xiàn)了較寬松的監(jiān)管特征。[40]本屆巴黎人工智能行動峰會上,美國未簽署《巴黎人工智能宣言》也反映了各方在AI治理方面的分歧。美國副總統(tǒng)萬斯(J.D.Vance)在峰會演講中表明了美國的立場,他警告歐洲不要對人工智能進(jìn)行“過度監(jiān)管”,并稱這“可能會扼殺蓬勃發(fā)展的行業(yè)”。這種治理范式的分野,折射出技術(shù)全球化與治理本地化背景下,AI治理系統(tǒng)越是無國界,就越需要扎根于特定文化土壤的價值校準(zhǔn)。
破解這一困境的關(guān)鍵,在于構(gòu)建一種多方利益相關(guān)者合作的全球治理生態(tài)。全球合作不僅意味著國家間法律與政策的對接,更關(guān)乎跨文化、跨經(jīng)濟(jì)體系的有效溝通與共同利益的協(xié)調(diào)。治理的焦點不僅僅是技術(shù)與倫理的平衡,還包括如何通過多方參與的全球治理框架應(yīng)對AI帶來的社會異化與同化問題。必須建立一個開放透明的、相對完備的真正多利益相關(guān)方治理機(jī)制來應(yīng)對新的人機(jī)融合的復(fù)雜形勢。當(dāng)前雖已涌現(xiàn)出眾多AI倫理原則框架,但缺乏具體實踐指導(dǎo),且多集中于算法層面,忽視了系統(tǒng)層面的復(fù)雜性。利益相關(guān)者動機(jī)和隱藏議程仍未得到充分研究,這一問題可能影響政策的有效性,甚至導(dǎo)致道德洗白等不當(dāng)行為。[41]在此背景下,QinghuaLu等人為確保多利益相關(guān)者在AI系統(tǒng)的整個治理和工程生命周期中符合倫理原則,提出了負(fù)責(zé)任AI模式目錄,將相關(guān)模式分為治理、流程和產(chǎn)品三類,涵蓋多個層面的治理以及全生命周期的流程。[42]PrabuDavid等人從信任和道德的角度調(diào)查了美國公眾對人工智能治理的看法,得出人工智能的治理需要三個相互依存的利益相關(guān)者建立一個信任和道德為護(hù)欄的框架,讓政府、企業(yè)和公民共同分擔(dān)治理責(zé)任。[43]當(dāng)政府、企業(yè)和公民等形成責(zé)任共生的數(shù)字命運(yùn)共同體時,技術(shù)失控的離心力才可能轉(zhuǎn)化為制度創(chuàng)新的向心力。這種多方利益合作的治理模式既非粗暴的管制,亦非放任的自由,而是在多元主體的持續(xù)博弈中培育出具有自組織能力的治理生態(tài)。
五、關(guān)鍵是智能鴻溝:全球差異下的應(yīng)對之策
AI技術(shù)的創(chuàng)新與應(yīng)用擴(kuò)散,似乎在一種超越人類把控的技術(shù)自主驅(qū)動的節(jié)奏中不斷向前。而AI的規(guī)范與治理卻需要在人類達(dá)成共識的艱苦拔河中,不斷往復(fù)和回旋。這種不可調(diào)和的矛盾推動著科林格里奇困境的進(jìn)一步激化,考驗著全球政產(chǎn)學(xué)等各界領(lǐng)導(dǎo)者和決策者的智慧。
在合作共贏的背景下,人工智能治理的實踐推進(jìn)并沒有停止,而已經(jīng)初見起色,挑戰(zhàn)卻方興未艾。其中,AI驅(qū)動的全球數(shù)字不平等問題首當(dāng)其沖。技術(shù)、資本和政治正在以一種缺乏約束的聯(lián)姻下,加劇智能鴻溝的形成與進(jìn)一步惡化。
OECD《人工智能原則》和《布萊切利宣言》等國際倡議雖取得了一定進(jìn)展,但治理機(jī)制仍以發(fā)達(dá)國家為主導(dǎo),發(fā)展中國家的參與有限,[44]治理過程也主要局限在西方國家及其盟友、知名學(xué)者和大型科技公司中。這使得治理主體相對單一,缺乏全球范圍內(nèi)多元利益相關(guān)者的充分參與治理過程局限,可能導(dǎo)致治理決策偏向于少數(shù)強(qiáng)勢群體的利益。此外,當(dāng)前的人工智能治理往往更關(guān)注AI安全的狹隘概念,可能導(dǎo)致在制定AI政策和規(guī)則時,無法全面應(yīng)對AI技術(shù)在社會、經(jīng)濟(jì)、文化等多個領(lǐng)域帶來的復(fù)雜挑戰(zhàn),如就業(yè)結(jié)構(gòu)變化、社會倫理沖突、數(shù)字不平等加劇等問題。45]
許多群體被拋在數(shù)字革命的邊緣,AI戰(zhàn)略和監(jiān)管框架的缺乏是對發(fā)展中國家的一個重大挑戰(zhàn),且在近年來愈演愈烈。[46]以2022年全球AI就緒度為例,阿富汗、敘利亞等全球南方國家AI就緒度低于20分,而美國和新加坡超過80分,全球差距巨大。這種差異顯著影響了各國治理結(jié)構(gòu)及其在全球AI合作中的參與度,甚至可能阻礙可持續(xù)發(fā)展目標(biāo)的實現(xiàn)。[47]鴻溝問題本質(zhì)上是社會問題,其概念隱喻的絕對不平等與現(xiàn)實的相對不平等存在差異,應(yīng)系統(tǒng)考量社會要素,是多種不平等的集合。[48]技術(shù)的創(chuàng)新本應(yīng)帶來全球福祉,卻因治理權(quán)力的結(jié)構(gòu)性失衡異化為破壞性創(chuàng)造,使智能鴻溝從技術(shù)接入差異升級為文明生存權(quán)的剝奪。這恰是科林格里奇困境的殘酷驗證:技術(shù)創(chuàng)新的加速度與社會控制的準(zhǔn)備度形成致命時差,既無法遏制技術(shù)寡頭的權(quán)力擴(kuò)張,又難以建立普惠性治理框架,
智能鴻溝具有外生性,可通過治理改善,是由人工智能與外部場景的交互及創(chuàng)新過程所產(chǎn)生的,而非技術(shù)本身固有。智能社會實驗中的場景驅(qū)動創(chuàng)新使得人工智能技術(shù)創(chuàng)新與應(yīng)用場景存在反身性聯(lián)結(jié),這種聯(lián)結(jié)過程內(nèi)生了責(zé)任鴻溝問題。由此明確責(zé)任鴻溝類型,不同場景下責(zé)任問題的分析,可以有針對性地制定治理措施,為治理智能鴻溝提供了方向。同時引入“有意義的人類控制”這一治理理念,通過“追蹤一追溯”雙重倫理設(shè)計原則,從而量化人機(jī)系統(tǒng)行為與人類行動理由關(guān)系、測度人類能力與系統(tǒng)行為匹配度等操作標(biāo)準(zhǔn)入手,為解決責(zé)任鴻溝提供了具體路徑。[49]國家間AI發(fā)展水平不均衡強(qiáng)化了科林格里奇困境,加大了治理難度,而聯(lián)合國是縮小鴻溝的重要角色。聯(lián)合國框架下會員國主權(quán)平等,有助于發(fā)展中國家參與全球人工智能治理,彌合國家間人工智能鴻溝。50]中國作為世界上最大的發(fā)展中國家之一,已積極響應(yīng)。習(xí)近平主席提出的全球人工智能治理倡議不僅是中國人工智能倫理原則的宣示,也是中國推動全球人工智能技術(shù)健康發(fā)展的路線圖,展示出中國在全球人工智能治理中的愿景和責(zé)任擔(dān)當(dāng)。[51]
六、AI治理的新范式:多方利益模式與全球協(xié)作視角
涵蓋的范圍越廣,解決科林格里奇困境的難度就會急劇上升。由于人性的弱點和全球治理的無政府本質(zhì),使得科林格里奇困境的解決,越來越難通過全球性的自覺與共識來解決,而往往需要在付出沉重代價之后才能痛定思痛,形成真正的全球行動。
《巴黎人工智能宣言》雖凝聚了61國共識,但其修辭性遠(yuǎn)大于操作性,未能真正縮小從理念到行動的鴻溝。這種“倡議過剩而行動匱乏”的困境,本質(zhì)上是AI治理內(nèi)在矛盾的外化。巴黎人工智能峰會的熱鬧,顯然并沒有真正縮短從倡議轉(zhuǎn)化為共同行動的距離。
《巴黎人工智能宣言》雖試圖推進(jìn)多方利益相關(guān)者模式,卻因參與主體的擴(kuò)展反而加劇了價值體系的碎片化和地緣政治的矛盾。一方面,美歐圍繞數(shù)字主權(quán)進(jìn)行博弈,全球南方國家對技術(shù)殖民的警鐘拉響,以及科技巨頭OpenAI與微軟的深度綁定削弱開源承諾,形成了難以調(diào)和的利益矩陣。這種多元主體的“暗流對沖”,使得這些實質(zhì)性約束條款都因缺乏共同價值錨點而流于形式。另一方面,中美歐的“三足鼎立”格局短時間內(nèi)難以打破,使得治理框架淪為地緣博弈的延伸場域。美國持續(xù)加大資金投人強(qiáng)化技術(shù)優(yōu)勢,將AI領(lǐng)導(dǎo)權(quán)視為戰(zhàn)略資產(chǎn)。中國專注于創(chuàng)新力量打破技術(shù)依附,而歐盟則試圖通過《人工智能法案》確立道德高地——這種競爭邏輯導(dǎo)致峰會成果淪為最低限度共識的拼湊,最終導(dǎo)致《巴黎人工智能宣言》成為修辭性的制度和象征性承諾。
但從單純的技術(shù)規(guī)制擴(kuò)展至多方利益模式與全球協(xié)作視角,跨領(lǐng)域的合作框架和全球協(xié)作的總體趨勢已然形成。AI治理的未來走向?qū)⒊尸F(xiàn)出三大關(guān)鍵趨勢:第一,多學(xué)科融合將成為AI治理研究基礎(chǔ)。AI治理不僅是技術(shù)問題,更是社會、法律、倫理、經(jīng)濟(jì)、政治等多維度的交叉議題。AI技術(shù)的快速發(fā)展帶來了新的風(fēng)險和挑戰(zhàn),而當(dāng)前的治理體系仍然主要依賴傳統(tǒng)法律、政策與技術(shù)監(jiān)管框架,缺乏系統(tǒng)性的理論支撐。因此,未來的AI治理需要整合計算機(jī)科學(xué)、新聞傳播學(xué)、公共管理學(xué)、法學(xué)、科技哲學(xué)、國際關(guān)系學(xué)等不同學(xué)科的研究成果,形成跨學(xué)科的知識體系。例如,計算機(jī)科學(xué)將提供技術(shù)底座支撐,與治理框架形成雙向校準(zhǔn)機(jī)制;傳播學(xué)關(guān)注AI對信息生態(tài)和公眾認(rèn)知的影響;法學(xué)探討AI監(jiān)管的法律體系;科技倫理研究AI的社會價值與倫理底線;國際關(guān)系分析AI在全球競爭格局中的角色。這種跨學(xué)科、多領(lǐng)域的知識整合有助于構(gòu)建更加全面的AI治理框架,使政策制定能夠兼顧技術(shù)發(fā)展、社會需求和全球協(xié)作。
第二,多方利益模式成為AI治理的主導(dǎo)模式,AI治理呈現(xiàn)一種以社會責(zé)任分散化的自我監(jiān)管模式。由主權(quán)國家、科技巨頭、學(xué)術(shù)共同體、公民社會和國際組織構(gòu)成的五維治理網(wǎng)絡(luò),正在重塑技術(shù)理性與價值理性的交互界面,成為突破困境的鑰匙。以中、美、歐為代表的主權(quán)國家形成AI“監(jiān)管三角”將會趨于穩(wěn)定。雖然主要指向型分散,但在戰(zhàn)略分野客觀上為全球治理提供了多元選擇空間。而國際機(jī)構(gòu)將在“監(jiān)管三角”的數(shù)字主權(quán)博弈中,搭建必要的價值緩沖帶。如OpenAI、谷歌、DeepSeek等掌握超國家技術(shù)權(quán)力的科技巨頭,以及學(xué)術(shù)共同體和技術(shù)社群將成為技術(shù)標(biāo)準(zhǔn)發(fā)源地。DeepSeek的開源模式將推動學(xué)術(shù)共同體和技術(shù)社群不再僅是標(biāo)準(zhǔn)“采納者”,而是成為“生成性主體”。而如歐盟數(shù)字化權(quán)利組織(EuropeanDigitalRights)和算法監(jiān)視(Ac-cessNow)等公民社會組織,也將加強(qiáng)構(gòu)建社會監(jiān)督網(wǎng)以更多地保護(hù)公民的基本權(quán)利,防止人工智能被用于危害普通大眾。未來,這種多層次、多向度的治理模式將更為規(guī)范與普及,為破解科林格里奇困境提供了可能的突破口。
第三,全球協(xié)作是AI治理未來發(fā)展的根本出發(fā)點。在多方利益模式基礎(chǔ)上,將形成回歸國家責(zé)任本位的聯(lián)合干預(yù)機(jī)制,其本質(zhì)是主權(quán)國家間基于戰(zhàn)略互信的制度化利益協(xié)調(diào)。在這一過程中,實現(xiàn)政策協(xié)調(diào)與價值觀兼容,縮小智能治理鴻溝是關(guān)鍵,以避免因技術(shù)標(biāo)準(zhǔn)和倫理觀念的分歧導(dǎo)致的不公平競爭與技術(shù)壁壘。AI作為一項通用技術(shù),其發(fā)展不應(yīng)局限于單一國家或區(qū)域。破解困局需構(gòu)建梯度協(xié)作體系,形成“最低共識層一彈性合作層一深度整合層”的三梯度協(xié)作;推動各國在技術(shù)監(jiān)管、風(fēng)險管控和倫理規(guī)范等方面達(dá)成共識,使治理體系超越零散的區(qū)域化模式;形成彈性合作,在技術(shù)標(biāo)準(zhǔn)、法律框架、數(shù)據(jù)治理等關(guān)鍵要素上向制度化、系統(tǒng)化方向發(fā)展。同時,構(gòu)建以信任為基礎(chǔ)的深度整合層,既要防止數(shù)字殖民和數(shù)據(jù)壟斷,也要促進(jìn)技術(shù)開源、共享,確保AI治理的公平性與可持續(xù)性,從而推動AI技術(shù)在全球范圍內(nèi)的協(xié)調(diào)發(fā)展。
歸根結(jié)底,AI治理不僅關(guān)乎技術(shù)創(chuàng)新本身,更關(guān)乎社會結(jié)構(gòu)、權(quán)力分配和全球公平。當(dāng)前,AI技術(shù)的快速發(fā)展既帶來了前所未有的機(jī)遇,也引發(fā)了治理體系的深刻變革。“邊發(fā)展,邊管理”的協(xié)同治理模式將成為主流路徑。但如何在技術(shù)發(fā)展與社會價值之間建立穩(wěn)定、可持續(xù)的平衡,將是未來AI治理的核心挑戰(zhàn)。唯有通過跨學(xué)科融合、多方利益模式和全球化合作,形成責(zé)任共生的數(shù)字命運(yùn)共同體,才能構(gòu)建更加包容、公正和可持續(xù)的智能未來。而在DeepSeek爆紅的新一波浪潮中,科林格里奇困境依然在我們的前方靜靜地等候著。
參考文獻(xiàn):
[1]鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰(zhàn)與對策研究——智能傳播的“科林格里奇困境”與突破路徑[J].傳媒觀察,2023(3):25-35.
[2][美]亨利·基辛格,埃里克·施密特,丹尼爾·胡滕洛赫爾.人工智能時代與人類未來[M].胡利平,風(fēng)君,譯.北京:中信出版社,2023:6-7.
[3]Bullock,J.B.,Chen,Y.-C.,Himmelreich,J.,Hudson,V.M.,Korinek,A.,Young,M.M.amp; Zhang,B.(2023).The Oxford handbook of Al governance. Oxford: Oxford Univer-sity Press.
[4]Cancela -Outeda,C.(2024).The EU’s AI act:A frame-work for collaborative governance. Internet of Things,27:101-291.
[5]Colingridge,D.(1980).The social control of technology.London :Frances Pinter.
[6]方興東,鐘祥銘.谷登堡時刻:Sora 背后信息傳播的范式轉(zhuǎn)變與變革邏輯[J].現(xiàn)代出版,2024(3):1-15.
[7]Search engine market share worldwide StatCounter Global Stats.Retrieved December 25,2024,from https: //gs. statcounter.com/search-engine-market-share.
[8]Bremmer,I.amp; Suleyman,M. Building blocks for AI govern-ance by bremmer and Suleyman. Retrieved December 25,2024,from https: //www.imf.org/en/Publications/fandd/is-sues/2023/12/POV-building- blocks -for- AI- governance -Bremmer-Suleyman.
[9]張凌寒,于琳.從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務(wù),2023(9):2-13.
[10]劉欣,蔣雪穎.溯源與突變:生成式人工智能新聞的本體轉(zhuǎn)向與治理路徑[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2024(4):120-128.
[11]陳昌鳳,袁雨晴.智能新聞業(yè):生成式人工智能成為基礎(chǔ)設(shè)施[J].內(nèi)蒙古社會科學(xué),2024(1):40-48.
[12]常江.自動化的困境:AI、數(shù)字媒體生態(tài)與“后人類”的未來[J].新聞界,2024(2): 25-33+85
[13]喻國明,李釩.生成式AI浪潮下平臺型媒體的規(guī)則重構(gòu)、價值邏輯與生態(tài)劇變[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024(1):167-175.
[14]彭蘭.智能傳播中的人類行動者[J].西北師大學(xué)報(社會科學(xué)版),2024(4):25-35.
[15]方興東.堅持走中國特色治網(wǎng)之道,健全網(wǎng)絡(luò)綜合治理體系[N].人民日報,2024-10-22(理論版)·
[16]彭蘭.智能傳播時代“智能鴻溝”的走向探詢[J]·
與協(xié)同治理[J].中國出版,2024(6):10-15.
[18]張文祥.生成式人工智能虛假信息的輿論生態(tài)挑戰(zhàn)與治理進(jìn)路[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2025(1):155-164.
[19]Goos,M. amp; Savona,M. (2O24). The governance of artifi-cial intelligence: Harnessing opportunities and mitigating chal-lenges. Research Policy,53(3): 104928.
[20] 漆晨航.生成式人工智能的虛假信息風(fēng)險特征及其治理路徑[J].情報理論與實踐,2024(3):112-120.
[21]周妍,沈天健.生成式人工智能視域下虛假信息的層級化運(yùn)作機(jī)理與治理[J]:編輯之友,2024(8):75-83.
[22]雷霞.智能傳播時代謠言治理的挑戰(zhàn)與應(yīng)對[J].人民論壇,2024(12):71-73.
[23]胡泳.人工智能驅(qū)動的虛假信息:現(xiàn)在與未來[J].南京社會科學(xué),2024(1):96-109.
[24]謝耘耕,張秀麗.人工智能生成內(nèi)容對輿論生態(tài)的介入、挑戰(zhàn)及治理[J].新媒體與社會,2024(1):30-(204號 42+390-391 ,
[25]邵雷,石峰.生成式人工智能對社交機(jī)器人的影響與治理對策[J].情報雜志,2024,43(07):154-163.
[26]Wang,S.et al.(2024).Artificial Intellgence in educa-tion:A systematic literature review. Expert Systems with Appli-cations, 252:124-167.
[27]喻國明,李釩,滕文強(qiáng).AI+教育:人工智能時代的教學(xué)模式升維與轉(zhuǎn)型[J].寧夏社會科學(xué),2024(2):191-198.
[28]Sun,P.P.,Huang,T.,Ma,W.B.,Gao,Z.amp; Cai,J.(2024). Artificial intelligence enabling education govern-ance: Value orientation, key issues,path optimization. OpenJournal of Social Sciences, 12: 219-237.
[29]冉華,全澤宇.技術(shù)可供性視域下健康傳播的范式突破與邏輯進(jìn)路[J].中南民族大學(xué)學(xué)報(人文社會科學(xué)版),2024(3): 157-164+188
[30]Cugurullo,F(xiàn).et al. (2023) The rise of AI Urbanism in post-smart cities:A critical commentary on urban artificial intel-ligence. Urban Studies,61 (6): 1168 - 1182.
[31]Przeybilovicz,E.amp; Cunha,M.A.(2024).Goverming inthe digital age: The emergence of dynamic smart urban gov-ernance modes.Government Information Quarterly, 41(1):101907.
[32]Bibri,S.E.,Huang,J.amp; Krogstie,J.(2024).Artificialintelligence of things for synergizing smarter eco-city brain,metabolism,and platform:Pioneering data-driven environ-mentalgovernance.SustainableCitiesandSociety,108:105516.
[33]Dai,Y.,Hasanefendic,S.amp; Bossink,B.(2024).Asystematic literature review of the smart city transformationprocess : The role and interaction of stakeholders and technol-ogy.Sustainable Cities and Society,101: 105-112.
[34]郁建興,樊靚.?dāng)?shù)字技術(shù)賦能社會治理及其限度——以杭州城市大腦為分析對象[J].經(jīng)濟(jì)社會體制比較,2022(1):117-126.
[35]方興東,鐘祥銘,宋珂揚(yáng).Sora與新控制危機(jī)—理解智能傳播時代風(fēng)險的新機(jī)制、新治理和新邏輯[J].傳媒觀察,2024(5):59-70.
[36]嚴(yán)馳.生成式AI大模型的全球治理方案:何以可能與何以可為[J].科技與法律(中英文),2024(1):91-99.
[37]馬愛芳,胡泳.人工智能的國際治理:理論框架、現(xiàn)實困境與模式探究[J].新聞與寫作,2024(1):69-80.
[38]方興東,鐘祥銘,謝永琪.“布魯塞爾效應(yīng)”與中國數(shù)字治理的制度創(chuàng)新—中美歐競合博弈的建構(gòu)主義解讀[J].傳媒觀察,2024(3):33-44.
[39]蘇可楨,沈偉.歐盟人工智能治理方案會產(chǎn)生“布魯塞爾效應(yīng)”嗎?—基于歐盟《人工智能法》的分析[J].德國研究,2024(2): 66-88+135 :
[40]王彥雨,李正風(fēng),高芳.歐美人工智能治理模式比較研究[J].科學(xué)學(xué)研究,2024(3): 460-468+491 :
[41]Heymans,F(xiàn).amp; Heyman,R.(2024). Identifying stake-holder motivations in normative AI governance:A systematicliterature review for researchguidance. Dataamp; Policy,6:e58.
[42]Lu,Q.,Zhu,L.,Xu,X.,Whitle,J.,Zowghi,D.amp;Jac-quet,A. (2024) . Responsible AI pattern catalogue: A col-lection of best practices for AI governance and engineering.ACM Comput,56(7):1-35.
[43]David,P.,Choung,H.amp; Seberger,J.S.(2024).Whoisresponsible? US Public perceptions of AI governancethrough the lenses of trust and ethics. Public Understanding ofScience,33(5): 654-672.
[44]馬愛芳,胡泳.人工智能的國際治理:理論框架、現(xiàn)實困境與模式探究[J].新聞與寫作,2024(1):69-80.
[45]方興東,鐘祥銘.生成式AI與智能鴻溝:智能時代數(shù)字不平等的趨勢、邏輯與對策[J/OL].湖南師范大學(xué)社會科學(xué)學(xué)報,2024(6):121-131.
[46]Hadzovic,S.,Becirspahic,L.amp; Mrdovic,S.(2024).It’stime for Artificial intelligence governance.Internet ofThings,27:101292.
[47]Wang,S.,Xiao,Y.amp; Liang,Z.(2024).Exploringcross-national divide in government adoption of Artificial In-telligence:Insights from explainable artificial intelligencetechniques. Telematics and Informatics, 90: 102-134.
[48]喻國明,滕文強(qiáng).發(fā)展可解釋的人工智能:韌性視域下AIGC時代數(shù)字不平等的社會性構(gòu)建與治理路徑[J]:當(dāng)代傳播,2024(4):10-14.
[49]俞鼎,李正風(fēng).智能社會實驗:場景創(chuàng)新的責(zé)任鴻溝與治理[J].科學(xué)學(xué)研究,2024(6):1121-1128.
[50]閻德學(xué).全球人工智能治理:聯(lián)合國的角色[J].國際問題研究,2024(4): 120-137+141-142. (20
[51]武瓊.科技向善:中國全球人工智能治理倡議的核心要義與理論價值[J].和平與發(fā)展,2024(5): 25-49+ (20179-180.
[責(zé)任編輯:高辛凡]