內容摘要:DeepSeek事件是AI(人工智能)技術與應用一次里程碑式的歷史突破,是一場全球科技界的盛事,也是中國高科技發展的一次信心重樹。DeepSeek掀起了AIGC(人工智能生成內容)主流化浪潮,AIGC進入新的爆發階段,并將逐步占據主導性地位,這也預示著未來網絡空間信息和內容構成將發生根本性改變。但是,歡呼和欣喜的同時,必須正視正在出現的新問題與新風險:數據隱私泄露、虛假信息盛行、意識形態風險、“AI幻覺”困境等。生成式人工智能平臺的技術自主性與責任彌散化讓平臺主體責任和內容主體責任都面臨“空心化”趨勢,這是智能時代平臺治理面臨的重要課題。面對智能傳播范式的結構性轉型,如何評估智能時代平臺的主體責任,如何調試動態適應性治理框架,如何構建智能時代的傳播新秩序等,這一系列技術伴生風險與問題亟待通過建構有效的制度體系與創新監管方式來實現系統性治理。
關鍵詞:DeepSeek;平臺治理;智能傳播;“AI幻覺”
課題:國家社科基金重大項目“融媒體環境下互聯網平臺型企業現代治理模式研究”(編號:20amp;ZD321)
DOI:10.3969/j.issn.2095-0330.2025.03.003
智能時代AI技術的發展速度和影響力正以前所未有的態勢重塑全球格局。繼2022年底ChatGPT引發全球關注后,DeepSeek的橫空出世再次成為全球AI領域的焦點話題。此前,全球AI技術創新主要由硅谷科技巨頭和風險資本驅動,以OpenAI、Google、Meta和Anthropic等為代表的美國企業在AI技術研發方面占據主導地位,形成了“閉源+高算力依賴”的閉環生態。這種生態構筑了堅固的技術壁壘,限制了全球AI技術的研發和創新,同時引發了“算力軍備競賽”。
然而,DeepSeek的出現正沖擊著以美國科技巨頭為中心的AI敘事與競爭規則,對全球AI生態產生了深遠的影響。依托系統工程創新構建的成本優勢與效能突破,DeepSeek以高效的模型訓練和低廉的API定價,推動AI技術在全球范圍內的規模化應用與普惠化發展,并逐漸擺脫對資本巨頭的依賴。上線18天后,DeepSeek的日活躍用戶已達到1,500萬,而ChatGPT達到這一數字則用了244天,DeepSeek的增速是ChatGPT的13倍。\" 這一成就不僅打破了美國企業主導的AI生態系統,還對美國人工智能領軍企業的壟斷地位及其構筑的技術壁壘構成了挑戰。正如谷歌前首席執行官埃里克·施密特(Eric Schmidt)強調的,DeepSeek的崛起標志著全球人工智能競賽的轉折,證明中國可以用更少的資源與大型科技公司競爭。# 此外,DeepSeek還推動了AI技術成功跨越主流化鴻溝,全面進入主流化普及應用的高歌猛進階段,這是DeepSeek超越ChatGPT、定義“DeepSeek時刻”的根本邏輯。$ DeepSeek也將成為智能時代媒體發展的轉折點,引發互聯網平臺重塑競爭格局。
媒介環境學派第三代旗手保羅·萊文森(PaulLevinson)曾以電影為例,揭示媒介技術的發展導致文化類型的演變,提出“玩具—鏡子—藝術”(Toy-Mirror-Art)的技術演化三階段論。% 從這一視角觀照DeepSeek的發展過程,可以發現其在進入大眾視野之初,僅僅是作為一種具有娛樂功能的“玩具”而存在,用戶關心的是使用DeepSeek答疑解惑的體驗過程,并在自己的社交圈內分享“樂趣”。然而,隨著越來越多的互聯網平臺接入DeepSeek,DeepSeek不再是人們滿足好奇心的“玩具”,而逐漸演變為智能時代的互聯網超級平臺,這是治理者需要理性思考和面對的問題。在此階段,DeepSeek可能會像其他互聯網超級平臺一樣,經歷從互聯網中介到互聯網平臺再到生態的躍變,其屬性也從過去的技術權力和信息權力,延展到市場權力和經濟權力,進而延伸到社會權力和政治權力。如果缺乏有效的制度創新和治理舉措,其不但可能沖擊現有市場秩序,危及社會秩序和政治秩序,并且可能突破現有制度框架,挑戰國家權力和治理能力。
一、DeepSeek掀起AI主流化浪潮:數字內容生產范式的重構
從埃弗雷特·M.羅杰斯(Everett M.Rogers)的“創新與擴散”(diffusion of innovations)理論視角來看,DeepSeek通過成本、效率、開源等系統性工程創新,推動AI技術成功跨越主流化鴻溝,為數字內容生產的范式重構奠定了堅實基礎。這一突破不僅標志著AI技術的成熟,也預示著內容生產方式的根本性轉變。
智能體(agent)的崛起,以及社交機器人(social robot)的發展,顯著改變了網絡空間的互動模式和內容生產模式。它們不僅延伸了人的“主體意識”、模仿人的“思維能力”,還逐漸從單純的傳播中介躍升為具有一定自主能力的傳播主體,在網絡空間中自主參與社交互動、內容生產,甚至操縱輿論。社交機器人在推特(X)上被廣泛應用,惡意機器流量泛濫,AI生成新聞網站興起。2012年,研究發現推特有10.5%的賬戶是機器人,另有36.2%是機器人輔助的人類用戶。' 2017年,美國皮尤研究中心(Pew Research Center)發現,66%的帶URL鏈接的推文疑似由機器人賬號發布。( 2018年,Distil Networks公司發布的《2018惡意機器流量報告》顯示,2017年42.2%的互聯網流量由機器產生,其中良性機器產生的流量占20.4%,而惡意機器產生的流量占21.8%。) 2019年的相關研究顯示,與中國相關的推文中超過1/5疑似由機器人用戶發布。* 2020年的美國大選中,數千個機器人賬戶試圖通過發布關于候選人的推文來操縱選舉結果。+ 2023年,已有600余家AI生成的新聞和信息網站,涉及15種語言,這些網站缺乏人工監督,其內容主要或完全由機器人撰寫。
盡管AIGC在內容生產中已嶄露頭角,但由于模型訓練的高成本以及閉源的特性,其影響力始終有限,未能實質性地改變傳統內容生產范式。然而,DeepSeek-R1模型的出現可能徹底改變這一局面。自2025年1月20日DeepSeek開源其推理模型DeepSeek-R1以來,超過30家媒體機構已接入DeepSeek大模型,這些媒體機構包括第一財經、瀟湘晨報、江蘇廣播電視臺等。這些媒體機構利用DeepSeek提高內容生產效率,提供新聞事件背景溯源等增值服務。北京、廣東、江蘇等地的政務服務系統已接入DeepSeek系列大模型。三大電信運營商、中石油、中石化、百度、騰訊等中企巨頭也紛紛宣布與DeepSeek展開合作。有專家預計,從2025年到2030年,99%以上的互聯網內容將由AI生成。- 這一預測反映了AI技術在內容生產中的潛力和未來趨勢。DeepSeek的成功不僅在于其技術突破,更在于其推動了AIGC從邊緣地位向核心地位的轉變,加速了數字內容生產范式的重構。在可預見的未來,以DeepSeek為典型代表的AGI(通用人工智能),將憑借其強大的技術效能加速AIGC的蓬勃興起。隨著AIGC在信息傳播總量中占比的不斷攀升,信息傳播生態將迎來全方位的重塑。從傳播主體的構成來看,“人+AGI”的新型傳播格局正逐步從理論構想轉化為具有現實可行性的社會圖景。實際上,進入智能傳播時代以來,行動者網絡理論所講的“非人類”的傳播主體如算法程序(algorithmicprogram)、社交機器人(social robot)、視頻監控(video monitoring)、計算機服務器(computer servers)等在引發、引導輿論方面已經不是偶爾為之,而是系統性的改變。.“非人類”的AIGC工具參與內容生產與傳播,形成多元主體協同的復雜網絡生態系統將成為一種必然趨勢。在內容生產流程方面,AGI系統依托深度學習(deep learning)、自然語言處理(NLP)以及知識圖譜(knowledge graph)等核心技術架構,構建了一個高度集成化的智能內容生產生態系統。該系統可以通過分布式數據采集(distributed dataacquisition)實現對多源異質信息的獲取與清洗,運用語義理解和情感分析等技術對海量數據進行深度挖掘與結構化處理,進而實現高質量內容的自動化創作。在內容分發環節,AGI通過用戶畫像和推薦算法的協同優化,實現了內容與受眾需求的精準匹配,可以顯著提升傳播效率與用戶參與度。這一全流程智能化生產鏈路(end-to-end intelligentproduction pipeline)不僅突破了傳統內容生產模式在效率與規模上的限制,更通過持續學習與自適應優化(adaptive optimization)機制,推動內容生產向智能化、個性化方向發展,為數字時代的信息傳播提供了全新的技術范式。此外,在內容質量維度,AGI憑借其強大的數據處理能力與算法優化機制,不僅能夠生成更具語義深度與認知價值的內容,還可通過深度學習與迭代優化不斷提升內容生產的專業性與創新性。
DeepSeek掀起的AI主流化浪潮重新定義了信息傳播的實踐邏輯,也為傳播學理論發展提供了新的研究視域與實證基礎。人類憑借獨特的創造力、情感認知與價值判斷,與具備超強運算能力、海量數據處理能力和內容快速生成能力的AGI相互協作、優勢互補,必將共同構建起傳播效率更高、內容更加多元、互動性更強的信息傳播新生態。隨著AIGC的蓬勃發展,這一技術革新不僅引發了數字內容生產范式的深刻變革,更將推動信息傳播生態全方位重塑,開啟人類與AI協作的全新內容生產時代。
二、從DeepSeek事件窺探智能時代的平臺風險
回望人類歷史,技術的革新往往帶來深刻的社會變革。然而,人類歷史同樣表明,“科技發展并不會帶來確定的結果”/,技術進步并不代表人類進步,人類既要充分受惠于技術的進步,又要防止和減少技術給社會帶來的風險和問題。0 按照德國社會學家烏爾里希·貝克(Ulrich Beck)等人的觀點,風險實質是一種事物發展過程中損益發生的可能性,表現為不確定性與不可估量性。1 循此思路,AI技術越是迅速發展,越是滲入日常生活,人們就越需要認識并正視它的各種風險。DeepSeek對于互聯網平臺而言并非“靈丹妙藥”,其本質仍未脫離生成式人工智能的范疇。作為一款全面開放代碼、數據和算法的開源模型2,DeepSeek在未來將融入互聯網平臺的內容生產以及信息分發等各個關鍵層面,AI技術也將從量變走向質變,技術巨頭主導的、具有壟斷性質的超級平臺,已經具備公共基礎設施的屬性3。DeepSeek可能給互聯網平臺帶來新的問題與風險。推動DeepSeek與互聯網平臺良性融合,應對模型安全、數據泄露、輿論風險與虛假信息盛行等問題,已成為智能時代互聯網平臺治理的當務之急。
(一)模型安全與數據泄露隱患
目前,DeepSeek已陸續推出DeepSeekLLM7 B、Dee p S e e k C o d e r 、D e e p S e e k Ma t h 、DeepSeek-VL、DeepSeek-V2、DeepSeek-V3以及DeepSeek-R1等多個開源模型。4 開源是指發行商以源代碼的形式向公眾提供用于檢查、運行、修改和共享的軟件。5 對于AI技術而言,開源意味著任何用戶均有機會利用成熟的基礎代碼開發全新的訓練模型,從而創造出更多更高階的人工智能產品。6 出于保障企業機密與商業利益等因素,美國AI科技巨頭的AI大模型始終堅持閉源策略,DeepSeek的出現打破了閉源大模型構筑的技術壁壘。作為推動全球AI生態發展的一股重要力量,DeepSeek憑借其先進的技術和開源理念,使AI服務從“科技奢侈品”變為“日常用品”,惠及中小企業和個人開發者,不僅加速了AI的商業化進程和應用場景的大規模崛起,同時有助于紓解“算法黑箱”等人工智能監管的部分困境。7 但隨著開源生態的持續拓展,DeepSeek必須與種類繁多的硬件、軟件以及框架實現集成與兼容。市面上硬件設備在性能、架構等方面差異顯著,不同軟件和框架的設計理念、接口規范也各不相同,這使得DeepSeek在進行集成時需要耗費大量的時間和精力去適配,極大地增加了技術標準化的難度。企業和開發者出于自身業務需求、技術偏好等因素,會采用不同的技術標準和規范,這就導致基于DeepSeek開發的模型在不同環境中可能出現運行異常,其可移植性和互操作性受到嚴重影響,極大地阻礙了模型的廣泛傳播和應用。
此外,當越來越多的平臺接入DeepSeek,海量的用戶數據也將涌入DeepSeek的大數據模型,如何確保這些數據的穩定、安全和完整是其面臨的一大挑戰。隨著互聯網和人工智能等數字技術的迅猛發展,人類社會已經進入數字經濟時代,數據化成為互聯網平臺的重要特征。維克托·邁爾-舍恩伯格(Viktor Mayer-Sch?nbenger)和肯尼思·庫克耶(Kenneth Cukier)認為,“數據化”是指互聯網平臺將世界上許多以前從未被量化的方面轉化為數據的能力8,具體表現為平臺以一種系統化的方式收集和分析用戶數據,然后通過應用程序編程接口(API)源源不絕地將這些數據傳遞給第三方,再通過用戶界面傳遞給終端用戶。9DeepSeek的開源生態高度依賴眾多第三方組件和庫,以此來拓展功能和提高開發效率。然而,這些第三方組件和庫的質量參差不齊。部分開發者缺乏對數據安全和穩定的足夠重視,在開發過程中引入安全漏洞,加之模型開源容易導致數據泄露,如果一些第三方組件和庫由于維護人員不足或開發團隊解散,無法得到及時的更新和維護,將逐漸變得不穩定。用戶數據的安全性與DeepSeek開源生態的穩定性高度綁定,一旦這些第三方組件和庫出現問題,將產生骨牌效應,從而影響整個DeepSeek開源生態的穩定性和安全性。美國云安全初創公司Wiz的安全研究員加爾·納格利(Gal Nagli)透露,DeepSeek的ClickHouse數據庫處于可公開訪問狀態,任何人都可以訪問且無須身份認證。該數據庫中包含聊天記錄、密鑰、后端詳細信息及其他高度敏感信息。: 雖然DeepSeek在得知存在安全漏洞后立即對其進行修復,但模型開源誘發的數據泄露風險仍值得人們持續關注。
(二)輿論風險與敏感議題引導
互聯網為公共輿論提供了廣闊的表達平臺,與此同時,其動態多變的特性對傳統治理模式形成了沖擊,也給國家治理帶來了全新的挑戰。DeepSeek作為一種具有海量參數與復雜結構的大模型(large model);,擁有強大的語言處理極速響應和推理能力,能夠針對用戶的提問進行高效且自然的語言對話交互,為信息交互和知識探索開啟了新維度。lt; 互聯網平臺接入大語言模型不僅能夠有效提升用戶的交互體驗,而且可以指令大語言模型完成客服咨詢、內容總結、數據分析等工作項目,這會在降低互聯網平臺的人工成本的同時,提升平臺的運行效率。商業壟斷互聯網平臺已經涉及社會生活的方方面面,成為日常生活的基礎設施,擁有連接資源的人們可以隨時調用多樣化的平臺來進行信息的索取和意見的表達。= DeepSeek自然語言對話的交互方式具有較強仿真性,對于“顏色革命”等存在輿論風險的議題,DeepSeek的自然語言對話也能起到一定的推波助瀾作用。不少用戶曾嘗試向DeepSeek詢問一些比較敏感的政治話題,但DeepSeek或不置可否,或根據我國官方立場回答問題,這一現象引發了廣泛討論。雖然DeepSeek受到我國的信息技術管控,可以通過關鍵詞過濾等方式識別敏感內容,但內容的權變性使得任何單一的監管方式都面臨失效的風險。
互聯網平臺接入DeepSeek后帶來的不確定性反映了平臺治理研究的重要性。不同于現實社會自上而下的傳播格局,互聯網平臺的開放協作協議以及基于智能技術建立的社會連接能力,使其具有了強大的輿論生成與社會動員功能gt;,從而促進傳播權力向“個體”回歸。以往被壓抑在個體層面的社會情緒得以在互聯網平臺釋放,并自下而上地形成具有合法性和正當性的社會輿論,倒逼權力機關進行回應。治理者所忌憚的不是輿論,而是輿論背后捉摸不定的權力意志,輿論以“代表民意”的口號出現,但其代表的究竟是真實的民意,還是“少數人的大聲疾呼”,甚至是利益集團的商業謀劃,在輿論爆發之初,這一問題很難回答,縱使通過溯源分析澄清了輿論發端的真實屬性,權力機關可能也錯失了回應輿論訴求的黃金窗口期,致使社會共識的彌合陷入被動境地。由此可見,平臺治理的本質并不是治理互聯網平臺,防止別有用心之人利用互聯網平臺的傳播環境煽動輿論對敏感議題的討論,維護網絡意識形態安全,將是互聯網平臺大規模接入DeepSeek后,我國平臺治理體系的主要發展方向和題中應有之義。
(三)虛假信息盛行與“說謊者紅利”現象
AI的最新進展可能加劇虛假信息的多樣性和病毒式傳播,使內容創建過程自動化。深度偽造(deepfake)、假新聞(fake news)和虛假信息(disinformation)或許將充斥整個互聯網。操縱性內容的制作成本非常低,而且很容易大規模生產。? 魚龍混雜的信息充斥網絡空間,導致一些政治參與者對可靠的信息也產生懷疑,由此形成了一種“說謊者紅利”(liar’s dividend)現象,即政客或公眾人物可以通過聲稱真實事件和新聞為假新聞或深度偽造來維持公眾對其自身的輿論支持。@ 在生成式人工智能技術賦能的深度偽造與多模態合成技術持續演進背景下,特朗普式政治傳播所依賴的“謊言重復即真理”機制正在呈指數級增強。這種“虛假信息擴散的正向激勵”(disinformationincentive spiral)正在重構數字公共領域的博弈規則。當生成式對抗網絡(GAN)與強化學習結合形成自進化內容生產閉環,傳統事實核查機制的響應速度已滯后于虛假信息裂變周期,導致“零日虛假信息”(zero-day disinformation)漏洞的常態化風險。更值得警惕的是,AIGC的認知戰武器化趨勢正在突破傳統信息戰邊界,這種精確到個體神經反應級別的信息操控(neuro-targetedinfluence)正在催生新型數字威權主義。然而,當前治理框架的滯后性卻形成了危險的真空期,并給社會帶來潛在的風險,若不建立跨平臺的實時溯源聯邦學習框架(federated provenance learning)和基于區塊鏈的內容DNA圖譜,這種“合成認知污染”(synthetic cognitive pollution)的系統性風險將持續攀升,最終導致尤爾根·哈貝馬斯(Jürgen Habermas)所警示的“交往理性”(communicative rationality)在數字公共空間徹底瓦解。
此外,“說謊者紅利”并不局限于政治領域,當互聯網平臺接入DeepSeek等AI技術實現算法賦能,內容生成門檻的降低不僅提升了內容生產效率,也使得處于社會面的“說謊者”更容易生產虛假信息,進而增加維護社會秩序的成本,這一點在DeepSeek爆火之前的“西安爆炸”事件中就可見一斑。互聯網是開展輿論斗爭的重要場域。“過不了互聯網這一關,就過不了長期執政這一關。”A 然而,“說謊者紅利”與虛假信息盛行等技術賦權與信息異化的伴生現象,對輿論生態和話語秩序構成了嚴峻挑戰,割裂著輿論事實的認知圖景,操縱著輿論話語的公共導向,綁架著輿論價值的社會信任。在群體武器、時空脫域、數據圍獵的三重作用下,輿論生態出現異化,呈現出輿論載體“武裝化”、輿論主體“脫域化”、輿論客體“失控化”的特征。
(四)新的技術倫理難題:“AI幻覺”
DeepSeek掀起的AI主流化浪潮為全球信息傳播格局注入了革新動力,在提升內容生產效率和傳播精準度的同時,也帶來“AI幻覺”(AIhallucinations)這一技術倫理難題。當前,AIGC在語義理解與內容創作過程中存在的不可控偏差現象,已引發學術界對智能傳播可信度及責任邊界的深度探討。何為“AI幻覺”?目前學界并沒有一個統一的清晰定義。B 一般而言,“AI幻覺”指的是人工智能系統在處理輸入、決策或執行任務時產生無意義或與輸入不一致的內容。C“AI幻覺”的問題早在ChatGPT上已經顯現。有學者研究ChatGPT在完全由其生成的研究提案中的“AI幻覺”頻率,分析了其178個引用,其中許多引用缺少DOI(數字對象標識符),部分引用無法追蹤或不正確,證明了ChatGPT在提供可靠的研究引用方面存在明顯的局限性。學者認為“AI幻覺”可能對決策產生負面影響,并引發相應的倫理和法律問題。為解決這些問題,需要通過多樣且準確的數據改進訓練模型,但在此之前,研究人員應謹慎采用ChatGPT生成的引用。D 有學者也以ChatGPT為研究案例,對收集到的243條失真的AIGC信息(包括問題和答案)進行了系統分類,研究確定了ChatGPT的8種一級錯誤類型,即“過度擬合”“邏輯錯誤”“推理錯誤”“數學錯誤”“毫無根據的捏造”“事實錯誤”“文本輸出錯誤”和“其他錯誤”,在此基礎上又進一步細分為31個二級錯誤類型。
AI技術為學術研究注入了前所未有的效率動能,卻也在全球學術界引發了一場深層次的學術信任挑戰。當前AIGC平臺已能夠批量生成高仿真的學術參考文獻——從虛構的權威作者姓名、國際期刊名稱到格式規范的DOI編碼,甚至可對引用數據進行統計學意義上的精準偽造。在學術生產鏈條中,參考文獻作為學術體系的基石文獻(backboneliterature),其真實性直接決定研究結論的可驗證性與可復現性。此類算法生成的“學術幽靈”的泛濫,可能誘發多米諾骨牌式的學術誠信崩塌,后續研究者在不知情狀態下引證這些無中生有的學術文獻,將導致錯誤知識以病毒式傳播,使整個學科領域的知識圖譜產生結構性偏差。為此,科技行業分析師本尼迪克特·埃文斯(Benedict Evans)在推文中將ChatGPT形容為“一個自信的扯淡的家伙,可以寫出非常有說服力的廢話”(ChatGPTis like a confident bullshitter:it can write veryplausible-sounding nonsense)。埃文斯的評價反映了當前關于AIGC的普遍爭議,他并非否定技術本身,而是強調這類模型的本質是“統計概率生成文本”,缺乏對事實或邏輯的真實理解,生成看似合理但實際錯誤甚至離譜的內容。
目前各類大模型在運行過程中均難以避免出現“AI幻覺”問題。獨立評測平臺Vectara2025年2 月1 1 日更新的“ 大模型幻覺率排行榜”顯示, G P T - 4 o 、D e e p S e e k - V 2 . 5 、G o o g l eGemini-2.0、Amazon Nova-Micro-V1等幾乎市面上所有的大模型在總結文檔時都會產生“幻覺”,它們的幻覺發生率介于0 . 7%與2 9 . 9 %之間。F 重要原因之一在于推理模型的多層次非線性復雜架構,讓少量錯誤的數據標注在層層迭代下,像滾雪球一樣不斷放大,最終出現答非所問、信息虛假的問題。實踐中,DeepSeek等AI技術的幻覺發生率也與其使用場景息息相關,在邏輯推理、代碼生成、翻譯潤色等方面,其幻覺率通常較低,但在需要嚴格準確性并更多使用專業術語的領域,如法律咨詢、醫學處方、學術論文撰寫等方面,則應謹慎使用,因為這類使用場景幻覺發生率明顯更高,造成的不良后果也更加讓人難以接受。此外,除了使用大量文本數據訓練的大語言模型(LargeLanguage Model,簡稱LLM)容易出現“AI幻覺”問題,文生視頻大模型,如Sora,存在同樣的問題。研究者通過對Sora官網展示的48個文本生成視頻進行分析發現,有相當一部分視頻出現不符合現實的“AI幻覺”現象,如東京櫻花盛開和下雪同時出現的場景違背季節性規律。不僅雪降落得過于均勻,人物穿著也不符合天氣情況。G 在當前生成式人工智能技術呈指數級躍遷的背景下,整個社會都將面臨AI技術帶來的“AI幻覺”困局——這種由算法黑箱與數據偏差引發的認知失真現象,已對信息傳播的保真度構成系統性威脅。
更令人擔憂的是,憑借其在成本效益、運行效率和開源模式上的顯著創新優勢,DeepSeek生成高保真的深度偽造內容的邊際成本正在趨近于零。廣泛普及是否會進一步加劇當前存在的“AI幻覺”現象?這一潛在風險亟待學界與行業通過長期追蹤與系統性研究予以持續關注。
三、平臺責任“空心化”與智能時代平臺主體責任的重估
媒介思想家威廉·弗魯塞爾(Vile?m Flusser)認為,在模仿特定思維過程的意義上,所有的裝置都是“計算”的機器,都是某種“人工智能”。DeepSeek等大語言模型也是一種“裝置”,這種“裝置”不僅改變了人與工具的關系和人與世界的關系,也改變了人類社會的權力結構:權力從物的擁有者向裝置的編程者和操作者轉移,從物件向符號轉移。H 人類社會權力結構的變化讓智能時代的平臺責任面臨“空心化”趨勢。平臺責任“空心化”是指互聯網平臺內容生產主體向AI技術轉移后導致的平臺責任彌散化趨勢,主要表現為平臺內容風險責任的不明晰與無規范。這種“空心化”趨勢可以從技術、法律和倫理三個維度進行解析。從技術維度看,DeepSeek等AI大模型通過海量數據訓練和深度學習,能夠獨立生成復雜且具有語義連貫性的內容,而不完全依賴于預先設定的規則,具有高度的技術自主性和內容生成能力。此外,模型在運行過程中可能產生開發者難以預見或控制的輸出,當生成內容引發爭議或造成損害時,DeepSeek的技術自主性導致責任主體模糊化,人們難以明確是開發者、使用者還是AI大模型應承擔內容生產責任,責任歸屬變得更加復雜。從法律維度看,責任歸屬的復雜性加劇了平臺主體責任“空心化”趨勢。AI技術的運作涉及研發機構、部署平臺、用戶以及監管機構等多方主體,形成了一個復雜的責任網絡。互聯網平臺的傳統治理框架主要基于“平臺—用戶”的二元責任結構,但在DeepSeek等AI技術的使用場景中,傳統的框架難以有效應對多主體參與和責任鏈條彌散化的挑戰,使得各方主體容易規避法律義務,從而形成責任“空心化”。這種復雜性已經超越了傳統法律框架的解釋范疇,亟待構建適應技術特性的新型責任歸屬范式。從倫理維度看,AI技術的自主性以及由此導致的責任“空心化”將動搖社會大眾對DeepSeek等AI技術的信任基礎。一方面,技術自主性可能導致生成內容偏離社會倫理規范,而責任“空心化”則使得糾正這種偏離的機制面臨失效的風險。另一方面,互聯網平臺和技術開發者可能利用責任“空心化”趨勢,將技術風險引發的矛盾沖突向外轉移,這不僅損害用戶權益,還可能引發更廣泛的社會倫理危機。
“空心化”趨勢不僅挑戰了現有的法律和倫理框架,也凸顯了重構AI治理機制的必要性。未來需要通過增強技術透明性、完善責任分配機制、引入多方協同治理等方式,實現技術自主性與主體責任的動態平衡,從而遏制“空心化”趨勢的蔓延。在此背景下,推動DeepSeek與互聯網平臺的良性融合,進而實現有效的平臺風險防控和治理,已成為智能時代互聯網平臺治理的當務之急,“如何治理”以及“治理什么”也成為AIGC內容全面主流化之后互聯網平臺治理工作的“元問題”以及主要責任。
英國技術哲學家大衛·科林格里奇(DavidCollingridge)在《技術的社會控制》(The socialControl of Technology )中提出了“科林格里奇困境”(Collingridge’s Dilemma),即一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以快速發展。反之,如果控制過晚,技術已經成為整個經濟和社會結構的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間。I 科林格里奇的觀點為AIGC內容全面主流化背景下“如何治理”互聯網平臺提供了重要的理論支撐和方法論指導。依循科林格里奇所言,治理DeepSeek的關鍵在于時機的把握,應根據DeepSeek的主流化進程,探索“先發展,再治理”和“邊發展,邊管理”兩種節奏的靈活組合。不宜操之過急、過早控制,更不能過度控制,以防止傷害新技術的正常發展和社會普及,但也不能放任自流,而需要在理論探討和治理對策方面未雨綢繆。
此外,隨著生成式人工智能技術加速向社會生產領域滲透,AIGC全面主流化已成為不可逆轉的趨勢。在此背景下,構建與之適配的互聯網平臺治理體系與責任分配機制,特別是對智能系統內容生產邊界進行科學界定與動態管理,設置AIGC的“內容生成防火墻”,正成為全球數字治理領域的核心課題。目前,為確保內容生成符合倫理規范,同時避免產生爭議性內容,DeepSeek無法回答涉及個人隱私、政治宗教、非法活動以及需要主觀判斷或個人意見的問題。這些帶有約束性質的“出廠設置”劃定了DeepSeek的內容生產邊界,這既是確保內容生成安全可靠、符合社會價值導向的必要保障,同時可以為未來智能時代AIGC內容全面主流化之后的互聯網平臺治理提供重要參考——在保障技術創新活力的同時,通過可解釋、可追溯、可調控的技術治理架構,實現人機協同內容生產與數字文明共建。
治理不同于管理,其核心在于通過良性引導實現有序發展,而非依賴強制性約束手段。有學者認為,權力機構以強制性的行政手段直接管理互聯網平臺的監管機制,有時不僅不能解決各類新問題,還容易引發新的沖突。根據何塞·范·迪克(José van Dijck)等人的觀點,在平臺社會,社會秩序不再局限于線下的機構和組織,而是越來越多地與互聯網平臺集群交織在一起。社會如果想要創建一個可以反映和構建民主秩序的平臺結構,就需要努力在平臺生態系統的設計中實現公共價值和集體利益,良性引導也往往建立在社會大眾共同認同的價值理念和集體利益之上。J 在各大互聯網平臺全面接入DeepSeek等AI技術的智能時代,理想的互聯網平臺治理圖景應當以互聯網平臺為首要責任人。平臺應協同權力機構和社會組織共同構建具有前瞻性的三位一體價值坐標系:以社會公共價值為核心發展軸線,以國家數字主權為安全保障基線,以社會公序良俗和集體利益為倫理約束邊界,同時市場、國家和社會組織應為實現平臺社會的公共價值和集體利益共同承擔責任。這一治理體系既要保障用戶流暢自如地運用DeepSeek等AI技術進行日常化的內容生產,進而實現互聯網平臺內容生產的范式轉型,也要通過大模型的多模態語義識別系統和動態知識圖譜的協同運作,對非常態的人機信息交互進行分層級倫理審查,規范化地限制AI技術的內容生產范圍,從而實現技術創新與價值導向的校準式平衡發展。這種雙效驅動的發展模型不僅體現了技術向善的倫理自覺,更彰顯了數字文明新形態下工具理性與價值理性的辯證統一。
四、智能時代傳播秩序的建構與治理
克利福德· G . 克里斯琴斯( C l i f f o r d G .Christians)曾言:“在技術崇拜的時代,我們所面臨的危機不是對規則的違背,而是無規范的真空(the vacuum of normlessness)。”K 學者鄭永年也認為人工智能已經顯示出其強大的制度毀滅能力,但人們仍未發現其制度建設能力。在新制度確立遙遙無期的情況下,個人“原子化”的趨勢正在加快和加劇。L 面對ChatGPT、Sora和DeepSeek等具有里程碑意義的人工智能工具帶來的對原有社會秩序的巨大沖擊,恰如2024年諾貝爾物理學獎得主杰弗里·辛頓(Geoffrey Hinton)所擔心的,人類目前社會的組織方式(無論是國家層面,還是全球層面)很可能難以應對人工智能的挑戰。
目前,私有民營性質的大公司或跨國集團(平臺公司)是人工智能領域的主導力量之一,人工智能產品的私有性質與產品所天然具備的“準公共服務”屬性充滿矛盾和張力。就國內層面而言,平臺公司通過對技術的壟斷,間接地掌控了信息的生產,從而實現了“權力的轉移”,擁有了某種對抗國家權力、解構主流話語的可能性。就國際政治層面而言,平臺公司有意或無意地充當著國家利益代理人的角色。技術演進的不可預測性與平臺公司在不同層面扮演的角色的多元性與復雜性使得平臺治理一定是一個動態的規制演進。整個社會越來越趨向于何塞·范·迪克所說的“平臺社會”和烏爾里希·貝克所提出的“風險社會”的融合,由此可以預見的是,未來,對DeepSeek等平臺的規制是重建智能時代傳播秩序的重中之重。
面對DeepSeek等AIGC平臺對智能時代秩序的沖擊以及它們帶來的技術伴生風險與問題,應明確治理的關鍵在于對介入時機的把握,探索“先發展,再治理”和“邊發展,邊管理”兩種節奏的靈活組合。治理的理念也要從“技術為王”轉向“負責任治理”,通過建構有效的制度體系與監管創新來實現系統性治理。在技術治理層面,構建算法可控性基礎設施,在國家層面制定算法透明性強制標準,參照歐盟《人工智能法案》高風險系統披露規則,強制要求AlGC平臺(如大語言模型、文生視頻模型、自動駕駛系統等)向監管機構及利益相關方披露訓練數據構成,進行數據溯源審計與制定偏差控制方法,確保技術可控性與社會可解釋性。同時,可以在AIGC平臺內置嵌入式治理工具,在模型層植入可追溯水印如DeepSeek的生成內容標記,部署“倫理強化學習”框架,構建多模態倫理過濾引擎,對暴力、深度偽造等違規輸出實施分級攔截,拒絕提供自殺方法指南等。此外,在模型開發階段植入不可篡改的以區塊鏈為存證的“數字指紋”,實現人工智能生成內容(文本/圖像/視頻)的跨平臺溯源與追責。在法律規制層面,建立彈性監管體系。在2023年國家互聯網信息辦公室制定的《生成式人工智能服務管理辦法》的基礎上,針對AIGC平臺實施分類分級監管,將AI應用劃分為“禁止類”(如顛覆政權)、“特許類”(如醫療診斷)、“備案類”(如推薦算法)等,實施梯度準入。同時建立法律層面的溯源問責機制,明確“開發者—部署者—使用者”責任鏈:開發者承擔基礎模型缺陷責任,使用者對惡意濫用負直接法律責任。此外,大模型開發平臺要保留模型訓練全周期日志,司法部門可溯源追查數據缺陷的原始責任方。
黨的十八大以來,以習近平同志為核心的黨中央高度重視我國新一代人工智能發展。習近平總書記曾深刻指出,“人工智能是引領這一輪科技革命和產業變革的戰略性技術,具有溢出帶動性很強的‘頭雁’效應”,“加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題”。N 進入智能時代以來,全球歷經的數次重大技術突破,基本上都是美國企業在引領主流化進程,DeepSeek顛覆了這一基本定勢。“DeepSeek時刻”及其引發的“DeepSeek效應”,打破了中國企業只善于在晚期大眾化階段后來居上的固有認知,改寫了中國高科技的全球敘事。O 面對以DeepSeek為代表的生成式人工智能技術浪潮,應以更高維度審視其戰略意涵:這不僅是單一技術賽道的競爭,更是關系到數字文明秩序重構的綜合性較量。從技術主權維度,須加快構建自主可控的產業生態,圍繞大模型訓練框架、高性能算力集群、多模態數據集等核心要素實施攻關。從意識形態維度,要統籌數據安全與價值引導,在防范算法黑箱引發認知操縱風險的同時,推動AIGC技術與產業深度融合,打造承載主流價值的智能傳播新范式。從國際規則維度,須主動參與全球人工智能治理體系建構,通過技術標準輸出、跨境數據流動協議締結、跨國技術倫理委員會共建等方式,搶占智能時代國際話語權制高點。當前,生成式人工智能技術已呈現指數級擴散態勢,其引發的產業革命正在重塑全球經濟版圖與技術權力結構,中國應在這場技術制高點爭奪戰中把握主動權,避免重蹈受困于歷史性技術代差的覆轍。
(作者方興東系浙江大學網絡空間國際治理研究基地中心主任,烏鎮數字文明研究院教授;鐘祥銘系浙江傳媒學院新聞與傳播學院副研究員)
注釋
① 騰訊網. DeepSeek怎么用18天干出ChatGPT244天的氣勢?[EB/OL]. (2025-02-03)[2025-02-20]. https://news.qq.com/rain/a/20250203A06EZM00.
② SHAPERO J. DeepSeek marks“turning point”for global AIrace: former Google CEO [EB/OL]. (2025-01-29)[2025-02-20].https://thehill.com/policy/technology/5113245-eric-schmidt-DeepSeek-ai-race/.
③ 方興東, 王奔, 鐘祥銘. DeepSeek時刻:技術—傳播—社會(TCS)框架與主流化鴻溝的跨越 [J/OL]. 新疆師范大學學報 (哲學社會科學版),2025(4):103-113 [2025-02-26]. https://doi.org/10.14100/j.cnki.65-1039/g4.20250218.001.
④ LEVINSON P. Toy, mirror, and art: the metamorphosis oftechnological culture [J]. ETC: a review of general semantics,1977, 34 (2): 151-167.
⑤ 方興東,鐘祥銘.互聯網平臺反壟斷的本質與對策 [J]. 現代出版, 2021 (2):37-45.
⑥ CHU Z, GIANVECCHIO S, WANG H, et al. Detecting automationof twitter accounts: are you a human, bot, or cyborg? [J]. IEEEtransactions on dependable and secure computing, 2012, 9 (6):811-824.
⑦ WOJCIK S. 5 things to know about bots on Twitter [EB/OL].(2018-04-09) [2025-02-22]. https://www.pewresearch.org/facttank/2018/04/09/5-things-to-know-about-bots-on-twitter/.
⑧ 騰訊云.【獨家解讀】2018 惡意機器流量報告 [ E B / O L ] . ( 2 0 1 8 -06-22) [2025-02-24]. https://cloud.tencent.com/developer/article/1151122.
⑨ 師文, 陳昌鳳. 分布與互動模式:社交機器人操縱Twitter上的中國議題研究 [J]. 國際新聞界, 2020, 42 (5): 61-80.
⑩ FERRARA E, CHANG H, CHEN E, et al. Characterizing socialmedia manipulation in the 2020 US presidential election [J]. FirstMonday, 2020, 25 (11): 211-236.
? NewsGuard. Tracking AI-enabled misinformation: 1,254“Unreliable AI-Generated News”websites (and counting),plus the top 1 narratives generated by artificial intelligencet o o l s.[E B/O L].(2023-12-18)[2025-02-22]. h t t p s://w w w.newsguardtech.com/special-reports/ai-tracking-center/.
? HVITVED S. What if 99% of the metaverse is made by AI? [EB/OL].(2022-02-24)[2025-02-23].https://cifs.dk/news/what-if-99-of-the-metaverse-is-made-by-ai/.
? 黃浩宇, 方興東, 王奔. 中國網絡輿論30年:從內容驅動走向數據驅動 [J].傳媒觀察, 2023 (10): 34-40.
? 赫拉利. 未來簡史 [M]. 林俊宏, 譯. 北京: 電子工業出版社, 2017: 357.
? 鄭永年.“第四次工業革命”與人類社會的政治秩序 [J]. 現代國際關系,2024 (12): 5-18+144.
? 譚九生, 楊建武. 人工智能技術的倫理風險及其協同治理 [J]. 中國行政管理, 2019 (10): 44-50.
? DeepSeek-AI.DeepSeek-R1 [EB/OL]. (2025-01-23)[2025-02-21]. https://github.com/DeepSeek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf.
? 劉昶, 金之玥. 個人信息保護與平臺權力制約:傳播學視角下的歐洲經驗[J]. 現代出版, 2021 (6): 56-64.
? F i s h e r A I.D e e p S e ek模型發布和重大事件時間線一覽 [E B/O L].(2025-02-08)[2025-02-21]. https://fisherdaddy.com/posts/DeepSeek-model-publish-timeline/.
? DALEY D, AGRAWAL R, SARBORARIA M, et al. Revisiting opensource [J]. International in-house counsel journal, 2017, 11: 1.
? 徐天意. 生成式人工智能開源的風險挑戰及其未來應對: 基于馬克思主義技術批判的分析 [J]. 武漢理工大學學報 (社會科學版), 2024, 37 (4):8-14.
? 鄧建鵬, 趙治松. De e p S e e k 的破局與變局:論生成式人工智能的監管方向 [J/O L]. 新疆師范大學學報(哲學社會科學版),2025(4):68-77 [2025-02-26].h t t p s://d o i.o r g/10.14100/j.c n k i.65-1039/g4.20250214.001.
? MAYER-SCH?NBERGER V,CUKIER K.Big data: a revolutionthat will transform how we live, work, and think [M].Boston:Houghton Mifflin Harcourt, 2013:91.
?? 迪克, 普爾, 德瓦爾. 平臺社會:互聯世界中的公共價值 [M]. 孟韜, 譯.大連: 東北財經大學出版社, 2023: 29; 29.
? NAGLI G. Wiz research uncovers exposed DeepSeek databaseleaking sensitive information, including chat history [EB/OL].(2025-01-29)[2025-02-21].h t t p s://www.w i z.i o/b l o g/w i zresearch-uncovers-exposed-deepseek-database-leak.
? ZHAO W X, ZHOU K, LI J, et al. A survey of large language models[J] .arXiv preprint arXiv: 2303. 18223, 2023.
? 喻國明, 金麗萍. 生成式媒介的極致優化:De e p S e ek對傳播生態的系統性影響 [J/OL]. 新疆師范大學學報 (哲學社會科學版), 2025 (4):114-122 [2025-02-26]. h t t p s://d o i.o r g/10.14100/j.c n k i.65-1039/g4.20250221.001.
? 姬德強, 應志慧. 重思“輿情”: 平臺化時代的輿論 [J]. 現代傳播 (中國傳媒大學學報), 2020, 42 (2): 49-54.
? 張志安, 冉楨. 中國互聯網平臺治理:路徑、效果與特征 [J]. 新聞與寫作,2022 (5): 57-69.
? 胡泳. 人工智能驅動的虛假信息:現在與未來 [J]. 南京社會科學, 2024(1): 96-109.
? CHESNEY R, CITRON D. Deepfakes and the new disinformationwar: the coming age of post-truth geopolitics [J]. Foreign affairs,2019, 98 (1): 147.
? 習近平. 加快推動媒體融合發展 構建全媒體傳播格局 [J]. 求是, 2019(6): 4-8.
? MALEKI N, PADMANABHAN B, DUTTA K. AI hallucinations: amisnomer worth clarifying [C]. 2024 IEEE conference on artificialintelligence (CAI). IEEE, 2024: 133-138.
? JI Z, LEE N, FRIESKE R, et al. Survey of hallucination innaturallanguae generation [J]. ACM computing surveys, 2013 (12):1-38.
? ATHALURI S A, MANTHENA S V, KESAPRAGADA V S R KM, et al. Exploring the boundaries of reality: investigating thephenomenon of artificial intelligence hallucination in scientificwriting through ChatGPT references [J]. Cureus, 2023, 15 (4):e37432.
? SUN Y, SHENG D, ZHOU Z, et al. AI hallucination: towards acomprehensive classification of distorted information in artificialintelligence-generated content [J]. Humanities and socialsciences communications, 2024, 11 (1): 1-14.
? Vectara. Hallucination Leaderboard [EB/OL].(2020-03-13) [2025-03-10]. https://github. com/vectara/hallucinationleaderboard.。
? 張詩瑤, 沈陽. Sora:傳媒生態鏡像進化與認知變革 [J]. 編輯之友, 2024(6): 53-60.
? 李斯揚. 歷史終結于無維之境及其后: 弗魯塞爾的技術圖像論與后歷史哲學 [J]. 國際新聞界, 2023, 45 (6): 144-166.
? COLLINGRIDGE D. The social control of technology [M].London:Frances Pinter,1980: 16.
? 甘麗華, 克里斯琴斯. 全球媒介倫理及技術化時代的挑戰: 克利福德·克里斯琴斯學術訪談 [J]. 新聞記者, 2015 (7): 4-14.
? 鄭永年.“第四次工業革命”與人類社會的政治秩序 [J]. 現代國際關系,2024 (12): 5-18+144.
? HEAVENARCHIVE W D.Geoffrey Hinton tells us why he’snow scared of the tech he helped build [EB/OL]. (2023-05-02)[2025-02-23] h t t p s://w w w. t e c h n o l o g y r e v i e w. c o m/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/.
? 高文. 搶抓人工智能發展的歷史性機遇: 深刻領會習近平總書記關于人工智能的重要論述 [N]. 人民日報, 2025-02-24 (9).
? 王奔, 方興東, 鐘祥銘. DeepSeek效應:科技創新的技術—資本—政治(TCP)范式與路徑選擇 [J/OL]. 青年記者, 2025(3):51-60[2025-02-26].https://doi.org/10.15997/j.cnki.qnjz.20250221. 001.