【摘 要】信息過載現象主要表現在數據規模的指數級增長、內容質量參差不齊及過濾氣泡效應的加劇等方面,人機協同是減少信息過載的最佳途徑。DeepSeek具備人機協同機制實施可能,但也面臨技術黑箱、標準沖突、治理錯位及人機摩擦等挑戰和語義鴻溝、場景失配、產權安全等困境。為此,應提升算法透明度,彌合技術黑箱與人類認知斷層,優化責任分配,依據風險等級劃分機器與人類的權責,同時推進技術治理合規化,維護系統穩定公平,實施人工干預保障,優化協作流程,彌合人機摩擦與語義鴻溝,以便在信息過載時代更好地為用戶篩選優質內容。
【關" 鍵" 詞】DeepSeek;信息過載;人機協同;生成式人工智能
【作者單位】劉明君,武漢大學法學院。
【中圖分類號】G230.7 【文獻標識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2025.07.012
在當今信息爆炸的時代,信息生產與傳播規模呈指數級增長。人們自覺或不自覺的信息生產行為極有可能形成信息爆炸式增長和擴散轉移[1],算法推薦機制雖然提高了信息獲取的便捷性,但也加劇了過濾氣泡效應,固化了公眾既有的價值觀和偏見,加劇了不同群體的情感區隔和價值分化[2],信息多樣性缺失成為社會面臨的新挑戰。當信息密度超過一定程度,人們的注意力和記憶系統就會承受巨大的壓力,進而陷入信息過載的情境。
學界對大數據時代信息過載這一命題給予了足夠的關注。就信息過載的成因而言,信息過載是技術與傳播雙重革命催生的“系統性悖論”。就信息過載的風險而言,信息過載帶來認知層面的異化危機以及社會系統的信任瓦解。就信息過載的破解而言,學界形成了法律監管說、媒體把關說、數據訓練說、弱化機制說等觀點。但問題在于現有的研究范式存在明顯的二元分立傾向,即或單獨聚焦于人工智能機器客體,或單向度強調人類傳播主體的認知調適,這種思路應對傳統信息過載尚有余地。隨著DeepSeek的爆火,“人機協同、算法共生”的新型傳播生態格局已然形成,此前單向、碎片化的技術治理或者主體解構方式難免力有不逮。鑒于此,本文立足人機協同分析框架,以DeepSeek為樣本,對信息過載與人機協同篩選的必要性、DeepSeek與人協同篩選內容的制度構造及其運行困境,以及人機協同框架下的責任分配制度建構進行系統研究,力求在人類主體性與機器智能性之間找到平衡點,實現信息的有效篩選。
一、信息過載與人機協同篩選的必要性
信息過載時代,用戶的信息處理效率大大降低,深入理解信息過載的治理邏輯,首先要系統梳理其外在表現與內在機理。
1.信息過載的表征
第一,信息環境復雜性的提升促使數據規模呈現指數級增長。當數據洪流突破個體注意力的生物學邊界時,不僅導致信息處理效率的下降,還可能引發認知資源的“擠兌效應”——大腦為應對信息過載而被迫犧牲深度思考能力,轉向淺層信息消費模式。在信息爆炸的時代,人類依賴傳統方式處理信息的能力已至極限,迫切需要新的解決方案來應對日益增長的信息量。
第二,數據爆炸引起內容信息質量失控。虛假信息的新型傳播、深度偽造技術的進步為信息的真實性帶來挑戰。偽科學內容同樣借助社交媒體平臺以“鏈式裂變”的模式迅速擴散,形成龐大的偽知識體系。信息污染擾亂社會輿論環境,對經濟造成負面影響,個體需消耗更多的精力去篩選和處理有效信息,進一步加劇認知負擔。
第三,算法推薦系統通過協同過濾等方法加劇過濾氣泡效應。在算法推薦系統的協同下,馬太效應更容易產生。隨著信息和數據規模的增長,人們的思維方式也受到大數據技術的影響發生改變[3]。強化學習驅動下的反饋閉環無意間加深了用戶的認知繭房,限制了其接觸多樣化信息的機會。
2.信息何以減載:人機協同篩選機制
第一,構建“協同”的三維標準體系。媒介既是信息載體,也是形塑人類認知與社會的“元框架”[4]。在技術協同方面,建立“感知—認知—決策”三級技術接口標準至關重要。對機器端而言,一般要求多模態理解的準確率至少達到95%。同時,人工審核的響應時間應控制在30秒內,經由采用AWS Lambda無服務器架構來實現。從法律協同層面出發,構建包含規則引擎與案例庫的雙重合規系統極為關鍵,此系統不僅要做到有效支持日常操作,還要配備沖突消解機能。在操作協同的流程規劃上,設定科學合理的任務分配比例是要點。為保障流程順暢無阻,可搭建“預篩選—復核—終審”三級流水線,引入區塊鏈技術全程記錄操作軌跡。
第二, 明確機器協同的能力門檻要求。面對信息過載難題,機器必須具備強大的多模態內容處理能力,涵蓋文本、圖像、視頻及音頻等主要模態。各模態識別準確率均需達標:文本內容要精準剖析語義;圖像處理要精準識別對象與場景;視頻分析要確保動作識別與事件檢測的精準性;音頻處理要清晰分辨語音內容及背景噪聲[5]。這些技術指標共同筑牢了多模態融合處理的根基,為后續風險評估夯實基礎。
第三,闡釋協同減載的作用運行機制。分層過濾體系是提升效能的重要途徑,粗篩層依托規則引擎迅速過濾明顯違規內容,削減不必要的深入剖析;精篩層借助深度學習模型識別潛在風險,進一步篩選潛藏問題;終審層則由人工專家定奪爭議內容,保障最終決策的精準與公正。在智能分流機制下,一旦機器隊列積壓數量超過一定限度,即刻觸發人工應急通道,將系統處理延遲控制在100毫秒以內。與之相呼應,建立異常流量熔斷機制,當某類內容投訴率超出預設閾值(比如醫療類內容投訴率≥5%),自動上調該類內容的人工復核比例,以應對突發狀況[6]。
3.人機協同篩選機制在DeepSeek中的具體構造
在技術架構設計上,DeepSeek充分順應互聯網元架構的開放性和分布式全球傳播特性,最大限度發揮互聯網元架構的威力,生成多層次、廣泛動員和協同聯動的類生態傳播效應[7]。DeepSeek系統運用先進的多模態內容理解技術,在數據處理環節的技術突破集中體現為構建混合決策算法架構[8],融合規則引擎與強化學習兩者之長。依托預設好的規則,規則引擎在短時間內能對海量常見情況作出精準判斷。DeepSeek強化學習驅動模型在“認知—反饋—迭代”閉環系統中增加對情境感知的適應性,以開拓更加垂直、細分的應用場景,助推從內容生成到認知演化的傳播范式躍遷[9]。
在法律框架建構上,DeepSeek系統在研發設計階段需要對國際和國內的相關法律法規予以全面深入的考量,如有機整合歐盟《通用數據保護條例》(GDPR)第13條中關于自動化決策說明的模塊,同時納入中國《網絡信息內容生態治理規定》的語義庫,使用戶能夠清晰地了解系統決策的依據和具體過程。在遵守“禁止一般監管義務”原則的前提下,相關系統應遵循《數字服務法》DSA第14條托管服務提供商建立易于訪問、全面和對用戶友好的“通知—行動”(notice and action)機制的要求。這既保證了系統在世界各地都能嚴格遵守當地的特定要求,又能有效保護用戶的合法權益,有力推動信息的健康傳播。
在運行機制設計上,DeepSeek系統復雜且周全的運行機制使其即便身處復雜多變、充滿不確定性的信息環境當中,也能夠維持高效運轉狀態[10]。在流量監控與負載調節方面,系統設定了異常流量監控閾值,一旦實時監測到流量波動超出這一預設范圍,系統便會立即觸發負載調節機制,迅速且智能地對系統資源進行優化配置。在內容管理與風險防控層面,一旦DeepSeek某條內容被判定為高風險內容并進入人工審核階段,與之相關的所有操作記錄都會被完整、精確地錄入區塊鏈,全方位地提升內容管理的安全性和透明度。
二、DeepSeek與人機協同篩選內容的運行困境
盡管DeepSeek通過動態負載調節與區塊鏈存證機制提高了系統的穩定性與透明度,但當 DeepSeek的自優化算法遭遇極端數據沖擊時,其行為可能偏離設計初衷,暴露技術黑箱與治理錯位的雙重困境。
1.DeepSeek作為大模型產生的技術黑箱效應
技術黑箱是指那些既不能打開,又不能從外部直接觀察其內部狀態的技術系統[11]。算法的技術黑箱負面影響是多方面的。一方面,用戶和社會對DeepSeek生成內容的信任建立在一個不可控的決策過程上[12]。用戶在面對系統給出的決策時,由于無法知曉背后的邏輯依據而心存疑慮。另一方面,算法透明度和可解釋性是確保算法決策公正性、防止算法歧視的關鍵所在[13],DeepSeek類人工智能降低了人工智能的部署門檻,可大幅提高人工智能在市場的滲透率,但欠缺透明度的模型泛化使用可能導致市場的“黑箱化”[6]。為了讓系統具備更好的靈活性與適應性,設計人員可優化算法,使其在DeepSeek等大模型遭遇未曾預料的情況時自主調整運作模式。
2.DeepSeek作為大模型產生的標準沖突和治理錯位
第一,信息技術的迅猛發展使得跨國數據流動頻繁,產生標準沖突問題。DeepSeek等大模型生成內容處理技術缺乏全球統一的標準,使得企業在跨國運營時面臨困難,迫使跨國經營主體不得不投入高額成本進行本地化合規改造,這容易形成系統性合規漏洞。這不僅在客觀上增加了監管的復雜性,還使得跨國企業在全球范圍內開展業務時面臨迥異的合規要求與壓力,最終導致合規成本顯著攀升[14]。
第二,現行的法律體系與時代步伐脫節容易出現治理錯位現象。技術創新一路高歌猛進,法律的更新速度卻難以望其項背,進一步導致治理錯位現象。這揭示了DeepSeek在法律和制度層面的運行困境,最終反映在人機協同的實際操作中。人類與機器之間的協作存在顯著的摩擦成本,不僅影響人機協同效率,還可能導致系統整體的可靠性下降。
3.DeepSeek作為大模型產生的生態適配與合規困境
第一,DeepSeek在推動AI落地物理世界和具身智能發展方面面臨應用場景與生態適配困境。如何讓模型不僅能夠理解人類的語言和行為,還能在物理世界中作出合理反應,這涉及復雜的傳感器融合、實時決策和執行機構控制等問題。此外,DeepSeek的開源策略雖然降低了AI的開發門檻,但也可能導致生態碎片化。隨著越來越多的開發者基于DeepSeek進行二次開發和定制化,不同版本之間的系統兼容性和互操作性可能受到影響,從而增加人機協同的復雜性和成本。
第二,DeepSeek在訓練過程中涉及模型蒸餾技術,引發知識產權方面的爭議。如果在蒸餾過程中使用了其他模型的輸出模式或數據,可能會面臨侵權風險,影響DeepSeek的合法性,也會給相關企業和研究機構帶來法律和經濟上的不確定性。同時,在人機協同過程中,數據的合規性和安全性也面臨更大的挑戰。
4.DeepSeek作為大模型產生的人機摩擦與語義鴻溝
第一,在信息篩選領域,不同的審查人員可能會作出大相徑庭的判斷,單靠人工審核無法滿足實時性和高效性的要求。人機協同時也可能面臨人機情感、人機信任等問題。與機器相反,人類處理復雜問題的能力強,能更好地完成情景判斷,但處理大量數據時效率低,易受情緒、疲勞等因素干擾。因此,在DeepSeek等大模型參與的人機協同中,促使人類與機器形成優勢互補成為關鍵問題。
第二,DeepSeek的多模態架構折疊算法支持多種模態的高效交互,但在實際的人機協同中,不同模態之間的語義理解和轉換存在困難。一是DeepSeek的視覺編碼器通過提取圖像的語義特征和細節信息將其映射到語言模型中,這可能導致語義對齊不準確。二是在多模態生成任務中,DeepSeek需要將文本描述轉換為圖像或反之,模態轉換過程涉及復雜的特征映射和對齊問題。三是DeepSeek在多模態融合中采用多個潛在注意力機制和專家混合模型,但這些機制在處理復雜圖文混排內容時仍存在局限性。這些問題不僅影響了DeepSeek的實用性,也對其在信息篩選中的長期發展提出了挑戰。
三、DeepSeek人機協同機制優化路徑
人機協同機制的核心價值在于構建認知互補的共生關系。當算法決策的透明度成為規制體系的剛性要求時,協同邏輯通過雙重認知回路的搭建得以顯現:機器的模式識別能力為海量信息處理提供基礎框架,人類的語境理解能力則為價值判斷注入倫理維度。
1.透明化算法決策機制破解技術黑箱
第一,嵌入可解釋性技術,提升算法的透明度與可信度。當前,若想切實提升算法的透明度與可信度,為人工智能系統嵌入多粒度解釋架構勢在必行,同時還需實現實時解釋接口的標準化,構建起完備的偏見檢測與溯源機制,探索打造“全局—局部—特征”三級解釋系統。從全局層面著眼,基于Shapley的可加性解釋法(shapley additive explanation,SHAP),系統得以精準量化每個特征對最終決策的全局貢獻程度。切換到局部視角,運用LIME算法生成針對單條內容的解釋熱力圖。用戶憑借熱力圖可清晰地看到在特定實例里各個重要特征是如何分布的,明白其對決策結果施加了怎樣的影響。聚焦到特征級,建立可視化特征庫成為關鍵之舉。定義 JSON-LD格式的解釋協議,為不同系統間的順暢溝通搭建通用橋梁。每一個決策產出之際都應附上詳盡的解釋元數據,提升信息的可讀性,讓使用者能夠輕松理解決策背后的緣由,也為不同系統之間的協同合作、數據交互掃清障礙,促進整個生態系統的高效運轉。
第二,建立動態監控與閾值調整系統,實現適應性治理。動態監控的本質是人機協同的適應性治理實驗。閾值調整是規制彈性與機器計算力的協同產物。動態閾值調節系統由預測、反饋和優化三個模塊組成,能夠形成閉環控制機制,以動態適應不斷變化的內容環境。在預測模塊中,采用LSTM-CNN混合模型對未來24小時內的內容風險分布進行預測,其能夠結合長短期記憶網絡(Long Short-Term Memory,LSTM)與卷積神經網絡(Convolutional Neural Network,CNN)的優勢,有效捕捉時間序列數據中的長期依賴性和局部特征,從而提供準確的風險評估。
第三,構建全流程數據治理與偏差矯正體系,保障數據質量。全流程數據治理體系能夠確保數據質量、降低偏差。具體而言,數據采集環節可運用聯邦學習技術在本地化環境之下收集數據,實現保護用戶隱私和保障數據來源豐富多樣的雙重目的。在數據清洗環節,設計人員可以利用眾包用戶標注數據、檢測規則的有效性和適用性[15],確保數據的純凈度。在數據標注環節,設計人員可以專門開發多語言標注平臺以促進跨文化標注的一致性,保證差異化語言背景下數據標注的連貫性。在驗證環節,應當構建“影子數據庫”,采用蒙特卡洛模擬方法對數據分布是否均衡加以驗證,以此保證數據具有代表性和有效性,以精準反映實際情況。數據治理的協同性體現在規制原則與技術實踐的相互馴化過程中。正是這種協同進化使得數據治理既成為規制的執行工具,又成為治理理念的試驗場域。
2.動態權責框架消解標準沖突與治理錯位
第一,構建依據風險分級的動態責任分配機制,明確人機權責。打造依據風險分級的動態責任分配體系需要針對低風險內容將責任按比例分配,如機器承擔70%,人工承擔30%,這本質上是對平臺治理主體性的重新定義。一般情況下,機器和人類合作后專業人員二次審核的雙層審核機制可以提升處理的速度和準確性,盡早察覺潛在威脅,縮短處置響應時長。在面臨中等風險的情況下更加需要緊密的人機協同,高風險內容則需要實施100%人工終審負責制。可以要求人工智能模型通過第三方可解釋性測試或建立配套的人工復核機制[16],以便更加妥善地規避相關風險,提高用戶對系統公正性和透明度的信任度。
第二,建立三級風險歸責體系,實現精細化任務分配與責任追蹤。要想解決信息篩選流程中的治理錯位問題,可以嘗試構建三級風險歸責模式,以實現精細化的任務分配和透明化的責任追蹤目的。一級風險層級主要由機器擔負技術責任,可以充分發揮機器強大的運算能力和快速響應特質,同時降低人力成本。二級風險則涉及醫療健康等相對復雜的領域,可采取人機共擔責任模式,推行算法建議與人工復核的雙重制度。三級風險信息對社會影響相對較為廣泛,可能涉及法律風險,需要交由專業人士進行細致審查。同時,平臺運營者作為最終責任主體,需要配合完成流程審核工作,對相關環節予以監督和自查,確保整個流程的合法性和透明度。
第三,構建跨國協同治理框架,應對標準沖突與文化差異。跨國協同治理框架的實質是規制共識的協同生產。當主審地平臺的技術標準遭遇屬地文化價值沖突時,協同機制通過三重交互實現規制調適:一是算法規則與文化語境的符號轉換,將法律條文轉化為可計算的特征變量;二是審核標準與社會認知的意義協商,通過專家委員會的共識建構彌合價值分歧;三是治理經驗與機器學習的知識遷移,使區域性規制創新轉化為全局性算法優化。面對標準沖突問題,應加強與其他國家在數字領域的合作與交流,構建符合我國國情的跨國協同信息治理框架[17]。跨國協同治理框架的構建需要保障所運用的技術符合國際標準,應選擇法律體系完備、技術水平高的國家或地區作為參照基準。屬地運營者則需重點關注文化適配等問題,監督所提供的內容能否在屬地社會環境中被準確理解和恰當接受,盡力彌合屬地差異化的語言表達和文化基礎。
3.原生合規架構應對數據安全與生態適配困境
第一,將透明性方法融入合規架構,實現規制與技術協同進化。合規架構的協同進化體現在規制剛性與技術柔性的辯證統一。審核人員在處理文化敏感數據時的裁量經驗,通過反饋機制轉化為算法優化的訓練樣本,使機器逐步掌握合規判斷中的灰度認知。這種協同進化使規制體系從外在約束轉化為內生能力,在保障數據安全的同時培育出適應多元文化場景的兼容性生態。在算法中植入決策邏輯可視化模塊可提升整體透明度和可解釋性。決策邏輯可視化模塊能夠實現局部解釋算法和SHAP全局解釋算法的結合,從而實現對DeepSeek篩選結果的實時解釋。
第二,建立動態感知與臨界值調整系統,提升風險應對能力。針對在運行過程中調整閾值的需求,相關模型可探索建立動態閾值調節系統。具體而言,在應用層面,該系統能夠配合開發敏感詞匯的動態詞庫,通過自然語言處理技術實時更新其語料庫和特征庫,提高敏感內容的識別準確率。同時,先進的時間序列預測模型能夠分析歷史數據中的流量模式,從而識別正常范圍內的流量波動和潛在風險,以更好地應對流量波動帶來的挑戰。基于對歷史周期(如過去三個月或者三年)的分析,系統能夠得出未來周期的流量變化規律,根據預測數據對異常流量監控閾值進行調整。動態閾值調節系統引入季節性調整因子,能夠根據歷史數據自動優化異常流量監控閾值,識別節假日等影響因素,完成自身的動態調整。
第三,構建算法偏見矯正機制,解決數據偏差問題。“數據清洗—算法訓練—效果驗證”的算法偏見矯正體系可以進一步解決數據偏差問題。若訓練數據包含大量謠言或錯誤信息(如社交媒體虛假新聞),模型會將其視為“事實”并復現,因此生成式人工智能生產的虛假新聞可能成為下一次虛假新聞產生的“原材料”[18]。因此,應當去除原始數據中的噪聲和錯誤信息,對缺失值進行處理。在數據清洗階段,模型可以首先進行去重與格式統一操作,對數據進行去重處理,避免重復記錄影響分析結果,之后利用統計學方法或機器學習模型,根據實際情況識別并修正異常值,必要時進行刪除。對于存在缺失值的記錄,模型可以采用多種方法進行填補,比如實施均值填充、插值法或使用預測模型等方案進行估算。
4.結構化干預機制彌合人機摩擦與語義鴻溝
第一,制定統一的審核標準,規范審核工作流程。所有的人工智能生成內容需經過專業人員的審核和驗證,以保證信息的準確性和公信力[19]。為此,應著手探索制定如《人工智能輔助審核操作規范》等性質的規范性文件,明確日常審核工作的基本操作流程,詳細闡述決策依據的關鍵要點,讓審核人員在面對各種信息時能夠基于合理依據給出判斷。針對政治敏感與宗教禁忌等高危內容類別,可以建立雙軌制判定體系。相應地,還應搭建國家審核標準數據庫,廣泛收集和整理各國在信息篩選領域的重要資料,構建全面且權威的標準體系[20]。
第二,優化專家決策機制,提升決策效率。為切實有效地提升決策效率,可以構建“專家池—任務池-知識庫”三位一體的決策系統。一是建立全國性的審核專家庫,推行分級認證制度,明確區分專家的能力水平層次,在匯集各領域專業人才的同時保障資源配置的合理性。二是配套開發智能派單系統,對待審核的案件進行復雜度評估,綜合考慮多方面因素,生成相應的復雜度評分,精準挑選出最適合該案件級別的專家進行處理。三是建立典型案例知識庫,利用先進的自然語言處理技術和機器學習算法實現深入細致的分析,從中提煉出通用的模式和規則,進而構建推理算法模型,在實際應用中不斷學習和優化自身,促進整個系統的智能化。
第三,再造人機協同流程,提高協同效率。為妥善解決人機在協同期間出現的摩擦問題,有必要設計“人工智能預處理-人工復核-系統優化”的閉環工作流程。在具體的工作流程中,任務應該按比例分配,人工智能承擔70%的標準化篩選任務。在處于復雜或模糊的情境時,人工復核主要負責處理那些涉及高風險、存在法律敏感性或是文化背景較為復雜的案例。此外,構建人機協同效能評估模型,依據實際情況動態調整人工智能和人工的任務分配比例,能夠適應不同階段、不同類型任務的需求,以實現人機協同效率的提升。
四、結語
在信息過載的時代背景下,內容篩選的人機協同模式已成為應對信息洪流的關鍵路徑。DeepSeek憑借其先進的多模態內容理解技術、混合決策算法架構及動態調整機制,在復雜的信息環境中展現卓越的篩選能力,其能夠快速處理海量數據,經由語境分析提供精準的信息篩選結果,有效緩解信息過載的壓力。DeepSeek所代表的人機協同模式在人工智能時代具有廣闊的應用前景,隨著技術的不斷進步與應用場景的拓展,其有望在醫療、教育、交通等領域釋放潛力。人機協同模式還可以在智能城市、環境保護、文化傳承等領域發揮獨特的價值,推動社會的可持續發展。
|參考文獻|
[1]陳華明,劉效禹. 以信息為軸:信息失序的媒介化治理邏輯再造與實踐路徑[J]. 新聞與寫作,2023(6):24-33.
[2]張龍輝. 數字社會建設中的算法安全風險及其化解策略[J]. 東北師大學報(哲學社會科學版),2024(2):134-144.
[3]盧浩. 數字產品知識產權存續規則的理論基礎、技術挑戰與優化路徑[J]. 法理:法哲學、法學方法論與人工智能,2024(1):167-194.
[4]NEIL POSTSMAN. Amusing Ourselves To Death[M]. London:Methuen Publishing Ltd,1987.
[5]羅弦,徐伊冉. 數智賦能:Sora在圖書視頻化中的應用與挑戰[J]. 出版廣角,2025(4):104-109.
[6]楊東,黃陶. DeepSeek類人工智能賦能金融科技3.0:體系變革與監管適配[J]. 新疆師范大學學報(哲學社會科學版),2025(4):80-89.
[7]方興東,王奔,鐘祥銘. DeepSeek時刻:技術—傳播—社會(TCS)框架與主流化鴻溝的跨越[J]. 新疆師范大學學報(哲學社會科學版),2025(4):126-135.
[8]劉翠峰,黃秋生. DeepSeek破局數字資本主義:技術解鎖與潛能釋放[J]. 湖南科技大學學報(社會科學版),2025(2):112-121.
[9]喻國明,金麗萍. 生成式媒介的極致優化:DeepSeek對傳播生態的系統性影響[J]. 新疆師范大學學報(哲學社會科學版),2025(4):71-79.
[10]王濤. 新質生產力驅動下的法治范式轉型:以DeepSeek為例[J]. 東方法學,2025(2):137-152.
[11]楊曦,鄧臻宇. AIGC創作適用著作權合理使用的困境與出路[J]. 出版廣角,2024(17):75-80.
[12]張愛軍,陳瑞琪. DeepSeek等生成式人工智能賦能政治傳播的倫理風險與規制路徑[J]. 公共治理研究,2025(3):5-18.
[13]位濤濤. 生成式人工智能的數據風險與規制進路[J]. 科技管理研究,2024(22):224-232.
[14]魏鈺明,賈開,曾潤喜,等. DeepSeek突破效應下的人工智能創新發展與治理變革[J]. 電子政務,2025(3):2-39.
[15]郝爽,李國良,馮建華,等. 結構化數據清洗技術綜述[J]. 清華大學學報(自然科學版),2018(12):1037-1050.
[16]周文康,費艷穎. Sora生成視頻的著作權規制困境及化解路徑[J]. 出版廣角,2024(5):35-42.
[17]胡海波,耿騫. 數據跨境流動治理研究:溯源、脈絡與動向[J]. 情報理論與實踐,2023(7):178-768.
[18]程夢瑤,陳瑛. 短視頻平臺版權治理的價值取向及完善路徑[J]. 出版廣角,2025(1):108-115.
[19]楊洸. 新聞宣傳和網絡輿論一體化管理:時代價值、理論基礎與規范治理[J]. 新聞界,2014(12):15-26.
[20]劉成,莫生葉. 生成式人工智能應用中的意識形態安全邊界厘清、風險監測及規制理路:基于DeepSeek、Manus、ChatGPT、Sora的思考[J/OL]. 重慶大學學報(社會科學版),2025:1-14(2025-04-02)[2025-05-27]. http://kns.cnki.net/kcms/detail/50.1023.c.20250402.1426.002.html.