中圖分類號:G203;D669;TP18文獻標志碼:A文章編號:1004-342(2025)04-28-6
一、問題的提出
數字時代背景下,網絡暴力現象愈發頻繁。相關研究指出,全球范圍內青少年和兒童的網絡暴力的受害率為 14.6% 至 52.2% ,涉及網絡謠言、網絡詐騙、個人信息泄露等違法違規行為。隨著技術的發展,網絡暴力形式更加多樣,如深度偽造技術(deepfake)在視覺質量、多樣性和逼真度方面的表現力足以以假亂真,成為新型網絡暴力行為發生的重要工具。網絡暴力呈現出攻擊性、煽動性、匿名性等特征,不僅嚴重損害當事人的身心健康,而且影響網絡信息內容生態體系的安全性和穩定性,對社會秩序造成沖擊。針對網絡暴力信息開展多元風險治理,是新時代網絡與信息發展的迫切需求。
為應對日益復雜的網絡暴力形勢,各國積極參與《聯合國網絡安全公約》的制定,進行跨地域司法協作,不斷推動全球法律框架完善。近年來,我國頒布了一系列網絡暴力治理規定,從信息內容、網絡平臺等多角度完善網絡暴力立法以期實現網絡暴力的精準治理。然而,網絡暴力治理面臨傳統人工審核方式效率不高、跨平臺取證和歸責困難、惡性信息擴散加速等問題,亟需治理方式的改革與創新。2024年施行的《網絡暴力信息治理規定》是我國首部以部門規章形式公布的反網絡暴力專門立法,強調了人工智能、大數據等技術手段在網絡暴力信息治理方面的應用。①相比于傳統人工智能,生成式人工智能在賦能網絡暴力風險治理方面具有獨特優勢。首先,其強大的邏輯推理能力能夠基于歷史數據對網絡暴力行為進行預測和防控;其次,生成式人工智能可動態化、有針對性地生成多模態網絡暴力防治內容,適應不同主體個性化需求。在數字化進程加速演進的新階段,亟需生成式人工智能賦能網絡暴力治理。
二、生成式人工智能賦能網絡暴力治理的邏輯
(一)技術賦能:動態化監測網絡暴力信息
隨著技術的發展和數據的積累,通過人工智能識別網絡暴力信息成為可能。機器學習算法通過訓練大量標注數據與自動學習,能夠對網絡暴力信息進行識別與監測然而,傳統基于人工智能網絡暴力識別技術跨模態語義關聯能力有限,存在理解能力不足、靈活性不夠,以及更新速度滯后等局限。生成式人工智能為破解上述技術瓶頸提供了系統性解決方案
第一,在識別精準度方面。相關研究比較了BERT、XLNet、RoBERTa等大語言模型檢測網絡暴力信息的實驗效果,發現大語言模型比機器學習及采樣技術能更好地對網絡暴力信息進行分類。②生成式人工智能通過語義嵌入向量化和上下文關聯建模,能夠基于推理模型識別網絡暴力中常見的隱喻、縮寫、符號替換等規避審查手段,③從而提高網絡暴力信息識別的準確性
第二,在多模態數據融合方面。生成式人工智能不僅局限于文本內容分析,還可實現對文字、圖像、音頻、視頻等復合形式的暴力內容精準識別。例如,深度偽造技術生成的虛假視頻、音頻等,可通過多模態語義關聯分析技術進行解碼,①確保網絡暴力信息識別的系統性。基于生成式人工智能的多模態內容審核系統已經在抖音等平臺完成部署,并在網絡暴力信息防治方面呈現出較好效果。
第三,在動態更新機制方面。生成式人工智能不僅能夠實時捕捉新型網絡暴力表達內容和形式,結合知識蒸餾優化模型性能,提高監測效率;還可通過生成對抗網絡(Gen-erativeAdversarialNetworks,GAN)模型模擬虛假信息生成規律,實現檢測模型的動態適配,精準打擊施暴行為。
(二)主體賦能:全景式防治網絡暴力風險
傳統人工智能進行網絡暴力風險評估多依賴靜態規則庫與固定模式,難以實現網絡暴力的差異化與全方位干預。生成式人工智能的防御能力體現在其能夠實時分析網絡暴力傳播態勢與用戶行為特征,并根據不同主體和具體場景輸出差異化的應對策略。
第一,在風險預警與響應層面。首先,生成式人工智能通過自然語言交互與場景化內容生成,可為潛在受害者提供實時防護。通過生成簡明易懂的圖文、視頻,解釋網絡暴力的內涵與常見形式,幫助用戶快速識別侵權行為,并從行為、心理和法律層面給出相應處理意見。其次,生成式人工智能可基于不同場景類別,從歷史行為、信息內容、空間特征等多角度,實時分析用戶交互數據,多維度量化用戶畫像(如未成年人、大學生、上班族等)的受攻擊概率,實現差異化保護;并根據不同風險等級和時間階段的網暴事件頻率構建分級響應機制,③動態調整治理強度以降低誤判率。④
第二,在多主體行為干預層面。生成式人工智能可重構旁觀者的角色,推動其轉化為“治理參與者”。如當發現某社交媒體評論區出現群體攻擊時,不僅可自動生成彈窗提示,還可生成反網絡暴力宣傳內容,通過短視頻、互動游戲等形式喚醒公眾責任意識,提高旁觀者網絡暴力防治的參與度。針對潛在施暴者,生成式人工智能可充當“數字警察”,實現威懾與管理的效果。此外,通過分析暴力事件熱點圖譜、溯源傳播路徑,生成式人工智能可為管理者生成多套治理方案并模擬推演結果,提升治理效率。
(三)過程賦能:全流程嵌入網絡暴力治理
生成式人工智能可推動網絡暴力風險治理從被動應對轉向主動干預,通過跨平臺協作,構建起“事前預防一事中干預一事后救濟”的全流程治理體系,突破傳統的碎片化治理模式,實現系統性風險防控。
第一,生成式人工智能可主動生成正向引導內容。首先,通過模擬網絡暴力場景,生成反網絡暴力宣傳素材或網絡暴力防治科普材料,在沉浸式交互中訓練用戶識別潛在風險,提升公眾媒介素養。其次,從技術角度來看,語言風格轉化技術所需的情感詞典、語言處理、大模型技術都已經較為成熟,生成式人工智能能夠自動發布正向輿論引導內容,稀釋攻擊性言論的傳播密度,①智能攔截并動態凈化網絡暴力信息
第二,生成式人工智能可助力實現跨平臺線索與證據移送。生成式人工智能的分布式學習框架與區塊鏈技術形成治理能力互補,平臺可通過智能合約自動同步風險信息。例如,某用戶在微博發布的侮辱性內容被標記后,該特征可同步至微信、抖音等平臺,觸發跨平臺聯合封禁機制。傳統網暴治理依賴事后人工取證,面臨電子證據易篡改、取證門檻高、司法鑒定成本高昂等痛點。生成式人工智能通過多模態時空關聯分析與區塊鏈存證技術相結合,可實現網絡暴力的“快捷取證”②,自動生成法律維權指引,防止證據鏈條缺失,減少偵查取證成本。
第三,生成式人工智能可支持個性化心理干預與疏導。生成式人工智能驅動的“社交機器人”可自動生成心理疏導資源鏈接、加強網絡安全教育、生成輿情應對指南,訓練用戶提前建立認知與心理防御體系。生成式人工智能通過情緒捕捉,可根據用戶特征及時識別抑郁、輕生等相關信息,采取個性化、針對性治療方案,如構建虛擬陪伴者、進行創傷場景脫敏訓練、根據受害者社交關系鏈生成求助鏈接等,減輕網絡暴力給受害者帶來的負面影響。
三、生成式人工智能應用于網絡暴力治理過程的風險與應對
(一)生成式人工智能應用于網絡暴力治理的風險
1.技術性風險
技術性風險在于深度偽造的濫用與隱蔽內容的誤判,加劇了治理盲區。深度合成等技術簡化了暴力內容的規模化生產,為信息生成和傳播提供新的能力或空間,可能會加劇社會極化與信任危機。多模態模型的語義理解偏差可能導致誤判風險,數據噪聲和技術固有缺陷導致大語言模型難以避免事實錯誤和知識幻覺,文化語境差異可能使反諷、方言等表達被錯誤標記為暴力內容
2.制度性風險
制度性風險體現在相關法律滯后與責任模糊導致監管碎片化。現行法律體系難以適配生成式人工智能治理的技術特性,如《生成式人工智能服務管理暫行辦法》多為原則性規定,缺乏可操作性,“禁止生成虛假、暴力內容”的宣示性條款無法解決深度偽造的技術性認定難題,在跨境治理層面,跨國平臺協作可能存在法律沖突。網絡暴力涉及開發者、平臺、用戶等多方主體,責任主體認定面臨困境,難以界定開發者“未盡合理注意義務”的責任,平臺對用戶生成內容(User-generatedContent)的審核義務邊界尚不清楚。①
3.倫理風險
算法偏見與集權、數據濫用造成的隱私威脅,激化了倫理沖突。大語言模型的訓練語料基于自然語言存在的文化規范和類別編碼,延續了訓練數據中存在的價值觀,網絡暴力數據中涉及種族、性別、宗教和政治取向的偏見也會導致模型的偏見。②平臺通過AI系統對網絡暴力言論的判定與干預,實質上掌握了數字空間的“裁判權”,可能加劇算法權力集中化風險。此外,大模型訓練數據及識別暴力內容時可能過度抓取私人聊天記錄、瀏覽軌跡等敏感信息,造成隱私越界
(二)生成式人工智能應用于網絡暴力治理的風險應對
1.技術優化:增強技術安全性與算法透明度
平臺運營方需開發安全增強技術,嵌入數字水印、元數據標簽等技術,根據《人工智能生成合成內容標識辦法》要求的內容標識制度,實現暴力內容溯源與跨平臺聯防。優化模型結構,及時彌補算法漏洞,強化算法的安全性與穩定性;增強數據的多樣性,迅速響應網絡暴力行為的新趨勢和新變化;提高模型的透明度與可解釋性,制定“AI審核 + 人工復核”的機制以及錯誤處置的糾正反饋機制,減少算法治理的偏誤。
2.制度約束:完善法律規制與責任追溯
國家立法機關需明確生成式人工智能濫用行為的法律責任與刑事從重處罰標準,建立連帶責任機制。細化平臺主體責任,建立“全生命周期追溯機制”;建立國際通用的AI生成內容數字指紋,實現跨境證據互認。通過構建網絡暴力犯罪的類型特征(如施暴主體、受害對象和施暴行為的類型化),③實現對網絡暴力犯罪“法不責眾”現象的精確治理。
3.倫理嵌人:提倡社會多元參與和倫理約束
網絡暴力信息治理需聯合平臺、監管部門、技術企業與社會組織,建立多元主體共治的格局。鼓勵公眾參與監督,提升公眾數字素養,將AI倫理納入國民教育體系。在網絡暴力信息識別模型訓練階段注人反歧視、最小傷害等倫理原則。對賬號封禁、內容刪除等重大決策設置人工復核觸發機制,防止網絡暴力算法權力異化。采用隱私加密技術及自動化檢測隱私風險技術,定期對網絡暴力模型進行倫理審查,并采取有效措施糾正模型中的偏見。
四、結語
生成式人工智能賦予網絡暴力風險治理新的可能,從識別與監管、預警與防治、取證與疏導方面表現出動態化、全景式與全流程的優勢,為網絡暴力風險的精準治理描繪了光明的前景。然而同時生成式人工智能也面臨技術、制度與倫理的深層挑戰,需要構建“技術優化一制度約束一倫理嵌入”的多元多維框架,既要善用生成式人工智能的智能優勢實現網絡暴力信息的治理,亦需警惕技術帶來的風險。唯有在技術創新與風險控制間保持動態平衡,才能使生成式人工智能真正成為網絡暴力治理的善治工具。
(責任編輯:劉曉琴)
Generative Artificial Intelligence Empowering Cyberviolence Governance: Logic, Risks, and Responses
ZHANG WeiGUO ZiqiZHANG Jianwei2 (1.School of Medicine and Health Management, Huazhong University of Science and Technology, uhan,Hubei,43O03O;2.FacultyofScience andEnginering,lwate University,Morioka,lwateO2O-8551,Japan)
Abstract: Cyberviolence is a complex phenomenon intertwined with social contradictions and technological characteristics inthe digital era,and generativeartificial intellgence brings new possibilities for innovation in cyberviolence information governance.From the perspective of empowering logic, generative artificial intellgence shows great potentialindynamically monitoring cyberviolence information,preventingand controllingcyberviolence risks in a panoramic manner,and integrating into cyberviolence governance in the whole process, which helps to eliminate the negative impactsofcyberviolence.However,the applicationof generativeartificial intelligence also faces risks at the technical,institutionaland ethicallevels,and there is an urgent need to enhance technical security and algorithmic transparency,improve legal regulation and responsibilitytracing,and advocate the participation of multiple social entities,and strengthen ethical constraints,soas to realize eficient governance of cyberviolence information.
Keywords:generative artificial intelligence;cyberviolence; risk; governance