【摘要】人工智能正深度嵌入全球網絡空間治理體系,以高效的數據處理和風險識別能力重塑治理的主體結構、方法流程與模式機制,有效提升治理效率。必須清醒地認識到,人的作用在全球網絡空間治理中仍具有不可替代性,因為人工智能尚不具備規范判斷與制度設計能力,其透明性、倫理性與權責屬性仍依賴人類塑造。未來全球網絡空間治理將呈現人機協同趨勢,即技術負責初步識別與響應,人類完成價值設定、制度構建并承擔最終責任。人機共治的關鍵在于通過結構嵌套、規則共創與責任協同等機制,構建開放、透明、可問責的全球網絡空間治理新范式。
【關鍵詞】人工智能" 網絡空間治理" 技術嵌入" 人類主導" 人機協同
【中圖分類號】D820/TP393" " " " " " " " " " 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.13.004
引言
在數字技術迅猛發展的當下,全球網絡空間治理正面臨深刻的結構性變革。全球網絡空間治理是指通過制定和實施政策、規則及技術標準,協調各國政府、國際組織、私營部門和公眾等多方主體,共同管理和規范網絡空間,以維護其安全、穩定與繁榮的活動。[1]以人工智能(Artificial Intelligence, AI)為代表的新興技術,正從單一工具型手段演變為嵌入式治理要素,深度參與政策執行、內容監管、風險預警、數據管理等多個關鍵環節。這種變化不僅顯著提升了治理效率和響應能力,而且給傳統治理邏輯、權力結構與制度安排帶來前所未有的挑戰與重塑壓力。
人工智能之于網絡空間治理,不僅是一場技術革新,更是一種治理范式轉型,對于網絡空間治理而言是一把“雙刃劍”。[2]一方面,依托強大算力與可持續優化的算法,人工智能在信息甄別、趨勢識別、行為監測等方面具備獨特優勢,推動治理從被動響應走向主動預測,從集中管理走向去中心化協作;另一方面,人工智能技術治理應用中的透明性缺失、倫理模糊、問責困難等問題,也引發了各界對治理正當性與責任歸屬的深層憂慮。這意味著,我們正進入一個技術推動與人的協調監管并舉的人機共治新階段。然而,技術本身并不具備自治能力。治理本質上是一種集合法律制度、社會共識與政治判斷于一體的復雜工程。在人工智能廣泛介入全球網絡空間治理實踐的同時,人類在價值設定、規則制定、道德判斷與多邊協商中的不可替代性愈加凸顯。從平臺內容審查中的倫理分歧,到跨國數據流動中的主權博弈,從技術濫用引發的風險糾錯,到未來治理機制的制度前瞻,人類始終是治理鏈條中的最終責任者與價值“守門人”。
因此,理解人工智能時代的網絡空間治理變革,不僅要關注技術賦能與效率提升,而且必須正視人類主導作用的持續必要性,并思考人機協同的新制度形態。本研究擬從技術嵌入、人類主導、人機協同三個維度出發,系統探討全球網絡空間治理的結構性轉型邏輯。首先,聚焦人工智能對網絡空間治理的結構性變革,分析其在治理效率、主體結構、流程機制與制度模式等方面的深度介入與重塑。其次,討論網絡空間治理中的人類不可替代性,強調在倫理判斷、規則設計、政治協調與公眾參與等關鍵領域,人工智能無法取代人類的規范性與判斷力。再次,展望邁向“人機協同共治”的網絡空間治理圖景,提出一種更具前瞻性的制度設想,即人類主導、人工智能輔助的人機協同機制。[3]通過上述分析,本文希望為理解人工智能驅動的全球網絡空間治理提供一套兼具結構觀察與規范反思的理論框架,進而為未來制度設計提供啟示與參考。
人工智能對全球網絡空間治理的嵌入
隨著人工智能技術的快速演進,全球網絡空間治理正經歷深層次的結構性轉型。人工智能不僅提升了治理效率,更在悄然重塑治理主體格局、操作流程與制度架構。下面以效率、主體、過程、模式四個維度為線索,系統分析人工智能如何嵌入網絡治理體系,并揭示其在權力分布、制度路徑和治理邏輯等方面的重塑機制。
治理效率的躍升:從人工操作到智能驅動。人工智能技術的嵌入,顯著改變了網絡空間治理的效率邏輯。傳統治理依賴人工操作,在數據處理、內容審核、安全防護等方面面臨人力成本高、響應速度慢、覆蓋面有限等結構性困境。人工智能的引入,使網絡空間治理從依賴人類的點狀響應,轉變為全天候、高速率、廣覆蓋的系統性機制,開啟了治理效率躍升的新階段。
在內容治理方面,人工智能極大提升違規內容的篩查和響應速度。以Meta公司為例,其在2022年第四季度報告中指出,旗下平臺使用人工智能識別并處理約90%以上的仇恨言論和暴力內容,且多數能在用戶舉報前實現系統捕捉。[4]YouTube與TikTok也廣泛使用圖像識別與語義分析技術,在上傳初期對內容進行分類和處理。盡管人類仍需在復雜內容判斷中參與復核,但人工智能顯著減輕了審核負擔,提升了響應速度。
在網絡安全領域,人工智能可提高對威脅的即時監控與主動防御能力。例如,微軟的“Azure Sentinel”安全平臺利用自動化整合技術可在毫秒級別識別異常網絡行為并自動啟動防御機制。[5]該系統利用機器學習訓練識別“零日攻擊”“釣魚郵件”等潛在威脅,有效提高了網絡防御的敏捷性。中國國家計算機網絡應急技術處理協調中心(CNCERT)也在探索將人工智能算法引入國家級態勢感知平臺,實現關鍵基礎設施的風險自動識別與響應。
在數據治理方面,人工智能顯著增強數據融合與決策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、環境、公共安全等多維數據,輔助政府使用人工智能實時分析交通與城市運行數據,為城市管理提供支持。[6]人工智能作為治理效能提升的加速器,正推動全球網絡空間治理自動化、智能化并向前瞻治理演進。
治理主體的轉型:從人類主導到人機共治。隨著人工智能深度嵌入全球網絡空間治理,傳統由人類主導的治理格局正經歷著轉向“人機協同、多元共治”的重大變革。在新的治理體系中,人工智能不再只是被動執行的技術工具,而成為具備輔助判斷、主動識別、風險預警等能力的輔助治理主體。人工智能開始在數據分析、內容篩查、風險建模等前端環節發揮關鍵作用,提升治理系統的響應效率與覆蓋能力,而政策制定、價值判斷與責任追究等規范性環節仍由人類主導完成。二者相輔相成,構成“技術驅動—人類裁量”的復合型治理結構。無論是在網絡安全領域,還是在平臺自我規制與技術倫理治理中,越來越多的實踐印證了這一協同治理模式的發展與落地。
全球網絡安全巨頭卡巴斯基旗下的卡巴斯基工業網絡安全(KICS)和異常檢測機器學習(MLAD)產品都使用人工智能算法來識別特定工業環境中的間接攻擊指標和細微活動異常。[7]其托管檢測和響應(MDR)平臺則采用基于人工智能的自動分析器,該分析器接收安全運營中心團隊收到的警報后能自動對警報內容進行處理。據統計,經過訓練和分析師評估后,MDR平臺能夠較為可靠地過濾錯誤警報,從而將減少安全運營中心約25%的工作量。[8]這一實踐展示了人機協作在網絡安全治理中的有效性,即人工智能負責初步篩查和風險標注,人類專家進行復審和決策,從而提升治理的效率、精度和可靠性,構建起一個分工互補、責任清晰的協同治理模式。
人工智能不僅提升平臺內部監管的精度與覆蓋率,也賦予平臺更大的規制能力,重塑治理邊界。例如,阿里巴巴于2022年設立“科技倫理治理委員會”,并引入外部顧問機制,推動包括算法審查、風險評估、數據隱私保護等在內的技術治理框架。該委員會主導制定了“科技倫理六大準則”,明確要求重要算法上線前需進行倫理與合規評估,確保平臺在“可控、可信、安全”基礎上運行治理機制。[9]這一實踐展示了阿里巴巴如何通過人工智能技術和內部治理機制的完善,提升平臺治理能力,從而在商業組織基礎上承擔更多治理主體責任。
治理過程的重構:從線性流程到智能自動化。人工智能的介入,正在深刻重塑全球網絡空間治理的流程架構。傳統治理模式通常遵循“問題發現—人工介入—響應處理”的線性鏈條,嚴重依賴人力審批和多部門協同,導致流程遲滯、反饋滯后與資源浪費等治理瓶頸。在傳統架構下,內容審核、風險識別、違規處置等任務往往由不同部門各自為政,形成“治理孤島”。在人工智能介入的新治理范式中,平臺不再僅僅是承載治理任務的執行載體,而是逐步演化為集感知、調度、決策于一體的智能中樞。人工智能對治理流程的重構,不僅提升治理效率,更促成從人工審批線性鏈向以平臺為中樞的并行自治范式轉變。
TikTok的廣告審核流程結合了自動化審核與人工復核,以提高審核效率和準確性。廣告提交后,系統通常會在24小時內完成初步審核。對于低風險內容,人工智能可自動批準,而高風險或復雜內容則交由人工復核處理。這種協同機制避免了資源浪費與誤判過度,體現了人工智能在治理任務智能分流與并行處理方面的應用價值。[10]
百度推出的內容審核平臺,集成人工智能內容審核系統,實現多業務線的統一風控調度。該平臺支持對圖像、文本、語音、視頻等多模態內容進行審核,具有審核模型精準、審核維度豐富和規則配置靈活等特點。通過界面化選擇審核維度、個性化調整松緊度,自動檢測涉黃、涉恐、惡意推廣等違規內容,降低業務違規風險。這一實踐充分展示人工智能可推動以平臺為中樞的智能治理中臺建設,整合原本分散的資源與模塊,提升內容安全治理的效率與精準度。可以認為,百度內容審核平臺在部分流程節點中實際上獲得了“自治執行權”,成為流程中的代理治理者。管理員的職責從“執行者”轉為“規則設計者”,人工智能負責持續運作并自我學習,形成智能化流程的微觀自治單元。[11]
治理模式的重塑:從靜態規制到動態適應。人工智能的引入正在深刻重塑網絡空間的治理模式,不僅變革治理工具與流程,也重構治理的根本邏輯。傳統的治理框架通常依賴于靜態、線性的規制設計,在應對已知風險方面尚可運作,但面對快速演進的技術生態與多元不確定的風險情境,常常顯得滯后、低效、缺乏彈性。在這種背景下,人工智能憑借其高頻感知、多源整合和快速反饋等能力,正成為網絡空間治理系統動態調節的核心引擎。其不僅能在治理流程前端發揮實時監測與識別功能,還可以嵌入制度設計后端,推動治理結構實現“反饋—調整—再執行”的循環更新機制;更進一步,人工智能的獨特能力還使部分制度具備在監管不確定情境下進行政策試驗的可能。
傳統治理側重于對既成違規行為的事后處置,而人工智能則推動風險識別和資源調度向前置部署轉型。例如,百度公司通過其安全態勢感知系統,可針對全網文字、圖片、視頻、代碼等進行智能建模和7×24小時實時監控,對欺詐、違法、風險等惡意網站及第三方瀏覽器、第三方APP、社交平臺、短信網址有害信息采取風險標注、攔截提示、搜索屏蔽等攔截措施,其治理邏輯轉變為“事前監控—事中攔截—事后追溯”,為用戶提供了更為完善的安全保障體系。[12]
面對不斷變化的技術生態和社會需求,人工智能助力構建以反饋為核心的動態治理模式。例如,歐盟于2022年通過了《數字服務法案》(Digital Services Act, DSA),要求大型在線平臺建立動態風險評估體系,持續依據算法反饋和輿情數據,調整內容審核機制、推薦邏輯和用戶提示方式,從而創建一個更安全的數字空間。[13]在技術尚未成熟、風險尚不明確的生成式人工智能、元宇宙等新興領域,傳統規制模式可能導致監管真空或創新受限。為兼顧探索與合規,部分國家引入“治理沙盒”“彈性監管”等柔性制度架構。英國政府于2023年3月發布了《支持創新的人工智能監管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原則的人工智能治理方法,強調在現有法律框架下對人工智能進行監管,并提出可信人工智能、監管沙盒等舉措,以在防范潛在風險的同時促進產業發展。[14]
綜上所述,人工智能技術推動網絡空間治理從靜態規則走向動態彈性機制,從一次性部署走向持續調試,從封閉式制定走向開放式共建,為構建適應型、學習型全球網絡空間治理體系提供了關鍵支撐,也使全球網絡空間治理更具彈性與適應力。但與此同時,人工智能技術應用也帶來了新的制度難題:誰主導規則迭代?反饋數據是否公開透明?政策試驗失敗由誰負責?這些問題仍需人類在制度設定與監督過程中行使終極裁量權,發揮責任擔當。
全球網絡空間治理中的人類不可替代性
在人工智能廣泛嵌入網絡空間治理的當下,其在數據處理、風險預測、內容識別等領域展現出卓越效率。人工智能在發揮極大賦能增效作用的同時,也日益暴露出數字控制、權力剝奪、價值偏好偏差等消極影響,暗藏頗為危險的技治主義傾向。[15]治理本質并非單純的技術工程,還關涉制度設定、權力協調與價值判斷。特別是在多主權并存、技術快速演化的全球網絡空間,人類在治理中的主導角色非但未被削弱,反而在制度建構、倫理決策與國際協商等關鍵環節中更加不可替代。
制度設計中的人類規范判斷作用。人工智能的廣泛應用正在重塑全球網絡空間治理的技術圖景。治理制度不僅是對運行機制的設定,更是對社會價值、權力關系與規范邊界的系統構造。在網絡空間這一跨文化、多主體、高變動性的場域中,制度設計遠非技術性輸入輸出所能替代,必須由具備歷史意識、價值判斷與政治理性的主體親自把關與主導。人工智能雖擅長數據演繹與模式識別,卻難以處理涉及倫理爭議、文化沖突與社會期望的規范性問題,這些構成了其難以逾越的認知邊界。法律與政策等治理規范的制定,并非模型單獨推導出的技術解法,而更是一場社會協商與道德評估的集體實踐。
歐盟《人工智能法案》(Artificial Intelligence Act)體現了這種人類主導的制度判斷過程。自2021年其草案提出以來,歐洲議會、理事會與成員國歷經多輪辯論,最終在2023年12月達成政治共識。立法過程中設立的人工智能倫理框架將所有人工智能系統應用場景劃分為“不可接受”“高風險”“有限風險”“最低風險”四類,并明確禁止用于社會信用評分、實時遠程面部識別等“不可接受風險”用途。這一制度構造的背后,是圍繞“人類尊嚴”“基本權利”“民主穩定”等核心價值展開的政治與法律協商,而非算法所能自主設定的技術邏輯。[16]
在我國,《中華人民共和國個人信息保護法》亦展現了在本土社會邏輯中對制度價值的多重考量。該法案于2021年正式施行,既參考了歐盟《通用數據保護條例》(GDPR)中的部分經驗,如數據最小化原則、跨境傳輸限制等,又根據中國國情強調了“國家安全”“社會穩定”“政府作用”等理念。在跨境數據流動部分,該法規定“關鍵信息基礎設施運營者”和處理個人信息量達到國家網信部門規定數量的“個人信息處理者”必須接受國家網信部門安全評估,體現出對國家主權與公共利益的制度性偏好。這些條款體現了集體主義文化、秩序導向型治理觀念在制度設計中的深層嵌入。[17]
更具國際層面制度張力的是聯合國政府專家組(UNGGE)在網絡空間國際規則制定中的工作實踐。UNGGE多輪談判圍繞“國家主權是否適用于網絡空間”“武力使用是否涵蓋網絡攻擊”等問題展開激烈討論。美國堅持強調“自由開放的網絡空間”,反對“國家主權過度擴張”;而俄羅斯與部分發展中國家主張國家政府在網絡空間治理中的作用,反對技術霸權。這些立場分歧反映出不同國家的戰略利益與治理觀念,其制度文本的最終形成依賴的是人類外交代表在談判、協商與利益妥協中的經驗判斷和價值權衡,而這種互動難以由人工智能代理。[18]
人類始終在制度構建的核心判斷中發揮著不可替代的作用。人工智能可在制度形成過程中提供輔助分析,但制度的合法性、正當性與文化適應性,必須源于人類社會的理性協商與規范共識。即便未來人工智能進一步嵌入治理過程,也無法改變人類在全球網絡空間治理中擁有制度主導權的核心邏輯。
價值沖突中的人類倫理判斷作用。在全球網絡空間治理實踐中,倫理判斷是無法由算法替代的關鍵環節。特別是在不同社會價值觀發生沖突時,只有人類才能憑借其倫理感知、社會共識與文化理解能力作出更具合法性與可接受性的決策。人工智能可以識別模式、執行規則,但缺乏主動提出倫理問題、衡量文化后果與承擔社會責任的能力。諸如隱私保護與國家安全之間的張力、言論自由與社會穩定的平衡、人權保障與內容審查的界限,這些議題往往處于灰色地帶,難以依靠邏輯演算或統計模型得出唯一答案。
Meta(原Facebook)平臺的內容審核機制充分揭示了該問題的復雜性。盡管該平臺部署了大規模人工智能系統以自動識別暴力、恐怖主義、仇恨言論等內容,并可在用戶舉報前完成大部分初步篩查,但在處理政治異議、人權表達和宗教敏感內容時,人工智能系統顯得力不從心。為應對這一挑戰,Meta于2020年正式設立“內容監督委員會”(Oversight Board),負責復審關鍵內容爭議案件。該委員會強調審查標準需依據《世界人權宣言》與區域法律框架,明確了人工智能判斷之外,人類在政治表達與文化張力中的裁定責任。[19]
另一個體現倫理判斷主導技術決策的事件,是谷歌(Google)在“Project Maven”項目中的戰略退出。該項目由美國國防部于2017年啟動,旨在利用人工智能圖像識別技術提升無人機軍事偵察與目標打擊的效率。谷歌在該項目中負責提供機器學習平臺工具,協助軍方進行目標識別。然而,自2018年起,谷歌內部爆發大規模員工抗議,逾4000名員工聯名反對公司參與該項目,認為這違反了公司“不從惡”(\"Don't be evil\")的核心理念。在道德壓力與公眾爭議下,谷歌最終決定退出該項目,并在公開聲明中表示“人工智能必須服務于和平與人類價值,而非被濫用于武力控制”。這一事件清晰說明,即使在高科技公司內部,倫理價值仍然是最終決策的主導因素,而非由技術理性決定。[20]
制度層面更為突出的案例是新西蘭政府在“基督城清真寺槍擊案”(2019)后發起的“基督城呼吁”(Christchurch Call)倡議。在該事件中,兇手通過社交平臺直播其行兇過程,震驚全球。事件之后,新西蘭聯合法國等歐盟國家與多家科技公司,共同呼吁建立全球互聯網內容治理機制。該倡議明確提出:“應在人類監督下加強極端內容的識別與處理,反對將此類工作完全外包給人工智能系統”,強調平臺責任、人類干預與跨國合作的制度性路徑,代表當前國際社會對人工智能內容治理邊界的基本共識。[21]
在涉及社會敏感議題的治理過程中,人工智能固然可以作為技術支持工具,但最終的倫理決策權必須由人類掌握。尤其在跨文化背景下,全球社會對“自由”“暴力”“安全”等概念的理解存在巨大差異,人工智能模型在此情境下往往無法提供廣泛認可的方案,反而可能激化信任危機。因此,全球網絡空間治理中,人類在倫理判斷中的主導地位不可替代。
公眾參與中的人類民主組織作用。在全球網絡空間治理中,政策制定早已超出技術執行的范疇,成為一項涉及多元價值沖突、利益平衡與制度正當性的復雜政治工程。公眾是否以及如何被有效納入治理結構,不僅關乎程序正義,也決定了治理機制的合法性與可持續性。盡管人工智能在輿情識別、意見聚類與參與動員等方面展現出巨大潛力,但仍無法替代人類在公眾參與和公共協商中的核心作用。
首先,公眾參與而非簡單的技術采樣或數據建模,是民主政治的基石。2017年,美國聯邦通信委員會(FCC)就“網絡中立性”政策改革展開公共咨詢,收到了約2200萬條公眾評論。然而,事后調查發現,其中近1800萬條評論為虛假提交,很多使用了偽造的身份信息。這揭示了在政策制定過程中,雖然人工智能可以輔助分析評論內容,但對于評論的真實性驗證、代表性評估以及程序的公平性判斷,仍需依賴人類的制度裁定和監督。[22]這一事件表明,治理合法性依賴的不是算法生成的統計概率,而是人類社會對過程正義的信任。
其次,在技術與民主并存的場域中,人工智能可作為“協助組織者”嵌入參與機制,但不具有決策主體地位。法國政府于2019年發起“全國大辯論”(Grand Débat National)項目,旨在回應“黃背心”抗議,促進全國性對話以化解社會沖突。[23]政府在全國范圍內組織了超過1萬場線下集會,并結合人工智能技術對約200萬條在線提交的意見進行文本分析與分類。數字化后的民意數據被委托給調查公司OpinionWay及其人工智能合作伙伴Qwam處理,他們通過人工智能工具識別民眾共識與爭議焦點,輔助政府制定改革優先事項。[24]然而,這一人工智能輔助機制始終以“意見歸納工具”而非“政策決策者”角色存在,最終的制度調整仍由總統與議會通過民主協商裁定。
再次,公眾參與在人權與道德議題中更具有不可替代性。英國在制定《在線安全法案》(Online Safety Bill)期間,廣泛征求民意、組織聽證會,并設立跨黨派監督小組,以處理平臺責任、算法偏見與未成年人保護等復雜問題。該法案涉及“如何界定有害內容”“平臺是否過度審查”“人工智能在內容治理中的合法邊界”等多重倫理風險。[25]盡管技術專家參與算法模型與風險評級設計,但最終法律文本仍由議會通過,體現出人類在價值判斷、權力設計和制度運行中的絕對主導地位。
人工智能可以在全球網絡空間治理中作為信息賦能的工具,擴展參與范圍、優化議題聚合、發現意見沖突,但規則設定、協商引導與責任歸屬的制度構建仍需由人類主導完成。特別是在多元文化、價值觀沖突的全球網絡空間,公眾參與仍然不可替代。
跨境多方博弈中的人類協調作用。全球網絡空間治理不僅關涉技術部署,更深刻映射出國際體系中的主權沖突、權力再分配與制度競爭。在這一多極互動的場域中,治理不再是行政命令的線性輸出,而是一個充滿政治張力的“協商—妥協—再協商”過程。人工智能雖然可以提供數據支持、語言翻譯與風險評估,但缺乏政治敏感性、文化理解力與妥協能力,無法勝任高風險、多變量的跨境協調任務。
以TikTok與美國政府圍繞“數據主權”與“國家安全”問題的爭議為例,人類談判的作用在其中展現得尤為明顯。2019年,美國外國投資委員會(CFIUS)對字節跳動收購Musical.ly并將其整合為TikTok的交易展開了國家安全審查。盡管TikTok采取措施將美國用戶數據存儲在美國和新加坡,并退出香港市場以爭取美方信任,但CFIUS仍認為TikTok構成國家安全風險,要求其剝離美國業務,甚至將其封禁。[26]在這一過程中,關鍵決策并非基于事實理性,而是由美國國家安全委員會、法律顧問、企業高管等人類行為體根據所謂“邏輯”作出,更多是基于政治考量和無端猜測,目的是維護美國數字霸權。
歐盟與Meta(原Facebook)圍繞“跨境數據傳輸合法性”的法律沖突驗證了這一點。在“Schrems II”案中,歐洲法院于2020年裁定美國的監控機制違反歐盟隱私權標準,宣布《隱私盾協議》無效,直接影響了Meta等公司數據在歐美之間的自由流動。[27]盡管Meta使用人工智能協助分析法規適配性與合規風險,但其應對策略,包括數據本地化、協議談判、隱私政策修改等,均由法律顧問、數據保護官與歐盟監管機構共同主導完成。這類法律與政治高度交織的治理沖突,離不開人類在規范解釋、信任建構與司法策略中的協調作用。
在更具制度性與全球性的場域,聯合國“互聯網治理論壇”(IGF)提供了一個高度人類主導的協商機制范式。自2006年設立以來,IGF匯聚了各國政府、技術組織、企業與公眾,圍繞數字主權、技術標準、互聯網資源分配等問題展開多輪討論。發展中國家持續要求改革現有治理結構,如擴大其在互聯網名稱與數字地址分配機構(ICANN)的影響力,而歐美國家則主張維持“多利益攸關方”機制的現狀。[28]人工智能雖可輔助完成文本分析、會議記錄與議程規劃,但在面臨地緣戰略分歧與制度訴求碰撞時,真正影響談判進程的,是各方代表所展現的談判意志、歷史記憶與政治信仰。
全球網絡空間治理的本質是多主權下的動態制度生成,其推進邏輯根植于人類社會對規則、秩序與正義的長期協商。在這一過程中,人工智能可以提供輔助性信息、提升談判效率,但無法擔任政治意圖的表達者、妥協機制的建構者與責任體系的承載者。因此,構建可持續的全球網絡空間秩序,仍需依賴人類在跨境事務中發揮協調功能。
監督與糾錯機制中的人類最終責任。在全球網絡空間治理中,人工智能系統被廣泛應用于提升效率、擴大覆蓋面、增強風險預測能力,尤其在行政決策、內容審查與資源分配等領域日益發揮核心作用。然而,越是深入推進技術嵌入的自動化治理,人類作為制度監督者與最終責任承擔者的角色就越顯關鍵。人工智能的判斷依據來自訓練數據與模型邏輯,而這些基礎事項本身就可能包含偏見、盲區和邏輯缺陷。一旦人工智能作出錯誤決策,其帶來的后果不僅限于技術層面,更可能波及公民權利與制度公信力。因此,人類仍是治理責任鏈條中不可替代的“最終責任方”——人工智能所造成的偏誤,必須由人類識別、修復與追責。
澳大利亞的“Robodebt”案件是高度自動化治理失誤的典型案例。2016年,澳大利亞政府引入自動數據匹配系統,以檢測社會福利欺詐。然而,該系統在缺乏人工復核的情況下,簡單對比稅務與福利數據,自動判定大量低收入者涉嫌騙保,并下發追繳令。這一過程中超過50萬人受到影響,許多人陷入財務困境,甚至引發個體心理創傷和個別自殺事件。[29]2023年,澳大利亞皇家委員會裁定該系統“非法且缺乏基本正當程序”,政府隨后公開道歉并啟動了賠償計劃。[30]該事件表明,人工智能可自動生成決策,卻無法承擔由此引發的制度責任與政治后果。
類似的情況也出現在英國簽證系統中。英國內政部曾使用人工智能對申請人進行自動化風險評分,以加速審批流程。調查發現,該系統以國籍、申請模式等敏感變量為特征,將特定國家的申請人標記為高風險,導致大量合法申請被無理由拒簽。[31]2020年,多個民權團體起訴政府系統存在算法歧視,倫敦高等法院裁定其違反反歧視法,系統隨即被廢除。[32]此事件再次表明,算法“效率”不能凌駕于程序正義與反歧視原則之上,而人類必須作為最終監管者介入與糾偏。
平臺領域亦存在類似困境。微軟于2016年推出的人工智能聊天機器人“Tay”,在上線不到24小時內即因用戶操縱而開始發布種族主義、性別歧視和極端政治言論。微軟雖迅速下線系統并道歉,但事件暴露出平臺人工智能產品設計中缺少對價值防護機制的考量。[33]人工智能雖能生成內容,但無法把握社會語境與倫理邊界,其生成邏輯不具備自主道德判斷能力,必須由人類制定限制、明確責任與建立動態干預機制。
上述三個案例雖涉及不同國家與治理領域,卻揭示出同一個本質問題:人工智能是治理工具或輔助者而非問責主體。全球網絡空間治理的合法性、透明性與正義性,最終仍需依靠人類制度設計者與政治責任人來守護。因此,構建有效的全球網絡空間治理體系,必須以“人類可監督、可介入、可糾偏”為前提。治理的每一個環節都應設有人類可觸達的“責任接口”,確保當人工智能系統運行失效時,能夠及時回歸人類干預機制,從而維護制度運行的韌性與正當性。
制度滯后與技術治理中的人類前瞻作用。在全球網絡空間治理中,技術的快速發展往往超前于制度的完善,形成制度滯后的現象。人工智能、元宇宙等新興技術的崛起,拓寬了人類社會的行為和價值邊界,但相應的法律體系、治理機制和倫理規范卻未能同步更新,導致出現“制度真空”。這種滯后不僅源于政策工具的缺乏,更反映出人類對技術帶來的不確定性和潛在風險的認知不足。在此背景下,治理的關鍵在于“預見未知”——即人類主動識別新問題,預設制度框架,填補規則盲區。這種前瞻性功能需要判斷力、價值設定和政治洞察力,而這些正是當前人工智能所不具備的。
一個典型的制度盲區是人工智能在內容審核中的應用。例如,YouTube等視頻平臺利用人工智能技術自動檢測并刪除涉嫌侵犯版權的內容。然而,這些人工智能系統有時會錯誤地刪除合法內容,或未能及時識別新的侵權形式,導致內容創作者和權力持有者之間的爭議。這反映了在內容審核領域,單純依賴人工智能可能導致過度刪除或漏判,需要人類制定前瞻性的審核標準和糾錯機制,以平衡版權保護與言論自由。[34]因為人工智能無法提出“什么是可接受行為”或“虛假信息應如何界定和治理”等問題,這類判斷超出模式學習范疇,需人類憑借經驗、倫理與社會洞察作出。
類似前瞻性機制也體現在國家監管層面。英國政府2023年發布的《人工智能監管白皮書》明確拒絕“一刀切”式立法,而主張“輕觸監管”(light-touch regulation)與“部門自適應”(sector-specific flexibility)相結合的模式。該文件強調,人工智能作為尚未完全成型的通用技術,應在治理上保留“實驗空間”,由各行業根據風險特征與成熟度進行規則試點。[35]這背后體現的是一種政治判斷:人工智能的治理邊界不能由人工智能自身設定,而需人類制度設計者在風險外溢前構建緩沖帶,主動設定規則演化節奏。
在全球治理層面,制度前瞻性尤為關鍵。世界經濟論壇(World Economic Forum)于2022年啟動了“定義和構建元宇宙”倡議,旨在構建元宇宙的治理框架。這份報告探討了元數據身份,倡導采用安全、包容和注重隱私的方法。報告強調,需要以平等和無障礙為基礎構建元宇宙,強調負責任的數據實踐和包容性設計,體現了人類在預設未來治理規范方面的制度努力。[36]該文件的產生并非技術專家閉門造車,而是由來自全球各地的150多位專家通過多輪磋商達成。這一過程本質上是人類通過政治、文化與價值對話共同“預設未來治理規范”的制度努力。
無論是在企業平臺設定內容邊界,還是國家層面制定行業規范,抑或在國際社會達成治理共識,制度前瞻性的邏輯始終是人類主動識別風險、提出規范,并創造性地設定邊界。人工智能可以優化執行路徑,但無法承擔制度開創的職責。制度前瞻性不是對現有規則的泛化延伸,而是對全新問題作出結構性響應。“制度前瞻”,正是人類能力的制度化表達,是確保技術發展不脫離價值軌道的關鍵保障。
邁向“人機協同共治”的全球網絡空間治理
前面內容揭示了人工智能如何在效率、流程與結構層面重塑全球網絡空間治理體系,以及人類在價值判斷、制度設定與風險監督中的不可替代性。這一雙重動力交匯的關鍵問題是:在人工智能時代的全球網絡空間治理中,如何推動人類與人工智能的有效協作?如何避免“替代幻想”與“人類依賴”的雙重極端?下面將從理念、結構、制度與風險四個維度,探討人機協同治理的內在邏輯與實現路徑。
從任務分工到角色互補:人機協同的治理理念。在全球網絡空間治理的早期階段,人工智能多被視為“自動化工具”,承擔信息篩查、風險識別和流程管理等標準化任務,治理權力與責任依然集中在人類決策者手中。但隨著深度學習、多模態分析等技術突破,人工智能開始具備在政策建議、內容風險評估、趨勢預測等方面的主動性能力,推動治理理念從“人控人工智能”的線性分工向“人機共治”的角色互補演化。這一轉變不僅涉及技術能力的提升,更反映出治理責任結構與認知體系的系統重構。
從認知結構上看,人工智能擅長處理大規模、跨平臺數據,在識別虛假信息擴散路徑、仇恨言論聚集區域等方面展現出高效性。例如,Meta表示其內容審核人工智能系統近幾年對一般類別違規內容的主動檢測率達到90%以上,顯示了人工智能在內容審核中的重要作用。[37]然而,人工智能在理解文化語境、隱喻含義和歷史背景等復雜信息方面存在局限性。同一句話在不同文化中可能具有完全不同的含義或敏感度,這種細微差別仍需人類參與者的經驗和倫理直覺來判斷。因此,“人機協同”需結合人工智能的高效數據處理能力和人類的深度理解與價值判斷,實現優勢互補。
在全球網絡空間治理中,人工智能與人類的協同合作已成為提升內容審核效率和準確性的關鍵策略。傳統上,人工智能被視為中立的工具,其錯誤通常由系統設計者或操作者承擔責任。然而,在“人機共治”的框架下,人工智能不再僅僅是執行流程中的一環,而是成為治理鏈條的重要組成部分。這要求建立制度,納入人工智能推理與人類判斷的協作機制,實現“動態授權+審慎監督”的組合模式。還以Meta為例,該公司在內容審核中采用了人類與人工智能協同的策略。人工智能系統首先對內容進行初步篩選,識別潛在的違規內容。隨后,人類審核員對人工智能標記的內容進行復核,以確保決策的準確性和上下文理解。[38]這種協作模式結合了人工智能的高效處理能力和人類的復雜判斷力,提高了內容審核的質量和效率。
此外,研究人員也在探索人機協作的新方法。例如,一項研究提出了“條件委派”(conditional delegation)的概念,即人類制定規則,指定在哪些情況下信任人工智能的判斷,在哪些情況下需要人類介入。[39]這種方法在內容審核領域展開實驗,結果表明,通過人機協作,結合人工智能的高效處理能力和人類的復雜判斷力,可以同時提高決策的準確性和效率。這些實踐顯示,“人機共治”并非職責替代,而是以優勢互補為基礎、以人類價值判斷為核心的新型治理結構。
從平臺調度到結構嵌套:治理主體的組織協同。隨著數字平臺逐漸成為網絡空間的基礎設施,其調度能力也逐步轉化為全球網絡空間治理體系中的核心依托。從內容審核到數據監管,從賬號治理到信息披露,平臺承擔的治理職能不斷拓展。然而,這種治理機制雖顯著提高了響應效率,卻引發了對治理權力過度集中、“技術公司即監管者”的正當性質疑。人工智能賦予平臺更強大的決策與執行力,使其能通過算法系統調控內容排序、識別風險行為、預測輿情波動。然而,當治理決策開始影響公共利益、觸及基本權利時,僅靠企業內部流程無法保障治理的透明度與正當性。因此,需要引入外部力量與公共制度,實現權力的嵌套分布與功能協調。
Meta(原Facebook)設立的“監督委員會”(Oversight Board)便是典型的結構嵌套機制實踐。作為一家技術平臺公司,Meta通過此機制引入獨立第三方機構來對其內容管控決策進行再審查。監督委員會由前國際法院法官、人權專家、學者及媒體代表組成,獨立處理平臺標記為爭議性或具有廣泛社會影響的內容案件,具備有限但實質的“準司法”功能。委員會有權推翻平臺的初始決定,并提出政策建議,而Meta則承諾對所有裁定予以公開回應。[40]這種“平臺決策—外部復核—政策反饋”的結構設計,使平臺內部審核機制與外部社會監督形成嵌套協同,有效緩解了平臺公司“既當運動員又當裁判員”的合法性困境。
新加坡的“可信數據共享框架”(Trusted Data Sharing Framework)展示了政府與平臺之間協作治理的數據嵌套模式。該框架由新加坡資訊通信媒體發展局(IMDA)牽頭,于2020年正式發布,旨在建立一種可持續、透明、受信任的數據交換環境。平臺需在其技術架構中集成政府設定的監控API模塊,實時報告數據流轉情況,政府則基于人工智能模型對數據活動進行風險評估與合規監測,并對平臺的數據使用行為進行認證與審計。該框架還通過責任共擔機制明確平臺在數據濫用、違規收集數據時的問責路徑,捍衛數據治理中的權力邊界與協調機制。[41]
相較于傳統平臺自律模式,結構嵌套治理的優勢在于制度性分權與程序性監督。平臺的“執行效率”、政府的“合規把關”、公眾的“外部監督”、人工智能系統的“技術中樞”得以整合為一個多元分工、動態互動的治理生態系統。這種模式既能保障治理效率,又能在程序正義、權力約束與多元代表性之間取得相對平衡。
從規制統一到協商調優:規則共創的實踐機制。在網絡空間治理中,傳統模式通常由政府或平臺單方面制定規則,通過法律或服務條款約束用戶行為。然而,隨著技術的快速發展和文化的多元化,這種“規制統一”模式逐漸暴露出合法性不足、響應滯后和治理僵化等問題。平臺規則難以涵蓋復雜語境下的價值沖突,政府立法往往滯后于技術更新迭代,用戶也缺乏實際參與的渠道。這些挑戰推動全球網絡空間治理從“規制統一”向“協商調優”轉變,即將規則視為可反饋、可演化的共創機制。
“協商調優”指的是規則制定不再是一成不變的文本,而是在多方參與的基礎上,通過持續反饋和動態修正不斷完善的治理過程。人工智能技術在其中發揮了關鍵作用:一方面,人工智能通過對用戶行為、輿論變化和風險態勢的實時分析,提供高頻率、結構化的治理反饋;另一方面,這些數據又能反哺規則優化,形成“數據—規則—反饋”的閉環系統,塑造出“可學習”的治理結構。
以美國社交新聞和網絡社區公司Reddit為例,其社區管理機制允許用戶依據設定條件上報爭議內容,后臺人工智能系統據此評估風險等級并提出處理建議,最終由社區管理員與用戶代表共同決定是否執行操作。[42]這一“算法+協商”結構既增強了社區自律,又避免了平臺獨斷,為社群賦予了規則演繹空間。
另一個案例是美國眾議院于2022年頒布的《算法問責法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統的企業研究并報告這些系統對消費者的影響,包括是否存在偏見或歧視性決策。[43]該法案推動形成企業、監管機構和公眾之間的協商機制,確保算法決策的透明度和公平性。值得強調的是,協商調優并不意味著規則松動或治理弱化,而是將動態反饋和協商調優嵌入規范生成中,從而提升規則適應力與治理包容性。
從算法執行到責任共擔:治理責任的協同分布。傳統治理中,責任集中在人類治理主體上,而人工智能系統的引入打破了這一清晰歸屬邏輯。若治理偏差、技術誤判等問題出現,僅將責任推給“算法”或“平臺”既不具備倫理正當性,也難滿足公共治理的法律要求。因此,全球網絡空間治理正在轉向多方主體責任共擔的制度階段,形成覆蓋平臺、政府、開發者與公眾的責任協同體系。
首先,平臺企業作為系統設計與運營的核心主體,必須承擔首要責任。無論是內容審核還是風控系統,平臺對其人工智能模型的邏輯、邊界與偏差風險負有直接責任。在2023年,IBM發布了《信任和透明度原則》(IBM's Principles for Trust and Transparency),明確提出平臺企業在開發和部署人工智能系統時必須承擔首要責任,特別是在模型的透明性、公平性和問責機制方面。IBM強調,企業在設計人工智能系統時應對其邏輯、邊界和潛在偏差進行全面評估,并對系統可能帶來的社會影響負責。[44]
其次,政府監管機構需履行制度框架責任。他們不僅制定治理底線,還必須對人工智能系統執行審查、風險預警與糾錯監督。2024年正式生效的歐盟《人工智能法案》(AI Act)將資格審核、司法協助等領域納入“高風險人工智能”分類,要求企業進行事前評估與事后問責,保障公眾利益。[45]該法案明確政府需構建“算法問責鏈”,降低“黑箱治理”帶來的影響。
再次,算法開發者與模型訓練人員應承擔源頭責任,確保人工智能系統的訓練數據和建模邏輯的公正性和準確性。2020年,荷蘭稅務機關人工智能系統在識別社會福利欺詐時,因算法存在偏見,錯誤處罰了數千個少數族裔家庭,造成嚴重后果,最終導致政府高層集體辭職。[46]該事件揭示了開發階段對數據偏誤與建模邏輯把控不足造成的嚴重后果,推動多國出臺了“模型文檔留存”“可解釋性標準”等技術責任規范。
此外,用戶與公眾也需在全球網絡空間治理中扮演“反饋責任者”角色。在日益復雜的網絡空間中,人工智能系統的判斷雖能提高效率,但其所依賴的算法邏輯、訓練數據與規則設定往往難以覆蓋所有社會語境,極易產生偏差、遺漏或誤導。在這種背景下,公眾作為規則接受者和實際使用者,往往最早察覺算法運行中的異常與隱患。許多治理失效的早期信號,都來自用戶的日常體驗與個體反饋。正是公眾的主動投訴、集體抗議與社會輿論的推動,促使平臺與監管機構及時調整策略,彌補制度短板。以YouTube為例,其曾因推薦算法引導用戶觀看極端內容而遭批評,最終通過調整推薦機制并開放部分評估數據,加強了平臺治理的透明度與公眾監督的可行性。[47]這些舉措體現出一個重要趨勢,即公眾反饋不僅是治理效果的測量標尺,更是治理機制自我糾偏、自我進化的重要動力源。
平臺設計者、政府監管者、技術開發者與用戶群體共同構建責任鏈條,使“人機共治”不僅體現在操作層面,也落實在價值判斷與權責分配之中。只有當責任不再空懸,人機協同治理才能實現合法性、透明性與可持續性的動態平衡。
結語
人工智能正以前所未有的深度嵌入全球網絡空間治理體系。憑借強大的數據處理能力、模式識別技術與即時響應速度,人工智能在內容審核、數據監管、智能合約等領域大幅提升了治理執行力與適應性,推動治理機制從人工驅動向智能驅動演化。然而,治理不僅關乎效率,更關乎規范設定、價值判斷與責任歸屬。這一張力正是人工智能參與全球網絡空間治理面臨的核心困境:其可以優化路徑,卻難以判斷方向;可以支持響應,卻難以解決沖突;可以執行操作,卻無法承擔責任。
因此,全球網絡空間治理的本質從未脫離政治與制度的核心屬性。人工智能賦能不應被誤解為人類角色的讓渡,而應視為治理邏輯、責任結構與價值共識的重構契機。技術能力的提升,對治理者提出了更高要求:如何引導人工智能服務公共利益、限定邊界、保障糾錯機制——這些問題的答案將決定全球網絡空間治理秩序的穩定與韌性。
未來的全球網絡空間治理需警惕兩個極端:一是“技術決定論”或“技治主義”,盲目推崇人工智能主導治理,忽視制度設定與價值約束;[48]二是“技術恐懼論”,因風險憂慮而拒絕技術介入,錯失變革式發展契機。[49]真正前瞻性的路徑,是構建人類主導、人工智能輔助的人機協同治理體系:重大規范與價值判斷由人類協商決定;人工智能專注于執行操作與初步識別,人類則負責監督與復審,形成責任閉環;任何治理失誤最終仍由人類承擔制度責任。
總之,人機協同治理不僅意味著治理工具升級,更是治理哲學與制度倫理的再定義。問題不在于人工智能能做什么,而在于人類應讓人工智能做什么;不在于人工智能能否取代人類,而在于人類如何智慧地引導和規范人工智能。唯有在人類價值主導的治理框架下,我們才能在高度數字化的時代,實現效率與正義、自動化與人本治理的動態平衡。人工智能不應是治理的終點,而應成為制度進化的新起點,推動我們重新定義權力結構、責任邊界與治理價值的未來。
(本文系國家社會科學基金重大項目“健全網絡綜合治理體系研究”的階段性成果,項目編號:23ZDA086)
注釋
[1]全球網絡空間治理的相關具體內容可參見蔡翠紅:《全球網絡空間治理》,上海:復旦大學出版社,2024年。
[2]M. Taddeo; T. McCutcheon and L. Floridi, \"Trusting Artificial Intelligence in Cybersecurity Is a Double-Edged Sword,\" Nature Machine Intelligence, 2019, 1(12).
[3]詹海寶、孫江、郭夢圓:《基于人機協同的網絡文化安全治理新模式》,《傳媒》,2023年第15期;劉銳、劉芾:《短視頻內容生態的人機協同治理網絡分析》,《青年記者》,2024 年第12期;謝耘耕、李丹珉:《從經驗決策到人機協同:輿情決策模式的變革研究》,《新媒體與社會》,2021年第1期。
[4]Meta, \"Integrity and Transparency Reports: Q4 2022,\" 23 February 2023, https://about.fb.com/news/2023/02/metas-integrity-and-transparency-reports-q4-2022/.
[5]Microsoft, \"What Is Microsoft Sentinel?\" 22 May 2024, https://learn.microsoft.com/en-us/azure/sentinel/overview.
[6]G. Deep and J. Verma, \"Embracing the Future: AI and ML Transforming Urban Environments in Smart Cities,\" Journal of Artificial Intelligence, 2023, 5(57).
[7]Kaspersky, \"Kaspersky Overview: Our Values, Business, Solutions and Services,\" 19 December 2024, https://media.kasperskycontenthub.com/wp-content/uploads/sites/100/2024/12/19085748/Kaspersky_Overview_Q4-2024.pdf.
[8]Kaspersky, \"AI in Cybersecurity Automation,\" 17 October 2024, https://usa.kaspersky.com/blog/ai-role-in-cybersecurity-automation/30612/?srsltid=AfmBOopn_Da6v4M7_krpmC_elC4Hvf6RfMDRcTG_1sOdqembLnj1uCx8.
[9]阿里研究院:《“做好”科技,做“好科技”》,2022年10月18日,http://www.aliresearch.com/ch/information/informationdetails?articleCode=390673563344048128amp;type=%E6%96%B0%E9%97%BBamp;organName=。
[10]TikTok for Business, \"Ensuring Creative Integrity in the Age of Generative AI,\" 21 November 2024, https://ads.tiktok.com/business/en-US/blog/creative-integrity-generative-ai?redirected=1.
[11]百度AI開放平臺:《內容審核平臺》,https://ai.baidu.com/solution/censoring。
[12]《百度用AI對抗AI濫用:可識別70余種詐騙套路》,2021年9月28日,https://m.huanqiu.com/article/44xDDSIKZfR。
[13]European Commission, \"The Digital Services Act: Ensuring a Safe and Accountable Online Environment,\" 27 October 2022, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en.
[14]Department for Science, Innovation amp; Technology, \"A Pro-Innovation Approach to AI Regulation,\" 3 August 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[15][48]鄔曉燕:《數字治理中的技治主義:困境、根源與突破》,《云南社會科學》,2024 年第6期。
[16]European Commission, \"European Approach to Artificial Intelligence,\" 18 February 2025, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.
[17]《中華人民共和國個人信息保護法》,2021年8月20日,https://www.gov.cn/xinwen/2021-08/20/content_5632486.htm。
[18]UN Secretary-General, \"Developments in the Field of Information and Telecommunications in the Context of International Security, and Advancing Responsible State Behaviour in the Use of Information and Communications Technologies: Report of the Secretary-General,\" 8 June 2022, https://digitallibrary.un.org/record/3982519?ln=enamp;v=pdf.
[19]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[20]D. Wakabayashi and S. Shane, \"Google Will Not Renew Pentagon Contract That Upset Employees,\" 1 June 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.
[21]New Zealand Government, \"The Christchurch Call Commitments,\" 15 May 2019, https://www.christchurchcall.org/the-christchurch-call-commitments/.
[22]L. James, \"Attorney General James Issues Report Detailing Millions of Fake Comments, Revealing Secret Campaign to Influence FCC's 2017 Repeal of Net Neutrality Rules,\" 6 May 2021, https://ag.ny.gov/press-release/2021/attorney-general-james-issues-report-detailing-millions-fake-comments-revealing.
[23]G. Wetherall-Gruji, \"The Lost Contributions to France's Great Debate: Lessons From the Grievances Five Years on,\" 21 March 2024, https://democracy-technologies.org/participation/lost-contributions-to-great-debate/.
[24]A. Bouverot, \"Great National Debate: Artificial Intelligence at the Service of Collective Intelligence?\" 12 April 2019, https://www.institutmontaigne.org/en/expressions/great-national-debate-artificial-intelligence-service-collective-intelligence.
[25]UK Parliament, \"Preparedness for Online Safety Regulation,\" 21 February 2024, https://publications.parliament.uk/pa/cm5804/cmselect/cmpubacc/73/report.html.
[26]W. Reinsch; P. Saumell; I. Frymoyer and J. Caporal, \"TikTok Is Running Out of Time: Understanding the CFIUS Decision and Its Implications,\" 2 September 2020, https://www.csis.org/analysis/tiktok-running-out-time-understanding-cfius-decision-and-its-implications?utm_source.
[27]The CJEU Judgment in the Schrems II Case, \"The Court of Justice Invalidates Decision 2016/1250 on the Adequacy of the Protection Provided by the EU-US Data Protection Shield,\" 16 July 2020, https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf.
[28]UNESCO, \"2022 Internet Governance Forum Stakeholders Champion the Value of Inclusive Digital Internet Governance,\" 10 January 2023, https://www.unesco.org/en/articles/2022-internet-governance-forum-stakeholders-champion-value-inclusive-digital-internet-governance.
[29]F. Mao, \"Robodebt: Illegal Australian Welfare Hunt Drove People to Despair,\" 7 July 2023, https://www.bbc.com/news/world-australia-66130105.
[30]Robodebt Royal Commission, \"Overview of Final Report,\" 19 February 2024, https://www.apra.gov.au/sites/default/files/2024-02/Robodebt%20Royal%20Commision%20-%20Overview%20of%20Final%20Report.pdf.
[31]H. McDonald, \"AI System for Granting UK Visas Is Biased, Rights Groups Claim,\" 29 October 2019, https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim.
[32]BBC, \"Home Office Drops Racist Algorithm from Visa Decisions,\" 4 August 2020, https://www.bbc.com/news/technology-53650758.
[33]P. Lee, \"Learning From Tay's Introduction,\" 25 March 2016, https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/.
[34]C. Broughan, \"A Washing Machine Chime amp; Copyright Fraud on YouTube,\" 31 July 2024, https://marksgray.com/intellectual-property/a-washing-machine-chime-copyright-fraud-on-youtube/.
[35]O. Yaros; R. Randall et al., \"UK Government Response to AI Regulation Consultation,\" 5 March 2024, https://www.mayerbrown.com/en/insights/publications/2024/03/uk-government-response-to-ai-regulation-consultation.
[36]World Economic Forum, \"Metaverse Identity: Defining the Self in a Blended Reality,\" 13 March 2024, https://www3.weforum.org/docs/WEF_Metaverse_Identity_Defining_the_Self_in_a_Blended_Reality_2024.pdf.
[37]Meta Transparency Center, \"How Technology Detects Violations,\" 18 October 2023, https://transparency.meta.com/en-us/enforcement/detecting-violations/technology-detects-violations/.
[38]Meta, \"Here's How We're Using AI to Help Detect Misinformation,\" 19 November 2020, https://ai.meta.com/blog/heres-how-were-using-ai-to-help-detect-misinformation/.
[39]ACM SIGCHI, \"Human-AI Collaboration via Conditional Delegation: A Case Study of Content Moderation,\" 3 April 2022, https://www.youtube.com/watch?v=4W2ed8C9LYM.
[40]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[41]Infocomm Media Development Authority, \"About the Trusted Data Sharing Framework,\" 1 July 2024, https://www.imda.gov.sg/how-we-can-help/data-innovation/trusted-data-sharing-framework.
[42]Reddit Inc., \"Reddit Transparency Report: January to June 2023,\" https://redditinc.com/policies/2023-h1-transparency-report.
[43]J. M?kander; P. Juneja1 et al., \"The US Algorithmic Accountability Act of 2022 vs. the EU Artificial Intelligence Act: What Can They Learn from Each Other?\" Minds and Machines, 2022, 32.
[44]IBM, \"IBM's Principles for Trust and Transparency,\" 30 May 2018, https://www.ibm.com/policy/trust-transparency.
[45]European Commission, \"Artificial Intelligence-Questions and Answers,\" 1 August 2024, https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.
[46]M. Heikkil?, \"Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms,\" 29 March 2022, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/.
[47]M. Ledwich and A. Zaitsev, \"Algorithmic Extremism: Examining YouTube's Rabbit Hole of Radicalization,\" 24 December 2019, https://arxiv.org/abs/1912.11211.
[49]王斌、孔燕:《技術恐懼的演變規律分析》,《東北大學學報(社會科學版)》,2023年第4期。
責 編∕桂 琰" 美 編∕梁麗琛