張龍輝
(1.東北師范大學 政法學院,吉林 長春 130117; 2.南開大學 周恩來政府管理學院,天津 300350)
為了適應數字技術逐漸全面融入社會交往和人們日常生活的新趨勢,我國“十四五”規劃和《“十四五”國家信息化規劃》指出,要搶抓信息革命機遇,構筑國家競爭新優勢,加快數字社會建設步伐,以促進公共服務和社會運行方式創新,構筑全民暢享的數字生活。2023年2月出臺的《數字中國建設整體布局規劃》也強調,要構建普惠便捷的數字社會,普及數字生活智能化,推進數字社會治理精準化。數字社會建設能夠有效增強社會運行效率,變革社會生產關系,增進社會智能化、數字化水平。數字社會的運行依賴于智能技術及其內在的算法,去中心化、合邏輯性、非道德性等是算法的主要特征,以最為便捷的路徑取得最大的算法效益是其本質邏輯。但受算法模型不完備、算法運行社會場景變化等因素影響,在數字社會建設過程中不可避免地會遭遇算法安全問題。算法安全是一種伴隨算法技術平臺化應用而出現的技術安全,是一種新興的社會安全類型,是我國總體國家安全觀的重要組成部分。對算法安全及其產生的社會風險的研究關乎我國數字社會建設質量和水平,影響中國式現代化進程。因此,需要強化對數字社會建設過程中算法安全問題的研究,探討數字社會運行的底層邏輯,分析數字社會建設過程中存在的算法安全風險,尋求算法安全風險的化解策略。
隨著數字技術的發展,尤其是智能數字技術社會化應用場景的增多,數字技術逐漸全面融入社會交往和人們的日常生活之中,建設數字社會成為我國數字化建設目標。數字社會的建設和運行依賴于人工智能、區塊鏈以及虛擬現實(VR)等算法技術平臺,它們的運行離不開完備的算法支撐。算法的平臺化應用能夠為數字社會運行提供強大算力,增進社會運行的數字化和智能化水平。與此同時,受算法模型完備性、算法內在邏輯等因素影響,數字社會還存在不可避免的算法安全問題。
過去的40年是人類社會向數字社會轉型的40年,也是數字技術加速向社會擴散的40年。數字技術的擴散將人類帶進了數字時代(1)邱澤奇:《數字社會與計算社會學的演進》,《江蘇社會科學》2022年第1期。,形成了與工業社會具有本質區別的數字技術社會形態。數字社會是一個以現代數字技術,尤其是智能數字技術為基礎的社會系統,人工智能、區塊鏈、云計算以及虛擬現實(VR)等數字技術是推動數字社會運行、影響人們社會交往、促進生產變革的技術基礎。元宇宙等虛擬算法空間的建構使現實世界的倫理秩序向算法空間延伸(2)藍江:《云秩序、物體間性和虛體——數字空間中的倫理秩序奠基》,《道德與文明》2022年第6期。,運用數字技術建造數字化場景,將整個社會規則和社會場景數字化,借助數據賦予現實的人以虛擬的身份(3)Harcourt Bernard E.,Exposed:Desire and Disobedience in the Digital Age,Cambridge:Harvard University Press,2015,p.1.,甚至能夠通過算法迭代打造數字生命。這就賦予“人”新的內涵,并拓展了人類活動空間,使人類活動空間由傳統的物理空間向數字技術應用場景下的算法空間延伸。因此,數字技術的社會化應用變革了社會生產組織方式,改變了傳統的社會關系場域,數字社會的建設溝通了算法世界和物理世界,促進了虛擬算法世界和現實物理世界的融合。借助數字技術載體將原本屬于虛擬算法世界的運行規則、技術倫理和數字化秩序映射進現實世界,對現實世界的運行規則、道德倫理和社會秩序產生影響,數字技術成為溝通算法空間和物理空間、算法世界和物理世界的中介(見圖1)。

圖1 數字技術在數字社會中的橋梁作用示意圖
數字技術的社會化應用推動了社會數字革命,實現了算法的平臺化應用。算法、數據和算力成為數字革命中重要的社會要素(4)高奇琦:《國家數字能力:數字革命中的國家治理能力建設》,《中國社會科學》2023年第1期。。人工智能、區塊鏈等數字技術都圍繞這些要素運行,并對人類社會產生影響。這些數字技術是支撐數字社會建構和運行的技術基礎,算法和數據則是智能數字技術的基石(5)張龍輝、肖克、王寒:《人工智能應用下的特大城市邊緣城區治理:技術變革、價值隱憂與技術路徑》,《電子政務》2020年第9期。。數字技術是數字社會形成的技術載體,是算法的平臺化應用。算法是支撐數字技術運行的邏輯基礎,也是算力形成的根本所在。算法的平臺化應用催生了算法推薦、算法分析、算法決策和算法權力,形成了信息傳播新范式,重構了公眾認知與生活邏輯,變革了決策模式,提升了決策效率,改變了傳統的權力運行邏輯。例如,算法可以借助深度嵌入社會的數字化平臺搜集信息和數據,建構社會數據化特征和數據化場景,并據此進行算法決策(6)Berk Richard A.,Kuchibhotla Arun Kumar,Tchetgen Eric Tchetgen,“Fair Risk Algorithms”,Annual Review of Statistics and Its Application,Vol.10,2023,pp.165-187.;算法的精準性和公平性直接關乎算法決策的結果,并與算法平臺的普及和嵌入社會的程度息息相關。因此,“算法技術的平臺化運用使得算法成為聯結社會的基礎座架”(7)張濤甫:《算法“失算”與社會的結構性“失能”》,《上海交通大學學報(哲學社會科學版)》2023年第3期。。算法模型及其內在的數理邏輯規定著數字社會的運行規則、數字倫理規范、權力運行邏輯、社會交往關系以及社會結構。它不僅影響社會資源的配置,變革社會生產組織方式,還能夠介入政府政治過程,影響社會格局的塑造。算法成為影響數字社會運行的底層邏輯。
算法的平臺化應用對社會產生了結構性影響。借助人工智能(包括生成式AI,如ChatGPT)、區塊鏈、元宇宙等技術平臺,算法及算法服務逐漸嵌入社會諸多領域,推動了數字經濟發展,賦予了算法權力公共性,使其成為一種社會公共權力,并催生了數據、信息等新的社會生產要素。在當代社會生活中,“算法無處不在”(8)劉河慶、梁玉成:《透視算法黑箱:數字平臺的算法規制與信息推送異質性》,《社會學研究》2023年第2期?!,F實社會的運行和人們的行為越來越多地受到算法及其倫理規則影響:算法推薦、算法決策、算法權力、算法分析極大地改變了社會運行規則,左右了人們的思維和行動邏輯。算法推薦技術的研發催生了信息傳播新范式,變革了商業營銷模式,在提升信息匹配效率、降低用戶信息選擇成本、有效滿足公眾個性化需求的同時(9)吳鋒、楊曉萍:《算法推薦背景下用戶媒介使用對“回音室”效應的影響研究——兼論媒介素養的調節作用》,《西南民族大學學報(人文社會科學版)》2022年第5期。,使公眾基于龐大的數據分析社會運行態勢、經濟生產趨勢等,從而謀求個性化生活服務和針對性商業營銷。算法權力的建構則改變了傳統的權力運行邏輯,改變了傳統的社會主體權力權重(10)張愛軍、孫玉尋:《算法權力及其國家能力形塑的主體透視》,《學術月刊》2021年第12期。,打破了傳統資本邏輯對公共權力的控制,在權力運行的資本邏輯之外出現了基于算法的數理邏輯,在傳統的科層制權力結構之外形成了去中心化的技術權力結構,從而改變了社會權力結構,催生了新的權力主體。
算法對社會生產生活的深度嵌入催生了新的社會經濟生產主體,變革了人類社會生產關系。算法及算法服務的普及推動了數字經濟發展,智能機器人、智能化生產設備等成為新的經濟活動參與者。智能化經濟活動主體的出現在一定程度上解放了人類勞動,改變了社會生產關系,社會生產由傳統的人的勞動向類人智能機器的勞動拓展,并催生了基于人與智能機器的新的社會生產關系類型。同時,借助數字生產平臺能夠實現市場要素的一體化,提升市場的全要素生產率,形成數字經濟的規模效應(11)Stephanie Arnold,“Drivers and Barriers of Digital Market Integration in East Africa: A Case Study of Rwanda and Tanzania”,Politics and Governance,Vol.10,No.2,2022,pp.106-115.,轉變社會經濟發展模式。但智能機器人等智能化生產設備的普及衍生了“AI失業問題”,機器取代人成為數字社會中的勞動者,這在減少勞動者勞動時間的同時,也會帶來社會經濟制度的根本性變革,并引起人們對傳統社會剝削制度的反思。元宇宙等虛擬算法空間的建構則拓展了人類社會活動空間,重組了人類社會活動的時空要素,使人類活動空間向時空要素可變的虛擬算法空間延伸,并在這一空間中建構基于算法規則的虛擬社會關系網絡,從而推動了人類社會關系網絡的重組。且隨著算法逐漸成為驅動社會進步和社會運行的重要力量,算法得以借助技術平臺重塑個人與社會面貌(12)張敏:《算法治理:21世紀的公共管理現代化與范式變革》,《政治學研究》2022年第4期。,成為支配社會運轉的一種潛在權力,并借助深嵌于社會各領域的數字技術平臺和算法邏輯重新組織社會。算法的平臺化應用以及社會數字化轉型對數字技術的依賴還催生了智能精英主義,賦予技術專家強勢權力地位(13)劉永謀:《智能治理的哲學反思》,《中國人民大學學報》2022年第3期。。技術精英階層成為數字社會中的強勢階層,他們憑借對算法資源的掌握實現了對社會治理的技術操控。
算法的平臺化應用在給社會運行和生產帶來變革的同時,也引發了一定的負向效應,使數字社會建設面臨風險和挑戰。算法平臺化應用引發的第一個問題是倫理問題,主要是算法倫理對現實世界的入侵以及算法正義與社會正義的沖突問題。數字社會的倫理問題主要源于算法模型漏洞、網絡技術的缺陷以及法律法規不完善等(14)朱銀全:《數字社會的倫理問題解析》,《現代情報》2006年第1期。,它主要體現在算法倫理對現實世界的入侵,是算法倫理與人類社會倫理交互作用的結果。算法平臺化應用豐富了人類社會倫理內涵和類型,產生了算法倫理等新的技術倫理,推動人類社會倫理由碳基倫理向硅基倫理延伸。算法倫理借助算法技術平臺映射進現實世界,進而引發數字社會建設中的數據信息安全倫理風險、勞動倫理侵蝕風險以及人際關系倫理風險等倫理問題(15)田旭明:《數字社會的主要倫理風險及其應對》,《中州學刊》2022年第2期。。而數字社會中存在的全方位、無死角性和非遺忘性的算法監控又改變了傳統輿論倫理,使現實社會的輿論倫理發生新的變化。算法平臺化應用中的不確定性還會造成歧視、運行不透明等道德問題(16)Kathrin Hartmann,Georg Wenzelburger,“Uncertainty,Risk and the Use of Algorithms in Policy Decisions:A Case Study on Criminal Justice in the USA”,Policy Sciences,Vol.54,2021,pp.269-287.,對數字弱勢群體的忽視容易帶來新的社會不平等,引發社會公平正義危機。
算法平臺化應用引發的第二個問題是權力的來源、形成和運行問題。算法技術平臺的廣泛應用、智能算法的深度嵌入推動了權力機制的重構,影響了權力的來源,變革了權力的生產。數字化的規則和秩序在一定程度上改寫了社會中權力與權利的關系,使國家與社會的控制權之爭從傳統物理空間拓展到虛擬算法空間(17)周尚君:《數字社會對權力機制的重新構造》,《華東政法大學學報》2021年第5期。,并借助數字技術實現“自我賦權”,進而形成既能夠采集政治權力聲望,也能夠獲得巨大經濟利益的“第五權力”(18)馬克·格雷厄姆、威廉·H.達頓:《另一個地球:互聯網+社會》,胡泳等譯,北京:電子工業出版社,2015年,第222頁。。同時,權力組織的分化與沖突成為數字社會最突出的問題。數字社會的去中心化既促進了政府權力的彌散化,也產生了權力再中心化風險,推動了數字社會權力結構的變化,使數字社會的權力結構呈現權力形態扁平化、權力體系彌散化、權力虛實交疊等特征(19)王勇:《論數字社會的治權結構失衡及其補正》,《學術交流》2021年第6期。,其結果是導致數字社會治理權威失衡。
算法平臺化應用引發的第三個問題是隱私權和信息安全的維護問題。算法技術平臺的有效運行除去需要盡可能完善的算法模型外,還需要龐大的數據。受此影響,算法技術平臺需要一個強大的數據搜集和分析系統,以動態、實時感知社會及個人的數據信息。這在有效提升決策效率和質量的同時,會使人類活動產生的數據被算法技術平臺持續不斷地記錄、存儲、分析(20)馬修·薩爾加尼克:《計算社會學:數據時代的社會研究》,趙紅梅等譯,北京:中信出版社,2019年,第5頁。,最終導致人類自身的被透明化。同時,算法技術平臺能夠借助強大的算法建構算法消費者的數據畫像,以對其進行精準的信息推送和商業營銷(21)Christoph Busch,“Implementing Personalized Law:Personalized Disclosures in Consumer Law and Privacy Law”,The University of Chicago Law Review,Vol.86,No.2,2019,pp.309-331.。一些算法技術平臺出于經濟利益等因素考量,通過技術手段使算法產品使用者被動地或被默認地成為算法消費者,以搜集用戶數據和信息,從而侵犯個人隱私信息。此外,算法技術平臺及其對社會及個體的算法監控,使以數字化、智能化為核心的社會數字化進程中的個人隱私受侵犯問題日益突出(22)王俊秀:《數字社會中的隱私重塑——以“人臉識別”為例》,《探索與爭鳴》2020年第2期。,并愈益使人處在一個無所不在的監控和完整“事實真相”數據庫的自動化社會之中(23)Kim Jin,“Algorithmic Intimacy,Prosthetic Memory,and Gamification in Black Mirror”,Journal of Popular Film and Television,Vol.49,No.2,2021,pp.109-118.,從而催生普遍的隱私焦慮,遭遇數字信任危機,消解了公眾的安全感,還存在因數字化記憶興起引發的數據流通與數據安全兼容程度低等困境(24)張媛媛:《論數字社會的個人隱私數據保護——基于技術向善的價值導向》,《中國特色社會主義研究》2022年第1期。。
整體而言,作為影響數字社會運行的底層邏輯,算法是人工智能、區塊鏈、大數據等數字化技術運行的基礎,這些數字技術的社會化應用增加了算法的平臺化應用場景。數字技術運行過程是否順暢,數字技術運行結果是否合理,都與算法模型的完備性和算法運行過程的合理性有著密切關系。所以說,數字社會中存在的個體隱私保護困境、算法倫理問題、算法權力擴張風險等,表面上看是由數字技術的擴散和社會化應用引起的,但在本質上都是算法及其運行的結果,是算法平臺化應用過程中因算法缺陷、算法遭受外部攻擊以及算法的數理邏輯運行而產生的技術風險,是算法在數字社會建設過程中引發的算法安全問題,是數字社會建設過程中不可回避的技術風險。
算法安全風險主要指因算法模型自身缺陷或算法運行所引發的社會問題,是因算法平臺化應用以及對社會深度嵌入所帶來的安全風險。算法安全風險在本質上是算法世界的算法缺陷及其運行在現實世界的映射,是算法世界的算法規則與現實世界的人類社會規則相互融合、彼此影響的結果。我國于2021年9月印發的《關于加強互聯網信息服務算法綜合治理的指導意見》明確提出,在算法應用過程中存在意識形態、社會公平公正、網民合法權益維護、道德倫理等安全風險以及因監管模式落后導致的算法安全風險。引發算法安全風險的原因主要有兩個:一是因算法模型不健全及算法遭受外部攻擊引發的風險;二是在算法運行過程中因受數理邏輯和外部數據影響而導致的算法失靈引發的風險(見表1)。這兩個原因不是彼此獨立的,而是在大多時候共同造成算法安全風險。由此而言,算法安全的實現既要使算法免受外部攻擊以保障其可靠運行(25)楊蓉:《從信息安全、數據安全到算法安全——總體國家安全觀視角下的網絡法律治理》,《法學評論》2021年第1期。,還要避免算法對現實世界的入侵和技術支配。

表1 數字社會建設中的算法安全風險
有限、確定和有效是算法的三大特點,這說明一種算法并不能解決所有問題,而是需要對其進行不斷的更新、優化(26)胡鍵:《算法治理及其倫理》,《行政論壇》2021年第4期。,以解決算法運行過程中不斷出現的新問題,使其適應新的算法運行場景。算法有限性對算法運行和算法結果的影響會引發一系列算法安全風險,這一安全風險源于算法模型的缺陷或算法模型更新的滯后。受算法有限性特征制約,算法的內在邏輯難以適應運行的應用場景,或者算法模型的不完備招致外部算法應用主體的攻擊,最終影響算法運行的有效性和結果的確定性,引發算法安全風險。這一類算法安全風險是伴隨算法的研發而出現的,是一種原生性的算法安全風險。
算法是影響數字社會運行的底層邏輯,數字社會中的技術權力、技術倫理以及影響社會運行的算法推薦、算法分析和算法決策等都離不開算法的基礎性支撐。由此而言,如果算法模型不完備、算法存在明顯的技術倫理傾向,尤其是算法功利主義倫理傾向,就會違背其技術向善的初衷,導致算法的研發不是基于技術普惠性的社會向善目標,而是將之視為謀取利益的工具。同時,算法模型及其源代碼的缺陷還會導致算法失靈、算法運行過程受阻或算法運行結果存在顯著的價值導向或倫理問題,其結果就是算法及算法技術平臺不僅沒有解決想要解決的現實問題,反而因算法模型的缺陷引發新的技術風險和社會安全問題。如2022年1月22日,上海地鐵15號線祁安路站內一名乘客被地鐵屏蔽門夾住,而擁有全自動駕駛系統的地鐵在屏蔽門關閉后無視乘客被夾住的事實,仍正常啟動行駛,最終導致該乘客不治身亡(27)參見《上海女子被地鐵屏蔽門夾住身亡》,《新晚報》2022年1月26日,第9版。。造成這一結果的一個重要原因就是系統對智能算法的機械執行,自動駕駛系統只遵從算法的邏輯及指令,而無視外部運行環境的變化。因此,算法模型的不完備或無視客觀社會環境而對算法邏輯的機械執行會導致算法及其載體在運行過程中出現有悖于算法設計初衷的問題,嚴重的甚至會導致技術系統癱瘓,引發系統性、全局性技術災難。
由算法模型不完備引發的第二個算法安全風險是外部算法主體對算法的攻擊問題。在數字社會中,算法的運行環境并不是一個理想化的實驗室,而是一個復雜的社會系統,在這一復雜的社會系統中不只存在一個算法模型。數字社會的建設是多個算法彼此互動、共同作用的結果,一個算法在運行過程中可能會受到其他算法的干擾或者攻擊,從而影響算法運行的精準性。因此,算法存在的模型漏洞或邏輯缺陷會使其容易招致其他算法使用主體的攻擊,從而放大算法模型缺陷,甚至操控算法的運行,導致算法安全問題。如2017年5月12日在英國、美國、中國和俄羅斯等全球多個國家爆發的WannaCry勒索病毒事件,就是計算機黑客對計算機系統的攻擊造成的,它直接導致多個國家的政府部門、教育、企業、公共交通、科研等計算機系統受到攻擊,我國多個城市的計算機網絡也受到多次攻擊(28)參見中共中央網絡安全和信息化委員會辦公室、中華人民共和國國家互聯網信息辦公室:《構建端到端聯動機制,敏捷應對國家級網絡威脅》,2017年6月2日,http://www.cac.gov.cn/2017-06/02/c_1121073387.htm,2023年7月1日。,從而引發了廣泛的計算機安全風險。
除去原生性算法安全風險外,算法在運行過程中還會因內在數理邏輯影響、運行社會場景的變化、算法倫理對物理世界的入侵等問題引發衍生性的算法安全風險,這是算法運行產生的衍生結果,是算法平臺化應用帶來的負面效應。這一安全風險既可能是算法缺陷在現實世界的放大,也可能是因為算法本身并沒有問題,但是在運行過程中受到外部數據的結構性影響導致算法運行結果出現偏差,或者算法的運行對社會倫理、權力結構以及公眾權利產生沖擊,影響權力正常運行、侵犯公眾合法權利實現,進而給社會運行、人們生活帶來安全風險。
數字技術的社會化應用使基于算法邏輯的算法權力具備了公共性,進而成為一種社會權力(29)David Beer,“The Social Power of Algorithms”,Information Communication &Society,Vol.20,No.1,2017,pp.1-13.,但算法權力的去中心化特征使原本掌握在政府手中的公共權力向社會擴散。一些掌握算法和數據的科技公司、數字技術平臺以及技術精英分享了原本集中于政府的公共權力。這使政府不再是社會中唯一的權力主體,政府的公共權力中心角色受到沖擊,從而引發公共權力去中心化危機。同時,算法權力對傳統公共權力的沖擊以及對社會的深度嵌入會不斷強化社會、政府以及公眾對算法的依賴。基于算法的分析、決策成為影響個體決策、政府行政和社會運行的重要依據,算法成為一種影響個體行為選擇、政府決策的隱性權力。對算法及算法平臺的依賴使算法權力對傳統公共權力的制約和影響逐漸加深,算法及算法平臺對現實世界的嵌入逐漸深入,從而強化了算法對整個現實世界的監控。人工智能、區塊鏈等算法技術平臺憑借算法建構外部世界的數據特征和數字化秩序,制約國家的治理、社會的運行和人們的生活,誘發技術專制風險和數據獨裁隱憂,并催生數字社會建設中的“技術利維坦”現象。
同時,合邏輯性而非合道德性是算法的本質特征,它的運行只遵循既定的數理邏輯,而無視人類社會的道德倫理。在算法看來,邏輯即正義,它追求的是既定邏輯下運行效果的最優化,至于因算法運行給社會帶來何種結果則不在算法的考量范圍之內,并基于此形成了算法世界的倫理,即算法倫理。算法倫理是算法世界的一種價值排序規則,其本質是“最大期望即正義”(30)柳亦博:《“湖心島”隱喻:人工智能時代的算法倫理入侵》,《行政論壇》2019年第6期。。這一邏輯類似于康德的目的論倫理和邊沁、密爾的功利主義倫理,而非亞里士多德式的道德論倫理。隨著算法世界和物理世界融合的加深,算法倫理逐漸影響現實社會的運行和倫理準則,甚至在一定程度上將算法倫理映射進現實世界之中,從而導致算法倫理入侵問題。與此同時,數字社會的運行需要龐大的數據,算法技術平臺對物理世界監控的范圍越廣,獲得的數據越精準,越能夠建構接近物理世界真相的數據特征和數字化秩序,基于此做出的算法分析和算法決策越能夠為人類活動和社會運行提供支持。但算法技術平臺對物理世界的監控具有全方位、非遺忘性等特征,這一監控突破了時間和空間限制,以此獲得社會及公眾實時性、動態化的數據信息,以支撐數字社會的運行。算法技術平臺對物理世界的監控導致“數字全景敞視主義”(31)“全景敞視主義”是??略谄洹兑幱柵c懲罰》一書中提出的觀點,其靈感來源于邊沁設計的“全景敞視監獄”,即“圓形監獄”。在這個監獄中,所有囚室都對著中心瞭望塔,身處瞭望塔的人能夠監視囚室中犯人的一舉一動,而犯人則看不到瞭望塔中的警衛。??乱源藖砻枥L社會中無處不在的監控。隨著數字技術的社會化應用,算法對社會及個人隱私信息的攫取和窺探日益嚴重,算法監控社會成為數字社會中新的“環形監獄”?!皵底秩俺ㄒ曋髁x”即以??碌摹叭俺ㄒ曋髁x”為藍本,以表達在數字社會中算法對整個社會的監控和人們隱私的窺探。的數字社會生態,公眾所有的活動和信息都在算法的監控和計算之下。這就進一步壓縮了公眾隱私空間,模糊了公共數據和私人信息之間的邊界。
此外,智能算法還會憑借對社會及個體活動信息的搜集,將其轉化為可計算的數據,進而建構用戶數據特征和數據畫像,向其推送符合其興趣愛好的信息。算法的精準推薦會使數字技術在進行信息分發過程中自動過濾掉多元的、不符合用戶信息愛好的信息,從而窄化公眾獲取信息的渠道和類型,引發“過濾氣泡效應”和“回音壁效應”,逐漸將公眾置于“信息繭房”之中,從而固化公眾既有價值和偏見,加劇不同群體的情感區隔和價值分化(32)張志安、湯敏:《論算法推薦對主流意識形態傳播的影響》,《社會科學戰線》2018年第10期。,導致公眾認知的沖突。同時,算法的平臺化應用和全球性算法技術平臺的建構推動了意識形態、社會思潮和價值觀的跨境傳播。借助智能傳播技術,一種意識形態和思潮能夠快速跨越國家邊界向其他國家蔓延。加之智能傳播技術的發展推動了信息生產的智能化和大眾化,原本單純的信息傳播受眾逐漸成為兼具信息生產者和信息消費者雙重角色的智能傳播參與者,從而沖擊了政府對信息傳播的控制權和社會輿論的主導權。這在一定程度上會導致社會思潮多元,引發社會思想和價值觀混亂,而深度偽造技術的發展又會加劇虛假信息、誤導信息在社會中的傳播和擴散,加劇意識形態安全風險。
數字社會建設中的算法安全風險是數字技術嵌入社會、推動社會結構變革和社會運行模式變遷所引發的負向效應。它既會給算法本身的運行帶來一系列不利后果,也會削弱政府治理權威,催生算法功利主義危機,引發普遍的個人隱私安全問題。而算法的精準推薦和意識形態的跨境傳播還會導致意識形態的沖突和對立。
算法模型的效力是有限的,隨著算法運行環境,尤其是算法運行社會環境的變化,原本在實驗室環境中長期有效的算法模型可能在新的社會環境中顯得過時或不適用,從而使原本完備的算法模型出現漏洞,嚴重的還會導致原本行之有效的算法規則出現相反的運行結果。因此,算法漏洞的存在不完全是算法源代碼在研發之初出現的問題,也可能是算法運行社會環境的變化使算法模型不再適用。它可能在實驗室環境下的運行一直有效,但在不斷變化的社會環境下卻漏洞百出。加之在數字社會建設進程不斷深入的今天,影響社會運行和人們生活的算法模型不止一個,而是存在多個。這些算法模型可能存在同一個系統之中,也可能存在不同的系統中。這些系統彼此融合、互動、沖突,共同作用于社會結構建構、人類倫理變遷、人們生活交往之中,共同影響數字社會的運行。在此過程中,如果一個算法存在漏洞或者算法模型滯后于社會運行環境的現實樣態,其運行結果就會偏離既定研發目標,嚴重的還會使算法運行受到其他算法模型的干擾或控制,招致逆向的算法攻擊。
算法模型遭受的干擾、控制或逆向攻擊既有人為的因素,也包括算法世界的主動行為。其人為因素體現在社會中的技術精英借助算法對其他算法模型及其支撐的算法技術平臺進行主動攻擊,如黑客對網絡的攻擊、人為制造的電腦病毒對金融系統的攻擊等。而算法世界的主動行為則是不同算法模型間存在邏輯沖突或算法優先級別差異導致的結果。當兩個存在沖突的算法模型相遇時,它們只會按照自身的邏輯運行下去。在此過程中,算法會去攻擊與自身邏輯相悖的其他算法模型,其結果可能是不同算法模型的融合,也可能是一個算法壓制了另一個算法,更可能會導致算法的崩潰。此外,在算法研發過程中,算法研發人員可能會設計不同算法模型的運行級別,當次級算法模型遇到高級算法模型時,則優先運行高等級算法模型,次級算法模型只在特定環境或條件下才能夠被觸發。從某種意義上而言,這種情形中也存在高等級算法對次級算法的壓制和攻擊問題。
算法的平臺化應用建構了算法權力。算法權力具有去中心化特征,它不像政府公共權力具有一個明確的權威核心,而是呈現彌散性。只要掌握了算法及其數字技術,人人都可成為算法權力的所有者(33)譚九生、范曉韻:《算法權力的社會負效應及其行政規制》,《中國行政管理》2021年第10期。,并主導算法權力的運行。因此,算法權力的建構推動了公共權力的彌散化:政府不再是掌握公共權力的唯一主體,掌握算法資源的大眾、技術精英和科技公司也可以分享社會公共權力。更為重要的是,隨著算法在社會運行中主導權的日益增強,算法權力在一些領域的資源配置、規則制定、社會關系網絡建構中逐漸占據了主導地位?!凹夹g利維坦”的形成和技術專制的出現更使得算法權力在一些領域中超越政府權力,甚至主導政府權力運行。算法權力的普及瓦解了政府在社會運行和規則制定中的權威。
同時,算法權力之所以成為一種公共權力就在于其內在的公共性,但在算法建構和運行過程中也存在算法研發者和算法使用者的私人利益訴求。他們憑借掌握的算法資源影響物理世界中的公共權力運行,推動社會權力結構變遷、社會權力分配和社會控制權調整。可以說,智能算法與私人資本、技術精英的結合強化了新興算法權力對傳統公共權力的沖擊,增強了社會私人資本在社會公共權力建構和運行中的話語權,而這會沖擊政府治理權威。此外,智能算法在現實社會之外建構了一個虛擬社會,形成了基于算法及算法倫理的算法世界,使人們的活動空間由現實的物理空間向虛擬的算法空間延伸。人類社會逐漸呈現現實與虛擬融合、交疊的特征?;顒涌臻g的延伸重塑了人們的社會關系網絡,使人們的社會交往和日常生活突破了物理空間的束縛。算法世界是一個類似于“無政府狀態”的虛擬世界,它既沒有物理世界中嚴密的政府組織體系,也沒有類似于諾奇克口中的在自然狀態下具有支配地位的保護性社團的存在,而是一個去中心化的虛擬社會。政府只能通過規范算法研發活動、約束算法技術服務等外在行為來約束算法世界的倫理規則和活動開展,從而使人們在算法世界的活動較少受到政府的直接控制。
算法平臺社會化應用場景的增多使支撐社會運行的基礎由傳統的硬件資源向軟件資源擴展??萍佳邪l系統、智能運行平臺等成為支撐社會運行的新的數字資源,并對城市建筑、公共設施、政治制度以及市場規則等傳統資源的生成和運行產生革命性影響。算法的平臺化應用在凸顯對數字社會運行基礎性支撐作用的同時,也強化了算法安全風險對社會運行的沖擊,引發一定的社會運行風險。如算法空間的建構在極大拓展人類活動空間的同時,也引發了算法空間對物理空間的“倒灌”:算法空間的規則、倫理、秩序不斷外溢至物理空間,影響物理空間的規則變遷、倫理重塑和秩序變動,出現了算法倫理對物理世界的入侵。算法倫理作為一種技術倫理,尋求算法邏輯的自洽和算法正義的實現,其運行只注重邏輯的自洽而忽視因算法運行導致的現實社會效果和社會正義實現,從而導致算法正義與社會正義的沖突、算法倫理和人類道德倫理的沖突。在這一倫理準則影響下,算法可能會將社會作為算法驗證的實驗室,將人類社會實驗室化,無視算法運行過程中人的獲得感、幸福感和安全感,忽視對人的尊嚴、個體自由以及人類整體福祉的維護和實現。
此外,“數字全景敞視主義”成為對數字社會中技術窺探社會信息和個體隱私的生動描繪。它旨在表達通過對社會運行數據和個體隱私信息的不斷挖掘、探索、窺探,提升算法決策的精準度和適用性,從而導致算法平臺化應用中的算法監控問題。與現實世界的監控不同,算法監控借助算法技術平臺打造一個能夠全時段、全方位監控全社會的“圓形監獄”,以盡可能將個體的隱私信息和社會的運行數據轉化為可獲得經濟效益、政治效益或治理效能的算法資源,通過實現資本與技術的合謀,打造“經濟—技術相互協調的新型極權主義”,并推動算法監控由虛擬的算法世界向現實的物理世界延伸(34)李宏偉、郝喜:《算法監控的“行為剩余”資本謀劃及其社會治理》,《河南師范大學學報(哲學社會科學版)》2022年第2期。。算法監控的存在、數字全景敞視主義的盛行使算法技術平臺掌握了大量個體隱私信息,沖擊著個體隱私空間,模糊了個體隱私和社會公共信息邊界。傳統社會中屬于個體隱私范疇的數據和信息,如個人的行蹤、消費瀏覽記錄在數字社會中可能成為社會公共數據,服務于數字社會建設和公共安全維護,也可能成為商業化算法技術平臺謀求經濟利益的資源。這就會導致個體隱私空間不斷收縮,甚至坍塌,引發普遍的隱私焦慮,催生一系列社會隱私安全問題。
隨著算法平臺化應用的普及,在社會的數字化轉型中形成了數字邊疆、智能傳播以及數字國防等新的領域,這些領域的算法安全風險會誘發新的國家安全危機,使我國社會的數字化轉型面臨新的安全格局。如數字技術的社會化應用在傳統的國家邊疆之外形成了新的數字邊疆,數字邊疆安全對于維護社會數據安全、信息安全具有重要意義。但算法開源的滯后、算法模型的不完備以及算法運行環境的變化會影響數字邊疆建構,尤其是算法開源的滯后會使我國社會的數字化轉型失去競爭優勢。一些西方國家憑借先發優勢,借助算法沖擊我國數字邊疆,給我國信息安全、數據安全造成威脅,在一定程度上影響我國的經濟安全、基因安全和網絡安全。同時,算法對智能武器的研發和應用也至關重要。智能算法在國防領域的應用催生了智能化國防裝備,能夠有效增強維護國家安全的能力。而算法開源的滯后、算法先進性不足則會導致智能國防裝備的代差問題。一些國家將算法武器化,借算法代差危及我國國防安全。
此外,算法安全風險還會引發意識形態安全危機。依托數字傳播技術,意識形態跨境傳播的速度得到前所未有的提升,跨境傳播渠道更加豐富多元,傳播樣態也發生了顛覆性變革。算法空間的意識形態塑造和傳播成為數字社會意識形態建設的重要內容。信息傳播模式的變革沖擊了傳統的信息傳播結構和傳播模式,削弱了政府對意識形態傳播的主導權和控制權,侵蝕著主流價值觀和主流意識形態的傳播陣地和作用空間,其結果是導致社會中意識形態、價值觀的多元和沖突。同時,算法推薦技術的發展推動了信息分發方式的變革,實現了信息的精準推送。這一信息分發模式會導致“信息繭房效應”“過濾氣泡效應”等,促成網絡集群的聚合。與此同時,“算法的個性化定制也為組織化政治操縱提供便利渠道”(35)全燕:《西方社交網絡的政治極化與算法傳播的角色反思》,《社會科學》2018年第10期。,推動意見孤島的形成,導致危害性信息的擴散,甚至能夠借助算法控制社會輿論(36)夏夢穎:《算法推薦可能引致的公共風險及綜合治理路徑》,《天府新論》2022年第2期。,從而造成社會思想和意識形態的混亂,不利于社會沖突的彌合和意識形態沖突的化解,引發國家意識形態安全風險。
數字社會建設中的算法安全風險給算法運行、社會結構調整、公共權力運行、意識形態塑造以及公民權利實現等帶來嚴重沖擊,一些算法安全風險甚至可能會危及國家安全。這就需要我們尋求化解數字社會算法安全風險的策略,以有效提升數字社會建設質量和水平,推動中國式現代化的實現。
算法漏洞、算法模型的滯后以及其他算法使用主體的攻擊是引發算法安全風險的重要原因。算法漏洞主要體現在兩個層面,即代碼層面和邏輯層面(37)賈珍珍、劉楊鉞:《總體國家安全觀視域下的算法安全與治理》,《理論與改革》2021年第2期。。其中,代碼層面的漏洞指的是用于支撐算法運行的源代碼存在漏洞、缺失或惡意植入其他代碼,它與算法運行的邏輯關聯性不大;而邏輯層面的漏洞則指的是算法數理邏輯體系的不完備。因此,在數字社會建設過程中,破解算法安全風險需要首先從算法模型本身入手,既要不斷加強對算法模型的研發,消除算法漏洞,使其適應不斷變化的社會環境,以防止算法模型與運行社會環境脫節;還要持續進行算法開源,保持算法的先進性,有效應對其他國家借助算法研發的先發優勢對我國社會數字化轉型的沖擊和壓制,抵制西方國家數字霸權。
基于此,在算法模型編制時既要著眼于算法邏輯體系的完備,還需要重視算法源代碼的完整,防止因代碼缺失或邏輯體系缺陷引發的算法漏洞,盡可能確保算法模型的完備。在算法運行過程中,要動態看待算法運行的社會環境,擺脫算法研發與實驗環境的依賴,將算法的研發和運行置于不斷變化的社會環境之中,明晰社會環境中算法主體的多元性和潛在排斥性,使算法的研發和模型的建構以物理世界的社會現實環境為背景和作用空間,以不斷強化算法與其所運行的社會環境的契合度,有效應對其他算法主體的潛在攻擊。同時,要根據算法運行情況不斷完善算法,克服算法有限性弊端,使算法模型不斷適應變化著的社會環境,防止原本有效的算法模型因與社會環境脫節而出現算法漏洞,引發算法安全風險。如我國《互聯網信息服務深度合成管理規定》明確強調要對深度合成服務進行算法機制機理審核和科技倫理審查,定期審核、驗證生成合成類算法機制機理,以確保算法運行安全。此外,還要加強算法開源,強化對算法資源的開發,打造算法代差優勢。通過算法開源不斷研發更為先進的算法,推動算法的升級換代,縮小、趕超與具有算法先發優勢國家之間的差距,搶抓數字化、信息化新階段的算法競爭優勢。在算法開源的同時,要強化算法的現實轉化,研發基于先進算法的數字產品,將算法充分應用于社會運行的各個方面,在提升算法安全性的同時,有效增進社會的數字化質量,確保社會運行的安全。
基于算法平臺化應用形成的算法權力具有明顯的去中心化特征。算法權力的建構使原本由政府壟斷的公共權力向社會擴散,而私人資本與算法技術平臺的結合更是強化了私人資本、算法研發者、技術精英以及科技公司對公共權力的分享。他們憑借掌握的算法資本和技術資源得以擁有影響政治議程進程的權力,從而使政府的社會治理權威不斷受到算法權力沖擊,政府的公共權力權威中心角色受到削弱。因此,要想克服因算法權力引發的公共權力去中心化危機,需要重塑政府在數字社會中的數字權威,強化政府對數字技術以及算法資源的監管,將關鍵算法納入政府控制范圍之內,防止私人資本、技術精英以及國外主體借助算法重構社會規則、控制社會運行,沖擊政府公共權力在社會治理中的權威。并通過這一舉措使算法權力成為提升政府治理效能、增進政府職能履行能力、推動中國式現代化進程的助力,而非限制政府權力行使和阻礙政府職能履行的阻力。如我國《關于加強互聯網信息服務算法綜合治理的指導意見》提出了一個由政府、企業等共同參與的多位一體算法監管體系,強調政府在算法安全治理中的監管職責,打造一個政府監管、企業履責、行業自律、社會監督的算法安全多元共治格局。
同時,還需要克服因算法擴散以及對算法技術平臺過度依賴引發的技術專制隱憂,杜絕技術控制社會,避免技術權力壟斷現代性現象的發生(38)袁超:《“技術利維坦”的傲慢與偏見——以“社會化技術權力”為中心的討論》,《人文雜志》2021年第8期。,以防止出現技術控制下的“技術利維坦”和“數字獨裁”難題。算法權力有強大算力的支撐,雖然它與資本權力存在的運行邏輯不盡相同,表現的權力形態也有所差異,但通過實現算法權力和資本權力的互嵌,強化權力運行中數理邏輯和資本邏輯的融合,既借助算法權力提升資本權力的運行效率,也依托資本權力限制算法權力的過度擴張。這樣能夠在消解算法權力對政府社會治理權威沖擊的同時,鞏固、提升政府社會治理效能,無疑也是克服數字社會建設過程中算法權力削弱政府治理權威弊端的重要途徑。
算法倫理入侵及由算法倫理引發的功利主義危機問題是數字社會中的一個重要問題。算法的合邏輯性而非合道德性特征使其追求的是數理邏輯主導下的運行路徑最優,而無視人類社會道德倫理的約束。在這一倫理影響下,算法為了增強運行的準確性和分析結果的科學性,還會盡可能監控個體和社會的運行,窺探個體和社會的隱私,最終引發普遍的個體隱私焦慮。因此,提升數字社會建設質量和水平,消解算法安全風險給數字社會運行帶來的技術風險,需要提升算法的人文關懷,消解算法倫理入侵給人類社會運行引發的諸多倫理問題。這需要強化算法模型中的人類道德倫理,在算法邏輯體系建構和源代碼編制過程中賦予算法以人類道德倫理基石,以克服算法的工具理性缺陷,提升價值理性在算法運行中的主導性作用,防止算法在運行過程中出現結構性的倫理缺陷。如我國數據安全法明確規定,研發數據新技術、開展數據處理活動應當以增進人民福祉為目的,對數據新技術的開發和運用要符合社會公德和倫理。
研發算法的目的在于提升社會運行效率和質量,改善人類社會的生產生活環境,拓展人類活動空間,進而實現人的價值,促進人的自由而全面發展。這需要在研發算法時從人的視角和人的立場出發,強化算法研發和使用過程中“人的在場”效應,將“以人為本”作為算法研發和使用的底線,使算法成為維護人的尊嚴、保護個體自由以及增進人類整體福祉的工具(39)陳昌鳳、呂宇翔:《算法倫理研究:視角、框架和原則》,《內蒙古社會科學》2022年第3期。,而不是單純追求算法運行效率和精準度的實驗場。還需要明確個人隱私與社會公共信息的邊界,厘清個人隱私與社會公共信息交叉領域的信息屬性歸屬,杜絕為了追求經濟利益而將屬于私人領域的數據信息公共化,以防止算法平臺化應用場景擴散下對個體隱私空間的進一步壓縮,強化對公民隱私的保護,規制“全景式數字監獄”對公民隱私的窺探,防止商業化算法使用主體借助算法壓榨社會和個體的“數據剩余價值”。同時,還要促進技術向善。這里所說的“善”,是人類社會語境中的道德善,而非算法場景下的算法倫理善,將算法倫理邏輯下的算法正義置于人類道德倫理邏輯下的社會正義的約束之下,實現算法正義與社會正義的有機融合,以有效防止算法功利主義對現實世界的影響,規制算法世界對物理世界的倫理侵蝕。
當前,算法的資源屬性日益凸顯,算法對意識形態安全、數據安全、信息安全以及經濟安全的影響也越來越大,算法推薦、算法監控、個體隱私空間坍塌等成為算法引發社會風險的重要表現。這需要強化對算法運行的監管,建構完善的算法安全監管法律法規體系和綜合治理機制,防止因算法失靈導致的意識形態風險和政治合法性危機。為了規范數據處理活動,保障數據安全,保護個人、組織的合法權益,我國于2021年下半年密集出臺了數據安全法、個人信息保護法、《關于加強互聯網信息服務算法綜合治理的指導意見》,并就《網絡數據安全管理條例》的制定廣泛征求社會意見,以規范算法平臺化應用對個體數據和社會信息的搜集、處理活動,保護公民的數據安全和隱私,促進算法的有序應用,“建立健全算法安全治理機制,構建完善算法安全監管體系”(40)參見中共中央網絡安全和信息化委員會辦公室、中華人民共和國國家互聯網信息辦公室:《關于印發〈關于加強互聯網信息服務算法綜合治理的指導意見〉的通知》,2021年9月29日,網址:http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm,2023年6月25日。。同時,規制算法黑箱的“暗箱”操作,促進算法運行透明化,防止因算法黑箱造成的程序不透明、決策過程不公開等而加劇公眾對政府的不信任,有效消解由此引發的政治合法性危機。
在意識形態安全方面,克服數字社會建設過程中的算法推薦安全問題,加強對算法推薦的監管,防止算法資本化運作、智能化傳播對信息傳播和社會經濟活動的控制,規范算法推薦的經濟、社會行為。這需要克服算法推薦引發的“過濾氣泡效應”和“信息繭房效應”弊端,增加公眾獲得多樣化信息的機會(41)劉河慶、梁玉成:《透視算法黑箱:數字平臺的算法規制與信息推送異質性》,《社會學研究》2023年第2期。,并弱化資本對算法的控制,防止社會資本和智能傳播平臺借助算法推薦技術控制社會輿論,侵蝕社會主流意識形態的傳播陣地和作用空間。還需要正視算法技術平臺,尤其是全球性算法技術平臺建構對信息傳播帶來的變革和風險,化解意識形態跨境傳播引發的意識形態多元化危機,規制民粹主義、極端民族主義、宗教極端思想等意識形態和價值觀跨境傳播對主流意識形態的沖擊,削弱意識形態跨境傳播引發的價值認知多元化弊端,進而借助智能算法傳播平臺整合社會意識形態分歧。如2021年12月,我國出臺了《互聯網信息服務算法推薦管理規定》,明確提出規范算法推薦服務,優化算法推薦服務機制,對于具有輿論屬性或社會動員能力的算法推薦服務提供者應按照規定進行必要的安全評估,以防止其從事危害國家安全、擾亂經濟秩序的行為。
隨著算法平臺化應用場景的增多,算法安全已經成為我國國家安全的重要組成部分。維護算法安全、規制算法安全風險對于統籌維護和塑造國家安全、增強維護國家安全能力具有重要意義。因此,需要探索數字社會建設中算法安全風險的化解策略,不斷提升數字社會質量,確保國家安全和社會穩定。需要指出的是,算法的平臺化應用增進了數字社會與自然社會的互嵌和融合,拓寬了“人類社會”這一概念的內涵和外延。虛擬算法社會成為人類社會的組成部分,它借助算法技術平臺將算法世界的倫理、運行邏輯以及結構形態映射進物理世界之中,并影響物理世界的社會結構、運行規則和道德倫理。在我國,數字社會的建設是一項系統性工程,由社會自發地向數字社會過渡顯然不符合我國的社會建設實踐。因此,數字社會概念的提出、數字社會外延的界定、數字社會建設目標的確定以及數字社會建設進程的開展都應由黨和政府來主導。但數字社會作為技術社會形態的一種,它的建設和演進也有自身的特點。從這個角度而言,我國的數字社會建設是政府政策推動和技術社會形態自我演進共同作用的結果,而政府應當在此過程中起著主導作用。