999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

數智時代算法化治理的運作機制及其邊界調適

2025-09-15 00:00:00羅昕2朱佳諾

中圖分類號:G20;G202 文獻標志碼:A 文章編號:1672-1101(2025)04-0073-12

The Operation Mechanism and Boundary Adjustment of Algorithms-mediated Governance in the Digital Intelligence Era LUO Xin12,ZHU Jianuo1

(1.SchoolofJournalismandCommunication,JinanUniversityGuangzhou,China;2.Publishing Research Istitute Jinan University, Guangzhou , China)

Abstract: With the deep integration of digital and inteligent technologies into social structures,algorithmsmediated governance, as a new governance paradigm of mutual construction between technology and society, realizes the coordination and control of social aairs through algorithmic systems.Based on the fourdimensional analysis framework of“subject-data-algorithm-scenario”,the internal logic and co-evolution of algorithms-mediated governance operations are systematically deconstructed. This governance paradigm drives the transformation of governance subjects with the role of“producer and consumer”, shapes governance logic through the workflow of data collection, processing, application and feedback,realizes the automation and precision of the decision-making paradigm with the technical intermediary function of algorithm tools,and forms specific adaptive governance models in scenarios such as public sectors, commercial platforms and social governance.The efective operation of algorithms-mediated governance depends on the continuous interaction between technological empowerment and boundary adjustment.

Key words: algorithms-mediated governance; mediated governance; operating mechanism; boundary adaptation

隨著物聯網、大數據和人工智能技術的突破,社會治理面臨的數據規模與復雜程度呈指數級增長。據中國互聯網絡信息中心(CNNIC)統計,截至2024年12月,我國網民規模近11.08億人,日均產生數據量超過500億條①。面對海量動態數據,傳統治理模式已不再適用,尤其是在響應速度、資源配置精準度和風險預判能力方面,其局限性日益凸顯。在數智技術深度嵌入社會治理背景下,算法憑借其強大的數據分析、模式識別與預測能力,被廣泛應用于公共安全、交通管理、社會保障等領域,成為提升治理效能的核心工具[。算法化治理(Algorithms-mediatedGovernance)正成為公共治理的重要范式,旨在通過算法系統實現社會秩序的協調與控制。

一、問題提出:算法化治理研究回溯

當前,我國“十四五\"規劃已明確將“數字治理列為國家戰略重點。歐盟“2030數字羅盤計劃”也提出,要通過算法優化公共服務資源分配。然而,算法化治理的快速擴張引發了多重爭議。從美國COMPAS系統加劇種族偏見到歐盟《通用數據保護條例》(GDPR)限制自動化決策、從社交媒體算法操控公共輿論到智能監控系統侵蝕公民隱私權,算法技術邏輯與社會價值之間的張力日益加劇2。相關議題,可從技術、制度、社會3個維度予以窺探。

首先,技術維度:算法設計的倫理困境與技術規制。塔爾頓·吉萊斯皮(TarletonGillespie)指出,算法不僅是技術工具,更是社會價值的載體,其設計邏輯深刻影響信息傳播與資源分配[3]。辛西婭·德沃克(CynthiaDwork)等提出“通過意識實現公平\"(fair-nessthroughawareness)理論,強調算法需在設計階段嵌入反歧視機制[4]。法蘭克·帕斯夸里(FrankPasquale則揭示了算法“黑箱”導致的透明度缺失問題,主張建立算法審計制度[5]。陳增寶進一步指出,算法的技術中立性“神話\"掩蓋了其潛在的權力偏向,需通過技術標準和法律規范雙重約束[。張吉豫提出“算法公共性”概念,主張通過技術設計保障公共利益。通過以上梳理可以發現,現有研究多停留在算法治理的理論層面,對算法動態迭代過程中的技術規制機制缺乏深人探討。

其次,制度維度:公共政策下算法應用場景及其法律規制。楊凱倫(KarenYeung)將算法治理定義為“通過代碼進行的社會規制”,強調其有別于傳統法律的“代碼即法律\"特征[8]。羅伯·基欽(RobKitchin)提出,算法治理(AlgorithmicGovernance)需構建包含技術標準、行業規范和法律規則的多層治理體系[9]。弗吉尼亞·迪格南(Virginia Dignum)對此提出批評,認為基欽的觀點缺乏對算法動態適應性的考慮[10]。周曉麗等圍繞算法嵌人政府治理三重邏輯:效率驅動、風險防控與權力重構展開分析[1]。嚴義挺提出算法治理到治理算法(GovernanceofAlgorithms)的范式轉變,強調需建立涵蓋設計、運行和評估的全周期監管框架[12]。然而現有制度層面的研究多集中于西方語境,對我國“條塊分割”體制下的算法協同治理機制探討不足。

最后,社會維度:算法對社會結構的重塑作用。戴維·比爾(DavidBeer)提出“數據凝視\"理論,揭示算法通過數據監控實現社會控制[13]。大衛·萊昂(DavidLyon)進一步指出,算法監控正在形成新型社會分層,弱勢群體面臨系統性歧視風險[14]。尼克·庫爾德利(NickCouldry)等人的媒介化理論強調,算法作為媒介技術重構了社會互動模式,形成“算法中介化\"治理[15]。孟天廣等分析了算法政治的雙重效應,認為其既能提升治理精準度,又存在強化“技術官僚主義\"的可能性[16]。胡堅波則提出“算法素養”的概念,主張通過公眾教育應對算法權力的異化[17]。可以看到,國內外學界從社會維度圍繞算法對社會結構作用展開的探討屢見不鮮,但關于算法如何形塑社會共識、影響公共領域的研究仍顯不足。

綜上所述,現有研究雖已關注算法的倫理風險和法律規制,但普遍混用“算法治理”與“治理算法概念,究其原因在于未能明確區分作為治理工具的算法與作為治理對象的算法。為此,本文在厘定“算法化治理\"概念基礎上構建“主體—數據一算法一場景”四維分析框架,系統解構其運作機制;同時突破傳統技術治理的工具理性局限,圍繞權力配置、數據質量、算法手段與場景適配性4個方面論證算法化治理邊界的調適機制,為全球數字治理體系變革提供理論創新與實踐參照。

二、概念厘定:算法化治理的內涵及其特征

在數智技術深度嵌入社會治理的時代背景下,清晰界定“算法化治理”核心概念及其本質特征,是破解算法化治理技術應用與社會價值張力的邏輯起點。

(一)算法化治理的內涵

媒介化治理理論強調,媒介與治理之間存在著深度交織、相互塑造的關系。在社會治理進程中,媒介占據重要地位,不僅是信息傳播的載體,更是社會關系的塑造者、社會秩序的維護者、社會變革的推動者[18]。媒介可通過獨特的傳播機制、技術手段針對性地篩選、加工、傳遞信息,亦可依據特定目標和標準選擇性呈現與解讀信息,以引導公眾認知與行為。在突發事件報道中,媒介能通過及時、準確傳遞信息穩定公眾情緒,引導公眾采取正確應對舉措;在公共政策宣傳中,多樣化的傳播渠道與方式有助于提升政策知曉度與認同度,進而推動政策有效實施。

算法化治理在媒介化治理基礎上演進形成,通過將算法技術深度融入社會治理體系,依托數學模型和計算機程序,充分發揮算法高效性、精準性與自動化優勢特性,實現社會事務管理與調控向科學化、高效化轉型。其核心機制在于運用算法對海量數據進行分析、處理,挖掘有價值的信息與知識,為治理決策提供堅實依據。尤其在社會風險管理與應對方面,算法化治理的前瞻性特征愈發凸顯,通過整合歷史數據與實時分析,預判事件發展趨勢及潛在影響,從而提前制定風險防范與應對策略[19]。以城市交通管理為例,可依據車流量、天氣狀況等多源信息,預測交通擁堵發生時間、地點,提前調整信號燈配時,引導車輛合理分流。此外,相較于傳統治理方式,算法化治理在滿足不同個體或群體多樣化需求方面表現同樣出色,可依據個體或群體行為、偏好等數據,提供個性化、針對性的服務與解決方案。如教育領域算法化治理的應用,根據學生學習成績、習慣等數據,制定專屬學習計劃,提升學生學習效果。

算法化治理與算法治理雖都與算法技術緊密相連,但在側重點上存在明顯差異。“算法治理”概念充滿模糊性,既指算法作為治理工具或主體在公共治理中的參與作用,也指對算法的治理,以防范算法帶來的風險,算法成為治理對象或客體。“算法化治理\"則代表全面深刻的治理形態變革:算法深度嵌入從信息收集、數據處理到決策制定與執行的過程,成為貫穿治理全過程的主導要素,推動社會治理智能化、精準化轉型。如智能化交通治理系統的設計與應用,涵蓋交通流量實時監測、擁堵預測、智能調度等全流程,實現了從局部優化到整體治理的范式轉變。這種轉變不僅涉及技術應用的廣度與深度拓展,更意味著治理理念、主體關系、權力結構等多層面的系統性重塑。

(二)算法化治理的核心特征

如前所述,算法化治理的核心在于算法對治理流程的深度嵌人。這種技術滲透主要表現為以下3個典型特征。

1.動態跟蹤研判,賦能精準施策。算法化治理顯著區別于傳統治理方式的原因在于,其具備動態跟蹤研判能力。傳統治理模式下的信息收集與分析往往呈現靜態、周期性等特點,難以全面反映公共事務變化情況。而算法化治理則借助先進信息技術與傳感器網絡,動態收集社會、經濟、環境等多領域數據,再通過實時數據分析與處理,及時察覺公共事務異常情況與潛在問題,以此進行深度研判。如公共衛生領域的算法化治理應用,算法可實時監測疾病傳播速度與范圍、醫療資源使用等方面的數據。一旦疾病發病率出現異常上升情況,算法會迅速對傳播趨勢、途徑等要素進行分析、研判,為公共衛生部門制定防控策略提供量化依據。再如社會保障領域的算法化治理應用,算法可依據貧困地區經濟水平、人口結構、資源稟賦等數據,制定差異化精準扶貧策略,切實提高扶貧工作的成效。

2.優化資源配置,提高治理效率。資源有限性是社會治理過程中存在的主要難題,因此如何在有限資源條件下實現治理效果最大化成為關鍵。算法化治理可通過精準的數據處理,分析、預測社會資源需求和供給情況,促進優化資源配置,提高資源利用效率。具體到自然災害等突發事件應急場景,算法可依據災害類型、規模、影響范圍等數據,快速生成人員物資調配方案,優化救援路線與策略,確保救援人員、救援物資及時準確抵達災區,助力提升救援效率[20]。除此之外,算法還可以實施監測資源使用異常情況,采取調整措施以防類似事件再次發生。例如在能源管理領域,可通過實時監測能源使用情況,分析能源消耗規律。區域或企業的能源浪費等問題一經發現,便可發出自動預警、制定整改方案,有效實現能源節約與合理利用。

3.增強風險預警,促進公平公正。在風險預警效能方面,算法可依托歷史數據與實時信息進行深度挖掘,構建多維風險識別模型、捕捉潛在風險預警信號,為復雜環境下的風險防控提供決策支持。具體到相關領域,金融風險預警可實時追蹤金融市場交易及宏觀經濟數據動態,當相關指標發生異常波動時,及時發出風險預警信號,為金融機構及相關監管部門風險防控提供有力支持;自然災害預警可通過整合氣象、地質等多源監測信息與數據,預測地震、洪水、臺風等災害的發生概率與影響范圍,提前發布預警信息、組織人員疏散及物資儲備,最大程度降低災害損失。在公平公正保障方面,傳統治理方式存在信息不對稱、主觀因素干擾等問題,而算法化治理主要依托客觀數據對治理過程進行量化分析與處理,減少人為干預,并通過算法自身透明性、可追溯性等特征,確保決策公平性、公正性及公開性。尤其是在社會福利分配管理中,可根據申請人經濟狀況、家庭情況等,客觀評估申請人是否符合福利申請條件,確認后按照統一標準進行分配,避免人為因素導致的不公平現象[21;同時,算法運行過程與決策依據被詳細記錄并公開可查,接受社會監督。當出現爭議或質疑時,社會保障及相關監管部門可通過查閱運行記錄與數據存儲進行追溯驗證,確保過程和結果的公開透明。

三、協同演化:算法化治理的運作機制

數智時代,算法化治理突破了傳統治理的科層制框架,形成以技術賦能為特征的新型治理范式。這一范式的運作并非單一要素獨立作用的結果,而是治理主體、數據資源、算法工具與應用場景在“技術一社會\"互動中形成的復雜機制(圖1)。各要素既保持相對獨立的運行邏輯,又在互構中形成協同演化的治理生態,具體運作機制解構如下。

圖1算法化治理的運作機制

(一)主體驅動:產消者角色重構與治理權力再分配

數字技術普及,催生了產消者(Prosumer)這一新型治理主體。產消者,是指兼具生產者與消費者雙重角色的數字用戶,這意味著個體不僅是治理決策的被動接受者,亦是通過數據生產、行為反饋建構治理規則的主動參與者,其行為范式的轉變重塑了治理參與的基本格局[22]。在社交媒體、共享經濟和智能服務中,用戶通過生成內容、點擊行為、數據貢獻參與價值創造,將其轉化為算法運行的核心生產資料。與此同時,算法輸出的治理規則(如內容推薦優先級、公共服務資源分配方案)又反向塑造其行為模式,進而形成“數據貢獻一算法規制一行為調適”的閉環互動。雙重角色的出現,打破了傳統治理中“治理者一被治理者\"的二元對立,使治理主體呈現去中心化趨勢:用戶既是治理對象,又是治理過程的參與者[23]

1.產消者的數據生產與權力讓渡。在傳統治理框架中,治理主體與客體界限清晰,數據作為治理資源主要由政府或機構壟斷采集。但在算法化治理體系中,用戶通過日常數字交互(如社交媒體使用、平臺消費、公共服務接入)持續生成海量數據,為算法建模提供基礎原料,進而成為治理數據的核心生產者。面對當代智能城市建設與發展,治理難題也隨之而來,尤其是在交通、能源等方面。對此,市民可通過使用交通出行APP、智能電表等設備實時上傳行車位置與能耗數據,數據經算法處理后,系統可自動生成交通疏導方案或能源分配策略。

需要注意的是,產消者的數據生產往往伴隨著無意識的權力讓渡,用戶在享受個性化服務時,常以“默認同意”方式授權平臺采集數據,形成“數據一權力\"的隱性契約。在這種契約關系中,用戶雖擁有數據法律意義上的所有權,但實際控制權卻掌握在算法設計者與平臺運營者手中,以致形成治理主體間權力不對等的局勢。社交媒體平臺依據用戶瀏覽記錄構建內容推薦算法,即是例證之一。這一過程中,用戶可以通過點擊行為反饋調整推薦結果,但平臺的核心算法邏輯并不會對用戶公開,從而形成“參與式治理”表象下的決策黑箱。

2.產消者的治理參與與身份重構。算法化治理催生了用戶從“被治理者”到“共治者”的身份轉變。歐盟《通用數據保護條例》要求,涉及個人重大利益的自動化決策需提供人工干預接口,賦予用戶對算法決策的申訴權與修正權[24]。公民可以通過參與算法設計聽證會、提供數據標注反饋等方式,直接影響治理算法的價值取向。這一轉變在商業平臺治理中尤為凸顯:平臺利用信用評價算法整合用戶評分、交易記錄等多維數據,用戶通過評分機制、反饋系統參與規則制定,形成“算法共治”生態。如此一來,用戶既是評分數據的生產者,也是評分結果的受用者,治理與被治理角色交織。

當然,這種身份重構給治理合法性帶來了挑戰。產消者的參與契合“共治理論\"在算法場景中的應用實踐[25],從實踐層面提升了治理方案的民意契合度,但用戶個體理性與集體理性之間沖突愈發凸顯,如個性化推薦算法在滿足個體偏好時可能加劇信息繭房,導致公共利益受損[2。因此,治理主體的復雜性要求建立更加清晰明確的權責分配機制,在保障個體參與權的同時實現系統公共價值目標。

3.主體間的協同對抗與治理權力再分配。算法化治理中,政府、企業、公民三方主體形成了復雜的協同一對抗關系。政府作為規則制定者,通過立法與監管框架設定算法治理的邊界;企業作為技術實施者,在商業利益與合規要求間尋求平衡;公民作為算法受治者,通過市場選擇或社會運動表達訴求。這種三角關系中,數據控制權成為核心博弈點。以新冠肺炎疫情防控健康碼算法為例,政府獲取公民位置數據以實現疫情追蹤,企業提供技術支持,公民在配合數據采集的同時要求數據使用必須具備透明性、安全性,三方通過有效互動重塑了治理規則[27]

與此同時,主體間權力博弈又推動了治理模式的轉型:從“科層制”向“網絡協同制”。由于算法化治理依賴多元主體數據共享與協作,任何單一主體都難以壟斷治理資源。平臺企業作為算法設計者、數據控制者,掌握著技術架構與資源分配的核心權力,具有“技術利維坦\"式的治理優勢[28]。產消者因法律賦權與市場選擇擁有了一定的議價能力。如歐盟《通用數據保護條例》賦予用戶的數據訪問權、更正權、被遺忘權,實質是歐盟通過制度設計將部分治理控制權歸還個體用戶,用戶在此基礎上通過選擇合規平臺或抵制算法濫用行為形成市場倒逼機制。然而資本與技術的結合,可能形成新的權力集中,通過技術霸權削弱中小主體的議價能力。當算法以“優化效率”為由屏蔽用戶參與時,治理權力失衡可能會導致系統性歧視。如,美國COMPAS風險評估算法因訓練數據存在種族偏見,加劇了司法不公。

(二)數據基礎:信息內容的鏈條化生產與價值重構

數據作為算法化治理的核心生產要素,其價值實現貫穿治理全過程,構建起數據“采集一處理一應用一反饋\"的完整鏈條。從治理對象上看,數據是社會行為的數字映射,記錄個體與群體的特征、需求與軌跡,構成治理問題界定的基礎;從治理工具上看,數據經算法處理后轉化為可操作的治理規則,將復雜社會問題轉化為可計算的參數組合,促進治理決策精準化、標準化[29]。數據不僅是治理決策的依據,亦是治理價值的轉化樞紐,通過要素重組推動治理范式由“經驗驅動\"向“數據驅動\"轉型。值得注意的是,數據的多元屬性與流動特征,在塑造治理精準性的同時會帶來隱私侵犯、偏見固化等風險。

1.數據采集。數據不僅是治理工具,也是塑造社會認知的中介。在算法化治理中,數據采集的廣泛性與治理需求的精準性形成共生關系,數據質量直接決定算法輸出結果的可靠程度。因此,高質量數據需具備準確性、完整性與時效性3大特性。其中,準確性要求數據如實反映客觀事實,避免因數據失真導致治理誤判。特別是在醫療診斷中,算法不能依賴錯誤病歷數據,引發誤診風險[30]。完整性強調數據覆蓋的全面性,防止“數據孤島\"導致治理盲區。例如,社會救助工作中,碎片化數據的應用可能導致算法將貧困群體誤判為“不符合救助條件\"[31]。時效性要求數據實時更新,適應動態治理需求。特別是在疾病防控方面,算法需分鐘級更新確診者的軌跡數據,實時進行大數據流調。

由上可知,算法化治理依賴多源數據整合與分析,涵蓋結構化、非結構化及實時動態數據,政府、企業、公眾等主體共同構成數據提供者。在公共部門治理中,政府部門政務大數據通過數據整合、機器學習構建社會風險預測模型,如疫情傳播模擬、犯罪熱點分析,助力實現治理資源動態調配。企業商業平臺則依賴用戶行為數據優化推薦算法,形成“數據驅動的治理閉環”;公眾在享受各類數字服務時主動或被動產生的行為數據,如健康碼使用信息、政務平臺辦事記錄,成為公共衛生治理、政務服務優化的重要依據。但無論是政府部門、企業機構,還是個人用戶,在享受個性化數字服務時,數據采集的邊界模糊化也會引發隱私倫理爭議。因此,數據采集合法性與合理性,成為當下算法化治理的首要考量。

2.數據處理。算法化治理中原始數據的清洗、脫敏及聚合過程,直接關聯治理效能與個體權益的平衡。如生物特征、醫療記錄、金融交易信息等敏感數據,若未經規范化處理直接嵌人算法模型,易引發隱私泄露風險或治理權力異化等問題。與此同時,數據所有權、使用權與管理權分置,致使其權力結構愈加復雜化,且數據“生產者一控制者一使用者”關系重構,觸發了一系列制度性挑戰。在此過程中,政府作為數據監管者,承擔數據治理的主體責任;平臺企業作為數據控制者,通過平臺內用戶協議獲取數據使用權,構建商業算法模型,需承擔技術治理的責任。但在商業利益驅動下,此類企業存在利用數據壟斷掌握治理話語權,形成“數據資本主義”以濫用數據權力的可能性,電商平臺利用用戶瀏覽數據實施價格歧視亦是如此。用戶作為數據生產者,雖擁有數據人格權,但常因技術壁壘被迫讓渡相關權利,從而造成“數據殖民\"現象:平臺企業通常利用平臺內用戶數據實現精準營銷、獲利,而用戶僅獲得有限服務。這種權力關系的失衡,容易導致數據價值分配不均,催生對算法透明與問責的制度性需求。盡管歐盟通過《通用數據保護條例》確立的“數據主權\"原則,試圖以賦權用戶、規制企業的方式平衡這種關系,但在技術實踐層面仍面臨合規成本高企、跨境數據流動沖突等現實困境。

從本質上講,數據處理過程實為社會價值的編碼過程,算法設計者的價值偏好、制度目標的優先級排序均可通過數據清洗、特征選擇、模型訓練等環節嵌人治理系統。如公共福利分配算法,其以收入水平、家庭人數等要素為核心特征,體現“結果公平治理目標,若納入信用評分數據,則可能偏向“機會公平\"[32]。至此,數據特征選擇及其權重分配,成為治理價值取向的顯性表達。需明確正確治理價值導向,確保算法納人公平、包容等正向的社會價值[33]。

3.數據應用。隨著算法化治理進程的推進,數據已成為治理對象的量化表征,治理主體通過用戶畫像、行為軌跡、社交關系等維度數據,將復雜的社會現象轉化為可計算的數字指標。具體應用中尤為突出的是信用評分系統,該系統可通過整合金融交易、社交行為等方面數據構建關涉個體信用的量化模型,將傳統治理中模糊的“信任\"問題轉化為可以算法處理的數字信號。除信用評分外,數據應用、流動亦重塑著治理資源的分配,平臺經濟中數據跨平臺流轉交互形成的“數據生態\"助力數據共享,推動著企業與政府治理協同。如歐盟以“數據利他主義\"為數據治理核心理念,并以此強化公共數據的再利用,企業可通過合規的數據共享機制向公共部門提供用戶行為數據。

數據應用過程中,數據質量決定治理效果,算法偏見與歧視問題本質上是數據偏差顯性化。若訓練數據包含歷史歧視性決策,算法將系統性放大偏見。因此,數據清洗、去偏算法成為治理的前置環節,如谷歌通過引入多樣化訓練數據減少圖像識別算法中的種族偏見。

4.數據反饋。作為算法化治理中數據鏈條的末端環節,反饋過程既包括治理對象對算法輸出結果的行為響應,也涵蓋治理系統對數據應用效果的評估與修正,其核心價值在于提升治理的適應性與回應性。反饋機制的有效運行,依賴于“反饋渠道的開放性”和“反饋數據的對稱性”。前者要求治理主體建立多元的反饋接口,確保弱勢群體聲音被吸納;后者則需要通過技術手段與制度設計,保障數據真實與處理透明。這種數據反饋驅動的治理閉環實質上是技術系統與社會系統的持續對話,推動著算法化治理在動態調整中趨近公共價值目標。算法在此過程中主要通過吸納多元主體反饋的數據識別治理盲區并修正偏差。如歐盟《通用數據保護條例》提出的用戶數據訪問權與修正權,實質上是通過制度設計賦予個體對算法決策的反饋權利,是“人機協同\"治理糾錯機制的具體體現

需要注意的是,數據反饋也可能引發新的治理風險。一方面,平臺經濟中的“過濾氣泡\"效應源于算法對用戶顯性反饋的過度依賴,導致推薦內容窄化、信息繭房加劇;另一方面,公共部門的算法反饋可能受限于數據采集渠道的單一性,僅依賴官方渠道反饋數據,不僅容易忽視邊緣群體的隱性需求,也會導致治理修正的片面性。此外,商業平臺利用用戶反饋數據實施精準操控,構成“算法操縱\"行為,進而引發用戶自主性被侵蝕的爭議。

(三)算法工具:治理手段的技術邏輯與決策中介

算法作為連接數據與治理目標的技術手段,其設計范式、運行特征及與人類治理的互動關系構成算法化治理的核心運作機制。根據技術路徑差異,可分為規則引擎算法與機器學習算法:前者基于預設規則進行確定性決策,如交通領域,算法可根據預設的車流量閾值調整交通信號燈時長;后者基于數據訓練自主生成決策模型,如新聞領域,算法可通過自然語言處理識別仇恨言論,強化媒體內容審核。這亦凸顯了算法強大的“自動化協調能力”,通過海量數據自動識別模式、輸出標準化決策,延伸了人類治理的理性邊界、打破了傳統決策的效率瓶頸。

1.算法設計范式決定治理邏輯基礎。作為連接數據與治理目標的技術中介,算法工具的核心價值在于將治理規則轉化為可計算的代碼邏輯,實現治理過程的自動化、規模化與標準化。算法建模,可將傳統治理中依賴人工經驗的決策范式,如貸款業務審批、犯罪風險評估等轉化為數據驅動的自動化決策,形成“代碼即規則\"的新型治理邏輯。算法成為治理規則的具象化載體,重構著治理的時間與空間維度,使實時治理、遠程治理成為可能。如金融領域的信用評分,算法可通過整合海量金融數據在數秒內完成貸款申請評估,促使治理效率顯著提升。

不可否認的是,算法通過機器學習實現自主決策、減少人為干預的方式,雖然提高了數據處理效率,但是仍存在放大數據結構性偏見的可能性,致使代碼的形式理性遮蔽實質正義。以亞馬遜AI招聘系統的應用為例,該系統可通過歷史數據分析生成聘用候選人排名,但因訓練數據存在偏差而引發對女性求職者的系統性歧視。而且算法決策本身具備不透明性,這種不透明性可能會導致治理對象難以理解甚至質疑決策依據,進而削弱治理的合法性。為此,歐盟《人工智能法案》要求高風險算法必須提供可解釋性說明,試圖緩解自動化與透明性的張力。

2.“人機協同\"算法重構治理分工。算法化治理體系并未要求算法取代人類決策,而是主張將算法作為“決策輔助工具\"與人類治理主體互補,最終形成“人機協同\"治理模式。具體到公共政策領域,算法提供數據驅動的決策建議,最終由人類決策者裁量;商業領域,算法自動執行常規決策,但出現異常情況仍由人類干預;醫療領域,AI診斷系統為醫生提供參考建議,而非直接決定治療方案;政務治理領域,風險預測算法可為人類決策者提供數據支持,最終決策仍需決策者判定[34]。這種協同模式的關鍵在于建立“人機權責清單”,明確算法錯誤的責任歸屬,構建人類對算法的動態監督機制。

再者,“人機協同\"治理效果取決于算法的“可干預性”與人類的“算法素養”,信息用戶、信息治理者具備理解算法邏輯、識別算法偏差等能力,才能有效參與治理過程。以醫療診斷算法為例,醫生需先解讀算法輸出的概率性建議,再結合臨床經驗作出最終判斷,防止過度依賴技術引發誤診[35]

3.算法技術特性形塑治理的效能邊界。在數據治理過程中,算法扮演著技術中介的角色,通過代碼邏輯將信息數據轉化為治理決策。算法本身具備的技術特性形塑了治理的效能邊界。首先,算法的規模化處理能力實現了治理的“去中介化”,減少了人為干預成本,但會造成“過度自動化\"風險,如極端場景下自動駕駛系統存在倫理困境[3。其次,算法的迭代優化特性形成了“動態治理\"模式,實時響應環境變化,但平臺通過算法干預用戶選擇以獲利的行為,引發了“算法操縱\"爭議。

與此同時,算法作為一種新型社會規訓手段,可通過助推機制潛移默化地影響用戶行為。如,健康管理軟件推送個性化運動建議,塑造用戶健康習慣;電商平臺制定動態定價策略,引導用戶消費行為[37]。這種規訓不同于傳統法律的強制約束,而是通過數據反饋與獎勵機制實現自愿服從,形成“軟治理\"范式。但規訓過度可能引發行為同質化、個體自主性消解等問題。如,社交媒體推薦算法容易造成用戶信息消費窄化,形成“過濾泡\"效應[38]。因此,治理者必須警惕算法對多元價值觀的侵蝕,通過“反過濾機制保護信息多樣性,維護社會認知開放性。

(四)場景滲透:治理應用的領域適配與模式分化

算法化治理效能高度依賴具體應用場景,特定場景的治理目標、約束條件與利益相關者結構,共同決定了算法參與的方式與邊界,反映了治理目標、制度環境與技術可行性的動態交互。不同領域基于治理需求與技術特性探索的多元治理模式,推動著治理從“一刀切\"向“精準化”“場景化\"轉型。公共部門、商業平臺與社會治理構成算法應用的核心場域,分別對應政府公共權力、市場效率邏輯、社會多元共治的治理邏輯。三者差異既體現在治理主體的權責邊界,也反映在技術應用的風險等級與價值優先級上。其中,公共部門側重公平性與合法性保障,商業平臺竭力平衡效率與倫理需求,社會治理則強調多元主體參與。但三方場域共同指向了一個核心命題——如何在技術可行性與社會可接受性之間找到平衡點。

1.公共部門:科層制與技術理性的融合重構。公共部門算法化治理,主要圍繞資源分配、風險防控等展開,整個治理邏輯從科層制的經驗決策轉向數據驅動的精準治理,是決策經驗與技術理性的融合重構。在城市交通治理中,智能信號燈算法根據實時車流數據動態調整信號周期,提升城市通勤效率。在社會保障治理中,資格審核算法通過整合收入、資產、醫療等多維數據分析申請者經濟情況,評估救助資格,實現自動化審批,減少人工審核導致的主觀偏差。這種重構的本質是“數據化\"將傳統的行政流程轉化為算法流程,通過數據共享打破部門壁壘,如中國“一網通辦\"平臺,依托政務數據互通實現跨部門協同治理。

公共部門治理具有一定的特殊性,原因在于其與公民基本權利直接相關,需滿足“正當程序”要求。如司法領域,美國法院使用COMPAS算法對黑人罪犯進行再犯風險評估,但該算法存在較大偏見,進而引發社會對刑事司法公平性的質疑。此外,美國部分地區警方運用預測警務算法分析歷史犯罪數據、識別犯罪熱點區域,提前部署警力。毋庸置疑的是,這一做法在提升治安效率的同時強化了社會的地域偏見。正如芝加哥警方使用的COMPAS算法,因嚴重依賴貧困社區歷史犯罪數據,致使其對少數族裔采取過度的監控行為,造成了不良后果。由此可見,公共部門治理的核心特征是“制度約束下的技術賦能”。這就要求算法化治理建立雙重約束機制:(1)技術層面,刪除敏感屬性或采用對抗性訓練減少偏見傳導[39];(2)制度層面,成立公眾監督委員會審查算法決策邏輯,確保決策過程符合法律的正義原則[40]

2.商業平臺:市場邏輯與用戶主權的動態博弈。作為算法化治理典型場域,商業平臺以提升工作效率與優化用戶體驗為核心任務,形成兼具效率與規則的“私人秩序”,呈現出“平臺自治”與“外部規制”的雙重邏輯。首先,內容平臺。以Facebook為例,其智能審核算法可日均處理數千萬條用戶舉報信息,通過自然語言處理、圖像識別技術過濾違規內容,輔助人工審核、提升工作效率。其次,共享經濟平臺。以Uber為例,作為全球最大出行平臺,Uber的訂單分配算法在構建交易規則的基礎上優化供需匹配、實施動態定價,在保證服務高效性的同時降低交易成本,形成內部治理生態。上述治理模式以效率優化為核心目標,高效利用閑置資源,但也帶來了一些新的問題:一方面,易于引發“算法控制\"爭議,損害用戶權益;另一方面,導致勞動者面臨算法控制的“零工經濟”困境。如,Uber的動態定價算法被指剝削騎手勞動價值,還有“大數據殺熟\"引發的價格歧視爭議。

為此,商業平臺算法化治理,需要致力于構建一種新型市場秩序。此類治理的特殊性在于其被賦予的“準法律”屬性:平臺規則由企業制定,直接影響用戶權益與市場秩序,形成“私人治理”與“公共利益合力。而這種新型秩序形成亦存在矛盾,核心矛盾在于企業商業目標與社會公共利益的沖突,如社交媒體算法為追求用戶留存率推送極端內容,最終導致社會極化。因此,監管機構有必要構建一套完備的算法合規框架,平衡商業利益與公共福祉;同時,推動平臺吸納更多普通用戶、專家學者、網絡企業等多元主體參與算法設計,以免單一商業目標主導治理過程。

3.社會治理:多元主體共治的協同創新。社會治理場景中的算法,重在推動“參與式治理”創新,實現技術中介下的協同共治,以跨領域的協同需求為核心,具有高度不確定性、動態性等特點,疫情期間表現尤甚。為追蹤病毒傳播路徑、調配醫療資源,實時整合交通、醫療資源等多源數據并快速迭代數據模型,算法必須具備強大的適應性與容錯性,能夠處理存在噪聲、不完整或模態不平衡的低質量數據。深人至疫情防控這一場景,健康碼設計背后的算法通過整合行程、醫療等數據實現了跨部門協同治理,但隱私保護與公共安全之間平衡問題難以得到有效解決。同時,疫情防控中的輿情分析需整合媒體推送、新聞報道與政府公開的數據與信息,涉及多部門數據共享與權限協調。因此,相關治理部門需建立跨機構的數據協作平臺,制定統一的數據接口標準與安全規范,提升治理響應速度與處置能力。

社區治理作為社會治理的重要部分,其算法應用主要表現為“數字參與”,通過整合居民反饋數據實現精準化服務。居民可以通過智能終端反饋社區問題,算法則自動分類并派單至責任部門,形成問題“采集一處理一反饋\"的閉環;還可以通過數字平臺參與政策制定,隨后政府再利用算法分析居民意見數據,優化公共服務供給。新加坡的“智慧社區”系統屬較為典型的應用案例,通過物聯網傳感器與算法分析實時響應居民的設施維修請求,響應時間較傳統流程縮短 50% 。在此過程中,“數字排斥”風險需要警惕,老年群體、低收人群體因數字素養不足多數情況下被排除在算法治理體系之外,進而加劇治理的數字鴻溝。因此,需建立人機協同機制保障治理包容性,如日本的養老服務算法保留了人工審核環節,意在確保老年群體個性化需求得到有效識別。

綜上所述,社會治理的核心特征在于多元主體權責共擔,非營利組織、公民團體等通過參與算法設計,將社會價值嵌人技術系統[41];同時,社會監督構成治理的重要環節,推動算法向更包容的方向演進。也就是說,社會治理需要依賴技術設施與社會制度的雙重支撐,如區塊鏈技術為社區自治提供“去中心化”的信任機制,而配套的社區公約則規范著技術應用的邊界[42]

四、風險重審:算法化治理的邊界調適

數智時代,算法化治理通過技術賦能在重塑社會治理范式的同時,也因其技術特性與社會需求的錯配引發多重風險。當算法從治理工具轉化為治理對象,其自身技術特性與社會系統的多元需求之間形成張力,要求我們重新審視算法參與治理的邊界。這種邊界調適并非簡單的技術修正,而是涉及利益格局、數據質量、技術倫理與場景適配的系統性校準,旨在構建技術理性與社會價值的動態平衡機制。

(一)構建協同治理機制,平衡多元主體利益

算法化治理的首要挑戰源于多元主體利益的結構性沖突,其核心在于算法治理中權力分配的失衡與參與機制的缺失。技術開發者與數據控制者占據主導地位,易導致治理規則偏離公共利益,形成“技術集權”下的利益失衡。為了破解這一困境,需重塑治理權力分配格局,引入“多元共治\"治理范式,建立包容性的協同治理體系。

首先,建立制度化多元主體參與渠道。在高風險算法設計中,強制納人公民代表、行業協會、學術機構等多方主體參與,通過公開聽證、共識會議等協商機制將多元價值訴求轉化為技術規則。這種參與不僅是形式上的咨詢,更需在建立“決策反饋一規則調整”閉環機制基礎上確保弱勢群體利益訴求在算法指標體系中得到充分體現。以公共住房分配算法為例,要吸納低收人群體代表參與居住需求權重的設定,但要避免因過度依賴經濟指標而導致住房分配的失衡。

其次,完善算法治理責任分擔機制。相關部門應建立“技術開發—應用監管—社會監督”三維責任體系。其中,技術主體公開算法決策邏輯與數據來源,履行公開透明義務;政府部門實施算法影響評估,對涉及教育、醫療等敏感領域算法進行事前合規審查與風險分級管理[43;同時,引入第三方機構開展獨立審計,如英國數據監管辦公室對公共部門算法展開年度審查。此外,還需通過立法明確算法歧視帶來的法律責任,如美國《算法問責法案》要求企業對導致系統性歧視的算法承擔民事賠償責任,倒逼技術主體在設計階段嵌人公平性考量。

最后,培育社會層面治理參與能力。一方面,普及公眾算法素養教育,提升公民對算法決策的理解與質疑能力,例如歐盟的“數字素養行動計劃\"將算法原理納入基礎教育課程,增強公眾之于算法的認知。另一方面,鼓勵民間組織建立算法觀察平臺,對商業平臺、政府部門的算法應用進行持續性監督,形成“政府監管—市場自律—社會監督\"三角制衡結構。這種協同治理機制的本質,是將算法治理從技術精英的封閉決策轉化為多元主體的協商共治,使治理規則成為社會共識的技術化表達。

(二)健全數據治理體系,提升數據質量基底

數據質量是算法化治理推進的核心支撐。低質數據引發的治理偏差,需通過技術、制度與價值三維校準予以解決。當前治理實踐中普遍存在的“數據崇拜”,本質上是對數據復雜性的認知簡化。為此,相關主體需構建覆蓋數據全生命周期的治理體系,打破技術烏托邦的迷思。

技術層面上,建立數據質量控制的技術標準與工具集。針對數據偏見問題,差分隱私(DifferentialPrivacy)技術能夠在數據收集階段保護個體隱私、平衡樣本多樣性,通過對抗生成網絡(GANs)消除訓練數據中的隱性偏見。以招聘算法應用為例,利用“去標識化”處理方法消除性別、種族等敏感特征降低模型輸出的歧視性關聯。針對數據噪聲與過載問題,聯邦學習(FederatedLearming)技術能夠實現“數據不動模型動”,保護本地數據主權、提升數據聚合質量。

制度層面上,落實數據治理的法治化與標準化。相關部門可參照歐盟《一般數據保護條例》數據最小化、準確性與可追溯性原則,建立數據收集“負面清單\"制度,明確禁止采集與治理目標無直接關聯的生物特征、宗教信仰等敏感數據。設立獨立數據質量認證機構,對公共部門、企業機構數據治理能力進行分級評估,如澳大利亞《數據質量框架》要求政府部門定期公開數據質量報告,接受議會與公眾監督。此外,還應建立數據質量責任追溯機制,對因數據錯誤導致的治理失誤依法追究數據控制者民事或行政責任。

價值層面上,重構數據與治理的關系認知。社會現象不可以簡化為可計算的量化指標,因此治理過程中仍需保留非數據化治理手段的應用空間。尤其是面向基層社區進行的治理,工作人員要將入戶走訪與數據建模相結合,以免“唯數據論”導致治理懸浮化。同時,企業平臺要注重數據治理與人文關懷。以老年群體服務算法應用為例,平臺應當收納非結構化的用戶反饋數據,修正純數據模型中存在的理性化偏差。只有不斷推進技術賦能與制度約束融合發展,數據治理才能從“量的積累\"轉向“質的提升”,為算法化治理奠定可靠基礎。

(三)確立倫理法律框架,矯正算法技術偏向

算法偏向的系統性風險,源于技術中立性神話與倫理規制的缺失。為此,算法參與治理過程中可搭建具有顯性化特征的倫理框架與法治化路徑,將公平、透明等價值注人算法設計與應用全流程。

首先,構建多層次算法倫理規范體系。監管部門可以借鑒歐盟《可信人工智能倫理指南》提出的“人類監督”“技術魯棒性”“可解釋性\"等核心原則,建立覆蓋算法設計、訓練、部署的倫理準則。在技術研發階段,明確要求企業禁止將地域、性別等敏感特征作為決策因子;在應用階段,建立倫理審查委員會,對教育資源分配、刑事司法評估等高風險算法進行前置倫理審核。如美國法院使用COMPAS風險評估算法時,就強制要求技術方公開模型訓練數據與決策邏輯,并接受司法倫理審查。

其次,發展可解釋人工智能(XAI)技術體系,破解算法“黑箱\"困境。技術主體可通過采用決策樹圖譜、注意力機制熱力圖等可視化工具向非技術主體呈現算法決策路徑,并開發自然語言解釋模塊,使算法輸出附帶人類可理解的決策理由。同時,還可以建立算法審計標準化流程,由第三方機構對算法公平性、透明性進行量化評估。如歐盟推出的“算法透明度登記平臺”,要求高風險算法公開審計報告、接受社會監督。

最后,強化算法治理法律規制,構建“預防—救濟一問責”的全流程法律體系。在立法層面,需要明確算法設計者的主要義務,要求算法必須通過影響評估才可部署應用。在司法層面,需要確立算法歧視司法救濟渠道,充許因算法決策不利而受到影響的主體提起“算法侵權訴訟”。法國法院受理的首例算法歧視集體訴訟案,就成功倒逼企業優化推薦算法中的性別平等機制。在執法層面,賦予數據保護機構行政處罰權,對違反公平原則的算法應用實施高額罰款或強制下架。如德國聯邦數據保護辦公室對某電商平臺的歧視性定價算法處以年營業額 4% 罰款的做法,有力打擊了違反算法公正原則的行為。可見,唯有通過倫理準則的軟性約束與法律制度的強制規范,算法治理才能突破技術工具理性的局限,將社會公正價值內化于心、外化于形。

(四)明確場景適配規則,厘清公域與私域邊界

算法化治理的場景適配性問題,本質上屬于不同社會場域的治理邏輯對算法技術的選擇性吸納與改造。公共治理的程序正義需求、商業治理的效率優先導向與社會治理的多元價值訴求,共同形塑了算法應用的三重約束空間。因此,需要通過場景化規則設計,建立與治理目標相匹配的應用邊界。

在公共領域,以“權利保障”為核心制定治理規則,堅守公平、透明與可問責原則。政府作為公共權力的行使者,其主導的算法應用需嚴格遵循正當程序原則。歐盟出臺的《通用數據保護條例》對此予以明確和規定,賦予其公民對自動化決策的“解釋權\"與“拒絕權”,并要求公共部門在社會保障、教育分配等算法中公開決策模型,設立人工復核通道。如,荷蘭稅務部門在使用風險評估算法時必須向納稅人提供詳細的指標權重說明,允許納稅人對評估結果提出申訴并啟動人工審查。

在私人領域,建立風險分級與行業自治的差異化治理模式。其中,金融信貸、就業匹配等涉及重大權益的商業算法需實施嚴格的準入審查與持續監管。如中國《互聯網平臺算法推薦管理規定》要求,對用戶信用評估算法進行備案,并定期提交公平性審計報告。對于商品推薦、內容分發等一般性商業場景,則通過行業協會制定自律標準,鼓勵企業在用戶隱私保護與商業創新之間尋求平衡。如美國廣告協會發布的《算法推薦倫理指南》,倡導采用用戶可感知的偏好設置工具。

除此之外,還可構建與場景適配的動態調整機制,根據治理對象的敏感性、數據類型的風險等級、技術應用的成熟度等調整治理強度。例如,醫療診斷算法直接關乎生命健康,需實施最高等級監管,要求通過臨床驗證并備案算法參數;娛樂內容推薦算法則可保留更多市場自治空間,但需要遵守基礎的隱私保護與非歧視原則。這種場景化的治理邏輯,既堅守了公共領域的公平底線,又為私人領域的技術創新保留了彈性空間,實現了治理效能與權利保護的動態平衡。

五、結束語

數智時代,算法化治理標志著治理范式從經驗驅動向智能驅動的深度轉型。作為技術賦能與社會重構的互生物,算法化治理的興起既是技術應用的擴展,亦是治理權力結構、資源分配邏輯與社會互動模式的系統性重塑。算法化治理通過“主體一數據一算法一場景\"的四維機制,構建了穿透傳統科層制壁壘的新型治理生態。這一治理生態不僅依賴于“產消者”角色重構帶來的治理參與變革、數據要素驅動的治理邏輯轉型、算法工具介導的決策范式迭代以及場景適配催生的治理模式分化,更在技術理性與社會價值的持續張力中展現出其平衡治理效能與公平正義的動態訴求。

因此,算法化治理的有效運行,依賴于治理主體間的權責再平衡、數據質量的全周期管控、算法技術的倫理嵌人以及場景適配規則的精細化設計等多個關鍵機制和策略。這些機制與策略并非靜態規范,需要在多元主體博弈、技術創新迭代、社會需求變化中不斷調整、優化,形成“識別風險一校準規則—反饋優化”的螺旋上升體系。唯有將算法化治理視為持續演進的社會技術系統,并在動態調試中堅守治理公平性、透明性與可問責性,才能真正實現數智時代“算法向善”的治理愿景。

參考文獻:

[1] KATZENBACH C, ULBRICHT L. Algorithmic governance[J].InternetPolicyReview,2019,8(4):1-18.

[2] ZUBOFF S. The age of surveillance capitalism: The Fight fora Human Future at theNew Frontierof Power[M].NewYork:PublicAffairs,2019:300-304.

[3] GILLESPIE T. The relevance of algorithms[C]// GILLESPIE T,BOCZKOWSKI P J,FOOT K A. MediaTechnologies:EssaysonCommunication,Materiality,and Society. Cambridge,MA: MIT Press,2014: 167-195.

[4]DWORK C,HARDT M,PITASSI T,et al. Fairness throughawareness[C]//Proceedingsofthe3rdInnovations in Theoretical Computer Science Conference. Cambridge: ACM,2012: 214-226.

[5]PASQUALE F. The Black Box Society: The Secret Algorithms that Control Money and Information[M]. Cambridge: Harvard University Press,2015: 320.

[6]陳增寶,張凌寒.算法技術的法律規制:治理困境、發 展邏輯與優化路徑[J].中國應用法學,2024(4): 155-166.

[7]張吉豫.構建多元共治的算法治理體系[J].法律科學 (西北政法大學學報),2022,40(1):115-123.

[8]YEUNG K. Algorithmic regulation: A critical interrogation[J].Regulation amp;Governance,2018,12( 4): 505-523.

[9]KITCHIN R. Thinking critically about and researching algorithms[J]. Information, Communication amp; Society, 2017,20(1): 14-29.

[10]DIGNUM V. Responsibility and artificial intelligence [M]//DUBBER M D, PASQUALE F,DAS S. The Oxford Handbook of Ethics of AI. New York: Oxford University Press,2020: 213-231.

[11]周曉麗,姬曉暄.算法嵌入政府治理:邏輯、風險與 規制[J].西安交通大學學報(社會科學版),2024, 44(1): 52-61.

[12]嚴義挺.從算法治理到治理算法:大數據時代的治 理變革與算法共存[C]//中國法學會會員部.全面推 進依法治國的地方實踐(2022卷),2024:164-197.

[13]BEER D. The Data Gaze: Capitalism,Power and Perception[M]. London: SAGE,2018: 16-110.

[14]LYON D. Surveillance,Snowden,and Big Data: Capacities,consequences, critique[J]. Big Data amp; Society,2014,1(2): 1-13.

[15]COULDRY N,HEPP A.Media and the social constructionofreality[M]//ROHLINGER D A,SOBIERAJ S. The Oxford handbook of digital media sociology.New York: Oxford University Press,2022: 27-39.

[16]孟天廣,吳培琳.算法政治:算法介人國家治理的耦 合邏輯與政治效應[J].山東大學學報(哲學社會科 學版),2024(5):134-147.

[17]胡堅波.多措并舉推進我國算法治理[J].人民論 壇·學術前沿,2022(10):20-28.

[18]羅昕,許嘉馨.風險社會的媒介化治理:一個整合性 分析框架[J].大學學報(社會科學版),2024, 23(6): 5-16,63.

[19]ISSAR S,ANEESH A. What is algorithmic governance?[J].Sociology Compass, 2022,16(1): e12955.

[20]李鎵.從網絡社會到平臺社會:算法風險的媒介化 治理邏輯演進[J].蘇州大學學報(哲學社會科學 版),2024,45(3):183-192.

[21]ZARSKY T Z. The trouble with algorithmic decisions: An analysis of the new ethics of algorithms[J]. Berkeley Technology Law Journal,2016,31(3): 805-838.

[22]TOFFLER A. The Third Wave[M]. New York: Bantam Books,1980:214-403.

[23]ARNSTEIN S R. A ladder of citizen participation[J]. Journal of the American Institute of Planners, 1969, 35(4): 216-224.

[24]WACHTER S,MITTELSTADT B,FLORIDI L. Why a right to explanation of automated decision-making does not exist in the general data protection regulation[J]. Intermational Data Privacy Law, 2017, 7(2) : 76-99.

[25]KOOIMAN J. Governing as governance[M]. London: Sage,2003: 96-112.

[26]SUNSTEIN CR. Republic: Divided Democracy in the Age of Social Media[M]. Princeton: Princeton University Press,2018: 253-258.

[27]SUN Y,WANG W Y. Governing with health code: Standardising China's data network systems during COVID-19[J]. Policy amp; Intemet,2022,14(3): 673-689.

[28]KoNIG P D. Dissecting the algorithmic leviathan: On the socio-political anatomy of algorithmic governance[J]. Philosophy amp; Technology,2020,33(3): 467-485.

[29]DAVENPORT T H, PRUSAK L. Working Knowledge: How Organizations Manage What They Know [M]. New York: Harvard Business Press,1998: 107-162.

[30]DANAHER J, HOGAN M J, NOONE C,et al. Algorithmic governance: Developing a research agenda through the power of collective intelligence[J]. Big Data amp; Society,2017,4(2): 1-21.

[31]MITTELSTADT B D, ALLO P, TADDEO M, et al. Data amp; Society,2016,3(2): 1-21.

[32]FRIEDMAN B,KAHN P H, BORNING A. Value Sensitive Design and Information Systems[M]// DOORN N, SCHUURBIERS D, POEL I V D, et al. Early Engagement and New Technologies: Opening up the Laboratory.Dordrecht: Springer,20l3: 55-95.

[33]FOURCADE M, HEALY K. Categories all the way down[J].Historical Social Research,2017,42(1): 286-296.

[34]GRITSENKO D,WOOD M. Algorithmic governance:A modes of governance approach[J]. Regulation amp; Governance, 2022,16(1): 45-62.

[35]GIGERENZER G,GRAY JM. Better Doctors,Better Patients,Better Decisions:Envisioning Healthcare 2020[M]. Cambridge,MA: MIT Press,2011: 29-153.

[36]BONNEFON J F, SHARIFF A,RAHWAN I. The social dilemma of autonomous vehicles[J]. Science, 2016,352(6293): 1 573-1 576.

[37]THALER R H, SUNSTEIN C R. Nudge: Improving Decisions about Health,Wealth,and Happiness[M]. NewHaven:Yale University Press,2008:584.

[38]PARISER E. The Filter Bubble: What the Internet Is Hiding from You[M].London:Penguin Press, 2011:14-55.

[39]BAROCAS S, SELBST A D. Big data's disparate impact[J].California Law Review,2016,104(1): 671-729.

[40]ROSENBLAT A. Uberland: How Algorithms Are Rewriting the Rules of Work[M]. Berkeley: University of Califormia Press,2018: 107-138.

[41]DUPONT Q. Experiments in Algorithmic Governance: A History and Ethnography of“The DAO\",a Failed Decentralized Autonomous Organization[M]. Routledge: Bitcoin and Beyond, 2017: 171.

[42]BOULIANNE S. Social media use and participation: A meta-analysis of current research[J]. Information, Communicationamp; Society,2015,18(5): 524-538.

[43]LEE MK, KUSBIT D, KAHNG A, et al. WeBuildAI: Participatory framework for algorithmic governance [J].Proceedings of the ACM on human-computer interaction,2019,3(CSCW): 1-35.

主站蜘蛛池模板: 国产精品欧美在线观看| 国产精品视频a| 重口调教一区二区视频| 久久91精品牛牛| 在线看AV天堂| aa级毛片毛片免费观看久| 欧美成人午夜视频| 九色免费视频| 无码中文字幕精品推荐| 国模在线视频一区二区三区| 国产在线观看精品| 欧美日韩在线成人| 97视频免费在线观看| 久久精品国产精品国产一区| 国产爽妇精品| 天天综合网亚洲网站| 最新国产高清在线| 精品国产免费人成在线观看| 美女被躁出白浆视频播放| 成年网址网站在线观看| 国产丝袜啪啪| 欧美性天天| 58av国产精品| 91成人免费观看在线观看| 丰满人妻被猛烈进入无码| 亚洲大尺码专区影院| 国产99热| 亚洲大尺码专区影院| 久久不卡国产精品无码| 欧美高清国产| 亚洲精品无码不卡在线播放| 精品福利网| 九色在线观看视频| 中国一级特黄大片在线观看| 一级成人a做片免费| 亚洲美女视频一区| 国产乱子精品一区二区在线观看| 国产一级片网址| 国产一级二级在线观看| 精品国产黑色丝袜高跟鞋| 中国丰满人妻无码束缚啪啪| 国产又黄又硬又粗| 日韩成人午夜| 国产成人亚洲精品色欲AV| 亚洲免费福利视频| 欧美福利在线播放| 国产成人综合日韩精品无码不卡| 国产国语一级毛片| 波多野结衣第一页| 亚洲一区国色天香| 国产免费怡红院视频| 一本大道东京热无码av| 国产日韩精品欧美一区喷| 国产欧美日韩另类精彩视频| 精品国产欧美精品v| 免费播放毛片| 国产亚洲欧美日韩在线一区二区三区| 丰满人妻中出白浆| 国产成人综合在线观看| 日韩欧美中文字幕在线韩免费| 国产视频a| 天堂岛国av无码免费无禁网站| 无码粉嫩虎白一线天在线观看| 二级特黄绝大片免费视频大片| 在线看片中文字幕| 国产主播一区二区三区| 五月天婷婷网亚洲综合在线| 欧美一区国产| 亚洲欧洲综合| 都市激情亚洲综合久久| 美女一区二区在线观看| 最新国语自产精品视频在| 欧美在线三级| 九九免费观看全部免费视频| 不卡无码h在线观看| 国产黑丝视频在线观看| 露脸国产精品自产在线播| 无码专区在线观看| 欧美成人午夜影院| 久久人午夜亚洲精品无码区| 亚洲美女一区| 久久亚洲中文字幕精品一区|