課題:研究闡釋黨的二十屆三中全會精神國家社科基金重大專項“推進新聞宣傳與網絡輿論一體化管理研究”(編號:24ZDA084)
DOI:10.3969/j.issn.2095-0330.2025.07.006
2024年11月12日,中央網信辦秘書局聯合多部門發布《關于開展“清朗·網絡平臺算法典型問題治理”專項行動的通知》(以下簡稱《通知》),將算法濫用引發的認知操控與權益侵害等問題推向公共議程的前沿。當前,智能算法(Intelligentalgorithms)及其治理已成為一項全球性的熱點議題。然而,當“個性化推薦”“信息繭房”成為公共話語的靶點時,算法通過何種技術手段生產“個性化”的邏輯卻被懸置,使得大量算法批判淪為現象層面的道德聲討。基于此,本文試圖透過“算法批判”的表層敘事,從技術所造成的倫理后果轉向其發生邏輯本身,追問兩個核心問題:第一,當算法宣稱“比你更懂你”時,它究竟在何種意義上實現了“懂”?第二,算法如何通過其內在邏輯重塑我們定義自我、參與社會以及理解世界的方式?
一、“分類”作為智能算法的底層邏輯
2012年8月,以“你關心的,才是頭條”作為口號的“今日頭條”正式上線。作為新聞客戶端,它沒有文字編輯,最初的100多位員工基本都是技術人員。按照創始人兼CEO張一鳴的描述,“今日頭條用算法理解人性”,讓“內容找人”取代“人找內容”是頭條算法的終極追求。至此,以“個性化”“精準化”為標志的智能算法強勢進入中國互聯網和普羅大眾的日常生活。然而,當“用算法理解人性”成為平臺追求時,它實際上掩蓋了一些更為深層的問題:算法如何“理解”人性?又如何定義“理解”?
(一)物以類聚:技術延展的基礎規則
算法研究長期困囿于認識論的二元割裂:技術專家關注算法的工程實現,強調效率與精準性;社會學者批判其權力效應,關注算法如何重塑社會關系。若批判一端,研究便似乎不可避免地滑向另一端。要么只關注數據輸入、模型訓練與結果輸出,將“理解”這一充滿人性復雜性的概念簡化為由點擊、停留、轉發量化的行為數據;要么完全忽視技術實現的細節,使“理解”成為既不可見又無處不在的認知霸權。悖謬的是,二者對算法“理解”之理解始終缺乏對其生成機制的追問,即數據化過程如何將社會關系轉化為可計算對象,進而將算法認知塑造為一種兼具技術合法性與社會規范性的權力裝置。在此語境下,“算法如何理解人性”或許應被重構為一個元問題(meta-question),即“算法如何理解數據”。數據(data)是算法認知的邊界與起點,算法無法超越數據的限制,它只能看到數據允許它看到的世界,并在此基礎上展開訓練與推理。因此,當算法以數據為依據進行“理解”時,其認知行為的核心便不再是抽象的人性解析,而是針對數據展開的“識別”。
“分類”(classification)是人類識別客觀世界的基本方法。人在經驗地面對客觀世界時,注意點不外乎兩個:“相似”與“相異”。①原始人通過辨識漿果的顏色,劃出“可食”與“有毒”的生存與死亡的界限。注意心理學事實上就是意識中模糊的分類法,它幫助人類避開危險、延續生命。②直至古希臘時期,亞里士多德通過“屬”與“種”的邏輯劃分首次將分類思想系統化。③埃米爾·涂爾干(EmileDurkheim)與馬塞爾·莫斯(MarcelMauss)在《原始分類》一書中對“分類”作了如下定義:“所謂分類,是指人們把事物、事件以及有關世界的事實劃分成類和種,使之各有歸屬,并確定它們的包含關系或排斥關系的過程。”④可見,分類本質上是人類為混沌世界賦予秩序的基本認知手段。
21世紀的信息科學正在經歷一場認知范式的結構性轉型。無論是科學實踐還是日常生活,都很難擺脫大數據的想象與“數據泛濫”的持續威脅,這一矛盾并非數字時代獨有。早在18世紀中葉,殖民擴張帶來的植物標本激增引發生物學的首次“數據危機”,傳統手稿系統因難以應對海量的記錄與檢索而瀕臨崩潰。瑞典生物學家卡爾·馮·林奈(CarlvonLinné)以分類思想創設“紙條系統”(paperslipsystem),將具有不同物種特征的植物拆分為獨立單元。研究者可根據需要,快速找到特定特征的紙條,該系統也被視為現代數據庫索引技術的雛形。③從林奈的分類實踐開始,分類學(Taxonomy)發生了根本性的轉變,逐漸成為一種正式、系統化的信息科學,具備標準化的分類規則和方法,并廣泛應用于科學研究和數據管理。③隨著信息技術的不斷發展,分類已經成為理解和組織龐大數據世界的基礎規則,推動著生命科學、計算科學乃至認知科學的進步與發展。
(二)人以群分:“共性化算法”的技術遞演
當前,人類面臨的數據難題依舊是林奈式的?;ヂ摼W數據中心發布的《數據時代2025》報告預測,全球每年產生的數據從2018年的33ZB增長到2025年的175ZB( 1ZB=1.1 萬億GB),規模早已超出人力處理的極限。于是,智能算法作為現代化的分類機制應運而生,它通過機器學習自動提取潛在特征模式,實現了分類能力的自主進化。由于監督學習的方法有差異,機器學習主要分為判別式(discriminative)和生成式(generative)兩種模型。前者是對條件概率建模,學習不同類別之間的最優邊界,智能推薦算法即屬此類;后者通過聯合概率預測類別,生成對抗網絡(GenerativeAdversarialNetworks,GAN)的出現使其可生成文本、圖像等內容,學界將其定義為生成式人工智能(Generative Artificial Intelligence,GAI)。就技術分類的角度而言,本文所討論的智能算法并不泛指一切自動化系統,而是指主要基于判別式模型、嵌入平臺運行邏輯的“推薦型算法”。此處可列舉幾類經典的智能推薦算法來展示其如何突破傳統分類的局限性。(1)協同過濾算法,通過識別用戶或物品的相似性實現基于行為模式的群體分類。(2)基于內容的推薦算法,依據物品特征將相似內容歸入相似類別,并將同類內容推薦給對同類物品感興趣的用戶。(3)基于標簽的推薦算法,通過標簽共現關系構建語義網絡,將用戶標記的興趣內容歸類,并推薦擁有相似標簽的其他項目。(4)基于社交網絡的推薦算法,依據社交關系對用戶進行動態分類,識別信任與興趣群體,實現定向推送。(5)基于上下文信息的推薦算法,通過捕捉用戶所處的實時場景(如時間、地點、設備等)對推薦內容進行分類與適配。
近年來,隨著深度學習等現代技術的廣泛應用,智能算法的“智能性”正在進一步增強。①深度學習的核心在于多層神經網絡結構,其數學原理本質上是通過非線性映射對數據空間進行高效劃分,從而捕捉復雜的模式,實現更高層次的智能化分類。①③基于深度學習的智能算法能夠根據用戶的多種行為數據,在隱式語義空間中構建動態演化的分類體系。④在信息科學中,語義(semantics)指代數據背后隱含的意義與關聯性。③部分經典推薦算法(如基于內容的推薦算法)依賴顯性語義標簽,其語義邊界由人類專家預先定義;而深度學習技術通過神經協同過濾、深度特征提取、語義建模等方法,能夠從用戶的多維行為數據(如點擊頻率、停留時長、交互深度等)中自動學習隱式語義關系,生成動態分類簇??。2018年圖靈獎獲得者之一的人工智能專家約書亞·本吉奧(YoshuaBengio)與其合作者在論文中寫道:“人工智能必須根本性地理解我們周圍的世界,我們認為只有當它能夠學會識別和解開隱藏在低級感官數據中的潛在解釋因素時,才能實現這一目標?!盄正是這種近乎“人性化”的智能表現,甚至讓人們時常忘記人工智能的本質只是基于分類的概率運算。前沿研究表明,即使是基于Transformer(一種用于處理序列數據的深度學習模型,由谷歌團隊于2017年發布)的推薦系統,其注意力機制本質上仍在執行動態的、基于上下文的分類操作。
與傳統分類過程類似,算法分類面臨的核心問題之一仍是識別“數據的基本特點”,即找出能準確區分不同類別的數據特征,確保同一類別內部要素的相似性顯著高于不同類別之間的相似性。在技術本質上,算法將群組作為分析單位,并對不同群組作同質化處理。即使群組和個人存在差異,算法也認為這些差異無法人為加以控制,在決策時也應當將這些差異因素排除出去。這樣能夠抵消冗余的編程,減少算法設計和運行的成本。②因此,算法的“個性化”實際上是通過分析大量用戶行為和內容特征的相似性,挖掘數據中的共性特征和普遍規律,并將這些規律精準地映射到個體用戶的需求上,實現“千人千面”的推送效果。在這一邏輯下,所謂更懂你的算法認知,并不真正了解“你”作為行為人本身或者了解“你”所觀看的內容,而是根據“和你相似的人群”的喜好,建立用戶行為與內容特征之間的數學統計關聯,用大多數人的“共性”來服務每個人的“個性”。“共性”與“個性”在算法系統中并不彼此對立,反而在技術主導下呈現一種彼此嵌套的關聯性?!肮残浴弊鳛樗惴ㄗR別與歸類的基本單位,被用來塑造算法對“個性”的理解,但此種理解建立在對行為的相似性歸納之上,而非對個體差異性的尊重上。人們原本設想的“個性化算法”(personalizedalgorithm),實際上是一種以分類命名世界、以相似性替代復雜性的共性化技術,個性化因此淪為“共性化算法”(generalizedalgorithm)的欺騙性表征。
二、分類即秩序:算法作為數字社會的制序機制
克洛德·列維-斯特勞斯(ClaudeLevi-Strauss)曾言:“分類是通向理性秩序的第一步?!雹芙浻缮鐣诸愐约皩⒔缦薜挠庠揭曌鹘傻闹贫龋藗兣c事物各有所屬、各安其分,于是社會就有了“秩序”。因此,分類不僅是對世界的認知工具,更是對世界的“制序”實踐。③然而,在信息繭房的自我強化、算法偏見所引發的系統性排斥等一系列社會后果的沖擊下,智能算法“技術化制序”的合法性正面臨根本性挑戰。值得關注的是,部分批判論調基于一個有待商榷的預設,即前算法時代的信息獲取模式具有更高程度的認知自由與自主性,但這種預設本身值得審慎檢視。事實上,當我們審視“算法是否制造了新混亂”時,必須同時追問“它解決了何種更棘手的舊混亂”或者說“它開啟了何種更具可能性的新秩序”。
(一)信息繭房的再審視
長久以來,信息繭房作為一個常識性但未被學界證實的“似是而非”的概念,常常與智能推薦算法的負面性糾結在一起。直至2023年,清華大學的研究團隊在Nature子刊(NatureMachineIntelligence)發表研究成果,深入探討了信息繭房的涌現機制。他們發現,在基于相似性匹配生成算法的有效力場作用下,信息主題逐漸從多樣化狀態演變為信息繭房狀態,這一相變的特征是信息熵(informationentropy)的下降。?信息熵是信息論中用于度量信息量的一個概念。一個系統越是有序,信息熵就越低;反之,一個系統越是混亂,信息熵就越高。在信息論的視角下,信息熵的降低是信息優化的勝利,人類得以在數據洪流中快速錨定目標信息,而這也正是數字互聯網的來時之路。
1990年,蒂姆·伯納斯-李(Tim Berners-Lee)提出的萬維網(WorldWideWeb,WWW)設想了一個通過超鏈接關聯的非線性信息空間。但是,在技術實現的早期階段,這種理念并未完全轉化為用戶友好的實踐。1993年,互聯網歷史上第一個能夠顯示圖片的網頁瀏覽器NCSA Mosaic問世時,用戶仍需通過目錄索引或手動輸入IP訪問,個體被迫成為自己數字生活的“檔案管理員”。到1996年,全球網站數量突破10萬,用戶迫切需要一種高效的信息導航工具。比較著名的是雅虎提供的樹狀分層目錄搜索體系,用戶根據需要選擇對應的分類目錄,層層點擊,找到自己需要的最小分類目錄并瀏覽對應的網頁結果。在信息激增與用戶需求的雙重驅動下,以谷歌、百度為代表的搜索引擎通過自然語言處理與信息檢索技術,實現了對海量信息的高效篩選與精準匹配。其中,谷歌于1996年推出的PageRank(網頁排名)算法將超鏈接等自然傳播路徑轉化為權重參數,確立了以算法評估為核心的信息優先級體系,標志著信息秩序的生成從人工預設的規則體系轉向以技術為主導的量化評估模式。盡管如此,PageRank仍受限于鏈接關系,缺乏對語義與用戶動態行為的理解。20世紀末,機器學習技術的成熟推動了智能算法的發展,使其逐步形成獨立于傳統搜索引擎的信息制序系統。
憑借遠超人類算力的分類能力,智能算法得以在信息過載的數字社會中重建高效的內容分發秩序,實現了“讓內容找人”。它擁有一套“自反性”(reflexivity)的進化機制:用戶與推薦系統的每次交互都會被持續轉化為訓練數據,使推薦結果的信息熵值呈現收斂趨勢。字節跳動工程師曾對兩組各78萬名用戶進行算法改進的對比實驗,結果顯示,優化后的算法顯著提升了用戶閱讀效率。實驗組用戶平均多閱讀0.5篇文章,其中0.4篇來自深度閱讀行為,同時平均閱讀時長多20多秒。①這次實驗僅用2,000多行代碼就成功驗證了算法調整在降低用戶信息篩選成本方面的作用,展現了智能算法在信息熵減方面的突破性價值。然而,隨著算法的持續進化與迭代,用戶的每一次點擊、停留或跳過行為都會動態調整分類維度的權重分布,最終用戶被鎖定在特定的語義空間內,信息獲取的閉環形成。當前,數字平臺用越來越精準的推薦算法幫我們過濾信息,卻也讓很多人被困在了信息繭房里。長期生活在山洞里的人會把墻上的影子當作真實世界,長期處于算法構建的封閉時空的人,亦容易誤將繭房內的局部秩序當作世界真相。信息繭房的形成既是分類效率最大化的必然結果,也是算法制序過程中未被充分反思的認知代價。
(二)“有序”的數字關系
隨著算法對信息世界的掌控程度的不斷加深,以及其逐漸構建起的認知路徑依賴,算法的分類邏輯不可避免地向更具能動性的社會關系領域滲透。這一轉向的必然性在于“分類作為人類組織經驗的核心機制,始終兼具分化與整合的雙重功能”。此機制的內在邏輯,正如涂爾干所描述的,社會組織“自然而然地會在它所處的空間中擴展自身…為了避免發生沖突,社會必須為每個特定群體指定一部分空間”③。在此過程中,分類不僅劃定了群體之間的差異和關系,也創造了群體認同與社會統一的現實。這種“群體一社會”的同構性揭示了一個根本事實:分類既是差異的制造者,也是連接的締造者。
早期互聯網為人們勾勒出了一幅技術烏托邦的理想圖景,如信息自由流動與個體平等參與,卻用技術中立的假設遮蔽了分類機制的社會功能,使其在塑造社會關系中的作用顯得模糊而微弱。最早的公共在線社區(如BBS、USENET)以主題或主題層次結構為基礎③,主要通過共同興趣或話題將用戶聚集在一起。相比之下,社交網站(socialnetworksites)的出現催生了“以自我為中心”的分類結構,每個個體都處于自己社交網絡的中心位置,以個人為基點向外擴張網絡。在算法尚未深度介入社交領域時,這種結構雖初步形成,但仍缺乏系統性擴展的動力。人們通常自覺或不自覺地依據國籍、年齡、教育水平等傳統的社會分類標準聚集,形成相對封閉的交往圈層。③2006年,Facebook推出了著名的EdgeRank(邊際排名)算法,以用戶行為數據為基礎,通過“親密度”(affinity)、“權重”(weight)與“時間衰減”(timedecay)三個核心要素對信息進行排序和分發。③即便在現實世界素未謀面的陌生人,也能因數據層面的高頻互動被定義為“親密關聯者”。由此,“關系”這一原本基于情感與信任的社會紐帶被數據分類的算法實踐所量化,并被精準地嵌入數字空間的秩序中。
盡管Facebook后來逐漸用更復雜的機器學習模型,如NewsFeed(信息流)算法,取代了EdgeRank,但其分類與排序邏輯為數字關系的智能化重塑奠定了重要基礎。互聯網的網絡基礎設施本身即具備追蹤用戶在不同網站和服務器之間活動軌跡的技術能力,這種跨平臺的數據積累直接催生了一種依托數學模型與算法分類而形成的“新型算法身份”。與傳統社會依靠生理或社會屬性通過直接觀察獲取個體數據不同,智能算法能基于統計學意義上的數據通用性模型,以自動化方式推斷與界定個體的人口學特征、興趣偏好及互動模式。③在此基礎上,智能算法將原本離散而松散的個人數據重組為清晰的關系網絡,進而明確個體在數字社交場域中的“位置”“身份”以及與他人的連接路徑。具體而言,算法會將擁有相似特征的個體歸為同類,依此推薦內容并且劃分“圈子”,而這種“同類歸組”的行為本質上就是對社交關系的再分類和再生產。通過不斷調整個體與群體之間的數據關聯,算法在“差異性”與“同一性”的張力中尋找平衡,使數字社會得以在高度流動的狀態下建立起穩定的社交秩序。一方面,它依托數據的差異性區分,建立并強化了群體之間的邊界,避免了混亂與沖突;另一方面,它在差異性基礎上構建起了“類聚群分”的結構化面貌,使人們在數字社會中獲得了如實體社會般的持久連接。
(三)算法的“分類治理術”
無論古今,求治去亂始終是思想家們關注的終極議題,現代治理體系的發展歷程大抵也是沿著“秩序”這條主脈而鋪開的。在數字化時代,這種秩序的生產尤其體現在數據的治理邏輯之中。原初的數據呈現為無序、復雜而海量的狀態,而國家治理的核心在于通過數據的分類與整合,實現特定的秩序化目標。換言之,治理實踐本身就隱含著數據的結構化和秩序化傾向,其結果是將無序的信息轉化為可計算、可預測且便于治理的有序對象,從而建立一種以大數據和算法技術為媒介的新型秩序。根據它的基本特征,藍江將其稱為數字時代的治理模式,即算法治理(algorithmicgovernmentality)。④
這種“分類治理”的思想古已有之。涂爾干和莫斯在《原始分類·中國篇》中指出:“早在我們紀元的最初幾個世紀,它(中國分類體系)就已經發展成熟了。”荀子認為,“兼足天下之道在明分”,“明分”就是“制禮義以分之”,即依據名分來分職合群、配置社會資源,實現各得其位、各守其分、各安其責的理想社會。進入數字時代,智能算法開始取代傳統禮義,成為賦予個體社會位置與角色的新型分類機制。它以數據生成的風險評級為基礎,通過對個體行為模式的持續跟蹤、記錄、分析與評級,形成了精準的“分類治理術”。個體不再以具象的公民身份出現,而被轉化為如金融領域的“優質用戶、高風險用戶”等分類標識,算法以此來確定個體社會流動的界限、社會互動的范圍與社會資源的差異化配置。在此過程中,算法不僅避免了科層系統的信息損耗,更通過分類的技術邏輯,使治理對象從個體化的“公民”轉變為數據化的“治理單元”,國家得以借助龐大的數據網絡精準識別社會行為,重構現代治理的運作邏輯。這一過程不可避免地伴隨著個體隱私邊界的消解和政治控制的強化,但正如郭小安與趙海明指出的,數字化監視并非必然意味著權力對個體的奴役或壓制,相反,它可以成為一種特殊的治理資源。在技術理性所建構的秩序化架構中,人們能夠明確自身的權責與行動邊界,并在算法預設的分類秩序中主動或被動地調整自身行為,以更高的效率回應現代社會對于安全與秩序的普遍需求。因此,技術的秩序中蘊含著國家對社會治理的期待,即運用算法規訓個體生活,也在這種規訓中保障著共同體和國家的“安全”和“穩定”。
三、分類即“暴力”:智能算法的“共性化取代”
正如我們所見,互聯網在歷史中從未簡單地朝向解放或壓制的單一方向,而是在秩序與混亂的博弈中螺旋前進。我們需要一種更具歷史感與辯證意識的視角,明確算法如何在優化社會秩序的同時生產并固化了新的權力結構。遵循著“物以類聚,人以群分”的基礎邏輯,智能算法將復雜的社會關系、個體行為與差異化訴求轉化為可計算的共性特征,從而實現對不確定性的精確控制。只有深入理解技術分類邏輯中的深層次暴力,才能超越簡單的道德譴責或技術烏托邦式的樂觀想象,為構建更具開放性與包容性的未來提供思想基礎與實踐可能。
(一)誰在定義“群”的邊界?
20世紀80年代,社會學家皮埃爾·布爾迪厄(PierreBourdieu)在法蘭西學院以“普通社會學”為題開設的系列課程中,詳細論述了分類作為一種社會斗爭的運作機制。在他看來,世界的命名與分類是一種關涉權力與利益分配的社會實踐。這種實踐不僅形塑著社會行動者對于現實世界的感知與理解,更通過不斷界定社會成員之間的關系與等級,決定著個體或群體在社會中的位置。在此過程中,掌握著分類權力的主體,必然同時掌握著界定群體邊界的力量:決定何者屬于群體,何者被排除在群體之外。因此,要深入把握智能算法的分類邏輯及可能形成的結構性暴力,必須追“群”之概念的形成機制,及其所嵌套的歷史脈絡與文化基礎。
可以明確的一點是,“群”得以成為可能的根本在于“分”。此處的“分”有兩層含義:一是“名分”,即布爾迪厄所說的“命名”,“名”是分類的結果與表征,不同的分類須被賦予不同的名稱,以使其名實相副;二是“定分”,即本文意義上的“分類”,通過劃定明確的社會邊界,將個體與群體之間的關系結構化,使社會角色得以界定、職責得以明確?!懊帧蓖ㄟ^對符號的賦予使分類結果清晰可見,“定分”則通過確立分類的邊界與標準,使之成為治理實踐與社會互動的規范依據。這種制度化的“分”之邏輯將“群”的生成建立在“正當分類”的基礎之上,既抑制了“非分之爭”,也賦予了“分內之責”。換言之,只有當分類具有明確且合法的界定標準時,“群”的構建才可能真正實現社會整合與秩序再生產。
中國歷史上曾由圣王“明職定分”,并生成過一套定分止爭的禮制秩序。表現為“士農工商、君臣父子”,一個“貴賤有等、親疏有分、長幼有序”的等差社會得以形成。圣王之所以能勝任這項職責,在于他具備“至強、至辨、至明”的超凡屬性,能創造具有公共正當性的社會分類體系。在這一背景下,分類作為治理工具的合法性得以延續至今,成為理解當代算法分類權力的重要文化參照。及至工業革命,社會分類的權力逐漸轉移至以工業邏輯為主導的生產秩序之中。工業化生產以效率最大化為自標,依賴勞動的高度分化與流程的標準化,使個體不再因相似性而聚合,而是因差異化職能而形成具有高度依賴性的有機整體。在這一體系中,人的社會角色被壓縮為最小的、可控的功能單位,主體性被稀釋,差異性被抹平,取而代之的是“標準化的人”的新型群體結構。因此,“共性化算法”并非這個時代的獨創,而是工業革命以來技術理性持續推進的必然結果。福特的生產流水線要求工人“無須思考,只須重復”;算法時代的“數字勞工”們則在“自主創造”的假象中,將日常社交、消費與娛樂行為轉化為數據生產的重復勞動,每一次點贊、轉發和評論,都在無意識地生產著數字資本主義所需的流量和數據資產。
不同的是,工業社會的核心目標是建立一種穩定、均質且可控的勞動分配體系。它以工種、技能、時間分配等客觀可見的指標為參照,將個體納入由生產流程預設的“群”中,保留了制度上的清晰性與技術上的可解釋性。這種分類體系在本質上是“互斥”的,即每一個個體都應被明確歸入某一類別中,而不應同時屬于多個相互矛盾的類別,這種邏輯支撐了工業社會對“分類合理性”的基本信任與秩序想象。但是,算法的分類標準并不建立在外顯、可驗證的客觀指標之上,而是依賴于平臺內部的數據結構、模型參數與優化目標,其邏輯在技術層面高度封閉,在社會層面又極具可塑性。同一用戶在不同時間、平臺和行為路徑下,可能被歸入完全不同甚至互相沖突的“群”中。當“群”的邊界隨著數據流動、商業博弈與治理目標的變動而持續變化時,個體將難以認知自身在系統中的位置,更無法對抗由此帶來的信息繭房(認知歧視)、大數據殺熟(價格歧視)、平臺剝削(勞動歧視)等系統性不正義。
(二)可計算的“公共性”
對事物進行分類,絕不僅指歸類,還意味著將這些類別根據特定關系加以安排。因此,“群”的形成與邊界的劃定是一種關涉社會秩序建構的深層政治實踐,承載著等級、從屬與優劣等政治含義。③正如布爾迪厄指出的,社會空間的劃分本質上是一種象征斗爭(symbolicstruggle),掌握分類權力者擁有“命名世界的能力”,能夠通過構建合法的分類體系,使某些人群“被認定為某類人”,進而“有權利被看見、有權利發言、有資格進入公共領域”。③傳統意義上的“公共性”(publicness)并不意味著無邊界的自由空間,而是在一定社會結構中通過分類、命名、可見性分配而構建。古希臘城邦中供市民自由辯論的廣場,實際上只對被界定為“公民”的群體開放,而奴隸、女性、異族被排除在“公共領域”之外。
互聯網曾一度成為顛覆等級制度與建構公共理性的希望。然而,個體在數字空間中的能動性高度依賴于媒介近用、媒介素養、傳播能力等一系列新的社會資源。真正的“去分類化”從未發生,算法只是換了一種更隱蔽的方式延續舊有秩序。尤其是在進入以算法為主導的平臺社會后,互聯網逐漸擺脫了對傳統社會劃分方式如身份、階級等外在標識的顯性依賴,轉而構建起一套高度數據化的新型分類邏輯。平臺會根據用戶所能吸引的流量與注意力資源,將他們分配到不同的“可見性等級”中。對此,黃月琴與章沫嘉提出“可見性資本”(visibilitycapital)概念以揭示平臺算法如何將用戶或內容的曝光程度轉化為新的權力資源,并以此重構平臺的分類機制?!翱梢娦再Y本”完全建立在用戶行為數據的生產、積累與轉化之上,用戶每一次點贊、轉發、評論行為,都會被算法實時記錄、量化與分類,算法據此調控用戶“被看見”的概率與強度。③
正是基于對“可見性資本”的精確計算與差異化分配,算法重塑了“公共性”的判別標準。借用盧梭對“公共性”的經典定義,他強調的“公意”是一種植根于共同體契約的普遍意志,代表著理性、正義與對公共利益的共同維護。@③然而,平臺根據“可見性資本”的分布配置注意力資源,將本應面向所有社會成員的公共表達轉化為少數流量優勝者的市場表演。某一事件能否成為公共議題,更多取決于情緒驅動下的共性偏好,而非政治意義上的公共判斷。這使得公共輿論場發生了三類顯著變化。(1)原本具備公共價值但流量表現欠佳的議題或群體被算法邊緣化,而某些高頻互動群體的言論會被算法主動放大,成為“主流意見”。(2)用戶只有不斷迎合算法計算的共性偏好,才能獲得更多的可見性資本,結果是用戶表達趨于一致、差異性萎縮。(3)輿論場逐漸轉向情緒化、爭議化、戲劇化等易于吸引流量的方向,忽視了公共協商與理性討論的價值底線。在此意義上,“公共性”不再指涉一個向上凝聚、向外拓展的開放過程,反而容易被簡化為一種消費性、市場化的輿論景觀,在被歸類、被區隔、被變現的過程中喪失了其應有的政治張力,也失去了生成社會共識與激發公共理性的根本可能。
(三)技術的“歷史鎖定”
傳統分類體系立足于理性主義的方法論假設,即世界具有可認知的總體秩序,可以通過演繹邏輯加以揭示與組織。然而,在技術理性主導的數字語境中,這種演繹式的、由上而下的認知范式正被智能算法的歸納邏輯取代。它不再訴諸概念、原則、規范的判斷,轉而從用戶的歷史數據中提取模型;通過大量的個體行為軌跡,推演出可預測的偏好與特征,并據此不斷優化分類標準。技術邏輯由此帶來了一種“歷史鎖定”機制,使我們對世界的判斷逐漸脫離對未來的開放探索,被錨定于既有數據所描繪的有限秩序之中。
伊萊·帕里澤(EliPariser)所說的“身份級聯”(identitycascade),正是算法歸納的一種極端形式。算法會將一個偶然的點擊行為視為穩定興趣的信號,并持續推送相似內容,促使用戶不斷重復這一行為,最終陷入一種由算法建構的“自我”之中。算法并不直接告訴用戶“什么是男性”或“什么是女性”,而是通過持續推送與既定標簽相匹配的內容與商品,將用戶嵌入某個性別群體之中。③嚴格意義上而言,從“部分”到“整體”的歸納法本質上是一種概率假設而非科學真理。進一步說,當分類標準建立在對“已知”的歸納之上,未來的知識邊界便被歷史數據所限定。科學哲學家卡爾·波普爾(KarlPopper)強調,科學的核心不在于驗證已有結論的正確性,而在于提出可以被反例駁倒的命題,“科學的目的是推進人們無法找到任何反例的最大主張”③。但是,今日的算法并沒有建立在這種謙卑的基礎上,它們并不致力于證偽,而僅關心模式的強化與自我驗證。在“算無遺策”的治理邏輯下,知識失去了生長的張力,治理喪失了容納例外的彈性,社會也逐漸被導入一種計算先行、質疑失效的技術理性秩序中。
四、分類即“正義”:算法正義的制度性重構
目前,算法已通過其強大的分類能力,在行政治理、公共輿論、社會生活等多個領域獲得了事實權力;而這種權力一旦缺乏外部制度監督,便可能強化偏見、制造歧視,侵蝕公共正義。在這一意義上,“分類”成了決定正義分配的結構性機制。重建算法正義的關鍵,在于將“分類”作為算法治理的核心環節,從增強機制設計的容錯性到促進權力運行的公共化再到提升治理手段的他律性,逐步推動分類實踐從封閉的技術操作轉向可質疑、可協商、可問責的制度化過程。
(一)分類機制的“容錯性”
智能算法通常以效率優先為設計準則,特別在數據預處理階段,系統會依據預設特征邊界將數據快速分類,將偏離常規的數據視為干擾噪聲予以剔除。此舉雖極大提升了系統識別與決策的效率,使算法能在龐大的數據中迅速提取出最符合“主流偏好”的規律和趨勢,卻也在無形中確立了一套關于“何者應被優先處理”的價值標準。在信息層面上表現為強化既有偏好、限制用戶接觸異質觀點,在制度層面上則演化為一種“誰被看見、信任與接納”的社會排序機制。個體的“可分類性”逐漸成為獲取資源與機會的前提,未被歸類或誤歸類者則易被邊緣化,陷入治理盲區,進一步加劇社會偏見與群體排斥。
“人”作為具有反思能力的行動主體,始終處于開放與生成之中,體現著在社會實踐中通過試錯不斷實現自我更新的過程性特征。然而,算法的分類機制以效率為圭桌,將過去的行為軌跡視作未來判斷的先驗依據,遮蔽了人的可變性與成長性—從根本上否定了人在倫理意義上“可以犯錯”的權利。因此,“容錯性”應成為算法分類機制不可或缺的價值前提。所謂容錯(tolerant),并非指降低算法系統的性能標準,而指在保證一定效率的同時,給復雜性以空間、給例外以可能。“信息繭房”的提出者,美國哈佛大學法學院教授凱斯·R.桑斯坦(CassR.Sunstein)近年倡導一種“偶然發現架構”(architectureofserendipity),試圖通過設計機制性的“認知擾動”打破信息傳播的同質化循環③,使那些未被主流邏輯覆蓋的內容與個體,仍能進入公眾視野,獲得響應,激發新的意義生產。此舉的核心不在于反對分類,而在于為分類邏輯引入制度性的“容錯機制”。當“被歸類”不再是獲得資源與權利的唯一通道,算法分類才真正具有了正義的基礎。盡管在一些學者看來,桑斯坦所提倡的帶有自然主義色彩的“偶然性”解決方案,在現今信息超載的條件下,堪稱悖逆潮流、悖逆以人為本思想的一種隨想。但是,正是這種“悖逆”本身,揭示了人性中無法被分類的叛逆、好奇與欲望。
(二)分類權力的“公共化”
隨著算法的進步,從行為發生到獲得有效反饋的時間大幅縮短,這要求算法系統具備自我修正與優化的能力,而不再依賴人工干預。算法能在執行過程中通過反饋回路進行自我調整與修正,確保分類標準和邏輯的持續優化。然而,企業出于利益最大化動機,往往將算法系統的優化目標聚焦于用戶黏性與轉化率等經濟指標。內容平臺的算法傾向于推送已被證明有效的內容,忽視公共輿論的價值、健康與多樣性,最終容易導致不當內容泛濫。外賣平臺的算法通過不斷歸納歷史上“成功送達”的行為軌跡,自動更新其路徑模型,將偏離規范但更高效的經驗歸納為下一個調度標準,形成了對于新就業形態勞動者的循環壓迫。
當算法的分類邏輯被封閉于技術系統之內,由平臺與資本力量主導時,其不透明性就可能導致操控與誘導,嚴重危害公共決策的合法性與正當性。此時,社會反饋與人的能動性介入就成為打破閉環,確保算法公正的關鍵。這一思路已在政策實踐中得到體現。針對內容推送領域的信息繭房現象,《通知》明確提出,要構建防范機制,提升推送內容的多樣性與豐富性,且要求平臺規范設置“不感興趣”等負反饋選項,讓用戶能夠影響和校正平臺的分類邏輯。在社會生活領域,為防止外賣平臺壓縮配送時間導致超時率、違章率、事故率上升,《通知》明確要求外賣平臺公示時間預估、費用計算、路線規劃等算法規則,并搭建暢通的申訴通道,及時處理因不可控因素導致的配送異常,讓分類結果接受公眾的質疑與申訴。作為建構社會秩序的基礎機制,分類在本質上是一種權力實踐,直接關系到認知秩序的建構、社會資源的分配與主體身份的確認。應通過引入反饋機制、建立申訴制度等手段,將原本由技術系統或商業平臺獨占的分類權力放置于公共領域,接受民主協商與集體審議,回應個體權利、社會差異與公共利益之間的平衡要求。
(三)分類治理的“他律性”
盡管分類權力的“公共化”為算法提供了有效的社會反饋,但算法的內在問題,尤其是其分類邏輯的不可解釋性仍然存在。這種現象通常被簡化為技術層面的“黑箱”問題,即深度學習模型在提升分類效率的同時,削弱了分類標準的可追溯性。實際上,許多算法的設計者和使用者并未清晰意識到算法中潛在的偏差與歧視性。③因此,算法治理必須超越技術修復與道德自律的范疇,接受法律規范、專業審查與公眾監督的他律約束。
在我國現行制度中,2022年3月1日正式生效的《互聯網信息服務算法推薦管理規定》(以下簡稱《規定》)已明確要求算法推薦服務提供者制定并公開算法推薦服務相關規則,增強算法規則的透明度和可解釋性。在算法公開的問題上,當前主要存在兩種路徑:一是“以主體為中心”的解釋(Subject-Centric Explanations,SCE)方式,即僅向數據主體說明其被分類的依據、特征與結果;二是以“模型為中心”的解釋(Model-CentricExplanations,MCE)方式,強調算法模型與數據的透明性披露,但因涉及技術復雜性與商業運作機制,實踐中面臨諸多限制。?盡管前者可以在形式上滿足算法公開的要求,但其個體化的解釋機制難以揭示算法在整體維度上的傾向性,反而會掩蓋其執行區分與排序操作的底層邏輯。因此,有效的分類治理不僅需要將“算法公開”制度化,還必須為整體分類邏輯設立明確的邊界與禁止性規范,對可能造成歧視、排斥或侵犯基本權利的算法分類進行強有力的法律約束。歐盟于2024年正式通過的《人工智能法案》[AIActRegulation(EU)2024/1689」中就明確禁止任何公共或私人行為體利用人工智能系統對自然人或群體進行基于行為、特征數據的評分與分類,從而避免脫離原始語境推斷進而導致的不利后果。①在專業審查層面,《規定》明確要求算法推薦服務的提供者定期審核、評估、驗證算法機制機理、模型和應用結果等。①不過,《規定》本身并未明確區分內部審查與外部審查的責任邊界,為增強算法治理的規范性,有必要推動外部審查機制的制度化建設,可由具備資質的第三方專業機構進行周期性評估,將算法的分類過程納入獨立的外部審查體系之中。在社會監督層面,《規定》要求算法推薦服務的提供者制定完善的服務規范、依法提供服務并接受社會監督,設置便捷有效的用戶申訴入口和公眾投訴、舉報入口,以實現對算法分類過程的持續監督與公共問責。②
概而言之,“黑箱”之所以成為大量算法批判的終點,正是因為它遮蔽了技術操作背后的分類權力。我們要追問的,不是算法如何“更加透明”,而是算法為何如此分類、為誰分類、分類的目標是否滿足公共性與正義性的最低要求。因此,算法治理需要通過內部機制設計、權力運行公開與外部他律約束,重新定義分類實踐的公共與正義底線。如此,算法批判才可能從“技術透明”的幻象中掙脫出來,真正指向數字治理的正當性基礎、權力配置機制與公共責任的制度重塑。
(作者章沫嘉系重慶大學新聞學院新聞傳播學專業2024級博士研究生;郭小安系重慶大學新聞學院教授、博士生導師)
注釋
① 吳彤.分類和分岔:知識和科學知識自組織起源的探索:以生物學中的分類和分類文化視角轉變的演化為例[J].自然辯證法通訊,2000(6):25-33.
③ OLSON HA.Classificationand universality:applicationandconstruction[J].Semiotica,2002(139):377-391.
④ ③50涂爾干,莫斯.原始分類[M].汲喆,譯.北京:商務印書館,2012:4;79;8.
⑤⑧ KENDIGC,WITTEVEENJ.The historyand philosophyoftaxonomyas an information science [J]. History and philosophyof the life sciences,2020,42(3):1-9.
⑥ GODFRAYHCJ,CLARKBR,KITCHINGIJ,etal.The Web andthestructure of taxonomy[J].Systematic biology,20o8,56 (6):943-955.
⑦ CHARMANTIERI,MuLLER-WILLES.CarlLinnaeus'sbotanical paperslips (1767-1773)[J].Intellectual history review,2014,24(2):215-238.
⑨ 李白楊,白云,詹希旎,等.人工智能生成內容(AIGC)的技術特征與形態演進[J].圖書情報知識,2023,40(1):66-74.
⑩ 項亮.推薦系統實踐[M].北京:人民郵電出版社,2012:4-19.
陳昌風,師義.個性化新聞推存算法的技不解讀與價值探討[J].中國編輯,2018,106(10):9-14.
?? 黃立威,江碧濤,呂守業,等.基于深度學習的推薦系統研究綜述[J].計算機學報,2018,41(7):1619-1647.
? 孫志軍,薛磊,許陽明,等.深度學習研究綜述[J].計算機應用研究,2012,29(8):2806-2810.
?? BENGIOY,COURVILLEA,VINCENTP.Representationlearning:a reviewand new perspectives [J]. IEEE transactionsonpatternanalysisand machine intelligence,2013,35(8):1798-1828.
? 劉慧,李葆嘉.布雷阿爾之謎:澄清語義學史上的一些訛誤[J].山東外語教學,2015,36(3):8-20.
? 劉輝,萬程峰,吳曉浩.基于增量協同過濾和潛在語義分析的混合推薦算法[J].計算機工程與科學,2019,41(11):2033-2039.
① KORENY,BELLR,VOLINSKYC.Matrixfactorizationtechniques for recommender systems [J].Computer,2009,42(8):30-37.
? ZHOUP,YEQ,XIEY,etal.Attention calibration for transformer-based sequential recommendation [C].Proceedings of the 32ndACM international conference on informationand knowledgemanagement,2023:3595-3605.
布爾迪厄.普通社會學:第一卷:分類斗爭[M].劉暉,譯.上海:上海人民出版社,2023:13;19;120-130.
②⑥鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021,39(1):14-26.
? 抖音安全與信任中心[EB/OL].(2025-04-15)[2025-04-28].https://95152.douyin.com/article/15381?enter_from ∣= channel_pageamp;channel=transparency.
? 列維-斯特勞斯.野性的思維[M].李幼蒸,譯.北京:中國人民大學出版社,2006:16.
胡春光.社會秩序如何可能?:涂爾干論社會分類[J].重慶師范大學學報 (哲學社會科學版), 2010(5):83-90.
??? 鄭鵬.“明分使群”:作為社會秩序化機制的荀子社會分類學[J].社會學評論,2024,12(4):31-53.
陳昌鳳,仇筠茜.“信息繭房”在西方:似是而非的概念與算法的“破繭”求解[J].新聞大學, 2020(1):1-14+124.
? PIAO J,LIUJ,ZHANG F,et al. Human-Al adaptive dynamicsdrives the emergence of information cocoons [J].Naturemachine intelligence,2023,5(11):1214-1224.
(20 ? BRINS,PAGEL.The anatomy ofa large-scale hypertextualweb search engine[J].Computer networks and ISDN systems,1998,30 (1-7):107-117.
? 博客天下.【1984新一代】張一鳴,他的每一句話都在被挑錯[EB/OL].(2014-07-19)[2025-03-15].https://www.tmtpost.com/123328.html.
? 涂爾干.社會分工論[M].渠東,譯,北京:生活·讀書·新知三聯書店,2000:601.
? 布爾迪厄.言語意味著什么:語言交換的經濟[M].褚思真,劉暉,譯.北京:商務印書館,2005:113.
③③BOYDDM,ELLISONNB.Social network sites: definition,history,and scholarship [J]. Journal of computer-mediatedcommunication,2007,13(1):210-230.
? HARGlliAiE.wnosespace?aitterencesamongusersananon-usersofsocialnetwork sites[J].Journal ofcomputer-mediated communication,2007,13(1):276-297.
? DEVITOMA.Fromeditors toalgorithms:avalues-basedapproach to understanding story selection in the Facebook newsfeed[J].Digitaljournalism,2017,5(6):753-773.
CHENEY-LIPPOLD J.A newalgorithmic identity:softbiopolitics and the modulation of control [J].Theory,cultureamp;society,2011,28(6): 164-181.
? 鄭杭生,胡翼鵬.社會運行、社會秩序與王朝的治亂盛衰:中國社會思想史研究的新視野[J].學海,2009(4):123-134.
? 陳潭.國家治理的數據賦能及其秩序生產[J].社會科學研究,2023(6):12-30.
? 藍江.生命檔案化、算法治理和流眾:數字時代的生命政治[J].探索與爭鳴,2020(9):105-114+159.
? 郭小安,趙海明.觀看的無奈與正義:數據社會液態監視的彌散性與能動性[J].新聞與傳播研究,2022,29(10):34-46+126-127.
? 吳鼎銘.網絡“受眾”的勞工化:傳播政治經濟學視角下網絡“受眾”的產業地位研究[J].國際新聞界,2017,39(6):124-137.
黃月琴,章沫嘉.可見性流變與數字時代的“可見性資本”:對一項行動傳播議題的考察[J].中國網絡傳播研究,2023(2):121-148+219-220.
郭小安.輿論的公共性與公眾性價值:生成、偏向與融合:一項思想史的梳理[J].新聞與傳播研究,2016,23(12):53-66+127.
⑤ 盧梭.社會契約論[M].何兆武,譯.北京:商務印書館,2003:35.
帕里澤.過濾泡:互聯網對我們的隱秘操縱[M].方師師,楊媛,譯.北京:中國人民大學出版社,2020:97.
延森.媒介融合:網絡傳播、大眾傳播和人際傳播的三重維度[M].劉君,譯.上海:復旦大學出版社,2012:137.
REVIGLIO U.Serendipity asan emerging design principle ofthe infosphere: challenges and opportunities [J]. Ethics andInformation technology,2019,21(2):151-166.
關于開展“清朗·網絡平臺算法典型問題治理”專項行動的通知[EB/OL].(2024-11-12)[2025-04-28].https://www.gov.cn/zhengce/zhengceku/202411/content_6989143.htm.
⑥ 賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.
互聯網信息服務算法推薦管理規定[EB/OL].(2022-01-04)[2025-07-12]. https://www.gov.cn/zhengce/2022-11/26/content_5728941.htm
⑦⑥EDWARDSL,VEALEM.Slave to thealgorithm?whya‘righttoanexplanation'is probably not the remedyyou are looking for[J].Dukelawamp;technologyreview,2017(16):18-84.
⑥ WACHTERS,MITTELSTADTB,FLORIDIL.Whya right toexplanationofautomateddecision-makingdoesnotexistinthegeneral data protection regulation [J].International data privacylaw,2017,7(2):76-99.
同濟大學法學院,上海市人工智能社會治理協同創新中心.重磅首發|歐盟《人工智能法》定稿版本:全文中譯本(14萬字)[EB/OL]. (2025-01-23) [2025-03-20]. https://aisg.tongji.edu.cn/info/1005/1192.htm.