【摘要】算法改變了網絡社會的權力分配。社交平臺在算法的作用下將散落于虛擬空間的權力予以集中,通過用戶的數據與話語權的掌控形成場域控制,并以平臺規則法律化、操縱算法運行規則的方式形成制度控制,由此造成社交平臺權力的擴張。傳統應對性的治理模式不足以解決社交平臺權力的擴張以及算法自身的失控風險,對此需要以敏捷治理的模式將更多的利益關聯方納入流程中,構建多方協作的算法解釋機制,明確算法解釋的程序,疏解算法失控的風險。
【關鍵詞】社交平臺;權力擴張;敏捷治理;算法解釋
權力產生于生產與經驗之上,通過顯性與隱性的暴力將某些主體的意志強加于他人。[1]傳統觀念中的權力無外乎統治者的統治權、政府的行政權等有形權力實體,具有專屬性與剛性的特點;互聯網時代則有所不同,構建互聯網的初衷在于去中心化,理想狀態下的網絡空間內沒有或鮮有特權與偏見。然而這一去中心化的理想狀態隨著算法技術的運用被打破,算法在影響互聯網參與方式的同時也改變著網絡場域的權力分配。社交平臺的權力產生于不同主體之間的技術失衡,互聯網中平等表達的權利并不意味著技術資源的平等享有,社交平臺在算法的加持下可以影響和控制數字資源的流向。在此背景下,如何合理控制社交平臺的權力,如何通過技術、法律或政策的指引,在算法技術的創新與規范化運行間保持平衡將成為人們關注重點。
一、權力擴張:算法加持下社交平臺權力的走向
算法在形式上表現為技術工具,但透過算法工具運用的表象,信息的傳播力和影響力在媒體時代與流u7V3SkfOBQ1OpraXC1hxVg==量直接相關,承載信息交互、媒體新聞功能的社交平臺在算法的賦能下成為吞噬、更新與輸出流量的龐大機器,權力也在此過程中隨著流量被層層疊加,最終匯集至社交平臺并由其所掌控,具體表現在場域控制和規則控制兩個方面。
(一)社交平臺的場域控制
1.用戶數據信息的掌控
在Web3.0時代,任何社會成員均可以接入互聯網,互聯網入口的開放性和受眾的廣泛性在網絡場域自下而上地形成兼具深度與廣度的信息力量,同時信息傳播起點的彌散改變了不同群體之間信息資源和話語權的不對稱性。基于此,參與互聯網的社會成員可以借助社交平臺獲得知識、評價等信息,并可將這些信息作為資源提供給其他社會成員而生成價值,以鞏固社會間的關系。[2]因此在Web3.0時代,信息的生產、傳遞均遵循著去中心化的邏輯,圍繞用戶本身所展開。然而這種去中心化的信息分配邏輯在技術失衡背景下隨時可被打破。一方面在數字化時代背景下,互聯網領域的分工逐漸細化,社交平臺作為互聯網時代的產物需要不斷拓展其應用邊界。作為信息生成與互動的主要媒介,社交平臺功能的拓展在一定程度上意味著用戶需要暴露出不同面向的數據信息,形成用戶數據的全景化收集。另一方面,社交平臺通過收集注冊用戶的信息掌握了互聯網時代最為關鍵的生產要素——數據資源并以此作為核心競爭力。社交平臺在充分收集注冊用戶的信息后,可以實現多次零成本的使用,并可利用算法對現有數據進行分析與聚合以產生新的數據,從而不斷對平臺所掌握的數據予以優化。在已有的數據優勢下,社交平臺可以從容地將業務延伸至其他領域,最終以滾雪球的方式形成“贏者通吃”的局面。
2.用戶話語權的掌控
互聯網中的公眾參與成為信息傳播的全新內核,但傳播話語權并未轉移至公眾而被匯集至社交平臺手中。由于技術背景的不對稱,社交平臺通過算法技術將分散的非結構性數據以結合和分類的方式形成結構性數據,據此進行分析并掌握數據背后的規律。[3]社交平臺與媒體市場深度融合背景下的用戶所感知的信息實際上已被算法所篩選,并在算法的操縱下圍繞著用戶的喜好形成信息繭房,社交平臺隨之掌握了傳播話語權。一方面,融合傳媒功能的社交平臺成為信息傳播的發起點,具有獨立的信息來源與廣泛的影響力,已經具備影響公共輿論的能力。另一方面,隨著人工智能技術的發展與應用,審核與編輯權力被交由算法,掌握算法技術的社交平臺以此增強了對傳播話語權的控制。同時,數字社會與社交平臺的聯系日益緊密,用戶生活的全貌實際已被記錄于社交平臺之中,算法借助數字社會與社交平臺的緊密聯系而滲透至用戶生活的每個角落,用戶的任何行為均可成為算法的分析對象并依據不同目的具象化為不同的待解決問題。
(二)社交平臺的規則控制
1.平臺規則的“法律”性
社交平臺改變了信息互動的方式,將信息的主要傳播空間從物理場域移轉至數字場域。隨著互聯網的普及與社交平臺商業化程度的加深,作為交流媒介的社交平臺在技術壟斷與財產排他性的作用下逐步形成了自身的權威法則。在社交平臺所塑造的信息領域中,平臺不僅擁有制定和修正信息傳播規則的權力,還可對不符合規定的行為予以裁判。例如,臉書平臺的用戶準則及服務協議雖有協議之名,但無協議之實,其中充斥著大量的免責條款與用戶權益減損的條款,并對廣大的社交平臺產生了輻射效應。[4]大數據、人工智能等技術的綜合運用塑造了個人的信息生態[5],數字化生存方式早已使公民習慣于用點贊數量、運動記錄等數字化標準衡量價值的實現,作為數字領域最為關鍵的功能,網絡社交也已成為每位公民難以割舍的一部分。在網絡社交客觀環境與尋求社交主觀需求的共同驅使下,用戶不得不融入社交平臺所塑造的信息領域中。作為數字社會不同個體、群體間交流的必備媒介,社交平臺將接受規則作為使用平臺的前提條件,以隱形的強制性迫使用戶接受平臺所預設的規則。
2.算法規則的操控性
算法是否成熟取決于算法訓練是否充分、全面,不同的算法有其獨特的數據參照系,能夠滿足特定目的的算法模型需要以多樣化的數據為基礎,吸收海量、客觀的數據進行訓練。例如,生成式人工智能的信息輸出能力主要來源于模型的訓練,通過生成式預訓練的變換器,從海量的數據中學習隱含的語言模式。[6]對于社交平臺而言,數據化和算法創造了新的商機,其固有的商業盈利屬性會使算法訓練圍繞商業利益最大化的實現而進行。當算法主導者基于利益目的將篩選后的異質性信息作為訓練參照時,算法的運行方向會因訓練缺陷逐步偏向社交平臺的需求中,看似客觀中立的算法規則預設實際已被改變。此外,算法“黑箱”也表現出社交平臺對算法規則的操控性。“黑箱”是對不透明的隱喻,指只能得到輸入值與輸出值,其內部結構卻無從得知的系統。[7]算法的“黑箱”使諸多算法的流程處于不透明的狀態,社交平臺究竟如何將用戶分類、對信息篩選等問題均無法通過外部視角直接觀察和驗證。由此,掌握算法的社交平臺實際上在網絡社會運行的秩序中排除了外部監管,在企業發展的趨利性作用下以最有利于平臺發展的邏輯構建算法規則。
二、治理困境:治理模式與算法失控的雙重考驗
社交平臺的商業模式在取得耀眼產業績效的同時也引發了治理困境,包括傳統治理模式難以匹配算法技術的發展以及算法技術自身所蘊含的失控風險。
(一)傳統治理模式難以匹配
第一,應對性的治理模式難以匹配算法技術發展的靈活性。應對性的治理模式是指只有當問題發展至一定程度時,才會制定專門性的規范或程序予以解決[8],通常以法律規范的方式進行。法律制度發展與變革過程中的路徑選擇與規制設計,綜合著客觀的事實分析與主觀的價值判斷。在技術無孔不入的數字社會,基于技術事實形成的社會規范必然透露著技術的特點,其高速率的迭代特性和技術發展的不確定性意味著需要充分的發展空間,這對片面依賴于法律規范的規制方式提出了挑戰。一方面,面對高頻的技術迭代,穩定、滯后的法律規范的缺位已無法避免,這為社交平臺的權力擴張留下了風險空間。另一方面,技術的突飛猛進使得技術發展路徑有著很大的不確定性。關鍵技術的發展、商業的競爭環境、價值觀念等方面均隨著環境的不同而難以捉摸,社交平臺所使用算法的走向由此充滿不確定性。正如社交平臺最初僅僅作為連接器將用戶與新聞媒體相連接,并不需要同新聞媒體一樣對其所發布的新聞負責并承擔責任,而如今社交平臺的業務范圍拓展至全景化的數字信息互動場域,此時僅以法律假設作為規制前提已無法匹配算法的應用與發展。
第二,管制型立法會扼殺技術創新的動力。在技術應用與技術規制之間實際存在著博弈關系:監管者會盡可能全面地構建規則來控制技術應用所引發的風險;而在趨利性的影響下,技術的掌控者則會在規則中尋找漏洞以追求更多的利益,兩者交替發展并保持著相對平衡。在算法的發展中,滯后的法律規范已經無力應對技術迭代的速度和技術權力的影響,兩者間的博弈與制衡關系逐漸式微,滯后的治理模式甚至會阻礙技術的應用與創新。實際上,技術的發展呈現出不同的階段性,規制方式與規制目標需要根據技術發展的階段予以動態調整,如何解決這些問題并沒有一蹴而就的確定方案,僅依靠法律并非最終的治理答案。
(二)算法自身蘊含失控風險
首先,算法所蘊含的技術權力難以被社交平臺完全掌握。權力來源于資源的稀缺性,以此在社會關系中對他人產生影響,知識作為社會的關鍵資源自然成為權力的重要來源。在前數字時代,工具作為知識運用的成果產生于客觀需求并輔助需求的實現,即便發明創造出的工具具有知識的底色,其價值僅局限于依附或助力于權力的需要。而在數字時代,現代社會與數字技術高度捆綁,技術與知識間的互動也越發頻繁,技術成為知識的表現形式,這也促使技術脫離了工具屬性形成以知識為內核的技術權力。從技術權力的內在運行看,技術權力在作用的過程中不斷產生知識并將其權力化,這種權力化過程也影響和重塑著技術權力。[9]在這種權力循環中,技術與客觀條件相互作用,形成了一種獨立的控制和改造世界的方法體系。[10]也正是由于技術的專業性與封閉性,外部因素難以透過技術壁壘對體系內部施加影響,反而依賴于技術。
其次,算法蘊含了歸責風險。責任的本質在于應答,而應答即為對行為的自我答責,以自由意志和自我決定為前提[11]。如前所述,算法會選擇自認為最優的分析路徑且無法被知曉,當算法決策的邏輯無從知曉時,因此造成的不利后果究竟歸于何方無從得知。現代社會中各組織間的聯系十分緊密,甚至以難以察覺的方式相互作用,現實化的危害后果已經無法由單一的因果關系來解釋[12],在社交平臺的算法應用中更是如此:算法的預設可能存在偏見、算法的運行過程可能無法解釋等問題均可導致危害結果的發生。在發展至生成式人工智能階段后,同一算法可能會因運算對象和環境的不同作出截然不同的決策,究竟何種因素產生的風險更難以確定。
三、多元共治:社交平臺權力擴張的綜合應對
社交平臺權力擴張的治理困境根源于治理模式與技術發展的不匹配,面對算法作用下的社交平臺權力擴張,需要通過治理理念的更新與技術規制的制度設計對社交平臺與算法發展予以引導。
(一)理念更新:以敏捷治理應對治理模式的挑戰
面對新技術應用下的治理難題,2018年世界經濟論壇提出了敏捷治理的概念。相較于傳統的治理模式,敏捷治理具有靈活性、適應性的特點,是一種自適應、以人為本以及具有可持續性的決策過程。[13]敏捷治理避免僅關注顯露已久的突出問題,對治理目標進行持續性觀測,在無既往治理經驗的情況下不依賴滯后的法律手段,強調發掘治理工具和治理方法的靈活性。敏捷治理與傳統治理的核心差異在于靈敏度,為了與技術發展速度相匹配,敏捷治理需要主動或者被動接受技術的發展并從中學習,減少政策制定與技術更迭間的時間差。在敏捷治理的框架下,需要盡可能將更多的利益關聯方納入流程中,通過持續的監控和聯系來及時更新新技術的政策,從而維持各方的需求平衡。
首先,敏捷治理要求政府監管的邏輯與方式發生改變。從監管邏輯看,傳統應對性監管中一般將強硬的懲罰作為治理手段,具有“過程慢、力度大”的特點[14],不僅企業有很高的沉默成本,而且會直接影響到眾多利益方。面對多方利益受損的局面,政府的監管邏輯應從懲罰轉變至引導,以指向性政策為社交平臺的算法運用指引方向。從監管方式看,敏捷治理要求政府與企業從對立走向協作。政府需要認識到算法的技術壁壘,作為使用者與開發者的社交平臺對算法的創新速度和潛在影響最為了解。作為監管者需要與社交平臺建立相互依賴的信任關系,由此才可深入了解技術和行業的發展動向,以協作的方式彌補技術短板從而合理地制定規制措施。
其次,敏捷治理要求社會參與至社交平臺權力的治理中。作為社交平臺權力作用的對象,公民和社會組織深刻和直接地感受到社交平臺權力的影響,理應在國家權力之外對侵犯公民權利、市場秩序、社會秩序的社交平臺權力進行監督。社會組織有著天然的監督優勢。2021年1月,中國消費者協會就召開了“網絡消費領域算法規制與消費者保護座談會”,以督促企業對自身的算法規制進行調整。由于算法本身的技術屬性對專業提出了較高的要求,因此在未來的監管中可以組成具備專業知識的社會組織,以代表公眾進行專業化的監督,并在領域內部形成行業標準,以促進行業自律。
(二)多方協作:以算法解釋機制共同應對失控風險
1.算法解釋機制的主體組成
首先,社交平臺作為算法解釋的義務主體。在算法決策中,人類所能解釋的算法的準確性往往低于難以理解的算法,隨著技術的發展,是否能夠打破算法的“黑箱”而洞悉其運行過程的全貌似乎難以實現。[15]但在筆者看來,算法“黑箱”難以破解的這一客觀考量并非意味著對算法解釋的放棄。作為技術進步的驅動者與算法使用的獲利者,擁有技術實力的社交平臺具備探索算法解釋的基礎。關于算法解釋的探索實際上也正在進行,雖然目前尚未形成統一的解釋機制與標準,但擁有技術實力與使用者的社交平臺應當成為算法解釋的主體。
其次,第三方算法監督委員會為常態化的監督主體。面對擁有強大技術實力與商業資本的社交平臺,僅依靠用戶個人難以有效抗衡。同時,作為日常生活的必備工具,社交平臺所運用的算法透過應用軟件無時無刻不在影響著用戶的切身利益,對此需要存在常態化的維權機構為用戶與社交平臺間的抗衡增添砝碼。針對臉書的權力濫用行為,2019年成立的獨立內容監督委員會旨在控制社交平臺的不當行為,臉書CEO扎克伯格也認為,對臉書某項決定的否認可以先向臉書提出,之后就會上訴至第三方的獨立委員會,該委員會的決定對臉書具有約束力。我國可在此基礎上針對算法解釋的監督進行本土化改造,由獨立的第三方機構吸納社會力量進行常態化監管,并作為規制與自治的銜接與緩沖區為多方搭建溝通平臺[16],將用戶、社交平臺以及政府的意見進行綜合與協調,從而靈活管控。
最后,政府作為算法解釋“安全環境”的構建主體。社交平臺作為算法的使用者需要落實平臺責任,具有算法解釋的義務,同時對算法解釋的驗證需要具備相當的專業性,審查者需要了解行業的發展以及知識能力。僅從技術水平來看,將算法解釋交由技術實力更強的同行審議似乎更符合技術要求,然而算法解釋涉及算法的源代碼以及參數的公布,若無安全的解釋環境可能會造成商業秘密或技術秘密的泄露。對此,為了保護商業秘密與競爭法益,由政府承擔起算法解釋“安全環境”的構建者更為恰當。
2.算法解釋機制的程序構造
首先,應明確算法解釋的申請路徑。作為算法最直接的作用對象,用戶最能切身感受到算法所帶來的影響,當用戶受到算法影響時可以直接向社交平臺提出算法解釋的申請。但在實際生活中,用戶的意見通常受制于技術實力和表達途徑的限制而被隔絕,當用戶的申請被社交平臺拒絕或社交平臺未做出合理解釋時,可向第三方算法監督委員會提出申請。第三方算法監督委員會在接到用戶的申請后先進行初步審查,對符合條件的用戶申請應及時要求社交平臺作出相應的解釋并對社交平臺的解釋予以驗證。同時基于第三方算法監督委員會的專業性和行業感知力,對社交平臺涉及重大公共利益的算法應進行常態化監督,發現問題應及時向政府部門報告以協同處理。
其次,社交平臺的算法解釋程度依據解釋對象的不同而有所區分。為了避免不當使用算法后馬上修改算法而使算法解釋失去意義,算法解釋的首要任務是將持續變動的代碼和參數進行固定。社交平臺應當留存系統操作的記錄,若侵害性算法處于使用中應立即停止。作為義務性要求,不論社交平臺有無做出合理解釋或對算法進行修改,均應承擔相應的法律責任。在此基礎上完全保證用戶理解算法并非首要任務,當用戶提出解釋申請時,社交平臺并不需要十分詳細地解釋算法的運行細節,僅需要針對用戶的疑問進行解答,提供與用戶利益相關的內容;當根據政府的要求對重大公共利益進行解釋時,則需要圍繞相關問題盡可能全面、詳細地展開。
參考文獻:
[1]曼紐爾·卡斯特.網絡社會的崛起[M].夏鑄久,王志弘,等譯.北京:社會科學文獻出版社,2006:14.
[2]陳全真.生成式人工智能與平臺權力的再中心化[J].東方法學,2023(3):67.
[3]閆宇晨.社交平臺私權力的濫用及其治理[J].公共管理與政策評論,2023(4):144.
[4]Lee A.Bygrave.Interent Governance by Contract[M].Oxford University Press,2015:117.
[5]李凌,陳昌鳳.信息個人化轉向:算法傳播的范式革命和價值風險[J].南京社會科學,2020(10):104.
[6]鄭永和,丁雨楠,鄭一,等.ChatGPT類人工智能催生的多領域變革與挑戰(筆談)[J].天津師范大學學報(人文社會科學版),2023(3):55.
[7]王雨田.控制論、信息論、系統科學與哲學[M].北京:中國人民大學出版社,1986:93.
[8]楊博文,孫永軍.理性賦能與向善賦權:科技倫理風險預警與敏捷治理體系的建構進路[J].科學技術哲學研究,2023(4):125.
[9]米歇爾·福柯.知識考古學[M].董樹寶,譯.北京:生活·讀書·新知三聯書店,2021:29.
[10]陳文化,沈健,胡桂香.關于技術哲學研究的再思考:從美國哲學界圍繞技術問題的一場爭論談起[J].哲學研究,2001(8):64.
[11]劉艷紅.人工智能的可解釋性與AI的法律責任問題研究[J].法制與社會發展,2022(1):87.
[12]勞東燕.風險社會與功能主義的刑法立法觀[J].法學評論,2017(6):21.
[13]薛瀾,趙靜.走向敏捷治理:新興產業發展與監管模式探究[J].中國行政管理,2019(8):31.
[14]薛瀾,趙靜.走向敏捷治理:新興產業發展與監管模式探究[J].中國行政管理,2019(8):32.
[15]魏遠山.算法透明的迷失與回歸:功能定位與實現路徑[J].北方法學,2021(1):156.
[16]陳偉.作為規范的技術標準及其與法律的關系[J].法學研究,2022(5):86-87.
作者簡介:劉文淵,中國人民公安大學法學院博士生(北京 100091);羅寧,中國人民公安大學偵查學院博士生(北京 100091),河南警察學院副教授(鄭州 450046)。
編校:王 謙