文/邱澤奇
1984年是桌面計算機進入流行的初始階段,也是人們對算法開始警覺的起點。人工智能的新一輪爆發引發了近些年對算法治理的關注,且形成了一股風潮,大多數涉及算法治理的文獻甚至不謀而合地形成了一種套路式表述。只是對一些關鍵問題尚缺乏有效的回答,如,到底什么是算法?算法是一個舊已有之的存在,如今為什么要特別關注?如果關注,又能關注什么?本文將闡述算法已經成為人類生產和生活的普遍環境,分析算法的技術邏輯,說明關注過程治理、試圖論證對算法進行實時監測難以實現算法治理目標,探討算法治理的可能路徑及中美歐的行動選擇。
數字技術的廣泛應用與算法有什么關系?不用算法,行嗎?即使運用算法,不治理,行嗎?算法古已有之。為什么直到現在,人們才那么關注算法治理?
歸納既有文獻,我們觀察到三種主要理由。一種理由認為,算法侵害是觸發人們關注算法治理的根由。人們認為,現實生產和生活中已經出現了算法歧視、算法偏見、算法壟斷、算法操縱、算法剝削等與算法關聯的社會、經濟、甚至政治侵害。另一種理由認為,算法風險是觸發算法治理的根由。人們認為,在個體層次,算法強化著信息繭房;在市場層次,算法醞釀著監控資本主義;在國家層次,算法被特定利益集團用于政治權力再生產。從個體層次到國家層次的風險給人類社會的政治、經濟、社會生活帶來巨大的不確定性。第三種理由認為,算法權力、算法規則是觸發規則競爭、權力競爭甚至規則壟斷、權力壟斷的根由。值得特別注意的是,這也是西文文獻探討算法治理的主流。
我們認為,社會關注聚焦于算法治理其實是由兩個因素推動的,除了算法影響的廣度和深度,還有算法影響的覆蓋面。那么,算法影響的覆蓋面到底有多大呢?
在經濟領域,數字技術快速邁過其擴散臨界點,進入變革的起飛階段。中國信通院的數據顯示,2020年中國數字經濟增加值為39.2萬億元人民幣,占GDP的比重躍升至38.6%,即數字經濟已越過起飛臨界點而進入起飛初始階段。在社會領域,數字終端已經成為人們的必備工具。在中國,90%的人使用即時通信、80%的人使用政務服務、70%的人使用數字支付。在政務領域,審批等行政許可事項實現網上受理和“最多跑一次”的比例達82.13%,政府事項網上可辦率超過了90%。哪一項都依賴算法。
任何一項終端應用的背后都有算法,算法成為人類新的生產工具、生活工具。我們甚至可以認為:無算法,不生產;無算法,不生活。人類正加速進入算法時代,我們無法回避算法給人類帶來的本質性影響。
算法到底是什么?在不同歷史階段、不同應用場景,算法有不同所指。可在本質上,算法只是一種求解邏輯。
第一,算法是面對問題的。讓出租車盡快到達目的地是需要解決的現實問題,如何把某個商品賣給愿意出高價的人是需要解決的理論和現實問題,人們為什么在搜索引擎上搜索感冒藥也是需要解決的理論和現實問題。人類需要解決的問題無處不在,故算法從不缺乏需要解決的問題。
第二,算法是通過計算解決問題的。任何用到算法的問題都需要將問題數學化為可計算模型,其中又內含著兩面。一方面,要解決的問題可以被數學化即用數學模型刻畫,不能建模或暫時不能建模的問題是無法運用算法的。另一方面,建構的數學模型是可計算的。滿足可計算的條件是,至少有用于計算的數據,至少計算可以獲得解。通俗地說,運用計算機不是為了計算,而是為了運用計算機的算力更有效地獲得計算的解。
第三,算法是一系列問題和求解數學模型的集合。從一個人的算法到一座城市的算法,在數量規模擴大的同時,算法也從一個數學模型變成了無數個數學模型,且無數個數學模型之間不是獨立的,相互之間不僅有關系,而且關系還異常復雜,模型之間不僅有結構,還有時序,結構與時序之間還不是確定的,且算法還可以算法為數據而改進算法。同時,算法還與人類行為或事物的發展變化交互。那么,如何讓用于解決問題的模型不變成進一步需要解決的問題,而真正解決人類問題呢?算法對代碼的需要出現了。
第四,算法是由代碼連接且結構化的一系列問題和求解數學模型的集合。只是,再復雜的數學模型都需要將其轉化為向計算機傳達的簡單指令。復雜的簡單也因此變成了復雜的復雜的一部分,計算機代碼便成了算法的有機組成部分。在算法代碼化的進程中,代碼(code)的確是指示計算機做或不做的規則。表面上,正是由代碼攜帶的簡單指令構成的復雜算法影響著計算結果的輸出,帶來了文獻關注的算法侵害、算法風險、算法權力、算法規則。可是,一旦我們進一步了解了代碼與算法的關系,或許會有不一樣的觀點。
如果說數字連接、數據豐盈、人類必備是算法帶來影響的三項必要條件,問題求解對能力的要求超出人類生物屬性的極限是算法影響的充分條件;那么,在人類跨入數字時代、中國進入數字發展加速期的當下,算法又如何產生影響呢?
既有文獻對算法影響社會的機制認識大致可以歸結為兩個本質性的爭議。第一,算法是中立的還是有偏見的?斯廷森(Catherine Stinson)指出,人們以為算法是中立的,其實算法自身也會產生偏見,算法在不斷迭代中從用戶對算法推薦的響應中進行學習,創建著針對用戶的選擇性偏差,即偏見。這些偏見不僅具有統計學意義,也會帶來不同類型不同程度的算法侵害后果。第二,算法是人類意志的產物還是自主自為的主體?認同“算法即規則”觀點的研究者認為,算法已經作為獨立行為主體參與人類生產、生活,算法規則也外化為社會行為規則,對人類產生深度影響。有人甚至認為,算法的自主自為性形成了算法利維坦,成為建構人類環境的重要乃至決定性的力量。
在探討算法治理行動之前,我們認為有必要針對算法影響機制的爭議進行澄清和回應。一項對谷歌圖片算法的研究顯示,谷歌圖片算法再現了白人男性父權制結構。有趣的是,進一步的工作還顯示,經過再培訓的算法呈現了對社會文化實踐的刻畫,改善了之前呈現的社會歧視。也就是說,如果真實地擬合社會現實,那么算法會攜帶偏見,進而制造算法侵害。對算法再培訓的結果則說明:第一,算法侵害實際是編寫算法的人群制造的,算法只是做了算法可做的事,算法依然是人類生產的產品;第二,算法并不具有自主自為性,沒有人類輸入的第一行代碼,便不會有算法的其他代碼,算法的自主性自為性便失去了載體,也根本沒有機會制造算法偏見;第三,支持算法偏見和規則影響力的不是算法本身,而是對算法的運用。
如此,算法治理的方向選擇已然出現。第一,算法不具有自由意志,算法是人類行動的產出。算法治理是針對人類生產算法行動的治理。第二,算法治理既是針對制造算法偏見的治理,也是針對算法運用的治理。前者是為算法糾偏,后者則是約束算法運用的方向和范圍,以期最大限度地減少算法偏見帶來的算法侵害。
在中文語境里,算法治理有雙重含義:第一,用算法進行治理(governance by algorithm);第二,對算法進行治理(governance to algorithm)。英文語境則沒有算法治理(algorithm governance)概念,也很難找到一個對應的概念,維基百科中甚至沒有相應詞條。縱觀中文文獻對算法治理的探討,大多探討的是第二重含義。
算法治理發端于美國,美國如何應對算法侵害呢?直接的答案是,問責模式,問責對象是有潛力讓算法產生廣泛且深刻影響的算法生產者和使用者,問責內容包括算法內容和非算法流程,問責的主體是政府或第三方。
從2017年1月12日,美國計算機協會下屬的美國公共政策委員會(USACM)發布《算法透明度和責任聲明》,到2021年5月美國參議院引入《算法正義與在線平臺透明度法案》,美國把因算法偏見帶來的不良社會后果直接歸責到算法生產者和使用者,而沒有歸咎于算法自身。
在數字時代的三方國際力量中,歐盟是重要一方。歐盟沒有針對算法的專門法律,可針對數據保護的一系列法律在實踐中也直接約束了算法的生產和運用。從1995年頒布的《數據保護指令》、2018年頒布的《通用數據保護條例》(GDPR),到2021年提案的《人工智能法案》,建立了基于算法風險的算法治理改進路徑,再次強調算法生產者和使用者的責任,強調問責機制。
歐盟雖然與美國一樣在形成算法治理的邏輯閉環,卻在實踐中從數據保護入手,建立了保護個體、組織不受算法侵害的防御性治理框架和法律制度,在算法治理理念上已向美國靠攏,即采用政府和第三方問責模式治理算法可能帶來的侵害,且將算法侵害責任歸咎于算法生產者和使用者。
為什么美國的算法治理要采用問責模式?為什么歐盟會向美國靠攏也采用問責模式?簡單的回答是,算法的復雜性使算法自身始終處于迭代之中,在生產和生活中運行的算法不是一個確定現象,而是一個動態。算法的實時迭代意味著對算法代碼進行實時督導(monitoring)和審查(auditing)需要具備與算法生產和使用相當或超越的技術能力。這意味著在技術上不可行;或即使可行,至少也是艱難的和代價高昂的。對超出能力范圍的技術過程進行監管,需要跳出技術和技術過程本身,尋求算法治理的關鍵節點和效率節點。
算法治理的社會特征在于過程治理的不可行性或代價高昂以及結果治理的簡單易行,是故,算法治理的關鍵節點便已不言而喻,那就是,針對算法結果進行治理。
算法問責便是對結果的治理,也顯然采用了刪繁就簡原則。第一,在法律上約定算法可追責性。要求算法透明、算法解釋、數據證據化等,正是為結果可追責提供事實前提和法理邏輯前提。第二,在規則上約定算法責任實體性。盡管算法即規則,可算法規則只適用于計算過程,不適用于外化的社會過程,算法生產者和使用者才是算法的責任主體,即算法的責任主體是人或人的集合體,不是算法自身。
作為數字時代三方國際力量之一的中國,又在如何進行算法治理呢?從1994年制定第一部相關行政指令《計算機信息系統安全保護條例》到目前,中國共出臺了60多部相關法律法規和行政指令。從時間順序來看,可以認為中國的算法治理是從總體安全出發的。只是到此為止,中國的算法治理只有目標,相關法律法規尚沒有像歐美那樣形成從治理理念到判例實踐的閉環,其中,尤其是還看不出算法治理的法治理念,更沒完成算法治理的司法證據化約定。
如果說算法侵害是算法治理面對的核心問題,那么,在給定算法侵害人因化或組織化,給定算法技術處于不斷迭代且動態演化的場景下,實施算法治理的行動選擇其實不多。
第一,鑒于算法的技術復雜性和動態性,約定算法透明是讓算法可以作為算法審查和追責的前提,卻不是實施算法監測的理由。算法的技術迷思已經宣告了過程治理不是算法治理的可選項。可是,針對過程的治理要求卻是其他治理選項的必備條件。
第二,如果把算法安全風險作為算法侵害的一個類型,則結果治理即使不是算法治理的唯一選擇,也是有效選擇。算法的無處不在意味著算法風險的時時刻刻,優化的行動選擇是治理出現的侵害并將其作為未來可能的風險源,而不是治理出現概率極小的預設風險。
第三,算法侵害的人因化意味著治理行動的對象是算法的生產者和使用者,而不是算法。在通用人工智能可以生產算法之前,算法依然是人類的產品。算法治理的關鍵是約束算法生產者寫對第一行代碼,約束算法使用者用對第一行代碼,問責模式至少是當下可行且有效的治理模式。
第四,鑒于算法的生產者和使用者以及對人類構成廣泛且深刻影響的主要是平臺組織,把算法治理納入平臺治理、作為平臺治理的一項內容,在形成成熟的算法治理進程中至少可以作為一項過渡性的行動選擇。
伴隨數字連接邁向人類整體連接的是各類數字終端包括移動終端和傳感器的時時刻刻無處不在,如此廣泛且深刻的數字連接因連接的“節點—中心”結構而形成的是數據的匯流與應用的分發模式。在匯流與分發之間,算法成為運用數據資源促進人類發展和平等的關鍵所在。
算法在帶來數字紅利的同時,也在帶來算法侵害。人們關注算法治理也源于人們試圖阻止算法侵害的普遍發生。算法侵害源于算法偏見。可是算法偏見不是算法自己的偏見,而是人類偏見在算法中的再現和放大。阻止乃至防止算法偏見還需首先糾正人類的偏見。
針對算法偏見來糾正人類偏見有兩個基本路徑,一是針對偏見發生的過程,二是針對偏見帶來的后果。在算法治理中,前者是過程治理,后者是結果治理。算法的技術迷思決定了過程治理是低效率的和高成本的。針對算法偏見帶來的結果進行治理在理論上是更加有效的行動選擇。
在數字時代的國際三方中,美國的算法治理采用了針對算法侵害的事后問責模式,也形成了從算法治理法理到實踐的邏輯閉環。歐盟的算法治理從保護數據的守勢入手,也在邁向美國的算法問責模式。中國的算法治理以網絡安全為起點,以總體安全為目標,尚未呈現清晰的法理,在實踐上還沒有形成自洽的算法治理邏輯。我們認為,針對算法偏見的事后問責或許是殊途同歸的有效選擇。