□王 敏 吳信訓
作為技術與社會的物質性中介,算法正在成為“影響世界運行的基礎性規則”。[1]與此同時,也引發了算法偏見、侵犯個人隱私權、群體極化等諸多倫理風險。算法作為智能技術的工具理性和人類道德生活所要求的價值理性之間的對立,常被視為導致算法倫理風險的本質原因。由此,為算法嵌入正確的價值理念、要求全方位的算法信息公開等措施成為許多研究者提出的建構算法倫理的重要路徑。這些路徑無疑是十分必要的,但還不足以應對實踐過程中的算法倫理風險。
當我們從批判理論的視角出發,就會發現在算法的工具理性和價值理性之間實際上內嵌著宰制的趨勢。宰制的力量來自作為中介的算法背后所交織著的復雜權力關系和資本利益。人工智能時代,算法作為一股強大力量重構了人、機器和環境三者的關系:“人·機·環”關系在計算機介入下由傳統媒介時代主客二分的物理關系轉變為萬物互聯的數字關系。隱藏在算法背后的復雜權力關系和資本利益導致了人與技術、平臺之間權力關系的不對等:人在某種程度上失去了主體地位,隱私權利的邊界被日益模糊化,對生活事務的決策權也被技術所接管。這是引發算法倫理風險的重要原因,但是尚未引起研究者足夠的重視與深入探討。
同時,這種人機關系所造成的決策指令作用于社會環境之后,某些有悖于人類社會行之有序的倫理后果也會反過來對既有的人機關系形成質疑,并對應當重構怎樣的“人·機·環”關系提出考問。這也正是還有待當今研究者對算法倫理深入探討的重要課題之一。本研究旨在通過探討算法如何重構了人、機器、環境三者的關系,揭示算法倫理風險的重要成因,并以此為基點,力求為有力推進算法倫理建構提出一點可資參考的理論貢獻。
當我們討論算法倫理時,是將算法看作一種連接技術與社會的物質性中介,“由規定的計算機編碼、人類實踐和規范邏輯構成”。[2]作為計算機科學的底層技術架構,算法是“一套由計算機運行的明確的指令和步驟”,能根據規范的輸入,在有限的時間內獲得有效的輸出結果。[3]同時,作為中介,算法重塑了人機交往互動的框架,人與機器作為算法平臺社會中的主體,共同參與算法機制的生成與反饋過程:算法的技術性機制直接建構用戶行為、影響偏好形成,用戶行為數據的變化,又將調整與更新算法自我學習過程所依賴的大數據集,從而重塑算法。
作為連接技術與社會的物質性中介,算法重構了人、機器、環境三者的關系:傳統媒介時代,人作為主體,生存在物質社會中,和機器、環境建立起各種各樣的物理關系;算法時代,這種物理關系轉變為萬物互聯的數字關系,人的生存環境也由物質社會擴展為現實和虛擬互融的算法平臺社會。在算法作用下,“人·機·環”三者互融,人機關系由簡單機械的單向傳播發展為雙向的人機互動,并向“具有主體特征的更復雜的人機交往轉變”。[4]人不再是絕對的主體,技術也不再是外化于人的東西,包括人本身在內的“一切都成為媒介”。[5]但是,在這之中,個人與算法、平臺的關系“并不對等”。[6]
算法依據個人在網絡空間中留存的數字痕跡重新定義個人的身份,賦予個體一種有別于現實主體的“算法身份”(algorithmicidentity)。[7]對個人而言,“身份是一種體驗,這種體驗來自于對技術的使用,這些技術構成了一個超越個人生活的痕跡世界”。[8]復雜多變的算法依據用戶行為數據的改變,不斷對個人的算法身份進行重新配置,從而改變了個人的身份體驗,使得個人從運用算法技術的主體轉變為被處理與開發的客體。[9]個人將不得不在算法身份和“隱私的、下意識的自我”[10]這兩種身份之間切換、協調、妥協。
在身份被算法重新定義、配置的過程中,大量個人身份及行為數據的采集、存儲、分享和使用模糊了隱私邊界。算法的應用場景決定了它需要進入個人私密空間甚至人體,收集和記錄個人行為數據,并就此做出分析和預測,這就使得原本私密的空間處于各類算法的監控之下。要想獲得算法服務,個人也不得不交付自己的隱私數據。與此同時,算法技術根據個人的特征和偏好進行分組,在群體層面對人們進行推斷,大量個人隱私信息被匿名化和去標識化處理后,匯集在一起成為公開或半公開的群體數據。個人隱私在網絡空間由個體層面的“匿名”變為群體層面的“透明”。作為信息所有者,個人失去了對自身隱私邊界的控制。與個人沒有實際交互,但因有相同特征和偏好而被歸類在一起的他人以及掌握大量用戶隱私數據的平臺或企業成為共同的隱私管理者。
在不同場景下,算法的感知和決策能力遠超過人類。對于個人而言,為了獲取更便利高效的體驗,將大部分事務的決策權讓渡給算法成為一種“沒有選擇的選擇”;對于平臺而言,算法是“實現內容市場供需適配的必然選擇”[11],如果沒有算法,光是每天的內容審核,都難以完成;對于社會而言,算法推動了傳統治理模式的變革,形成了一種以技術為導向的智能治理模式,提升了社會治理的效率和效能。[12]算法在各個層面逐漸顯現的主導性作用使得人對生活的決策權逐漸被技術全面接管。
在上述由算法所重構的這樣一種不對等的“人·機·環”關系中,算法的應用面臨著個人、技術和社會三個層面的倫理風險和挑戰。
在個人層面,算法倫理的風險之一體現在算法對個人認知能力的傷害。傳統信息時代,個人在進行物質消費、文化消費、信息消費時,有一個探索、學習和交流的過程。但是到了智能時代,人們依賴算法對大多數事務作出決策。作為結果,個人將自主作判斷的能力讓渡給算法[13],失去了批判性思考和自主解決問題的機會。久而久之,個人在享受算法個性化服務時,將逐漸失去作為人的主體性體現的思辨能力、判斷能力、選擇能力。“用得越多,越是你想要的”。[14]在這樣的機制作用下,個人極易陷入自我化、封閉化的“囚徒”困境中。盡管算法是否必然導致“信息繭房”尚且存在爭議[15],但是算法在強化人們原本就有的選擇心理、固化選擇路徑方面的影響是很大的[16],由此引發的個人信息視野狹窄以及觀點、立場固化和智能鴻溝問題需要我們高度警惕。
技術層面的算法倫理風險在某種程度上可以說是作為帶有社會屬性的“人”與技術雙重作用的結果,表現之一為算法對社會偏見和歧視的承繼及放大。作為一種建立在技術基礎之上的“制度性安排”,多樣化的算法選擇背后是多種權力與利益博弈后的策略性選擇。[17]其中,不僅有政治內嵌與資本介入、社會結構性偏見的循環,還存在量化計算對有機世界的遮蔽,這些都導致了算法的內生性偏見。[18]一旦某個個體或群體具有了帶有偏見的算法身份,相應的同樣帶有偏見的數據會被反復帶進下一輪的算法運算中,成為算法作出新推斷的依據。如此一來,在不斷累積的偏見數據的影響下,算法便陷入了“誤導性佐證”[19]的循環中,進一步放大社會偏見和歧視。表現之二是算法霸權。算法作為一種技術權力,掌握在平臺或企業手中。由于缺乏監管、過度資本化、算法“黑箱”等原因,算法權力極易被濫用,并異化為算法霸權。例如,掌握著算法技術的平臺或企業可能會利用算法權力來達成固定價格、限制產量等協議,進而排除、限制市場競爭,以獲取超額壟斷利潤,形成具有隱蔽性的算法共謀。[20]同時,平臺或企業還會通過措施將算法權力合法化。例如,王茜的研究發現微博使用一系列策略來使“熱搜”生成過程看起來渾然天成且不可避免,包括人氣值的實時更新、搜索框提示“大家正在搜”以及“呈現”“反映”等修辭的使用,以此建構算法把關的合法性話語。[21]
就社會層面而言,算法所導致的個人層面認知力、判斷力、決策力倒退或停滯的風險將導致社會創新力的下降、群體態度極化等問題。在算法推薦機制的作用下,認知個性化成為主導,共性被消解,具有相似特征和偏好的社會群體陷入信息和態度同質化的“回音室”中,不同群體之間的認知差異加大,公共空間與社會共識難以形成。在社會群體的階層強化和自我強化過程中,一系列具有極端性思想文化和觀念的孤島將形成。這樣的孤島內在黏性強,但缺乏自我更新能力,潛藏著意識形態極化的風險,并可能進一步造成社會撕裂的后果。此外,算法的廣泛應用使“可見性”(visibility)的控制過程變成了一個計算機程序運行的過程[22],信息的分發與編審權從人讓渡給了算法,它能夠帶來感官刺激、吸引網絡流量的低質內容得以實現對個人隱蔽性、精準性和長久性的“信息喂養”。長此以往,許多更有價值的或者應該被關注的信息面臨著“不可見”的威脅。這將強化社會文化生態存在已久的“劣幣驅逐良幣”現象,對社會文化生態造成破壞。
為應對風險,研究者們對如何建構算法倫理進行了諸多討論。許多學者認為,算法不可避免地內嵌了人類的價值觀,因此要在算法設計中以人類社會的價值體系作為商業運作和技術開發的前提,在算法設計過程中嵌入“以人權、社會公正、人類福祉、美德為其價值基礎”的價值理念[23]。另有學者提出,為了更好地實現對算法的監督,算法平臺要遵循算法透明的原則,全方位公開算法利用的各類數據或非數據信息、算法的內部結構、算法自動化決策的原理、算法與其他社會諸要素之間的互動和這些互動對算法本身的重塑以及算法相關信息公開過程中所涉及的信息。[24]這些措施對于算法倫理風險的治理無疑都是必要的。但是,如前所述,算法倫理的風險不僅因為工具理性和價值理性的對立,更因為在復雜權力關系和資本利益宰制下形成了不對等的“人·機·環”關系。這也是價值理性引導工具理性、算法機制全方位公開等措施在執行過程中面臨挑戰的原因。
我們認為,解決算法倫理風險的關鍵在于,在利益導向的環境下,如何改進工具理性所造就的不對等權力關系。因此,算法倫理的建構還有必要從以下路徑展開:
需要明確的是,作為一項技術的算法是沒有“原罪”的。算法存在的正當性在于算法是高效率、具有服務精神,且在不斷改進中的。而工具理性和價值理性的矛盾是原生的哲學矛盾。算法技術背后是多主體在博弈:第一,算法的開發和應用需要投入大量人力和物力,這就使得算法應用不得不依賴平臺的資本力量,而資本的原始屬性是以利益為導向的;第二,受利益導向和個人價值觀念驅動的算法管理者、開發者參與算法規則的制定與形成;第三,算法的運行結果還取決于用戶和社會的反饋——算法迎合和服務用戶需求,用戶根據體驗將新的數據反饋給算法,算法依據新數據集調整決策結果;第四,組織和超組織的社會環境條件也影響著算法的開發、校準。[25]
因此,算法中內嵌的價值性與外在的工具性是共在的。我們不能將算法倫理風險的一切責任歸咎于算法,要看到算法的工具理性和價值理性間的矛盾是受資本和權力宰制的。算法倫理風險的責任主體不是單一的,而是包括算法、算法平臺、算法工程師、個人以及社會在內的鏈條式的責任閉環。
目前尚處于弱人工智能時期,算法雖然表現出許多超越人類的能力,但還在人類可控、可預知的范圍內。需要警惕的是,隨著強人工智能時代的到來,算法可能發展出不受人類控制的自主意識,通過自主設計進化規則、自我改進超越人類認知。[26]因此,在算法不斷智能化發展的同時,應該彰顯人的自我實現、人的全面發展、人的信念和價值,以實現“在人主導之下人類智慧與機械智能高度融合”。[27]其中,很重要的是要擺脫大多數用戶對算法機制、算法風險及算法倫理處于“無意識”[28]狀態的局面。
用戶的“無意識”是學界和業界要求算法平臺公開算法機制面臨的實際難點。盡管隨著算法技術的廣泛應用,算法對于個人而言已不再是一個神秘莫測的新事物,但是受制于技術的高門檻和隱蔽性,個人和專業人士之間的技術壁壘尚未完全消失,算法對于公眾而言幾乎是不可見的,許多算法信息即使公開了用戶也并不一定能夠理解。培養用戶的算法素養,提高用戶在應用算法平臺過程中的風險意識與倫理意識,將有助于用戶更好地選擇、判斷、監管算法所提供服務的合理性。
同時,還應該將選擇權歸還給個人,讓與算法實際應用最接近的用戶采取行動以某種方式改變算法系統。[29]正如中國國家網信辦等四部門聯合發布的《互聯網信息服務算法推薦管理規定》所要求的,算法平臺應當以顯著方式告知用戶其所提供的算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。
當算法日益成為一項形塑個人與社會的基礎性力量,只是靠用戶和平臺自覺不足以鉗制算法背后交織的復雜力量,還需要國家和社會組織機構發揮監督與監管的作用,以相應的政策或法規引導算法優化。
政策和法規之所以有理由介入算法,是因為算法作為一種如此廣泛而普遍的重要權力,應當被理解為一種公共基礎設施,它塑造了數字空間中的信息獲取和公共討論的方式,決定了人們如何消費信息、如何交流、如何評價彼此,以及如何針對共同關注的重要問題開展討論。[30]以全球最大的在線社交媒體平臺Facebook為例,Facebook在全球范圍內建立起了超過29億人的社區,這些用戶分布在不同國家,有著不同的社會和文化規范。在這個全球性社區中,算法形成了一種“準國家權力”性質的公共力量,應當被視為一種與“正當程序”有關的重要權力。[31]而“正當程序”的正當性必須有更高層級的監管部門對其進行評估、規制與監督。
當然,算法并不具有法律人格,也無法對算法倫理問題擔責。因此,針對算法的政策和法規面向的并非算法本身,而是算法設計者、使用者以及監管者。作為算法倫理建構的外部路徑,通過政策和法規監管算法的很重要的一點是要實現“合法性與最佳性的耦合”。[32]具體而言,既要由以政府為主導的監管機構推行各類算法倫理風險的防治措施,又要依托市場經濟的自我調節與激勵機制形成算法平臺或企業的自我約束、自我規范;既要保證政策和法規實施的有效性,又要將干預和限制降到最低限度,以充分發揮算法平臺和企業的創新能力;既要從技術規范角度規制算法平臺的用戶數據訪問權限,又要從倫理角度充分保障算法在提升公共利益、促進人類發展、為社會創造福祉的優勢。