文/段偉文
我們正在走向深度智能化時代。所謂深度智能化,不僅意味著對事物的自動化認知和控制,更令人本身成為機器智能運用算法加以認知與操控的對象。在人們驚嘆智能算法強大力量的同時,也帶來了大數據殺熟、算法歧視、“智能監測”等隱蔽而普遍存在的問題。當前,有關算法的倫理和法律研究與實踐備受矚目,但大多未能深入探究智能算法這一全新機器控制方式的認知機制,更未看到算法認知對我們生活于其中的無遠弗屆的技術社會系統的基礎性影響。我們認為對智能算法的研究應進一步剖析算法認知過程與認知生態系統,系統地審視由此導致的倫理與政治結構的嬗變,為深度智能化時代的治理奠定更加扎實和更具前瞻性的理論基礎。
算法的觀念可以追溯至人類文明早期舉行儀式和解決問題的程序化方法。當前數據驅動的算法認知的觀念源于科學革命以來現代性建構進程中對“計算理性”和“量化社會”的追尋。在科技與經濟等主流話語中,算法一般被視為抽象的用于認知和決策的數學程序或模型,或可以通過對數據的計算與學習提取知識和指導行動的技術。
什么是算法?從語義上講,算法在當代的含義多指一組旨在達成某種預期的結果而展開的正式的過程或按步驟進行的程序。在詞源上,一般認為算法一詞來自中世紀波斯學者花拉子(Al-Khwarizmi)的名字衍生的拉丁詞“algorismus”,意指使用印度—阿拉伯十進制數字進行四則運算的手動程序——而此前的羅馬數字只便于做加減法。這便賦予算法以程序化數學運算的基本內涵,即能夠在有限數量的步驟中產生問題的答案或解決方案的系統的數學程序或捷徑。直到20世紀初,阿拉伯數字還常被稱為“算法數字”(the number of algorism),它使工商業發展所需要的復雜的會計活動成為可能。換言之,算法建立在一套能有效地解決問題的編碼系統之上。現代意義上的算法是計算機和數字技術的產物,指以計算和信息的方式解決問題的、可通過遞歸等機器自動重復執行的邏輯程序或編碼系統。當前,隨著大數據與人工智能的發展,人們對算法的相關討論更多聚焦于數據驅動的機器學習算法。
實際上,正如法國數學家讓-呂克·夏伯特(Jean-Luc Chabert)在《算法史》(1994)一書開篇所指出的那樣,算法自人類文明之初就有,在人們創造一個特殊的詞來描述它們之前就已經存在了。在更加凸顯文化的廣義算法觀看來,一旦人們找到了一套解決問題的程序化方法,會很自然地將“配方”傳遞給他人。也就是說,不論十進制四則運算的算法還是二進制計算機的算法,都是古代算法觀念的產物。因此,廣義的算法原本并不局限于數學和數字技術。在所有文化中,算法都被用于預測未來,決定著醫療和美食的配方與步驟,人們曾用它確定法律要點、校正語法。也就是說,與其說數學和數字技術帶來了算法,毋寧說是算法觀念推動了數學和數字技術的應用。
盡管夏伯特的算法觀更加強調算法的目的性及其與社會文化的相關性,但夏伯特的研究太早,沒受到應有的關注。自20余年前谷歌搜索算法通過分析用戶生成內容(UGC)開啟這波數據驅動的智能算法應用以來,算法在科技和經濟等主流話語中主要被視為抽象數學程序在數字技術前沿的應用,這使得基于算法的認知被默認為可以揭示事物的相關性的客觀的“機器真理”。特別是大數據和人工智能的迅猛發展,使得具有經驗主義色彩的數據驅動的智能和算法的認知功能被夸大。其追捧者相信或聲稱,數據可以呈現世界的一切,甚至成為比世界更真實、更直接的認知對象,通過智能算法能讓數據或原始數據說話,從而揭示關于世界的所有真相與趨勢。
量化社會和算法認知其實是比它所聲稱的客觀認知復雜得多的社會工程技術,其中伴隨著知識與權力的糾纏。它們與其說是基于社會事實的真理發現,毋寧說是重新安排社會事實的真理的制造,而其目的是使人和社會成為可以調控的對象和過程。透過志愿獻血、服兵役的年齡限制以及各種自我健康監測應用程序,就可以看到量化社會和算法認知實際上是一種社會層面的運作,運行其中的國家計算和資本計算等“認知—權力”形塑著這樣那樣的本體論政治安排,構造著負載倫理價值的事實。要獲得對算法認知更深入的認識,就應該轉向對算法認知所安排和構建的倫理與政治結構的探究。
算法認知正在決定著我們解釋與改變世界和自我的方式。例如,各種智能穿戴和量化自我的應用甚至使我們對數據的感覺成為我們自身的一部分。但在更多的情況下,算法認知所帶來的是不對稱的倫理與政治結構。有關亞馬遜土耳其機器人等眾包平臺的幽靈工作以及大量以人類智能彌補機器智能不足之類的研究表明,算法認知實際上是人機共生時代全新的社會分工的統籌機制。由于算法認知將人和機器視為無差別的具有能動性(agency)的能動者(agents),使得傳統的以人類為認知主體的社會嬗變為基于人機認知組合的認知生態系統和技術社會系統。由此,必然地賦予相關倫理與政治關系以新的內涵,進而決定著深度智能化時代的倫理和政治結構的變遷。
十多年前,當人臉識別技術還只是小規模計算機視覺實驗研究時,人們就開始關注其可能導致的隱私保護和普遍監控等倫理、法律和政治問題。如今這項技術已能從數百萬張人臉數據中學會解讀微妙的情感暗示,甚至通過人臉識別發現人們之間是否具有基因關聯或是否屬于同一族群。這一典型案例揭示出當前科技發展與人文應對中經常遭遇的悖論:在技術變得更為強大的同時,原有的問題變得更加敏感,倫理規范和法律法規的發展速度跟不上科技創新的加速度。
這一來自現實的挑戰表明,隨著科技的加速創新,必須引入一種全新的思考框架對其加以審視,更具預見性地探究其對人和社會的深遠影響。我們認為,為了刻畫當代科技對世界和人類帶來的這些全面、深刻而微妙的影響,可以用深度科技化這一動態的概念對其加以概觀。由此既能凸顯在納米、信息、生命和認知等會聚科技的基礎上發展出的基因、數字、神經等新興科技的顛覆性社會影響,又有助于從科技未來與人類文明交匯的前沿視野,系統地探討科技所主導的人類世面臨的挑戰與可能的出路。近年來,大數據與人工智能迅速地發展為一種泛在賦能科技,令數據和算法所驅動的深度智能化創新成為深度科技化框架下最具動能同時也最有爭議的發展面向。因此,應在深度智能化的趨勢性框架下展開對算法認知的前瞻性思考。
為了避免將算法認知所帶來的倫理和法律爭議簡化為技術問題,不應僅將算法認知視為技術黑箱,而應視其為復雜的技術社會系統,以便揭示由其所引發的認知生態和認知權力結構層面的深刻嬗變。
一是世界的數據化與算法認知的生成性。在深度智能化時代,所涉及的智能應用主要是由數據和算法驅動的數字技術系統所具有的機器智能,其基本形式是基于世界的數據化的算法認知。所謂世界的數據化,即將事物和人轉化為可量化、可計算的非實體的信息流或數據流,由此形成的平行數據流不僅使數據成為世界的第二屬性,而且產生出數據孿生,甚至完全用數據構建虛擬現實和鏡像世界——這也是當下“元宇宙”熱所聲稱的。
在世界的數據化或數字化平臺上,所有的事物和變化都將成為機器可識別的對象,算法認知由此成為一種生成性的力量。隨著算法認知的日益普及,它正在成為新的驗證和識別方式,甚至決定著我們活動的空間、可以遇到的人和事。這使算法正在成為深度智能化時代創造世界的方式,從而呈現為一種關于世界的價值、假設和主張的倫理與政治安排。
二是認知生態系統與算法認知對現實的制造。世界的數據化和算法認知的興起,正在使我們星球上的認知生態系統發生顛覆性的改變:以算法認知為代表的非意識的人工智能體認知已經超越基于人的意識和主體能動性的人類認知。目前,互聯網、可編程系統、跨越電磁波譜的有線和無線數據流等共同構成了全球互聯的認知生態系統——認知圈,而人類社會正日益嵌入其中。在認知圈中,人類不再是這個系統中唯一的行動者或智能體,人的主體能動性只是具有更廣泛聯系的一般的能動性組合的一部分,而算法認知等機器認知者日益扮演著至關重要的角色。
隨著普適計算、大數據和人工智能的使用,沿著法國當代哲學家德勒茲(Gilles Deleuze)的控制社會寓言所揭示的端倪,所謂的“計算制度”和“算法政治”方興未艾。雖然算法認知改變和制造著現實,但人們往往是在沒有覺察到的情況下成為數據采集和計算與認知對象的。其中所涉及的算法認知中的主體性、能動性等算法權力等問題,恰恰是對算法認知的深度倫理與政治審視的切入點。
從量化社會到算法認知的實現,始終是由權力所推動的,而其目的一般是為了產生某些方面的知識并采取相應的行動,由此提升算法認知者的行動力和智能系統的運作效率。透過以色列軍事司法機構運用算法判定危險人物、烏克蘭危機中人臉識別算法被用于鑒別士兵身份等案例不難看到,算法認知不僅伴隨著對世界的重新安排,而且正在成為具有強力色彩和系統滲透性的權力,甚至可能形成某種智能權力場域。由此,就產生了預測機器和智能折疊等深度智能化時代值得關注的知識—權力運作現象。
一是基于算法權力的預測機器。作為一種新的機器認知與調控方式,數據驅動的智能算法試圖將世界完全轉化為數據,繼而通過算法認知實現對世界的自動調節。隨著技術的發展,這種自動調節顯然不再滿足于把握事實和尋求社會動態平衡,而演進為預見和控制世界的機器。算法認知不僅分析和調控著我們當下的行動,而且試圖構建一個最符合其目標參數所刻畫的可能性的未來。但問題是,基于過去的經驗數據運行的預測機器,實際上是先通過過去的數據將世界和人的恰當表現標準化,然后以此為基礎預測甚至強行構造未來。不論是預測罪犯會不會再次犯罪,還是根據數據畫像預測消費者購買某種商品的可能性,算法設計的前提都是使人的行為模型標準化,從而使其可以預測和引導。為了做到這一點,無疑需要足夠的數據,這便使得對人的行為數據的貪婪而持續監測正在成為一種新的技術社會文化,甚至在有些場景發展為對人的未來行為預調控的過程。
由于預測算法只根據相關性對行為可能性作出評判而不分析其原因,當其預測到某種可能發生的風險(如某人可能采取反社會行為)時,可能會先發制人。但如果憑借強大的計算能力,普遍采用這種持續的和先發制人的權力實施方法替代傳統的預防治理方式,可能會使治理機制僅僅關注結果而忽視造成問題的原因,從長遠看可能醞釀更大的社會風險。
二是人機認知組合下的智能折疊。綜觀從火神祭祀儀式到基于AI的自動化勞動等算法儀式(algorithmic rituals)的歷史變遷,德國媒介哲學家帕斯奎內利(Matteo Pasquinelli)認為,在人工智能時代,盡管人們傾向于將算法視為抽象的數學在具體數據上的應用,但算法其實源于對空間、時間、勞動和社會關系加以劃分的世俗需求,是社會物質實踐的產物。
從困在算法里的快遞小哥到隱藏在人工智能領域的數字零工等案例可以看到,算法本身正在成為深度智能化社會的認知生態系統中的制度安排——所有的人都在人機認知組合中被配置成為特定的數據驅動的智能體,進而構成某種智能折疊。對這一點的理解需要深入了解人機認知組合的具體運作過程,才可能找到探討的線索。
人機認知組合下的智能折疊實際上回到了馬克思所討論過的自動機器時代一般智能的問題。在技術哲學和媒介哲學中,經典的觀點是技術或媒介是人的延伸,但算法權力下的預測機器與智能折疊似乎意味著人正在成為機器感知的延伸,人們甚至將不得不面對機器役使和社會馴化的雙重命運。
我們之所以對算法認知展開倫理與政治審視,所真正關心的是算法認知如何介入人們生活和工作層面的認知與行動。數據驅動的算法認知正在影響著我們怎么看待世界和我們自己、我們可以選擇什么樣的生活、希望自己成為什么樣的人、可以做什么樣的工作等方方面面。面對這一前所未有的挑戰,無疑亟待我們對算法認知所帶來的倫理與政治嬗變作出持續深入的審視與權衡,探尋更好地生活于深度智能化時代所必需的足夠的智慧。
首先,在技術驅動的深度智能化時代,要學會運用技術賦予的權力構造一種可以讓人們能夠共處的生活方式。為此,必須尋求普通人可以接受的倫理與政治安排,在此基礎上形成全新的社會契約。如果未來的社會治理會建立在數據驅動的算法認知之上,至關重要的前提是如何重新界定數據智能和智能監測在社會應用中的邊界和限度。
其次,鑒于人工智能發展的開放性,有必要從恰當的技術社會想象入手,系統探討針對人的數據分析和算法認知涉及的權利問題。其中,最為關鍵的問題是,誰在多大程度上擁有對人的可解讀、可預測和可推斷的權利。
最后,要打破技術解決主義與無摩擦的技術的隱蔽組合策略。一方面,面對智能科技的社會倫理風險,在尋求技術解決方案的同時,應立足技術社會系統等更為廣闊的維度,追問和消除社會不公、認知權利不對稱等深層次的肇因。另一方面,要充分揭示算法認知中經常運用的“無摩擦技術”(frictionless technology)和“技術無意識”等設計策略,使算法認知以及使其得以運作的力量得以應有的揭示,從而促進公眾對科技的社會價值的理解,提升其對科技未來的想象力,使整個社會擁有面向深度智能化時代的生存智慧。