文/張萌
我們現在生活的世界,算法越來越多地參與到重要決定的裁決中。當學者們在談論算法如何去構建和實施權力和知識制度時,將其視為一種引誘、脅迫、約束、調節、控制的方式去重塑人、物體與各種系統的互動,面對強大的技術控制,個體的能動性似乎變得無足輕重,成了被算法馴化的對象,公眾被忽視了。事實上,個體的能動性(agency)是一種積極地適應、協商、參與社會規范的互動,這種參與如何作用于技術規范是值得思考的問題。但是,對個體力量的過度肯定則又將算法與用戶從宏觀的社會經濟、技術背景中剝離,而現實中個體很難成為贏家。本研究將批判性和經驗性的注意力集中于算法受眾的抵抗戰術上,并將受眾戰術置于更廣泛的社會技術背景(控制社會)與宏觀的算法戰略部署中去探討。
算法進入了我們的生活,幫助我們看到和感知可能錯過的意義世界,為我們帶來了“便捷”,這種自由世界的搭建,得益于算法強大的生產戰略。
1.從等級觀察到數字化預測
算法社會,規訓時期的等級觀察逐漸瓦解,數字化模擬和計算褪去了強制的外衣,算法通過數字化模擬的手段,實現對被試者的觀察。這種觀察形式往往在后臺完成,沒有明顯的組織形式,被觀察者甚至很難察覺。算法的觀察模式還表現為“先發制人”。規訓社會的觀察往往是對當下以及過去時間的觀察,而控制社會則是對當下及事件發生前的觀察,算法通過獲取用戶信息,以此為依據來激發事件,預測用戶的偏好與行為。算法的觀察模式不是關注空間中的物體,而是那些特定的能夠反映用戶行為的代碼。因此,規訓社會關注可見與不可見,控制社會則對被觀察者的欲望、需求和意圖更感興趣。
2.從空間劃分到時間填充
算法社會第二個生產戰略體現在空間的弱化,行動越來越具有流動性。算法社會施加控制的工具是信息機器,促使代碼空間的流動更加有序化、合理化,空間邊界被打破融合成為一個無邊的網絡,機構之間的分界消失。在這種社會形態中,越來越多的具有明確起點和終點的片段被常規訓練所取代,所有的主體時間成為同時受到各種形式訓練的大片段。脫離了透視空間,算法投射到電子屏幕,個人需求被24小時地過問與滿足,用戶不僅獲取了幾代人積累的知識與智慧,更是從有限的屏幕中獲得無限的空間和時間。算法社會,空間的區隔變成了“時間的填充”。
3.從普遍的個體到特殊的分體
算法對主體身份的生產產生了直接的影響。知識生產與消費進一步進入人們的日常生活,使得規訓社會普遍的個體,在今天逐漸成了德勒茲所說的分體(dividuality)。個體(individual)與分體的區別體現在目標的差異。規訓“制造”(make)個體,將個人視為對象與運轉工具,而算法的調制模式并非要實現對個體的管理,而是更多地參與流動的產生和預期,因此,算法不關心“有用個體”的產生,而是更關注流動的信息是否符合了每一個特殊分體的自身特點,這也是算法為什么熱衷于為我們提供“個性化服務”的原因。
數字技術的豐盈與信息的豐富遠不會取消政治,相反會催生新領域的政治斗爭。
1.“風口上的豬”:算法背后的技術政治
資本和權力的運作最終決定了哪些技術可以廣泛進入社會生活的領域,而哪些則不能,個人被看作是算法網絡中的監視對象,這是算法政治的第一層面。算法技術普及后,其生產戰略又再次決定了哪些東西可以進入我們的視野,哪些則被否定,技術被賦予了政治屬性——“誰在內還是外,誰可以說話而誰又不可以說,誰擁有權威而可能會被相信”,一切都開始取決于傳播技術,技術看到了并且可能會放大一些人與其他人一樣或不一樣的東西,這構成了算法政治的第二層含義。個人無法從根本上左右充斥于自身周邊的技術走向,同時個人用戶也無法真正體驗到算法在確定一個人生命中所產生的影響,因為算法很少與個人交談。
2.來自算法的窺視:排序、推薦與排除
技術對注意力的分配起到了至關重要的作用。算法通過排序、類別關聯等技術手段,決定了將什么樣的內容呈現在用戶面前。原本不在日常生活范圍的東西借助算法推薦進入人們視野,而那些未被算法選中的東西,則被排除在外。它通過排序、可見、排除等實際操作決定了哪些信息作為一種知識文本向公眾展示世界,影響著事物的可信度、社會權威以及隨之而來的未來發展,影響社會性和技術性知識的話語和文化。
算法看似為分體的發展打造了個性化、獨立化的專屬內容與服務,但其實質是用一套極其單一的標準代碼在征服著世界,它所要實現的核心非常明確,通過代碼操作信息的可見范圍,將用戶需求精準置入代碼運算中,通過這樣的方式將游離在外的用戶需求納入算法程序,最大范圍地取消偏離常規的民間實踐,用戶仍然沒有真正屬于自己的空間。某些代碼和界面功能的設置為了更有效地迎合用戶需求,而選擇某一種形式確定下來,并非基于用戶變動的、不可預測的消費實踐提供一種開放的、未完成的使用狀態。用戶面對算法,始終缺乏一種對等的自治能力,只能適應被算法按照既定規則來進行服務。
3.被隱藏的強制:不得不交付的用戶自由
德勒茲說:“不必問哪種制度最殘酷,或是最可容忍,因為在每種制度中,自由與奴役都在交鋒。”算法用戶享受便利的同時,也在交付自己的某些自由。
(1)被強迫的體驗和創造。一方面,參與算法實踐的用戶越多,其服務越全面、越體貼到位,技術授權就越突出,個體被算法實踐裹挾,不得不參與其中,因為“您身邊的朋友都在這么做”“您也必須這么使用”。算法的技術包容與技術友好遮蓋了其對替代選擇的消除與排斥,個人可以做的選擇越來越少,到最后,除了接受算法服務,別無他選。參與文化中的權威并不是通過威脅將我們驅逐出網絡來實現的,而是通過使其“難以抵制、盡早參與”來運作的。
(2)獲取使用的同時交出行為數據。算法平臺不僅內含一種獎勵制度,還包括一種懲罰制度,對使用條款的共識性接受將得到獎勵,拒絕接受使用條款將無法體驗由技術帶來的便利與普惠。于是,算法的技術包容建立了一套新的霸權秩序,不遵守條約或者拒絕按照平臺規則來運作,個人便無法瀏覽網站或購買商品。規訓機器中,受試者可以意識到被觀察的可能性,而數字時代人們好像對自己是否被觀察并不關心,對于自己的行為數據,覺得他們沒有什么可以隱瞞的。沒人會過于“計較”自己是否被隱性強制,以此避免被主流技術話語邊緣化,為抵御因為拒絕就使用條款達成共識所帶來的風險,個體心甘情愿地被技術征服。
(3)算法黑箱滲透著利益考量與文化霸權。算法背后難免存在著對人的隱晦或者公開的歧視。“X=男性”這樣的代碼設置完成的不僅是一個劃界動作,更是一種文化話語。正如亞馬遜AI簡歷篩選過程中對那些明顯具有女性標簽(如“女子象棋俱樂部”“女子高中”等)的求職者打低分那樣,算法背后難免滲透著利益的考量與文化霸權。在我國也存在用戶歧視現象,例如“大數據殺熟”。殺熟不僅是商戶的營銷手段,更是平臺追逐高額利潤的戰略,資本通過算法實現對社會的實質性吸納,并對個體區別化對待。算法技術不僅是人們彰顯個性的工具,更成了組織俘獲個人的手段,受眾不得不承受算法可能帶來的負面后果。
當占據主導地位的生產系統沒有為消費者留有足夠的自由空間,或者,當既定秩序無法滿足消費者的自身利益時,便會激發受眾積極創造,以此參與算法控制的社會再生產。
1.對算法產品的空間隔絕
拒絕下載、拒絕點開、快速劃走、卸載成了算法受眾對算法產品最常用的隔絕行動機制。逃避是弱勢群體經常使用的一種武器,這種逃避是一種主動選擇的結果。下層零散的抵抗行為很少進入歷史進程的記載,但當這種底層抵抗被千萬次的重復累加時,就會對整個技術社會產生決定性影響。當然,對算法的反思并不總是以個體為中心的,在我國,個體伴隨著政府的力量可能會成為“算法之上的我們”,以一種集體分析和集體反思的方式制定規則。
2.對算法規則的自我重組
當算法推薦與受眾需求出現匹配斷裂時,用戶會重新將算法產品組織成自己喜歡的形式,在重組中獲得權力。受眾對算法規則的重組是一種非正式的實踐,是在不改變算法空間規則的前提下展開的,就像德塞托所描述的閱讀中的讀者一樣:“讀者并不奪取原作者的位置,也不為自己謀取一個作者的位置”,只不過受眾對使用規則的重組創造了算法文本“本來意圖”之外的東西。
3.對算法規則的主動嵌入
算法受眾還會將自己的謀略主動嵌入到算法規則中。例如,在今日頭條和微博中設置自己感興趣的話題;在百度地圖中將路線偏好設置為“躲避擁堵”;點擊頁面右上角的“×”,對一些不感興趣的內容選擇“不感興趣”,或者對一些賬號“取消關注”“投訴”,對另一些內容選擇“收藏”或者“點贊”。用戶的自主設置完成了平臺內容的“自我定制化”,與個性化不同,定制化(customization)被定位為用戶明確參與更改產品的過程,是更高一級的個性化,因為它包含了用戶的參與在其中。但需要注意的是,即便用戶選擇點擊“叉號”拒絕算法推薦,也屬于一種參與,因為點擊“不感興趣”這一操作本身就意味著后臺數據的生產,這不是避開了算法對我們的追蹤,而是產生了更多的數據信息讓算法更準確。某種程度上,算法實踐是一種收縮的、越來越精細化的內卷過程。
4.對算法邏輯的反向規訓與控制
受眾對算法邏輯的參與最深的層次是故意將自己的偏好、興趣投喂給算法以實現對算法的反控制和反規訓,這種反噬意味著受眾努力將主觀意圖凌駕于機器意圖之上。常見的反向誘導方式是給予不喜歡的內容以較高的“觀看完成度”。受訪者YL是一個互聯網公司的算法工程師,日常生活中,他具有用戶和算法開發者雙重身份,由于不想被算法過多“算計”,他主動對內容產品進行引導:“在各個平臺,不管是什么我都會關注,所以給我的推薦是不可能準確的。它越不準確,我反而會越高興,我不希望算法過于精準,那樣會把信息收得很窄。”(18YL-M-程序員)YL雖比非專業人士有著更大的算法覺悟,但依舊只是通過對算法產品的使用來凸顯自己,而非產品本身。
德塞托關于戰術與戰略的區分在地點與空間、不可見性的關系性描述方面,仍然適用于算法社會。但是,規訓社會受眾戰術最主要的特點——“可偏離性”——卻在控制社會發生了實質性改變。規訓時期,受眾抵抗戰術的可偏離性意味著戰術實踐者并不總是按照生產者的意圖進行消費,他們更像是戰略空間中的游牧人,在閱讀、購物、烹飪、交通、居住等各領域中,公眾漸漸偏離了強者建立的秩序,通過自己的詭計與計謀進行持久的抵抗,實現令人驚喜而富有詩意的新畫面。而算法社會,個體的抵抗戰術是控制社會背景下數字參與的一部分,沒有絕對的偏離,任何偏離都是一種新形式的參與,是另一種形式的鏈接。算法延展了個體社會參與的手段,并以這種參與作為提升算法預測力的依據,最終算法通過一種潛移默化的方式將用戶進一步鎖定在平臺提供的服務與規則中,在參與的過程中,個體被技術征服、定義和重塑,算法通過授予參與者一定的主體性和能動性將其綁定,并給予參與者一種更加社交的幻覺,用戶自以為聰明的抵抗實質上變成了一種自我強化的不平等。
我們所在的時代是這樣一個時代——一個時代造就了我們,我們造就了機器,機器造就了我們的時代。算法受眾將隱私、行為數據、個人信息交付給了算法來換取線上服務的享受,將如何定義我們身份的所有權讓渡給了算法。算法的控制體現在越來越多的個體被捕獲,并且由算法來決定分配給用戶的代碼以及用戶生成的代碼。對于算法的存在人們似乎越來越習以為常,人們不會去關注算法呈現的世界是否“真實”,而是更加關注算法推薦是否提高了性能。界面中的“技術友好”掩蓋了背后的代碼操作,同時使得各種事物在每天的城市生活中變得熟悉而固定,變得可見或被賦予可見性成為一場極具競爭力的權力游戲,代碼不再是一種數字符號,而是通過一定的操作來實現特定目的的具體實踐,成了從屬于整個社會體系的文化對象。
算法在增加個體自我社會參與意愿的同時,加深了數字世界的不平等,個體參與得越多,產生的不平等和差異就會越深。算法如同幽靈一般,緊緊將人們捆綁在代碼編織的數字空間中,無法掙脫,并通過技術包容實施著一種“友好暴力”(friendly violence),受眾的抵抗只是一種無奈的妥協,偏離成為一種奢望。真正開放性的算法應打破既有的平臺規則,承載更多用戶自己的含義、理解與定義,不僅強調算法帶給人們什么,更強調用戶帶來了什么。