方可成
我們的生活越來越被一種叫做“算法”的東西決定。
你在搜索引擎鍵入關鍵詞,出來什么結果、按照什么順序排列,是由算法決定的;你在微博和今日頭條上刷出什么文章和廣告,也是算法決定的;你打網約車、聽歌、購物,往往都有算法的參與……在一些國家還出現了用算法來判案,用算法來決定是否拘捕一個人的情況。《人類簡史》的作者赫拉利甚至還預測:未來你的伴侶可能也是由算法計算,然后推薦給你的。
簡單理解,算法就是由計算機自動執行的一套規則。它在人類社會中扮演的角色越來越重要,但人們對算法還知之甚少。而這自然是很危險的:如果我們不了解算法,它就可能被用于侵害我們的權益、傷害社會正義,而我們可能對此毫無察覺。
因此,近年來,有越來越多人呼吁:科技公司應該打開算法這個“黑箱”,讓算法透明化,接受公眾監督。比如,Facebook 讓哪些內容出現在人們的時間線上,他們是怎樣決定的?為什么有時候會推薦假新聞?要不,公開代碼給大家看看?
不過,美國南加州大學的兩位研究者在傳播學期刊《New Media & Society》上發表的一篇論文認為:僅僅講“算法透明化”是不夠的,甚至可能會讓人誤入歧途。
他們說,呼吁透明化,是因為人們理所當然地認為:當人們看見了一個東西,自然就有機會和義務去監督它。簡言之,透明化帶來一種掌控感。然而,這樣的想法是存在漏洞的。兩位研究者總結了“算法透明化”的10 大局限性。
第一,透明度和權力可能是脫離的。看見了,并不一定意味著能夠采取行動。比如,在某些獨裁國家,民眾能夠看見腐敗,但也無濟于事,因為民眾什么都做不了,這樣反而會助長犬儒心態。如果人們不能及時處理、消化、運用那些被公開的信息,那透明了也是白搭。
第二,透明化可能有副作用。有時,極端的透明化會讓那些邊緣化的反抗群體被暴露。商業公司則經常指出:算法透明化可能會使得一些人利用系統的特性來作弊。
第三,透明化有時反而會遮蔽真相。當信息過多、無用信息淹沒了有用信息的時候,透明化可能適得其反,讓人找不到頭緒。
第四,透明化會制造一種二元對立的思維。信息的封閉和透明并不是非黑即白的選擇,不是只有“完全黑箱”和“完全透明”兩種選擇。比如,斯諾登在曝光NSA 的監控項目時,就沒有直接向公眾發布,而是選擇與自己信任的、有能力解讀這些信息的記者合作。
第五,透明化會過多強調個體責任。透明化假定的前提是,人人都能理解被公開的算法,并進行有意義的討論。但這是過于理想化的設想,是不可能實現的。兩位研究者將其稱為“新自由主義模式的個體能動性”,即把重任都施加在個人身上。
第六,透明并不一定帶來信任。信任是雙向的。達芬奇拒絕發布早期潛水艇設計的詳細手稿,因為他害怕被壞人用來制造水下暗殺。一些開發者不希望公布算法,不是因為商業秘密,而是不想被某些人利用。
第七,透明化可能讓一些專業人士圈定自己的領域,拒絕公眾參與和監督。即便是公開的信息,也可以被專業群體利用起來,塑造自身權威,甚至被利益集團腐蝕,通過對公開信息的曲解操作,為他們代言。
第八,透明化可能會讓“看見”比“理解”更受重視。看見了黑箱里面,不代表理解了它的原理。要理解算法,僅僅看見一行行的代碼是不夠的,還要學會與它們互動。
第九,透明化是有技術方面的局限性的。算法越來越龐大、復雜,以至于在科技公司開發算法的過程中,出現了很多連程序員自己都無法理解的結果。如果他們自己都理解不了,那么公開給大家,也沒什么用。
第十,算法有時間上的局限性。算法在不斷變動中,看見了當下的算法,不代表能夠預見未來的算法怎樣運轉。
兩位研究者列舉出這些局限性,并不是想說:透明化的方向是錯誤的。其實,他們的意思是:僅僅依賴“透明化”,不足以真正監督算法。他們想做的,是在透明化的基礎上更進一步,想辦法避免以上這些問題。
他們認為,我們要做的不是“朝系統里面看”,而是“將不同的系統結合起來看”,其中包括在這個系統中的人,也包括代碼、機器等非人類元素。
比如說,如果透明化之后,人們還是沒有足夠的權力去監督,那么我們就應該重視:如何去改變不對等的權力關系,而不是僅僅停留在透明這一步。再比如,如果透明化導致有效信息被淹沒,那么關注的重點就應該放在:系統是如何在信息過載當中,有意轉移我們注意力的。如果連程序員自己都搞不懂算法的結果,那我們應該考慮的就是:是不是要推遲算法的應用時間,留出更多的時間給開發者,甚至,是否根本就不應該來開發這樣一套系統?
總之,這篇論文指出的是透明化的局限性,而不是它的錯誤性。研究者認為,我們應該對算法有更多了解,而不能只停留在要求算法透明化這一步。雖然文章說的是算法,但其實我們也可以聯系到其他領域。無論在哪個領域,“透明化”都不是一個完全能實現監督的方式。