劉煜洲 仝澤宇
摘 要 通過算法進行的內容分發無疑提升了信息傳播的效率,在有關個性化推薦算法的研究內容當中,學者們常常從“信息繭房”“認知窄化”“過濾氣泡”等角度進行批判式研究。實際上,個性化推薦算法是否真的造成了使用者“故步自封”其實還是一個值得商榷的問題。文章提出在個性化推薦算法當中蘊含著共同體塑造的可能性,先提出個性化算法推送易造成全景敞視監獄與數字勞工這兩個陷阱,再對個性化推薦算法是如何對共同體塑造構建了可能進行分析。
關鍵詞 技術;共同體;個性化推薦;算法
中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)19-0072-03
早在1922年,李普曼(Walter Lippmann)在其所創作的《公眾輿論》一書中就提出“擬態環境”(pseudo-environment)這一概念,意在強調新聞媒體機構具有對社會事實的“重塑”作用,即大眾傳媒通過對新聞事實的挑選、編輯、分發等隱藏在“黑箱”當中的操作,從而構建出大眾傳媒想要呈現給大眾的“社會現實”。這一理論在20世紀初“魔彈論”盛行的那個時期,反映出新聞媒體機構在“建構社會現實”“凝聚社會合意”“指導大眾生活”等方面的強大作用。
伴隨信息技術的不斷發展,人類從信息匱乏時代漸入到信息超載時代。如何進行高效率的內容分發,成為了所有信息技術公司孜孜追求的方向。起初,“分類目錄”和“搜索引擎”的方式在互聯網發展的初期為用戶節約了一定的決策成本。然而,“分類目錄”無法適應爆炸式的信息增長,也無法為用戶提供引導服務;“搜索引擎”也只是一種被動的信息過濾機制,既無法實現主動為用戶推送消息,亦無法挖掘用戶的潛在需求、提供個性化的服務[1]。因此,如何在海量的信息面前實現信息與用戶之間精準高效的匹配,這不僅對傳統傳媒業的發展提出了巨大挑戰,同時也是數字媒體技術時代公眾與信息技術公司共同關注的重要問題。
在此背景下,個性化推薦算法在海量數據的基礎上應運而生。個性化推薦算法的運作機理即通過對用戶行為和關系的分析,挖掘用戶對內容的偏好和潛在需求,通過信息聚合,自動為其生成符合其需求的信息,從而實現內容推薦與信息發送的個性化[2]。也就是說,個性化推薦算法可以為用戶精準“描摹畫像”,從而實現多元信息的精準分類、匹配與推送。同時,社交媒體的發展為聚合用戶使用數據、深入分析用戶行為提供了更為便捷的平臺。
有研究者對今日頭條的新聞推送進行量化研究后發現,今日頭條的算法分發實現了所謂“千人千面”的傳播效果,即沒有兩個人收到完全相同的新聞推送[3]。然而,在這樣一種所謂“千人千面”的個性化推送當中,是否可以將其理解為每位用戶都作為一個“個體”在不同的時間、地點進行著信息的收受活動?個性化算法推送會不會將具有主動性與能動性的用戶再次打散為大眾社會論者眼中的原子化的大眾?個性化推薦算法當中是否有著類似于大眾傳媒“凝聚社會共識”的作用?
在大數據的支持下,基于用戶的使用習慣、興趣愛好以及社交網絡等進行信息推送的算法打著個性化的旗幟,表面上為用戶提供更好的服務與更精準的內容推送,實質上則是將作為使用主體的用戶推向了全景敞視監獄與網絡時代的數字勞工的陷阱當中。
2.1 看不見的控制:全景敞視監獄
法國哲學家福柯的全景敞視監獄理論具有極強的啟示意義。在全景敞視監獄中,象征權力的高塔是人們所“可見”的,似乎那里總是有人在監視周圍“犯人們”的一舉一動。但是對于“犯人們”而言,監視者是否正在監視著他是“不可見”的,甚至不確定高塔中是否存在所謂的監視者。“犯人們”在這種不確定性之下只能時刻規范自己的行動,以保證自己的行為不管監視者何時看到都是符合制度準則的。久而久之,這樣一種心理就會內化為自身的一種規范,從而實現對于監視者而言,最低成本而又最高效益的“自我監視”。這與過去監獄中象征著權力的皮鞭、牢房的情況大有不同。這樣一種隱性的權力在現代社會發揮著越來越重要的作用[4]。
個性化推薦算法實質上正是媒介技術營造全景敞視監獄的中介。在算法的個性化推送的邏輯當中,倘若沒有對于每位用戶隱私數據的收集,在爆炸式的信息面前是無法做到信息與用戶的精準匹配的。而用戶隱私數據的提供正是通過各種不得不點擊的“我同意”“我接受”的條款。之所以說“不得不”,是因為假想拒絕或關閉這些條款和權限,那么現如今絕大多數的應用軟件都是無法使用的。當你在接受這些條款并進行必要的實名認證或基本信息填寫之后,你的個人信息、使用數據、瀏覽痕跡等都將一一上傳到服務器當中。在商業公司的合謀之下,你剛在淘寶上瀏覽過的某個產品,就會出現在隨后打開的抖音廣告界面當中。
隱藏在所有應用軟件背后的算法,靜悄悄地源源不斷地收集著你的個人數據,在越來越個性化的同時,不僅伴隨著隱私泄露更大的可能性,在更無意識或有意識的層面上規范著使用者的行為。算法就像是一雙看不見的眼睛,無形卻持續監督著使用者的行為。你的網頁瀏覽痕跡、點贊評論內容、LBS(移動定位服務)都將成為算法個性化推送的依據。
2.2 數字勞工:數字資本的免費勞動力
在算法源源不斷地收集個人數據信息以便更精準地實現個性化服務的同時,每一位用戶實際上又成為了數字資本的免費勞動力。互聯網政治經濟學研究領域的代表性學者克里斯蒂納·富克斯教授根據馬克思關于勞動的定義和媒介政治經濟學派學者達拉斯·思邁茲的“受眾商品論”,提出了更符合互聯網時代的數字勞工理論。正如富克斯所總結的關于數字勞工在商業資本當中的勞動方式:
其一,勞動具有強迫性,在互聯網時代的浪潮下,我們的生活日益變得網絡化、全球化與數字化,人們越來越離不開互聯網,越來越依賴于互聯網,互聯網的使用對于人們而言變成了一種必需品;其二,異化的勞動,本質上講互聯網的使用者是在為網絡商業公司打工,而人們卻幾乎得不到任何實質性報酬,商業公司從中獲取利潤;其三,網絡用戶的雙重商品化,使用者本身是一種商品,而使用者生產的信息也是一種商品[5]。
通過開啟軟件的各種權限,軟件中的算法不斷收集用戶的使用數據、地理位置等信息,從而在大數據的支持下實現信息與用戶之間的精準匹配。而用戶在此過程當中恰恰充當了數字勞工的角色,不得不使用、接受算法的推薦;表面上自己獲取了個性化的服務,實際上卻是異化的勞動的表現;用戶自己生產的數據源源不斷被算法收集,成為商業公司合謀下的數字商品,同時再將其與新聞或其他信息進行匹配輸出成另外一種商品銷售給使用者。
作為網絡社會研究領域的代表性學者,曼紐爾·卡斯特在其著作《認同的力量》一書中通過對原教旨主義、民族與民族國家的關系以及地方共同體等方面的討論表述了共同體的概念與形成,他認為共同體“往往以歷史、地理或生物學所清楚界定的、很容易就能分辨出抗拒邊界的認同為基礎,建構出集體的、抗拒那些不如此就無法承受的壓迫力量的認同”[6]。
國內學者在研究個性化推薦算法時,往往將個性化推薦與信息繭房、知識窄化、過濾氣泡等概念劃等號。然而,正如學者喻國明所言,智能算法型信息分發所依賴的算法,不僅具有越來越多元的發展趨勢,同時也處在不斷優化和迭代的過程當中。算法平臺雖然以個性化推薦、信息與用戶的精準匹配為目的,但是算法平臺并不希望用戶的興趣窄化,只有促使用戶關注更多的內容種類,才能不斷保持用戶對該平臺的興趣與新鮮感,即算法平臺“推薦內容的多樣性越好,用戶的信息依賴度及長期留存概率便越大”[7]。實際上,算法推薦平臺中“同城”“可能認識的人” “附近的人”等基于LBS的內容推薦,以及通過協同過濾方式均在隱性的層面上有可能實現共同體意識。
3.1 基于LBS內容推薦的地方共同體的可能
卡斯特在其著作《認同的力量》一書中說“人們是在他們的地方環境中進行社會化和互動的”,與此同時,根據研究共同體問題的學者及卡斯特的跨文化觀察,可以認為“人們將會抗拒個體化和社會原子化的過程,而更愿意在那些不斷產生歸屬感、最終在許多情況下產生一種共同體的、文化的認同的共同體組織中聚集到一起”[6]。
在今日頭條、一點資訊等新聞聚合平臺,包括愛奇藝、騰訊視頻等視頻類平臺均設有“同城”欄目,在基于LBS的內容推薦與新聞價值中地理上的接近性相契合的基礎上,這樣的設置不僅可以促進用戶對所在地區信息的快速獲取,也能夠在一定程度上了解該地區的經濟文化等相關信息,倘若該地區的文化符合用戶的期待,或接近用戶在自身社會化過程當中所接受到的文化背景,便容易對該地區產生共同體意識。
不僅如此,在許多應用軟件當中都有“家鄉”或“故鄉”之類的個人信息填寫,盡管用戶可能身處他鄉,但算法通過對用戶個人信息的收集,依舊能夠推送用戶故鄉的相關信息。由于故鄉是幾乎每個人社會化最重要也是影響最持久的場所,當算法對其相關信息進行推送的過程當中,便能夠起到維系“鄉愁”的重要作用。
3.2 協同過濾實現隱性共同體意識的可能
概言之,“協同過濾”即在海量數據面前,通過計算找到用戶與用戶之間的相似興趣,并將此興趣內容進行目標推薦。陳昌鳳將協同過濾算法又分為“基于用戶的協同過濾算法”和“基于物品的協同過濾算法”,前者的原理是“人以群分”,通過聚類分析若干用戶的行為數據,將行為類似的用戶編入一個隱形閱讀小組,將目標用戶推薦該小組中其他用戶感興趣但未被目標用戶閱讀過的新聞;后者的原理是“物以類聚”,如果某兩則新聞總是被同一個用戶閱讀,則默認二者之間有更大的相關性,因而會給閱讀過其中一則的用戶推薦另外一則,該算法不直接計算兩則新聞的相似度,而是通過用戶對兩則新聞交互行為的類似性,推斷出兩則新聞具有的相似程度。
在“協同過濾”機制運作的過程當中不難發現,無論是“人以群分”的隱形閱讀小組,還是“物以類聚”的進行新聞配對推送,都在一種潛在的方式形成了某種不確定的、不易被察覺的共同體。
“用戶”與“受眾”比起來,前者的“用”代表著主動性,“戶”代表著獨特性與差異性,“受眾”作為大眾傳播理論時代的名詞,更多意義上是將人們視為被動信息接受的群體,缺乏主動性與獨特性[8]。算法的衍生漸進了權力運作方式的轉變,算法作為一種權力無情將用戶拋入了全景敞視監獄和數字勞工的陷阱當中。用戶不僅無時無刻被監視,更充當著商業公司“更好為你服務”承諾下的廉價勞動力。以此而言,在現有文獻多從“信息繭房” “過濾氣泡”等個性化的陷阱討論的基礎上,思考算法對社會的共同體塑造有著重要意義。
參考文獻
[1]陳昌鳳,師文.個性化新聞推薦算法的技術解讀與價值探討[J].中國編輯,2018(10):9-14.
[2]喻國明,李慧娟.大數據時代傳媒業的轉型進路:試析定制內容、眾包生產與跨界融合的實踐模式[J].現代傳播(中國傳媒大學學報),2014,36(12):1-5,11.
[3]王茜.打開算法分發的“黑箱”:基于今日頭條新聞推送的量化研究[J].新聞記者,2017(9):7-14.
[4]包亞明.福柯訪談錄:權力的眼睛[M].嚴峰,譯.上海:上海人民出版社,1997:158.
[5]Fuchs,Christian.Dallas Smythe today: the audience commodity,the digital labour debate,Marxist political economy and critical theory. Prolegomena to a digital labour theory of value[J].tripleC:Open Access Journal for a Global Sustainable Information Society,2012,10(2):692-740.
[6]曼紐爾·卡斯特.認同的力量[M].2版.曹榮湘,譯.北京:社會科學文獻出版社,2006:8,64-65.
[7]喻國明.算法與“信息繭房”間不應畫等號[N].環球時報,2019-12-17(14).
[8]張小強,郭然浩.媒介傳播從受眾到用戶模式的轉變與媒介融合[J].科技與出版,2015(7):123-128.
3347501908246