摘要:在信息大爆炸的時代背景下,大數據技術應運而生,給用戶帶來信息檢索便利的同時也產生了一些隱蔽性損害。例如,以B站為代表的個性化推薦平臺,就有可能給消費者造成人身權益損害和財產性利益損害。在用戶人身權益影響方面,具體表現在“信息繭房”加劇用戶認知偏差、注意力攫取加深用戶主體性焦慮;在用戶財產性利益損害方面,具體表現在經營者于上游盤剝用戶數據財產、中游引導操控交易行為、下游算法歧視差異化定價。司法實踐中,對于此類行為帶來的用戶損害存在算法責任認定困難、公共妨害與經濟利益難以平衡的困擾。對于個性化算法的規制,相關規定散見于各法律規范之中,對于算法侵權的適用場景和損害賠償不夠細化和具體。B站是國內極具代表性和影響力的媒體平臺,對于個性化推薦的法律規制研究具有獨特意義。國內對個性化推薦的研究主要集中在今日頭條APP上,基本上聚焦于傳播學上的功能特性,對于法律規制的探究較少。且今日頭條屬于新聞資訊類APP,其調性與以B站為代表的娛樂性、年輕化視頻平臺有所不同。基于此,文章從歸納B站的個性化推薦形式入手,分析其在具體應用場景中可能帶來的消費者權益損害問題并加以反思,進而提出規制與完善的路徑,旨在促進個性化推薦的良性發展。
關鍵詞:個性化推薦;B站;用戶損害;人身利益;財產利益
中圖分類號:G210.7 文獻標志碼:A 文章編號:1674-8883(2023)05-0087-03
(一)個性化推薦的內涵
個性化推薦的出現是為了在信息超載的時代更好地定位用戶需求,提升用戶的使用體驗。學者喻國明認為,個性化推薦是通過對用戶行為和關系的分析,挖掘用戶對內容的偏好和潛在需求,自動生成符合用戶需求的信息[1]。這就意味著個性化推薦的前提是充分了解和采集用戶的私人信息,推薦的內容容易讓用戶產生持久的興趣和穩定的注意力。
2002年,Google News首次啟用算法判斷生成話題新聞,利用算法對各類新聞機構的新聞進行排序,為用戶提供個性化的新聞頁面[2]。如今,諸如B站、抖音、今日頭條、一點資訊等媒體平臺都在努力開發針對用戶的個性化推薦服務。騰訊也提出了“降熵”的概念,指出要讓信息追著用戶走。在這樣的情況下,大眾傳媒可能無法決定用戶怎么想,但至少可以潛移默化地影響人們想什么,通過為受眾設置議程的方式對其進行無形的控制。
(二)個性化推薦的類型
個性化推薦行為在實踐中有多種表現形態。目前,主流算法推薦技術包含基于內容過濾的推薦、基于協同過濾的推薦和基于關聯規則的推薦三種方式。
1.基于內容過濾的推薦
基于內容過濾的推薦是通過對用戶歷史觀看數據的深度挖掘,緊緊圍繞個人興趣進行推薦[3]。B站設有與多數社交平臺相類似的評論、點贊、收藏、分享等交互方式,對用戶的興趣偏好進行分析,還推出了獨具特色的發彈幕、投硬幣、充電、稍后再看等功能。除了顯性功能設置對用戶需求和興趣的評估,B站還設置了隱性評估方式,即分析“視頻留存率”。視頻留存率是指視頻的播放時長占視頻總時長的比例,代表著用戶受視頻吸引的程度。以上因素成為B站基于內容過濾推送的最核心部分。
2.基于協同過濾的推薦
基于協同過濾的推薦是一種群體性的聚合,是根據有相同興趣的用戶瀏覽過的信息或眾多用戶對于某兩件項目信息有相似的偏好進行推薦[4]。在B站中,若用戶同時關注相同的UP主或經常搜索的視頻內容極具相似性,平臺進行個性化推薦時,會將A用戶下B用戶沒有操作過的數據推薦給B用戶。然而,由于基于協同過濾的推薦方式注重聚焦用戶之間的親疏遠近關系,對于用戶的控制力也更強,因此需要格外關注推薦過程中對消費者人格利益的侵害問題。在朱燁訴百度案中,百度因朱燁曾搜索過與流產有關的信息,在此后很長一段時間都對其進行此類信息的持續性推送,加深了用戶的痛苦記憶[5]。因此,基于協同過濾進行推薦時,應當提高推薦信息的更新頻率,避免過去的信息不停煩擾用戶。
3.基于關聯規則的推薦
基于關聯規則的推薦更注重內容之間深層次的關系。此種推薦方式注重挖掘數據池中的潛在聯系,是消費者在同質化信息中進行“破圈”的重要途徑。B站中“熱門”內容的推薦是基于關聯規則進行推薦的表現之一,綜合播放量和彈幕量等因素形成熱度,將熱門視頻推薦給從未觀看過相關領域視頻的用戶[6]。
在此種推薦機制下,推薦內容的質量問題值得關注。2020年,B站被全國“掃黃打黑”辦著重點名,僅舉報線索就超500條,約談高達10余次,“內容低俗”“擦邊球”等問題頻頻發生。在熱度導向下,不少原創UP主創作出具有感官刺激的聳動新聞,以牟取經濟利益。因此,基于關聯規則的推薦應避免流量驅動下算法對流行度指標、關聯性標準的絕對控制,要注重對視頻質量的把關,以免個性化推薦在低質量的推送中走向惡性循環。
算法個性化推薦侵害了消費者人身利益和財產利益。消費者不僅遭受直接的權益損害,同時還遭受競爭利益受損后帶來的個體與集體利益的間接損害,即平臺通過破壞市場競爭秩序、惡化市場競爭環境而損害消費者利益。
(一)侵害用戶人身利益
1.“信息繭房”加劇認知偏差
個性化推薦技術的用戶本位導向隱含了一種成癮機制,給用戶帶來了注意力損害。在個性化推薦機制下,人們越是接觸自己感興趣的信息,平臺對用戶的興趣定位就越精準,下一次推薦時對用戶的吸引力就越強。如此循環往復下,用戶對平臺推薦內容的成癮性將會不斷加深。以B站的飯圈文化為例,追星女孩點進有關自己偶像的視頻,B站則會不停為其推送相關內容,追星女孩們在彈幕贊美的狂歡中不斷強化身份認同和圈層歸屬感。在此種情況下,一旦有人說出與自己所支持的偶像利益不符的言論,粉絲們便會情緒激動,甚至引起一場“罵戰”。在有關社會議題的討論中,算法推薦下形成的“信息繭房”可能會激化社會矛盾。一旦人們形成了自己的態度和傾向,往往會以固有的鏡子來比照現實世界,以自身主觀的尺度來測量現實。人們在不自覺中住進了算法打造的“圓形監獄”,成了被機器馴化的“數字勞工”,這在很大程度上影響了消費者對真實世界的分析與判斷,擴大了個體間的認知偏差[7]。
2.注意力攫取加劇主體性焦慮
在信息大爆炸的時代,人們的注意成了一種稀缺資源。B站2022年9月8日發布的財務報告顯示,2022年第二季度,B站月均活躍用戶數達3.06億,日均使用時長達89分鐘。可見,B站對人們注意力的攫取能力相當強[8]。
從日常生活中的具體表現來看,B站不斷更新的個性化推薦視頻不僅吞噬著用戶有限的業余時間,其突然彈出的彈窗提示也給人們正常的工作、學習帶來了干擾,分散了個人的注意力。在獲取感興趣信息的極度亢奮狀態和不斷接收同質化信息的消極精神內耗中,用戶被來回拉扯。如此循環下去,用戶的信息認知焦慮將會加重,甚至引發人格焦慮。2021年7月13日晚,“#B站崩了#”的話題沖上微博熱搜。由于服務器故障,用戶無法在B站正常登錄,不少年輕用戶感到“沒有B站寸步難行”,處于焦慮恐慌的狀態。個性化推薦技術在很大程度上造成了人們的精神“亞健康”,人們看似在喧囂的信息中找到了歸屬,卻在“數字牢籠”里越陷越深,主體性焦慮日益加劇。
(二)侵害用戶財產性利益
1.上游:盤剝用戶數據財產
阿里爾·扎拉奇指出,在如今的互聯網生態系統中,每個人都是以個人信息數據在向企業付費,而用戶自身卻不懂得“免費也很昂貴”的道理[9]。以B站為例,用戶使用B站免費瀏覽視頻時,必須無條件為其奉獻個人信息的“數據養料”,日益成為“透明化”的個人。而平臺則在背后監視著用戶的一舉一動,利用受眾源源不斷產生的數據信息賺得盆滿缽滿。由于勾選的“知情同意”內容繁雜、專業性強,多數用戶無法清晰理解隱私數據獲取條款的具體含義,往往處于“被迫知情”的狀態。在“同意或退出”的強制性困境中,不少用戶出于接受服務的迫切需求選擇讓渡個人信息,個人數據控制權被嚴重盤剝。這在一定程度上使得消費者具有被監視感和不安寧性,嚴重的還可能侵害消費者的信息人格[10]。
2.中游:引導操控交易行為
消費者在消費時希望能對商品的服務、價格和質量進行比較與甄選,以期獲得最合適的商品和最優質的服務。然而對于商家來說,利益則是其最高出發點。在個性化推薦機制下,商家只展示部分信息,這在無形之間產生了對消費者的消費歧視,侵害了消費者的自主選擇權[11]。
其具體在B站上表現為,運營方利用彈幕控評的方式為自己引流,通過屏幕上清一色的“前方高能預警”“好用”“入手不虧”等,營造出產品搶手火爆、性價比高的假象。原本市場中向所有消費者公開展示的商品變成了帶有強烈輿論引導傾向的商品展示,操縱著消費者的商品選購心理。這種使用算法進行自我優待,提升己方商品和服務在搜索結果中的位次的行為,具有損害消費者權益的可能,需要對其進行規范[12]。
3.下游:算法歧視差異化定價
算法個性化定價是指企業利用收集到的消費者的個人行為或特征等信息,推斷出消費者愿意支付的價格,進而為不同的消費者設定不同的價格。在此種情境下,“人的行為”越過“商品價值”成為定價的重要因素。個性化算法逐漸通過對消費者進行細分,改變他們的公平感知能力,進而操控消費者的購買決策行為[13]。
為達到數據價值最大化兌現的目的,平臺在屏幕之后操縱著個性化推送下的“千人千價”。攜程、滴滴打車對老用戶進行大數據殺熟;愛奇藝、優酷對蘋果手機用戶進行更高額定價[14]。2022年上半年,北京市消費者協會對互聯網消費大數據“殺熟”問題展開調查。報告顯示,64.33%的受訪者表示有過被大數據“殺熟”的經歷。
從價格歧視的消極影響來看:一方面,僅因為消費者的平臺忠誠度更高、對價格更不敏感而被設置較高價格,構成了不公平、不合理的交易條件,侵害了用戶個人作為消費者的公平交易權;另一方面,主導企業利用價格歧視套牢忠誠消費者,對其索取高價,對其他客戶施以低價,排擠競爭對手,可能會因為限制競爭間接損害消費者利益[15]。
個性化推薦設立的初衷是為了讓用戶在信息超載的時代提升使用體驗,但使用過程中不少用戶對過度個性化產生反感,因而應給予用戶是否使用個性化推薦以選擇的權利,即設置相應的算法拒絕權。當下B站等多數平臺設置關閉功能僅流于形式,在關閉個性化推薦后,平臺仍然會較為準確命中用戶喜好,只是減少推薦常觀看的某些細分領域。廣告展示方面,平臺盡管表示要關閉個性化廣告,展示廣告的相關度降低,然而具體的降低程度并未明確說明,存在嚴重的“曖昧性”。基于以上問題,B站在進行個性化推薦的選項設置時,應向用戶具體說明采取何種類別的個人數據,將個性化推薦的關閉功能普及化和簡潔化。
此外,基于算法帶來的用戶人格損害分析,B站應當充分利用算法技術對于不良信息的監測和控制作用,及時限制低俗信息。對于未成年用戶深度沉迷的現象,B站可以設置定期審核、查驗未成年用戶持續使用時間,對于過度沉迷的某類視頻減少推送,對算法進行優化和改良。
從消費者方面來看,個性化定價可能會損害消費者的自主選擇權和公平交易權,然而不少消費者出于舉證難、怕麻煩等原因,面對此類損害常常會選擇沉默與妥協。正是這樣的妥協讓違規平臺有了得寸進尺的機會。消費者應加強對相關法律知識的學習,主動了解投訴和監督的渠道,利用法律的武器維護自身合法權益。
參考文獻:
[1] 劉士超.輿論解讀的新視角:置新媒體事件于互動儀式理論視域下分析[J].東南傳播,2018(10):83-84.
[2] 喻國明,李慧娟.大數據時代傳媒業的轉型進路:試析定制內容、眾包生產與跨界融合的實踐模式[J].現代傳播(中國傳媒大學學報),2014,36(12):1-5,11.
[3] 田維鋼,朱毓春,陳小敏.新媒體時代基于算法機制的個性化推薦對當今新聞傳播的影響[J].湖南大眾傳媒職業技術學院學報,2018(3):5-9.
[4] 胡娜. B站的產品生態和倫理價值風險研究[J].同濟大學學報(社會科學版),2019,30(3):45-51.
[5] 劉珅,喻玲.算法個性化推薦商業應用、消費者損害及其多元救濟[J].江南大學學報(人文社會科學版),2022,21(4):58-69.
[6] 喻玲,蘭江華.算法個性化定價的反壟斷法規制:基于消費者細分的視角[J].社會科學,2021(1):77-88.
[7] 謝岱杉.窄化與破圈:推薦系統對跨圈層傳播的兩種作用:基于B站的數據挖掘研究[J].新媒體研究,2022,8(18):114-118.
[8] 黃雪瑩.從“工具理性”到“人的主體性”:智能化新聞分發算法的傳播倫理反思[D].武漢:華中師范大學,2019.
[9] 李云蔚,李毓欣,梁譯丹,等.選擇性暴露:算法推薦背景下信息繭房的社會效果研究:以綜合性互動視頻社區bilibili為例[J].中國傳媒科技,2022(9):21-24,28.
[10] 南楠.個性化推薦算法的法律規制研究[D].北京:中央民族大學,2021.
[11] 喻玲,胡曉琪.定價算法權力異化、消費者損害與反壟斷法規制的政策補強[J].華中科技大學學報(社會科學版),2021,35(6):97-107.
[12] 彭蘭.導致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.
[13] 李艷霞,龍維.個性化推薦行為法律規制路徑的選擇:基于中國cookie隱私權糾紛第一案的思考[D].北京:人民法院出版社,2018:425-431.
[14] 張鐵薇,陳茂春.《反不正當競爭法》“網絡條款”司法適用的反思:以消費者利益標準為視角[J].商業研究,2021(4):137-145.
[15] 許向東,王怡溪.智能傳播中算法偏見的成因、影響與對策[J].國際新聞界,2020,42(10):69-85.
作者簡介 劉瑤,研究方向:新聞法規與倫理。