羅克研

84年前的《摩登時代》里,工人在機器轟鳴的流水線上工作,重復又繁重的操作,壓得人喘不過氣。現如今,大多制定各行業流水線的,是一種叫做算法的東西。
算法時代,學術界有一個“5秒鐘原則”的說法:如果一個場景的決策時間在5秒內,這份工作機器人完全能由算法和機器替代。
細心的消費者經常會注意到,當在某家電商或者購物平臺上瀏覽了一些商品,之后當你開始瀏覽一些其他社交軟件時發現,里面的廣告跟你之前在購物平臺里瀏覽的商品幾乎一樣。
當瀏覽的東西一下被算法抓住,你會覺得某種“隱私”一下子變得透明,同時也會感到,這些正逐漸變得習以為常。
在專業領域有個說法叫“算法拷問”,把算法比作人,設計者制定的規則、條件、假設,也可能變成拷問的刑具,讓算法只會吐露他們想要的結果。
在阿里爾.扎拉奇和莫里斯.斯圖克所著的《算法的陷阱》中,提到了互聯網和大數據環境下的隱私風險的問題。
在許多情況下,人們對于私人信息的流失是沒有意識的。有的時候,用戶在手機或其他移動設備上安裝APP時,可能大部分時間都不會去仔細閱讀偶爾彈出的窗口中關于隱私條款的內容,而是習慣性的選擇按“同意”直接安裝APP。殊不知,這一動作,其實就是把獲取你隱私的權利拱手交給了APP的開發者。這些APP會在你不知不覺的時候,掌握你的個人信息,甚至你手機里通訊錄等關于你所熟悉的聯系人的資料,從而使得這些APP的數據量進一步擴充。
不可否認,算法推薦在追求商業利益之外,本質上是為用戶服務的,很多人的感受是,在一些APP頻繁輸入興趣關鍵詞,算法就能夠逐漸了解甚至摸透自己的興趣和喜好,進而持續推薦自己感興趣的內容。
另一方面,在這樣的“信息繭房”中,全部都是感興趣的內容,很容易致癮,讓人停不下來。特別是在一些視頻娛樂平臺上,算法推薦在似乎一味地迎合用戶的口味的過程中,不可避免地造成了趣味圈層化、品味低俗化和選擇被動化的弊病。長此以往,可能會使用戶盲目自信甚至走向極端。
如果說用“不登錄”、“不點贊”、“不評論”來對抗劣質的算法推薦還算是一種方法的話,面對這幾年的大數據殺熟,似乎已不是單純的靠抵抗就能夠解決得了。
從旅游酒店的訂票、到打車軟件上的路費、再到外賣飯菜的價格。近年來,一些商家通過收集、分析個人信息并進行“大數據殺熟”,受到社會各界詬病,這種行為也令消費者感到憤怒。
消費者的投訴并不能解決問題,平臺方面更多的是當成單起投訴給予一定賠償。但之后,平臺客服會以“軟件”或“系統”問題無法人工解決為借口進行搪塞,會員或熟客繼續消費時仍難逃被殺熟的套路。
北京市消協此前的一項調查顯示,約56.92%的受訪者表示,曾有過被大數據“殺熟”的經歷。在對14個App或網站進行的57組模擬消費體驗樣本中,有23組樣本新老賬戶的價格不完全一致,占比40.35%。
相較于以往顯而易見的差異化定價,如今消費者在下單時,會收到復雜算法臨時生成的各類優惠券、價格組合,實際上,不同賬號的價格差異其實比以前更大。越來越多的消費者在基于算法個性化推送下的被一些平臺精確殺熟。
對消費者利好的是,“大數據殺熟”已經擬立法。個人信息保護法草案(以下簡稱草案)在8月17日提請全國人大常委會會議第三次審議。
與此前的草案二審稿相比,草案三審稿進一步完善個人信息處理規則,對包括外界關注的App過度收集個人信息、大數據殺熟、非法買賣、泄露個人信息作出有針對性規范,對不滿十四周歲未成年人的個人信息作出特別保護等。
據了解,草案三審稿充分賦予個人自主選擇是否接受自動化決策的權利,明確規定:個人信息處理者通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供拒絕的方式。這意味著,法律賦予了網絡用戶“同意”“不同意”的選擇權。
任何事物都有兩面性,算法推薦和大數據分析幫助用戶降低信息成本和用戶選擇的同時,也帶來了一些列新的問題,如定價共謀,價格歧視,超級平臺的壟斷以及個人信息的泄露等問題。而這些問題如果不得到重視,將會使用戶和公眾的利益受到損害。
在信息泛濫的時代,用戶仍需要不斷保持獨立思考的能力。