王亞妮
摘? 要? 算法時代的來臨極大地提高了信息分發的效率,其中的推薦算法也一定程度上減輕了信息選擇的負擔,但不同的算法都有其倫理風險,將會帶來信息繭房、信息選擇權的讓渡以及主流價值導向的缺失等問題。基于推薦算法機制的平臺自身應該優化算法模型,發揮傳統把關人的作用,對內容進行審核,用戶自身也應提高素養,避免陷入雷同信息的大海里,應對算法推薦的倫理風險將會是未來時代的命題。
關鍵詞? 個性化;算法推薦;新聞;倫理風險
中圖分類號? G2? ? ? 文獻標識碼? A? ? ? 文章編號? 2096-0360(2019)01-0029-02
1? 算法推薦新聞概述
隨著科學技術的發展,人工智能、大數據等信息技術也深入到了新聞領域,其中的算法技術對新聞行業的生產、分發等環節都產生了巨大影響。發達國家的互聯網公司應用算法技術比較早,Facebook、亞馬遜、谷歌等公司在新聞的搜索、推薦方面的算法技術已經十分成熟。國內以今日頭條為代表的互聯網公司首先嘗試了個性化算法推薦技術,用算法進行新聞的生產與分發,而傳統新聞媒體并未將算法技術應用到相關制作中。
個性化服務源于出現在美國人工智能協會上的個性化導航系統we-watcher,它的出現使個性化概念在技術界傳播開來,亞馬遜和谷歌分別作為電子商務網站和搜索引擎的代表率先嘗試了個性化服務。國外以《紐約時報》為代表的新聞網站率先嘗試了算法推薦,根據用戶的行為習慣和閱讀歷史進行推薦;而國內2012年在今日頭條宣稱“不生產新聞、只做新聞的搬運工”以后,搜狐、網易、新浪等新聞客戶端紛紛加入了個性化推薦功能。今日頭條憑借起步早的優勢在2018年已經累計有超過“1億個活躍用戶”①,其活躍度遠勝同類產品。
2? 算法推薦新聞的技術與倫理
個性化算法推薦新聞,一方面能在海量繁雜的信息里,把合適的信息,推薦給需要的用戶,但另一方面由于算法推薦導致人們偏向只關注自己所關心的信息,對其他公共信息置之不理,長此以往,用戶的眼界、視野也會變得狹窄。當前個性化算法分為“基于內容的推薦算法”“基于協同過濾的推薦算法”“基于熱度的推薦算法”三類,每種算法都有其局限性,本身也存在著侵犯公民隱私、偏見和歧視等倫理問題,下文將從三類算法的原理出發分析其倫理風險。
1)基于內容的推薦算法:信息繭房。基于內容的推薦算法的實質是看平臺推送的內容有與用戶是否有相匹配之處。每一次評論點贊的反饋行為都讓該算法不斷地在完善用戶畫像,不斷打上更細化的標簽,一方面信息和人實現了高效匹配,節省了用戶的時間,但另一方面算法讓用戶在無形之中回避了自身不太感興趣的內容,進行了“選擇性接觸”②,久而久之也就失去了了解和認識不同事物的能力,更不利于自身全面客觀地認識世界。“信息繭房”讓用戶生活在自我的世界里,認為眼前的信息即是真實的世界,長此以往,正如赫伯特·馬爾庫塞所說,“當每個人都只關心‘我時,人們對待社會公共事務的熱情也會逐漸減弱,那么社會公共價值也就無從談起”。另外,基于內容的推薦算法無法審核信息的質量,很有可能給用戶構建起一個充斥著低質內容的“信息繭房”,用戶每天生活在“過濾泡”精心打造的世界里,泛低質的內容極易讓用戶產生悲觀、消極心理,長期的思維偏執甚至可能讓人在現實生活中做出一些極端行為。
2)基于協同過濾的推薦算法:信息選擇權讓渡給社交和算法。基于協同過濾的推薦算法通過觀察用戶以往的行為數據,來監測用戶的喜好,并根據用戶的喜好來對用戶進行分組。協同過濾推薦算法兩類,一類基于用戶,一類基于物品,也就是通常所說的人以類聚,物以群分。用戶并不知道自己所看到的報道是已經經過算法干預的,這極大可能導致用戶錯過一些本應知情卻未知的信息,侵犯了用戶自身的信息選擇權和知情權。今日頭條CEO張一鳴在2016年的未來媒體峰會上表示,“以前,媒體可以決定用戶知道什么,但現在媒體已經無法完成信息的過濾,目前要么將信息過濾的權利交給社交圈,朋友推薦內容,要么讓算法推薦內容。”③權力讓渡給社交關系和算法都是一種黑箱作業模式,其過程并不透明,用戶并不知曉它如何分析、分發信息,平臺也不能保證不通過算法來濫用用戶數據。
3)基于熱度的推薦算法:缺乏主流價值導向。基于熱度的推薦算法和微博熱搜榜相似,新聞的瀏覽量、分享量越高,越有可能被推薦給用戶。但受到用戶熱捧的文章,往往是有爭議的噱頭標題,有極端的觀點或只是搜刮組合文字而成的熱文,因此僅依靠流量與點擊為標準進行推送,大量的低俗、泛娛樂化內容甚至是標題黨泛濫。根據“沉默的螺旋”④理論,當用戶收到大量相同價值取向的推送,將產生許多人持相同看法的心理傾向,負面觀點甚囂塵上,容易帶來不良影響,不利于用戶形成良好的價值觀。
3? 算法推薦新聞的未來發展
當前各大新聞資訊類App為了克服三大算法的弊端,紛紛采用混合推薦算法,譬如今日頭條在頂部的導航欄設置了“關注”“推薦”和“熱點”三個板塊,為了防止相似內容推薦過于密集的問題,在熱點新聞的右下角有小小的X符號,用戶點擊以后有“不感興趣”“反饋垃圾內容”“拉黑作者:海外網”“屏蔽”四個選項。盡管算法能一定程度上幫助我們過濾掉一些不必要的信息,但是算法推薦模式的倫理風險依然存在,為了使算法推薦能更好地幫助人類,需要技術和人工干預相結合。
1)建立安全可靠的推薦算法模型,尊重和保護隱私權。基于內容和協同過濾的推薦算法發揮效用的前提是收集用戶的所有數據,不僅包括性別、年齡、居住地等基本信息,也包括手機終端信息和網絡信息等,算法平臺掌握了大量的數據,如果想要保證信息不被竊取和濫用,首先應該保證的是算法的安全性,在讀取、收集用戶數據時,應遵守“合法正當,最少必要的原則”[1],要求員工遵守保密原則,不濫用和出售用戶信息,同時也應及時更新算法技術,維護系統安全,一旦算法的安全性被破壞,直接危害到了信息安全,侵犯了用戶的隱私,繼而可能傷害人的精神和身體。
2)優化算法推薦模型,引入人工審核機制。信息的選擇權被讓渡給了算法,算法只關注閱讀量、日活躍量等數據,只對內容的受歡迎程度負責,并不對質量負責,因此大量的虛假信息、慫人聽聞的言論和其他低俗內容很有可能進入到用戶眼里,這也會造成用戶心理失衡進而影響其社會行為表現。所以,平臺不僅需要引進高級算法工程師,發揮技術優勢,不斷優化推薦模型;更需要引進編輯人才進行人工審核,“建立人機結合的內容審查機制”[2],發揮傳統把關人的作用,對不良內容進行篩除,對優質內容及時反饋給平臺,合理進行推廣。
3)用戶自身提高媒介素養,主動參與、反饋服務體驗。算法推薦讓用戶能在極短時間內找到自己喜愛的內容,無疑給用戶帶來極大的信息選擇便利,但長此以往,用戶生活在一個自我封閉的信息氛圍中,極大會形成“自我意見的回音室”,同時也對其他更有價值的信息視而不見。為了避免陷入“信息繭房”,用戶應該提高自身的媒介素養,用獨立批判的眼光審視信息,培養自己多元化、多維度、多角度的思維方式,有意識地了解不同領域的信息,培養自己的正面興趣,用開放的態度觀察社會生活。同時,用戶也應及時向平臺反饋產品體驗,表達自己的訴求,及時幫助改進算法的不合理之處。
4? 結束語
尤瓦爾·赫拉利認為,“未來的上帝不再是客戶,生態的頂端是算法,算法會幫我們做出許多決定。”[3]但算法不是萬能的,不同的算法代表著設計者背后不同的隱含價值觀,都會導致不同的風險,即使是采用了混合推薦算法也無法從根本上解決倫理風險,如何在算法和人類價值觀之間找到倫理平衡點是未來亟待解決的一個命題。
注釋
①今日頭條CEO張一鳴互聯網大會演講實錄,2016年11月7日。
②選擇性接觸:受眾在接觸大眾傳播活動之際,并不是不加區別地對待任何媒介和內容,而是更傾向于接觸與自己的既有立場、觀點、態度一致或接近的媒介或內容加以接觸,而有意無意地回避那些與自己既有傾向相左的媒介或內容。
③今日頭條CEO張一鳴2016年的未來媒體峰會講話。
④沉默的螺旋:人們在表達自己想法和觀點的時候,如果看到自己贊同的觀點且受到廣泛歡迎,就會積極參與進來,這類觀點就會越發大膽地發表和擴散:而發覺某一觀點無人或很少有人理會(有時會有群起而攻之的遭遇),即使自己贊同它,也會保持沉默意見一方的沉默造成另一方意見的增勢,如此循環往復,便形成一方的聲音越來越強大,另一方越來越沉默下去。
參考文獻
[1]方師師.算法如何重塑新聞業:現狀、問題與規制[J].新聞與寫作,2018(9):11-19.
[2]趙雙閣,岳夢怡.新聞的“量化轉型”:算法推薦對媒介倫理的挑戰與應對[J].當代傳播,2018(4):52-56.
[3]陳佳茹.今日頭條新聞客戶端的“信息繭房”傳播效應影響[J].新媒體研究,2018,4(4):11-12.