【摘要】大數據、人工智能等新興技術手段為新聞業的采編分發帶來了巨大的變化,算法推薦是其重要應用方式,傳統的人工采編分發遭遇技術算法分發的沖擊。在網絡時代“流童制勝”的氛圍下,媒體為了高點擊量等,對每一位受眾實施個性化新聞推薦。傳統的新聞把關人角色不斷被弱化,技術分發產生的負面效應也日益呈現。
【關鍵詞】算法推薦;把關人;消解
信息的生產和傳播對媒介具有極為強烈的依賴性。而算法技術作為科技產物,無需人的參與即可提供針對每一個用戶的“定制”內容信息,受眾的信息套餐從“大鍋飯”轉變“小灶獨食”的個性化推薦分發模式。人們在享受技術帶來的便利的同時,也將承受“把關人”某種程度缺失帶來消極的一面。
一、傳統“把關人”遭遇“個性化”技術挑戰
如今媒體間的傳播競爭早已不再局限于電視、報紙等個體之間,很大程度上轉向了移動端。這其中,以新方式打通傳播渠道并擁有龐大受眾基礎的一個典型個例,即“今日頭條”手機客戶端。它與人民日報、南方周末、鳳凰網等傳統媒體品牌依托既有成熟新聞產品產業鏈向手機客戶端延伸模式不同,“今日頭條”直接通過技術手段來聚合公共新聞資源后進行大規模的內容分發。這種分發不是傳統意義上的一對多統一分發,而是基于用戶興趣實現個性化推薦,正因如此該平臺迅速獲得公眾關注。“今日頭條”采用算法推薦取得成功的模式,很快被更多手機新聞客戶端復制。目前,大數據已成為很多主流新聞客戶端挖掘用戶信息的途徑,以此為受眾提供精準的新聞推送。
這也客觀上形成一種事實,算法推薦技術下運轉的新聞客戶端,不需記者、編輯進行信息整理、審核校驗,媒體“把關人”的功能基本被消解。把關理論是新聞傳播學科領域最重要的理論之一,由美國社會心理學家、傳播學奠基人之一庫爾特·盧因提出。他提出,把關人在對信息進行篩選時是具有主觀性的,但很多的客觀條件成為把關的影響因素,個人心理因素的單一視角不得不最終轉為對媒介系統與社會系統關系、社會系統模式的研究,主觀性開始變得客觀。
從流程上來看,把關人在新聞內容流入傳播渠道前對新聞的報道內容、寫作方式、價值觀念、媒介態度等進行選擇和表達,并對信息的內容負責。不過,在當前信息互聯時代,傳統媒體“把關”過程由于網絡信息的海量性和低門檻性,其運轉模式已遭遇算法推薦技術模式前所未有的挑戰。
二、新聞算法推薦產生多重負面效應
算法新聞由于把關人的缺失,在新聞生產和傳播過程中引導輿論、樹立正向價值等方面弊端凸顯。具體來說將產生如下問題:
(一)沉溺于單一信息系統
算法的應用來源于智能技術,但無論技術多先進,與人腦復雜相比仍有差距,更不會懂得人腦會隨著感情、心理變化而對信息有新的選擇。當各類信息內容均由機器篩選而非人工選擇時,終端受眾看似仍有選擇自主性,但實質則只剩在機器圈定內容中選擇而已。而這一部分恰恰發揮了技術的封閉功能——提供受眾喜歡的內容,受眾關注度自然就轉向了媒介終端,從而極大提高了終端使用率。這就是“媒介系統依賴論”,個體及群體的依賴感越強,媒介內容所喚起受眾對其的認識程度也就越高。手機技術的進步以及多樣化移動資訊平臺的出現已加深了受眾對手機的依賴感,而算法模式完全迎合受眾的興趣點,進一步加重了受眾的依賴性。
(二)“信息繭房”阻斷“信息偶遇”
“信息繭房”的概念是由美國芝加哥大學教授凱斯·R-桑斯坦在2006年的著作(信息烏托邦》中提出。桑斯坦指出,公眾對于信息的需求并不是全方位的,很多時候更關注自身喜歡的領域信息,長期如此就會導致其陷入一個類似于蠶繭一般的“繭房”之中。基于算法所形成的信息推送,會導致受眾不斷接收那些自己感興趣的內容,卻忽視了興趣以外的其他領域的內容,可拓展視野的“信息偶遇”情況很難實現。如果受眾對某一領域并不感興趣,那么在平時的閱讀中也很難涉及到這一領域的信息,因而系統也不會記錄識別這一興趣點。久而久之,受眾的信息接觸范圍、接觸類型就會變得越來越束縛單一,很可能將自己同單一或幾類信息捆綁在一起,與其它信息隔絕,由此出現視野窄化、意識固化、與社會脫節等傾向在所難免。
(三)用戶私人信息存在泄露風險
網絡信息絕大多數是免費的,但是基于個人興趣的個人隱私卻可能在使用的過程中被悄悄地泄露,個人的注意力和個人數據會成為互聯網公司出售的產品。比如某客戶端侵犯隱私風波,源頭在于其每年年末都會推出年末報告,其收集了用戶瀏覽信息生成個人年度報告,而個人若想要查看,就需要同意相關服務《協議》,這個簡單的幾個步驟就會把自己的個人信息授權給互聯網公司。正是由于用戶這些個人信息的泄露,導致近年來網絡安全問題頻出,受害人不斷出現,給個人甚至國家安全都帶來很大的隱患。
(四)“標題黨”與低俗內容泛濫
任何事物都存在著好、壞兩方面,算法技術也不例外。一方面算法可以向受眾提供他們更喜歡的內容,滿足其個性化的信息需求,但是由于用戶受教育水平參差不齊,搜索的很多個性化信息會出現信息內容淺薄化、庸俗化的現象,久而久之形成惡性循環,對受眾、社會安全都會造成不好的影響。某算法資訊客戶端就曾因提供內容“標題黨”等現象而被約談。
很長一段時間新聞信息的把關環節都是由編輯人為負責,負責把關的人會對新聞內容的真實度進行把控,同時對訊息的價值觀、主流層次進行對比篩選,選定優秀的稿件發布,此過程也體現出新聞產品所必須的專業主義精神。而在算法推薦模式下,當有代碼輸入后,信息產品的生產或甄別就由軟件系統來完成。它很難像人一樣附加更多主觀社會價值判斷,極易出現一些低劣信息被推送出來。而一些戲謔、惡俗的內容稍加偽裝,就很有可能逃過算法的控制。在當今信息系統十分龐雜的情況下,算法如何進一步強化“把關”是算法推薦客戶端的一個長期命題。
三、網絡時代算法技術下如何更好“把關”
(一)監管部門加大網絡監管力度
我國相關政府部門正在以結果為導向,進一步強化網絡信息的監管。2017年6月1日,(互聯網新聞信息服務管理規定》最新修訂版公布,規定將各類新媒體納入管理的范疇。依據規定,通過各種網絡終端向社會公眾提供新聞信息服務,應當取得互聯網新聞信息服務許可。各類新媒體進入政府監管視野范圍之內,一方面可督促各媒體終端加大對自身信息內容的自查自檢,另一方面官方對媒體違規行為的公開懲處也利于警示更多媒體加大對自身的產品的把關力度。
(二)總編輯做好責任審編重要關口
盡管技術進步帶來的好處惠及了媒體及受眾,但是媒體必須謹慎對大數據、人工智能等技術的使用。《互聯網新聞信息服務管理規定》要求,互聯網新聞信息服務提供者應當設立總編輯,通過其專業把關對所發布新聞信息內容負總責。總編輯人選應當具有相關從業經驗,并報國家或省、自治區、直轄市互聯網信息辦公室備案。
(三)人工編輯與算法推薦相結合
算法推送作為新時代信息分發系統的新技術,在滿足用戶個性化信息獲取的同時擁有較高的準確性。但與此同時,我們也需要注意的是,人的需要是多樣性和實時變化的,用戶以往閱讀習慣根本無法長期保障用戶后續需求,推送內容的質量也無從保證。而人工編輯則可以通過現實社會中復雜的價值判斷標準,依據自然或社會環境的變化,選擇當下用戶關心的新聞內容,從而保證用戶獲取有正確價值觀的資訊。
總體來說,我們無法回避技術,但也不能盲目地依賴技術。現代媒體要使用算法這項科技進步的產物,充分利用其為新聞工作帶來的便利,既包括新聞生產方面節省了人力的好處,又包括用戶使用方面提升了內容獲取滿意度的好處。但是,我們不能讓技術完全代替人決定信息發布。作為社會信息發布渠道,媒體不能盲目追求經濟效益而忘了新聞工作所堅守的行業原則與底線。其次,無論是媒體工作者還是媒體監管部門,都應該在機器處理信息之外加強人對內容產品的監管,堅持正確的輿論導向、價值引導,通過“智能推薦+人工把關十用戶畫像”優化結合的推送方式,傳播社會公眾所需要的內容產品。
參考文獻:
[1)楊保軍.新聞價值觀念與新聞價值創造[J].國際新聞界,2003(3):45-50.
[2]靖鳴,臧誠.微博對把關人理論的解構及其對大眾傳播的影響[J].新聞與傳播研究,2013,20(2):55-69+127.
[3]樓建坤,陳澤璽,國秋華.算法的把關研究——以今日頭條APP為例[J].新媒體研究,2017,9.
[4]黃楠.新媒體環境下“把關人”理論的變異與危機管理[D].復旦大學,2008,4,10:9.
[5]劉茜.網絡也需“把關人”[J].中國記者,2000(12):70-71.
[6]姜紅,魯曼.重塑媒介:行動者網絡中的新聞“算法”[J].新聞記者,2017(4).
[7]章震,周嘉琳.新聞算法研究:議題綜述與本土化展望[J].新聞與寫作2017(11).
[8]喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018(05):5-12.
[9]張瀟瀟.算法新聞個性化推薦的理念、意義及倫理風險[J].傳媒,2017(11):82-84.
【作者簡介】徐光勝,新聞專業碩士學歷,哈爾濱日報報業集團城建新聞中心主任、主任記者。