周祉含


[摘要]機器和算法已廣泛應用于新聞傳播領域:在社會化媒體、搜索引擎、個性化新聞客戶端等新興媒體信息聚集與分發平臺內部,正發生著把關權力從人工編輯向智能算法的讓度和轉移。首先對西方新聞傳播學相關文獻進行了梳理,勾勒出算法研究的核心命題和熱點議題以及可能出現的問題和風險。算法的“黑箱”特性要求研究方法的創新,其次介紹了逆向工程研究法,通過對“輸入一輸出關系”的不斷檢驗,可以部分推導出算法的設計邏輯。
[關鍵詞]算法;大數據;逆向工程;人工智能;批判算法研究
2017年2月,美國皮尤研究中心發布了題為《代碼依賴:算法時代的利與弊》的報告。報告邀請了1300余名科技專家學者、從業者、政府人員等對算法未來十年的潛在影響發表看法和意見,并在此基礎上歸納出算法時代的七大主題:一是算法的應用范圍將繼續擴大;二是好事情就在前方;三是數據、預測模型至上將帶來人性、人類判斷的缺失;四是算法組織系統中存在偏見;五是算法分類加深分歧;六是失業率將上升;七是需要提高算法素養、透明性和監管;算法也廣泛地應用于新聞傳播領域,以上:七大主題凸顯了大數據背景下算法所發揮的越發重要的作用。
算法是一種編碼程序,通過特定的運算把輸入數據轉化為想要得到的輸出結果。從社會化媒體的熱門話題排行到搜索引擎的結果頁排名,從豆瓣的電影、書籍推薦再到新聞客戶端的個性化資訊推送,算法主導信息聚集和分發,輔助甚至代替人工編輯進行信息的篩選和推薦。例如,個性化新聞客戶端今日頭條聲稱,它“沒有采編人員,不生產內容,沒有立場和價值觀,運轉核心是一套由代碼搭建而成的算法”。
算法的滲透對于新聞生產、分發、消費乃至整個信息生態系統而言是全方位的、全環節的。算法——這一計算機科學領域的術語開始進入人文社會科學研究者的視野,一批從新聞傳播學視域展開的研究也開始嶄露頭角。
一、聚焦算法:學術視角與理論框架
英國著名文化研究專家斯科特·拉什近年來關注后霸權時代的權力,并觀察到權力運行方式從“外部施加”向“內在生命化”的轉變。他指出,構成性法則和調整性法則一直以來是構建人類科學和人類社會的兩大法則;然而,在后霸權時代需要格外關注第三種法則,即算法法則或生成性法則。他強調,“在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中”。
大數據時代,龐大的數據將帶給算法龐大的權力,“算法權力”也成為學術界討論的核心命題。研究指出,算法權力來自于其發揮的四個作用:優先、分類聯合以及過濾;來自于其對可見度的影響和對擬態環境的建構;來自于其“黑箱”特征:“能夠在審查他者的同時自己不受審查,是一種重要的權力形式。”還有學者從法令規章、規范和文化一認知三個層面分析由算法主導的媒介內容生產與消費,認為算法是一種制度,發揮著“構造用戶行為,影響偏好形成以及引導消費”的功能。
“代碼即法律”,勞倫斯·萊斯格使用這一著名論述,指出那些控制信息網絡平臺的程序開始成為規范用戶行為的強大工具。四作為代碼決策部分的算法也發揮著界定用戶行為的功能。
西方的新聞傳播學院、研究機構等圍繞算法開展了豐富的學術活動(見表1),包括學術會議、工作坊、研討會等。此外,包括《信息、傳播與社會》和《國際傳播雜志》在內的國際權威學術期刊都做了有關算法的專題研討,題目分別是(算法的社會權力》以及《自動化算法和政治:政治傳播、計算機宣傳和自主行動者》。學者在不同理論之間的角力中探討新的分析路徑,相關研究在西方新聞傳播學界日漸豐厚。
與國外相比,國內新聞與傳播學界的算法研究起步較晚,大致興起于2016年。學者較多采用“自動化新聞”“機器新聞”等概念來分析人工智能技術給新聞業(尤其是新聞生產)帶來的機遇和挑戰,而智能算法所承載的重要角色和意義直到近幾年才引起學界重視。目前,國內學界已經涌現出了一批有價值的研究,然而多數研究是有關宏觀趨勢(如智媒時代、人機共生)的討論,而較少進行中微觀考察。西方學界所進行的有關算法權力、算法與公共領域、算法的公眾認知等研究,提供了一個研究大數據背景下中國信息環境的新視角;與此同時,也有助于我們對算法盛行背后的問題與風險展開思考。
二、審視算法:問題與風險
算法所具有的“黑箱”特性以及與此相伴隨而來的問題和風險引發了學界的關注。學者郝雨和李林霞提出了算法推送帶來的四個弊端,包括用戶自主意識的喪失、隱私侵犯、信息繭房和價值迷失。本文嘗試做出補充和進一步討論。
正如學者所指出的,針對智媒體的“冷思考”并非是技術悲觀主義者對媒介技術簡單的否定,也不是重回“技術還原論”的窠臼,而是新媒體創新發展的必由之路。
(一)算法歧視與偏見
算法分發過程可能存在著方式更加隱蔽的偏見和歧視。和人類偏見所不同的是,內嵌于算法設計之中的偏見像病毒一樣,能夠將偏見快速、大范圍地傳播出去。例如,假設某公司的一位人力資源經理對未婚先孕女性存在偏見,可能會影響幾十人或上百人的就業機會;然而,如果對未婚先孕女性的偏見被內嵌于一套算法系統,那么,它影響的人數可能成千上萬,且往往難以被人們所察覺。
筆者采用相似方法,通過“百度圖片”搜索“教授”“醫生”“CEO”等詞匯,發現排在前列的搜索結果幾乎全部是男性的圖片,這暗含了有關職業分類的性別偏見。因此,搜索引擎并不是對現實世界鏡子式的“反映”和“再現”,它所采用的算法將影響人們對客觀世界的認知。
除搜索引擎之外,個性化新聞客戶端運行過程中可能存在的算法歧視問題也值得關注。例如判斷農村地區的貧窮青年不需要財經新聞,從而減少甚至過濾掉相關的資訊推送。
(二)算法短視
臉書創始人馬克·扎克伯格曾說,比起非洲那些掙扎在死亡線上的人們,此刻你前院奄奄一息的一只松鼠可能與你的興趣更加“相關”。在這一理念的指導下,資訊的重要性讓位于相關性,而公共利益也常常讓位于個人興趣。研究指出,資訊客戶端對用戶興趣的一味迎合,打造的是一個舒適的不利于用戶進行深度思考的信息環境。算法分發重“迎合”輕“引導”,傾向于提供更多“用戶想看到的內容”,而非“用戶應該看的內容”,這在某種程度上削弱了新聞業的公共服務屬性。
有學者指出,算法關注當下掌握的數據,而這些數據通常與短期結果相關,這就造成了算法本身具有短視傾向。社交網站如果在設計算法時過于側重擊量,那么騙點擊量的內容就會充斥網站。學者建議,在設計算法時除了考慮短期目標,還要把長遠目標(例如用戶滿意度、社會效益)納入考量。
搜索引擎、社會化媒體、聚合類新聞客戶端等平臺型媒體傾向于把流行度、易消費性作為優先推薦資訊的指南。例如,臉書所采用的是“喜歡”按鈕,而不是“重要”或“具有啟發性”等設計。這種設計邏輯體現了公司的價值偏向。《人民日報》2017年10月發表的社論《不能讓算法決定內容》,對“一切圍著流量轉,唯點擊量、轉發量馬首是瞻”進行了抨擊,呼吁將更多有價值的評價標準引入新聞分發過程。
以上研究指出了算法背后的設計邏輯和價值偏向問題。這里的設計邏輯并不是指具體的技術細節,而是指算法所蘊含的設計價值及所遵循的原則。隨著把關權力日益從記者、人工編輯向機器智能算法讓渡,從傳統新聞機構向科技公司讓渡,后者能夠承擔起約瑟夫·普利策所說的“船頭的嘹望者”的角色嗎?算法的設計者——算法工程師、程序員等,需要遵守新聞職業規范和新聞倫理嗎?算法若出現問題(例如上文提到的性別歧視),應該由誰來承擔責任?這些問題都有待進一步考察。
(三)算法操縱
媒體操縱并不是一個新鮮話題,然而算法操縱之所以值得特別關注和討論,原因在于其運作方式更加隱蔽、影響范圍也更廣泛。伴隨著近幾年涌現出的案例,算法運作過程中的人工干預問題開始進入學者視野。例如,新英格蘭微軟研究院首席研究員塔爾頓·吉萊斯皮觀察發現,占領華爾街運動雖然在美國各地都開展得如火如茶,然而相關話題卻自始至終都未登上推特熱門話題榜。吉萊斯皮推測,該話題很有可能是被刻意排除在了榜單之外,且“人們對算法的期待和它們真實呈現出來的結果發生了嚴重的偏離”。
吉萊斯皮的博文讓算法操縱問題開始進入公眾視野,而臉書所進行的一項“情緒感染”實驗則引發了更大范圍的爭議和討論:在未被告知的情況下,689003名臉書擁戶的信息流在為期一周的時間內被心理學家操縱,首頁呈現具有特定情緒傾向(正面或者負面)的內容。實驗結果表明,當信息流中的正面信息減少時,用戶發布的正面信息也會減少,反之亦然。
大數據時代,用戶數據的使用權和控制權不斷讓渡給以社會化媒體為代表的第三方網站,新型信息聚集與分發機構所掌握的關于用戶媒介消費習慣和偏好的數據不斷擴大。除基本信息以外,機構所搜集的數據還包括用戶的心理特征和思想狀態,其中,臉書所開展的爭議性實驗就驗證了情緒操縱的可行性。可以預見的是,未來有關算法運作機制不透明性的指責和爭議仍將繼續,對算法所預設的參數或價值偏向進行檢驗變得必要且重要。
三、剖析算法:逆向工程研究法
由于算法的“黑箱”特性,學者尼古拉斯·迪爾科普洛斯提出,可以采用逆向工程研究法來剖析內嵌于算法的設計邏輯和價值偏向。逆向工程是指“根據專業知識、觀察和推理來發掘系統運作機制的過程”。目前,該方法已被應用于谷歌“自動完成搜索算法”分析、個性化信息搜索、調查性新聞報道等領域。
例如,已經四次斬獲普利策新聞獎的美國非營利性新聞網站ProPublica在“逆向工程奧巴馬的信息機器”這則新聞報道中,調查分析了奧巴馬競選團隊如何通過微觀追蹤選民來調整其發送郵件的內容和募捐要求。調查發現,奧巴馬競選團隊至少針對不同選民發送了6個不同的郵件版本,募捐要求從3美元到25元不等。選民的募捐歷史是影響郵件內容呈現和募捐要求的最主要因素。
如圖1所示,迪爾科普洛斯展現了兩種通過逆向工程推導算法運作機制的場景。場景A,算法的輸入及輸出都是可觀測的,主要通過應用程序接口來獲得。然而在大多數情況下,研究者遇到的是場景B所描繪的情況:僅輸出可見輸入是不可見的。以個性化新聞客戶端為例,可見的是新聞推送的結果,而究竟哪些因素影響推送過程我們則不得而知。通過對“輸入—輸出關系”的不斷檢驗,研究者可以部分推導出算法的設計邏輯,這一過程常常需要依賴眾包來實現。
四、結論和討論
學者陳力丹等提出,以以聯網為代表的新媒體在新技術下已經形成了以云計算、大數據、智能終端、多元傳播介質為基礎的新傳播生態鏈。算法也是這一新傳播生態鏈的重要一環。通過介紹和梳理西方新聞傳播學界近年來的研究成果,本文厘清了有關算法研究的核心命題和熱點議題,并提供了一個思考當前大數據背景下中國信息環境的新視角。本文還強調,算法偏見與歧視、算法操縱、算法短視等問題值得學界和業界關注。
目前,微博的信息流廣告、熱門話題排行榜,新聞客戶端的個性化資訊推送、機器新聞寫作搜索引擎的結果頁排名、輸入框詞語聯想等均是通過機器和算法來實現的。在算法得以廣泛應用和推廣的大勢所趨之下,有必要對其運作機制和潛在影響做進一步的審視和考察。美國皮尤研究中心“新聞卓越計劃”的報告顯示,數字化時代的媒體創新都是在新聞機構以外的領域產生,以谷歌、蘋果臉書、亞馬遜為代表的高科技公司已經在很大程度上掌握了新聞業的未來。而在中國,走在媒體創新前沿的高科技公司主要以百度、阿里巴巴、騰訊和后起之秀今日頭條等為代表。因此,未來研究在吸納借鑒西方新聞傳播學研究成果的同時,需要特別考慮中國的制度背景和現實。
[本文為教育部人文社會科學研究青年項目“智能算法驅動下的新聞分發變革研究”(項目編號:18YJC860031);河南省哲學社會科學規劃項目“平臺型媒體的算法推薦機制與治理研究”(項目編號:2018CXW017)的前期成果]
參考文獻:
[1]Lash,Scott.2007.“Power after Hegemony:Cultural Studies in Mutation?”Theory,Culture & Society24(3):55—78.
[2]Diakopoulos,Diakopoulos.2013.“Algorithmic Accountability Reporting:On the Investigation of Black Boxes,.”Tow Center for Digital Journalism A Tow/Knight Brief,1—33.Retrieved from
http://towvcenter.org/wp-content/uploads/2014/02/78524_Tow-Center-Report-WEB-1.pdf.
[3]Bucher,Taina.2012.“Want to Be on the Top?Algorithmic Powerand the Threat of Invisibility on Facebook.“New Media & Society 14(7):1164—1180.
[4]Just,Natascha,&Michael Latzer.2017.“Governance by Algorithms:Reality Construction by Algorithmic Selection on the Internet.”Media,Culture & Society39(2):238—258.
[5]Pasquale,Frank.2015.“The black Box society:The secret algorithms that contro money and information.”Cambridge,MA:Harvard University Press,p.76—77.
[6]Napoli,Philip M.2014.“Automated Media:An Institutional Theory Perspective on Algorithmic Media Production and Consumption.”Communication Theory24(3):340—360.
[7]Lessig,Lawrence.2006.Code and other laws of cyberspace2.0.New York,NY:Basic Books.
[8]郝雨,李林霞.算法推送:信息私人定制的“個性化”圈套[J].新聞記者,2017(2):35—39.
[9]劉千才,張淑華.從工具依賴到本能隱抑:智媒時代的“反向馴化”現象[J].新聞愛好者,2018(4):5—8.
[10]王茜.論個性化信息推薦系統的運作邏輯及影響[J].鄭州大學學報(哲學社會科學版),2017(1):46—49.
[11]Luca,Michael,Jon Kleinberg&Sendhil Mullainathan.2016.“Algorithms Need Managers,Too.”Harvard Business Review (January-February):3—7.
[12]Gillespie,Tarleton.2012.“Can an Algorithm be Wrong?.”Limn,2.retrieved from https://escholarship.org/uc/item/0jk9k4hj.
[13]Adam,Kramer,Jamie Guillory&Jeffrey Hancock.2014.“Experimental evidence of massivescale emotional contagion through social networks.”Proceedings of the National Academy of Sciences of the UnitedStates of America 111(24):8788—8790.
[14]Diakopoulos,Diakopoulos.2013.”Algorithmic Accountability Re-porting:On the Investigation of Black Boxes,.”Tow Center for Digital Journalism A Tow/Knight Brief,1—33.Retrieved from
http://towcenter.org/wp-content/uploads/2014/02/78524.Tow-Cen-ter-Report-WEB-1.pdf.
[15]陳力丹,丁文鳳,胡天圓.沉浸傳播:處處是中心無處是邊緣一對世界互聯網大會的總結與思考[J].新聞愛好者,2015(1):5—8.