■ 李林容
隨著網站算法不斷升級,智能算法接管了人類信息分發的權力,成為大眾傳播的新“守門人”,演變成了一個具有復雜社會功能的機器,驅動著媒介生態環境的重構。新聞傳播學學者也開始將算法的運用進行擴展,算法推薦新聞、記者與數據分析工具的關系等算法時代信息傳播的相關問題開始被關注。本研究旨在將“算法權力”這一新的批判意識引入傳播學領域,探討算法推薦信息產生的問題及隱憂,揭露其隱藏于代碼中的“偽中立性”。通過對算法科技的實踐與產品本身所傳達的信息進行解析,文章將會指出算法“偽中立性”產生的根源、具體表現形式及危害。筆者認為,通過對現代人網絡行為的持續性觀察、學習、理解、調整與操縱,智能算法同時擁有“作惡”的權力,“技術中立”與“無價值觀”等主張是平臺逃避作為媒體的社會責任的一種手段。社會亟待對算法權力進行引導與規范,進而發揮其在大眾傳播中的積極作用。
“傳播社會關系內部的一種粘聚力,它是無法窺見的,或者沒有明確和永久的形式”,①因此,傳播學學者們基于他們所處的現實社會建立了不同分析層次的大眾傳播模式,以便使傳播過程中無法看見的聯系與結構顯現出來。自1948年拉斯韋爾的“5W模式”起,不同興趣格局與側重點的大眾傳播模式為我們揭示了大眾傳播系統多面的解剖圖。機器智能算法作為一種全新的傳播技術,已經成為了大眾傳播過程中的重要環節,但是,抽象的詞語敘述很難將其在整個傳播系統中的關系結構、強度與方向進行全景展示。為了探明智能算法“偽中立性”的生長環境,下面筆者將在對各種經典傳播模式整理的基礎上,以圖像模式作為之后理論闡發的輔助工具,對算法參與的大眾傳播現象進行描述和解釋。
為了敘述得更為明晰,下面對模式的解析將以“千人千面”算法為核心競爭力的“今日頭條”新聞客戶端為案例。據數據顯示,今日頭條的月用戶已經達到1.5億,每天有近 7000 多萬人花76分鐘在今日頭條上觀看新聞、視頻。②在智能算法技術的推動下,今日頭條已經成為中國最大的媒體渠道,因此,以其為代表展開論述,可以比較準確地展示出智能算法在大眾傳播系統中扮演的新角色。

上圖中,A 是指大眾傳播系統中的海量信息數據庫。X1、X2、X3…至Xx是傳播系統中復雜的信息來源。今日頭條主要有三大信息數據庫來源渠道,X1是媒體渠道,包括:傳統媒體、新媒體與自媒體等等。據2016年4月的數據統計,今日頭條平臺內已有16000家媒體機構入駐,其中傳統媒體超過2000家。③X2是搜索引擎的網絡爬蟲,網絡爬蟲是一個對互聯網上超鏈接進行爬取以獲得新聞內容的技術。網絡爬蟲并不是在互聯網的信息大海里“撈針”,在爬取信息之前,平臺會預設新聞來源渠道的關鍵詞,比如:新華網、澎湃新聞等,然后網絡爬蟲就會鎖定這些網站,進行新聞抓取。④X3是“頭條號”內容生態。“頭條號”是今日頭條通過“千人萬元”“百群萬元”等激勵補貼計劃建設起來的自己的內容平臺,以原創為核心,已經與超過30萬的媒體組織、政府機構、甚至金融企業合作。目前,今日頭條超過73%的內容都是由“頭條號”貢獻的。⑤
C是A與B(信息接收者,下文詳述)之間信息傳遞的“看門人”或者“中介”——人工智能算法。根據B的需要,C會從A之中混亂且眾多的X們中選取信息Xac傳遞給B。這個選取的過程是如何實現的呢? X的訊息在通過C傳播鏈時發生了怎樣的變化?這種變化又是以怎樣的方式實現的?以今日頭條的智能推薦算法為例,當新用戶注冊后,今日頭條會關聯這個用戶的其他社交媒體軟件,比如:微信,微博,QQ等,然后根據這些數據,繪制用戶的“初步畫像”。當用戶開始使用軟件時,算法會為用戶推薦內容去“試探”用戶興趣點,并每隔10秒就對用戶的白描進行一次更新。在一次次地分析、理解、糾錯、調整過程中,用戶畫像會逐漸趨于動態的精確。這就是B對C的反饋機制。同時,算法也會對平臺每天成千上萬的信息進行細致地解讀,將X信息“標簽化”。也就是C對A的理解與分類。最后一步就是將標簽化的信息與用戶畫像匹配值高的新聞Xcb實時地推薦給用戶,從而實現資訊與個人的精準匹配。
我們可以看到,C的角色是雙重的:一方面,C是B的需要的代理人;另一方面,C也要為A服務。C的本質是一個“降熵”的過程。熵的原意是描述熱量轉換為功的過程,后來著名數學家及傳播學家香農提出了“信息熵”理論,用以表示信息量的大小及信息的不確定性。依據香農的解釋,當信息不確定性的程度越高的時候,信息量就更多,熵值也就更高;反之,當信息確定程度越高時,信息量就更少,熵值隨之越低。智能算法C就是以“降熵”的方式,對復雜無序的信息系統A進行篩選,從而保證B得到與其最相關的信息。C通過連接A與B,以其精準性、規律性、有序性的減熵能力消解了A系統中信息的不確定性與無組織性,進而最大程度的確保B對平臺的忠誠度。而且,作為A與B之間的連接,C不具備壟斷A或B任何一方的能力。因此,如果C的行動真實的傳達了B的需要,那C可以被視作無意圖的。
B 代表的是信息的接受者。B最重要的作用是其主導的反饋機制,即B流向A與C的反饋。B對C的反饋很好理解,即通過貢獻網絡空間及現實空間的實時數據幫助C繪制更為精準的用戶白描,從而最大程度地保證C在篩選信息的過程中,能夠為B提供更為匹配的信息。值得注意的一點是,智能算法極大地優化了整個反饋機制,能在極短的時間內精準地修正當前和未來的傳播行為,例如今日頭條每隔10秒進行的用戶白描更新。B對A的反饋,是互聯網時代獨特的反饋流向。在萬物互聯的網絡時代,用戶接觸信息的渠道變得更為多樣,因此,B可以通過不同的信息平臺與A直接聯系,形成反饋流。另外,B也可以直接經歷X,例如,作為一場交通事故的參與者。
通過對傳播環節的細致梳理,我們可以發現,算法作為一種新興的大眾傳播技術是具有本體論意義上的中立性與客觀性的。然而,算法在大眾傳播系統中的絕對中立性卻是一個偽命題。因為,算法的信息源A并不是所存在的全部信息,而是有選擇的信息系統。從A的信息來源占比來看,頭條號的內容占今日頭條整個信息系統的三分之二以上,其作為今日頭條自身搭建的內容平臺,頭條號平臺的獨立性有待商榷。并且,無論是自己設立媒體機構的合作規則還是網絡爬蟲的“關鍵詞”,我們都很難將信源A視為一個無目的性、無意圖的信息系統。所以,雖然A不能直接作用于用戶B,但是A其實從源頭上規定了算法C可以處理的信息屬性。再者是算法C的中介角色,算法作為推薦引擎時代新的信息“守門人”,很大程度上決定了新聞客戶端呈現的形態,亦新聞平臺的核心競爭力,因此,基于利益,平臺不會公開其推薦算法的全部原理。這種信息其篩選規則的不透明性與計算機科學的復雜性,使得算法本身帶有一種信息處理的“隱秘性”,對它的操縱自然也帶有一種“悄然性”。另外,與傳統人工編輯相比,算法把關的效率極高,范圍極廣。這樣,當算法被利益組織霸占,進行惡意的議程設置時,整個傳播系統將會被輕易地控制。
當大眾傳播系統的信息源頭和傳播中介之間有任何一個環節或者兩大環節都存在人工設計的痕跡時,這個傳播過程就帶有有意傳播的成分。因此,算法的絕對中立性只能在“真空”的傳播環境中才有可能實現。但是,像今日頭條這樣以盈利為目的的平臺,其算法必然與之商業利益相關聯。算法推薦隱含的是市場邏輯,而平臺用戶實質上是消費者,所以,這種“真空的”環境是不存在的。這樣,大眾傳播系統中的算法科技不能被視為純粹而沒有價值觀的技術手段,恰恰相反,算法本身和其與信息源頭的連接都貫穿著人為因素,它們的行為對整個信息流動與傳播系統的結構有著決定性的作用。基于這種思考,下文,筆者將把“算法權力”這一全新概念引入傳播學領域,這里使用“權力”一詞而非“權利”是為了專注于算法在大眾傳播中的控制力問題,將重點聚焦在算法對于大眾傳播的可能效果、參與者之間的關系以及參與者們與社會之間的關系的操控上,從而揭露隱藏于代碼中的“偽中立性”,即智能算法可以怎樣被利用從而作用于人的思維,而不為他們所知。
1.高度仿真的“擬態環境”
著名新聞學者李普曼曾提出,人類社會主要有三大環境:第一,不受人主觀意志所轉移的客觀環境;第二,大眾傳播媒體根據傳播目的,對客觀現實進行選擇式報道而構建出的擬態環境,即“象征性現實”;第三,人類將自我認知與擬態環境相連接,而建立出的主觀環境,即“腦海圖景”。我們可以看到,擬態環境是個人主觀環境與客觀環境的連接中介,直接影響了人們主觀意識的形成。通常來說,客觀世界的含義與擬態環境的含義是不可能完全一致的,因為大眾媒介無法對復雜的客觀世界做“鏡子式”的摹寫。但是,算法技術將大眾傳播鏈中的薄弱環節——反饋系統進行了優化,算法高效精準的反饋機制可以使信源的傳播方式及內容更有效地適應信宿的主觀世界。在大眾傳播中,信源的發射端有一個“編碼程序”,“編碼”主要為了將訊息調整成為適配傳播渠道及滿足預期訊息接收者的代碼。在算法推薦新聞中,智能算法主導了整個信息編碼的過程,是數字時代新的信息“編碼器”。面對特定的場景,算法可以自動生成一套信息編碼的模式,進而應對人們的實時實地的信息需求。算法成為了信息接收者的代理人以及需求和興趣的解釋者。這樣,算法就極大程度地促進了擬態環境與主觀環境含義的一致性。
擬態環境與主觀環境意義的趨同,將極大地削弱信息接收者的“譯碼”能力。根據“使用與效果”理論,個人的特性、對媒介的期望與感覺以及接近媒體的程度將會導致個人做出是否要使用某一大眾媒介內容的決定。⑥換言之,接收者也同時擁有信息的篩選權與闡釋力,這一信息選擇與吸收的過程與其本身的主觀意志緊密相連。當算法搭建的擬態環境與其主觀環境越趨于一致時,接收者的“譯碼”能力與選擇權就被慢慢地剝奪了。算法威脅著人類的智慧,這是算法推薦新聞長期的、無計劃的以及對集體而不是單一個體造成的后果。另外,相較于傳統媒體搭建的“擬態環境”,算法通過個性化推薦議程設置所搭建的信息環境更為真實與自然。由于媒介信息選擇、加工與結構化的過程通常發生在媒介內部,人們無法看見,所以人們會無意識的將擬態環境與客觀環境連接。在這種情況下,擬態環境極易刺激信息接收者的現實行為,這也是利用算法推薦新聞的客戶端虛假新聞、廣告等極易造成巨大經濟損失與社會危害的原因。
2.“圈群文化”的規訓
“在一個規訓制度里,個人化是一種‘下降’”。在君主專制社會,對個人生活地報道,是其權力的體現。然而,在規訓體系里,個人化描述的標準得以降低,這種描述,福柯將其定義為一種“控制手段”和“支配方法”。⑦智能算法是網絡時代實現個性化描述最有力的手段。算法描述并不是把人進行整齊劃一的分類,相反,是進行區分和“標簽化”。這種區分是通過對用戶“結構化的數據”進行操控得以實現的。以抖音為例,作為一個短視頻平臺,它的內容結構化程度和文字內容不相上下。這種結構化通過品類的設計體現,打開抖音,可以看到段子、寵物、美妝等6個品類。通過品類的選擇和深度體驗,用戶很容易沉迷其中。技術人員會通過算法對每個品類進行持續地監控與管理,定期在每個品類下生產出新的“爆品”,確保用戶能在其本人“標簽”的指導下持續的進行原創與模仿實踐。
精確的個性化描述的主要目的是構建“圈子”。正如白馥蘭所道:“科技是一種交流和傳播的形式”。⑧在對個人的行為進行塑造的同時,算法科技的迭代也左右了當代人與人之間關系的生產。內容社交平臺,算法打造社區,形成了新的人際交往形式——“圈群文化”。以目前盛行的“抖友文化”為例,“抖友文化”是依托短視頻平臺抖音建立的。抖音通過用戶的協調過濾算法制造了具有很強身份認同的“抖音公民”。抖音的圈子文化已經從平臺內虛擬地交流,延伸到現實生活中的人際關系的生產。基于平臺中相同的“標簽”,虛擬網絡和現實網絡實現了二維重合。抖友們依靠在網絡社區中設立的暗號(抖友出征,寸草不生、王蓋地虎,小雞燉蘑菇、滴,滴滴),在現實生活中延續著抖友文化的實踐。隨著圈子的粘性增強,圈子不可避免的會出現排他性,所以圈群文化的另一面是“排斥”。因此,社交媒體在運營的后期往往會出現“文化邊界”。因為“在能接納同一種或者幾種近似的文化的背景下,一大群人才能生活在一個社交網絡或者說一個‘社會’中。不調和到乃至產生沖突的文化,會自然的在人群與人群之間產生邊界”。⑨邊界的產生使新用戶難以進入,他們只有尋求新的圈子來滿足自己網絡社交的需求。這樣,無數的替代小平臺將會涌出。這看起來和全球化作用下的媒介集團化和縱向一體化趨勢相矛盾。但是,小平臺的產生是符合巨型公司風險規避戰略的。以騰訊公司為例,其旗下關于直播的產品就多達9款。這似乎會帶來網絡生態的多樣化與多元化。但是,本質上來說,這種多樣化帶來的是用戶的“分散”與 “管理”上的便利。人們在自己選擇的圈子里活動,畫地為牢將自己封閉起來。而智能算法對每個圈子設置著精準的規范,一個個通過類似算法形成的圈子將逐漸壓倒人的主體性,人在其中的秩序下生產著內容和人際關系,但這并不完全是人創造性行為的結果。
3.“隱秘的”網絡等級制度
“千人千面”的個性化算法推薦機制表面上實現了網絡公民的平權,但其實算法通過“節點”的設置建立了一個網絡等級制度。社交網絡形態類的平臺搭建以節點為單位,節點與節點的連接就會構成網絡。但是大部分平臺為了在建立之初吸引更多用戶,都會采用“無標度網絡”,這種網絡存在頭部的樞紐節點,節點以冪次分布。頭部節點就是我們常見的大V,網紅,明星等。通過算法進行網絡節點設置,就自然的對用戶進行了分類,第一類是能承載更多鏈接數的“樞紐節點”即“明星”,第二類才是普通用戶。當把頭部用戶和普通用戶納入到同一個整體中時,平臺本身就成了一個等級空間。這種等級劃分是通過智能算法實現的,通常是以粉絲數量,內容點擊量等數據作為標準。
從數量上排列,區分用戶有兩個主要的意義:第一,管理的需要。平臺的資源集中到頭部樞紐節點上,頭部用戶的信息擁有“特權”,會被算法優先分發。信息資源不平等的分發維護了由區分產生的管理便利。權力者只需要對頭部用戶進行管理和控制,就可以“過濾”大多數的普通用戶所接收到的信息。值得注意的是,這里所說的“管理”并不是指一種絕對的控制,因為我們不能否定主體改變客觀結構的實踐能力,不然就犯了索緒爾和結構主義者的錯誤。這里的“管理”是指在“無序的”網絡世界里一種最優的影響、左右及控制網民的途徑。第二,通過“慣習”機制,一種明確的有規則的層級網絡將被自然地建立與接受。布爾迪厄所定義的“慣習”有一個很重要的特質 ——“無意識性”,這是指“集體和個人的實踐基礎上逐漸獲得的一種在無意識的情況下依規律行動的能力”。⑩通過長期的,缺乏明確意識的,沒有清晰目標的,卻又合乎目的的接收算法分發的頭部用戶生產的內容,人們將會自然把自己放入層級網絡的“下端”即接收端。而智能算法的作用就是實現這個“自然化”的過程,使人為的東西在重復的作用下以一種自然的形式呈現出來,而這種“自然化”是一種“自在”而非“自為”的行為。
1.算法作用下人的“物化”
“科技所做的最重要的工作就是生產人自身:制作者被制作所形塑,應用者被應用所形塑”。“物化”是盧卡奇在《歷史與階級意識》中提出的重要概念。盧卡奇認為在資本主義社會,人的“物化”主要體現在兩個方面:一是“人的一切關系的物化”,因為資本主義社會強調商品的交換價值,導致人與人之間的關系扭曲為物同物的關系。二是“人自己的活動,人自己的勞動,作為某種客觀的東西,某種不依賴于人的東西,某種通過異于人的自律行為來控制人的東西,同人相對立”。推薦引擎時代,人的“物化”是依靠算法推薦內容必然的,現實的結果。不同于資本主義社會中人與人之間物與物的連接。在算法驅動的社交行為中,人與人之間連接的本質是數據之間的連接。智能算法根據對用戶數據的分析和理解自動的為他們推薦好友,建立社交圈子。相較于人在資本主義商品化過程中被動的“物化”,算法是一套依靠用戶自身選擇而實現的主動行為馴服程序。其次,算法推薦是“區分”與“分類”。當用戶在平臺注冊后,頁面會提供豐富的品類,如寵物、電影、旅游等讓他們選擇。根據這個選擇和之后對行為數據地采集,算法將自動的把用戶進行分類整理然后進行個性化推送。在區分整理的過程中,用戶作為人的主體性逐漸被數據取代。我們可以看到,算法時代人的“物化”是依靠“數據化”形成的。人與人之間的關系轉化為數據與數據之間的關系,而數據成為了新的規范。同時,數據也在逐步吞噬人類認知的個性,人最終會被自己創造出來的數據統治。
在算法“物化”人的過程中,對人的“麻醉”功能也凸現了出來。個人式的信息選擇會使用戶獲取的一切信息都在支持已有的知識與觀點。內容獲取便不再作開拓視野之用,用戶的關注視野會越來越窄,最終形成“信息繭房”。“信息繭房”是指“信息傳播中,因公眾自身的信息需求并非全方位的,公眾只注意自己選擇的東西和使自己愉悅的通訊領域,久而久之,會將自身桎梏于像蠶繭一般的‘繭房’中”。依靠算法的個性化信息推送帶來的是人思維的無意識,當這種無意識的思維成為了人們世界觀與價值觀的基礎與框架,人的縱向與橫向思維都很難進步。隨著時間的推移,“數據化”的人將會失去對整個社會的理解與全局批判的能力,甚至會造成群體“極化”現象。
2.算法議程設置對人主體性的遏制
同時,在這個“物化”的過程中,網絡參與者的自主性與創造力也將受到損害。這也許與一般的看法相悖。比如錄制短視頻被普遍視為很“潮”且富有創造力的行為。但是通過對抖音,快手等短視頻平臺進行分析,我們可以發現其中蘊含著巧妙的“議程設置”。議程設置最初是指通過對信息的安排,來引導甚至左右人們對于新聞的態度及探討方向。短視頻平臺主要通過設置“挑戰”和“話題”來實現議程的引導。利用熱門話題的推薦,新挑戰的設立來暗示和誘發用戶進行特定內容生產。表面上用戶充滿自主性與創造力的內容發布行為是服從于機器算法及背后的權力者的,更不用說平臺通過人工手段對視頻內容進行的審核對人的限制。
這種帶有政治經濟學色彩的論述,很容易受到受眾研究理論家的批判,他們主張Web2.0時代“人人都是麥克風”的傳播特性加大了議程設置的難度,“網絡自身的開放性、互動性賦予受眾極大的傳播權利,實現了媒介的接近權,他們可以忽略媒介的議程設置,自由選擇、瀏覽,通過‘拉’出自己感興趣的信息,作出判斷,重新為自己設置議程”。的確,絕大數的平臺都允許用戶自定義發起話題,比如最右,第一彈,也包括前面提到的抖音和快手等。但是,我們應該明確的是,無論是否可以自主發起話題,用戶有多大的自主創新權力,都取決于各個公司對其產品的定位與對用戶的理解。本質上,這都是算法進行議程設置的結果。人的主體性及創造力,都是在一個算法搭建的、被定義的、有限的范圍里發揮。
3.算法作用下人的商品化
算法推薦新聞平臺通常標榜著“免費”的信息服務。但是,“免費”并不是一個非盈利概念,而是帶有獨特的經濟屬性,什么不免,什么免,免到什么時候,都是被規則所包裹的。人們往往會忽略免費才是目的,正如原始部落的送禮行為并不是單純的贈送而是為了維護權力者的統治地位一樣,今日頭條等新聞客戶端的免費商業模式也有異曲同工之處。它們的盈利模式就是將用戶商品化。以今日頭條的醫療丑聞為例,其通過“二級跳”廣告展示模式規避法律漏洞,實現其盈利目的。按照規定,某些廣告是不能呈現在平臺上的。但是,今日頭條通過兩個頁面的方式為假冒藥品打廣告,一個符合標準的頁面,一個需要做廣告的頁面,然后用第一個頁面過審,過審后再在引導至第二個頁面上。因為有智能算法的“加持”,這些廣告獲得了巨大的點擊量,用戶作為商品的交換價值不斷提高,今日頭條的廣告費用也水漲船高。
推薦算法不僅能計算出你感興趣的新聞內容,也可以為用戶推送量身打造的廣告。在算法的“包庇”下,這些廣告具有一種潛移默化的魔力,當用戶處于這種“沉浸式”的環境下,將很難抵御虛假信息的侵襲。另外,用戶還極易成為平臺商業競爭的工具,在與騰訊公司的競爭中,今日頭條強行篡改新華網的新聞內容,設計了騰訊的負面新聞,并進行了“全量”推送,也就是說,并不是個性化推送,而是所有今日頭條的用戶全部“強制”接收。我們可以看到,今日頭條宣稱的“沒有編輯團隊,不進行人工干預,全靠算法學習進行個性化的機器推薦,也不進行內容的加工生產,只做內容分發”是一個偽命題,其所有的價值觀都蘊藏在本身設計的算法推薦系統中,而平臺本身可以肆意的利用算法權力作惡。由于今日算法從未公布其推薦算法都取決于哪些權值,我們也無法對其進行批判,只能任其一再讓算法“背鍋”。但是,我們可以看到的是一種中介的、有效的、“創造真實的力量”在活動,這股力量帶來了很多頗具危害性的衍生后果。標榜為科技公司,只是其逃避作為媒體的社會責任的一種手段,推薦算法不僅僅是展現了用戶的興趣點,更是平臺本身及既得利益者價值觀的體現。
算法權力,絕不僅僅是今日頭條用戶獨自承擔的后果,事實上,它潛伏在所有人的身上。因為,在互聯網時代,算法并不是獨立存在的,其已經逐漸形成一個宏大的連續的統一體。每天早上我們打開今日頭條瀏覽新聞,然后使用微信、微博,抖音,快手等。各種平臺算法各異,受眾分散,相互重疊,重復或模擬,通過數據互通,相互關聯,它們逐漸匯聚在一起成為一個連續的,不間斷的體系。一種自然的、微妙的 “虛擬網絡”就這樣形成且不斷循環優化。這個“虛擬網絡”的本質是智能算法時代新的規范人的手段,是一種中介的塑造的力量,其最終將成為權力體系重要的組成部分。Facebook通過改變算法影響美國大選等事件提醒著我們,智能算法憑借其強大的影響力已經開始成為弄權者戰略調動中的重要手段,越來越多的被用于政治或商業的目的。當平臺以算法為掩護,擁有了制定游戲規則的權限時,權力的結構必然發生變化。我們不應該再把機器算法預設為中立的技術手段,因對其保持警惕性。
對算法權力的引導與規范可以主要從三個方面展開。首先,從平臺內部來看,我們應該積極建設算法新聞專業主義,加強對新聞推送算法運行團隊新聞價值觀的培養。將公共理性置于工具理性之上,確立一種新的公共傳播指導哲學。從外部角度,我們應當堅持“人機結合”,平衡機器分發與人工編輯新聞的比例。確保人類信息接收渠道及形式的多樣性,避免算法壟斷新聞領域,構建傳統媒體、自媒體與算法媒體和諧共存的大眾傳播體系。另外,從法律的角度,對算法背后平臺權限的規范迫在眉睫,不能讓平臺成為規則的制定者,讓用戶成為企業商業博弈的武器。智能算法是人類智慧的結晶,在追逐其技術可能性與商業前景之前,治理與規范應當先行。只有當算法技術為我們所用時,我們才能受益其中,否則,帶給我們的只有無數的傳播亂象。
注釋:
①⑥ [英]丹尼斯·麥奎爾等:《大眾傳播模式論》,祝建華、武偉譯,上海譯文出版社1981年版,第4、111頁。
② 宋瑋:《對話張一鳴:世界不是只有你和你的對手》,《財經》,2016 年12月14日。
③ 趙夢迪:《“今日頭條”傳播模式研究》,浙江大學碩士學位論文,2016年。
④ 王成軍:《“今日頭條”的技術邏輯:網絡爬蟲+矩陣篩選》,《傳媒評論》,2015年第10期。
⑤ 數據來源:http://event.sj998.com/ruigongsi/484836.shtml。
⑦ [法]福柯:《規訓與懲罰》,三聯書店1999年版,第216頁。
⑨ 虎嗅網:《張一鳴只是想要一個微博殺手》,https://www.huxiu.com/article/239665.html?rec=manual.2018-04-12。