王仕勇

摘 要:“算法主導下信息傳播的社會影響與挑戰”成為2018年度“中國十大學術熱點”,算法推薦新聞也是學界關注的重要話題。大數據時代,新聞分發正在進行變革,對于算法推薦新聞的模式及其實踐,從一開始就伴隨是好是壞的爭論。一方面認為,算法推薦新聞實現了信息超載時代用戶需求信息的精準推薦,凸顯了受眾的主動地位;提高了內容分發效率,實現了對信息和人的精準與高效匹配,有利于增強用戶黏性;為社會民意搭建了一個前所未有的社會基礎平臺。另一方面認為,算法推薦導致隱私侵犯、算法偏見和算法歧視;導致新聞娛樂化、低俗化與同質性;導致信息繭房和群體極化;導致價值觀分化與社群區隔,不利于社會整合。對于算法推薦新聞,要深入思考數據的所有權和信息的選擇權、對什么負責與對誰負責、工具理性和價值理性等幾個問題,秉持寬容審慎和科學的態度進行研究。
關鍵詞:算法推薦;新聞分發;人工智能;倫理;技術
基金項目:重慶市教育委員會人文社會科學研究重點項目“政府社會輿情治理視角的網絡質疑現象研究”(18SKGH060);重慶市社會科學規劃重大委托項目“強化互聯網思維推進政府社會治理精準化對策研究”(2016ZDWT25)。
[中圖分類號] G210 [文章編號] 1673-0186(2019)09-0123-010
[文獻標識碼] A? ? ? [DOI編碼] 10.19631/j.cnki.css.2019.09.012
人工智能是影響未來新聞業發展趨勢的重要技術。智能算法進入新聞生產和新聞分發環節,正在對新聞業和新聞學研究產生革命性的影響。人工智能在新聞業界實踐的速度和影響出乎人們的意料,“算法主導下信息傳播的社會影響與挑戰”成為2018年度“中國十大學術熱點”。人工智能與新聞分發結合產生的算法推薦新聞,引起了其“是‘好東西’、‘壞東西’、還是有待驗證的‘新東西’”[1]的討論。
大數據是人工智能的基礎。大數據在改變身份概念的含義,同時也在改變我們與這個概念的所指之間的倫理關系[2]。基于大數據技術和神經網絡算法的算法推薦新聞,改變了編輯、記者、用戶等身份概念,也改變了媒體和用戶的倫理關系。
一、大數據時代的新聞分發變革
美國學者比爾·科瓦奇(Bill Kovach)和湯姆·羅森斯蒂爾(Tom Rosenstiel)在《真相:信息超載時代如何知道該相信什么》一書中提出,我們處在一個用戶主導的新媒體時代,“我們會比以往獲得更多信息,同時也更容易困惑;我們會更容易看見真相,同時真相也更難獲得”,這是我們面臨的信息超載的現實。在過剩的信息海洋里,閱讀由享受變為負擔。大數據為解決信息超載的困惑找到了一把科學的鑰匙,實現了信息的精準獲取。
(一)信息過載與算法推薦新聞的出現
在報紙、電視等傳媒主導內容傳播的時代,內容行業的競爭多屬于業內競爭,其內容分發是一種點對面的方式,傳媒從業者幾乎承擔著全部傳播責任。隨著互聯網進入人們的日常生活,內容傳播的時間和空間概念均發生了變化。從空間上講,理論上每一個連接互聯網的用戶都可以接收到分發的信息,但內容分發范圍的變化仍然沒有從根本上改變傳播的主體,只不過是網站、論壇、視頻網站等和報社、電視臺等內容生產的專業機構一道實現內容分發。
隨著社交媒體、新聞客戶端等的出現與發展,我們進入了一個信息過載的時代。國外研究機構的數據顯示,互聯網每天生產的內容可以刻滿1.68億張DVD;社區論壇發布的帖子接近《時代》雜志770年的文字量;在Facebook上有1.72億人登錄,上傳2.5億張圖片,如打印出來相當于80座埃菲爾鐵塔的高度;在YouTube上傳86.4萬小時視頻,如果不間斷全部播完要98年……來源于互聯網交易、移動終端、各種網絡設備和傳感器、社交媒體等的數字數據,海量內容,已經遠遠超過所能接受、處理或有效利用信息的范圍,用戶對信息反應的速度也遠遠低于信息傳播的速度。強大的內容生產能力,要求傳統的內容分發必須變革,以解決用戶對有用信息的分辨及選擇能力不足的問題。于是,出現了以微信為代表的個性化“訂閱分發”方式,以知乎為代表的“社群分發”方式,以今日頭條為代表的“算法分發”方式等。
算法推薦新聞作為新聞分發的一種方式,是基于內容資源、大數據技術和用戶三者統一的一種信息精準分發,屬于用戶新聞的“私人訂制”。它的出現與挖掘海量數據的大數據技術分不開。大數據技術把文字、圖片、音頻、視頻等海量信息數據化;把不同類型媒體上的同類數據整合;借由標準的標記體系和收集記錄的工具,實現地理信息的標準化和量化;把能體現個性化特征的人與人之間的網絡信息溝通與交流行為數據化;把現實社會與虛擬社會聯系起來并實現意義交換。算法推薦新聞,可以說是一個“業務數據化—數據業務化”的閉環反饋過程[3]。
(二)算法推薦新聞模式
算法推薦新聞的基本邏輯是通過大數據技術,從互聯網上采集新聞內容信息、用戶個人網絡行為及社交關系等,根據“信息與人”的匹配原則向用戶推送符合其興趣偏好的特定信息。關于算法推薦新聞的模式,學界根據業界的實踐進行了分析。
目前,算法推薦在新聞中的應用還處于初級階段。周勇、趙璇認為,算法新聞的本質是努力實現“信息與人”的匹配[4]。目前的內容分發根據算法使用程度,可分為三類:一是與內容生產方合作,根據用戶信息推薦內容并由用戶發現和選擇訂閱的“人工推薦為主”模式;二是通過記錄用戶搜索信息推薦新聞的“人工+算法”模式;三是基于用戶行為數據和社交媒體數據,運用機器學習推薦新聞的“完全算法”模式。
劉存地、徐煒根據算法推薦原理把推薦算法分為五類:一是協同過濾推薦算法,包括根據相似用戶預測相似偏好的基于用戶(User-Based)的協同過濾、根據用戶對信息的評價及信息之間的相似度進行推薦的基于項目 (Item-based)的協同過濾;二是基于內容的推薦算法,包括憑借經驗與實際情況擬合度的啟發式算法,以用戶瀏覽行為為基礎通過機器學習的預測模型法;三是基于關聯規則憑借大數據相關性發現能力以實現預測用戶需求的推薦算法;四是結合用戶偏好變化和滿足程度的基于效用的推薦算法;五是以用戶資料中能夠支持推理的知識結構為基礎進行預測的基于知識的推薦算法[5]。
彭蘭從新聞分發渠道的角度,提出把新聞分發平臺沉淀為一個連接用戶社交關系、物和環境的用戶平臺是未來趨勢[6]。她把互聯網進入大眾傳播領域以來新聞分發平臺劃分為六大類:以“多源聚合 + 人工分發”為特征的整合類平臺,以“多源搜索 + 算法調度”為特征的搜索引擎平臺,以“人際網絡 + 大眾傳播”為特征的社會化媒體平臺,以“個性分析 + 算法匹配”為特征的個性化推薦平臺,以“臨場體驗 + 社交傳播”為特征的視頻和 VR /AR 平臺,以“生活場景 + 新聞推送”為特征的服務類平臺。并認為,未來新聞分發平臺將以集聚維護用戶、匯聚多元化內容生產者、匹配內容生產與消費、營造多重新聞體驗環境、關聯內容與其他互聯網服務為實現目標。
為了進一步了解算法新聞推薦的模式,我們根據今日頭條的核心架構分析,制作出推薦模式圖(圖1)[7]。
由此可見,對內容的分類和標簽化、對用戶日志的分析和用戶興趣的挖掘學習、對用戶的社交畫像是算法推薦新聞的基礎。
二、“好東西”:算法推薦新聞的技術創新
對于算法推薦新聞的模式及其實踐,從一開始就伴隨是好是壞的爭論。算法推薦新聞,其基石是大數據技術。這就意味著爭論的根本是對科技價值的評判。價值是反映客體滿足主體需要的關系范疇,如果能滿足個體需要我們說有個人價值,如果能符合社會整體利益并促進社會進步我們說有社會價值。關于科技價值觀,西方有樂觀主義和悲觀主義兩種思潮。馬克思主義肯定科技的巨大社會作用,對科技帶來的社會后果總體上也持積極樂觀的態度,認為“科技是推動社會進步的革命力量”。在當前的研究中,肯定算法推薦新聞的個人價值和社會價值的觀點,主要集中在以下幾個方面。
從個人價值來講,算法推薦新聞實現了信息超載時代用戶需求信息的精準推薦,凸顯了受眾的主動地位。當前算法推薦內容在我國資訊信息分發市場占比已經超過一半,這是一種主動選擇的結果。算法推薦新聞是信息技術在傳播領域的創新型運用,是新聞分發的巨大變革,它根據用戶畫像、用戶社交關系、關聯內容、地理位置等信息消費行為,挖掘用戶的媒介消費興趣、習慣及特點,并對用戶未來的媒介消費內容進行預測,繼而為用戶推薦“量身定制”的新聞產品,實現精準推送和有效供給,最大程度滿足了用戶的個性化信息需求[8]。“意義建構理論”提出者布倫達·德爾文(Brenda Dervin)提出,個體的信息行為過程是對信息主動搜索、主動發現,并主動建構信息意義的過程。算法推薦新聞改變了傳統的信息行為模式,它通過對用戶媒介消費興趣和社交圖譜的建構,實現對用戶需求內容的個性化精準化推薦[9]。傳統分發模式,受眾始終無法擺脫“木偶”這一角色,算法推薦新聞對用戶賦能和賦權,賦予用戶主體身份[10],這樣既節省了用戶的時間成本,又提高了信息的閱讀效率,還把用戶的主動地位凸顯出來。
從媒介需要來講,算法推薦新聞提高了內容分發效率,實現了對信息和人的精準與高效匹配,有利于增強用戶黏性,為高效實現內容產品的商業變現提供了技術支持。從傳統媒體時代到互聯網時代,新聞分發變革是媒介技術發展的必然要求。算法推薦新聞以智能推薦工具替代傳統物流分發流程,實現自動化發行與營銷[11],有利于增強用戶與新聞產品之間的黏性,提升新聞價值,提高用戶興趣和參與意識,擴大用戶影響和范圍。
從社會價值來講,算法推薦新聞實現了為社會民意搭建一個前所未有的社會基礎平臺。算法推薦新聞通過“模型泛化”挖掘和洞察與用戶相似的社群特征和需求,然后針對性發送,由于其“對流量的分配獨立于社交關系而不受 ‘大號’壟斷的影響”[12],可以有效解決社交過濾存在的不足。同時,由于算法可以自我學習自我訓練,人們“可通過大數據將個體的訴求隨時隨地表達、記錄及價值挖掘,并且對這些數據進行連接、分析,算法實現了為社會民意搭建一個前所未有的社會基礎平臺” [10]。
三、“壞東西”:算法推薦新聞的倫理困境
企鵝智酷發布的《未來地圖:中國新媒體趨勢報告(2017)》顯示,在2017年,算法推薦新聞首次在用戶感知上面已經超過新聞和社交推薦。51.5%的被調查者最看重新聞資訊中的新聞推送功能,新聞推送功能躍升新聞產品功能第一位[13]。今天,智能推薦算法在信息分發市場中的運用占比越來越高,其地位已呈現出超越人工推薦的趨勢。溫特、良太小野(Jenifer Winter,Ryota Ono)在《未來互聯網》一書中提出,按照技術樂觀主義的觀點,人工智能在未來幾十年內將超過人類大腦,能夠無限度地使人類與機器并存和融合[14]。但人們在擁抱算法這一趨勢的同時,也體現出了很多擔憂。這種擔憂更多的是對其帶來的倫理問題的擔憂。
(一)隱私侵犯、算法偏見和算法歧視
信息技術與個人隱私共存正在變得越來越模糊。隨著公共和私人信息之間界限不斷移動,關于如何劃分信息密級的辯論也越來越激烈。侵犯隱私是算法推薦新聞被質疑的一個熱點問題。專家認為,個別 App在協同過濾的算法推薦過程中,會竊取用戶的手機通信錄、短信等信息,導致用戶行為數據和隱私泄露等安全風險增大[8]。有學者提出,“對于信息的細化過程都不是道德中立的”,即使算法程序是中立的,但數據本身是帶有偏向性的,在這種機制中存在的偏見令人更加難以察覺[15]。同時,掌握數據的技術平臺基于商業利益的考量,他們在用戶無意識狀態下收集、獲取和使用用戶信息,把用戶在平臺上的數字痕跡可能以某種無法知曉的方式銷售給廣告客戶,從而侵犯用戶個人隱私。
與隱私侵犯相關聯的擔憂還有“算法偏見”(algorithmic bias)和“算法歧視”(algorithm discrimination)。國外社會學專家認為,算法推薦根據自己的運算規則為每個用戶預設了一個身份,給每個個體劃定了邊界,算法不斷增加的復雜性可能使底層永遠成為底層,導致算法偏見[16]。弗里德曼(Friedman)和尼森鮑姆(Nissenbaum)研究發現,計算系統(主要指機器學習)存在偏見,由人編寫的算法必然包含著人自身的偏見。算法推薦不但不能阻止技術偏見,還會在看似中立的算法規則中,由于數據源、版權、監管等問題和設計者的主觀因素產生新的偏見[15]。關于算法歧視,學界多次提到美國弗格森案件,由于存在種族歧視,Facebook采用機器算法和利用人們對社交媒體的依賴,干預用戶觀看有關弗格森槍擊案的信息,向用戶推薦與此案不相關的內容。
(二)娛樂化、低俗化與同質性
算法推薦的一個重要指標是資訊內容的點擊量,其目標是獲取更多用戶的注意力。在信息超載時代,移動化、碎片化、淺表化是用戶閱讀的基本特征。為了滿足用戶接受輕松省力信息的需求,在算法推薦中會特意推薦那些聳人聽聞的標題、離奇夸張的故事情節和低俗淺表的內容吸引受眾,用戶點擊越多,算法推薦的權重越大,造成惡性循環,這樣使得娛樂化、低俗化的信息湮沒了理性、深度、高質量的信息[8]。
與娛樂化、低俗化相伴隨的必然是同質性。由于把迎合用戶需求、追求最大點擊量作為算法推薦最重要的目標,因此,算法推薦以所謂的“中立性”“技術主導”,將含有“腥”“星”“性”等低俗化、娛樂化因子的信息以公式算法和系數加權的方式,實現了“標準化”“同一化”推送,導致新聞娛樂化。李彪、喻國明稱之為“繭房內的同質性”。算法新聞的個性化推薦,不僅強化了信息傳播的閉環,而且使標題黨、低俗甚至是別有用心的議題輕松便捷找到其用戶,從而消解傳統媒體堅守的情懷與專業主義[9]。今天,“奶頭樂”新聞、公共議題泛娛樂、自媒體新聞世俗化等傳播亂象,使得淺薄化、娛樂化以及“三俗”的資訊內容充斥網絡,新聞生態逐漸污濁,算法推薦無視人類行為背后的認知、情感和意識,以“形式合理性掩蓋了實質合理性”,人們甚至開始懷疑真正的新聞是否正在死去。
(三)信息繭房和群體極化
娛樂化、低俗化導致的“繭房內的同質性”是信息繭房的一種表現。針對算法推薦新聞,學者非常關注由于信息消費的窄化、固化導致的“信息繭房”效應,以及由于用戶長期接受同質化信息導致的群體意見極化現象。
多數研究算法推薦新聞局限性的論文,都會使用到“信息繭房”這一概念。由于算法推薦新聞是根據個人偏好定向推送的,這很容易導致用戶接觸不到自由市場中開放多元的意見,也很難與代表不同價值觀念、取向的意見和觀點進行交流交鋒,長此以往用戶會沉浸于自己的“舒適地帶”之中,沉浸在自主選擇的“滿足感”里,逐漸把自己封閉和隔離起來,脫離本來豐富多彩、文化多元的大千世界,產生自我重復、自我固化的“孤島效應”,形成信息繭房[17]。這正如《人民日報》評論所言,“技術為用戶量身打造信息,開啟了符合讀者口味的一扇窗,卻關上了多元化的一道道門”[18]。
千人千面的個性化算法技術推薦模式,除了使人的視野變得狹窄,還會塑造人的認知,使人的認知出現局限性,導致態度和觀點的極化[19]。姜紅、魯曼認為,算法推薦新聞為用戶營造的“過濾氣泡”式的閱讀環境,既建構了用戶對社會的想象,又通過新聞信息的傳遞潛移默化地影響用戶的情感和態度。克雷默( Kramer) 等三名學者通過對 689 003人的實驗證實, Facebook 消息推送可顯著影響人們的情感和態度[20]。布赫( Bucher) 的研究也發現,算法機制通過對用戶的閱讀行為和社會網絡的分析,不斷向用戶發送信息,并記錄下用戶閱讀信息的情緒,有相似新聞出現就會連續不斷地發送類似信息,不斷刺激用戶的神經,影響和規制著用戶[21]。關于這一點,桑斯坦(Cass R.Sunstein)也認為:“如果互聯網上的人們主要是同自己志趣相投的人進行討論,他們的觀點就會僅僅得到加強,因而朝著更為極端的方向轉移。”[22]這些被繭化的用戶因信息的不斷感染,很容易把信息暗示的觀念變成自身的行動傾向,產生極化行為。如果是被相同的情緒極化的,如仇官仇富的被繭化用戶,可能會因為與某些污名化官員或富人的信息長期接觸,強化仇官仇富情緒,形成群體極化。
(四)價值觀分化與社群區隔
社群區隔與價值觀分化是與信息繭房、群體極化緊密關聯的兩個概念。信息繭房多指繭房內的同質化,繭房與繭房之間因為彼此不同質,不能產生溝通交流行為,這種繭房之間的異質性就造成社群區隔。社群區隔的主要原因是價值觀分化。
美國傳播學者博奇科夫斯基把90后一代在社交媒體中偶遇新聞的現象稱為“不期而遇的新聞”,認為這種現象不僅改變了他們的新聞獲取與閱讀方式,還決定了他們看到的政治觀點和社會意見[23]。算法推薦新聞針對不同價值觀的人群,傳遞分發不同價值觀的內容信息,算法替代了傳統媒體中的“把關人”。算法技術“為每個人量身定制過濾器,使每個人都成了一座信息孤島,人與人之間形成了區隔”[24],從而可能導致社會分層的固化。算法作為技術盡管是中立的,但發明和掌控算法的個人或企業,如果唯利是圖,只把算法推薦作為謀取利益的新工具,那么被操縱的算法可能會成為推薦偏離社會真實圖景的信息的“隱形獨裁者”,算法推薦系統可能成為“扭曲的棱鏡”,導致公眾的社會認知偏差,“可能給公共生活造成難以彌合的分裂”[25]。
社會是需要共識的,而思想的活躍與繁榮是社會共識形成的基礎和條件。正是在不同思想觀點的交流和碰撞中,人們去尋找最大多數的認同群體,形成思想和觀點的“最大公約數”,促進社會共識。而算法推薦造就了高度分眾化的群體和社群區隔,導致社會共識的形成變得困難,給社會凝聚力的增強帶來了新挑戰[5]。
四、“新東西”:算法推薦新聞的未來及規制
科技樂觀主義認為,科技是社會發展的一個決定性因素,其帶來的一切問題都能依靠科技本身解決。科技悲觀主義認為科技將使人類淪為奴仆,甚至毀滅人類的本性,導致人類的生存危機。“任何技術都傾向于創造一個新的人類環境”,算法推薦新聞作為一種新生科技事物,作為一種知識性的存在,正在改變著我們認知世界的方式,也在改變著我們所處的環境。因此,對算法推薦新聞這種技術分發新聞方式,我們需要進行審慎細致的反思。
(一)數據的所有權和信息的選擇權
算法推薦新聞的一個重要特征,就是搜集挖掘用戶的信息喜好、社交關系和網絡行為痕跡,并據此進行信息匹配,有針對性地推薦新聞。在關于“好東西”與“壞東西”的討論中,問題的焦點是算法搜集挖掘信息尤其是使用信息的合法性、科學性問題(涉及隱私侵犯、算法歧視和算法偏見等),以及用戶的選擇權問題(涉及信息繭房等)。也就是用戶在網絡上的信息痕跡到底歸誰所有?算法是絕對中立的嗎?用戶的信息選擇權該歸誰來掌握?
隱私是作為法定權利基礎的天賦權利,是人格的根本。人格的根本是我們能夠掌控自己的信息。每一個用戶都樂意讓人們把他們的個人信息當作是保密的而不是可以隨意買賣的商品。隱私權的目標是確保個人擁有一個能成為個人的而不是集體成員的空間。在這個空間內,他能進行自己的思考,擁有自己的秘密,過自己的生活,只讓外部世界看到他愿意公開的東西[26]。由此看來,用戶不愿意公開的網絡行為信息自然屬于隱私。但在互聯網時代隱私的邊界發生變化了嗎?如果算法是中立的、科學的,用戶的信息可以讓渡給機器嗎?霍奇斯(Hodges)認為,保護隱私是一種道德的善,作為個體存在的我們需要隱私,作為社會存在的我們需要彼此的公開信息。“因為我們是個體存在,所以消滅隱私就消滅了我們所理解的人來存在;因為我們是社會性的,所以把隱私提升到絕對高度同樣會使人類社會不復存在”,這說明問題的焦點在于隱私的邊界。對于隱私,戴維斯、帕特森認為,用戶線上預期同線下預期之間的差別, 涉及個人對與他們自身相關的私人數據的公開使用權所具有的控制程度,是一個深刻的倫理探索課題[2]。
在算法推薦新聞過程中,算法技術看似居于核心地位,但對問題的理解、數據的選取、變量的選擇、算法的評價等都貫穿著人為因素[27],如何認識算法的中介本質,在算法中規避有意識或無意識的認知偏見,給予用戶更多的信息選擇權和知情權才是問題的核心所在。真正把信息選擇權讓渡給用戶,讓用戶明白自己的需要和選擇,增強算法的透明性,而不是讓用戶“被算法喂食”,倡導以間性“算法集”為視角、以“數據主體”的規范理念為出發點來推進落實“可理解的透明度”是算法要努力解決的問題[16]。
(二)對什么負責與對誰負責
上一個問題回答了對什么負責和對誰負責的問題,那就是對隱私負責和對用戶負責。但關于算法推薦的擔憂無論是在西方語境還是中國語境中,都不是一個簡單問題。算法推薦被指將用戶置于隨時被監控的“圓形監獄”,造成價值觀分化與社群區隔,這無疑是從社會責任的視角來觀照算法技術的。
有研究者在《算法機制對媒體社會責任的影響》中提出,圍繞算法機制的優劣有堅守派和破除派兩種觀點,堅守派希望媒體通過對特定價值觀的堅持和引導達成社會共識實現社會和諧,破除派則認為不應堅持特定價值觀,而應通過多元價值的相互博弈促成社會和諧進步[28]。不管是堅守派還是破除派,其實都在肯定媒體在算法推薦中的社會責任。算法新聞除了滿足受眾的信息需求,還應通過有意義、有價值的信息傳播,促使社會形成一個能相互協調與配合的統一有機體,履行輿論引導功能。無論算法新聞如何變革,必須確保人文情懷、責任擔當等新聞業的核心價值觀不因技術的變革而消亡,確保技術變革有利于社會和人類的可持續發展[11]。
從社會責任的視角,我們可以用行動者網絡理論(ANT)來探究算法技術與社會責任的關系問題。行動者網絡理論認為,“任何通過制造差別而改變了事物狀態的東西都可以被稱為行動者”,行動者可以是人,也可以是技術、觀念等力量。算法技術根據用戶偏好和接觸信息的變化而變化,根據用戶標簽推送內容,為用戶塑造一種自己的媒介環境。算法不是一成不變的,算法總是根據用戶的行為不斷調整和改進,用戶在改變算法,算法也在改變用戶。因此,算法是一個非人類的“行動者”。人與算法構成一個網絡,在這個網絡里,用戶與算法技術是既相互依存又相互影響的主體間性的相與關系,非人的“行動者”(算法技術)通過有資格的“代言人”(agent)來獲得主體的地位、資格和權利,與用戶一道共同營造相互協調的行動之網。顯然,這個有資格的“代言人”的社會責任就會特別重要。
社會責任理論的心理學基礎是:人并不是完全理性的動物,本性也并非全然的“善良”。因此,傳媒應該對社會承擔責任,與社會“分享共同價值”。對什么負責和對誰負責,歸根結底就是傳媒除了發揮娛樂功能外,更應發揮其雷達功能、控制功能、教育功能。算法技術作為與人相互影響的“行動者”,應對人的自由全面發展負責,對社會健康有序運行負責,算法的設計者在整個行動網絡中處于樞紐和關鍵地位。
(三)工具理性和價值理性
算法是一種技術工具,算法推薦中產生的低俗、淺薄內容甚至算法偏見與歧視,將算法對用戶的“控制”形容為“信息繭房”“個性化圈套”“信息孤島”,從技術反思的角度看,需要我們去追溯技術與人的關系、技術與社會的關系。對于算法技術對人與社會的影響,需要科學嚴謹的長期的實驗方法進行研究。
工具理性強調把技術的效用發揮到最大,價值理性強調倫理的重要性。對算法推薦的價值考量,主要圍繞著工具理性和價值理性的博弈。對技術保持懷疑批評,對價值保持敬畏尊重,找到工具理性和價值理性的黃金結合點,是算法推薦要努力解決的問題。我們要肯定算法技術對社會的推動作用,也要對其價值關懷格外重視。技術與社會是互動的,良性的互動才能給人類帶來福祉。過度強調價值會阻礙技術創新,過度強調算法技術會導致“創新性破壞”。對新興事物的立法與規制,應當兼顧社會公平、個人權利,使其不至于扼殺創新[29]。
對于算法推薦新聞,不能沿用老辦法管制,應秉持“寬容審慎”的態度。比如,有學者提出,互聯網時代,隱私權的邊界發生了變化,“隱私權不能僅僅理解成獨處不被打擾或不被不希望出現的意見和刺激擾亂心神的權利等靜態的隱私”;“‘信息繭房’并不是算法時代獨有的產物,‘信息繭房’存在的根源是‘選擇性心理’”等[30]。因此,對于算法推薦新聞的研究,還需要以一種審慎的心態進行。
參考文獻
[1]? 祝建華:算法推薦新聞是“好東西”、“壞東西”、還是有待驗證的“新東西”?[EB/OL].[2017-11-22].https://www.jfdaily.com/news/detail?id=71705.
[2]? 科德·戴維斯,道格·帕特森.大數據倫理: 平衡風險與創新[M].趙亮,王健,譯.沈陽: 東北大學出版社,2016:17.
[3]? 傅丕毅,陳毅華.M G C機器生產內容+AI人工智能的化學反應——“媒體大腦”在新聞智能生產領域的迭代探索[J].中國記者,2018(7):30-32.
[4]? 周勇,趙璇.大數據新聞生產的實踐與反思[J].新聞與寫作,2016(06) :44-48.
[5]? 劉存地,徐煒.能否讓算法定義社會——傳媒社會學視角下的新聞算法推薦系統[J].學術論壇.2018(4):28-37.
[6]? 彭蘭.未來傳媒生態: 消失的邊界與重構的版圖[J].現代傳播,2017(1):8-14+29.
[7]? 今日頭條的核心架構解析[EB/OL].[2017-05-19].https://www.aliyun.com/jiaocheng/154571.html.
[8]? 吳衛華.算法推薦在公共傳播中的理性問題[J].當代傳播,2017(3):79-81.
[9]? 張瀟瀟.算法新聞個性化推薦的理念、意義及倫理風險[J].傳媒,2017(6上):82-84.
[10]? 喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018(5):5-12.
[11]? 吳鋒.發達國家“算法新聞”的理論緣起、最新進展及行業影響[J].編輯之友,2018(5):48-54.
[12]? 張志安,湯敏.論算法推薦對主流意識形態傳播的影響[J].社會科學戰線,2018(10):174-182.
[13]? 企鵝智酷:2017中國新媒體趨勢報告[EB/OL].[2016-11-16].http://www.199it.com/archives/654084.html.
[14]? 珍妮弗·溫特,良太小野.未來互聯網[M].鄭常青,譯.北京:電子工業出版社.2018:155.
[15]? 常江.生成新聞:自動化新聞時代編輯群體心態考察[J].編輯之友,2018(4):76-82.
[16]? 仇筠茜,陳昌鳳.黑箱:人工智能技術與新聞生產格局嬗變[J].新聞界,2018(1):28-34.
[17]? 吳獻舉.聚合媒體的新聞生產:方式變革、社會影響與優化路徑[J].編輯之友,2018(6):63-67.
[18]? 人民網.民日報評論部:算法盛行更需“總編輯”[EB/OL].[2016-12-13]. http://opinion.people.com.cn/n1/2016/1223/c1003-28970666.html.
[19]? 劉凱.“千人千面”技術模式下政策類新聞傳播的優化策略[J].中國記者,2018(03):64-66.
[20]? Kramer,A. D. .Guillory,J. E. ,& Hancock ,J. T. Experimental Evidence of Massive- Scale Emotional Contagion Through Social Networks[J]. Proceedings of the National Academy of Sciences of the United States of America,111( 24) ,8788,2014.
[21]? Bucher,T.. The Algorithmic Imaginary: Exploring the Ordinary Affects of Facebook Algorithms[J]. Information,Communication & Society,2017(1), 30-44.
[22]? 凱斯·R.桑斯坦.極端的人群:群體行為的心理學[M].尹弘毅,郭彬彬,譯.北京:新華出版社,2010:103.
[23]? 李彪,喻國明.新聞2.0時代硅谷如何馴化美國新聞業[J].江淮論壇,2018(3):166-170.
[24]? 姜紅,魯曼.重塑“媒介”: 行動者網絡中的新聞“算法”[J].新聞記者,2017(4):26-32.
[25]? 胡凌.人工智能的法律想象[J].文化縱橫,2017(2):108-116.
[26]? ?Thomas I.Emerson.The System of Free Expression (New York:Vintage Books).Louis Hodges(2009)[M]."Privacy and the press,"in The Handbook of Mass Media Ethics,eds.Lee Wilkins and Clifford Christians(New York:Routledge),1970:545.
[27]? 張超.作為中介的算法 :新聞生產中的算法偏見與應對[J].中國出版,2018(1):29-33.
[28]? 董小菲.算法機制對媒體社會責任的影響[J].網絡傳播,2017(9):94-96.
[29]? 馬思源,姜文琪.推薦算法規制的他山之石[J].新聞戰線,218(3):106-108.
[30]? 林小勇,張苗苗.未來媒體藍皮書:中國未來媒體研究報告[M].北京: 社會科學文獻出版社,2018:186.
(責任編輯:易曉艷)