陳丹萍
【摘? ? 要】智能傳播時代,信息傳播領域發生了新的轉變。然而,現有技術的智能化程度以及技術應用的規范仍存在缺陷。本文認為現有智能技術在信息傳播領域的應用可能存在降低用戶搜尋有用信息效率、助推情緒化內容擴散與誘發群體極化、稀釋用戶自主選擇權與助長“信息繭房”現象等信息傳播隱憂。為此,嘗試從平臺、技術、用戶、法律四個方面找尋合適的規避路徑,以期推動智能技術在信息傳播領域的良性應用。
【關鍵詞】智能傳播時代;信息傳播;傳播倫理
為進一步推動我國經濟轉型升級,實現產業高端化發展,近來國家愈發重視大數據、云計算、人工智能、區塊鏈等新型基礎設施建設,強調通過技術創新,找尋新的經濟增長點。2018年,我國將“加強新一代信息基礎設施建設”列入2019年的政府工作報告。2020年3月,中共中央政治局常務委員會提出,要加快5G網絡、數據中心等新型基礎設施建設進度。2020年6月,國家發改委提出,要以新發展理念為引領、以技術創新為驅動、以信息網絡為基礎,打造產業升級、融合、創新的基礎設施體系。
隨著國家對新技術基礎設施建設步調的加快,智能技術也在加快向信息傳播領域的滲透,大數據、云計算、物聯網、人工智能等技術在信息傳播領域的應用愈發普及。自此,信息傳播領域邁向了智能傳播時代。回顧信息傳播領域的發展歷程,不難發現每一次技術進步都會帶來信息傳播領域的巨大變革。然而,現有技術的智能化程度以及技術應用的規范仍存在缺陷,智能技術在信息傳播領域的應用也存在技術風險,可能會給信息傳播領域帶來新的隱憂。為此,探討智能技術應用帶來的信息傳播隱憂,及時找尋合適的規避路徑,有助于推動智能技術在信息傳播領域的良性應用。
一、技術邏輯影響信息內容
如今,人類迎來信息爆炸式增長的時代。以YouTube為例,其每分鐘就有多達400小時的視頻上傳量,每天就有高達10億的視頻播放量。[1]面對海量信息,智能技術能夠通過明確、有限的計算過程,迅速得出可行的方案,有效提高信息生產與分發的效率。然而,技術邏輯也深刻影響了信息內容的生產邏輯、分發邏輯、語言風格、評價標準等。
隨著網絡信息的爆發式增長以及受制于移動設備屏幕的空間限制,人們主要通過閱讀標題進行信息內容的篩選。同時,由于智能技術會依據用戶的歷史使用數據,向其進行內容推薦,并對點贊率高的內容進行推送和擴散。因此,標題能否迅速抓住用戶眼球,將嚴重影響用戶點擊率、點贊率,甚至是信息內容的進一步推送。因此,在技術邏輯影響下,平臺或將更愿意生產迎合用戶淺層次、娛樂化需求的產品。
此外,用戶也成為內容的“把關人”之一。以Netflix為例,Netflix通過技術升級,推出了個性化海報推薦功能,即算法會根據用戶以往的觀看喜好,預測并抓取用戶可能感興趣的劇中的某一角色或場景作為電影推薦封面圖,使得不同用戶看到不一樣的電影推薦封面圖。借助電影推薦封面圖的強烈視覺沖擊,吸引用戶眼球,促使用戶點擊觀看。而Twitter則開發了圖片自動裁剪機器人,用以識別圖片中可能引起用戶關注的興奮點,并通過對預覽圖片進行自動裁剪,貼近用戶的閱讀興趣。隨著智能技術向信息傳播領域的不斷滲透,平臺將越來越了解用戶興趣,越來越懂得如何吸引用戶的注意力。未來,隨著智能技術應用的普及,全方位、個性化、定制化的內容生產和分發模式也將愈發普及。
二、智能技術應用引發的信息傳播隱憂
(一)降低用戶搜尋有用信息的效率
由于算法運作過程的明確性和固定性,算法會依據既定的規則來進行信息分發,即為短時間內獲得更高用戶點贊率的內容提供更多的推送機會。這無形中也給平臺一個利用技術規則的機會,即內容只要能夠在短時間內獲得一定的點贊數,達到平臺推薦機制對點贊率的要求,就能獲得更多平臺的推薦,實現內容的大規模擴散。這潛在誘發了“標題黨”現象,使得網絡中可能出現更多奪人眼球、獵奇、聊天式的標題,用戶往往無法通過單純的閱讀標題了解文章的具體內容。例如,《慘不忍睹!快告訴你身邊的人要小心……》《14億人都不知道的真相,歷史的血淚》《父母的健康握在你手里!有父母的都看!》《20條經驗總結5000年文化精華,不看后悔》《50個建議!做到的人都是億萬富翁!》等標題。實際上,算法邏輯迎合了人們的閱讀興趣,但無意中也為部分價值不大的信息增加了傳播機會,降低了人們迅速、準確地找到對自己有用的信息的效率。
(二)助推情緒化內容擴散與誘發群體極化
智能技術會依據用戶對信息的點擊量、觀看時長、觀看速度、內容評分、用戶的搜索記錄、觀看歷史、人口統計學信息與地理位置等數據,進行信息內容的智能排序和推薦。在技術邏輯影響下,平臺很容易更多地關注事件的熱度,而將受眾面不廣、熱度不高、沒有上過熱榜的話題剔除在外,即使該話題可能具有很高的公共價值和現實緊迫性。同時,技術邏輯還容易助長平臺與算法進行“共謀”,利用“尖叫效應”,生產和傳播更多情緒化的信息內容,以獲得更多的流量和更高的點擊率。北京航空航天大學許可教授在研究了新浪用戶于2010年4月到9月內發布的約7000萬條微博數據后,發現憤怒是網絡上最容易傳播的情緒。在網絡傳播這種弱連接的情況下,憤怒比其他情緒更具穿透性。因此,技術邏輯潛在地助長了平臺在網絡上生產和傳播更多的情緒化的內容,使情緒化的表述和觀點充斥網絡。同時,在智能技術的推薦機制作用下,用戶會越來越多地接觸到具有情緒偏向的信息。于是,用戶對于現實的態度和判斷可能會發生扭曲,誘發群體極化。
(三)助長“信息繭房”現象
在技術邏輯影響下,受眾面更廣、熱度更高、上過熱榜的話題更容易持續得到人們的關注。而那些關注社會邊緣群體、具有公共價值、前瞻性、預測性的內容,則很可能被排在用戶信息推薦列表的后面,進而被淹沒在信息海洋之中。此外,智能技術主導下的精準分發,也使得用戶熟悉或者樂于閱讀的同類消息被反復推送。雖然用戶所獲得的內容更加個性化、更加符合自身的觀看習慣和閱讀偏好,但是其對信息的自主選擇權也在逐步減少。例如,Facebook推出了一種信息推送方式,即以用戶可能感興趣為前提,優先向用戶推送其朋友發布或看過的消息。該推送算法使得用戶與其朋友關注的東西越來越像,也使得用戶信息接收維度和視野變窄。為此,智能技術在迎合用戶閱讀興趣的同時,也造成了“過濾氣泡”現象,削弱了用戶對信息的自主選擇權利,將用戶“囚禁”在個人化的信息世界里,難以對現實形成全面、客觀的認識。同時,假若用戶媒介素養較低或者自制力不夠強,就很容易沉浸于平臺不斷推送的符合自身閱讀喜好的同類型信息之中,進而形成“信息繭房”現象。
三、智能傳播時代信息傳播隱憂的規避路徑
(一)平臺:責任意識與平衡報道
目前,人工智能的發展水平仍處于中人工智能階段。[2]人工智能僅在滿足強封閉性準則的場景中,才能夠大規模運用。[3]為此,在信息傳播這種開放性、主觀性很強的領域,智能技術的應用必然存在技術風險。因此,平臺對智能技術應用的把關十分重要。一方面,為了避免惡搞、獵奇、情緒化、片面化的信息內容充斥網絡,為用戶提供更多有價值的信息內容,平臺應該提高責任意識,重視人工編輯崗位的增設,以提高信息審核質量,彌補智能技術的不足。例如,Apple News堅持在算法時代雇用人工編輯來挑選內容,以保障信息內容的質量,為用戶帶來更多細節詳實、觀點全面的新聞。YouTube則通過內容評級員對視頻內容進行評級,降低爭議性視頻出現在推薦列表中的概率。人工編輯介入,能夠幫助用戶剔除部分標題奪人眼球、卻言之無物的信息,幫助用戶更高效地獲得有用信息。另一方面,平臺還應該重視平衡報道。通過人工糾偏,調節算法設定,為用戶推薦一些與用戶既有閱讀喜好不同的內容,擴大用戶自主選擇范圍。例如,《衛報》嘗試開辟了“戳破泡泡”(Burst Your Bubble)專欄,為不同派別的用戶提供不一樣視角的觀點,讓用戶感受到真實世界的多面性,避免“回音室效應”以及群體極化現象。
(二)技術:技術完善與技術輔助
要更高效地解決信息傳播倫理問題,一方面,應該注重技術完善,防范于未然,避免出現人工智能系統的漏洞,加劇信息傳播過程中的倫理風險。重視對人工智能進行人性化特征訓練,使其更加人性化。例如,在雅虎,訓練師會訓練人工智能的語言處理系統,使其能夠理解人類語言的字面意思之外的深層含義。同時,需要安排人工智能安全工程師,以預測人工智能系統的失誤,及時修補技術漏洞。此外,由于記者出身的人工編輯具有更好的新聞判斷力,技術人員應該重視與人工編輯的溝通,積極采納其對于技術修改的建議。另一方面,還要積極利用技術輔助。例如,Facebook借助算法識別標題和內容不匹配的文章,并給予降級。谷歌瀏覽器推出“逃離泡沫”(Escape Your Bubble)插件,根據用戶既有的閱讀習慣,反向為用戶推薦其閱讀偏好之外的內容,避免出現“信息繭房”現象。此外,平臺還可以嘗試借助情感計算技術識別網絡語言的情緒偏向,對信息內容的情緒進行識別和監管,及時了解人們對事件的態度,主動糾偏,避免情緒化內容的擴散和群體極化現象,維護網絡空間的清朗。
(三)用戶:提高媒介素養與正確引導智能技術
萊文森認為,技術發展的趨勢是越來越像人,技術在模仿、復制人體的感知和認知模式。[4]算法偏見的背后,其實是人類自己的偏見。微軟曾推出名為Tay的人工智能聊天機器人,該機器人僅上線一天就下架了。原因是,該機器人在與人對話過程中,學會了辱罵人類和發表帶有種族歧視的言論。通過機器學習,人工智能能夠在與人類交流或者為人類服務的過程中,習得人類的優點和缺點。有鑒于此,一方面,用戶應該有意識地提高自身的媒介素養,并在使用人工智能提供的服務時,主動給予智能程序正確的符合社會價值觀的引導。另一方面,為了避免“信息繭房”現象的出現,用戶應該避免一味依賴算法推薦的信息內容,主動嘗試戳破“過濾氣泡”,跳出自己既有的閱讀偏好范圍,有意識地涉獵不同的觀點,進而引導算法為我們推薦更多元化的信息內容。
(四)法律:法律監督與第三方監督
智能技術的機器學習過程隱而不現,仿佛處于“黑箱”之中,這導致智能技術的運作過程極易產生難以預測的系統性偏差。為了避免這種情況,應該加強對智能技術應用的監督和管控。一方面,政府應該重視這方面法律規則的制定。例如,2018年5月25日歐盟發布了《通用數據保護條例》(以下簡稱《條例》)。《條例》中規定了數據主體具有知情權,即數據控制者必須向數據主體說明其個人數據是如何被收集和處理的。同時,《條例》還規定了數據主體具有反對權,即數據主體有權拒絕數據控制者基于其合法利益處理個人數據,以及有權拒絕基于個人數據的市場營銷行為。[5]此外,也有部分平臺已經嘗試向用戶解釋它們算法設計的合理性。例如,2019年6月,YouTube宣布公開部分算法的運作機制,并在推薦視頻的下方顯示該視頻進入用戶首頁的原因。另一方面,還應該提倡引入第三方監督,讓具有相應資質的、獨立的第三方機構對平臺的智能技術應用進行監督,為數據的輸入、處理、輸出等環節制定相應的標準和規范。避免因為智能程序運作的不合理,而助長惡搞、獵奇、情緒化、片面化的內容對網絡空間的擠占。同時,在算法的設計中,注重提升用戶的參與度。通過用戶介入,更好地進行算法的調節與管控,幫助智能技術更科學地進行內容推薦,避免用戶困于“過濾氣泡”之中。鼓勵用戶協同參與平臺內容的治理,避免過于情緒化的內容在網絡上大肆擴散,進而導致群體極化的產生。
結語
如今,人類已經進入信息爆炸式增長的時代,面對海量信息,智能技術的應用極大提高了信息傳播效率。未來,信息傳播領域要實現更好、更快地發展也離不開智能技術的應用。但是,由于現有技術的智能化程度以及技術應用的規范性仍存在缺陷,智能技術的應用給信息傳播領域帶來了新的隱憂。為此,我們要做的不是批評智能技術,而是積極行動,以多方協作的方式,調節和管控智能技術在信息傳播領域的應用,從而盡量規避智能技術應用帶來的風險,讓智能技術更好地為信息傳播服務。
注釋:
[1]全媒派.YouTube訂閱打法2.0:算法與平臺合力,迷思與憂思并存[EB/OL].2020-01-14,https://mp.weixin.qq.com/s/gk7tMS7itMulCsJHrkMj2w.
[2]袁洋.人工智能的民事法律主體地位及民事責任問題研究[J].中州學刊,2019(08):63-66.
[3]陳小平.封閉性場景:人工智能的產業化路徑[J].文化縱橫,2020(01):34-42+142.
[4]仇筠茜,陳昌鳳.基于人工智能與算法新聞透明度的“黑箱”打開方式選擇[J].鄭州大學學報(哲學社會科學版),2018(05):84-88+159.
[5]王融.歐盟《通用數據保護條例》詳解[EB/OL].
2016-07-20,https://mp.weixin.qq.com/s/fKo119uGsyr
7kCPFuZydjw.
(作者:廣西大學新聞與傳播學院碩士研究生)
責編:周蕾
三季度全國網信系統累計關閉違法網站8868家
10月19日,國家網信辦公布的信息顯示,三季度,全國網信系統依法查處網上各類違法違規行為,累計約談網站1211家,警告網站954家,暫停更新網站489家,會同電信主管部門取消違法網站許可或備案、關閉違法網站8868家,移送司法機關相關案件線索1569件。有關網站平臺依據用戶服務協議關閉各類違法違規賬號群組6.3萬個。
國家網信辦持續加強對省級網信辦的指導,依法加大監管執法力度,壓實網站平臺主體責任,以營造清朗網絡空間。
(摘自《北京青年報》)