劉 斌
(天津師范大學新聞傳播學院 天津 300350)
在應用倫理學中,有公正、責任等基本倫理范疇以及“不傷害”這一最核心的倫理價值原則。[1]雖然近些年來媒介技術不斷進步,新聞客戶端等媒體平臺利用算法推薦的優勢促進了新聞傳播活動的發展;但從倫理學的范疇考量,新聞客戶端在應用算法推薦過程中引發的許多問題對倫理原則造成了沖擊,使其陷入了倫理困境。只有研究并解決這些倫理問題,才能促進新聞客戶端健康發展。
對今日頭條而言,其新聞客戶端算法推薦的方式主要包括利用網絡爬蟲進行信息內容抓取、用戶個人信息收集、內容的個性化匹配與推送。關于新聞客戶端算法推薦的研究包括技術原理和技術應用兩方面。技術原理方面側重算法的研究,涉及計算機科學和情報學等學科知識;技術應用方面側重推薦的研究,與新聞學和傳播學等學科領域相關。本論文側重于算法推薦應用方面的研究,從倫理學視角下分析新聞客戶端應用算法推薦的相關案例。
新聞客戶端在應用算法推薦的過程中違背了“不傷害”原則。“不傷害”原則作為倫理學領域的底線倫理原則,要求人們在做出行為時要考慮其行為對他人的傷害以及避免自身行為為他人帶來傷害的后果。[2]當前新聞客戶端違背“不傷害”原則的行為主要表現為對內容生產者或其他版權方(以下簡稱“內容生產者”)版權的侵害以及用戶隱私安全的侵害。
1.侵害內容生產者的版權
新聞客戶端利用算法進行推薦的內容中含有不屬于自身版權的作品,侵害了內容生產者的版權利益。自2014年以來,今日頭條不斷被多家媒體起訴,其通過轉碼優化和深層鏈接轉載其他新聞媒體內容的方式侵犯了其他媒體的新聞作品版權。[3]2018年9月,今日頭條在內的13家網絡服務商因網絡版權問題被國家版權局約談。而傳統媒體《新京報》的新聞作品持續受到新聞客戶端的非法轉載,在其公布的前37期反侵權公告中,有60個新聞客戶端對《新京報》產生了侵權行為?!冬F代快報》在2015年9月對今日頭條發起的侵權訴訟,經過了3年的時間才獲得終審勝訴。[4]這些案例都體現了當前侵權事件繁多,且內容生產者維權艱難的現狀。新聞客戶端引發的這些版權糾紛問題,使內容生產者的利益不斷受損,沒有考慮到給內容生產者帶來的后果。因此,其行為違背了“不傷害”原則。
2.侵害用戶的隱私安全
為了能夠向用戶進行個性化的新聞推送,新聞客戶端需要不斷獲取用戶數據,但這使用戶的隱私安全在一定程度上受到侵害。2019年6月,就有用戶因隱私權被侵犯而對今日頭條提起了訴訟;2019年9月,今日頭條又因涉嫌過度收集用戶隱私被國家計算機病毒中心點名。在算法推薦的背后,新聞客戶端會掌握用戶在各種媒介上對信息的每一次瀏覽、評論、轉發等行為的數據,并將其用來塑造用戶的個人標簽。[5]因此,針對以上的案例,可以看出用戶在使用應用算法推薦的新聞客戶端時,自身的隱私安全無法得到完全的保障。據艾媒網的檢測報告顯示,今日頭條在2019年的每月活躍用戶數量已經過億。[6]如此龐大的用戶信息數據,加上今日頭條在2019被爆出的泄露用戶信息給第三方的丑聞以及其旗下信貸平臺被舉報泄露個人隱私的行為,[7][8]使公眾對自身被收集的信息的安全程度更加感到擔憂。倘若這些數據遭到泄露,將會讓用戶不斷收到從未關注過的廣告電話,給其個人日常生活帶來困擾;甚至在不法分子得到用戶的隱私后,使用戶面臨著遭受詐騙的風險。
新聞客戶端在應用算法推薦的過程中違背了倫理責任?!柏熑巍痹趥惱矸懂爟鹊暮x同職責、使命相同,是人們應當自愿承擔和履行的道德義務,其義務范圍包括對社會、集體和他人三個方面。[9]我國媒體的社會責任要求媒體必須抵制假新聞以及有害人們身心健康的內容。[10]而在應用算法推薦過程中,新聞客戶端違反媒體社會責任的行為就表現為傳播虛假新聞與傳播暴力色情信息。
1.傳播虛假新聞
新聞客戶端在應用算法推薦過程中違反媒體社會責任的行為首先表現在虛假新聞會被當作事實來源通過算法推薦給對該新聞感興趣的廣大用戶,并會使新聞失實的影響進一步擴大。如2019年6月,一條源于今日頭條上認證新聞為“龍視新聞法制頻道”的“中國車視”的新聞《「中國車視」通告|公安部最新通告:8月1日起車牌綁定駕照,消分“實名制”》稱:為治理消分亂象,有關部門推出了新的消分規則。這一新聞在今日頭條上被大量推送并被騰訊網等媒體平臺紛紛轉載,引起了廣大網友的關注,但很快這條信息就被公安部交通管理局辟謠,表示此消息為假新聞。新聞客戶端沒有承擔上述抵制假新聞的媒體社會責任,這便是能夠證明新聞客戶端違反倫理責任的一個重點案例。在2018年《新聞記者》雜志公布的虛假新聞研究報告中顯示,虛假新聞的類型已經分布在體育、教育、文化等各個領域。[11]在當前虛假新聞遍布領域分散的情況下,發生上述失實新聞傳播的事件可能會因新聞客戶端應用算法推薦而變得更加頻繁。傳統的新聞媒體能夠時刻秉承責任應對新聞報道的風險以及各種潛在的危害可能;但算法是基于概率的相關性來做出決策,與人類擅長的因果決策模式在邏輯上并不相同,如果不能解決新聞客戶端傳播失實新聞的行為,會使社會上存在各種謠言,影響新聞傳播活動的有序進行。
2.傳播暴力色情信息
新聞客戶端在應用算法推薦過程中違反媒體社會責任的行為也表現在大肆傳播暴力色情信息,新聞平臺中的頻道領域整體存在大量低俗內容。2018年4月,今日頭條就因存在低俗、暴力、色情等內容被國家廣播電視總局通報并勒令下線整改,之后今日頭條宣布關閉了APP內語錄、段子等五個頻道。用戶可能會因自身的一次失誤點擊而不斷收到相關暴力色情內容的推送,而這些暴力色情信息會對青少年的心理健康造成一系列不良影響。由此可見,新聞客戶端沒有遵守抵制有害人們身心健康內容的媒體社會責任。
新聞客戶端對算法推薦技術的應用仍然處在發展階段,要解決新聞客戶端與內容生產者以及用戶之間利害糾紛,需要對當前的法律規定進行完善,針對具體的糾紛事項進行侵權范圍的明確。2017年國務院印發的《新一代人工智能發展規劃》中便從法律法規、重點政策等方面提出人工智能技術發展的相關保障措施,[12]可見法律法規在應用技術發展過程中的重要性。在針對當前相關法律規定進行分析研究后,對維護內容生產者的版權利益與用戶的隱私安全方面提出了以下關于完善法律規定的建議。
1.明確媒體平臺為使用新聞內容付費
首先,應當在法律規定上對新聞聚合平臺使用新聞內容做出具體規范要求,促進平臺與傳統新聞媒體達成協議。2021年2月25日,澳洲政府通過了全球第一個強制數字平臺為媒體內容付費的《新聞媒體和數字化平臺強制議價準則》,明確了媒體內容在數字平臺上的版權價值。[13]在互聯網媒體時代,面對今日頭條這種利用“深度鏈接”套嵌顯示第三方新聞頁面內容的隱蔽轉載方式,許多媒體都陷入版權被侵犯又維權艱難的處境。只有明確規定新聞機構有權要求媒體平臺為使用其新聞內容付費,才能進一步維持新聞傳播活動中的版權秩序。
2.制定保護個人隱私信息的專門法律
面對當前的隱私侵犯問題應當建立保護個人隱私信息的專門法律,對當前公眾個人隱私信息的所屬范圍、侵權標準等事項都做出具體的規定,以此對媒體平臺收集和使用用戶信息進行硬性約束,保障用戶的個人隱私。雖然公眾的隱私權和版權(著作權)都屬于《中華人民共和國侵權責任法》第二條中所規定的民事權益,但當前卻沒有如《著作權法》一般的保護個人隱私信息的專門法律。在《中華人民共和國網絡安全法》(下稱《網絡安全法》)的第四十條至第四十四條的規定中,對互聯網媒體應當如何收集與使用用戶的個人信息等事項進行了基本規定,但這對用戶個人隱私信息的保護僅處于底線的層面,在實際生活中依然存在復雜的隱私糾紛問題無法得到具體的判斷標準。如在上一章所提到的用戶起訴今日頭條侵犯隱私權的事件中,用戶稱今日頭條私自上傳并保存自己的通訊錄違反了《網絡安全法》第四十一條中的“合理、必要”原則,但今日頭條則稱通訊錄信息不屬于個人隱私信息,[14]這種侵權糾紛便源于缺少保護個人隱私信息的專門法律對隱私信息的所屬范圍以及侵權標準提供明確界定。因此,要按上述建議制定專門針對保護個人隱私信息的法律。
新聞客戶端若要利用技術持續發展,除了遵守法律規定還要依據新聞傳播的倫理規范加強自律來規避上述的倫理問題?!度嗣袢請蟆肪驮岢鲆揽恐贫扰c倫理從外部、內部分別進行約束來預防新聞傳播失范,并樹立了五個“尊重”的倫理規范,即尊重客觀事實、尊重知識產權、尊重個人隱私、尊重社會公益、尊重國家利益。因此,以這五條規范為自律準則對媒體提出以下建議。
1.提升內容審核的專業性
當前新聞客戶端應當在審核團隊和技術團隊中分別加入專業人員,以此加強審核團隊與技術團隊的新聞素養學習,并提高審核團隊與算法的配合能力,從而能夠平衡審核的質量與效率,使傳播內容符合五個“尊重”的規范準則。作為互聯網媒體,新聞客戶端審核后分發的信息內容是極為重要的,在《人民日報》中的五條倫理規范中均包括對內容的要求。雖然自2018年1月起,今日頭條開始進行內容審核編輯崗位的大量招聘,加強內容審核。但在進行這種專業媒體工作的人員中,包含許多沒有從事過媒體行業工作或沒有學習過傳媒專業知識的人。這種非專業性還體現在設計算法的技術團隊中,如在今日頭條的招聘官網上,關于算法工程師的職位要求僅在技術層面,而缺少對新聞素養的要求。因此媒體平臺應按上述建議提升其算法加人工模式下內容審核的專業性,才能以上述五個“尊重”為準則完善對內容的監管審核,保證新聞的真實性并尊重原創內容的知識產權以及避免損害個人隱私、社會公益和國家利益的信息的傳播。
2.以技術優勢推動版權合作
應對當前的版權糾紛,新聞客戶端需要利用自身的技術優勢與內容生產者展開版權合作實現共贏?!度嗣袢請蟆逢P于尊重知識產權的倫理規范對新聞客戶端提出了尊重新聞作品的署名權和收益權的要求。雖然目前已經有大約一萬家媒體和今日頭條之間進行了版權合作,但今日頭條這種購買版權的合作方式因價格等多方面因素逐漸遭到了合作者們的反對。在技術方面,今日頭條已經研發了能夠解決視頻搬運對比問題的CID系統,這一系統給版權方每個月帶來了超過140萬的版權收益。因此,以今日頭條為代表的新聞客戶端應當繼續將此類技術向文字與圖片等內容領域拓展,以技術手段推動互聯網媒體與傳統媒體等內容生產者的合作,在豐富自身傳播內容的同時維護內容生產者的利益。
3.加強隱私保護的技術運用
要保證用戶的個人信息數據能夠被合理收集和使用,新聞客戶端應當加強區塊鏈等技術手段的運用為用戶的隱私提供保障?!度嗣袢請蟆逢P于尊重個人隱私的倫理規范中寫到新媒體如今獲取信息更加便捷,其新聞傳播活動必須要以尊重個人隱私作為行為共識與道德底線。在今日頭條的母公司內部已經實施了一些方案,如員工使用內部專屬的應用以及數據泄露的追責機制等。這些作法看似提升了公司數據安全的保護程度,但在用戶依然無法主動知曉自身隱私信息如何被具體收集和使用的情況下,上一章提到的媒體平臺侵害用戶隱私安全的相關問題就無法徹底解決。而區塊鏈技術是一種在保證交易數據與程序公開透明的情況下,全部用戶能夠在數據存儲等多個方面一起參與的技術。如今,醫療健康等多個領域已經開始了區塊鏈技術的應用探索,能夠實現用戶對自身數據信息的控制。因此,新聞客戶端也應該加強相關技術的探索應用,使其收集和使用用戶數據的行為在用戶自身的控制之下進行。
對新聞客戶端算法推薦引起的倫理問題的研究,是為了促進新聞傳播良好發展而進行的。在肯定了新聞客戶端能夠利用算法推薦在信息分發環節發揮優勢的基礎上,對以今日頭條為主的案例以倫理學范疇的原則進行剖析,才能夠發現當前新聞客戶端在應用算法推薦過程中產生的違反“不傷害”原則和倫理責任的倫理問題。而這些問題的產生不僅有相關法律規定不夠完善的原因,也有媒體平臺缺乏自律而導致的原因。從法律規定的方面來看,需要明確媒體平臺為使用新聞內容付費的規定以及建立保護個人隱私信息的專門法律;從媒體自律的方面來看,新聞客戶端需要提高審核專業性,并加強技術的運用來解決內容版權問題和用戶隱私問題。媒介智能化發展的趨勢不可阻擋,但其研究一定要以為人類服務為核心,在媒介發展的過程中,要保證媒體對技術的應用符合倫理原則規范,才能推動新聞傳播活動健康運行。■