劉俊麟 程悅 王超群
【摘要】智能媒體對傳統媒介倫理規范帶來不小的影響,傳統媒介規范已有諸多不適用。要建構一個能夠適應智能媒體時代的新媒介倫理規范,需要遵循以下基本原則,如算法透明度原則、自主選擇權原則、媒介技術分配公平原則、人文關懷原則等。
【關鍵詞】人工智能;算法技術;媒介倫理規范
由于人工智能的出現,記者和編輯具有了極強的可替代性,媒體行業正遭遇新一輪技術革命的沖擊,新時代背景下,如何進行新的規范建構成了近年來學者們重點研究的課題。
一、智能媒體的出現對傳統媒介倫理規范的影響
人工智能的興起,不僅是對傳統新聞傳播方式的革故鼎新,更是對傳統媒介倫理規范發起了新的挑戰。
(一)媒介倫理規范主體發生變化,傳統媒介規范有諸多不適用
媒介倫理是指媒體從業者的行為可能會對他人產生消極影響的情況下應該遵循的指導方針或道德準則[1],并對新聞的生產傳播等領域進行“把關”。人工智能技術的廣泛應用導致信息的傳播者和受傳者在交流中的地位發生變化,媒介倫理規范的主體也隨之從原本專業的新聞從業人員向程序工程師和自媒體平臺等進行轉變,普通受眾、自媒體行業從業者、新媒體平臺同時扮演著信息接收者和傳播者兩個角色。我國原有的媒介倫理規范主要是針對專業的新聞從業人員和電視臺、報社等傳統媒體平臺,對于智媒時代的新聞生產模式已有諸多不適用。
在新聞生產過程中,人工智能的使用缺乏具體條例進行約束和規范,加劇了新聞生產領域的行業亂象和媒介失范?!八惴ǖ臒o價值性”一直在混淆人們對于人工智能制作的新聞的真實性判斷[2]:人工智能沒有情感,不可能產生情感偏向,受眾獲取的信息也就不是作者經過有意或無意情感加工的“裝飾品”。既然算法無價值,那么由其導致的虛假新聞等問題也就找不到承擔責任的主體,媒介監管陷入困境。某平臺創始人在接受采訪時說,我們不是媒體,我們只是一家具有媒體屬性的技術公司。借“技術中立”,致使一些新媒體亂象頻發,對種種低俗、煽動群體對立甚至違法內容放任不管。聲稱自己不是媒體組織,那么原有的媒介倫理規范也就制約不了。平臺想成了游離在制度之外的“自由人”,這不是該有的態度。
(二)媒介倫理規范的范圍擴展,技術被納入規范體系中
無論是傳統媒體,還是新媒體,都需要在新聞真實性、客觀性、采訪方式、人文關懷等方面做出規范。而隨著人工智能的加入,媒介倫理規范的范圍也逐漸由對新聞內容和采訪行為的規范擴展到了對技術的規范。
作為新興生產力,人工智能擁有繁多的數據支撐,編寫新聞的效率很高,因而在經濟新聞和時政新聞等方面得到了廣泛應用,但“數據套模板”[3]的寫作方式難免造成新聞結構呈現方式單一?!凹夹g中立”的觀點一直在“綁架”人們的思想。海德格爾認為技術是“從遮蔽狀態而來進入無蔽狀態中”[4],而現代技術在“解除遮蔽”的同時,又創造了新的“遮蔽”,這并非一定是程序員有意的數據歧視或者偏向,甚至完全可能是他們“對關鍵詞的選取和價值判斷不同”而造成的結果上的差異,此外,由于技術本身存在的復雜性和不確定性,從而產生了“信息遮蔽”[5],對人們獲取真相造成阻礙,“將新聞生產過程推到更深的‘黑箱”。在新聞傳播中,許多新媒體平臺使用標簽將各類新聞區分開來,以便受眾能按照需求盡快檢索,此時不同的資訊就會經過算法記錄呈現給受眾,以滿足受眾的個性化需求。值得注意的是,“人工智能技術將媒體對公眾進行議程設置的權利轉移到了社交關系的維系和算法生成等方面[6]”,受眾在新媒體平臺的瀏覽內容被算法記錄后,推薦的大多是同質化內容,不利于全面認知周圍社會環境,從而導致個人和社會接收到的信息出現“斷裂”,造成“信息繭房”和“數字鴻溝”,甚至可能令受眾思維僵化,不利于公眾媒介素養的提升[7]。
算法技術的不透明和理解算法程序的高門檻使得算法運行的過程依然對受眾隱私權的尊重以及內容客觀性存有相當大的疑問空間,不僅是對傳統“把關人”模式的顛覆,在一定程度上也可能導致新聞媒體責任的缺位。
(三)媒介倫理規范重點的遷移,更加注重技術透明性的要求
傳統的媒介倫理強調新聞的真實性,而在算法技術介入后,由于技術理性帶來的遮蔽,對新聞真實的要求就不能只停留在“準確”上,更應相應轉為對技術透明性的強調,通過設計公開透明合理的程序來制作新聞,從而達到真實性的要求。
網絡傳播時代,群體傳播呈現出匿名化的特征,在這個背景下,“透明化”成為“解蔽”的最好方式,應當成為新的媒介倫理規范的基石。倘若媒介平臺利用算法對網絡上的用戶信息不加篩選地獲取和使用,對用戶隱私的保護也是個不小的挑戰。
人工智能在沒有得到相應的程序控制之前也不懂得如何寫稿,過濾信息、集結成文、智能分發稿件等都需要經過大量的深度學習才能實現,對受眾精準推薦內容也是基于媒體準確抓住受眾興趣的需求。人工智能在新聞寫作的整個過程都伴隨著人類的能動意識,其對新聞事件和網絡信息的價值判斷也是通過人類創造的程序來賦予的,媒體平臺有責任把內部算法運行模式透明化,將信息和數據的使用情況公開,有助于人們穿透“技術遮蔽”的迷霧,更好地理解智媒時代的新聞報道。
二、智能媒體視域下建構新媒介倫理規范應遵循的基本原則
許多學者從多角度、多視野對當下的媒介倫理失范現象提出了新的媒介倫理規范準則?;趪?、國內學界與業界的積極嘗試與討論,歸納總結出以下幾條媒介倫理規范原則。
(一)下放“話語權”,提高算法透明度
許多研究者嘗試提出一系列措施將算法技術的設計、運行透明公開化。我國也進行了相關法律的嘗試,將算法自動化決策的透明度納入信息保護的重要一環,如《中華人民共和國個人信息保護法(草案)》《中華人民共和國個人信息保護法(草案二次審議稿)》。陳昌鳳、張夢提出,算法技術要真正做到透明公開,不僅僅是簡單地公開算法系統運行的一系列數據信息,需要考慮到受眾的媒介素養、知識水平等因素,才能最大限度、有效地實施算法透明度。讓用戶了解到新聞算法技術使用數據的具體方法和過程,媒介組織需要將數據加以文字描述,轉化為讓受眾可普遍理解的語義信息[8]。基于此,媒介倫理可以作如下規范:一是使用算法系統主體有義務將相關信息以及生成過程向主管部門以及社會公眾公開,保障算法解釋權。二是將用戶納入實施算法透明度考量范圍,明確責任對象。三是轉變統一粗放的管理體制,在法律制度層面將算法審計規則細化。[9]
(二)自主選擇,避免偏見歧視
智媒傳播時代,所生產的新聞表面上看似十分客觀準確,實則隱藏著信息偏見和歧視。數據質量參差不齊以及算法推薦的偏差,加劇了社會倫理價值的固化。算法產生的偏見、歧視,是對受眾獲知信息公平的侵蝕,將直接導致“信息繭房”“群體極化”等現象,放之全球范圍,甚至導致民族主義歧視。對此,2013年杰夫貝佐斯收購《華盛頓郵報》后將用戶的選擇發揮到極致,采用“A/B”測試提升用戶的體驗感。谷歌公司提出的人工智能七大原則中的避免偏見原則明確指出應特別注意種族、性別、國籍、宗教等敏感特征。張幟提出在用戶的主體地位不斷凸顯的智媒時代,要更加注重算法推薦內容的多樣性、包容性,避免產生非必要的偏見歧視[10]?;诖?,媒介倫理可以做以下規范:一是保障受眾對算法推薦系統的知情權以及獲取信息的自主選擇權。二是規范算法推薦應更加多元化和具備包容性,特別是對文化差異的包容[11]。
(三)健全法治,明確責任主體
算法、技術只是工具,平臺的責任不可推卸,內容生產、程序開發、平臺運營各個層面中涉及的主體都應該納入媒介規范范圍內,需要制定明確細化的法律法規進行約束[12]。同時平臺自律也是關鍵,應具備責任意識[13]。日本近期推出的《實施人工智能原則的治理指南》中提出“敏捷治理”模型,根據不斷變化的條件與環境,靈活調整治理方案?;诖耍浇閭惱砜勺鲆韵乱幏叮阂皇嵌嘣猜?,法律以及行政部門的規章制度作為規范基本條例,同時媒介組織內部也應制定規則,建立追責機制[14]。二是動態治理,將法規制度變成更靈活的工具。三是提高媒介組織素養,增強新聞從業者職業道德教育。
(四)維護公平,媒介技術均衡分配
哈佛大學法學院伯克曼互聯網與社會研究中心針對“公平性和非歧視”原則進行分析解讀,認為每個人都應該適用同樣的規則、獲得信息數據的支持,帶來社會福利增值的“公平分配”。我國國家新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》,提到人工智能在各領域的應用需要考慮弱勢群體和特殊群體的需求,為其定制第二種可行方案。基于此,媒介倫理可做以下規范:一是確保受眾公平公正地享受人工智能技術帶來的便利,同時提供有效地控制風險保障措施,以防范算法技術中的“黑箱”操作帶來的傷害。二是堅持“普惠”原則,推動欠發達地區人工智能教育培訓、技術應用等基礎設施建設,保障各類群體融入人工智能市場的權利。三是程序開發更具包容性,體現多樣性和特殊性,使得各類地區能夠共享人工智能發展帶來的福利。
(五)回歸倫理底線,加強人文關懷
人工智能技術的運用,特別是寫稿機器人的出現,人的新聞把關作用被減弱,使得生產的稿件缺乏價值判斷、人文關懷等。因此,對媒介倫理規范的重構,應回歸至新聞生產的倫理底線,強調人文關懷——對人的尊重、關心、愛護和體貼,基于此,媒介倫理可做以下規范:一是智媒的使用、運營者要注重在人工智能生產出來的新聞中注入人文方面內容,培養算法工程師的人文主義精神。二是傳媒工作者與人工智能形成人機互動的生產模式,將算法搜集的事實數據與記者的價值選擇結合,增強人的主體性與能動性[15]。
三、結語
科技發展日新月異,人工智能技術已經深刻地融入社會各個領域,人們面對的已不再是是否要接受人工智能的問題,而是應該如何應對人工智能帶來的新問題、新挑戰。全球各國、各地區的新聞實踐都面臨著重構媒介倫理規范的緊迫性,人工智能帶來的新聞傳播領域的巨大變化,沖擊著傳統媒介倫理規范,對構建基于智媒背景下的媒介倫理規范重構提出了更高的要求。人們應時刻關注全球范圍內人工智能技術在新聞領域的創新應用,對其引起的媒介失范進行針對性治理,提出相應的發展策略,使人工智能發展始終與人類的倫理規范保持一致。
參考文獻
[1]約瑟夫·斯特勞巴哈,羅伯特·拉羅斯.今日媒介:信息時代的傳播媒介[M].熊澄宇,等,譯.北京:清華大學出版社,2002.
[2]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(2):22-29.
[3]胡慧敏.智媒時代算法推送新聞對媒介倫理的沖擊[J].東南傳播,2019(7): 159-161.
[4]海德格爾,《海德格爾選集(下卷)》[M].上海:三聯書店出版社,1996年.
[5]李凌.智能時代媒介倫理原則的嬗變與不變[J].新聞與寫作,2019(4):5-11.
[6]馬寧宇.人工智能技術范式下的媒體創新優化與倫理失范[J].新聞知識,2018(9):82-85.
[7]白燦明.人工智能背景下新聞倫理失范現象研究[J].記者搖籃,2020(5):129-130.
[8]陳昌鳳,張夢.智能時代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.
[9]宋華健.反思與重塑:個人信息算法自動化決策的規制邏輯[J].西北民族大學學報:哲學社會科學版,2021(6):99-106.
[10]張幟.智媒時代對新聞生產中算法新聞倫理的思考[J].海南大學學報(人文社會科學版),2019,37(2):70-78.
[11]張夢,陳昌鳳.智媒研究綜述:人工智能在新聞業中的應用及其倫理反思[J].全球傳媒學刊,2021,8(1):63-92.
[12]文遠竹.智能傳播的倫理問題:失范現象、倫理主體及其規制[J].中國編輯,2021(9):64-70.
[13]寧麗麗.新媒體時代的媒介倫理倡導與道德干預:對克利福德·G.克里斯琴斯的訪談[J].國際新聞界,2017,39(10): 45-54.
[14]盧家銀.數字化生存中的倫理失范、責任與應對[J].新聞與寫作,2020(12): 28-34.
[15]潘紅霞.智媒時代智能信息推薦算法的缺陷及正向重構[J].未來傳播,2020,27(5):36-41.
(編輯:沈桂才)