王鑫鈺
(作者單位:西安財經大學文學院)
與計算機時代相比,智能傳播時代數據的應用使得傳播更加智能化。智能即人工智能,利用大數據算法可以將人工智能技術應用在新聞信息傳播中[1]。智能傳播時代機器憑借其海量的數據庫和高效的數據處理模式,促進了信息生產和傳播效率的提高。隨著臉書(Facebook)的AI“換臉”功能在社交媒體火爆,有關AI技術尤其是AI“換臉”技術的視頻頻現,引發了AI技術在新聞傳播中應用的倫理思考。
AI技術在新聞傳播中應用最廣泛的要數AI算法推薦。AI算法推薦新聞利用AI算法設定進行新聞生產和分發,基于用戶數據,為用戶個性化推薦新聞內容,并且能夠提供更精確的反饋[2]。AI算法推薦技術的應用依托于用戶對智能設備的使用頻率,用戶的規模越大、使用頻率越高,就越能發揮AI算法對數據分析的作用。總的說來,AI技術的使用使得用戶可以更便捷地獲取自己需要的信息,提高生活和工作效率。但是,AI算法推薦的應用逐漸對信息生產與傳播產生多方面的影響,其推行所帶來的倫理問題也愈演愈烈。
在智能傳播時代,借助算法、大數據技術,用戶的基本數據信息被輕而易舉獲取,這雖然改變了一對多的大眾傳播模式,為受眾提供了個性化的信息,提高了信息傳播效率,但也出現了一些問題,造成對隱私權的沖擊與侵犯,在一定程度上帶來新聞倫理問題。一方面,隨著技術的進步,智能技術在新聞傳播中的應用將不斷降低新聞中“人”的主體性;另一方面,智能技術的過度應用也會影響正常的傳播秩序,比如算法推薦新聞會引發算法審查、平臺偏向等倫理風險,這些問題所引發的法律問題不能忽視。
1.1.1 算法技術地位的提高
在傳統的新聞生產中,新聞作品要經過采訪、編輯、發布等環節才能到達受眾。此外,受眾接收的信息也是由專業人士提供的,而不是通過網絡平臺進行傳播的未經證實的信息[3]。進入數字化時代,數據已經成為新聞報道的重要組成部分,個性化新聞推薦系統擁有存在海量信息的信息庫,但是基于此信息庫生成的AI算法新聞并未強調人的思想和情感?!癆I合成主播”已經掌握了使用多種語言來播報新聞的技術,并開始在機器學習和媒體機器人方面進行嘗試。在新聞分發過程中,推薦算法可以根據用戶的個性化需求,如人口統計學特征、興趣愛好等,構建出一個完整的用戶偏好模型。通過分析用戶的瀏覽行為和使用偏好,抖音等短視頻平臺可以向用戶提供其感興趣的內容,從而為平臺聚集大量粉絲[4]。智能傳播技術的發展給新聞生產分發流程帶來了變革。然而,盡管生產的新聞作品選題更貼合用戶自身特點與所處場景,事實上卻降低了新聞生產過程中“人”的主動性。
1.1.2 把關人角色的弱化
人類傳播從傳統大眾傳播模式走向了以數字新媒體為主導的信息傳播模式,人們獲取新聞的渠道越來越廣泛。隨著新型新聞生產方式的興起,傳統媒體在信息發布過程中的控制作用被削弱,其重要性也在逐漸減弱。AI算法推薦在信息采集、篩選、發布流程中逐漸替代新聞工作者,而把關人的缺失會造成新聞媒體在進行信息播報時容易出現低級編輯報道失誤,甚至為了迎合受眾而在網絡上發布大量低俗信息。比爾·科瓦奇和湯姆·羅森斯蒂爾強調,新聞報道的最終宗旨應該是向全體公眾傳遞有助于實現自主權利的有效信息[5]。智能傳播技術雖然可以幫助我們實現某些目標,但“把關人”的缺位也導致了大量虛假信息出現。
新聞倫理是新聞工作者需要遵循的與其職業活動有關的倫理規范,可以幫助新聞工作者在新聞生產和分發活動中作出倫理選擇。桑斯坦認為,若傳媒領域不在法律所規制的范圍內,各種有勢力的人可以利用他們的權力在任何他們想要的地方發表意見[6]。算法是智能傳播技術中一項具有顛覆性影響力的技術,但目前仍處于弱算法階段,這就使得技術就像是一把雙刃劍。AI技術被賦權后,也帶來了技術異化,在智能化這方面的結果并不都是向善的。因此,新聞倫理不僅需要以相關法律法規為準則,還要在道德方面承擔責任,進行更多關于法律、道德與技術的思考。
1.2.1 法律與道德層面的倫理風險
我國目前針對算法推薦新聞可能會引發的算法審查、平臺偏向等倫理風險,僅有2021年印發的《關于加強互聯網信息服務算法綜合治理的指導意見》作為規范依據[7]。在實踐中,算法規制滯后,針對算法侵權行為而生成的規制條款不足以應對新的侵權行為,出現制度失靈的情況。當根據法律規范難以為新聞倫理提供判斷標準時,可以借助道德倫理作出善惡判斷。智能技術對新聞生產傳播活動產生作用時不能只看結果,還需從道德倫理方面關注技術活動的過程。比如突然火爆網絡的AI繪畫,從結果上看,其利用大數據畫像和定制化推送,使得AI繪畫以新技術為驅動,將“人人都能成為創作者”變成了現實。但是,在AI繪畫的創作過程中,使用了大量無授權圖片作為數據源,這對原畫師而言造成了侵權,還給用戶帶來了隱私安全問題。因此,新聞倫理要想適應數字時代的變化,擴大適用范圍,必須在法律、道德理論與實踐層面作出新的探索。
1.2.2 技術層面的倫理風險
AI算法推薦技術將人們異化,成為馬爾庫塞口中的“單向度”的人。個性化推薦技術所營造的信息繭房長時間下來會麻痹人的認知,使受眾一味認同而失去批判精神。微博、抖音平臺借助算法技術可以精準推送用戶喜愛的內容,提高用戶活躍度與用戶黏性,而在“算法黑箱”下,受眾逐漸失去獨立思考的能力。一是AI算法推薦技術的異化會導致技術失控。不僅外部用戶很難理解算法的運行邏輯,設計者也很難對算法的運行機制作出全面的解釋,從而使得算法系統中存在歧視和偏見的可能性變得更加明顯。比如,英國杜倫郡警察等運用算法技術開發了用來評估嫌疑人繼續犯罪可能性的預測工具HART,但是,該系統卻根據郵政編碼的不同而區別對待了窮人和富人,具有“歧視窮人”的表現。二是AI算法技術在應用過程中帶上了一些價值觀念。AI技術驅動下算法的設計人員正逐漸掌控著主導權,他們可以根據自身偏好、社會偏好和商業競爭等因素自動選擇新奇、低俗的內容,并利用算法進行個性化推薦,從而使得AI算法推薦的新聞更容易被誤解,成為謠言的溫床。若不能采取有效的措施來應對人工智能技術的倫理風險,新聞媒體的價值將會受到削弱。
保羅·萊文森認為,人在傳播中具有決定性作用,并且無可替代。不管是在傳統媒體時代還是在智能傳播時代,新聞生產分發活動都應該是以人為主體的活動,這確定了人在新聞實踐中所占的主體性地位。人機協同指的是人與智能設備之間協調配合,以實現更高效、精準的生產。在人機協同下,人的價值被提高[8]。關注人機關系,實質上是對人的關注。機器只是負責體力工作,而人工掌握控制權。媒介是人的延伸,在新聞生產分發中,機器的介入在將來也會成為尋常事。智能傳播技術可以幫助新聞工作者從繁雜的數據搜集和整理工作中解脫出來,而新聞工作者負責完善分析報道,增加新聞作品的知識性和人情味,重新塑造新聞記者自身的價值。人機協同將會是智能化內容生產的常態機制。新聞工作者需要提供給用戶的是完整的信息作品。保羅·萊文森強調,人與技術相比,更突出自己的理性選擇能力和控制能力,人類懂得利用先進的技術來延伸自己的思維能力,補足無法克服的自身缺陷。例如,AI算法推薦技術可以通過利用社交聊天機器人與平臺上的用戶進行互動,在精準了解用戶需求的基礎上進行智能分發。
未來隨著智能傳播技術的發展,可能出現另一種機器分發機制:機器傳感器在采集到特殊信息后,如地震預警信息、空氣質量狀況等信息,自主將信息采集內容推薦給接收對象。但也要意識到,目前人機協同還未到達理想狀態。比如,在利用人機協同進行內容分發上,機器對于用戶偏好的理解過于片面靜態,使得利用AI算法推薦技術分發的信息內容越來越封閉狹隘,長此以往加重了信息繭房與“回音室效應”。算法推薦自顧自地個性分發,也會不利于社會和諧發展,會將用戶“囚禁”在算法權力中,使其局限在自己的小圈層之中。因此,人機協同的算法分發還需要進化,明確判斷人機之間的關系,使人機關系更加和諧。
在智能傳播技術的應用中,當難以對是否觸及新聞倫理提供判斷標準時,可以利用工具理性和價值理性的概念加以權衡。馬克思·韋伯在工具理性和價值理性的概念中提出了一種新的思想,認為工具理性以技術主義為基礎,并且能夠幫助人們更好地發揮自身潛能,更準確地評估自身能力,從而獲得更高的收益。它旨在幫助人們更好地發揮自身潛能,并且能夠更好地滿足自身需要,這種價值觀也被稱作工具崇拜。比如,其認為AI算法推薦新聞既能兼顧生產效率,又能滿足大眾與小眾用戶的需求,使用AI算法會給平臺帶來巨大的收益。而價值理性強調的是一種自我意識,即認可一個行為所蘊藏的內在價值,認可行為的本身,而不考慮結果如何。在探討算法技術所帶來的便利時,我們往往會過分關注它的實用性,即從工具理性的角度來考慮問題,而忽視了價值觀和理性思考。在實際的新聞傳播實踐活動中,工具理性和價值理性的概念為新聞倫理問題的建構提供了一條路徑。
在對智能傳播技術和“人”的關系的討論中,可以參考工具理性相對于價值理性之間的關系。如果在新聞生產與傳播中一味地堅持工具理性而忽略了價值理性,新聞傳播活動將逐漸背離道德、法律規范。但如果一味地堅持價值理性,新聞生產效率也難以提高。只有技術與人之間的關系協調,才能既實現對智能傳播技術的最大化利用,同時堅守住新聞傳播實踐中的倫理價值。媒介機構在使用AI算法推薦技術參與新聞生產分發各個環節的過程中,參考工具理性和價值理性原則,對新聞生產與傳播活動進行道德判斷,有利于建立相應法律與行業規范。關于新聞工作者是否需要明確可抓取用戶數據的范圍和邊界、提高算法的透明度問題,可以從多方面進行量化考察,最大限度地減少人工智能可能帶來的道德風險。
通過智能化媒體,我們可以更準確地了解用戶在不同情境中的需求和行為,并根據這些信息和需求提供相應的智能化服務。AI算法推薦新聞是智能傳播的代表,把個性作為算法中的核心變量,它可以幫助用戶進行場景分析。未來,個性化算法還會進一步優化,對用戶需求的解讀與匹配精度還會不斷提高。智媒時代,媒體既要接觸新技術,也要遵守相應的法律與道德準則,破解技術“黑箱”。智能傳播技術相應的法律規范目前還處于初級階段,面對AI算法推薦技術在新聞生產分發中有意或無意中產生的不良影響,需要尋找相應對策加以糾正。要堅持人機協同推動智能傳播更高效發展,利用工具理性和價值理性多維度權衡思考,通過制定嚴格的規則和邊界,強調人在智能傳播技術應用中的主體作用,以防受到技術的異化。