張宏瑜 楊孔雨
【摘? ?要】相較于傳統的新聞生產流程,人工智能為新聞策劃、新聞生產和新聞分發等新聞生產環節帶來創新,同時也存在著侵犯隱私、偏離新聞價值,缺乏人文關懷、危害新聞真實,塑造權力中心等倫理失范問題。通過出臺政策和頒布相關的法律條例,明確技術的使用底線,同時對技術進行革新,改善技術侵權問題;新聞機構和平臺要承擔社會責任,新聞工作者要發揮主觀能動性,共同改善人工智能應用于新聞生產流程帶來的倫理失范問題。
【關鍵詞】人工智能;新聞倫理;倫理失范;生產流程
【基金項目】本文系北京信息科技大學2023年“促進高校分類發展-公管傳媒學院專業學位點與研究生教育改革”(項目編號:5112311021)項目成果。
大數據挖掘、機器人寫作和算法推薦等人工智能技術廣泛應用在新聞媒體的新聞生產流程中,比如中國最早從事互聯網輿情監測和研究的人民網輿情數據中心能夠監測社交平臺中的海量數據,反映輿論態勢,為新聞工作者提供新聞熱點和線索;新華社“快筆小新”寫稿機器人30秒內生成一篇有關財經、體育題材的新聞報道;今日頭條利用算法推薦為用戶提供個性化新聞分發服務。我們在對人工智能技術優勢抱有樂觀期待的同時,也不能忽視技術在新聞生產各個環節帶來的新聞倫理失范問題。對比傳統新聞生產流程,使用人工智能技術的新聞生產流程有何變化?出現了哪些新聞倫理失范現象以及出現的原因?如何解決以上問題?這是本文要探討的問題。
一、人工智能應用于新聞生產流程帶來的變化
新聞生產是新近發生的事實經過選擇、加工最終形成完整新聞作品的過程。以往的新聞生產流程沒有技術的介入,主要經過“編前會、新聞報道策劃、實地采訪與寫作、編輯校對、定稿印刷和發行”這幾個步驟,人工智能技術的出現,使得新聞生產流程越來越智能化。
(一)新聞策劃和新聞采集:更豐富、更便捷的新聞來源
傳統的新聞采集主要是通過自身新聞源(也就是固定“爆料人”)的積累、固定的報社或者記者熱線、新聞選題策劃、記者自身的新聞敏感發現具有“新聞價值”的新聞事實、相關報道的深度挖掘幾種方式,主要建立在人與人的溝通和人與事物的聯系上。[1]而使用人工智能技術的新聞生產流程在新聞選題策劃方面,可以利用大數據分析受眾喜好,推測出受眾感興趣的議題,預測事件的熱度,利用受眾前饋生產出受眾所需的新聞內容。例如,作為國內首個媒體人工智能平臺的“媒體大腦”,在2018年全國兩會期間從5億網頁數據中梳理出了相關輿情熱詞,為新華社生成視頻新聞《2018兩會MGC輿情熱點》提供新聞選題。
(二)新聞生產與事實核查:更快捷的新聞生產速度
將“內容為王”作為衡量新聞價值標準的傳統媒體,稿件往往需要經過寫作者的前期采訪、寫作以及編輯對包括新聞選題、事實的核查以及稿件排版等內容的“二次加工”,雖然一定程度上保證了稿件的質量,但是新聞的時效性往往打了折扣。機器人新聞寫作憑借其超強的算力,在不易出錯的前提下能夠迅速處理海量數據,生產出新聞稿件。完成事實核查后的新聞稿件也可以第一時間發布到社交媒體上,受到用戶的廣泛關注。
(三)新聞分發:更高的目標群體抵達率
傳統媒體發行一般有代理式分發和直銷式分發兩種形式,代理式分發指讀者通過從發報員手里購買或者訂報站訂閱獲取新聞產品;直銷式分發是讀者直接通過訂閱熱線從總社進行按月或者按年訂閱,郵局分發員會在固定時間派送到指定地址。[2]不管是從新聞的時效性還是從新聞作品的閱讀率、受眾群體的抵達率來說,傳統媒體的新聞分發相比依托用戶閱讀興趣進行算法推薦的個性化新聞分發不具有較強的競爭力,無法實現新聞內容精準投放。
二、人工智能應用于新聞生產流程帶來的倫理失范問題
人工智能技術的接入使得新聞生產流程與以往有了較大的區別,具體而言,表現為依靠數據抓取進行新聞策劃和信息采集、借助算法程序快速生成新聞報道以及進行個性化的新聞分發。隨著技術在新聞生產流程中的應用不斷深入,我們在面對新聞生產的不同環節時,都能夠發現一些由其帶來的倫理失范問題。
(一)新聞策劃與信息采集:侵犯用戶隱私,偏離新聞價值
能夠實時追蹤社交平臺上海量數據的輿情監測系統和能夠獲取用戶地理位置、移動路線的傳感器等有助于新聞策劃和信息采集的人工智能技術,由于大數據抓取和篩選的是用戶在互聯網上留下的瀏覽痕跡和歷史記錄,雖然能夠獲取用戶的閱讀喜好和興趣焦點,迅速掌握新聞線索,但是不可避免地會面臨源數據泄露,公民數據被迫陷入到非法收集、過度分析的危險之中,[3]侵犯用戶的個人隱私。
同時,如果長期使用大數據抓取和篩選來獲得新聞線索,也不可避免地會出現新聞價值的偏離。大數據抓取和篩選最終的結果是能夠找到受眾的興趣點,而那些能夠吸引受眾注意力、進行娛樂消遣的暴力、色情、獵奇等題材的信息占據較大的比例,這無疑會損害媒體所承擔的社會責任和媒體的公信力,嚴重偏離新聞價值的娛樂化信息,也會導致受眾優先關注個人感興趣的話題,而漸漸漠視社會公共利益和重要的社會議題。
值得一提的是,人工智能新聞和記者所寫新聞在新聞質量上呈現出新聞的信息量擴容、知識量萎縮的發展趨勢。基于海量數據的新聞報道沒有記者在寫作時對新聞事件的舉一反三,所產出的新聞很大程度上就是對數據的梳理。我們需要的新聞不是讀起來味同嚼蠟的數據堆砌,而是對社會現象鞭辟入里的分析和思考。
(二)新聞生產與事實核查:缺乏人文關懷,危害新聞真實
人工智能在新聞生產過程中表現出強大的生產能力,依賴數據庫的數據作為新聞稿件的“原材料”,基于工程師植入其中的算法作為新聞稿件的“模板”,[4]這種拼貼式的寫作方法使得人工智能能夠快速生成一篇新聞稿件,并由此出現了算法新聞、機器人新聞和傳感器新聞等全新的新聞樣式。
1.無法感同身受,缺少人文關懷
不可否認,機器人新聞等新聞樣式在生成速度方面具有無可比擬的優勢,例如,今日頭條的新聞機器人“張小明”(xiaomingbot)在2021年里約奧運會上日產30篇以上有關羽毛球、乒乓球、網球的消息簡訊和賽事報道。由于新興新聞多是以數據為基礎生成的新聞報道,其程式化的寫作特點使它局限于財經報道、地震報道和體育報道上。機器人寫作語言的標準化、程式化無法模擬和表達人類的情感,也無法感同身受,這就使得人工智能技術無法像媒介從業者那樣自覺地從新聞倫理的角度規約自己的行為。因此在地震等災難新聞的報道中,很容易造成為了收集到足夠的數據而打擾受災群眾,缺少相應的人文關懷。
2.潛在的算法偏見,危害新聞真實
如今互聯網的準入門檻較低,Web2.0背景下用戶生成內容成為主流,但沒有接受過專業訓練的用戶使其所提供內容的真實性大打折扣,這無疑會增加虛假信息進入寫稿機器人信息采集內容的可能性,降低了新聞報道的真實性。
寫稿機器人的底層運作邏輯是設計者已經設計好的算法程序,由于設計者對算法程序以及算法程序未來的生成內容有著不可避免的主觀傾向性,算法本身在對數據挖掘、整理和分析的過程中也存在著人類能力無法探明的“黑箱”,正如《紐約時報》曾在橄欖球比賽報道中直言不諱:“盡管有大數據作為支撐,但和NFL教練相比,我們的機器人生成的報告更傾向于樂觀。”[5]由于寫稿機器人無法對新聞現場進行感知,只局限于了解事實真相的表面,不能夠挖掘深層新聞事實,也就容易造成新聞真實性的降低。
在新聞事實核查方面,相較于傳統媒體新聞經過新聞從業者的層層把關,人工智能時代的新聞把關已經由新聞從業者向智能算法過渡。而智能算法面臨的問題就是算法本身也無法保證源始數據的真實性,本質上這也是對新聞真實性的一種偏離。
(三)新聞分發:造成信息繭房,塑造權力中心
以受眾興趣為導向的新聞分發模式將數據、算法、人機有機結合起來,建立用戶和資源的個性化關聯機制,為用戶提供精準的新聞投放與分發。[6]個性化的新聞推送在不斷迎合用戶個人信息需求的同時,使得擁有同樣興趣的個人聚集成各個分散的小群體,造成網絡的“巴爾干化”。并且,精準推送帶來的分眾化趨勢以及受眾只注意自己期望獲得的東西和使自己愉悅的領域,也造成了美國學者桑斯坦所言的“信息繭房”,受眾不再具有主動選擇信息的權利,用戶對公共事務的關注度逐漸降低,代表著其生活中公共性的不斷減少。長此以往,受眾的信息接觸面愈發窄化,社會認知、責任意識將不斷弱化,其所擁有的對社會公共事件的監督權力將成為無稽之談。
個性化新聞推送主要以算法程序為支撐,對新聞信息進行個性化的匹配。但是,由于算法程序的不透明性和缺乏管制,媒體平臺成為個性化新聞推送中“隱藏的權力中心”,信息推送與分發的權利從公共媒體機構轉移到使用算法推薦進行信息分發的網絡技術公司,用戶和社會無法知道新聞是從何而來的,也無法判斷這背后是否有人為的操縱。而這樣的情況,會使得類似Facebook2016年的“偏見門”事件不斷上演。
三、人工智能應用于新聞生產流程帶來倫理失范問題的對策
面對人工智能在新聞生產流程中帶來的倫理失范問題,我們可以從法與情兩個維度來分析應對舉措,完善相關法律法規,明確人工智能技術的使用主體責任。我們在享受技術帶來便利的同時,也要發揮作為使用者的主觀能動性,讓技術更好地為我們所用。
(一)政策指引,法律規制,明確技術使用底線
政策的出臺影響行業發展的方向,法律條例成為行業發展不可逾越的底線。在面對倫理失范問題時,我們可以雙管齊下。
首先,可以邀請國內的知名學者和業界代表,共同商討全行業統一的管理機制,并完善細節,形成適合于我國國情的行業標準,并對該標準的實施情況進行監督。該標準應該包括數據抓取、提取和使用的邊界,人工智能在新聞生產各個環節的社會監督形式等,力圖實現其在新聞生產流程中的透明化和公開化。
其次,可以借鑒歐盟對涉及個人信息獲取、存儲、處理、轉移、監督等各個方面進行詳細規定的《一般性數據保護法案》,以及美國在2019年《算法問責法案》基礎上更新的2022年《算法問責法案》(草案),吸收有益經驗,對人工智能進行立法規范。近日,國家網信辦等7部門頒布《生成式人工智能服務管理暫行辦法》,其中提出了促進生成式人工智能技術發展的具體措施,明確了提供和使用生成式人工智能服務總體要求,規定了生成式人工智能服務規范等,為人工智能技術的應用和發展提供了指南。
(二)新聞機構和平臺各負其責,明確責任主體
目前應用人工智能技術的多集中于中央及各地方新聞機構和以今日頭條為代表的平臺。針對上述出現的“隱藏的權力中心”和危害新聞真實的問題,新聞機構和平臺應該擔負起應有的社會責任。
首先,媒體及平臺應該體現其該有的公共價值,發揮政府規制和企業自治的雙重作用,貼合政府對媒體及平臺在宏觀層面的政策安排,接受外部監督系統的審查機制,避免出現“隱藏的權力中心”。
其次,面對媒體及平臺使用人工智能技術產出智能新聞的生產機制應該明確責任主體,實現人機責任捆綁。媒介及平臺可以制定智能新聞的問責機制,明確新聞把關責任,為每一板塊的智能新聞分配相應的責任人,負責新聞稿件真實性的審查,避免算法把關對原始數據真實性不確定的情況出現。同時媒體及平臺應當在日常運營中設置相應的內容發布規則,規范自媒體賬號的內容發布,制定懲處措施,如果發布不實新聞,一經查處,即刻查封賬號。
(三)人機結合,發揮新聞工作者的主觀能動性
在財經類、體育類等消息寫作領域,我們應當充分發揮人工智能技術既有的優勢和作用,快速產出新聞報道。這在一定程度上緩解了新聞工作者的工作壓力,使他們擁有更多的時間進行深度思考并且產出具有深度、引發社會思考的新聞報道。但是,我們不能忽視出現的新聞價值偏離和缺少人文價值報道等帶來的問題。
首先,為了解決新聞價值偏離的問題,我們應當推動新聞機構和人工智能技術研發公司實現對技術愿景的溝通,及時了解技術的生產和實際操作過程,進一步明確新聞機構對技術的期待以及預期取得的成效,不斷完善技術產品,避免信息采集時完全跟著受眾的興趣走,提高技術對信息的識別能力。
其次,我們應當發揮新聞工作者的主觀能動性,在智能新聞中加入人文價值因素,實現技術和人的有機結合。先是主動利用智能算法進行數據分析、敏銳捕捉到熱點和重大事件并形成初稿,之后記者在深入調查的基礎上逐步完善新聞稿件,最后將新聞報道通過智能推薦的方式送達用戶。新聞工作者對新聞事實的深度分析和調查能力能夠增加新聞稿件的人文關懷因素,從而提升對人工智能技術的運用與把控,實現“人機共生”,促進新聞業高效、智能發展。[7]
(四)技術革新,改善侵權問題
人工智能技術在新聞策劃和信息采集以及新聞分發環節中的使用,能夠幫助用戶快速獲取信息,但這也造就了一批信息時代的“懶人”。他們在為信息的便捷換取歡呼雀躍的同時,卻不知道已經陷入了隱私侵犯困境和“信息繭房”之中。
首先,要明確人工智能技術在搜取信息時的界限和范圍,不斷完善或優化算法,平衡技術應用和內容選擇之間的關系,構建更科學合理的算法模型。這樣的算法模型不僅能夠識別用戶的個人興趣,同時也能基于時下的熱點和社會發展的客觀現狀實時推送分發,避免“信息繭房”的出現。在程序設計中,給用戶閱讀“用戶須知”留出一定的時間,不讓“默認勾選”成為侵犯用戶隱私的“霸王條款”。
除此之外,技術的使用也能夠改善虛假新聞的問題。我們可以通過技術對機器人生產的新聞進行數據來源、內容生成方式的標注,實現新聞真實性的回溯。在技術未完全成熟前,“把關人”這一角色依舊應由新聞從業者來擔當,承擔數據管理和程序驗證的工作職責,以保證源數據真實可用。我們也可以利用區塊鏈技術,保存寫稿機器人的稿件生成記錄,當出現虛假新聞時能夠進行媒體信源的認證。
四、結語
可以預見的是,未來隨著人工智能的發展,新聞業與人工智能技術的結合將會越來越緊密,個性化新聞聚合與推送已成為不可避免的發展趨勢,如何趨利避害,更好地運用技術以重塑新聞業價值,是值得繼續思考和討論的問題。正如萊文森所言,對待任何一個新型技術手段,必須要謹慎觀察,不可盲目地否定。
注釋:
[1][2]吳佳洪.人工智能技術背景下新聞生產流程創新研究[D].暨南大學,2019.
[3]李超,李雅林.人工智能技術引發的新聞傳播倫理失范問題[J].城市黨報研究,2019(12):31-33.
[4]李暉,劉茂錦.人工智能在新聞傳播中的倫理失范與對策選擇.轉引自新媒體與社會[M].北京:社科文獻出版社,2020.
[5][7]靖鳴,婁翠.人工智能技術在新聞傳播中倫理失范的思考[J].出版廣角,2018(01):9-13.
[6]苗壯,方格格.人工智能如何“人性化”:新聞倫理失范分析與對策[J].傳媒,2021(23):94-96.
(作者單位:北京信息科技大學公共管理與傳媒學院)
責編:姚少寶