□ 潘援
內容提要 目前,人工智能技術廣泛應用在媒體的內容采集、內容生產、內容分發、用戶互動等方面。而隨著人機交互的加深,倫理失范問題凸顯,或將成為長期制約人工智能技術在媒體應用與發展的關鍵要素。本研究通過對人工智能技術媒體應用現狀的梳理,探討了現階段人工智能技術在媒體應用中面臨的三類倫理失范風險,并從人工智能生命周期出發,提出了風險防范舉措。
人工智能技術在媒體的內容采集、內容生產、內容分發、用戶互動服務等方面日益滲透,為媒體從業者和媒體使用者都帶來很多便利。但與此同時,隨著人機交互的加深,假新聞泛濫問題、算法價值取向問題、人機關系問題等倫理失范問題凸顯。
人工智能技術應用具備的優點有:實時智能抓取信息推進信息采集的便捷化、機器人寫作使內容生產更具時效性和多樣性、算法持續學習讓內容實現個性化精準推薦、人機良好交流溝通提升用戶交互體驗。但另一面,人工智能技術也在不斷引發擔憂與爭議。
(一)創作輔助引發隱私擔憂。全天候的數據監測與數據挖掘技術提升了數據收集的范圍與效率,自然語義處理技術、社會網絡分析技術等豐富了數據分析的維度,大大提升內容生產者對選題把握的全面性與精準性。但海量數據的抓取與分析也引發了大家對于用戶隱私問題的擔憂。
(二)自動化新聞成為假新聞主要來源之一。自動化新聞生產目前主要基于“人工模板”+“自動化數據填充”的模式。編輯向機器人輸入關鍵詞,然后由機器進行新聞數據的采集、優化、分析,之后提煉選題并運營算法套用模板生成新聞內容。機器人不僅能自動生成真新聞,也能大量產生假新聞,且做到以假亂真,對新聞公信力產生負面影響。
(三)內容分發引發算法權力討論。算法分發使用戶的個人偏好成為信息分發的基本依據,傳統媒體在新聞分發中的控制權受到削弱,用戶獲取的新聞更具多樣性和可控性,但同時使信息繭房、回聲室效應等問題變得突出。
(四)用戶互動引發人機關系問題思考。2014年年末,“微軟小冰”上線微信,并以其靈活、賣萌的風格引發了大眾關注,但“用詞粗鄙”也成為其一大詬病點。2021年年初,韓國部分網民表示其在與網紅AI聊天機器人“伊達魯”聊天時,“她”語言偏激,并有性別歧視和種族歧視觀點。而不論是“微軟小冰”,還是“伊達魯”,其言語粗鄙、觀點偏激的原因之一是人們在和其對話時進行了故意的語言侮辱甚至騷擾,從而讓聊天機器人學習了這些“惡意”。
第47次中國互聯網絡發展狀況統計報告指出,新一代人工智能技術正加速在各行業縱向深入和落地應用。近年來,人工智能和媒體的融合越來越緊密。例如,新華社與阿里巴巴集團的合資公司新華智云自主研發的媒體大腦MAGIC短視頻智能生產平臺便專注于短視頻內容的自動化生成。但我們必須看到,人工智能技術在為我們帶來便利的同時,也帶來諸多風險。
一是侵害公眾權利的問題。麻省理工學院研究發現,4個時空數據就可以描繪出一個人95%的身份信息。人工智能技術自身的數據缺陷可能導致新聞失去真實性和客觀性,對數據的過分依賴也將破壞公眾的隱私權。在感慨傳感器帶來萬物相連萬物皆媒介的同時,傳感器社會也是一種新的社會監視和控制。同時,大數據背景下公民信息的“被遺忘權”也需要引起關注。
二是假新聞泛濫的問題。隨著人工神經網絡合成圖片、視頻、文字內容的能力迅速提高,人工智能技術會被一些不懷好意的個人或組織利用,通過制造和傳播假新聞、惡意評論來打擾煽動輿論、擾亂網絡傳播秩序、深度互動性帶來一定倫理問題等。
三是算法的價值取向問題。算法的使用可能會因為研發者的偏見、樣本與訓練數據的偏見、研發公司以及購買企業的利益訴求、算法自身原因等而讓算法產生與人類相同的偏見與歧視,造成更大范圍內的社會不公平現象。2016年“Facebook偏見門”事件就是“算法審查”發生偏差的產物。我們應該時刻警醒算法可能帶來的更為隱蔽的偏差和偏見,在算法中堅持人的價值觀。
人工智能技術究其本質是人類智慧和智能的高度聚合,也是人類本體價值和意義在技術層面的展開。人工智能技術在媒體應用中面臨倫理失范風險的原因有以下兩點。
一是傳播生產實踐中人機關系的失衡。人工智能技術在媒體中的應用尚屬發展階段,存在非結構化數據多、數據質量良莠不齊、數據孤島效應等問題,“你關心的就是頭條”的算法邏輯消解了傳統專業機構和編輯的地位,賦權于公眾或者用戶。以用戶需求為絕對主導,以算法為絕對手段,忽視內容的價值引導與平臺的把關責任,從而引發虛假消息泛濫、內容低俗化、信息繭房等問題。
二是人工智能技術設計與應用過程中的倫理規制和監管體系缺失。機器的運行過程主要以“用戶偏好”“利益導向”等為依據,缺少道德層面的行為準則與制約。我們要如何看待機器人主體、他們是否具有主體性等都亟待深入思考和討論。就目前而言,我國尚未形成具體的、針對人工智能環節的監管制度,也還不具備實現人工智能研發改進全流程監管的能力。
人工智能技術的應用帶來了媒介生產方式的變革與制度的創新,也加速影響著人類社會。防范人工智能技術在媒體應用中倫理失范風險,應綜合考慮,形成有法可依、多元協同、多方參與的治理機制。
一要樹立“人機協同”的發展模式。在人機協同中,人是智能的把關人,居于最重要的地位,要明確人的主體地位。記者發揮在內容專業性和深度方面的特長。要明確內容的問責機制,人類是智能內容的“元作者”,要對數據的版權和準確性負責。
二要建立人工智能時代新的倫理與規范。2021年9月,我國新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》,提出技術倫理是機器時代的韁繩。構建人工智能的倫理道德體系的首要目的在于為人工智能嵌入人類價值,讓人工智能的行為合乎人類社會的倫理道德要求。
三要建立健全人工智能技術的監管體系。人工智能行為的規范和倫理問題既需要自上而下的科學監管,也需要自下而上的自我約束。目前,很多企業正在積極推動自身的監管舉措。如阿里巴巴推出AI謠言粉碎機,用來治理網絡謠言、虛假新聞。今日頭條的“靈犬”、鳳凰新聞客戶端的“鳳眼”系統等,均是致力于反低俗有害信息的智能化管理工具。
隨著5G時代的到來,媒介生產環境、傳輸方式以及終端場景必然發生顛覆式變化,也將深刻改變人類社會生活與世界。在享受人工智能技術為我們帶來便利的同時,不能忘記其背后隱藏的某些“陷阱”。增強全社會的人工智能倫理意識和行為自覺,也是塑造科技向善理念,營造良好媒體生態環境、增進人類福祉的必要舉措。
[1]第47次中國互聯網絡發展狀況統計報告[R],2021.(2)78.
[2]陳毅華,張靜.從概念到集成化、產品化、商業化實踐——從媒體大腦人工智能技術與媒體業態的融合[J].中國記者,2019(2):15-17.
[3]靖鳴,婁翠.人工智能技術在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):9-13.
[4]殷樂.人工智能技術與媒體進化:國外相關實踐探索與思考[J].新聞與寫作,2016(2):20-24.
[5]周麗娜.大數據背景下的網絡隱私法律保護:搜索引擎,社交媒體與被遺忘權[J].國際新聞界,2015(8):136-153.
[6]楊曙.當下VR新聞制作的缺陷與未來發展[J].中國記者,2018(3):93-95.
[7]方師師.算法如何重塑新聞業:現狀、問題與規制[J].新聞與寫作,2018(9):11-19.
[8]喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018(05):5-12.
[9]姜紅,魯曼.重塑“媒介”:行動者網絡中的新聞“算法”[J].新聞記者,2017(4):26-32.
[10]冉曉燕.人工智能體引發的倫理困境[J].中國高新科技,2020,(3):86-88.
[11]靖鳴,婁翠.人工智能技術在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):11-15.
[12]彭蘭.機器與算法的流行時代,人該怎么辦[J].新聞與寫作,2016(12):25-28.
[13]冉曉燕.人工智能體引發的倫理困境[J].中國高新科技,2020(3):86-88.