□ 胡恩紅
科技以人為本,這是人類科學發展的指南針。技術創新內蘊了人文精神的技術創新觀,它與人文精神具有價值同一性、倫理道德相融性、終極目標一致性、審美情感互通性,是真、善、美的統一。因此,科技的創新并不會導致某種“善”亦或是某種“惡”,關鍵在于人類怎樣去認識它、使用它。近年來,人工智能在各個行業中飛速發展,人們在共享科技便利的同時,其相關倫理問題也備受關注。我國媒體擁有廣泛的受眾人群和傳播平臺,因此人工智能進入媒體行業屬于正常現象,但同時也帶來了新的傳播倫理思考。
筆者認為,AI合成主播的確能一定程度上提高解放自然人生產力,但人工智能只是對人腦的模擬,是人類智能的外化或物化。它沒有自然人的情感、思想和精神,進一步也就沒有自然人的實踐性、主體性和社會性,更缺乏自然人的三觀,自然也就無法傳遞新聞溫度,表達人文精神。這是一種技術倫理失范,基于人工智能的AI合成主播倫理具體爭議主要體現在以下三個方面。
報道缺乏自然人溫度,難引情感共鳴。實踐性和自主性是自然人的本質刻畫,它受情感、環境、教育等方面熏陶影響——這體現了自然人的目的性、能動性以及人對意識活動的管控。AI合成主播只是一個“新聞復讀機”,它不能傳遞新聞溫度,更無法與受眾產生情感共鳴。用新華社自己的話來說,“AI合成主播根植于人工智能克隆技術。該技術善于捕捉現場主播的聲音、表情、語音語調,然后通過交互計算實現人臉識別、語音合成、語調模仿等,這是對現實主播的深度學習,以期達到和真人極為相似的信息傳播效果?!?/p>
算法技術引發新聞偏見,“價值理性”向“工具理性”偏離。AI合成主播的推廣實質上是“價值理性”向“工具理性”偏離的一種體現。AI合成主播根植于算法、大數據、云計算平臺等,但算法偏見和糾偏本身就是一個倫理關注焦點。哈貝馬斯指出,人類在科技的發展中,應該追求一種綜合理性亦或是價值理性,而不是被科學所奴役,去追求一種工具理性。人們對于技術手段、算法的優勢及其帶來的高效率和巨大收益,都偏向于對“工具理性”的追求,而忽略了價值、信仰、倫理的理性思考。
行為主體模糊,法律責任難界定。從法律層面來看,人工智能技術飛速發展,但我國相關法律法規卻呈現出滯后狀態。當前,我國在人工智能及算法技術應用上,相關法律規范體系還存在許多空白,且亟待解決。真實性是新聞的生命。具體到AI合成主播上來看,新聞主播是新聞傳播的一種形式,它象征著一種權威解讀,是人們接受新聞信息的重要方式。當新聞主播從自然人過渡到AI合成主播時,新聞責任的主體該如何界定。當人工智能出錯時,是程序員的責任,還是把關人的責任?因此,缺乏必要的法律規范是AI合成主播技術倫理失范的主要原因之一。
在筆者看來,應該用發展批判的眼光審度AI合成主播亦或是人工智能。對于新技術在媒介領域的運用,需要“取其精華,去其糟粕”,不排斥科技的輔助,但需要警惕工具理性的肆意入侵。既不能不分青紅皂白,將技術拒之千里之外;也不能持盲目樂觀態度,任其在媒介領域野蠻生長。綜合的對策,具體敘述如下。
優化技術,人機共生。判斷一項科技是否以人為本應該具備以下條件,一是此項科技是否拉近了人與人之前的“距離”,二是此項科技是否延長了人類的壽命,三是此項科技是否違背了倫理道德。如果滿足這三個條件,就可以判定此項科技具備“以人為本”的屬性;如果不滿足,需要對其進行適時糾偏。
當前,人工智能技術在各個領域的應用尚不成熟,在傳播領域尤甚,相關技術部分如何優化是媒介環境亟待解決的問題。筆者認為,技術優化至少包含三個方向:一是使用范圍,二是使用主體,三是技術監管。首先,技術使用范圍方面,人工智能技術應該明確技術使用邊界,確定技術應用與內容選取之間的平衡關系。其次,是對技術的使用主體進行明確界定,即確定技術責任人。哲學家芒福德曾言,技術并不會導致某種社會善或社會惡,關鍵是看人類如何使用它。明確技術責任人,是對技術使用的進一步規范。最后,還應該做到技術的“有法可依,有據可查”,在技術使用上,確定第三方監管制度,時刻對相關技術使用進行監管,保證技術使用的合理規范。
AI技術不能分析新聞事件背后的因果關系,而真人主播善于宏觀把控新聞的深度和邏輯。AI合成主播無法生產出有溫度、有故事性的深度報道,相比而言,真人主播更具有人文關懷,能夠較好地在宏觀層面把控新聞的倫理界限。因此,“人機共生”才是未來新聞業發展的新趨勢。
以“道”馭術,以“律”規之。我國古代從一般意義上對技術與道德關系的討論,可以概括為“以道馭術”,指的是技術行為和技術應用要受倫理道德的駕馭和制約。人工智能亦或是AI合成主播的發展,也應該遵循“以道馭術”的發展原則。這里的“道”,既有法律層面,也有道德層面。
AI技術在新聞傳播領域發展迅猛,但相應的市場監管還存在諸多漏洞,急需建立行之有效的各項規章制度。水能載舟,亦能覆舟。筆者認為,AI技術一方面應該有效服務于人類生產生活需要,另一方面也應該在人類倫理邊界內,防止技術泛濫對人類造成威脅。新聞傳播面向廣大受眾,自然需要社會各界的監督。公眾是新媒體技術的潛在受益或侵權對象,需要及時對AI技術的潛在效果進行及時反饋,以期對人工智能技術起到監督約束作用。相關部門應該在AI技術中擔負主要責任人,在技術邊界和發展原則問題上當好“把關人”。
敬畏倫理,以人為本。正如諾基亞廣告所表達的那樣,“科技以人為本”??萍嫉陌l展應該以人類進步為第一要務,應該始終以增進人民福祉、社會健康發展為第一要務。和其他技術一樣,AI合成主播應該由人來主導控制,也應該由人來控制,而不是技術控制人。AI合成主播產生道德倫理爭議的根本原因,并不在于新技術本身,而在于使用技術的人的價值傾向。AI技術的發展不能背離技術發展的最初目標,就現實功能而言,它雖然起到了解放生產力的作用,但一定程度上不符合當下受眾的情境和需求。
技術應用的目的是服務于人類社會,為人們提供更好的生活基礎與精神滿足,人工智能技術也不例外,如果得到合理的使用,便會給人類帶來巨大的福利。概言之,AI技術需要解決“知、理、情”等方面的倫理問題。人的心理活動分為知、理、情三大部分,即認識、感性、道德意志。倫理學的一大要務,就是要解決AI技術隱性存在的倫理壓迫,消除其帶給社會的最大弊端,努力發揮其積極方面作用。AI技術是一項民心工程,需要用完善的法律法規來促使其良性發展,需要用適宜的倫理道德來規范和引領。
AI合成主播催生出人工智能在新聞行業的新興應用,也能夠給人們帶來新奇的體驗。技術的進步對現行倫理道德的挑戰并不能成為停滯技術的借口,人們應該找尋更多的優化路徑來引導技術。若因出現的各種新問題而急忙否定新興技術,那么技術領域的任何一點進步和發展都會成為幻影。技術是把雙刃劍,技術的發展會為社會帶來新的積極的變革,也會帶來隱患與威脅。
因此,AI合成主播的適用性不能被盲目地一刀切,更為行之有效的做法應該是盡快出臺相應法律法規,有效制約技術的研發者和使用者。展望未來,AI技術將會是人類歷史上有價值的技術開發,其倫理道德探究也將成為一項“任重道遠”的工作,其倫理調適和價值校對將永遠在路上。