宋紅
摘要:隨著AI傳播技術在傳媒越來越廣泛的應用,如何在智媒體環境下堅守價值規范和專業主義成為業界愈加關注的重點。AI逐步形成的信息生態及其對傳統媒體秩序以及現實社會價值的沖突等,引起人們對諸多已出現和有可能出現的新聞倫理亂象的憂慮,媒體超常規生產能力的爆表和泛化帶來作品理性和社會責任的相對缺失和統一理念規則的呼喚。而AI傳播技術及傳播方式作為傳媒界的新力量,也為業界的發展繁榮注入了新的活力和思路,對媒體倫理造成沖擊也并不意味著某一方的全面失敗或脫韁,從另一維度看這也是一定意義上的對沖。新技術驅動理念下的媒體語境需要技術倫理與新聞倫理的深度解讀及雙邊關系重構,從而彰顯媒體的話語合法性和文化權威性。
關鍵詞:AI傳播技術 倫理 關系 傳媒 解構
隨著AI傳播技術迅速發展并在傳媒領域得到越來越廣泛的應用,智媒在AI的加持下逐漸從原始沖撞中致力形成新的信息生態。與此對相應,AI傳播技術和倫理之間的關系也需要深入解讀和建構,以葆有傳媒特有的新聞專業精神及其話語合法性和文化權威性,使得新聞傳播事業得以良性持續發展。
一、AI傳播技術在智媒領域的現狀分析
AI(Artificial Intelligence)作為計算機科學的一個分支,是致力于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門技術科學。如今,AI傳播技術在傳媒業的應用幾乎滲透到了新聞的生產層面、信息分發層面、新聞呈現層面、反饋互動層面等全過程,傳媒界不僅呈現了沉浸式新聞、個性化新聞、傳感器新聞、臨場化新聞、分布式新聞等眾多新聞新樣式,還有虛擬主播、機器人創作、無人機定向播放等,更有讓受眾驚見“換頭術”之后的娛樂新聞、明星出位表演等等,可謂喜憂參半,使得傳媒空間里虹霓斑斕又伴著天雷滾滾。
目前,在智媒領域集中發力的主要是以下幾類:無人機攝播、社交機器人、機器人創作、算法推送、智能場景新聞、虛擬主播、腦機對接等。[1]雖然應用程度尚為初始,遠未達到取代現有從業人力之勢,但已經足以引起傳媒學界和業界的震動和思慮。以當下AI在傳媒領域的發展介入程度,僅相當于25年前影視界的三維動畫技術的發展程度。有一個數據可茲參照:《互聯網周刊》發布“2019人工智能案例TOP100”榜單,覆蓋了國內外主流人工智能及科技企業的前沿應用案例,而其中應用于傳媒界的僅有一項案例:南京廣播電視集團的數字主播??梢娙斯ぶ悄苤趥髅浇绲臒岫群托Ф热蕴幱诔跏茧A段。
就拿虛擬主播來說,機器合成的主播在外形上已經吸收了最新3D擬人造像技術,幾乎達到了以假亂真的程度,遠非20多年前的動畫影視技術可比擬,不過還是沒有超越數字擬人技術的“恐怖谷效應”(The UNCANNY uncanny valley effec),即人類面對高仿擬人機器時,它與人類任何細微差別都會使人產生刺目、不適的感覺,以致對“虛擬人物”產生僵硬恐怖的印象。其實把“Uncanny”一詞翻譯成“恐怖”并不確切,它形容的是一種詭異、怪誕的感覺,有恐怖的成分,但更有一重奇異古怪的、神秘莫測的含義。為了跨越這一效應,動畫電影用了30年時間,從皮克斯的創始人之一,3D技術的真正先驅Ed Catmulll于1972年拍攝的被認為是世界上第一個計算機生成的3D動畫短片,到2005年的長篇動畫電影《玩具兵總動員》,人們已經開始接受高仿3D人像并能夠喜愛上它們,盡管影片中的安迪和他的媽媽等角色仍然被有些觀眾吐槽存在怪誕觀感。事實上虛擬人物的恐怖谷效應從來沒有正面得到徹底解決,通用的做法一是用卡通造型來規避高仿人像的詭異觀感;二是從真人入手,通過動作表情捕捉反向生成動畫角色,從而使角色極度像真人。最典型的例子是2008年獲得奧斯卡最佳視覺效果、最佳化妝、最佳藝術指導三項大獎的《返老還童》,里面一位活靈活現的老人就是由原型演員同步操控合成的虛擬人物。但是對于新聞播報需要的無人言行操控、純機器合成主播來說,這些技術不能照搬給熒屏人物,因此使得恐怖谷效應仍然是橫梗于人機之間的AI傳播技術瓶頸。
近來還有一種急功近利的方式,就是選用“真人換頭”技術來消弭人機之間的違和感。這種傳播作品主觀目的性較強,對于娛樂價值的偏執追求使得該技術更為嫻熟、“高超”,從而使它游走于“創新”與“違法”兩面。而這也是AI傳播技術創新應用中存在的一個不容忽視的傾向,類似的還有機器人原創、無人機定向播放、算法推送等。而人們最為擔心的AI自我學習更新型的社交機器人反而自我中止下架。曾經三個被認為最有可能引領社交機器人市場的Kuri、Jibo和Anki機器人因量產、融資、技術更新等問題相繼停產后,微軟推出了名為Tay的人工智能聊天機器人,然而僅一天時間她就被“教壞”了,成為一個集反猶太人、性別歧視、種族歧視于一身的“不良少女”。[2]數小時后,微軟公司手忙腳亂地處理她發表的各種極端言論,最后不得不讓Tay下線。究其原因主要是這類AI產品在記憶學習中的無分辨性、無立場性,鸚鵡學舌一般同時學壞和學好,甚至學壞升級速度更快。Tay成為傳播學對AI傳播技術研究應用的典型案例。
二、AI傳播技術與倫理關系普遍性焦慮的本質解讀
AI傳播技術能夠給人類生產力帶來的增長改變顯而易見,但人們卻首先對它充滿擔憂。上至世界頂級科學家下至生產車間的工人,同樣都在為人工智能的發展而焦慮,這在任何一次科學技術革命史上都是很少見的現象。之所以AI傳播技術會引發人類大多數人的焦慮感,其本質是源于這項技術直達人類大腦科學核心和人類精神特質,實質是人類對于技術創造者的不信任以及對人類自身弱點的洞悉。
近現代以來的工業革命,從蒸汽機到發電站,再到核能與“可編程邏輯控制器(PLC)”,直至互聯網,所帶來的問題無非是生產力緊缺、能源緊缺等。期間發明創造出來的鋼鐵之軀或者新材料產品無不是人類的工具,即使有些工具具有強化、取代甚至超越人類肢體、臟器的功能,但其從屬于人類的性質卻是一致的,這是前三次技術革命的進步性基本無需質疑的原因。然而,現在到來的人工智能技術時代,卻是對人類大腦進行終極挑戰的科技革新。這次以區塊鏈技術、高仿擬人機器人技術為標志的科技創新,將使得每一件產品都擁有了難以逆改的“身份證”和即時可查的“可視眼”,在高度自動化作業環境中,相對獨立運行;并且它們中的一部分配備尖端的聲、光感應和輸出技術,具有了極似人類的外觀表征,并且在某些功能上遠超人類。而這一切的實現基本都是由信息錄入、處理和輸出等技術來提供的,而這些正是人腦的專擅領域。無論從制造模式角度來看,還是從產品角度來看,物質產品和服務都將以電腦存儲和處理信息為主的數碼所取代,是意在人類根本生物特性的模仿、超越或異化的革命,因而被認為是“最后一次工業革命”。于是“憂從中來,不可斷絕?!保ú懿佟抖谈栊小罚?/p>
這種焦慮折射出人類潛意識比自己認為的更加清楚自身弱點。正如霍金所擔憂的“人工智能是最偉大的發明,可能終結人類文明?!彼木媸牵骸皬姶蟮娜斯ぶ悄艿尼绕?,要么是人類歷史上最好的事,要么是最糟的。人工智能的發展是好是壞仍不確定,但人類應該竭盡所能,確保其未來發展對人類和環境有利。”很顯然,霍金對AI的憂慮依據就是人類并不能保證自己竭盡所能從事的事業是確保對人類和環境有利的。事實上歷史已經多次驗證了他的這種擔心絕非空穴來風。“天之道損有余而補不足,人之道則不然,損不足而奉有余?!保ā兜赖陆洝て呤哒隆罚┦侵^也。
人類具有自身難以克服的無限感性欲望和有限理性思維。所以AI傳播技術與倫理關系普遍性焦慮其實是人們由于信息、權利不對等所帶來的對人類自身的信任危機。故而擔負人工智能的頂層設計和終極造就的技術人員,能否成為地球75億人放心交付的人類命運操縱者,這似乎只是在目前起始階段還可以對此說三道四的話題。如果AI沒有在人類有能力對它說不的時候被終止——這已經是大概率的事件,那么將來無論“人類會無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅”,[3]人類不再有說不的機會。就像VR技術實現之后緊接著就是AR技術的取代,沉浸式虛擬現實的“去見鬼”這么快就成為裸眼可視的增強虛擬現實的“活見鬼”,人們不再有什么意外感覺。從這個意義上來說,人類很應該擔憂的恐怕還要加上與“腦機對接”相類同的“智能人工”——“大腦植入芯片”,即“人機器”技術,以及急不可耐意欲制造人類新品種的基因編輯技術等等。人類自身才是恐懼的源頭。
三、AI傳播技術與倫理關系的對撞與對沖
而趨勢終是不可抵擋的。從以往的技術革命看,人類最終完成了當時認為不可能完成的任務,從而一次次地戰勝了技術飛躍給人類倫理帶來的沖擊和挑戰。前三次工業革命,最終都極大地推動了人類社會經濟、政治、文化領域的變革,而且也相應地改變了人類生活方式和思維方式,不同程度地沖擊繼而重塑了倫理秩序,而倫理秩序也對新技術的發展有著不容忽視的影響,從而使人們調整技術發展的方向、速度及適用范圍。因此,新技術對原有倫理的沖擊,既是二者的對撞,也可看做是建立在文明發展普適性和人類整體安全性上的“對沖”。
有了AI傳播技術的加持,媒體超常規生產能力的爆表和泛化會帶來作品理性和社會責任的相對缺失,必然激起新聞傳媒統一理念規則的呼喚。與此同時我們也可以看到,方興未艾的AI傳播技術傳播方式成為傳媒界的新力量,為業界的發展繁榮注入了新的活力和思路,其對媒體倫理造成沖擊也并不意味著某一方的全面失敗或脫韁,而會形成一定意義上的對沖。因此新技術驅動理念下的媒體語境,需要技術倫理與新聞倫理的深度解讀及雙邊關系重構,從而彰顯媒體的話語合法性和文化權威性,促進新聞傳播事業的良性持續發展。
以往每次在新技術的沖擊下,人們都不得不重新審視當時的倫理生態。倫理并不是固定恒常、一成不變的,人對于同類以及自然的相處關系的道德性是由上層建筑賦予的,關系本身則是由人類所處文明層階的生產力等客觀因素決定的。美國《韋氏大詞典》對于倫理學的定義是:一門探討什么是好什么是壞,以及討論道德責任義務的學科。而好和壞是相對于該倫理所處的文明階段而言的:在原始文明中的“好”放到現代文明中可能就是“壞”的,封建文明中的“壞”在現代文明階段也可能是“好”的;而不同文明階段人的道德責任義務也有著截然不同的標準要求。因此倫理必然是與所處文明層級相一致的道德秩序體系。而在技術哲學看來,技術本身只有優劣,無關好壞;技術的好壞判斷完全是由于人的視角和行為造成的。這種來自于倫理的評判對技術文明進步適應性有著雙向影響:落后過時的倫理觀念制約先進科學的進步,同時倫理中所反映的人類良知又對技術的異端化、私器化進行遏制。我們必須認識到,任何時代的技術和倫理都不可能是完美的,只是暫時于系統平衡中適宜的,雖然這種適宜的程度是不同的甚至是難以比較的,但相同的是二者都需要改善而不是讓它們靜止。然而對于新生技術和原有倫理,任何輕妄的人為操作都隱含著相對于“無為”更大的風險,特別是蘊含能量與威力巨大的核技術、基因技術、AI新技術等,其風險就來自于這些技術能輕而易舉地生成超常規發展,導致其威力爆表后的失控失序。從科技革命帶來的機械化、電氣化、自動化到網絡信息化,每一次革新引發的生產力大爆發式提高都呈幾何級數驟增?,F在人類又來到了“人工智能化”的階梯前,向上攀援是不可阻止的行動,但人類必須審慎地思考辨認,“這世界究竟是善良的還是邪惡的?”這個愛因斯坦認為最重要的問題,答案或許就是新技術與倫理對沖后的結果相對于文明進步而言是否獲利,社會中的個體、集團利益經過一系列的打破與重組后能否呈現合理性、進步性的可持續良性發展。
更進一步分析,AI傳播技術固然會帶來一些倫理問題,但是并不是技術本身的過錯,而是使用者的問題,是技術黑箱化之下技術使用者在僥幸、自負心理下的職業失德、行為失范,例如輿論熱議的“換頭術”侵犯名人肖像權、 “智能頭環”監控小學生、“AI記者”編寫假新聞、“算法”識別性取向等等AI軟件涉嫌違法的案例。與此同時我們可以看到,新技術也可以在技術應用正義下對現行倫理缺陷起到倒逼改善作用。就像淘寶等電商崛起促使工商管理改良、電子支付推動銀行服務升級一樣。而另一方面,倫理本身也并非無懈可擊,未必處處比AI更高一籌。如果說AI傳播技術必須重視倫理性,那么如何解決程序思維與辨證思維的差異、彌補人工智能與人腦思維效果的差距,才是真正的焦點。在技術面前保持冷靜與思辨,堅守人的思維優勢而不被技術牽制,是掌控技術、確保技術為人類服務的第一要義。
四、AI傳播技術與倫理良性關系的建立信心與策略
與AI傳播技術對人類影響的悲觀論點相反,有相當多的人認為人工智能反而能制造更多的就業機會,帶來對自己諸多利好。有數據顯示在中國持這一觀點的人數占到了65%。由數字傳播公司電通安吉斯(Dentsu Aegis Network)的數字社會指數所調查的10個國家2萬名被調查者報告顯示,高達四分之三的中國人對于數字技術及人工智能的發展對生活、工作的影響保持樂觀態度,遠遠高于全球四分之一的平均水平。電通安吉斯首席執行官Susana Tsui對此表示,其原因可能在于中國人對他們的教育系統的信任和樂觀。報告還強調,有68%的中國人認為他們接受的正規教育為他們提供了所需的技術技能和知識,能滿足數字社會發展的需求。[4]
如果把人工智能看做是迅速升級的工業自動化的加強版,只是增加了先進的文字、圖像、語音識別、互轉和播放技術,使得這些自動化產品越來越像“人”而已,那么人類對自動化的適應經歷的確足以使之持樂觀態度。無論是以往的冷兵器時代還是核戰爭時代,人類使用過牛、熊甚至是獅、虎等戰斗力數倍于自身的猛獸,發明了足夠毀滅地球多次的核彈頭,但人類都沒有被強大的“肌肉戰隊”“核戰隊”反噬,而是通曉、利用、控制了它們。因此只是在某些方面比人類“強大”并不足畏;而真正來自人工智能的“新挑戰”,是它能否自動升級、進化出敵對人類的“獨立意志”。
“解鈴還須系鈴人”。AI傳播技術與倫理的良性關系來自兩個方面的保障:一是來自AI頂層設計者的共識、自律以及有效監督和危機干預;二是對于AI應用技術執行者的強化教育、約束和控制。一言以蔽之就是確保AI人才的誠信、安全、可控及其監督獎懲體系的建設完善。阿莫西夫的“機器人學三大法則”成為AI界的金科玉律:“第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存?!憋@然阿西莫夫所向往的是人類“碳文明”與機器人“硅文明”的共存共生。之后為了避免AI防礙公正的法律對罪犯的懲罰行刑或者成為邪惡公司的利益私器等情形的發生,這個法則又被加上了機器人的“第零定律”:“機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立”。但是“人類的整體利益”這種籠統的概念,連人類自己都不甚了了,何況那些用0和1來想問題的機器人?電影《超能陸戰隊》中充當私人健康顧問的充氣機器人“大白”,程序設定的職能就是只要主人可以開心起來,那么它就會去做那件事??墒聦嵣纤鼘τ谧鍪裁纯梢宰屓碎_心的理解極其機械教條,自作主張的行動經常給主人制造困擾。因此,作為機器人基本法則就不適宜要求機器人為了一個抽象價值目標去執行一個自主決定的行為,也就是不要把機器人當作“大俠”“救世主”,不要強“人”所難。那么與其增加一條來彌補第一條的不完善,寧可直接修改第一條、刪除第一定律的后半部分,以減少、消除機器人自以為是的主動作為。這其實使得機器人的功能更加單純:執行開發者給它設定的內置程序賦予的職能就好,除非該職能違反高階原則;同時不擅自執行基于自主道德情感判斷上的職能。這看起來有些復雜,其實很簡單,與其對機器人有諸多要求,不如直接要求其設計師。那么AI設計師公約或許可以如此約定:
第一公約:機器人的程序設定必須遵循不得傷害人類個體的原則;
第二公約:機器人必須服從人的指令,當該指令與第一公約沖突時例外;
第三公約:高仿機器人必須在規定位置顯著標識“AI”。
第四公約:不得給機器人設定開發新代碼的功能,除非新代碼符合設計師公約。
第五公約:進行AI傳播技術措施保護的同時必須公示最新技術黑箱,以保證公眾知情權,防止或減少信息不對稱下的高科技犯罪對人類的傷害。
五、人工智能語境下的傳媒責任
先進的AI傳播技術是原有生產秩序的一個顛覆性因素,但它也可以在全球范圍內創造公平的競爭環境,使在任何地方開展業務成為可能。這在傳媒界就表現為新媒體異軍突起,打破了原有的新聞生產和傳播模式,媒介泛化、用戶為王,倒逼媒體的新聞專業主義整肅重構。
AI傳播技術導致大量涌現的公民記者,表現出技術化、草根化、個性化的時代特征,在智媒時代的各種媒介里活力四射,一定程度上顛覆了傳統的新聞專業主義內涵。而過去種種令業界傷腦筋的棘手的問題,在AI時代的到來中似可以迎刃而解。因此以人工智能為技術標志的智媒時代,使得新聞專業主義更加有能力也更加有必要興利除弊、生發新意。
然而媒介泛化的人機共生、萬物皆媒、自我進化等情形,又帶來了新的問題。傳媒實際從業者對于自身職業認知的不確定性和存在感焦慮也相伴相生。智媒體中,傳播權不僅已經完全被大眾所分享,眾多傳播主體在沒有職業意識或是職業態度參差不齊的情況下,“都有可能不受政治、意識形態、技術、文字和邏輯能力、經濟能力的嚴格限制,真正實現個人的表達自由和言論自由。”[5]任何一個人,甚至是機器人,都有可能在傳播領域激起水花,甚至掀起驚濤巨浪。偽原創、標題黨、算法控制、謠言信馬由韁等現象,這使得傳媒的真實性、準確性、專業性、權威性等飽受質疑。傳媒有責任保障、促進新技術的健康發展以解放生產力、提高生產效率,同時也必須承擔起報道新聞事實、尊重客觀價值、維護公眾知情權、倡導正義良知的正確輿論導向把關人職責。媒介從業者在意識上必須也應該以捍衛信息傳播的規范性、專業性和權威性為使命,在專業能力上也要具備與其傳播影響力相匹配的能力和操守,承擔起傳媒人必須恪守的價值規范和社會責任。傳媒有責任和義務教化社會大眾,同時更有責任和義務教化本行業從業者具有正確的職業理念和工作模式,并為之進行行業規范化建設、積極推進職業培訓教育等。正所謂“不教而殺謂之虐,不戒視成謂之暴”(孔子《論語·述而》),必要的教育和警戒不是自由的限制而是自由的保護。對此政府和專業學會等第三方機構的介入、治理也是十分必要和有力的作為。2003年成立的中國互聯網新聞信息服務工作委員會,新華網、人民網、新浪網、搜狐網等30多家機構共同簽署了《互聯網新聞信息服務自律公約》,對自覺接受管理和公眾監督、堅決抵制有害信息做出承諾,這就是政府、行業組織對網絡媒體“把關人”約束和引導的一種體現。
與此同時,運用先進的AI傳播技術也是當代傳媒把關人對媒介環境自我治理的有效手段。一些存有主觀惡意的個性化傳播畢竟是“公民記者”中的一小部分,感召更多用戶的主動參與意識,煥發大眾的多點信息判斷監督作用,是在AI傳播技術支持下完全可以實現的。如《紐約時報》利用人工智能管理評論區,設計各種探索和互動環節,通過智能技術運用呈現出傳感化與智能化特點,識別、篩除不良和惡意評論,打造智能化的優質內容管理平臺。用高新技術和規則設計來強化把關人角色意識和行為,這也是補充和完善智媒語境下新聞專業主義職業理念,更好地促進AI新技術與傳媒自身協同健康發展的有益途徑?;贏I傳播技術支撐的所有“網民記者”,都可以在新聞專業主義的感召和引導下成為滌清媒介環境、優化傳播質量的主力軍。智媒中的眾多受眾個體擁有足夠的知識、能力和意愿,或者掌握著第一手新聞信息,只要環境適宜,他們隨時可以轉化成為評論人把關人的角色,成為傳播鏈條和整體格局上的巨大能量。媒介對此力量不是害怕、桎梏,而是規范、引導,以實現AI新技術與倫理的真正和解、優化。
六、結語
新技術驅動理念下的媒體語境需要技術倫理與新聞倫理的深度解讀及雙邊關系重構。任何單邊順應,無非是勢力壓制與風險傾倒;只有建立在權重參照下的雙邊操作,才可致目標利益最大化,而這個權重參照原則,即有利于文明發展和生產力解放。人類必須看到AI傳播技術確實提高了生產效率和傳媒格局,一方面帶來各種倫理問題,另一方面也存在彌補現實局限、引領生產發展的潛力。AI傳播技術革命已經開啟,人類對此無從逃避只能盡力知悉并駕馭,才能避免成為新技術的奴隸或祭品,同時發揮人類思維優勢,糾正機器人思維方式的教條和誤區,填補新技術陷阱,從而彰顯媒體的話語合法性和文化權威性,促進人類信息傳播事業的良性持續發展。
注 釋:
[1]張洪忠,蘭朵,武沛潁.2019年智能傳播的八個研究領域分析 [EB/OL].中國知網,2020-04-07.
[2]郭爽.微軟聊天機器人為何會“學壞” [N].光明日報,2016-04-08.
[3]何懷宏.奇點臨近:福音還是噩耗——人工智能可能帶來的最大挑戰 [J].探索與爭鳴,2018,11.
[4]量子位.報告:中國人對AI的樂觀程度遠超其他國家[R/OL].搜狐網,2018-02-09.
[5]張文顯.法治與國家治理現代化 [J].中國法學,2014,4.
(作者系河北電視臺編輯、專家組成員,中國管理科學研究院文明學院執行院長)