【摘要】在傳統的傳播結構中,技術、機器均被視為用來完成傳播行為的工具或中介。基于人工智能越來越智能化和自主化的事實,傳統的“工具論”范式已不能形成對人工智能的全面觀照,人工智能倫理研究出現了“非人類中心主義”轉向,將人工智能視為“傳播主體”,并基于此考察人機互動關系。然而,相關研究未能完成“非人類中心主義”的視野轉換,在一些具體問題上仍存在“以人為中心”的思維定式,將人工智能打造成人類“副本”。然而,人工智能之于人類不是“副本”,而是具有相異性的“他者”。人工智能倫理研究應沿著“共在”的視域,發掘并尊重人工智能作為他者的“他性”,避免他者的相異性淪為主體的附庸。人機之間應嘗試建立一種獨立而健全的他異關系。
【關鍵詞】人工智能;傳播主體;傳播即共在;他者;他異關系
一、人工智能倫理研究的“非人類中心主義”轉向
近年來,人工智能(Artificial Intelligence,AI)的發展引起了社會各界的矚目。技術發展的不確定性帶來了新的問題和風險,尤其是奇點理論(Singularity Theory)的提出,引發了更多對人工智能倫理的關注,學界和業界都試圖為未來人工智能的發展奠定道德性根基。
鑒于目前人工智能技術在傳播場景中的深度應用,人工智能倫理在傳播學界也引發了廣泛關注。基于傳播學特定的學科視角,該領域的人工智能倫理研究更加關注人工智能在傳播過程中的角色定位、人工智能與人的傳播過程及其后果。其中,人工智能在傳播過程中的角色定位被認為是一個基礎性問題,對于這個問題的不同回答決定了我們如何看待人機傳播的過程及其影響。基于此,近年來傳播學領域的人工智能倫理研究基本分為“技術工具”和“傳播主體”兩種取向。
(一)“技術工具”視野下的人工智能倫理研究
較早的相關研究對智能傳播倫理的考察,集中于人工智能技術在參與信息的采集、生產、分發以及核查過程中,可能引發的公眾社會認知、價值判斷、行為決策方面的問題以及社會權力問題,主要包括以下三個方面。
首先,人工智能技術的可信度。具體包括:智能算法的不確定數據導致不正確的行動,誤導性的數據導致偏見,不公正的結果導致歧視,算法在數據抓取以及分發過程中對信息隱私的挑戰。
其次,人工智能技術的透明度。智能技術本身的不透明性和技術商業化一起,將信息線索發掘、信息文本生產、信息分發渠道等諸多流程推向了“黑箱”——信息生產的幕后的幕后,致使普通公眾對信息的真實度、可信度難以判斷[1]。
最后,人工智能技術對信息環境多樣性的挑戰。基于用戶興趣偏好和個人特征的個性化推薦算法被廣泛應用,引發學者對信息環境多樣性的擔憂。研究認為,推送算法具有將信息個人化的技術傾向,窄化用戶信息獲取的范圍,形成“過濾氣泡”或“信息繭房”,由此可能帶來偏見與歧視的強化、政治環境極化、公共辯論削弱等社會公共領域危機[2]。
總體上,上述研究將人工智能視為信息傳遞過程中的高效輔助工具,以替代和輔助人類在傳播活動中的部分工作。但由于機器與人類對信息不同的處理邏輯,倫理問題就此產生。相關研究通過優化算法邏輯、加強人類對于人工智能技術監管的方式來尋求解決方案。
(二)“傳播主體”視野下的人工智能倫理研究
當前,隨著數據的爆發式增長、深度學習算法的迭代和人類的決策讓渡,機器從被動工具向能動體轉變,發展出不需要人類介入的“感知—思考—行動”自主能力。傳播不僅是信息的傳遞和接受過程,更是符號化的互動過程。技術的演進讓人工智能體與人類的符號交流能力突飛猛進。基于這樣的現狀,越來越多的研究提出,人工智能應被視為“傳播主體”而非中介工具。顯然,這一觀點挑戰了傳播研究的邊界,提出傳播不再是為人類所獨享的過程和經驗。從這樣的視野出發,這類研究的議題主要集中在以下幾個方面。
首先,傳播主體的遷移。當前的傳播環境中,機器的自主性、智能化、情感化被重新審視。早在2006年露西爾·蘇奇曼就提出用“人機傳播”來指代真實人類與智能體之間的傳播交流活動。[3]2016年,國際傳播學會(ICA)第一次正式承認了“人機傳播”這個領域。這一領域隨著人工智能形態的發展衍生出“人類—人工智能交互”的范式,許多研究對于傳播的考察開始突破人類中心主義的邊界,將智能體作為一個“傳播者”,探討人與智能技術的交互。
其次,人機關系的建構。如果機器是傳播者,那么人類是否有可能與這樣的傳播者建立互動關系,又如何建立和諧的互動關系?多數研究認為,讓智能體模仿人類的行為模式是實現人機和諧共處的有效路徑。為了使人類更好地接納這一全新的交流對象,嵌入人類社會的智能體正在扮演傳統意義上人類的角色[4],智能體的擬人化趨勢促進了人與機器之間的交流溝通,并進一步在人機之間建立社會關系[5]。
最后,人機之間的本體邊界沖擊。智能體的擬人化趨勢同時也引發了部分研究關于人機本體邊界混淆的擔憂:一方面,機器越來越像人。例如社交機器人,其算法設計以人類交流數據為訓練語料,在與人類交往中越來越接近真實人類的交流模式。另一方面,人也越來越像機器。人們在變革媒介技術的同時也被懸置于媒介技術營建的環境之中,其觀念和行為不可避免地受到了人類自身創造的媒介化環境的影響,受到來自媒介技術的“反向馴化”。“人機互訓”的機制下,人與計算機的主體界限日益模糊,由此引發了人類的“主體性危機”,例如智能體對人類工作的替代和人類權力的爭奪。
上述研究承認人工智能“傳播主體”的身份,在傳播過程中,機器扮演了過去由人類承擔的社會角色,并基于不同的角色與人類建立交往關系。這類研究近年來不斷涌現,不少學者認為,目前有關人工智能倫理的研究已經完成了“非人類中心主義”的轉向[6]。
二、未完成的“非人類中心主義”轉向
在傳統的傳播結構中,技術被視為用來完成傳播行為的工具或中介,傳播理論當然“以人為中心”。但基于人工智能技術日益自主化的事實,研究者們已經意識到傳統的“工具論”范式并不能形成對人工智能的全面觀照。于是,越來越多的研究開始跳出人類中心主義的既定視野,用更為開放的思維去思考智能機器的定位以及人與機器的關系。
將人工智能視為傳播者,是邁向“非人類中心主義”的重要一步,但本文并不認為目前的研究已經完成了“非人類中心主義”的視野轉換,在一些具體問題上依然能看到“以人為中心”的思維定式:在進一步定義“作為傳播者的人工智能的行為模式”,以及回答“作為傳播者的人工智能如何與人類和諧共存”這樣的問題時,多數研究對于人工智能這個全新傳播者的想象依然以“人”為樣本——大部分研究仍然以人類的交流和行為模式為標準來衡量人工智能是否是一個“合格”的傳播者,以及能否與人類和諧共存。
以“人”為樣本去想象作為傳播者的人工智能,是一個無須多加思索的方向,似乎也符合人工智能的設計初衷。1950年,著名的“圖靈測試”將智能的標準定義為能與人類正常溝通而不被發現。多數研究認為,這意味著設計者從一開始就將計算機的演進方向指向了“擬人”。不能忽略的事實是,在智能技術研發初期,機器的擬人程度尚未發展至威脅人類控制權的水平。在這樣的背景下,人們對機器擬人化的演化方向充滿期待,相關研究也將“擬人化”作為人機信任與和諧互動的前提條件。
近年來,機器的擬人化水平達到了令人驚嘆的程度。與技術發展初期的預想不同的是,人們對擬人化機器的態度發生了明顯轉變。機器人設計領域的“恐怖谷效應”描述了當人類看到類人物體時的反應:人類對非人之物的喜愛程度隨著后者的外形擬人程度先增加而后驟降,而且對會移動的非人之物具有更加劇烈的喜愛程度起伏。[7]隨著技術的演進,“恐怖谷效應”已經不局限于機器人的外表層面,在語言層面、行為模式層面,機器人的“高擬人度”均能引發人類的恐懼心理。因此,對抗式的人機關系在近年來獲得了更多關注,相關研究已經證明“恐怖谷效應”真正產生影響的地方在于現代人類如何與機器人互動,這種影響會改變人類對類人機器人的信任度和看法[8]。如此,以“人”為樣本的人工智能想象帶來了兩種相互矛盾的結果:一類研究認為“擬人化”促使人類對人工智能產生信任并與之建立良好的互動關系,且擬人化程度與信任度、關系和諧程度成正比。另一類研究者則看到了“高擬人度”引發的人類“主體性恐慌”,并證明了這樣的恐慌對人機互動的負面影響。面對這樣的矛盾,解決辦法似乎只有摸索出一條分界線或一個臨界值——人工智能的擬人化達到何種程度時,既能激發互動又不至于引起人類的抵觸?
這樣精細而微妙的臨界值真的存在嗎?首先,機器的擬人化方向十分多元,涉及外表、語言、肢體行為等多個層面,如果將機器代入具體的人類社會角色,其擬人化路徑就更為復雜,涉及性別、職業等社會建構層面。其次,人類個體對擬人化的接受程度除了與技術有關,也與人類自身的審美偏好、技術素養以及所處的文化環境等因素有關。要找到這個臨界值,本研究對此并不樂觀。盡管都采用人機傳播這一研究范式,將人工智能視為傳播者,但相關研究在一些關鍵問題上還遠未達成共識,其結論甚至相互排斥和矛盾。本文認為,這種矛盾一定程度上也與不徹底的視野轉換有關:上述研究的底層邏輯依然是“人類中心主義”的倫理取向,我們似乎無法想象除“人”以外的傳播者的樣貌。
三、“共在”視域下的人機傳播倫理取向
本文認為,要解決人機傳播中人工智能“擬人化”的兩難困境,在研究中采取更徹底的“非人類中心主義”視角是一條可行的路徑。這意味著在研究中不僅將人工智能視為傳播者,而且需要更進一步,不以“人”為樣本來想象或衡量人工智能的傳播行為,允許并重視人工智能與人類的差異,從而在“擬人化”這個單一路徑之外探索人機傳播更為豐富的樣態和可能。換言之,人工智能與人的“差異性”比“同一性”更有價值,甚至是人機關系可持續的重要條件。
(一)人機差異:“機器像機器一樣思考”
如果回到人工智能設計的起點,可以發現機器的“擬人化”并非人工智能進化的唯一路徑,人工智能之父阿蘭·圖靈從一開始就強調了人機差異。與人的“差異”是圖靈在定義所謂人工智能本質時非常重視的品質,甚至早在《計算機與智能》這篇奠基性的論文中,他就排除了生產智能機器人的可能性。他闡述道:“我希望并相信,人們不會用大量的精力來制造極像人卻沒有智能特征的機器,比如形體上像人體的機器。”和人體同形的情感也應該在禁止之列。他試圖證明,機器和人的行為模式是沒有必然聯系的:“我們不會因為機器不能在選美比賽中大放異彩而懲罰機器,也不會因為人和飛機賽跑敗下陣來就懲罰人。”[9]我們允許人有千差萬別,自然也不能否認這些由銅、電線和鐵構成的大腦。客觀事實上,機器和人是必然不同的。因此,允許“機器就像機器”更符合人工智能的設計初衷。
如果智能機器表現得不像人,那么人類是否可能與之產生互動?答案是肯定的。在對媒體與行為規范、媒體與人格特性、媒體與情感、媒體與社會角色以及媒體與外在形態等各個方面展開多項研究之后,巴倫·李維斯和克利夫·納斯兩位學者提出了“媒體等同”理論,即媒體等同于真實生命,人們會把人工機器作為社會角色來對待[10]。在此之后,李維斯和納斯提出了“計算機作為社交對象”的范式(Computers Are Social Actor sparadigm,CASA),并影響了許坤等學者在該領域的研究,他和馬修·隆巴德在2016年提出“媒體作為社交對象”的范式:每一種人造技術都至少具有一些激發人類社交反應的潛力,社交線索及它們與個人因素、環境因素的組合會導致人把媒體當作社交對象[11]。
上述理論將目光從審視技術的發展水平轉向審視人類心智,認為技術在傳播過程中的角色不僅取決于其本身的發展狀態,很大程度上也取決于參與互動的人們如何看待它們。實際上,每個人或多或少地具有把媒體當作社交對象的趨勢。因此,當機器就只是機器時,依然可以引發人類的互動反應。
(二)“他者”而非“副本”:以差異為前提的人機互動
人類社會中的人工智能應是什么樣的角色?在以“人”為樣本的人工智能想象中,人工智能更像是人類社會角色的“副本”,如此一來,人機互動只需要重復和模擬人際互動的常見過程。這一模式似乎能夠消除人類對于新事物的抵觸,讓人工智能更好地融入人類社會。但實際上,這些機器“副本”卻在近幾年引發了越來越多的擔憂,比如社交替代、職業替代等。以聊天機器人為例,這些硅基“副本”擁有超強的信息處理能力和不知疲倦的“身體”,對人類來說它們是有問必答、24小時在線、絕對以用戶為中心的“完美社交對象”。且隨著互動的深入,社交機器人對用戶的了解也與日俱增。人們一邊享受著這種量身定制的互動體驗,一邊卻又擔心這種“完美社交”是一個陷阱,讓自己越來越無法“忍受”與真實的人類相處。而對人工智能職業替代的擔憂,從AlphaGo擊敗人類頂尖棋手的那一刻便開始醞釀了。
如果我們更加重視人工智能與人的差異,而非執著于消除這些差異,上述擔憂或許就能大大緩解。人工智能之于我們不是更好或更差的“副本”,而是“他者”,與“我”不同的“他者”。參照馬丁·布伯的定義,他者“是非‘我’之物,肯定不與我相類,明顯的是他者”[12]。他者以其“他性”(與主體的不同規定性)或“相異性”成為在“我”之外并異于“我”的存在者。現代哲學提出的“他者”概念本身便蘊含著對差異性、外在性的強調。
本文認為,將人工智能視為“他者”,對于消除或至少緩解當前人類普遍的“主體性危機”是必要的。人類對機器“副本”的憂慮,反射出的依然是人類對于自身主體性的質疑。主體性的問題就是“我是誰”或“我們是誰”的問題,人們依靠占據世界中的一個獨一無二的位置來確證自己的主體性。若這個位置是可以被機器取代的,那么人類的位置又該在哪里?而“他者”不同,他者以“相異性”為必要條件,若追求與主體的“同一性”,他者便不復為他者。因此,他者意味著多元而非替代。
(三)“共在”的視域:人機“他異關系”
差異并不意味著對立,也并非傳播的阻礙,相反,傳播需要差異,需要他者。
社會如何形成,社會又如何存在,是傳播的母題。格奧爾格·齊美爾認為,不是諸多人類個體集聚在一起就會構成社會。社會之形成,必須由諸多人類個體彼此之間產生相互關系[13]。而“關系”正是傳播的產物,同時“關系”之于社會又具有如此基礎性的意義,因此在杜威看來,“社會因傳播而存在,并且就存在于傳播之中”。而布伯認為,真正的關系呼喚“他者”的存在。
首先,沒有“他者”,“我”無以為“我”。布伯認為,一切存在總是處在關系之中,沒有任何主客體可以獨立存在,關系就是本體。現實的人只能存在于與他者的相關性之中,并在此關系中力圖獲得存在的真實性。符號互動論的核心論點與之類似:自我并不能先于他人產生,只有當他人的存在進入自我的經驗時,自我才能產生自己的經驗,自我只有在與他人的交流中才能產生社會的意義。
其次,沒有他者,“關系”也無以為“關系”。布伯將關系分為“我—你”關系和“我—它”關系,并將主客二分世界觀之下的關系歸結為“我—它”關系,一切相對于主體的客體—主體所能認知、操作、利用之對象,都是“它”。然而布伯強調“我—它”關系并不是真正的關系。人與他者的關系即“我—你”關系,才是世界的本真形態。他者并非相對于“我”的客體,而是與“我”共在的主體。他者并不存在于對象性的認識與工具性的利用關系之中,我們必須承認和尊重他者與“我”的差異,即布伯所強調的“相異性”,放棄自我對他者的“占有”,否則他者就會淪為“它”,真正的關系也就不復存在。
布伯說:“人類世界之特征首先就是:某事是發生在此存在與另一存在之間……它扎根于一個轉向另一特殊存在的存在者,以與另一個存在在一個二者所共有但又超出各自特殊范圍的領域相交流。我把這一領域稱為‘之間’(between)的領域。”[14]“之間”的領域就是“共在”的領域,具有各自特殊性的存在者使得這一“共在”呈現為多樣性的面貌。布伯以“共在”作為人之在世的本質結構,這就要求人始終以“共在”的視域,發現他者,承認他者。如此,我們才能進入真正的關系。在關系的意義上,我們可以說,傳播即“共在”。
布伯所討論的雖是人與人的范疇,當這個范疇擴大到人與世間萬物時,當我們試圖與其他存在者構建真正和諧的關系時,以“共在”的視域關照他者,正視且尊重“他性”,依然是不變的準則。本文認為,對于人機關系及其倫理問題的研究,應采納人機“共在”的基本視野。在這樣的視域下,人機之間應建立怎樣的關系?唐·伊德將人與技術的關系分成三類:第一類是具身關系,技術成為我們身體的一部分,以至于我們不會注意到它。比如近視者佩戴的眼鏡,已然成為使用者身體的一部分。第二類是詮釋關系,技術介于人與世界之間,成為我們觀察世界、理解世界、進而操縱世界的工具,屬于布伯所描述的“我—它”關系。最后一類是他異關系,技術作為他者與我們相遇,也即“共在”視域下的“我—你”關系。[15]
在本文看來,他異關系是人機關系的理想形態:在與人類的互動中,人工智能不只是“一樣東西”,也并非人類角色的“副本”,而是一個可以與我們發生關系的他者。這樣的關系,并沒有暗示一個自我的互惠關系,也并不執著于超越差異的同一性。如同我們無須將自我投射在其他類型的他者身上一樣,我們也無須將智能機器具化在我們的認知里,智能機器只是不同于我們每個個體的他者,與人類的他者無異。
四、結語
傳統哲學的弊病是過度追求思想與存在的“同一”,以自我“占有”他者。這樣的思想脈絡長久潛伏于人們的認知中,以至于當人工智能以一種全新的傳播者之姿崛起時,我們依然無法擺脫“人類中心主義”的思維定式,試圖用技術的手段不斷縮小和弱化人機之間的差異,將人工智能打造成人類的“副本”。
唯我論哲學與主客二元的認知模式所導向的工具理性,造成了一系列現代性危機。同樣的,這一根深蒂固的認知也已在人機關系中,引發了人類自身的“主體性危機”。為了解決這一弊病,現代哲學開始從主體性哲學轉向主體間性哲學,最重要的轉向就是“發現他者”。布伯的“關系哲學”既提供了“共在”的視域,又突出了“他者”之維,將理想的在世結構描述為“共他者之在”。沿著“共在”的視域,我們應更加珍視人工智能作為他者的“他性”,避免他者的相異性淪為主體的附庸,同時才能避免主體自身的異化。人機之間應嘗試建立一種獨立而健全的“他異關系”。
彼得斯感嘆交流的無奈時,就已發出了忠告:“與我們分享這個世界的一切生靈都具有美好的他者特性,不必悲嘆我們無力去發掘他們的內心世界。我們的任務是去認識這些生靈的他者特性,而不是按照我們的喜好和形象去改造他們。”[16]從自我的角度來分析和衡量他者,便不能發現真正的“他者”。面對正在崛起的“硅基生命”,跳出“人類中心主義”的桎梏,允許并尊重“差異”的存在,或許更加有助于構建人機和諧“共在”的前景。
[本文為上海大學“智能傳播與老齡社會治理”重點創新團隊項目的階段性成果;2024年度上海市哲學社會科學規劃課題青年項目“超大城市老齡群體數字融入困境與社區空間治理研究”(項目編號:2024EXW002)的研究成果]
參考文獻:
[1]仇筠茜,陳昌鳳.黑箱:人工智能技術與新聞生產格局嬗變[J].新聞界,2018(1):28-34.
[2]陳昌鳳,仇筠茜.“信息繭房”在西方:似是而非的概念與算法的“破繭”求解[J].新聞大學,2020(1):1-14+124.
[3]Suchman,L.Human-Machine Reconfigurations:Plans and Situated Actions[M].Cambridge,MA:Cambridge University Press,2006:125.
[4]孫偉平.智能機器人的主體地位、權利、責任和義務問題[J].華東師范大學學報(哲學社會科學版),2024,56(1):1-8+175.
[5]劉力銘.人機共生中的擬人化:概念溯源、譜系重建與議題拓展[J].新聞與傳播評論,2024,77(2):82-92.
[6]李恒威,王昊晟.后人類社會圖景與人工智能[J].華東師范大學學報(哲學社會科學版),2020,52(05):80-89+185-186.
[7]Mathur M B,Reichling D B.Navigating a Social World with Robot Partners:A Quantitative Cartography of the Uncanny Valley[J].Cognition,2016,146:22-32.
[8]Kugler L.Crossing the Uncanny Valley The “Uncanny Valley Effect” May Be Holding Back the Field of Robotics[J].Communications of the ACM,2022.
[9]Turing A M.Computing Machinery and Intelligence[J].Mind,1950,59(236):433-460.
[10]Reeves B,Nass C.The Media Equation:How People Treat Computers,Television,and New Media Like Real People and Places[M].Stanford,CA:CSLI,1996.
[11]Xu K,Lombard M.Media are Social Actors: Expanding the CASA Paradigm in the 21st Century[C]//The 2016 International Communication Association.2016.
[12]馬丁·布伯.人與人[M].張健,韋海英,譯.北京:作家出版社,1992:36.
[13]格奧爾格·齊美爾.社會是如何可能的[M].林遠榮,譯.桂林:廣西師范大學出版社,2002.
[14]馬丁·布伯.人與人[M].張健,韋海英,譯.北京:作家出版社,1992:275.
[15]Ihde D.Technology and the Lifeworld[M].Bloomington,MN:Indiana Uni?versity Press,1990.
[16]約翰·彼得斯.對空言說[M].鄧建國,譯.上海:上海譯文出版社,2016:47.
作者簡介:周怡靚,上海大學新聞傳播學院助理研究員、博士后(上海 200444)。
編校:趙 亮