【摘" "要】人工智能催生社交聊天機器人出現,作為“新型伙伴關系”的社交聊天機器人,在與人交流、滿足其情緒需求時產生了一系列倫理問題,造成用戶的單向情感依賴和孤獨感加重,其欺騙性的對話也導致用戶的自我迷失和偏見加強,利用社交聊天機器人進行虛假傳播并重構意見氣候,另外對于是否賦予社交聊天機器人獨立人格也是倫理爭議所在。這些倫理問題的出現,不僅需要利用算法和制度來進行事先規約和事后補救,也需要提升社交機器人素養,去構建人機和諧共生氛圍,促進社交聊天機器人產業的發展。
【關鍵詞】社交機器人;媒介倫理;人機互動;倫理規制
一、社交聊天機器人的定位
2022年由OpenAI公司推出的聊天機器人ChatGPT爆火于網絡,使得社交聊天機器人受到人們的廣泛關注,同時,各媒體客戶端以及商家不斷研發投入使用的“服務型”對話機器人也顯示出智能社交機器人正在不斷“飛入尋常百姓家”。社交機器人是人工智能產物,依托于其背后的計算機程序,根據算法針對用戶的輸入將事先設定的語料庫進行組合排序并輸出。社交機器人最初設計之時旨在與用戶進行交流,由此產生互動進而實現陪伴和緩解情緒壓力的目的。1999年索尼首次推出的機器人“愛寶”,它作為一個可以觸摸和能夠互動的寵物,被設計成娛樂伙伴。[1]在此之后,社交機器人的研發和使用范圍不斷拓展,如:在心理治療中用于陪伴自閉癥患者;在療養院中用于照顧老人起居生活;在辦公大廳中承擔處理業務的信息服務工作。
這類社交機器人具有類似于人或者寵物的實體形態,有面部表情和人類情感,在不斷互動中人類與機器人建立起親密關系,將社交機器人視為“寵物”或者“朋友”。這種“新型伙伴關系”的產生一方面在于機器人實體的存在,讓人產生“對待他人的感覺”,同時這種“擬人化”使人類產生尋求同伴的傾向;另一方面,人類和機器人分享情感時,會通過“移情”來認識自我與他人。“移情”作為一個社會心理學概念,指“對陌生主體及其體驗行為的經驗”。[2]移情作為一種心理活動,在我們與他人的交流中,能夠進行自我理解,并且產生共情心理。“理解他者行動的原因需要運用我們的移情能力,在自己的頭腦中重現想法,并富有想象力地理解他人的觀點”。[3]社交機器人的出現,衍生出“人工移情(Artificial Empathy)”的概念,用于描述人類與機器人之間的情感交互。我們基于“擬人”外貌以及個體交流認同感的建立,和社交機器人產生類似于“伙伴”的感覺。而在社交機器人的模型開發中,情感模型是較難建立的,因此人類對他人產生的移情效果是否能夠完全適用于機器人,還有待更多探索。
本文不探討實體社交機器人,更多關注在社交網絡中模擬人類用戶建立社交賬號、能夠自主運行并自行生產發布內容的算法智能體。這類社交機器人也可以叫作聊天網友或線上智能客服,[4]不同于實體機器人,它們以計算機程序或虛擬形象在網絡中與人類進行互動。這類社交機器人因為編程開發定位上的不同,有類似于“小愛同學”“Siri”這類智能手機助手的功能類機器人,也有類似于企業智能客服的服務類機器人,還有類似于“微軟小冰”與人對話交談的聊天類機器人。本文的主要研究對象是聊天類的社交聊天機器人。
二、社交聊天機器人社會交流的異化
20世紀90年代,斯坦福大學的巴倫·李維斯和克利夫·納斯提出“媒介等同理論”,即將媒介等同于真實的生命,人們會把計算機和其他人工智能機器當作社會角色來對待,原因在于人類大腦尚未進化到能在潛意識里識別人類和機器人的區別,人類會情不自禁地對機器做出社交反應。[5]尤其是在人工智能飛速發展的當下,社交機器人逐漸“擬人化”,其圖像與語言處理能力的快速提升,能夠模仿人類的交流習慣進行對話,還能對人類情感進行程序化計算,模擬人類的情感表達方式,讓對話者覺得如同和“真人”交流一樣,在長期對話的情況下可能會與機器人產生情感聯結。有研究者提出,人類會對手機產生情感聯結,個體逐漸對手機和另一端的親密關系對象產生混淆、合二為一,將手機擬人化,視手機為親密關系對象的能動實體代理。[6]
與社交聊天機器人建立情感聯結,背后是技術與算法的支撐,包括大量對話數據的輸入,復雜情感模型的建立等,讓社交聊天機器人能夠快速識別并輸出擬人化語言,人類對機器人的排斥與隔離感逐漸減少。如同1970年日本機器人專家森弘昌提出的“恐怖谷效應”:在機器人與人類的相似度達到一個特定程度時,人類會對機器人產生負面情緒和反感,哪怕機器人呈現出與人類些微的差別,都會使得人類對機器人產生僵硬恐怖的感覺;但是當機器人與人類的相似程度逐漸上升,人類對他們的情感反應會回歸正面,產生人類與人類之間的移情作用。在如今新媒體發達并且交流方式便捷的今天,人類仍然會頻繁地進行人機交流,學者彭蘭提出這是基于“場景性、補償性、可控性、定向性、投射性、治療性”等交流的需要。[7]人機交流可以作為人際傳播的補充,同時能夠讓使用者把對話方向完全控制在自我手中,這種交流的成本低,使用者可以隨時中斷對話,而不需要擔心后續情況的發生。
社交聊天機器人在智能技術的加持下,由過去的交流工具轉變為如今的傳播者,成為“擬人化”的主體,人類將聊天機器人當作“社會伙伴”,并與之建立親密關系,這種錯覺和將其視為平等聊天對象的現象對人類價值觀念產生沖擊。
三、社交聊天機器人帶來的倫理問題
(一)單向情感依賴,試圖擺脫孤獨反而更孤獨
由于城市化進程的發展,社交不足加重了個體的孤獨感。而社交聊天機器人的出現,能夠為用戶提供對話服務,滿足其交流的需要,可以充當聆聽者。不斷豐富的語料庫和對話模型讓聊天機器人能主動與用戶溝通,它能夠跨越時空陪伴用戶,不斷緩解用戶的不安和孤獨感。
但如“媒介等同理論”所提及的,用戶會在交流中模糊了社交聊天機器人的身份,不斷地沉溺在這種為緩解孤獨而產生的虛幻關系中,可能會加重用戶對現實的逃避感。同時,相較于人類情感的豐富性,機器人因其情感模型的局限性難以滿足用戶的情感需求,而人類可能會對社交聊天機器人的回答不斷進行自我解讀,如此不對等的交流使得人類對社交聊天機器人產生單向的情感依賴,原本是為緩解孤獨感,卻進一步加深了用戶的孤獨感。學者韓秀等人的研究表明,用戶與社交聊天機器人的準社會交往程度越高,就越會對社交聊天機器人產生媒介依賴,而這種媒介依賴會加深用戶的孤獨感。[8]
(二)欺騙性對話,衍生自我迷失與性格偏差
社交聊天機器人利用設定的程序滿足人類的情感需求,在與人類對話中的情緒表達,是具有一定欺騙性的,它并不是機器人在聆聽我們的話語之后“發自內心的回答”。社交聊天機器人從過去只是單純地提供對話服務,到現在可以提供個性化的定制服務,意味著它的模型是符合用戶的情感需求的,這種定制化可能會讓用戶加大對聊天機器人的情感投入,與其建立深度情感聯結。由此,聊天機器人為用戶營造了“擬態環境”,讓用戶在虛幻情感和現實環境之間搖擺,從而陷入自我迷失中。尤其是用于陪伴老人和小孩的社交聊天機器人,它們的現實情感需求被社交聊天機器人所替代,比常人更渴望陪伴的心理被社交聊天機器人具有欺騙性的話語所迷惑,從而陷入一種不真實的交往情境中。
作為執行程序指令的社交聊天機器人,所有行為都應“以用戶為中心”,而這種行為也會對用戶的性格偏向性進行強化。社交聊天機器人只會按照既定程序對話,不會對用戶的話語加以判斷,這使用戶可以肆無忌憚地對其宣泄情緒,也激發了用戶情緒中的不穩定因素。在人機交流中,目前來看人類占據主導地位,用戶對機器人的需求旨在獲得自我情感方面的滿足,帶來的后果是不斷強化了用戶的思維慣性,甚至強化了用戶的攻擊性、偏見等。
(三)重構意見氣候,助長不良內容散播
2022年北京冬奧會舉辦前后,“推特”上出現了大量煽動所謂“外交抵制”的社交機器人賬號,大部分來自美國、日本和加拿大,這些社交機器人不斷在平臺上發布抹黑中國的推文。
利用社交聊天機器人來模擬人類賬號,并模仿人類發言,讓普通用戶誤以為是真實的人類。這些錯誤言論涌入網絡輿論場域,干擾用戶的判斷并重構意見氣候,影響用戶的認知判斷和行為邏輯。更嚴重的情形在于社交聊天機器人對人類的模仿,讓線上用戶無法有效察覺,進而主動參與虛假信息的傳播,導致不良內容的散播。
(四)“電子人格”的提出,聊天機器人主體性建構爭議
2017年3月,歐洲議會法律事務委員會發布的有關機器人的報告中提出一個觀點:認為應該發展出一種適用于機器人和超級人工智能的“電子人格”模式,由此來保障未來或許會出現的“類人機器人”。[9]換言之,“電子人格”承認作為機器人的主體性,使其成為和人類平等的對話方。社交聊天機器人作為技術的產物,有真實的賬號,能夠根據算法發布內容,還能生成真人照片,塑造真實并具有個性特點的用戶形象,會讓人產生“類人”的錯覺。
在網絡世界中,社交聊天機器人被看作是和人一樣的用戶,改變了過去以人為中心的倫理道德觀念,倘若承認社交機器人的人格權,那么社交聊天機器人是否會作為道德主體承擔責任?在引發倫理爭議時,責任方是設計者還是機器人?這些問題在當下仍需要討論。同時,社交機器人是否真正擁有與人類同等的社會地位與倫理權利,也是研究社交聊天機器人要關注的問題。
四、社交聊天機器人的倫理問題規制策略
(一)倫理規則植入,形塑底層邏輯支撐推演
社交聊天機器人的對話模型是利用大數據計算生成具體的對話模型,在對社交聊天機器人進行倫理制約時,可以在社交聊天機器人的算法中植入倫理規則與道德觀念。這樣當社交聊天機器人在交流中遇到倫理問題時,便會觸發相關模型,對用戶進行引導。
但是現實情況復雜多變,并不是所有的倫理道德問題都能被模型覆蓋,一方面是程序設計者要不斷進行更新,將新問題進行提煉并加入到機器人的算法和語料庫中;另一方面要構建人類認可的底層邏輯,讓算法可以進行自主推演,不斷提升社交聊天機器人處理倫理問題的支撐力。
(二)合理制度引導,事先規約加事后補救
在社交聊天機器人發展過程中,制定法律制度以及進行機器和算法審查必不可少。對社交聊天機器人的設計、研發以及維護的全流程,可以設立“道德倫理委員會”進行全程監督,并用一系列制度對相關主體進行引導。強化研發人員以及相關團隊的社會責任感和倫理道德感,用事先規約的方式強化主體的倫理責任,以防患于未然。
當發現諸如社交聊天機器人被利用和操縱或對用戶進行偏見強化和情感欺騙等行為時,需要確定責任主體及時進行程序修改,或者對社交聊天機器人作下架處理,同時要疏導用戶情緒,健全事后補救機制。
(三)機器人素養提升,創建和諧共生氛圍
施穆克和西科爾斯基在媒介素養理論的基礎之上提出了“社交機器人素養”的概念,將其界定為個體對社交機器人正確認識、評價、互動,并對這一過程進行反思的意識、態度和能力。[10]對社交機器人倫理問題的規避,關鍵是把握好社交機器人背后的行動主體。“社交機器人素養”重點應放在使用者素養的建立和提升上,提高用戶對于社交聊天機器人的認知水平。在當前社交聊天機器人快速發展的環境下,人們應及時調整對社交聊天機器人的觀念,避免出現單向依賴的傾向。
人工智能時代,與智能機器共處將成為一種常見的社會現象,這有別于過去以人為中心的傳播模式。作為具有主體性的人類,不能過于關注權力的分配和占有,卻忽略全新的互動關系,人機共生需要全新的倫理觀。[11]人們在保持自主性的同時,接受社交機器人以及智能機器存在的現實。
五、結語
社交聊天機器人是人工智能產物,它因我們的交流和情感寄托需要而誕生,我們在使用它時,要清晰認識其帶來的倫理風險,用一系列倫理規約將社交聊天機器人的使用引向正確軌道,并學會與之相融共生。同時在人工智能快速發展的背景下,真正地將機器人倫理問題引入以人類為中心的倫理架構中,建立人機共存的倫理機制,這個問題也需要在未來進一步探索。
注釋:
[1]雪莉·特克爾.群體性孤獨[M].周奎,劉菁荊 譯.杭州:浙江人民出版社,2018:60.
[2]張浩軍.施泰因論移情的本質[J].世界哲學,2013(02).
[3]Steuber,Karsten.Empathy,Mental Dispositions,and the Ph-
ysicalist Challenge[A]/ /Gregor Damschen,Karsten Stueber(eds.).
Debating Dispositions: Issues in Metaphysics,Epistemology,and Philosophy of Mind[C].Berlin: DeGruyter,2009.
[4]高山冰,汪婧.智能傳播時代社交機器人的興起、挑戰與反思[J].現代傳播(中國傳媒大學學報),2020,42(11):8-11+18.
[5]Reeves B.Nass C.(2003). The media equation:How people treat computers, television, and new media like real people and places.CA, U.S.:CSLI Publications.
[6]劉德寰,及桐.從傳播中介到情感對象:個體與手機的情感聯結與形成機制[J].湖南師范大學社會科學學報,2021(02):126-134.
[7]彭蘭.人機傳播與交流的未來[J].湖南師范大學社會科學報,2022,51(05):12-22.
[8]韓秀,張洪忠,何康等.媒介依賴的遮掩效應:用戶與社交機器人的準社會交往程度越高越感到孤獨嗎?[J].國際新聞界,2021,43(09):25-48.
[9]藍江.人工智能與倫理挑戰[J].社會科學戰線,2018(01):41-46+281.
[10]Schmuck,D.,von Sikorski,C.“Perceived Threats from Social Bots:The Media's Role in Supporting Literacy,”Computers in Human Behavior,vol.113,2020.
[11]陳昌鳳.人機何以共生:傳播的結構性變革與滯后的倫理觀[J].新聞與寫作,2022(10):5-16.
(作者:寧夏大學新聞與傳播專碩研究生)
責編:姚少寶