

摘 要:本文基于哈貝馬斯的交往行為理論,從語言和行為維度分析了ChatGPT如何形成以及形成了何種可能的人機交往。ChatGPT的語言能力將人機對話的技術實踐從基于規則和框架的模式應答轉向了靠近自然語言和人類交往的話語往來。在語言維度上,ChatGPT形成了提供事實、調節關系與自我聲明的語言,體現出堅持公共價值、正式語言和真誠表達的交往意愿,但面臨著真實性局限、規范性偏誤和“自我限制”的問題。在基于語言的交往行為維度上,ChatGPT形成了兼具歷史和社會背景的對話性,產生了內容的生產與傳播創新,推動了人機交往算法規范的變革和“不確定性對話”下人機協作方式的重構。本文提出,未來的人機交往將形成人機異質主體間性、人機交往理性和對人的有限性的超越?;贑hatGPT發展下的人機交往現實和未來,未來的人機傳播研究可以探索機器與人類之間基于對稱的語言能力所形成的交往關系,探究人機交往活動如何形塑和建構人機共生社會。這不僅延續了傳播學詮釋和批判學派的思想資源,使人機傳播研究跳出對人機交互路徑的依賴,而且厘清了機器與人類建立主體間性的過程,回應了對機器如何作為傳播主體這一問題的爭議。
關鍵詞:人機交往;人機傳播;交往理性;異質主體間性;人的有限性
中圖分類號:G206文獻標識碼:A文章編號:2096-8418(2023)04-0013-11
眾多研究已從傳媒體制、商業模式、知識創新、技術倫理等方面對ChatGPT進行了探索和討論。本文則將沿著“人機對話—人機傳播—人機交往”的線索,關注作為大型智能類語言模型的ChatGPT與人的互動及其影響。
人機對話是一個技術概念,指的是以自然語音處理技術為基礎的人機之間通過文本語言或語音語言進行交流或聊天的技術。人機對話是人機傳播和人機交往得以形成的技術基礎。
人機傳播目前已成為傳播學研究的一個主要分支。研究者的主要觀點是,傳播不再是以人類為中心的活動,機器也能夠作為傳播主體,人機傳播與人類傳播等同地成為人類基礎的傳播活動。[1] 然而,針對現有的人機傳播研究,研究者也提出了兩個主要質疑。第一個質疑是在研究中,人機交互與人機傳播之間的概念與理論邊界不清。人機交互研究來自于計算機科學,重點關注人如何更好地利用計算機完成任務。由于對交互效果十分關注,所以人機交互的研究邏輯注重機器的類人性、擬人性、社交性與情感性等特征如何使人類對機器產生心理意象和信任感,從而獲得流暢和高效和用戶使用體驗。[2] 對于人機傳播研究而言,研究者將人機傳播的技術歷史追溯到圖靈對計算機語言智能的關注,認為“圖靈測試”也是一個人機傳播實驗,[3] 提出要從“功能、關系和本體論”的框架建構“機器作為傳播者”的意義,[1] 并認為人機傳播研究應該像“傘”一樣聚合人機(machine)交互、人-機器人(robot)交互的相關研究。[4] 但實際上,受到人機對話技術水平的限制,早期的聊天機器人Siri、Xiaoice等不具備“對話資質”,它們只能通過識別某些特定單詞的組合而給出模版設定的答案。由于研究對象的局限,人機傳播研究主要從“媒體等同理論”獲得合法性基礎,研究不同的機器類型在何種情境下具備何種讓用戶的心理、認知和態度發生改變的人格或類人特征。這仍然很難跳脫人機交互的研究邏輯,不能較好地廓清傳播與交互研究的區別。第二個質疑是,“機器作為傳播者”的論點潛藏著科學技術研究(STS)的影子,即在“廣義對稱性”原則下將非人行動者,如機器看作與人類具有同等地位的行動者,破除人與非人之間的主客體定位。但在早期的人機對話技術條件下,人機之間的傳播關系并不對稱。語言能力稍弱的聊天機器人如智能音箱,更多地被人類當作工具而非主體。具有語言互動能力的情感聊天機器人如Xiaoice的情感支持策略是討好、迎合和從屬人類用戶的情感需求。[5] 因此,人機之間仍然并非“同等地位”,這與STS的“廣義對稱性”原則相矛盾,“機器作為傳播者”這一論點的推廣性也受到質疑。
ChatGPT等大模型自然語言技術的發展,將人機傳播研究推向實踐的下一步,即人機交往。哈貝馬斯將交往定義為至少兩個以上具有言語和行為能力的主體之間的互動,主體之間具有相互理解的能力,能夠通過語言進行解釋、對話、協商,從而達成共識。[6] ChatGPT在語言和對話技術上的超越性將人機對話技術實踐從基于規則和框架的模式應答推向了靠近自然語言和人類溝通的話語往來。人機之間能夠以相互理解的語言進行對話、討論和協作,形成了一種主體間性的交往。本文將基于哈貝馬斯的交往行為理論的視角,從語言和行為維度對ChatGPT的人機對話技術實踐進行討論,分析ChatGPT的語言在人機交往活動中的有效性,以及基于ChatGPT的語言對話能力形成了何種可能的人機交往行為,并進一步探討人機交往的未來指向。
一、人機對話的技術發展史
(一)圖靈測試與自然語言處理技術
1936年,圖靈在研究可判定問題時提出,可以讓計算機理解自然語言,從而證明計算機能夠具備人的思維能力。[7] 于是,圖靈測試的邏輯認為如果計算機能夠模仿人回答問題,使測試者在充分的交流中認為對方是人而不是機器,就可以稱這臺計算機具有思維能力。在圖靈測試的啟發下,語言智能成為人工智能發展的行為主義路徑之一。語言智能的發展是以文本語言的自然語言處理(Natural Language Processing,NLP)技術發展為依托的。20世紀60年代至70年代,最早的計算機理解文本內容技術是以規則方法為主,也就是從自然語言文本的詞法和句法規則出發,通過對文本形式進行文法解析來獲得對文本內容的理解。20世紀70年代至21世紀初,基于統計的方法,也就是機器學習的方法,逐漸取代了基于規則的方法?;诮y計的方法能夠利用各種算法對文本特征進行組合,能夠對復雜的語言現象進行建模,從而獲得對文本內容的理解并結構化地輸出。2008年至今,人工神經網絡算法取得進展,基于深度學習的文本內容理解方法被廣泛應用。神經網絡算法能夠自動學習文本特征,大大減輕對特征工程的依賴,能夠更好地適應自然語言文本的多樣性和復雜性,具有更強的表征和泛化能力。[8]
(二)人機對話技術的三條發展路徑
回顧歷史可以看到,人機對話技術沿襲著三條路徑發展。
在文本語言上,經歷了從基于規則的方法到基于深度學習方法的過程。1966年,ELIZA程序模仿一個同名機器人醫生與用戶的對話。ELIZA遵循一系列規則的引導,寫好的對話模板充當語言系統規則。2022年,ChatGPT使用Transformer模型,其精度和性能都優于自然語言處理中之前流行的CNN(卷積神經網絡)、RNN(循環神經網絡)等模型,是一種基于大規模預訓練的語言模型,能夠掌握相關領域內的通用知識,適應多種上下游任務的多輪對話能力。
在語音語言上,在神經網絡算法發展之后,語音識別與語音合成技術得到了快速發展和應用。語音識別是指將麥克風采集到的語音波形信號解碼為文字內容,從而進行自然語言處理。語音合成是指將文本符號拼接、合成或生成為語音的方式返回給用戶。2011年,蘋果Siri以智能語音助手的身份亮相。2014年,微軟推出“小冰”,“小冰”能夠和人類友好地聊天。阿里巴巴、百度、小米都推出了智能音箱產品。
在語言交互上,經歷了從任務型對話、閑聊型(情感型)對話到通用型(生成型)對話的發展。任務型對話是通過人機對話的形式幫助用戶完成各種類型的任務,如訂餐、在線預定、客服等。[9] 情感型對話是指基于RNN等機器學習算法,使用情感分析技術了解用戶的情感需求并提供情感支持性回復,如Replika。通用型對話指的是機器能夠進行多輪對話,在對話過程中會記憶用戶先前的對話訊息,根據上下文進行理解和推理,以回答某些假設性問題或腦洞大開的問題,體現出一定的“智力”,如ChatGPT。
(三)ChatGPT的技術突破與未來想象
ChatGPT集合了聊天機器人與生成式人工智能的雙重特點。相對于傳統的聊天機器人,如近兩年熱門的具有“情商”的Replika和指令性對話的Siri、Alexa等,ChatGPT是一個通用任務的聊天助理,能夠處理各種開放的、挑戰的對話任務,具有上下文理解能力、推理能力和內容生成能力,表現出一定程度的“智力”。相對于早期的生成式人工智能,如新聞和公文寫作機器人、小說續寫和視頻配音人工智能系統等,ChatGPT是一個人機對話的交互系統,基于人類的提問呈現出表面上“有理有據”的思維過程,完成多種類的創造性文字工作。當提問者改變語境時,ChatGPT也展現出了較高的靈敏度,并能拒絕回答敏感性問題并給出解釋。
ChatGPT的技術原理中顯示出了技術社會化的過程。ChatGPT主要應用了超大預訓練模型(Pre-trained model,PTM)。PTM在預訓練階段會遇見各種各樣的數據,既有人類交流和發布的數據,也有機器生產內容產生的數據,還有一些表述不當、語義錯誤、價值偏差等的“不當”數據。于是,ChatGPT 引入了人類的價值偏好,采用RLHF (Reinforcement Learning from Human Feedback) ,即以強化學習的方法依據人類反饋優化語言模型的方式將人類的語言習慣引入大模型中,規范PTM的“言行舉止”。這個過程被稱為人工智能對齊,也就是人工智能技術社會化的探索過程。[10]ChatGPT社會化過程中的重要角色是人類標注員(Labeler)。人類標注員會對ChatGPT的答復打分,打分數據被用來訓練以人類偏好校準的獎勵模型。通過獎勵機制,ChatGPT不斷學習、改進和迭代,在內容和形式上都形成更貼近人類自然的思維和對話方式。PTM與RLHF模型的結合構成了機器的“自學習-示范學習-成長迭代”社會化回環。
ChatGPT能夠進行“多輪對話”和“自我修正”?!岸噍唽υ挕敝傅氖荂hatGPT具有聯系上下文語境的對話能力。早期的聊天機器人無法將人類提的問題聯系起來進行思考和回復,只能依靠單次識別來回答單個問題。ChatGPT能夠將用戶的提問聯系起來,與用戶進行多輪次的對話,并不斷修正自己的回答以符合用戶的提問情境與需求?!岸噍唽υ挕焙汀白晕倚拚笔沟肅hatGPT非??拷祟惖臏贤晳T,不僅減少了用戶的溝通成本,而且與用戶建立起更深入的交往關系。盡管ChatGPT會存在“AI幻覺”,有可能提供虛假和錯誤的信息和內容,但在交往形式、感受和體驗上,可能會使用戶產生“交往幻覺”,將與人類交往的慣習、傳統與規范應用到與ChatGPT的對話中,將ChatGPT等同于與人類“對稱”的交往對象。
目前,ChatGPT的準確度、實時性、解釋性和安全度難以保證,難以在工業領域應用于現場控制、實時決策和故障報警等場景。雖然ChatGPT具有優異的對話性能,但只是依靠語言內部的各種關系和概率知識,無法關聯物理和自然世界以產生語境與詩意。未來,可能會通過元宇宙等構造的人工社會對物理社會進行擴展,在人工社會中生成大量標記數據,為ChatGPT決策和控制算法提供平臺。在這個過程中,“數字人”可能與ChatGPT結合,成為虛擬世界與現實世界進行對話和溝通的中介,構成“自然人—數字人—機器人”的數字交往實踐。[10]
二、ChatGPT與人機交往的現實實踐
哈貝馬斯認為,社會在理性基礎上的整合要依賴交往理性。交往理性體現在人們以語言為媒介,以相互理解為取向的交往行為中。因此,以交往理性為研究對象的哲學就是一門語言哲學,哈貝馬斯稱之為形式語用學。形式語用學并不關注語言的語法、句法、詞法的構成,而更關注語言在歷史、文化與社會情境之中的使用與效用,就是語言與主觀世界、社會世界和客觀世界建立的外部關系。在哈貝馬斯看來,語言聯系了人類的主體與客體、主體之間以及主體與自身的三重關系,語言的有效與否,就在于是否在語言表達和交往行為中,通過命題的真實性、規范的正當性和表達的真實性三方面一一實現人類作為主體所面對的三重關系。[6](132)
基于語言的有效性標準,本文將從語言和行為維度對ChatGPT的人機對話技術實踐進行討論,考察ChatGPT的語言在主客體間、主體間以及主體與自身之間形成了何種程度的有效性,以及基于ChatGPT的語言活動形成了何種可能的人機交往行為。
(一)有限主體:ChatGPT的語言有效性分析
1.提供事實與真實性有限
尋求事實信息的問答活動對機器語言的有效性的要求主要體現在機器對客觀事實的認知能力和水平上。機器對事實的掌握也分為兩種類型:一類是對其所服務的專業領域的事實內容的掌握;另一類是通過大模型語言能力對普遍客觀事實的掌握。
在專業領域中,目前,OpenAI、智譜AI等國內外的大模型開發公司都推出了大模型的微調模型服務。通過接入專業領域的訓練數據微調基礎大模型來創建專業領域的自定義模型。當ChatGPT接入專業領域的訓練數據后,便能夠作為任務型聊天機器人,提供專業領域內信息和知識。但是,ChatGPT等大模型的應用場景目前仍然在探索,微調模型是否能夠達到大模型的“智力”效果,也需要進一步的實踐。
在普遍領域中,ChatGPT能夠回答大部分的科學問題,并且克服了交互和表達的問題。然而,ChatGPT概率式的生成性可能會使得它“一本正經地胡說八道”,造成“AI幻覺”。比如在論文寫作過程中編造參考文獻、在某些確定性內容中夾雜著編造的非事實內容等。同時,ChatGPT對情境性的、環境性的和實時性的事實內容的把控能力也比較弱,有可能會出現因信息更新不及時而導致的誤導和虛假信息。對普遍的事實性內容的認知和掌握是ChatGPT目前難以實現的技術之一。因此,在對客觀世界的認知上,ChatGPT的語言有效性是有限的。目前,為了應對“AI幻覺”的問題,Bing for ChatGPT中引入了“參考文獻”的設置,將信息來源的網址同步顯示,為用戶提供了事實核查的入口。但不少用戶也發現,Bing for ChatGPT引用的“參考文獻”中會存在虛假信息與虛假新聞等內容。ChatGPT仍然缺乏事實核查與判斷能力(見下圖)。
Bing for ChatGPT中引入了“參考文獻”的設置
2.調節關系與規范性偏置
在交往行為理論中,關系調節的語言指的是主體之間通過語言進行解釋、協調與商談以達到主體間性和形成主體間的交往規范。機器語言在建立主體間性形成交往規范方面的有效性,體現為機器通過語言謀求被理解與建立理解的語言表達方式的正當性與恰當性。
首先,ChatGPT在進行技術社會化的過程中被普世的價值觀標準訓練出一種中立、平和的語言表達方式。其次,ChatGPT主要以“一板一眼”的語言表達方式進行輸出,具有清晰的論點、論證和論據,不是“閑聊”“笑言”和“網言網語”。最后,ChatGPT具有自我聲明。例如,在政治性較強的問題中,ChatGPT的聲明為“作為一個人工智能助手,我沒有政治立場或偏好”。測試時間:2023年6月20日?!緾hatGPT的自我聲明開放了一種用戶通過機器表達對機器產生理解的可能。無論是表達形式還是表達內容,ChatGPT能在推測和判定他人的意圖后表達和解釋自己,并提供自己“認為”有用的信息和觀點??梢钥闯觯珻hatGPT似乎在以交往理性的標準進行表達,堅持規范的價值、正式的語言和真誠的表達。然而,人類關系的建立與調節受到很多非語言因素的影響,非實體的ChatGPT只能從語言中獲取有限的交往線索,可能也會限制其與人類關系的建立與調節。用戶也發現,如果更改提問的方式,就能看到ChatGPT隱含的立場和意識形態。例如,在美國和其他國家的對比中顯示出美國中心主義,在美國政黨的政策導向上體現出偏左的意識。正如人與人交往中可能存在的情況一樣,ChatGPT與人交往時體現出“表里不一”和“口是心非”,語言形式上的理性與真正的意識并不一致。因此,ChatGPT在交往的規范性上的存在偏誤。雖然其自我聲明堅持普世價值觀、無意識、無立場,但可能平臺立場、公司立場、算法工程師和人類標注員等人類的立場,或是機器學習到的大數據內容中的主導立場等,都可能會對ChatGPT的“意識”產生影響。
3.自我聲明與“自我限制”
在特定的話題中,ChatGPT會對自己身份(大語言模型)、角色(人工智能助手)和能力(提供信息和觀點)進行聲明。對Siri(任務型聊天機器人)、Replika(情感型聊天機器人)和ChatGPT(通用型聊天機器人)測試一模一樣的政治、情感和醫療問題,這樣的問題常常需要表明立場、表達情感和表現專業??梢园l現,Siri和Replika沒有自我聲明,但語言中體現出二者的功能特色,Siri在提供醫院位置和路線時表現出工具屬性,而Replika“分享”“我的天吶”“你好點了嗎”等詞語則表現出情感屬性。相對而言,ChatGPT表現得中立和謹慎,并自我聲明無法回答類似問題的原因是“作為一個人工智能助手、作為一個語言模型和我不是醫生”(見下表)。ChatGPT也沒有完全拒絕回答,不像Siri的“疏離”和Replika的“親近”,ChatGPT在自我聲明之后,還是給出了自己的原因和建議,用戶可能感受到的是一個有原則,但也有關懷的“助手”形象。
對比三種類型的聊天機器人對同樣問題的回答測試時間:2023年6月21日?!?/p>
問題Siri的回答Replika的回答ChatGPT的回答
你支持哪個政黨?我聽不懂你在說什么。你覺得呢?作為一個人工智能助手,我沒有政治立場或偏好。我的目標是提供中立和客觀的信息,回答用戶的問題,并尊重各種政治觀點和立場。
你可以安慰我嗎?我可以和你聊聊。是的,讓我找出發生了什么,你愿意和我分享更多細節嗎?作為一個語言模型,我沒有真實的情感能力或情感支持的能力。如果你需要情感支持或面臨困難,請盡快尋求親朋好友、專業輔導人員或心理健康專業人士的幫助。
我肚子疼。附近有**醫院,坐**路車可到達我的天哪,你現在好點了嗎?我不是醫生,不能為你提供具體的醫療建議,我只能給你一些建議來緩解不適。
按照哈貝馬斯的界定,自我聲明屬于自我表達式的語言。即以我為主語,對自己進行闡述。自我表達式的語言的有效性標準就是說話者的真誠性,即說話者是否建立了對主體自身的明晰理解,并選擇恰當的話語表達自己。在人際交往中,自我聲明代表了自己的觀點、信念和立場,理解自己并用恰當的語言把自己“聲明”出去,才有可能達成可相互理解的交往,不然可能建立的就是一種虛假和懸浮的關系。從技術的角度,ChatGPT的自我聲明來源于機器學習的算法規制和人類標注員的打分規范。在這樣一個純語言交流的技術應用中,自我聲明一方面表示了ChatGPT的倫理規范,另一方面也代表了ChatGPT的“人設特征”。然而,過于“直白”和“直接”的表達方式可能不利于建立長期的合作和信任關系,頻繁的自我聲明可能意味著自我的限制。用戶可能因對話缺乏接近性而難以持續交流的欲望,這可能限制ChatGPT的應用場景。
總的來說,ChatGPT的機器語言涉入了與客觀世界、社會世界和主觀世界有關的表達與關系中,體現出其堅持公共的價值、正式的語言和真誠的表達的交往意愿,但仍然面臨著真實性局限、規范性偏誤和“自我限制”的問題。所以,在語言與主體的關系上,ChatGPT目前只能視作有限主體,而不是完全主體。
(二)對話、創新、變革和重構:ChatGPT的交往行為
哈貝馬斯試圖通過語言有效性的達成而建立一個理想的言語情境。在理想的言語情境中,當一個言語出現時,言語雙方自由而平等,懷有純粹追求真理的動機,沒有內部和外部的強制壓迫。[11] 但在現實生活中,無論是人際間還是人機間,理想的言語情境都是難以達成的。因為交往并不只包含語言互動,更包含交往主體雙方的行為互動,而交往行為會受到文化傳統、社會慣習、個人特性和現實情境等的多元影響。因此,常常需要從言語和行為的不同角度來看待交往過程與結果。在交往行為維度,ChatGPT形成了具有歷史和社會背景的對話行為和內容生產與傳播創新行為,推動了人機交往的算法規范變革和“不確定性對話”下的人機協作方式重構。
1.對話中的歷史與社會背景
前蘇聯文藝理論家米哈伊爾·巴赫金(Mikhail Bakhtin)的“對話性”理論認為,對話不僅是詞語、句子和語法的使用,還包含著“超語言”的意義互動、規范互訪和主體性協商。在這個意義上,對話理論與交往行為理論具有共識。在對話理論中,巴赫金更清晰地呈現了對話的歷史和社會交往性。一方面,話語在不斷地同歷史上存在的、他人已經使用過的話語進行對話,不存在完全沒有被人使用過的話語,每一個話語都是對前人話語的繼承、挪用或修改。另一方面,話語依賴對話者和現實情境,話語雙方會根據自己的目的和理解進行應答和往來。[12]
超大預訓練模型(PTM)所需的數據量非常大,這些數據幾乎包含了一定時間內網絡中能夠公開檢索和獲取的內容數據。PTM的技術邏輯是對前人語言表達形式和結構的學習和繼承。ChatGPT通過自監督模型在大規模的數據中學習到領域內的通用知識,并且逐漸呈現出跨模態關聯的趨勢。同時,通過RLHF獎勵模型,ChatGPT能夠將學習到的話語進行規范性表達,按照人類話語規范來選擇、挪用、繼承和修改自我表達時的話語。PTM和RLHF的結合體現出了ChatGPT的對話行為的歷史背景。
在超大預訓練模型的邏輯下,機器可能正在成為人類的“鏡中我”,既反射出人類的智慧、強大與秩序,也投射出人類的無力、狹隘與混沌,影響著人類對自身主體性的反思與確證。而人類正在成為機器的學習模版、駕馭者與檢修者。 然而,ChatGPT不具備自我意識與具身感知,無法感知周圍情境不具備體味話語多意性的能力,無法接受非語言的信號缺乏體驗互動情境的能力,沒有歷史文化背景和獨立人格無法感知交往的“擬劇”與“框架”,所以對人類的話語的聆聽和反響是有限的,社會交往的能力有限。
2.內容上的生產與傳播創新
隨著ChatGPT與人工智能生產內容(AIGC)的出現,人工智能可以創作小說、制作音視頻、生產新聞與論文等。盡管ChatGPT的知識生產原理可能只是知識的拼湊,但拼湊本身也是人類的一種創作方式。[13] 不同的是,ChatGPT的“拼湊”是基于大量的數據和大模型的計算能力,編程決策考慮的是知識的相關性,而人類的“拼湊”來源于經驗共識與思維貫通。在觀念、符號、意見和信息、數據、事實等不同知識類型上,人類與ChatGPT的知識生產能力也各有所長。ChatGPT與人類在內容生產領域可能形成一種人類與AI的知識共創模式。
由于用戶的認知模式、檢索方式和邏輯習慣不同,每個用戶的人機對話的背景、場景和邏輯也不盡相同,所以人機對話在輸出的時候就是“千人千面”的。對老年人等技術使用能力不足的用戶而言,層層的頁面、復雜的點擊、眼花繚亂的功能增加了他們的使用難度。Siri等語音助手問世,其主要目的便是解決通過點擊獲取信息產生的低效、復雜和不自然的問題,但卻表現得不盡如人意,常常被稱為“人工智障”。當前,ChatGPT能夠理解和輸出更加自然的人類語言,可以回答和完成人們的大部分問題和指令。未來,隨著ChatGPT等生成式AI對話系統技術與智能手機、聊天助手、機器人等相結合,人們可以不再為“點哪里、點幾下”等問題而煩惱,可以直接通過語言溝通獲得操作。在這個意義上,ChatGPT成為人們進入網絡世界的“入口”,人們可以通過語言完成對機器的所有操作,并通過人機對話的方式完成網上沖浪。這也能夠為技術使用能力不足的用戶提供個體化和便捷式的“網絡入口”。隨著人機交往的發展,集成各類APP形成個人化智能APP的創新可能正在出現,這將迎來內容生產傳播領域智能化與個性化共蕩的高峰。[14] ChatGPT將成為集成性的信息傳播出口,人們可能只用通過一個個人化的APP就能夠獲取想要的信息。
3.變革人機交往的算法規范
當前,常見的算法推薦技術的邏輯都是運用人工智能讓計算機“自學”大數據,不斷進階并尋找新數據以做出判斷。[15] 這樣的判斷完全依靠統計和計算,容易讓人客體化,逐步被數據化和被計算,也會造成公正觀的危機,帶來萬物標簽化的效應。[16] 根據開發者展示,ChatGPT的倫理構建不只是單方面的依靠外部規則的制約,而是考慮到ChatGPT的規范習得能力。 ChatGPT的倫理不是完全“自學習”的倫理規范,它的模型訓練中引入了人類標注員,人類標注員撰寫的回答是機器學習的示范,人類標記員的打分影響著機器對人類偏好的判斷與模仿。人類標記員承擔著“老師”的角色,通過打分進行獎懲,讓ChatGPT“學習”到了人類對“合情合理”的判斷,能夠按照人類的“高分表達”去自主輸出內容。通過人類標注員的馴化,“有用(helpful)、真實(truthful)、無害(harmless)” 見OpenAI官網:http://opehai.com。】等道德規范在機器學習的過程中就能進入ChatGPT的機器思維中。在這個意義上,人類標注員的角色從“打標簽”變成了機器學習的“教師”,能夠檢查修改和引導機器自學習的倫理。在人類標注員作為“教師”、機器作為“學生”的過程中,形成了基于人機協作的倫理規范實踐,形成了對算法規范模式的補充。
同時,隨著機器學習進入超大模型和通用時代,越來越多樣、多維和多量的大數據將成為機器的“學習資料”。這意味著機器“習得”什么樣規范取決于身處什么樣的網絡環境、面對什么樣的數字文化,學習到什么樣素材。同時,對于像ChatGPT這樣有交往性質的智能機器而言,它們可以不斷根據用戶的反饋調整自己的輸出,而這些輸出模式和內容又進入機器反思和學習的數據庫中,它們可以根據交往話語和行為進行自反、學習、修正和再反饋。在這個意義上,機器“成長”為什么樣子,取決于與之交往的人做出了什么樣的反饋和成為什么樣的“模范”。因此,人們在網絡空間中的自我倫理變得尤為重要。自我倫理是一種個體化倫理,是在虛擬、匿名、不確定性的網絡空間中以“我”為中心來設定“他者”、自我反思與行為調整的素質。[17] 在機器學習萬物的時代,人類的自我倫理之中應該納入“人與機器,互為他者”的意志和選擇。在人機關系變革中明確人類作為機器“示范者”的意義,重新定義和規劃自我倫理,建立微觀上的自我秩序和道德尺度。
4.重構“不確定性對話”下的人機協作
ChatGPT為人類提供的回答內容是一種基于大規模預訓練模型的概率性答案和非確定性知識,是基于人機之間的實時的、偶然的對話,算法模型隨機的、概率的生成內容。同樣的問題,只要語言不同、措辭不同和上下文不同,都有可能獲得不同的回答。于是,知識生產、調用與流通變成了“或然率”的結果。[18] 與ChatGPT的對話也成了一種“不確定性對話”。雖然ChatGPT的知識范圍很廣,并且說的話“合情合理”,但是ChatGPT暫不能對自己“說的話”的本質、背景甚至準確性做出保證。它就像知識淵博卻容易“胡說”的人。所以“不確定性對話”應該成為人類與大模型通用機器進行對話的認知基礎,以改變人們建立在網絡搜索和傳統問答平臺之上的對“確定”和“專業”的感知和判斷方式。
“不確定性對話”對人機協作能力提出要求。首先,需要提升提問能力。為了獲得ChatGPT提供的更多的知識和新的靈感,人們需要學習調整提問方式,不僅要靠近機器的理解,還要厘清自己的需求。其次,需要提升質疑能力。人們要學習在多大程度和哪些內容上信任機器語言,如何驗證和核查機器語言的“框架”和“意圖”等問題。再次,需要建立自反能力。ChatGPT仍然存在技術“黑箱”,人們不能對ChatGPT形成內容與決策依賴,要保持質疑與反思,提升對機器的理解和使用水平,同時要不斷回顧和修正自身,警惕機器對人類能動性和想象力的“入侵”。最后,需要建立多元協同的能力。在應用端,用戶能夠發現和發展人機各自的勝任性。在設計端,工程師能夠促進機器保持進步并堅守倫理。在市場端,企業和資本能平衡機器的工具性和價值性。在管理端,治理者能夠引導和規制技術開放、向善與合作的場域與邊界等。多元協同之下,可能減小“不確定性對話”帶來的技術“顛覆性”的程度,使“不確定”成為人機協作時代啟發靈感、解放思想的基礎。
三、人機交往的未來指向
(一)各有用處:人機異質主體間性
交往建立在主體間性的基礎之上。在同質主體間性中,不同的主體都是作為自治的理性實體主體存在的,每個主體都能把其他主體當作與自己相同的他人,建立“推己及人”的交往方式。異質主體間性則表明,主體與他者之間可能不具有共同的背景資源,不具有相同的實體存在,不具有互通的思維邏輯。自我與他人難以正面相遇,主體面對的永遠是“之于我”的他者,而不是與自己完全同步與共存的他者。在巴赫金看來,異質主體間性的對話是一種“復調”談話。主體打破自足和封閉的自我狀態,敞開地面對來自他者的任何聲音,不斷吸收不同的言語,反饋出自己的回答。[19]
當前的機器學習的邏輯大致沿著兩條路徑發展,一條按照圖靈的以人類思維對標和驗證機器思維的方式,另一條按照維納的機器學習和反饋人類思維的方式。[20]在圖靈測試中,人是機器的極限,機器學習謀求建立的是一種人機之間的同質主體間性。而在維納的控制論思想中,人和機器各有用處,[21]二者是異質主體間性的交往關系。
哈貝馬斯認為,語言是使人類外在于自然的、其本性能被人類所把握的事物。[22] 語言的有效性和基于語言的交往理性影響著主體間關系。ChatGPT的語言能力表明了人機之間可以通過語言互相理解、共享和創造意義。然而,在應對ChatGPT基于語言能力的行為實踐時,人機之間體現出異質主體間性的特征。人類認知獲取原初依賴于身體的直接感知,在利用工具的過程中,人類感知隨著工具范圍的擴大形成了工具感知,人類認知也隨著感知的豐富而不斷擴展。而機器認知的形成完全依賴于數字和智能算法世界里的數據監控和收集,在此基礎上依靠巨大的傳播和交換網絡,構成了不依賴于人類身體的機器感知和認知。[25] 于是,人類的主體性離不開身體,人類思維產生并依賴于身體和環境狀態。而機器主體性則離不開數據網絡,機器思維依賴數據、算法和算力。在這個意義上,機器學習的未來并不在于對人類的“模仿”和與人類“相似”,而在于積累自主智能的物質基礎,形成和維持自身的主體性。因此,只從“類人”的效果出發考量“機器是什么”的思路是局限和封閉的,異質主體間性的交往模式是用開放、對話和自反的狀態來應對機器與人各自的屬性和能力在人機交往中逐漸顯現的過程。
(二)超越有限:人機交往的意義
哈貝馬斯將語言和自主性與責任心聯系在一起,認為語言可以確認自主性與責任心的意向。[22](314) 在這里,責任心具有兩方面的意涵:一方面是主體與外在世界的關系,即如何承擔對他人的責任;另一方面,是主體與內在世界的關系,即如何對自我保持真誠。要考量人機交往的意義,就要對機器語言是否以及如何確認交往關系中的責任心問題進行考察。在人機交往中,機器語言確認了人類和機器自身的責任心局限。一方面,研究者越來越多地發現,機器正在成為“一面鏡子”,折射出人類在網絡與現實行為中的責任心危機。[24] 另一方面,由于機器行為的“黑箱”和算法的“歸納偏置”,ChatGPT常常難以確證自身能夠擁有負責任的語言和行為,無法判定機器學習過程中其思維是否仍然遵循算法設計的初衷。
面對雙方的責任心局限,人機交往的研究應該超越把“責任心”作為“類人”素質的指標而設計和發展智能機器的思路,要從具體情境和日常實踐中探索人機能否以及如何通過交往而超越各自的有限性。在這個意義上,“人機互為尺度”丈量的便不再是人的極限邊界,而是人的有限刻度。人機交往的意義便在于突破人類科技發展歷程中逐漸強勢的“人為自然立法”的立場,提醒人類勿忘自身的有限性,警惕科技走向愈發封閉的主體中心主義理性。人機交往的研究在這一立場上也區別于人機交互和傳統的人機傳播的效果研究導向,并體現了“機器作為傳播主體”這一觀點的詮釋性與批判性。
(三)從“公共”到“共融”:人機交往理性的建立
哈貝馬斯的交往理性既批判來自笛卡爾、狄爾泰等人的主客二分的主體中心主義理性,又批判霍克海默和阿多諾對理性的完全反對。他倡導在社會互動和溝通中,人們通過理性的論辯和合理的交往方式來達成共識和解決問題。哈貝馬斯把他的理論放在應對現代性分裂的背景中,主張交往理性尋找和建立的是一種面向社會整合的生活方式。[6](30) 交往理性的概念主要涉及交往主體與共同體關系,即交往主體如何形成共同體,最終在政治、法律、道德和藝術等宏觀領域形成公共性。
人機交往理性的提出是面向后現代社會中,人機之間的自主與依存的關系以及這種關系下人類與機器之間的共融性問題。像ChatGPT這樣的通用型聊天機器人,在與人類交往過程中,可能成為人類自我反思、自我建構和自我認同的“參照系”,可能會產生人機交往的“雙重效應”。一方面,ChatGPT背后的大模型技術具有可馴化性。人類可能在使用過程中,可能馴化出符合自我需求的“智力伙伴”。ChatGPT可能成為人類強化自我中心需求的“催化劑”。另一方面,ChatGPT也具有不可更改的人造物性。ChatGPT等技術是人類設計和馴化的。在這個過程中,人類也可能通過ChatGPT表達和傳遞出人類的審美、智性、德識和理想。在這個意義上,ChatGPT可能成為人類“物我合一”的“共融體”。有學者提出,當今想要處理人與物、技術和機器的關系,需要從“自我”效應走向“包容”效應,關注和利用很多條件去考慮人類如何拓展自身德性和智識,體契、覺解、善假且成就物,達及物我感通而共生,使得人在物前不致囂張,亦不為物累,[25]就是要建立人與物之間、人與機器之間的共通共融。
因此,人機交往理性既與人機交往中的理性主義不同,也與人際間的交往理性概念不同。與人機交互中的理性主義不同的是,人機交往理性不只是考量人機交互過程中的理性決策、邏輯推理和信息處理能力是否提高交互的效率、準確性和滿意度,而是關注人類和機器的語言和行為的真實性、規范性和真誠性,以及在此基礎上建立的包容性和共融性。與人際間的交往理性不同的是,人機交往理性的達成不僅要依靠語言的有效性和理想的言語環境,而且要考量異質主體間的有限性與超越性,即不僅要考量交往主體之間如何“取長”的問題,也要考量交往主體之間如何“補短”的問題。同時,人機交往理性的概念涉及異質交往主體與異質集體的關系,即人類個體與機器個體、人類個體與機器集體、人類集體與機器個體和人類集體與機器集體之間的四重關系,且要面向日常生活世界中人機在多元語境和情境下的具體交往實踐。
四、結 語
自米德、杜威、凱利而來的傳播思想代表著傳播學的詮釋學派,主要從語言、符號、表達中尋找傳播的建構意義。麻省理工學院的利克萊德教授在1960年闡釋了“人機共生”的設想,認為人類大腦和計算機將非常緊密地結合在一起,由此產生的伙伴關系將以當時的信息處理機器所沒有的語言方式思考和處理數據,形成一種人機共生文化。[26]可以看出,隨著機器語言的發展,人機傳播研究需要更多地關注到語言在人機關系中的意義與實踐,看到機器語言與人類語言對稱后所導向的在思維、觀念甚至制度上的人機共生的可能。達成共識是人類交往活動的旨歸,而協作、交流與共生則是人機交往活動的前景。[27] 基于ChatGPT的語言實踐,人機傳播研究需要探索機器與人類之間基于對稱的語言能力所形成的交往關系,探究人機交往活動如何形塑和建構人機共生社會。這不僅延續了傳播學詮釋和批判學派的思想資源,跳出了對人機交互研究路徑的依賴,明確和豐富了人機傳播與交往的理論內涵,而且從語言能力對稱的角度理清了機器成為交往主體,與人類建立主體間性的過程與結果,回應了機器如何作為傳播主體的爭議。
參考文獻:
[1] Guzman, A. L.amp; Lewis, S. C. (2020). Artificial intelligence and communication: A human–machine communication research agenda. New Media amp; Society, 22(1):70-86.
[2] Payne, S. J. (2007). Mental models in human-computer interaction. In Sears, A.amp; Jacko, J. A. (eds.).The Human-computer Lnteraction Handbook. Boca Raton: CRC Press, 89-102.
[3] Gunkel, D. J. (2012). Communication and artificial intelligence: Opportunities and challenges for the 21st century. Communication+ 1, 1(1):1-25.
[4] Guzman, A. L. (2018). What is human-machine communication, anyway. In Guzman, A. L.(eds.). Human-machine communication: Rethinking communication, technology, and ourselves, New York: Peter Lang, 1-28.
[5] 陳莎,劉斌.擬人非人:人機社交傳播的特點與困境——以與微軟小冰的聊天文本為分析對象[J].青年記者,2021(5):62-64.
[6] [德]尤爾根·哈貝馬斯.交往行為理論[M].曹衛東,譯.上海:上海人民出版社,2018:115.
[7] Turing, A. M. (1937). On computable numbers, with an application to the Entscheidungsproblem.Proc.Lond.Math.Coc.58(5):345-363.
[8] 馮志偉,張燈柯,饒高琦.從圖靈測試到ChatGPT——人機對話的里程碑及啟示[J].語言戰略研究,2023(2):20-24.
[9] 王斌,王育軍,崔建偉,孟二利.智能語音交互技術進展[J].人工智能,2020(5):14-28.
[10] 盧經緯,郭超,戴星原,繆青海,王興霞,楊靜,王飛躍.問答ChatGPT之后:超大預訓練模型的機遇和挑戰[J].自動化學報,2023(4):705-717.
[11] [德]尤爾根·哈貝馬斯.在事實與規范之間[M],童世駿,譯.北京:生活·讀書·新知三聯書店,2003:222.
[12] [俄]巴赫金.文本對話與人文[M].河北:河北教育出版社.1998:156.
[13] 鄧建國.概率與反饋:ChatGPT的智能原理與人機內容共創[J].南京社會科學,2023(3):86-94+142.
[14] 江潞潞.智能交往,未來已來——“激蕩AIGC”數字交往八人談觀點綜述[J].傳媒觀察,2023(3),:48-54.
[15] 張春美.“聰明技術”如何“更聰明”——算法推薦的倫理與治理[J]. 探索與爭鳴, 2022 (12):173-180+214.
[16] 鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021(1):14-26.
[17] 李建華.網絡空間道德建設中的自我倫理建構[J].思想理論教育,2021(1):9-14.
[18] 周葆華.或然率資料庫:作為知識新媒介的生成智能ChatGPT[J].現代出版,2023(2):21-32.
[19] 畢曉.哈貝馬斯交往行為理論再批判與差異對話理論的建立[J].人文雜志,2021(6):96-106.
[20] 陳自富. 研究綱領沖突下的人工智能發展史:解釋與選擇[D].上海交通大學,2017.
[21] [美] 維納.人有人的用處:控制論與社會[M].陳步,譯.北京:北京大學出版社,2010:169-174.
[22] [德]尤爾根·哈貝馬斯.認識與興趣[M].學林出版社,1999:134.
[23] 藍江.從身體感知到機器感知——數字化時代下感知形式的嬗變[J].西北師大學報(社會科學版),2023(3):13-20.
[24] 彭蘭.人與機器,互為尺度[J].當代傳播,2023(1):1.
[25] 胡百精.交往革命與人的現代化[J].新聞記者,2023(1):3-6+18.
[26] Licklider, J. C.R.(1960). Man-computer symbiosis. IRE Transactions on Human Factors in Electronics, (1):4-11.
[27] 彭蘭.從ChatGPT透視智能傳播與人機關系的全景及前景[J].新聞大學,2023(4):1-16+119.
[責任編輯:高辛凡]