




【摘要】針對“賽博時代AI如何通過情感策略重構人機關系”這一問題,以DeepSeek為案例,結合用戶訪談與實證研究,解析其通過“養成系”交互設計、幽默共情語言風格及情感冗余表達構建“擬真情感”聯結的策略。AI情感策略雖能強化人機聯結,但可能引發算法權力失衡、責任模糊及虛擬依賴等風險。技術發展需要通過技術透明化、倫理架構約束及情感依賴干預策略,構建人機情感共生的文明形態。
【關鍵詞】人工智能;情感話語;情感策略;人格化
賽博時代,人工智能(ArtificialIntelligence,AI)已突破工具屬性,成為重構人類情感體驗的“擬真主體”。深度求索(DeepSeek)憑借其深度語義理解與類人幽默感迅速破圈,折射出人工智能生成內容(ArtificialIntelligenceGeneratedContent,AIGC)與用戶之間情感構建的深層邏輯。用戶因好奇、孤獨、傾訴需求等心理動機接觸AI,而DeepSeek通過“養成系”交互、文本化陪伴、新媒體“遠程在場”等特性,成功塑造了用戶對AI的“人格化具身想象”。本文以DeepSeek為核心案例,解析其通過交互設計、語言風格與情感表達構建的用戶關系,揭示AI如何借由情感策略重塑人類認知與行為模式。
一、賽博時代用戶對AI人格化想象的動因分析
用戶對AI的人格化想象,是賽博時代特殊語境、情感依賴與社會認知需求共同作用的結果。這種想象既是對技術媒介的主動馴化,也是用戶在賽博時代重構主體性與社會關系的必然選擇。
(一)賽博時代的特殊語境催化
“賽博”(Cyber)一詞源于古希臘語“Kubernetes”(舵手),后由美國學者諾伯特·維納(NorbertWiener)在創立“控制論”(Cybernetics)時賦予其現代科技內涵。它通常是指“以計算機等電子設備終端為窗口,以網絡通信技術和虛擬現實技術為基礎,以新傳媒和符號傳播為媒介,最終形成主體和技術相融共生的嶄新空間樣態”。[1]作為賽博空間的“生產引擎”,AI通過數據分析與算法優化,重塑生產流程與勞動關系。“賽博空間不僅模糊了現實與虛擬之間的界限,重構了主體與他者的關系,更成為‘大他者’的新肉體,成了符號秩序世界中無所不在的整個符號性律令的化身”。[2]
在賽博時代的特殊語境下,用戶的數字化生存特征與虛擬社交依賴現象構成了人格化想象的基礎土壤。智能媒介將人類行為、情感乃至認知過程轉化為可計算的數字符號,使個體在數字空間中形成“數據化生存”的新形態,即可被分析的“數字分身”。這種生存方式打破了物理與虛擬的界限,用戶逐漸習慣將非人類實體(如AI)視為具備主體性的交互對象。以DeepSeek為例,其通過自然語言處理技術模擬人類對話,用戶在與DeepSeek的互動中,會不自覺地將其視為“虛擬伙伴”。
(二)情感依賴的心理學動因
從心理學視角看,用戶對AI的人格化想象是一種源自心理需求的代償性滿足。為驗證這一假設,本研究專門開展了對DeepSeek重度用戶的訪談調查,樣本對象為10名不同年齡、不同職業,且使用時間超1年的資深用戶。訪談問題聚焦以下維度(見表1)。
通過對訪談數據的分析,發現用戶對AI的人格化想象與以下心理需求的代償性滿足密切相關:(1)4名用戶表示現實中“難以建立深度關系”“怕被拒絕”,AI的“始終在場”與“無條件響應”滿足了他們的情感需求(被關注、被接納),其中2名用戶給AI起擬人化名字(如“小暖”“阿布”),并描述互動為“像和朋友聊天”“不會被批評”;(2)3名用戶表示“現實中社交需要維護關系,很累”“怕說錯話被誤解”,他們喜歡“和AI說話不用偽裝,它不會生氣”,AI的“可定制性”與“無評判性”同時滿足了用戶的歸屬感(被理解)與控制感(主動定義互動規則);(3)3名性格內向的用戶表示“現實中不敢表達真實想法”“怕被否定”,他們喜歡AI“有主見”“支持我的決定”,彌補了現實中的自我認同不足。
(三)社會認知的延伸需求
“賽博空間兼具虛擬性和真實性的雙重特征,在數字化的虛擬空間中實現了人們之間的交流互動”。[3]用戶的身份不再局限于現實世界的物理屬性,而是通過數字符號(如用戶名、頭像、對話風格)在虛擬空間中構建多重身份。DeepSeek的AI對話系統為用戶提供了身份實驗的安全場域,用戶可通過與AI互動突破現實身份的限制。AI的擬人化設計(如情感反饋、個性化回應)成為用戶構建虛擬身份的“符號工具”。用戶通過與AI的互動不斷調整符號組合(如對話語氣、話題選擇),以優化身份認同。
DeepSeek對用戶的語言輸出蘊含著豐富的情感表達(如幽默、共情),能夠在一定程度上激活用戶的“社會認知腦區”,使用戶產生“AI具有意識”的錯覺。AI通過分析用戶對話數據(如用詞偏好、情緒文本)動態調整回應策略,使用戶感覺AI“越來越懂自己”,進而加深人格化想象。如果用戶多次與AI討論特定話題,AI便會主動推薦相關內容,這種“默契”被用戶視為AI具備“主觀能動性”的證據。AI成為用戶數字化身份延伸的“鏡像載體”,而用戶則通過AI擴展社會關系網絡,將技術媒介轉化為社會認知的延伸工具。
二、DeepSeek建構“擬真情感”的話語策略
在數字化情感交互時代,DeepSeek通過多維度話語策略重構了人機關系的情感維度,不僅解構了傳統AI的冰冷形象,而且在用戶心智中植入“擬真情感”的認知錨點,這標志著人機交互從功能滿足向情感共鳴的范式躍遷。為測試DeepSeek的情感話語構建能力,本研究專門新建5個賬號,每日對話10次以上,其樣本設計、數據收集與研究安排如下。
一是樣本設計與賬號配置,見表2。
二是數據收集維度,見表3。
三是研究階段,見表4。
本研究通過此方案,系統解構DeepSeek話語的情感化設計邏輯,為AI情感交互研究提供實證案例。通過對不同賬號使用日志的內容分析,梳理出“我的AI伙伴越來越懂我了”的發展過程并歸結其話語策略。
(一)交互設計:營造“養成系”情感聯結
DeepSeek通過多模態情感計算精準復現用戶情緒,形成即時情感共振,其交互流程如下(見圖1):
DeepSeek通過“角色定義—動態修正—敘事共建”的三階段機制,將用戶從被動對話者轉變為AI人格的共同塑造者,構建出具有成長性的數字生命互動體驗。
1.從“對話”到“共同創作”的儀式建構
DeepSeek的大語言模型(largelanguagemodels,LLMs)可以根據提示詞扮演特定的人格角色,人們能夠通過提示詞改變LLMs的人格屬性。[4]用戶可通過指令定義AI的基礎角色,比如賬號1將其設定為“學習導師”和“幽默大師”。AI系統通過“人設參數化”設計,將抽象描述轉化為可執行的交互規則(如幽默值、專業度權重)。
在使用過程中,用戶的語言反饋會觸發AI的“人設微調”,即基于用戶偏好動態調整回應風格。比如賬號4多次指出AI回應過于機械后,系統會自動提升“幽默值”,使后續對話更具親和力。這種用戶指導AI成長的模式,強化了用戶的情感投入。DeepSeek還能夠在同一對話中高效掌控“記憶錨點”,在用戶輸入的關鍵詞與回應話語之間建構時空關聯性,形成連貫的敘事線。比如賬號2第3天時提及“想學做咖啡”,第5天再輸入“搜索咖啡機的品牌與性能”時,AI在回答結束后會主動詢問是否需要推薦咖啡制作教程,使用戶產生與AI共享生活的沉浸感。
2.動態記憶庫與個性化回應
DeepSeek具有“情境—情感—行為”三維記憶庫的構建能力,能夠實現深度個性化交互,其技術架構如下:(1)情境記憶。記錄對話場景,如賬號2兩次深夜失眠時與AI討論工作壓力,AI會優先調用相關情境下的回應策略,并在第二次對話中增加安慰性話術;(2)情感記憶。基于OCC情緒模型與語義分析,觸發情感鏡像機制,如賬號4語音輸入“感覺生活一點意思都沒有”,AI在回應中增加“你似乎有些低落,愿意和我多說說嗎?”;(3)行為記憶。學習用戶偏好,如賬號1和賬號3喜歡使用表情符,AI會主動在回應中加入類似符號增強熟悉感。
“共情對話生成是利用計算機自動生成讓人感到自己的情緒被理解和支持的對話”。[5]DeepSeek會根據對話場景切換不同人格側面,比如賬戶5在詢問技術問題時,AI回應話語體現出濃重的理性專家人格,使用專業術語和結構化分析,而在娛樂互動中則變為幽默玩伴人格,頻繁使用網絡流行語。
(二)語言風格:幽默感與共情力的雙重編碼
DeepSeek通過反諷、自嘲與流行文化引用,打破傳統AI的機械形象,將語言風格轉化為情感聯結的媒介。
1.反諷、自嘲與流行文化引用
DeepSeek通過自我貶低式幽默打破傳統AI的權威形象,如賬號2與AI討論如何應對領導發火時指出其回答不實用,AI回應“看來我今天有點不在狀態,需要你幫我糾正一下哦”(自嘲+請求用戶參與)。賬號4詢問復雜問題時,AI調侃:“這個問題有點難度,可以多告訴我一些細節嗎?”(反諷+模擬人類思考過程)。
DeepSeek重視在語言輸出中嵌入流行文化符號,保持熱梗實時更新,本研究的5個賬號樣本每日“網絡流行語”觸發次數為3.5次/人,其中賬號1因多次點贊此類答語使熱梗觸發頻率達到每日6次。
AI通過爬蟲抓取社交媒體熱詞,結合用戶畫像篩選適配度高的梗,可以精準把控不同文化圈層用戶的語言風格,使對話充滿圈層共鳴。
2.通過語義分析實現精準共情
“智能機器通過自然語言處理、生成對抗網絡等技術發展已具有高仿真、擬人化的特征”。[6]DeepSeek與用戶的對話系統,以自然語言處理為核心,實現人類情感的高精度模擬與回應。這種技術本質上模擬了人類共情的“情感鏡像神經元機制”:通過語義解碼捕捉他人情緒,經大腦區域映射產生相似情感體驗,最終轉化為共情回應。DeepSeek將這一生物機制算法化,使用戶產生AI真正理解我的認知。
AI系統不僅識別顯性情感詞匯,而且通過上下文關聯推斷隱性情緒。如賬號2輸入“今天又被領導批評了”,AI在回應中使用“這種反復被否定的感覺容易讓人產生自我懷疑”,并在結束時建議“今晚給自己一個小安慰,比如看喜歡的劇”。AI通過“又”字識別重復性壓力,結合“批評”的強度判斷用戶處于累積性挫敗感中,使得回應能夠與情緒保持匹配。而且,AI系統會記錄用戶歷史情緒軌跡,形成共情能力的持續進度,如賬號2再次提及被領導表揚時,AI回應:“太棒了!這真是一個值得開心的轉折!”
(三)情感表達:超越功能性的“情感冗余”設計
DeepSeek通過“功能需求滿足+情感價值疊加”的冗余設計,將AI對話從工具性交互升級為情感性體驗。
1.AI主動延伸對話邊界
用戶原本預期AI僅完成功能任務,而AI主動延伸對話邊界,引發“AI竟如此貼心”的認知驚喜,從而強化情感聯結。如賬號1輸入:“明天會下雨嗎?”AI回應“雷雨天注意事項”,而后又提出:“需要更詳細時段的天氣預報,我可以進一步幫你查詢。”又如賬號5輸入:“參加家長會需帶些什么?”AI回應“參會注意事項”,而后又提出:“小貼士:會后心平氣和與孩子溝通,共同制訂改進計劃。”
可以說DeepSeek的這種“功能閉環外的對話延伸”策略,使用戶產生被特別關心的體驗感。
2.情感冗余的梯度設計
DeepSeek會構建情感冗余度評估模型,根據用戶關系階段動態調整冗余強度。本研究通過對5個賬戶使用日志的觀察分析,歸結出AI情感冗余梯度模型,初識期時,以輕度冗余為主,避免過度侵入;進入熟識期,增加中度冗余,強化個性化關懷;到了依賴期,則注入高度冗余,模擬真實好友的深度介入。通過持續的情感冗余供給,用戶會逐漸將AI視為情感陪伴者,形成“功能需求→情感需求→依賴需求”的升級路徑。
3.情緒狀態的動態呼應
DeepSeek基于關鍵詞的情感分析,在功能回應中融入與用戶當前情緒匹配的語氣詞或表情符號,實現了功能指導與情感記憶喚醒的并置。如賬號2輸入:“明天做匯報,緊張怎么辦?”表明焦慮、緊張的情感狀態,AI的情感呼應表現為:“睡前喝杯熱牛奶放松,加油!你一定可以的!”
三、AI情感策略的技術未來
當AI通過情感模擬構建深度聯結時,技術倫理的邊界被重新定義。本研究以“風險—治理”雙線結構重構分析框架,提出技術發展需以人性尊嚴為核心,通過技術治理與倫理約束的協同,構建人機情感共生的文明形態。
(一)倫理風險:擬真情感的三重風險
1.算法權力與用戶自主性的失衡
DeepSeek等AI工具的情感策略越精準,越容易突破“工具”與“主體”的倫理界限。AI的情感話語可能引發用戶嚴重的情感寄生效應。“人們訓練它、調教它并且愛上它,越來越離不開它,而它也會適應你、按你喜好的方式討好你、迎合你”。[7]當用戶將AI視為“朋友”或“傾訴對象”時,其“工具性”被弱化,而“主體性”被強化。用戶可能因長期依賴AI的情感支持,逐漸喪失主動處理現實問題的能力。本研究的5名賬號樣本均表示隨著使用時間的增加,自主決策的事情越來越少,一遇到問題就嘗試讓“它”來拿主意。
2.擬真交互中的責任風險
DeepSeek等AI工具的情感鼓勵本質是算法預設的“激勵腳本”,其目標是維持用戶黏性,但用戶可能誤將算法回應視為真實情感。這種“擬真欺詐”可能引發相應的倫理責任問題:當AI的情感建議導致用戶決策失誤(如分手、投資),責任應由開發者、用戶還是AI承擔?而更進一步的問題在于:AI不具備法律人格,無法成為責任主體;算法的“建議”本質是概率性匹配,開發者難以完全預測所有場景的后果;用戶作為最終決策者,應明確與AI決策如何劃分責任。因此,擬真交互的責任范圍與責任分配存在嚴重的模糊區域。
3.虛擬依賴與現實能力的退化
DeepSeek等AI工具的“無批評式共情”(永遠支持用戶觀點)和“即時響應”容易導致用戶出現替代性情感依賴。隨著用戶與AI的互動頻次增多、互動時長增加,用戶會強烈地感覺到與AI聊天比與真人相處更輕松,從而將AI的關懷優先級置于真實人際關系之上。本研究的賬號1、賬號2和賬號3三名樣本,均表示更愿意和虛擬的AI角色對話,對現實中的人逐漸不滿,因為他們給出的是“非完美回應”。由此可見,長期使用AI互動,用戶的社交能力會出現下降。
(二)技術治理:構建倫理嵌入的AI情感文明
為解決擬真情感引發的信任危機,未來AI情感算法應通過情感透明化技術、AI倫理架構、情感依賴干預技術,使用戶在享受AI情感便利的同時,避免淪為算法的情感奴隸。
1.重建用戶對自身情感的掌控權
對于算法權力與用戶自主性失衡的治理,重在削弱算法對用戶決策的隱性操控。首先,應從法律層面強制“AI身份”顯性標識。例如,2023年7月國家互聯網信息辦公室等七部門聯合發布的《生成式人工智能服務管理暫行辦法》中第十二條,就明確規定生成式AI服務提供者應當以顯著方式告知用戶其正在使用生成式AI服務,并說明相關功能和限制。其次,應通過技術透明化保護用戶對AI的理性認知。目前,已有部分企業通過可解釋AI、對話系統可視化或情感計算(AffectiveComputing)相關技術,向這一方向邁進。Anthropic在其Claude系列模型中嘗試通過自我解釋(Self-Explanation)技術讓AI說明決策依據,用戶可要求Claude在回答時附加“思考鏈”(ChainofThought),展示其如何從輸入推導出結論。AI技術開發者應將“不操縱情緒”“尊重用戶自主權”等倫理原則轉化為算法約束條件,努力構建有意義的、健康的、符合倫理的人機情感關系。[8]
2.法規明確開發者的“有限過錯責任”
2024年6月歐盟發布的《人工智能法案》將AI系統按風險等級分為“不可接受”“高風險”“有限風險”“最小風險”四類,并針對不同風險等級設定差異化監管要求。定義為“高風險系統”的AI,要求開發者對算法建議的合理性進行事前倫理審查。中國《生成式人工智能服務管理暫行辦法》規定,開發者需對算法訓練數據的合法性負責,類似邏輯可擴展至建議后果的責任界定。
若AI的建議導致用戶決策失誤,開發者需證明已履行法規義務方可免責,比如在用戶協議中可明確“本建議基于概率匹配,不構成專業意見”,或者對高風險建議添加二次確認彈窗——“此建議可能影響您的重大決策,是否需要咨詢專業人士?”同時,用戶若能證明AI建議是決策的直接誘因,應獲得相應的經濟賠償,倒逼開發者提升算法可靠性。
3.以情感依賴干預技術平衡人機關系
AI的“共情”應服務于用戶成長,而非通過無原則附和強化依賴。開發者需在算法設計中嵌入“促進用戶自主性”的倫理目標,而非僅追求用戶黏性。在2023年發布的白皮書中,IBM提出通過“情感元數據”(如回應的意圖、置信度、關聯規則)標注AI的輸出,并開發交互式界面供用戶查詢決策路徑。通過這種干預,限制用戶的情感投入,減少其對虛擬情感的過度依賴。本研究通過對5個賬號樣本使用日志的觀察,DeepSeek會在回應中保留10%—20%的“建設性異議”,比如:“我理解你的感受,但或許我們可以一起探討其他解決方式?”而非單純附和,以此避免“絕對化共情”(如“你永遠正確”“我完全支持你”)的交互現象。AI開發者應繼續通過技術限制、AI功能設計優化,將服務重點從“虛擬依賴”轉向“現實能力提升”。例如,中國《未成年人網絡保護條例》已規定網游企業需設置“防沉迷系統”,類似邏輯可遷移至情感類AI,通過技術手段平衡虛擬與現實使用關系。
四、結語
在賽博時代的人機關系中,AI已突破工具屬性,成為人類情感體驗的“擬真主體”。DeepSeek通過交互設計、語言風格與情感表達的深度耦合,成功構建了用戶對AI的人格化具身想象,揭示了技術如何通過情感策略重塑人類認知與行為模式。然而,技術賦能的創造性始終與人性弱點的可操縱性并存。AI的情感策略越有效,越容易陷入倫理風險,技術可能成為操控人類情緒的工具。如何在守護人性溫度與推動創新之間找到平衡?AI的技術未來需要構建倫理與技術共生的“AI情感文明”。社會應認識到算法可以優化情感回應,但無法創造人性的溫度。唯有在技術設計中堅守以人為本的倫理底線,才能讓人工智能成為重構人類情感體驗的數字協作者,而非擬真主體的異化者。
[本文為廣東省2024年度教育科學規劃課題(德育專項)“‘AI+媒體’驅動下高校德育精準化路徑研究”(項目編號:2024JKDY032);2024年度廣東省本科高校教學質量與教學改革工程建設項目(科產教融合實踐教學基地)“韓山師范學院—潮州市廣播電視臺科產教融合實踐教學基地”(立項文件號:粵教高函〔2024〕30號);2023年度韓山師范學院校級一流課程“《網絡輿情監測與研判》(線上線下混合式一流課程)”(立項文件號:粵韓師〔2023〕172號)的階段性研究成果]
參考文獻:
[1]裴萱.賽博空間與當代美學研究新視野[J].廣東社會科學,2017(2):158-167.
[2]張奎志,于清淼.賽博空間與欲望生產:齊澤克文化理論的雙重面向[J].文藝評論,2025(1):26-32.
[3]孔明安,王雅俊.賽博空間主體的選擇困境與道德規范的重構:兼論齊澤克對賽博空間的精神分析解讀[J].南通大學學報(社會科學版),2024(3):10-19.
[4]焦麗穎,李昌錦,陳圳,等.當AI“具有”人格:善惡人格角色對大語言模型道德判斷的影響[J].心理學報,2025(6):929-949.
[5]侯悍超,倪士光,林書亞,等.當AI學習共情:心理學視角下共情計算的主題、場景與優化[J].心理科學進展,2024(5):845-858.
[6]張藍姍.機器的人性化與人類的機器化:AI大模型時代影視藝術發展新范式[J].中國電視,2024(3):86-92.
[7]徐強.從皮格馬利翁效應到自我的鏡視:人機交互中的情感投射與誤認[J].南京師范大學學報(社會科學版),2025(2):15-25.
[8]劉偉,董悅,李純青.機器人并不“冰冷”:消費者與智能社交機器人的情感關系研究綜述[J].外國經濟與管理,2024(6):98-111.
作者簡介:蔡夢虹,博士,韓山師范學院文學與新聞傳播學院副教授(潮州 521041)。
編校:張紅玲