大學生是國家發展的中堅力量,其心理健康水平既關系到個人的成長發展,也關系到國家的長足穩定。隨著高校擴招與社會競爭的加劇,大學生心理健康問題日益凸顯,高校對加強大學生心理健康教育具有重要責任。2025年1月,中共中央、國務院印發的《教育強國建設規劃綱要(2024—2035年)》強調要促進人工智能助力教育變革,生成式人工智能(AI)的發展為高校心理健康教育帶來了新的可能。
一、人工智能賦能心理健康教育的理論基礎與實踐探索
(一)認知行為理論與基于認知行為療法的智能糾偏模式
認知行為理論強調認知對行為和情緒的影響,其認為錯誤的認知或認知扭曲可能導致個體的情緒和行為問題。認知行為療法通過幫助人們識別和糾正錯誤的認知來改善情緒和行為。艾莉森·多爾西(AlisonDarcy)是美國的一位臨床心理學家,她創立的健康公司基于認知行為療法開發了一款AI心理聊天機器人。該機器人通過人機對話,能夠識別用戶的消極思維模式,并引導用戶進行認知重構,從而改善用戶的情緒。該公司的數字干預技術在心理健康領域得到廣泛運用,在同行評審文獻中的引用量位居前列,這表明其在心理干預方面具有較高的科學性和有效性。在高校心理健康服務體系的建設中,基于認知行為療法的智能機器人可以有效幫助大學生及時識別錯誤認知,提升心理健康水平。
(二)人本主義理論與基于“當事人中心”心理療法的智能咨詢模式
美國心理學家卡爾·蘭塞姆·羅杰斯(CarlRansomRogers)的人本主義理論認為,人的本性是積極向上的,積極向上的動力來自人在滿足需求的過程中的\"自我實現”[因此,心理健康教育者應充分關心人的尊嚴,信任人的自由,關注個體的自我價值實現。依據人本主義理論開發的智能機器人打破原有的疾病診斷界限,把學生當作“來訪者”而非“病人”,利用給予“來訪者”足夠的尊重與重視起到的積極健康的心理暗示作用,使學生增強自我價值感,從而激發學生自我教育與自我疏導,實現心理健康發展。“自在\"心理疏導大模型(測試版)將人工智能技術與心理學專業知識相結合,于2025年在國家智慧教育平臺上線。2該大模型模擬人類心理咨詢師的“共情能力”與用戶深刻對話,引導用戶表述內心的焦慮情緒,循循善誘以提供解決方案。此次人工智能技術基于人本主義理論的重要嘗試,若引入高校,則可以幫助大學生用戶打破時間、地點的界限,降低專業心理咨詢的門檻,為大學生提供移動端即時智能心理咨詢,幫助大學生激發心理健康教育的自我效能。
(三)正念理論與基于接納承諾療法的智能冥想模式
正念理論源于佛教的正念參禪,人們通過正念練習,如實察覺身心變化,撫平躁動情緒,實現內心的平靜。正念療法能改善各年齡段抑郁癥患者的抑郁癥狀,包括青少年抑郁癥患者、成年抑郁癥患者以及老年抑郁癥患者。3正念療法在提高個體的情緒調節能力、維持情緒穩定、增強主觀幸福感和提高生活質量等方面具有重要的作用。接納與承諾療法(AcceptanceandCommitmentTherapy,縮寫為ACT)則是結合靜觀及正念理念,具有科學實證基礎的一種心理治療方法。2023年,香港中文大學護理學院開發了一款基于接納與承諾療法的智能手機應用程序,用來幫助有特殊照顧需求兒童的家長改善其心理精神健康狀態,取得了良好的臨床效果。高校心理健康教育系統可以打造基于正念療法的人工智能服務,引導大學生進行正念冥想,幫助他們撫平焦慮情緒。
二、人工智能賦能心理健康教育面臨的現實困境
(一)情感無能與交互不足導致倫理風險
生成式人工智能本質上只具有工具屬性,并不具有真實的人類情感。人類語言是依托個體的生理、心理與社會文化基礎背景而產生的具有主觀性、復雜性與自覺調控性的表達。而人工智能基于算法與數據,以實現某種工具性目的展開驅動,缺乏人類特有的身心與社會情感體驗,因此有時難以精準理解復雜語言的隱含情感。當人類表達出深度情感時,人工智能的情感無能就會暴露出來。面對文化背景迥異、個性特質鮮明的學生群體,人工智能系統常常表現出應對乏力的狀態,其干預措施因缺乏針對性而未能產生實質效果。人工智能對大學生的心理描述無法做到真正的共情,而后者卻有概率將人工智能誤認為是具有真實人類情感的傾聽者,要求與人工智能產生深層次“人類互動\"而不得時,會產生受騙心理,從而引發倫理風險。
(二)數據偏向與復雜算法引發信任危機
人工智能的心理評估模型大多基于普適性數據,難以充分考慮每個用戶的獨特個性、成長經歷和文化背景。然而,當用戶多次使用帶有記憶功能的人工智能交互技術時,其推薦算法便會經過大數據分析從而具有個性化偏向。這種偏向會基于歷史數據推薦符合用戶期待且相同類型的內容來滿足用戶的喜好。對于大學生而言,偏向化推薦會導致其認知路徑的固化與窄化,從而形成“信息繭房”,限制其多樣化思維的發展。同時,人工智能模型的內部決策過程十分復雜并且難以解釋,用戶難以理解運算依據,從而導致對人工智能的信任危機。
(三)數據隱私安全問題與法律保障的暫缺
人工智能系統為數據驅動,依賴大量真實數據進行的訓練。而數據中包含的用戶敏感信息往往會成為黑客攻擊的對象,一旦被攻破,用戶的信息被用作非法商業用途,其后果將不堪設想。因此,在人工智能系統處理用戶心理數據時,保障數據隱私安全就顯得尤為重要。高校心理健康教育體系如若引入人工智能,難免需要在系統內輸入、保存學生的信息,而學生在人機交互的心理咨詢中也難免會透露個人隱私,可能會對學生、家長以及學校都造成嚴重的傷害。現階段有關人工智能的法律法規尚不完善,法律地位尚不明確,法律責任尚難界定,學生個人信息泄露后法律責任的劃定存在困難;人工智能技術的快速發展帶來了法律空白,現有法律難以適用于當下的新技術,亟待構建并完善人工智能時代數據安全保障法律體系。
(四)推廣應用成本較高,間接引發教育不公
人工智能系統的推廣和應用需要大量資金投入與設備支持。系統的按時維護、數據的及時處理、網速的時效匹配等因素是人工智能算法短期駐扎高校所依托的條件;新技術與現有心理健康教育體系的融合也十分重要,二者的相互輔助、和諧共存是決定新技術長久留用的關鍵。然而,以目前的情況來看,傳統的心理咨詢流程與智能心理教育系統難以無縫對接,暫未形成有效合作,導致實際應用效果并不理想。在實際落地方面,經濟發達地區資金充足的高校可以較大程度滿足人工智能融入本校心理健康教育中心的需求,但偏遠地區的高校可能會由于硬件設備、網絡條件、資金不足等因素無法有效應用人工智能心理健康教育系統,這在一定程度上加劇了教育不公。
(五)師生認知存在局限,人機協同互動能力不足
教育工作者與學生對人工智能技術的理解和接受程度在一定程度上影響了人工智能在高校心理健康教育領域的落地,對人工智能技術的過度依賴也是認知不足的表現。部分教育工作者對人工智能技術的了解有限,缺乏將AI融入心理健康教育的意識和能力;學生對人工智能技術在心理健康教育中的作用認知不足,缺乏向人工智能求助的相關知識和意識;也有一些學生對人工智能技術產生情感與思維依賴,壓縮自身獨立思考的時長與空間,導致學生自主學習、自我教育能力減弱,不利于學生的身心健康發展。在認知不足的影響下,師生無法正確把握人機協同互動的界限,會造成人機協同互動能力不足。
三、技術賦能高校心理健康教育的路徑探索
(一)優化自然語言處理技術,明確倫理責任歸屬
未來,人工智能的研發者在心理健康教育領域中的研發需要融合多模態數據4,開發具有更自然的情感理解與表達功能的模型,提升人工智能技術對復雜語言和情感的識別能力,使人工智能技術的回應更具真實感。在處理長篇對話時,人工智能系統需要保持對話的連貫性,提升人機交互的質量。人工智能本質上是一種工具,它本身并沒有承擔倫理責任的能力,因此開發者和使用者要能夠明確責任歸屬,在數據處理、情感識別和交互反饋等環節中嵌入倫理規則,從而避免倫理糾紛。因此,相關部門要加強公眾對人工智能技術在情感模擬中倫理邊界的公共討論與道德引導,幫助用戶明確人工智能技術的工具屬性與輔助定位,形成對人工智能技術發展的廣泛共識,為技術治理提供更具包容性和智慧性的路徑選擇。5]
(二)增強算法透明化,引入抗偏向模型
技術部門應積極建立透明化的技術流程和運行機制,明確人工智能技術的工作原理和數據來源;繼續加大開發模型解釋工具的力度,通過可視化技術來展示人工智能在生成結果的過程中重點關注的數據,使教師和學生能夠理解復雜模型的內部機制,從而加深對人工智能技術的信任。“實現情感模擬的可解釋性要求AI能夠清楚地說明情感生成的依據和過程。在模型設計中,應融入可解釋性功能,使AI在生成情感表達時能夠簡潔地解釋其判斷依據。”[6]研發者可以積極引入抗偏向模型,禁止算法通過設定隱性參數固化階層的認知差異,堅決避免讓用戶陷入“認知窄化\"的負面循環中。高校要鼓勵并保障師生用批判性思維與跨學科知識整合能力來使用人工智能技術。
(三)強化數據隱私保護,加快法律體系構建完善
立法部門應進一步制定和完善高校心理健康教育與人工智能技術應用融合的數據隱私安全法律規章,明確人工智能技術在心理健康教育中的法律地位和責任,對數據的收集、存儲和使用等流程提供明確的法律依據。高校應與研發人員密切合作,在充分遵守法律規范的前提下建立健全人工智能技術引入高等學校心理健康教育時的數據隱私安全保障機制;建立嚴格的數據加密和訪問控制機制,明確數據的使用規范、使用范圍和使用目的。同時,相關部門要鼓勵技術人員加強數據安全防護,在大數據計算環境下分析不同隱私保護技術的利弊,采用適于高校長久發展的隱私保護技術來保障學生的數據隱私與安全,構建多數據源協同訓練的隱私保護框架。7]
(四)開發輕量級模型,優化資源配置
科研技術部門可以針對偏遠地區開發輕量級人工智能模型,降低對高性能設備的依賴以降低成本。對于網絡不發達地區,相關部門可以采用離線部署,即通過本地存儲的資源數據庫來減少對有線網絡的依賴。政府應優化資源配置與資金支持機制,加強以政府為主導的專項基金支持力度,確保欠發達地區人工智能心理健康教育基礎設施設備的搭建。教育部門應實施高校“西部支援\"對口幫扶計劃,讓欠發達地區部分學校可以免費使用智能技術的部分功能,優化資源配置。
(五)培育人工智能素養,提升師生人機協同能力
高校應加大人工智能技術培訓項目的投入力度,幫助教師了解并掌握人工智能技術在心理健康教育中的優勢和應用場景,如對教師進行跨學科AI技術實操培訓,開設“AI + 心理健康\"跨學科研修班并納入繼續教育學分考核,聚焦教師創新能力培養與人文情感關懷,提升教師的專業化人機協同能力,強化實踐應用。在學生教育方面,高校則可增設“AI倫理與隱私保護\"通識課程,加強師生對人工智能算法邏輯和數據驅動的理論學習與深化,逐步有序地提高學生對AI在心理健康教育應用中的認知。同時,高校應在心理健康教育活動中增加AI技術體驗環節,加入配套虛擬仿真實驗,模擬數據泄露場景,加強學生的個人隱私保護意識,消除學生對AI的誤解,讓師生與人工智能和諧相處,提高學生的人工智能素養與人機協同能力。
四、結語
智能糾偏模式、智能咨詢模式和智能冥想模式都表現出人工智能技術融入高校心理健康教育之可能,但構建人工智能技術與心理健康教育融合的可持續發展生態仍需要全社會的共同努力。技術人員要繼續推動人工智能技術不斷優化升級;高校要搭建產學研協同創新與合作共贏的平臺;全社會要積極構建人工智能時代心理健康教育新體系,確保人工智能技術真正服務于高校,助力大學生擁有健康心理和幸福人生。
參考文獻
[1]吳漢玲.當代大學生心理健康與全面發展研究[M].北京:中國原子能出版社,2022:87-88.
[2]教育部發布國家智慧教育平臺2.0智能版[J].中國電力教育,2025(3):7.
[3朱柯蒙,汪曉,張慶娥.正念療法在常見精神疾病治療中的研究進展[J].中國神經精神疾病雜志,2023(10):636-641.
[4]劉冬予,駱方,屠焊然,等.人工智能技術賦能心理學發展的現狀與挑戰[J」.北京師范大學學報(自然科學版),2024(1):30-37.
[5]
[6]張寧,高鵬程.生成式人工智能情感模擬的倫理風險與治理路徑:基于技術一社會互構理論框架的分析[J.科學決策,2025(2):123-134.
[7]錢文君,沈晴霓,吳鵬飛,等.大數據計算環境下的隱私保護技術研究進展[J.計算機學報,2022(4):669-701.