











摘要:在當代社會,學生群體在高強度學習的壓力下,容易出現焦慮、抑郁等心理狀態。然而,由于對心理健康疾病缺乏正確認識,學生往往錯誤地將焦慮和迷茫的心態等同于精神疾病,從而產生病恥感,不愿正視自我和現實問題。學生是國家未來的擔當者,其心理健康不僅深刻影響校園的和諧氛圍,也關系到社會風貌的塑造。因此,對學生群體進行及時的心理健康篩查已刻不容緩。本研究設計了一套系統,通過實時人臉捕捉技術,結合個性化的舒緩措施,實現對學生情緒變化的實時監測和分析。將人工智能領域中的人臉識別技術應用于學生心理情緒評估,是一個充滿潛力和創新性的挑戰。本研究還對該技術的潛在應用場景進行了相關探討。
關鍵詞:YOLO算法;深度學習;實時性;情緒識別;心理舒緩
中圖分類號:TP18文獻標識碼:A
文章編號:1009-3044(2024)34-0024-04開放科學(資源服務)標識碼(OSID):
0引言
心理測評是早期預防和發現心理疾病的有效方法。然而,傳統的心理評估方法通常依賴于主觀報告或自述,存在信息獲取量不足、評估標準不統一以及時間成本高等問題。近年來,隨著現代技術的快速發展,人工智能技術已被逐步應用于心理測試領域,其中基于計算機視覺和深度學習的自動化情緒評估技術逐漸受到廣泛關注。
本文研究了一種基于YOLOv8算法的動態人臉實時捕捉學生情緒評估與舒緩系統。該系統將YOLO技術應用于人臉實時捕捉,能夠在較低計算成本的情況下實現較高的檢測準確率,有效提取學生的面部表情信息。同時,系統結合了個性化的心理舒緩措施,二者相輔相成,實現了對情緒變化的實時監測與分析[1]。
1本系統相關理論和技術
1.1卷積神經網絡(CNN)的結構[2]
1)數據輸入層(InputLayer)。主要負責處理原始圖像數據,包括去均值、歸一化、PCA白化等預處理步驟,以確保數據的一致性和可處理性。
2)卷積計算層(ConvolutionalLayer)。卷積計算層是CNN最核心的層次,包含兩個關鍵操作:局部關聯和窗口滑動。局部關聯指每個神經元(或濾波器,fil?ter)僅與輸入數據的一個局部區域連接。窗口滑動是指濾波器在輸入數據上滑動并進行卷積運算,以提取局部特征。
卷積運算的公式:
S(i,j)=(I?K)(i,j)=ΣmΣnI(i-m,j-n)?K(m,n)
式中:I代表輸入數據,K代表濾波器,S代表卷積結果。
卷積層還包含一些重要參數,例如卷積核的大小、步長(stride,即濾波器每次滑動的長度)和填充值(zero-padding,用于處理邊界問題)等,這些參數對卷積操作的效果有重要影響。
3)ReLU激勵層(ReLULayer)。ReLU激勵層位于卷積層之后,用于對卷積結果進行非線性變換,從而增強模型的非線性表達能力。
4)池化層(PoolingLayer)。池化層通常用于減少數據的空間大小(降維),降低網絡復雜度,同時保留重要的特征信息。常見的池化操作包括最大池化(MaxPooling)和平均池化(AveragePooling)。
5)全連接層(FullyConnectedLayer)。全連接層位于網絡的后端,實際上是一個傳統的多層感知機(MLP),用于將前面提取的特征映射到樣本的標記空間。
6)輸出層(OutputLayer)。輸出層的結構取決于具體任務的需求。例如,在分類任務中,通常使用softmax函數實現多分類;而在回歸任務中,則使用單個神經元輸出預測值。
1.2YOLOv8算法的發展歷程
YOLO算法經歷了從YOLOv1到YOLOv10的發展歷程,如圖1所示。
本系統采用了成熟的YOLOv8算法,該算法繼承了YOLO系列的實時檢測特性[3],即使在低硬件配置下也能實現高幀率。與前代版本相比,YOLOv8的核心優勢在于支持目標檢測、分割、分類、追蹤、姿態估計等多種計算機視覺任務,并顯著提升了mAP(平均精度),這表明模型的檢測精度得到了大幅提高[4]。
YOLOv8采用了先進的CSPDarknet53骨干網絡和PANet特征聚合模塊,進一步優化了特征提取和物體檢測性能。同時,YOLOv8引入了無錨的Ultralytics頭(UltralyticsHead),相較于傳統的基于錨點的方法,無錨設計提高了檢測過程的準確性和效率。此外,為了在資源有限的設備上實現實時目標檢測,YOLOv8還推出了輕量化版本,如YOLOv8-tiny。
1.3YOLOv8算法介紹
YOLOv8的模型結構如圖2所示,由Backbone、Neck和Head三部分組成。其主干網絡(Backbone)包含卷積層(Conv,Convolution)、c2f(CSPDarknet53to2-StageFPN)結構和SPPF(SpatialPyramidPooling)模塊[5]。
其中,卷積層用于提取目標特征,第一個卷積核采用3×3卷積。在YOLOv7版本中,開始將卷積操作(Conv)與批歸一化(BatchNormalization)進行了合并處理,從而大幅提高了模型的運行速度。批歸一化(tuBraetcmhaNpso)rm進a行liza歸tio一n)化是處指理對,卷其公積式后如得下到:的特征圖(fea?turemaps)進行歸一化處理,其公式如下:
其中:γ是縮放系數,β是平移系數,μ和σ2分別為均值和方差,且均由每個通道(channel)單獨計算。同時,YOLOv8使用了SiLU(SigmoidLinearUnit)作為模型的激活函數。SiLU函數的定義如下:
f(x)=x?sigmoid(x)
與ReLU(RectifiedLinearUnit)函數相比,SiLU函數具有更強的非線性表達能力,從而顯著提升了網絡的表征能力。
此外,YOLOv8在c2f模塊中相較于YOLOv5的c3模塊,增加了更多的分支跨層連接和切分(split)操作。通過對特征圖進行切分、提取新的特征并拼接,c2f模塊能夠更好地學習殘差特征,從而提升模型的特征表達能力。
在損失函數方面,YOLOv8取消了YOLOv5中的對象損失函數(ObjectnessLoss),而采用分類損失和回歸損失兩種損失函數。損失函數用于計算網絡模型預測值與真實值之間的距離,通過優化損失函數,可以確定模型的改進方向。損失函數的值越小,代表模型的預測能力越強,精準度越高。
YOLOv8的分類損失函數為二元交叉熵(BCE,Bi?naryCrossEntropy),其公式如下:
式中:yi=1時表示屬于該類,yi=0時表示不屬于該類。二元交叉熵損失把屬于該類和不屬于該類的熵相加,保證了損失函數在結果上不會為零。
在回歸損失函數上,YOLOv8采用了以下公式,
IoU(IntersectionoverUnion)是指檢測到的預測框與真實框的交集面積與并集面積之間的比值,用于衡量檢測框的定位精度。公式中,ρ表示矩形框之間的歐式距離,c是矩形框的對角線距離,α代表權重系數。此外,引入了DFL(DistributionFocalLoss)損失,大幅提升了模型的泛化能力[7]。
2學生情緒評估模塊
2.1圖像輸入
YOLO模型通過OpenCV或PIL庫對輸入圖像進行預處理,具體步驟包括:1)像素調節:對圖像像素值進行調整以適配模型輸入需求;2)雙線性插值尺寸調整:將圖像調整為固定尺寸;3)卷積操作與特征提取:通過卷積層提取圖像的局部特征;4)歸一化處理:對像素值進行歸一化處理,使數據分布更均勻;5)顏色空間轉換:將圖像從RGB轉換為灰度或其他顏色空間。為了提高模型的訓練效率和魯棒性,還會采用隨機裁剪和隨機縮放等數據增強方法[8]。
2.2數據集分析
本研究基于經典的FER2013人臉表情識別數據集對模型進行訓練。
FER2013是一個在深度學習社區中被廣泛用于人臉表情識別任務訓練和評估的數據集,最初由Pierre-LucCarrier和AaronCourville創建,并于2013年發布。該數據集包含35887張灰度圖像,每張圖像的分辨率為48×48像素,并標注了七種不同的情感類別:開心(Happy)、憤怒(Angry)、悲傷(Sad)、害怕(Fear、驚訝(Surprise)、厭惡(Disgust)和中性(Neutral)。
FER2013數據集中的圖像來源于互聯網,圖像質量各異,但具有較高的真實性,能夠很好地反映真實世界中的數據多樣性。這種多樣性為模型的訓練和評估提供了良好的基礎[9]。
本研究使用YOLO算法對FER2013數據集進行訓練[10],并使用其中四分之一的數據作為測試集。同時,邀請了1000名學生志愿者對訓練好的模型進行多次驗證。
在模型訓練過程中,損失函數值不斷減小,驗證集的loss值在380次訓練后趨于穩定,最終達到0.128。模型對多種情緒的平均準確率為96.41%,召回率為97.98%。
圖5展示了模型訓練過程中損失函數的變化趨勢,可以看出模型在訓練過程中逐漸收斂。圖6和圖7分別展示了模型的精度和召回率曲線,表明模型在情緒識別任務中取得了良好的性能。
經過多次測試后可以得出結論,系統能夠有效捕捉測試者的面部表情,并準確評估其情緒狀態。
2.3識別的準確性分析
通過混淆矩陣分析模型的平均精度(AP)和平均精度均值(mAP),可以評估模型的訓練性能和準確性。在分析中,將真實標簽設定為正類。
Precision(精確率)表示正確預測的正類樣本占所有預測為正類樣本的比例,其公式為:
precision=TP/TP+FP
其中,TP表示真正類樣本數,FP表示假正類樣本數。
Recall(召回率)表示正確預測的正類樣本占所有實際正類樣本的比例,其公式為:
recall=TP/TP+FN
其中,FN表示假負類樣本數。
AP值是通過Precision-Recall曲線計算得出的,用于表示單一類別的預測平均精度;而mAP值則表示所有類別的平均精度均值。模型的AP值和mAP值越高,表明模型的預測準確性越高。
3學生舒緩心理模塊
3.1趣味測試
系統的趣味測試是學生心理緩解模塊的核心部分。該模塊包括性格測試和情緒測試,配備了豐富的題庫,旨在幫助學生通過答題測評更好地了解自己的性格特征和情緒狀態。當學生進入系統并選擇趣味測試后,可以根據自身需求選擇不同類型的測試。
1)性格測試。性格測試模塊具備完善的測試題庫,幫助學生發現自己的性格特征。測試過程中的問題充滿趣味性,有效緩解了學生在測試過程中可能產生的枯燥感,保障測試的順利進行。測試完成后,系統會將測評結果匯總并反饋給學生,幫助其更好地認識自己。
2)情緒測試。情緒測試旨在幫助學生了解自己的情緒狀態及情緒管理能力。通過測試問題和系統建議,學生可以更好地理解和控制自己的情緒,從而提升情緒管理水平。
3.2視頻課程
視頻課程是本模塊的另一個亮點。學生情緒評估與緩解系統提供了一系列高質量的心理教育與心理咨詢課程,涵蓋了情緒管理、壓力管理、時間管理等多個方面。課程通過專業的講解和典型案例研究,幫助學生掌握心理調節技能,提高對壓力的抵抗力。
生動有趣的視頻課程將抽象、枯燥的心理概念變得更加直觀和易于理解。在普及心理知識的同時,課程也起到了心理疏導和放松的作用。學生不僅能夠學習心理健康知識,還能通過這些課程有效緩解心理壓力。
3.3廣播FM
廣播FM模塊涵蓋了音樂、故事、采訪等多個領域的節目。學生可以通過聆聽輕松的音樂和生動有趣的故事來減輕壓力,緩解情緒焦慮,享受心靈的休息。同時,采訪節目為學生提供了發展身心健康的靈感和思考。
學生情緒評估與緩解系統以趣味測試、視頻課程和廣播FM的三合一形式,為學生提供心理測評與心理緩解的服務。該系統幫助學生提升情緒管理技能和心理素質,是一種創新且有效的工具。通過心理測評與心理緩解的結合,學生能夠更好地了解自己的心理狀態,預防和應對潛在的心理問題。
隨著未來數字醫學時代的到來,YOLO測評與心理測評相結合的形式將在提升學生心理健康和幸福感方面發揮更大的作用。
4系統優勢
4.1系統結構
基于YOLO動態人臉實時捕捉的學生情緒評估與舒緩系統包括情緒評估和舒緩心理兩個模塊。系統要求用戶在具備適合面部表情識別的環境條件下使用。
1)情緒評估模塊。情緒評估模塊需要用戶使用帶有攝像頭的設備。在進入情緒評估模塊后,用戶需將面部完全置于鏡頭范圍內,并點擊“開始識別”按鈕。系統會實時捕捉并分析用戶的面部表情,將每種表情識別為對應的情緒類別,并附上相應的情感標簽,實時顯示給用戶。
2)舒緩心理模塊。舒緩心理模塊旨在為用戶提供輕松、愉悅的體驗,幫助用戶放松心情和管理情緒。用戶進入舒緩心理模塊后,可以根據自己的需求選擇適合的功能模式,包括趣味測試、視頻課程和廣播FM。
4.2系統創新點
1)實時動態人臉捕捉。系統利用YOLO深度學習框架的高效性和精確性,能夠實時捕捉視頻流中的學生人臉。這種實時性保證了系統能夠在極短時間內對學生的情緒狀態進行響應和評估。
2)高精度情緒識別。系統結合計算機視覺技術與深度學習算法,高精度解析面部表情信息,能夠識別出快樂、悲傷、驚訝、憤怒、厭惡、恐懼和中性等基本情緒,為系統提供可靠的數據支持,使評估結果更具參考價值。
3)多樣化模塊設計。系統提供用戶友好的模塊界面,用于實時顯示學生情緒評估的結果。界面設計簡潔明了,方便用戶快速獲取并理解評估結果,從而提升用戶體驗和興趣。
4)良好的擴展性與未來兼容性。本研究基于開源的YOLO深度學習框架,具有良好的擴展性和兼容性。未來可以根據需求對系統進行進一步開發和優化。通過將YOLO動態人臉實時捕捉與學生情緒評估相結合,系統在實時性、準確性和應用場景等方面具有顯著的創新性,為學生情緒評估的智能化和個性化發展提供了強有力的支持。
5結束語
本研究提出了一種基于YOLO算法的全新學生情緒評估方法。通過實時捕捉學生的面部表情特征,利用深度學習模型對學生情緒進行評估,同時增加了舒緩心理的功能模塊,增強了學生的使用體驗,使系統更加完善和個性化。該系統旨在幫助學生更好地理解自身情緒變化,從而能夠做出更為理性和正確的判斷,促進健康成長。
盡管如此,系統的算法和性能仍需持續研究和改進,以探索更多的應用場景并拓展模型的功能范圍。在當前科技不斷進步的大趨勢下,未來將涌現出更加智能的輔助情緒評估系統,為學生情緒評估方法帶來更多創新與變革。
參考文獻:
[1]夷德.基于YOLO的目標檢測優化算法研究[D].南京:南京郵電大學,2021.
[2]沈雅婷,白郁馨.卷積網絡結構優化的人臉識別算法[J].電腦與電信,2023(6):9-13,17.
[3]任培銘.基于YOLO的實時目標檢測方法研究[D].無錫:江南大學,2019.
[4]劉彥清.基于YOLO系列的目標檢測改進算法[D].長春:吉林大學,2021.
[5]許習軍,張明遠,孟文俊,等.基于機器視覺的緊密排列目標檢測研究[J].起重運輸機械,2024(9):20-28.
[6]毛玉龍.基于不同卷積神經網絡的目標檢測算法對比研究[J].測繪標準化,2023,39(4):39-43.
[7]王貞,邱杭,吳斌,等.基于CCG-YOLOv8的施工場景下安全帽佩戴檢測[J].武漢理工大學學報,2024,46(6):73-80.
[8]惠康華,劉暢.基于YOLO5Face重分布的小尺度人臉檢測方法[J].計算機仿真,2024,41(3):206-213.
[9]何穆彬,萬振凱.基于大數據的學生情緒異常波動風險評估仿真[J].計算機仿真,2023,40(9):247-250,273.
[10]丁祥,唐宏偉,石書琪,等.基于改進EfficientNet的表情識別方法[J].自動化應用,2024(8):203-206,210.
【通聯編輯:唐一東】
基金項目:賀州學院博士科研啟動基金項目資金資助(項目編號:2024BSQD09)