
引言
智慧教育是人工智能時代的教育新形態,旨在以數據治理為核心、以數智技術為驅動,提升教育現代化水平[]。然而,無論教育形態如何改變,學生注意力研究都是至關重要的。這是因為,學生的注意力會直接影響其學習效果,同時學生的注意力水平也是影響教師教學成效的關鍵因素之一[2]。近年來,作為教育過程性評估的核心觀測指標,學生注意力已成為提升教學質量的關鍵。但是,當前學生注意力評估還存在若干局限,如在一對多的教學環境下,很難全面且及時地評價每個學生的注意力;評價手段單一,限制了對學生注意力影響因素的全面考量;評價標準不統一且缺乏一個有效的聯合模型,導致評價結果過于依賴某一標準,而未能有效減少評價誤差;表情識別技術在準確性上的不足,也使得對學生注意力的評價出現了偏差[3]。
多特征學生注意力評估是指通過整合面部表情、頭部姿態、疲勞度等多維行為特征,對學生課堂認知投入狀態進行量化分析的研究范式。深度學習技術憑借其強大的特征提取與融合能力,為高效、動態地捕捉上述多維行為特征提供了關鍵的技術支撐。基于此,本研究先設計多特征學生注意力評估路線,實施深度學習驅動的多特征學生注意力評估并對學生注意力進行精準量化分析。在此基礎上,本研究嘗試構建深度學習驅動的多特征學生注意力評估模型,并進行該模型的應用與效果驗證,以期通過實時且精準的注意力評估,輔助教師動態調整教學策略,實現對課堂教學的個性化干預,同時為教育管理者提供數據驅動的決策依據,推動智慧教育環境下課堂教學模式的深度變革與優化。
一多特征學生注意力評估路線的設計
為精準評估一對多教學環境下學生的課堂注意力,有效改善現有評估方法在全面性、實時性、多維度考量、誤差控制及表情識別準確性等方面的不足,本研究設計了“‘人臉檢測 $$ 表情識別 + 頭部姿態估計與疲勞度檢測’" 學生多維度特征融合”的多特征學生注意力評估路線,如圖1所示。該路線旨在通過系統整合面部表情、頭部姿態、疲勞度等多維行為特征,實現對學生注意力的精準量化分析,并為后續構建多特征學生注意力評估模型提供理論指導。

1人臉檢測
目前,我國課堂教學仍多為“大班教學”,即由一名教師對多名學生進行教學和管理。在這種教學模式下,人臉檢測作為課堂教學數據采集的基礎環節,其檢測精度直接關系著后續算法的有效性和學生注意力評估結果的可靠性,其操作步驟如圖1的 ①~⑤ 所示。為構建適用于真實課堂教學環境的神經網絡模型,本研究采用RetinaFace人臉檢測模型,并結合WiderFace數據集開展訓練——此數據集涵蓋高遮擋、多角度、低分辨率及復雜光照條件等多樣化場景下的人臉圖像樣本,能夠高度還原實際授課環境,有效提升RetinaFace人臉檢測模型在課堂場景下學生人臉識別任務中的魯棒性與準確率。
2表情識別
完成人臉檢測后,便進入表情識別環節,其操作步驟如圖1的 ⑥~? 所示。基于Mediapipe框架的468關鍵點面部特征檢測算法,本研究首先對 FER2013數據集進行精細化重標定,將面部表情分為排斥、聆聽、困惑、激動四種,并經過人工復查,來確保分類的準確性與合理性,獲得重標定的面部表情識別數據集FER2013。為進一步提升算法在教學環境中的適應性,本研究同步構建了自制表情數據集:通過攝像頭記錄15名志愿者學生的聽課視頻,從中提取初始視頻幀。在每段視頻中,志愿者學生以分鐘為單位分別展示排斥、聆聽、困惑、激動四種表情,構成人臉表情圖像數據集。隨后,將重標定的面部表情識別數據集FER2013和人臉表情圖像數據集按7:3的比例混合,作為本研究的初始數據集。最后,利用此初始數據集對融合了CBAM注意力機制模塊的ResNet表情識別模型進行訓練與優化。
3頭部姿態估計和疲勞度檢測
頭部姿態估計和疲勞度檢測的操作步驟如圖1的 ?~? 所示,其中人臉關鍵點的精準檢測與定位至關重要。本研究復現了Dlib 關鍵點檢測、手工訓練的深度學習模型關鍵點檢測和Mediapipe關鍵點檢測三種方案,經對比驗證后選用Mediapipe關鍵點檢測作為最終方案。具體來說,先利用Mediapipe對步驟 ⑤ 得到的每幀圖像中的所有學生人臉進行關鍵點檢測,獲取課堂中每名學生的468個人臉關鍵點信息;之后基于這些關鍵點信息,對每一名學生進行頭部姿態估計和疲勞度檢測。
4學生多維度特征融合
學生多維度特征融合的操作步驟如圖1的 ? 所示。首先,系統地提取學生面部表情、頭部姿態、疲勞度三個維度(共7項)的指標:一是面部表情維度,捕捉學生情緒的細微變化,具體為“排斥”(x1)、“聆聽”(x2)、“困惑”(x3)和“激動”(x4)這四種表情的累計出現次數;二是頭部姿態維度,分析學生的頭部朝向與角度,判斷其專注方向,具體為頭部姿態位于Pitch lt;-5° 、 -15°° 這一范圍內的低頭次數(x5);三是疲勞度維度,結合眼部和嘴部的開合程度,評估學生的精神狀態,具體為學生的打哈欠次數(x6)和閉眼次數(x7)。之后,將提取的7項指標輸入機器學習算法——極限學習機(ExtremeLearningMachine,ELM),對學生的多維度特征進行融合,實現對學生注意力的精準量化。最后,構建深度學習驅動的多特征學生注意力評估模型并進行具體的教學應用與效果驗證。
二深度學習驅動的多特征學生注意力評估的實施與精準量化
在學生注意力評估中,獲取多維表征信息是實現精準評估的關鍵。按照多特征學生注意力評估路線,本研究選取面部表情、頭部姿態、疲勞度三個維度作為學生注意力評估的核心指標。其中,面部表情評估是通過RetinaFace人臉檢測模型定位學生的面部區域,之后通過融合了CBAM注意力機制模塊的 ResNet表情識別模型,來識別學生進行課堂學習的面部表情。而頭部姿態、疲勞度評估是采用頭部姿態估計和疲勞度檢測的方法,通過頭部朝向與角度、眼部和嘴部的開合程度,來量化分析學生的專注狀態與投入程度。
1學生面部表情識別
(1)RetinaFace人臉檢測模型
人臉檢測是表情識別的基礎。目前,學生人臉檢測面臨一系列挑戰,主要表現為: ① 人臉尺度方面,受教室布局和座位排列的影響,后排學生的面部在攝像頭中存在小尺度、低像素、多遮擋等問題,且隨著學生與攝像頭距離的增加,基于深度學習的人臉檢測算法性能明顯下降; ② 人臉姿態方面,由于攝像頭角度固定,且學生頭部動作較多,故課堂中存在大量不同姿態的人臉圖像,這使得人臉檢測難度大; ③ 光照環境方面,實際授課環境中陽光照射角度的變化和室內燈光的不均勻等問題,也會對人臉檢測效果產生負面影響。對此,本研究應用RetinaFace人臉檢測模型,通過模型的多尺度特征金字塔結構處理小尺度人臉并用其預測的五個人臉關鍵點來增強檢測魯棒性,結合WiderFace數據集,進一步提升學生人臉檢測效果。
(2)融合了CBAM注意力機制模塊的ResNet表情識別模型
盡管人臉表情識別技術日益成熟,但在大課堂這一特定場景下的識別效果仍不盡人意。而現有的學生表情識別分類體系難以反映真實課堂教學情境下的學生情感狀態,其分類標準也缺乏堅實的理論基礎與科學驗證[4]。因此,為訓練出更貼合真實課堂場景的表情識別模型,本研究首先基于羅素情感模型[5],對FER2013數據集進行重標定,并根據學生的課堂行為特征[6],重新定義出“排斥”“聆聽”“困惑”“激動”四種標簽,以精準表征課堂上學生的情感狀態。之后,通過電腦攝像頭采集15名學生志愿者的動態表情視頻,構建自制數據集,并將兩類數據集按7:3的比例混合,作為模型訓練的初始數據集。最后,經實驗比較與驗證,本研究選取ResNet34作為主干網絡,并引入CBAM注意力機制模塊[7,形成融合了CBAM注意力機制模塊的ResNet 表情識別模型,并利用初始數據集對此模型進行訓練與優化,使其聚焦學生表情的細微變化與深層次特征,增強對學生不同面部表情的區分能力。
2學生頭部姿態估計和疲勞度檢測
學生頭部姿態估計和疲勞度檢測主要基于468個人臉關鍵點信息的分析來實現。本研究采用基于位姿矩陣的姿態檢測方法進行學生頭部姿態估計——此方法結合Mediapipe檢測到的468個人臉關鍵點,應用PNP 算法計算出學生頭部的三維信息值(即俯仰角Pitch值、航向角Yaw值、橫滾角Roll值)[8;同時,統計學生頭部處于不同姿態時三維信息值的分布范圍,界定出表征學生“低頭”姿態的三維信息值范圍。基于位姿矩陣的姿態檢測效果如圖2所示。

為更好地表征學生的疲勞度,本研究將一節課中每個學生的閉眼次數和打哈欠次數作為評價指標來進行疲勞度檢測。而學生是否閉眼、是否打哈欠,分別由描述眼部狀態的EAR值、描述嘴部狀態的MAR值進行表征。基于本研究團隊開發的代碼,結合實際教學視頻的數據分析,本研究提取15名志愿者學生的EAR序列和MAR序列,并同步記錄人工標注的疲勞等級( 1~3 級,分別為不疲勞、較為疲勞、嚴重疲勞)。采用 Spearman秩相關系數進行分析,可以發現EAR均值與疲勞等級顯著負相關 (r=-0.72,plt;0.01) ,MAR均值與疲勞等級顯著正相關( ?=0.68 , plt;0.01 ),可見EAR值、MAR值都能有效表征學生的疲勞度。基于此,本研究設置了不同面部特征的EAR 閾值和MAR閾值(如表1所示)來判斷學生的疲勞度。

對兩種眼部狀態(睜眼、閉眼)和三種嘴部狀態(閉嘴、微張嘴、打哈欠)進行兩兩搭配組合,即可得到六種面部狀態,如圖3所示。

三深度學習驅動的多特征學生注意力評估模型構建
1圖像特征評測法與ELM算法
Brozina 等[0]的研究表明,學生的學習效果與其學習注意力之間存在顯著的正相關關系。可見,注意力是衡量學生學習效果的一個重要因素。Fredricks等11]提出,學生注意力可解構為情感參與、認知參與和行為參與三個維度。其中,行為參與作為可觀測的基礎要素,是衡量學習質量的重要行為表征[12],具體可通過學生上課時的外顯行為,如是否抬頭、眼睛是否注視黑板或教師、有何情感反應等進行多維度的學生注意力評估。如何通過可量化的行為特征實現對學生注意力的精準評估,已成為智慧教育研究的關鍵課題。在當前的評估研究中,操作行為評測法(如作業分析、問卷調查等)雖然易于實施且能收集主觀反饋,但受個體習性影響顯著且數據處理成本高[13];生理參數評測法(如腦電、心率變異等)依賴精密儀器,易干擾學習狀態且實施門檻高4]。而相比之下,圖像特征評測法聚焦于捕捉學習者自然狀態下的外顯行為信號(如面部表情變化、頭部姿態異常、坐姿偏離等),具有非接觸、可擴展性強、較為客觀、實施成本低等優勢,成為了適配真實課堂復雜環境的理想選擇[15]。因此,本研究選擇圖像特征評測法,通過計算機視覺技術解析連續視頻流,為深度學習模型提供數據輸入,進而量化分析與學生注意力密切相關的行為特征。
然而,在進行實際應用的過程中,本研究面臨如何運用圖像特征評測法來高效融合面部表情、頭部姿態、疲勞度等多維度行為特征,并將其實時轉化為可解釋注意力評估結果的挑戰。對此,本研究引入ELM算法作為特征融合與建模的核心。ELM作為一種高效的單隱層前饋神經網絡,其優勢在于通過隨機初始化隱層節點參數并固定,僅需通過求解 Moore-Penrose廣義逆即可直接獲得輸出層的權重,這種無需迭代優化的機制使其訓練速度相較于傳統神經網絡大幅提升,能夠滿足課堂評估對實時性的嚴苛要求,并且ELM算法能在極快的計算速度下達到最小訓練誤差并保持良好的泛化性能,其算法結構簡單、易于部署[]。為了使多特征學生注意力評估結果直接服務于課堂教學,本研究設計并開發了專用的上位機程序界面——本研究中的“上位機”專指運行于教師端計算機、用于集成本研究用到的所有算法、能可視化分析結果并提供交互功能的應用程序,教師可以通過上位機提供的直觀圖形界面實時獲取學生的注意力情況,有針對性地調整講授節奏或插入互動環節,及時進行知識點復講或提供個性化指導,真正實現從“數據感知”到“教學干預”的閉環優化,為智慧課堂中的動態教學決策提供量化支撐。

2模型構建
綜合上述分析,本研究采用ELM算法,以多特征學生注意力評估路線為理論指導,構建了深度學習驅動的多特征學生注意力評估模型(下文簡稱“評估模型”),如圖4所示。評估模型旨在為教師提供實時、精準的課堂反饋,助力優化教學策略,提高課堂教學效率,同時促進學生學習效果的有效提升。
評估模型依托算力層提供的基礎計算能力,支撐其上的模型層集成關鍵算法組件;數據層匯聚在線慕課、微課等多元化真實課堂資源,為模型訓練與驗證提供數據基礎;算法鏈路層清晰地描繪了從學生視頻輸入,經人臉檢測、表情識別、頭部姿態估計和疲勞度檢測,到ELM量化分析并最終輸出注意力評分的完整技術鏈路;應用層將評估模型封裝為面向教育場景的智能服務模塊,包括提供AI助教、AI助學、AI助研和AI助評功能;最終到達服務層,服務于多元教育主體(包括AI教育研究中心、基礎教育學校、高等教育機構等),為其提升教學質量和優化學習效果提供支持。在評估模型中,算力層、模型層與數據層共同構成了支撐系統的“底層基礎”;算法鏈路層的技術模塊與應用層的服務模塊共同組成可復用、可組合的“應用積木”;而服務層提供的智慧教育服務及其致力于實現的頂層“智慧教育”目標,則是對國家教育戰略的“政策呼應”,最終形成“技術支撐-場景應用-價值落地”的完整邏輯,賦能智慧教育發展。
四評估模型的教學應用與效果驗證
1教學應用
基于深度學習驅動的多特征學生注意力評估模型,本研究通過編寫上位機界面,將算法與評估模型進行集成,開發出智能教學評估軟件,并將其應用于實際的課堂教學場景。上位機界面如圖5右半部分所示,其包含四大功能模塊,分別為表情識別模塊、頭部姿態估計模塊、疲勞度檢測模塊和注意力評估模塊。上位機能夠實時讀取并在其界面中央區域顯示單人或多人的上課視頻,能自動繪制出與四大功能模塊相對應的表情評分曲線、頭部姿態評分曲線、疲勞度評分曲線、注意力評估曲線。為檢驗模型在實際教學場景中的應用效果,本研究錄制了華東地區Z大學自動化專業的一堂專業必修課課程視頻(時長為40分鐘,參與學生有45人,均為大二學生),其中評估模型應用的典型教學場景如圖5左半部分所示。

具體來說,評估模型首先共提取了三個維度的7項指標: ① 面部表情維度,是基于ResNet+CBAM分類結果,統計排斥(x1)、聆聽(x2)、困惑(x3)和激動( δX4 )這四種表情的累計出現次數; ② 頭部姿態維度,是基于Mediapipe關鍵點和PNP 算法計算出Pitch 值和Roll值,統計頭部姿態位于Pitch lt;-5° 、-15° ),并利用ELM通過隱藏層節點非線性映射實現多特征聯合建模。之后,將7項指標 X=[x1,x2,…,x7] 經歸一化處理后,輸入ELM網絡,通過線性最小二乘法求出輸出層權重。最終,ELM經過訓練后,輸出結果為一個介于 0~1 之間的數值,這個數值代表了學生在聽課過程中的不同注意力狀態和課堂學習效果,其與ELM評分的關系如表2所示。

結合表2所示的關系,本研究在Z大學自動化專業的一堂專業必修課中進行了評估模型的具體應用。在課程開展的過程中,本研究基于時序隨機選取時間點為5分鐘、12分鐘、15分鐘、23分鐘、30分鐘、37分鐘的課程幀,然后應用評估模型實時求解對應時刻的評分(總分為1分),結果依次為0.95分、0.83分、0.56分、0.46分、0.12分、0.37分,如圖5左半部分所示。本研究將上述評分結果以日志形式存儲,并實時映射至上位機“學生注意力評估系統”窗格進行可視化呈現;同時,為助力教師深度解析課堂數據、明晰課程注意力的內在邏輯,上位機同步集成“表情評分曲線”“頭部姿態評分曲線”“疲勞度評分曲線”來實時展示課堂數據,為教師開展教學分析與改進工作提供全方位支撐,如圖5右半部分所示。
2效果驗證
(1)時序分析能力驗證
本研究通過導出前文所提Z大學專業必修課的注意力評分日志,利用Python繪制了課堂單位周期內學生注意力評分的時序曲線(如圖6所示),并計算其環比增長量,用于量化課堂單位周期內學生注意力的波動程度。圖6顯示,評估模型得出的學生注意力的動態變化情況大致符合約翰·梅迪納[17]提出的“10分鐘法則”:學生在上課后的 10~15 分鐘注意力處于峰值,隨后因認知疲勞或興趣減退而逐漸下降。這一結果證明評估模型能有效捕捉并精準刻畫學生注意力的動態變化情況,且能及時反映因認知生理機制(如好奇心滿足后的自然疲勞)或教學情境因素(如內容吸引力變化)引起的注意力動態衰減規律。


(2)評分準確性驗證
為檢驗多特征學生注意力評估模型的準確性,本研究采用了基于專家評判的效標效度驗證方法,具體流程如下:首先,邀請5名具有十年以上教學經驗的教育學領域教授作為評分員。接著,將用于評估模型測試的同一段40分鐘課堂視頻按時間順序劃分為4個連續的10分鐘課堂時間段。隨后,每位專家獨立觀看這4個課堂時間段的視頻,并按照表2對這4個課堂時間段的學生注意力整體水平進行量化評分——為減少個體主觀性評判差異的影響,本研究計算了4個課堂時間段視頻的專家評分均值,得到各課堂時間段視頻的人工注意力評分基準值。最后,將4個課堂時間段視頻的專家評分與評估模型評分進行對比分析,結果如圖7顯示,可以看出:評估模型評分與專家評分在四個課堂時間段均表現出高度的一致性,兩者的平均絕對誤差小于0.05。此結果驗證了評估模型具有較高的評分準確性,其評估結果能夠有效地逼近經驗豐富的專家基于直接觀察所做出的綜合判斷。
五結語
本研究設計了多特征學生注意力評估路線,通過面部表情識別、頭部姿態估計和疲勞度檢測,實現了對學生注意力的精準量化分析。在此基礎上,本研究構建了深度學習驅動的多特征學生注意力評估模型并進行了其教學應用與效果驗證。此模型具有多維度、深層次、強耦合等特征,其構建不僅為個性化教學的實時反饋與動態調整提供了技術支撐,也為推動新時代智慧教育生態的數據化、精準化發展提供了實證支持。需要指出的是,目前深度學習驅動的多特征學生注意力評估模型尚未深度融合教育知識圖譜,難以挖掘注意力與知識結構之間的潛在聯系;評估模型的多源特征融合僅限于學生的行為特征層面,而缺乏對語音、行為日志等多模態數據的整合;同時,也缺乏對評估模型與教師教學動態雙向關聯機制的深入探索,尚未形成教與學協同優化的閉環。對此,后續研究可以拓展多模態數據的采集范圍與融合深度,提升評估模型的感知與分析能力;可以設計評估模型與教師教學的動態雙向關聯機制,探索教與學協同優化路徑,助力教師科學做出教學決策并進行個性化干預,為提升課堂教學質量提供數據驅動的實施方案。
參考文獻
[1]中國科技網.《中國智慧教育藍皮書》:智慧教育是數字時代的教育新形態[OL].
[2]卓鐵農,英迪,趙暉.融合跨模態注意力與角色交互的學生課堂專注度研究[J].計算機科學,2025,(6):1-18.
[3]石奕.基于人臉識別技術的學生課堂專注度評價模型研究[D].武漢:華中師范大學,2020:1.
[4]LiL,Zhang Y,ChiMY,et al.Spontaneous facial expresiondatabaseof learners'academic emotions inonline learingwith hand occlusion[J]. Computers and Electrical Engineering, 2022,97:107667.
[5]RussellJA.Acircumplex model ofaffct[J]. Jourmal ofPersonalityand Social Psychology,1980,(6):1161-1178.
[6]陳雪.基于機器視覺的學生課堂注意力分析研究[D].哈爾濱:哈爾濱理工大學,2022:27.
[7]馬穎,伊力哈木·亞爾買買提,侯雪揚,等.融合CBAM的雙向遞歸門控殘差圖像Copy-Move篡改檢測[J].哈爾濱工業大學學報,2025,(6):1-11.
[8]陳平,皇甫大鵬,駱祖瑩,等.基于單幅圖像 PnP 頭部姿態估計的學習注意力可視化分析[J].通信學報,2018,(S1):141-150.
[9]張闖,朱天軍,李學民.基于深度學習和面部多特征融合的駕駛員疲勞檢測研究[J].計算機測量與控制,2022,(12):42-50.
[10]BrozinaC,KnightDB,KinoshitaT,etal.Engagedtoscced:Understandingfst-yearengineringsudentsoureengagement and performance through analytics[J]. IEEE Access, 2019,7:163686-163699.
[1]FredricksJA,BlumenfeldPC,ParisA H.Schoolengagement:Potentialoftheconcept,stateofthe evidene[J].Reviewof Educational Research, 2004,(1):59-109.
[12]武法提,張琪.學習行為投入:定義、分析框架與理論模型[J].中國電化教育,2018,(1):35-41.
[13]樊雅琴,周東岱,楊君輝,等.項目式 STEM教學中學生參與度測量研究[J].現代教育技術,2018,(1):121-126.
[14]ChenCM, WangJY,YuCM.Assessingtheattentionlevelsofstudents byusinganoveattentionawaresystembasedonbrainwave signals[J]. British Journal of Educational Technology, 2017,(2):348-369.
[15]莊立強.基于計算機視覺的在線課堂學生注意力識別方法研究[D].蘭州:西北師范大學,2024:5.
[16]李剛生,高鐵剛,劉旭,等.基于極限學習機算法的學困生預測研究[J].現代教育技術,2018,(4):34-40.
[17](美)約翰·梅迪納著.楊光,馮立巖譯.讓大腦自由:釋放天賦的12條定律[M].北京:中國人民大學出版社,2009:61.
How to Carry out Multi-feature Student Attention Assessment Driven by Deep Learning?
YUHao-Wen1 ZHANG Ling2 LI Gang-Sheng3[Corresponding Author] FU Dong-Fei2
(1.College ofEducation, Zhejiang University, Hangzhou, Zhejiang, China 310058; 2. College of Engineering, Ocean University of China, Qingdao, Shandong, China 266500; 3.Department of Education, Ocean University of China, Qingdao, Shandong, China )
Abstract: Inrecent years,student attentionassssment driven by deep learning has become one ofthe important paths to promotethereform of smart education. However, the existing student atention assessment models generallyhave problems suchas singleasessmentdimensions,weak modeladaptabilityanduntimelyfedback.Therefore,this paperfrstdesigneda multi-feature student attntion assessment route of“‘face detection $$ expression recognition + head posture estimation and fatigue degree detection $$ student multi-dimensional feature fusion\". After that, the paper selected facial expression, head posture and fatiguedegre as thecore indicators foratention assessment,implemented amulti-feature student atention assessment drivenbydeep learningand conducteda precisequantitativeanalysisofstudents’atention.Basedonthis,guided bythe multi-featurestudentattetionassessmentroute,thepaperconstrucedamulti-featurestudentatetionasssmentmodel drivenbydeep learning.Finally,te paperutilizedtheclassroomrecordingdatatoverifytheappicationeffectofthemodel in terms of temporalanalysis abilityandscoringaccuracy.Itwas foundthatthismodelcaneffctivelycaptureand preciselydepict the dynamic change situations of students’attention,can promptly reflect the dynamic decay law of attntion caused by cognitivephysiologicalmechansms or teaching contextualfactors,andhadarelativelyhighscoringaccuracy.The researchof this paper promoted the vertical extension of teachers’teaching and the horizontal expansion of students’learning styles, innovating the integration path of“AI + Education\".
Keywords:multi-eaturestudentateton;deepleang; expressrecogition;hadposure;ftiuedeg;clasrooast