




摘要:評價和反饋互動教學質量,既是開展教學診斷、促進教師發展的重要方式,也是落實發展性評價理念的有益實踐。然而,傳統的互動教學評價往往忽視了教學過程中的多模態信息,存在分析不全面、不準確且耗時費力的問題。基于此,文章設計了智能技術支持的多模態互動教學評價框架,分為指標層、數據層、技術層、結果層和應用層,并從互動范圍、互動參與度、互動親密度、互動公平性、互動深度五個維度評價互動教學的質量。為了檢驗此評價框架的應用效果,文章以10個教學錄像為樣本,進行了多模態互動教學評價結果和專家模糊評價結果的相關性分析,驗證了智能技術支持的多模態互動教學評價框架能夠有效反映互動教學的質量。文章的研究為互動教學評價提供了一種更加全面、準確且高效的工具,并為推動教學診斷和教師專業發展、落實發展性評價理念提供了有力支持。
關鍵詞:多模態互動教學;智能技術;教學錄像;行為識別;教學診斷
【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009—8097(2024)09—0091—11 【DOI】10.3969/j.issn.1009-8097.2024.09.009
為深化教師評價改革,推進人工智能技術與教師隊伍建設融合,教育部出臺了《高等學校人工智能創新行動計劃》[1],并先后啟動了兩批人工智能助推教師隊伍建設行動試點工作[2]。互動教學質量既是決定教學質量的關鍵,也是教師教學能力的重要體現,因此評價和反饋課堂互動質量被認為是提升教師互動教學水平、改善教學質量的主要途徑。然而,傳統的互動教學評價主要關注言語方面的互動,而忽略了教師的非言語行為(如面部表情、語音情感等),導致互動教學分析不全面、不準確,且存在耗時、費力的問題,難以常態化實施。目前,智能技術在細粒度信息捕捉、核心特征提取、大數據建模分析等方面具有明顯優勢,為實現智能化的多模態互動教學分析提供了技術支持。基于此,本研究嘗試設計智能技術支持的多模態互動教學評價框架,并驗證其應用效果,以期推動多模態互動教學評價的發展,并為人工智能賦能教師專業發展提供新手段。
一 研究現狀
1 課堂互動教學分析系統的相關研究
課堂互動是教學過程的核心,是師生交往的具象化體現,對學生的參與程度和課堂教學質量有重要影響。20世紀60年代,Flanders[3]提出弗蘭德斯互動分析系統(Flanders’ Interaction Analysis System,FIAS),標志著教學互動研究進入系統化、科學化的階段。FIAS通過定時取樣觀察并記錄師生的言語互動行為,再以矩陣表格進行統計分析,其分析結果可用于評估教學質量、發現教學模式、指導教學改進。此后,FIAS被廣泛應用,并在不同學科領域進行了改編和拓展[4][5][6]。隨著信息技術的發展,課堂互動方式和類別得到了進一步擴展,出現了基于信息技術的互動分析系統(Information Technology-based Interaction Analysis System,ITIAS)[7],以及改進型弗蘭德斯互動分析系統(iFIAS)[8]、基于交互式電子雙板的互動分析系統等[9]。近年來,隨著智能行為識別技術的應用,有研究者在參考FIAS的基礎上,增加教師和學生的心理、生理行為指標,設計了基于多維數據的課堂教學行為評價指標體系,以彌補既往系統忽視非言語行為的不足[10]。然而,這些研究尚未與互動教學建立深層聯系,仍有進一步完善的空間。
2 課堂互動教學分析方式的進化
借鑒趙麗等[11]對課堂教學分析發展階段的梳理,本研究將課堂互動教學分析方式分為三個階段:①基于人腦的課堂觀察階段。在本階段,觀察者主要使用觀察表記錄課堂互動行為并進行編碼,隨后依照計算規則對編碼進行統計分析。②信息技術支持的課堂觀察階段。信息技術的介入改變了學習環境,催生了師生與技術互動的新模式,也促進了一些輔助分析工具的發展。例如,方海光等[12]開發了改進型弗蘭德斯互動分析系統iFIAS,可在自動定時、統計分析編碼結果等方面一定程度上減輕觀察者的工作負擔。此外,還出現了一些視頻編輯工具,如多模態視頻標注工具ELAN可用于對教學錄像的編碼處理,并提供標簽檢索功能,方便觀察者進行分析與整理。這些工具雖然提升了分析的便捷性和效率,但仍然依賴于人工判斷。③智能化互動教學分析階段。借助計算機視覺、語音識別、機器學習等技術,人工智能賦能的互動教學分析正蓬勃發展。例如,美國卡內基梅隆大學開發了EduSense課堂分析系統,能夠自動識別學生的舉手動作、微笑表情等,還能判斷教師是否在課堂上行走[13]。盧國慶等[14]利用深度圖像識別技術對師生的行為進行識別和標注,包括教師的板書、巡視、講授等行為和學生的舉手、應答、聽講等行為。上述研究成果展示了智能技術在教學分析方面的潛力,但目前針對課堂互動進行系統化、智能化分析的研究還比較缺乏。
3 現存的問題與智能技術的潛能
課堂互動是多模態信息生成、傳遞和接收的過程,而當前課堂互動教學分析存在的主要問題是忽視多模態信息,導致分析不全面、不準確。有研究認為,多模態信息反映的師生參與程度和情感投入是理解課堂互動的重要內容[15]。認知神經科學的相關研究表明,多感官相互作用是人們感知并與外部世界交互的重要方式[16],人們基于多模態信息的整合完成不同感知通道的內部連接和信息互補,由此實現完整的意義建構[17]。然而,傳統的互動教學分析系統往往忽視了對多模態行為的關注,也忽略了其他交流形式(如眼神接觸、肢體語言等),導致無法全面、有效地理解課堂互動教學[18]。此外,人工觀察的分析方式耗時且費力,觀察步驟繁瑣、難度大,這也限制了課堂觀察在教師專業發展中的常態化應用。
隨著計算機視覺、自然語言處理、機器學習等技術的飛速發展,智能技術在課堂互動分析方面的應用逐漸成為研究熱點,課堂分析邁入智能化階段。例如,計算機視覺技術不僅可以分析靜態的人體姿勢[19]、識別動態的教學手勢[20],還可以通過分析教師的頭部姿態,對教師的注意力進行定向分析[21];語音識別技術能夠將課堂語音轉化為文本,為后續的文本分析奠定基礎;語音情感分析技術能夠依據語音的頻率、能量、共振峰等聲學特征,判斷語音的情感屬性是積極、中性還是消極[22]。然而,課堂環境因其復雜性、動態性、開放性等特征,對技術算法的準確度提出了更高要求,課堂教學的情境性和情感性也對分析建模提出了挑戰。
二 智能技術支持的多模態互動教學評價框架設計
從多模態互動教學分析的角度出發,依托社會建構主義學習理論,本研究設計了智能技術支持的多模態互動教學評價框架,如圖1所示。此評價框架分為指標層、數據層、技術層、結果層和應用層,其中指標層將互動教學解構,形成了包含互動范圍、互動參與度等五個維度的評價指標;數據層采用錄像技術,無感化采集課堂教學數據;技術層利用計算機視覺、語音識別、情感分析等智能技術對視頻進行識別和分析,并基于分級規則對數據進行處理與計算;結果層采用可視化技術,直觀展現多模態互動教學的質量;應用層則闡釋評價框架在教學診斷、教學改進和教師發展評價中所起的重要作用。
1 指標層
為了全面評價互動教學質量,本研究構建了包含互動范圍、互動參與度、互動親密度、互動公平性、互動深度的五維評價指標體系。其中,互動范圍指參與互動的學生人數,用于評估互動的廣度;互動參與度指學生參與互動的積極性,用于評估學生參與的興趣;互動親密度指互動時教師在空間位置、面部表情、語音情感方面的表現,用于評估互動中師生物理空間和心理空間的接近程度;互動公平性指學生個體參與回答問題的次數,用于評估教師分配互動機會的均衡性;而互動深度指師生提出問題的認知層次,用于評估師生認知交互的深度。這五個維度的設計參考了現有的課堂互動教學評價標準和相關文獻,并借鑒了高校研究者、專家型教師、教研員的意見。例如,互動親密度的設計參考了Hall[23]的人際關系距離理論和McCroskey等[24]編制的“教師非言語親切性行為印象量表”。
為了更準確地評價上述五個維度,本研究采用量化分級方法,按照互動教學評價分級規則(如表1所示)展開評價。其中,互動參與度、互動公平性的評價分級規則需根據班級人數進行靈活調整。評價等級設為1~5級,級別越高,表示教師在該維度的表現越優秀。本研究參考優質課實例和專家型教師的教學錄像在互動范圍、互動參與度方面的常見比值,將超過0.5的比值定為最高級別;其他四個級別每增加0.125,就提升一個級別。互動公平性通過將發言人數占班級人數的比值與發言次數占班級人數的比值相加,得到一個介于0~1之間的比值,將小于0.2的比值設為等級1;之后每增加0.2,就提升一個級別。對于互動親密度的評價分級,則根據積極行為的出現頻次來決定,頻次越高,級別越高。互動深度的評價分級通過計算互動深度等級來實現,得到的結果為0~5之間的數值,其小數部分采用進一取整的方法處理。
2 數據層
本研究從采集到的教學錄像中提取音頻類數據和視頻類數據作為數據來源,通過提取音頻和視頻信息對互動教學過程進行分析。其中,音頻類數據主要是課堂語音,可以轉化為文本數據;而視頻類數據包含靜態圖像和時間序列數據。教學錄像通常使用固定鏡頭拍攝,后方鏡頭記錄教師活動,前方鏡頭捕捉學生行為,確保全班視角的完整性。相比穿戴式傳感器,使用攝像頭錄制教學過程能夠更大程度地避免課堂干擾,確保數據獲取的真實性和自然性。為保護師生隱私,所有教學錄像僅用于學術研究和教學改進。
3 技術層
針對采集到的教學錄像,本研究使用智能教學分析平臺“益課”(網址:http://ecourse.nercel.com/#/login)進行互動教學表現分析。對應于互動范圍、互動參與度、互動親密度、互動公平性、互動深度五個維度,互動教學表現分析主要通過以下技術得以實現:
(1)說話人識別
說話人識別用于評估互動范圍和互動公平性,具體流程如下:首先,使用活動音檢測技術(Voice Activity Detection,VAD)區分音頻信號中的語音和非語音部分,并將音頻分割為多個片段;之后,使用多尺度殘差聚合神經網絡(Multi Scale Residual Aggregation Neural Network,MSRANet)處理經過VAD分割的課堂音頻片段;最后,在后端使用SoftMax層進行說話人嵌入分類,標記各個語音片段中教師和學生身份[25]。根據標簽和時間戳,可以計算各類語音在一節課中的總時長及其占比。“益課”平臺在學生站立并開始發言時自動記錄“發言開始”,學生坐下時自動記錄“發言結束”。另外,“益課”平臺可以根據站立姿勢的坐標數據判斷是否為同一學生重復發言,并計算課堂中發言的學生人數。
(2)學生舉手手勢識別
學生舉手手勢識別用于評估互動參與度,具體流程如下:首先,使用OpenCV和FFMPEG對教學錄像進行預處理;然后,通過YOLOv5目標檢測模型識別學生的舉手行為;最后,利用OpenPifPaf姿態估計工具進一步分析和確認行為類型,以提高識別的準確率[26]。“益課”平臺可以根據學生的座位位置將識別的行為與對應的學生相關聯,并通過數據可視化技術展示每位學生的行為模式和整個班級的互動情況,從而支持教師優化教學和促進學生互動。
(3)學生站立姿勢識別
學生站立姿勢識別用于評估互動范圍和互動公平性,其識別過程與舉手手勢識別相似,使用的模型也相同——YOLOv5目標檢測模型能夠同時檢測舉手、站立、打哈欠等多種行為[27]。YOLOv5目標檢測模型通過輸出一個邊界框,來標識學生站立姿勢發生的位置,然后根據返回的坐標數據,判斷站立的學生是否為同一個人,進而自動統計發言學生人數。
(4)教師空間位置檢測
教師空間位置檢測的輸出結果會顯示教師在體距近區和體距遠區的停留時長,可用于評估互動親密度。在學生區時,教師與學生處于體距近區;而在講臺區時,教師與學生處于體距遠區。本研究采用教師空間位置估計(Teacher Spatial Position Estimation,TSPE)模型檢測教師的空間位置[28],具體操作如下:首先,利用單目標跟蹤算法,實現對視頻中教師的實時持續跟蹤;然后,使用單目深度估計算法,獲取整幅圖像的深度信息;最后,結合這兩個部分的輸出結果,通過分類算法完成從模型計算結果到空間位置的映射。
(5)教師面部表情識別
教師面部表情識別用于評估互動親密度,經常微笑的教師被認為親密度更高。本研究使用Compact-Xception算法對教師的面部表情進行識別[29],具體流程如下:首先,通過人臉檢測、對齊、數據增強和歸一化操作,檢測出目標人物——教師的面部動作單元,并識別眼、眉、嘴、鼻、臉部肌肉的變化;之后,根據識別結果,將教師的面部表情按照積極、消極、中性三種類型進行分類整理;最后,輸出積極、中性、消極三類面部表情的占比,并通過積極面部表情的占比來判斷互動親密度。
(6)教師語音情感分析
教師語音情感分析用于評估互動親密度。本研究采用基于連接注意機制的多尺度語音情感識別網絡(Attention-based Multi-scale Speech Emotion Recognition Network,AMSNet)進行教師語音情感分析。AMSNet包含基于時間結構的幀級表征學習模塊(Frame-level Representation Learning Module,FRLM)和基于全局結構的語句級表征學習模塊(Utterance-level Representation Learning Module,URLM),用于提取不同層次的情感表達,具體流程如下:首先,在FRLM引入改進的注意力長短期記憶網絡,以聚焦對情感識別貢獻較大的幀;URLM則采用帶壓縮激勵模塊的卷積神經網絡提取深度特征[30]。之后,基于教師語音中的韻律、能量等特征,將教師語音情感分為積極、中性、消極三類,并輸出這三類語音情感的占比。最后,通過積極語音情感的占比來判斷互動親密度。
(7)語音識別
語音識別用于評估互動深度。本研究采用開源的WhisperX系統(這是一種具備詞級時間戳的高精度語音識別工具)進行語音識別[31],具體流程如下:首先,通過語音活動檢測技術對輸入音頻進行預處理分段;然后,對分段后的音頻進行切割和合并,使其符合自動語音識別(Automatic Speech Recognition,ASR)模型的輸入長度要求(約30秒);最后,利用強制音素對齊技術,將音頻片段與語音轉錄的文本精確對齊,生成準確的詞級時間戳。
(8)預訓練模型微調
預訓練模型微調用于評估互動深度,主要通過判斷課堂中師生所提問題所處認知水平的層級,來確定互動深度的具體等級。根據修改版的教育目標分類理論[32],本研究從認知層次的角度將課堂提問分為記憶、理解、應用、分析、評價、創造六個層次。預訓練模型微調的具體流程如下:首先,基于上述分類對課堂提問文本進行標注,建立課堂提問數據集;接著,以“通義千問”為基礎模型,利用課堂提問數據集對開源大語言模型進行微調訓練,使模型能夠提取問句并進行精準分類;然后,設計專屬的Prompt(提示語),引導模型對輸入的提問進行分類和響應生成;最后,模型接收新的課堂提問,生成相應的響應并對提問進行分類。
技術層使用的算法模型及其性能表現如表2所示,可以看出:各項技術在關鍵指標上的準確率和精度均超過80%,說明技術層使用的算法模型性能表現較佳。值得一提的是,在進行數據分析時,音頻類算法模型和視頻類算法模型并行運行,而同類算法模型串行運行。
4 結果層
本研究使用Python中的OpenCV可視化技術,生成互動教學表現分析結果雷達圖,以可視化展示多模態互動教學在五個維度上的等級分布情況。同時,“益課”平臺以柱狀圖呈現教師在不同課堂中的互動教學數據,并按時間順序展示各互動教學維度在多次教學中的發展變化。互動教學表現分析結果的量化和可視化,既便于教師、教學管理者、研究者等相關利益者快速了解互動教學的質量,為不同教師進行互動教學比較和交流提供了依據,也有助于教師追蹤教學互動情況的動態變化。
5 應用層
在教學診斷、教學改進、發展性評價方面,智能技術支持的多模態互動教學評價已展現出了較大的應用潛力:①能夠支持教學診斷,主要表現為通過多元數據分析,識別互動教學的薄弱環節,助力教學問題發現。②可為教學改進提供科學依據,主要表現為參照目標課程的互動教學分析結果,明確改進方向,以及結合長期的評估跟蹤報告開展教學改進。③關注過程的發展性評價,主要表現為通過常態化應用,持續監控互動教學情況,為教師的專業發展和互動教學能力提升提供支持。總之,智能技術支持的多模態互動教學評價不僅能夠滿足一線教師的教學實踐和專業發展需求,還為教學管理者進行教學決策提供了有力支持,并為相關研究者提供了豐富的數據資源,推動了教育教學研究的繼續深化。
三 多模態互動教學評價框架的應用效果檢驗
為驗證智能技術支持的多模態互動教學評價框架(下文簡稱“評價框架”)在反映互動教學質量方面的有效性,本研究通過多模態互動教學評價結果和專家模糊評價結果的相關性分析來檢驗其應用效果。其中,專家模糊評價是一種在評估中允許專家表達不確定性或模糊性的方法。本研究中的多模態互動教學評價涉及多個模糊維度,這些維度難以用傳統的定量方法精確測量,而專家能夠提供主觀判斷和看法,有助于填補信息空白。如果多模態互動教學評價結果與專家模糊評價結果的相關性為中等及以上,就說明評價框架能夠反映互動教學的質量。
1 數據來源
本研究使用貴州省S縣小學數學教學技能比賽的10個教學錄像,作為檢驗評價框架應用效果的樣本。10個教學錄像的選取過程如下:教學錄像的滿分為50分,先從比賽得分最低分段隨機選取2個,然后從最高分段隨機選取2個,最后從中間分段隨機選取6個。10個教學錄像按照比賽得分從低到高排序,其基本信息如表3所示。為排除教師職稱、學校、獲獎情況等因素對檢驗結果的影響,本研究去除了所有錄像的片頭、片尾信息,僅保留授課片段。
2 數據分析
每個教學錄像都經歷了兩輪獨立的分析:第一輪,利用“益課”平臺開展多模態互動教學評價。為保證研究的嚴謹性,本研究邀請兩位教育技術學專業的碩士研究生作為觀察者,對自動分析結果進行詳細的編碼驗證。在開始編碼前,兩位觀察者接受編碼培訓,學習各行為的子類和判斷方法,并進行編碼演練。掌握編碼規則后,兩位觀察者背對背地獨立完成對10個教學錄像的編碼。根據不同維度的行為特征,觀察者的編碼過程可以分為兩種情況:①涉及互動參與度和互動公平性的編碼。這兩個維度關注特定行為的發生情況,如檢測學生是否舉手。觀察者在查看教學錄像時,可以快速播放至學生舉手的片段,然后根據表1的等級描述記錄相關行為,之后通過統計計算得出該維度的等級結果。②涉及互動范圍、互動親密度和互動深度的編碼。這三個維度對教學全過程的某種行為賦予屬性標簽,如教師在每一時刻的空間位置都被標記為“在講臺區”或“在學生區”。CSV文件記錄了每個行為標簽的起止時間,在對比教學錄像時,觀察者應查看并記錄CSV文件中與視頻不一致的行為標簽,并根據特定的計算規則得到這些維度的等級結果。經計算,兩位觀察者的Cohen’s Kappa系數為0.889,表明評分一致性較高。盡管人工編碼對個別標簽進行了修改,但由于其結果與平臺生成的結果一致,故在進行具體的數據分析時無需對平臺生成的結果進行人工編碼。
第二輪,開展專家模糊評價。本研究邀請1名教研員、1名經驗型教師和1名研究教學論的大學教授組成專家組,開展與多模態互動教學評價同步進行的專家模糊評價。本研究為專家提供的評價框架雖然包含五個維度——互動范圍、互動參與度、互動親密度、互動公平性和互動深度,但并沒有提供各維度包含的具體指標和具體分級規則,而是將每個維度劃分為五個模糊集:非常低、低、中等、高、非常高。每個模糊集都有一個對應的隸屬函數值,分別為0.2(非常低)、0.4(低)、0.6(中等)、0.8(高)、1(非常高)。3位專家根據其專業知識和豐富的經驗,對10個教學錄像進行模糊評價。例如,如果專家認為互動范圍是“高”,則對應的隸屬函數值為0.8。經計算,3位專家的Fleiss Kappa系數為0.573,表明評分一致性處于中等水平。專家模糊評價的信度低于多模態互動教學評價的信度,原因主要在于不同專家的主觀經驗不同;而信度系數處于可接受水平,說明3位專家對互動教學的評價具有某些共識。本研究綜合3位專家的評價,對每個教學錄像的五個維度進行等級判定,并將該結果作為后續相關性分析的依據。
3 檢驗結果
本研究采用皮爾遜相關性分析法,對多模態互動教學評價結果與專家模糊評價結果的相關性進行分析。相關系數的解釋標準如下:當0lt;∣r∣≤0.19時,表示相關性非常低;當0.2≤∣r∣≤0.39時,表示相關性較低;當0.4≤∣r∣≤0.59時,表示中等相關性;當0.6≤∣r∣≤0.79時,表示相關性較高;當0.8≤∣r∣≤1.0時,表示相關性非常高[40]。
相關性分析結果表明,兩種評價結果的皮爾遜相關系數為0.778、顯著性為0.008,表明兩者存在較強的正相關性,說明多模態互動教學評價結果與專家模糊評價結果較為一致,智能技術支持的多模態互動教學評價框架能夠有效反映互動教學的質量。因此,評價框架可以作為一種互動教學評價工具,用于對教學錄像的自動化評價,從而減輕常態化互動教學評價中對人工評價的依賴,促進發展性評價理念的落實。
四 結語
本研究構建了智能技術支持的多模態互動教學評價框架,并以10個教學錄像為樣本,通過多模態互動教學評價結果與專家模糊評價結果的相關性分析,驗證了評價框架能夠有效反映互動教學的質量。評價框架提供了可觀察、可測量、可計算的評價指標,并采用智能技術進行自動化分析,為互動教學評價提供了新思路。但是,本研究也存在一些不足之處,如評價框架主要適用于小學階段,尚未驗證在其他學段的適用性;對互動教學中教師空間位置和學生舉手手勢、學生站立姿勢等行為的分析是基于主流的秧田式桌椅布局和課堂中“要發言先舉手”的默認互動規則,如果空間布局或互動規則發生變化,其適用性可能會受影響;評價框架采用量化分級的方式,雖然具有廣泛的兼容性,但可能不夠精確。基于此,后續研究應繼續優化框架,探索適應中學階段和高等教育階段的評價框架;同時,在不同空間布局和互動規則下,設計適用性互動教學評價框架。另外,評價方式可以采用更精確的百分制評價,并設計更具靈活性的賦分規則,以提升評價框架的應用價值。
參考文獻
[1]教育部.教育部關于印發《高等學校人工智能創新行動計劃》的通知[OL].
lt;http://www.moe.gov.cn/srcsite/A16/s7062/201804/t20180410_332722.htmlgt;
[2]教育部.教育部關于實施第二批人工智能助推教師隊伍建設行動試點工作的通知[OL].
lt;http://www.moe.gov.cn/srcsite/A10/s7034/202109/t20210915_563278.htmlgt;
[3]Flanders N. Intent, action and feedback: A preparation for teaching[J]. Journal of Teacher Education, 1963,(3):251-260.
[4]Amidon E J, Hunter E. Abstracted from verbal interaction category system (VICS)[J]. Classroom Interaction News Letter, 1968,(2):1-5.
[5]Moskowitz G. Interaction analysis—A new modern language for supervisors[J]. Foreign Language Annals, 1971,(5):211-221.
[6]陳珍國,鄧志文,于廣瀛,等.基于FIAS分析模型的翻轉課堂師生互動行為研究——以中學物理課堂為例[J].全球教育展望,2014,(9):21-33.
[7]顧小清,王煒.支持教師專業發展的課堂分析技術新探索[J].中國電化教育,2004,(7):18-21.
[8][12]方海光,高辰柱,陳佳.改進型弗蘭德斯互動分析系統及其應用[J].中國電化教育,2012,(10):109-113.
[9]張屹,白清玉,馬靜思,等.交互式電子雙板環境下的課堂交互性研究——以高校“教育技術學研究方法”課堂教學為例[J].電化教育研究,2014,(3):83-87.
[10]炕留一,葉海智,張瑾,等.基于多維數據的課堂教學行為評價研究[J].現代教育技術,2022,(4):68-77.
[11]趙麗,賀瑋,王洋.人工智能支持的課堂教學行為分析:困境與路徑[J].電化教育研究,2022,(1):86-92.
[13]Ahuja K, Kim D, Xhakaj F, et al. EduSense: Practical classroom sensing at scale[J]. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 2019,(3):1-26.
[14]盧國慶,謝魁,劉清堂,等.基于人工智能引擎自動標注的課堂教學行為分析[J].開放教育研究,2021,(6):97-107.
[15]Lynch M, Cicchetti, D. Maltreated children’s reports of relatedness to their teachers[J]. New Directions for Child and Adolescent Development, 1992,(57):81-107.
[16]Shams L, Seitz A R. Benefits of multisensory learning[J]. Trends in Cognitive Sciences, 2008,(11):411-417.
[17]王一巖,王楊春曉,鄭永和.多模態學習分析:“多模態”驅動的智能教育研究新趨向[J].中國電化教育,2021,(3):88-96.
[18]王蓮.多模態英語視聽說教學中的課堂互動分析[J].教學與管理,2013,(15):141-143.
[19]Lan G, Wu Y, Hu F, et al. Vision-based human pose estimation via deep learning: A survey[J]. IEEE Transactions on Human-Machine Systems, 2022,(1):253-268.
[20]Luan K, Matsumaru T. Dynamic hand gesture recognition for robot ARM teaching based on improved LRCN model[A]. 2019 IEEE International Conference on Robotics and Biomimetics (ROBIO)[C]. Dali: IEEE, 2019:1269-1274.
[21]Ghosh S, Hayat M, Dhall A, et al. Mtgls: Multi-task gaze estimation with limited supervision[A]. Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision[C]. Waikoloa: WACV, 2022:3223-3234.
[22][31][38]Chen Z, Li J, Liu H, et al. Learning multi-scale features for speech emotion recognition with connection attention mechanism[J]. Expert Systems with Applications, 2023,214:118943.
[23]Hall E T. The hidden dimension[M]. Palatine: Anchor, 1966:116-121.
[24]McCroskey J C, Richmond V P, Sallinen A, et al. A cross-cultural and multi behavioral analysis of the relationship between nonverbal immediacy and teacher evaluation[J]. Communication Education, 1995,(4):281-291.
[25][33]Zheng Q, Chen Z, Liu H, et al. MSRANet: Learning discriminative embeddings for speaker verification via channel and spatial attention mechanism in alterable scenarios[J]. Expert Systems with Applications, 2023,217:119511.
[26][27][34][35]Zhou H, Jiang F, Si J, et al. StuArt: Individualized classroom observation of students with automatic behavior recognition and tracking[A]. ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)[C]. Rhodes Island: IEEE, 2023:1-5.
[28][36]龔斌.基于課堂視頻的教師空間位置測量研究[D].武漢:華中師范大學,2024:21-39.
[29][37]劉婷婷.面向教師教學行為量化的智能感知與識別方法研究[D].武漢:華中師范大學,2019:63.
[30]Krathwohl D R. A revision of Bloom’s taxonomy: An overview[J]. Theory into Practice, 2002,(4):212-218.
[32][39]Bain M, Huh J, Han T,et al. WhisperX: Time-accurate speech transcription of long-form audio[OL].
lt;https://arxiv.org/pdf/2303.00747gt;
[40]Selvanathan M, Jayabalan N, Saini G K, et al. Employee productivity in Malaysian private higher educational institutions[J]. PalArch’s Journal of Archaeology of Egypt/Egyptology, 2020,(3):66-79.
Design and Application Effect of the Multimodal Interactive
Teaching Evaluation Framework Supported by Intelligent Technology
WANG Meng-Ke"" "CHEN Zeng-Zhao[Corresponding Author]"" "SHI Ya-Wen"" "WANG Zhuo
(Faculty of Artificial Intelligence, Central China Normal University, Wuhan, Hubei, China 430079)
Abstract: Evaluation and feedback of interactive teaching quality is not only an important approach to carry out teaching diagnosis and promote teachers’ development, but also a beneficial practice to implement the developmental evaluation concept. However, the traditional interactive teaching evaluation often ignores the multimodal information in the teaching process, and there exist problems of incomplete, inaccurate, and time-consuming analysis. Based on this, the multimodal interactive teaching evaluation framework supported by intelligent technology was designed, which was divided into five layers of indicator layer, data layer, technology layer, result layer, and application layer, and could evaluate the quality of interactive teaching from five dimensions of interaction scope, interaction participation, interaction intimacy, interaction fairness, and interaction depth. In order to examine the application effect of this evaluation framework, the paper conducted the correlation analysis on the results of multimodal interactive teaching evaluation and expert fuzzy evaluation by taking 10 teaching videos as samples, confirming that the multimodal interactive teaching evaluation framework supported by intelligent technology can effectively reflect the quality of interactive teaching. The research in this paper provided a more comprehensive, accurate, and efficient tool for interactive teaching evaluation, offered strong support for promoting teaching diagnosis and teachers’ professional development, and implementing the developmental assessment concept.
Keywords: multimodal interactive teaching; intelligent technology; teaching video; behavior recognition; teaching diagnosis
*基金項目:本文受2021年國家自然科學基金“教師課堂非言語行為的量化計算與教學效果評價研究”(項目編號:62077022)、2024年華中師范大學國家教師發展協同創新實驗基地建設專項研究“多模態教師研修自動評價方法與技術研究”(項目編號:CCNUTEIII 2024-01)資助。
作者簡介:王夢珂,在讀博士,研究方向為技術支持的教師發展、學習分析、反饋干預、自我調節學習,郵箱為moco@mails.ccnu.edu.cn。
收稿日期:2024年3月9日