999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

輔助任務增強的知識追蹤方法

2025-07-28 00:00:00王長青王長青張蕾張振國
計算機應用研究 2025年7期
關鍵詞:注意力機制智慧教育

關鍵詞:智慧教育;知識追蹤;輔助任務;注意力機制

中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2025)07-023-2096-07

doi: 10.19734/j . issn.1001-3695.2024.10.0448

Abstract:Knowledge tracingisaneffctiveway toachievesmarteducation,asitasistsstudents intimelyadjustingtheir learning strategiesbyasesing theirlearning status.Theexisting knowledgetracing methods stillhaveshortcomings indealing withthe nternalrelationshipbetweenexercisesandknowledgeconceptsandobtaining students’personalized knowledge level. Toaddressthisissue,thispaperproposed anauxiliarytask-enhanced knowledge tracing(ATEKT)method.Firstly,this paper usedthegroupcalculationmethodandfrequencycalculationmethodtocalculatethedificultyof theexercise,thediscriminationoftheexercise,andthenumberofanswers totherelevantknowledgepoint exercises,andotainedtheirembeddedrepresentation.Secondly,itpresentedtwoauxiliarytasks,exercisetaging predictiontasksandpriorknowledge predictiontasksto dynamicallyaess therelationshipsbetweenexercisesandknowledge points,whileestimatingstudents'knowledgelevelsfrom historicalresponserecords.Finall,theauxiliarytaskslearnedthecharacteristicsof theoptimizationprocesstoenhance knowledge tracing model predicts.Comparedwithsevenknowledge tracing modelsonthreepublicdatasetssuchas ASSIST2009,ASSIST2017 and EdNet,the AUC and ACC of the proposed method are increased by 2.4% to 15.5% and (204 2.0% to 9.9% respectively.The experimental results show that the proposed method can efectively extract information related to knowledgetracing tasks,and itsperformanceismoresuperior.Meanwhile,ablationexperimentsalsodemonstrate the effectivenessofdifferentauxiliarytasks.

Keywords:intelligent education;knowledge tracing;auxiliary task;attention mechanisn

0 引言

智慧教育是指利用現代信息技術、教育方法和心理學原理等多種手段,實現教育過程個性化、智能化和高效化的一種新型教育模式1。知識追蹤基于學生行為序列建模、預測學生未來答題情況,圖1給出了一個知識追蹤任務的示例。知識追蹤在智慧教育系統中扮演著重要的角色,如個性化學習、學習情況的精準反饋、學習資源優化及教育管理決策等。

預測學習者知識狀態是知識追蹤的重要環節,其受習題和學習者本身以及時間的影響。如圖2所示,假設學習者通過q1,q2,q3,q4 四個習題進行學習,其中 q1、q3 和 q4 都被正確回答 ,而 q2 沒有被正確回答 (×) 。每個習題 (q1,q2,q3,q4) (20號都與特定的知識點 (c1,c2,c3,…,cn) 相關聯,這些知識點構成了習題的不同知識結構并與習題難度、區分度以及相關知識點作答次數共同影響學習者對習題的作答狀態。學習者的每次作答都會產生相應的先驗知識,這些先驗知識同樣會影響學習者對習題的理解,如圖2所示,學習者獲得的先驗知識3會作用于習題 q4 并對其作答情況產生影響。此外,先驗知識會隨著時間的推移而衰減,即學習者對知識的掌握程度會由于缺乏練習而導致生疏和遺忘,也能通過練習得到鞏固和加強。例如,圖2中的知識點 c1 ,由于 c1 長時間未得到練習,所以在 t4 時刻,學習者對 c1 的知識掌握水平低于 t1 時刻。

圖1知識追蹤示例圖Fig.1Knowledge tracing example diagram"
圖2學習者知識狀態受習題與學習者本身以及時間影響示例Fig.2Example of the impact of exercisesandthelearner’sowncharacteristics,aswellastime,onthelearner’sknowledgestate

在知識追蹤的早期研究中,基于統計學的方法發揮了重要的作用。傳統的知識追蹤模型,如 BKT[2] ,將學生的知識狀態建模為一組二元變量。當學生進行與該習題相關的練習時,根據回答情況,使用馬爾可夫模型來更新這些二元變量之間的概率。這類方法雖然能捕獲學生學習過程中的一些信息,但在處理大規模復雜數據時具有較大的局限性,更無法捕捉學生隨時間變化的動態知識水平。

隨著深度學習技術的迅速發展,基于深度學習的模型在知識追蹤任務上展現出巨大的潛力。 DKT[3] 通過循環神經網絡(RNN)來捕捉學生的習題和答案之間的動態交互,并在此基礎上預測學生對后續習題的答案。得益于深度學習網絡的強大表征能力,DKT能夠有效捕捉學生知識水平的動態變化,展現出很好的預測效果。Zhang等人[4]提出了DKVMN模型,結合BKT和DKT的優勢,設計了多個隱藏狀態向量的存儲與管理機制,使得模型在準確度和適用性上都有所提高。隨著研究的進一步深入,越來越多的方法從不同的角度開展深度知識追蹤技術的探索。SAKT[5]、SAINT[6]等模型將注意力機制應用于知識追蹤問題,捕獲習題之間的關系及其與學生知識狀態的相關性,取得了更好的建模效果。為了更好地建模學生與習題之間的關系,許多學者將圖神經網絡應用到知識追蹤中,例如GKT[7] GIKT[8] 等,使用圖結構來表示學生的學習狀態和知識之間的關聯,同時捕捉了時間和空間上的豐富信息。以上方法的出色表現充分證明了深度學習網絡在知識追蹤任務上的有效性和巨大前景,但往往只關注于學生與練習之間的交互信息,缺乏對學習過程中其他信息的考慮。

一方面,很多現有研究大多忽略了習題的難度、習題區分度以及學生對相關知識點習題作答次數等因素對知識追蹤任務的影響;另一方面,現有的知識追蹤方法大多對習題和知識點之間的內在關系建模的探索是松散的。以前的方法傾向于從涉及習題、知識點的圖中學習關系增強嵌入,然后用學習后的表示形式擴充初始模型輸入。不幸的是,大多數習題只與一或兩個知識點相關,此外,由于這些關聯大多是人工標注的,錯誤標注的關系是不可避免的,相應的錯誤在基于圖的深度知識追蹤模型的學習過程中很容易傳播。

許多現有的深度知識追蹤模型在評估知識狀態時沒有明確地捕捉到學生水平的可變性,即個性化,例如對不同知識的獲取能力和學習速率。如果忽略了學生間在知識獲取能力、學習速率以及前置知識等方面的差異,模型可能無法準確地預測個別學生對特定知識點的掌握情況,這將導致整體預測準確性的降低。

本文著眼于學習過程中學生之間的個體差異性和答題記錄信息的豐富性,借助相關任務來學習用于知識追蹤的有效數據表征,提出了一種輔助任務增強的知識追蹤模型(ATEKT)。該模型使用兩種輔助任務來增強模型學習能力,并考慮了答題記錄中的多種隱含信息。在三個真實世界數據集上進行的實驗均取得了優異的性能,證明所提出模型能夠有效學習學生歷史答題信息中的豐富信息。

1相關工作

1.1 深度知識追蹤

2015年,斯坦福大學Piech教授提出了一種創新的知識追蹤模型DKT(deep knowledge tracing)[3],首次在知識追蹤中使用深度神經網絡,使用循環神經網絡RNN來捕捉習題與答案隨時間的動態交互。它優化了傳統BKT模型的限制,但仍存在對長序列建模能力上的不足。 SAKT[5] 是首個在知識追蹤中使用注意力機制的方法,能夠有效處理數據稀疏性問題,且更加靈活。Choi等人[提出了一種分離自注意力神經知識追蹤方法SAINT,它應用了Transformer架構,采用堆疊的自注意力層來構建編碼器-解碼器結構,效果更加出色。Nakagawa等人[7首次將圖神經網絡 GNN[9] 技術引入知識追蹤領域,提出一種基于圖的知識追蹤方法GKT,將知識追蹤視為一個時間序列上的節點分類問題。Cui等人[10]提出了一種針對知識追蹤任務的雙圖集成學習方法DEGKT,更好地捕捉了學生的知識狀態。Yue等人[1]提出了AA-DKTA模型,整合了能力屬性和注意力機制,考慮了學生在學習過程中能力的變化和個體之間的差異。

1.2 注意力機制

注意力機制的靈感來源于人類視覺系統,它模擬了人類的選擇性關注能力,使神經網絡能夠有針對性地聚焦在輸入數據的特定部分。Kajan等人[1的研究證實了注意力機制在序列-序列任務中的卓越效果。文獻[13]中提出的Transformer結構,在多種任務中均展現了卓越的性能。SAKT模型首次在知識追蹤中使用注意力機制,采用了改進后的Transformer結構,在捕獲學生知識狀態上表現優秀。隨后的一些工作[14,15]繼續沿著這個方向進行探索,并取得了更好的效果。

1.3 多任務學習

多任務學習旨在通過同時訓練多個相關任務,使它們共享特征表示,從而提升各個任務的性能以及模型在每個任務上的泛化能力[16.17]。多任務學習框架在提升模型泛化能力、減少過擬合等方面表現出良好的效果。使用相關任務作為輔助任務,對于多任務學習來說是一個合理的選擇。具體來說,將若干個相關任務分成了主要任務與輔助任務兩大類,輔助任務的作用是為主要任務提供更多的先驗知識并共享特征,進而提升主要任務的表現。例如,Misra等人[18]通過同時訓練進行場景識別和語義分割兩種輔助任務,使模型能夠學習到更具泛化能力的特征表示。

2模型

ATEKT模型的總體結構如圖3所示,模型主要由習題標記預測模塊、先驗知識預測模塊、知識追蹤預測模塊組成。習題標記預測模塊對習題和知識核心之間的內在關系進行建模,用于預測習題的知識核心。先驗知識預測模塊用來評估每個學生各自的歷史學習表現。知識追蹤預測模塊綜合考慮了更多的學生答題記錄隱含信息,并利用上層模塊輸出的習題知識點關聯信息與學生個性化差異來預測學生對當前習題的反應。

在ATEKT模型中,首先利用習題標記預測模塊來深入分析習題與知識核心之間的內在聯系。這一步驟的目的是構建一個精確的模型,從而能夠提取出與特定習題緊密相關的知識點隸屬度信息,將其表示為 et 。隨后,把 et 信息傳遞給先驗知識預測模塊。該模塊的核心任務是全面評估每位學生的歷史學習表現。為了實現這一目標,模塊接收包括知識點conc、學生對特定習題的回答情況 respt ,以及學生對包含該知識點的習題的作答次數 attet 等在內的一系列輸入信息。在整合了學生的學習歷史、當前習題的難度和區分度因素之后,將這些信息與上層模塊提供的習題知識點關聯信息以及學生的個性化差異結合起來。這些綜合信息隨后被用作知識追蹤預測模塊的輸入,以更準確地預測學生對相關習題的未來表現。

2.1 問題描述

一般來說,每個學生的練習記錄由一系列在不同時刻上的習題和回答組成。對于時間步長為 Φt 的學生 i ,通常將習題包含的概念以及相應的評分答案作為一個元組! (questi,concti ,respti ),其中, questi∈N+ 是習題索引, concti∈N+ 是知識概念索引, respti∈{0,1} 是答案。在這種表示下, (questi,concti,1) 表示學生 i 在 χt 時刻正確回答了關于知識概念 concti 的習題 questi 。若學生 t-1 時刻前的答題記錄為 (quest-1,conct-1,respt-1)} ,則知識追蹤任務的目標是預測在當前 χt 時刻對概念conc,上習題 quest 的回答 respt

2.2答題記錄隱含信息處理

習題的難度、習題區分度以及知識點作答次數對學生的知識掌握水平評價至關重要,因此,本節將重點探索這些因素的有效嵌入表示。

圖4難度、區分度以及嘗試次數等因素的嵌入表示Fig.4Embeddingrepresentation of factorssuch asdifficulty,discrimination,and numberofattempts

2.2.1習題難度因素嵌入表示

難度指的是當兩個習題考察同一個知識點時,同一學生的答題正確情況可能不同,這往往是由于難度差異導致的。通常用難度系數 P[19] 來衡量一個習題的難度:將正確回答習題者的學生數與學生總數的比率作為難度系數,即 P= 習題答對人數/考生人數,比值越大說明習題難度越低。

首先使用一組 e(s) 來表示學生和習題之間的所有互動,即 e(s)={e(s1),e(s2),…,e(sk)} ;其次,考慮所有與習題quesi 交互過的學生,并使用 ,(20 來記錄其交互狀態。對于所有與習題quesi 交互的學生,他們答題正確或錯誤的數量分別表示為 )和 ),則習題 quesi 的難度系數如式(1)所示。

難度系數的嵌入表示如圖4中caseI所示。在難度系數的向量化表示之后,通過設計一個全連接網絡進行優化,得到最終的難度嵌人d,具體過程如式(2)(3)所示。

diff2=Embedding(diff1

diff=Dropout(Sigmoid(w1×diff2+b1))

2.2.2習題區分度因素嵌入表示

習題的區分度指的是一個題目在區別不同能力水平的受測者方面的能力。采用分組計算法[20]計算習題的區分度:

disc1=ph-pl

其中: disc1 為習題的區分度; ph 為高分組通過率; pl 為低分組通過率。 的取值為 0?disc1?1 。具體地,計算習題區分度的步驟如下:

a)將學生的總分從高到低進行排序,并選擇總分在前 25% 的受試者作為高分組 sh ,總分在后 25% 的受試者作為低分組 sl

b)依據式(5)計算高分組 sh 和低分組 sl 通過某一習題quesi 的百分比 phi 和 pli .

c)將 phi 和 pli 結果代入式(4)中,得到習題 quesi 的區分度表示 disc1i

獲得習題的區分度系數之后,計算其嵌入表示 ,如圖4中caseⅡ所示。

2.2.3知識點作答次數因素嵌入表示

知識點作答次數指的是學生對某類知識點的相關習題的作答次數,本文采用頻數統計法進行獲取。具體步驟如下:

a)確定與知識點concj相關的習題ques,這些習題可能覆蓋到該知識點的不同方面以及不同的難度級別。

b)針對該知識點相關的每個習題 ,記錄學生的正確作答次數 )和錯誤作答次數 )。

c)計算正確作答次數和錯誤作答次數之和 attempt1

在獲得知識點作答次數后,計算其嵌入表示attempt,如圖4中case IⅢ所示。

2.3 輔助任務增強

2.3.1習題標記預測任務

該任務(QTPT)使用中間表示來預測知識點是否與當前習題相關聯。在每個時刻,模型都會根據當前的上下文動態地評估習題與知識點之間的關系。模型架構如圖5所示。

為了評估當前表示 at 在時刻 χt 上與先前回答的習題 ai 之間的相關性,本文通過取 at 和 ai 之間掩碼點積的softmax值來

計算相關系數 ati ,即 ati=softmax(ai?at) 1 i=1,2,…,t 將這些相關系數輸入多頭Transformer編碼器,計算其注意力得分,從而得到增強的習題表示 et' ,即

然后,設計一個全連接網絡層來提取習題和知識點的表示,通過非線性變換將其投射到知識點空間中。在 χt 時刻,對特定習題的知識點隸屬度的計算如式(7)所示。

其中: W1c∈Rd/2×d ≡Rd/2×d,W2c∈R1×d/2,b1c∈Rd/2×1,b2c∈RN×1 為可訓練參數。

最后,通過真實知識點標簽 conct 和習題 quest 的預測結果conc之間的二元交叉熵損失對模型進行優化,計算如下:

圖5習題標記預測任務的模型架構

2.3.2個性化先驗知識預測任務

學生的先驗知識是通過他們過去的學習互動獲得的,這些先驗知識往往嵌入于歷史學習互動中[21.22]。個性化先驗知識預測任務(PKPT)能夠根據學生的歷史學習交互,綜合衡量學生的個性化先驗知識水平。該模塊的架構如圖6所示。

圖6個性化先驗知識預測任務架構Fig.6Architecture for personalized prior knowledge prediction tasl

模塊的輸入包括習題所包含的知識點conc、學生對該習題的作答狀況 respt 以及學生對包含該知識點習題的作答次數attet 。學生的得分率由式(9)計算得到。

PKPT是一個時間感知的學生先驗知識估計任務。對于 χt 時刻更新的當前知識狀態 ht ,使用先驗知識網絡來獲得學生對先驗知識的掌握情況,并對知識狀態進行非線性變換,轉換為估計的歷史得分率 yt' ,如式(10)所示。

其中 ;ht=LSTM(ht-1,mt),mt=zt⊕ct⊕xt,W1∈Rd/2×d,W2∈Rd; R1×d/2 b1y∈Rd/2×1 , b2∈R1 為可訓練參數。使用均方損失函數來評價評分的準確性,如式(11)所示。

其中:8為超參數,用來控制歷史觀測的長度,并幫助模型在 δ 值過小時避免嘈雜的評分計算。

2.3.3知識追蹤預測任務

該任務是ATEKT模型的主任務,ATEKT將QTPT以及PKPT兩種輔助學習任務分配到不同的網絡層次上,分別負責學習習題與知識點關聯信息以及學生水平的個性化信息,而知識追蹤預測任務學習更高層次的學生特征,進而預測學生對目標習題的答題情況。模型架構如圖7所示。

圖7知識追蹤預測任務架構Fig.7Architecture for knowledge tracing prediction task

不同于一般的知識追蹤模型只依賴于習題與響應結果的單一表示,該模塊在編碼中還添加了習題知識點特定信息 et (由QTPT任務得到)和 conct ,即

這將有助于基于深度順序的模型捕獲更多的習題敏感信息。同時,該模塊將融入了習題難度以及區分度的學生交互習題序列 xt 和 yt 作為輸入,以當前時刻的習題 xt 作為查詢向量對習題序列進行檢索,根據獲得的權重與歷史交互序列計算得到當前時刻學生的知識水平 ht 作為輸出。然后,用兩層神經網絡的非線性投影進行知識追蹤任務的預測,即

rt=σ(W2r?ReLU(W1r?ht+b1r)+b2r

其中: W1r∈Rd/2×d Rd/2×d,W2r∈RN×d/2,b1r∈Rd/2×1,b2r∈RN×1 為可訓練參數。最后,通過真實響應 rt+1 和預測概率 rt' 之間的二元交叉熵損失來優化知識追蹤預測器。設 δ(conct+1) 為 t+1 時刻回答關于知識點 conct+1 相關習題的one-hot編碼,則該任務的損失為

此外,在知識追蹤任務中的注意力分數上增加了一個指數衰減項來模擬學生短期記憶情況,如式(15)所示。

其中: θgt;0 是一個可學習的衰減率參數; d(t,τ) 是當前時刻 χt 與以往時刻 τ 的時間度量。 d(t,τ) 的計算如式(16)所示。

3實驗

3.1數據集

在ASSIST2009、ASSIST2017以及EdNet三個數據集上進行廣泛的實驗來驗證ATEKT模型的性能,并與七個基線模型進行了對比。表1中列出了各個數據集的詳細信息。

Tab.1Basicinformationofthedataset
Fig.8Results ofFSOAE ablation experiments onthree datasets

3.2 基線模型

為了驗證本文方法的有效性,將ATEKT與七個基線方法進行了比較。這些基線方法包括:

a) BKT[2] :基于隱馬爾可夫的模型,該模型將學生對每個概念的知識狀態建模為一個二進制變量。

b) DKT[3] :首次將深度學習應用到知識追蹤模型,引人RNN來預測學生的表現,對復雜的知識點聯系進行建模。

c)DKVMN[4]:一個具有靜態鍵矩陣和動態值矩陣的模型,該方法允許網絡保留多個隱藏狀態向量,分別進行讀寫。

d)SAKT[5]:應用Transformer架構,聚焦于歷史互動中與當前練習相關的練習來預測學生的表現,緩解了數據稀疏性問題。

e)SAINT[6]:一種分離的自注意力知識追蹤模型,它利用一個由堆疊的自注意層組成的編碼器-解碼器體系結構,捕捉練習與回答之間的復雜關系。

f)DGEKT[\"0]:一種基于超圖建模和有向圖建模的雙圖集成學習方法,用于捕獲異構的練習與概念的關聯。

g)AA-DKTA[11]:整合了能力屬性和注意力機制,考慮了學生在學習過程中能力的變化和個體之間的差異。

3.3 實驗細節

3.3.1參數設置

為了提高計算效率,將超過200個回答的學生序列分解成多個短的序列,以減輕模型在處理長序列時的計算負擔,避免過擬合。長序列可能包含大量的時間依賴信息,這可能導致模型訓練變得復雜和低效。通過分解,可以使得模型更專注于局部模式和近期行為,這通常對預測學生接下來習題的回答更有幫助。然后,使用Adam優化器對所有數據進行批量訓練。學習率設為 1×10-5 ,這是一個相對較小的學習率,可以更細致地調整權重以避免模型在優化過程中的大幅波動;Batch_size設為24,較小的批量大小提供更頻繁的更新,幫助模型捕捉數據中的噪聲和細節;對所有模型和數據集采用標準的 K 折交叉驗證,其中 K=5 ,這是一種常見的選擇,它提供了一個平衡的折中方案,既能夠充分評估模型性能,又不至于因為劃分過多而導致訓練數據不足;將 80% 的數據分配給訓練集, 20% 分配給測試集。最后通過5次實驗獲得的結果取平均值來得到最終結果。

3.3.2 實驗結果

使用ACC和AUC作為評價指標,ATEKT與基線模型的實驗結果如表2所示。其中,最佳的模型結果以粗體形式表示,排名次好的模型結果以下畫線加以區分。

表2三個數據集上模型的對比實驗結果Tab.2Comparative experimental results of models on three datasets

從結果來看,ATEKT模型在所有數據集上均優于其他的基線方法。在ASSIST2009數據集上,ATEKT模型的AUC比基準模型中表現最差的結果數據提高了 15.5% ,ACC提高了9.9% ;與基準模型中表現最好的結果數據相比,其AUC和ACC分別提高了 2.4% 和 2.0% 。在ASSIST2017以及EdNet數據集中,ATEKT模型也同樣具有更好的性能。

相比較于傳統方法,ATEKT模型要遠遠優于BKT,這主要受益于深度學習強大的建模能力,可以輕松捕獲學生知識狀態的復雜表征。與基于圖的知識追蹤方法DGEKT相比,ATEKT也具有顯著的優勢,這是由于ATEKT在每個時刻都會根據當前的上下文動態地評估習題和知識點之間的關系,提高了模型捕捉和表達復雜、變化的知識關系的能力。與基于注意力機制的知識追蹤方法相比,ATEKT更好地捕捉了包含在真實世界學生響應數據集中的豐富信息,從而取得了更高的性能。

3.4消融實驗

為了更好地驗證ATEKT模型中各個組成部分的有效性與合理性,設計了FSOAE和SSOAE兩組消融實驗。其中,FSOAE實驗主要是為了驗證答題記錄隱含信息如習題難度、習題區分度、相關知識點習題作答次數等對知識追蹤任務的影響;SSOAE實驗主要是為探究兩種輔助學習任務對知識追蹤任務的影響。

1)FSOAE消融實驗

KT-DIFF、KT-DISC、KT-ATTE 和KT-NONE1 分別為ATEKT的四種變體模型,其中,KT-DIFF剔除了習題難度因素,KT-DISC剔除了習題區分度因素,KT-ATTE剔除了相關知識點習題作答次數因素,KT-NONE1將三種因素全部剔除。實驗結果如圖8所示。

從圖8可以看出,相比ATEKT模型,在ASSIST2009、ASSIST2017和EdNet數據集上,將難度因素剔除的變體模型KT-DIFF的AUC和ACC分別下降了 2.2% 和 1.5%.3.5% 和

2.9% 、4. 4% 和 4% ;將區分度因素剔除的KT-DISC變體模型,AUC和ACC分別下降了 2.2% 和 1.2% 、4 2% 和 2,7%,3,2% 和 3.7% ;對于將相關知識點習題作答次數剔除的KT-ATTE模型來說,其AUC和ACC分別下降了 2.4% 和 1.4%.4.1% 和2.7% 、3. 1% 和3. 4% 。此外,在三個數據集中,KT-DIFF、KT-DISC以及KT-ATTE的結果均優于KT-NONE1模型,說明考慮多種習題因素的模型能夠更好地評估學生的知識點掌握程度和學生的能力水平。

2)SSOAE消融實驗

在SSOAE 實驗中,KT-QTPT、KT-PKPT和KT-NONE2也是ATEKT的變體模型,其中,KT-QTPT剔除了習題標記預測任務,KT-PKPT剔除了先驗知識預測任務,KT-NONE2沒有加入任何輔助學習任務。實驗結果如表3所示。

可以看出,在ASSIST20O9、ASSIST17和 EdNet數據集上,相比ATEKT模型,剔除了習題標記預測任務的變體模型KT-QTPT,AUC和ACC表現分別下降了 0.8% 和 0.3%.2.6% 和1.8%.2.5% 和 3.1% 。剔除了先驗知識預測任務的KT-PKPT變體模型,AUC和ACC分別下降了 0.5% 和 0.3%.0.6% 和 1.4%.1.4% 和 1.9% 。此外,在三個數據集中,KT-QTPT與KT-PKPT的結果均優于KT-NONE2模型,說明建模學生級別的個性化信息以及習題與知識點的關系有利于模型學習到有效的特征。

表3三個數據集上SSOAE消融實驗結果Tab.3Results of SSOAE ablation experiments on threedatasets /%

3.5知識狀態可視化

為了探究知識狀態在習題與學習者本身的差異以及時間下演化的合理性,對ASSIST2017數據集中某一學習者的交互序列使用熱力圖來展示模型如何捕捉學習者知識狀態的變化。這種分析方法將直觀地展示學習者對不同知識點的掌握程度。

圖9描繪了某一學習者知識狀態的熱力圖,其橫坐標展示了學習者作答信息,縱坐標表示具體的知識點,單元格反映了該學習者對特定知識點的掌握程度,顏色越深表明掌握程度越高。其中習題 q1~q3 是針對知識點 c12 的習題, q4~q7 是針對知識點 c26 的習題, q8~q14 是針對知識點 c65 的習題, q15~q20 是針對知識點 c63 的習題。

從圖中可以看到,當學習者在作答習題 q1~q3 和 q4~q7 時,其對知識點 c12 和知識點 c26 的掌握程度的變化幅度不同,學習者對知識點 c26 的掌握速率明顯較慢,這是由于針對知識點 c26 的習題難度普遍偏高,將影響學習者對該知識點的掌握。這種難度與掌握速率之間的關聯,為關于如何調整教學策略以適應不同學習者的需求提供重要見解。此外,習題難度越接近0.5時,其區分度越高,這是由于較高難度的習題或者較低難度的習題,對于不同學習者知識狀態而言其演化過程不會有太大區別,而中等難度的習題則將更能區分學習者的學習層次。對于知識點 c65 ,盡管學習者在習題 q10~q12 上的表現并不理想,但對知識點 c65 的掌握程度卻有所提升,這是由于學習者隨著對相同知識點習題作答次數的增多,其對知識點的理解程度會逐步加深,從而促進了知識狀態的提升。此外,當學習者長時間未對某一知識點進行練習時(如 c12 ),學習者對該知識點的掌握程度呈下降趨勢,這主要是由于缺乏對相關習題的練習而導致的遺忘現象。

通過以上分析可得,學習者的知識狀態變化是一個多因素共同作用的復雜過程。為了更準確地反映這一變化,引入多個特征,如習題的差異、學習者本身的差異以及時間下的演化等,不僅能夠豐富對學習者知識狀態變化的理解,而且能夠增強模型的解釋能力。

4結束語

本文提出了一個輔助任務增強的知識追蹤方法ATEKT,從學生答題記錄隱含信息以及輔助任務兩個角度進行了探索。考慮了習題難度、習題區分度以及相關知識點題目作答次數等信息對模型的影響。在輔助任務中,以知識追蹤預測作為核心任務,整合QTPT和PKPT兩個輔助任務中學習到的習題與知識點之間的關系、學生的個性化知識水平信息以及答題記錄中隱藏的信息,增強模型對學生學習狀況的捕捉能力。此外,還引入了一種單調注意力機制,用于模擬學生的短期記憶狀態。在三個公開數據集上的實驗結果表明,本文方法在預測任務上表現良好,充分說明相關輔助任務有助于學習隱含在學生作答序列中的有效特征。同時,驗證了知識追蹤任務是受到多方面學習因素影響的,對這些因素的有效建模有助于模型性能的提升。盡管ATEKT模型取得了很好的性能,但仍存在一些不足。例如,在知識追蹤任務中,學生在當前習題上的表現更受最近學習的影響,而過去學習的內容可能會引人噪聲,然而在實際應用中,不能簡單地忽略與當前習題無關的過去的學習內容。因此,如何在長序列學習中去除噪聲的影響,同時保留較久遠的學習信息,確保模型可以準確預測學生長時間未學習的知識點,將是筆者的下一步研究重點。

參考文獻:

[1]劉莉莉.智慧教育的內涵與發展策略[J].中國多媒體與網絡教 學學報:上旬刊,2023(5):60-63.(LiuLili.The connotation and developmentstrategyof intelligenteducation[J].ChinaJournalof Multimediaamp; Network Teaching,2023(5):60-63.)

[2]YudelsonMV,Koedinger KR,GordonGJ.Individualized Bayesian knowledge tracing models[C]//Proc of the 16th International Conference on Artificial Intelligence in Education. Berlin:Springer,2013: 171-180.

[3]Piech C,BassenJ,Huang J,et al.Deep knowledge tracing[C]// Proc of the 29th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2015:505-513.

[4]Zhang Jiani,Shi Xingjian,King I,et al. Dynamic key-value memory networks for knowledge tracing[C]//Proc of the 26th International Conference on World Wide Web.New York:ACM Press,2017: 765-774.

[5]Pandey S,Karypis G. A self-attentive model for knowledge tracing [EB/OL]. (2019-07-16).https://arxiv.org/abs/1907.06837.

[6]Choi Y,Lee Y,Cho J,et al.Towards an appropriate query,key, and value computation for knowledge tracing[C]//Proc of the 7th ACM Conference on Learning @ Scale. New York:ACM Press, 2020:341-344.

[7]Nakagawa H,Iwasawa Y,Matsuo Y.Graph-based knowledge tracing:modeling student proficiency using graph neural network[C]// Proc of IEEE/WIC/ACM International Conference on Web Intelligence.New York:ACM Press,2019:156-163.

[8]Yang Yang,Shen Jian,Qu Yanru,et al.GIKT:agraph-based interaction model for knowledge tracing[C]// Proc of European Conference on Machine Learning and Knowledge Discovery in Databases. Cham:Springer,2021: 299-315.

[9]Velickovic P,Cucurull G,Casanova A,et al.Graph attention networks[EB/OL].(2017-10-30).https://arxiv.org/abs/1710. 10903.

[10]Cui Chaoran,Yao Yumo,Zhang Chunyun,et al.DGEKT:a dual graph ensemble learning method for knowledge tracing[J].ACM Trans on Information Systems,2024,42(3):78.

[11]Yue Yuqi,Sun Xiaoqing,JiWeidong,et al. Augmenting interpretable knowledge tracing by ability attribute and attention mechanism [EB/OL].(2023-02-04).htps://arxiv.org/abs/2302.02146.

[12]KajanS,GogaJ,LackoK,etal.Detectionof diabetic retinopathy usingpretrained deep neural networks[C]//Proc of Cyberneticsamp; Informatics(Kamp;I).Piscataway,NJ:IEEE Press,2020:1-5.

[13]Vaswani A,ShazeerN,ParmarN,etal.Attentionisall you need [C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook,NY:Curran Associates Inc., 2017:6000-6010.

[14]PandeyS,SrivastavaJ,PandeyS,etal.RKT:relation-awareselfattention forknowledge tracing[C]//Proc of the 29th ACM International Conference on Information amp;Knowledge Management.New York:ACMPress,2020:1205-1214.

[15]ShinD,ShimY,YuH,et al.SAINT + : integrating temporal features forEdNet correctness prediction[C]//Proc of the11th International LearningAnalyticsand Knowledge Conference.New York:ACM Press,2021:490-496.

[16]CaruanaRA.Multitask connectionistlearning[M]//Proceedingsof the 1993 Connectionist Models Summer School.[S.1.]:Psychology Press,2014:372-379.

[17]Zhang Yu,Yang Qiang.A survey on multi-task learning [J]. IEEE Trans on Knowledge and Data Engineering,2022,34(12): 5586-5609.

[18]Misra I,Shrivastava A,Gupta A,etal.Cross-stitch networksfor multi-task learning[C]//Proc of IEEE Conference on Computer Visionand PatternRecognition.Piscataway,NJ:IEEEPress,2016: 3994-4003.

[19]李一波,張森悅.試題庫試題難度系數自適應學習整定[J].計 算機工程,2005,31(12):181-182.(Li Yibo,Zhang Senyue. Self-study and adaptive adjusting of exam-question difficulty coefficient[J].Computer Engineering,2005,31(12):181-182.)

[20]黃光楊.教育測量與評價[M].上海:華東師范大學出版社, 2002.(Huang Guangyang. Educational measurement and evaluation [M].Shanghai:East China Normal University Press,2002.)

[21]Shen Shuanghong,Liu Qi,Chen Enhong,et al.Convolutional knowledge tracing:modeling individualization in student learning process[C]//Proc of the 43rd International ACM SIGIR Conference onResearch and Development in Information Retrieval. New York: ACMPress,2020:1857-1860.

[22]Zhang Moyu,Zhu Xinning,Zhang Chunhong,et al.Multi-factors aware dual-attentional knowledge tracing[C]//Proc of the 3Oth ACM International Conference on Information amp; Knowledge Management. New York:ACM Press,2021:2588-2597.

猜你喜歡
注意力機制智慧教育
基于簡化GCN與注意力機制的移動用戶興趣點推薦模型
財務報表分析課程教學改革研究
高校智慧教育生態發展新挑戰
亞太教育(2016年31期)2016-12-12 20:44:55
基于大數據背景下的智慧化環境藝術設計教學
智慧教育在基礎教育領域中的應用探究
基于知識圖譜的智慧教育研究熱點與趨勢分析
主站蜘蛛池模板: 国产在线日本| 欧美色丁香| 日本AⅤ精品一区二区三区日| 91青草视频| 国产成人免费手机在线观看视频| 一区二区理伦视频| 98超碰在线观看| 麻豆精品在线视频| 丁香六月综合网| 香蕉久久国产超碰青草| 中文字幕调教一区二区视频| 国产激情无码一区二区APP| 亚洲最黄视频| 婷婷六月激情综合一区| 国产精品自在在线午夜| 亚洲免费黄色网| 尤物成AV人片在线观看| 日韩福利在线视频| 色精品视频| 97青草最新免费精品视频| 日韩欧美中文| 黄色网址免费在线| 欧美日韩免费观看| 午夜国产不卡在线观看视频| 亚洲一道AV无码午夜福利| 成人亚洲天堂| 免费在线色| 成人噜噜噜视频在线观看| 亚洲无码免费黄色网址| 日本不卡视频在线| 日韩精品欧美国产在线| 亚洲视频二| 五月天丁香婷婷综合久久| 久久亚洲AⅤ无码精品午夜麻豆| 99资源在线| 免费毛片视频| 国产九九精品视频| 欧美日韩国产成人在线观看| 国产精品亚欧美一区二区| 国产乱子伦一区二区=| 亚洲精品国产精品乱码不卞| 亚洲Va中文字幕久久一区| 最新日韩AV网址在线观看| 日韩无码黄色网站| 国产高清免费午夜在线视频| 欧美日韩在线第一页| 欧美www在线观看| 亚洲一级毛片免费看| 亚洲性影院| 全部免费特黄特色大片视频| 亚洲男人天堂2020| 一级毛片免费观看久| 亚洲资源在线视频| 成年人久久黄色网站| 国产精品毛片一区| 日日摸夜夜爽无码| 国产网友愉拍精品| 中文字幕在线看视频一区二区三区| 久久人妻xunleige无码| 自拍欧美亚洲| 天堂av综合网| 美女毛片在线| 国产麻豆精品久久一二三| 精品少妇人妻无码久久| 亚洲国产成人精品一二区| 国产成人久视频免费| 日韩精品亚洲人旧成在线| 国产一在线| 韩日无码在线不卡| 青青青视频免费一区二区| 国产免费a级片| 免费福利视频网站| 亚洲欧美日韩久久精品| 97人人做人人爽香蕉精品| 久久亚洲国产最新网站| 国产女人18水真多毛片18精品 | 尤物亚洲最大AV无码网站| 女同国产精品一区二区| 婷婷色一区二区三区| 婷婷色丁香综合激情| 凹凸国产分类在线观看| 亚洲色图欧美在线|