摘 要:針對(duì)知識(shí)追蹤研究忽略知識(shí)點(diǎn)之間的拓?fù)潢P(guān)系,從而限制了知識(shí)點(diǎn)狀態(tài)的表示并最終影響預(yù)測(cè)效果的問(wèn)題,提出一種知識(shí)狀態(tài)神經(jīng)推理知識(shí)追蹤模型。首先建立知識(shí)點(diǎn)關(guān)系圖和知識(shí)點(diǎn)狀態(tài)圖;其次利用擴(kuò)散模型得到關(guān)系圖和狀態(tài)圖的投影并完成融合;然后利用逆擴(kuò)散過(guò)程得到融合了知識(shí)點(diǎn)關(guān)系的整體知識(shí)狀態(tài)表示;最后預(yù)測(cè)學(xué)習(xí)者的表現(xiàn)。在模型有效性方面,在若干數(shù)據(jù)集上對(duì)比四個(gè)相關(guān)模型,所提模型均取得了一定的優(yōu)勢(shì)。在可解釋性方面,展示了知識(shí)狀態(tài)進(jìn)化過(guò)程與真實(shí)答題結(jié)果之間的對(duì)應(yīng)關(guān)系。在實(shí)際應(yīng)用方面,以該模型為基礎(chǔ)的智慧學(xué)習(xí)環(huán)境已分別應(yīng)用于一門人工智能課程和英語(yǔ)語(yǔ)法課程,并取得了優(yōu)于對(duì)比模型的結(jié)果。
關(guān)鍵詞:知識(shí)追蹤;知識(shí)點(diǎn);知識(shí)點(diǎn)狀態(tài);知識(shí)狀態(tài);擴(kuò)散模型
中圖分類號(hào):TP183 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2023)06-013-1686-06
doi: 10.19734/j.issn.1001-3695.2022.11.0518
Knowledge tracing via neural inference on knowledge states
Zhang Kai Qin Xinyi Kuang Ying Qin Zhengchu
(1. School of Computer Science, Yangtze University, Jingzhou Hubei 434000, China; 2. School of Foreign Languages, Yangtze University College of Arts amp; Sciences, Jingzhou Hubei 434020, China)
Abstract:Aiming at the problem that knowledge tracing research ignores the topological relationship between concepts, thereby limiting the representation of concept states and ultimately affecting the prediction effect, this paper proposed a knowledge state neural reasoning knowledge tracing model. Firstly, it established the concept relationship diagram and concept state diagram. Secondly, it used the diffusion model to obtain the projection of the relationship diagram and the state diagram and complete the fusion. Then, it used the inverse diffusion process to obtain the overall knowledge state representation that integrated the relationship between concepts, and finally predicted the performance of learners. In terms of model effectiveness, comparing four related models on several datasets, the proposed model achieves certain advantages. In terms of interpretability, the proposed model "shows the correspondence between the evolution process of knowledge state and the actual answer results. In terms of practical application, the intelligent learning environment based on the model has been applied to an artificial intelligence course and an English grammar course respectively, and has achieved better results than the comparison model.
Key words:knowledge tracing; concept; concept state; knowledge state; diffusion model
知識(shí)追蹤模型通過(guò)輸入擬作答題目的表示,建立題目、知識(shí)點(diǎn)及其關(guān)系之間的映射關(guān)系,建模學(xué)習(xí)者在各個(gè)知識(shí)點(diǎn)上的狀態(tài),從而更加準(zhǔn)確地表示學(xué)習(xí)者整體的知識(shí)狀態(tài),完成對(duì)學(xué)習(xí)者未來(lái)表現(xiàn)的預(yù)測(cè)。在現(xiàn)有的智慧學(xué)習(xí)環(huán)境中,如國(guó)家智慧教育公共服務(wù)平臺(tái)、學(xué)堂在線、edX、Coursera等,知識(shí)追蹤均在其中承擔(dān)判斷學(xué)習(xí)者知識(shí)狀態(tài)、預(yù)測(cè)學(xué)習(xí)者未來(lái)表現(xiàn)的作用,并為下游任務(wù)(如個(gè)性化教學(xué)推薦等)提供有效的支撐和依據(jù)[1~6]。
從純粹的單一知識(shí)點(diǎn)到復(fù)雜的多學(xué)科知識(shí)體系,知識(shí)點(diǎn)之間的相互作用關(guān)系在知識(shí)學(xué)習(xí)領(lǐng)域非常普遍。這些相互作用會(huì)在學(xué)習(xí)者未來(lái)的表現(xiàn)層面引發(fā)非常復(fù)雜的行為模式。由于當(dāng)前的工作只使用了對(duì)知識(shí)點(diǎn)的表示,對(duì)知識(shí)點(diǎn)之間作用模式的表示有欠缺,忽略了知識(shí)點(diǎn)關(guān)系對(duì)知識(shí)點(diǎn)狀態(tài)的影響與作用,這些欠缺的影響會(huì)縱向作用到單一知識(shí)點(diǎn)狀態(tài)和整體知識(shí)狀態(tài)的表示,從而影響知識(shí)追蹤模型預(yù)測(cè)學(xué)習(xí)者未來(lái)表現(xiàn)的效果。
本文提出了一個(gè)知識(shí)狀態(tài)神經(jīng)推理知識(shí)追蹤模型 (neural state inference knowledge tracing model,NSIKT)。該模型在表示學(xué)習(xí)者知識(shí)狀態(tài)時(shí),結(jié)合知識(shí)點(diǎn)之間的關(guān)系,推理出學(xué)習(xí)者知識(shí)點(diǎn)狀態(tài)的融合表示,從而得到學(xué)習(xí)者整體的知識(shí)狀態(tài),最終更加準(zhǔn)確地預(yù)測(cè)學(xué)習(xí)者未來(lái)的表現(xiàn)。
1 相關(guān)工作
現(xiàn)有的知識(shí)追蹤方法大致可以分為回歸知識(shí)追蹤、概率知識(shí)追蹤和深度知識(shí)追蹤三類模型。本章根據(jù)這三類模型分別介紹它們?cè)谥R(shí)點(diǎn)及其相互關(guān)系、知識(shí)點(diǎn)狀態(tài)、整體知識(shí)狀態(tài)等方面的工作。
1.1 回歸知識(shí)追蹤
回歸知識(shí)追蹤模型,顧名思義使用回歸模型,從歷史學(xué)習(xí)記錄中獲取特定參數(shù)來(lái)預(yù)測(cè)學(xué)習(xí)者的未來(lái)表現(xiàn)。主要的模型及方法包括項(xiàng)目反映理論(item response theory,IRT)建模學(xué)習(xí)者能力和題目難度等兩個(gè)參數(shù)、學(xué)習(xí)因子分析(learning factors analysis)、表現(xiàn)因子分析(performance factors analysis)以及其改進(jìn)模型。這類模型沒(méi)有顯式地建模知識(shí)點(diǎn)及其關(guān)系,其中部分參數(shù),如學(xué)習(xí)者能力,可能隱式地包含了對(duì)部分知識(shí)點(diǎn)及其關(guān)系的表示。
1.2 概率知識(shí)追蹤
概率知識(shí)追蹤模型以離散隨機(jī)變量表示單個(gè)知識(shí)點(diǎn)狀態(tài),且受限于概率模型的假設(shè),這類方法一般只面向單個(gè)知識(shí)點(diǎn)分別建模,較少表示不同知識(shí)點(diǎn)之間的相互關(guān)系。BKT[7] 以“已學(xué)會(huì)”“未學(xué)會(huì)”來(lái)表示單個(gè)知識(shí)點(diǎn)狀態(tài)。TLS-BKT[8,9]擴(kuò)展了BKT對(duì)知識(shí)點(diǎn)狀態(tài)的表示,增加了一種“正在學(xué)習(xí)”的狀態(tài)。這類模型能夠建模單個(gè)知識(shí)點(diǎn)及其狀態(tài),但是難以表示知識(shí)體系,也難以表示知識(shí)點(diǎn)的關(guān)系增強(qiáng)的知識(shí)點(diǎn)狀態(tài)。
1.3 深度知識(shí)追蹤
DKT[10]是深度模型應(yīng)用于知識(shí)追蹤的首個(gè)模型,為后續(xù)研究開創(chuàng)了廣闊的空間。受到DKT研究的啟發(fā),各種深度模型在知識(shí)追蹤領(lǐng)域得到了廣泛的應(yīng)用。包括DKT在內(nèi),深度知識(shí)追蹤的研究可以分為三類:
a)將題目表示直接映射為知識(shí)狀態(tài)。這是無(wú)記憶增強(qiáng)的序列模型最常用的方法。其中,DKT將題目表示輸入序列模型,用模型中的隱藏向量h表示整體知識(shí)狀態(tài)。KTSA-BiGRU[11]將題目表示輸入雙向GRU得到融合上下文信息的知識(shí)狀態(tài)。TCN-KT[12]以題目表示為輸入,使用全卷積層和膨脹因果卷積層優(yōu)化整體知識(shí)狀態(tài)的表示,并融入遺忘對(duì)知識(shí)狀態(tài)的影響,建模最終的知識(shí)狀態(tài)。
b)將題目表示先映射為知識(shí)點(diǎn)表示,再映射為整體知識(shí)狀態(tài)。NKTF[13]將題目標(biāo)注為若干相關(guān)的知識(shí)點(diǎn),使用序列模型映射到知識(shí)狀態(tài)空間。CRKT[14]將題目映射到知識(shí)點(diǎn)關(guān)系圖空間,再用圖神經(jīng)網(wǎng)絡(luò)模型映射到知識(shí)狀態(tài)空間。MAFKT[15]使用時(shí)間卷積操作獲得三個(gè)尺度的知識(shí)點(diǎn)表示,使用注意力機(jī)制融合上述三個(gè)尺度形成新的知識(shí)點(diǎn)表示,最終完成知識(shí)狀態(tài)的表示。KTCR[16]使用上下文增強(qiáng)的方法表征了題目對(duì)每個(gè)知識(shí)點(diǎn)的作用,以此建模知識(shí)狀態(tài)。IDKT[17]建模了靜態(tài)的題目知識(shí)點(diǎn)圖,以此更新題目表示,建模知識(shí)狀態(tài)。
c)將題目表示先映射為知識(shí)點(diǎn)表示,再映射為知識(shí)點(diǎn)狀態(tài),最后映射為整體知識(shí)狀態(tài)。其中,DKVMN[18]是這一類方法的典型代表,它引入外部記憶模塊,首先將題目表示作用到每個(gè)知識(shí)點(diǎn)表示,再將題目與知識(shí)點(diǎn)的相似度權(quán)重作用于每個(gè)知識(shí)點(diǎn)的狀態(tài)表示,最終得到整體的知識(shí)狀態(tài),預(yù)測(cè)學(xué)習(xí)者未來(lái)的表現(xiàn)。與DKVMN不同的是,SAKT[19]使用注意力機(jī)制建模從單個(gè)知識(shí)點(diǎn)狀態(tài)生成整體知識(shí)狀態(tài)的過(guò)程。CKT[20]使用知識(shí)點(diǎn)正確率表示每個(gè)知識(shí)點(diǎn)的狀態(tài),使用層次卷積建模整體知識(shí)狀態(tài)。AKT[21]基于注意力機(jī)制使用序列中當(dāng)前時(shí)刻之前的若干個(gè)知識(shí)點(diǎn)的狀態(tài)表示當(dāng)前時(shí)刻整體的知識(shí)狀態(tài)。LFKT[22]也使用外部矩陣表示每個(gè)知識(shí)點(diǎn)的狀態(tài),與DKVMN的區(qū)別在于,LFKT使用專家標(biāo)注的方式只計(jì)算出當(dāng)前題目包含的知識(shí)點(diǎn)狀態(tài),當(dāng)前題目不包含的知識(shí)點(diǎn)則設(shè)置權(quán)重為零。MSKT[23]基于DKVMN提出,從掌握速度的角度建模單個(gè)知識(shí)點(diǎn)狀態(tài),最終建模整體知識(shí)狀態(tài)。DKVMN-BORUTA[24]在DKVMN的基礎(chǔ)上使用學(xué)習(xí)行為特征優(yōu)化整體知識(shí)狀態(tài)。
綜上所述,當(dāng)前的深度知識(shí)追蹤模型從知識(shí)點(diǎn)表示、知識(shí)點(diǎn)狀態(tài)表示、整體知識(shí)狀態(tài)表示三個(gè)方面開展研究工作,并在這些方面均取得了較好的研究進(jìn)展。同時(shí)也應(yīng)注意到,當(dāng)前的研究沒(méi)有利用知識(shí)點(diǎn)之間的拓?fù)潢P(guān)系,限制了知識(shí)點(diǎn)狀態(tài)的表示,導(dǎo)致后續(xù)的整體知識(shí)狀態(tài)表示效果不佳,影響模型的預(yù)測(cè)性能。為了更加準(zhǔn)確地表示知識(shí)點(diǎn)狀態(tài),本文構(gòu)建知識(shí)點(diǎn)關(guān)系圖表示知識(shí)點(diǎn)及其相互關(guān)系;構(gòu)建知識(shí)點(diǎn)狀態(tài)圖表示知識(shí)點(diǎn)狀態(tài)及其相互關(guān)系;提出知識(shí)點(diǎn)關(guān)系與狀態(tài)的圖融合方法,利用擴(kuò)散模型[25,26]的擴(kuò)散過(guò)程完成知識(shí)點(diǎn)關(guān)系與狀態(tài)的融合,生成知識(shí)點(diǎn)拓?fù)潢P(guān)系增強(qiáng)的知識(shí)點(diǎn)狀態(tài)表示,再利用逆擴(kuò)散過(guò)程將融合表示映射回知識(shí)點(diǎn)狀態(tài)圖空間,得到關(guān)系增強(qiáng)的知識(shí)點(diǎn)狀態(tài)圖表示,獲取整體知識(shí)狀態(tài)表示,預(yù)測(cè)學(xué)習(xí)者未來(lái)的表現(xiàn)。
2 知識(shí)狀態(tài)神經(jīng)推理知識(shí)追蹤模型
2.1 模型提出的思想
本文以知識(shí)點(diǎn)之間的內(nèi)涵和外延關(guān)系描述知識(shí)點(diǎn)的拓?fù)潢P(guān)系。知識(shí)點(diǎn)的內(nèi)涵關(guān)系包括前驅(qū)和后繼關(guān)系,知識(shí)點(diǎn)的外延關(guān)系包括全同、全異、包含、包含于、交叉等關(guān)系。上述關(guān)系會(huì)直接作用和影響學(xué)習(xí)者的知識(shí)點(diǎn)狀態(tài)。例如:英語(yǔ)語(yǔ)法中的兩個(gè)知識(shí)點(diǎn)“狀語(yǔ)從句”和“條件狀語(yǔ)從句”,在內(nèi)涵關(guān)系上屬于前驅(qū)與后繼關(guān)系,在外延關(guān)系上屬于包含與包含于關(guān)系。基于這樣的知識(shí)點(diǎn)關(guān)系,當(dāng)“狀語(yǔ)從句”知識(shí)點(diǎn)狀態(tài)變化時(shí),“條件狀語(yǔ)從句”知識(shí)點(diǎn)狀態(tài)也會(huì)發(fā)生相應(yīng)變化。
綜上所述,為了建模上述知識(shí)點(diǎn)關(guān)系影響知識(shí)點(diǎn)狀態(tài)的機(jī)理,本文以知識(shí)點(diǎn)的表示為節(jié)點(diǎn),以知識(shí)點(diǎn)的關(guān)系為邊,構(gòu)建知識(shí)點(diǎn)關(guān)系圖。同時(shí),以知識(shí)點(diǎn)狀態(tài)表示為節(jié)點(diǎn),以狀態(tài)之間的關(guān)系為邊,構(gòu)建知識(shí)點(diǎn)狀態(tài)圖。利用擴(kuò)散模型的擴(kuò)散過(guò)程分別將知識(shí)點(diǎn)關(guān)系圖和狀態(tài)圖映射至知識(shí)表示隱空間。在隱空間中,首先融合關(guān)系圖與狀態(tài)圖,描述知識(shí)點(diǎn)關(guān)系影響后的新知識(shí)點(diǎn)狀態(tài);其次利用逆擴(kuò)散過(guò)程將隱空間中新知識(shí)點(diǎn)狀態(tài)表示映射回知識(shí)表示顯空間,以此為基礎(chǔ)完成對(duì)學(xué)習(xí)者未來(lái)表現(xiàn)的預(yù)測(cè);最后,將當(dāng)前時(shí)刻的答題結(jié)果分別作用于隱空間中的知識(shí)點(diǎn)關(guān)系圖和狀態(tài)圖,并利用逆擴(kuò)散機(jī)制將結(jié)果分別映射生成下一時(shí)刻的知識(shí)點(diǎn)關(guān)系圖與狀態(tài)圖。
2.2 問(wèn)題的提出
2.2.1 知識(shí)點(diǎn)關(guān)系圖
2.2.2 知識(shí)點(diǎn)狀態(tài)圖
2.3 模型架構(gòu)
2.4 知識(shí)點(diǎn)狀態(tài)更新模塊
2.5 知識(shí)點(diǎn)狀態(tài)融合生成模塊
2.5.1 知識(shí)點(diǎn)狀態(tài)圖擴(kuò)散
2.5.2 知識(shí)點(diǎn)關(guān)系圖擴(kuò)散
2.5.3 擴(kuò)散融合
2.5.4 逆擴(kuò)散
2.6 預(yù)測(cè)模塊
2.6.1 預(yù)測(cè)qt的表現(xiàn)
2.6.2 預(yù)測(cè)t+1時(shí)刻的知識(shí)點(diǎn)關(guān)系圖
2.7 模型訓(xùn)練
3 實(shí)驗(yàn)與討論
為了從多個(gè)維度分析 NSIKT 模型的有效性和性能,本文選擇 DKT、DKVMN、IDKT、CKT四個(gè)相關(guān)模型作為基線模型,將NSIKT與它們?cè)谌舾稍u(píng)價(jià)指標(biāo)上進(jìn)行對(duì)比。本章首先介紹實(shí)驗(yàn)步驟、實(shí)驗(yàn)數(shù)據(jù)集以及實(shí)驗(yàn)的基本設(shè)置,包括實(shí)驗(yàn)環(huán)境的硬件參數(shù)、實(shí)驗(yàn)對(duì)比的度量指標(biāo)等。接著展示了本文模型和各個(gè)對(duì)比模型在各個(gè)數(shù)據(jù)集上的預(yù)測(cè)表現(xiàn);隨后比較了本文模型與基線模型在表示知識(shí)狀態(tài)方面的質(zhì)量;然后進(jìn)行消融實(shí)驗(yàn)以證明知識(shí)點(diǎn)關(guān)系與狀態(tài)融合的有效性,以及答案at融合關(guān)系圖和狀態(tài)圖其中之一與同時(shí)融合關(guān)系圖和狀態(tài)圖的效果差異;最后通過(guò)對(duì)學(xué)習(xí)序列的分析展示知識(shí)點(diǎn)關(guān)系圖和狀態(tài)圖的生成結(jié)果,說(shuō)明本文模型具備一定的可解釋性。
3.1 實(shí)驗(yàn)數(shù)據(jù)集
本文使用ASSISTments2009 (ASSIST09)、ASSISTments2012 (ASSIST12)、ASSISTments2015 (ASSIST15)、ASSISTments2017 (ASSIST17)和STATICS2011 (STATICS)五個(gè)數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn)分析。其中ASSIST09是智能導(dǎo)學(xué)系統(tǒng)ASSISTments于2009—2010收集到的學(xué)習(xí)交互數(shù)據(jù),本實(shí)驗(yàn)使用其更新版本的skill-builder數(shù)據(jù)集,該版本相較于原始版本去除了部分重復(fù)的數(shù)據(jù)。和ASSIST09不同,ASSIST12數(shù)據(jù)集中一道題目只負(fù)責(zé)考察一個(gè)知識(shí)點(diǎn)。ASSIST15和ASSIST17是ASSISTments平臺(tái)2015—2016收集的學(xué)習(xí)交互數(shù)據(jù),以及2017年舉辦的數(shù)據(jù)挖掘競(jìng)賽。STATICS是從大學(xué)的工程力學(xué)課程中收集的。在力學(xué)系統(tǒng)中,每個(gè)題目都包含多個(gè)步驟。由于此數(shù)據(jù)集包含相對(duì)較少的不同題目,所以將練習(xí)題的每個(gè)步驟作為模型的單獨(dú)輸入。針對(duì)上述數(shù)據(jù)集,本文選取數(shù)據(jù)的70%用于訓(xùn)練,10%用于驗(yàn)證,20%用于測(cè)試。本文標(biāo)注了知識(shí)點(diǎn)之間的內(nèi)涵和外延關(guān)系,用于構(gòu)建知識(shí)點(diǎn)關(guān)系圖。在以上五個(gè)數(shù)據(jù)集中,本文去掉未標(biāo)注考察知識(shí)點(diǎn)的答題記錄,保留交互大于10次的學(xué)習(xí)者記錄。上述五個(gè)數(shù)據(jù)集的具體信息如表1所示。
3.2 實(shí)驗(yàn)步驟
3.3 實(shí)驗(yàn)環(huán)境
3.4 性能對(duì)比實(shí)驗(yàn)
本文的實(shí)驗(yàn)使用受試者工作特征曲線下面積(area under ROC curve,AUC)、準(zhǔn)確率(accuracy,ACC)、均方根誤差(root mean square error,RMSE) 等三個(gè)指標(biāo)來(lái)評(píng)價(jià)和對(duì)比模型的有效性。其中,AUC是受試者工作特征曲線(receiver operating characteristic curve,ROC)與坐標(biāo)軸圍成的面積,AUC指標(biāo)的取值與模型預(yù)測(cè)效果正相關(guān),即AUC的值越高,說(shuō)明模型的預(yù)測(cè)效果越好,AUC的取值為[0.5,1.0]。ACC計(jì)算的是模型預(yù)測(cè)正確分類的樣本數(shù)與樣本總數(shù)之比,ACC指標(biāo)的取值與模型預(yù)測(cè)效果也是正相關(guān)。RMSE是模型預(yù)測(cè)結(jié)果與真實(shí)值偏差的平方與觀測(cè)次數(shù)比值的平方根,其衡量的是預(yù)測(cè)結(jié)果與真實(shí)值之間的偏差。
根據(jù)圖2~4展示的結(jié)果:在五個(gè)實(shí)驗(yàn)數(shù)據(jù)集上,與四個(gè)基線模型進(jìn)行對(duì)比實(shí)驗(yàn),本文NSIKT都取得了較好的結(jié)果,說(shuō)明了NSIKT的有效性。值得注意的是,各個(gè)模型在ASSIST15數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果一般會(huì)低于其他數(shù)據(jù)集的表現(xiàn),可能與該數(shù)據(jù)集平均作答記錄少等稀疏問(wèn)題有關(guān)。
3.5 表示的質(zhì)量
3.6 消融實(shí)驗(yàn)
3.7 可解釋性
綜上所述,根據(jù)學(xué)習(xí)者的真實(shí)作答結(jié)果,本文模型能夠通過(guò)模型內(nèi)部的學(xué)習(xí)狀態(tài)的進(jìn)化過(guò)程提供一定程度的可解釋性,從可解釋性方面說(shuō)明了本文模型的效果。
3.8 模型應(yīng)用實(shí)例
為了驗(yàn)證知識(shí)追蹤模型的有效性和實(shí)用性,本文在國(guó)家自然科學(xué)基金等項(xiàng)目的資助下研發(fā)了“知識(shí)追蹤智能教學(xué)平臺(tái)”,集成了目前主流的若干知識(shí)追蹤模型,可以通過(guò)教學(xué)應(yīng)用實(shí)際效果展示知識(shí)追蹤模型的有效性,通過(guò)對(duì)比實(shí)驗(yàn)來(lái)展示不同知識(shí)追蹤模型的效果差異,如圖7所示。
本文的應(yīng)用實(shí)驗(yàn)對(duì)象包括:第一作者在某學(xué)期講授的人工智能課程中的學(xué)生138人,以及通信作者在某學(xué)期講授的英文語(yǔ)法課程中的學(xué)生294人。將學(xué)生個(gè)人信息脫敏處理,保存若干次作業(yè)的答題記錄,再將這些記錄的80%用做訓(xùn)練集,20%用做測(cè)試集,可以得到各個(gè)模型的平均預(yù)測(cè)準(zhǔn)確率,具體如下表4所示,其中可以看出本文NSIKT表現(xiàn)最好。
4 結(jié)束語(yǔ)
本文提出了一個(gè)通過(guò)知識(shí)點(diǎn)及其關(guān)系的表示融合推理知識(shí)點(diǎn)狀態(tài)進(jìn)而獲取整體知識(shí)狀態(tài)的知識(shí)追蹤模型NSIKT,致力于解決現(xiàn)存知識(shí)追蹤模型研究中,知識(shí)點(diǎn)狀態(tài)及整體知識(shí)狀態(tài)沒(méi)有融入知識(shí)點(diǎn)關(guān)系的問(wèn)題。使用圖生成擴(kuò)散模型,在學(xué)習(xí)者知識(shí)表示隱空間,將知識(shí)點(diǎn)關(guān)系融入知識(shí)點(diǎn)狀態(tài)的表示,完成對(duì)學(xué)習(xí)者整體知識(shí)狀態(tài)的表示,最終更加準(zhǔn)確地預(yù)測(cè)學(xué)習(xí)者的表現(xiàn)。實(shí)現(xiàn)的知識(shí)追蹤模型與四個(gè)基線模型在五個(gè)數(shù)據(jù)集上的對(duì)比結(jié)果上顯示,本文NSIKT達(dá)到了更好的效果,證明了本文引入知識(shí)點(diǎn)關(guān)系增強(qiáng)學(xué)習(xí)者知識(shí)狀態(tài)表示的必要性和可行性。未來(lái)將在多維度的題目表示、多認(rèn)知功能的知識(shí)點(diǎn)狀態(tài)表示、多機(jī)理協(xié)同的整體知識(shí)狀態(tài)決策等知識(shí)追蹤研究的關(guān)鍵節(jié)點(diǎn)繼續(xù)開展進(jìn)一步的研究工作。
參考文獻(xiàn):
[1]劉鐵園,陳威,常亮,等. 基于深度學(xué)習(xí)的知識(shí)追蹤研究進(jìn)展 [J]. 計(jì)算機(jī)研究與發(fā)展,2022,59(1): 81-104. (Liu Tieyuan,Chen Wei,Chang Liang,et al. Research advances in the knowledge tracing based on deep learning [J]. Journal of Computer Research and Development,2022,59(1): 81-104.)
[2]張暖,江波. 學(xué)習(xí)者知識(shí)追蹤研究進(jìn)展綜述 [J]. 計(jì)算機(jī)科學(xué),2021,48(4):213-222.(Zhang Nuan,Jiang Bo.Review progress of learner knowledge tracing[J].Computer Science,2021,48(4):213-222.)
[3]梁琨,任依夢(mèng),尚余虎,等. 深度學(xué)習(xí)驅(qū)動(dòng)的知識(shí)追蹤研究進(jìn)展綜述 [J]. 計(jì)算機(jī)工程與應(yīng)用,2021,57(21): 41-58. (Liang Kun,Ren Yimeng,Shang Yuhu,et al. Review of knowledge tracing preprocessing based on deep learning [J]. Computer Engineering and Applications,2021,57(21): 41-58.)
[4]盧宇,王德亮,章志,等. 智能導(dǎo)學(xué)系統(tǒng)中的知識(shí)追蹤建模綜述 [J]. 現(xiàn)代教育技術(shù),2021,31(11): 87-95. (Lu Yu,Wang De-liang,Zhang Zhi,et al. A review of knowledge tracing modeling in intelligent tutoring systems [J]. Modern Educational Technology,2021,31(11): 87-95.)
[5]李菲茗,葉艷偉,李曉菲,等. 知識(shí)追蹤模型在教育領(lǐng)域的應(yīng)用: 2008—2017年相關(guān)研究的綜述 [J]. 中國(guó)遠(yuǎn)程教育,2019 (7): 86-91. (Li Feiming,Ye Yanwei,Li Xiaofei,et al. Application of know-ledge tracing models in education: a review of relevant research from 2008 to 2017[J].Distance Education in China,2019(7):86-91.)
[6]Liu Qi,Shen Shuanghong,Huang Zhenya,et al. A survey of know-ledge tracing [EB/OL]. (2018-05-06). https://arxiv. org/pdf/2105.15106.pdf.
[7]Corbett A T,Anderson J R. Knowledge tracing: modeling the acquisition of procedural knowledge [J]. User Modeling and User-Adapted Interaction,1995,4(4): 253-278.
[8]Zhang Kai,Yao Yiyu. A three learning states Bayesian knowledge tracing model [J]. Knowledge-Based Systems,2018,2018(148): 189-201.
[9]Zhang Kai. A three-way C-means algorithm [J]. Applied Soft Computing,2019,2019(82): article ID 105536.
[10]Piech C,Bassen J,Huang J,et al. Deep knowledge tracing [C]// Proc of the 29th Annual Conference on Neural Information Processing Systems. 2015: 505-513.
[11]李浩君,方璇,戴海容. 基于自注意力機(jī)制和雙向GRU神經(jīng)網(wǎng)絡(luò)的深度知識(shí)追蹤優(yōu)化模型 [J]. 計(jì)算機(jī)應(yīng)用研究,2022,39(3): 1496-1500. (Li Haojun,F(xiàn)ang Xuan,Dai Hairong. Deep knowledge tracing optimization model based on self-attention mechanism and bidirectional GRU neural network [J]. Application Research of Computers,2022,39(3): 1496-1500.)
[12]王璨,劉朝暉,王蓓,等. TCN-KT: 個(gè)人基礎(chǔ)與遺忘融合的時(shí)間卷積知識(shí)追蹤模型 [J]. 計(jì)算機(jī)應(yīng)用研究,2022,39(5): 1496-1500. (Wang Can,Liu Zhaohui,Wang Bei,et al. TCN-KT: temporal convolutional knowledge tracing model based on fusion of personal basis and forgetting [J]. Application Research of Computers,2022,39(5): 1496-1500.)
[13]魏思,沈雙宏,黃振亞,等. 融合通用題目表征學(xué)習(xí)的神經(jīng)知識(shí)追蹤方法研究 [J]. 中文信息學(xué)報(bào),2022,36(4): 146-155. (Wei Si,Shen Shuanghong,Huang Zhenya,et al. Integrating general exercises representation learning into neural knowledge tracing [J]. Journal of Chinese Information Processing,2022,36(4): 146-155.)
[14]張凱,劉月,覃正楚,等.概念表示增強(qiáng)的知識(shí)追蹤模型[J].計(jì)算機(jī)應(yīng)用研究,2022,39(11):3309-3314.(Zhang Kai,Liu Yue,Qin Zhengchu,et al. Concept representation enhanced knowledge tracing[J].Application Research of Computers,2022,39(11):3309-3314.)
[15]段建設(shè),崔超然,宋廣樂(lè),等. 基于多尺度注意力融合的知識(shí)追蹤方法 [J]. 南京大學(xué)學(xué)報(bào):自然科學(xué),2021,57(4): 591-598. (Duan Jianshe,Cui Chaoran,Song Guangle,et al. Knowledge tracing based on multi-scale attention fusion [J]. Journal of Nanjing University:Natural Science, 2021,57(4): 591-598.)
[16]王文濤,馬慧芳,舒躍育,等. 基于上下文表示的知識(shí)追蹤方法 [J]. 計(jì)算機(jī)工程與科學(xué),2022,44(9): 1693-1701. (Wang Wentao,Ma Huifang,Shu Yueyu,et al. Knowledge tracing based on con-textualized representation [J]. Computer Engineering amp; Science,2022,44(9): 1693-1701.)
[17]劉坤佳,李欣奕,唐九陽(yáng),等. 可解釋深度知識(shí)追蹤模型 [J]. 計(jì)算機(jī)研究與發(fā)展,2021,58(12): 2618-2629. (Liu Kunjia,Li Xinyi,Tang Jiuyang,et al. Interpretable deep knowledge tracing [J]. Journal of Computer Research and Development,2021,58(12): 2618-2629.)
[18]Zhang Jiani,Shi Xingjian,King I,et al. Dynamic key-value memory networks for knowledge tracing [C]// Proc of the 26th International Conference on World Wide Web.New York:ACM Press,2017:765-774.
[19]Pandey S,Karypis G. A self-attentive model for knowledge tracing [C]// Proc of the 12th International Conference on Educational Data Mining. 2019: 384-389.
[20]Shen Shuanghong,Liu Qi,Chen Enhong,et al. Convolutional know-ledge tracing: modeling individualization in student learning process [C]// Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.2020: 1857-1860.
[21]Ghosh A,Heffernan N,Lan A S. Context-aware attentive knowledge tracing [C]// Proc of the 26th ACM SIGKDD International Confe-rence on Knowledge Discovery amp; Data Mining.New York:ACM Press,2020: 2330-2339.
[22]李曉光,魏思齊,張昕,等. LFKT: 學(xué)習(xí)與遺忘融合的深度知識(shí)追蹤模型 [J]. 軟件學(xué)報(bào),2021,32(3): 818-830. (Li Xiaoguang,Wei Siqi,Zhang Xin,et al. LFKT: deep knowledge tracing model with learning and forgetting behavior merging [J]. Journal of Software,2021,32(3): 818-830.)
[23]宗曉萍,陶澤澤. 基于掌握速度的知識(shí)追蹤模型 [J]. 計(jì)算機(jī)工程與應(yīng)用,2021,57(6): 117-123. (Zong Xiaoping,Tao Zeze. Knowledge tracing model based on mastery speed [J]. Computer Engineering and Applications,2021,57(6): 117-123.)
[24]李浩君,盧佳琪,吳嘉銘,等. 融合學(xué)習(xí)過(guò)程特征的深度知識(shí)追蹤方法 [J]. 浙江工業(yè)大學(xué)學(xué)報(bào),2022,50(3): 245-252. (Li Haojun,Lu Jiaqi,Wu Jiaming,et al. Deep knowledge tracing method incorporating learning process characteristics [J]. Journal of Zhejiang University of Technology,2022,50(3): 245-252.)
[25]Sohl-Dickstein J,Weiss E A,Maheswaranathan N,et al. Deep unsupervised learning using nonequilibrium thermodynamics [C]// Proc of International Conference on Machine Learning. 2015: 2256-2265.
[26]Ho J,Jain A,Abbeel P. Denoising diffusion probabilistic models [C]// Advances in Neural Information Processing Systems.2020: 6840-6851.
[27]Vashishth S,Sanyal S,Nitin V,et al. Composition-based multi-relational graph convolutional networks [C]// Proc of International Conference on Learning Representations. 2020.