999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

TCN-KT:個人基礎與遺忘融合的時間卷積知識追蹤模型

2022-01-01 00:00:00王璨劉朝暉王蓓趙忠源唐坤
計算機應用研究 2022年5期

摘 要: 智慧教育的熱門領域知識追蹤(KT)被視為序列建模任務,其主要關注點和解決方式都集中在循環神經網絡(RNN)上。但RNN通常會面臨梯度消失或者梯度爆炸等問題,且訓練時間和設備要求都過于嚴苛,針對以上問題,提出融合學習者個人先驗基礎和遺忘因素的時間卷積知識追蹤模型(TCN-KT)。首先利用RNN模型計算得到學生個人先驗基礎,然后使用梯度穩定、內存占用率更低的時間卷積網絡(TCN)預測學生下一題正誤的初始概率,最后融合基于學生基礎的遺忘因素得到最終結果。實驗驗證,TCN-KT預測性能最佳并減少了計算時間。

關鍵詞: 知識追蹤; 個人先驗基礎; 時間卷積網絡; 遺忘因素

中圖分類號: TP391"" 文獻標志碼: A

文章編號: 1001-3695(2022)05-035-1496-05

doi:10.19734/j.issn.1001-3695.2021.10.0466

TCN-KT:temporal convolutional knowledge tracking model based on fusion of personal basis and forgetting

Wang Can1a, Liu Zhaohui1a, Wang Bei1b, Zhao Zhongyuan1a, Tang Kun2

(1.a.School of Computer Science, b.School of Language amp; Literature, University of South China, Hengyang Hunan 421001, China; 2.Teachers College for Vocational amp; Technical Education, Guangxi Normal University, Guilin Guangxi 541004, China)

Abstract: KT is a popular area of wisdom education and is a typical sequence modeling task.Its main focus and solutions are focused on RNN.However,RNN’s training time and equipment requirements are too strict,which usually leads to problems such as gradient disappearance or gradient explosion.In response to the above problems,this paper proposed temporal convolutional network knowledge tracing model(TCN-KT) that integrated the learner’s personal prior basis and forgetting factors.Firstly,the method used the RNN model to calculate the student’s personal prior basis.Then,the model used the gradient-stable and lower memory usage TCN to predict the initial probability of the student’s next question.Finally,the model got the final result by integrating the forgetting factors based on the student’s foundation.Experimental results show that TCN-KT has the best performance and reduces calculation time.

Key words: knowledge tracking(KT); personal priori basis; temporal convolutional network(TCM); forgetting factor

0 引言

隨著互聯網的不斷發展與教育理念的不斷創新,利用人工智能技術來促進教育的發展已是必然。近年來,隨著在線教育平臺不斷涌現,使得教育成本越來越小,教育質量越來越高,可以滿足學生自由學習的需求,讓時間和地點不再成為學習的束縛,使學生更加關注真正感興趣的課程[1]。

在教育實踐過程中,每一個學生的學習情況均不同,找到合適的教學方式與習題,并對學生的學習路徑給予個性化推薦,能在很大程度上提升學習成效。但是不管是線上或是線下,學生數量遠超教師,教師很難掌握每一個學生的知識狀態,對每一個學生作出個性化的教學,因此探索將人工智能模型與教學過程相結合,通過學生學習的歷史信息了解每一個學生的學習狀態[2],讓教育真正做到因材施教,不僅是當下教育“互聯網+”的重要課題,更是未來教育的發展趨勢[3]。知識追蹤能夠根據目標學生和習題的互動來準確追蹤到該學生隨時間變化的知識狀態,是實現個性化教學的關鍵。通過對學生知識狀態的追蹤,為學生的學習制定個性化方案[4],其主要任務可以簡單表述為:根據學生歷史做題推導學生知識狀態,再根據學生的知識狀態預測學生下一次做題的正誤。

經典的知識追蹤模型主要包括基于隱馬爾可夫模型(hidden Markov model,HMM)[5]的貝葉斯知識追蹤模型(Bayesian knowledge tracing,BKT)[6]和基于循環神經網絡(recurrent neural network,RNN)的深度知識追蹤(deep knowledge tracing,DKT)[7]。BKT所需計算資源小、可解釋性強,但將學生學習過程過于簡化不符合現實情況,且預測精度較低。隨著神經網絡的興起,RNN在很多時間序列任務上取得成功,因此知識追蹤研究者們的關注點現在更多地集中在RNN方向,為此提出了許多的改進模型與算法。DKT利用隱藏層表示學生知識空間情況,據此判斷學生做題情況;Su等人[8]在DKT的基礎上對模型輸入部分進行改動,添加了習題信息和學生學習記錄;動態鍵值記憶網絡(DKVMN)[9]則是受到記憶網絡的啟發,用值矩陣記錄學生知識具體的掌握情況,但是少有針對RNN的缺點——梯度和計算效率差等問題進行深入研究和改進[10]。有研究表明,RNN并不是時間序列任務唯一的解決辦法。因此,本文將時間卷積網絡(TCN)[11]融入知識追蹤領域,并結合教育學中的經典理論——學習中心理論和艾賓浩斯遺忘曲線理論,提出了時間卷積知識追蹤模型(temporal convolutional network knowledge tracing,TCN-KT),對學生的知識狀態進行追蹤,預測學生練習下一題的正誤。本文的主要創新和貢獻有:

a)基于深度神經網絡技術設計了一個融合RNN和TCN的知識追蹤神經網絡TCN-KT,能夠有效解決基于RNN的知識追蹤模型所面臨的梯度問題。

b)所提出的TCN-KT知識追蹤模型充分考慮了學生個人先驗基礎和結合個人先驗基礎的遺忘行為,更為精確地擬合每一位學生自身特點導致的知識水平變化。

采用經典數據集的實驗結果表明,TCN-KT不僅能夠準確預測學生下一題的正誤,而且訓練時間相比基于RNN的模型,不僅能夠高效地預測學生的知識狀態,對接下來的練習進行準確判斷,同時訓練時間較基于RNN的模型得以減少,提高了效率。

1 知識追蹤模型和TCN

1.1 知識追蹤

早在1972年,Atkinson就已經提出了知識追蹤這一理念[12],知識追蹤的任務是根據學生歷史做題情況來掌握學生知識狀態變化的過程,其過程受時間和學生具體學習情況的影響,通過以上過程得到學生的知識狀態和對于知識點的掌握情況,從而預測學生下一次做題的表現。知識追蹤的任務可以形式化為:給定特定學生的歷史習題交互序列x1,…,xt,預測他們下一次做題xt+1正確的概率。

1.2 現有相關模型

1.2.1 貝葉斯知識追蹤

Corbett和Anderson等人在1994年將知識追蹤這一概念引入到智慧教育領域中,同時提出了BKT。該模型本質上利用了HMM,將學生要學習的知識空間劃分成若干個知識體系,知識體系由互有關聯的知識點所組成,而學生對知識點進行學習后得到自身的學習狀態,學習狀態則用一組二進制變量來表示,每個知識點的掌握情況用一個隱含變量表示,之后根據學生的歷史答題情況來更新隱含變量的概率分布。該模型有以下不足:a)需要專家標注,且人工成本較高;b)該模型默認每個知識點都是獨立的、沒有聯系的,然而實際情況是知識點間存在關聯、層次等關系;c)該模型默認學生將不會忘記學會的知識,這并不符合真實學習情況。

1.2.2 深度知識追蹤模型

隨著深度學習的興起,Piech等人在2015年提出DKT,首次嘗試將深度學習中的循環神經網絡,特別是長短時記憶網絡(LSTM)應用到知識追蹤任務當中,不僅提升了預測性能,而且無須專家進行標注,大大減少了人工與時間成本。該模型的輸入是學生歷史交互序列,隱狀態則代表了學生知識狀態,但是由于神經網絡較差的可解釋性,DKT模型無法詳細表述出每一個知識點的掌握情況,僅能對學生的整體水平進行建模。

1.2.3 動態鍵值記憶網絡

為提升DKT模型的可解釋性,香港大學的Zhang等人在2017年提出了DKVMN 模型,該模型利用記憶增強神經網絡的思想,提出了采用鍵表示知識空間,用值表示學生知識狀態,鍵不可以改變而值可以。與傳統KT模型相比,DKVMN達到了更高的準確率,并且可以通過潛在概念自動發現類似的練習題。

1.3 時間卷積網絡

時間卷積網絡是谷歌實驗室提出的一個新的卷積模型,由于其特殊巧妙的網絡結構,可以用來處理時間序列問題。

1.3.1 時間序列任務

對于某一系列輸入序列{X0,X1,X2,…,Xt,Xt+1},希望預測一些相應的輸出{Y0,Y1,Y2,…,Yt,Yt+1},這樣的問題通常被視為序列問題。其中比較關鍵的一點在于,若預測t時刻的輸出,那么就只能使用t時刻之前的記錄作為輸入。

時間序列預測最為經典的模型為馬爾可夫模型,該模型基于已知目標時刻之前的歷史數據,計算目標時刻的輸出值。

P(yk|xk,xk-1,…,x1)(1)

1.3.2 時間卷積網絡結構

隨著深度學習和神經網絡的興起,在時間序列任務中常使用RNN及其變種LSTM、GRU等,但在RNN的框架下,不論怎么改進,都脫離不了RNN自身梯度的缺陷。有研究者嘗試將卷積網絡引入時序任務,如ConvLSTM模型,用卷積計算取代了矩陣計算,使得LSTM增加了捕捉和處理圖像信息的能力[13],但是由于ConvLSTM模型的設計和卷積網絡的限制,該模型只能對一個時間步上的信息進行處理,而TCN的設計十分巧妙,它借鑒了WaveNet的結構,使其不僅能夠利用卷積的強大特性,同時能夠跨越多個時間步提取特征[14],TCN的提出為時序任務找到了一個新的方向。TCN的基本結構為

TCN=1D FCN+causal convolution(2)

由于設計結構,TCN包含以下優點:a)并行性能更好,RNN模型某時刻要等待前時間點計算結束,而TCN可以并行計算,所以TCN能夠保存更加長期的記憶;b)感受野相對靈活,能夠面對不同的計算資源進行遷移;c)梯度十分穩定,RNN主要問題之一就是由于過深的網絡結構容易帶來梯度爆炸或消失問題,而TCN具有與序列時間方向不同的方向傳播路徑,所以可以避免以上問題;d)計算硬件需求低,在輸入序列較長時,LSTM和GRU需要大量的內存來存儲結果,但TCN中卷積核是跨層共享的,因此內存消耗更少;e)可變的輸入長度,TCN能夠通過一維卷積核來接受任意長度的輸入,這意味著可以對任意長度的練習進行輸入,從而可以應對各種場景需求。

2 融合學生個人先驗和遺忘因子的時間卷積知識追蹤模型

2.1 TCN-KT提出的思想

在現在主流的知識追蹤模型中,基本都是圍繞著RNN的框架來研究的,但RNN模型的梯度問題和計算資源需求大等困難,限制了其在知識追蹤領域的發展。另一方面,許多知識追蹤模型缺乏對學生個性化和學習過程中必將遺忘等問題的深入分析,為了將學習過程與現實情況的擬合度提高,嘗試將學生的先驗學習水平[15,16]和學習過程中的遺忘行為[17,18]融入到知識模型中。在現實世界,學習基礎較好的學生對比基礎差的學生更容易吸收新知識,做題正確率也相對較高;另外,當學生長期未接觸某一特定知識點時,很容易導致學生出現遺忘現象。遺忘在學習過程中十分常見,但是不同的學生遺忘程度有所不同,對于基礎較好且學習能力較強的學生,遺忘所帶來的影響要小于基礎較差、學習能力弱的學生,遺忘現象普遍存在且因人而異。綜上,本文提出一個TCN-KT模型,在TCN基礎上研究學習者的先驗基礎和遺忘現象對學習過程所產生的影響,并通過在模型中先驗基礎層和遺忘層來體現,讓學生角色更加個性化,更好地擬合學生學習過程,達到提升預測精度的目標。

2.2 TCN-KT個性化設計

TCN-KT是一種將學生先驗基礎和遺忘因素融入到時間卷積網絡的知識追蹤模型。首先,對于學生的先驗基礎,本文提取學生和習題的互動數據,將做題順序乘上習題順序矩陣得到一個貫穿某個學生學習過程的習題數據;然后通過學生做題結果和權重列表得到學生先驗基礎;最后將得到的學生先驗基礎保存到先驗列表中,進而得到一系列的學生先驗基礎。設計如圖1所示。其次,本文考慮到教育領域中的一個十分重要的因素——遺忘因素。教育學經典理論艾賓浩斯曲線反映遺忘對于學生學習極為重要,學生對于知識的掌握也影響著學生遺忘[19],在本設計中,將遺忘過程分為兩部分:a)遺忘因子,遺忘意味著知識掌握水平的倒退,而這種倒退是不可避免的;b)學生基礎,基礎不同的學生,受到遺忘過程影響的程度也不同。因此遺忘參數由遺忘因子和學生個人先驗基礎所構成。

2.3 TCN-KT模型結構

本文通過RNN來計算和得出學生先驗基礎數據,再通過該數據得到學生的遺忘數據,最后將學生先驗基礎數據和遺忘參數整合到TCN中,進而得到TCN-KT模型(圖2)。

TCN-KT模型由先驗基礎層、全卷積層、膨脹因果卷積層、殘差連接、遺忘預測部分所組成。先驗基礎層以先驗題集作為輸入,最后結果正誤的對錯作為修正計算學生的先驗知識狀態P;全卷積層和膨脹因果卷積層將從學生歷史練習記錄中學習得到初步的預測概率結果;殘差鏈接層則解決梯度爆炸和梯度消失等問題[20];遺忘層利用先驗基礎層計算的先驗基礎和遺忘參數計算出學生的個人遺忘概率;預測層將初步得到的預測結果和學生個人遺忘概率綜合計算得到最終的預測結果。由圖2可知,該輸出學習了所有的學生—習題互動數據的特征而且不會對未來的數據進行學習,在經過遺忘參數的計算后得到最終輸出,預測未來學習表現情況(Pt)。

2.3.1 先驗基礎層

由于先驗的數據量較小,所以不需要過深的模型結構,故本文將使用RNN模型來計算所需的先驗列表。RNN模型通過輸入序列x1,…,xt計算一系列的隱藏向量,最終得到輸出序列y1,…,yt。而該隱藏向量在每一次輸入后會發生變化,是過去所觀測到相關信息的集合,因此,這能夠總結出經過一系列先驗基礎數據的輸入后學生的基本知識狀態。變量之間的計算公式如下:

ht=tanh(Whxxt+Whhht-1+bh)(3)

yr=sigmoid(Wyhht+by)(4)

其中:tanh和sigmoid函數應用于每個輸入維度。該模型由輸入權重矩陣Whx、循環權重矩陣Whh、初始狀態h0(此處未設初始值,可以設為0或0.5)和讀取權重矩陣Wyh組成,偏差是bh和by。

通過計算,得到一個初步的學生先驗基礎ht和初步結果由該隱藏狀態得到預測結果yt,在通過真實結果對初步學生先驗基礎ht進行反饋和修正得到學生先驗基礎P。先驗學生基礎RNN的模式如圖3所示。

2.3.2 全卷積層和膨脹因果卷積層

全卷積層和膨脹因果卷積層是TCN-KT模型的關鍵層,以學生—練習互動數據作為輸入,初步預測結果作為輸出。由于時序任務中RNN的成功,所以TCN模型的設計主要參考了RNN結構,并且必須考慮兩個問題:a)網絡中層與層之間的輸入輸出長度應當保持相同;b)未來信息不會泄露。

TCN模型使用了一維全卷積網絡(1D FCN)的結構來解決問題a),每一個隱藏層的輸入輸出的時間步長都是一致的,這樣就保持了和RNN特點的一致性,不論哪一層,每個時間步的輸入都有對應的輸出。對于第一個時間步,傳統TCN認為沒有歷史信息,默認將其歷史數據全部設為0,而這樣是不符合現實學習情況的。本文在此處進行了修改,將先驗基礎層計算得到的學生先驗基礎參數P取代默認值0,結果證明這樣擬合度更好。對于問題b),TCN利用了因果卷積(causal convolution),對于輸出t時刻的數據yt,其輸入只能是t及t以前的時刻,即X0,…,Xt,保證不利用未來信息。這樣的設計被證明保留長遠信息能力比LSTM更強。知識追蹤任務中,1D FCN的結構還可以保持輸入的靈活性,能夠應對學習中較多的情況,如一次做少部分題目或是大量題目[20],其結構如圖4所示。

但是如果既考慮輸出長度一致性、靈活性和不利用未來信息的問題,又不能漏掉任何時間點的信息,那么這樣的網絡深度將會極深。因此,為了保持面對長歷史信息問題的有效性,TCN利用了膨脹因果卷積(dilated causal convolutions),引入了膨脹因子d(dilation factor),能夠以指數形式增加感受野,對于一維的輸入序列X、卷積核f:{0,1,2,…,k-1},膨脹卷積操作可表示為

F(s)=(Xdf)(s)=∑k-1i=0f(i)·Xs-d·i(5)

其中:d是膨脹系數;k是卷積核大小;Xs-d·i代表過去的數據。添加了膨脹因果卷積的TCN結構如圖5所示。

2.3.3 殘差連接

有的情況中,即使使用了膨脹因果卷積,模型的深度還是會很深,這樣就很容易帶來梯度消失的問題。為了應對這一問題,TCN模型中用類似于ResNet中的殘差塊結構的殘差層替代了層與層之間簡單的連接,以增強模型的泛化能力。同時,模型可以借助ResNet的快速通道來學習差異信息,在深度網絡結構中,這樣做十分有必要。殘差塊的計算如下:

o=activation(x+F(x))(6)

對于ResNet中可能存在的輸入輸出不一致問題,增加了1×1 conv層以確保一致性。TCN殘差層具體結構如圖6所示。

2.3.4 遺忘和預測部分

遺忘部分則是綜合考慮了普遍性和特殊性兩點。考慮到現實世界學習中的遺忘現象與教育學理論中的遺忘規律,在TCN-KT模型中對每一位學生都設有遺忘因子,其作用是對學生知識狀態的削減,然而不同的學生由于自身情況的差異,遺忘的程度也會不一樣,學習基礎薄弱的學生較學習基礎扎實的學生更容易產生遺忘現象且遺忘程度較高,所以本文設定一個初步的遺忘因子,并根據先驗基礎層計算的學生先驗基礎P得到遺忘參數F(圖8)。預測部分則是利用全卷積層和膨脹因果卷積層計算得出下一題正確的初步概率,再結合該學生的遺忘參數得到最終的輸出結果—預測正誤的結果。

3 實驗與分析

為了評價TCN-KT模型的性能指標,本文在兩個公開的知識追蹤數據集上將TCN-KT模型和其他知識追蹤模型進行了實驗對比。實驗結果表明,TCN-KT模型在這兩個數據集上均優于上述其他模型,不僅取得了較好的結果,且降低了程序運行時間。圖9為實驗流程。

3.1 數據集

本文使用的兩個公開數據集為ASSISTments2009和ASSISTments2015。

a)ASSISTments2009。該數據集是教育平臺ASSISTMENTS在2009年收集的,其提供了高中的數學習題。該數據老版本有重復數據,后續更新版本修改了重復的錯誤。數據集包含4 151名學生,110個練習標簽,325 637個互動。

b)ASSISTments2015。該數據集是教育平臺ASSISTMENTS在2015年收集的。它對之前09的數據集有一定的修改,更正了部分布爾類型不為0或1的數據,數據集包含19 840名學生、100個練習標記和683 801個交互。

3.2 評價指標

本文使用平均AUC(area under the curve)作為評估預測性能的指標。在機器學習和知識追蹤領域的文獻中大多使用了接受者操作特性(ROC)曲線下面積(AUC)來度量其性能[22],其具有較好的性能度量且容易與其他論文進行對比。其中AUC的取值在0~1.0,當AUC為0.5時,其值為隨機猜測獲得的預測性能,當AUC值越接近1.0時,說明模型預測的效果越好。為了盡可能減少實驗誤差,對于每一個模型,本文都進行多次實驗,取AUC的平均值。

3.3 實驗細節

為了評估TCN-KT模型的性能,本文選擇了貝葉斯知識追蹤(BKT)、深度知識追蹤(DKT)這兩個經典網絡及BKT、DKT的變種BKT+、DKT+作為對比,以上對比模型的主要情況如下:

a)BKT。模型主要由四個參數組成。P(L0)表示開始學習之前,知道某一知識點的初始學習概率;P(T)表示經過學習之后,某一知識點由不會到會的學習轉移概率;P(G)表示在不知道某一知識點時,做題表現為正確的猜測概率;P(S)表示在知道某一知識點時,做題表現為錯誤的失誤概率。BKT可以利用上述參數構造一個隱馬爾可夫模型,并且使用EM算法求解參數[23]。

b)BKT+。由于需要對比考慮遺忘所帶來的影響,所以BKT+主要添加了BKT為考慮到的遺忘因素,在BKT四個參數的基礎上添加了第五個參數P(F),表示學習過程中某一知識點由會到不會的遺忘概率[23]。

c)DKT。實驗按照模型提出者Piech等人的方式還原實驗,并設置相同的超參數:RNN的隱藏層大小為200,批處理大小為30,優化器選擇Adam,學習率為0.002。

d)DKT+。實驗基本設定如上所述,同時簡單考慮學生個性化問題,在實驗開始前進行一個簡單的學生先驗測試,得到學生個性化先驗列表。

e)TCN-KT模型。對于ASSISTments2009和ASSISTments2015數據集的超參數設置如下:批處理大小為32,采用Adam優化器,學習率為0.004。由于較大的kernel size會導致過濾程度的增大,并且使得提取特征受到影響,所以模型中kernel size的設定應當由低到高,以減少計算的復雜性,測試結果如表1所示。對于ASSISTments2009數據集,設kernel size為7;對于ASSISTments2015,設kernel size為5。

為驗證TCN-KT中學生個性化機制的影響,本文設計了消融實驗。其中,TCN-P模型只融入學生先驗基礎,TCN-F模型只融入簡單遺忘因素。實驗結果如表2所示,TCN-P與TCN-F結果相近,均提升了預測精度,而TCN-P提升較多。同時,TCN-KT模型相較于TCN-P和TCN-N都有不小的提升,說明完整的個性化學習機制能夠更好地擬合真實的學習情況。

同時,為了驗證TCN的效果,記錄并對比模型在數據集上的訓練時間,結果顯示,TCN-KT取得最佳性能訓練時間遠小于DKT。為驗證本文TCN-KT模型的性能,將該模型與BKT、加入遺忘因素的BKT、DKT、加入學生先驗基礎的DKT進行預測表現精度對比,結合消融實驗從而分析遺忘因素、學生先驗基礎對模型精度產生的影響,結果如表3所示。

表3為各個模型所訓練出來的AUC表現。由AUC表現結果對比可知,TCN-KT預測性能表現優于其他模型。其中,BKT表現出的預測性能最低,這意味著用二進制方法簡單表述學生與知識點的聯系具有一定的局限性,而添加遺忘因素后,BKT+的預測精度有明顯的提升,說明遺忘因素增加了模型對現實的擬合度,提升了預測未來學習表現的精度;DKT則是利用循環神經網絡的隱藏層建構學生知識水平,因而提升了預測精度,但該模型默認學生水平基礎是一致的,忽視了學習中學生的差異性,DKT+則是彌補了這一點,提升了預測精度。TCN-KT在預測學生未來學習表現時,不僅考慮了學生的差異性,增加了學生個性化先驗基礎影響因素,又考慮到普遍的遺忘現象擬合現實學習,解決了傳統模型考慮不全面的問題,增加了可解釋性,提高了預測精度,同時,利用TCN梯度穩定的特性,在提升性能的同時減少了對訓練時間、設備的依賴。

綜上,對于學生學習表現的預測,TCN-KT在最開始對學生的基礎進行一個簡單初步的判定,結合學生練習互動數據作為模型輸入,解決了傳統模型沒有考慮學生個性化問題,而在預測結果輸出時,考慮到學生遺忘現象結合模型的輸出和學生基礎對于遺忘的影響,最終輸出綜合了多方因素,而這樣的結果被證明是更加精確的,TCN-KT模型預估的做題情況也更加貼合于學生實際的知識狀態,可以幫助學生更好地選擇自己的學習路徑和題目,從而把不適合的題目篩除,將更多的時間空間用來學習自己的薄弱環節,提高學習效率。

4 結束語

智慧教育的背景下,通過學生歷史學習數據來對學生的知識狀態建模,從而預測學生學習表現是一種研究發展趨勢。不論是BKT還是DKT都得到了廣泛的研究和應用,但是其精準度偏低和計算資源限制仍有待于進一步的提升與解決。

本文重點關注并研究了模型梯度對預測精度和運行時間的影響以及學生個性化的實現,跳出RNN模型的束縛,將TCN融入知識追蹤領域,結合教育學理論中的學生先驗基礎和遺忘曲線概念,提出了一個新型的TCN-KT模型。模型利用學生習題數據計算出學生的學習基礎,并進一步分析出學生的遺忘因子,得出學生的個性化特征,更好地擬合真實的學習情況,提高了可解釋性。同時,使用梯度穩定的TCN減少了計算所需的時間、內存,并提升了預測的準確度。在未來的研究中,將進一步優化學生的個性化特征和處理方式,并對習題之間的關聯關系進行定義和分析,如利用圖結構對知識點進行脈絡劃分,更有利于相同知識點的習題進行聚類并劃分難度。

參考文獻:

[1]Nwana H S.Intelligent tutoring systems:an overview[J].Artificial Intelligence Review,1987,4(4):251-277.

[2]Baker R S J D,Corbett A T,Aleven V.More accurate student mode-ling through contextual estimation of slip and guess probabilities in Bayesian knowledge tracing[C]//Proc of International Conference on Intelligent Tutoring Systems.Berlin:Springer,2008:406-415.

[3]葉艷偉,李菲茗,劉倩倩,等.知識追蹤模型融入遺忘和數據量因素對預測精度的影響[J].中國遠程教育,2019(8):20-26. (Ye Yanwei,Li Feiming,Liu Qianqian,et al.The influence of forgetting and data volume into the knowledge tracking model on the prediction accuracy[J].Distance Education in China,2019(8):20-26.)

[4]Ai Fangzhe,Chen Yishuai,Guo Yuchun,et al.Concept-aware deep knowledge tracing and exercise recommendation in an online learning system[C]//Proc of the 12th Annual International Conference on Educational Data Mining.2019:240-245.

[5]Rabiner L,Juang B.An introduction to hidden Markov models[J].IEEE ASSP Magazine,1986,3(1):4-16.

[6]Corbett A T,Anderson J R.Knowledge tracing:modeling the acquisition of procedural knowledge[J].User Modeling and User-Adapted Interaction,1994,4(4):253-278.

[7]Piech C,Spencer J,Huang J,et al.Deep knowledge tracing[C]//Advances in Neural Information Processing Systems.2015:505-513.

[8]Su Yu,Liu Qingwen,Liu Qi,et al.Exercise-enhanced sequential mo-deling for student performance prediction[C]//Proc of the 32nd AAAI Conference on Artificial Intelligence.2018:2435-2443.

[9]Zhang Jiani,Shi Xingjian,King I,et al.Dynamic key-value memory networks for knowledge tracing[C]//Proc of the 26th Annual International Conference on World Wide Web.2017:765-774.

[10]Martens J,Sutskever I.Learning recurrent neural networks with Hessian-free optimization[C]//Proc of the 28th International Conference on Machine Learning.2011:1033-1040.

[11]Bai Shaojie,Kolter J Z,Koltun V.An empirical evaluation of generic convolutional and recurrent networks for sequence modeling[EB/OL].(2018-04-19).https://arxiv.org/abs/1803.01271.

[12]Pardos Z A,Heffernan N T.Modeling individualization in a Bayesian networks implementation of knowledge tracing[C]//Proc of the 18th ACM Conference on User Modeling,Adaptation,and Personalization.2010:255-266.

[13]Shi Xingjian,Chen Zhourong,Wang Hao,et al.Convolutional LSTM network:a machine learning approach for precipitation nowcasting[C]//Proc of the 28th International Conference on Neural Information Processing Systems.2015:802-810.

[14]Oord A V D,Dieleman S,Zen Heiga,et al.WaveNet:a generative model for raw audio[EB/OL].(2016-09-19).https://arxiv.org/abs/1609.03499.

[15]Nelimarkka M,Ghori M.The effect of variations of prior on knowledge tracing[C]//Proc of the 7th International Conference on Educational Data Mining.2014:146-150.

[16]Brod G,Werkle-Bergner M,Shing Y L.The influence of prior know-ledge on memory:a developmental cognitive neuroscience perspective[J].Frontiers in Behavioral Neuroscience,2013,7:article No.139.

[17]Pelánek R.Modeling students’ memory for application in adaptive educational systems[C]//Proc of International Conference on Educational Data Mining.2015.

[18]Nagatani K,Zhang Qiang,Sato M,et al.Augmenting knowledge tra-cing by considering forgetting behavior[C]//Proc of World Wide Web Conference.2019:3101-3107.

[19]Bailey C D.Forgetting and the learning curve:a laboratory study[J].Management Science,1989,35(3):340-352.

[20]Shelhamer E,Long J,Darrell T.Fully convolutional networks for semantic segmentation[J].IEEE Trans on Pattern Analysis Machine Intelligence,2017,39(4):640-651.

[21]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual lear-ning for image recognition[C]//Proc of IEEE Conference on Compu-ter Vision and Pattern Recognition.2016:770-778.

[22]Ling C X,Jin Huang,Zhang H.AUC:a statistically consistent and more discriminating measure than accuracy[C]//Proc of the 18th International Joint Conference on Artificial Intelligence.2003:519-524.

[23]黃詩雯,劉朝暉,羅凌云,等.融合行為和遺忘因素的貝葉斯知識追蹤模型研究[J].計算機應用研究,2021,38(7):1993-1997. (Huang Shiwen,Liu Zhaohui,Luo Lingyun,et al.Research on Bayesian knowledge tracking model integrating behavior and forgetting factors[J].Application Research of Computers,2021,38(7):1993-1997.)

主站蜘蛛池模板: 日韩黄色在线| 污视频日本| 亚洲无码熟妇人妻AV在线| 国产人在线成免费视频| 国产制服丝袜91在线| 国产人成网线在线播放va| 久久黄色影院| 亚洲欧洲日韩综合色天使| 少妇精品在线| 欧美中文字幕一区| 久久人搡人人玩人妻精品一| 视频二区亚洲精品| 99久久人妻精品免费二区| 精品夜恋影院亚洲欧洲| 久久久久人妻精品一区三寸蜜桃| 亚洲一区二区成人| 日韩人妻少妇一区二区| 欧美午夜精品| 青青草国产在线视频| 日本爱爱精品一区二区| 青青青国产在线播放| 亚洲国产中文精品va在线播放| 一区二区三区国产| 国产一二三区视频| 国产精品女人呻吟在线观看| 亚洲午夜久久久精品电影院| 在线观看无码a∨| 尤物午夜福利视频| 欧美激情综合| 一级全黄毛片| 伊人激情综合网| 国精品91人妻无码一区二区三区| 免费激情网址| 国产在线视频二区| 成人va亚洲va欧美天堂| 亚洲av色吊丝无码| 国产欧美成人不卡视频| 91系列在线观看| 色综合成人| 国产精品福利在线观看无码卡| 精品久久综合1区2区3区激情| 欧美日韩精品一区二区在线线| 日本不卡视频在线| 免费又爽又刺激高潮网址 | 久久精品国产精品一区二区| 国产不卡网| 亚洲成人黄色在线观看| 国产精品免费p区| 99在线小视频| 91麻豆久久久| 91精品在线视频观看| 嫩草国产在线| 欧美另类精品一区二区三区| 亚洲色偷偷偷鲁综合| 99这里只有精品免费视频| 精品伊人久久大香线蕉网站| 国产高潮流白浆视频| 亚洲天堂精品视频| 日本午夜精品一本在线观看 | 午夜一区二区三区| 91视频区| 亚洲高清在线天堂精品| 久久久久亚洲AV成人网站软件| 伊人久久大香线蕉综合影视| 九色视频线上播放| 亚洲人成在线精品| 国产精品成人一区二区不卡| 孕妇高潮太爽了在线观看免费| 国产男女免费视频| 国产一区成人| 欧美精品亚洲日韩a| 婷婷午夜影院| AV在线天堂进入| 免费人成网站在线高清| 亚洲五月激情网| 青草视频在线观看国产| 国产无码高清视频不卡| 亚洲无码91视频| 成人无码区免费视频网站蜜臀| 国产成人喷潮在线观看| 欧美视频在线播放观看免费福利资源 | 色综合成人|