999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于任務相似度的增量學習優化方法

2021-04-22 05:40:02張甜郭輝郭靜純
電腦知識與技術 2021年8期

張甜 郭輝 郭靜純

摘要:針對增量學習存在的災難性遺忘和新任務數據逐步積累問題,提出了基于新舊任務之間相似度的樣本重放優化學習方法,相似度越高,重放樣本越少。并選擇MINIST數據集在卷積神經網絡上進行了實驗研究,驗證了該方法的可行性和有效性。

關鍵詞: 增量學習;災難性遺忘;樣本重放;任務相似度

中圖分類號: TP183? ? ? ? 文獻標識碼:A

文章編號:1009-3044(2021)08-0013-03

Abstract: To solve the problem of catastrophic forgetting and gradual accumulation of new task data in incremental learning, an optimal learning approach based on the similarity difference between old and new tasks is proposed. The more similar the tasks are, the less the old samples will be replayed. Moreover, MINIST data set is selected to conduct experimental research on the convolutional neural network, which verifies the feasibility and effectiveness of the method.

Key words:incremental learning; catastrophic forgetting; sample replay; task similarity

隨著深度學習的快速發展和在圖像、語音等領域的應用,其在單個任務處理方面取得了優異的性能。但當它面對多任務增量學習時,常常產生“災難性遺忘”現象[1],即學習新任務時會改變原有的網絡參數,相應的舊任務記憶就會急劇下降甚至完全消失。

樣本重放是緩解災難性遺忘的主要方法之一,包括兩種典型方式:一種通過舊任務的偽樣本生成器保留其信息,如深層生成重放[2]和記憶重放GANs[3],不使用舊任務原始數據,但GAN模型訓練較復雜;另一種直接選用舊任務的原始數據子集,如內存固定的iCaRl[4]及其改進訓練樣本不均衡的增量學習文獻[5],文獻[6]提出一種自動記憶框架,基于樣本參數化選取具有代表性的舊樣本子集,采用雙層優化訓練框架。這些方法均未考慮新舊任務之間的相似度差異:相似度越高,網絡提取的共有信息越多,則對舊任務的回顧應越少。此外,真實環境下新任務數據通常按照時間順序流式到達,新數據較少,無法滿足上述方法的需要。針對這些問題,本文提出了一種基于任務相似度的增量學習優化方法,根據兩者之間相似度差異設置不同比例的訓練數據,避免重復訓練,減少資源占用,加快訓練速度。

1 樣本重放增量學習優化方法

增量學習優化方法的實現過程主要分為以下三個階段:首先,當新任務到達時,用特征提取器提取新舊類特征,進行相似度差異分析;其次,根據相似度差異結果,計算新舊任務不同比例的訓練數據增量,構建每批次增量訓練數據集;最后,進行增量優化訓練,實現符合真實場景下的新任務數據增量訓練和任務增量學習。

1.1 符號表示

假設增量學習分為1個初始階段和N個新任務的增量階段。在初始階段使用數據[D0]進行訓練得到網絡模型[Θ0];在第[i]個增量階段,若有[s]個舊類[X1,X2,...,Xs],新類[Xi,i∈N],模型狀態為[Θi-1],令[Di?j]、[Dij]、[Dj]分別表示第[i]類第[j]個批次的新增樣本數據、前[j]個批次新數據和第[j]個批次的新舊訓練數據。

1.2 任務相似度分析

根據假設,新任務數據流式到達。當新任務到達時,首先,選取同等數量的舊任務樣本和首次到達的新任務樣本作為代表性樣本一起訓練特征提取網絡作為特征提取器[φ],通過使用新舊任務的平衡數據集,特征提取器可以更均衡地提取新舊任務的樣本特征,使網絡能充分學習新舊任務樣本之間的差異,得到更具有代表性的樣本特征。

對新任務樣本數據提取特征后,采用余弦相似度衡量新舊任務之間的相似程度,其值越大,特征越相似,計算公式如下:

1.3 構建增量訓練數據集

由于相似度較高的兩個任務,在進行網絡訓練時,相同部分特征已經被提取到了,所以對于相似度較高的任務,新舊任務越相似,則越應減少舊任務的重放訓練樣本數量,減少重復訓練造成的資源浪費;反之,則應增加舊類的數量,強化舊類知識,減少網絡對于新類的偏向。根據新舊任務之間的相似度,令每批次重放舊任務的樣本增量為[Doldk?j],其計算公式如下:

1.4 蒸餾損失和分類損失計算

蒸餾損失最早在文獻[7]中提出,在增量學習中適用于文獻[4,6,8],主要用來促使新的模型和舊的模型在舊類上保持相同的預測能力。增量學習損失包括蒸餾損失[LdΘi;Θi-1;x]和衡量分類準確度的交叉熵損失[LcΘi;x]之和,兩者的計算公式分別如下:

1.5 增量優化訓練

通過分析不同任務之間的相似性差異,在新任務數據流式到達時設置不同比例的新舊數據進行增量優化訓練,整個的訓練流程總結如下:

算法1 增量優化訓練

輸入 1個初始任務(2個類別的分類任務)的數據集[D0],N個新增任務(一個類別表示一個任務)的流式數據集[Di,i∈N]

輸出 N+1個任務(N+2個類別)的分類性能

(1) 用數據[D0]訓練得到網絡模型[Θ0]

(2) 新任務到達,[Di1=500],[Di?j=500],有s個舊類(s的初始值為2)

(3) 新舊類之間進行相似度差異分析,用公式(1)計算新類與每個舊類的余弦相似度[sφXold,φXnew]

(4) 根據相似度差異結果,用公式(2)計算舊類每批次投放的樣本增量[Doldk?j,k∈s]

(5) 用公式(3)構建第j個批次的訓練數據

(6) 進行增量訓練

(7) if各個類別的分類性能達到預期 //測試網絡分類性能

(8) then if 還有未完成的任務 then 返回步驟(2) //繼續訓練下一個增量任務

(9) else 輸出N+1個任務(N+2個類別)的分類性能 //已經完成N+1個任務的增量學習

(10) end if

(11) else then 返回步驟(5) //任務分類準確率沒有達到要求,繼續訓練

(12) end if

2 實驗研究

選取MNIST數據集中的數字0、1、2在三層卷積神經網絡上進行增量學習,以數字0和1作為初始階段,數字2為新增類別階段。實驗結果如表1所示。

由表1可知,采用本文方法進行增量學習,在第6批次時的平均準確率為0.9818,比重放全部舊數據的準確率0.99稍小,但訓練數據量急劇下降,由5923+6741個舊樣本變為60+66,顯著提升了訓練效率。以此類推依次完成數字3-9的增量學習,對比結果如圖1所示。

圖1中折線圖的橫坐標為增量學習的各個階段,縱坐標為平均分類精度,圖中結果表明相較于使用全部的新舊類訓練數據,使用新的基于任務相似度的增量學習優化方法雖然在分類精度上有所下降,但是結果相差不大,能有效緩解災難性遺忘的影響,且所使用的訓練數據集要遠小于使用全部的訓練集,減少了訓練量,加快了訓練速度。

3 結論

針對增量學習中的災難性遺忘問題,提出了一種基于新舊任務相似度的樣本重放學習方法,在盡量保持對舊任務記憶的同時著力提升學習效率,據此選用MINIST數據集進行實驗研究,驗證了該方法的可行性與有效性,為緩解災難性遺忘提供了新的解決思路。

參考文獻:

[1] McCloskey M,Cohen N J.Catastrophic interference in connectionist networks:the sequential learning problem[J].Psychology of Learning and Motivation,1989,24:109-165.

[2] Shin H, Lee J K, Kim J, et al. Continual learning with deep generative replay[C]. Advances in Neural Information Processing Systems. Curran Associates: New York, 2017:2991-3000.

[3] Wu C S, Herranz L, Liu X L, et al. Memory Replay GANs: learning to generate images from new categories without forgetting[C].Advances in Neural Information Processing Systems. Curran Associates: New York, 2018: 5962-5972.

[4] Rebuffi S A, Kolesnikov A, Sperl G, et al. iCaRL: Incremental Classifier and Representation Learning[C]. Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017: 5533-5542.

[5] Castro F M, Marin-Jimenez M J, Guil N, et al. End-to-End Incremental Learning[C]. European Conference on Computer Vision. Berlin: Springer, 2018:233-248.

[6] Liu Y Y, Su Y , Liu A A , et al. Mnemonics Training: Multi-Class Incremental Learning Without Forgetting[C]. CVPR, 2020:12242-12251.

[7] Hinton G, Vinyals O, Dean J. Distilling the Knowledge in a Neural Network[J]. Computer Science, 2015, 14(7)38-39.

[8] Zenke F, Poole B, Ganguli S. Continual Learning Through Synaptic Intelligence[C].International Conference on Machine Lea rning. Lille: International Machine Learning Society, 2017:3987-3995.

【通聯編輯:唐一東】

主站蜘蛛池模板: 国产主播喷水| 日韩不卡高清视频| 亚洲区一区| 免费无码又爽又刺激高| 99激情网| 狠狠色丁香婷婷| 麻豆国产精品视频| 国产精品免费p区| 9久久伊人精品综合| 亚洲天堂色色人体| 国模在线视频一区二区三区| 亚洲国产91人成在线| 亚洲欧美另类日本| 四虎永久在线| 污视频日本| 亚洲国产理论片在线播放| 亚洲va视频| 国产精品99一区不卡| 中文无码日韩精品| 欧美日本在线| 亚洲成a人片77777在线播放| 2021国产精品自拍| 啪啪免费视频一区二区| 99re在线免费视频| 国产特级毛片aaaaaaa高清| 免费国产无遮挡又黄又爽| 久久精品aⅴ无码中文字幕| 欧亚日韩Av| 四虎成人在线视频| 亚洲婷婷丁香| 蜜芽国产尤物av尤物在线看| 亚洲国产欧美目韩成人综合| 国产成人91精品免费网址在线| 久久香蕉欧美精品| 日韩精品欧美国产在线| 制服丝袜一区二区三区在线| 亚洲水蜜桃久久综合网站| 欧美精品三级在线| 国产一级片网址| 色综合狠狠操| 日韩在线成年视频人网站观看| 亚洲综合色婷婷中文字幕| av尤物免费在线观看| 在线人成精品免费视频| 在线观看网站国产| 亚洲精品老司机| 精品国产自在现线看久久| 国产精品手机在线观看你懂的 | 91精品国产无线乱码在线| 性欧美在线| 精品人妻一区二区三区蜜桃AⅤ| 久久免费精品琪琪| 日韩高清一区 | 日韩欧美一区在线观看| 亚洲成人高清无码| 国产幂在线无码精品| 国产一区二区三区精品久久呦| 国产精品无码影视久久久久久久| 亚洲精品卡2卡3卡4卡5卡区| 一区二区三区国产精品视频| 19国产精品麻豆免费观看| 无码久看视频| 国产9191精品免费观看| a级毛片一区二区免费视频| 成人av手机在线观看| 欧美在线天堂| 亚洲天堂网站在线| 亚洲欧美另类专区| 丁香婷婷激情综合激情| 亚洲V日韩V无码一区二区| 免费可以看的无遮挡av无码 | 天堂中文在线资源| 国产好痛疼轻点好爽的视频| 国产精品手机在线观看你懂的 | 国产精品无码AV中文| 视频一区视频二区日韩专区| 国产乱人伦AV在线A| 1024你懂的国产精品| 精品久久久久无码| 亚洲人成色77777在线观看| 欧洲亚洲一区| 九九热精品在线视频|