摘 要:數(shù)據(jù)的長尾特性一直是解決計算機視覺問題的一大挑戰(zhàn),為了應對這一挑戰(zhàn)在實例分割任務(wù)中帶來的困難,通常引入圖像重采樣作為一種簡單有效的方法。然而一幅圖像中可能存在多個類,僅通過圖像重采樣不足以在類別的數(shù)據(jù)量層面上獲得足夠均衡的分布,因此提出一種以目標為中心的記憶庫后處理方法。首先引入記憶庫模型,設(shè)立以目標為單位的存儲策略,解決各類別數(shù)量不均衡問題;其次使用一種后處理校準方法,通過調(diào)整每個類的置信度得分提升稀有類和普通類的預測值。在公開數(shù)據(jù)集LVIS上的實驗驗證了所提方法的有效性,并且相比EQL方法,準確率能夠提升2.2%。
關(guān)鍵詞:長尾分布;實例分割;記憶庫;置信度校準;DCT;深度學習
中圖分類號:TP391.41文獻標志碼:A
文章編號:1001-3695(2023)06-044-1876-06
doi:10.19734/j.issn.1001-3695.2022.09.0486
Method for long-tailed instance segmentation based on memory bank and confidence calibration
Fan Xinyue Liu Teng Bao Hong Pan Weiguo Liang Tianjiao Li Han
(1.Beijing Key Laboratory of Information Service Engineering,Beijing Union University,Beijing 100101,China;2.College of Robotics,Beijing Union University,Beijing 100020,China;3.Information Network Center,Beijing University of Posts amp; Telecommunications,Beijing 100876,China)
Abstract:Long-tail characteristic of data has always been a great challenge in solving computer vision problems.To solve the difficulties brought to instance segmentation,image re-sampling,a simple and efficient method has always been used.However,there may be many classes in one image,it’s hard to balance different classes on the data level.This paper proposed a object-centric post-processable memory bank method.Firstly,it introduced a memory bank model and set up an object-based storage policy to address the number imbalance of categories.Then,in order to increase the predicted score for tail classes and common classes,it used a post-processing calibration to adjust the confidence score of each class.This paper verified the effectiveness of the proposed method by experiments on LVIS dataset.The accuracy can be improved by 2.2% compared to EQL method.
Key words:long tail distribution;instance segmentation;memory bank;confidence calibration;DCT;deep learning
0 引言
目標檢測和實例分割是計算機視覺中最基本的任務(wù),隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,計算機視覺任務(wù)中的檢測和分割任務(wù)在常見的物體如行人、指示牌等方面取得了前所未有的突破。然而,當需要檢測不常見的物體時,如東北虎、冰車等,由于訓練樣本不足,模型表現(xiàn)會急劇下降[1,2]。現(xiàn)有的數(shù)據(jù)集大多為長尾數(shù)據(jù)集,這種數(shù)據(jù)集中存在大量的樣本不均衡,會導致訓練的模型性能低下,無法在真實的場景中應用。因此,如何解決計算機視覺任務(wù)中數(shù)據(jù)集的長尾特性問題成為研究的熱點。
目前效果較好的方法包括類均衡采樣[3,4]以及特征歸一化、微調(diào)和元學習。除此之外,重復特征采樣(RFS)[5]已經(jīng)成為一個常見的簡單重采樣方法。雖然取得了一定的效果,但是該方法忽略了一個事實,一張圖片往往包含多個不同類別的對象,使用這種方法會導致頻繁類和稀有類的圖像數(shù)量共同激增,不足以平衡訓練集中各類別的數(shù)量,導致了模型在測試階段會給頻繁類賦值一個較大的置信度得分,從而使分類器更容易地將頻繁類標簽賦給待分割類別,使得模型在現(xiàn)實環(huán)境的數(shù)據(jù)集中魯棒性不高。
為了提高長尾數(shù)據(jù)集中稀有類的重采樣效果,提升長尾實例分割模型的性能,達到具有針對性的處理效果,同時為了避免對頻繁類別目標賦予過高的置信度,本文提出了一種以目標為中心的后處理記憶庫方法。
a)長尾數(shù)據(jù)集是一種樣本不均衡的數(shù)據(jù)集,為了解決樣本不均衡問題,構(gòu)建了針對稀有類的記憶庫。利用前向傳播的RoI特性,建立存儲RoI特征及目標框坐標的動態(tài)記憶庫,對稀有類的特征信息進行具有針對性的儲存及利用。實現(xiàn)對稀有類的有效重采樣,且無須額外的前向/后向傳播。
b)基于動態(tài)存儲模型的訓練,由于長尾數(shù)據(jù)目標數(shù)量離散性,容易出現(xiàn)目標數(shù)量不均衡的問題,導致使用了存儲庫方法的模型性能下降。本文在針對稀有類記憶庫的基礎(chǔ)上,采用一種后處理置信度校準方法,通過調(diào)整每個類的logit,改變不同類別間的置信度得分進行更精準的預測。
c)實例分割任務(wù)中對掩碼的生成質(zhì)量具有較高的依賴,所提出的方法需能夠解決實例分割長尾數(shù)據(jù)集中樣本不均衡的問題,同時還需提升掩碼的生成質(zhì)量。在改進長尾數(shù)據(jù)集中樣本不均衡的基礎(chǔ)上,為了提高掩碼質(zhì)量并減少計算量,利用離散余弦變換的掩碼方式,改進Mask R-CNN生成低分辨率掩碼時不能明確捕捉目標邊緣細節(jié)、生成高分辨率掩碼時又增加訓練復雜度的缺點,減少訓練復雜度的同時提升掩碼的生成質(zhì)量。
綜上,本文提出了以目標為中心后處理動態(tài)記憶庫模型,并在掩碼生成方式中使用余弦變換方法。其不僅解決了實例分割長尾數(shù)據(jù)集小樣本不均衡問題,還提升了實例分割的掩碼生成質(zhì)量,使該模型能更好地適用于實例分割的真實場景中。
1 長尾數(shù)據(jù)實例分割方法
1.1 長尾數(shù)據(jù)的檢測和分割
目前解決數(shù)據(jù)長尾任務(wù)的方法大致分為重采樣、重加權(quán)、數(shù)據(jù)增強三類。重采樣方法[5]主要通過改變長尾數(shù)據(jù)集中稀有類與頻繁類的數(shù)據(jù)數(shù)量,使數(shù)據(jù)集中各類別數(shù)量達到平衡。其中,RFS常被用做基線標準與微調(diào)階段的方法,通過搜尋圖片中的稀有類標簽,對包含稀有類標簽的圖像進行重采樣,以平衡長尾數(shù)據(jù)集中各類別數(shù)量不平衡的問題。重加權(quán)方法[6~8]通過對不同類別的訓練樣本分配不同的權(quán)重,以解決長尾數(shù)據(jù)集中的頻繁類特征占據(jù)主導的問題。在上述方法的基礎(chǔ)上,一些方法使用兩階段或多階段模型[3,9~12]來解決相關(guān)問題。一般通過使用原始的長尾數(shù)據(jù)集對特征提取模型進行訓練,而后通過重采樣方法使數(shù)據(jù)集各類別圖像數(shù)量達到相對平衡,用平衡后的數(shù)據(jù)集對分類器進行訓練,雖然效果較好,但模型設(shè)計復雜訓練時間長。相比而言,本文采用端到端模式進行訓練,不僅對圖像整體進行重采樣操作,而且采用一種對圖像中的目標及圖像混合采樣的采樣策略進行重采樣操作。
1.2 小樣本學習
小樣本學習一直也是解決長尾數(shù)據(jù)集的主要方法之一,文獻[13]利用相似的類別特征來創(chuàng)建更好的稀有類特征;文獻[14]嘗試使用元學習將小樣本學習作為其中一項任務(wù)來解決,并通過添加更多的訓練樣本來解決小樣本學習問題。這在本質(zhì)上類似于重采樣,但是可以更加明確地創(chuàng)造出獨特的樣本。GAN[15]常被用來合成全新的圖像,以增加訓練模型的樣本數(shù)量;文獻[16]則繞過了生成圖像的復雜性,使用元學習來產(chǎn)生特征。類似地,本文的動態(tài)記憶庫側(cè)重于圖像中的目標級,通過對目標級的樣本進行特征級增強,彌補長尾數(shù)據(jù)集中稀有類數(shù)據(jù)量及目標特征不足的問題。
1.3 置信度校準
當前,采用置信度校準方法解決長尾問題的模型較少,Li等人[10]使用分類器歸一化作為基線,但其結(jié)果較差。Tang等人[17]開發(fā)了因果推理的校準流程,但其訓練步驟過于繁雜。本文通過跨類別調(diào)整預測分數(shù),為LVIS數(shù)據(jù)集中幾百個類別估計一個超參數(shù),使得該參數(shù)對于調(diào)優(yōu)的結(jié)果變得敏感。Peng等人[18]在后處理階段采用一種無須配置的線性映射方法,自適應學習代價矩陣。文獻[19]實驗表明,估計多個稀有類的超參數(shù)是十分困難的。因此,本文只使用一個穩(wěn)定的超參數(shù)確保訓練數(shù)據(jù)的穩(wěn)定性,在保證效率的前提下提升了結(jié)果精度。
1.4 離散余弦變換
離散余弦變換(discrete cosine transform,DCT)被廣泛應用于經(jīng)典的計算機視覺算法[20],它將空間域的RGB圖像編碼成頻域的分量。隨著深度學習的發(fā)展,許多學者都在研究如何將該方法集成到基于深度學習的計算機視覺框架中。Ulicny等人[21]使用CNN對采用離散余弦變換編碼的圖像進行分類;Lo等人[22]通過將重新排列的離散余弦變換系數(shù)輸入CNN,對DCT表示進行語義分割;Xu等人[23]研究了在頻域?qū)W習領(lǐng)域中的目標檢測和實例分割,使用DCT系數(shù)而不是RGB參數(shù)作為CNN模型的輸入。在這些工作中,DCT都被用來提取模型輸入的特征。與之不同的是,本文應用DCT來表示掩模的準確率,在提高掩模質(zhì)量以及降低計算復雜性的前提下實現(xiàn)性能和運行速度之間的平衡。
2 本文方法
解決計算機視覺任務(wù)中的數(shù)據(jù)集長尾問題是極具難度和挑戰(zhàn)性的。為了應對這一挑戰(zhàn),通常使用重采樣方法作為一種簡單的解決方法。然而,長尾數(shù)據(jù)集的實例分割不同于普通的實例分割問題,因為在一幅圖像中可能存在多個不同頻率的類,所以僅通過圖像重采樣方法不足以保證數(shù)據(jù)集中各類別數(shù)據(jù)的均衡分布。本文通過引入以目標為中心的動態(tài)記憶庫,實現(xiàn)目標級重采樣,并將后處理置信度校準方法應用于該網(wǎng)絡(luò)后期的一個分類階段,解決頻繁類目標得分過高的問題。最后使用DCT提升掩碼的準確率,流程圖如圖1所示。
2.1 動態(tài)記憶庫
2.2 置信度校準
2.3 置信度校準在記憶庫上的應用
2.4 DCT
在實例分割任務(wù)中,掩碼的質(zhì)量也是至關(guān)重要的指標,長尾數(shù)據(jù)集的實例分割問題亦是如此。為了提升掩碼質(zhì)量,二進制網(wǎng)格掩碼表示被廣泛應用于實例分割中。當二進制掩碼表示的分辨率從28×28增加到128×128時,掩碼質(zhì)量得到改善,但過大的分辨率導致計算復雜度大幅增加,不利于任務(wù)的部署。因此,本文使用DCT mask方法來改進掩碼生成質(zhì)量,在降低計算復雜度的同時,提升掩碼質(zhì)量。該過程示意圖如圖5所示。
3 實驗設(shè)置及結(jié)果分析
3.1 數(shù)據(jù)集及實驗細節(jié)設(shè)置
LVIS數(shù)據(jù)集是一個大規(guī)模細粒度詞匯級標記數(shù)據(jù)集,包含164 000張圖像,并針對超過1 000類物體進行了約200萬個高質(zhì)量的實例分割標注。根據(jù)每個類別包含圖像的數(shù)量將這些類別分為三大類,即稀有類(1~10個圖像)、普通類(11~100個圖像)和常見類(gt;100個圖像)。該數(shù)據(jù)集并非在未知類別標記的情況下收集,而是通過在收集圖像以后根據(jù)圖像中目標的自然分布來進行標注。大量的人工標注而非其他數(shù)據(jù)集的機器自動化標注可以使得數(shù)據(jù)集圖像中自然存在的長尾分布被有效識別。
本文使用LVIS v0.5訓練集進行訓練,LVIS v0.5驗證集進行測試。在該數(shù)據(jù)集中,本文模型針對的是圖像小于等于30個樣本的罕見類別,通過使用小于等于30個樣本的類,目標存儲庫中總共有706個類。訓練過程中對圖像調(diào)整大小,使其較短和較長的邊緣分別為800和1 333像素。訓練平臺使用8個TITAN VS,初始學習速率0.02,使用動量SGD梯度下降方法,權(quán)重衰減0.000 1,模型經(jīng)過90 000次迭代的訓練,在60k和80k迭代時衰減。RPN使用256個區(qū)域進行訓練。本文的記憶庫有一個固定的最大大小,以此來約束占用的內(nèi)存數(shù)量,本文將其設(shè)置為60來平衡內(nèi)存和性能,每個批次為目標記憶庫類增加20個樣本。
3.2 消融實驗
3.3 總體實驗結(jié)果
本文通過LVIS數(shù)據(jù)集分析實驗結(jié)果,首先制定一些基準線,包括實例分割領(lǐng)域中最具代表性的Mask R-CNN,在Mask R-CNN基礎(chǔ)上僅使用重采樣方法的RFS,以及僅對Mask R-CNN交叉熵損失函數(shù)作出一定更改的EQL。與上述兩種方法結(jié)合的最終結(jié)果作比較可以得出,本文方法在以ResNet50為骨干的網(wǎng)絡(luò)上相比基準線Mask R-CNN得到了5%的精度增益,在以ResNet101為骨干的網(wǎng)絡(luò)上得到了5.5%的精度增益,掩碼準確率在兩種骨干網(wǎng)絡(luò)上相較于EQL+RFS分別提升了0.8%和1.9%。此外,本文對APr指標進行重點比較,通過與Mask R-CNN基線相比,該指數(shù)的提升可以很好地說明該方法應用于長尾數(shù)據(jù)的有效性,解決了數(shù)據(jù)集的長尾分布問題。但是相比于EQL+RFS,在以ResNet50和ResNet101為骨干網(wǎng)絡(luò)的情況下,本文模型的APc指數(shù)較低,分析原因在于置信度校準方法對于常見類目標校準范圍有限,相比稀有類和常見類作用效果較小,但對于長尾問題依舊是一個有效的解決方案。
實驗結(jié)果的可視化效果如圖7所示。EQL+RFS出現(xiàn)了識別錯誤、掩碼邊緣準確率較差的問題。如第一組只有本文識別出了“surfboard”;第二組本文識別出了遮擋最為嚴重的“glove”,而其他的模型均未識別出來;第三組中模型成功識別出了前兩種方法未識別出的類“veil”和“l(fā)anyard”;第四組本文模型成功識別出前兩組未識別出的“vent”及“ball_cap”,且掩碼邊緣清晰。綜上所述,說明本文方法對稀有類數(shù)據(jù)進行了有效的檢測和分割。總體實驗結(jié)果如表2所示。
3.4 其他模型對比
本文也與其他先進模型進行了對比,對比指標同上。首先對兩階段解耦訓練方法[3,10]進行比較,結(jié)果如表3所示。從實驗數(shù)據(jù)可以看出,這兩種方法都主要通過提升稀有類分割精度,進一步提升了整體的分割精度。其中,LWS方法帶來的提升比較有限,這是因為該模型只學習了一個比例因子來調(diào)整分類器的決策邊界,而沒有改變分類器本身;相比于BAGS,本文方法在R50骨干網(wǎng)絡(luò)中達到了與其相同的精度。在骨干網(wǎng)絡(luò)R101及X101中,本文方法分別高于其1.4%、0.7%,并且本文方法與分類器是聯(lián)合訓練的,無須額外的微調(diào)階段。
此外,本文還與端到端訓練模型[7,9]進行了比較,本文方法在采用最原始的交叉熵損失函數(shù)情況下,在兩種骨干網(wǎng)絡(luò)上分別提升2.2%和0.5%的分割精度、2.9%的掩碼精度,明顯優(yōu)于以上兩種模型。
4 結(jié)束語
本文首先系統(tǒng)地分析了長尾數(shù)據(jù)集中存在的類別不平衡問題以及常規(guī)深度學習方法對長尾數(shù)據(jù)集的不適應性,實例分割任務(wù)尤為顯著。為了解決長尾實例分割任務(wù)的困難,本文提出了一種針對稀有類的動態(tài)記憶庫用于對圖像中的稀有類目標進行目標級別的重采樣;為了解決動態(tài)存儲模型在訓練過程中由于目標數(shù)量離散性導致的目標數(shù)量不完全平衡問題,采用一種新的后處理校準方法。為了彌補掩碼邊緣準確率較低的問題,使用了DCT二進制掩碼,進一步提升了掩碼質(zhì)量。通過消融實驗證明了本文模型在不同設(shè)置下的有效性。最終的實驗結(jié)果表明,本文方法有效地解決了長尾實例分割困難的問題,提升了掩碼的生成質(zhì)量。
參考文獻:
[1]蘇逸,李曉軍,姚俊萍,等.不平衡數(shù)據(jù)分類數(shù)據(jù)層面方法:現(xiàn)狀及研究進展[J].計算機應用研究,2023,40(1):11-19.(Su Yi,Li Xiaojun,Yao Junping,et al.Data-level methods of imbalanced data classification:status and research development[J].Application Research of Computers,2023,40(1):11-19.)
[2]Zhang Songyang,Li Zeming,Yan Shipeng,et al.Distribution alignment:a unified framework for long-tail visual recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:2361-2370.
[3]Kang Bingyi,Xie Saining,Rohrbach M,et al.Decoupling representation and classifier for long-tailed recognition[EB/OL].(2020-02-19).http://doi.org/10.48550/arxiv.1910.09217.
[4]Zhou Boyan,Cui Quan,Wei Xiushen,et al.BBN:bilateral-branch network with cumulative learning for long-tailed visual recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9716-9725.
[5]Gupta A,Dollar P,Girshick R.LVIS:a dataset for large vocabulary instance segmentation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:5351-5359.
[6]Hsieh T I,Robb E,Chen H T,et al.DropLoss for long-tail instance segmentation[C]//Proc of AAAI Conference on Artificial Intelligence.2021:1549-1557.
[7]Tan Jingru,Wang Changbao,Li Buyu,et al.Equalization loss for long-tailed object recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:11659-11668.
[8]Wang Jiaqi,Zhang Wenwei,Zang Yuhang,et al.Seesaw loss for long-tailed instance segmentation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:9690-9699.
[9]Wang Tong,Zhu Yousong,Zhao Chaoyang,et al.Adaptive class suppression loss for long-tail object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:3103-3112.
[10]Li Yu,Wang Tao,Kang Bingyi,et al.Overcoming classifier imbalance for long-tail object detection with balanced group softmax[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:10988-10997.
[11]Ren Jiawei,Yu Cunjun,Sheng Shunan,et al.Balanced meta-softmax for long-tailed visual recognition[C]//Advances in Neural Information Processing Systems.2020:4175-4186.
[12]Alshammari S,Wang Yuxiong,Ramanan D,et al.Long-tailed recognition via weight balancing[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:6887-6897.
[13]Snell J,Swersky K,Zemel R.Prototypical networks for few-shot learning[C]//Proc of the 31st International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:4080-4090.
[14]Zhang Ruixiang,Che Tong,Ghahramani Z,et al.MetaGAN:an adversarial approach to few-shot learning[C]//Proc of the 32nd International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2018:2371-2380.
[15]Radford A,Metz L,Chintala S.Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL].(2016-01-07).http://doi.org/10.48550/arxiv.1511.06434.
[16]張彬,周粵川,張敏,等.生成對抗網(wǎng)絡(luò)改進角度與應用研究綜述[J].計算機應用研究,2023,40(3):649-658.(Zhang Bin,Zhou Yuechuan,Zhang Min,et al.Review of research on improvement and application of generative adversarial networks[J].Application Research of Computers,2023,40(3):649-658.)
[17]Tang Kaihua,Huang Jianqiang,Zhang Hanwang.Long-tailed classification by keeping the good and removing the bad momentum causal effect[C]//Proc of the 34th International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2020:1513-1524.
[18]Peng Hanyu,Sun Mingming,Li Ping.Optimal transport for long-tailed recognition with learnable cost matrix[C]//Proc of International Conference on Learning Representations.2021.
[19]Dave A,Dollár P,Ramanan D,et al.Evaluating large-vocabulary object detectors:the devil is in the details[EB/OL].(2022-03-15).http://doi.org/10.48550/arxiv.2102.01066.
[20]Ravì D,Bober M,F(xiàn)arinella G M,et al.Semantic segmentation of images exploiting DCT based features and random forest[J].Pattern Recognition,2016,52(4):260-273.
[21]Ulicny M,Dahyot R.On using CNN with DCT based image data[C]//Proc of the 19th Irish Machine Vision and Image Processing Conference.2017.
[22]Lo S Y,Hang H M.Exploring semantic segmentation on the DCT representation[EB/OL].(2019-12-29).http://doi.org/10.48550/arxiv.1907.10015.
[23]Xu Kai,Qin Minghai,Sun Fei,et al.Learning in the frequency domain[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:1740-1749.
[24]He Kaiming,Gkioxari G,Dollár P,et al.Mask R-CNN[C]//Proc of IEEE International Conference on Computer Vision.Washington DC:IEEE Computer Society,2017:2961-2969.
[25]Ren Shaoqing,He Kaiming,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[26]Cao Kaidi,Wei C,Gaidon A,et al.Learning imbalanced datasets with label-distribution-aware margin loss[C]//Proc of the 33rd International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2019:1567-1578.
[27]Wang Tao,Li Yu,Kang Bingyi,et al.The devil is in classification:a simple framework for long-tail instance segmentation[C]//Proc of European Conference on Computer Vision.Cham:Springer,2020:728-744.
[28]Menon A K,Jayasumana S,Rawat A S,et al.Long-tail learning via logit adjustment[EB/OL].(2021-07-09).http://doi.org/10.48550/arxiv.2007.07314.
[29]Hu Xinting,Jiang Yi,Tang Kaihua,et al.Learning to segment the tail[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:14042-14051.
[30]Wu Jialian,Song Liangchen,Wang Tiancai,et al.Forest R-CNN:large-vocabulary long-tailed object detection and instance segmentation[C]//Proc of the 28th ACM International Conference on Multimedia.New York:ACM Press,2020:1570-1578.
[31]Wang Yuxiong,Girshick R,Hebert M,et al.Low-shot learning from imaginary data[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7278-7286.