999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

運用模態融合的半監督廣義零樣本學習

2022-04-09 07:03:54王曉軍
計算機工程與應用 2022年5期
關鍵詞:語義模態模型

林 爽,王曉軍

1.南京郵電大學 計算機學院,南京 210023

2.南京郵電大學 物聯網學院,南京 210003

傳統分類任務通過使用大量數據訓練模型實現高精度分類,但現實中的一些數據,譬如珍稀動植物樣本,難以獲得或者收集代價過大。若能利用已見過類的樣本訓練模型,使之能夠識別未見過類的樣本,便可以解決上述問題,于是有學者提出了零樣本學習(zero-shot learning,ZSL)問題,ZSL的難點在于如何將未見過類信息與見過類信息聯系起來。常見的解決方法是將語義

作為見過類和未見過類的橋梁,即為每個類提供額外的屬性定義[1-2]、單詞向量[3-4]和文本描述[5]等中間層語義表示[6],來輔助系統識別那些未見過類的樣本。舉個例子,您見過鴨子和海貍,但沒有見過鴨嘴獸,如果告訴您鴨嘴獸的嘴和腳像鴨子,而身體和尾部像海貍,那么您在第一次見到真實的鴨嘴獸的時候,一定能認出它。Akata等人[7]和Lampert等人[1]提出利用視覺語義嵌入的方式解決ZSL問題。基于嵌入模型的方法是指將視覺和語義映射到同一空間中,再根據相似性度量進行分類[8],但同樣的語義在不同物種上的表現并不相同,這些方法由于沒有測試類樣本可以進行訓練,在映射測試類樣例時便會產生偏差,這就是映射域漂移(projection domain shift)問題。解決映射域漂移問題的關鍵在于如何提高映射模型的泛化能力[9],于是Zhu等人[10]提出了基于生成模型的解決方案,通過未見過類生成樣本,將ZSL問題轉變為傳統的分類問題。

ZSL設置的初衷在于通過學習見過類事物,繼而識別未知事物,因此在訓練階段,其測試集不包含見過類樣本。但這種設置沒有考慮到現實中待分類樣本種類混雜,不可能先通過人工篩選出其中的未見過類樣本,再交付分類器進行分類。因此,有學者提出了廣義零樣本學習(generalized zero-shot learning,GZSL)問題,GZSL希望分類器能夠同時識別見過類和未見過類樣本。這樣的設置更貼合實際,但同時也帶來了新的問題:由于模型只學習了如何分辨見過類的事物,因此在判別一個未知事物時,總是更傾向于把它歸為某個已見過類。這就是GZSL的偏見性預測問題(bias of prediction)[11]。Schonfeld等人[12]提出的交叉分布對齊變分自編碼器模型(cross and distribution aligned VAE,CADA-VAE)在一定程度上對齊了VAE[13-14]模型抽取的視覺和語義潛層特征,然后利用潛層特征進行分類。CADA-VAE模型結合了生成模型和嵌入模型的優勢,在一定程度上避免了映射域漂移和偏見性預測問題。

但是訓練數據的稀疏性會影響CADA-VAE模型對視覺特征和語義嵌入的共享潛層特征空間的學習。因此,當從語義潛層向量交叉重構視覺樣本時,生成的視覺樣本分布不能保持真實樣本空間的簇結構。同時,潛層空間的類數據重疊分布也會影響分類性能。這需要研究在抽取核心特征以及交叉重構時,如何在適當范圍內為數據編碼及樣本生成提供指導,在保持類內多樣性的同時保留類間區分性信息。此外,在CADA-VAE模型的基礎上如果能充分利用現實中的大量未標注數據以及未見過類語義進行輔助訓練,則能在一定程度上提升模型的性能。于是本文針對上述兩個問題,提出了對CADA-VAE模型的改進方案:(1)利用未標注樣本特征及未見過類語義輔助模型進行模態內半監督自學習,提升模型的魯棒性;(2)針對CADA-VAE交叉重構方案提出模態間互學習改進方案,通過使用本文提出的異類語義潛層向量指導視覺模態的特征編碼過程,利用視覺質心對語義交叉重構進行約束,保證生成的樣本具有類內多樣性的同時保持類間區分度。

1 相關工作

ZSL要求訓練數據和測試數據類別不存在交集,即利用已見過類數據訓練模型,用模型對未見類樣本的識別率評估其性能。故ZSL使用的訓練數據為{(xi,yi)|xi∈Xs,yi∈Ys}及{(yi,ci)|yi∈Y,ci∈C},可以將這兩者進行數據處理,整合成D={(xi,yi,ci)|xi∈Xs,yi∈Ys,ci∈Cs}?{(yi,ci)|yi∈Yu,ci∈Cu},并使用其訓練模型,其中Xs、Ys、Cs分別為見過類樣本特征集合、標簽集合、語義集合,Yu、Cu和Y、C分別為未見過類和所有類的標簽集合、語義集合;在訓練完成后,利用模型識別未見過類的樣本特征Xu[15]。而GZSL和ZSL設置唯一的區別在于測試集的設置,GZSL測試集中既包含見過類樣本,也包含未見過類樣本。

ZSL發展之初,為了解決映射域偏移問題提出的方案,諸如DeViSE[16]、SJE[17]、ALE[18]和EZSL[19],設法學習視覺和語義嵌入之間的線性兼容性函數(linear compatibility function),但是相似類的樣本在經線性兼容性函數映射后會出現重疊,導致這類學習方法并不適合解決細粒度分類問題[20]。于是CMT[21]和LATEM[20]嘗試使用非線性嵌入的方法應對ZSL挑戰。上述幾種傳統嵌入模型試圖在視覺和語義之間尋求關聯,而基于相似度的方法另辟蹊徑,它們試圖從類與類的關聯中尋找突破,譬如SYNC[22]利用“幻象”類(“Phantom”classes)將未知類與已知類相關聯,從而完成對未知類樣本的分類。實驗表明,此類模型在ZSL設置上表現良好,但由于此類模型完全基于對已知類樣本的分類,因此在面對GZSL問題時,很難通過類遷移函數分離混雜在已知類樣本中的未知類樣本。Xian等人[23]的實驗結果表明,SYNC方法在GZSL問題上的表現相比傳統嵌入模型要更差一些。

為了應對GZSL的偏見性預測挑戰,近年來人們提出的方案主要分為兩類,其中一類是諸如ReViSE[24]的新型嵌入模型方案。該方案先用自編碼器分別抽取樣本視覺和類語義的潛層特征。這種方案的優勢在于,無論是見過類樣本,還是未見過類樣本,通過自編碼器得到的中間層向量,保留了樣本核心特征而不會存在偏見,同時,利用核心特征進行分類減少了視覺特征中的無效噪聲帶來的擾動。另一類是諸如CVAE[25]、SE[26]和f-CLSWGAN[27]等基于生成模型的方案,它們利用語義生成未知類的視覺特征,并將之作為分類模型的訓練樣本,從而將GZSL問題轉變為傳統的分類問題,緩解偏見性預測問題;同時,額外的生成數據的引入也使得模型的魯棒性更強。在這之后提出的CADA-VAE模型結合了嵌入模型和生成模型的特點,通過交叉分布對齊視覺和語義的核心特征,進一步提升了模型在GZSL問題上的識別率。

2 模型

2.1 交叉分布對齊的變分自編碼器

CADA-VAE利用兩組變分自編碼器(VAE)分別學習兩種數據模態(視覺特征和語義屬性)組合的表示形式,并使用圖1中分布對齊損失LDA和交叉重構損失LCA對模型進行約束。CADA-VAE模型的邊緣似然為兩種模態中各個數據點的邊緣似然之和,見式(1)。其中的logpθ(xi)可展開為式(2),logpθ(ci)同理。

圖1 交叉分布對齊的變分自編碼器模型Fig.1 Cross and distribution aligned variational autoencoder model

不妨設式(2)中的先驗概率p服從多元高斯分布(multivariate gaussian),編碼器使用多層感知器(multilayer perceptron,MLP)找尋期望μ和方差Σ,使得后驗分布q=N( )μ,Σ與分布p接近,繼而生成潛層向量z[28],見式(3)。因為式(2)中的第一項為兩個分布之間的KL散度,數值非負,所以logpθ(xi)的變分下界為L(θ,φ;xi),若 能 增 大 該 變 分 下 界,則 必 然 能 增 大logpθ(xi),L(θ,φ;xi)見式(4)。

式(4)中,前者表示由xi生成的z再還原為xi的期望,本質上描述了解碼器的性能,想要最大化該期望,等價于最小化樣本特征在編解碼前后的損失,即最小化VAE重構損失;而后者作為KL散度,恒大于0,因此想要增大L(θ,φ;xi),只需要最小化該KL散度即可。

對于式(4)中的VAE重構損失部分,為了最大程度地減少信息丟失,提高向量z的核心特征保留能力,必須通過視覺和語義模態對應的編解碼器網絡重建原始數據。實際上,第i個樣本xi的模型重構損失LiR是樣本特征損失和語義損失之和,見式(5),其中E1()、E2()、D1()、D2()分別表示數據經過Encoder1、Encoder2、Decoder1、Decoder2映射得到的結果,VAE模型損失見式(6)1),其中z1為視覺潛層,z2為語義潛層。

在特征和語義重構的基礎上,CADA-VAE方案提出使用交叉重構(cross-alignment,CA)損失和分布對齊(distribution-alignment,DA)損失對模型進行約束。

在訓練完CADA-VAE之后,利用模型對(Xs,Ys)和(C,Y)編碼,分別得到它們的潛層特征和標簽的組合(ZXs,Ys)和(ZC,Y)。然后,使用(ZXs,Ys)?(ZC,Y)訓練分類器,可實現對任意一個由CADA-VAE編碼得到的潛層向量的分類,從而解決GZSL問題。

2.2 半監督模態融合的VAE改進方案

在CADA-VAE模型(圖1)基礎上提出了半監督模態融合的VAE改進方案(semi-supervised modal fusion VAE model,SMF-VAE)。圖2為改進后的模型圖,其中的藍色箭頭表示改進方案中新增的數據流向,Imagesl中的五角星為對應類的視覺質心,坐標圖表示計算異類語義潛層向量,視覺質心和異類語義潛層向量的定義見2.2.2節。

圖2 基于模態融合的半監督廣義零樣本學習模型Fig.2 Semi-supervised generalized zero-shot learning model based on modal fusion

2.2.1 模態內半監督學習方案

大量標注數據訓練后的CADA-VAE模型,抽取樣本核心特征的能力較強,但在標注數據不足的情況下,模型較難提取樣本核心特征,甚至解碼潛層特征后無法還原為初始樣本特征。現實中,由于人工標注樣本代價較大,難以獲得大量的有標注樣本,若能使用未標注樣本及未見過類的語義等輔助信息對模型進行訓練,則在一定程度上能夠減少訓練階段對標注樣本的依賴。不難發現,模型中提取樣本潛層特征的功能主要是通過VAE實現的,而VAE采用無監督學習方法,故提出半監督學習方案。該方法利用標注樣本和未標注樣本、見過

1)CADA-VAE論文中此公式β前的符號為“-”,但結合論文提供的源代碼以及VAE論文,認為此處應該為“+”。類語義和未見過語義進行聯合訓練(joint training),即模型利用標注樣本和所有類語義進行有監督的視覺和語義模態內自學習及模態間互學習;利用未標注數據和未見過類語義進行模態內無監督自學習。

為了使用未標注樣本,將訓練集(Xs,Ys)劃分為標注樣本集(Xl,Yl)和未標注樣本集Xul。用于訓練的每批數據中包含從Xs隨機選取的標注樣本以及未標注樣本,其中有標注樣本nl個,未標注樣本nul個。通過最小化每批數據中的標注樣本損失Ll和未標注樣本損失Lul之和L,達到對模型進行約束的目的。Ll見式(10),Lul見式(11),L見式(12):

在使用未標注樣本進行無監督模態內自學習時,也采用特征VAE和語義VAE聯合訓練的方法,但和有監督方法不同的是,這里的未標注樣本xiul和語義ci∈C不再滿足一一對應的關系。

圖2中使用Imagesul和unseen的Textual Attribute進行額外的模態內自學習。

2.2.2 模態間互學習方案

CADA-VAE方案通過對齊視覺和語義潛層向量空間,融合了視覺模態和語義模態的共有信息。在跨模態數據互助方面,提出模態間互學習的改進方案,利用語義模態的異類語義潛層向量指導視覺模態的特征編碼過程;利用視覺模態的視覺質心指導語義模態進行交叉重構。

(1)利用視覺質心指導語義交叉重構

CADA-VAE是使用(xi,yi,ci)聯合訓練特征VAE和語義VAE的,訓練集中的每個見過類具有多個樣本特征,每個類別對應一個語義向量。在訓練階段,對于兩組類別相同的數據(xi,yi,ci)、(xj,yj,cj),其中ci=cj,yi=yj,ci和cj通過編碼器Encoder2進行加噪編碼后,會生成不同的語義潛層向量在交叉重構時將被解碼成不同視覺特征的樣本類似于現實中一個物種擁有無數個體,CADA-VAE將語義向量交叉重構后可生成多個不同的此類樣本,保證了生成樣本的類內多樣性。但同類樣本的視覺特征在高維空間分布的稀疏性會影響CADA-VAE模型在潛層學習到的條件概率分布。這個問題導致語義潛層向量通過交叉重構的視覺樣本分散,丟失了用于類間區分的部分信息。為解決這個問題,需要考慮在交叉重構時,如何為模型提供提示,以保證生成的樣本具有類內多樣性的同時類間分布更具區分度。故本文提出在CADA-VAE方案的基礎上,利用視覺模態的信息為語義模態的交叉重構提供指導,在語義交叉重構部分加入視覺質心設計,對于每一個(xi,yi,ci),使得由語義屬性ci生成的視覺特征D1(E2(ci))和yi類所有標注樣本的視覺質心對齊。

每個類的視覺質心定義為高維空間中該類樣本視覺特征簇的質心,可以通過計算真實視覺特征在各維度的均值得到;也可以使用諸如密度聚類等其他類簇中心獲取方法得到。為降低計算成本,采用前者得到視覺質心。yi類的視覺質心p(yi)見式(13),其中Xyi為yi類所有已見過樣本的集合,|Xyi|為Xyi中樣本數量。

質心約束損失LC為模型生成的樣本和其所屬類視覺質心的二階矩,LC表達式見式(14)。將其作為正則項添加在模型損失中,保留了CADA-VAE模型交叉重構樣本多樣化的優勢,同時使得生成的同類樣本更加集中,類間區分度更大。

圖2中,用不同顏色的圓點表示不同類別的樣本,用五角星表示此類樣本的視覺質心位置,在所有數據送入模型訓練之前計算每一個類的視覺質心,希望通過LC的約束,能讓Textual Attribute中的語義通過模型生成圍繞此類樣本視覺質心的特征。

(2)利用異類語義潛層向量優化視覺特征編碼

因為CADA-VAE方案是基于編碼視覺特征后得到的潛層向量進行分類的,所以視覺特征的潛層分布決定了分類的性能。CADA-VAE通過交叉重構,使用語義指導本類視覺特征編碼固然有一定的效果,但相似類語義向量接近,導致它們的視覺特征在潛層的分布會出現重疊,這必然會降低分類性能。為了解決這個問題,提出異類語義潛層向量的概念。

算法1描述了利用標注樣本和未標注樣本對SMFVAE模型進行訓練的詳細步驟,其中n_epoch為訓練紀元(epoch)的大小,n_dataset為數據集(dataset)的數據總量,n_batch為每一批(batch)的大小。使用Adam算法每次在一個批上優化模型參數(第23行)。

算法1 SMF-VAE Algorithm

算法1首先計算各類樣本的視覺質心p(yi)(第5~7行),通過減少質心約束損失LC(第22、24行),使得由語義屬性ci重構的視覺特征D1(E2(ci))具備此類樣本的核心特征。然后,計算每個類的異類語義潛層向量zˉ~yi(第12~15行),通過最大化異類語義距離LCD(21、24行),使得模型能夠沿異類語義潛層向量負方向進行視覺特征編碼

3 實驗

3.1 評價方法

Xian等人[23]通過評估現有的數據集分割方法,制定了統一的ZSL/GZSL評估基準。GZSL數據不平衡的問題,會鼓勵分類器只在數據密集的類上表現出高性能,但實際應用中人們希望在數據稀少的類上也有很好的性能,因此,通常使用式(18)、(19)分別計算見過類和未見過類的平均識別率,使用式(20)作為最終的ZSL/GZSL性能評估標準,其中ns為見過類的類別總數,nu為未見過類的類別總數。使用此評估方法進行了以下GZSL的相關實驗。

3.2 實驗設置

使用粗粒度標準數據集AWA1和細粒度標準數據集CUB、SUN來評估方案。AWA1數據集由50個動物類,共30 475幅圖像組成,每個類提供85個數值屬性值;CUB數據集包含200個鳥類,共11 788張圖像;SUN數據集包含717場景類,共14 340張圖片。為了便于同其他廣義零樣本學習方法進行比較,使用廣義零樣本學習最新基準[23]對數據集進行劃分。

為了測試半監督學習方案性能,將訓練集(Xs,Ys)分成了標注樣本集(Xl,Yl)和未標注樣本集Xul兩個部分,即從(Xs,Ys)中的每一類數據中隨機選取ratio比例的數據,組合成(Xl,Yl),將沒有被選中的數據作為Xul,這樣保證了每一個見過類都有數據參與訓練,并且每個類的訓練數據占比和原始數據一樣,同其他方案對比得到的結果也更具可信力。

下述的實驗均是基于python3.5和pytorch框架。

圖4 CUB數據集上不同參數對SMF-VAE性能的影響Fig.4 Effects of different parameters on performance of SMF-VAE on CUB

3.3 核心參數尋找以及參數對模型的影響

為了和CADA-VAE模型進行比較,沿用了文獻[12]實驗中CADA-VAE模型的參數。為了找尋改進方案中核心參數α、φ、η的取值,從原訓練集隨機取90%的樣本作為訓練集,10%樣本作為驗證集。利用網格搜索方法尋找超參數α、φ、η,使得模型在使用訓練集樣本訓練后,能夠在驗證集上表現性能最佳。實驗中發現,參數α、φ、η不宜過大,否則會出現梯度爆炸現象。在AWA1、CUB、SUN三個數據集上進行不同參數的對比實驗,實驗結果如圖3~5所示,其中橫坐標的每組參數分別對應α、φ、η。當參數α∈(0.5,3.5),φ∈(0.3,0.5),η∈(0.25,1.75)時,模型在三個數據集上都能夠獲得不錯的效果,當參數超出這個范圍后,性能會有些下降。因此建議參數取值范圍為α∈(0.5,3.5),φ∈(0.3,0.5),η∈(0.25,1.75),在AWA1數據集上的調參實驗發現,η=0.5時效果更優,其他參數選擇參數區間的中值更優,故在AWA1上使用參數α=2,φ=0.4,η=0.5,在CUN和SUN上使用參數α=2,φ=0.4,η=1進行了3.4和3.5節的實驗,實驗表明此組參數在不同訓練數據量上都表現良好。

圖3 AWA1數據集上不同參數對SMF-VAE性能的影響Fig.3 Effects of different parameters on performance of SMF-VAE on AWA1

3.4 SMF-VAE改進方案評估

將本文提出的方案應用于AWA1、CUB和SUN數據集,同當下主流的12個GZSL監督學習模型對比性能差異。為了同其他實驗保持訓練數據量的一致,此時的訓練數據全部用于了監督學習,所以沒有使用未標注數據進行訓練,將在下一節同CADA-VAE方案進行對比時,再介紹使用模態內半監督自學習改進方案的提升。

表1總結了SMF-VAE方案和其他方法在三個數據集上的性能。表中識別率為見過類識別率S和未見過識別率U的調和平均數H,其中HAWA1、HCUB、HSUN分別為方案在AWA1、CUB、SUN數據集上的識別率。表中CADA-VAE以及SMF-VAE的識別率是通過五次實驗求平均值得到的,由于CADA-VAE論文和本文的實驗都是使用相同劃分的基準數據集,故其余的對比實驗結果均直接引用CADA-VAE論文中的識別率。SMF-VAE在粗粒度數據集AWA1上的表現明顯優于所有現有的方法,比起原始方案CADA-VAE方案的識別率高出1.1個百分點;而細粒度數據集CUB和SUN上,相對于原始CADA-VAE方法提升為0.53和0.65個百分點。這主要是因為:AWA1是粗粒度數據集,其中包含了各種動物,動物之間的差異較大,所以不同類別樣本的視覺質心距離較遠,使用視覺質心指導語義交叉重構,令語義生成的樣本分布在此類全體樣本的視覺質心位置附近,使用此方案后,相當于減少了分布的方差,從而減少了分布邊緣的樣本被錯誤歸為其他類別的可能。此外,使用異類語義潛層向量優化視覺編碼,相當于將整類樣本分布沿異類語義潛層向量的負方向靠攏,一定程度上可以增大樣本分布的類間距離。而CUB、SUN為細粒度數據集,類間差異遠不如AWA1數據集中的不同動物類之間大,故使用此方案后,在CUB和SUN數據集上的識別精度提升略低于在AWA1數據集上的提升。

圖5 SUN數據集上不同參數對SMF-VAE性能的影響Fig.5 Effects of different parameters on performance of SMF-VAE on SUN

表1 SMF-VAE與主流的廣義零樣本學習方案性能比較Table 1 Performance comparison between SMF-VAE and mainstream generalized zero-shot learning schemes

3.5 SMF-VAE在使用少量標注樣本參與訓練時的效果

比較了以下四種改進方法和CADA-VAE方案的性能差異:

(1)使用模態內半監督自學習改進方案;

(2)使用視覺質心指導語義交叉重構改進方案;

(3)使用異類語義潛層向量優化視覺特征編碼改進方案;

(4)同時使用三種改進方法,即使用SMF-VAE方案。

圖6描述了四種改進方法和原始的CADA-VAE方案在AWA1、CUB和SUN數據集上性能的對比,其中橫坐標為用于訓練的標注樣本占總訓練數據量的比例ratio,縱坐標為模型的平均識別率acc。實驗結果和預期一樣,隨著用于訓練的標注樣本不斷增多,三種改進方法和CADA-VAE的識別率都在穩步提升,且本文的所有改進都一直優于CADA-VAE方案。

圖6 改進方法和CADA-VAE模型的性能對比Fig.6 Performance comparison of improved schemes and CADA-VAE

模態內半監督自學習改進在標注樣本較少而未標注樣本較多的情況下提升效果十分顯著。并且由于細粒度數據集的樣本類間距離較小,在使用少量標注樣本訓練時,編碼器不能很好地把視覺特征映射到潛層,所以此時使用模態內半監督自學習方案改進效果更明顯。在ratio比率為0.1時,AWA1、CUB和SUN數據集上識別率提升分別為1.01、1.85和1.89個百分點。隨著用于無監督學習的數據量的減少,性能提升程度也在不斷降低,最終用于無監督學習的數據量為0時,模態內半監督自學習方法和原始方案完全一致。

視覺質心指導語義交叉重構和異類語義潛層向量優化視覺特征編碼改進帶來的提升都比較穩定,在不同ratio比率的情況下,在AWA1、CUB和SUN數據集上視覺質心指導帶來的提升分別為0.64、0.32和0.40個百分點左右,異類語義潛層向量帶來的提升分別為0.52、0.32和0.42個百分點。

SMF-VAE改進方案繼承了上述三種方法的優點,性能提升比較均衡,在標注樣本較少的時候,模態內半監督自學習帶來的提升占主導;在標注樣本較多時,視覺質心指導和異類語義潛層向量方法帶來的提升占主導。總體來看,合成方案性能更優。尤其在ratio比率為0.1時,即標注樣本很少時,AWA1、CUB和SUN數據集上識別率提升分別為1.12、2.21和2.76個百分點。

圖7中,S為見過類識別率,U為未見過類識別率,H為兩者的調和平均數。正如圖中顯示的那樣,在AWA1、CUB和SUN數據集上,當ratio比率為1時,本文的改進方案并不是通過大幅犧牲未見過類識別率或者已見過類識別率中的一者來提升另一者,而是提升總體的識別率。本文的方案在標注樣本較少,而未標注樣本較多時性能提升較大。當ratio=0.1時,如圖8所示,本文的方案同樣可以通過提升見過類和未見過識別率的其中一者或者兩者來大幅提升綜合識別率。

圖7 SMF-VAE和CADA-VAE在ratio=1時識別率的對比Fig.7 Comparison of recognition rate of SMF-VAE and CADA-VAE at ratio=1

圖8 SMF-VAE和CADA-VAE在ratio=0.1時識別率的對比Fig.8 Comparison of recognition rate of SMF-VAE and CADA-VAE at ratio=0.1

4 結束語

本文針對GZSL問題提出了一種基于模態融合的半監督學習改進方案SMF-VAE。半監督模態內自學習方案在使用標注樣本以及見過類語義訓練模型的基礎上,通過使用大量未標注樣本及未見過類語義訓練模型的模態內編解碼能力,模態間互學習方案使得模型由語義生成的樣本更具代表性,模型編碼未知類樣本時能夠更大程度保留其核心特征,提升了模型的魯棒性。本文在3個基準數據集上將SMF-VAE和當下主流的GZSL方案進行性能對比,實驗結果表明,本文所提出的方案性能優于當下主流方案,尤其在使用少量標注樣本和大量未標注樣本進行訓練的情況下,性能提升更為明顯。

猜你喜歡
語義模態模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
國內多模態教學研究回顧與展望
基于HHT和Prony算法的電力系統低頻振蕩模態識別
認知范疇模糊與語義模糊
由單個模態構造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
主站蜘蛛池模板: 制服无码网站| 日韩大片免费观看视频播放| 欧美高清视频一区二区三区| 欧美怡红院视频一区二区三区| 色综合国产| 国产一级视频久久| 成年人免费国产视频| 九色视频最新网址 | 国产成人综合久久精品尤物| 五月天在线网站| 国产玖玖玖精品视频| 久久天天躁狠狠躁夜夜躁| 91久久国产综合精品女同我| 国产人成乱码视频免费观看| 欧美精品v| 日本免费新一区视频| 欧美不卡视频在线观看| 日本www色视频| 免费人成在线观看成人片| 成年人国产网站| 色综合综合网| 色一情一乱一伦一区二区三区小说| 无码一区中文字幕| 欧美在线视频不卡第一页| 亚洲一区第一页| 国产在线拍偷自揄拍精品| 国产午夜精品一区二区三区软件| 国产久草视频| 91探花在线观看国产最新| 福利片91| 啪啪啪亚洲无码| a毛片在线播放| 国产精品久久久久久久久| 性激烈欧美三级在线播放| 亚洲性视频网站| 国产制服丝袜91在线| 成AV人片一区二区三区久久| 看你懂的巨臀中文字幕一区二区 | 亚洲日本在线免费观看| 国产区免费| 中文字幕啪啪| 欧美在线视频a| 久久熟女AV| 高清视频一区| 国产一级小视频| 国产午夜福利亚洲第一| 99热亚洲精品6码| 高h视频在线| 欧美日韩国产在线人| 成人无码一区二区三区视频在线观看 | 国产欧美日韩va另类在线播放| 亚洲第一区欧美国产综合| 亚洲第一精品福利| 欧美精品在线免费| 国产丝袜无码精品| 四虎影院国产| 2019国产在线| 一级毛片a女人刺激视频免费| 四虎永久在线| 久久6免费视频| 乱系列中文字幕在线视频| 欧美在线国产| jizz亚洲高清在线观看| 国产剧情一区二区| 亚洲精品制服丝袜二区| 网友自拍视频精品区| 亚洲大尺码专区影院| 日本欧美在线观看| vvvv98国产成人综合青青| 国产黑丝一区| 国产精品蜜臀| 国产午夜看片| 日韩天堂网| 毛片久久久| 亚洲精品成人7777在线观看| 亚洲中字无码AV电影在线观看| 国产欧美日韩免费| 国产一区在线观看无码| 在线观看av永久| 日韩黄色精品| 99热这里只有精品2| 999在线免费视频|