999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法

2017-06-27 08:10:42陳利娟陳志賢
計(jì)算機(jī)應(yīng)用 2017年4期
關(guān)鍵詞:分類特征實(shí)驗(yàn)

唐 宋,陳利娟,陳志賢,葉 茂

1.電子科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,成都 611731; 2.重慶郵電大學(xué) 復(fù)雜系統(tǒng)分析與控制研究中心,重慶 400065;3.中國科學(xué)院 深圳先進(jìn)技術(shù)研究院,廣東 深圳 518055)(*通信作者電子郵箱tangchenlj@163.com)

基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法

唐 宋1,2,陳利娟1*,陳志賢3,葉 茂1

1.電子科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,成都 611731; 2.重慶郵電大學(xué) 復(fù)雜系統(tǒng)分析與控制研究中心,重慶 400065;3.中國科學(xué)院 深圳先進(jìn)技術(shù)研究院,廣東 深圳 518055)(*通信作者電子郵箱tangchenlj@163.com)

在許多實(shí)際工程應(yīng)用中,訓(xùn)練場景(源域)和測試場景(目標(biāo)域)的分布并不相同,如果將源域中訓(xùn)練的分類器直接應(yīng)用到目標(biāo)域,性能往往會出現(xiàn)大幅度下降。目前大多數(shù)域自適應(yīng)方法以概率推導(dǎo)為基礎(chǔ)。從圖像特征表達(dá)的角度出發(fā),針對自適應(yīng)圖像分類問題,提出一種新的基于協(xié)同特征的無監(jiān)督方法。首先,所有源樣本被作為字典;然后,距離目標(biāo)樣本最近的三個目標(biāo)域樣本被用來幫助魯棒地表達(dá)局部近鄰幾何信息;最后,結(jié)合字典和局部近鄰信息實(shí)現(xiàn)編碼,并利用最近鄰分類器完成分類。因?yàn)閰f(xié)同特征通過融合目標(biāo)域局部近鄰信息,獲得了更強(qiáng)的魯棒性和區(qū)分性,基于該特征編碼的分類方法具有更好的分類性能。在域自適應(yīng)數(shù)據(jù)集上的對比實(shí)驗(yàn)結(jié)果表明所提算法是有效的。

域自適應(yīng);流形;目標(biāo)域局部近鄰關(guān)系;協(xié)同表達(dá);圖像分類

0 引言

經(jīng)典的分類問題隱含一個基本假設(shè):訓(xùn)練樣本(源樣本)和測試樣本(目標(biāo)樣本)服從相同分布。但是,在許多實(shí)際工程應(yīng)用中,因?yàn)樵礃颖竞湍繕?biāo)樣本分別來自于具有不同分布的場景,使用源樣本訓(xùn)練的分類器很難直接被用來對目標(biāo)樣本分類。針對這一問題,通常的做法是在目標(biāo)場景收集樣本,重新訓(xùn)練分類器。但是,這種方案存在兩方面的問題:其一,為每一個新的場景訓(xùn)練新的分類器顯然十分低效;其二,在某些場景中,樣本收集很難實(shí)現(xiàn)。

為了解決上述問題,域自適應(yīng)方法[1]被提了出來。目前,現(xiàn)有的方法可被大致認(rèn)為兩類。第一類方法的核心思想是域分布匹配。例如,文獻(xiàn)[2]提出了一種字典學(xué)習(xí)方法。通過構(gòu)建域不變稀疏表達(dá),有效減小了域間分布差異。文獻(xiàn)[3]利用深度堆疊式去噪自編碼(Stack Denoising Auto-Encoder, SDAE)學(xué)習(xí)一個特征變化,將所有樣本映射到一個共享空間。在該特征空間中,特征分布是相同的。文獻(xiàn)[4]提出一種樣本篩選方法讓篩選后的源樣本符合目標(biāo)域的分布,然后利用源域的標(biāo)簽信息完成分類。上述方法通過消除分布差異將域自適應(yīng)分類問題轉(zhuǎn)換成了經(jīng)典分類問題,從而取得了較好的效果;但是這類方法更多地從尋找具有同分布特性的共有空間著眼,忽略了樣本空間的幾何結(jié)構(gòu)。

第二類方法從樣本流形結(jié)構(gòu)的角度進(jìn)行建模:

一種思路假設(shè)源域和目標(biāo)域是某個抽象流形上的兩個不同的點(diǎn),并用它們之間的測地線表示這兩個域之間的遷移過程。例如,文獻(xiàn)[5]通過對測地線進(jìn)行子空間插值實(shí)現(xiàn)遷移過程描述;文獻(xiàn)[6]擴(kuò)展了這一思路,通過對測地線上的無數(shù)個子空間進(jìn)行積分,提出了一種基于核方法的測地線構(gòu)建方案。得益于對域間遷移過程的描述,上述方法表現(xiàn)出良好的性能;但是,這些樣本數(shù)據(jù)之間所固有的幾何結(jié)構(gòu)并沒有被考慮。

另一種思路則是基于樣本自身所構(gòu)成的具體數(shù)據(jù)流形結(jié)構(gòu)。文獻(xiàn)[7]從流形學(xué)習(xí)的角度,提出了基于流形投影鄰近約束的協(xié)同特征表達(dá),因?yàn)槿谌肓嗽从蚓植拷弾缀涡畔?該特征表現(xiàn)出良好的區(qū)分性能;但是,該方法并沒有利用目標(biāo)域樣本之間的幾何信息。針對這一問題,文獻(xiàn)[8]從特征表達(dá)的魯棒性角度出發(fā),提出了一種融合目標(biāo)樣本最鄰域幾何信息的協(xié)同特征表達(dá)(Target Collaborative Nearest-Neighbor Representation, TCNNR)。在編碼過程中,目標(biāo)樣本的最近鄰目標(biāo)域樣本被用來輔助特征的生成。因?yàn)轭~外地導(dǎo)入了目標(biāo)樣本的最鄰域信息,增強(qiáng)了特征表達(dá)的魯棒性,所以在性能上取得了較大的提升。但是,該方法僅僅利用了最近鄰這一簡單幾何信息,很難準(zhǔn)確地刻畫目標(biāo)樣本的鄰域信息。

如上所述,引入目標(biāo)樣本鄰域信息對解決自適應(yīng)分類問題具有積極的輔助作用。受該工作的啟發(fā),本文提出了一種新的協(xié)同特征。該特征融合了對鄰域信息表達(dá)能力更強(qiáng)的目標(biāo)樣本局部近鄰幾何信息。實(shí)驗(yàn)結(jié)果表明較于之前基于目標(biāo)最近鄰幾何信息的特征[8],本文所提特征具有更強(qiáng)的魯棒性,以及更好的自適應(yīng)分類能力。

1 預(yù)備知識

1.1 問題描述

假設(shè)存在兩個具有不同分布的域:源域(Source Domain, SD)和目標(biāo)域(Target Domain, TD)。SD包含m個來自c個類的樣本(圖片),其中第k個類有mk個樣本;TD包含n個來自相同類的樣本。令{ui|ui∈RN,i=1,2,…,m}表示所有源樣本,其中N表示向量維度。同樣,所有目標(biāo)域樣本可以表示為{vi|vi∈RN,i=1,2,…,n}。

對于無監(jiān)督域自適應(yīng)圖像分類問題,核心任務(wù)是在沒有目標(biāo)域標(biāo)簽信息的條件下,如何利用兩個域的樣本以及源域標(biāo)簽,構(gòu)建域間相關(guān)性,實(shí)現(xiàn)對目標(biāo)樣本的正確分類。

1.2 協(xié)同特征與最近鄰分類器

對于任意測試(目標(biāo))樣本vi,其協(xié)同特征(Collaborative Representation,CR)的求解過程可以歸結(jié)為以下優(yōu)化問題:

(1)

其中η是正則化系數(shù)。

最近鄰分類器是面向協(xié)同特征的專用分類器,其分類原理可用式(2)表達(dá):

(2)

其中:φ(z,k)=(0,0,…,zk,…,0)是一個模板函數(shù),其保留特征編碼z第k類所對應(yīng)位置上的系數(shù),同時將其他位置上的系數(shù)置為0。按照式(2)可知,整個分類過程由兩個步驟組成:

1)計(jì)算測試樣本在各個類別上的投影差:

ek=‖vi-Ukzk‖2;k=1,2,…,c

2)根據(jù){ek|k=1,2,…,c},選擇其中投影差最小的類別輸出為預(yù)測類別標(biāo)簽。

2 目標(biāo)局部近鄰協(xié)同特征

假設(shè)X=[x1,x2,…,xi,…,xm],為源樣本{ui}的SURF特征按類別存放所構(gòu)成的矩陣(其中xi∈RM);Y={yi|yi∈RM,i=1,2,…,n}是目標(biāo)樣本{vi}的SURF特征。目標(biāo)局部近鄰協(xié)同特征(Target Collaborative Local-neighbor Representation, TCLR)可以通過優(yōu)化以下目標(biāo)函數(shù)得到:

(3)

F相對于z的偏導(dǎo)數(shù)為:

(4)

其中:T表示轉(zhuǎn)置;I是單位矩陣;B=D⊙D,⊙表示矩陣對應(yīng)元素相乘。

在先前的方法中,與TCLR最相關(guān)的工作是文獻(xiàn)[8]提出的TCNNR特征。與之相比,TCLR特征具有兩個明顯的不同之處:1)如式(3)右側(cè)第一項(xiàng)所示,距離樣本y最近的K個樣本來輔助特征編碼生成。相對于TCNNR所采用的最近鄰信息,TCLR所使用的局部近鄰信息對y鄰域具有更準(zhǔn)確的刻畫能力。2)與TCNNR不同,TCLR基于鄰域信息的正則化方案額外地加入了樣本y(式(3)右側(cè)第二項(xiàng))。通過這一改進(jìn),TCLR所引入的局部近鄰約束具有更強(qiáng)的指向性。

2.1 局部近鄰目標(biāo)域樣本搜索方法

從上面的介紹知道,準(zhǔn)確構(gòu)建目標(biāo)樣本的局部近鄰信息的關(guān)鍵是找到距離它最近的三個目標(biāo)域樣本。本文采用基于核函數(shù)的相似度計(jì)算方案來實(shí)現(xiàn)樣本搜索。

假設(shè)存在歐氏空間E∈RL和Hilbert空間H∈RG(L?G);ψ是一個從E到H的隱含非線性映射。那么, Mercer核函數(shù)可以表示為:

k(a,b)=〈ψ(a),ψ(b)〉H=ψ(a)Tψ(b)

其中:a,b∈E;〈·,·〉H表示H中內(nèi)積。空間E中,任意兩樣本的相似度可按照下式計(jì)算:

那么,對于目標(biāo)樣本vi,距離其最近的第k(k=1,2,…,K)個目標(biāo)域樣本ycn_k的序號可通過式(5)確定:

(5)

從上面可以看到,相似度計(jì)算是使用原始圖片,而不是SURF(Speed-Up Robust Features)特征。主要原因是,作為統(tǒng)計(jì)特征,SURF丟失了空間位置信息,因此,基于它的相似計(jì)算準(zhǔn)確度不高。在算法實(shí)現(xiàn)過程中,本文采用RBF(Radial Basis Function)作為核函數(shù),其表達(dá)式如下所示:

2.2 基于TCLR特征的分類算法

基于TCLR的分類算法包括四個主要部分:1)提取樣本的SURF特征;2)構(gòu)建目標(biāo)樣本的局部近鄰幾何信息;3)特征編碼;4)分類。算法具體步驟如下。

3 實(shí)驗(yàn)與分析

3.1 數(shù)據(jù)集

本文采用文獻(xiàn)[8]提供的辦公室場景數(shù)據(jù)集進(jìn)行分類實(shí)驗(yàn),該數(shù)據(jù)集被廣泛地用于域自適應(yīng)分類方法[9-12]的評估。數(shù)據(jù)集共含有2 533張圖片樣本,分別來自Amazon(A)、Webcam(W)、Dslr(D)、Caltech(C) 4個子集。每個子集包含10個相同類別: 01-BackPack、 02-Bicycle、 03-Calculator、04-HeadPhone、05-ComputerKeyboard、06-LaptopComputer、07-ComputerMonitor、08-ComputerMouse、09-CoffeeMug、10-VideoProjector。在這四個子集中,Amazon由來自Amazon公司用于在線銷售的展示圖片構(gòu)成,幾乎沒有背景噪聲;Caltech由自然環(huán)境中拍攝的照片構(gòu)成,具有較強(qiáng)的環(huán)境噪聲;Webcam與Dslr中的圖片分別由低分辨率的網(wǎng)絡(luò)攝像頭和高清相機(jī)拍攝得到。圖1展示了一些來自該數(shù)據(jù)集的示例圖片。

圖1 分類實(shí)驗(yàn)數(shù)據(jù)集樣例圖片

3.2 分類實(shí)驗(yàn)結(jié)果

在實(shí)驗(yàn)過程中,距離目標(biāo)樣本最近的K=3個目標(biāo)域樣本被用來近似表達(dá)局部近鄰幾何信息。實(shí)驗(yàn)發(fā)現(xiàn)在本文的實(shí)驗(yàn)數(shù)據(jù)集上,當(dāng)K≥4,如要保證較好的分類性能,則需要為距離較遠(yuǎn)的目標(biāo)域樣本ycn_k(k≥4)設(shè)置較小的加權(quán)系數(shù)。換言之,較遠(yuǎn)的目標(biāo)域樣本對準(zhǔn)確刻畫幾何鄰域作用十分有限。而選擇K=2的方案則存在和文獻(xiàn)[8]類似的問題:對于鄰域描述不充分。具體地,在實(shí)驗(yàn)中,與鄰域信息表達(dá)相關(guān)的算法參數(shù)分別為:μ=0.375,K=3,w1=0.5,w2=0.4,w3=0.1。

為了驗(yàn)證本文方法的有效性,本文在上述數(shù)據(jù)集上做了8個自適應(yīng)分類實(shí)驗(yàn)。7個典型的域自適應(yīng)方法被選擇作為對比方法,這些方法包括:TSL(TransferSubspaceLearning)[13]、TCA(TransferComponentAnalysis)[14]、SGF(SubspacesinGeodesicFlow)[5]、GFK(GeodesicFlowKernel)[6]、CR、CNRC(CollaborativeNeighborRepresentationClassifier)[7]、TCNNR[8],其中CR作為基線。這些方法可分為三類:第一類,包括TSL、TCA,是基于概率匹配的方法;第二類,包括SGF、GFK,是基于流形的方法;第三類,包括CR、CNRC、TCNNR,是基于協(xié)同特征的方法,其中CR方法使用的協(xié)同特征所對應(yīng)的目標(biāo)函數(shù)如式(1)所示。為方便敘述,本文方法被記為TCLR。

表1給出了對比實(shí)驗(yàn)結(jié)果,其中,總體分類準(zhǔn)確率rtol按照式(6)計(jì)算:

(6)

其中:n是目標(biāo)域樣本的總數(shù);li是由算法得到的第i個目標(biāo)域樣本vi的預(yù)測類別標(biāo)簽;li′是vi的真實(shí)類別標(biāo)簽;ctn(x,y)是計(jì)數(shù)函數(shù):當(dāng)x=y,ctn(x,y)=1;當(dāng)x≠y,ctn(x,y)=0。

從表1可以看到,與參照方法比較,TCLR在7/8的遷移實(shí)驗(yàn)上取得了最好的效果。相對于基線方法CR,TCLR在所有遷移實(shí)驗(yàn)上有大幅度的性能提升(平均提高了約34個百分點(diǎn)),特別是在D-W上,分類準(zhǔn)確率相對提高了約275%。相對于方法GFK,TCLR在D-A上的準(zhǔn)確率有小幅下降(1.7個百分點(diǎn)),在除此之外的其他遷移實(shí)驗(yàn)上都取得了較大的改進(jìn)(>8個百分點(diǎn))。因此,雖然在一個子實(shí)驗(yàn)(D-A)上沒有取得最佳分類效果,但是從總體上講,TCLR比GFK具有更好的遷移性能。與剩余的5種參照方法相比,在所有遷移實(shí)驗(yàn)上,TCLR均取得了不同程度的性能改進(jìn)。其中,比排名第二的方法TCNNR,TCLR在平均準(zhǔn)確上有1.3個百分點(diǎn)的提高,特別地,A-W、C-W上的提升量約為2個百分點(diǎn)。從上述分析不難看出,TCLR在綜合遷移性能是最好的。

表1 各對比算法在8個自適應(yīng)分類實(shí)驗(yàn)上的總體分類準(zhǔn)確率 %

圖2展示了TCLR和第二好的方法TCNNR在10個類別上的分類準(zhǔn)確率。其中,在第k個類別的分類準(zhǔn)確率(rcls_k)計(jì)算公式如下所示:

其中:N=10表示類數(shù)目;lki和lki′分別表示第k類目標(biāo)域樣本的預(yù)測類別標(biāo)簽和真實(shí)類別標(biāo)簽;nk為目標(biāo)域樣本中屬于第k類的樣本總數(shù);函數(shù)ctn()與式(6)中的計(jì)數(shù)函數(shù)相同。

如圖2所示,TCLR在第2類上的準(zhǔn)確率為83%;第6、8、9、10類的準(zhǔn)確率小于20%,其中,第9類的準(zhǔn)確率為最低的14.3%;剩余的5類的準(zhǔn)確率均大于40%。相對于TCNNR,TCLR在9/10個類別上的分類準(zhǔn)確率不低于TCCNR。僅有第3類的準(zhǔn)確率有0.85%的下降;第4、6、9類的準(zhǔn)確率基本持平;在剩余的6個類上的準(zhǔn)確率都有明顯的提升。由分析可以知道,相對于TCNNR,TCLR自適應(yīng)分類性能的提高源自幾乎所有類別上準(zhǔn)確率的提升,而非個別類上孤立的改進(jìn)造成。該結(jié)果進(jìn)一步驗(yàn)證了本文方法的適用性。

圖2 TCLR方法與TCNNR方法在10個類別上分類準(zhǔn)確率

從第2章可知,TCLR的總計(jì)算時間由兩部分組成:1)尋找最近目標(biāo)域樣本;2)編碼。因?yàn)門CLR是線性編碼,所以編碼這部分耗時幾乎可以忽略。在具體的程序?qū)崿F(xiàn)中,TCLR利用3個步驟完成最近目標(biāo)域樣本尋找:1)全局相似度計(jì)算;2)排序;3)選取已排序隊(duì)列中前K個元素。因?yàn)槿窒嗨贫扔?jì)算與目標(biāo)域樣本空間的大小n成正比。所以,TCLR的總計(jì)算時間可以近似地表示為:TTCLR≈(n2/2)trem,其中trem表示一次相似計(jì)算的耗時。當(dāng)n不是很大時,TTCLR與同為線性方法的CR、CNRC、TCCNR相當(dāng),但要好于基于迭代的方法TSL、TAC、SGF、GFK;但是,當(dāng)n增大時,TCLR計(jì)算效率會快速下降。

3.3 分析

利用目標(biāo)樣本的局部幾何信息來輔助生成具有更強(qiáng)魯棒性的協(xié)同特征是本文的主要工作。本節(jié)主要探討哪種局部信息表述方式有助于自適應(yīng)分類性能提升,即如何恰當(dāng)?shù)剡x擇幾何信息表達(dá)參數(shù)θ=(μ,w),其中,μ表示所引入局部信息的強(qiáng)度,w=[w1,w2,w3]表示局部信息的組合方式。

首先,本文討論w取值對分類性能的影響。為此,3種不同的權(quán)值系數(shù)w取值方案([0.1,0.4,0.5],[1/3,1/3,1/3]和[0.5,0.4,0.1]) 將被采用,并分別進(jìn)行自適應(yīng)分類實(shí)驗(yàn),此時,μ=0.375。為了方便敘述,上述3種方案被分別記為H1、H2、H3。實(shí)驗(yàn)結(jié)果如表2所示。在所有實(shí)驗(yàn)上,H3的準(zhǔn)確率最高,H2次之,H3最低。實(shí)驗(yàn)結(jié)果表明,在選擇表達(dá)目標(biāo)樣本局部近鄰信息加權(quán)系數(shù)時,對于局部近鄰信息的準(zhǔn)確表達(dá),距離目標(biāo)樣本越近的目標(biāo)域樣本越為重要,應(yīng)該被分配更大的權(quán)重。

接下來討論本文算法對參數(shù)μ的敏感性,此時,加權(quán)系數(shù)w=[0.5, 0.4, 0.1]。圖3給出了當(dāng)μ∈(0,1)時,基于TCLR特征的分類方法在平均準(zhǔn)確率上的變化情況。如圖3所示,準(zhǔn)確率在μ=0.375附近取得最大值。當(dāng)μ≤0.375時,局部信息對性能提升有積極的作用;一旦超過這個閾值,局部信息會引起算法性能惡化。這表明算法性能并不是隨著所引入的局部信息強(qiáng)度的增加而持續(xù)提升的,所引入局部信息的強(qiáng)度需保持在合適的范圍內(nèi)。

表2 H1、H2、H3的總體分類準(zhǔn)確率 %

圖3 TCLR方法性能與局部信息強(qiáng)度的關(guān)系

4 結(jié)語

受流形學(xué)習(xí)思想的啟發(fā),本文針對自適應(yīng)圖像分類問題,提出了一種新的基于目標(biāo)域局部近鄰幾何信息的協(xié)同特征編碼。在編碼過程中,借助距離目標(biāo)樣本最近的三個目標(biāo)域樣本,通過加權(quán)的方式,局部近鄰信息被近似表達(dá)。實(shí)驗(yàn)結(jié)果表明所提特征能有效提高自適應(yīng)分類性能。最后,針對構(gòu)建目標(biāo)域局部近鄰信息的參數(shù)選擇問題作出討論。

雖然本文方法取得了較好的結(jié)果,但是它仍存在兩個方面的不足:其一,所有樣本的局部近鄰信息的構(gòu)建都是基于相同的參數(shù)θ;其二,在TCLR編碼過程中,為了尋找K個近鄰樣本,需要進(jìn)行多次比較,當(dāng)目標(biāo)域樣本空間很大時,這是比較耗時的。這也是本文方法存在的主要問題。針對以上兩個問題,未來工作將沿著以下兩條主線展開研究:1)為每個目標(biāo)樣本構(gòu)建差異化的鄰域信息表達(dá)方式;2)提出更快速的相似度計(jì)算方法。

References)

[1] 劉建偉, 孫正康, 羅雄麟. 域自適應(yīng)學(xué)習(xí)研究進(jìn)展[J]. 自動化學(xué)報(bào), 2014, 40(8):1576-1600.(LIU J W, SUN Z K, LUO X L. Review and research development on domain adaptation learning[J]. Acta Automatica Sinica, 2014, 40(8):1576-1600.)

[2] QIU Q, PATEL V, TURAGA R, et al. Domain adaptive dictionary learning [C]// ECCV 2012: Proceedings of 13st European Conference on Computer Vision. Berlin: Springer, 2012: 631-645.

[3] CHEN M, XU Z, WEINBERGER K, et al. Marginalized denoising autoencoders for domain adaptation [C]// ICML 2012: Proceedings of 29th International Conference on Machine Learning. New York: ACM, 2012:115-122.

[4] GONG B, GRAUMAN K, SHA F. Connecting the dots with landmarks: discriminatively learning domain-invariant features for unsupervised domain adaptation [C]// ICML 2013: Proceedings of 30th International Conference on Machine Learning. New York: ACM, 2013: 222-230.

[5] GOPALAN R, LI R, CHELLAPPA R. Domain adaptation for object recognition: an unsupervised approach [C]// ICCV 2011: Proceedings of 13rd International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 999-1006.

[6] GONG B, SHI Y, SHA F, et al. Geodesic flow kernel for unsupervised domain adaptation [C]// CVPR 2012: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 2066-2073.

[7] WAQAS J, ZHANG Y, ZHANG L. Collaborative neighbor representation based classification using l2-minimization approach [J]. Pattern Recognition Letters, 2013, 34(2): 201-208.

[8] TANG S, YE M, LIU Q, et al. Domain adaptation of image classification based on collective target nearest-neighbor representation [J]. Journal of Electronic Imaging, 2016, 25(3): 033006-033015.

[9] SAENKO K, KULIS B, FRITZ M, et al. Adapting visual category models to new domains[C]// ECCV 2010: Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2010: 213-226.

[10] NI J, QIU Q, CHELLAPPA R. Subspace interpolation via dictionary learning for unsupervised domain adaptation [C]// CVPR 2013: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 692-699.

[11] GONG B, GRAUMAN K, SHA F. Reshaping visual datasets for domain adaptation [EB/OL]. [2016- 05- 10].http://www.cs.utexas.edu/~grauman/papers/gong-NIPS2013.pdf.

[12] CUI Z, LI W, XU D, et al. Flowing on Riemannian manifold: domain adaptation by shifting covariance [J]. IEEE Transactions on Cybernetics, 2014, 44(12): 2264-2273.

[13] SI S, TAO D, GENG B, BREGMAN. Divergence-based regularization for transfer subspace learning [J]. IEEE Transactions on Knowledge Data Engineering, 2010, 22(7): 929-942.

[14] PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis [J]. IEEE Transaction on Neural Network, 2011, 22(2): 199-210.

This work is partially supported by the National Natural Science Foundation of China (61375038,61501073), the Science Fund for Distinguished Young Scholars of Chongqing (cstc2013jcyjjq40001), the Applied Basic Research Programs of Sichuan Science and Technology Department (2016JY0088).

TANG Song, born in 1982, Ph. D. candidate. His research interests include machine learning, neural network.

CHEN Lijuan, born in 1986, Ph. D. candidate. Her research interests include machine learning, dynamics stability.

CHEN Zhixian, born in 1988, Ph. D. candidate. His research interests include robotics intelligent control.

YE Mao, born in 1972, Ph. D., professor. His research interests include pattern recognition, neural network.

Domain adaptation image classification based on target local-neighbor geometrical information

TANG Song1,2, CHEN Lijuan1*, CHEN Zhixian3, YE Mao1

(1. School of Computer Science & Engineering, University of Electronic Science and Technology of China, Chengdu Sichuan 611731, China;2. Center of Analysis and Control for Complex Systems, Chongqing University of Posts and Telecommunications, Chongqing 400065, China;3. Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences, Shenzhen Guangdong 518055, China)

In many real engineering applications, the distribution of training scenarios (source domain) and the distribution of testing scenarios (target domain) is different, thus the classification performance decreases sharply when simply applying the classifier trained in source domain directly to the target domain. At present, most of the existing domain adaptation methods are based on the probability-inference. For the problem of domain adaptation image classification, a collaborative representation based unsupervised method was proposed from the view of image representation. Firstly, all of the source samples were taken as the dictionary. Secondly, the three target samples closest to the target sample in the target domain were exploited to robustly represent the local-neighbor geometrical information. Thirdly, the target sample was encoded by combining the dictionary and the local-neighbor information. Finally, the classification was completed by using the nearest classifier. Since the collaborative representations have stronger robustness and discriminative ability by absorbing the target local-neighbor information, the classification method based on the new representations has better classification performance. The experimental results on the domain adaptation dataset confirm the effectiveness of the proposed method.

domain adaptation; manifold; target local-neighbor information; collaborative representation; image classification

2016- 09- 05;

2016- 12- 21。 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61375038,61501073);重慶市杰出青年基金資助項(xiàng)目(cstc2013jcyjjq40001);四川省應(yīng)用基礎(chǔ)研究計(jì)劃項(xiàng)目(2016JY0088)。

唐宋(1982—),男,四川成都人,博士研究生,主要研究方向:機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò); 陳利娟(1986—),女,山西大同人,博士研究生,主要研究方向:機(jī)器學(xué)習(xí)、動力系統(tǒng)穩(wěn)定性; 陳志賢(1988—),男,河北井陘人,博士研究生,主要研究方向:機(jī)器人智能控制; 葉茂(1972—),男,重慶人,教授,博士,主要研究方向:模式識別、神經(jīng)網(wǎng)絡(luò)。

1001- 9081(2017)04- 1164- 05

10.11772/j.issn.1001- 9081.2017.04.1164

TP181

A

猜你喜歡
分類特征實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
分類算一算
如何表達(dá)“特征”
做個怪怪長實(shí)驗(yàn)
不忠誠的四個特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
主站蜘蛛池模板: AV不卡无码免费一区二区三区| 五月婷婷综合在线视频| 亚洲天堂.com| 国产激爽爽爽大片在线观看| 国产成人精品一区二区秒拍1o| 亚洲欧洲自拍拍偷午夜色无码| 国产精品高清国产三级囯产AV| 日韩专区第一页| 婷婷六月色| 国产精品无码AV片在线观看播放| 国产麻豆另类AV| a毛片在线免费观看| 国产精品国产主播在线观看| 亚洲欧美成人影院| 国产凹凸视频在线观看| 午夜性刺激在线观看免费| 91精品专区| 日韩成人免费网站| 国产9191精品免费观看| 免费无码一区二区| 一本大道香蕉中文日本不卡高清二区 | 自慰高潮喷白浆在线观看| 成人免费午间影院在线观看| 亚洲成人网在线观看| 国产sm重味一区二区三区| 欧美日韩综合网| 九色最新网址| 亚洲av无码久久无遮挡| 欧美激情综合| 97se亚洲综合在线| 欧美翘臀一区二区三区| 国产在线视频导航| 无码日韩人妻精品久久蜜桃| 香蕉网久久| 日韩在线欧美在线| 日韩av高清无码一区二区三区| 亚洲欧美激情小说另类| 久久久久人妻一区精品色奶水 | 国产福利在线免费观看| 亚洲第一区在线| 久久一本日韩精品中文字幕屁孩| 免费国产无遮挡又黄又爽| 波多野结衣一区二区三视频| 一本大道香蕉久中文在线播放| 亚洲大学生视频在线播放| 欧美在线视频不卡第一页| 国产婬乱a一级毛片多女| 免费国产小视频在线观看| 99一级毛片| 亚洲国产日韩视频观看| 国产女人综合久久精品视| 超清无码熟妇人妻AV在线绿巨人| 国内毛片视频| 日韩成人在线视频| 国产黄色免费看| 国产97视频在线观看| 在线观看视频99| 国产丝袜啪啪| 人妻无码AⅤ中文字| 精品第一国产综合精品Aⅴ| 亚洲va视频| 欧美成人午夜视频免看| 免费看美女自慰的网站| 黄色一级视频欧美| 欧美激情伊人| 九九热精品在线视频| 亚洲成人网在线播放| 国产午夜在线观看视频| 国产成a人片在线播放| 成人日韩精品| 一区二区三区国产精品视频| 亚洲视频在线观看免费视频| 少妇精品久久久一区二区三区| 国产成人高清在线精品| 亚洲人成人伊人成综合网无码| 国产SUV精品一区二区| 欧美无专区| 一级不卡毛片| 久久精品这里只有国产中文精品| 中文字幕在线看| 狠狠色丁香婷婷| 亚洲成人黄色在线观看|