摘要:在行人重識別領域,如何快速在一個新城市進行行人重識別系統(tǒng)的部署為行人重識別領域帶來了巨大的挑戰(zhàn)。一般情況下,在新城市中沒有足夠的標注數(shù)據(jù)來訓練一個強大的行人重識別模型,只能依賴少量由目擊者提供的罪犯照片。首次對該實際應用場景進行正式研究,將其定義為跨領域小樣本行人重識別問題,并仔細討論分析其與現(xiàn)有行人重識別場景的異同。隨后,提出一種基于影響函數(shù)的樣本權(quán)重法來指導模型的訓練,并在三個公開數(shù)據(jù)集Market、Duke和CUHK上對方法進行實驗對比。實驗結(jié)果表明,該方法可以有效地處理不同數(shù)據(jù)集之間的偏置,性能也超過了已有方法。
關鍵詞:行人重識別;小樣本學習;智慧安防
中圖分類號:TP393.04文獻標志碼:A
文章編號:1001-3695(2022)04-048-1242-05
doi:10.19734/j.issn.1001-3695.2021.07.0331
Influence function based method on cross-domain few-shot person Re-ID problem
Dai Xili,Wu Yang,Gong Haigang,Liu Ming
(School of Computer Science amp; Engineering,University of Electronic Science amp; Technology of China,Chengdu 611731,China)
Abstract:In person re-identification(Re-ID) community,how to deploy a Re-ID system quickly in a new city to help the police catch a criminal is a challenging task.In general,the new cities don’t have enough labelled data to train an excellent model,only relying on a tiny number of criminals’ pictures provided by witnesses.This paper firstly formulated the scenario as a cross-domain few-shot problem and discussed the difference between conventional supervised Re-ID and unsupervised Re-ID.Then it introduced a re-weighting instance method based on influence function to guide the training procedure of the Re-ID model.Finally,it evaluated the proposed method on public datasets including Market,Duke,and CUHK.Extensive experimental results show that the method can effectively address the domain bias of different datasets and the absence of labelled data on the target dataset,achieving the state of the art.
Key words:person Re-ID;few-shot learning;intelligent security
智慧城市、城市大腦等項目近年來在國內(nèi)外受到了廣泛的關注,尤其在國內(nèi)吸引了各領域?qū)W者[1]。其中智慧安防是智慧城市的重要一環(huán),也是近年來人工智能場景落地的重要賽道,而行人重識別問題則是智慧安防下的主要研究重點。行人重識別是一個跨設備的圖像檢索問題,即給定待檢索行人圖片,從數(shù)據(jù)庫中找出與其匹配的其他行人[2]。近年來,基于深度學習的監(jiān)督方法在行人重識別領域取得了巨大的發(fā)展[3~5]。這促使基于行人重識別的視頻監(jiān)控系統(tǒng)被大規(guī)模應用于城市安防等領域。基于行人重識別的輔助視頻監(jiān)控系統(tǒng)可以大大提高公安部門刑偵工作的效率,但是這樣一套系統(tǒng)在部署到不同城市時,需要根據(jù)不同城市的環(huán)境條件進行重新定制,即在當?shù)刂匦虏杉瘮?shù)據(jù)標注并進行訓練,這使得行人重識別系統(tǒng)的部署成本變得十分高昂。
近年來,一些關于無監(jiān)督領域自適應[6~14]、半監(jiān)督[15,16]、小樣本學習[17~19]等方法被用于解決行人重識別系統(tǒng)的擴展性問題,但是都收效甚微。本文研究行人重識別系統(tǒng)部署中的一個具體場景(本文將對該場景進行具體描述并給出明確定義)。該場景為跨領域小樣本行人重識別問題,該問題可視為無監(jiān)督行人重識別問題的特例,并且有許多無監(jiān)督的方法可以直接應用到該問題[6~10],但是這些方法無法利用目標域上的少量標注樣本,這將大大降低模型性能。文獻[15,16]分別提出小樣本訓練方法,可以直接應用于本問題,但是它們忽略了源域的大量標注數(shù)據(jù)。因此,本文首先給出了關于跨領域小樣本行人重識別問題的正式定義并討論了該問題與其他現(xiàn)有問題的異同。受文獻[21]啟發(fā),本文提出了基于影響函數(shù)的樣本加權(quán)算法。該算法引入一統(tǒng)計模型作為影響函數(shù)來度量源域與目標域樣本之間的影響程度。
1跨領域小樣本行人重識別問題定義
在行人重識別系統(tǒng)部署問題中,本文假設一種情景:已知城市A和城市B,城市A部署了完善的行人重識別系統(tǒng),城市B沒有部署行人重識別系統(tǒng)。此時在城市B中發(fā)生一起犯罪事件,警察得到了少量罪犯的照片信息。警察想要借助行人重識別系統(tǒng)獲取罪犯的行蹤,然而城市B中并未部署行人重識別系統(tǒng),僅有攝像頭網(wǎng)絡以及拍攝的海量行人數(shù)據(jù),這些數(shù)據(jù)沒有真實的標簽信息,因此警察希望借助城市A的行人重識別系統(tǒng)來幫助追蹤罪犯。但是,城市A和B的視頻監(jiān)控系統(tǒng)存在一定的差異性(包括攝像機的參數(shù)、光照條件和季節(jié)環(huán)境等),在城市A的數(shù)據(jù)集上表現(xiàn)良好的模型并不能直接遷移到城市B的數(shù)據(jù)集中。因此,本文希望設計一種算法,能有效利用城市A帶有真實標記信息的數(shù)據(jù)集以及城市B少量目擊者提供的罪犯照片,在無標記信息的城市B的數(shù)據(jù)集中查找罪犯信息。
本章對跨域小樣本行人重識別問題作出如下定義:給定一個目標域Dt={xti}Ni=1,其由大量的來自城市B的監(jiān)控系統(tǒng)的行人圖像組成,這些圖像不帶有標記信息。除此之外,還有一個來自目標域、由M張罪犯圖片組成的支持集(support set)Dr={(xri,yri)}Mi=1,其中M的值遠遠小于N(Mlt;lt;N)。M不是一個常量,因為不能保證罪犯出現(xiàn)在監(jiān)控視頻中的次數(shù)是相同的。除此之外,還有一個輔助的來自城市A的數(shù)據(jù)集(源域)D={D1,D2,…,Dp},其中p表示輔助數(shù)據(jù)集的個數(shù)。在該問題中,目標域中的行人圖像xti都已被行人檢測模型(如Faster R-CNN)檢測,罪犯圖像用xti表示,其對應的身份信息用yri表示。D和Dt、Dr是不同的域。目標是借助數(shù)據(jù)集D和Dr,在數(shù)據(jù)集Dt中尋找罪犯的其他信息。
2相關工作
近年來,深度學習飛速發(fā)展。然而深度學習方法同樣存在劣勢,其需要依賴海量的帶有真實標記信息的數(shù)據(jù)進行模型訓練。在行人重識別領域,如前文所述,大部分行人重識別的數(shù)據(jù)缺少真實的標記信息,并且對行人數(shù)據(jù)進行數(shù)據(jù)標注是一項十分復雜的任務,因此僅僅依靠深度學習去解決跨域小樣本行人重識別問題是行不通的。目前的研究工作嘗試借助遷移學習解決跨域行人重識別問題[11]。遷移學習是利用任務、數(shù)據(jù)或者模型間的相似性,將源域的模型轉(zhuǎn)移到目標域的過程。在遷移學習中,源域和目標域的數(shù)據(jù)分布不同,并且遷移到目標域中的模型不需要從頭開始訓練,在一定程度上可以降低目標域?qū)擞浶畔⒌男枨螅瑴p少訓練時間。在上文假設的情景中,可以將城市A的帶有真實標記信息的數(shù)據(jù)集作為源域,將城市B的沒有真實標記信息的數(shù)據(jù)集作為目標域,可以借助帶有真實標記信息的罪犯樣本的預測結(jié)果改變源域中樣本的權(quán)重,進而對模型進行更新訓練。因此,基于樣本的遷移學習可以用來解決跨域小樣本行人重識別問題,但是由于本文問題的新穎性,并沒有現(xiàn)成的遷移學習方法可以直接應用于本問題。此外,還有一些關于無監(jiān)督領域自適應[6~14]、 半監(jiān)督[15,16]、小樣本學習[17~19]等方法也與本問題高度相關。
無監(jiān)督領域自適應這一類工作通過建模不同數(shù)據(jù)領域之間的差異性來完成模型的遷移。其大體思想為,首先在源數(shù)據(jù)域上訓練得到一個基礎模型;隨后利用該基礎模型對目標域進行識別得到目標域訓練集偽標簽;最后利用偽標簽對模型進行進一步微調(diào)。該類方法無法利用目標域中的有標簽樣本。另外,半監(jiān)督、小樣本學習等會假定目標域的訓練集有少量帶標簽樣本,這種假設與本文非常接近,但是也不盡相同。因此,針對此類特殊假設,本文提出基于影響函數(shù)的樣本加權(quán)算法。
3基于影響函數(shù)的樣本加權(quán)算法
為了解決跨域小樣本行人重識別問題,本文提出一種基于影響函數(shù)的樣本權(quán)重算法(re-weighting instance method based on influence function,RIMIF),該算法可以有效利用輔助的數(shù)據(jù)集(源域)信息。考慮到支持集Dr取樣自目標域Dt,兩者有相同的數(shù)據(jù)分布,所以在一定程度上可以使用支持集來表示目標域。首先,將支持集Dr作為一個模板,每個模板的樣本都包括圖像信息xri和對應的標簽信息yri。然后借助模板,從輔助的源域中選擇可靠(與目標域相似)的樣本來更新模型。本章將對跨域小樣本行人重識別的方法進行介紹。首先介紹算法設計的動機,然后介紹改進后的影響函數(shù),最后基于遷移學習提出了一種樣本權(quán)重分配方法。
3.1算法推導
與小樣本學習不同,本文假設的問題并沒有“k-way N-shot”的約束,這意味著不能使用小樣本學習方法。取而代之的是本文可以利用遷移學習。假設的場景主要涉及兩個問題,即跨域(不同的城市)以及目標域僅有少量的帶有真實標記信息的樣本(罪犯的圖片)。
假設z=(z1,z2,…,zn)表示n個源域中的訓練樣本,其相應的權(quán)重為w=(w1,w2,…,wn),zsupport=(zsupport 1,zsupport 2,…,zsupport m)表示m個支持集的樣本,得到
θw,z
=defargminθ∈Θ1n∑ni=1L(zi,θ)+∑ni=1wiL(zi,θ)(1)
其中:式(1)表示源域中需要進行加權(quán)的n個樣本;L(z,θ)為模型經(jīng)驗風險函數(shù),通過最小化風險經(jīng)驗函數(shù)以及加權(quán)后的風險經(jīng)驗函數(shù),得到最優(yōu)模型參數(shù)θw,z
。同時,需要選擇最佳的樣本權(quán)重w,使得最優(yōu)模型參數(shù)θw,z
可以使模型在支持集數(shù)據(jù)zsupport上經(jīng)驗風險函數(shù)值最小。由此,本文得到式(2)。
w^=defarg minw1m∑mi = 1L(zsupporti,θw,z
)(2)
當L(zsupport,θw,z
)是凸函數(shù)且對于wi二階可導時,可以通過L(zsupport,θw,z
)wi=0的方式來求解。然而,這樣的計算過程十分復雜,很難準確獲得結(jié)果。為了能夠簡化運算,使用一階梯度下降來近似得到w
。通過wi
≈-η·L(zsupport,θw,z
)wi|wi=0估算每一個wi
,其中η為步長。此時,式(2)已通過一步梯度下降方式得到近似。隨后,根據(jù)鏈式法則,可以將經(jīng)驗函數(shù)L(zsupport,θw,z
)對權(quán)重w的導數(shù)按式(3)展開。
L(zsupport,θw,z
)wi|wi=0=L(zsupport,θw,z)θw,zθw,z
wi(3)
式(3)中右邊第一項可以通過鏈式法則直接求得,第二項則無法直接計算。由于式(1)是影響函數(shù)的一種形式,并且當L(z,θ)是凸函數(shù)且對于θ二階可導時,θw,z
wi存在閉解。
3.2影響函數(shù)的閉解
定義θ
,
=argminθ1n∑ni=1L(zi,θ)+
L(z,θ)為任意樣本z的影響函數(shù),假設有n個訓練樣本z1,…,zn,以及參數(shù)為θ的模型,某個樣本z對模型參數(shù)的定量影響定義為θ-z
-,其中=argminθ1n∑ni=1L(zi,θ)為經(jīng)驗風險函數(shù)下模型參數(shù)θ的最優(yōu)解,L(z,θ)為模型經(jīng)驗風險函數(shù);θ-z
=argminθ1n∑zi≠zL(zi,θ)為經(jīng)驗風險函數(shù)下不考慮樣本z的模型參數(shù)θ的最優(yōu)解。當
=-1n時,θ
,z
=θ-z
。
dθ
,z
d
|
=0=-H-1θL(z,)(4)
其中:H=1n∑ni=12θL(zi,)是經(jīng)驗風險的Hessian矩陣,并且假設為正定矩陣。式(4)的推導細節(jié)可在文獻[21]中找到。
3.3基于影響函數(shù)的算法改進
根據(jù)3.2節(jié)結(jié)論可知,式(1)存在閉解如下:
dθw,z
dwi|
=0=-H-1θL(z,)(5)
于是,將式(5)代入式(3)得到如下源域訓練集樣本的權(quán)重策略式(6)。
wi
≈-η·L(zsupport,θw,z
)wi|wi=0=-ηL(zsupport,θw,z
)θw,z
H-1θL(z,θ^)(6)
然而,式(6)中涉及到Hessian逆矩陣的計算,計算量極大。為了避免Hessian矩陣的計算,本文將式(1)也通過一步梯度下降進行近似,同時簡化式(1)只保留第二項加權(quán)項,于是得到如下θw,z
的近似解。
θw,z
=-β(∑ni=1wiL(zi,))(7)
至此,新的源域樣本權(quán)重策略如下:
wi
≈-ηL(zsupport,θw,z
)wi|wi=0=
ηβθw,z
L(zsupport,θw,z
)TL(zi,)(8)
在式(8)中,wi
可以看做是兩個梯度計算的內(nèi)積,不一定是非負的。因此,可以對每個wi
進行歸一化,計算過程如式(9)所示。其中,r(wi
)的計算過程如式(10)所示,α可以作為一個影響因子。式(10)表明可以先將wi
的負數(shù)轉(zhuǎn)變?yōu)?,然后使用softmax函數(shù)將其歸一化。
wi=eα·r(wi
)∑ieα·r(wi
)(9)
r(wi
)=max{0,wi
∑imax{0,wi
}}(10)
接下來對式(9)進行詳細解釋。因為支持集與源域的訓練集存在差異,支持集θw,z
L(zsupport,θw,z
)T和某些源域的樣本L(zi,)的梯度間可能存在一些較大的夾角。也就是說,wi
可以是負數(shù),可以通過式(10)計算得到數(shù)值0。從實驗中發(fā)現(xiàn),w
中超過一半的元素將被轉(zhuǎn)變?yōu)?。盡管希望模型能夠?qū)W⒂谝恍┨卣飨嗨频臉颖荆谙蛄縭(w
)中的許多零值會使模型容易得到非最優(yōu)的局部最小值。因此,需要減少相似樣本(r(wi
)gt;0)和不相似樣本(r(wi
)=0)的權(quán)重之間的差異。同時,不相似的樣本是有存在意義的,不相似的樣本可以提供關于行人重識別任務的先驗知識,并且可以防止模型過擬合。通過eα·r(wi
)可以防止模型丟棄特征不相似的樣本,其中α是可以控制關系的影響因子。
對基于樣本權(quán)重分配方法的算法步驟進行總結(jié)概括,并將其簡稱為RIMIF算法。假設Z是一個包含支持集zsupport的源訓練集,其中支持集zsupport和測試集ztest來自不同的域。在階段1中,使用傳統(tǒng)的深度學習最優(yōu)化方法Adam(adaptive moment estimation)算法得到=defargminθ∈Θ1n∑ni=1L(zi,θ)的最優(yōu)解。在階段2中,分別從Z和zsupport中采樣得到兩個樣本Zmini和zsupportmini,然后基于式(8)、Zmini和zsupportmini計算wi
=-ηL(zsupportmini,θw,zmini
)wi|wi=0。此外,通過式(9)對wi
進行歸一化。最后,使用來計算∑|zmini|i=1wiL(zi,),然后使用梯度下降法更新。重復階段2的所有步驟,直至模型收斂。
算法1RIMIF算法流程
輸入:參數(shù)為θ的卷積神經(jīng)網(wǎng)絡模型(本實驗為ResNet50),交叉熵損失函數(shù)L(z,θ)。
輸出:可遷移的網(wǎng)絡模型。
a)階段1:通過Adam算法和損失函數(shù)L(z,θ)對模型進行訓練,使得=defargminθ∈Θ1n∑ni=1L(ztrain i,θ)成立。
b)階段2:準備數(shù)據(jù)Z、zsupport和;
c)從Z、zsupport中分別取樣Zmini和zsupportmini。
d)基于Zmini、zsupportmini和式(8)計算。
e)基于式(10)進行后續(xù)處理。
f)使用計算∑ni=1wiL(zi,),然后利用梯度下降更新。
g)重復步驟c)~f),直到收斂到。
對于RIMIF算法而言,階段2的計算過程十分復雜,計算時間較長,每次迭代計算的所用時間大約是階段1所用時間的2倍。這種情況可以從式(8)中得知,在計算θw,z
L(zsupport,θw,z
)T時需要一個額外的前向和后向計算過程。不過值得慶幸的是,階段2的迭代次數(shù)要遠遠少于階段1。
4實驗結(jié)果分析
本實驗主要包含三部分:a)數(shù)據(jù)集、評價指標以及模型訓練參數(shù);b)實驗驗證RIMIF算法的有效性;c)將RIMIF算法作為插件來提升其他無監(jiān)督行人重識別算法并與原始版本進行實驗比較。
4.1數(shù)據(jù)集和實驗設置
1)數(shù)據(jù)集為了模擬不同城市的數(shù)據(jù)分布,在本實驗中選取常用的三個不同行人重識別數(shù)據(jù)集,即Market-1501[21]、DukeMTMC-ReID[5]和CUHK[22~24]。Market-1501共包含1 501個行人的總共32 668張圖片,其中751個行人身份的12 936張圖片作為訓練集,剩余750個行人身份的19 732張圖像作為測試集。DukeMTMC-ReID是數(shù)據(jù)集DukeMTMC的子集,其中訓練集由702個行人身份的16 522張圖片構(gòu)成,測試集包含另外702個行人身份的19 889張圖片。CUHK包含三個不同的數(shù)據(jù)集CUHK01(971個行人身份,3 884張圖片,手動標注)[22]、CUHK02(1 816個行人身份,7 264張圖片,手動標注)[23]、CUHK03(1 360個行人身份,13 164張圖片,手動標注+自動檢測)[24]。以上數(shù)據(jù)集均采用其官方劃分方式。行人重識別問題下,所有測試集都包含請求集(query set)和被檢索集(gallery set)。由于數(shù)據(jù)集Market-1501、DukeMTMC-ReID和CUHK的采集地不同,并且有不同的攝像機參數(shù)和光照條件,所以可以當成不同的數(shù)據(jù)領域(即不同的數(shù)據(jù)分布),符合本文提出的場景。
2)評價指標結(jié)合第1章的跨領域小樣本行人重識別問題定義,如將DukeMTMC-ReID視為城市A的數(shù)據(jù)集,將Market-1501作為城市B的數(shù)據(jù)集,即DukeMTMC-ReID作為輔助的源域,Market-1501數(shù)據(jù)集作為目標域。隨機從Market-1501中的請求集選擇包含K個行人身份信息的M張圖片作為支持集(M張圖片中每個行人出現(xiàn)的次數(shù)不同),連同Market-1501的被檢索集一起作為測試集。本文記錄mAP和rank-1指標。
3)實驗設置本實驗使用的基準模型借鑒Luo等人[25]的研究工作,將源域中的訓練集和支持集組合形成一個新的訓練集。在每次迭代過程中,在新的訓練集中隨機選取128張圖片,在支持集中選取192張圖片。如果支持集的圖片數(shù)量小于192,使用全部樣本即可,不需要補充。通過支持集的表現(xiàn),對模型進行微調(diào),輪次為60。在整個訓練過程中,學習率始終保持在3.5×10-6。
4.2對比方法
為證明RIMIF的有效性及訓練集、支持集對實驗的影響,除RIMIF外,分別設置三組對比實驗。另外三種方法具體描述如下:
實驗1:在整個訓練過程中,模型僅僅在訓練集上訓練。完整的訓練輪次為180。初始學習率為3.5×10-4,學習率衰減系數(shù)為0.1,衰減間隔為60輪次。
實驗2:在整個訓練過程中,模型僅僅在支持集上訓練。完整的訓練輪次為3 000。初始學習率為3.5×10-4,學習率衰減系數(shù)為0.1,衰減間隔為1 000輪次。由于支持集樣本數(shù)量少,根據(jù)少樣本學習領域的訓練經(jīng)驗[17],所需總訓練輪次更長。
實驗3:在整個訓練過程中,模型同時在支持集和訓練集上訓練。完整的訓練輪次為180。初始學習率為3.5×10-4,學習率衰減系數(shù)為0.1,衰減間隔為60輪次。
1)單源域?qū)嶒灲Y(jié)果表1中所有實驗結(jié)果均被重復實驗10次并取其平均值。第二列“size”表示支持集中行人身份的數(shù)量。從表1中的結(jié)果可以看出,本文提出的RIMIF算法顯著優(yōu)于其他算法。其中實驗1的mAP指標僅有20上下,說明Duke和Market兩個數(shù)據(jù)域之間存在極大差異。實驗2相較于實驗1在指標上有大幅度提升,說明了相同數(shù)據(jù)域訓練的重要性,然而其性能依然無法滿足本任務的需求。實驗3為RIMIF算法的一部分,也是在本文提出的場景下最直接的解決策略,通過比較RINIMI算法和實驗3,可以充分說明RIMIF算法的有效性。當源域為Duke,目標域為Market時,RIMIF算法在不同數(shù)量的行人身份上可以比實驗3在mAP這個指標上平均高出1個點。相反,當源域為Market,目標域為Duke時,RIMIF可以比實驗3平均高出2個點。
2)多源域?qū)嶒灲Y(jié)果RIMIF方法的一個優(yōu)勢是可以非常自然地利用多個數(shù)據(jù)輔助數(shù)據(jù)域。在表1的基礎上,本文選擇50個行人身份作為基準,在此基礎上分別加入CUHK01、02、03數(shù)據(jù)集來對比實驗1~3以及RIMIF的性能變化。表2中(1)(2)(3)分別代表數(shù)據(jù)集CUHK01、CUHK02、CUHK03。同樣,表2中所有實驗結(jié)果均被重復實驗10次并取其平均值。其中,由于增加源域數(shù)據(jù)集并不會改變支持集,所以實驗2的mAP以及rank-1指標在表2中不會改變。從表2的結(jié)果可以看出RIMIF算法的有效性。
4.3RIMIF算法擴展性對比
合并RIMIF與無監(jiān)督行人重識別算法PUL以及半監(jiān)督行人重識別算法One-Example,驗證RIMIF算法的可擴展性。
PUL算法[26]過程如下:該算法首先在源域上通過有監(jiān)督方式訓練得到一個模型;隨后利用該模型在目標域訓練集上進行預測,得到該訓練集的偽標簽;最后再利用該偽標簽訓練集對模型進行微調(diào)。本文利用RIMIF算法,在最后模型微調(diào)過程對偽標簽數(shù)據(jù)進行加權(quán),即使得模型可以進一步根據(jù)源域數(shù)據(jù)集對偽標簽數(shù)據(jù)進行進一步篩選。
One-Example算法[15]過程如下:首先,僅使用非常少量的目標域訓練集上的帶標注樣本訓練一個模型;隨后利用訓練好的模型為剩余訓練集數(shù)據(jù)預測偽標簽;根據(jù)預測概率,選擇可信度高的偽標簽樣本進行進一步訓練。在算法初始階段,只有預測概率最高和最簡單的樣本會被用來微調(diào)模型。在隨后的訓練過程,再不斷地加入剩余偽標簽樣本及難樣本。由于One-Example算法只針對目標域設計,所以無法利用源域數(shù)據(jù)。為此,本文利用RIMIF算法,為源域樣本進行加權(quán)。
支持集大小為50個行人身份,表3中PUL和One-Example算法的mAP和rank-1指標都遠高于其論文中所報告的,原因在于本實驗測試集中的請求集遠小于其他論文。從表3中的結(jié)果可以看出,加入RIMIF算法之后的PUL以及One-Example都比原始版本在性能上有大幅度的提升。
4.4實例可視化
圖1和2是對RIMIF方法的一個可視化。其中圖1可視化并對比了表1中size為50、目標域為Market(source為Duke)的結(jié)果,1~4行分別為實驗1~3,以及RIMIF在同一個query樣本上的前9個重識別結(jié)果。黃色框以及藍色框標出了識別錯誤的結(jié)果(見電子版)。圖2可視化表3中目標域為Market的四組結(jié)果。從圖1可以看出,RIMIF算法相比于其他三個方法具有明顯優(yōu)勢。同時對比圖2中加入RIMIF算法之后的結(jié)果,也充分體現(xiàn)出其優(yōu)勢。
5結(jié)束語
本文在跨領域小樣本行人重識別問題上結(jié)合實際情況,提出一個新的應用場景。為了解決目標域缺乏數(shù)據(jù)標注的問題,本文引入不同領域數(shù)據(jù)集進行輔助學習。同時,為了解決不同數(shù)據(jù)領域之間的分布差異問題,本文提出了基于影響函數(shù)的樣本加權(quán)篩選方法來最小化支持數(shù)據(jù)集的損失函數(shù)。實驗結(jié)果充分證明了本文方法的有效性,并且在多個數(shù)據(jù)集上取得了當前最優(yōu)的效果。此外,實驗部分的結(jié)果,尤其表1、2的結(jié)果很好地說明本文方法在利用輔助數(shù)據(jù)源的有效性。隨著輔助數(shù)據(jù)集的增加,模型性能隨之提高。這一特性在跨領域任務中具有重要意義。這使得本文方法將有效提高實際行人重識別系統(tǒng)的部署效率,降低部署成本,對實際行人重識別系統(tǒng)的部署和應用,尤其對于在緊急情況下需要快速部署具有重大意義。
參考文獻:
[1]付陽.后疫情時代智慧城市建設的反思與建議[J].中國經(jīng)貿(mào)導刊(中),2020(8):9-10.(Fu Yang.Reflection and suggestions of smart city construction in the post-epidemic era[J].China Economic amp; Trade Herald,2020(8):9-10.)
[2]Zheng Liang,Yang Yi,Hauptmann A G.Person re-identification:past,present and future[EB/OL].(2016-10-10).https://arxiv.org/abs/1610.02984.
[3]Li Wei,Zhu Xiatian,Gong Shaogang.Harmonious attention network for person re-identification[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:2285-2294.
[4]Feng Zhanxiang,Lai Jianhuang,Xie Xiaohua.Learning view-specific deep networks for person re-identification[J].IEEE Trans on Image Processing,2018,27(7):3472-3483.
[5]Zheng Zhedong,Yang Xiaodong,Yu Zhiding,et al.Joint discriminative and generative learning for person re-identification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:2133-2142.
[6]Chen Yanbei,Zhu Xiatian,Gong Shaogang.Instance-guided context rendering for cross-domain person re-identification[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:232-242.
[7]Wu Ancong,Zheng Weishi,Lai Jianhuang.Unsupervised person re-identification by camera-aware similarity consistency learning[C]//Proc of IEEE/CVF International Conference on Computer Vision.2019:6922-6931.
[8]Huang Yan,Wu Qiang,Xu Jingsong,et al.SBSGAN:suppression of inter-domain background shift for person re-identification[C]//Proc of IEEE/CVF International Conference on Computer Vision.Pisca-taway,NJ:IEEE Press,2019:9526-9535.
[9]Li Y J,Lin C S,Lin Y B,et al.Cross-dataset person re-identification via unsupervised pose disentanglement and adaptation[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:7918-7928.
[10]Lin Yutian,Xie Lingxi,Wu Yu,et al.Unsupervised person re-identification via softened similarity learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:3387-3396.
[11]Qi Lei,Wang Lei,Huo Jing, et al.A novel unsupervised camera-aware domain adaptation framework for person re-identification[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:8079-8088.
[12]Wang Guangcong,Lai J H,Liang Wenqi,et al.Smoothing adversarial domain attack and p-memory reconsolidation for cross-domain person re-identification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:10565-10574.
[13]Zhai Yunpeng,Lu Shijian,Ye Qixiang,et al.Ad-cluster:augmented discriminative clustering for domain adaptive person re-identification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9018-9027.
[14]Zhang Xinyu,Cao Jiewei,Shen Chunhua,et al.Self-training with progressive augmentation for unsupervised cross-domain person re-identification[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:8221-8230.
[15]Wu Yu,Lin Yutian,Dong Xuanyi,et al.Progressive learning for person re-identification with one example[J].IEEE Trans on Image Processing,2019,28(6):2872-2881.
[16]Wu Ancong,Zheng W S,Guo Xiaowei,et al.Distilled person re-identification:towards a more scalable system[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:1187-1196.
[17]Wu Lin,Wang Yang,Yin Hongzhi,et al.Few-shot deep adversarial learning for video-based person re-identification[J].IEEE Trans on Image Processing,2019,29:1233-1245.
[18]Rahimpour A,Qi Hairong.Attention-based few-shot person re-identification using meta learning[EB/OL].(2019-03-24).https://arxiv.org/abs/1806.09613.
[19]Wang Yaqing,Yao Quanming,Kwok J,et al.Generalizing from a few examples:a survey on few-shot learning[J].ACM Computing Surveys,2020,53(3):1-34.
[20]Koh P W,Liang P.Understanding black-box predictions via influence functions[C]//Proc of International Conference on Machine Lear-ning.[S.l.]:PMLR,2017:1885-1894.
[21]Zheng Liang,Shen Liyue,Tian Lu,et al.Scalable person re-identification:a benchmark[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015:1116-1124.
[22]Li Wei,Zhao Rui,Wang Xiaogang.Human reidentification with transferred metric learning[C]//Proc of Asian Conference on Computer Vision.Berlin:Springer,2012:31-44.
[23]Li Wei,Wang Xiaogang.Locally aligned feature transforms across views[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2013:3594-3601.
[24]Li Wei,Zhao Rui,Xiao Tong,et al.DeepReID:deep filter pairing neural network for person re-identification[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2014:152-159.
[25]Luo Hao,Gu Youzhi,Liao Xingyu,et al.Bag of tricks and a strong baseline for deep person re-identification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2019:1487-1495.
[26]Fan Hehe,Zheng Liang,Yang Yi.Unsupervised person re-identification:clustering and fine-tuning[J].ACM Trans on Multimedia Computing,Communications,and Applications,2018,14(4):1-18.
收稿日期:2021-07-29;修回日期:2021-09-13基金項目:國家自然科學基金項目(61572113);中央高校基金項目(XGBDFZ09)
作者簡介:戴錫笠(1990-),男,浙江臺州人,博士研究生,主要研究方向為計算機視覺、深度學習、三維重建(daixili_cs@163.com);吳楊(1995-),男,山東德州人,碩士,主要研究方向為計算機視覺、深度學習;龔海剛(1973-),男,江西南昌人,副教授,博導,主要研究方向為大數(shù)據(jù)處理、人工智能與模式識別;劉明(1970-),男,四川成都人,教授,博導,主要研究方向為大數(shù)據(jù)處理、人工智能與模式識別.