999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于姿態(tài)引導(dǎo)對齊網(wǎng)絡(luò)的局部行人再識別

2020-05-18 11:08:02趙杰煜
計(jì)算機(jī)工程 2020年5期
關(guān)鍵詞:關(guān)鍵點(diǎn)模型

鄭 燁,趙杰煜,王 翀,張 毅

(寧波大學(xué) 信息科學(xué)與工程學(xué)院,浙江 寧波 315000)

0 概述

目標(biāo)行人從一個相機(jī)視域離開,然后在另一個不重疊的相機(jī)視域中再次被識別,這一過程在計(jì)算機(jī)視覺領(lǐng)域稱為行人再識別(Re-ID),其是實(shí)現(xiàn)多攝像頭跟蹤的前提條件,在現(xiàn)實(shí)生活中得到廣泛應(yīng)用。目前,對于行人再識別的研究主要集中于整體圖像的研究,但在現(xiàn)實(shí)場景中,由于遮擋等原因拍攝到的圖像不都是完整的圖像,也可能存在只有部分身體的局部圖像,因此需對局部行人再識別作進(jìn)一步研究。

深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)模型通常會將圖像縮放到固定大小作為輸入,而尺寸相同的局部圖像與整體圖像會存在嚴(yán)重的不匹配問題并對特征匹配產(chǎn)生影響。相比而言,預(yù)對齊的局部行人圖像更適合與整體圖像進(jìn)行匹配。本文提出姿態(tài)引導(dǎo)對齊網(wǎng)絡(luò)(Pose-Guided Alignment Network,PGAN)模型,將人體先驗(yàn)知識引入到對齊網(wǎng)絡(luò)中,使用空間變換生成與標(biāo)準(zhǔn)姿勢對齊的行人圖像,并在訓(xùn)練階段利用姿勢信息學(xué)習(xí)空間變換器的對齊參數(shù)。

1 相關(guān)工作

1.1 行人再識別

表征學(xué)習(xí)被應(yīng)用于行人識別中以學(xué)習(xí)人的外貌特征。文獻(xiàn)[1-2]使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)學(xué)習(xí)全局特征。文獻(xiàn)[3-4]將圖像分為多個部分提取可區(qū)分的局部特征,通過圖像水平分割可有效提取變化較少的局部特征。圖片切塊是一種常見的局部特征提取方式,但其缺點(diǎn)在于對圖像對齊的要求較高,如果兩幅圖像沒有上下對齊,那么很可能出現(xiàn)頭和上身不對齊的現(xiàn)象,反而使得模型判斷錯誤。行人身體的不匹配問題將嚴(yán)重影響不同圖像之間的特征匹配。為應(yīng)對圖像不對齊問題,研究人員將空間變換網(wǎng)絡(luò)(Spatial Transformation Network,STN)引入到再識別模型中對行人圖片進(jìn)行空間變換對齊行人,還有研究人員將人體解析[5]、姿態(tài)估計(jì)方法等作為先驗(yàn)知識引入到Re-ID模型中對行人圖像進(jìn)行對齊。

1.1.1 基于空間變換的行人再識別

STN[6]是一個空間變換模塊,可以引入神經(jīng)網(wǎng)絡(luò)以提供空間變換功能,包括平移、縮放、旋轉(zhuǎn)等。STN是一個小型網(wǎng)絡(luò),可以進(jìn)行標(biāo)準(zhǔn)的反向傳播和端到端訓(xùn)練,而不會顯著增加訓(xùn)練過程的復(fù)雜性。STN由定位網(wǎng)、網(wǎng)格生成器和采樣器組成,定位網(wǎng)獲取輸入的特征圖并輸出變換參數(shù),網(wǎng)格生成器計(jì)算每個輸出像素的原始圖像中的位置坐標(biāo),采樣器生成采樣的輸出圖像。

文獻(xiàn)[7]提出一種多尺度上下文感知網(wǎng)絡(luò)(MSCAN),通過將STN與定位損失相結(jié)合來提取可變的身體部位,從而減少背景影響并在一定程度上將行人圖像對齊,但是定位損失的中心先驗(yàn)約束是基于圖像主體完整且圖像對齊的前提而提出。文獻(xiàn)[8]提出行人對齊網(wǎng)絡(luò)(PAN),使用STN在Re-ID深度卷積網(wǎng)絡(luò)前對齊行人圖像,但是PAN僅使用Re-ID損失對其進(jìn)行訓(xùn)練,圖像對齊效果較差。

1.1.2 基于姿態(tài)估計(jì)的行人再識別

Spindle Net[9]和GLAD[10]使用姿勢估計(jì)算法預(yù)測人體關(guān)鍵點(diǎn),然后學(xué)習(xí)每個部件的特征并組合部件級的特征以形成最終描述符,以解決姿勢變化問題。姿態(tài)驅(qū)動深度卷積模型(PDC)[11]通過姿態(tài)信息裁剪身體區(qū)域,然后獲得經(jīng)過旋轉(zhuǎn)和調(diào)整大小的身體部位用于姿勢變換網(wǎng)絡(luò)對身體部位進(jìn)行歸一化。文獻(xiàn)[12]利用姿態(tài)不變特征(PIE)作為行人描述符,利用姿勢估計(jì)定位關(guān)鍵點(diǎn),將身體各部件通過仿射變化映射生成Pose Boex結(jié)構(gòu)。文獻(xiàn)[13]提出一個姿勢敏感的行人Re-ID模型,將關(guān)節(jié)信息和粗略方位信息引入到卷積神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)判別特征,實(shí)驗(yàn)結(jié)果表明,檢測到的關(guān)節(jié)位置和拍攝視角有助于學(xué)習(xí)特征。然而這些方法都將姿勢估計(jì)直接嵌入到模型中,增加了計(jì)算成本和模型復(fù)雜度。

1.2 局部行人再識別

在局部行人再識別中,由于存在只有局部身體可被觀測到的局部圖像,局部圖像與整體圖像的匹配是局部行人再識別的一大難題。滑動窗口匹配(Sliding Window Matching,SWM)[14]利用與局部圖像大小相同的滑動窗口來搜索每個整體圖像上最相似的區(qū)域,然而局部匹配的計(jì)算代價太大。文獻(xiàn)[15]提出一種深度空間特征重構(gòu)(Deep Spatial Feature Reconstruction,DSR)方案,使用全卷積網(wǎng)絡(luò)(Full Convolutional Network,FCN)生成具有一定大小的空間特征圖,以匹配不同大小的行人圖像。與SWM方案相比,DSR方案大幅減少了計(jì)算量。文獻(xiàn)[16]提出可視性局部模型(Visibility Partial Model,VPM),通過監(jiān)督學(xué)習(xí)感知區(qū)域的可見性,提取區(qū)域級特征并比較兩個圖像的共享區(qū)域。

2 基于PGAN的局部行人再識別

為解決遮擋和尺度變化問題,本文設(shè)計(jì)一個姿態(tài)引導(dǎo)對齊網(wǎng)絡(luò)來對齊局部行人,然后學(xué)習(xí)有效的特征進(jìn)行行人再識別,整體框架(如圖1所示)包括以下模塊:

1)姿態(tài)引導(dǎo)的空間變換(Pose-Guided Spatial Transformation,PST)模塊,其進(jìn)行訓(xùn)練并將整體/部分行人圖像轉(zhuǎn)換為對齊的行人圖像。該對齊方法是基于完整或部分人體姿態(tài),將人體骨骼作為先驗(yàn)知識,利用姿態(tài)估計(jì)方法提取每個行人圖像的姿態(tài)信息。需要注意的是:該過程無需對每個圖像進(jìn)行姿態(tài)估計(jì),而是使用一個空間變換器來學(xué)習(xí)標(biāo)準(zhǔn)姿態(tài)和給定標(biāo)準(zhǔn)姿態(tài)之間的轉(zhuǎn)換參數(shù)。在無需顯示姿態(tài)信息的情況下,該方法是一種非常有效的推理方法。

2)特征提取模塊(ResNet)[17],其作為特征提取器的主干模塊,提取行人圖像的全局特征。

基于PGAN模型,局部圖像可以實(shí)現(xiàn)與整體圖像的匹配。

圖1 姿態(tài)引導(dǎo)對齊網(wǎng)絡(luò)框架

2.1 姿態(tài)引導(dǎo)的空間變換

PST模塊是PGAN中的關(guān)鍵部分,利用姿態(tài)信息引導(dǎo)局部行人圖像進(jìn)行空間變換。具體為訓(xùn)練一個空間變換生成一個與目標(biāo)姿態(tài)接近的對齊行人圖像,根據(jù)人體骨骼關(guān)鍵點(diǎn)確定損失函數(shù)。

行人再識別通常使用二維圖像作為輸入,本文采用仿射變換來變換整體/部分行人圖像進(jìn)行對齊。在PST模塊中,所有圖像被轉(zhuǎn)換成更接近標(biāo)準(zhǔn)姿態(tài)的圖像。當(dāng)原始行人圖像與對應(yīng)的轉(zhuǎn)換圖像分別表示為I、Ia,I、Ia中的像素可以進(jìn)一步表示為p、pa,那么p、pa之間的仿射變換為:

pa=Rp+b

(1)

其中,R是一個與縮放、旋轉(zhuǎn)相關(guān)的2×2參數(shù)矩陣,b是一個與平移相關(guān)的1×2參數(shù)向量。

由定位網(wǎng)絡(luò)、網(wǎng)格生成器和采樣器組成的空間轉(zhuǎn)換網(wǎng)絡(luò)[6]在PST模塊中被用來進(jìn)行仿射變換得到仿射變換后的圖像Ia。輸入為原始行人圖像I,輸出為θ,包含用于對齊的仿射變換參數(shù)。

(2)

其中,floc(I)表示定位網(wǎng)絡(luò)。定位網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,包括兩個卷積層、兩個池化層和兩個全連接(FC)層,最后一個FC層生成仿射轉(zhuǎn)換參數(shù)θ,用于創(chuàng)建網(wǎng)格生成器中的采樣網(wǎng)格。

表1 定位網(wǎng)絡(luò)結(jié)構(gòu)

然后采樣器從原始行人圖像I中提取一組采樣點(diǎn),并產(chǎn)生采樣輸出Ia。從仿射圖像到原始圖像的逐點(diǎn)變換過程如下:

(3)

最終得到仿射變換后的圖像Ia:

Ia=fSTN(I)

(4)

其中,fSTN為空間轉(zhuǎn)換網(wǎng)絡(luò)。

如果所有行人都有相同的姿勢和尺度,則再識別難度會大幅下降。為獲得更好的再識別性能,不同I的變換圖像Ia中的行人應(yīng)具有相似的姿態(tài)和尺度,但在原始的STN中,變換參數(shù)是由網(wǎng)絡(luò)在沒有任何指導(dǎo)的情況下進(jìn)行學(xué)習(xí)得到,換言之,其不能確保轉(zhuǎn)換后的圖像Ia具有所需屬性,例如姿態(tài)和比例。本文將關(guān)鍵點(diǎn)形式表示的標(biāo)準(zhǔn)姿態(tài)作為對齊目標(biāo),引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)本文所需的變換,關(guān)鍵點(diǎn)是人體骨骼關(guān)節(jié),如圖2所示,其中包括成對對稱的16個關(guān)節(jié)和單個關(guān)節(jié),共17個關(guān)節(jié)。關(guān)鍵點(diǎn)的定義如下:

Kp={k0,k1,…,ki,…,kN}=

{(x0,y0),(x1,y1),…,(xi,yi),…,(xN,yN)}

Kvis={v0,v1,…,vi,…,vN}

(5)

其中,Kp、Kvis分別表示關(guān)鍵點(diǎn)和關(guān)鍵點(diǎn)可見性,(xi,yi)表示第i個關(guān)鍵點(diǎn)的坐標(biāo),vi表示其對應(yīng)的可視分?jǐn)?shù),N表示總的關(guān)鍵點(diǎn)個數(shù)。

圖2 行人圖像骨骼關(guān)節(jié)關(guān)鍵點(diǎn)

為評價仿射變換后的圖像Ia與標(biāo)準(zhǔn)圖像的姿態(tài)相似性,首先通過RMPE姿態(tài)估計(jì)算法[18]提取Ia中人物的關(guān)鍵點(diǎn)P,將這些關(guān)鍵點(diǎn)P與標(biāo)準(zhǔn)姿態(tài)的目標(biāo)關(guān)鍵點(diǎn)T進(jìn)行匹配,得到兩個姿態(tài)之間的相似性。然后將該相似性作為損失項(xiàng)來指導(dǎo)PGAN中轉(zhuǎn)換參數(shù)的學(xué)習(xí)過程。需要注意的是:仿射變換在學(xué)習(xí)階段可能會極大改變圖像中人物的形狀。因此,RMPE姿態(tài)估計(jì)算法可能無法檢測到Ia中的關(guān)鍵點(diǎn)。此外,在模型中嵌入姿態(tài)估計(jì)會大幅增加計(jì)算復(fù)雜度,因?yàn)槊總€訓(xùn)練元中的每幅圖像都需要一個姿態(tài)估計(jì),并且該過程不能在GPU上并行執(zhí)行。

由此可知,Ia的姿態(tài)信息不是直接通過姿態(tài)估計(jì)得到。實(shí)際上,變換后的圖像Ia無需估計(jì)姿態(tài)關(guān)鍵點(diǎn),可以利用輸入圖像I中原始關(guān)鍵點(diǎn)的坐標(biāo)K和STN得到的變換參數(shù)θ計(jì)算得到,并且原始關(guān)鍵點(diǎn)只需在數(shù)據(jù)準(zhǔn)備階段使用一次RMPE姿態(tài)估計(jì)算法。將原始圖像I及其姿態(tài)信息K作為PST模塊的輸入,通過方向定位和關(guān)鍵點(diǎn)計(jì)算獲得Ia中關(guān)鍵點(diǎn)的轉(zhuǎn)換位置P。

(6)

(7)

為使輸入圖像與標(biāo)準(zhǔn)姿態(tài)對齊,關(guān)鍵點(diǎn)匹配損失定義為兩組關(guān)鍵點(diǎn)之間的L2損失之和,使Ia中每個轉(zhuǎn)換后的關(guān)鍵點(diǎn)與標(biāo)準(zhǔn)姿態(tài)的關(guān)鍵點(diǎn)之間盡可能接近。對稱的對齊損失函數(shù)LAli為:

(8)

其中,P和T分別表示Ia上關(guān)鍵點(diǎn)和目標(biāo)關(guān)鍵點(diǎn),kn和tn分別表示P和T的第n個關(guān)鍵點(diǎn),vn表示第n個目標(biāo)關(guān)鍵點(diǎn)的可見性分?jǐn)?shù),N表示關(guān)鍵點(diǎn)的數(shù)量。

如果輸入圖像是低分辨率或從側(cè)面、背面拍攝的圖像,多數(shù)姿態(tài)估計(jì)算法很難區(qū)分人體的左右部分。在這種情況下,將所有仿射變換后的關(guān)鍵點(diǎn)與標(biāo)準(zhǔn)姿態(tài)匹配可能會造成巨大損失,再加上對STN的不當(dāng)指引,會進(jìn)一步導(dǎo)致意外的空間變換。為解決上述問題,本文根據(jù)人體對稱性放寬約束,只選擇對稱關(guān)鍵點(diǎn)的中心和距離來計(jì)算損失,而忽略其他屬性。改進(jìn)的對稱對齊損失函數(shù)LAli計(jì)算如下:

LAli=MSE(Pm,Tm)+MSE(Pd,Td)

(9)

其中,Pm、Tm分別表示對應(yīng)仿射圖像的關(guān)鍵點(diǎn)P和標(biāo)準(zhǔn)姿態(tài)目標(biāo)關(guān)鍵點(diǎn)T中對稱關(guān)鍵點(diǎn)的中心坐標(biāo)(x,y),Pd、Td分別表示P和T中對稱關(guān)鍵點(diǎn)的距離,kpi、kpj和kTi、kTj分別表示P和T中對稱的關(guān)鍵點(diǎn)對。

PST模塊不僅可以單獨(dú)用于對齊(如圖3、圖4所示),還可以嵌入到CNN模型中進(jìn)行端到端訓(xùn)練。

圖3 Market-1501訓(xùn)練集對齊示例

圖4 Market-1501測試集上的對齊結(jié)果可視化

Fig.4 Visualization of alignment results on the Market-1501 testing set

2.2 特征提取

ResNet是目前使用較廣泛的CNN特征提取網(wǎng)絡(luò),本文采用ResNet-50作為主干網(wǎng)絡(luò),在PST模塊中提取仿射變換后圖像Ia的全局特征。

F=fFE(Ia)

(10)

其中,fFE(I)是一個特征提取器。

通常用于行人再識別的softmax損失LID和三元組損失LTri都被用來訓(xùn)練本文模型,同時利用由全連接層和softmax函數(shù)組成的分類器來預(yù)測輸入行人的身份。

PID=softmax(WTF+b)

LID=cross-entropy(PID,y)

(11)

其中,PID是M個類的預(yù)測值分布,M是身份個數(shù),y是每個樣本的身份信息,Fia、Fip、Fin分別是anchor圖像、positive圖像和negative圖像特征,β是三元組損失的邊緣,在實(shí)驗(yàn)中取值為0.3。

對于整個網(wǎng)絡(luò)的訓(xùn)練,本文將結(jié)合LAli、LID和LTri作為最終的損失函數(shù),如式(12)所示。通過嵌入PST模塊使得PGAN可以學(xué)習(xí)對齊特征進(jìn)行匹配。

L=λLAli+LID+LTri

(12)

其中,超參數(shù)λ在實(shí)驗(yàn)中取值為0.1。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集與測試協(xié)議

本文模型首先在Market-1501數(shù)據(jù)集上進(jìn)行訓(xùn)練,然后在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進(jìn)行測試。在數(shù)據(jù)增強(qiáng)階段,隨機(jī)裁剪生成局部圖像用于訓(xùn)練。

1)Market-1501[19]包含6臺攝像機(jī)從不同視角拍攝的1 501個身份的行人圖像32 368張。在訓(xùn)練集中,包含12 936張751個身份的圖像。

2)Partial-REID[14]是一個局部行人圖像數(shù)據(jù)集,包含60個身份的600張行人圖像,每個身份有5張全身圖像和5張局部圖像。這些圖像是在某大學(xué)校園從不同視角、背景進(jìn)行拍攝,并存在不同類型的遮擋情況,每個人的所有局部圖像組成Query集,而整體行人圖像用作Gallery集。

3)Partial-iLIDS[20]是一個基于iLIDS的局部圖像數(shù)據(jù)集。Partial-iLIDS共包含238張由多個非重疊攝像機(jī)捕獲的119個身份的圖像。對于被遮擋的行人,通過剪切每個身份圖像的非遮擋區(qū)域生成局部圖像,構(gòu)建Query集,每個身份的非遮擋圖像被選擇用來構(gòu)成Gallery集。

本文使用累積匹配曲線(Cumulative Match Characteristic,CMC)的Rank-1、Rank-3準(zhǔn)確率作為評估指標(biāo)來衡量模型性能。

3.2 PGAN實(shí)現(xiàn)

PGAN實(shí)現(xiàn)過程具體如下:

1)局部圖像產(chǎn)生:由于局部行人再識別數(shù)據(jù)集只提供測試集,因此需要對某些整體數(shù)據(jù)集進(jìn)行訓(xùn)練。為學(xué)習(xí)部分圖像的對齊,根據(jù)給定范圍隨機(jī)裁剪圖像生成整體圖像的局部圖像,同時對輸入關(guān)鍵點(diǎn)做同樣處理,使其與輸入圖像一致。為平衡訓(xùn)練集中整體圖像和局部圖像的數(shù)量,設(shè)置整體圖像的裁剪概率為0.5。

2)數(shù)據(jù)增強(qiáng):圖像大小調(diào)整為256像素×128像素,并將原始像素值歸一化至[0,1],然后分別減去0.485、0.456、0.406,再除以0.229、0.224、0.225,對RGB通道進(jìn)行歸一化處理。在訓(xùn)練階段,在水平方向隨機(jī)翻轉(zhuǎn)每個圖像,填充10個零值像素,再將其隨機(jī)裁剪成一個256像素×128像素的圖像進(jìn)行數(shù)據(jù)增強(qiáng)。

3)網(wǎng)絡(luò)設(shè)定:選擇Re-ID中常用的ResNet-50作為骨干網(wǎng)絡(luò)。參考文獻(xiàn)[21]設(shè)置,使用ImageNet上預(yù)訓(xùn)練的參數(shù)初始化ResNet-50,并將最后一個卷積層的stride修改為1,將全連接層的連接數(shù)修改為M,M表示訓(xùn)練數(shù)據(jù)集中的身份數(shù)。在全連接層前使用BN bottleneck,PST中STN的參數(shù)θ初始化為[1,0,0,0,1,0]。采用Adam法對模型進(jìn)行優(yōu)化,共有120個訓(xùn)練epoch。初始學(xué)習(xí)率設(shè)定為3.5×10-4,使用Warmup方法改變學(xué)習(xí)速率,在前10個epoch時將學(xué)習(xí)速率從3.5×10-5線性增加至3.5×10-4,然后分別在第40個epoch和第70個epoch時將學(xué)習(xí)率除以10。

4)訓(xùn)練:本文模型分為兩個訓(xùn)練階段。在第一個階段使用式(9)中的對齊損失LAli在Market-1501數(shù)據(jù)集上預(yù)訓(xùn)練PST模型;在第二階段利用預(yù)訓(xùn)練的PST權(quán)值和ResNet-50的ImageNet上的預(yù)訓(xùn)練參數(shù)初始化整個PGAN模型。

3.3 PST結(jié)果可視化

為驗(yàn)證PST對局部圖像的對齊性,在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。PST可以學(xué)習(xí)對齊的空間變換,其在Partial-REID數(shù)據(jù)集上的結(jié)果如圖5所示,結(jié)果表明PST不僅能對整體圖像進(jìn)行對齊,而且能對局部圖像進(jìn)行準(zhǔn)確對齊,驗(yàn)證了PST模塊的有效性。

圖5 Partial-REID數(shù)據(jù)集上的PST結(jié)果可視化

3.4 在Partial-REID和Partial-iLIDS上的測試結(jié)果

本文在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進(jìn)行Rank-1、Rank-3準(zhǔn)確率實(shí)驗(yàn),結(jié)果如表2所示。

表2 Partial-REID、Partial-iLIDS數(shù)據(jù)集上的Rank-1和Rank-3準(zhǔn)確率

Table 2 Accuracy of Rank-1 and Rank-3 on Partial-REID and Partial-iLIDS datasets %

模型Partial-REID數(shù)據(jù)集 Partial-iLIDS數(shù)據(jù)集Rank-1Rank-3Rank-1Rank-3AMC+SWM[14]37.346.021.032.8DSR[15]50.770.058.867.2VPM(Bottom)[16]53.273.253.662.3VPM(Top)[16]64.383.667.276.5VPM(Bilateral)[16]67.781.965.574.8Baseline61.376.356.374.8PGAN65.078.056.374.1

為驗(yàn)證PST對局部Re-ID的識別效果,本文將PGAN與未使用PST的Baseline模型進(jìn)行比較。對于局部Re-ID數(shù)據(jù)集,Baseline在Partial-REID、Partial-iLIDS數(shù)據(jù)集上分別得到61.3%、56.3%的Rank-1準(zhǔn)確率,PGAN在Partial-REID數(shù)據(jù)集上的Rank-1準(zhǔn)確率相比Baseline提高了3.7個百分點(diǎn)。PGAN相對于Baseline的優(yōu)勢在于:PST進(jìn)行身體水平的對齊,以處理顯著的不對齊問題,但其在Partial-iLIDS數(shù)據(jù)集上沒有明顯的性能提升,可能的原因?yàn)镻artial-iLIDS數(shù)據(jù)集中的局部圖像保留了大部分身體,其不對齊程度在CNN的處理范圍內(nèi)。

PGAN在兩個局部數(shù)據(jù)集Partial-REID和Partial-iLIDS上與其他模型進(jìn)行比較。在Partial-REID數(shù)據(jù)集上,PGAN的性能相比AMC+SWM和DSR有較大的優(yōu)勢,但與VPM相當(dāng)。在Partial-iLIDS數(shù)據(jù)集上,PGAN的性能超越了AMC+SWM。由于PGAN模型嵌入了一個簡單的PST模塊進(jìn)行局部圖像與整體圖像的對齊,從而提高局部圖像的識別性能。

3.5 檢索結(jié)果可視化

對于卷積神經(jīng)網(wǎng)絡(luò),即使圖像中只有行人的局部身體部位但包含一些明顯特征的圖像,如黃色衣服或者偏移程度較小的圖像,其也可以學(xué)習(xí)高層特征實(shí)現(xiàn)圖像區(qū)分,然而對于沒有明顯特征、顯著不對齊的局部圖像很難與整體圖像進(jìn)行匹配。圖像行人局部圖像的檢索結(jié)果如圖6所示。在圖6(a)中,Baseline無法找到匹配圖像,即匹配圖像排在第5位后,而PGAN匹配圖像排在第1位。在圖6(b)中,對于同一輸入圖像,Baseline匹配圖像排在第4位,而PGAN的匹配圖像排在第1位。實(shí)驗(yàn)結(jié)果表明,局部圖像對齊對局部行人再識別具有較大作用。

圖6 檢索結(jié)果可視化

4 結(jié)束語

本文提出一種用于局部行人再識別的姿態(tài)引導(dǎo)對齊網(wǎng)絡(luò)(PGAN)。在PGAN中,PST模塊通過姿態(tài)信息引導(dǎo),可對部分行人圖像進(jìn)行有效對齊,只需在數(shù)據(jù)準(zhǔn)備階段通過姿態(tài)估計(jì)獲取訓(xùn)練數(shù)據(jù)姿態(tài)信息,然后基于PST計(jì)算得到模型所需姿態(tài)信息,使得訓(xùn)練過程更加高效。實(shí)驗(yàn)結(jié)果表明,PGAN在局部行人再識別上取得了較好的識別效果,且在訓(xùn)練階段和推論階段均未產(chǎn)生額外的計(jì)算成本與姿態(tài)信息。后續(xù)將對結(jié)合注意力機(jī)制的局部行人再識別模型進(jìn)行研究,通過抑制背景等干擾信息提高局部行人再識別的準(zhǔn)確率。

猜你喜歡
關(guān)鍵點(diǎn)模型
一半模型
聚焦金屬關(guān)鍵點(diǎn)
肉兔育肥抓好七個關(guān)鍵點(diǎn)
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
豬人工授精應(yīng)把握的技術(shù)關(guān)鍵點(diǎn)
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
醫(yī)聯(lián)體要把握三個關(guān)鍵點(diǎn)
鎖定兩個關(guān)鍵點(diǎn)——我這樣教《送考》
語文知識(2014年7期)2014-02-28 22:00:26
主站蜘蛛池模板: 日本高清有码人妻| 夜色爽爽影院18禁妓女影院| 中文字幕2区| 欧美v在线| 欧美一级片在线| 在线a视频免费观看| 四虎永久在线| 亚洲精品无码AV电影在线播放| 午夜精品福利影院| 免费 国产 无码久久久| 亚洲AV无码乱码在线观看代蜜桃 | 色悠久久综合| 亚洲最新地址| 九九这里只有精品视频| 无码乱人伦一区二区亚洲一| 五月激激激综合网色播免费| 亚洲国产成人综合精品2020| 999国内精品视频免费| 亚洲欧美人成人让影院| 在线观看国产精品日本不卡网| 极品私人尤物在线精品首页| 亚洲精品无码抽插日韩| 孕妇高潮太爽了在线观看免费| 亚洲国产欧美自拍| 日韩亚洲综合在线| 伊人久久精品无码麻豆精品| 欧洲免费精品视频在线| hezyo加勒比一区二区三区| 91久久天天躁狠狠躁夜夜| 日韩精品无码免费专网站| 欧美在线网| 一本色道久久88综合日韩精品| 99热这里都是国产精品| 国产精品大尺度尺度视频| 真实国产乱子伦高清| 国产日韩精品欧美一区喷| 国产玖玖视频| 亚洲浓毛av| 欧美亚洲一区二区三区导航| 国产亚洲精品在天天在线麻豆 | 精品91自产拍在线| 国产凹凸视频在线观看| 青青草国产一区二区三区| 国产原创演绎剧情有字幕的| 国产区在线看| 在线国产91| 国产在线观看一区精品| 久久美女精品国产精品亚洲| 国产在线一区视频| 国产日韩欧美精品区性色| 欧美精品啪啪| 亚洲av日韩综合一区尤物| 欧美日韩国产在线观看一区二区三区| 国产正在播放| 国产一级毛片yw| 日本午夜影院| 无码国产偷倩在线播放老年人| 亚洲成aⅴ人片在线影院八| 91视频99| 99人体免费视频| 怡春院欧美一区二区三区免费| 精品国产欧美精品v| 亚洲A∨无码精品午夜在线观看| 久久这里只精品国产99热8| 青青热久免费精品视频6| 亚洲无码91视频| 国产亚洲高清视频| 中文字幕波多野不卡一区| 日韩精品一区二区深田咏美| 一区二区三区四区日韩| 免费高清毛片| 中文字幕资源站| 欧美精品成人一区二区视频一| 久久国产精品嫖妓| 久久精品丝袜高跟鞋| 亚洲欧美综合精品久久成人网| 国产毛片不卡| 国产呦精品一区二区三区网站| 激情综合图区| 亚洲精品第1页| 国产成熟女人性满足视频| 三级毛片在线播放|