陳小慧,何宜慶
(1.南昌大學(xué) 人文學(xué)院,江西 南昌 330031;2.南昌大學(xué) 經(jīng)濟(jì)管理學(xué)院,江西 南昌 330031)
基于視頻攝像頭的安防系統(tǒng)[1]在現(xiàn)代社會(huì)安全保障中發(fā)揮著重要作用,為了減少城市安防系統(tǒng)中所需大量的人力與時(shí)間成本,行人重識(shí)別[2,3](person re-identification)應(yīng)運(yùn)而生。行人重識(shí)別旨在海量監(jiān)控視頻中運(yùn)用計(jì)算機(jī)視覺(jué)技術(shù)來(lái)檢索特定的行人,該技術(shù)在刑事偵查、社會(huì)治安、嫌疑人追蹤與定位等方面具有廣泛的應(yīng)用前景。傳統(tǒng)的行人重識(shí)別方法主要是根據(jù)行人圖像中提取的初級(jí)視覺(jué)特征(顏色、紋理和邊緣信息等)來(lái)進(jìn)行相似性匹配。現(xiàn)有的方法在全局特征的基礎(chǔ)上附加上行人局部圖像塊的信息來(lái)提升模型的鑒別能力,但是許多時(shí)候行人圖像局部塊也存在著與行人ID無(wú)關(guān)的噪聲,且局部塊之間的上下文信息并沒(méi)有被模型很好地關(guān)聯(lián)與學(xué)習(xí)。為了平滑這些局部無(wú)關(guān)噪聲與學(xué)習(xí)局部上下文信息,本文提出了一種交叉姿態(tài)標(biāo)簽平滑的行人重識(shí)別方法應(yīng)用于智能監(jiān)控管理領(lǐng)域中,主要貢獻(xiàn)如下:
(1)提出了一種基于關(guān)鍵點(diǎn)語(yǔ)義交叉劃分策略,通過(guò)提取人體骨架點(diǎn)對(duì)圖像進(jìn)行水平、垂直方向的重疊語(yǔ)義劃分,獲取具有交叉語(yǔ)義連貫性的局部上下文信息;
(2)設(shè)計(jì)了一種相對(duì)姿態(tài)偏移量來(lái)定義和關(guān)聯(lián)局部塊之間的上下文信息,進(jìn)而捕獲行人局部區(qū)域之間的姿態(tài)細(xì)微變化。為了平滑交叉語(yǔ)義劃分后局部圖像噪聲,通過(guò)相對(duì)姿態(tài)偏移量來(lái)獲取平滑因子來(lái)設(shè)計(jì)一種基于交叉姿態(tài)上下文的局部標(biāo)簽平滑方法,使得網(wǎng)絡(luò)模型對(duì)行人姿態(tài)的細(xì)微變化更為魯棒與敏感;
(3)通過(guò)大量實(shí)驗(yàn)分析表明了本文提出的方法能夠有效地平滑局部圖像引入的噪聲信息,并使得網(wǎng)絡(luò)模型具有鑒別行人細(xì)微姿態(tài)變化的能力。
近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)[4-7]被逐漸應(yīng)用于行人重識(shí)別技術(shù)之中。其主要研究方向主要分為全局表征學(xué)習(xí)與局部表征學(xué)習(xí)。全局的表征學(xué)習(xí)將重識(shí)別視為一個(gè)多分類(lèi)任務(wù)來(lái)進(jìn)行訓(xùn)練,進(jìn)而獲取全局信息。Zhou等[4]提出了一種全尺度網(wǎng)絡(luò),通過(guò)設(shè)計(jì)多個(gè)卷積特征流組成的殘差塊來(lái)進(jìn)行行人的全方位特征學(xué)習(xí)。Chen等[5]提出了一種提出了高階注意模塊,利用注意機(jī)制中復(fù)雜的高階統(tǒng)計(jì)信息來(lái)捕捉行人之間的細(xì)微差異,并產(chǎn)生有鑒別力的注意力區(qū)域。Zhang等[6]提出了一種有效的關(guān)系感知全局注意力模塊來(lái)捕獲全局結(jié)構(gòu)信息,從而更好地進(jìn)行注意力的學(xué)習(xí)。Chang等[7]設(shè)計(jì)了一種多層分解網(wǎng)絡(luò)來(lái)進(jìn)行區(qū)分高級(jí)與低級(jí)語(yǔ)義,整個(gè)網(wǎng)絡(luò)將人類(lèi)視覺(jué)的外觀(guān)分解為多個(gè)語(yǔ)義層且無(wú)需任何認(rèn)為的標(biāo)注成本。
局部表征學(xué)習(xí)是在全局信息的基礎(chǔ)上結(jié)合不同具有鑒別力的局部顯著信息來(lái)進(jìn)行特征提取。Sun等[8]提出了基于部分卷積的基準(zhǔn)網(wǎng)絡(luò),利用平均分片策略將特征輸出均勻地切成若干塊,隨后提出了部分精煉池化對(duì)這些特征塊重新分配極端值。Suh等[9]提出一個(gè)基于人體部位對(duì)齊的孿生網(wǎng)絡(luò)模型,該模型可以將人體姿勢(shì)表示為部分特征圖,并將它們直接與外觀(guān)整體特征圖結(jié)合以計(jì)算對(duì)齊的行人部位表示。Zheng等[10]提出了一個(gè)知識(shí)提煉的姿勢(shì)引導(dǎo)特征學(xué)習(xí)網(wǎng)絡(luò),運(yùn)用行人姿態(tài)信息來(lái)實(shí)現(xiàn)身體部位特征的語(yǔ)義對(duì)齊。Wu等[11]提出了一種新的多級(jí)上下文感知部分注意模型去學(xué)習(xí)有鑒別力且魯棒的局部特征。Fan等[12]提出一種空間通道并行網(wǎng)絡(luò),其中每個(gè)通道的特征都關(guān)注著不同的行人身體部分,空間與通道的對(duì)應(yīng)關(guān)系使網(wǎng)絡(luò)能夠?qū)W習(xí)到更具有鑒別力的全局和局部特征。
本文提出了一種基于交叉姿態(tài)標(biāo)簽平滑的行人重識(shí)別方法,旨在緩解平滑局部圖像塊引入的無(wú)關(guān)噪聲與獲取局部上下文信息。整個(gè)方法的流程分為兩個(gè)模塊,如圖1所示。

圖1 本文方法整體流程
(1)首先利用OpenPose框架[15]對(duì)全局圖像提取行人骨架的關(guān)鍵點(diǎn)坐標(biāo)信息,再通過(guò)這些坐標(biāo)信息對(duì)圖像進(jìn)行水平與垂直方向的局部塊劃分,從而獲取具有交叉語(yǔ)義上下文信息的局部圖像塊,隨后將全局圖像和局部圖像塊輸入到網(wǎng)絡(luò)模型中訓(xùn)練;
(2)為了量化地定義行人姿態(tài)的細(xì)微差異,設(shè)計(jì)了一種相對(duì)姿態(tài)偏移量。根據(jù)在水平與垂直方向上的局部區(qū)域內(nèi)所有關(guān)鍵點(diǎn)坐標(biāo)的均值差來(lái)得到相應(yīng)的姿態(tài)偏移量,再輸入到映射函數(shù)后來(lái)獲取局部圖像的偽標(biāo)簽。整個(gè)訓(xùn)練過(guò)程在局部交叉熵?fù)p失與全局三元組損失的共同監(jiān)督下將全局圖像的ID信息與局部圖像塊的細(xì)微姿態(tài)變化信息結(jié)合起來(lái)進(jìn)行訓(xùn)練,能夠在有效學(xué)習(xí)行人全局與局部特征的同時(shí)進(jìn)一步平滑局部區(qū)域帶來(lái)的噪聲。
在真實(shí)的交通監(jiān)控場(chǎng)景中,同一個(gè)行人經(jīng)過(guò)不同地點(diǎn)時(shí)的姿態(tài)往往不同,這將導(dǎo)致拍攝的行人外觀(guān)差異大,而不同身份的行人在相同姿態(tài)的情況下外觀(guān)差異卻很小。先前的方法主要是通過(guò)將圖像水平均勻地切成若干個(gè)局部圖像塊,通過(guò)同時(shí)學(xué)習(xí)全局與局部特征來(lái)獲取姿態(tài)不變性表征。隨后也有研究運(yùn)用人體骨架關(guān)鍵點(diǎn)將圖像劃分為不同語(yǔ)義的局部區(qū)域,通過(guò)訓(xùn)練過(guò)程中進(jìn)行語(yǔ)義對(duì)齊來(lái)緩解姿態(tài)變化的影響。但是這些方法劃分的局部區(qū)域都沒(méi)有語(yǔ)義關(guān)聯(lián),即局部區(qū)域之間沒(méi)有重疊的語(yǔ)義信息,這將導(dǎo)致學(xué)習(xí)的局部信息互相獨(dú)立。此外,大多數(shù)局部區(qū)域劃分方法是基于水平方向切割的,并沒(méi)有考慮縱向的局部區(qū)域信息。本文提出了一個(gè)基于關(guān)鍵點(diǎn)語(yǔ)義交叉劃分策略來(lái)緩解上述挑戰(zhàn),整個(gè)劃分策略如圖2所示。

圖2 關(guān)鍵點(diǎn)交叉語(yǔ)義劃分策略
首先利用OpenPose框架估計(jì)出18個(gè)行人骨架關(guān)鍵點(diǎn),在全局圖像的左上方構(gòu)建直角坐標(biāo)系,假設(shè)關(guān)鍵點(diǎn)坐標(biāo)集合S={{si(x,y)∣i=0,2,…,17}}; 隨后從水平方向?qū)D片劃分兩個(gè)局部區(qū)域Nh1和Nh2(上半身與下半身),在垂直方向上劃分的局部區(qū)域分別為Nv1和Nv2(左半身與右半身);最后為了讓這些局部區(qū)域具有語(yǔ)義關(guān)聯(lián)性,本文采用交叉切割的方式來(lái)保證局部圖像塊之間具有重疊的語(yǔ)義交集Nh和Nv, 且滿(mǎn)足下式的關(guān)系
(1)
從式(1)可以看出,Nh與Nv確保了水平、垂直方向的兩個(gè)局部塊之間的語(yǔ)義連貫性。與此同時(shí),為了讓兩個(gè)方向的局部區(qū)域也建立語(yǔ)義交集,交叉劃分策略也保證了Nh與Nv之間具有人體骨架關(guān)鍵點(diǎn)的交集。
本節(jié)分為3個(gè)部分,首先通過(guò)計(jì)算相對(duì)姿態(tài)偏移量來(lái)獲得平滑因子;然后結(jié)合平滑因子設(shè)計(jì)基于交叉姿態(tài)上下文的局部偽標(biāo)簽;最后通過(guò)全局損失函數(shù)與局部損失函數(shù)的共同監(jiān)督下來(lái)進(jìn)行表征學(xué)習(xí)。
2.2.1 相對(duì)姿態(tài)偏移量
現(xiàn)有針對(duì)姿態(tài)變化的研究主要是通過(guò)先驗(yàn)知識(shí)來(lái)進(jìn)行姿態(tài)特征的語(yǔ)義對(duì)齊,進(jìn)而消除姿態(tài)變化對(duì)行人重識(shí)別精度的影響。由于行人姿態(tài)的變化是一個(gè)極為抽象的概念,導(dǎo)致現(xiàn)有數(shù)據(jù)集中缺乏具體的行人姿態(tài)標(biāo)簽信息,如何將行人姿態(tài)信息進(jìn)行合理的量化與定義是緩解姿態(tài)影響的關(guān)鍵。


圖3 相對(duì)姿態(tài)偏移量計(jì)算
計(jì)算水平方向與垂直方向的相對(duì)姿態(tài)偏移量Ph和Pv如式(2)和式(3)所示
(2)
(3)
SNh1和SNh2分別表示屬于局部區(qū)域Nh1和Nh2內(nèi)的所有關(guān)鍵點(diǎn)坐標(biāo),num(Nh1) 和num(Nh2) 分別為局部區(qū)域Nh1和Nh2內(nèi)的關(guān)鍵點(diǎn)坐標(biāo)數(shù)目;SNv1、SNv2、Nv1、Nv2同理可得。從上述公式可以得出,相對(duì)姿態(tài)偏移量能夠定量地描述行人在水平與垂直方向上的姿態(tài)變化,同時(shí)局部區(qū)域之間的關(guān)鍵點(diǎn)均值差距也能直接地反應(yīng)不同行人姿態(tài)之間的細(xì)微差異。
2.2.2 局部偽標(biāo)簽編碼
本文將語(yǔ)義交叉劃分后的局部圖像塊作為全局圖像的擴(kuò)充部分同時(shí)進(jìn)行訓(xùn)練,由于單個(gè)的局部圖像塊并不能完整地描述一個(gè)行人的身份,因此局部圖像塊的標(biāo)簽并不能直接使用全局圖像的標(biāo)簽信息,而且在單個(gè)局部圖像塊中存在著一些與整個(gè)行人身份無(wú)關(guān)的像素信息。

(4)

圖4展示了整個(gè)網(wǎng)絡(luò)模型訓(xùn)練過(guò)程中全局圖像與局部圖像的標(biāo)簽編碼規(guī)則,其中全局圖像使用One-hot標(biāo)簽編碼(如圖4(a)所示),即在圖像的標(biāo)簽向量中賦予真實(shí)類(lèi)別權(quán)重為1,其它類(lèi)別的權(quán)重為0。局部圖像則使用本文提出的交叉姿態(tài)上下文的偽標(biāo)簽編碼(如圖4(b)所示),先將平滑因子分配給局部圖像所對(duì)應(yīng)的全局One-hot編碼,然后局部圖像經(jīng)過(guò)網(wǎng)絡(luò)模型的Softmax函數(shù)后,輸出預(yù)測(cè)向量來(lái)進(jìn)一步進(jìn)行權(quán)重的分配,最終獲得基于交叉姿態(tài)上下文的局部偽標(biāo)簽編碼。該標(biāo)簽?zāi)芨玫貙W(xué)習(xí)表達(dá)局部圖像的上下文信息與行人局部區(qū)域的細(xì)微姿態(tài)差異。

圖4 全局圖像與局部圖像的標(biāo)簽編碼規(guī)則
2.2.3 損失函數(shù)

(5)

本節(jié)在Market-1501[16]和DukeMTMC-reID[17,18]數(shù)據(jù)集上通過(guò)特征可視化分析,最新方法的比較、多種消融實(shí)驗(yàn)分析來(lái)驗(yàn)證本文方法的性能。
本文所有實(shí)驗(yàn)結(jié)果是在Pytorch框架中運(yùn)行的,其中操作系統(tǒng)環(huán)境為Ubuntu 20.04.1 LTS,CPU處理器配置為11th Gen Intel?CoreTMi7-11700K @ 3.60 GHz×16,顯卡型號(hào)為Nvidia RTX A1000(24 GB)。在整個(gè)訓(xùn)練過(guò)程中使用ResNet作為基準(zhǔn)網(wǎng)絡(luò)模型,batch_size為80,每個(gè)行人圖像的尺寸統(tǒng)一裁剪為224×224,訓(xùn)練迭代總次數(shù)為100次,學(xué)習(xí)率初始化為0.000 35,weight_decay初始化為0.0005,同時(shí)使用隨機(jī)梯度下降法(SGDM)進(jìn)行模型參數(shù)的更新與調(diào)優(yōu)。
本文在兩個(gè)公共開(kāi)源的數(shù)據(jù)集Market-1501和DukeMTMC-reID上分別進(jìn)行實(shí)驗(yàn)。
Market-1501數(shù)據(jù)集來(lái)源于清華大學(xué),整個(gè)數(shù)據(jù)通過(guò)6個(gè)攝像機(jī)拍攝了1501個(gè)行人,共計(jì)32 668張圖片。其中751個(gè)身份的行人作為訓(xùn)練集,共計(jì)12 936張圖片;另外采樣的750個(gè)行人作為測(cè)試集,共計(jì)19 732張圖片。
DukeMTMC-re-ID數(shù)據(jù)集是由杜克大學(xué)開(kāi)源發(fā)布的,由8個(gè)攝像機(jī)拍攝而成。它包含1404個(gè)行人對(duì)應(yīng)的36 411張訓(xùn)練圖片,其中訓(xùn)練集擁有16 522張圖片,測(cè)試集則采樣了17 661張圖片,訓(xùn)練集和測(cè)試集分別采樣了702個(gè)行人樣本。
本文將首位命中率(Rank-1 accuracy)、均值平均精度(mean average precision,mAP)和CMC曲線(xiàn)作為評(píng)價(jià)行人重識(shí)別方法的性能指標(biāo)。Rank-1是指在排序列表中第一個(gè)候選樣本就檢索出目標(biāo)行人的概率,mAP則是反映了正確匹配的行人樣本在整個(gè)排序列表中名次靠前的程度。CMC曲線(xiàn)表示Top-n的擊中概率,同ROC曲線(xiàn)一樣是模式識(shí)別系統(tǒng)重要評(píng)價(jià)指標(biāo),本文將其用于評(píng)價(jià)行人重識(shí)別算法的性能。
本小節(jié)通過(guò)對(duì)網(wǎng)絡(luò)模型熱力圖可視化與排序列表可視化來(lái)形象地分析本文方法在處理細(xì)微姿態(tài)變化問(wèn)題上的表現(xiàn)力。
3.3.1 熱力圖可視化


圖5 網(wǎng)絡(luò)模型熱力圖對(duì)比
3.3.2 排序列表可視化
圖6列舉了ResNet-50和本文模型在兩個(gè)檢索目標(biāo)上的排序結(jié)果(排名前5個(gè)),其中灰色方框的樣本代表ID身份與檢索目標(biāo)相同,黑色方框的樣本代表ID身份與檢索目標(biāo)不同。在ResNet-50與本文方法的Top-5排序列表結(jié)果中可以看出,本文方法的列表中包含了更多不同姿態(tài)的正確樣本,而ResNet-50模型的列表中存在著許多行人衣著與姿態(tài)相似的錯(cuò)誤樣本。這些現(xiàn)象驗(yàn)證了本文方法能夠提取更加細(xì)微且有鑒別力的行人特征,可以精準(zhǔn)地匹配不同姿態(tài)下的同一身份的行人。

圖6 排序結(jié)果Top-5對(duì)比
為了進(jìn)一步驗(yàn)證本文所提方法在識(shí)別行人細(xì)微姿態(tài)差異問(wèn)題上的有效性與魯棒性,本節(jié)內(nèi)容展示了4種類(lèi)型的消融實(shí)驗(yàn)。
3.4.1 不同模塊的影響分析
為了分析本文中的所有模塊對(duì)行人重識(shí)別精度的影響,分別將語(yǔ)義交叉劃分與局部偽標(biāo)簽進(jìn)行了消融對(duì)比分析。實(shí)驗(yàn)結(jié)果見(jiàn)表1,在Market-1501數(shù)據(jù)集上本文方法比使用均勻劃分和局部偽標(biāo)簽的Rank-1與mAP分別提升了2.95%與2.40%,因?yàn)檎Z(yǔ)義交叉劃分相比于均勻劃分能學(xué)習(xí)更多的局部信息塊之間的關(guān)聯(lián)性;本文方法比僅使用語(yǔ)義交叉劃分模塊的Rank-1與mAP分別高出4.35%與7.80%,由于加入局部偽標(biāo)簽的平滑學(xué)習(xí),能夠充分學(xué)習(xí)不同行人之間的細(xì)微姿態(tài)差異。同時(shí),在DukeMTMC-reID數(shù)據(jù)集上本文方法也比使用均勻劃分和局部偽標(biāo)簽方法的Rank-1與mAP分別提升了3.70%與1.64%;比僅使用語(yǔ)義交叉劃分模塊的Rank-1與mAP分別高出6.64%與6.65%。這些結(jié)果表明同時(shí)使用語(yǔ)義交叉劃分與局部偽標(biāo)簽?zāi)苁沟镁W(wǎng)絡(luò)模型獲得更好的檢索性能。

表1 不同模塊的對(duì)比結(jié)果
3.4.2 不同局部表征學(xué)習(xí)方法比較
通過(guò)比較一些最新的局部表征學(xué)習(xí)方法來(lái)證實(shí)本文方法在局部特征學(xué)習(xí)上的優(yōu)越性。如表2所示,本文的網(wǎng)絡(luò)相比于其它局部表征學(xué)習(xí)方法的精度有顯著的優(yōu)勢(shì)。PCB模型雖然通過(guò)平均分片策略來(lái)學(xué)習(xí)判別能力強(qiáng)的細(xì)微特征,但對(duì)行人姿態(tài)沒(méi)有進(jìn)行定義與度量學(xué)習(xí)。精度表現(xiàn)第二好MMGA方法利用人體局部掩模引導(dǎo)注意網(wǎng)絡(luò)來(lái)監(jiān)督行人上半身于下半身區(qū)域的特征學(xué)習(xí),但是MMGA并沒(méi)有對(duì)局部圖像進(jìn)行單獨(dú)的平滑訓(xùn)練,因此并沒(méi)有完全充分地學(xué)習(xí)局部區(qū)域的所有細(xì)微特征。相較于以上方法,本文方法通過(guò)語(yǔ)義交叉局部區(qū)域劃分與局部圖像的標(biāo)簽平滑訓(xùn)練來(lái)指導(dǎo)網(wǎng)絡(luò)模型進(jìn)行局部表征學(xué)習(xí),充分地利用了局部圖像并學(xué)習(xí)了相應(yīng)的細(xì)微特征。因此本文方法對(duì)行人姿態(tài)變化的魯棒性要優(yōu)于其它方法。

表2 不同基準(zhǔn)網(wǎng)絡(luò)的對(duì)比結(jié)果
3.4.3 不同損失函數(shù)的影響分析
表3探討了3種損失函數(shù)對(duì)行人重識(shí)別精度的影響,三元組損失與對(duì)比損失雖然通過(guò)計(jì)算行人ID信息的差異來(lái)優(yōu)化模型,但僅僅停留在ID級(jí)別的層面,并不能精確到充行人姿態(tài)信息。而本文的損失通過(guò)相對(duì)姿態(tài)偏移量的大小來(lái)映射姿態(tài)變化的權(quán)重,能有效地表達(dá)不同行人之間的細(xì)微姿態(tài)變化,因此本文方法的檢索精度要遠(yuǎn)高于其它兩種損失函數(shù)。以上結(jié)果可以看出級(jí)聯(lián)三元組損失函數(shù)能更好量化與表達(dá)不同行人之間姿態(tài)變化信息。

表3 不同損失函數(shù)的對(duì)比結(jié)果
3.4.4 CMC曲線(xiàn)分析
圖7(a)和圖7(b)分別為是否使用本文方法在兩個(gè)數(shù)據(jù)集上得到的CMC曲線(xiàn)。通過(guò)觀(guān)察可以觀(guān)察到本文方法始終比基礎(chǔ)方法的重識(shí)別效果更好,尤其是在Rank-1至Rank-5之間。因?yàn)楸疚姆椒ㄍㄟ^(guò)局部上下文的交叉姿態(tài)學(xué)習(xí)促使模型提取了更具鑒別力的細(xì)微特征,從而將排序靠后的正樣本提升了排名,最終進(jìn)一步改善了Rank的精度。

圖7 不同行人重識(shí)別數(shù)據(jù)集的CMC曲線(xiàn)(%)對(duì)比結(jié)果
表4展示了本文方法與其它最新方法在Market-1501和DukeMTMC-reID數(shù)據(jù)集上的精度對(duì)比結(jié)果,從中可以看出本文方法在Market-1501數(shù)據(jù)集上獲得了95.52%的Rank-1和87.09%的mAP;在DukeMTMC-reID數(shù)據(jù)集上獲得了88.96%的Rank-1和76.51%的mAP。重識(shí)別性能排名第二的DG-Net模型通過(guò)端到端的形式來(lái)生成新的圖像并實(shí)時(shí)地微調(diào)整個(gè)行人重識(shí)別模型,但是由于生成圖像存在著一些像素級(jí)別的噪聲,導(dǎo)致網(wǎng)絡(luò)模型對(duì)提取生成圖像特征的能力有限。相較于DG-Net模型,本文方法通過(guò)已有的全局圖像進(jìn)行語(yǔ)義交叉劃分局部圖像塊能夠避免新生成圖像的像素級(jí)噪聲,同時(shí)應(yīng)用局部偽標(biāo)簽編碼方法能夠降低局部圖像中的無(wú)關(guān)噪聲。RANGEv2利用一個(gè)雙流網(wǎng)絡(luò)結(jié)構(gòu)聯(lián)合學(xué)習(xí)了排序上下文信息和外觀(guān)特征來(lái)獲取更有鑒別力的特征,盡管在雙流網(wǎng)絡(luò)結(jié)構(gòu)中引入了部件的細(xì)粒度特征來(lái)緩解排序過(guò)程中不正確匹配問(wèn)題,但是該方法提取的局部特征依然是對(duì)外觀(guān)特征進(jìn)行平均地劃分,并沒(méi)有很好地考慮局部特征之間的關(guān)聯(lián)性,所以仍然低于本文方法的精度。MGS通過(guò)多粒度形狀學(xué)習(xí)來(lái)捕獲局部的3D信息與增強(qiáng)三維形狀特征多樣性。CDNet方法提出了一種新的組合深度空間,并通過(guò)一個(gè)輕量化的網(wǎng)絡(luò)架構(gòu)來(lái)進(jìn)行特征提取與學(xué)習(xí)。以上兩種方法都沒(méi)有考慮如何有效地平滑局部特征的噪聲。而本文方法借助交叉姿態(tài)來(lái)有效地平滑局部噪聲,因此本文方法取得了最好的表現(xiàn)且明顯優(yōu)于MGS與CDNet。

表4 與最新方法的對(duì)比結(jié)果
本文提出了一種交叉姿態(tài)標(biāo)簽平滑的行人重識(shí)別方法來(lái)學(xué)習(xí)行人的局部細(xì)微信息,該方法通過(guò)行人骨架點(diǎn)的坐標(biāo)信息來(lái)劃分局部區(qū)域,然后結(jié)合水平與垂直方向的相對(duì)姿態(tài)偏移量與映射函數(shù)來(lái)對(duì)局部圖像進(jìn)行偽標(biāo)簽編碼,通過(guò)全局圖像的度量與局部圖像的標(biāo)簽平滑來(lái)提升網(wǎng)絡(luò)模型對(duì)行人姿態(tài)的鑒別能力。大量實(shí)驗(yàn)結(jié)果表明本文方法能夠有效地平滑局部區(qū)在訓(xùn)練階段引入的噪聲,并且促使網(wǎng)絡(luò)模型能夠獲取更多的局部上下文信息,有效地緩解了治安監(jiān)控管理問(wèn)題。