999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙注意力機(jī)制的可見(jiàn)光-紅外行人重識(shí)別

2024-06-17 13:41:57魏克銘韓星宇王輝范自柱

魏克銘 韓星宇 王輝 范自柱

摘要:【目的】由于可見(jiàn)光圖像和紅外圖像之間的巨大模態(tài)差異,導(dǎo)致可見(jiàn)光-紅外行人重識(shí)別是一項(xiàng)非常具有挑戰(zhàn)性的圖像檢索問(wèn)題。【方法】為了進(jìn)一步減小兩種模態(tài)之間的差異,重點(diǎn)關(guān)注行人信息,提出一種基于雙注意力機(jī)制的網(wǎng)絡(luò)結(jié)構(gòu)用于可見(jiàn)光-紅外行人重識(shí)別。一方面通過(guò)雙注意力機(jī)制挖掘不同尺度的行人空間信息和增強(qiáng)局部特征的通道交互能力,另一方面利用全局分支和局部分支,學(xué)習(xí)多粒度的特征信息,使不同粒度信息可以相互補(bǔ)充,形成一個(gè)更具辨別性的特征。【結(jié)果】在兩個(gè)公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該方法相較于基線有明顯的提升,在RegDB數(shù)據(jù)集和SYSU-MM01數(shù)據(jù)集上均表現(xiàn)出理想的性能。【結(jié)論】該方法可為以后解決可見(jiàn)光-紅外行人重識(shí)別的模態(tài)差異問(wèn)題提供有效的參考。

關(guān)鍵詞:可見(jiàn)光-紅外行人重識(shí)別;注意力機(jī)制;緩解模態(tài)差異

中圖分類(lèi)號(hào):TP391;[U-9] 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1005-0523(2024)02-0087-08

Visible-Infrared Person Re-Identification Based

on Dual Attention Mechanism

Wei Keming1, Han Xingyu2, Wang Hui2, Fan Zizhu1,2

(1. School of Science, East China Jiaotong University, Nanchang 330013, China; 2. Key Laboratory of Advanced Control

and Optimization of Jiangxi Province, East China Jiaotong University, Nanchang 330013, China)

Abstract: 【Objective】Visible-infrared person re-identification is a very challenging image retrieval problem due to the huge modal difference between visible and infrared images.【Method】In order to further reduce the difference between the two modalities and focus on pedestrian information, a network structure based on dual attention mechanism is proposed for visible-infrared person re-identification. On the one hand, through the dual attention mechanism to mine personal spatial information of different scales and enhance the channel interaction ability of local features. On the other hand, through learning multi-granular feature information through using global and local branches, different granular information can complement with each other to form a more discriminating feature. 【Result】Experimental results on two public datasets show that the proposed method has a significant improvement compared with the baseline, and shows ideal performance on both the RegDB dataset and the SYSU-MM01 dataset. 【Conclusion】The proposed method can provide an effective reference for solving the problem of modal difference of visible-infrared person re-identification in the future.

Key words: visible-infrared person re-identification; attention mechanism; mitigate modal differences

Citation format: WEI K M, HAN X Y, WANG H, et al. Visible-infrared person re-identification based on dual attention mechanism[J]. Journal of East China Jiaotong University, 2024, 41(2): 87-94.

【研究意義】行人重識(shí)別主要任務(wù)是在多個(gè)不重疊的攝像機(jī)視圖中匹配特定的人,在安全領(lǐng)域有著不可或缺的作用,近年來(lái)行人重識(shí)別一直受到廣泛的關(guān)注。它的挑戰(zhàn)主要集中在視圖、姿態(tài)、光照、遮擋、背景變化等方面,為了解決這些問(wèn)題,眾多學(xué)者提取出了許多解決方法,取得不錯(cuò)的效果。這些方法主要集中在單模態(tài)的可見(jiàn)光行人重識(shí)別問(wèn)題上,但在實(shí)際應(yīng)用中,往往需要捕捉不同場(chǎng)景下的行人圖像,特別是在夜晚光照極弱的情況下,可見(jiàn)光相機(jī)很難捕捉到有效的行人信息,因此可見(jiàn)光-紅外行人重識(shí)別就引起了眾多學(xué)者的注意。該領(lǐng)域主要研究可見(jiàn)光圖像和紅外圖像之間的跨模態(tài)度量問(wèn)題,以從不同模態(tài)的圖像中匹配出相同的行人圖像,目的是克服在復(fù)雜環(huán)境下傳統(tǒng)行人重識(shí)別的局限性。紅外圖像相比于可見(jiàn)光圖像,信息量更少、視覺(jué)效果模糊、分辨率差、對(duì)比度低,巨大的模態(tài)差異,導(dǎo)致很難提取到有效的特征信息,常規(guī)的單模態(tài)行人重識(shí)別也不能夠發(fā)揮同等的效用。

【研究進(jìn)展】不同模態(tài)間的巨大差異導(dǎo)致可見(jiàn)光-紅外行人重識(shí)別非常具有挑戰(zhàn)性,針對(duì)模態(tài)差異,眾多學(xué)者提出了一系列解決方法。為緩解模態(tài)差異,一些方法通過(guò)設(shè)計(jì)模態(tài)生成器[1-4],從而生成中間模態(tài)或?qū)崿F(xiàn)模態(tài)轉(zhuǎn)換,例如Zhang等[2]提出特征級(jí)模態(tài)補(bǔ)償網(wǎng)絡(luò),直接從其他模態(tài)的現(xiàn)有模態(tài)共享特征中生成缺失模態(tài)特定特征,但由于紅外到可見(jiàn)光變換的不穩(wěn)定性,導(dǎo)致生成的模態(tài)難以?xún)?yōu)化,而且不可避免地會(huì)引入噪聲數(shù)據(jù)。另外一些方法采用單流、雙流或多流網(wǎng)絡(luò)[5-10],通過(guò)設(shè)計(jì)不同的損失函數(shù)、注意力機(jī)制等提取不同模態(tài)共享特征,例如Wu等[10]提出聯(lián)合模態(tài)和模式對(duì)齊網(wǎng)絡(luò),以發(fā)現(xiàn)不同模態(tài)的細(xì)微差別,減輕模態(tài)差異,并且提出了一個(gè)中心聚類(lèi)損失函數(shù),進(jìn)一步約束增強(qiáng)學(xué)習(xí)效果。然而,基于這些學(xué)習(xí)方法訓(xùn)練通用的網(wǎng)絡(luò)模型,缺乏對(duì)特異性模態(tài)信息的關(guān)注度,導(dǎo)致關(guān)鍵信息丟失。

【關(guān)鍵問(wèn)題】為了避免噪聲數(shù)據(jù)的影響,充分利用有價(jià)值的行人信息,減小模態(tài)間的差異,從以下幾個(gè)方面出發(fā)來(lái)解決此問(wèn)題:【創(chuàng)新特色】首先,為了減小背景、光線等噪聲數(shù)據(jù)的影響,受到交叉注意力和空洞卷積的啟發(fā),本文提出多尺度交叉注意力機(jī)制(multi-scale cross attention, MCA),同時(shí)利用不同尺度的空洞卷積和最大池化,擴(kuò)大模塊的感受野,關(guān)注更多的邊緣信息。其次考慮到不同通道之間的信息交互和不同層次行人特征之間的差異性,本文提出局部通道交互注意力機(jī)制(part channel-interaction attention, PCA),在兼顧局部特征的同時(shí),增強(qiáng)不同通道間的特征交互能力。最后,考慮到數(shù)據(jù)集規(guī)模有限,缺乏多樣性,如果僅學(xué)習(xí)全局特征,容易導(dǎo)致信息丟失,而不同粒度的特征可以更有效的提取行人信息,因此本文結(jié)合局部特征和全局特征,共同優(yōu)化網(wǎng)絡(luò)模型。本文的模型在兩個(gè)公開(kāi)數(shù)據(jù)集RegDB和SYSU-MM01上均取得最優(yōu)的識(shí)別效果。

1 方法

為了減小模態(tài)差異、背景噪聲影響、增強(qiáng)模型的魯棒性,基于隨機(jī)通道交換[9]提出了一種兼顧局部與全局特征的雙注意力機(jī)制的網(wǎng)絡(luò)結(jié)構(gòu)用于可見(jiàn)光-紅外行人重識(shí)別。這一部分主要介紹網(wǎng)絡(luò)結(jié)構(gòu)的模型框架,其整體結(jié)構(gòu)如圖1所示。主要包括以下幾個(gè)部分組成:① 由ResNet50組成的雙流骨干網(wǎng)絡(luò);② 多尺度交叉注意力機(jī)制(MCA);③ 局部通道交互注意力機(jī)制(PCA);④ 全局特征分支及其對(duì)應(yīng)損失函數(shù);⑤ 局部特征分支及其對(duì)應(yīng)損失函數(shù)。在測(cè)試階段,使用全局特征分支的輸出結(jié)果進(jìn)行預(yù)測(cè),局部特征分支僅在訓(xùn)練過(guò)程中發(fā)揮效用。

1.1 模型框架

雙流網(wǎng)絡(luò)是用于可見(jiàn)光紅外行人重識(shí)別特征提取的典型方法,而且它的有效性在眾多文獻(xiàn)中得到了有力的證明。本文利用在ImageNet上預(yù)訓(xùn)練的ResNet50作為骨干網(wǎng)絡(luò)提取特征,為保證不同模態(tài)特征的特異性,網(wǎng)絡(luò)在第二個(gè)殘差塊前不共享參數(shù);為避免噪聲的影響,本文同時(shí)設(shè)計(jì)兩個(gè)注意力模塊,注意力模塊在保持特征圖身份識(shí)別能力的同時(shí),減輕模態(tài)差異以及背景噪聲的影響。其次,為了同時(shí)獲得全局特征和局部特征,學(xué)習(xí)到細(xì)微的、具有鑒別性的特征,本文結(jié)合PCB[11]特征分塊機(jī)制,旨在學(xué)習(xí)不同行人圖像之間的細(xì)微差別,以達(dá)到更好的效果。

1.2 多尺度交叉注意力機(jī)制(MCA)

受到交叉注意力和多尺度特征融合[12]的啟發(fā),本文提出了MCA。考慮到最大池化可以加強(qiáng)網(wǎng)絡(luò)對(duì)顯著性區(qū)域的關(guān)注度,去除背景冗余信息,但容易丟失空間分辨率,因此引入空洞卷積彌補(bǔ)池化的不足。同時(shí)考慮到利用不同尺度最大池化和空洞卷積可以擴(kuò)大感受野,關(guān)注行人的邊緣特征,獲取多尺度的上下文信息,從而增強(qiáng)像素級(jí)的表征能力。具體流程如圖2左側(cè)所示,圖2右側(cè)展示了MCA中最大池化模塊和空洞卷積模塊的具體結(jié)構(gòu)。

給定特征[x∈RC×W×H,]該模塊首先在[x]上應(yīng)用兩個(gè)具有[1×1]濾波器的卷積層,分別生成兩個(gè)特征映射[Q]和[K],其中[Q,K∈RC′×W×H]。[C′]為通道數(shù),由于降維,通道數(shù)小于C。然后[Q]和[K]分別經(jīng)過(guò)一個(gè)多尺度最大池化塊,再經(jīng)過(guò)[1×1]濾波器的卷積層得到[Q1]和[K1],用數(shù)學(xué)公式表示如下

[Q1=conv12(max(conv11(Q)))] (1)

[K1=conv22(max(conv21(K)))] (2)

另外給定的輸入特征[x∈RC×W×H]分別經(jīng)過(guò)不同大小濾波器的空洞卷積塊得到V,而后輸入[1×1]濾波器的卷積塊和平均池化塊得到[V1]為

[V1=avg(conv(Dilated(x)))] (3)

[Q1]和[K1]經(jīng)過(guò)仿射變換后,與[V1]進(jìn)行聚合變換,最終與輸入特征x求和得

[output=x+Agg(Aff(Q1,K1),V1)] (4)

式中:Aff為仿射變換;Agg為聚合變換。

1.3 局部通道交互注意力機(jī)制(PCA)

不同通道的特征圖受到的關(guān)注度理應(yīng)是不相同的,且特征圖的不同層次也是如此,因此為了增強(qiáng)不同層次之間的通道交互能力,引入了PCA,如圖3所示。首先給定一個(gè)輸入特征[x∈RC×W×H],x在水平方向被均勻地分割成若干塊,得到[xi,i=1,2,3],然后分別經(jīng)過(guò)池化和[1×1]卷積塊,進(jìn)行縮放變換,隨后對(duì)拼接的特征利用正切激活函數(shù)激活,具體過(guò)程用公式表示如下

[xi′=max(relu(convi1(xi))),i=1,2,3] (5)

[xi′=tanh(avg(convi1(xi′))),i=1,2,3] (6)

[x′=concat(x1′,x2′,x3′)] (7)

[output=x+tanh(x′)] (8)

1.4 損失函數(shù)

本節(jié)主要介紹本文的框架中使用的損失函數(shù),包括交叉熵?fù)p失、三元損失、聚類(lèi)中心損失和中心三元損失。利用交叉熵?fù)p失和三元損失結(jié)合起來(lái)監(jiān)督全局特征,利用交叉熵?fù)p失、聚類(lèi)中心損失和中心三元損失作為局部分支的學(xué)習(xí)目標(biāo)。

1) 交叉熵?fù)p失函數(shù)。交叉熵?fù)p失的目標(biāo)是提取特定行人身份的信息進(jìn)行分類(lèi)。此方法被廣泛應(yīng)用于行人重識(shí)別任務(wù)中,以促進(jìn)模型對(duì)樣本進(jìn)行有效的分類(lèi)。在本文中,依舊采用交叉熵?fù)p失分別優(yōu)化全局特征和局部特征,以捕獲每個(gè)行人不同模態(tài)的身份鑒別信息。交叉熵?fù)p失的表達(dá)式如下

[Lid=-i=1NlogeWTyixik=1DeWTkxi] (9)

式中:[Wk]為第[k]類(lèi)的權(quán)重向量;[yi]為特征[xi]的真實(shí)身份標(biāo)簽;N為批次大小;D為訓(xùn)練集中的類(lèi)數(shù)。

2) 三元損失函數(shù)。對(duì)于全局特征,利用三元損失優(yōu)化不同模態(tài)下不同行人圖像的特征,它可以拉近不同模態(tài)相同身份的行人特征間的距離,擴(kuò)大不同身份的行人間的距離,本文沿用Ye等[9]提出的三元損失,公式定義如下

[Ltri=i=1Pa=1K[ρ+maxxia-xip2-mini≠jxia-xjn2]+](10)

式中:K為模態(tài)數(shù)量;[P]為行人的數(shù)量;[xa]為錨點(diǎn)樣本;[xp]為正樣本對(duì);[xn]為負(fù)樣本對(duì);[ρ]為閥值參數(shù),用以約束正負(fù)樣本間的距離。

3) 中心三元損失函數(shù)。三元損失通過(guò)錨點(diǎn)與所有其他樣本的比較計(jì)算損失。但由于圖像本身存在的一些噪聲,造成局部特征可能與全局特征有很大的差異,如果存在一些異常值,可能會(huì)過(guò)于嚴(yán)格地約束成對(duì)距離,三元損失將不能很好地優(yōu)化類(lèi)內(nèi)類(lèi)間距離。因此,利用中心三元損失函數(shù)優(yōu)化局部特征的類(lèi)內(nèi)與類(lèi)間距離,采用每個(gè)身份的中心作為身份代理,將錨點(diǎn)與所有其他樣本的比較替換為錨點(diǎn)中心與所有其他中心的比較,具體計(jì)算公式如下

[Lcenter=i=1P[ρ+civ-cit2-mini≠jciv-cjn2]++i=1P[ρ+cit-civ2-mini≠jcit-cjn2]++i=1P[ρ+cim-cit2-mini≠jcim-cjn2]+] (11)

式中:[civ]為可見(jiàn)光圖像特征的聚類(lèi)中心;[cit]為紅外圖像的聚類(lèi)中心;[cim]為隨機(jī)通道交換后得到的模態(tài)的聚類(lèi)中心;[cin]為其他模態(tài)聚類(lèi)中心。

4) 聚類(lèi)中心損失函數(shù)。聚類(lèi)中心損失通過(guò)懲罰不同模態(tài)分布的中心,優(yōu)化不同模態(tài)的類(lèi)內(nèi)相似度,公式定義如下

[Lhc=i=1Pciv-cit2] (12)

式中:[civ]和[cit]分別表示可見(jiàn)光和紅外圖像的聚類(lèi)中心。

5) 均方差損失函數(shù)。為進(jìn)一步縮小相同身份不同模態(tài)的行人圖像之間的距離,簡(jiǎn)單地應(yīng)用均方差損失進(jìn)行約束,公式如下

[Lmse=i=1Pxiv-xit2] (13)

式中:[P]為行人的數(shù)量。

綜上所述,損失函數(shù)分為全局損失和局部損失,全局損失函數(shù)定義如下

[Lglobal=Lid+Ltri+Lmse] (14)

局部損失函數(shù)定義如下

[Llocal=λ1Lid+λ2Lcenter+λ3Lhc] (15)

總損失函數(shù)定義如下

[L=Lglobal+αLlocal] (16)

式中:[α],[λ1],[λ2],[λ3]均為超參數(shù),用以平衡各個(gè)損失函數(shù)之間的權(quán)重。

2 實(shí)驗(yàn)

2.1 數(shù)據(jù)集

為了評(píng)估本文提出方法的有效性,在兩個(gè)公開(kāi)的數(shù)據(jù)集(SYSU-MM01和RegDB)上做了充分的實(shí)驗(yàn),數(shù)據(jù)集參數(shù)如下。

SYSU-MM01數(shù)據(jù)集由4個(gè)可見(jiàn)光相機(jī)和2個(gè)紅外攝像機(jī)在室內(nèi)和室外拍攝而成,涉及491個(gè)身份。其中訓(xùn)練集包括22 258張可見(jiàn)光圖像和11 909張紅外圖像,涉及395個(gè)身份。測(cè)試集包含3 803張用于被檢索紅外圖像和301張用于檢索的可見(jiàn)光圖像,共96個(gè)身份。此數(shù)據(jù)集包含全局搜索和室內(nèi)搜索兩種測(cè)試模式。

RegDB數(shù)據(jù)集由一對(duì)對(duì)齊的可見(jiàn)光和熱成像相機(jī)拍攝而成,包括412個(gè)身份的4 120張圖片,每個(gè)身份對(duì)應(yīng)10張可見(jiàn)光圖像和10張熱成像圖像。此數(shù)據(jù)集被隨機(jī)劃分為兩部分,206個(gè)身份用于訓(xùn)練,其余206個(gè)身份用于測(cè)試。訓(xùn)練和測(cè)試均需基于數(shù)據(jù)集的隨機(jī)劃分重復(fù)進(jìn)行10次實(shí)驗(yàn)。

2.2 參數(shù)設(shè)置

采用雙注意力機(jī)制增強(qiáng)的雙流網(wǎng)絡(luò),引入PCB模塊,以ResNet50作為骨干提取特征,共享后3個(gè)殘差塊的參數(shù)。采用隨機(jī)梯度下降(SGD)優(yōu)化器進(jìn)行訓(xùn)練。訓(xùn)練階段,所有的可見(jiàn)光和紅外圖像的大小調(diào)整為[288×144],通過(guò)隨機(jī)通道交換、擦除、翻轉(zhuǎn)增強(qiáng)數(shù)據(jù)集。初始學(xué)習(xí)率設(shè)置為0.1,在前10個(gè)訓(xùn)練周期采用預(yù)熱策略,在第20個(gè)訓(xùn)練周期衰減為0.01,在第50個(gè)訓(xùn)練周期衰減為0.001。訓(xùn)練周期總數(shù)設(shè)置為100。在每一個(gè)訓(xùn)練批次中,隨機(jī)抽取4個(gè)行人,其中每個(gè)行人分別抽取4張可見(jiàn)光圖像和4張紅外圖像,共32張行人圖像。超參數(shù)的取值區(qū)間為[[0,1]],根據(jù)實(shí)驗(yàn)結(jié)果的優(yōu)劣,不斷微調(diào)參數(shù)值,以取得更好的實(shí)驗(yàn)效果,最終總損失函數(shù)[L]的參數(shù)值在RegDB數(shù)據(jù)集上分別設(shè)置為[α=1],[λ1=1],[λ2=][0.6],[λ3=0.6];在SYSU-MM01數(shù)據(jù)集上設(shè)置[α=1],[λ1=0.5],[λ2=0.1],[λ3=2]。

2.3 對(duì)比現(xiàn)有方法

對(duì)比了近些年來(lái)提出的可見(jiàn)光-紅外行人重識(shí)別方法,表1和表2分別展示了在RegDB數(shù)據(jù)集和SYSU-MM01數(shù)據(jù)集上與不同方法比較的結(jié)果。在RegDB數(shù)據(jù)集中,可見(jiàn)光到紅外模式下達(dá)到了95.22%的Rank1,87.70%的mAP和74.48%的mINP;紅外到可見(jiàn)光模式下達(dá)到了93.67%的Rank1,86.43%的mAP和71.68%的mINP。在SYSU-MM01數(shù)據(jù)集中,全局搜索模式下達(dá)到了74.18%的Rank1,70.04%的mAP和56.97%的mINP;室內(nèi)搜索模式下達(dá)到了79.69%的Rank1,83.08%的mAP和79.65%的mINP。基于所有這些評(píng)估和比較的結(jié)果,可以確認(rèn)本文方法的優(yōu)越性及有效性。

2.4 消融實(shí)驗(yàn)

以RegDB數(shù)據(jù)集為例,評(píng)估模型的有效性。

1) 不同模塊的效果。首先從模型中刪除兩個(gè)注意力模塊、PCB模塊及其對(duì)應(yīng)的損失函數(shù),以此作為基線方法Base進(jìn)行比較。P表示結(jié)合局部特征及其對(duì)應(yīng)的損失函數(shù),MCA表示采用注意力模塊MCA,PCA表示采用注意力模塊PCA。具體結(jié)果如表3所示,從中可以清晰地看出,在采用MCA時(shí)效果比Base增加2.77%,比Base+P增加1.02%;在采用PCA時(shí)效果比Base增加2.72%,比Base+P增加0.68%;同時(shí)加上兩個(gè)注意力機(jī)制時(shí)效果比Base增加4.56%,比Base+P增加1.87%。

2) 利用全局特征進(jìn)行預(yù)測(cè)的有效性。為了驗(yàn)證僅使用全局特征分支進(jìn)行預(yù)測(cè)的效果,在此以RegDB數(shù)據(jù)集為例,對(duì)比利用全局特征和局部特征的預(yù)測(cè)結(jié)果,其中Local表示僅利用局部特征進(jìn)行預(yù)測(cè),Global表示僅利用全局特征進(jìn)行預(yù)測(cè),Global+Local表示聯(lián)合使用全局特征和局部特征進(jìn)行預(yù)測(cè)。具體結(jié)果如表4所示,從中可以觀察到利用全局特征分支進(jìn)行預(yù)測(cè)的效果最好。

3) 層次劃分的效果。不同的層次劃分?jǐn)?shù)量決定了行人局部特征通道交互的粒度。以RegDB數(shù)據(jù)集為例,圖4展示了不同層次劃分的效果,其中橫軸Part表示分塊的數(shù)量。為了保證Part的有效性,避免出現(xiàn)垂直方向上特征無(wú)法均分導(dǎo)致信息丟失的情況,所以Part在此可以取1,2,3,6,其中[Part=1]表示不做分塊。可以觀察到[Part=3]是分層提取局部行人特征的最佳設(shè)置。

3 結(jié)論

基于注意力機(jī)制,本文提出了一種端到端可見(jiàn)光-紅外行人重識(shí)別模型。重點(diǎn)針對(duì)可見(jiàn)光圖像和紅外圖像之間的模態(tài)差異,提出兩種注意力機(jī)制,能夠有效的提取判別性行人特征,主要結(jié)論如下。

1) 提出多尺度交叉注意力機(jī)制MCA,結(jié)合不同尺度的最大池化和空洞卷積,擴(kuò)大感受野,獲取多尺度的上下文信息。

2) 提出局部通道交互注意力機(jī)制PCA,增強(qiáng)了局部特征的通道交互能力,對(duì)不同背景和遮擋等噪聲具有更強(qiáng)的魯棒性。

3) 通過(guò)設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合全局特征和局部特征,在RegDB數(shù)據(jù)集和SYSU-MM01數(shù)據(jù)集上均取得最優(yōu)的效果。

參考文獻(xiàn):

[1]? ?WANG G, ZHANG T, CHENG J, et al. RGB-infrared cross-modality person re-identification via joint pixel and feature alignment[C]//Seoul: Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019.

[2]? ?ZHANG Q, LAI C, LIU J, et al. Fmcnet: Feature-level modality compensation for visible-infrared person re-identification[C]//New Orleans: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022.

[3]? ?LI D, WEI X, HONG X, et al. Infrared-visible cross-modal person re-identification with an X modality[C]//New York: Proceedings of the AAAI Conference on Artificial Intelligence, 2020.

[4]? ?ZHANG Y, YAN Y, LU Y, et al. Towards a unified middle modality learning for visible-infrared person re-identification[C]//Chengdu: Proceedings of the 29th ACM International Conference on Multimedia, 2021.

[5]? ?WU A, ZHENG W S, GONG S, et al. RGB-IR person re-identification by cross-modality similarity preservation[J]. International Journal of Computer Vision, 2020, 128: 1765-1785.

[6]? ?HAO Y, WANG N, LI J, et al. HSME: Hypersphere manifold embedding for visible thermal person re-identification[C]//Honolulu: Proceedings of the AAAI Conference on Artificial Intelligence, 2019.

[7]? ?YE M, SHEN J B, CRANDALL D J, et al. Dynamic dual-attentive aggregation learning for visible-infrared person re-identification[C]//Glasgow: European Conference on Computer Vision - ECCV 2020, 2020.

[8]? ?YE M, SHEN J B, LIN G, et al. Deep learning for person re-identification: A survey and outlook[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 44(6): 2872-2893.

[9]? ?YE M, RUAN W, DU B, et al. Channel augmented joint learning for visible-infrared recognition[C]//Montreal: Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021.

[10] WU Q, DAI P, CHEN J, et al. Discover cross-modality nuances for visible-infrared person re-identification[C]//Nashville: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021.

[11] SUN Y, ZHENG L, YANG Y, et al. Beyond part models: Person retrieval with refined part pooling[C]//Munich: Proceedings of the European Conference on Computer Vision (ECCV), 2018.

[12] 張泓,范自柱,石林瑞,等. 一種基于多尺度特征融合的人頭計(jì)數(shù)檢測(cè)方法研究[J]. 華東交通大學(xué)學(xué)報(bào),2021,38(2): 115-121.

ZHANG H, FAN Z Z, SHI L R, et al. A head detection method based on multi-scale feature fusion[J]. Journal of East China Jiaotong University,2021,38(2): 115-121.

[13] HAO X, ZHAO S, YE M, et al. Cross-modality person re-identification via modality confusion and center aggregation[C]//Montreal: Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021.

[14] ZHANG L Y, DU G D, LIU F, et al. Global-local multiple granularity learning for cross-modality visible-infrared person reidentification[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021: 34138719.

[15] HUANG Z, LIU J, LI L, et al. Modality-adaptive mixup and invariant decomposition for RGB-infrared person re-identification[C]//Vancouver: Proceedings of the AAAI Conference on Artificial Intelligence, 2022.

[16] CHEN C, YE M, QI M, et al. Structure-aware positional? transformer for visible-infrared person re-identification[J]. IEEE Transactions on Image Processing, 2022, 31: 2352-2364.

[17] JIANG K, ZHANG T, LIU X, et al. Cross-modality transformer for visible-infrared person re-identification[C]//Tel-Aviv: European Conference on Computer Vision, 2022.

[18] LIU J, SUN Y, ZHU F, et al. Learning memory-augmented unidirectional metrics for cross-modality person re-identification[C]//New Orleans: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022.

第一作者:魏克銘(1998—),男,碩士研究生,研究方向?yàn)樯疃葘W(xué)習(xí)、模式識(shí)別。E-mail: wkmqyr@163.com。

通信作者:范自柱(1975—),男,博士,教授,博士生導(dǎo)師,研究方向?yàn)槟J阶R(shí)別、機(jī)器學(xué)習(xí)。E-mail: zzfan3@163.com。

主站蜘蛛池模板: 人妻精品久久无码区| 午夜天堂视频| 亚洲欧洲日韩国产综合在线二区| 久久亚洲国产最新网站| 亚洲—日韩aV在线| 国产清纯在线一区二区WWW| 亚洲天堂网在线观看视频| 99久久国产综合精品女同| 91麻豆精品国产高清在线| 精品视频第一页| 国产传媒一区二区三区四区五区| 四虎成人免费毛片| 国产伦片中文免费观看| 亚洲国产一区在线观看| 免费在线视频a| 在线播放精品一区二区啪视频| 国产欧美在线观看一区| 波多野结衣第一页| 97国产成人无码精品久久久| 香蕉精品在线| 国产精品女主播| 免费一级无码在线网站| 亚洲av日韩av制服丝袜| 26uuu国产精品视频| 国产成人一区二区| 国产精品一老牛影视频| 爽爽影院十八禁在线观看| 国产电话自拍伊人| 国产制服丝袜无码视频| 国产肉感大码AV无码| 真人高潮娇喘嗯啊在线观看| 国产欧美中文字幕| 91小视频在线观看| 99久久这里只精品麻豆| 亚洲成年人网| 亚洲高清资源| 日韩中文无码av超清| 亚洲无码高清免费视频亚洲| 亚洲精品视频免费| 国产靠逼视频| 亚洲无线观看| 日韩在线播放欧美字幕| 亚洲无码免费黄色网址| 91亚洲免费视频| 午夜视频免费试看| 欧美色丁香| 国产精品私拍99pans大尺度| 国产91无毒不卡在线观看| h视频在线播放| 亚洲最大福利网站| 国产在线精彩视频二区| 伊人久久婷婷五月综合97色| 免费AV在线播放观看18禁强制| Aⅴ无码专区在线观看| 日本91在线| 四虎亚洲精品| 亚洲第一成人在线| 欧美色视频在线| 2021天堂在线亚洲精品专区| 日韩无码一二三区| 色丁丁毛片在线观看| 亚洲日本中文字幕天堂网| 亚洲一区色| 久久久噜噜噜| 成年免费在线观看| 亚洲制服丝袜第一页| 日韩不卡高清视频| 国产福利在线观看精品| 国产精品99r8在线观看| 国产黄色爱视频| 视频二区亚洲精品| 久久人妻系列无码一区| 亚洲综合激情另类专区| 国产免费观看av大片的网站| 亚洲天堂视频在线播放| 国产H片无码不卡在线视频| 中国一级特黄视频| 91成人在线观看| 中文成人在线视频| 国产真实自在自线免费精品| 谁有在线观看日韩亚洲最新视频| 91午夜福利在线观看|