關鍵詞:行人重識別;無監(jiān)督域適應;注意力機制;特征融合
中圖分類號:TP391 文獻標志碼:A 文章編號:1671-6841(2025)06-0051-07
DOI: 10.13705/j. issn.1671-6841.2024031
Abstract: With unsupervised cross domain pedestrian re-identification technology,labeled information could be transfered from the source domain to the target domain to cope with unlabeled situations,clustering methods were to achieve unsupervised domain adaptation,so that to achieve cross domain pedestrian re-identification.However,clustering based on solely global featureswas susceptible to noise generated by interdomain differences,and single network structure training could lead to eror amplification and affect model performance. A dual-branch attntion-based fusion algorithm was proposed to extract amp; fuse invariant and specific features to enhance target domain generalization and to reduce clustering noise. At the same time,a symmetric network architecture was introduced for synchronous collaborative training, form a mutually supervised learning mechanism to efectively suppress overfiting problems. Experiments showed that on the Market-1501 and DukeMTMC-ReID datasets,the algorithm significantly improved the (20 mAP and Rank accuracy of unsupervised cross domain pedestrian re-identification.
Key words: person re-identification;unsupervised domain adaptation;attention mechanism;feature fusion
0 引言
隨著卷積神經(jīng)網(wǎng)絡的發(fā)展,行人重識別領域取得了令人鼓舞的成果,已廣泛應用于智能安防領域之中[2]。然而,在基于全監(jiān)督的行人重識別算法中卷積神經(jīng)網(wǎng)絡通常存在對訓練數(shù)據(jù)集過擬合的問題,導致對測試數(shù)據(jù)集的識別性能較差,尤其是在源域數(shù)據(jù)與目標域數(shù)據(jù)存在明顯域間差異時[3]。為了將重識別模型應用到真實的視頻監(jiān)控場景中,學者提出了無監(jiān)督域自適應[4行人重識別方法。無監(jiān)督跨域行人重識別算法通過在源域上訓練一個模型,并使用自監(jiān)督或半監(jiān)督學習等方法,對目標域進行遷移學習來提升模型在目標域上的性能。然而這些方法只能消除給定源域內的樣本差異,難以充分表征目標域中的新樣本,使得在聚類過程中容易引人偽標簽噪聲,存在對相似人群區(qū)分能力差等問題
針對以上問題,基于樣本特征存在的類內收斂性、類間外散性的特點,本文提出了基于雙分支注意力特征融合的跨域行人重識別算法,該方法通過兩個分支模塊來提取影響模型適應性的域內特定特征和影響模型泛化的域間不變特征,再通過注意力機制對兩者進行特征融合強化。結合域不變特征和域特定特征可以兼顧行人特征的共性和個性,提高了跨域行人重識別的準確度。同時,在網(wǎng)絡訓練過程中使用對稱的網(wǎng)絡結構進行同步學習來加速模型收斂。本文的創(chuàng)新點如下。
1)在分別提取域特定特征和域不變特征時,引入全維動態(tài)卷積全面學習特征圖空域與不同通道上的特征,更細致地區(qū)分二者的不同,并在此基礎上設計了一種基于注意力機制的特征融合模塊。該模塊通過引入類似CBAM注意力機制的結構,自適應地融合域特定特征和域不變特征加強聚類特征的表示,增強聚類算法對同類樣本的聚集效果,降低誤分類率。
2)在1)的基礎上搭建對稱網(wǎng)絡結構進行輔助訓練,采用協(xié)同訓練的方式顯著降低網(wǎng)絡根據(jù)特征進行聚類生成的偽標簽的噪聲,增強偽標簽的可靠性,達到良好的模型泛化能力,提升模型在不同數(shù)據(jù)域下的檢測精度。
1相關工作
無監(jiān)督域自適應行人重識別方法利用來自源域的標注數(shù)據(jù)和目標域少量的非標注數(shù)據(jù),將源域數(shù)據(jù)的特征向量映射到目標域中,實現(xiàn)源域和目標域之間的特征的對齊。
目前的無監(jiān)督域自適應行人重識別方法可以分為以下兩種。
1)利用生成對抗網(wǎng)絡將圖像風格從源域樣本轉移到目標域樣本減少域差異。IPESGAN[5]對特征進行解耦生成具有保留同一性的跨域圖像。PTGAN[6] 解決了域間偏移問題,但生成圖像容易受到源域影響。 SPGAN[7] 則利用相似度來減弱源域影響。CR-GAN[8]通過強化實例的渲染效果來提升其識別能力。但是GAN的引入會導致產(chǎn)生額外的噪聲,使模型泛化能力變差。
2)利用軟標簽或偽標簽機制探索兩個域之間的相似性。其中偽標簽對未標注數(shù)據(jù)進行預測,基于預測結果進行二次訓練;軟標簽將One-Hot標簽轉換為與其他圖像相似度的向量值,基于向量值進行二次訓練。文獻[9]通過計算目標域樣本和源域樣本指導模型在目標域上的泛化,為無監(jiān)督學習開拓了新的方向。
受制于源域與目標域數(shù)據(jù)模態(tài)的差異,軟標簽噪聲非常嚴重。 CDS[10] 提出了結合聚類與動態(tài)采樣機制,將有標簽源領域的知識遷移至無標簽目標領域通過迭代進行樣本聚類,形成多個中心,并從中心中選取代表性強的樣本,對源領域執(zhí)行微調操作。大多數(shù)無監(jiān)督行人重識別方法忽略了相機之間的分布差異, ICAM[11] 在跨域學習中,需要根據(jù)相機參數(shù)進行優(yōu)化,但這種方法需要對相機進行詳細的訓練和測試,因此算法的通用性較差。
以上方法只從給定的源域中消除樣式差異,并沒有充分挖掘目標域中的新樣式,因此對新域泛化性較差,導致模型的識別準確率較低。
2算法描述
本文提出了一種基于雙分支注意力特征融合的網(wǎng)絡結構,如圖1所示。該網(wǎng)絡由兩部分組成,分別是對域特定特征和域不變特征進行提取的特征提取模塊[12]、對兩者使用注意力機制進行加權融合的雙分支特征融合模塊。同時為了增強網(wǎng)絡對偽標簽的抗噪能力,使用與MMT(mutualmean teaching)[13]相同的對稱網(wǎng)絡結構通過協(xié)同訓練機制實現(xiàn)互補監(jiān)督效能,旨在規(guī)避主干網(wǎng)絡輸出誤差所導致的過擬合問題。
圖1雙分支特征融合網(wǎng)絡
Figure 1 Dual branch feature fusion network

2.1 雙分支特征融合網(wǎng)絡
主干網(wǎng)絡采用在性能和架構方面都表現(xiàn)出色的ResNet50[14] 。為了進一步提高主干網(wǎng)絡的性能,以文獻[15]的方法為啟發(fā),提取ResNet50的第3和第4卷積層的特征映射,分別進行域不變特征的提取和域特定特征的提取。域不變特征是指不受域差異影響的通用特征,這種特征在源域和目標域中具有一致性,可以用于跨域數(shù)據(jù)的表示和處理。域特定特征指的是在源域和目標域中具有差異性的特征,這些特征可以被認為是域間目標任務的關鍵區(qū)別[16]。將兩者進行基于注意力機制的特征融合使它們能夠相互補充,提高模型對跨域數(shù)據(jù)的泛化能力。
2.1.1域不變特征提取模塊設計域不變特征(domaininvariantfeatures,DIF)提取模塊來學習域的不變特征。該模塊結構如圖2所示。模塊由兩個特征校準層(feature calibration layer,F(xiàn)CL)['7]、兩個全維動態(tài)卷積層(omni-dimensional dynamicconvolu-tion,ODConv)ReLU激活函數(shù)層和風格歸一化層(instancenormalization,IN)組成。根據(jù)文獻[18]的實驗結果,卷積過程中很容易出現(xiàn)數(shù)據(jù)偏差的問題,使用FCL層來提取通道信息和空間信息,定位具有區(qū)分特征的局部特征,并降低噪聲。FCL描述為

其中: x?(n,c,h,w) 和 X(n,c,h,w) 分別表示輸入特征和校準之后的特征; n 表示批次數(shù); c 表示通道數(shù); h 和 w 分別是輸入圖像的高度和寬度; ω∈R1×C×1×1 表示可以學習的權重向量; μ 為小批量樣本的平均值, μ∈ R1×C×1×1 ;·表示內積運算。由于特征校準層傾向于學習源域的區(qū)別性特征,因此當目標域樣本和源域樣本之間的特征分布存在較大差異時,經(jīng)訓練的網(wǎng)絡模型可能無法準確識別目標域樣本。IN層利用統(tǒng)計特征分布信息完成特征規(guī)范化,過濾掉域特定信息,計算過程為

其中: xin 表示ReLU激活函數(shù)的輸出;
和δ∈Rc 分別表示小批量樣本的均值和方差; γ∈Rc 和
表示仿射參數(shù);引入 ε(εgt;0) 避免分式中分母為零。從域不變特征提取模塊獲得的特征XDIF 描述為
XDIF=ODConv(IN(ReLU(XFCL))),
IN 表示風格歸一化層。 XFCL 的形式描述為

其中: Xs 表示原始輸人特征。
圖2域不變特征提取模塊

2.1.2域特定特征提取模塊為了獲得更好的域適應能力,設計了域特定特征(domainspecific fea-ture,DSF)提取模塊學習域特定特征表示。
如圖3所示,該模塊由兩個特征校準層、一個Bottleneck層和一個全維動態(tài)卷積層組成。這里引入特征校準,緩解神經(jīng)網(wǎng)絡特征表示的偏差,防止源域樣本和目標域樣本之間的特征分布差異較大,從而影響系統(tǒng)性能。引入Bottleneck層降低網(wǎng)絡模型的復雜度,在去除高頻噪聲的同時加快網(wǎng)絡模型的訓練速度。最后利用卷積層來提取全局特征。從域特定特征提取模塊獲得的特征 XDSF 描述為
XDSF=ODConv(FCL(ReLU(XFCL′))),
其中: XFCL′ 表示為

Xi 表示原始特征的輸入。
圖3域特定特征提取模塊
Figure 3Domain specific feature extraction module

2.1.3特征融合模塊為了自適應地融合域特定特征和域不變特征,本文參考CBAM注意力機制,在特征融合模塊中引入了類似通道注意力的結構。XDSF 代表域特定特征, XDIF 代表域不變特征,域不變特征首先經(jīng)過具有一個隱藏層的多層感知機(MLP),然后利用sigmoid函數(shù)進行歸一化,獲得當前域不變特征的注意力權重。為了能夠在域不變特征中突出學習有利于特征融合的信息,本文在特征融合模塊中增加了一個殘差連接,如圖4中的虛線所示,將 XDIF 和MLP輸出的注意力權重進行逐元素相乘,獲得最終的注意力特征圖 Z ,然后通過空間維度的廣播機制將域特定特征圖 XDSF 和注意力特征圖Z 在通道維度上進行逐元素相乘,經(jīng)過GAP和BN層之后得到用于聚類的融合特征圖,融合特征 F 為

其中: σ 代表sigmoid函數(shù)。
圖4特征融合模塊
Figure4Featurefusion module

2.2 對稱網(wǎng)絡結構
2.2.1網(wǎng)絡參數(shù)更新為了提升網(wǎng)絡對聚類生成偽標簽的魯棒性,本研究參考MMT構建了一個如圖5所示的對稱協(xié)同表征學習模型。該模型的核心部分采用了兩個相同的雙分支注意力融合子網(wǎng)作為主干結構,并將其應用于目標領域的訓練任務中。值得注意的是,這兩個子網(wǎng)分別采用不同的預訓練初始化參數(shù)以增加模型學習的多樣性。
此外,為了促使兩個網(wǎng)絡能夠捕捉更全面、豐富的特征信息,對接收每個網(wǎng)絡中的目標域圖像執(zhí)行了不同的數(shù)據(jù)增強策略,具體涵蓋了隨機翻轉、非確定性縮放及隨機裁剪等多種操作手段。這樣的設計可以提供多個視角和變化下的特征表達,增強跨域行人重識別模型對于不同域數(shù)據(jù)的泛化能力,提高聚類偽標簽的準確性和穩(wěn)定性。
為了保留兩個網(wǎng)絡每次迭代的知識學習經(jīng)驗,采用時間平均模型進行融合,將對稱網(wǎng)絡在每個訓練迭代中的參數(shù)進行累加,并在最后除以總迭代次數(shù)進行平均。通過式(8)對兩個網(wǎng)絡進行更新
圖5對稱網(wǎng)絡結構
Figure 5Symmetric network structure


其中:
表示前一次迭代中兩個網(wǎng)絡的時間平均參數(shù); T 表示時刻; α 是在[0,1)范圍內的集合動量。初始時間平均參數(shù)
,
。借助平均模型生成的監(jiān)督信號,兩個網(wǎng)絡能夠利用對方對偽標簽的預測結果進行互補性學習,在一定程度上有效地抑制誤差的累積與放大效應。
2.2.2損失函數(shù)設計在行人重識別任務中,常規(guī)做法是結合運用分類損失(classificationloss)與三元組損失(tripletloss)進行聯(lián)合優(yōu)化以追求更優(yōu)的識別性能。分類損失針對分類器輸出的預測類別進行約束,而三元組損失則直接對圖像特征表達的空間布局進行調整和規(guī)范化。
將兩個對稱網(wǎng)絡表示為 F(?|θ1) 和 F(? ∣θ2),C1t 和 C2t 表示為偽標簽分類器,C1t(F(xit∣θ1) ), C2t(F(xi′′∣θ2) )分別表示兩個網(wǎng)絡的預測結果,為了避免誤差放大,使用每個網(wǎng)絡的時間平均模型生成可靠的軟偽標簽來監(jiān)督另一個網(wǎng)絡。雙分支網(wǎng)絡1和2的分類損失可以表示為

logC2t(F(xit∣θ2)),
三元損失使用softmax-triplet來表示三元組內特征間的關系,網(wǎng)絡1和2的三元組損失表示為


其中: Ti(ET[θ1] )和 Ti(ET[θ2] )是兩個網(wǎng)絡過去的時間平均模型生成的軟三元組標簽; LBCE 表示二元交叉熵損失。綜合分類損失與三元組損失,最終總的損失函數(shù)表示為
L(θ1,θ2)=λidt(Lsidt(θ1∣θ2)+Lsidt(θ2∣θ1))+
λtrit(Lstrit(θ?1∣θ?2)+Lstrit(θ?2∣θ?1)),
其中: λid′,λιriι 表示加權參數(shù)。
3 實驗分析
3.1 數(shù)據(jù)集與評價指標
在公開數(shù)據(jù)集Market-1501[19]、DukeMTMC-ReID[20] 上對本文方法進行驗證。Market-1501數(shù)據(jù)集是在清華大學校園環(huán)境中構建的行人重識別基準集合,包含由6個不同攝像設備所捕獲的、代表1501個不同身份行人的圖像樣本。DukeMTMC-ReID數(shù)據(jù)集是來自杜克大學監(jiān)控攝像頭的行人重識別數(shù)據(jù)集。該數(shù)據(jù)集包含來自8個攝像頭的1812個身份的行人圖像,共計超過16000張訓練圖像和19000張測試圖像。與Market-1501數(shù)據(jù)集中的數(shù)據(jù)一樣,行人都呈現(xiàn)出姿態(tài)、角度、服裝、光照等多樣性的特點。
采用平均精度均值 mAP 和累計匹配特性CMC作為模型性能的評價指標。CMC曲線通過展示Rank準確率的變化趨勢,為算法性能提供了一個全面的、可視化的評估方式。Rank準確率衡量的是在檢索結果的前 n 個位置中找到正確匹配目標的概率。例如,Rank1準確率代表了首位檢索結果即為正確匹配目標的概率。
3.2 實驗參數(shù)
實驗使用的GPU為顯存24GB的GTX100-24,CPU為IntelXeonE52640-v4,系為Debian11,使用PyTorch1.11.0框架,選擇ResNet50作為基準網(wǎng)絡。每個輸入圖像的像素統(tǒng)一設置為 384×128 ,并且每個輸入圖像通過隨機裁剪、翻轉、遮擋等不同策略進行增強;兩個對稱網(wǎng)絡進行不同的隨機參數(shù)初始化。初始學習率設置為 3.5×10-3 ,總共進行80次迭代,并在每迭代20輪之后縮小 10% 。
3.3 消融實驗
為了驗證雙分支注意力特征融合模塊的有效性。分別使用DukeMTMC-ReID數(shù)據(jù)集為源數(shù)據(jù)集,Market-1501數(shù)據(jù)集為目標數(shù)據(jù)集(Duke-to-Market),以及使用Market-1501數(shù)據(jù)集為源數(shù)據(jù)集,DukeMTMC-ReID數(shù)據(jù)集為目標數(shù)據(jù)集(Market-to-Duke)進行兩組消融實驗。實驗中,Base表示在ResNet50基礎上僅使用聚類方法的偽標簽進行訓練。D為在Base的基礎上引入對稱網(wǎng)絡結構,T為在Base的基礎上加入雙分支結構但僅對域不變特征和域特定特征進行平均加權操作,B為本文所提出的雙分支注意力特征融合策略。實驗結果如圖6所示。
圖6(a)和(b)分別表示在Duke-to-Market和Market-to-Duke上進行對比實驗的CMC曲線結果。從D的折線可以看出當引人對稱網(wǎng)絡結構進行強化訓練時會提升模型的精度。由表1可知,相較于Base,D在兩個數(shù)據(jù)集的Rank1準確率分別提升了14.1個百分點和39.4個百分點, mAP 分別提升了15.0個百分點和27.2個百分點。由實驗結果可以得出,T同時考慮域不變特征和域特定特征可以起到良好的泛化效果,與實驗D相比Rank1準確率分別提升了8.1個百分點和1.9個百分點, mAP 分別提升了18.2個百分點和13.8個百分點。實驗B在引入雙分支注意力特征融合模塊與沒有進行基于注意力特征融合的平均加權策略T相比,在兩組實驗中Rank1準確率分別提升了10.9個百分點和9.4個百分點, mAP 分別提升了10.7個百分點和4.1個百分點,驗證了對域不變特征和域特定特征進行基于注意力的特征融合,可以增加模型對不同域之間的特征變化的魯棒性,提高跨域匹配準確度。
圖6消融實驗各模塊有效性對比
Figure 6Each module in the ablation experiment

表1消融實驗結果
Table1 Resultsofablation experiment單位: %

注:準確率指Rank1的準確率;黑體表示最優(yōu)值。
3.4 對比實驗
將本文算法與已有SOTA(state-of-the-art)算法分別在以上兩個數(shù)據(jù)集上進行對比實驗。比較的方法包括:基于風格遷移的算法SPGAN、CR-GAN和PTGAN;基于偽標簽優(yōu)化和聚類的算法、 SSG[21] MMT和 PPLR[22] ○
表2展示了在Duke-to-Market實驗中,本文方法的Rank1Rank5Rank10準確率和 mAP 明顯優(yōu)于已有SOTA方法,取得了 92.0% 的Rank1準確率與79.9% 的 mAP 。在Market-to-Duke實驗中,本文方法取得了 83.2% 的Rank1準確率與 70.1% 的 mAP 相比SOTA方法有著較為明顯的性能提升。由此可以得出,將域不變特征與域特定特征基于注意力機制進行融合并使用雙分支結構進行聚類,能夠有效改善跨域行人重識別場景下的識別性能。
表2對比實驗
Table 2 Comparativeexperimentresults

注:“—”表示暫無實驗數(shù)據(jù);黑體表示最優(yōu)值。
4總結
本文提出了以ResNet50作為主干網(wǎng)絡的雙分支注意力特征融合的跨域行人重識別算法。其中雙分支注意力特征融合模塊引入域不變特征和域特定特征提取模塊,分別對域特定特征和域不變特征進行充分學習,并對這兩個分支中的特征進行融合,以便將有標簽的源域學習的知識遷移到無標簽的目標域上,同時采用對稱網(wǎng)絡架構協(xié)同訓練主干網(wǎng)絡,提高網(wǎng)絡對特征的敏感程度并提升泛化能力。實驗結果表明,本文提出的基于雙分支注意力特征融合的行人重識別算法能夠提升跨域情況下行人重識別的精度,且在不同數(shù)據(jù)集上具有泛化性和魯棒性。但該算法依然存在特征細化不足的情況,后續(xù)的研究會考慮對圖像進行多尺度的特征提取,從而進一步提高模型識別能力,并將所提出的方法應用在智能安防的場景中。
參考文獻:
[1] ZHANGM,YUZ,HANY,etal.Areview ofpedestrian re-identification for complex scenes [J].Computer science,2022,49(10):138-150.
[2] 任向陽,王杰,馬天磊,等.紅外弱小目標檢測技術 綜述[J].大學學報(理學版),2020,52(2):1- 21. RENXY,WANGJ,MATL,etal.Reviewoninfrared dim and small target detection technology[J].Journal of Zhengzhou university(natural science edition),2020, 52(2):1-21.
[3] ZHANGH,WANGXY,LIUJX,etal.Chinese named entity recognition method for the finance domain based on enhanced features and pretrained language models[J]. Information sciences,2023,625:385-400.
[4]LIN X T,REN P Z, YEH C,et al. Unsupervised person re-identification:a systematic survey of challenges and solutions[EB/OL].(2021-10-02)[2023-11-06]. https :// arxiv.org/abs/2109.06057.
[5]VERMA A,SUBRAMANYAM A V,WANG Z,et al. Unsupervised domain adaptation for person re-identification via individual-preserving and environmental-switching cyclic generation[J]. IEEE transactions on multimedia, 2023,25:364-377.
[6]QIN HN,XIE W Y,LIY S,et al. PTGAN:a proposalweighted two-stage GAN with attention for hyperspectral target detection[ C]//IEEE International Geoscience and Remote Sensing Symposium. Piscataway: IEEE Press, 2021:4428-4431.
[7]DENG W J, ZHENG L,YE Q X,et al. Image-image domain adaptation with preserved self-similarity and domaindissimilarity for person re-identification[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE Press,2018:994-1003.
[8]CHEN Y B,ZHU X T,GONG S G. Instance-guided context rendering for cross-domain person re-identification [C]//IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE Press,2019:232-242.
[9]YU H X,ZHENG W S,WU A C,et al. Unsupervised person re-identification by soft multilabel learning[C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press,2019:2143 - 2152.
[10]WU JL,LIAO SC,LEI Z,et al. Clustering and dynamic sampling based unsupervised domain adaptation for person re-identification[C]//IEEE International Conference on Multimedia and Expo. Piscataway: IEEE Press, 2019:886-891.
[11]XUAN S Y,ZHANG S L. Intra-inter camera similarity for unsupervised person re-identification [C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE Press,2021:11921- 11930.
[12]JI K K,HUANG P,ZHU S H.Attention-calibration based double-branch cross-domain person re-identification [J].Knowledge-based systems,2022,258:110019.
[13] GE Y X,CHEN D P,LI H S. Mutual mean-teaching: pseudo label refinery for unsupervised domain adaptation on person re-identification[EB/OL].(2020-01-06) [2023-11-06]. http://arxiv.org/abs/2001.01526.
[14]HEKM,ZHANGXY,RENSQ,et al.Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway : IEEE Press,2016: 770-778.
[15] MA J, ZHANG T,YANG C,et al. Review of wafer surface defect detection methods[J].Electronics,2023, 12: 1787-1804.
[16] MA J,MA X,YANG C,et al. An air pollutant forecast correction model based on ensemble learning algorithm [J].Electronics,2023,12:1463-1473.
[17]GAO S H,HAN Q,LI D,et al. Representative batch normalization with feature calibration[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2021: 8665-8675.
[18]LIU Z W,LUO P,QIU S,et al.DeepFashion:powering robust clothes recognition and retrieval with rich annotations[C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2016: 1096- 1104.
[19]ZHENG ZD,ZHENGL,YANG Y. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]//IEEE International Conference on Computer Vision. Piscataway: IEEE Press,2017:3774- 3782.
[20] ZHENG L, SHEN L Y, TIAN L,et al. Scalable person re-identification:a benchmark[C]//IEEE International Conference on Computer Vision. Piscataway: IEEE Press,2015:1116-1124.
[21]FUY,WEI Y C,WANG G S,et al. Self-similarity grouping: a simple unsupervised cross domain adaptation approach for person re-identification[C]//IEEE/CVF International Conference on Computer Vision. Piscataway : IEEE Press,2019:6111-6120.
[22] CHO Y,KIM W J,HONG S,et al. Part-based pseudo label refinement for unsupervised person re-identification [C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press,2022: 7298-7308.