999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進生成對抗網絡的換衣行人再識別

2022-09-28 08:59:40張玉霞車進賀愉婷
液晶與顯示 2022年10期
關鍵詞:特征

張玉霞,車進*,賀愉婷

(1.寧夏大學 物理與電子電氣工程學院,寧夏 銀川750021;2.寧夏沙漠信息智能感知重點實驗室,寧夏 銀川750021)

1 引 言

行人再識別[1](Person re-identification,ReID)是指給定一個目標監控行人圖像,檢索跨攝像頭、跨時段拍攝的該行人圖像。行人再識別通常被視為一個度量學習問題[2]。由于在安全和監控方面有重要的應用,因此行人再識別受到學術界和工業界的廣泛關注。隨著深度學習方法的廣泛應用,不同算法的ReID性能迅速提高,但由于拍攝的行人圖像會受到背景、光照、人體姿態變化、遮擋等引起的顯著類內差異的影響,并且行人再識別研究[3-6]都假設同一個人穿著相同的衣服,如文獻[7]中提到的一名女嫌犯為躲避追捕,故意將黑色外套換成白色外套,行人再識別算法很容易將穿著不同、ID相同的行人識別錯誤。因此,行人再識別仍是一項艱巨的任務。

為進一步減少類內變化的影響,文獻[8]尋找最優的仿射變換用來更好地區分不同的身份ID,提出PAN網絡,在不用額外的標注情況下同時進行行人對齊和學習判別性的特征描述。文獻[9]提出一個基于身體部位對齊的雙流網絡模型,可以將人體姿勢表示為部分特征圖,并將它們直接與外觀整體特征圖結合以計算對齊的行人部位表示。張良等人[10]提出將局部特征、全局特征和多粒度特征融合,提高行人再識別精度。文獻[11]首次將生成對抗網絡(Generative Adversarial Network,GAN)引入到行人再識別中,利用生成的數據擴充數據集來輔助訓練,提升行人再識別精度。PTGAN[12]的提出主要是用來彌合不同數據集之間的領域差距。文獻[13]提出一種利用姿態以及外觀特征混合編碼的行人再識別算法,以解決攝像機視角造成的類內差異。PNGAN[14]將每個行人圖像生成8個標準姿態的假圖,最后將生成圖和原數據集圖像一起輸入識別網絡,在一定程度上消除姿態變化的影響。文獻[15]采用一個具有雙分支結構的孿生神經網絡,只學習與行人身份相關的特征。楊海倫等人[16]因行人存在遮擋問題提出基于可變形卷積的CNN模型,并用CycleGAN解決相機風格問題。

以上方法主要是將行人進行對齊或者用GAN生成不同相機風格、不同姿態數據來擴充訓練集,再進行分類識別。不同于以上方法,本文在DGNet網絡[17]的基礎上提出改進生成對抗網絡的換衣行人再識別算法,不僅將GAN數據生成和行人再識別學習端對端結合起來,而且不需要任何輔助信息就能夠生成高質量圖像,對ReID進行圖像增強。生成模塊中的編碼器將每個行人分解為外觀編碼(衣服+鞋子+手機+包包+身份信息等)與結構編碼(姿態+頭發+臉型+背景等)。通過切換外觀編碼和結構編碼,生成模塊能夠生成高質量的合成圖像,然后在線反饋給鑒別器進行辨別真假,并用于行人再識別模塊提高行人識別精度。其中,鑒別模塊與行人再識別學習是共享的。通過在鑒別模塊中加入通道間的注意力機制模塊(Normalization-based Attention Module,NAM)[18],突出網絡顯著特征,更好地辨別圖像真假,提高行人分類識別的精度。用DenseBlock[19]替換DG-Net網絡中生成器與鑒別器的ResBlock,加強特征傳播,避免梯度消失問題,再一次提高生成圖質量與行人再識別精度。通過實驗可知,本文算法在Market-1501、DukeMTMC-reID兩大公開數據集上的rank-1/mAP分別達到95.7%/88.6%和87.1%/75.7%,證明本文算法并具有一定的優勢。

2 網絡架構

本文網絡架構如圖1所示。圖像生成模塊與行人再識別模塊端對端結合起來,外觀編碼器和鑒別器是共用的,這也是行人再識別學習的主干。生成器通過自生成網絡和互生成網絡兩種映射合成假圖像,將數據集圖像與生成圖像一起輸入到鑒別器中判別真假,并且對其進行分類識別,提高行人再識別的識別精度。鑒別模塊包含主要特征學習、細粒度特征挖掘以及注意力機制NAM。通過不同角度進行學習,網絡不僅能夠得到行人衣服等外觀的信息,而且學習到外貌等更細致的結構特征,從而更好地鑒別圖像真假,提高識別精度。

圖1 網絡架構Fig.1 Network structure

2.1 生成網絡

生成網絡框架圖如圖2所示。本文數據集中的真實圖像與身份標簽用X=和Y=表示,其中N表示圖像的數量,yi∈[1,K],K表示數據集中類別的數量。給定訓練集中兩幅真實圖像,通過生成模塊交換兩幅圖像的外觀與結構代碼生成幾幅新圖像。生成網絡包括自生成網絡和互生成網絡,生成模塊由一個外觀編碼 器Ea:xi→ai、一 個 結 構 編 碼 器:Es:xj→sj、一個生成解碼器G:(ai,sj)→xij以及一個區分生成圖像與原始圖像的鑒別器D組成。

圖2 生成網絡框架圖。(a)自生成網絡;(b)互生成網絡。Fig.2 Generate network frame diagram.(a)Self generation network;(b)Mutual generation network.

2.1.1自生成網絡

自生成網絡框架如圖2(a)所示。給定一對行人圖像xi,xj∈X(身份相同),首先生成模塊學習如何重建圖像,自生成網絡首先提取圖像xi的外觀特征ai以及其結構特征si生成與原始圖像外觀、結構均一致的假圖像,使用像素級損失函數:

自生成網絡同時會生成同一身份、不同結構的圖像,因此采用圖像xi的結構特征si與xt的外觀特征at生成圖像,同樣使用像素級損失函數:

這種跨圖像(相同身份但不同結構)重建用外觀編碼器將相同身份的外觀聯系一起,減少類內變化。對于不同身份的圖像來說,使用身份損失來區分不同身份。

其中,p(yi|xi)是基于外觀編碼預測xi屬于實際類別y(iID)的概率。

2.1.2互生成網絡

互生成網絡框架如圖2(b)所示。互生成網絡的輸入圖像為xi,xj∈X(身份不同,即yi≠y)j,主要是生成不同身份的圖像。該網絡提取圖像xi的外觀特征ai、結構特征si和xj的外觀特征aj和結構特征sj,通過交叉組合成新圖像和。其中生成圖像與xi外觀一致、xj結構一致;生成圖像與xj外觀一致、xi結構一致。這里,使用外觀和結構編碼控制圖像生成,損失函數如式(4)和式(5)所示:

與自生成網絡一致,同樣采用身份損失判斷圖像身份ID是否一致。

其中p(yi)是預測屬于真實類別yi的概率,并且使用對抗損失使生成數據的分布更接近真實數據的分布。如式(7)所示:

生成器的結構圖如圖3所示,本文將DGNet網絡中的生成器模塊內ResBlock模塊替換為DenseBlock模 塊。結 構 圖 中 輸 入 圖 像xi、xt、xj,首先經過外觀編碼器得到128個64×32的特征圖,經過4個DenseBlock模塊之后,輸出依舊為128×64×32,特征圖不變。其次,進行上采樣操作得到128個128×64的特征圖,第一次卷積是5×5,卷積后得到64個128×64的特征圖;同樣進行上采樣操作得到64個256×128的特征圖,進行第二次卷積操作得到32個256×128的特征圖;Conv3、Conv4、Conv5的卷積核分別為3×3、3×3、1×1,最終得到3×256×128大小的生成圖。

圖3 生成器結構圖Fig.3 Generator block diagram

DenseNet是Huang等人[19]提出的 一 種 稠 密卷積網絡,它主要從特征的角度提高網絡性能,并且隨著網絡深度的增加,能夠避免梯度消失問題。ResBlock主要含有一個跳躍連接,而Dense-Block中將所有的特征計算單元的結果以密連接的方式沿著某一維度進行壓縮,不是進行簡單的求和。DenseBlock結構如圖4所示。DenseBlock結構圖中除了輸入端,還包含4個模塊,每個模塊均為4層。以X0作為輸入,通過Hi進行非線性變化,依次進行歸一化、激活函數以及卷積操作,然后傳遞到后續網絡。本文采用即插即用型模塊DenseBlock代替原來的ResBlock模塊,一方面能夠提取更多特征信息,另一方面改善網絡的特征提取能力,減少過擬合現象的出現。經過Dense-Block之后,特征圖大小不變。DenseBlock結構的任何兩層之間都是直接連接的,而每層的特征圖也會直接傳遞給其后的所有層,傳遞方式為:

圖4 DenseBlock結構圖Fig.4 DenseBlock structure diagram

其中,[X0,X1,…Xl-1]表示從第0層到第l層生成的特征圖并且各個特征圖大小一致,可在通道維度上連接。

2.2 鑒別網絡

鑒別網絡框架圖如圖5所示,通過共享外觀編碼器Ea作為行人再識別學習的主干,將鑒別網絡(同是識別模塊)嵌入在生成模塊中。生成網絡通過外觀編碼和結構編碼生成圖像,鑒別網絡中提出特征學習與細粒度特征挖掘以及新加入的通道間的注意力機制NAM三者進行聯合學習判斷生成圖像真假,以更好地利用生成圖像。

圖5 鑒別網絡框架圖Fig.5 Discriminator network frame diagram

(1)主要特征學習。將真實圖像xi、xj與生成圖像xij、xji一起輸入Ea中作為訓練樣本,由于生成圖像的多樣性,采用帶有身份損失的卷積神經網絡(即教師模型)、外觀編碼器學習主要特征,通過損失函數將預測概率分布與真實概率分布差異降到最低。

其中,K表示身份類別數量。

(2)細粒度特征挖掘。當生成的圖像用主要特征學習無法判斷真假時,本文采用細粒度挖掘。當相同身份的人穿著不同的衣服或者不同身份人穿著同樣的衣服時,鑒別模塊采用細粒度特征挖掘,使網絡被迫學習與衣服無關而與細粒度ID相關的特征(如頭發、體型等),進一步提高鑒別能力與行人再識別分類識別的精度。損失函數如式(9)所示:

該損失為鑒別模塊增加身份監督,不僅學習到細節紋理特征,而且有利于解決行人外觀(如換衣)發生變化均導致識別下降的問題。

(3)注意力機制NAM。鑒別網絡結構圖如圖6所示。輸入原圖像xi、xj與生成器生成的圖像xi

圖6 鑒別網絡結構圖Fig.6 Discriminator network structure diagram

j、xi

j,首先用1×1的卷積得到32個256×128的特征圖,然后經過通道注意力NAM,這里特征圖大小不變。然后在經過4次卷積核為3×3的卷積運算,得到64個64×32的特征圖,并經過4個DenseBlock模塊。這里后3個DenseBlock模塊前加入通道注意力NAM,不改變通道以及特征圖大小,依舊是64個64×32的特征圖。最后,經過1×1的卷積得到一個64×32的特征圖,給出一個0~1之間的數值判斷圖像真假,同時對圖像進行分類識別。

除了主要特征學習與細粒度特征外,本文在鑒別器的第一次卷積之后與前3個DensesBlock模塊之后加入了2021年提出的新型注意模塊NAM,主要是通過利用訓練模型權重的方差度量來突出顯著特征。以前的注意力機制模塊大多數都是通過抑制不重要的權重來提高神經網絡的性能,NAM作為一種高效、輕量級的注意力機制,在保持相似性能的同時計算效率更高。采用CBAM[20]的模塊集成,并重新設計了通道和空間注意力模塊,使用標準化BN中的比例因子,如式(11)所示,測量通道的方差并指示其重要性。

式中,μB和σB分別表示小批量B的平均值與標準偏差;γ和β是可訓練的仿射變換參數。通道注意力模塊如圖7所示。其中,F1表示輸入特征,γ是每個通道的比例因子,權重由公式Wγ=獲 得,Mc表 示 輸 出 特 征,如 式(12)所示:

圖7 通道注意力機制NAMFig.7 Channel attention mechanism NAM

2.3 總體損失函數

由2.1節與2.2節介紹可得,總體損失函數為:

2.4 參數設置

本文是基于PyTorch1.1、Python3.6深度學習框架下實現的。網絡模型中采用SGD優化器來優化外觀編碼器Ea,使用Adam優化器來優化結構編碼器Es、生成器G和鑒別器D。本文參數β1=0,β2=0.999,設 置 初 始 學 習 率為0.001,共20個epoch,每個epoch迭代訓練10 k次,批尺寸(Batch size)為16。訓練過程中保持所有圖像的長寬比,將大小統一為256×128。

3 實驗結果與分析

3.1 數據集和實驗環境

本文在行人再識別算法的公開數據集Market1501[21]、DukeMTMC-reID[22]上進行實驗。Market1501數據集共有1 501個行人的32 668個檢測行人矩形框,共6個攝像頭,包括訓練集、測試集、查詢集。DukeMTMC-reID共有1 812個行人的36 411個檢測行人矩形框,由8個攝像機采集。因為有408人沒有出現在兩個攝像頭以上,所以只選擇1 404個行人作為訓練集與測試集。該數據集包括訓練集、測試集、查詢集。公開數據集的詳細信息如表1所示。實驗室擁有一臺具備4塊TITAN V GPU的圖形工作站,具備良好的開發環境。本實驗將在Ubuntu 16.04.5 LTS操作系統,TITAN V 12G×4顯卡,Pytorch1.1深度學習框架,python3.6的服務器下實現。

表1 公開數據集詳細信息Tab.1 Public datasets details

3.2 評價標準

行人再識別模型用首位命中率(Rank-1)、平均精度均值(mean Average Precision,mAP)和累計匹配曲線(Cumulative Match Characteristic,CMC)3種評價指標衡量模型。這里,Rank-k表示在查詢集中行人特征相似度大小的排序列表中前k位存在檢索目標的準確率。

3.3 生成圖像示例

改進網絡通過切換姿態與外觀生成大量的高質量圖像。給定輸入圖像xi和xj,網絡模型提取輸入圖像的外觀特征以及結構特征,既可以生成具有xi的外觀、xj的結構的假圖像xi j,又能生成具有xj的外觀、xi的結構的假圖像xj i。兩個數據集生成的圖像如圖8所示。

圖8 交換外觀與結構生成圖像示例Fig.8 Examples of images generated by swapping appearance and structure

假設每行每列輸入圖像都一致,通過切換外觀或結構代碼在Market-1501、DukeMTMC-reID上生成圖像的示例如圖9所示,可以看出橫軸行人生成外觀不同、結構相同的假圖像;同樣地,縱軸行人生成外觀相同、結構不同的假圖像。在Market1501、DukeMTMC-reID數 據 集 上,模 型分別生成共計140 625張、123 201張假圖像。雖然改進生成對抗網絡方法能夠生成大量的高質量圖像,但是由于數據集本身存在模糊、分辨率不高的問題,并且圖像的背景影響導致生成的圖像會出現少許效果差的結果圖像,如圖10所示。

圖9 切換外觀或結構代碼生成圖像的示例Fig.9 Examples of images generated by switching the appearance or structure code

圖10 少許失敗案例Fig.10 A few failure cases

3.4 實驗結果

為了進一步證明該網絡的有效性,使用相應的評價標準計算得到了該算法的Rank-1和mAP,并與現有算法在Market1501、DukeMTMC-reID數據集上的結果進行對比分析,如表2所示。

表2 本文算法與現有算法的比較Tab.2 Comparison of the algorithm in this paper with existing algorithms

將本文算法與8種基于GAN的ReID方法和5種有監督的ReID方法進行性能比較。針對基于GAN的ReID方法性能比較可知:對于Market1501數據集,從表2的實驗結果可以分析到本文算法在Rank-1和mAP的指標上均優于其他算法(除TransReID之外),Rank-1相比于DG-Net、CSL+MGL、PAGAN、AP-GAN、TransReID分別提高了0.8%、0.3%、1.5%、2.2%、0.4%;mAP相比于DG-Net、CSL+MGL、PAGAN、AP-GAN、Trans-ReID分別提高了2.6%、2.5%、3.4%、6.4%、-0.9%。對 于DukeMTMC-reID數 據集,本文算法在Rank-1和mAP的指標上僅次于CSL+MGL、TransReID算法。Rank-1相比于DGNet、CSL+MGL、PAGAN、AP-GAN、TransReID

分別提高了0.9%、-0.7%、1.5%、5.2%、-6.9%。針對5種有監督的ReID方法性能比較可知:對于Market1501數據集,本文算法的Rank-1和mAP均優 于 這5種 算 法,Rank-1和mAP分 別 比Euc、FGSAM、HOReID、MOPN、PAFM提高了1.9%、4.1%、1.4%、1.0%、0.5%和8.9%、3.2%、3.5%、3.5%、0.4%;對于DukeMTMC-reID數據集,本文算法的Rank-1和mAP高于FGSAM、HOReID算法,Rank-1和mAP分別比FGSAM、HOReID高1.2%、0.2%和1.6%、0.1%。說明本文算法在Market1501上的效果更顯著。同時進一步說明本文算法具有一定的優勢。綜上所述,所提算法不僅能夠較好地提高行人識別的精度,還使模型有較強的泛化能力。

3.5 不同改進點的消融實驗

本文主要有2點改進:(1)使用新型注意力機制NAM;(2)將原有的DGNet網絡中的Res-Blocks替換為DenseBlocks,采用像素損失、對抗損失、身份損失等多種損失聯合優化提高生成圖的質量。以Market1501為例,對不同改進點進行性能評估,如表3所示。

表3 不同改進點的性能評估Tab.3 Performance evaluation of different improvement points

4 結 論

本文提出改進生成對抗網絡的換衣行人再識別算法,是一種將生成對抗網絡(GAN)數據生成和行人再識別學習端對端結合起來的聯合框架,通過切換外觀與結構編碼,生成模塊中的自生成網絡與互生成網絡生成大量圖像,鑒別模塊與生成模塊之間在線循環,將生成的圖像在線反饋給鑒別器,鑒別器通過主要特征學習、細粒度特征挖掘與注意力機制NAM三者聯合學習,進一步提高鑒別器鑒別能力與行人再識別分類識別的準確率。生成器與鑒別器中的殘差塊ResBlock替換為DenseBlock,加強特征傳播并且大幅度減少參數數量。本文算法不僅解決了行人再識別數據集不足的問題,而且提高了跨攝像頭下由于行人外觀(如衣服)改變的識別率,在圖像生成質量和行人再識別分類識別精度方面都有顯著的改進,在Market1501和DukeMTMC-reID數 據集上Rank-1和mAP分別達到了95.7%/88.6%和87.1%/75.7%。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 国产一区二区三区免费观看 | 亚洲无码精彩视频在线观看 | 国产又粗又爽视频| 免费不卡视频| 91丨九色丨首页在线播放| 亚洲91精品视频| 成人一级免费视频| 91成人免费观看| 国产aaaaa一级毛片| 六月婷婷激情综合| 国产三区二区| 国内精品久久久久鸭| 国产又黄又硬又粗| 亚洲AⅤ无码日韩AV无码网站| 亚洲无码高清一区二区| 青青国产视频| 欧美日韩免费| AV不卡在线永久免费观看| 日韩在线永久免费播放| 香蕉在线视频网站| 免费一级成人毛片| 精品国产成人三级在线观看| 77777亚洲午夜久久多人| 色成人亚洲| 97se亚洲| 久草中文网| 国产免费久久精品99re不卡| 国产午夜一级毛片| 日韩国产黄色网站| 国产精品一老牛影视频| 亚洲成人www| 日韩无码真实干出血视频| 91系列在线观看| 成人va亚洲va欧美天堂| 日本高清在线看免费观看| 婷婷久久综合九色综合88| 91精品国产自产在线观看| 亚洲自拍另类| 色综合激情网| 在线观看无码av免费不卡网站 | 亚洲永久视频| 国产综合亚洲欧洲区精品无码| 国产99视频在线| 欧美日韩国产在线人| 精品国产电影久久九九| 狠狠色噜噜狠狠狠狠色综合久| 国产成+人+综合+亚洲欧美| 欧美日本中文| 亚洲天堂日韩av电影| 国产免费羞羞视频| AV不卡在线永久免费观看| 欧美精品二区| 一级爱做片免费观看久久| 18禁黄无遮挡网站| 欧洲成人免费视频| 在线观看国产精品一区| 国产凹凸一区在线观看视频| 国产成人精品免费视频大全五级| 沈阳少妇高潮在线| 国产欧美在线观看一区| 久久夜色精品| 伊人久久大线影院首页| 亚洲男人天堂2020| 毛片一级在线| 久久精品丝袜| 欧美色亚洲| 日韩午夜福利在线观看| 久久久久人妻一区精品色奶水| 在线中文字幕日韩| 人与鲁专区| 伊人久热这里只有精品视频99| 日韩精品少妇无码受不了| 国产三级视频网站| www精品久久| 少妇被粗大的猛烈进出免费视频| 狠狠色狠狠综合久久| 一级看片免费视频| 国产精品亚洲五月天高清| av一区二区三区高清久久| 亚洲成年人网| 欧美日韩中文国产va另类| 亚洲熟女中文字幕男人总站|