999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于UV 貼圖優化人體特征的行人重識別

2023-01-09 14:28:22徐智明
計算機工程 2022年11期
關鍵詞:特征優化模型

徐智明,戚 湧

(南京理工大學計算機科學與工程學院,南京 210094)

0 概述

行人重識別是智能交通、計算機視覺等領域的研究熱點,其目標是在不同拍攝環境下通過對行人身份進行精確匹配,判斷不同角度、不同時刻所拍攝的行人圖像與給定行人是否為同一目標,從而有效節省檢索特定行人所需的時間。

現有行人重識別主要包括基于度量學習、基于深度特征學習的方法。基于度量學習的方法首先使用卷積神經網絡(Convolutional Neural Network,CNN)從圖像中提取特征圖,通過優化特征圖之間的特征距離來增強行人之間的判別性,通常使用余弦距離、歐式距離[1]或馬氏距離[2]計算特征圖的相似度,使用Triplet Loss[3]、Focal Loss[4]、Circle Loss[5]等損失函數優化特征圖之間的特征距離,使得特征圖之間實現類類聚合且類間分離。

隨著深度學習的快速發展,許多研究人員開始將深度學習方法應用于行人重識別任務中。基于深度特征學習的行人重識別主要分為基于局部特征學習、基于注意力機制學習、基于生成對抗網絡(Generative Adversarial Network,GAN)學習這三類。

早期的研究工作主要關注全局特征,由于通過全局特征無法針對性地學習到行人的細粒度特征,因此學者們開始聚焦于局部特征。PCB[6]將行人特征按照水平方向均勻切分,然后在每一個切分的特征圖上進行表征學習,并設計RPP 模塊,計算各個像素的特征向量和局部平均特征向量之間的相似度,從而調整各個像素的區域歸屬。MGN[7]提出一種多分支網絡架構,該架構由一個用于全局特征表示的分支和兩個用于局部特征表示的分支組成,通過分割區域與構造分支結構的方法獲得全局特征和更加細粒度的局部特征,然后對各個分支進行特征提取,將區分度較好的多粒度細節信息與行人整體信息進行融合,但是,由于構造的分支數目較多,導致MGN訓練出的模型參數量龐大。

基于局部特征學習的方法有效地推進了行人重識別的發展,增強了對圖片中人體不完整部分和遮擋部分的特征魯棒性,并進一步通過引入注意力機制加強了對這些特征的學習。STA(Spatial-Temporal Attention)[8]網絡中加入時空注意力機制,將特征圖按照長度劃分為4 個局部區域,分別提取每個部分中注意力分值最高的分區得到判別性信息。ABDNet[9]網絡中加入復合注意力機制,提出將通道注意力和局部注意力相結合的行人重識別方法,其中,通道注意力機制促進了信道級、特征級的信息聚合,局部注意力捕獲了身體和部分位置的有效信息,從而高效地進行深層次的特征學習。還有一些行人重識別方法,如DG-Net[10]基 于GAN 生成訓練數據以提升數據量,通過生成大量數據提高模型精度,但是,由于行人重識別數據集中圖像像素較低,導致生成的圖像過于模糊,對模型精度提升并不明顯。

現有的行人重識別研究大多學習人體在二維平面上的特征表示,往往忽略了人體自身的拓撲約束以及人體外形信息,這導致現有方法對特征學習比較局限。在現實中,人體以一種對稱的三維形式存在,三維人體結構相較二維平面像素含有更多的體型、取向、外觀等特征,本文認為學習有效且可擴展的行人特征的關鍵是要考慮人體特征在三維空間中的特征表現。例如,事先給孩子看過一張熊貓的圖片,孩子在動物園中就可以立刻判別出哪種動物是熊貓,原因在于,當孩子看到一張熊貓圖片時,已經在腦海中通過先驗知識重構了熊貓的三維剛體模型,在動物園中看到熊貓就能立刻判別出是否為同一對象。因此,讓計算機學習人體特征在三維空間中的特征表示,是當前行人重識別研究中的一項重要任務。

基于網格重構的三維人體建模方法[11-14]在近些年發展迅速,HMR[15]網絡實現了端到端恢復人體三維mesh 的模型,通過輸入含有人體的RGB 圖片建立人體三維模型,對于三維模型的生成,主要借助SMPL 方法,將shape 和三維關節點(joints)的角度(angles)作為輸入,建立三維人體模型。DecoMR[16]提出一種三維人體網格估計框架,建立三維人體模型單元網格與圖像特征在UV 空間中的映射關系。OG-NET[17]網絡中最早使用3D 點云數據開展行人重識別研究,在三維空間中通過生成的點云數據來實現人體匹配,利用三維空間的人體結構化信息和二維平面的外觀RGB 信息來學習行人特征表示,具體地,OG-NET 首先估計三維人體模型的姿態信息,然后與二維平面中的RGB 信息進行匹配,將原始圖像數據集轉換為點云數據后進一步設計網絡來學習點云特征。但是,OG-NET 使用3D 點云數據作為輸入,3D 點云數據包含人體姿態、背景等信息,雖能大幅提高精度,但是無法提升行人重識別算法的魯棒性。

深度學習技術的快速發展使得行人重識別的精度得到顯著提升,但其仍面臨由身體錯位、遮擋、背景擾動、姿勢不同所帶來的眾多挑戰,且算法在不同數據集上表現出延伸性差、魯棒性低等問題。本文提出一種基于UV 貼圖優化人體特征的行人重識別方法。借助三維重構技術與人體幾何信息先驗知識,從含有人體圖像的RGB 圖片中恢復人體三維模型,以研究行人特征在三維空間中的表示為目標,建立二維圖像與三維人體模型的映射關系。從特征優化角度出發,通過研究人體不變的特征,從數據中提取人體的外觀、體型、視角等參數,重構出固定姿態(T-pose[18])的三維人體模型,并將三維人體模型展開到二維UV 空間中對行人特征進行優化,使得計算機可以學習到更多在二維圖像中看不到的行人特征,從而提高行人重識別模型在不同數據集上的性能表現。

1 本文行人重識別方法

本文基于UV 貼圖優化人體特征的行人重識別方法分為特征優化和行人重識別這2 個過程。

1.1 特征優化過程

特征優化過程分為2 個階段,具體如下:

1)第一階段,如圖1 所示,首先對二維圖像I∈R3×W×H進行特征提取,提取出形狀β∈R10、姿 態θ∈R72、視角P∈R3的特征向量;然后通過姿態θ、形狀β、視角P以及二維圖像中的行人RGB 像素特征重構SMPL 三維人體模型M∈R6890×6,三維人體模型M由6 890 個網格頂點G∈R6890×3與RGB 像素點C∈R6890×3組成,表示相對于對應的三維人體模版上端點的偏移量與色彩像素值大小。在重構三維人體模型時,首先通過對SMPL 模型進行調整生成三維人體網格(mesh)圖,然后利用視角P將二維圖像中的RGB 信息映射到三維人體網格圖中,生成三維人體模型。

圖1 UV 貼圖生成過程Fig.1 UV map generation process

本文主要研究人體不變特征,由于二維圖像中各個行人的姿態不同,因此通過式(1)將三維人體模型轉化為統一姿態的人體模型T-pose:

其中:gi是網格頂點G中的一個元素;bs,i(β)、bp,i(θ)分別為形狀參數β的線性矩陣、姿態參數θ的線性矩陣中的元素;Tk為第k個關節點的轉換矩陣。

2)第二階段,將重構后的三維人體模型轉化到UV 空間中進行優化,建立三維人體模型與UV 空間的映射關系,生成相對應的UV 貼圖A,映射關系如下:

其中:是三維人體模型每個頂點的坐標;X是位置貼圖;vi、ui為UV 坐標。

由于行人重識別數據集中人體特征受到不同光照與拍攝角度的影響,因此難以學習到有效的特征表達,本文通過UV 貼圖來優化行人特征在三維空間中的特征表現。特征優化網絡結構如圖2 所示,在每個卷積層中:Conv(i,o,m×m,s)、BN、ReLU 表示輸入圖像的通道數是i,卷積后產生的通道數為o,卷積核大小是m×m,步長是s,卷積層后添加一個批歸一化層BN 和一個激活層(激活函數采用ReLU)。特征優化過程為:對UV 貼圖A進行特征提取,經過上采樣與下采樣后得到深度圖d∈R64×64×1與色彩特征圖a∈R64×64×3,通過深度圖d與 色彩特征圖a重構出,其中,=(a/μ+σ)×d×μ-1,μ、σ是實驗中設置的權重。將進行水平翻轉得到,使用L1損 失函數計算A與、A 與之間的誤差,令A ≈?A ≈。損失函數如下:

圖2 特征優化網絡框架Fig.2 Feature optimization network framework

其中:λ是實驗中損失函數的權重。

1.2 行人重識別過程

本節介紹行人重識別過程中使用的網絡結構以及損失函數。本文通過建立行人在三維空間的特征表示,學習二維圖像與三維人體的互補關系,在實驗中加入了人體形狀參數β進行特征學習,并使用三元組損失函數以及動量的交叉熵損失函數來增強行人特征之間的判別性,同時區分行人身份標簽信息。

行人重識別模型結構如圖3 所示,采用在ImageNet[19]數據集上進行預訓練 的ResNest 網絡作為特征提取模塊,ResNest網絡中加入split-Attention機制,將特征圖按照通道(channel)維度分為數個Split-Attention 子塊,使用注意力機制對劃分的子模塊進行特征聚焦,獲得需要關注的行人特征信息,抑制其他無用特征,相較ResNet[20]網絡,能更精確地提取到更多有用的特征。具體地,本文行人重識別網絡基于改進的ResNest-50,在原始ResNest 網絡的基礎上將其4 層卷積輸出的特征矩陣分別添加池化層(最大值池化層、全局平均池化層)與全連接層以進行特征降維,然后融合得到特征圖,最后建立損失函數訓練該網絡。

圖3 行人重識別模型結構Fig.3 Person re-identification model structure

首先使用三元組損失法對特征圖進行細節區分,當2 個特征圖很相似時,使用三元組損失法對這2 個差異性較小的輸入向量進行優化,從而學習到更優的特征表示。設樣本為x,f()為正樣本映射函數,f()為負樣本映射函數,將正樣本和負樣本分開,即實現類類聚合、類間分離。三元組損失表示為:

使用加入label smooth 的交叉熵損失函數來增強行人之間的判別性,計算行人圖片信息之間的身份標簽損失,將其記為Lid,交叉熵損失函數如下:

其中:hθ(x(i))是對圖片信息的標簽進行Softmax 操作;y(i)為對應的行人身份標簽信息。

如圖2 所示,由ResNest layer1 提取后的特征圖經過池化層(Mix Pool)、全連接層、一個ReLU 激活層后,得到預測人體的形狀參數β。在本文實驗中觀察到,由于人體形狀參數β中的每一個參數對人體作用部位不同,因此每個參數對應的權重對網絡的影響不同,通過馬氏距離來構建人體形狀損失函數能進一步增強行人重識別網絡的判別性,該損失函數如下:

其中:βi為提取的人體形狀參數樣本信息;si為對應的人體形狀參數標簽信息。

行人重識別網絡整體損失函數表示為:

其中:γ、η為損失函數的權重。

2 實驗結果與分析

2.1 實驗設置

本次實驗設置具體如下:

1)數據集。在Market-1501[21]、DukeMTMC-reID[22]、MSMT17[23]等行人重識別數據集上進行大量實驗,以驗證所提方法的有效性。

2)數據預處理:

(1)由于圖像底庫中圖片的分辨率大小不同,因此將圖片調整為統一大小的圖像。

(2)在深度學習模型的訓練過程中,數據量的大小將嚴重影響模型的準確率,因此,通過Rand Augment數據增廣方法生成大量的訓練數據,對輸入圖像進行隨機裁剪、水平翻轉、應用仿射變換、平移、旋轉、剪切等變換方式來擴充訓練數據,從而在訓練過程中減小參數空間,同時保持圖像數據的多樣性,有助于防止數據過擬合現象的發生。

3)評價指標。本文使用平均正確率均值(mAP)和匹配率(rank-i)這2 個指標來衡量行人重識別方法的性能。

4)實驗環境。使用Pytorch1.6 深度學習框架進行代碼編寫,在配置64 GB 內存、Hygon C86 7185 32-core 處理器和NVIDIA Tesla V100 GPU 的服務器上進行實驗。

5)訓練策略。本文使用apex 混合精度方法加速神經網絡訓練,該網絡每個批次輸入圖像為256 張,輸入圖像大小為384×128 像素。采用SGD 損失函數優化器優化整個行人重識別網絡,其中,動量、衰減率和初始學習率分別設置為0.5、0.000 5 和0.000 35。設計相應的訓練策略加速神經網絡收斂,從而提高模型精度,具體為:

(1)由于數據集各類別的圖像數據量差別較大,因此本文使用均衡采樣器(Balance Sampler)均勻采樣不同類別中的圖片,使得每一個批次中各類別圖像數目相等,從而提高模型參數在訓練過程中的穩定性。

(2)結合預熱學習率與余弦退火動態調整學習率,通過先預熱模型,即以一個較小學習率開始逐步上升到特定的學習率,使模型收斂效果更佳,且當損失函數接近全局最小值時學習率可以隨著余弦函數動態減小。

(3)通過凍結骨干網絡(Backbone Freeze)的訓練,如凍結5 個批次的訓練,將更多的資源放在訓練后續部分的網絡參數,使得時間和資源利用都能得到很大改善。待后續網絡參數訓練一段時間后再解凍這些被凍結的部分,然后所有批次一起進行訓練。

6)測試過程。給定一張查詢圖像,提取經過批歸一化模塊后的特征圖,使用余弦距離計算查詢圖像與查詢底庫圖像間的特征距離,使用重排序(reranking)對查詢結果作進一步優化,輸出為從高到低排在前十位的查詢結果。

2.2 定量評價

行人重識別的目標是在不同攝像頭下精確捕捉同一個目標,精準學習圖片中行人的特征表示。目前,多數行人重識別方法中加入背景條件,讓模型學習到較多的非有效特征,雖然能夠提高模型精度,但是在一定程度上對行人重識別結果造成一種誤判,這也是行人重識別方法魯棒性不高的原因。

本文首先比較二維整體特征、二維人體部分特征、三維人體部分特征、三維人體部分特征加上背景特征的輸出結果。由人體與背景構成不同組合的輸入數據,將其輸入到模型中,對4 種數據進行相同配置的實驗,得到結果如表1~表3 所示,從中可以看出,三維人體部分特征輸入的檢索結果不如二維整體特征,原因是:一方面人體特征從二維映射到三維時存在誤差,如圖2 所示,頭發、衣服、背包等重要的判別信息并未完全重構;另一方面是由于三維人體部分輸入沒有加入背景信息,三維人體部分與二維人體部分特征(mAP 為6.75%)結果相比,mAP 達到62.21%,這表明三維位置信息與二維顏色信息互補,三維空間可以降低匹配難度,突出幾何結構。

表1 Market-1501 數據集下的模型性能對比結果Table 1 Comparison results of models performance under Market-1501 dataset %

表2 DukeMTMC 數據集下的模型性能對比結果Table 2 Comparison results of models performance under DukeMTMC dataset %

表3 MSMT17 數據集下的模型性能對比結果Table 3 Comparison results of models performance under MSMT17 dataset %

2.3 定性評價

本文通過將給定行人重識別數據集中的每一張圖像轉化為UV 貼圖,對查詢圖像進行特征提取,計算其與查詢底庫中圖像的特征距離以得到查詢結果。圖4 所示為查詢圖像、相應的UV貼圖轉化結果和檢索到的前5 名候選人查詢結果,其中,虛線框內表示錯誤的檢索結果,其余為正確的檢索結果。

圖4 檢索結果可視化Fig.4 Visualization of search results

2.4 方法對比

將本文方法與先進的行人重識別方法進行比較,對比方法包括基于點云特征的學習方法(DGCNN、PointNet++、OG-Net)、基于二維圖像的行人重識別方法(MGN、ABD-NET、M3-reid、VA-NET)。從表4 可以看出:1)相比點云特征學習方法,如DGCNN、PointNet++、OG-Net,本文方法的識別性能大幅提升,從而驗證了該方法的正確性;2)在不添加背景條件的情況下,在3 個不同數據集上本文方法的表現與現有基于深度特征學習的方法[7-10]相近,并且可以結合現有行人重識別方法來對訓練精度作進一步提升。實驗結果表明,本文方法對行人重識別效果具有較好的提升作用,為行人重識別研究提供了一種新思路,其可以有效優化訓練數據并提高模型的魯棒性。在Market-1501 數據集下進行消融實驗,結果如表5 所示,該結果驗證了本文方法的有效性。

表4 各方法在3 種數據集上的性能對比結果Table 4 Performance comparison results of each method on three datasets %

表5 Market-1501 數據集下的消融實驗結果Table 5 Ablation experimental results under Market-1501 dataset %

3 結束語

本文將行人重識別研究從二維平面拓展到三維空間,提出一種基于UV 貼圖優化人體特征的行人重識別方法。利用人體是一種三維對稱的剛體結構這一先驗事實,將圖片中的部分行人特征從二維平面重構到三維空間中,從而有效擴展特征維度并提高行人特征的可優化性。將重構后的三維人體模型轉化為UV 貼圖,即將人體特征從三維空間映射到二維平面,從而大幅降低模型參數量,同時設計損失函數使得模型自主優化UV 貼圖。為了更好地學習UV 貼圖中的特征表示,設計相對應的損失函數與相關的訓練策略以提高訓練精度。行人重識別數據集上的實驗結果表明,相較OGNset 模型,在添加背景的條件下,本文方法在Market-1501 數據集中的行人重識別rank-1 檢測準確率提高13.82%,mAP 準確率提高22.56%;在不添加背景的條件下,行人重識別rank-1 檢測準確率提高5.26%,mAP準確率提高13.66%。

本文方法的行人重識別性能得到一定提升,但是仍然存在以下不足:1)使用固定的三維人體模板對人體信息進行三維重構,頭發、衣服、背包等具有重要判別信息的行人特征未得到具體顯現;2)在行人特征優化方面,優化粒度欠佳。下一步將在三維空間中優化人體細粒度特征,增強行人特征之間的判別性,進而提高行人重識別網絡的精度與魯棒性。

猜你喜歡
特征優化模型
一半模型
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 国产女人18毛片水真多1| 免费播放毛片| 色婷婷天天综合在线| 911亚洲精品| 国产人成乱码视频免费观看| 日本成人精品视频| 国产成人三级在线观看视频| 免费一级α片在线观看| 国产美女精品在线| 99久久99视频| 91精品啪在线观看国产| 制服丝袜 91视频| 国产成人无码播放| 综合亚洲色图| 亚洲国产清纯| 五月天丁香婷婷综合久久| 老司机精品一区在线视频| 欧美激情首页| 亚洲成网站| 国产无人区一区二区三区 | 国产精品女同一区三区五区| 免费中文字幕一级毛片| 国产欧美在线观看一区| 午夜爽爽视频| 欧美三级视频网站| www.youjizz.com久久| 国产极品美女在线播放| 欧美日韩中文字幕二区三区| 国产在线一二三区| 亚洲激情99| 欧美高清日韩| 亚洲精品无码人妻无码| 国产在线自乱拍播放| 亚洲va在线∨a天堂va欧美va| 91在线无码精品秘九色APP| 精品欧美视频| 亚洲AⅤ波多系列中文字幕| 国产波多野结衣中文在线播放| 亚洲第一色网站| 99人妻碰碰碰久久久久禁片| 国产亚洲精品精品精品| 免费毛片a| 日韩av电影一区二区三区四区 | 任我操在线视频| 免费可以看的无遮挡av无码| 97影院午夜在线观看视频| 亚洲视频在线青青| 亚洲午夜福利精品无码不卡| 成人精品亚洲| 国产在线98福利播放视频免费| 中国国产A一级毛片| 久久人人97超碰人人澡爱香蕉| 色综合中文| 国产成人久久777777| 成人自拍视频在线观看| 日韩久久精品无码aV| 亚洲国产精品无码久久一线| 大香伊人久久| 毛片在线播放网址| 啪啪免费视频一区二区| 久久人搡人人玩人妻精品一| 日韩欧美综合在线制服| 日韩小视频在线观看| 久久久久无码精品| 性色一区| 在线看片国产| 麻豆国产原创视频在线播放 | 中文成人无码国产亚洲| 国产一区二区三区精品欧美日韩| 免费AV在线播放观看18禁强制| 成人一级黄色毛片| 国产噜噜噜视频在线观看| 97se亚洲综合在线| 91免费观看视频| a级毛片在线免费| 亚洲国产欧美国产综合久久 | 国产丝袜啪啪| 超清无码一区二区三区| 国产91线观看| 视频二区亚洲精品| 国产成a人片在线播放| 无码一区二区波多野结衣播放搜索|