999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于TransReID的行人重識別方法

2021-12-17 09:08:44王曉李丹
電子制作 2021年22期
關(guān)鍵詞:特征信息模型

王曉,李丹

(四川大學(xué)錦城學(xué)院,四川成都,611371)

1 概述

行人重識別的目的是在不同的場景和攝像機視圖中關(guān)聯(lián)特定的對象,其重要組成部分是提取魯棒特征和判別性特征,長期以來一直被基于CNN的方法所主導(dǎo)[1],但是基于CNN方法主要集中在較小鑒別區(qū)域以及其采用的降采樣操作(池化和卷積步長)降低了輸出特征圖的空間分辨率,極大影響對相似外觀物體的區(qū)分能力[2]。而基于注意力機制的方法大多數(shù)嵌入在深層,更偏愛較大的連續(xù)區(qū)域,并且很難提取多個多樣化的可判別區(qū)域。隨著多頭注意力模塊的引入,以及卷積和降采樣操作的去除,基于Transformer的模型適合于解決基于CNN的行人重識別中的上述問題。其中多頭注意模塊捕獲了遠程依賴關(guān)系,激勵模型參與人體的不同部位。而Transformer無需降采樣操作,可以保留更詳細的信息。但為了應(yīng)對圖像中的大變化(例如遮擋,姿態(tài)多樣性,攝像機視角等問題),Transformer仍需要專門針對行人重識別進行設(shè)計。因此構(gòu)建了一個針對行人重識別的框架——TransReID。

2 基于Transformer的行人重識別方法

■2.1 基線網(wǎng)絡(luò)ViT-BoT

首先構(gòu)建一個基于Transformer的強基線框架Vit-BoT,該方法主要分為特征提取和監(jiān)督獲取兩個階段。如圖1所示,給定一幅圖像x∈RH×W×C,其中H,W,C分別表示其高度,通道的寬度和通道數(shù)。我們把它分成N個固定大小的塊{xip|i=1,2,…,N}。將其中一個可學(xué)習(xí)的向量[cls]嵌入標(biāo)記為xcls,添加到輸入序列之前,輸入到Transformer層的輸入序列可表示為:

圖1 基于Transformer的強基線框架Vit-BoT

其中Z0表示輸入序列嵌入,P∈(N+1)×D為嵌入的位置。F是一個線性投影映射到D維。此外采用Transformer層來學(xué)習(xí)特征表示。由于所有的Transformer層都有一個全局的感受野,從而解決了基于CNN方法的有限感受野問題。同時由于沒有采用降采樣操作,詳細的信息得以保留。

原始ViT針對圖像分類任務(wù)所設(shè)計,不能用于行人重識別任務(wù),為此,對其進行了幾點適應(yīng)性調(diào)整。

2.1.1 重疊補丁(Overlapping Patches)

在預(yù)處理階段,ViT需要將圖像塊分割為N個不重疊塊,這時會導(dǎo)致每個塊的局部鄰近結(jié)構(gòu)信息無法較好的保留,故采用滑動窗口形式生成重疊塊。假設(shè)滑動窗口的步長為S像素,每個塊的尺寸P=16,那么重疊部分的形狀為(P-S)×P。基于上述定義,如果輸入圖像的尺寸為H×W,那么所得到的圖像塊數(shù)量如下:

從上式可以得出:重疊區(qū)域越大,所提圖像塊數(shù)量越多。而更多的塊通常可以帶來更好的性能,但同時也會造成更高的計算量。為了更好的區(qū)分表示,S通常設(shè)置為小于P的值,而S=P時則忽略下角標(biāo)。

2.1.2 位置嵌入(Position Embedding)

位置嵌入ρi則表示編碼圖像塊Pi的位置信息,它有助于Transformer的Encoder編碼空間信息。由于行人重識別任務(wù)的圖像分辨率不同于圖像分類時的原始圖像分辨率,故ImageNet網(wǎng)絡(luò)模型上位置嵌入無法直接應(yīng)用,因此采用雙線性插值輔助ViT-BoT處理任意輸入尺寸的圖像。

■2.2 TransReID

盡管前述所設(shè)計的ViT-BoT可以在目標(biāo)ReID任務(wù)上取得很好的效果,但它并未充分利用ReID數(shù)據(jù)的特性。為更好的探索邊界信息與細粒度信息,我們提出了拼圖補丁模塊(JPM)與邊信息嵌入向量(SIE),并將所提框架稱之為TranReID,其結(jié)構(gòu)信息見圖2。

圖2 TransReID框架

2.2.1 拼圖補丁模塊(jigsaw patches module, JPM)

為了擴展遠程依賴關(guān)系并增強特征的魯棒性,我們提出了JPM,通過移位和補丁洗牌操作重新安排補丁嵌入,并重新對它們進行分組以進一步的進行特征學(xué)習(xí)。對ViTBoT的最后一層調(diào)整為雙并行分之結(jié)構(gòu)(采用兩個獨立Transformer層分別用于學(xué)習(xí)全局特征與局部特征)并行提取魯棒特征。因此,該網(wǎng)絡(luò)傾向于提取具有全局上下文的擾動不變和魯棒特征。

為了解決上述的問題,我們提出了一個拼圖補丁模塊(JPM)對嵌入的塊重新排列然后將它們重新分組到不同的部分中,每一個都包含整個圖像的幾個隨機嵌入塊。具體描述如下:

第一步:移位操作

第二步:補丁洗牌操作

經(jīng)過前述移動后的塊進一步通過置換操作(group=k)進行處理,此時隱含特征變?yōu)椋骸?/p>

我們將置換后的特征分成k組,JPM可以將其編碼為k個局部特征,因此每個特征可以編碼不同的部件,全局特征與局部特征分別采用分類損失£ID,£T進行訓(xùn)練,整體損失定義如下:

2.2.2 邊信息嵌入向量SIE

獲取更詳細的特征之后,特征仍然容易受到攝像機或視點變化的影響。換一種說法,由于場景的偏差,訓(xùn)練模型在對同一對象的不同角度的識別上很容易失敗。因此,我們提出了一種邊信息嵌入向量(SIE)去合并非視覺信息,例如將攝像機或視點去嵌入表示以學(xué)習(xí)不變特征。通過可學(xué)習(xí)向量有效地整合非視覺線索,以緩解不同攝像機或視覺以及其他因素導(dǎo)致的視覺偏差,以攝像機為例,所提出的SIE有助于解決攝像機間和攝像機內(nèi)匹配所產(chǎn)生的巨大成對相似性差異。SIE也可以很容易地擴展到包括除了我們已經(jīng)演示的那些以外的任何非視覺線索。

具體的說,如果圖像的相機ID為C,那么它對應(yīng)的相機嵌入可以表示為 S(C),不同位置嵌入會隨圖像塊變化,相機嵌入則對所有塊相同。另外,如果視角信息V可知,我們同樣可以將其編碼到所有塊中。

接下來,我們就需要考慮如何集成這兩種不同類型的信息了。最簡單的一個想法:直接進行相加,即S(C)+S(V)。但這種方式可能導(dǎo)致信息抵消。我們提出采用聯(lián)合編碼方式:S(C,V)。也就是說,如果有 CN個相機ID,VN個視角標(biāo)簽,那么S(C,V)總計有CN×VN個不同的值。那么第i個塊的輸入定義如下:

因為每個塊的嵌入位置不同,但在不同的圖像中是相同的,S(C,V)對于每個塊是相同的,但是對于不同的圖像可能有不同的值。Transformer層能夠編碼具有不同分布特性、可以直接插入的嵌入向量。

3 實驗

■3.1 數(shù)據(jù)集和評價標(biāo)準(zhǔn)

本文采用Market1501[3]數(shù)據(jù)集對所提出的基于TransReID的方法進行實驗Market1501數(shù)據(jù)集包括6個攝像頭所拍攝到的1501個行人。其中訓(xùn)練集有751人,包含12936張圖像,測試集有750人,包含19732張圖像,平均每人有26.3張測試數(shù)據(jù)。

■3.2 實驗準(zhǔn)備

本文算法基于Colab平臺實施,迭代次數(shù)為120,GPU為TeslaT4。在訓(xùn)練模型時,將所有圖片大小調(diào)整為256×256。訓(xùn)練圖像通過隨機水平翻轉(zhuǎn)、填充、隨機裁剪、隨機擦除進行圖像增強。Batch=8,采用SGD優(yōu)化算法,動量為0.9,權(quán)值衰減為1e-4。學(xué)習(xí)率初始化為0.008。

■3.3 TransReID學(xué)習(xí)實驗結(jié)果

為了測試TransReID學(xué)習(xí)的有效性,本文分別在Market1501數(shù)據(jù)集上進行實驗驗證,訓(xùn)練模型Loss函數(shù)收斂情況如圖3所示,圖中展示了Loss函數(shù)的收斂情況隨迭代次數(shù)的不斷增加而不斷變化的情況,由圖片可以看出,模型在迭代100次時趨于收斂。行人重識別檢測圖如圖4所示。

圖3 損失函數(shù)圖像

圖4 行人重識別檢測圖

4 智能安防

隨著道路監(jiān)控設(shè)施及城市監(jiān)控網(wǎng)絡(luò)的日益完善,視頻偵查作為信息化背景下對現(xiàn)場勘查方法的創(chuàng)新逐漸被利用在刑事偵查之中,成為公安機關(guān)辦理案件的新技法[4]。然而由于監(jiān)控設(shè)備是24小時不間斷工作,且監(jiān)控攝像頭數(shù)量龐大,導(dǎo)致數(shù)據(jù)集也非常大,同時由于不同攝像頭之間的差異性,在追蹤嫌疑人時增加了一定的難度。在警方確定嫌疑犯基本信息后,采用人力查找監(jiān)控視頻中嫌疑人的行為軌跡是非常費時費力的。故先大致確定嫌疑犯出現(xiàn)的范圍,調(diào)出視頻圖像并對其解碼預(yù)處理,對解碼后的視頻圖像進行行人檢測,并在數(shù)據(jù)庫中存儲檢測結(jié)果。通過已知某嫌疑犯的照片,輸入到匹配系統(tǒng)中與數(shù)據(jù)庫中行人進行比對,收集監(jiān)控系統(tǒng)中嫌疑犯出現(xiàn)的時間和地點,并對檢測到的目標(biāo)在視頻中的幀序列進行跟蹤,可以將嫌疑犯在各個攝像頭中的行蹤串聯(lián)起來,實現(xiàn)跨攝像頭追蹤,嫌疑犯的行為軌跡一旦確定,將對警方破案刑偵有非常大的幫助。

圖5 匹配系統(tǒng)

5 結(jié)束語

本文研究了一個用于行人重識別的TransReID框架,并且提出兩個新的模塊,即拼圖補丁模塊(JPM)和邊信息嵌入向量(SIE)。其中JPM可以幫助模型學(xué)習(xí)更多的全局信息和更具有辨別力的部分,使得模型對擾動具有魯棒性。而SIE減弱了由不同攝像機和視點引起的場景偏差的負面影響。基于TransReID的方法有著很大的潛力,可以進一步探索重識別的任務(wù),以便更好的應(yīng)用于我們的日常生活中。

猜你喜歡
特征信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 成年片色大黄全免费网站久久| 亚洲一区二区约美女探花| 国产欧美亚洲精品第3页在线| 伊人久久久久久久久久| 色悠久久久| 日韩欧美中文亚洲高清在线| 欧美国产日韩在线| 91无码人妻精品一区二区蜜桃| 免费无遮挡AV| av一区二区三区高清久久| 国产一级α片| 亚洲香蕉在线| 亚洲精品大秀视频| 亚洲伊人天堂| 在线观看欧美国产| 日韩精品毛片| 99国产精品免费观看视频| 亚洲国模精品一区| 国产麻豆永久视频| 国产SUV精品一区二区| 久久99蜜桃精品久久久久小说| 成人精品免费视频| 免费高清自慰一区二区三区| 狠狠色丁香婷婷综合| 国产欧美在线视频免费| 色播五月婷婷| 久久久久人妻一区精品| 少妇精品网站| 无码国内精品人妻少妇蜜桃视频| 国产成人91精品| 97视频免费在线观看| 久久不卡精品| 91精品aⅴ无码中文字字幕蜜桃| 国产成人精品综合| 国产91在线|日本| 国产美女精品人人做人人爽| 高清精品美女在线播放| 国产玖玖玖精品视频| 成人午夜久久| 日韩高清成人| 人人妻人人澡人人爽欧美一区| jizz在线观看| 国产亚洲高清在线精品99| 国产精品免费电影| 亚洲男女在线| 欧美笫一页| av一区二区人妻无码| 日韩123欧美字幕| 伊人精品成人久久综合| 国产精品无码翘臀在线看纯欲| 精品视频在线一区| 99中文字幕亚洲一区二区| 国产精品第一区在线观看| 亚洲成在人线av品善网好看| 992Tv视频国产精品| 中文字幕人成乱码熟女免费| 成人午夜视频网站| 狠狠色丁香婷婷综合| 亚洲一区二区在线无码| 国产欧美日韩精品综合在线| 在线观看欧美精品二区| 欧美福利在线播放| 国产爽妇精品| 国产原创自拍不卡第一页| 这里只有精品在线| 成年女人a毛片免费视频| 一本二本三本不卡无码| 99这里只有精品免费视频| 丁香六月激情综合| 亚洲av综合网| 亚洲精品欧美重口| 最新精品久久精品| A级毛片无码久久精品免费| 亚洲无码91视频| 精品人妻一区二区三区蜜桃AⅤ| 无码精品福利一区二区三区| 毛片免费在线视频| 免费激情网址| 久久这里只有精品2| 亚洲va精品中文字幕| 欧美日一级片| 国产一区二区三区夜色|