999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Siamese網絡的行人重識別方法①

2020-04-24 02:21:50劉天璐李詩穎華篤偉陳星宇林文忠
計算機系統應用 2020年4期
關鍵詞:特征提取特征模型

葉 鋒,劉天璐,李詩穎,華篤偉,陳星宇,林文忠

1(福建師范大學 數學與信息學院,福州 350117)

2(數字福建大數據安全技術研究所,福州 350117)

3(閩江學院 福建省信息處理與智能控制重點實驗室,福州 350108)

行人重識別(Person Re-Identification,Re-Id)主要是指從視頻監控系統中找到特定的行人目標,根據行人諸如衣著、姿勢、發型、外在裝飾等特征判定是否為同一人.自從2006年CVPR (IEEE Conference on Computer Vision and Pattern Recognition)會議首次提出行人重識別[1]的概念后,越來越多研究者投入到該領域的研究[2].行人重識別在實際場景中判斷時,存在外在環境、行人姿態、衣著等多方面特征的多變性影響,從而導致在使用視頻圖像中提取的特征進行相似度的判定難度很大,所以行人重識別仍是充滿挑戰和亟待研究的熱點課題.

行人重識別主要分為兩大部分:特征提取和度量學習[3].一是對于行人視頻中的幀圖像進行行人檢測和特征提取;二是利用提取的特征進行度量學習,對目標與行人之間的相似性進行度量.卷積神經網絡是深度學習在計算機視覺領域最具代表性的模型之一,可以直接輸入原圖像提取特征的特點,從而可以避免復雜的預處理過程,進而提高識別效率.結合深度學習,諸多學者特征提取和度量學習方面提出了許多新型的行人再辨識方法.如Liao 等人[4]將HSV 顏色直方圖和SILTP (Scale Invariant Local Ternary Patter)紋理特征描述子聯合起來作為度量學習的特征描述子,其經過最大池化后更加穩定,此外他們還提出跨視角二次判別(Cross-view Quadratic Discriminant Analysis,XQDA)一種新的度量學習方法;Hinton 等人[5]提出在CNN 中應用Dropout算法[6],可以有效降低過擬合現象發生概率.同時,Siamese 模型[7]能有效將特征提取和度量學習融合,統一進行訓練,以顯著提高識別效率.Varior 等[8,9]在改進型循環神經網絡(Recurrent Neural Networks,RNN)長短期記憶網絡(Long Short-Term Memory,LSTM)[10]基礎上,利用其可對視頻序列進行處理且具有記憶特征信息的特性,將其和孿生網絡結合進行識別,可以顯著提高重識別效率和檢測準確率.上述方法均在不同程度上對CNN 作了改進,比如將特征提取和度量學習相結合,或者將Siamese 和LSTM相結合,但是仍然存在一些問題.同時,由于各自所采用的數據集樣本數量不一,訓練出來的模型也大大不同,使得識別的準確率有所差異、泛化能力不強.

結合Siamese 網絡,本文提出了一種改進的行人重識別方法.首先采用Dropout算法改進CNN 神經網絡的全連接層,以降低過擬合發生概率.之后利用兩個權值共享的CNN 神經網絡的Siamese 網絡,對輸入的兩張圖片作特征提取.對提取的圖像特征使用馬氏距離作為相似度匹配的度量指標,并輸出相應圖片對的相似度,最后在Market-1501 測試集上進行測試,實驗結果表明,提出的算法在一定程度上提高了行人重識別的性能.

1 改進的CNN 方法

1.1 提出的算法總體框架

基于上述分析,提出一種基于Siamese 網絡的Re-Id算法.其總體框架如下:首先在CNN 神經網絡的全連接層加入Dropout算法,對神經元的激活值設置停止工作的概率,改變原來每個神經元順次連接的結構,達到連接隨機稀疏化的效果,降低網絡的過擬合現象發生率.再以孿生網絡結構為基礎,構建由兩個完全相同且參數共享的子網絡組成的倒V 型結構(包含兩個輸入和一個輸出)分別用來提取兩個行人圖片特征并輸出相似度度量結果,此外該并行網絡可以同步對輸入圖片提取特征.最后,通過求取馬氏距離的算法,計算輸入圖像對之間的匹配相似度.

1.2 基于Dropout算法改進的CNN

1.2.1 Dropout算法

過擬合是在神經網絡模型訓練學習過程中一個亟待解決的問題.在CNN 神經網絡中運用Dropout算法則可以有效降低模型過擬合發生概率.具體體現在訓練過程中加入Dropout 平均稀疏模型間的組合[11],忽略一般的隱層節點,從而減少神經網絡節點間的相互作用和聯結匹配,減緩過擬合,可以使行人重識別的準確性得到了較大的提升.

Dropout 就是讓一些神經元以一定概率停止工作,從而增強神經網絡模型的魯棒性,降低網絡過擬合現象發生率.圖1(a)為全連接時的神經網絡模型,而圖1(b)為加入Dropout 后的網絡模型示意圖.可以看出全連接情況下,神經元間進行無間斷的連接,而加入Dropout 后神經元間變成間斷且稀疏的連接結構.

圖1 加入Dropout 層前后神經網絡模型

1.2.2 基于Dropout算法的CNN 模型改進

利用Dropout 改進CNN 的流程如圖2 所示.首先利用快速排序算法Sort(a,b,greater)對各個神經節點輸入數組B 進行降序排序,排序后記為ai;然后根據排序由大到小,利用伯努利概率分布函數,對節點有條件的分配不同隱藏率(為了簡化結構,加快識別速度,在圖2 中,將所有節點分成了3 個部分,按分配順序設置不同的隱藏率).式(1)如下,其中n 為神經元數量,ratio 為初始設置的稀疏值.

根據公式(1)生成的結果,再利用公式Bi?Bernoulli(P)i(Bi=ai)獲得神經節點值.最后結合輸入的稀疏值,對節點的連接與否進行控制,從而可以有效控制神經元的發生率,即隨機舍棄某些神經元.

圖2 基于Dropout算法改進的CNN 流程

1.3 基于Siamese 網絡的CNN 結構改進

Siamese Network 也稱孿生網絡,是一種相似性度量方法.它從輸入行人圖像中提取特征,再利用特征向量計算相似度.

如圖3 所示,Siamese 網絡的“連體”是通過權值共享來完成的.孿生神經網絡確定兩個輸入Input1 和Input2,將兩個輸入分別送入兩個神經網絡Network1和Network2,再將對應的輸入映射到新的空間,形成輸入行人圖像在新的空間中的表示.最后,通過在目標空間應用距離度量算法進行相似度損失(Loss)的計算,比較兩個輸入的相似度.

圖3 Siamese 網絡

本算法具體實現過程中,兩個子網絡Network(1,2)都采用ResNet-50[6]預訓練網絡作特征提取.首先加載數據集,用ImageNet 數據集預訓練過的模型ResNet-50 進行參數微調以適應行人重識別的任務,訓練過程中兩個卷積模型權值共享.利用Siamese 網絡框架將兩種卷積網絡組合起來并且參數共享,不僅可以對輸入的兩個行人圖像提取特征進行相似度計算[11],判斷是否為同一人,還可以用于分類和特征學習.

1.4 馬氏距離度量學習算法

為了提高訓練的效率和識別的準確率,需對全連接層進行替換變更.由實驗設定卷積網絡參數,對輸入圖像作卷積進行提取特征,計算已提取的特征向量間的馬氏距離進行相似度匹配,以判斷是否為同一行人.

馬氏距離度量學習算法[12]是一種基于馬氏距離的線性學習算法,通過在樣本集中尋找矩陣,計算兩個輸入之間的馬氏距離,以作為樣本相似度的評價指標.在學習過程中,對樣本間距離進行線性變換,用式(2)作為損失函數:

在模型設計過程中,考慮到姿勢、光照、遮擋等多方面原因[13],計算馬氏距離時利用局部線性嵌入,對特征相似性度量施加一定程度的限制.此外,CNN 網絡提取的特征還需要經過最大池化實現降維,一定程度降低整個網絡的計算復雜度.降維后的特征向量用來計算檢索圖像對的馬氏距離,同時作為在此情況下最小的逼近誤差.利用最大似然估計求最優解,即:

求解過程中要保持在低位空間重構數據,滿足式

(4)的限制條件:

按升序排序的特征值對應的特征向量,求得:

計算梯度前,先按照式(6)計算誤差:

之后按照式(7)和式(8)計算梯度值:

在進行行人輸入圖像對相似度匹配驗證時,先以高維特征為基礎計算樣本間的馬氏距離,然后計算行人圖像對的驗證損失.最后的實驗結果表明,本文所提出的算法確實可以在一定程度上提高行人重識別的精度.

2 實驗檢測結果分析

本文所提出的算法利用Pytorch 框架實現,所采用主要擴展庫包括:Numpy,Scipy,Pandas,Matplotlib 等.

2.1 數據集

實驗使用清華大學于2015年公開的Person Re-id數據集:Market-1501[12].Market-1501 數據集中的行人圖像是在夏季清華大學校園中采集,總共有1501 個行人、32 668 個已標注的行人矩形框.訓練集采集了751 人的數據,共12 936 張圖像;測試集采集了750 人的數據,共19 732 張圖像,平均每個人有26.3 張測試數據.

2.2 實驗結果

輸入大小為256×128×3 的樣本,經過神經網絡提取特征,輸出大小為1×1×2048 的特征向量.最后訓練參數設置為:一次訓練的樣本數目是128,最大迭代次數70,學習率3e-4.同時在迭代過程中,利用隨機梯度下降算法對模型參數進行更新.

最后對模型進行測試,輸入Market-1501 數據集的測試數據并驗證模型是否有效,Rank-1、mAP 指標如表1 所示.其中,Rank-i 為搜索結果中最靠前(置信度最高)的i 張圖有正確結果的概率.AP 為PR (Precision-Recall,查準率和查全率)曲線下的面積,mAP(如式(9)所示)是對所有類的AP 值取平均,其更加全面衡量ReId算法效果的指標;mAP 要求將檢索圖片與被檢索圖片都匹配正確.

表1 提出的算法與其他算法的對比

本文提出的算法在Market1501 數據庫上的Rank-1 為83.2%,Rank-5 為82.2,mAP 為69.2%,與Verif-Identi[14]、GAN[15]、DNS[16]等算法相比具有一定的優勢.

實際應用時輸入檢索圖像,模型將輸入的行人圖像與圖庫的圖像進行相似度匹配,輸出顯示可能是同一行人的檢索結果,如圖4 所示,綠色邊框圖像代表識別結果為同一個人的行人,紅色邊框圖像代表識別結果不是同一個人的行人.

圖4 行人識別結果圖

從表1 可以看出,算法在本系統的執行運行時間相比于文獻[15,16]的算法用時更短.主要原因在于雖然在訓練模型上耗時較長,但傳輸用時和提取特征用時更短.從實驗結果圖可以看到,識別正確率較高,但仍存在錯誤識別的情況,本系統仍需要訓練更多的數據集以完善模型,提高正確率.

3 結語

本文提出一種改進CNN 神經網絡進行行人重識別的方法,先在CNN 神經網絡中加入Dropout算法降低過擬合發生概率,再利用改進后的神經網絡與Siamese 網絡框架融合的神經網絡對圖片進行特征提取,實驗結果表明識別準確率顯著提高.在實驗過程中,基于現有設備的條件,我們僅在現有的數據集中選擇了Market-1501 數據集進行實驗,因此模型的泛化和結果的準確率有一定的誤差.希望在接下來的學習過程中,可以改進模型結構增加數據量,提高模型的泛化性.

猜你喜歡
特征提取特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
3D打印中的模型分割與打包
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 强乱中文字幕在线播放不卡| 2021无码专区人妻系列日韩| 国产制服丝袜91在线| 欧美亚洲另类在线观看| 九九九九热精品视频| 97精品久久久大香线焦| 国产成人成人一区二区| 国产成人精品免费av| 亚洲欧美激情小说另类| 日韩精品专区免费无码aⅴ| 麻豆精品视频在线原创| 亚洲色图欧美激情| 久久精品嫩草研究院| 亚洲精品无码日韩国产不卡| 在线观看国产网址你懂的| 十八禁美女裸体网站| 无码福利日韩神码福利片| 免费观看国产小粉嫩喷水| 少妇精品在线| 黄色福利在线| 女人毛片a级大学毛片免费| 亚洲一区二区成人| 99视频全部免费| 青青青视频蜜桃一区二区| 九九热视频在线免费观看| 亚洲欧洲日产国码无码av喷潮| 欧美成人午夜视频| 高清无码一本到东京热| 国产亚洲欧美在线人成aaaa| 亚洲国产精品日韩专区AV| 一本大道无码日韩精品影视| 丁香六月综合网| 中文字幕首页系列人妻| 呦女精品网站| 福利视频99| 国产主播在线一区| 国产综合色在线视频播放线视| 免费人成视网站在线不卡| 亚洲一区波多野结衣二区三区| 污网站免费在线观看| 国产一级毛片网站| 国产精品原创不卡在线| 97视频精品全国在线观看| 永久成人无码激情视频免费| 亚洲无码电影| 免费a在线观看播放| 国产免费高清无需播放器| 日韩精品亚洲精品第一页| 国产综合精品日本亚洲777| 亚洲第一中文字幕| 日韩av资源在线| 不卡国产视频第一页| 强奷白丝美女在线观看| 在线精品视频成人网| 精品夜恋影院亚洲欧洲| 亚洲大学生视频在线播放| 亚洲成网777777国产精品| 国产成人高清在线精品| 最新国产你懂的在线网址| 无码一区中文字幕| 99这里只有精品在线| 欧美日韩免费| 九九久久精品免费观看| 国产粉嫩粉嫩的18在线播放91| 人妻夜夜爽天天爽| 久久综合色视频| 美女裸体18禁网站| 中文字幕人妻av一区二区| 国产Av无码精品色午夜| 久久综合激情网| 亚洲天堂高清| 欧美色图第一页| 91国语视频| 国产精品自在在线午夜区app| 国产精品流白浆在线观看| 国产精品永久久久久| 国产在线自乱拍播放| 91精品国产91欠久久久久| 99ri精品视频在线观看播放| 亚洲欧美在线综合图区| 亚洲九九视频| 婷婷午夜天|