999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的實時跟蹤算法*

2018-04-27 01:35:41劉鵬程周祥東
傳感器與微系統 2018年5期
關鍵詞:模型

程 朋, 劉鵬程, 程 誠, 周祥東, 石 宇

(中國科學院大學 中國科學院重慶綠色智能技術研究院,重慶 400714)

0 引 言

目標跟蹤一直是計算機視覺領域研究的熱點問題,其相關研究成果在軍事科技、社會安全和生活娛樂等眾多領域有著廣泛的應用[1]。目標跟蹤算法的任務是只在視頻序列幀的第一幀通過一個矩形框的形式給出需要跟蹤的目標,即使在后續的視頻幀中出現多種變化,如形變,遮擋,光線的變化等,仍然可以定位到目標的位置。

許多研究將卷積神經網絡(convolutional neural network,CNN)[2]應用在目標跟蹤中,然而,跟蹤目標具有不確定性,使得在目標跟蹤領域充分利用CNN強大的表觀能力是非常困難的。于是大部分算法采用在線學習的方式,隨著目標的改變更新CNN模型。雖然取得了不錯的跟蹤效果,但實時更新模型帶來的巨大計算量嚴重地影響了算法的實時性。

本文提出了一種基于CNN的實時跟蹤算法,利用離線學習的方式,使網絡模型學習到跟蹤目標的表觀特征與運動之間的普遍規律,在不需要在線更新模型的情況下,得到目標的位置和對應預測結果的置信度,使算法在實時性和準確性上均有不錯的表現。置信度的預測與目標位置坐標的回歸預測具有正相關性,即正確的目標位置回歸區域應該有較高的置信度保證該區域包含待跟蹤目標,置信度的引入有助于提升算法的跟蹤性能,同時反饋了更多的跟蹤信息。

1 基于CNN的實時跟蹤算法

1.1 網絡結構

文獻[3]對具有5層卷積層的AlexNet[4]進行了分析,指出隨著卷積層的增加,網絡提取的特征具有更強的語義信息,但同時也會遺失含有精確位置的空間信息。不同于目標檢測等任務,物體的位置信息對目標跟蹤至關重要。本文為了保留較多的空間信息,使用AlexNet的前3層卷積層提取圖片的特征,具體網絡結構如圖1。為了使模型學習到由運動帶來的視頻幀間的差異,使用雙通道網絡,其中一通道的輸入用于目標跟蹤,另一通道的輸入為搜索區域。通過卷積層提取到兩部分特征信息后,將其拼接作為全連接層的輸入。全連接層具有3層,每一層有4 096個節點,用于學習表觀特征與運動之間的普遍規律。將全連接層的最后一層與只含有4個節點的輸出層連接,通過回歸得到預測結果,即目標的位置坐標,同時也與Softmax層相連,得到預測結果的置信度。置信度指當前幀的搜索區域含有跟蹤目標的可能性,與目標位置的預測具有正相關性,兩者的協同學習有助于提升各自估計模型的性能。

圖1 網絡結構

1.2 損失函數

本文提出的算法中對一張圖像的損失函數定義為

(1)

(2)

對于位置坐標回歸損失,使用歐氏距離衡量準則,對應的損失函數定義為

(3)

1.3 網絡訓練

利用數據增強在單張圖片上進行訓練,并用視頻幀進行fine-tune的方式進行訓練[5]。整個過程中通過反向傳播和隨機梯度下降法(stochastic gradient descent,SGD)[6]對網絡的參數更新。

1.3.1 使用圖片進行訓練

(4)

(5)

式中w,h為目標區域的寬和高;Δx,Δy為均值為0、尺度參數為1/5的拉普拉斯分布的隨機變量。經過平移后

w*=w·γw

(6)

h*=h·γh

(7)

圖2 數據增強示例

1.3.2 使用視頻幀進行fine-tune

圖3 視頻幀訓練樣本示例

2 目標跟蹤

在進行跟蹤時,首先根據標注信息得到第一幀中跟蹤目標的信息,然后從第二幀起,依次向網絡中輸入相鄰兩幀圖片中前一幀預測的目標區域和當前幀中相同位置的區域。通過網絡計算得到每一幀預測的結果和對應的置信度。整個跟蹤過程中,CNN不進行反向傳播,不需要在線學習更新模型參數。

3 實驗結果

在VOT2014數據集上對跟蹤算法的性能進行測試。VOT2014數據集包括25組視頻幀,涉及到目標跟蹤過程中目標發生的各種基本變化,如目標形變,目標遮擋,光線變化等。VOT測試工具在跟蹤算法丟失目標后會重新對其進行初始化,通過預測結果與標注信息計算準確性的同時,也會給出跟蹤算法跟蹤失敗的次數,即跟蹤算法的魯棒性。測試分為兩種類型:無噪聲干擾(Baseline)和有噪聲干擾(Region_noise)。關于測試工具更多的信息可以參考文獻[9]。通過與VOT2014挑戰賽的公開結果進行比較,得到排名結果如圖4所示,性能越好的跟蹤算法越接近圖中右上角,可以看出本文算法(圖中實心圓所示)的性能達到了當前領先水平。

圖4 排名結果

4 速度分析

本文列出一些近期基于CNN跟蹤算法的實驗平臺和跟蹤速度,具體如表1。跟蹤算法具有很好的跟蹤效果,但由于在跟蹤時需要對網絡模型進行頻繁的更新,導致巨大的運算量,處理速度達不到實時性的要求。本文提出的基于CNN的跟蹤算法在跟蹤時不需要進行在線學習,速度可以達到90幀/s左右,具有較好的實時性。

表1 跟蹤速度的比較

5 結 論

提出的基于CNN的實時跟蹤算法,在公共視頻幀數據集不充足的情況下,利用靜態圖片進行數據增強,模擬現實運動,實現了雙通道CNN的離線訓練,學習相鄰兩幀之間的差異。在進行跟蹤時,將前一幀預測的位置信息作為當前幀的搜索區域,通過網絡回歸得到目標的位置和對應置信度的預測。通過在VOT2014數據集進行實驗,并與VOT2014挑戰賽的公開結果進行比較,在無噪聲干擾和有噪聲干擾條件下,本文算法的準確性和魯棒性的排名均處在領先位置。與此同時,算法運行速度可以達到90幀/s左右,相比其他方法具有更好的實時性。如何利用預測結果的置信度對算法在跟丟目標后進行處理是以后的工作方向。

參考文獻:

[1] Yilmaz A,Javed O,Shah M.Object tracking:A survey[J].ACM Computing Surveys,2006,38(4):13.

[2] Wang L,Ouyang W,Wang X,et al.Visual tracking with fully convolutional networks[C]∥IEEE International Conference on Computer Vision,IEEE,2015:3119-3127.

[3] Ma C,Huang J B,Yang X,et al.Hierarchical convolutional features for visual tracking[C]∥IEEE International Conference on Computer Vision,IEEE,2015:3074-3082.

[4] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C]∥International Conference on Neural Information Processing Systems,Curran Associates Inc,2012:1097-1105.

[5] Chen K,Tao W.Once for All:A two-flow convolutional neural network for visual tracking[J].arXiv preprint arXiv:1604.07507,2016.

[6] Lecun Y,Boser B,Denker J S,et al.Back propagation applied to handwritten zip code recognition[J].Neural Computation,1989,1(4):541-551.

[7] Russakovsky O,Deng J,Su H,et al.ImageNet large scale visual recognition challenge[J].International Journal of Computer Vision,2015,115(3):211-252.

[8] Held D,Thrun S,Savarese S.Learning to track at 100 fps with deep regression networks[C]∥European Conference on Compu-ter Vision,Springer International Publishing,2016:749-765.

[9] Kristan M,Pflugfelder R,Leonardis A,et al.The visual object tracking VOT2014 challenge results[M]∥Europen Conference on Computer Vision,ECCV 2014 Workshops,Springer International Publishing,2013:191-217.

[10] Smeulders A W M,Chu D M,Cucchiara R,et al.Visual tracking:An experimental survey[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2014,36(7):1442-1468.

[11] Wu Y,Lim J,Yang M H.Object tracking benchmark[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(9):1834-1848.

[12] Li H,Li Y,Porikli F.Deeptrack:Learning discriminative feature representations online for robust visual tracking[J].IEEE Tran-sactions on Image Processing,2016,25(4):1834-1848.

[13] Nam H,Han B.Learning multi-domain convolutional neural networks for visual tracking[C]∥Proceedings of the IEEE Confe-rence on Computer Vision and Pattern Recognition,2016:4293-4302.

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品午夜电影| 成人另类稀缺在线观看| 成人第一页| 亚洲国产精品日韩专区AV| 国产探花在线视频| 国产精品永久不卡免费视频| 精品国产成人国产在线| 91在线国内在线播放老师| 97国产成人无码精品久久久| 国产va在线观看| 自拍中文字幕| 亚洲国产欧美国产综合久久 | 毛片在线播放网址| 色135综合网| 成人小视频网| 国内嫩模私拍精品视频| 欧美精品导航| 香蕉伊思人视频| 精品国产女同疯狂摩擦2| 黄色片中文字幕| 久久综合伊人77777| 国产91精品调教在线播放| 亚洲最大在线观看| 国产精品视频3p| 国产自产视频一区二区三区| 激情乱人伦| 久久男人视频| 嫩草在线视频| 在线国产欧美| 亚洲中文字幕手机在线第一页| 日韩一区二区在线电影| 538国产视频| 国产不卡国语在线| 午夜成人在线视频| 极品尤物av美乳在线观看| 色久综合在线| 久久精品国产电影| 亚洲高清无码精品| 欧美一级黄片一区2区| 久久免费观看视频| 性喷潮久久久久久久久| 永久免费无码日韩视频| 亚洲大尺码专区影院| 亚洲色图综合在线| 91在线播放免费不卡无毒| 午夜福利网址| 亚洲国产欧美目韩成人综合| 婷婷开心中文字幕| 全裸无码专区| 国产H片无码不卡在线视频| 国产小视频在线高清播放| 97综合久久| 露脸国产精品自产在线播| 一区二区三区精品视频在线观看| 华人在线亚洲欧美精品| 国产夜色视频| 日韩精品亚洲一区中文字幕| 色综合狠狠操| 欧美一级片在线| 免费一级毛片在线观看| 亚洲精品欧美重口| 亚洲午夜久久久精品电影院| 少妇露出福利视频| 高清精品美女在线播放| 亚洲性视频网站| 欧美日韩国产精品va| 国产成人区在线观看视频| 国产精品人成在线播放| 国产精品极品美女自在线看免费一区二区| 国产肉感大码AV无码| 国产精品自在在线午夜区app| 午夜视频www| 国产精品亚洲精品爽爽| 亚洲中文无码av永久伊人| 亚洲无码高清免费视频亚洲| 午夜丁香婷婷| 尤物精品视频一区二区三区 | 亚洲性日韩精品一区二区| 亚洲视频在线网| 国产成人欧美| 人妻91无码色偷偷色噜噜噜| 国产黄在线观看|