999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于在線魯棒判別式字典學習的視覺跟蹤

2018-09-17 05:20:34方云錄
計算機時代 2018年7期

方云錄

摘 要: 基于稀疏表示與字典學習的視覺跟蹤較好地解決了目標遮擋和表觀變化問題,但是其存在模型漂移和復雜背景下魯棒性差的問題。針對這兩個問題,本文利用L1損失函數和最小化背景樣本在目標模板上的投影提出一種在線魯棒判別式字典學習模型,并用塊坐標下降設計了該模型的在線學習算法用于L1跟蹤模板更新。以粒子濾波為框架,利用提出的字典學習實現了視覺跟蹤方法。實驗結果表明:本文跟蹤方法比現有跟蹤方法具有更強的魯棒性和較高的跟蹤精度。

關鍵詞: L1跟蹤; 字典學習; 模板更新; 粒子濾波

中圖分類號:TP391 文獻標志碼:A 文章編號:1006-8228(2018)07-20-04

Abstract: Sparse representation and dictionary learning based visual tracking have well solved occlusions and appearance changes. However, they are faced with problems of model drifting and low robustness in clutter background. To deal with these two problems, an online robust discriminative dictionary learning model is proposed, and an online robust discriminative dictionary learning algorithm for template update of L1 tracker is designed via block coordinate descent. A visual tracking method is established using the proposed dictionary learning algorithm in particle filter framework. The experimental results on several challenging sequences show that the proposed method has better robustness and accuracy than those of the state-of-the-art trackers.

Key words: L1 tracking; dictionary learning; template update; particle filter

0 引言

視覺跟蹤是計算機視覺領域的一個重要研究內容,其目的是利用序列圖像估算目標的狀態參數。視覺跟蹤在視頻監控和人機交互等方面具有廣闊的應用前景。目前,雖然研究者已經提出一些視覺跟蹤方法,但是現有跟蹤方法仍然面臨復雜背景、目標變化和目標遮擋等難題[1]。

2009年,Mei和Ling[2]首次提出基于稀疏表示的視覺跟蹤方法,又稱“L1跟蹤”。L1跟蹤用目標模板和小模板的組合表示候選目標,以重構誤差作為觀測似然跟蹤目標。L1跟蹤對目標遮擋具有較強的魯棒性,但是L1跟蹤對目標模板的要求較高,當模板中引入離群數據時,會導致跟蹤失敗。為了保證目標模板的正確性,文獻[3-4]提出用小模板系數檢測目標遮擋,并根據檢測結果更新目標模板。文獻[5]利用小模板系數重建跟蹤結果,并利用增量主分量分析更新目標模板。文獻[3-5]中模板更新方法的問題在于,由于小模板也能表示背景[5],這會導致遮擋檢測失敗或者重建圖像不準確。隨著對L1跟蹤研究的深入,研究者逐漸認識到模板字典在視覺跟蹤中的重要作用。為了提升L1跟蹤對復雜背景下目標跟蹤魯棒性,文獻[6]提出用多個特征視圖建立目標模板字典。文獻[7]提出建立多壽命模板字典跟蹤目標,并將目標模板更新等價為在線字典學習問題,從而保證了對目標表觀變化的適應性。文獻[8]利用非負灰度字典設計目標模板,并提出在線魯棒的非負字典學習算法用于模板更新,進一步提升了L1跟蹤的性能。

綜上所述,目標模板的設計與更新對L1跟蹤至關重要。現有L1跟蹤模板更新方法的問題在于模型漂移和復雜背景下目標跟蹤的魯棒性差兩個方面。針對這兩個問題,本文首先提出一種在線魯棒判別式字典學習模型。一方面,該模型以L1范數作為目標模板的損失函數,有效抑制了模型漂移;另一方面,該模型通過最小化背景樣本在目標模板上的投影,增強了目標模板的判別力,提高了復雜背景下目標跟蹤的魯棒性。其次,利用塊坐標下降設計了該模型的在線學習算法。在粒子濾波框架下,利用提出的字典學習實現了目標跟蹤方法。實驗結果表明,本文提出的模板更新方法,用于視覺跟蹤,達到了提高魯棒性與跟蹤精度的預期效果。

1 在線魯棒判別式字典學習模型

視覺跟蹤中的圖像觀測是時變數據,所以從字典學習的角度看,模板更新是在線的字典學習問題[7-8]。目前,一般在“損失函+正則化項”框架下對字典學習問題進行研究[9]。字典學習模型也就是如何設計損失函和正則化項。假設是正例樣本,是負例樣本,其中和是零均值和單位方差向量。,則本文提出的在線魯棒判別式字典學習模型如下:

在線字典學習模型式⑴能夠克服模型漂移,同時對目標樣本與背景樣本又具有較強的判別力。式⑴中為目標樣本在模板字典D上的重建誤差,又稱為損失函數。字典學習中常用的損失函數有L1范數和L2范數。由于離群數據的重建誤差滿足拉普拉斯分布,所以與L2損失函數相比,L1損失函數具有對離群數據魯棒的優點。因此,模型式⑴用L1范數作為損失函數能夠降低遮擋信息等離群數據對目標模板的影響,從而克服模型漂移。模型式⑴不但考慮了模板字典對目標樣本的重建能力,還兼顧了模板字典對背景樣本的辨別能力,這通過最小化背景樣本在模板字典D上的投影得到。

2 在線魯棒判別式字典學習算法

求解式⑴的在線魯棒判別式字典學習算法包括數據采樣、編碼系數求解和在線字典更新三步驟。

2.1 數據采樣

根據至t時刻的跟蹤結果,采樣n+個圖像塊作為正例樣本;在以t時刻跟蹤結果目標中心c為圓心的環形區域內隨機采樣n-個圖像塊作為負例樣本。

2.2 編碼系數求解

假設t-n+時刻的目標模板字典為。采用迭代加權最小二乘法[10](Iterative Reweighted Least Squares,IRLS)求解(i=1,…,n+)。采用嶺回歸求解(i=1,…,n-)。

2.3 在線字典更新

在線字典更新的目標是已知編碼系數和求解字典Dr。假設在t時刻進行第T次模板更新,則在線字典更新也就是求解優化問題式⑵

其中,是樣本個數。由文獻[10]可知,采用塊坐標共軛梯度下降算法逐行求解式⑶,可得到字典Dt。

其中,δ是一個正數(本文取δ=0.0001)。由文獻[10]可知,若定義Bj和Cj分別為式⑹和式⑺,則求解線性系統式⑻可以得到D(j,:)。式⑻是一個可微凸問題,其全局最優解可通過對目標函數求導使其等于零得到。

通過上述分析,可以得到求解模型式⑴的在線魯棒判別式字典學習算法,如“算法1”所示。

3 目標跟蹤

以粒子濾波為框架跟蹤目標,在目標跟蹤過程中利用提出的在線魯棒判別式字典學習算法更新目標模板,如圖1所示。

基于粒子濾波的跟蹤方法是將目標跟蹤問題轉換為貝葉斯理論框架下已知目標狀態的先驗概率,在獲得新的觀測量后求解目標狀態的最大后驗概率的過程:

其中,為狀態轉移模型。本文使用仿射變換對連續兩幀圖像之間的目標運動建模,建立狀態轉移模型。對于觀測似然,首先利用式⑼對候選目標進行稀疏編碼,然后用式⑽求解觀測似然值。

4 實驗結果與分析

為了驗證字典學習算法的有效性,利用Matlab R2010a實現并驗證了文中提出的跟蹤方法。實驗中,跟蹤方法的參數設置如下:采樣粒子數為600,負例樣本數為200,模板大小為32×32,每5幀更新一次模板,字典原子數為16,參數。實驗使Faceocc1、Singer1、Car4、CarDark[12]4組序列對本方法進行了定性和定量分析,并與IVT[11]、L1APG[4]和MTT[13]4種跟蹤方法進行了對比。

4.1 定性分析

圖2給出了對IVT、L1APG、MTT及本文跟蹤方法的定性比較。圖2(a)給出對遮擋目標的跟蹤結果,可以看出,本文方法結果最優。圖2(b)、(c)給出了存在光照和姿態變化時的跟蹤結果,可以看出,本文方法優于其他方法。圖2(d)中跟蹤目標的背景比較復雜,可以看出,本文方法的跟蹤結果較優。

4.2 定量分析

實驗采用成功率[12]指標進行定量分析,實驗中重疊閾值設定為0到1。圖3給出了4種跟蹤方法對4組圖像序列的成功率曲線。由圖3可知,在成功率方面,本文方法都優于其他4種方法。

5 結論

針對現有L1跟蹤的不足,本文提出一種在線魯棒判別式字典學習模型用于L1跟蹤模板更新。該模型提高了模板更新的魯棒性和跟蹤精度。以粒子濾波為框架實現了基于在線魯棒判別式字典學習的視覺跟蹤方法。采用具有挑戰性的圖像序列對提出的跟蹤方法進行了實驗驗證,實驗結果表明,本文的跟蹤方法優于其他現有跟蹤方法。

參考文獻(References):

[1] 張煥龍,胡士強,楊國勝.基于外觀模型學習的視頻目標跟蹤方法綜述[J].計算機研究與發展,2015.51(1):177-190

[2] Xue Mei, Haibin Ling. Robust visual tracking using L1minimization[C]. Proceedings of IEEE Conference on Computer Vision. Kyoto: IEEE Computer Society Press,2009:1436-1443

[3] Mei X, Ling H B, Wu Y, et al. Minimum error boundedefficient L1 tracker with occlusion detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Colorado: IEEE Computer Society Press,2011:1257-1264

[4] Chenglong Bao, Yi Wu, Haibin Ling, et al. Real time robust L1 tracker using accelerated proximal gradient approach[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Rhode Island: IEEE Computer Society Press,2012:1830-1837

[5] Dong Wang, Huchuan Lu, Ming-Hsuan Yang. Least soft-thresold squares tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:2371-2378

[6] Zhibin Hong, Xue Mei, Danil Prokhorov, et al. Tracking via robust multi-task multi-view joint sparse representation[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:649-656

[7] J. Xing, J. Gao, B. Li, W. Hu, S. Yan. Robust objecttracking with online multi-lifespan dictionary learning[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:665-672

[8] N. Wang, J. Wang, D. Yeung. Online robust non-negative dictionary learning for visual tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:657-664

[9] Mairal J, Bach F, Ponce J, et al. Online learning for matrix factorization and sparse coding [J]. Journal of Machine Learning Research,2010(11):19-60

[10] Lu Ce-wu, Shi Jian-ping, Jia Jia-ya. Online robust dictionary learning[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Portland,2013:415-422

[11] Ross D, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision,2008.77(1-3):125-141

[12] Yi Wu, Jongwoo Lim, Ming-Hsuan Yang. Online object tracking: a benchmark[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE Computer Society Press,2013:2411-2418

[13] Tianzhu Zhang , Bernard Ghanem, Si Liu , et al. Robust visual tracking via multi-task sparse learning[J]. International Journal of Computer Vision,2013.101(2):367-383

主站蜘蛛池模板: 日本免费精品| 精品成人一区二区| 久草国产在线观看| 亚洲a级毛片| 亚洲欧美人成电影在线观看| 国产成人精品高清不卡在线| 在线观看亚洲国产| 久草国产在线观看| 久草视频中文| 国产精品久久久精品三级| 国产在线观看一区精品| 亚洲AV无码不卡无码 | 亚洲欧洲美色一区二区三区| 国产女人水多毛片18| 亚洲国产天堂在线观看| 国产大全韩国亚洲一区二区三区| 国产成人高清精品免费| 2021精品国产自在现线看| 香蕉久久国产超碰青草| hezyo加勒比一区二区三区| www.91中文字幕| 无码专区国产精品第一页| 91精品啪在线观看国产60岁 | 国产精品视频系列专区| 久久鸭综合久久国产| 久996视频精品免费观看| 日本人又色又爽的视频| 试看120秒男女啪啪免费| 波多野结衣爽到高潮漏水大喷| 女人18毛片一级毛片在线| 四虎国产永久在线观看| 亚洲色图狠狠干| 亚洲精品无码专区在线观看| 中文字幕在线永久在线视频2020| 免费不卡视频| 亚洲第一色视频| 欧美h在线观看| 日本在线欧美在线| 久久久久久国产精品mv| 国产美女无遮挡免费视频| 麻豆精品在线播放| 国产在线日本| 免费jizz在线播放| 在线观看国产小视频| 高清无码一本到东京热| 欧美日韩国产在线观看一区二区三区| 久久人体视频| 日韩精品亚洲一区中文字幕| 国产乱子伦手机在线| 色哟哟精品无码网站在线播放视频| 亚洲天堂免费观看| 真实国产乱子伦高清| 欲色天天综合网| 久久久久久久久亚洲精品| 日本午夜精品一本在线观看| 免费视频在线2021入口| 欧美日韩第三页| 国产精品美乳| 国产精品一老牛影视频| 91视频青青草| 国产97公开成人免费视频| 欧美福利在线观看| 国产又色又刺激高潮免费看| 亚洲色图欧美视频| 99re热精品视频国产免费| 真实国产乱子伦视频| 无码免费试看| 国产自在自线午夜精品视频| 一本大道AV人久久综合| 一级成人a做片免费| 亚洲欧美人成人让影院| 成年人国产视频| 欧美激情首页| 久久久久无码精品| 亚洲中文字幕无码爆乳| 亚洲中文制服丝袜欧美精品| jizz国产在线| 40岁成熟女人牲交片免费| 国产小视频a在线观看| 人人爱天天做夜夜爽| 99这里精品| 亚洲综合第一页|