孫景偉 丁學用


摘 要:L1 Tracker算法魯棒性好,但算法復雜度高,實時性差。針對L1 Tracker跟蹤速率低問題,本文提出了一種新的稀疏表示跟蹤方法,該方法主要采用在感興趣區域內對候選目標采樣以及塊稀疏正交匹配追蹤算法(BOMP)來提高跟蹤效率,并通過對三種不同的場景與其他四種跟蹤算法做了對比實驗,驗證了本文算法的穩定性和實時性。
關鍵詞:L1 Tracker;BOMP;候選目標;跟蹤效率
中圖分類號:TP391 文獻標志碼: A
運動目標跟蹤是今年來計算機視覺領域的熱門研究方向之一,它在視頻監控、軍事領域、智能機器人、智能交通系統方面有著廣泛的應用背景。目前已有大量學者對運動目標跟蹤算法進行廣泛的研究,提出了多種類型的算法。最近,Xue等人[2]結合粒子濾波技術和稀疏表示技術提出了L1 Tracker跟蹤算法,它能處理目標物的形變、遮擋以及光照變化等一系列富有挑戰性問題。但是,該算法的復雜度高,實時性差。Li G等人[3]提出了基于生物特征的L1 Tracker跟蹤算法,該算法對目標物的形變穩定性好,然而該算法所采用的特征沒有考慮到光照的影響,對光照劇烈變化的場景跟蹤的穩定性差。
本文借鑒了L1跟蹤算法中稀疏表示的技術,提出了另外一種高效的L1跟蹤算法。該算法在感興趣區域內對候選目標進行采樣,而不是在粒子濾波框架下進行采樣,無需對粒子進行預測、重采樣及權重的更新,從而提高了跟蹤效率;并采用重構速度更快的塊稀疏正交匹配追蹤算法(BOMP)[4],進一步提高了跟蹤效率。并且通過不同場景的視頻序列的實驗驗證了該算法的魯棒性和實時性。
1 基于稀疏表示的目標觀測模型
1.1 候選目標的稀疏表示
1.2 目標模板的更新
模板的更新主要分為三個步驟:模板的替代、模板的更新和權重的更新,具體的算法流程參考文獻[2]。
1.3 L1 Tracker方法
L1 Tracker跟蹤方法在跟蹤過程中主要采用粒子濾波算法來更新粒子的權重,并對粒子進行狀態轉移,從而獲取粒子所對應的候選目標,并計算出重構誤差,根據重構誤差來選取候選目標作為跟蹤結果,并進一步對粒子進行重采樣。
2 本文的方法
2.1 更加快速的重構算法
Xue等人提出的L1 Tracker跟蹤方法,所采用的重構算法是預處理共軛梯度算法(preconditioned conjugate gradients algorithm,PCG),計算復雜度大,運行效率低。本文提出了一種重構速度更快的重構算法:塊稀疏正交匹配追蹤算法(BOMP)[4]。
文獻[4]指出了實際問題經常出現的一種特殊稀疏信號——塊稀疏信號(Block-Sparse Signal),即信號中不為零的地方成塊出現。BOMP算法主要利用信號塊稀疏的結構特性,重構效果比傳統的重構算法更理想,同時也縮短了運行時間。
塊稀疏信號定義如下:
2.2 基于感興趣區域內的候選目標采樣
L1 Tracker基于粒子濾波的框架下對候選目進行采樣,需對粒子進行預測,重采樣,以及權重的更新,一定程度上降低算法的效率。本文提出了一種基于感興趣區域內的候選目標采樣的方法,無需對粒子進行預測,重采樣,以及權重的更新,提高了跟蹤的效率。
2.3 算法流程
本文針對L1 Tracker效率低問題提出了一種更加快速的稀疏表示跟蹤方法,具體的跟蹤流程如下:
為了驗證本文的跟蹤效果,將其用于跟蹤以下的三種視頻序列:David Indoor、Car4;并和以下的四種跟蹤算法相比較:L1-APG[2]、Incremental Visual Tracking(IVT). [5]、 Multiple Instance Learning(MIL)[1]、Online AdaBoost(OAB). [6]。圖1是上面的跟蹤方法對三種不同的視頻序列的部分跟蹤結果,圖2為本文方法與其它四種跟蹤算法的跟蹤誤差比較,表1為本文方法與其它四種跟蹤算法的平均誤差比較。
圖1(a)顯示的是有姿勢轉變和受光照變化影響的David Indoor視頻序列的跟蹤結果,本文的方法、IVT和MIL都能成功的跟蹤目標,而OAB和L1-APG方法在人臉發生姿勢變化時無法正確跟蹤目標。
圖1(b)顯示的是光照急劇變化的Car4視頻序列的跟蹤結果,本文的方法、IVT和L1-APG都能成功的跟蹤目標,而其他方法在車輛經過橋底時,由于光照急劇變化,導致跟蹤失敗。
圖1(c)顯示的是姿勢變化和遮擋現象的Face視頻序列跟蹤結果,本文的方法是最好的,而其他方法在有遮擋的情況下會發生跟蹤漂移。
綜上所述,本文的方法在五種跟蹤算法中是最優的,對L1-APG方法跟蹤失敗的場景,本文的方法能穩定性的跟蹤,跟蹤精度優于L1-APG方法。
4 結論
本文針對Xue等人提出的L1-APG跟蹤方法計算復雜度高,跟蹤效率低等問題,提出了一種新的稀疏表示跟蹤方法。本文的跟蹤算法,在CPU2.0GHZ、內存2GB筆記本電腦上運行,跟蹤速度達到12 frame/s,保證了跟蹤的實時性,并且通過對比實驗,驗證了本文方法在跟蹤精度和實時性兩個方面都優于L1-APG方法。
參考文獻:
[1] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J].Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2011, 33(8): 1619-1632.
[2] Mei X, Ling H. Robust visual tracking using ? 1 minimization[C]. Computer Vision, 2009 IEEE 12th International Conference on. IEEE, 2009: 1436-1443.
[3] Li G, Liu Z Y, Li H B, et al. Target Tracking Based on Biological-Like Vision Identity via Improved Sparse Representation and Particle Filtering[J].Cognitive Computation, 2016, 8(5):1-14.
[4] ELDAR Y C.Block-Sparse Signals: Uncertainty Relations and Efficient Recovery[J]. IEEE Transactions on Signal Processing, 2010, 58(6):3041-3054.
[5] Ross D A, Lim J,Lin R S, et al. Incremental learning for robust visual tracking[J].International Journal of Computer Vision, 2008, 77(1-3): 125-141.
[6] Grabner H, Grabner M, Bischof H. Real-time tracking via on-line boosting[C].Proc. BMVC. 2006, 1: 47-56.
作者簡介:孫景偉 (1988-),男,海南三亞人,助教,碩士,主要研究圖像處理方向。