999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速目標跟蹤

2016-10-13 13:45:47吳正平崔曉夢張慶年
電子與信息學(xué)報 2016年11期
關(guān)鍵詞:特征

吳正平 楊 杰 崔曉夢 張慶年

?

融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速目標跟蹤

吳正平①②楊 杰*①崔曉夢①張慶年①

①(武漢理工大學(xué)光纖傳感技術(shù)與信息處理教育部重點實驗室 武漢 430070)②(三峽大學(xué)計算機與信息工程學(xué)院 宜昌 443002)

在貝葉斯推理框架下,基于PCA子空間和L2范數(shù)最小化的目標跟蹤算法能較好地處理視頻場景中多種復(fù)雜的外觀變化,但在目標出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移現(xiàn)象。針對這一問題,該文提出一種融合L2范數(shù)最小化和壓縮Haar-like特征匹配的快速視覺跟蹤方法。該方法通過去除規(guī)模龐大的方塊模板集和簡化觀測似然度函數(shù)降低計算的復(fù)雜度;而壓縮Haar-like特征匹配技術(shù)則增強了算法對目標姿態(tài)變化及旋轉(zhuǎn)的魯棒性。實驗結(jié)果表明:與目前流行的跟蹤方法相比,該方法對嚴重遮擋、光照突變、快速運動、姿態(tài)變化和旋轉(zhuǎn)等干擾均具有較強的魯棒性,且在多個測試視頻上可以達到29幀/s的速度,能滿足快速視頻跟蹤要求。

目標跟蹤;PCA子空間;L2范數(shù)最小化;壓縮Haar-like特征;觀測似然度

1 引言

自動目標跟蹤一直是計算機視覺領(lǐng)域一個核心問題,目前在智能視頻監(jiān)控、船舶航跡跟蹤、機器人導(dǎo)航等方面有著廣泛的應(yīng)用。經(jīng)典的目標跟蹤方法包括均值漂移算法和粒子濾波算法。一般認為前者實時性好,但在遮擋等情況下容易陷入局部極值而導(dǎo)致跟蹤的魯棒性變差;后者具有較強的抗遮擋和背景干擾能力,但計算量大,難于滿足實時跟蹤要求。近二十年來,大量學(xué)者對視頻跟蹤問題進行深入研究,并提出了多種類型的跟蹤算法。基于外觀模型的跟蹤算法一般可分為兩大類:生成式算法和判別式算法。

生成式跟蹤算法首先要通過學(xué)習得到表示目標的外觀模型,然后搜尋具有最小重建誤差的候選目標作為跟蹤結(jié)果。文獻[3]提出的IVT(Incremental learning for robust Visual Tracking)算法利用在線學(xué)習到的PCA(Principal Component Analysis)子空間對目標進行線性表示,并利用增量學(xué)習的方式對子空間進行更新。2011年,文獻[4]將稀疏表示理論應(yīng)用到目標跟蹤中,提出了著名的L1-track (visual tracking usingminimization)算法,用一組目標模板和瑣碎模板對目標進行L1范數(shù)最小化稀疏表示,較好地解決了部分遮擋問題。但L1-track在每一幀中都必須求解數(shù)百次的L1范數(shù)最小化,極大地限制了該算法在實時跟蹤中的應(yīng)用。通過引入最小誤差界限(minimal error bounding)策略,文獻[5]大幅提高了L1-track的處理速度,但依然不能滿足實時處理要求。2012年,文獻[6]提出一種關(guān)于L1范數(shù)最小化問題的快速數(shù)值解法,進一步提高了L1-track的時效性(稱之為APG-L1算法)。近年來一些學(xué)者采用L2范數(shù)最小化來進行人臉識別研究,取得了和基于稀疏表示理論的算法一樣甚至更高的識別度,更重要的是,L2范數(shù)最小化問題可用嶺回歸分析求解,其時間消耗遠低于L1范數(shù)最小化。2012年,文獻[8,9]將L2范數(shù)引入到視頻跟蹤(稱之為L2算法),并使用PCA子空間基向量(PCA subspace vectors)和方塊模板(square templates)替換L1-track中的目標模板和瑣碎模板,在大量數(shù)據(jù)集上均取得了很高的跟蹤精度,是目前非常優(yōu)秀的跟蹤算法之一。2013年,文獻[10]完全去除L2算法中的方塊模板,使得目標表示系數(shù)的求解變得更加簡單和迅速,得到了一種真正意義上的實時目標跟蹤算法(稱之為PCAL2算法)。然而這兩種算法都未能解決當目標出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移的問題。

判別式跟蹤算法則將視頻跟蹤問題轉(zhuǎn)化為一個二分類問題,即找尋一個將目標和背景區(qū)別開來的最佳判別界限。2012年,文獻[15]提出的實時壓縮跟蹤算法(real-time Compressive Tracking,稱之為CT算法)是該類算法最典型代表之一。CT算法通過一個可離線計算得到隨機測量矩陣來壓縮Haar-like特征,極大地減少了提取目標外觀特征所花費的時間,使得CT算法的跟蹤速度遠快于之前提到APG-L1, L2以及PCAL2算法。文獻[16]提出了基于核相關(guān)濾波器的快速目標跟蹤算法(high-speed tracking with Kernelized Correlation Filters, 稱之為KCF算法),其中分類器中的樣本通過快速傅里葉變換轉(zhuǎn)換到頻域進行運算,極大地提高了算法的時效性,是目前實時性最好的跟蹤算法之一。但上述兩種算法均缺乏有效的抗遮擋機制,對于嚴重遮擋和光照突變比較敏感。

針對當前視頻跟蹤算法中存在的挑戰(zhàn),本文提出了一種融合L2范數(shù)和壓縮Haar-like特征的快速視頻目標跟蹤算法。首先利用增量學(xué)習的PCA子空間對目標進行線性表示,建立基于L2范數(shù)最小化的目標表示模型,并完全舍棄規(guī)模相對龐大的方塊模板,使得目標表示系數(shù)的求解更加簡單;但不同于L2和PCAL2,本文所建立的觀測似然度模型僅利用殘差向量的L1范數(shù),可更快地對候選目標進行估計;最后,考慮PCAL2算法對旋轉(zhuǎn)或姿態(tài)變化較為敏感的問題,本文引入壓縮Haar-like特征匹配技術(shù),并通過最小誤差界限準則去除大多數(shù)非重要的粒子,以極小的時間代價增強了算法在復(fù)雜環(huán)境下的魯棒性。

2 基于L2范數(shù)最小化的目標表示

2.1基于PCA子空間目標線性表示

主成分分析法(PCA)將灰度圖像數(shù)據(jù)映射到低維子空間以獲取目標外觀的潛在特征,因而濾除了一些噪聲,對于視點變化、尺度變化、光照變化等具有良好的適用性。假定目標存在于子空間中,那么觀測向量可以由中的基向量進行線性表示,即

2.2 L2范數(shù)最小化求解編碼系數(shù)

可得

3 目標跟蹤算法框架

3.1貝葉斯MAP估計

本文把目標跟蹤問題看成隱馬爾科夫模型中隱藏狀態(tài)變量的貝葉斯MAP估計問題。給定一組目標在第幀時的觀測向量,那么可通過式(5)遞推估計隱藏變量:

3.2狀態(tài)轉(zhuǎn)移模型

本文選取仿射變換的6個參數(shù)來對目標的運動變化進行描述,即目標狀態(tài)變量定義為

3.3目標觀測模型

再根據(jù)式(1)可計算其重建誤差(也稱殘差),即

但文獻[9]的作者通過實驗觀察發(fā)現(xiàn),在觀測似然度函數(shù)中引入殘差的L1范數(shù)將有益于提高跟蹤算法的魯棒性和跟蹤精度,受此啟發(fā),本文定義的觀測似然度函數(shù)如式(12)

圖1 兩種觀測似然度函數(shù)下跟蹤精度對比

從圖1可以看出,兩種觀測似然度函數(shù)下得到的中心誤差曲線幾乎是重合的。而從中心誤差平均值和標準差兩個指標來看,采用L1范數(shù)取得了更佳的跟蹤精度,可見本文將觀測似然函數(shù)設(shè)計為殘差L1范數(shù)的指數(shù)函數(shù)是合理的。從計算代價來看,式(11)的時間復(fù)雜度為;而式(12)無乘法運算,其時間消耗可以忽略不計,因此用式(12)代替式(11)在一定程度上提高了算法的實時性。最后,第幀目標的最佳狀態(tài)值可以通過選取似然度最大的候選目標來獲得。

3.4 PCA子空間更新

本文采取與文獻[9,10]類似的基于遮擋率(occlusion-ratio-based)的更新機制來對PCA子空間的基向量進行更新。在得到當前幀的最佳狀態(tài)值后,利用式(10)可求出其對應(yīng)的殘差向量,那么反映目標被遮擋程度的遮擋率定義為

3.5 融合壓縮Haar-like特征匹配

為提高跟蹤算法對目標姿態(tài)變化及旋轉(zhuǎn)的魯棒性,引入壓縮Haar-like特征匹配技術(shù)。該技術(shù)主要由不等式融合條件、壓縮Haar-like特征提取及匹配和去除非重要性粒子3部分組成。

3.5.1不等式融合條件 首先通過式(14)獲得當前幀和前一幀的遮擋率和。如果它們滿足下面不等式約束:

那么啟用Haar-like特征匹配算法重新計算目標的最佳狀態(tài)值。

3.5.2壓縮Haar-like特征提取 在CT算法中,任一樣本圖像塊(分別表示跟蹤矩形框的長和寬,且在跟蹤過程中保持不變)的壓縮Haar-like特征生成過程如下:首先將與一組矩形濾波器進行卷積,得到一個高維圖像Haar-like特征向量;然后在一滿足有限等距性質(zhì)(RIP)的隨機測量矩陣協(xié)助下,實現(xiàn)將高維特征映射為低維特征,即

進一步利用最小誤差界準則來去除大多數(shù)非重要粒子,以提高算法的實時性。重要粒子需滿足式(20):

3.6 算法流程

綜上所述,本文算法流程如表1所示。

表1本文算法流程

輸入:第幀圖像數(shù)據(jù);第幀時的目標狀態(tài)、壓縮Haar-like特征向量和遮擋率;跟蹤矩形框長W和寬H;粒子數(shù)量N。(1)利用狀態(tài)轉(zhuǎn)移模型,即式(8)生成N個粒子,獲取每個候選目標中心位置對應(yīng)的圖像塊,并對其進行歸一化拉伸為向量,接著利用計算投影矩陣;(2)對所有觀測向量按式(9)和式(10)分別計算表示系數(shù)和殘差;(3)按式(12)計算觀測似然度,按式(13)和式(14)分別獲得目標最佳狀態(tài)和目標被遮擋程度;(4)如果滿足式(16),則順序執(zhí)行,否則轉(zhuǎn)向步驟(7);(5)按式(20)篩選出重要性粒子,獲取這些粒子對應(yīng)圖像塊并計算其對應(yīng)的壓縮Haar-like特征向量集;(6)按式(19)計算特征相似度,按式(21)重新計算目標最佳狀態(tài);(7)執(zhí)行賦值;(8)按式(17)計算并保存圖像塊對應(yīng)的壓縮Haar-like特征向量,記為;輸出:第幀時的目標狀態(tài)、壓縮Haar-like特征向量和遮擋率。

4 實驗結(jié)果與分析

4.1實驗平臺及實驗參數(shù)設(shè)定

表2 實驗中的測試視頻

4.2對比實驗結(jié)果的定性評估

在視頻測試序列“FaceOcc1”,“Caviar2”,“Car4”和“Deer”中存在嚴重遮擋、尺度變化、劇烈的光線變化和快速運動等干擾因素(如圖2第1~4行所示)。從圖2所示的實驗結(jié)果可以看出,本文算法、L2及PCAL2的跟蹤性能要優(yōu)于其他4種算法。IVT算法由于其采用的模板更新機制較為簡單,在“Car4”和“Deer”視頻序列最終跟蹤失敗。CT算法因其缺乏有效的抗遮擋機制,當目標被深度遮擋(如“FaceOcc1”中第534幀和“Caviar2”中第197幀)或發(fā)生光線突變(如“Car4”中第233幀)后,跟蹤出現(xiàn)漂移并逐漸丟失目標。KCF算法因同樣的原因?qū)е缕洳荒芎芎玫貞?yīng)對嚴重遮擋和光線突變等干擾,在“FaceOcc1”和“Caviar2”兩個視頻序列中最終丟失目標(如“FaceOcc1”中第838幀和“Caviar2”中第429幀);在“Car4”視頻序列中雖然沒有丟失目標,但隨著其跟蹤窗口中引入的背景干擾信息逐漸積累,最終也出現(xiàn)了一定程度的跟蹤漂移(如第630幀)。APG-L1算法雖然在整個“FaceOcc1”視頻序列中成功跟蹤目標,但它的穩(wěn)定較差,在“Caviar2”,“Car4”和“Deer”視頻序列上最終丟失目標。本文算法、L2及PCAL2在出現(xiàn)嚴重遮擋、尺度變化、劇烈光線變化和快速運動等異常情況下表現(xiàn)出良好的魯棒性,主要歸因于以下兩點:一是PCA子空間對于尺度變化和光照變化等具有良好的適用性;二是基于遮擋率的更新機制大大增強了跟蹤算法的抗遮擋性能。

在視頻測試序列“David”,“Dudek”和“Sylvester2008b”中主要存在姿態(tài)變化和旋轉(zhuǎn)兩種干擾(如圖2第5~7行所示)。在“David”視頻跟蹤實驗中,當“David”轉(zhuǎn)動其頭部時(如第475幀),L2和PCAL2均丟失目標。盡管PCAL2之后成功跟蹤上目標(如第564幀),但它的性能并不穩(wěn)定,在第659, 705幀再次丟失目標。在“Dudek”和“Sylvester2008b”視頻序列中的測試結(jié)果同樣表明它們對于姿態(tài)變化和旋轉(zhuǎn)較為敏感,在“Dudek”中第476, 550幀及“Sylvester2008b”中第187, 274, 360幀均丟失目標。CT和KCF均利用大量目標周圍的樣本數(shù)據(jù)在線訓(xùn)練和更新樸素貝葉斯分類器或RLS分類器,能很好地應(yīng)對姿態(tài)變化和旋轉(zhuǎn)等干擾因素,在整個視頻中都能持續(xù)穩(wěn)定地跟蹤目標。本文算法則采用壓縮Haar-like特征來區(qū)分背景和目標,也取得了良好的跟蹤效果,這說明本文算法在處理姿態(tài)變化和旋轉(zhuǎn)等干擾時較L2和PCAL2算法具有更強的魯棒性。

在視頻序列“Lemming”中,存在嚴重遮擋、尺度變化、旋轉(zhuǎn)、快速運動與運動模糊等多種干擾因素(如圖2最后一行所示)。在這個極具挑戰(zhàn)性的視頻中,只有本文算法能夠完成整個視頻的跟蹤,這主要是因為本文算法結(jié)合了基于L2范數(shù)最小化的跟蹤算法和Haar-like特征匹配技術(shù)的優(yōu)點,能很好地應(yīng)對各種復(fù)雜的外觀變化。

4.3對比實驗結(jié)果的定量評估

為對各種算法進行全面客觀的評價,除采用中心位置誤差這個經(jīng)典度量標準外,還利用重疊率來定量評價跟蹤算法的性能,其中是算法在某幀的跟蹤矩形框所覆蓋的區(qū)域,則是該幀目標所在的真實區(qū)域。表3和表4給出了所有跟蹤算法在全部視頻序列上的平均中心誤差和平均重疊率。

從表3和表4可以看出,本文算法由于綜合了PCAL2算法和Haar-like特征匹配技術(shù)的優(yōu)點,在全部測試視頻上均取得了最佳或次佳的結(jié)果。對于存在較大姿態(tài)變化和旋轉(zhuǎn)的“David”,“Dudek”,“Sylvester2008b”和“Lemming”4個視頻序列,本文算法的跟蹤精度則明顯優(yōu)于IVT, L1-APG, L2和PCAL2算法;而對于另外的4個視頻序列,本文算法的跟蹤精度則明顯優(yōu)于CT和KCF兩種算法。

圖2 本文算法與其他6種跟蹤算法在8個測試視頻的部分跟蹤結(jié)果

(從上到下分別對應(yīng)“FaceOcc1”, “Caviar2”, “Car4”, “Deer”, “David”, “Dudek”, “Sylvester2008b”和“Lemming”)

4.4對比不同跟蹤算法平均處理速度

為了檢驗融入特征匹配技術(shù)對跟蹤算法處理速度的影響,統(tǒng)計了本文算法及與其相近的IVT, L2和PCAL2在對“FaceOcc1”,“Caviar2”,“Car4”,“David”和“Lemming”等5個視頻序列進行跟蹤實驗時的平均處理速度,詳見表5。從表5可以看出,本文跟蹤方法的平均處理速度達29 幀/s,明顯快于IVT和L2算法,能滿足快速視頻跟蹤要求。盡管壓縮Haar-like特征提取模塊增加了本文算法的耗時,但由于以下3個方面的原因:(1)單個圖像塊的壓縮Haar-like特征提取耗時極少(在本文的實驗平臺上約為s);(2)去除了大多數(shù)非重要性粒子;(3) 觀測似然度函數(shù)中僅使用殘差的L1范數(shù),本文算法取得了和PCAL2相當?shù)奶幚硭俣取?/p>

表3平均中心誤差(像素)

跟蹤算法FaceOcc1Caviar2Car4DeerDavidDudekSylvester2008bLemming平均值 IVT37.83.298.1271.1113.4 78.6196.8188.1123.4 CT41.566.190.6 38.8 15.7 55.0 15.1 91.2 51.8 APG-L119.566.092.7176.7 22.9119.7 77.0181.5 94.5 L2 6.4 2.8 3.0 9.7133.6 95.4118.3 69.2 54.8 PCAL2 6.6 6.0 3.6 8.9 59.5 65.7 79.7 74.6 38.1 KCF51.033.611.4 23.5 13.3 10.2 4.0107.3 31.8 本文算法 6.5 2.6 3.4 8.6 13.2 13.4 6.1 9.8 8.0

注:粗體字代表最佳結(jié)果,斜體字代表次佳結(jié)果

表4平均重疊率

跟蹤算法FaceOcc1Caviar2Car4DeerDavidDudekSylvester2008bLemming平均值 IVT0.560.800.270.030.090.450.010.050.28 CT0.520.170.250.390.530.410.490.270.38 APG-L10.710.320.250.050.430.180.060.140.27 L20.870.750.890.700.110.530.200.380.55 PCAL20.870.730.870.730.330.540.340.380.60 KCF0.570.280.750.630.570.820.850.230.59 本文算法0.870.770.880.730.570.770.750.500.73

注:粗體字代表最佳結(jié)果,斜體字代表次佳結(jié)果

表5不同算法的平均處理速度(幀/s)

跟蹤算法FaceOcc1Caviar2Car4DavidLemming平均值 IVT22.622.722.123.8 9.520.1 L221.419.620.623.917.920.7 PCAL227.029.230.331.324.528.5 本文算法28.531.133.927.923.529.0

5 結(jié)論

本文針對基于L2范數(shù)最小化的視覺跟蹤算法在目標出現(xiàn)旋轉(zhuǎn)或姿態(tài)變化時易發(fā)生跟蹤漂移的不足,提出了一種融合L2范數(shù)最小化和壓縮Haar-like特征匹配技術(shù)的快速視覺跟蹤算法。一方面,該方法完全去除L2算法中的方塊模板集,并將觀測似然度函數(shù)簡化為殘差L1范數(shù)的指數(shù)函數(shù),加快了目標跟蹤的速度,在多個測試視頻上可以達到29幀/s的速度;另一方面,該方法通過融入壓縮Haar-like特征匹配技術(shù)來適應(yīng)目標外觀的變化,提高了跟蹤算法對目標姿態(tài)變化及旋轉(zhuǎn)的魯棒性。最后利用多個具有挑戰(zhàn)性的視頻對提出的跟蹤方法進行實驗驗證,并與多個目前流行的跟蹤方法進行了定性和定量比較,實驗結(jié)果表明:本文提出的跟蹤方法對嚴重遮擋、光線突變、快速運動、姿態(tài)變化及旋轉(zhuǎn)均具有較強的魯棒性,且處理速度可滿足快速視頻跟蹤要求。

[1] COMANICIU D, RAMESH V, and MEER P. Real-time tracking of non-rigid objects using mean shift[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head, SC, USA, 2000: 142-149.

[2] KATJA N, ESTHER K M, and LUC V G. An adaptive color-based filter[J]., 2003, 21(1): 99-110.

[3] ROSS D, LIM J, LIN R S,. Incremental learning for robust visual tracking[J]., 2008, 77(1-3): 125-141. doi: 10.1007/s11263- 007-0075-7.

[4] MEI Xue and LING Haibin. Robust visual tracking usingminimization[C]. Proceedings of IEEE International Conference on Computer Vision, Kyoto, Japan, 2009: 1436-1443.

[5] MEI Xue, LING Haibin, WU Yi,. Minimum error bounded efficienttracker with occlusion detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Colorado, USA, 2011: 1257-1264.

[6] BAO Chenglong, WU Yi, LING Haibin,. Real time robust1tracker using accelerated proximal gradient approach[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island, USA, 2012: 1830-1837.

[7] SHI Qinfeng, ERIKSSON A, VAN DEN HENGEL A,. Is face recognition really a compressive sensing problem?[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Colorado, USA, 2011: 553-560.

[8] XIAO Ziyang, LU Huchuan, and WANG Dong. Object tracking with L2_RLS[C]. Proceedings of 21st International Conference on Pattern Recognition, Tsukuba, Japan, 2012: 681-684.

[9] XIAO Ziyang, LU Huchuan, and WANG Dong. L2-RLS based object tracking[J].,2014, 24(8): 1301-1309. doi: 10.11834/jig.20140105.

QI Meibin, YANG Xun, YANG Yanfang,. Real-time object tracking based on L-norm minimization[J]., 2014, 19(1): 36-44. doi: 10.11834/jig. 20140105.

YUAN Guanglin and XUE Mogen. Robust coding via L-norm regularization for visual tracking[J].&, 2014, 36(8): 1838-1843. doi: 10.3724/SP.J.1146.2013.01416.

[12] WU Zhengping, YANG Jie, LIU Haibo,. A real-time object tracking via L2-RLS and compressed Haar-like features matching[J]., 2016: 1-17. doi: 10.1007/s11042-016-3356-8.

[13] HONG S and HAN B. Visual tracking by sampling tree-structured graphical models[C]. Proceedings of European Conference on Computer Vision, Zurich, Switzerland, 2014--: 1-16.

[14] ZHUANG Bohan, LU Huchuan, XIAO Ziyang,. Visual tracking via discriminative sparse similarity map[J]., 2014, 23(4): 1872-1881. doi: 10.1109/TIP.2014.2308414.

[15] ZHANG Kaihua, ZHANG Lei, and YANG Minghsuan. Real-time compressive tracking[C]. Proceedings of European Conference on Computer Vision, Florence, Italy, 2012: 864-877.

[16] HENRIQUES J, CASEIRO R, MARTINS P,. High-speed tracking with kernelized correlation filters[J]., 2015, 37(3): 583-596. doi: 10.1109/TPAMI. 2014.2345390.

[17] LI Hanxin, LI Yi, and FATIH P. Deep track: learning discriminative feature representations by convolutional neural networks for visual tracking[C]. Proceedings of the British Machine Vision Conference, Nottingham, United Kingdom, 2014: 110-119.

[18] WU Zhengping, YANG Jie, LIU Haibo,. Robust compressive tracking under occlusion[C]. Proceedings of International Conference on Consumer Electronics, Berlin, Germany, 2015: 298-302.

[19] WU Yi, LIM J, and YANG Minghsuan. Online object tracking: a benchmark[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Portland, ORegon, USA, 2013: 2411-2418.

Fast Object Tracking Based on L2-norm Minimization and Compressed Haar-like Features Matching

WU Zhengping①②YANG Jie①CUI Xiaomeng①ZHANG Qingnian①

①(,,,430070,)②(,,443002,)

Under the framework of the Bayesian inference,tracking methods based on PCA subspace and L2-norm minimization can deal with some complex appearance changes in the video scene successfully. However, they are prone to drifting or failure when the target object undergoes pose variation or rotation. To deal with this problem, a fast visual tracking method is proposed based on L2-norm minimization and compressed Haar-like features matching. The proposed method not only removes square templates, but also presents a simple but effective observation likelihood, and its robustness to pose variation and rotation is strengthened by Haar-like features matching. Compared with other popular method, the proposed method has stronger robustness to abnormal changes (e.g. heavy occlusion, drastic illumination change, abrupt motion, pose variation and rotation, etc). Furthermore, it runs fast with a speed of about 29 frames/s.

Object tracking; PCA subspace; L2-norm minimization; Compressed Haar-like feature; Observation likelihood

TP391

A

1009-5896(2016)11-2803-08

10.11999/JEIT160122

2016-01-26;改回日期:2016-06-08;

2016-09-08

楊杰 jieyang509@163.com

國家自然科學(xué)基金(51479159)

The National Natural Science Foundation of China (51479159)

吳正平: 男,1978年生,博士生,研究方向為數(shù)字圖像處理、計算機視覺等.

楊 杰: 女,1961年生,博士,教授,博士生導(dǎo)師,主要研究方向為模式識別、機器學(xué)習、人工智能等.

崔曉夢: 女,1983年生,博士生,研究方向為大數(shù)據(jù)處理、模式識別等.

張慶年: 男,1957年生,博士,教授,博士生導(dǎo)師,主要研究方向為交通運輸安全管理、交通運輸系統(tǒng)優(yōu)化與決策、物流系統(tǒng)優(yōu)化與設(shè)計等.

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數(shù)字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 性欧美在线| 久久久91人妻无码精品蜜桃HD | 日韩欧美国产中文| 97成人在线视频| 蜜芽一区二区国产精品| 男女精品视频| yy6080理论大片一级久久| 亚洲区一区| 国产精品深爱在线| www.99在线观看| 美女一区二区在线观看| 亚洲男人的天堂网| 国产三区二区| 国产在线观看一区精品| 色综合天天视频在线观看| 日本成人不卡视频| 久久精品亚洲专区| 一区二区理伦视频| 国产精品.com| 国产尤物视频网址导航| 国产另类视频| 91在线免费公开视频| 伊人色天堂| 国产区91| 喷潮白浆直流在线播放| 亚洲成人www| 亚洲第一成网站| 精品国产免费观看一区| 制服丝袜在线视频香蕉| 2021国产乱人伦在线播放| 91丝袜在线观看| 免费a在线观看播放| 天天干天天色综合网| 欧美综合一区二区三区| 欧美黄网站免费观看| 97亚洲色综久久精品| 91麻豆精品国产91久久久久| 亚洲成人在线免费| 在线免费观看AV| a级毛片网| 漂亮人妻被中出中文字幕久久| 欧美精品另类| 午夜啪啪福利| 亚洲伦理一区二区| 久久久久无码精品| 欧美精品亚洲精品日韩专| 国产极品粉嫩小泬免费看| 国产aⅴ无码专区亚洲av综合网 | 综合网天天| 精品国产网站| 91精品视频在线播放| 国产尤物视频网址导航| 中文一区二区视频| 99久久精品国产麻豆婷婷| 国产成人精品一区二区| 9cao视频精品| 黄色网址手机国内免费在线观看| 91久久国产热精品免费| 国产91在线|日本| 人人妻人人澡人人爽欧美一区| 暴力调教一区二区三区| 女人av社区男人的天堂| 亚洲人成网线在线播放va| 美女毛片在线| 99久久精品无码专区免费| 久久综合色播五月男人的天堂| 天天色天天操综合网| 伊人中文网| 在线观看国产网址你懂的| 97视频在线精品国自产拍| 999精品免费视频| 国产极品美女在线| 日本91视频| 免费大黄网站在线观看| 欧美在线一级片| 2022国产91精品久久久久久| 亚洲成a人片| 日韩欧美高清视频| 免费在线色| 国产精品第三页在线看| 一级成人a毛片免费播放| 极品国产一区二区三区|