潘迪夫 李耀通 韓錕



摘 ???要:針對復雜跟蹤環境條件下目標的跟蹤失敗問題,提出一種基于多相關濾波器組合的目標跟蹤方法.首先2個分別采用顏色屬性(Color Name,CN)特征和方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征的核相關濾波器(Kernelized Correlation Filter,KCF)通過自適應融合手段進行響應圖信息融合,確定目標的預測位置;然后通過以目標區域為基礎進行多尺度采樣,提取CN-HOG拼接特征構建尺度相關濾波器,得到目標的最佳尺度;最后設計了模型的自適應更新策略,通過判斷目標是否發生遮擋來決定是否在當前幀進行模型更新.在50組視頻序列上對所提算法與6種當前主流的相關濾波跟蹤算法進行了實驗.實驗結果表明,在復雜的跟蹤環境條件下,所提算法取得了最好的跟蹤精度和成功率,能夠有效處理目標遮擋和尺度變化等問題,且具有較快的跟蹤速度.
關鍵詞:目標跟蹤;相關濾波;尺度評估;模型自適應更新
中圖分類號:TP391 ???????????????????????????文獻標志碼:A
A Target Tracking Method Based on Multi-correlation Filter Combination
PAN Difu,LI Yaotong,HAN Kun
(School of Traffic and Transportation Engineering,Central South University,Changsha 410075,China )
Abstract: To cope with the problem of object tracking failure in the challenging environment, a target tracking method based on multi-correlation filter combination was proposed. Firstly, two kernelized correlation filters(KCF) based on color name(CN) features and histogram of oriented gradient(HOG) features, respectively, integrated the map information through adaptive fusion method, and were used to determine the prediction position of the target. Then, through the multi-scale sampling based on the target region, CN-HOG compositive feature was extracted to construct a scale correlation filter to obtain the optimal scale of target. Finally, the adaptive updating strategy of the model was designed to determine whether the model was updated in the current frame through determining whether the target was occluded. The proposed algorithm and 6 state-of-the-art methods were tested on 50 video sequences. The experiment results indicate that the proposed algorithm gains the best precision and success rate in the challenging environment, it can effectively deal with the problem of object occlusion and scale change, and it has a fast tracking speed.
Key words: object tracking;correlation filter;scale estimate;model adaptive updating
視覺跟蹤在計算機視覺應用領域中扮演著重要的角色[1-3],例如視頻監控、人機交互、機器人技術和增強現實等.目前,基于相關濾波(Correlation Filters,CF)的跟蹤算法因其高精度、高魯棒性、速度快的特點[4],引起了相關學者們的廣泛關注和研究.針對目標表征建模的相關濾波跟蹤算法主要分為兩類:單模型和多模型.單模型是指采用單特征來訓練分類器的相關濾波跟蹤算法,主要包括采用灰度特征的核循環結構跟蹤器(CSK)[4]、使用CN特征擴展稠密采樣跟蹤器(CN)[5]、采用HOG特征的核相關跟蹤器(KCF)[6]、采用HOG特征的尺度自適應跟蹤器(DSST)[7].多模型是指采用多特征來訓練分類器的相關濾波跟蹤算法,主要包括通過串接CN特征和HOG特征的尺度自適應跟蹤器(SAMF)[8]、基于CN特征和HOG特征貢獻度進行加權組合的尺度自適應跟蹤器(Staple)[9]、根據CN特征和HOG特征的響應圖進行加權融合的模型自適應更新跟蹤器(FAUT)[10]、CN特征和HOG特征串接的多尺度跟蹤器(FMFPSA)[11]、CN特征和HOG特征自適應融合的跟蹤器(FAKCF)[12].經過大量的實驗結果分析可知,由于多模型相關濾波跟蹤算法采用多特征描述目標,提高了跟蹤算法的判別力,其跟蹤性能高于單模型.
盡管上述的跟蹤算法已取得較好的跟蹤效果,但現實環境中依然存在很多挑戰性問題,主要包括光照變化、背景復雜、目標旋轉以及目標遮擋等情況造成目標表征發生變化而導致目標跟蹤失敗.還有在上述的多模型相關濾波跟蹤算法中,對于多特征的使用方法仍然存在一些不合理之處,并且關于目標尺度評估的準確性也有待提高.
基于上述分析,本文提出一種基于多相關濾波器組合的目標跟蹤方法(Multi-Correlation Filter Combination based Tracking Method,MCFC),其中2個分別采用單特征訓練的KCF跟蹤器用于目標定位,通過本文提出的以歷史響應峰值的均值為基礎的響應圖信息融合判斷機制進行響應圖融合,得到最終的目標位置,以提高算法的定位精度;然后1個采用組合特征訓練的相關濾波器用于目標尺度評估,以增加算法尺度估計的準確性;最后設計一種以歷史響應峰值的均值和峰值旁瓣比為基礎的模型自適應更新策略,以提升算法的魯棒性.在若干視頻序列上進行對比實驗,證明了本文所提算法具有較高的整體跟蹤性能.
1 ??KCF跟蹤器基本原理
KCF跟蹤器是一種通過引入核函數對相關濾波理論進行改進的核相關濾波方法,核心思想是通過對圖像塊進行循環密集采樣構造循環矩陣,利用循環矩陣的性質與傅里葉域建立關系,通過離散傅里葉變換在頻域中快速實現分類器訓練和目標檢測,以達到快速跟蹤目標的目的[6].相關濾波目標跟蹤方法采用嶺回歸分類器來預測目標位置[4-6,13].對循環采樣得到的訓練樣本X和高斯函數得到的理想輸出Y構造目標優化函數模型
求解分類器系數W.通過映射函數φ(·) 將低維空間的特征x映射到Hilbert空間得到φ(x),此時分類器的解可表示為W = (αi φ(xi)),則f(xj) = 〈w,φ(xi)〉=i 〈φ(xi)T,φ(xj)〉,引入核函數k(xi,xj) = 〈φ(xi)T,φ(xj)〉,構造循環矩陣K,矩陣K中元素kij = k(xi,xj),對式(1)進行求解可得
α = (K + λI)-1Y ???????????????(2)
式中:I為單位矩陣,λ為防止過擬合的正則項[14].利用循環矩陣K的性質通過離散傅里葉變換(DFT)將問題變換到頻域進行求解
式中xx表示樣本特征x的自相關核向量,y為樣本x對應的標簽向量,符號^表示向量的離散傅里葉變換(此表示方法應用于全文).對于核函數,本文選擇圖像處理中常用的高斯核,其計算公式為
(4)
中:kxz表示訓練樣本特征x和檢測樣本特征z的互相關核向量,可通過式(4)計算獲得.輸出響應y中的峰值位置即為當前幀圖像中的目標位置.根據計算的檢測結果對分類器參數α和目標模板x進行更新
αt = (1 - η)αt-1 + ηαt′xt = (1 - η)xt-1 + (1 - η)zt ??????????(6)
其中,η為學習率,以適應目標外觀表征變化,提高跟蹤器的魯棒性和準確性.
2 ??MCFC目標跟蹤方法
2.1 ??位置跟蹤的相關濾波器組合
MCFC方法將采用基于顏色屬性(Color Name,CN)特征和基于方向梯度直方圖(Histogram of oriented Gradients,HOG)特征的兩個相關濾波器分別對目標進行位置跟蹤,兩個濾波器的訓練和檢測過程均獨立完成,兩者所輸出的響應圖會根據本文提出的判斷機制進行有效融合,得到最終的目標位置.
2.1.1 ??目標特征選擇分析
在視覺跟蹤的應用中,CN特征[15]是一種比灰度特征更具判別能力的多通道全局表征特征[5],其在運動物體快速運動和變形的情況下取得很好的跟蹤效果,但在光照劇烈變化下處理效果不理想;而HOG特征[16]作為描述圖像局部區域輪廓、形狀的局部特征,光照變化對其檢測效果影響不大,但在目標快速運動和變形環境下跟蹤能力有所下降.不同環境下兩種特征單獨使用的跟蹤效果見圖1.因此,本文分別選擇CN特征和HOG特征構建獨立的相關濾波器,并將兩者所輸出的響應圖進行有效融合,以此彌補在不同環境下單一濾波器跟蹤性能的不足之處.
2.1.2 ??響應圖信息融合判斷機制
由2.1.1節分析可知,基于CN特征和基于HOG特征的兩個相關濾波器是互補的,兩者結合能夠適應更多復雜的跟蹤場景,但是如何有效地將它們所輸出的響應圖信息融合仍然是值得深究的一個問題.目前,在視覺跟蹤領域中基于特征信息融合的手段主要有兩大方面,一是特征層面上的特征串接,即將提取的CN特征與HOG特征轉化為二維空間大小相同的多通道特征矩陣,然后兩個矩陣串接起來訓練和更新濾波器,如Li等[8]的SAMF方法和楊源等[11]的FMFPSA方法,該種手段并沒有對特征的貢獻度進行分析,只是將兩種特征簡單疊加,易將錯誤的特征信息引入到模型中,從而導致跟蹤失敗;另一方面是決策層面的響應圖融合,即根據顏色特征和HOG特征的響應值比值來給兩者分配權重,兩種特征的響應值與權重相乘再相加得到最終的響應圖,如王■等[10]的FAUT方法和Bertinetto
等[9]的Staple方法,該種手段對特征信息的權重占比進行了分析,但也只是簡單地對兩種特征的峰值進行比較或者是以兩者的理想輸出與實際輸出的差值之和的比值作為判斷依據,當出現偽峰值或兩種特征的響應峰值差異較大時,上述的判斷依據便會失去準確性,如圖2所示.
圖2(a)中CN特征對應的峰值較HOG特征的小,但是CN特征定位精度比HOG特征的高,此時若以兩者峰值的比值作為權重的分配依據則會帶來較大的定位誤差;圖2(b)中CN和HOG特征對應的響應圖分布情況相似,但此時HOG特征定位精度遠高于CN特征,若以理想輸出與實際輸出的差值之和的比值作為特征融合依據,也會導致目標定位誤差;圖2(c)中CN特征出現偽峰值,此時若采用上述任一判斷依據均會造成目標定位失敗.基于上述分析可知,決策層面的響應圖信息融合更具有合理性,但是其融合判斷手段的可靠性和準確性不足.經過大量實驗分析可知響應峰值、定位精度以及歷史峰值的均值存在一定的關系.因此,本文以歷史峰值的均值為基礎提出一種新的響應圖信息融合判斷機制,步驟如下.
Step 1. 已知信息:第t-1幀圖像的CN濾波器和HOG濾波器參數、目標模板以及目標位置pt-1;兩個濾波器從第1幀到第t-1幀歷史峰值的均值AFcnt-1 和AF hog t-1 ?;還有相應的閾值T cnl ??,T cnu ??,T hogl ???,T hogu ???,其中
T cnl Step 2. 分別求取第t幀圖像CN濾波器和HOG濾波器的響應圖R cnt ??、R hogt ???,響應峰值MF cnt ??、MF hogt ???,并以式(7)求取參數wcnt ??,whogt ???. Step 3. 按以下式(8)確定第t幀圖像的響應圖Rt. (8) 由上述步驟得到的響應圖Rt中的最大值處即為目標位置pt,當式(8)中所有的條件均不能滿足時,那么取第t - 1幀圖像的目標位置作為第t幀圖像的目標位置,即pt = pt - 1. 2.2 ??尺度評估的相關濾波器 目前,在視覺跟蹤領域中針對目標尺度變化問題的主要解決方法是對目標建立尺度金字塔搜索模型,在跟蹤過程中通過尋找金字塔模型中輸出響應最高的尺度來作為目標的真正尺度[7-8,11,17],其中最具代表性的是Li等[8]SAMF方法和Danelljan等[7]的DSST方法.SAMF方法是將位置跟蹤與尺度評估結合起來同時計算,即在設定的所有尺度中尋找最大的輸出響應值對應的位置作為目標位置,同時該最大響應值所在的尺度作為目標尺度;DSST方法是首先確定目標的位置,在該位置上再通過尺度搜索來確定目標的尺度.這兩種方法均取得了很好的跟蹤效果,但DSST方法的跟蹤速度要比SAMF方法的更快.因此,本文借鑒DSST方法中的尺度評估手段,并對其加以改進.尺度評估采用的是線性相關濾波器,其構建方式與KCF相似,只是將高斯核替換為線性核,在這里不再贅述其基本原理,只給出相應的計算公式,如式(9)和式(10)所示,具體細節請參考文獻[7]. 式中:式(9)求取尺度評估濾波器的輸出響應ys;ys中最大響應值對應的尺度即為目標尺度.式(10)更新尺度評估濾波器參數Al和B. f為具有d通道的訓練樣本特征,g為高斯函數產生的理想輸出,zs為檢測樣本特征,λs和ηs分別為正則項和學習速率. DSST方法的尺度濾波器采用的特征是HOG特征,由2.1.1節分析可知,HOG特征在目標快速運動和變形情況下跟蹤效果并不理想,CN特征在光照劇烈變化環境下會造成定位誤差,同樣在尺度評估中兩種特征遇到相同的問題也會導致尺度估計偏差,具體情形見圖3. 由圖3分析可知,在不同環境下僅使用單一特征對目標進行尺度評估會造成一定的尺度偏差甚至跟蹤漂移.因此,本文結合兩種特征對目標進行尺度評估,即將CN和HOG特征拼接起來,增加目標的表征信息,以此代替DSST方法尺度濾波器的HOG特征.如圖3所示,本文尺度濾波器對目標尺度的評估結果在圖3(a)和(b)中均為最優,在圖3(c)中次優,比僅使用單一特征尺度濾波器的性能有了較大的提升,同時其對跟蹤環境的適用性更加廣泛. 2.3 ??模型自適應更新 在目標跟蹤過程中,由于跟蹤環境的多樣性和復雜性,常常會遇到一些挑戰性問題,如光照劇烈變化、背景復雜和目標遮擋等,特別是在發生目標遮擋時,若此時還是繼續以式(5)對濾波器參數和目標模板進行更新,則會將錯誤的目標表征信息引入到目標模板中,同時濾波器參數會出現偏差,最終導致后續的跟蹤失敗.因此必須制定一個更新策略,讓跟蹤算法自行判斷是否發生目標遮擋,若是則不進行模型更新.經過實驗分析可知,濾波器輸出的響應圖能夠有效反映目標當前的環境狀態,如背景復雜或發生遮擋等,見圖4. 圖4(a)顯示在初始背景下濾波器輸出的響應圖是單峰的,且峰值很大,分布情況與理想高斯函數輸出響應接近;圖4(b)顯示在復雜背景下濾波器輸出的響應圖雖然還是單峰的,但是峰值已經明顯減小;圖4(c)顯示當目標發生部分遮擋時,濾波器輸出的響應圖是多峰的,且峰值已經降到很低,但依然能夠成功定位目標;圖4(d)顯示當目標發生完全遮擋時,濾波器輸出的響應圖是多峰的,峰值很低,此時最大峰值位置可能并不是目標位置,即出現偽峰值,導致后續的跟蹤失敗. 由圖4分析可知,在目標跟蹤過程中,可以根據濾波器輸出響應圖的分布情況來判斷目標是否發生遮擋.為了將響應圖的分布情況轉化為一個量化指標,本文參考文獻[13],引入峰值旁瓣比(Peak to Sidelobe Ratio,PSR)對響應圖的分布情況進行統計,并將PSR作為模型更新的一個置信度指標,PSR的計算方法如下:
PSRt? ? ? ? ? ?(11)
式中: p為響應圖最大值(峰值),峰值周圍的區域定義為旁瓣區域;μ和σ分別為旁瓣區域所有響應值的均值和標準差.實驗中旁瓣區域定義為峰值周圍 11×11的區域.PSR越大,表明跟蹤質量越好.為了使模型更新策略更可靠,本文將響應圖輸出的最大值 Fmax作為另一個置信度指標,只有當這兩個指標均大于其歷史均值APSR 和AFmax的一定比例β1和β2,如式(12)所示,才認為是高置信度,并以式(6)對濾波器參數和目標模板進行更新,具體過程見圖5及其分析結果.
由圖5分析可知,Coke序列的第254幀和260幀分別發生目標部分遮擋和完全遮擋,此時響應圖的PSR和最大響應值均小于其歷史均值的β1和β2 倍,因此不對模型進行更新,避免將錯誤的目標表征信息引入到模型中;第275幀中,當目標不被遮擋,由于模型沒有被污染,則又能重新正確跟蹤目標,此時其響應圖的PSR和最大響應值均大于其歷史均值的β1和β2倍,可以對模型進行更新.
2.4 ??方法整體流程
綜合上述,MCFC方法的整體流程圖如圖6所示,方法的主要跟蹤步驟如下.
輸入:第t幀圖像It;第t-1幀圖像的目標位置pt-1和尺度大小st-1,CN和HOG特征位置跟蹤濾波器參數 αcn ?t-1,αlog ?t-1和目標模板xcn ?t-1,xlog ?t-1,尺度評估濾波器參數At-1,Bt-1;
輸出: 第t幀圖像目標位置pt和目標尺度st,CN和HOG特征位置跟蹤濾波器參數αcn ?t ??,αlog ?t ???和目標模板 xcn ?t ???,xlog ?t ???,尺度評估濾波器參數At,Bt.
目標定位:
Step 1. 以第t-1幀的目標位置pt-1和尺度st-1為基礎,在圖像It中提取CN和HOG特征檢測樣本
zcn ?t ???,zlog ?t ???;
Step 2. 利用zcn ?t ???和zlog ?t ???通過式(4)分別計算CN和HOG特征位置跟蹤濾波器的輸出響應ycn ?t ???,ylog ?t ???,并根據式(7)將ycn ?t ???和ylog ?t ???融合為yt;
Step 3. 確定yt中最大值位置即為目標位置pt.
尺度評估:
Step 4. 以第t幀目標位置pt和第t-1幀目標尺度 st-1為基礎,在圖像It中分別提取CN和HOG特征,并將兩者拼接為CN-HOG特征檢測樣本zs,t;
Step 5. 利用zs,t通過式(8)計算尺度評估濾波器的輸出響應ys,t;
Step 6. 確定ys,t中最大值對應的尺度即為目標尺度st.
模型更新:
Step 7.以第t幀目標位置pt和尺度st為基礎,在圖像It中分別提取CN和HOG特征位置跟蹤濾波器的訓練樣本xcn ?t ???,xlog ?t ???,尺度評估濾波器的訓練樣本ft;
Step 8. 根據式(10),利用xcn ?t ???和zcn ?t ???,xlog ?t ???和zlog ?t ???通過式(5)分別將CN和HOG特征位置濾波器參數更新為αcn ?t ???和αlog ?t ???,目標模板更新為xcn ?t ???和xlog ?t ???;
Step 9. 根據式(10),利用ft通過式(9)將尺度評估濾波器參數更新為At,Bt.
3 ??實 ??驗
本文的仿真實驗均在CPU為Intel Corei5-6400、主頻為2.70 GHz、8 GB內存的計算機環境下通過MATLAB2016a軟件平臺進行實現.算法的參數設置具體如下:目標特征提取區域的大小設置為目標大小的2.5倍;相關濾波器的正則化參數λcnp ?=10-2,λhogp ????= 10-4,λs = 10-2;高斯核寬σcnp ??= 0.2,σhogp ????= 0.5;學習速率ηcnp ??= 0.075,ηhogp ????= 0.02,ηs = 0.02;尺度步長a = 1.02和尺度采樣個數S = 33.通過大量的實驗對比分析,當響應圖融合判斷閾值T cnl ??= 0.3,T cnu ??=0.75,T hogl ????= 0.25,T hogu ????= 0.65,模型自適應更新比例系數β1 = 0.3,β2 = 0.45時,算法能得到最好的跟蹤性能.在實驗過程中,所有的參數設置固定不變.
為了充分驗證本文MCFC跟蹤方法的跟蹤魯棒性和準確性,我們將使用OTB2013[19]測試數據集50個視頻序列,其中包括具有尺度變化的28組視頻和目標遮擋的27組視頻等,并與當前主流的相關濾波跟蹤算法進行對比.選取的算法有:CSK[4]、KCF[6]、CN[5]、Staple[9]、SAMF[8]、DSST[7].其中,使用單特征的有:CSK(灰度特征)、KCF(HOG特征)、CN(CN特征)、DSST(HOG特征);使用特征融合的有:Staple(顏色統計特征+HOG特征)、SAMF(CN特征+HOG特征);考慮目標尺度評估的有:Staple、SAMF、DSST.接下來,我們將根據實驗結果從定性和定量兩個方面分析7種跟蹤算法的性能.
3.1 ??定性分析
圖7展示的是實驗中7種跟蹤算法的部分跟蹤結果.根據視頻序列中不同的跟蹤環境條件,我們將從以下6個方面對算法的性能進行定性分析:
1)光照變化:以“Shaking”和“Human7”為例.由圖7(a)和(b)分析可知,當運動目標所處環境發生劇烈的光照變化時,大部分的跟蹤算法都發生了跟蹤漂移,而MCFC方法卻始終能夠穩定地跟蹤目標,表明該算法對光照變化具有較好的魯棒性.
2)尺度變化:以“Skating1”和“Board”為例.由圖7(c)和(d)可知,在跟蹤過程中,當運動目標的尺度發生變化時,大部分的跟蹤算法都能成功定位目標,并且SAMF、DSST、Staple和MCFC算法都能實現目標尺度的自適應變化,但本文的MCFC算法的尺度評估方法更加準確.
3)目標旋轉:目標旋轉包括平面內旋轉和平面外旋轉.平面內旋轉以“BlurOwl”和“Shaking”為例,在圖7(a)和(e)中,目標發生了平面內旋轉,此時要求算法采用的特征具有高度的旋轉不變性,而本文采用的CN特征具有旋轉不變性,所以能夠很好適應這種情況;平面外旋轉以“Board”和“Football”為例,在圖7(d)和(f)中,目標發生平面外旋轉,此前建立的目標模型會失效,而本文加入了模型自適應更新策略,當目標恢復之前狀態,僅有本文MCFC算法成功定位目標.
4)背景復雜:以“Couple”和“Football”為例.在背景復雜的跟蹤環境下,如圖7(f)和(h)所示,要求跟蹤算法具有較高的準確性,而在這兩個視頻序列的整個跟蹤過程中,只有MCFC算法能準確跟蹤目標.
5)目標遮擋:以“Girl2”和“Box”為例.在圖7(i)和(j)中,目標分別發生了部分遮擋和完全遮擋,由于本文的MCFC算法引入了模型自適應更新策略,有效減少了將錯誤的目標信息更新到目標模型中,對目標遮擋情況具有較高的魯棒性,因此始終能準確跟蹤目標.
6)運動模糊:以“BlurOwl”和“BlurBody”為例.由圖7(e)和(h)可知,當目標發生運動模糊時,由于本文有效的響應圖信息融合判斷機制,在兩個視頻序列的整個跟蹤過程中,只有本文的MCFC算法能一直正確跟蹤目標.
3.2 ??定量分析
本文將采用以下幾個評價指標[19]對跟蹤算法進行定量分析.
1)中心位置誤差(center location error,CLE):跟蹤算法檢測的目標中心位置與標定的目標中心位置之間的平均歐式距離;
2)距離精度(distance precision,DP):視頻中CLE小于某一設定距離閾值的幀數與總幀數的百分比;
3)重疊精度(overlap precision,OP):跟蹤算法預測的目標框與標定的目標框之間的重疊面積與總面積的比值超過某一設定重疊閾值的視頻幀數與總幀數的百分比;
4)精度曲線:橫軸為給定的距離閾值,縱軸為對應的DP,通常取閾值為20個像素時精度曲線值(P20)為典型值;
5)成功率曲線:橫軸為給定的重疊閾值,縱軸為對應的OP,將曲線下方的面積(AUC)作為該曲線的典型值.
本文共設置了三組實驗,第一組是7種算法的單個視頻跟蹤性能的定量分析;第二組是7種算法的綜合性能的定量分析;第三組是對比7種算法的平均跟蹤速度.
實驗1:單個視頻跟蹤性能的定量分析
針對上述的10組視頻序列,采用CLE、DP和OP三個評價指標對7種算法的跟蹤性能進行對比分析.表1為7種跟蹤算法在10組視頻中的CLE、DP和OP結果.表中有下劃線的數據表示最優結果,有點式下劃線的數據為次優結果(下文采取同樣表述方式).取每種算法在10組視頻中的平均CLE、DP(距離閾值為20像素)和OP(重疊閾值為0.5)的平均值作為判斷依據,在這三個評價指標中,MCFC算法均取得最優結果,表明本文算法能夠很好地適應不同的跟蹤環境,具有較好的跟蹤性能.
實驗2:算法綜合跟蹤性能的定量分析
為了綜合評比7種算法的跟蹤性能,選用OTB2013的50組視頻序列進行測試分析,采用精度曲線和成功率曲線兩個評價指標來進行綜合跟蹤性能的定量分析.
圖8為7種算法在50組視頻中的整體精度曲線和成功率曲線.由圖8分析可知,采用多特征的MCFC、Staple和SAMF算法的精度和成功率明顯高于采用單特征的KCF、DSST、CN和CSK算法.這表明對目標使用多特征描述能夠增強跟蹤算法的判別能力,提高跟蹤性能.在MCFC、Staple和SAMF三種算法中,MCFC的精度(P20)和成功率(AUC)均是最高的,比第二名的Staple分別提高7.5%和4.4%,證明本文MCFC算法的有效性.
為了進一步對比7種算法在不同的跟蹤環境條件下的跟蹤性能,在50組視頻中分別求取每種算法在11種跟蹤環境條件[19]下的DP和OP,結果如表2和表3所示.11種跟蹤環境包括:光照變化(Illumination Variation,IV)、平面外旋轉(Out-of-Plane Rotation,OPR)、尺度變化(Scale Variation,SV)、遮擋(Occlusion,OCC)、變形(Deformation,DEF)、運動模糊(Motion Blur,MB)、快速運動(Fast Motion,FM)、平面內旋轉(In-Plane Rotation,IPR)、不在視野內(Out-of-View,OV)、背景復雜(Background Clutters,BC)、低分辨率(Low Resolution,LR).
由表2數據可知,MCFC算法的距離精度除了在LR跟蹤環境下的結果為次優,其余的均為最優結果,如SV、OCC等;由表3數據可知,MCFC算法的重疊精度在大部分跟蹤環境下均為最優結果,如SV、OCC等,其余也為次優結果.綜合表3和表4的數據,結果表明了MCFC跟蹤方法在目標遮擋、目標變形等跟蹤環境下具有較高的魯棒性和準確性,充分驗證了本文所提的響應圖信息融合判斷機制、尺度評估方法以及模型自適應更新策略的有效性.
實驗3:7種算法的平均跟蹤速度對比
為了驗證本文MCFC方法的實時性,分別求取7種算法在50組視頻中的平均跟蹤速度,結果如表4所示.MCFC算法在取得最好跟蹤精度和成功率的同時,其平均跟蹤速度值為15.6幀/s,仍具有較快的跟蹤速度.
4 ??結 ??論
本文提出了一種多相關濾波器組合的目標跟蹤方法,位置跟蹤相關濾波器用于目標的準確定位,尺度評估相關濾波器用于目標的尺度估計.主要改進的地方有3處:提出一種以歷史響應峰值的均值為基礎的響應圖信息融合判斷機制,提高了目標跟蹤算法的定位精度;將CN和HOG拼接作為尺度評估濾波器的使用特征,提高了跟蹤算法尺度估計的準確性;結合歷史響應峰值的均值和PSR的模型自適應更新策略,有效解決目標遮擋、目標平面外旋轉等問題,提高了跟蹤算法的魯棒性.
由于本文MCFC算法在目標定位和尺度評估上均使用了CN和HOG特征,造成了跟蹤速度下降,但在獲得更高跟蹤性能的同時,仍具有較快的跟蹤速度.將來可以通過特征降維等手段減少算法的計算量,在保證跟蹤性能的基礎上提高跟蹤速度.同時可以結合深度學習方法來融合多分辨率的特征圖,以此提高本文MCFC算法的跟蹤性能.
參考文獻
[1] ???高文,朱明,賀柏根,等. 目標跟蹤技術綜述[J]. 中國光學,2014,7(3):365—375.
GAO W,ZHU M, HE B G,et al. Overview of target tracking technology [J]. Chinese Optics,2014,7(3):365—375.(In Chinese)
[2] ???LI X,HU W,SHEN C,et al. A survey of appearance models in visual object tracking[J]. ACM Transactions on Intelligent Systems & Technology,2013,4(4):1—58.
[3] ???SMEULDERS A W M,CHU D M,CUCCHIARA R,et al. Visual tracking: An experimental survey[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2013,36(7):1442—1468.
[4] ???RUI C,MARTINS P,BATISTA J. Exploiting the circulant structure of tracking-by-detection with kernels[C]//European Conference on Computer Vision. Springer-Verlag,2012:702—715.
[5] ???DANELLJAN M,KHAN F S,FELSBERG M,et al. Adaptive color attributes for real-time visual tracking[C] //IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society,2014: 1090—1097.
[6] ???HENRIQUES J F,CASEIRO R,MARTINS P,et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(3):583—596.
[7] ???DANELLJAN M,HAGER G,KHAN F S. Accurate scale estimation for robust visual tracking[C]//British Machine Vision Conference. 2014:65.1—65.11.
[8] ???LI Y,ZHU J K. A scale adaptive kernel correlation filter tracker with feature integration[C]//European Conference on Computer Vision. Springer,Cham,2014:254—265.
[9] ???BERTINETTO L,VALMADRE J,GOLODETZ S,et al. Staple: complementary learners for real-time tracking[C] //Computer Vision and Pattern Recognition. IEEE,2016:1401—1409.
[10] ?王,王春平,李軍,等. 特征融合和模型自適應更新相結合的相關濾波目標跟蹤[J]. 光學精密工程,2016,24(8):2059-2066.
WANG W,WANG C P,LI J,et al. Correlation filter tracking based on feature fusing and model adaptive updating[J]. Optics and Precision Engineering,2016,24(8):2059—2066.(In Chinese)
[11] ?楊源,庫濤,查宇飛,等. 快速多特征金字塔的尺度目標跟蹤方法[J]. 西安交通大學學報,2016,50(10):49-56.
YANG Y,KU T,ZHA Y F,et al. Fast multi-feature pyramids for scale-adaptive object tracking[J]. Journal of Xi′an Jiaotong University,2016,50(10):49—56.(In Chinese)
[12] ?熊昌鎮,趙璐璐,郭芬紅. 自適應特征融合的核相關濾波跟蹤算法[J]. 計算機輔助設計與圖形學學報,2017,29(6):1068—1074.
XIONG C Z,ZHAO L L,GUO F H. Kernelized correlation filters tracking based on adaptive feature fusion[J]. Journal of Computer-Aided Design & Computer Graphics,2017,29(6):1068—1074.(In Chinese)
[13] ?BOLME D S,BEVERIDGE J R,DRAPER B A,et al. Visual object tracking using adaptive correlation filters[C] //Computer Vision and Pattern Recognition. IEEE,2010: 2544—2550.
[14] ?CORTIS C,VAPNIK V. Support-vector networks[J]. Machine Learning,1995,20(3):273—297.
[15] ?WEIJER J V D,KHAN F S. An overview of color name applications in Computer Vision[C]//Computational Color Imaging. Springer International Publishing,2015:16—22.
[16] ?DALAL N,TRIGGS B. Histograms of oriented gradients for human detection[C] // IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE,2005: 886—893.
[17] ?沈秋,嚴小樂,劉霖楓,等. 基于自適應特征選擇的多尺度相關濾波跟蹤[J]. 光學學報,2017,37(5):166—175.
SHEN Q,YAN X L,LIU L F,et al. Multi-scale correlation filtering tracker based on adaptive feature selection[J]. Acta Optica Sinica,2017,37(5):166—175.(In Chinese)
[18] ?馬曉楠,劉曉利,李銀伢. 自適應尺度的快速相關濾波跟蹤算法[J]. 計算機輔助設計與圖形學學報,2017,29(3):450—458.
MA X N,LIU X L,LI Y Y. Fast scale-adaptive correlation tracking[J]. Journal of Computer-Aided Design & Computer Graphics,2017,29(3):450—458.(In Chinese)
[19] ?WU Y,LIM J,YANG M. Online object tracking: a benchmark[C]//IEEE Conference on Computer Vision and PatternRecognition.
2013:2411—2418.