謝 煜,黃 俊,李 旭
(重慶郵電大學 通信與信息工程學院,重慶 400065)
目標跟蹤是計算機視覺領域中一個重要的研究方向,同時它也是許多高級計算機視覺任務的基礎.隨著近年來國內外專家學者的深入研究以及計算機圖像處理能力的不斷提升,目標跟蹤技術快速發展,并在視頻監控、人機交互、無人駕駛、軍事國防等多個領域有著廣泛的應用.盡管當前目標跟蹤技術的研究取得了不小的進展,但由于跟蹤過程中往往存在光照變化、運動模糊、背景干擾、目標形變等復雜因素,容易導致算法跟蹤失敗,因此設計一種精確度高、魯棒性好的目標跟蹤算法仍是一個巨大的挑戰.
目標跟蹤的任務是根據視頻序列的第一幀給定的目標初始狀態信息(例如目標的位置和大小),通過一系列算法估計出在后續的視頻序列中目標的狀態[1].目標跟蹤方法主要分為兩類:生成式模型方法與判別式模型方法.生成式模型方法是通過在當前視頻幀中構建所要跟蹤的目標的外觀模型,在下一視頻幀當中搜索與所構建的外觀模型最相似的區域來預測目標的位置.判別式模型方法是通過訓練一個判別模型并不斷更新,從而將目標與背景區域區分開來以預測目標的位置.相較于生成式模型方法,判別式模型方法利用了背景信息,具有更高的精確性與魯棒性,能夠更好地實現目標跟蹤,因此判別式模型方法成為近年來的研究熱點.
相關濾波類目標跟蹤算法屬于判別式模型方法的一種,通過將信號處理領域的信號相關性理論引入到目標跟蹤領域,使其在具備較高精度的同時,大幅減少運算量,提高算法速度,受到了廣泛關注[2].Bolme等[3]首次將相關濾波應用于目標跟蹤領域,提出了MOOSE跟蹤算法,其利用快速傅里葉變換(FFT)將時域的卷積計算轉換到頻域的點乘計算,相較于其它目標跟蹤算法,跟蹤速度大幅提升,但由于其訓練樣本有限,算法魯棒性較差.Henriques等[4]在MOOSE算法的基礎上進行改進提出了CSK算法,它通過循環移位的方法模擬密集采樣,獲得大量訓練樣本,解決了MOOSE算法中訓練樣本不足的問題,提高了算法的魯棒性,同時利用循環矩陣對角化的特性提高算法速度,但由于CSK算法僅使用了簡單的灰度特征,跟蹤效果較為一般.之后,Henriques等[5]又提出了KCF算法,將濾波器的單通道灰度特征擴展為多通道HOG特征,并將線性空間的嶺回歸通過核函數映射到非線性空間,從而大大提升了跟蹤效果.Possegger等[6]提出了基于統計顏色特征的DAT算法,使得跟蹤算法能夠對物體形變具有較好的魯棒性.Bertinetto 等[7]提出Staple算法,將HOG特征與顏色直方圖特征進行結合,由于HOG特征對物體形變較為敏感,但對光照變化具有較好的魯棒性,而顏色直方圖特征則對顏色較為敏感,但對物體形變較為魯棒,因此二者可以進行互補,使用多特征得到的融合跟蹤結果提升了算法的精度與魯棒性.
盡管上述工作取得了不錯的跟蹤效果,但仍存在以下問題:由于搜索區域的限制以及邊界效應的影響,在背景干擾、快速運動等情況下算法的跟蹤精度下降.并且上述工作中對不同特征的響應圖進行融合時僅采用了固定權值的加權融合方法,在低分辨率、運動模糊等情況下的跟蹤效果不佳.同時,在模型更新策略上往往采取的是每幀或間隔幾幀進行簡單線性插值的更新方式,使得判別模型容易過擬合,從而導致模型漂移.
針對上述問題,本文提出采用上下文感知技術,通過對目標搜索區域周圍的上下文圖像塊進行采樣并作為正則項,使得判別模型對上下文圖像區域有接近于零的響應,從而增強算法在背景干擾情況下的魯棒性.針對HOG特征和顏色直方圖特征二者響應圖和響應值的特點,采用自適應響應融合方法對不同特征的響應圖進行融合,使得融合后的響應圖能夠更精確地指示預測的目標位置,提高算法在低分辨率和快速運動等場景下的跟蹤精度.最后,使用高置信度模型更新策略進行模型更新,動態調整模型學習率以減少模型漂移的情況.
相關濾波跟蹤算法通過學習一種判別相關濾波器,該濾波器能夠在包含目標和背景的圖像區域中判別出目標區域,通過不斷學習更新該濾波器,并與感興趣的圖像區域進行相關操作得到響應圖,最后根據響應圖中的最大響應位置來推斷目標的位置.其中,判別相關濾波器的學習對于相關濾波跟蹤算法性能至關重要,而樣本的數量及質量對學習到的判別相關濾波器的精度和魯棒性影響重大.相關濾波跟蹤算法通過使用循環矩陣對單一訓練樣本進行循環移位來模擬密集采樣,以獲得大量訓練樣本,并利用循環矩陣對角化的性質來加速運算.
定義x∈Rn表示第1幀中的訓練樣本,其中n為維數,Px=[xn,x1,…,xn-1]表示x的1個循環移位,其中P是位移矩陣.連接所有可能的循環移位樣本的集合,形成一個循環矩陣,該循環矩陣也稱為數據矩陣.相關濾波跟蹤算法通過最小化下面的嶺回歸問題來求解濾波器w:
(1)
式中X為包含訓練樣本x的所有循環移位的數據矩陣,y為目標的期望輸出,通常選擇二維理想高斯響應作為期望輸出,λ1為控制過擬合的正則化參數.公式(1)有如下封閉解:
w=(XTX+λI)-1XTy
(2)
由于數據矩陣X具有循環結構,因此它可以進行對角化,從而可以更高效地進行矩陣求逆運算.數據矩陣X的對角化形式如下:
(3)

(4)

α=(XXT+λI)-1y
(5)
則公式(1)在對偶空間中的解α與在主空間中的解w的關系如下:
w=XTα
(6)
利用數據矩陣X的對角化性質同樣可以得到α在傅里葉形式下的解:
(7)
得到濾波器w后,在下一視頻幀中提取目標搜索區域新的圖像特征Z,與濾波器進行相關操作可以得到主空間響應圖rp或對偶空間響應圖rd:
(8)
(9)
式中Z為循環矩陣,z為Z在循環移位前的原始樣本.根據響應圖中的最大響應位置確定在該視頻幀中預測的目標位置.同時,為了使判別模型對跟蹤過程中目標出現的外觀與形態變化更具魯棒性,需要對濾波器進行更新,通常使用線性插值的方式來進行更新:
αt=(1-η)αt-1+ηαt
(10)
式中t為當前視頻幀的序號,η為模型更新的學習率.
在現實跟蹤場景中,跟蹤目標的周圍區域往往存在各種干擾物體,這些干擾物體由于與跟蹤目標相似或與跟蹤目標交疊導致模型漂移或跟蹤失敗.相關濾波跟蹤算法由于使用了循環移位來模擬密集采樣而使得循環樣本存在邊界效應,盡管大多數相關濾波跟蹤算法通過應用余弦窗來減輕邊界效應的影響,但與此同時也丟失了部分背景信息,從而降低了跟蹤算法的判別能力[8].因此,通過充分利用跟蹤目標周圍的上下文信息,使跟蹤算法具備上下文感知的能力,對提升算法的精度和魯棒性有著重要意義.
對于相關濾波跟蹤算法中的判別模型而言,跟蹤目標周圍的上下文圖像區域可以視為負樣本,通過對上下文圖像區域進行采樣作為負樣本用于對判別模型進行訓練更新能夠使得判別模型對背景干擾物體具有更好的魯棒性.在公式(1)的基礎上,可以將在跟蹤目標周圍采集的上下文圖像區域作為正則項添加其中,使得學習到的濾波器w能夠對目標區域有著較高的響應,而對上下文圖像區域有著趨近于零的響應.加入上下文區域圖像作為正則項的嶺回歸問題如下:
(11)
式中X0是包含目標的訓練樣本所有循環移位的數據矩陣,Xi是各個上下文訓練樣本所有循環移位的數據矩陣,λ2是控制上下文圖像區域響應回歸到0的正則化參數.
通過將上下文圖像塊與目標區域圖像塊進行堆疊形成新的數據矩陣B∈R(k+1)n×n,其中k為采集的上下文圖像塊數目,公式(11)可改寫為公式(12):
(12)
其中:
(13)
類似于公式(2)和公式(5),公式(12)在主空間(Primal Domain)及對偶空間(Dual Domain)有以下封閉解:
(14)
(15)
利用具有循環結構的數據矩陣B的對角化性質可以得到濾波器w在主空間(Primal Domain)的傅里葉形式的解:
(16)
在對偶空間(Dual Domain)中,類似于公式(7)可以得到傅里葉形式下的解如下:
(17)
其中,向量djl(j,l∈{1,…,k})分別為:
(18)
從而可以在下一視頻幀圖像中獲取目標搜索區域的響應:
(19)
不同的圖像特征有著不同的特性,因此它們在不同的跟蹤場景下的特征表觀能力也有所差異.例如,HOG特征統計圖像局部區域的梯度方向直方圖,因此在光照變化和平面旋轉等場景下能夠保持對目標特征的良好表達,而對目標形變則較為敏感;顏色直方圖特征統計不同顏色在圖像區域中的分布,因此光照變化會對顏色直方圖特征產生較大影響,而其對目標形變則較為魯棒.目前已有相關工作,如SAMF算法、Staple算法等,將不同特性的特征進行互補,通過分別計算圖像在不同特征下的響應,再進行響應融合得到最終的響應圖,從而確定預測的目標位置.在響應融合的方式上,當前較為先進的算法通常采用了固定權值進行加權融合的方法[9,10],這種方法雖然計算較為簡單,但無法靈活地應對不同類型的視頻序列中的跟蹤場景差異.通過研究發現,在低分辨率以及快速運動等場景下采用固定權值進行加權融合得到的響應圖往往不夠可靠,容易導致模型漂移.因此本文提出一種自適應響應融合的方法,提升響應融合的可靠性.
本文所提出的算法使用了HOG特征和顏色直方圖特征進行互補,并對目標區域圖像在二者特征下的響應采用自適應加權融合方法來進行響應融合,得到最終的響應.定義由HOG特征計算得到的響應為fh(x),由顏色直方圖特征計算得到的響應為fc(x),則采用傳統固定權值的加權融合方法得到最終響應f(x):
f(x)=(1-γ)fh(x)+γfc(x)
(20)
式中γ為響應融合的固定加權融合因子.
通過對采用固定權值的加權融合方法進行響應融合的跟蹤算法進行分析,本文發現其往往在快速運動、背景相似干擾以及圖像低分辨率等情況下出現跟蹤失敗的情形.通過分析視頻序列中在出現跟蹤失敗時計算得到的HOG特征響應、顏色直方圖特征響應以及采用固定權值加權融合后的最終響應之間的關系,本文發現,顏色直方圖特征在上述跟蹤情形中相較于HOG特征更為敏感,無法可靠地對目標外觀進行表觀,同時由于顏色直方圖特征的響應值較HOG特征響應值更高,且波動范圍小,導致采用固定權值加權融合后的響應受顏色直方圖特征的影響較HOG特征的影響更大.基于上述發現,本文提出以下自適應調整加權融合因子的響應融合方法:計算HOG特征響應最大值rh-max和顏色直方圖特征響應最大值rc-max:
rh-max=max(fh(x))
rc-max=max(fc(x))
(21)
記HOG特征響應圖中最大響應rh-max所處的位置為(posh-row,posh-col),顏色直方圖特征響應圖中最大響應rc-max所處的位置為(posc-row,posc-col),分別在HOG特征響應圖和顏色直方圖特征響應圖中計算以下位置的響應值:
rh=fh(posc-row,posc-col)
rc=fc(posh-row,posh-col)
(22)
HOG特征響應圖中最大響應位置(posh-row,posh-col)和顏色直方圖特征響應圖中最大響應位置(posc-row,posc-col)分別描述了HOG特征及顏色直方圖特征所預測的可能性最大的目標位置區域.在二者特征都能夠較好地對目標進行表觀的情況下,響應值rh與最大響應值rh-max的比值以及響應值rc與最大響應值rc-max的比值較大且相對穩定,此時可以使用正常情況下的加權融合因子γ2進行響應融合.而對于快速運動、背景相似干擾以及圖像低分辨率等情形,此時顏色直方圖特征的可靠性不佳導致在干擾區域仍然有著較大的響應,而對上述跟蹤情形較為魯棒的HOG特征則能夠保持對目標外觀的良好表達,使得在干擾區域有著較低的響應,從而與顏色直方圖特征的響應比值呈現差異.通過分析HOG特征響應圖和顏色直方圖特征響應圖的波動范圍,設置比例閾值條件來指示出現顏色直方圖特征響應不可靠的情形,并在滿足相應條件時調低加權融合因子的大小,減少顏色直方圖特征對最終融合響應的影響,自適應調整加權融合因子的響應融合公式如下:
(23)
式中ρ1,ρ2為設定的比例閾值,γ1,γ2為不同的加權融合因子,且γ1<γ2.根據公式(23),跟蹤算法在出現顏色直方圖特征響應不可靠的情況下降低顏色直方圖特征響應權重,提高HOG特征響應權重,并在二者響應均較為可靠時恢復原始的加權融合因子,實現二者特征響應自適應融合的效果,提升了跟蹤算法的精度和魯棒性.采用固定權值的響應融合方法與本文的自適應響應融合方法的響應圖及跟蹤結果對比如圖1所示.

圖1 兩種響應融合方法的響應圖及跟蹤結果對比Fig.1 Comparison of response maps and tracking results of two response fusion methods
為了適應目標在跟蹤過程中可能出現的不同形態變化,相關濾波跟蹤算法需要利用當前視頻幀中提取的圖像作為訓練樣本對判別模型進行更新.大多數現有的相關濾波跟蹤算法采取的策略是在每一幀中以固定的學習率對判別模型進行更新[11],這種模型更新策略較為簡單且計算方便.文獻[9]中認為在每一幀進行模型更新的策略會拖累跟蹤算法的速度,并且有導致模型過擬合的風險,因此采用了每間隔5幀進行模型更新的策略.然而,不論是每幀更新的策略還是間隔更新的策略,都忽略了用于模型更新的訓練樣本的質量對更新模型的影響.當出現目標嚴重遮擋或是完全丟失時,此時用于模型更新的訓練樣本僅包含較少甚至不包含目標的外觀信息,若將這些訓練樣本用于模型更新將導致模型污染,誤差不斷累積后最終會導致跟蹤失敗.
為了解決上述問題,本文使用響應峰值(Fmax)和平均峰值相關能量(APCE)[12]作為置信度指標,只有在兩個置信度指標均滿足高置信度更新條件時才對模型進行更新.跟蹤過程中采樣的訓練樣本對應的響應圖能夠反映出訓練樣本的質量.理想的響應圖通常具有一個較高的尖峰,并且在其它區域都較為平滑,這樣的響應圖被認為能夠較好地對目標位置進行定位,其所對應的訓練樣本良好地表達了目標外觀,適合用于模型更新.與之相反的是,若一個響應圖中具有多個峰值,并且響應圖中的其它區域劇烈振蕩,則可能發生了遮擋或背景干擾,這樣的響應圖所對應的訓練樣本被認為質量不佳,用于模型更新可能會導致模型污染.本文所參考的兩個置信度指標:Fmax和APCE能夠反映當前訓練樣本的質量,為模型更新策略提供參考.Fmax反映了響應圖中的最大峰值的尖銳程度,APCE則反映了響應圖的整體振蕩情況,APCE定義如下:
(24)
式中Fmax與Fmin是響應圖中的最高和最低響應,Fm,n是響應圖中位置(m,n)上的響應.Fmax的值越大表明響應圖的最大峰值越尖銳,APCE的值越大表明響應圖的周圍越平滑,通過判斷兩個置信度指標均以一定比例大于其歷史均值可以反映出當前跟蹤結果具有較高的置信度.本文的高置信度模型更新策略需滿足以下置信度條件才可進行模型更新:
(25)
式中Fi,max和APCEi表示視頻序列第i幀中的最大響應峰值和平均峰值相關能量.
本文算法流程如下:
初始化:根據第一幀中跟蹤目標的初始位置及大小進行圖像采樣并提取上下文圖像區域,用于初始化位置濾波器和尺度濾波器.
位置預測:
步驟1.根據上一幀的目標位置及大小對圖像區域及上下文圖像區域進行采樣,并提取HOG特征和顏色直方圖特征.
步驟2.根據公式(17)計算跟蹤濾波器的目標模型參數.
步驟3.根據公式(19)計算目標及上下文區域的HOG特征響應圖以及顏色直方圖特征響應圖.
步驟4.根據公式(23)對HOG特征響應圖與顏色直方圖特征響應圖進行自適應響應融合得到最終的響應圖,并根據響應圖中最大響應位置確定預測的目標位置.
尺度估計:
步驟5.以步驟4確定的目標位置為中心提取多個不同尺度下的目標圖像并提取特征.
步驟6.計算不同尺度下的尺度響應從而確定當前幀的最佳尺度因子.
模型更新:
步驟7.使用高置信度更新策略進行模型更新,計算當前幀的Fmax與APCE,判斷是否滿足公式(25)條件.若滿足,則更新位置濾波器和尺度濾波器參數.若不滿足,則不進行模型更新.
本文中實驗環境的計算機配置為Intel Xeon CPU E5-2670,主頻為2.6GHz,內存為16GB,算法的軟件開發平臺為MATLAB R2018b,操作系統為Windows 10.本文算法使用HOG特征及顏色直方圖特征,算法的具體參數設置如下:提取目標周圍8個方向的上下文圖像塊,正則化參數λ1的值為10-3,控制上下文信息的正則化參數λ2的值為0.5,自適應響應融合中的比例閾值ρ1為0.2,ρ2為0.8,響應融合的加權融合因子γ1為0.05,γ2為0.2,使用了尺度步長為1.02的33個尺度進行尺度估計,尺度濾波器的相關參數設置與DSST[13]算法中的參數配置相同,高置信度模型更新策略中Fmax的比例閾值β1為0.35,APCE的比例閾值為0.7.
本文選取了OTB50標準公開數據集[14]對本文算法進行全面地評估.OTB50數據集涵蓋了眾多不同跟蹤場景下的視頻序列,并且按照不同的跟蹤挑戰因素劃分了11種屬性,包括:尺度變化(SV),快速運動(FM),運動模糊(MB),目標形變(DEF)、出視野(OV),平面內旋轉(IPR),平面外旋轉(OPR),背景雜波(BC),光照變化(IV),低分辨率(LR)以及遮擋(OCC),每個視頻序列都至少包含一種上述屬性.
本文使用中心位置誤差(CLE)、距離精度(DP)以及重疊精度(OP)3種評價指標對算法的跟蹤結果進行度量.中心位置誤差(CLE)是指預測的目標中心位置與真實的目標中心位置之間的平均歐幾里得距離.距離精度(DP)是指視頻序列中CLE小于某個閾值的幀數占視頻序列全部幀數的百分比.重疊精度(OP)是指視頻序列中預測的目標區域與真實的目標區域的重疊率超過某個閾值的幀數占視頻序列全部幀數的百分比.
本文選取了5種當前較為先進的相關濾波跟蹤算法與本文算法在OTB50數據集上進行對比實驗,這些算法包括:KCF、DSST、Staple、SRDCF[15]、SAMF_CA[16].本文采用一次性通過評估(OPE)的測試方式,使用距離精度曲線圖和成功率曲線圖來顯示跟蹤算法的跟蹤性能.其中,距離精度曲線圖以CLE閾值為20個像素時的DP評價指標分數對跟蹤算法進行排名,成功率曲線圖以重疊率閾值為0.5時的OP曲線的曲線下面積(AUC)對跟蹤算法進行排名.上述所有算法在一次性通過評估(OPE)方式下進行實驗得到的距離精度曲線圖與成功率曲線圖如圖2所示.

圖2 6種算法在OTB50數據集中的實驗對比結果Fig.2 Experimental results of 6 algorithms on OTB50
由圖2可以看出,本文算法Proposed在OTB50數據集中的跟蹤精度為74.7%,跟蹤成功率為54.8%,均位列所有測試算法第一位.本文算法相較于傳統相關濾波跟蹤算法KCF,跟蹤精度提高了20.9%,跟蹤成功率提高了35.6%,具有較大的提升;相較于尺度自適應相關濾波跟蹤算法DSST,跟蹤精度提高了15.6%,跟蹤成功率提高了30.2%;相較于同樣利用了上下文信息的相關濾波跟蹤算法SAMF_CA,跟蹤精度雖然只提高了2.5%,但跟蹤成功率則提高了7.1%,由于本文算法采用了更多方向的上下文信息,具有更強的上下文感知能力,因此跟蹤成功率進一步提升;相較于采用固定權值進行響應融合的相關濾波跟蹤算法Staple,跟蹤精度提高了7.3%,跟蹤成功率提高了6.4%,驗證了本文提出的自適應響應融合策略對算法性能提升的有效性;相較于使用了更大的檢測區域的SRDCF算法,雖然跟蹤精度和跟蹤成功率分別只提高了2.5%和2.8%,但SRDCF算法的實時性較差.
在算法實時性方面,本文算法的跟蹤速度為13.6fps,是跟蹤性能排名第2的SRDCF算法(2.9fps)速度的4倍以上,與跟蹤性能排名第3的SAMF_CA算法(12.3fps)速度大致相當,相較于Staple算法(26.4fps)以及DSST算法(15.2fps)盡管在跟蹤速度上有所下降,但在跟蹤性能上有一定的提升.所有測試算法中速度最快的為KCF算法,跟蹤速度達到了83.4fps,但跟蹤效果不佳,算法的精度與成功率相較于本文算法差距較大.

表1 6種算法在不同跟蹤挑戰因素下的跟蹤精度表Table 1 Distance precision of 6 algorithms under different tracking challenges
本文算法與5種對比算法在不同跟蹤挑戰因素下的跟蹤精度如表1所示,跟蹤成功率如表2所示.

表2 6種算法在不同跟蹤挑戰因素下的跟蹤成功率Table 2 Success rate of 6 algorithms under different tracking challenges
由表1和表2可知,本文算法在各種跟蹤挑戰因素中均取得了領先的跟蹤效果,特別是在光照變化(IV)、運動模糊(MB)、背景雜波(DEF)、平面內旋轉(IPR)、遮擋(OCC)、平面外旋轉(OPR)等跟蹤場景下跟蹤效果有著較大提升.上述實驗結果驗證了本文算法的有效性,相較于當前主流的相關濾波跟蹤算法,本文算法在跟蹤性能上有了進一步的提升,同時對于不同的跟蹤挑戰因素具有良好的適應性和魯棒性.
為了進一步說明本文算法在復雜跟蹤場景下的跟蹤性能,本文選取了5組包含了多種跟蹤挑戰因素的視頻序列對本文算法進行定性分析,6種算法在視頻序列的跟蹤結果如圖3所示.

圖3 6種算法在視頻序列中的跟蹤結果Fig.3 Tracking results of 6 algorithms in the video sequences
在Ironman視頻序列中,跟蹤目標所處的場景中有較大的亮度變化,在跟蹤過程中目標還出現了運動模糊的情況.在第35幀時,由于出現了較強的亮度變化,對跟蹤目標的外觀產生了較大的影響,此時已有多個算法出現跟蹤漂移的情形,但得益于本文提出的自適應響應融合方法,本文算法仍然能夠較好地確定目標位置.到第83幀時,除了本文算法外,其余算法已完全丟失目標,大多數算法由于學習了劇烈變化的跟蹤目標外觀來進行模型更新,導致模型污染,而本文采用了高置信度模型更新策略,提升了算法魯棒性,因此能夠減輕模型被污染的風險.
在Dragonbaby視頻序列中,跟蹤目標經歷了快速運動以及尺度變化等情況.在第40幀時,大多數算法已經偏離了跟蹤目標,只有本文算法以及SRDCF算法能夠較好地適應目標的快速運動,并在后續視頻序列中持續地跟蹤目標.同時,由于本文算法相較于SRDCF算法使用了更多的尺度估計數量,因此對跟蹤目標的尺度估計更為精確,如在第84幀時目標出現較大的尺度變化,雖然本文算法與SRSCF算法均跟蹤到了目標,但本文算法的跟蹤結果更為精確.
在Freeman4視頻序列中,視頻序列的分辨率較低且有部分遮擋的情形.對于分辨率較低的視頻序列,同樣采用了HOG特征和顏色直方圖特征并使用固定權值進行響應融合的Staple算法相較于本文算法,跟蹤效果不佳,而采用了自適應響應融合方法的本文算法能夠在顏色直方圖特征響應不可靠的情形下自適應調整響應融合權重,降低顏色直方圖特征的影響,使本文算法對低分辨率視頻序列有更好的適應性.在第142幀時,由于目標被部分遮擋,部分算法出現了跟蹤漂移,本文算法由于利用了上下文信息,因此具有較好的抗遮擋能力.
在Couple視頻序列中,跟蹤目標的周圍背景較為雜亂,且出現了相似干擾物體,同時在跟蹤過程中目標出現了一定的姿態變化.在第60幀時,已有多個算法漂移到了其它背景干擾物體上,而本文算法由于利用了上下文信息,能夠對目標周圍的背景信息進行感知,避免相似干擾物體的影響.在后續的視頻序列中,由于拍攝視角的變化以及行人行走姿態的變化,跟蹤目標出現了一定的形變,僅有本文算法與SRDCF算法能夠較好地對目標進行跟蹤.
在Tiger2視頻序列中,出現了出視野、平面外旋轉、部分遮擋等跟蹤場景.在第88幀時,目標部分移出視野,大多數算法出現了不同程度的跟蹤漂移,SRDCF、KCF以及本文算法能夠較好地估計目標的位置.在第273幀時,目標被部分遮擋,部分算法進行了錯誤的模型更新加劇了模型漂移.在第350幀時,目標進行了平面外旋轉,此時僅有SRDCF、Staple以及本文算法能夠較好地對目標進行跟蹤.相較于其它算法,本文算法對視頻序列中目標的出視野、平面外旋轉等多種跟蹤挑戰場景均能夠較好地適應.
上述視頻序列分析結果表明,在具備多種跟蹤挑戰因素的復雜場景中,本文算法仍然能夠較好地對目標進行跟蹤.同時,在本文算法中采用的上下文感知、自適應響應融合以及高置信度模型更新策略進一步提升了算法的跟蹤精度與魯棒性,驗證了算法在復雜跟蹤場景下的有效性.
本文提出一種基于上下文感知和自適應響應融合的相關濾波跟蹤算法,通過在目標搜索區域周圍多個方向采集上下文圖像塊作為正則項使得跟蹤算法具備上下文感知能力,同時選取了HOG特征和顏色直方圖特征,通過自適應響應融合方法來對二者特征的響應圖進行融合,最后使用了響應峰值和平均峰值相關能量兩個置信度指標,采取了高置信度模型更新策略來進行模型更新.本文在OTB50數據集上進行實驗,將本文算法與5種主流相關濾波跟蹤算法進行了對比.實驗結果表明,本文算法在OTB50數據集上達到了74.7%的跟蹤精度,跟蹤成功率為54.8%,排名所有測試算法第1位,并且在復雜的跟蹤挑戰因素下仍然具有較好的精度與魯棒性,特別是在光照變化、遮擋、背景雜波、運動模糊等跟蹤場景下跟蹤效果有著較大提升,從而驗證了本文算法的有效性,對后續相關濾波跟蹤算法的研究具有一定的參考意義.