錢堂慧,羅志清,李果家,李應蕓,李顯凱
(昆明理工大學 國土資源工程學院,昆明 650093) (*通信作者電子郵箱oscarluofu@yahoo.com.cn)
核相關濾波跟蹤算法的尺度自適應改進
錢堂慧,羅志清*,李果家,李應蕓,李顯凱
(昆明理工大學 國土資源工程學院,昆明 650093) (*通信作者電子郵箱oscarluofu@yahoo.com.cn)
針對基于檢測的核相關濾波跟蹤(CSK)算法難以適應目標尺度變化的問題,提出多尺度核相關濾波分類器以實現尺度自適應目標跟蹤。首先,采用多尺度圖像構建樣本集,訓練多尺度核相關濾波分類器,通過分類器對目標的尺度估計實現目標的最佳尺度檢測;然后,在最佳尺度下采集樣本在線學習更新分類器,實現尺度自適應的目標跟蹤。對比實驗與分析表明,本文算法在目標跟蹤過程中能夠正確適應目標的尺度變化,相比CSK算法,偏心距誤差減少至其1/5~1/3,能滿足復雜場景長時間跟蹤的需求。
目標跟蹤;多尺度圖像;自適應;核相關濾波
目標跟蹤算法的分類有很多種,按視頻數據的處理方式可分成數據驅動(Data Driven)和模型驅動(Model Driven)兩種[1]。數據驅動類型的處理方式并不依賴于已有的先驗知識,而是根據直接從圖像中獲取目標的運動狀態信息進行跟蹤,將視覺目標跟蹤過程看作一個信息處理過程,屬于這種跟蹤方法的有背景差分、幀間差分、光流法等[2-4]。模型驅動的處理方式依賴于先驗知識和訓練好的模板,根據已有的模板或先驗數據對圖像序列進行匹配或計算后驗概率,采用匹配計算時,與模板距離最近的候選目標被認為是被跟蹤的運動目標,采用后驗概率計算時,后驗概率最大的候選目標認為是所要跟蹤的目標。模型驅動的方法在引入機器學習后逐漸形成判別式學習跟蹤方法,最典型的有Boosting[5-6]、支持向量機(Support Vector Machine, SVM)[7]和隨機森林(Random Forest , RF)[8]等。
基于機器學習的跟蹤方法將跟蹤視為二分類問題,充分利用目標和背景信息進行在線或者離線學習,尋找規律,將目標從新的圖像中區分出來。文獻[9]將傳統的檢測技術和跟蹤技術相結合,提出跟蹤-學習-檢測(Tracking-Learning-Detection, TLD)的跟蹤模型,在此框架上,Henriques等[10]提出基于檢測的核相關濾波跟蹤( Circulant Structure of tracking-by-detection with Kernels, CSK)算法,該算法采用密采樣的策略,用循環矩陣結構來組織單張圖像采集的樣本集,將一幀中多個子窗口的處理歸為對一個循環矩陣的處理,并引入核技巧使得線性最小二乘分類能解決非線性問題,最后用核相關濾波將空間域卷積轉換至頻率域計算,并用快速傅里葉變換提高運算效率。這使得算法能夠充分利用目標和背景信息獲得精準目標跟蹤的同時,還控制了運算量,提高了跟蹤速度,對目標形變、光照變化、背景干擾以及部分遮擋等都有很強的適應能力。然而由于缺少對目標的尺度估計,跟蹤過程中目標始終保持初始化尺度,雖然能夠精確定位,卻不能隨目標尺度的變化給出相應的目標輪廓。文獻[11-12]雖然對CSK的目標表征單一性進行了改進,使算法能利用方向梯度直方圖(Histogram of Oriented Gradient, HOG)和顏色等復雜特征來表征目標,卻仍然沒有考慮目標的尺度變化。本文在CSK算法基礎上,通過多尺度圖像構建多尺度樣本集,訓練多尺度核相關濾波分類器,以多尺度分類器的尺度估計功能構成目標尺度監控機制,實時更新目標尺度,實現尺度自適應的目標跟蹤算法。
CSK實現目標跟蹤的關鍵步驟是學習訓練和目標檢測。為了監控目標的尺度變化,在采樣訓練時,先對圖像進行縮放處理,即對目標尺度進行預先估計,接著用循環矩陣結構分別對各個尺度的圖像進行密采樣,組成多尺度的循環樣本集序列,然后將樣本集系列代入結構風險最小化策略,訓練多尺度分類器,即求得各個尺度的分類模型參數,最后根據各個尺度的模型參數,對下一幀圖像進行目標檢測和尺度估計,實現尺度自適應的目標跟蹤。
1.1 縮放移位建立多尺度樣本集序列
多尺度樣本集序列是一序列不同尺度的循環樣本集,每個樣本集都由原圖像縮放后采集的基樣本循環移位密采樣得到。
1)縮放圖像建立多尺度基樣本序列。多尺度基樣本序列是對原圖像進行縮放后的圖像分別采樣得到的一序列不同尺度的正樣本,也叫基樣本。具體步驟如下:
①設置縮放比例,將所有的縮放比例組成一個向量scales,向量的元素scalesi由下式給出:
scalesi=1±am;m=0,1,…,M,i=1,2,…,2M+1
(1)
其中:a∈(0,1)是縮放比例的步長,為正(+)時scalesi>1,是放大尺度,為負(-)時scalesi<1,是縮小尺度;2M+1是總的縮放比例數,m=0時尺度不變。
②對輸入的當前幀Frame按照設置好的縮放比例進行縮放操作:
Framei=ProcessFun(Frame,scalesi);i=0,1,…,2M+1
(2)
其中:ProcessFun是基于雙線性插值[13-14]的尺度縮放函數,Framei表示對當前幀縮放后的多尺度圖像序列。
③按照固定尺寸對多尺度圖像序列Framei進行目標采樣,得到多尺度基樣本序列xi。采樣窗口的中心點為目標的中心點,坐標隨尺度大小作相應變化。
2)循環移位構建多尺度樣本集序列。多尺度樣本集序列是對不同尺度的基樣本進行循環移位密采樣得到的一序列不同尺度的樣本集。循環移位密采樣的過程,為了表述簡單,以單通道一維情況為例進行推導,結果可擴展到單通道二維圖像。用一個n×1的向量x=(x1,x2,…,xn)表示基樣本,標記為正,然后以x為基礎,進行循環移位得到一系列負樣本,這可以通過一個置換矩陣p來進行操作:

(3)
pi上標i表示置換矩陣循環移位的位數,基于x循環移位后的所有樣本表示為:
xi=pix; ?i=0,1,…,n-1
(4)
將所有的樣本組成一個循環矩陣X,即為一個樣本集:
(5)
對不同尺度的所有基樣本都進行循環移位密采樣后就可以得到一個多尺度樣本集序列Xk,表示為:
(6)
其中:xk(k=0,1,…,2M+1)表示基樣本序列,一個尺度對應一個基樣本和一個基于該樣本的樣本集。
一維圖像循環樣本集實例見圖1。在二維圖像采樣時,只要以目標為中心截取一個大于目標尺度的圖像塊作為基樣本,按照上述規則進行上下和左右循環移位,就可以得到一個包含正負樣本的循環樣本集。圖2表示對一個二維基樣本上下循環移位采樣的過程。

圖1 一維圖像循環樣本集

圖2 二維基樣本在豎直方向移位采樣
1.2 訓練多尺度核相關濾波分類器
對于單個尺度的循環樣本集,通過嶺回歸可求解得到該尺度下的最優模型參數,又因為樣本集的循環結構,可借用卷積濾波理論[15]將空間域卷積運算轉換到頻域進行。嶺回歸是損失函數為平方損失的結構風險最小化策略,目的是求解使得所有樣本(x1,y1),(x2,y2),…,(xn,yn)誤差平方和最小的模型參數。設x為n×1的向量,線性分類模型為f(x)=wTx,則最小化結構風險泛函為:

(7)
其中,λ是控制過擬合的正則化參數。
若樣本在原始特征空間線性可分,嶺回歸是線性回歸問題,求解這個關于樣本集的大型線性方程組十分復雜,但由于樣本集的循環結構,向量與樣本集中每個樣本的點積操作恰好是空間卷積濾波過程,因此可轉換到頻域進行計算,簡化了計算的復雜度,這就是著名的對偶相關濾波(Dual Correlation Filter, DCF)[16]。
若樣本在原始特征空間線性不可分,則通過一個映射函數φ(x)將輸入的特征值映射到一個更高維的特征空間實現線性可分。在此情況下求解模型參數需要引入核技巧和表現定理。
核技巧:高維空間兩個樣本特征的點積可通過一個核函數在原始空間計算得到:
〈φ(x),φ(x′)〉=k(x,x′)
(8)
其中,核函數k有多項式核和高斯核等。
表現定理(Representer Theorem)[17]:在映射空間,模型參數w可以表示為所有樣本的線性組合:
(9)
根據式(8)和式(9)有:
(10)
將式(9)、(10)代入式(7)得:

(11)
用y表示由yi組成的向量,α表示由αi組成的向量,I為單位矩陣,用K表示由元素Kij=k(xi,xj)=k(pix,pjx)組成的核矩陣,對式(11)求解關于α的最小值得:
α=(K+λI)-1y
(12)
文獻[10]中已證明,由元素Kij=k(pix,pjx)組成的核矩陣也是循環結構的,因此,α的計算過程是一個空間濾波的過程,而空間濾波C(u)v的點乘操作相當于u與v的卷積,再由卷積定理有:
C(u)v=u?v=F-1(F*(u)·F(v))
(13)
其中:?表示卷積,·表示逐元點乘,F和F-1分別表示傅里葉變換和逆變換,*表示復共軛。
根據式(13),式(12)可以轉換到頻域計算:

(14)
這種通過引入核技巧,并用頻域代替時域計算線性回歸最優解的方法稱為核相關濾波(Kernelized Correlation Filter, KCF)[11]。這里的向量k是樣本的自相關核kxx。
根據核相關濾波的方法,對每個尺度的循環樣本集都進行嶺回歸分析,將得到一組不同尺度的模型參數:

(15)
其中:2M+1為總的尺度數,yk和kk分別為對應尺度的標記和自相關核。
將訓練得到的單尺度最優分類模型參數式(14)代回分類模型,對新輸入的待檢測圖塊z,計算其分類響應值:
(16)


(17)

根據式(13)將式(17)換至頻率域計算:
(18)

(19)
1.3 位置檢測與尺度估計
根據多尺度核相關濾波分類器的響應值進行目標的位置檢測和尺度估計。式(15)為多尺度模型參數的訓練式,式(19)為多尺度目標檢測的分類器,從這兩個式子可以看出,輸入的數據只是不同尺度的基樣本向量、檢測圖塊向量和相應的核向量, 要將式(15)和式(19)推廣到二維圖像只需將輸入數據換成二維基樣本、二維檢測圖塊和對應的核矩陣。響應值的形式還依賴于樣本的標記形式,本文采用連續性標記方式對二維基樣本進行可信度標記(見圖3),目標中心可信度最高(為1),隨著離目標中心距離的增加可信度逐漸降低,計算方法見實驗的預處理部分。
本文多尺度核相關濾波分類器的響應值為一序列代表可信度的矩陣(見圖3),以矩陣最大元素值作為新目標最佳尺度和最佳位置的可信度,最大元素值最大的矩陣對應的尺度為新目標的最佳尺度,最大元素值在該矩陣中的位置為新目標的最佳中心位置。圖3中,待檢測圖塊通過分類器檢測后,得到對應的5個響應值矩陣,其中最大可信度為0.98,對應的樣本尺度與基樣本尺度比值為1.0(因為尺度沒有發生變化),該尺度即為新目標的最佳尺度,最大可信度在響應值矩陣中的位置為新目標的位置,也就是矩陣中的亮點位置。

圖3 位置檢測與尺度估計
1.4 尺度自適應目標跟蹤流程
尺度自適應的目標跟蹤器具有目標檢測和尺度估計兩個功能,跟蹤流程主要包括構建多尺度樣本集序列、訓練多尺度分類器、實現目標檢測和尺度估計以及在線更新等幾個步驟,見圖4。
目標狀態信息包括目標的位置信息和尺度信息。流程的循環由2個更新實現,一個是目標檢測完成后,由下一幀更新當前幀,另一個是由新的目標狀態信息更新上一幀目標狀態信息,如此不斷循環,直到視頻序列的最后一幀結束。對每幀圖像(除第一幀外)都要進行2次圖像塊的截取操作,第一次以上一幀中檢測到的目標位置為坐標截取圖像塊,作為檢測圖塊,第二次以當前幀中目標的位置為坐標截取圖像塊,作為基樣本圖塊,第一幀圖像是以給定的目標狀態信息直接進行樣本圖像塊的截取。
分類器的在線更新包括實時更新分類參數和用于計算互相關核的基樣本,分類參數的更新由新樣本訓練得到的參數和前面所有參數線性組合完成,基樣本的更新由新樣本和前面所有基樣本線性組合完成。新樣本根據新的最佳尺度對目標采樣得到,線性組合時,如果新目標有尺度變化,前面所有幀的分類參數和基樣本都要先通過縮放處理與新目標保持相同尺度后,再線性組合。因為線性組合要考慮前面所有幀,本文采用迭代加和的方式進行更新。如果用new_α表示新參數,now_α表示前面所有幀參數的線性組合:
now_α=(1-interp_factor)*ProcessFun(now_α,scale)+interp_factor*new_α
(20)
如果用new_x表示新樣本,now_x表示前面所有幀樣本的線性組合:
now_x=(1-interp_factor)*ProcessFun(now_x,scale)+interp_factor*new_x
(21)
其中,interp_factor表示迭代參數,決定新參數和新樣本在線性組合中所占比重,ProcessFun是式(2)中的圖像縮放函數,scale表示舊尺度和新尺度的比值。

圖4 尺度自適應目標跟蹤流程
為了驗證本文算法的優劣,選擇尺寸變化、跟蹤精度以及跟蹤幀率三個指標進行定性分析,并與CSK算法進行比較。實驗硬件環境為IntelXeonE3-1231V3 3.40GHzCPU,8GBRAM;軟件環境為MatlabR2012b。實驗數據為實景拍攝的boy序列和VOT測試集中目標具有尺度變化特性的3個視頻幀序列。
參數的設定與CSK一樣。高斯核函數的δ=0.2,空間帶寬s=1/16,正則化參數λ=0.01,插值因子interp_factor=0.075。另外,多尺度樣本數設為5,即M=2,縮放步長a=0.04,scales=(0.92,0.96,1.0,1.04,1.08)。
2.1 預處理
本文直接以圖像的灰度值作為表觀目標的特征進行處理和計算。由于傅里葉變換的周期性不遵循于圖像邊緣,非周期圖像組成循環矩陣時,對邊不連續性會導致噪聲傅里葉表示,因此需要對樣本矩陣進行處理。處理的方法是用一個余弦窗進行平滑處理,假設樣本矩陣為n×n的Xraw,計算公式如下:
(22)
從式(22)可以看出,將樣本矩陣的邊緣加權值為0,保證了對圖像塊作周期延拓時圖像邊緣的連續性。
在訓練分類器的時候需要對樣本進行標記,也即規定輸出值的形式,通常的做法是將離目標中心近的樣本標記為正,離得遠的標記為負。由于本文的核最小二乘平方損失允許連續數值,因此本文用一個高斯函數對樣本進行連續性標記,標記值為可信度,輸出的響應值也是連續的可信度。高斯函數標記的基本思路是讓接近目標中心位置(i′,j′)的可信度為1,然后隨著離目標中心距離的增加,可信度遞減到0,并帶一個參數s(空間帶寬),計算公式如下:
yij=exp(-((i-i′)2+(j-j′)2)/s2); ?i,j=0,1,…,n-1
(23)
樣本的連續標記方式使得輸出的分類響應值是空間平滑的,這樣確定的目標位置要比二值標記的精確得多。
2.2 實驗結果與分析
圖5為本文改進算法和CSK算法在4個測試序列上的跟蹤效果圖。矩形跟蹤框為本文改進算法,橢圓跟蹤框為CSK算法,可以看出,CSK算法的跟蹤框尺度始終保持不變,而本文改進算法的跟蹤框能隨著目標尺寸的變化作相應的變化。這說明本文算法克服了CSK的缺點,實現了目標尺度的自適應跟蹤。
目標跟蹤精度根據目標跟蹤軌跡與目標真實軌跡的差距來評價。方法是計算視頻中每一幀跟蹤中心位置與實際目標中心坐標位置的距離,距離d越小表示跟蹤精度越高,反之越低。距離d由式(24)得到:
(24)
其中,(xt,yt)表示當前幀的跟蹤中心位置,(xc,yc)表示當前幀目標實際中心位置。
從圖6中可以看出,在水平方向上,本文算法與CSK算法跟蹤精度相差不大,而在豎直方向上本文算法明顯比CSK算法精度高。這是因為本文算法的目標跟蹤框尺度能隨著目標尺度的變化作相應的變化,而CSK算法的跟蹤框尺度始終保持不變,導致目標在豎直方向上發生較大尺度變化時(參見圖5),CSK算法的跟蹤框雖然還在目標上,中心位置卻已遠離目標中心,而最根本的原因是CSK算法不能適應目標的尺度變化,導致采樣訓練時沒有采集到目標的全貌,也沒有足夠的背景信息,最終導致分類器精度下降,跟蹤精度降低。本文的算法能根據目標的尺度實時更新跟蹤框的尺度,隨時保證采樣的質量和分類器的精度,提高了跟蹤精度。圖7是根據式(24)計算得到的本文算法、CSK算法跟蹤軌跡與真實軌跡的誤差圖。

圖6 boy序列跟蹤軌跡

圖7 跟蹤框中心偏移目標中心距離圖
從圖7可以看出,本文算法跟蹤框中心位置偏移目標中心的距離都在5個像素之內,比CSK算法低得多,特別是對長時間的目標跟蹤效果更加明顯。跟蹤軌跡與真實軌跡的誤差可以作為跟蹤目標的置信度,如果這個誤差大于一定閾值,就判定為跟蹤失敗,誤差越小跟蹤精度越高,反之越低。
下面對實驗結果進行總體定量評價,跟蹤精度根據估計目標中心位置偏移實際目標中心位置平均距離(偏心距)來評定,見表1;跟蹤速度(Frames-Per-Second,PFS)由幀數與跟蹤時長的比值來評定,見表2。結果評價較優的以下劃線顯示。

表1 估計目標中心位置偏移實際目標中心位置平均距離像素

表2 跟蹤速度 幀/s
通過表1和表2可以看出,本文算法的跟蹤精度明顯優于CSK算法,偏心距誤差減少至其1/5~1/3,但也因此損失了跟蹤速度。雖然跟蹤速度有所降低,但是仍然沒有影響到視覺的流暢性,因為人眼的視覺暫留,只要幀率(FPS)大于24就感覺流暢了。另外,目標尺度(包含的像素總數)對跟蹤速度也有影響,在其他變量相同的情況下,尺度越小,跟蹤速度越快,反之越慢。
本文采用不同尺度圖像構建多尺度樣本集,訓練多尺度核相關濾波分類器,在目標檢測的基礎上增加了尺度估計功能,通過在線更新目標尺度形成尺度監控機制,成功實現了CSK跟蹤算法的尺度自適應改進,同時提高了算法跟蹤精度和魯棒性。不足之處是算法復雜度對跟蹤速度有所影響;此外,本文算法的檢測器只能在局部區域進行目標檢測,當目標在幀間突然發生大位移,超出檢測區域,會導致跟蹤失敗,因此,考慮多核處理和GPU并行架構對算法的實時性進行改善,增加目標跟蹤失敗的補救機制,增強算法的實用性,將是下一步研究的重點。
)
[1] 陳東成.基于機器學習的目標跟蹤技術研究[D].北京:中國科學院大學,2015:6-7.(CHENDC.Researchofthetechniquesofobjecttrackingbasedonmachinelearning[D].Beijing:UniversityoftheChineseAcademyofSciences, 2015: 6-7.)
[2]CHENGYH,WANGJ.Amotionimagedetectionmethodbasedontheinter-framedifferencemethod[J].AppliedMechanicsandMaterials, 2014, 490: 1283-1286.
[3]LAIH,ZHUY,NONGZ.Animprovedbackgroundsubtractionapproachintargetdetectionandtracking[C]//ICMV2013:Proceedingsofthe6thInternationalConferenceonMachineVision.Bellingham,WA:SPIE, 2013, 9067: 10-13.
[4]WEDELA,POCKT,ZACHC,etal.AnimprovedalgorithmforTV-L1optical flow [M]// Statistical and Geometrical Approaches to Visual Motion Analysis, LNCS 5604. Berlin: Springer, 2008: 23-45.
[5] GRABNER H, LEISTNER C, BISCHOF H. Semi-supervised on- line boosting for robust tracking [C]// ECCV ’08: Proceedings of the 10th European Conference on Computer Vision. Berlin: Springer, 2008: 234-247.
[6] BABENKO B, YANG M-H, BELONQIE S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.
[7] AVIDAN S. Support vector tracking [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(8): 1064-1072.
[8] SAFFARI A, LEISTNER C, SANTNER J, et al. On-line random forests [C]// Proceedings of the 2009 IEEE 12th International Conference on Computer Vision Workshops. Piscataway, NJ: IEEE, 2009: 1393-1400.
[9] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.
[10] HENRIQUES J F, CAESIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels [C]// ECCV ’12: Proceedings of the 12th European Conference on Computer Vision. Berlin: Springer, 2012: 702-715.
[11] HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.
[12] DANELLJAN M, KHAN F S, FELSBERG M, et al. Adaptive color attributes for real-time visual tracking [C]// CVPR ’14: Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 1090-1097.
[13] 李英明,夏海宏.雙二次B-樣條插值圖像縮放[J].中國圖象圖形學報,2011,16(10):1937-1943.(LI Y M, XIA H H. Double two B-spline interpolation image scaling [J]. Journal of Image and Graphics, 2011, 16(10): 1937-1943.)
[14] 夏海宏.圖像縮放及其GPU實現[D].杭州:浙江大學,2010:10-11.(XIA H H. Image scaling and its GPU implementation [D]. Hangzhou: Zhejiang University, 2010: 10-11.)
[15] 阮秋琦.數字圖像處理學[M].北京:電子工業出版社,2013:130-135.(RUAN Q Q. Digital Image Processing [M]. Beijing: Publishing House of Electronics Industry, 2013: 130-135.)
[16] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual object tracking using adaptive correlation filters [C]// Proceedings of the 2010 Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 2544-2550.
[17] SCH?LKOPF B, SMOLA A J. Learning with kernels: support vector machines, regularization, optimization, and beyond [M]. Cambridge, MA: MIT Press, 2001.
[18] ORON S, BAR-HILLEL A, LEVI D, et al. Locally orderless tracking [C]// CVPR ’12: Proceedings of the 2012 IEEE Conference on Computer Vision an Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 1940-1947.
[19] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// CVPR ’05: Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005: 886-893.
[20] VAPNIK V N. Statistical learning theory [J]. Encyclopedia of the Sciences of Learning, 2010, 41(4): 3185-3185.
QIAN Tanghui, born in 1989, M. S. candidate. His research interests include target tracking.
LUO Zhiqing, born in 1963, M. S., associate professor. His research interests include digital mapping, GIS.
LI Guojia, born in 1992, M. S. candidate. Her research interests include visual tracking.
LI Yingyun, born in 1991, M. S. candidate. Her research interests include smoke identification.
LI Xiankai, born in 1992, M. S. candidate. His research interests include moving object detection.
Scale adaptive improvement of kernel correlation filter tracking algorithm
QIAN Tanghui, LUO Zhiqing*, LI Guojia, LI Yingyun, LI Xiankai
(CollegeofLandandResourcesEngineering,KunmingUniversityofScienceandTechnology,KunmingYunnan650093,China)
To solve the problem that Circulant Structure of tracking-by-detection with Kernels (CSK) is difficult to adapt to the target scale change, a multi-scale kernel correlation filter classifier was proposed to realize the scale adaptive target tracking. Firstly, the multi-scale image was used to construct the sample set, the multi-scale kernel correlation filtering classifier was trained by the sample set, for target size estimation to achieve the goal of the optimal scale detection, and then the samples collected on the optimal target scale were used to update the classifier on-line to achieve the scale-adaptive target tracking. The comparative experiments and analysis illustrate that the proposed algorithm can adapt to the scale change of the target in the tracking process, the error of the eccentricity is reduced to 1/5 to 1/3 that of CSK algorithm, which can meet the needs of long time tracking in complex scenes.
target tracking; multi-scale image; self-adaption; Kernel Correlation Filter (KCF)
2016- 09- 26;
2016- 10- 21。
錢堂慧(1989—),男,云南曲靖人,碩士研究生,主要研究方向:目標跟蹤; 羅志清(1963—),男,云南玉溪人,副教授,碩士,主要研究方向:數字化測圖、GIS; 李果家(1992—),女,云南昆明人,碩士研究生,主要研究方向:視覺跟蹤; 李應蕓(1991—),女,云南保山人,碩士研究生,主要研究方向:煙霧識別; 李顯凱(1992—),男,云南楚雄人,碩士研究生,主要研究方向:運動目標檢測。
http://www.cnki.net/kcms/detail/51.1307.TP.20161122.1415.002.html。
1001- 9081(2017)03- 0811- 06
10.11772/j.issn.1001- 9081.2017.03.811
TP
A