肖秦琨,劉向軍
(西安工業(yè)大學 電子信息工程學院,陜西 西安 710032)
隨著計算機視覺技術(shù)、信號處理和多媒體等技術(shù)的發(fā)展,視頻監(jiān)控系統(tǒng)得到廣泛的應用。為了減少人力的參與和提高視頻監(jiān)控系統(tǒng)的智能化,研究目標跟蹤的有效方法是非常有必要的[1]。運動目標跟蹤利用目標點、線、區(qū)域塊等特征對目標進行特征匹配,從而實現(xiàn)跟蹤。比較典型的匹配算法有:Mean-shift算法、粒子濾波和模板匹配等。Mean-shift算法[2]采用顏色特征,計算量小、實時性好,缺點是灰度圖像或紋理信息較少,圖像的目標跟蹤不能取得很好的跟蹤結(jié)果,且目標存在遮擋和明顯尺度變化時容易丟失目標。粒子濾波算法[3]作為一種基于貝葉斯估計的非線性濾波算法,在處理非高斯非線性時變系統(tǒng)的參數(shù)估計和狀態(tài)濾波問題方面有獨到的優(yōu)勢,但是作為一種新型算法對通用問題缺乏借鑒意義,實時性差且粒子濾波的收斂性尚未解決。模板匹配算法[4]是通過計算像素點鄰域相似度來判斷匹配度,算法簡單,但該方法需遍歷整張圖片,計算量大,且目標形變、旋轉(zhuǎn)、遮擋時,跟蹤的魯棒性較差。基于以上問題,研究基于Shape Context的目標跟蹤算法具有良好的現(xiàn)實意義。
基于以上原因,文中提出了一種基于局部特征匹配的目標跟蹤方法,該方法利用Shape Context[5]對目標邊緣上點的相互位置關系進行匹配,對平移、旋轉(zhuǎn)、遮擋等情況具有良好的魯棒性。局部特征匹配的基本思想是:利用Shape Context提取目標的輪廓信息和特征,然后對兩個目標特征點進行相似度比較,通過判斷其相似度,利用預測投票的方法斷定其質(zhì)心位置進行匹配。
目標跟蹤常用的特征提取算法有:SUSAN算法、Harris算法等。然而這些算法在目標部分遮擋、形變等情況時,對目標提取的特征信息不準確,容易發(fā)生誤匹配或無法找到匹配目標。而基于Shape Context的特征提取,是一種對目標的邊界特征進行描述的方法,通過邊界的局部特征匹配可以很好的確定目標。
輪廓能最直接描述一個物體,因而輪廓線上的一定數(shù)量的離散點可以表示一個物體的形狀信息。Shape Context通過提取目標的輪廓邊界信息,計算其相似度來描述目標的特征。
一幅圖中,在邊緣檢測的基礎上,可以得到一組離散的邊界點點集,設點集為 Pi={p1,p2,…pn},對任一個點 pi,其余n-1個點與i點構(gòu)成的向量組,能很好的反映該點在目標中的形狀信息。
為直觀反映Shape Context特征描述方法,我們引入一種類似雷達掃描系統(tǒng)的對數(shù)極坐標系,如圖1所示:

圖1 特征提取示意圖Fig.1 Schematic of the feature extraction based on shape context
整個空間被分成 12×5=60個bin,對給定點pi,以該點為中心所成的極坐標系中,落入每個bin中像素點個數(shù)來描述。依次計算得到n個形狀直方圖,對任一物體的輪廓可以用n×60大小的矩陣表示。
文中基于目標Shape Context特征信息,建立特征數(shù)據(jù)庫,以特征數(shù)據(jù)庫為中介,與被跟蹤目標特征信息進行匹配,投票找出被測目標的質(zhì)心和邊界信息,從而確定被跟蹤目標,如圖2所示。

圖2 文中目標跟蹤流程圖Fig.2 Flow chart of tracking
1)建立目標特征信息數(shù)據(jù)庫
以人為例,建立10~20個目標的image、mask(輪廓信息)信息,訓練得到目標的SC特征,生成codebook特征集D(D:包含 cek,k=1,...,n)。Codebook 中記錄邊緣點的 SC 特征,點與質(zhì)心的相對位置等信息。
2)特征匹配
對被測目標進行邊緣檢測(edge_detection),提取目標圖片幀的SC特征,與codebook中特征集進行比較。用Cost值評價兩個點的相似度[6]。令Cs為Shape Context的Cost值。Cs就是基于 χ2-test的直方圖距離統(tǒng)計值。g(k)和 h(k)分別表示待匹配的兩幅圖像對應點的直方圖值。計算方法如下:

Cs值越小,相似度越大。
3)投票預測目標的質(zhì)心
設被檢測點A的SC信息為{fi},定義codebook中與fi匹配的cek的概率為P(cek|A),該點預測到的目標o的質(zhì)心c的概率P(o,c|cek,A)。由此可得到被檢測幀中目標的質(zhì)心為:

由P(o,c)得到投票圖,投票最大值即hypo_center。同時根據(jù)點對點的投票結(jié)果確定被檢測目標的邊界bbox_list。
與傳統(tǒng)的目標跟蹤算法不同,文中引入了Shape Context的統(tǒng)計直方圖值進行相似度度量,這就克服了傳統(tǒng)方法中目標旋轉(zhuǎn)、平移等情況下難以匹配的問題,同時,采用預測估計的方法判斷目標的位置,能夠取得良好的匹配效果。
對于相似度度量,采用了COST值計算,我們選取前7副數(shù)據(jù)庫中的圖片與待檢測的目標幀(第21幀)進行演示,計算結(jié)果演示如表1所示。

表1 COST值計算相似度Tab.1 Computing the sim ilarity of COST
表1中,T為閾值,COST為基于χ2-test的直方圖距離統(tǒng)計值的平均值。通過實驗,發(fā)現(xiàn)當閾值設定為T=0.3時,匹配率接近100%,很多情況下可作為經(jīng)驗值使用。
針對文中提出的特征提取方法,采用MATLAB進行算法的實現(xiàn)。
如圖3所示,對于輸入的原圖像,首先我們進行邊緣檢測,對其進行SC_feature的提取,通過相似度量確定與codebook中的對應點。圖(c)為投票的圖,“+”位置代表投票的最大值。圖(d)為通過多次投票得到目標的位置信息,顯示出投票的結(jié)果。

圖3 目標跟蹤過程演示Fig.3 Object tracking experiment

圖4 跟蹤結(jié)果Fig.4 Tracking result
圖4為多次投票后得到的多幀圖像中的目標跟蹤結(jié)果,由圖4可見,文中提到的基于局部特征的目標跟蹤算法是有效的。

圖5 目標質(zhì)心位置跟蹤結(jié)果Fig.5 Trajectory of object center
為了直觀的顯示本文方法下目標跟蹤的效率,建立了一個目標運動質(zhì)心位置變化和投票預測得到的質(zhì)心位置的對比圖,如圖5所示,“.”表示采用文中提到的方法進行實驗得到的目標質(zhì)心位置,“-”表示目標本身質(zhì)心位置變化。從圖中可以看出,本方法得到的目標質(zhì)心位置和目標的運動軌跡基本相同,能夠?qū)崿F(xiàn)良好的跟蹤效果。
根據(jù)目標跟蹤中存在的諸多問題,文中詳細研究了基于Shape Context特征提取算法進行目標跟蹤,對目標旋轉(zhuǎn)、變形、局部遮擋等問題具有良好的魯棒性。文中的新穎之處在于:
1)與傳統(tǒng)的目標跟蹤算法不同,引入了Shape Context的統(tǒng)計直方圖值進行相似度度量機制,對目標旋轉(zhuǎn)、形變時具有良好的魯棒性。
2)在相似度度量基礎上,采用投票的方法對目標的位置進行預測估計,實驗證明,這種方法能做到很好的匹配效果。
[1]朱宏.基于視頻序列的運動目標檢測與跟蹤技術(shù)研究[D].成都:西南交通大學,2008.
[2]宋新,沈振康,王平,等.Mean Shift在目標跟蹤中的應用[J].系統(tǒng)工程與電子技術(shù),2007,29(09):405-409.SONG Xin, SHEN Zhen-kang, WANG Ping, et al.Application of mean Shift method in target tracking[J].Systems Engineering and Electronics, 2007,29(09):405-409
[3]Johnson N,Hogg D C,et al.Learning the distribution of object trajectories for event recognition[J].Image and Vision Computing,1996,14(1):609-615.
[4]Feng Z R,Lu N,Jiang P.Posterior probability measure for image matching[J].Pattern Recognition,2008,41(7):2422-2433.
[5]Belongie S, Malik J, Puzicha J.Shape context:a new descriptor for shape matching and object recognition[J].Neural Information Processing Systems,2001,13(3):831-837.
[6]Belongie S,Mori G,malik J.Matching with shape contexts[J].IEEE Workshop on Content-based access of Image and Video-Libraries,2000,11(3):961-967.