999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于局部背景特征點的目標定位和跟蹤

2016-10-13 23:50:54張鐵馬瓊雄
中南大學學報(自然科學版) 2016年9期
關鍵詞:特征區域方法

張鐵,馬瓊雄

?

基于局部背景特征點的目標定位和跟蹤

張鐵,馬瓊雄

(華南理工大學機械與汽車工程學院,廣東廣州,510641)

針對存在多個與目標相似的區域以及攝像頭經常運動的跟蹤問題,提出一種基于局部背景特征點的目標定位和跟蹤方法。首先,根據相鄰匹配的局部背景特征點與目標的位置關系對目標進行定位,然后,以定位得到的預測位置作為搜索起點,結合粒子濾波和均值偏移方法獲取目標的候選區域,最后,根據候選區域和預測位置的距離對候選區域的相似度加權,將加權后相似度最高的候選區域作為跟蹤結果。研究結果表明:該算法能夠避免周圍相似物體的干擾并準確跟蹤目標,具有較好的魯棒性和實時性。

粒子濾波;均值偏移;局部背景特征點;目標定位;目標跟蹤

粒子濾波、均值偏移以及他們相結合的方法已經普遍應用到視覺跟蹤領域。粒子濾波是從目標狀態的后驗概率中抽取隨機狀態粒子,并通過觀測目標與模板的相似度修正各粒子權重,最終聯合各粒子來表示目標狀態分布,在處理非線性、非高斯系統的狀態和參數估計問題方面具有獨到的優勢[1?2]。均值偏移通過非參數估計方法計算跟蹤目標的概率密度,并沿著該密度函數梯度方向快速迭代收斂至其峰值,計算簡單,具有很好的實時性。但是均值偏移方法只能尋找局部最大值而不是全局最大值,如果2幀圖像之間沒有足夠的重疊部分都會導致丟失目標[2]。基于粒子濾波跟蹤方法的關鍵在于以使粒子有效地分布于目標分布峰值所在的區域。為了達到更好的跟蹤效果,許多學者從各個方面進行了研究。如把均值偏移算法引入粒子濾波框架中使粒子聚集到后驗峰值附近[1, 3],并結合多特征融合[4?5]、核直方圖[1?2]、背景加權[6]等方法減少背景干擾來提高目標特征的描述能力。移動機器人在交互過程中攝像頭會發生轉動和移動,即使目標靜止不動,目標在相鄰時刻的2幀圖像中的位置可能變化很大,并且由于人體的表觀特征(如頭部、軀干等)比較相似,移動機器人在多人環境下跟蹤特定的人容易受到周圍人的影響。因此,不能以上幀的目標位置作為起始位置搜索局部最優值,需要在搜索前對目標進行全局定位才能夠提高粒子濾波和均值偏移等方法的跟蹤效果。虞旦等[7]使用卡爾曼濾波補償攝像頭運動造成目標在像平面的偏移,并結合均值偏移實現對人體的跟蹤,但是在建模時需要將機器人的運動一起考慮進去,比較復雜。JUNG等[8]通過匹配特征點,求出相鄰時刻2幅圖像的仿射變化矩陣,補償攝像頭自身運動造成的目標在圖像上的偏移,然后使用粒子濾波跟蹤運動目標。張笑微等[3]先使用灰度圖像模板獲取目標在當前幀的大致位置之后,以該位置為中心,均勻選取4個粒子進行均值偏移,使每個粒子通過收斂到局部的極值點,然后通過粒子加權的方法得到最終目標位置。江曉蓮等[9]將視覺顯著性和Wang?Landau蒙特卡羅采樣方法結合起來,提高全局采樣的效率。近幾年在線學習和基于上下文的跟蹤方法也逐漸發展起來。CERMAN等[10]提出的“Sputnik Tracker”通過學習能夠識別與目標物體黏著運動的區域,通過這些區域提供目標的位置信息,克服遮擋以及外觀突變等問題;YANG等[11]利用在一個較短的時間段內和目標保持一致的運動關系輔助物體(auxiliary objects)提供目標的位置信息,從而提高跟蹤效果。GRABNER等[12]提出了支持者(supporters)的概念,從圖像中抽取出在物體表面并且和目標的運動有較高相關性的特征點,通過這些局部特征來投票確定目標的位置。DINH等[13]首先尋找所有和目標相似的區域(distracters),然后在目標周圍尋找有用的信息(supporters)避免錯誤跟蹤到相似區域。文獻[10?13]用特征點計算目標位置,要求這些特征點在一定時間周期內和目標具有運動相關性,需要記錄1個時間段內特征點的信息并分析它們和目標之間的運動關系來確定是否還有效,計算量相對比較大,并且在1個時間段內和目標保持一致運動關系的特征點比較難找。本文作者將圖像中和所有和目標相似的區域(即文獻[13]中的Distracters)定義為候選區域。針對攝像頭移動導致目標在相鄰2幀之間的位置變化較大以及存在多個候選區域的情況,首先利用目標周圍特征點的信息預測目標的位置,然后用改進的融合均值偏移的粒子濾波方法來獲取候選區域,根據候選區域和預測目標位置的距離計算每個候選區域的距離權重,將加權后相似度最高的候選區域作為跟蹤結果,提高現有跟蹤算法的跟蹤效果。

1 目標定位算法

移動機器人在運動過程中拍攝回來的圖像一般只有平移和縮放的變化,較少有旋轉的變化。每個特征點和它周圍的特征點存在著固定的相對位置關系,根據上一時刻圖像特征點和目標的位置關系以及當前圖像中匹配的特征點位置,可以估算當前幀的目標位置。

在特征點檢測、描述以及匹配方面前人已經進行了大量的研究[14?16],本文作者在前人研究的基礎上,針對估算目標位置的需求,在特征點的選擇、描述以及匹配方法上進行相應改進。為描述方便,下文將上一時刻(?1時刻)的圖像稱為模板圖像,將當前時刻(時刻)的圖像稱為觀測圖像。

1.1 獲取特征點

采用ROSTEN等[16]提出的快速特征點檢測方法來獲取原始特征點。為了減少計算量,只在模板圖像的目標周圍檢測特征點。定義模板圖像的特征點檢測范圍m是以目標中心為中心的矩形區域。為了保證能在觀測圖像中找到模板圖像的部分特征點,將檢測范圍以目標中心為中心平均劃分為上、下、左、右4個矩形子區域,并保證每個子區域都有一定數量的特征點。特征點數量太少容易導致找不到匹配的特征點,數量太多又影響運算速度,因此,檢測范圍m是根據上一時刻匹配的特征點數量f動態變化的,當匹配的特征點數量f少于閾值nf時,則增大m,否則減小m,其變化如下式所示:

式中:m()為時刻模板圖像的特征點檢測范圍;為時刻模板圖像的特征點檢測范圍。

相鄰特征點的特征相似而且對目標位置預測的貢獻接近,因此,在1個范圍內只選擇1個特征點作為代表。定義以1個特征點為中心,半徑為mp的圓形區域作為代表特征點范圍,在該范圍內的其他特征點則忽略不用。

類似地,用相同的方法在觀測圖像中檢測代表特征點。不同之處在于:由于不確定目標在觀測圖像中的位置,因此,需要檢測觀測圖像所有的特征點。設觀測圖像的代表特征點范圍半徑為-op。

1.2 特征點模型

為了描述簡便,以下將“代表特征點”簡稱為“特征點”。以特征點為中心,邊長為f的正方形區域來描述特征點,借鑒文獻[1?2]的粒子濾波和均值偏移方法中通過特征集合描述目標模型和候選目標模型的方法,將在模板圖像中的特征點模型定義為目標特征點,其模型定義為

類似地,將觀測圖像中需要和目標特征點匹配的特征點定義為候選特征點,中心為的候選特征點模型定義為

在本文中,使用HSV顏色直方圖描述模型的特征,設表示候選特征點的中心,目標特征點和候選特征點的相似度使用Bhattacharyya系數來衡量,可表示為,其計算方法為

1.3 匹配特征點

將模板圖像中的特征點及其匹配的觀測圖像特征點稱為1對“匹配特征點對”。1對匹配特征點對包括它在模板圖像中的特征點和觀測圖像中的特征點。模板圖像中第個特征點在圖像上的位置表示為,和分別是在模板圖像上的坐標和坐標;觀測圖像中第個特征點在圖像上的位置表示為,和分別是在觀測圖像上的坐標和坐標。按上節所述方法分別對每個特征點建立特征模型。設mmo是模板圖像的特征點與觀測圖像特征點匹配的相似度閾值,若2個特征點的相似度大于閾值mmo,則認為2個特征點有可能匹配,可以將其作為候選的匹配特征點。由于有的特征點在觀測圖像中存在多個相似度超過閾值mmo的特征點,甚至真正匹配的特征點相似度低于其他特征點,因此,還需要篩選候選的匹配特征點。

每個特征點和它周圍的特征點存在著一定的相對位置關系,即若已經準確匹配出m對特征點,則對于某個特征點來說,它和這m對特征點的相對位置關系接近,可以利用特征點之間的相對角度和距離來實現特征點的匹配[14?15]。在本文提出的特征點匹配方法中,除了特征點的相似度要超過閾值mmo之外,還要求2個特征點在模板圖像中的相對位置和在觀測圖像中的相對位置相同。

用模板圖像和觀測圖像中2對特征點的相對位置誤差來描述他們之間的匹配程度,第對特征點f和第對特征點f的相對位置誤差定義為(f,f),其計算方法為

1.4 估計目標位置

圖1所示來自公共數據集CAVIAR[17]的ThreePastShop1cor視頻。圖1中未標號的圓點為沒有匹配成功的特征點,圓點1~10是匹配的特征點。在模板圖像中,直線的交點處是目標中心位置,直線代表了特征點和目標的位置關系;在觀測圖像中,直線的交點位置是根據特征點位置關系計算出來的目標位置。匹配的特征點包含靜態背景特征點和隨動背景特征點2種。

1) 靜態背景特征點:這些特征點在圖像中的相對位置不會發生變化,一般分布在靜態背景中,如特征點1~7。利用靜態背景特征點和目標的相對位置關系可以計算出模板圖像目標位置在觀測圖像中的相應位置。

2) 隨動背景特征點:在模板圖像和觀測圖像中存在一些和目標保持著一致運動關系的特征點,這些特征點可能分布在與目標相連接的區域,如特征點10;也可能分布在和目標相對獨立的運動物體上,如特征點8和9。利用隨動背景特征點可以計算出觀測圖像中目標所在的位置。

通過背景特征點估算目標的位置使起始搜索位置接近目標位置,粒子有效地分布于目標分布峰值區域,可以提高粒子濾波、均值偏移等方法的跟蹤效率,而且只使用上1幀特征點和目標信息,方法相對簡單而且計算量小。

在通過式(5)獲得對匹配的特征點中,根據第對特征點估算出目標位置表示為

在匹配的特征點集合中,對于位置誤差總和越小的特征點對,和它相對位置發生變化的特征點數量最少,用它來估計位置的可靠性更高,而相對位置誤差越大的特征點,和它相對位置發生變化的特征點越多,則用它來估算位置可靠性更高,因此,每個特征點對估算目標位置的權重不同。特征點估算位置的權重用高斯函數表示為

2 跟蹤算法

2.1 改進的融合均值偏移的粒子濾波方法

粒子濾波算法包括初始化粒子集、重要性采樣/序貫重要性采樣、更新粒子權值、重采樣以及狀態輸出等幾個基本部分。常見的融合均值偏移的粒子濾波方法是在粒子采樣過程中先將粒子均值偏移到局部極值點,然后再通過粒子加權的方法得到最終目標位 置[1, 3]。本文在粒子采樣階段和狀態輸出階段進行如下改進。

粒子采樣階段的改進說明如下:由于目標周圍還存在其他的候選區域,因此,很難通過簡單特征對目標進行粗定位,然后在定位位置周圍放置粒子[3]。用矩形框來描述粒子,表示粒子的中心位置,矩形框的寬度和高度分別表示粒子寬度和高度。粒子的模型和1.2節特征點的模型描述方式相同。設粒子在方向上的變化幅度為,粒子在方向上的變化幅度為,則粒子的分布范圍是寬為,高為的矩形區域。在粒子分布范圍內均勻分布粒子,并且相鄰粒子中心在方向的距離等于粒子寬度,在方向上的距離等于粒子的高度,即保證在當前幀目標的中心位置在上一幀目標所覆蓋的區域時,Bhattacharyya系數的局部最大值可以使均值偏移方法可靠地收斂到目標位置[2]。

狀態輸出階段的改進說明如下:當目標周圍存在其他的候選區域時,粒子經過均值偏移之后,有可能收斂到各個局部峰值位置,不同方向粒子進行加權運算時會相互抵消,造成跟蹤精度下降。因此,在每個粒子通過均值偏移運算收斂到局部極值點后,根據粒子的分布位置將這些粒子劃分為若干個代表候選區域的粒子子集。通過粒子子集中的粒子加權得到若干個候選區域之后,根據候選區域和起始位置的距離對候選區域的相似度進行加權,距離起始位置越近的候選目標權重越大,本文以高斯函數作為核函數對相似度進行加權。最后選擇相似度最高的候選區域作為目標。

將粒子劃分到相應候選區域的粒子集的方法說明如下:從粒子集中選擇權值最高的粒子作為1個候選區域的中心,設以該中心為中心,半徑為目標外接圓半徑1.2倍的圓作為粒子集的粒子分布范圍。將范圍內的粒子都劃分在這個候選區域的粒子子集中,然后依次從未劃分到候選區域的粒子中選擇權值最高的粒子作為新的候選區域的中心,將在分布范圍內的粒子劃分到這個候選區域的粒子子集中。重復上述步驟,直到所有的粒子都被劃分到相應的候選區域的粒子集中為止。

2.2 跟蹤算法流程

通過局部背景特征點估算目標位置,再以該位置作為起點搜索目標,利用的粒子濾波方法對存在多個候選區域的圖像進行跟蹤,流程歸納如下。

步驟1:手動選定目標區域,按2.1節所述的方法建立目標模型,將當前圖像作為模板圖像分別按1.1節和1.2節的方法檢測模板圖像中的特征點和建立特征點模型。

步驟2:獲取下1幀圖像作為觀測圖像,估算目標的位置。分別按1.1節和1.2節的方法檢測觀測圖像中的特征點和建立特征點模型;按1.3節的方法匹配特征點;再按1.4節的方法估算目標位置。

步驟3:以步驟2估算的目標位置為中心,按2.1節的方法跟蹤目標。

步驟4:以觀測圖像作為模板圖像,以步驟3得到的目標作為當前的目標,跳轉到步驟2。

3 實驗結果及分析

本算法實驗的運行環境為Windows7系統,Intel Core i7?2670QM處理器(主頻2.2 G),內存為3 G,基于開源圖像處理工具EmguCV在VS2010平臺上使用C#進行算法開發。以文獻[1, 3]中融合均值偏移的粒子濾波方法作為基本跟蹤算法,簡稱為“BT”方法,將本文研究的結合定位的跟蹤算法稱為“LBT”方法。選擇具有多候選區域的室內外環境圖像序列進行實驗,首先在各個圖像序列中選擇2幀圖像作為模板圖像和觀測圖像,對基于局部背景特征點的定位在跟蹤中的作用進行分析,然后對“BT”和“LBT””法的跟蹤結果進行對比分析,最后對定位方法的性能進行分析。

3.1 跟蹤結果分析

實驗1的圖像來自公共數據集“Videos for Head Tracking”[18]的seq_villains1序列;實驗2的圖像來自自己拍攝的視頻數據;實驗3和實驗4的圖像分別來自公共數據集TLD[19]的pedestrian2和carchase序列。為了公平比較2種方法的運行時間,控制“BT”方法中粒子的分布范圍滿足能夠覆蓋到目標的要求而不至于因為粒子數太多而影響效率。粒子在方向上的變化幅度,在方向上的變化幅度;而對于“LBT”方法,粒子方向上的變化幅度,在方向上的變化幅度。此外,“LBT”算法的其他參數設置如下:模板圖像代表特征點范圍的半徑;觀測圖像代表特征點范圍的半徑;初始時刻()模板圖像的特征點檢測范圍為目標尺寸的4倍;匹配特征點數目的閾值;描述特征點區域的正方形邊長;特征點匹配的相似度閾值,候選區域權重高斯核函數的標準差為0.7;特征點估算目標位置權重函數的標準差。

在實驗結果圖2~5中,不同圓點、直線以及它們交點的含義和圖1相同。在每幅圖中,子圖(a)的矩形框是目標區域;子圖(b)中矩形框是“LBT”方法得到的目標區域;子圖(c)中的矩形框是“BT”得到的目標區域;子圖(d)是觀測圖像中目標區域的Bhattacharyya相似度分布圖,計算公式如式(2)所示。

(a) 模板圖像;(b) LBT方法跟蹤結果;(c) BT方法跟蹤結果;(d) 相似度分布圖

第1組實驗選擇的觀測圖像右邊的人臉更接近于圖2(a)中目標的位置。圖2(b)和圖2(c)的矩形區域是2個候選區域。根據“LBT”方法,首先根據特征點對目標進行定位,得到的位置如圖2(b)中直線的交點所示,接近圖2(b)的候選區域,該候選區域具有最高的權重,因此能夠準確跟蹤到目標;而對于“BT”方法,如圖2(c)所示,由于觀測圖像中右邊的人臉位置更接近于模板圖像中目標的位置,因此,錯誤地跟蹤到右邊候選區域。

第2組實驗圖像中存在3個和目標相似的區域,并且相似度接近,如圖3(d)所示。圖3(b)和圖3(c)所示的矩形區域是2個被檢測出來的候選區域。經過背景特征點定位之后,定位位置接近圖3(b)區域的位置,因此,它具有較高的權重,在2個候選區域與目標的相似度都接近的情況下,“LBT”方法能夠準確跟蹤到目標。而對于“BT”方法,由于觀測圖像中右邊的人臉位置更接近于模板圖像中目標的位置,因此,錯誤地跟蹤到右邊候選區域。

(a) 模板圖像;(b) LBT方法跟蹤結果;(c) BT方法跟蹤結果;(d) 相似度分布圖

第3組實驗的圖像為戶外環境,背景顏色單一,不利于尋找特征點,特征點主要分布在3個行人以及他們的影子上。選擇中間行人的影子作為目標,如圖4(d)所示,3個影子和目標的相似度都比較接近。在“LBT”方法中,用于定位的特征點分布在行人及其影子上,由于行人和他們的影子在2幅圖像中保持著接近的運動關系,把它們都看作是隨動背景特征點,通過特征點估算出來的位置接近真實目標的位置,該位置的候選區域具有較高的位置權重,因此,“LBT”方法能夠準確跟蹤目標。而對于“BT”方法,由于觀測圖像中左邊的影子位置更接近于模板圖像中目標的位置,在相似度接近時,跟蹤結果會向左邊的人影偏移,導致“BT”方法跟蹤誤差較大。

(a) 模板圖像;(b) LBT方法跟蹤結果;(c) BT方法跟蹤結果;(d) 相似度分布圖

第4組實驗的目標為正在行駛的車輛,如圖5(d)所示,與目標相似度高的區域較多。在“LBT”方法中,用于定位的特征點分布在目標周圍的車輛及其影子上,是隨動背景特征點,通過特征點估算出來的位置接近真實目標的位置,該位置的候選區域具有較高的位置權重,因此,“LBT”方法能夠準確跟蹤目標。而對于“BT”方法,由于粒子分布在不同的候選區域上,加權之后不同方向的粒子作用相互抵消,導致估算出來的目標位置在2個候選區域之間,跟蹤誤差較大。

(a) 模板圖像;(b) LBT方法跟蹤結果;(c) BT方法跟蹤結果;(d) 相似度分布圖

定性分析完“LBT”方法中基于局部特征點定位在跟蹤中的作用,以下以上述4個圖像序列分別用“LBT”和“BT”方法進行試驗,對比跟蹤誤差和跟蹤時間。“BT”方法獲得的目標中心與真實目標中心的歐式距離稱為基本跟蹤誤差,平均基本跟蹤誤差用表示,最大基本跟蹤誤差用表示;“BT”方法跟蹤目標的時間為基本跟蹤時間,平均基本跟蹤時間用表示,最大基本跟蹤時間用表示;“LBT”方法獲得的目標中心與真實目標中心的歐式距離稱為跟蹤誤差,平均跟蹤誤差用表示,最大跟蹤誤差用表示;“LBT”方法跟蹤所用的時間為跟蹤時間,平均跟蹤時間用表示,最大跟蹤時間用表示;結果如表1所示。

表1 跟蹤結果

從表1可以看出:“LBT”方法通過背景特征點定位之后,跟蹤誤差小于“BT”方法的跟蹤誤差,而且從上面4組實驗的分析可知“BT”方法容易因為分布在其他候選區域上粒子的影響而錯誤跟蹤到非目標區域。在跟蹤時間方面,由于“LBT”方法能夠根據背景特征點定位出目標的位置,可以縮小搜索范圍,可減少粒子數量,所以,在不同環境和不同圖像尺寸的圖像序列中,跟蹤時間相差不大。而對于“BT”方法,跟蹤時間受粒子數量以及粒子均值偏移迭代次數的影響,為了適應攝像頭移動導致目標在相鄰2幀之間的位置變化較大的情況,粒子的采樣范圍需要增大到可以覆蓋到目標位置,因此,“BT”需要粒子的數量大于“LBT”方法。雖然“LBT”方法增加了一個用局部特征點定位和劃分候選區域的過程,但通過正確對目標粗定位,降低了跟蹤誤差和跟蹤時間。

3.2 目標定位算法性能評估

通過以上實驗分析,在“LBT”方法中,目標定位的性能起到關鍵的作用,接下來通過測試大量不同場景的圖像序列對定位時間與精度進行評估。序列1至4的圖像來源分別與實驗1~4的來源相同,序列5的圖像來自公共數據集“SPEVI”[20],序列6的圖像來源是CAVIAR數據集[17]的ThreePastShop1cor視頻。在原始圖像序列中,挑選背景變化較大的圖像重新組成測試圖像序列,然后依次選擇相鄰2幀分別作為模板圖像和觀測圖像進行測試,實驗參數與3.1節的參數相同。通過匹配特征點計算出來的位置和真實目標位置的誤差稱為定位誤差,對定位算法的評估指標分別為平均定位誤差、最大定位誤差、平均定位時間和最長定位時間。結果如表2所示。

表2 定位算法的統計數據

由于模板圖像中特征點只分布在目標周圍并且維持著一定的數量,“LBT”方法的定位時間并不完全與圖像尺寸成正比,當觀測圖像特征點比較少并且與模板圖像特征點相似度高的特征點數量少時,定位時間較短,如表2所示,序列2和序列3的圖像尺寸一樣,但序列3中背景顏色特征比較單一,檢出的特征點也較少,因此,定位時間也較短。

綜上所述,本文提出的基于局部背景特征定位的方法在各種場景下具有較高的定位精度以及實時性,除了與本文的改進的粒子濾波方法相結合外,還可以與現有的其他跟蹤算法結合提高跟蹤效果。

4 結論

1) 提出了一種基于局部背景特征點的目標定位和跟蹤方法。該算法首先利用相鄰2幀目標與周圍特征點的位置關系對目標的位置進行初步定位,然后以該位置為起點,利用均值偏移的方法將粒子偏移到和目標相似度高的位置,根據粒子的分布得到多個候選目標區域,最后根據候選區域和定位位置的距離對候選目標的相似度進行加權,將加權后相似度最高的候選區域作為跟蹤結果。實驗結果表明,融合了局部背景特征點定位的跟蹤方法能高效獲得目標的大致位置,結合對候選區域加權的方法,不僅能提高跟蹤效率,而且能避免相似區域的干擾。

2) 為了提高定位效率,模板圖像中檢測特征點的范圍是動態變化的。當特征點數量較少時,可能會出現找不到匹配的特征點或者是用錯誤匹配的特征點進行定位的問題,導致跟蹤失敗或者是定位時間增長。在未來的研究中將研究更有效的特征點選擇方法,從而使本方法適用于更多跟蹤場合。

[1] CHIA Y S, KOW W Y, KHONG W L, et al. Kernel-based object tracking via particle filter and mean shift algorithm[C]// 11th International Conference on Hybrid Intelligent Systems (HIS). Melacca: IEEE, 2011: 522?527.

[2] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564?577.

[3] 張笑微, 周建雄, 師改梅, 等. 融合結構信息的粒子濾波均值偏移跟蹤算法[J]. 計算機輔助設計與圖形學學報, 2008, 20(12): 1583?1589.Zhang Xiaowei, Zhou Jianxiong, SHI Gaimei, et al. Fusion of structural information in object tracking using particle filter and mean shift[J]. Journal of Computer-Aided Design & Computer Graphics, 2008, 20(12): 1583?1589.

[4] 侯志強, 黃安奇, 余旺盛, 等. 利用SIFT特征聯合匹配的非剛體目標跟蹤算法[J]. 系統工程與電子技術, 2015, 37(6): 1417?1423.HOU Zhiqiang, HUANG Anqi, YU Wangsheng, et al.Non-rigid object tracking based on joint matching of SIFT features[J].Systems Engineering and Electronics, 2015, 37(6): 1417?1423.

[5] 吳迪, 唐勇奇, 萬琴. 基于視覺場景復雜度多特征自適應融合的目標跟蹤[J]. 上海交通大學學報, 2015, 49(12): 1868?1875.WU Di, TANG Yongqi, WAN Qin.A novel adaptive fusion strategy based on tracking background complexity[J].Journal of Shanghai Jiaotong University, 2015, 49(12): 1868?1875.

[6] NING Jifeng, ZHANG Lei, ZHANG David, et al. Robust mean-shift tracking with corrected background-weighted histogram[J]. The Institution of Engineering and Technology Computer Vision, 2012, 6(1): 62?69.

[7] 虞旦, 韋巍, 張遠輝. 基于單目視覺的移動機器人跟隨[J]. 儀器儀表學報, 2010, 31(3): 659?664. YU Dan, WEI Wei, ZHANG Yuanhui. Person following of mobile robot using monocular camera[J]. Chinese Journal of Scientific Instrument, 2010, 31(3): 659?664.

[8] JUNG B, SUKHATME G S. Detecting moving objects using a single camera on a mobile robot in an outdoor environment[C]// 8th International Conference on Intelligent Autonomous Systems. Amsterdam, Netherlands: IEEE, 2004: 980?987.

[9] 江曉蓮, 李翠華, 劉鍇, 等. 基于視覺顯著性的Wang?Landau蒙特卡羅采樣突變目標跟蹤算法[J]. 廈門大學學報(自然科學版), 2013, 52(4): 498?505. JIANG Xiaolian, LI Cuihua, LIU Kai, et al. Abrupt motion tracking via saliency-based Wang?Landau Monte Carlo sampling[J]. Journal of Xiamen University(Natural Science), 2013, 52(4): 498?505.

[10] CERMAN L, MATAS J, HLAVA V. Sputnik tracker: having a companion improves robustness of the tracker[C]// 16th Scandinavian Conference on Image Analysis. Norway: Springer, 2009: 291?300.

[11] YANG Ming, WU Ying, HUA Gang. Context-aware visual tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(7): 1195?1209.

[12] GRABNER H, MATAS J, GOOL L V, et al. Tracking the invisible: learning where the object might be[C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR). San Francisco, CA, USA: IEEE, 2010: 1285?1292.

[13] DINH T B, VO N, MEDIONI G. Context tracker: exploring supporters and distracters in unconstrained environments[C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, USA: IEEE, 2011: 1177?1184.

[14] XIONG Zhen, ZHANG Yun. A novel interest-point-matching algorithm for high-resolution satellite images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(12): 4189?4200.

[15] 靳峰, 馮大政. 結合圖像信息和幾何關系的配準算法[J]. 華中科技大學學報(自然科學版), 2014, 42(2): 77?80. JIN Feng, FENG Dazheng. Past precise registration algorithm combining image information and geometric relations[J]. Journal of Huazhong University of Science and Technology(Nature Science), 2014, 42(2): 77?80.

[16] ROSTEN E, PORTER R, DRUMMOND T. Machine learning for high-speed corner detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 32(1): 105?119.

[17] CAVIAR. Context aware vision using image-based active recognition[EB/OL]. [2011?05?12]. http://groups.inf.ed.ac.uk /vision/CA VIAR/CAVIARDATA1.

[18] BIRCHFIELD S. Elliptical head tracking using intensity gradients and color histograms[C]// IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Santa Barbara, USA: IEEE, 1998: 232?237.

[19] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking- learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409?1422.

[20] SPEVI. Surveillance performance evaluation initiative[EB/OL]. [2014?03?10]. http://www.eecs.qmul.ac.uk/~andrea/spe vi.html.

Target location and tracking based on local background feature points

ZHANG Tie, MA Qiongxiong

(School of Mechanical & Automotive Engineering, South China University of Technology, Guangzhou 510641, China)

To solve the problems of multiple similar objects and camera motion in target tracking, a method of target location and tracking was proposed based on local background feature points. Firstly, a target position was predicted by considering the position relation between the target and the matched feature points surround target of previous image. Then candidate objects were searched starting from the predicted position by combining particle filter and mean shift. Finally, the similarity of each candidate object was weighed by the distance between candidate object position and predicted position. The final target was the candidate object with the highest similarity. The results show that the proposed algorithm can track targets accurately in the presence of surrounding similar objects, and it possesses strong robustness and good real-time performance.

particle filter; mean shift; local background feature; target location; target tracking

10.11817/j.issn.1672-7207.2016.09.018

TP391

A

1672?7207(2016)09?3040?10

2015?09?20;

2015?12?02

廣東省省部產學研項目(2012B090600028);廣東省科技計劃項目(2011A091101001,2012B010900076);廣州市科技計劃項目(2014Y2-00014)(Project(2012B090600028) supported by the Industry?University?Research Project of Guangdong Province and Ministry of Education; Projects(2011A091101001, 2012B010900076)supported by the Science and Technology Planning of Guangdong Province; Project(2014Y2-00014) supported by the Science and Technology Planning of Guangzhou)

張鐵,博士,教授,博士生導師,從事機器人、機器視覺和智能控制等研究;E-mail: merobot@scut.edu.cn

(編輯 劉錦偉)

猜你喜歡
特征區域方法
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 丁香六月综合网| 91久久偷偷做嫩草影院免费看| 亚洲午夜福利在线| 人妻熟妇日韩AV在线播放| 怡春院欧美一区二区三区免费| 国产精品视频公开费视频| 一级黄色欧美| 亚洲成a人片在线观看88| 中文字幕亚洲综久久2021| 狠狠色综合网| 国产亚卅精品无码| 国产91色在线| 欧美精品亚洲精品日韩专区va| 欧美日韩精品在线播放| 国产一级小视频| 欧美区在线播放| 精品1区2区3区| 亚洲91精品视频| 久久黄色毛片| 久久成人18免费| 最新国语自产精品视频在| 久久成人18免费| 亚洲欧美成aⅴ人在线观看| 国产日韩久久久久无码精品| 激情乱人伦| 小蝌蚪亚洲精品国产| 国产成人你懂的在线观看| 国产99视频精品免费视频7 | 国产精品自在线拍国产电影 | 国产在线视频欧美亚综合| 91青青视频| 国产精品无码AV中文| 亚洲色图欧美一区| 毛片免费网址| 亚亚洲乱码一二三四区| 国产极品美女在线播放| 国产精品无码一区二区桃花视频| 国产精品美乳| 欧美亚洲国产一区| 亚洲乱码在线播放| 精品亚洲国产成人AV| 天堂av综合网| 亚洲成人高清在线观看| 久久大香伊蕉在人线观看热2| 欧美一级高清片久久99| 伊人久久大香线蕉综合影视| 国产原创演绎剧情有字幕的| 中文天堂在线视频| 亚洲欧美不卡视频| 国产一区二区福利| 91麻豆精品视频| 国产女人爽到高潮的免费视频| 欧美日韩v| 日韩欧美高清视频| 成人在线观看一区| 亚洲综合18p| 亚洲天堂2014| 欧美成人日韩| 国产一级片网址| 精品人妻AV区| 久久国产精品影院| 亚洲国产精品一区二区第一页免 | 国产噜噜噜视频在线观看| 无码在线激情片| 免费 国产 无码久久久| 精品欧美一区二区三区久久久| 天堂在线亚洲| 亚洲码一区二区三区| 国产女人18毛片水真多1| 国产无码高清视频不卡| 国产一区免费在线观看| 日本尹人综合香蕉在线观看 | 97狠狠操| 欧美中文一区| 亚洲无限乱码一二三四区| 伊人久综合| 69精品在线观看| 欧美综合一区二区三区| 久久久久国产精品嫩草影院| 国产麻豆精品久久一二三| 狠狠亚洲婷婷综合色香| 色综合成人|