999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自適應目標變化的時空上下文抗遮擋跟蹤算法*

2018-10-08 07:34:06范洪博
計算機工程與科學 2018年9期
關鍵詞:模型

張 晶,王 旭,范洪博

(昆明理工大學信息工程與自動化學院,云南 昆明 650500)

1 引言

目標跟蹤在計算機視覺領域是一個熱門話題,通過信息融合技術將不同種傳感器獲取的目標特征信息進行融合來實現場景中的目標跟蹤將越來越引起人們關注。目標跟蹤過程會受多種因素干擾,其中包括遮擋、環境光照變化、目標連續變化而導致的顏色、邊緣的相應變化。這些常見問題是目標跟蹤亟需解決的。近年來研究者針對這些問題提出了很多優秀的跟蹤算法,比如:多示例學習MIL(Multiple Instance Learning)算法[1]對當前跟蹤結果小鄰域采樣構成正包,在其大鄰域圓環內采樣構成負包進行多示例學習,從而獲得分類器進行目標判斷;改進的多示例學習IMIL(Improved Multiple Instance Learning)算法[2]根據壓縮感知理論設計隨機測量矩陣,然后利用多示例學習,后面的處理與MIL算法一致;快速壓縮跟蹤FCT(Fast Compressive Tracking)算法[3]是一種基于數據獨立的多尺度圖像特征空間的特征模型,稀疏的測量矩陣壓縮了前景目標和背景圖像,并不斷更新,最后通過貝葉斯分類器進行目標判斷;增量視覺跟蹤器IVT(Incremental learning for robust Visual Tracking)[4]在獲得當前幀之前若干幀跟蹤結果所構成的圖像空間條件下,對所得圖像空間進行主成分分析PCA(Principal Component Analysis)處理,獲得歷史跟蹤結果的均值和特征向量,構成特征子空間,每5幀更新一次,并將粒子濾波確定的候選模型送入特征空間,計算其與特征子空間中心的距離,輸出距離最優者;視覺跟蹤分解VTD(Visual Tracking Decomposition)算法[5]將基本的觀測模型和基本的運動模型聯系起來,設計多個基本跟蹤器,然后將所有的基本追蹤器都集成到一個復合跟蹤器中,在這個框架中,基本跟蹤器在并行運行的同時進行交互。通過與其它跟蹤器交換信息,每一個跟蹤器進一步提高性能,從而提高了跟蹤的整體性能;基于盒粒子濾波的群目標跟蹤Box-PF(group targets tracking algorithm based on Box Particle Filter)算法[6]是一種基于廣義似然加權方法改進的粒子濾波算法,利用廣義似然函數的定積分來計算區間測量中粒子的權重,提出了一種基于方框粒子濾波的群跟蹤算法;TLD(Tracking-Learning-Detection)[7]將傳統跟蹤算法和傳統檢測算法相結合,同時,通過一種改進的在線學習機制不斷更新跟蹤模塊的“顯著特征點”和檢測模塊的目標模型及相關參數,從而使得跟蹤效果更加穩定、魯棒、可靠。但是,為了達到跟蹤的魯棒性,近年來研究者引入了時空上下文的思想,將時間上下文環境與空間上下文信息結合進行跟蹤,提出了時空上下文STC(Spatio-Temporal Context)算法[8]。

許多學者對時空上下文算法進行了研究并提出了很多改進,文獻[9]提出了干擾項和有貢獻區域的定義,在此基礎上進一步細化上下文結構。文獻[10]根據上下文不同區域與目標區域運動的相似性,對目標周圍的灰度信息賦予不同的權值,增加算法的抗干擾能力。文獻[11]利用在線結構化支持向量機建立物體間的空間約束信息模型來提高跟蹤的準確性。文獻[12]提出了抗遮擋機制,將上下文區域分塊并基于顏色的相似度來判定目標是否被遮擋,遮擋后采取分塊匹配來定位目標的位置。文獻[13,14]提出將核粒子濾波KCF(Kernerlized Correlation Filters)算法輸出框進行保守相似度計算,對相似度低的輸出框進行檢測器檢測,檢測到單一聚類框再輸出。

文獻[9,10]提出的算法不具有抗遮擋機制,而文獻[12]提出的算法采取了顏色直方圖相似度進行遮擋判斷,準確率不高,文獻[13,14]在一些復雜情景中,對于檢測器檢測到的多個候選目標,卻不做輸出,降低了算法的跟蹤成功率。以上算法都存在目標跟蹤過程中輸出窗口長期不變的問題,因此為了適應目標大小變化,解決STC算法跟蹤失敗問題,本文結合TLD框架思想提出一種自適應目標變化的時空上下文抗遮擋跟蹤算法STC-ALD(Anti-occlusion and adaptive target change visual tracking algorithm based on Spatio-Temporal Context)。初始化跟蹤點并進行中值流跟蹤算法,預測下一幀跟蹤點位置,同時計算STC算法得到的目標框的保守相似度,超過設定閾值即認為跟蹤有效,然后將跟蹤點與STC前后輸出框的中心像素進行運動相似度計算[10],對運動相似度高的跟蹤點進行窗口調整后輸出。相反地,跟蹤判定為無效就利用檢測器進行檢測,對檢測到的單一聚類框直接輸出結果,直接輸出,而對多個聚類結果,目標很有可能是其中的一個,本文算法將逐個計算其時空上下文模型并利用當前空間模型計算置信度,最終將置信值最大的聚類框作為目標輸出。

2 時空上下文視覺跟蹤

STC算法基于貝葉斯框架,在當前幀確定上下文集合:Xc={c(z)=(I(z),z)|z∈Ωc(x*)},其中x*是目標區域中心,I(z)是目標區域像素z的灰度值,Ωc(x*)是由目標矩形確定的局部上下文區域的圖像灰度與位置的統計建模。通過一些基本的概率公式,計算置信度找到似然概率最大的位置,即為跟蹤結果。

置信度公式為:

(1)

其中,x和z表示像素坐標,P(x|c(z),o)是目標o與局部上下文區域空間關系的條件概率,P(c(z)|o)是局部上下文各個點x的上下文先驗概率。

P(c(z)|o)上下文先驗模型在STC算法進行以下計算:

P(c(z)|o)=I(z)ωσ(z-x*)

(2)

(3)

其中,ω′是歸一化參數,取值為[0,1],σ是一個尺度參數,σ2是高斯函數方差,ωσ(z-x*)是區域中心加權的高斯函數,區域中心像素貢獻大,區域邊緣像素貢獻小。

在STC算法中將P(x|c(z),o)稱為空間上下文模型,定義為:

P(x|c(z),o)=hsc(x-z)

(4)

公式(1)中置信函數c(x)在STC算法中計算如下:

(5)

其中,b是歸一化參數,a是尺度參數,β是目標形狀參數。將公式(2)和公式(5)代入公式(1)得:

(6)

而為了加快STC算法的運行速度,將公式(6)兩邊進行快速傅里葉變換,得空間上下文模型為:

(7)

空間上下文模型更新成時空上下文模型為:

(8)

其中,ρ為模型更新的學習率。

公式(1)~公式(7)均來自文獻[8]。

具體STC算法跟蹤過程概括如下:

(1)在t幀,將選定的目標計算其置信度,以及計算得到上下文先驗模型。

(2)計算當前幀空間上下文模型。

(4)利用t幀的Ωc(x*)區域在t+1幀計算上下文先驗模型。

(5)根據公式(1)、公式(6),已知t+1幀的上下文先驗模型以及空間上下文模型,利用公式(6)計算其置信度。

(6)將t+1幀得到的置信度最大點,做為目標在t+1幀的位置,隨后返回第一步繼續計算下一幀。將每一幀的置信度的極值點作為目標位置輸出。

3 自適應目標變化的時空上下文抗遮擋跟蹤算法

3.1 跟蹤點與STC前后輸出框運動相似度計算

傳統的TLD算法采取中值流跟蹤算法,對跟蹤點進行F-B(Forward-Backward)誤差消除,此算法在文獻[15]已經詳細介紹,本文就不再闡述。但是,實驗發現直接利用F-B誤差消除錯誤跟蹤點,利用剩下的跟蹤點集進行目標尺度變化分析是不準確的。如圖1所示,左側白色點表示經過F-B誤差消除后的剩余跟蹤點,黑色線條表示跟蹤點位移向量。從圖中可以觀察到,在目標框中的跟蹤點有些處于遮擋物上,利用這些跟蹤點對目標尺度變化分析將帶來誤差。于是本文引入了跟蹤點與STC前后輸出框的中心像素運動相似度計算方法,一旦相似度值大于閾值,即為可靠跟蹤點,利用這些跟蹤點進行目標尺度分析具有很高的準確性。

Figure 1 Tracking point once removed and that compared to the two erasure圖1 跟蹤點一次消除與兩次消除的效果對比圖

(9)

(10)

最后,將每個跟蹤點與目標中心像素的距離轉換成一種權值,即相似度,公式如下[10]:

(11)

3.2 目標尺度變化的窗口調整

(12)

s1=λ*(MS-μ)*wt-1,

s2=λ*(MS-μ)*ht-1,

wt=wt-1*MS,

ht=ht-1*MS,

xt=xt-1+MDx-s1,

yt=yt-1+MDy-s2

(13)

其中,λ,μ為尺度參數,wt-1,wt,ht-1,ht為第t-1、第t幀目標的矩形框的長、寬,(xt-1,yt-1),(xt,yt)為第t-1、第t幀的目標矩形左上角坐標。

即經過兩次消除錯誤跟蹤點后,利用可靠跟蹤點分析目標尺度變化,并輸出具體目標矩形{(xt,yt),wt,ht}。

3.3 STC-ALD算法的時空模型更新

(14)

Figure 2 STC-ALD algorithm learning process of the spatial context model for target scale expansion圖2 STC-ALD算法對目標尺度擴展的空間模型學習圖

3.4 算法流程

綜上所述,自適應目標變化的時空上下文抗遮擋跟蹤算法具體流程如下:

(1)初始化跟蹤框。

(2)檢測器的學習。

(3)采取TLD中值流算法初始化跟蹤點以及利用目標與局部區域的時空關系學習時空上下文模型,與上下文先驗模型計算置信度,得到STC算法在下一幀的目標框,同時對初始跟蹤點采取金字塔光流法來預測下一幀的跟蹤點位置。并采取3.1節的方法進行相似度計算,同時計算STC的目標框的保守相似度。

(4)若步驟(3)的保守相似度值大于0.5,則將跟蹤點進行窗口調整并輸出。小于0.5就根據檢測器的檢測結果,對檢測到的單一聚類框直接輸出。而對多個聚類結果,目標很有可能是其中的一個,利用當前空間模型逐個計算其置信度,將置信度值最大的聚類框作為目標輸出。

(5)學習與更新:本文算法對檢測器參數在線學習和更新與TLD算法一致,而對于STC算法的時空模型更新采取的是3.3節的方法。

(6)跟蹤下一幀,返回步驟(3)。

算法框圖如圖3所示。

Figure 3 Tracking flow chart of the STC-ALD algorithm 圖3 STC-ALD算法跟蹤流程圖

4 實驗結果

為驗證STC-ALD算法的魯棒性,本文對STC、STC-ALD進行實驗對比驗證,除了原始的STC算法外,還挑選了上文提到的TLD算法,這些算法均有公開的C++代碼。而實驗的視頻資源來自吳毅老師發表的目標跟蹤評測文獻[16]提到的評測視頻庫,保證了實驗的可信度。

本文算法是在STC公開的多尺度C++代碼上改寫的,主要增加了目標尺度變化分析以及目標檢測過程。因STC算法計算速度快,而本文在此基礎上增加了基于金字塔稀疏光流算法以及位移向量相似度判斷,以及跟蹤判定失效利用檢測器檢測,對多個聚類框進行逐個置信度計算,故STC-ALD算法的實時性不會很低,具體算法運行速度將在4.2節給出。本文的實驗環境為:Intel(R) i5-4590 3.30 GHz處理器、8 GB內存,軟件環境為:Windows 7+VS2013+OpenCV。本文實驗對CarScale,David,Boy,FaceOcc2,Sylvester視頻序列直接采用評測文獻[16]中提供的 Ground truth 以及初始框的位置與大小,實驗序列包括目標旋轉、遮擋、形變,快速運動等挑戰條件來驗證本文算法的魯棒性,實驗視頻序列描述如表1所示。

Table 1 Video sequence description of the experiment表1 實驗視頻序列描述

4.1 實驗參數

在實驗過程中,STC-ALD算法提到的參數設置如下:公式(5)參數α=2.25,β=1,公式(8)參數ρ=0.075,與原STC算法是一致的,而本文提出的公式,如公式(11)的參數γ=4,與文獻[10]中的一致,公式(13)的參數λ=0.5,μ=1,與TLD算法公開源碼中的參數一致。

4.2 實驗結果

本文采取了跟蹤重疊率這一評判標準進行評測,跟蹤重疊率定義為R=Area(Os∩Og)/Area(Os∪Og),其中Os是跟蹤器輸出的目標框,Og是目標真實大小框。∩、∪表示兩種框之間的交集與并集,Area(·)表示面積大小。5個測試視頻序列的跟蹤重疊率如圖4所示。圖5~圖8給出了具有代表性的跟蹤結果截圖。本文也給出了平均跟蹤精度,即平均中心位置誤差CLE(Center Location Error)以及跟蹤成功率,跟蹤重疊閾值取0.5。

Figure 4 Overlapping rate of the video sequence to be tested圖4 測試視頻序列的跟蹤重疊度圖

Figure 5 Tracking of scale changes圖5 尺度變化的跟蹤情景

Figure 6 Occlution圖6 遮擋情景

Figure 7 Scale variation 圖7 旋轉情景

Figure 8 Fast-moving (Test sequence of Boy)圖8 快速移動(測試序列Boy)

具體結果如表2和表3所示。而表4給出了在5個測試視頻中的平均幀率。

Table 2 Average center location error表2 平均中心位置誤差 像素

Table 3 Success rate of tracking表3 跟蹤成功率 %

Table 4 Average frame rate表4 算法平均幀率 (f/s)

4.2.1 目標尺度變化

從圖4的David視頻跟蹤重疊率結果圖可以看出,初始階段本文算法與TLD算法出入不大,因目標尺度變化不明顯,顯著跟蹤點兩次消除與TLD算法的一次消除后的跟蹤點基本一致。但是,在中期階段,即視頻序列#201~#488的時間段,目標發生靠近鏡頭、自身轉動等尺度變化,很明顯傳統STC窗口不變的結果不是最優的。同時,因為TLD算法將目標框內背景上的跟蹤點也進行尺度變化計算,就導致了窗口調整過度。如圖5的David測試序列#454,明顯看出白色虛線窗口縮小過度了,而采取本文的兩次消除方法,只對運動相似度高的跟蹤點進行尺度變化,計算準確很多,如淺黑色框所示。而從表2也可看出,本文算法較STC算法的平均中心位置誤差有所提高,與TLD算法差距也不大。從表3中可看出,本文算法的跟蹤成功率總體優于STC算法,與TLD算法差距不大。當目標發生尺度變化時窗口不自適應調整,不對具體目標上下文區域進行空間模型的學習將導致模型的學習不準確,比如目標縮小時,仍然一如既往采取同樣的上下文區域進行學習,這將導致學習了過多的非目標的灰度信息,從而導致追蹤失敗,如圖5的Sylvester測試視頻的#604。而從表2也可看出,Sylvester測試視頻中STC-ALD算法的平均中心位置誤差比STC算法的降低了接近70個像素,表示跟蹤準確性得到很大提高。同樣從表3也可看出,本文算法的成功率也有所提高。

4.2.2 目標遮擋

圖6的CarScale、FaceOcc2視頻序列出現了傳統STC算法發生跟蹤漂移現象,加入本文算法后的改進,在CarScale視頻序列,因目標一直處于靠近鏡頭的尺寸變化,而傳統STC算法跟蹤窗口不隨著目標變大而進行擴大化的調整,那么在空間模型學習過程中,就降低了超出上下文區域的目標灰度信息學習率,那么在這個變大的過程中,目標一旦受到遮擋干擾就很容易發生跟蹤漂移甚至跟蹤失敗現象,如圖6的CarScale視頻序列#168,而本文算法就能很好地解決這樣的問題,如圖6的CarScale視頻序列#191。再結合表2和表3中CarScale序列的結果,本文算法因抗遮擋成功,跟蹤的中心位置誤差優于STC算法,降低了接近80個像素,比TLD算法降低了接近90個像素,其成功率也是最優的;而在FaceOcc2視頻序列中,目標并未發生靠近或者遠離鏡頭的尺度變化,那么傳統STC跟蹤算法在目標未完全遮擋期間段,跟蹤效果很好,而本文算法是采取兩次消除錯誤跟蹤點,跟蹤效果與傳統STC算法出入不大,故中心位置誤差以及跟蹤成功率差距不大;而只采取一次消除錯誤跟蹤點的TLD算法,就存在目標遮擋時的錯誤調整,即受到遮擋物上跟蹤點的影響,錯誤地進行目標窗口調整,如圖6的視頻#141,#255,#493。在最終的遮擋過度情景,STC算法就發生了跟蹤漂移現象,但是,本文采取TLD檢測機制,在遮擋物與在線目標模型的保守相似度小于0.5后,利用上下文時空模型對檢測到的多個目標計算其置信度,輸出最大值,所以具有跟蹤恢復機制,如圖7第2行的視頻#812。

4.2.3 目標旋轉以及快速移動

Sylvester以及FaceOcc2視頻序列存在目標旋轉情況,而從圖7中Sylvester視頻序列的部分實驗截圖可以看出,STC-ALD算法在目標旋轉時仍然可以準確跟蹤,最終在視頻結束時的跟蹤情況也是最優的,如圖7第1行的視頻#1344。從表3可看出,其中心位置誤差比TLD算法還降低了幾個像素,即目標旋轉對本文算法影響不大。而對于快速移動的目標,如圖8中Boy測試視頻部分截圖,在視頻#510之后,STC跟蹤發生漂移現象,而本文算法具有跟蹤恢復機制,故可以持續跟蹤。從圖4的視頻序列跟蹤重疊率來看,本文算法也是最優的,同時結合表2的中心位置誤差來看,本文算法的成功率也較STC算法有所提高。

5 結束語

傳統時空上下文目標跟蹤算法存在兩個主要不足點:(1)目標發生尺度變化時跟蹤窗口長期固定;(2)目標丟失缺少跟蹤恢復機制。故本文提出一種自適應目標變化的時空上下文抗遮擋跟蹤算法(STC-ALD),該算法采取TLD算法框架思想,利用中值流算法初始化跟蹤點,其次預測下一幀跟蹤點位置并利用F-B誤差算法消除錯誤跟蹤點,并采取STC算法確定輸出框,計算其保守相似度,當保守相似度超過設定閾值即表示跟蹤有效,將跟蹤點與STC前后輸出框的中心像素進行運動相似度計算;然后利用運動相似度高的跟蹤點進行窗口調整并輸出,從而提高跟蹤的準確性。同時,當STC算法跟蹤失效時,就利用TLD檢測器進行檢測,對單一聚類框直接輸出,而對多個檢測聚類框逐個計算其置信度,輸出置信度值最大的聚類框。這樣的跟蹤恢復機制大大提高了跟蹤的持續性。最后,進行在線學習更新分類器的相關參數,提高檢測精度。大量實驗結果表明,本文的STC-ALD算法性能超過了STC和TLD算法,大大提高了跟蹤成功率和魯棒性。然而,本文算法只提取目標簡單的灰度信息進行學習和跟蹤,忽略了目標具有的顏色特征以及形狀特征,為了提高跟蹤的準確性,故接下來的研究重點是如何融合目標多種信息進行學習和跟蹤。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产亚洲精品无码专| 最新亚洲人成网站在线观看| 国产99免费视频| 亚洲黄色网站视频| 91精品国产麻豆国产自产在线| 天天婬欲婬香婬色婬视频播放| 婷婷中文在线| 亚洲福利片无码最新在线播放| 色偷偷综合网| 亚洲成人免费看| 免费人成网站在线观看欧美| 国产18在线| 亚洲AⅤ永久无码精品毛片| 91午夜福利在线观看精品| 亚洲视频黄| 国内精品视频区在线2021| 国产成人精品一区二区三区| 免费又黄又爽又猛大片午夜| 精品国产一二三区| 亚洲无线一二三四区男男| 国产精品嫩草影院视频| 国产在线小视频| 97视频在线精品国自产拍| 人妖无码第一页| 真实国产精品vr专区| 在线观看亚洲精品福利片| 91美女视频在线观看| 色欲色欲久久综合网| 国产午夜精品一区二区三| 在线看片中文字幕| 日韩精品成人在线| 国产成人精品在线1区| 中国成人在线视频| 伊人久久婷婷| 高清色本在线www| 成人福利在线免费观看| 在线另类稀缺国产呦| 欧美精品啪啪| a天堂视频| 亚洲最大福利网站| 精品视频在线观看你懂的一区| 久久久久国产一区二区| 精品三级网站| 国产午夜福利在线小视频| 国产在线观看精品| 国产亚洲欧美在线视频| 久久精品国产亚洲AV忘忧草18| 国产成人高清精品免费5388| 国产女人喷水视频| 午夜视频在线观看免费网站| 欧美视频免费一区二区三区| 婷婷综合色| 国产精品久久久久久久久kt| 国产美女丝袜高潮| 欧美精品v欧洲精品| 六月婷婷精品视频在线观看 | 呦视频在线一区二区三区| 久久semm亚洲国产| 二级特黄绝大片免费视频大片| 国产精品天干天干在线观看| 国产高清在线观看| 日韩av手机在线| 日韩精品成人在线| 亚洲精品少妇熟女| AV不卡国产在线观看| 老熟妇喷水一区二区三区| 亚洲天堂网2014| 99国产精品一区二区| 精品国产黑色丝袜高跟鞋| 久久国产成人精品国产成人亚洲| 福利片91| 亚洲水蜜桃久久综合网站 | 亚洲一区波多野结衣二区三区| 日韩东京热无码人妻| 国产成人精品三级| 欧美亚洲欧美区| 又爽又大又黄a级毛片在线视频 | 黄色网站在线观看无码| 天天综合色网| 国产精品嫩草影院av | 人妻中文久热无码丝袜| 狠狠色综合网|