999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

強化前景感知的相關濾波目標跟蹤

2023-10-29 04:21:00姜文濤徐曉晴
計算機與生活 2023年10期
關鍵詞:背景特征模型

姜文濤,徐曉晴

1.遼寧工程技術大學 軟件學院,遼寧 葫蘆島 125105

2.遼寧工程技術大學 研究生院,遼寧 葫蘆島 125105

在現代化數字城市中,目標跟蹤技術占據重要地位[1-6],在智能監控[7]、現代化軍事[8]和醫學圖像[9]等領域被廣泛應用。但實際生活場景較為復雜多變,這些不確定性給目標跟蹤帶來了極大的挑戰[10]。因此,實現較為魯棒的目標跟蹤仍是一項極具挑戰性的任務[11-13]。

相關濾波算法具有魯棒性強、速度快及精度高等特點,近年來得到了國內外廣泛的關注及應用。2010年,Bolme等[14]將信號處理領域的相關濾波方法引入到目標跟蹤領域,提出了最小輸出誤差平方和(minimum output sum of squared error,MOSSE)算法,該算法將計算轉換到頻域內,在頻域內快速學習并檢測,有效提高了跟蹤速度。2014 年,Danelljan 等[15]提出了判別型尺度空間跟蹤(discriminative scale space tracking,DSST)算法,增加了尺度濾波器,使獨立的尺度濾波器和位置濾波器分別學習,可以較好地應對尺度變化,提高了尺度自適應能力。隨后,Henriques等[16]將多通道的HOG(histogram of oriented gradients)特征引入,提出了著名的核相關濾波(kernel correlation filters,KCF)算法,算法通過核函數將非線性問題轉化為線性問題,有效提高了模型跟蹤的準確性。相關濾波算法采用循環移位策略進行采樣,使算法易受邊界效應影響。Danelljan等[17]在2015年提出了基于空間正則化的相關濾波(spatially regularized correlation filters,SRDCF)算法,在擴大檢測區域的同時,加入了空間正則化懲罰項,有效緩解了邊界效應。2016年,Bertinetto等[18]在DSST算法的基礎上融合了顏色直方圖特征,提出互補性實時跟蹤Staple算法,將相關濾波響應和顏色直方圖概率響應以固定權值進行融合,根據融合后的響應進行目標定位。隨后,Danelljan 等[19]提出了快速判別尺度空間跟蹤(fast discriminative scale space tracking,fDSST)算法,在DSST基礎上通過壓縮維數和線性插值方式,加快了算法的運算速度。2017 年,Galoogahi 等[20]提出了背景感知相關濾波(background-aware correlation filters,BACF)算法,該算法聯合背景信息,擴大循環采樣區域,剪裁出高質量樣本并增加其數量,有效提高了算法定位精度。2018年,Li等[21]提出了時空正則化相關濾波器(spatial-temporal regularized correlation filters,STRCF)算法,加入了時間正則項并在跟蹤過程中只使用上一幀的信息,大幅度提高了算法的精度及速度。2019年,Huang等[22]引入抑制跟蹤異常機制,提出了畸變抑制正則化相關濾波(aberrance repressed correlation filters,ARCF)算法,有效避免了由響應圖畸變造成的跟蹤誤差累計問題。2020年,Li等[23]提出了自動時空正則化跟蹤(automatic spatio-temporal regularization tracking,AutoTrack)算法,多特征訓練濾波器并自適應調整正則化參數,提高了跟蹤算法的魯棒性。2021年,Xu等[24]提出了自適應信道選擇判別相關濾波器(adaptive channel selection with discriminative correlation filters,ACSDCF)算法,通過衡量多通道特征的相關性進行通道的選擇,可以較好地應對目標變化。

以上相關濾波算法在各個方面都有不同程度的提高,但仍然存在著許多不足。當目標出現形變、快速移動、運動模糊、相似物干擾以及遮擋時,跟蹤效果不理想。大多相關濾波方法都是提取單特征進行匹配并且每一幀都進行模型更新,在復雜情況下跟蹤魯棒性較低。另外一些(如Staple)是將多特征以固定權值進行融合,在不同的跟蹤情況下并不一定是最優策略。本文針對以上問題提出了強化前景感知的相關濾波目標跟蹤,本文采用相關濾波器提取目標的梯度方向直方圖(HOG)特征并進行相關運算得到目標的相關濾波響應,同時將改進的顏色直方圖干擾感知模型[25]引入,通過加強前景和背景顏色直方圖差異部分使得前景像素更加顯著,并通過其干擾感知模型預測存在的相似干擾區域并抑制。再將相關濾波響應和顏色直方圖概率響應自適應加權融合,融合后的干擾感知響應圖中最大值位置即為目標位置,其融合權重通過利用顏色直方圖干擾感知模型計算目標區域內像素點為目標的概率均值控制。最后通過平均峰相關能量(average peak-to correlation energy,APCE)值[26]和最大響應值fmax設置高置信度判別條件,只有當兩者值都以一定比例高于其歷史均值時,認為目標跟蹤結果具有較高可信度,再通過計算幀差均值[27]判斷目標或背景的變化幅度,當變化較大時進一步通過計算前后幀間歐式距離[28]判斷是目標運動還是背景運動,最后針對不同情況設置相應的相關濾波模型更新學習率。

1 相關濾波器原理

fDSST算法是基于DSST的改進算法,在保障了算法魯棒性的前提下,對位置濾波器提取的HOG 特征采用主成分分析(principal component analysis,PCA)方法進行壓縮降維,同時采用插值運算,大大提升了跟蹤算法的實時性,從而本文選取此方法作為相關濾波部分的基算法。

首先,手動選取跟蹤目標的第一幀,循環采樣得到一系列目標樣本x(n)∈R(d),fDSST 算法對目標區域提取d維HOG 特征,記作x(l),l∈(1,2,…,d),l表示特征通道。通過構建最小化相關響應與期望輸出g之間的代價函數ε獲得最優相關濾波器h(l),目標函數如下:

式中,?為循環相關操作;g為高斯函數類型的期望輸出響應分數;λ為正則化參數,用于避免濾波器過擬合;h(l)、x(l)與g具有相同的大小及維數。

為了加速計算,將式(1)的線性最小二乘問題通過Parseval公式轉化到傅里葉域進行運算,求解最優相關濾波器H(l):

式中,H、G、X均表示其對應量的離散傅里葉變換(dis crete Fouriertransform,DFT),表示復共軛。首先將H(l)轉化為式(3)的分數形式,并采用如下更新策略:

為了提高算法的實時性,fDSST算法引入主成分分析法對特征進行降維壓縮,從而減少快速傅里葉變換次數。更新目標模板,再通過最小化目標模板的重構誤差ε構建大小為的投影矩陣Rt,用于將高維特征投影到低維子空間。投影矩陣Rt通過式(4)獲取:

對于新一幀圖像,利用前一幀的目標位置信息在特定的背景區域提取不同維度特征樣本,對其進行壓縮降維后得到候選樣本zt,再經快速傅里葉變換(fast Fourier transform,FFT)得到,計算得到最終的響應分數為:

對上式得到的響應分數Yt進行傅里葉逆變換(inverse fast Fourier transform,IFFT)得到最終的濾波器響應fcf,利用其最大響應值定位目標。相關濾波響應fcf表達式如下:

為了更好地應對跟蹤過程中目標尺度不斷變化的問題,在定位目標后,采用尺度濾波器估計目標的最佳尺度。尺度濾波器與位置濾波器有相似的濾波學習過程,首先構造尺度金字塔,然后將尺度池中不同尺度通過相關濾波器濾波得到17 維的響應向量,再對17 維響應向量進行插值得到33 維的尺度響應向量,其中最大響應尺度即為所求的目標最優尺度。尺度響應的計算表達式如下:

2 本文算法

本文在相關濾波算法的基礎上融合了增強前景的顏色直方圖干擾感知模型,將相關濾波算法得到的目標響應與顏色直方圖響應自適應加權融合得到最終的干擾感知響應圖,利用此圖中最高峰位置定位目標。最后通過平均峰相關能值和響應圖最大值聯合判斷目標跟蹤的可信度。當跟蹤可信度較低時說明目標跟蹤不準確或出現跟蹤漂移,不進行模板更新;反之,通過幀差法判斷目標變化程度,目標變化程度較大時利用前后幀間歐式距離判斷屬于目標變化或背景變化。每種情況設置不同的相關濾波模型的學習率以實現模型的自適應更新。本文算法總體框架如圖1所示。

圖1 總體框架圖Fig.1 General frame diagram

2.1 改進顏色直方圖干擾感知模型

為了提高算法在快速運動、形變、運動模糊及相似物干擾下的跟蹤魯棒性,將顏色直方圖干擾感知模型引入本文算法。相關濾波目標跟蹤算法提取的特征通常為局部特征(HOG 特征),對運動模糊及光照變化不敏感,如圖2(a)所示,但在快速運動、形變等情況下跟蹤效果不佳,如圖3(a)所示。而統計目標的全局顏色特征對目標外觀變化及邊緣信息較為魯棒,可以有效彌補HOG 特征的局限性,如圖3(b)所示,但顏色直方圖干擾感知模型只關注顏色,不關注像素所處的位置,易受到相似背景顏色干擾,當存在運動模糊及相似顏色背景時,易出現跟蹤漂移,如圖2(b)所示,此時HOG特征可以較好地應對顏色直方圖干擾感知模型的缺陷。因此將兩者結合可以有效彌補傳統相關濾波算法的缺點,減少目標丟失及漂移情況。為了驗證融合特征目標跟蹤的有效性,表1分別列出單特征和融合特征進行目標跟蹤的精確率。

表1 單特征及融合特征跟蹤精確率Table 1 Single feature and fusion feature tracking accuracy

圖2 運動模糊及相似顏色背景跟蹤序列Fig.2 Motion blur and similar color background tracking sequence

圖3 形變及快速跟蹤序列Fig.3 Deformation and fast motion tracking sequence

顏色直方圖干擾感知模型主要分為三部分:(1)前后背景分離。利用其背景對象模型將目標像素從輸入幀中提取出來。(2)利用目標擾動模型預先檢測存在的相似干擾區域并對其進行抑制。(3)融合目標區域及干擾區域,得到融合后響應圖。圖4為顏色直方圖干擾感知模型原理示意圖。

圖4 顏色直方圖干擾感知模型原理示意圖Fig.4 Schematic diagram of color histogram interference perception model

建立顏色直方圖干擾感知模型,為了將目標前景像素和背景像素有效區分開,采用顏色直方圖的貝葉斯分類器對目標像素以及背景像素進行建模:

(1)背景對象模型。根據貝葉斯公式得到像素x屬于目標區域的概率為:

式中,O和D分別為目標像素區域和背景像素區域;P(?x|x∈O)為目標區域O中像素x屬于區間?x的直方圖概率,P(?x|x∈D)為背景區域D中像素x屬于區間?x的直方圖概率,計算見式(10);P(x∈O|O,D,?x)為構造的貝葉斯分類模型。

(2)前景增強的背景對象模型。在實際目標跟蹤場景中,由于相似背景干擾造成的目標跟蹤漂移尤為常見。當相似背景干擾出現時,背景像素被誤判屬于前景的概率較高,為了更加準確地提取前景像素,本文提出了增強前景的顏色直方圖干擾感知模型,在傳統背景對象模型的基礎上重視前景與背景顏色差異部分并增強前景直方圖與背景直方圖顏色差異分量,增強了目標像素在復雜背景下的顯著性,使得前景更加突出,更加準確地將前景像素從背景中分離。圖5 為第t幀前景顏色直方圖和背景顏色直方圖對比,其橫坐標為像素值,縱坐標為像素值對應的像素個數,通過加強兩個直方圖中對應的直方柱的差值達到強化前景像素的目的。因此對式(11)進一步改進:

圖5 Green通道前后背景顏色直方圖Fig.5 Foreground color histogram and background color histogram of Green channel

其中,Δ=1+ζ?(P(?x|x∈O)-P(?x|x∈D));ζ為增強系數,用于控制模型突出前景的程度;P(?x|x∈O)-P(?x|x∈D)為歸一化后的前景顏色直方圖和背景顏色直方圖的差值。差值越小Δ越趨近于1,此時P(x∈O|O,D,?x)值變化較小,而差值越大說明像素點在兩個直方圖對應的直方柱上差異越大,是前景相對突出的部分,Δ同樣增大,同時P(x∈O|O,D,?x)值也變大,說明像素點x屬于目標區域O的似然概率越大,從而計算得到突出前景的像素為目標區域的概率,達到突出前景的目的。

(3)為了進一步提高模型抗擾動能力,引入目標擾動模型:

式中,K為目標擾動區域,即與目標外觀相似區域。

(4)將改進的背景對象模型與擾動模型整合得到目標的聯合概率模型如下:

式中,υ為設定的權重。

通過上式得到像素級顏色概率圖,搜索所有與預測尺度大小相等的目標候選框Ot,i,采用積分法計算每個候選框內像素屬于目標區域的概率和,此概率和為對應目標框中心位置為目標中心位置的概率,從而得到改進的顏色直方圖干擾感知模型中心位置響應圖fhist(I)。

式中,Pt(x)=P(x∈O|?x)為第t幀圖像中像素x為目標區域的概率。

為了更加適應光照及形變變化,對顏色直方圖概率模型進行更新:

式中,ηtemp為模型更新學習率。

2.2 自適應融合相關濾波響應與顏色直方圖響應

大多數現有的多特征融合算法都是以固定權值進行線性融合,在復雜場景下并不一直是最優策略,因此本文采用自適應特征融合策略進行相關濾波響應和顏色直方圖干擾感知模型概率響應的融合,其加權融合示意圖見圖6。

圖6 自適應加權融合示意圖Fig.6 Diagram of adaptive weighted fusion

(1)當判別器認為像素點x屬于目標時,Pt(x)的值會增大,同時區域內像素屬于目標的概率均值也會變大,這時要增加算法對顏色直方圖干擾感知模型概率響應的關注,此時利用顏色直方圖干擾感知模型計算目標區域像素點為目標的概率均值M來確定自適應融合權值ω,即:

式中,O?為顏色直方圖干擾感知模型計算得到的目標區域,即n為目標區域O?中的像素個數。

考慮到概率均值M計算的準確性,在計算像素點為目標的概率均值M基礎上減掉像素點屬于環繞背景區域D的概率均值,確保了概率均值M的相對準確性。因此將式(17)進一步改進得到更加精確的概率均值M′如下:

(2)在有顏色相似物體干擾下,由于顏色直方圖概率模型只關注顏色特征,不關注像素的具體位置,此時易將顏色相似的背景像素錯判為目標像素,Pt(x)值和概率均值M′同樣會增大,這時HOG 特征比顏色直方圖特征更加魯棒,應減小顏色直方圖干擾感知模型概率響應的權值并控制其所占權重ω小于0.5,防止學習到過多背景信息。因此設置閾值ρ,當概率均值M′≥ρ時,權重ω采用指數函數計算得到:

圖7為Skating序列下各特征跟蹤效果圖,圖7(a)為各特征在序列第220 幀到350 幀的跟蹤置信度曲線圖,其中第225~229 幀目標發生形變、第273~278幀目標發生快速運動,HOG 特征跟蹤置信度較低。結合圖7(b)和圖7(c)可以看出,此時利用HOG特征跟蹤出現了嚴重的偏差,而顏色直方圖特征準確率較高,此時本文算法增加顏色直方圖的融合權重,使得算法可以較為準確地跟蹤到目標。第317~322 幀目標運動模糊,第337~345 幀存在相似顏色背景干擾,如圖7(d)及圖7(e)所示,顏色直方圖特征跟蹤結果誤差較大,此時本文算法選用指數函數降低了顏色直方圖算法融合權重,有效提升了算法的跟蹤性能及魯棒性。基于圖7的定量及定性分析,結果顯示本文算法控制權重具有可行性及有效性。

圖7 Skating序列各特征融合效果分析Fig.7 Analysis of fusion effect of Skating sequence features

最終融合后的干擾感知響應為:

2.3 目標定位

本文在目標定位階段利用得到的最終擾動感知響應圖的最大位置定位目標。該融合響應圖最大值位置即是所尋求的目標位置。

式中,Wt為確定的目標最終位置。

2.4 自適應模型更新策略

在目標連續跟蹤過程中,目標必然受到形變、旋轉、快速運動及遮擋等噪聲影響,處于不斷變化的過程中。因此選擇一個合適的模板更新策略應對不斷變化的情況,確保更新過程中不出現效果退化是目標魯棒跟蹤的關鍵之一。現有的目標模型更新算法大多都是采取逐幀并且以固定學習率進行更新,沒有考慮當前幀跟蹤結果的可靠性及目標的變化程度,可能導致誤差累計,則在復雜情況下濾波器不能較好地跟蹤到目標,最后影響跟蹤效果。因此本文基于平均峰值相關能量值和響應圖最大值fmax判斷目標跟蹤的可靠性,并采用自適應更新學習率策略更新相關濾波模板。自適應模型更新策略流程如圖8所示。

圖8 自適應模型更新策略流程圖Fig.8 Flow chart of adaptive model update strategy

(1)高置信度判定條件

fmax是以響應圖的峰值從局部的角度反映跟蹤置信度,不考慮響應圖的旁瓣值,APCE 值可以反映響應圖震蕩變化程度,是從整體的角度反映跟蹤置信度。因此將兩個指標互補結合可以更好地從多角度反映跟蹤過程是否出現異常情況,具有較好的普適性。當跟蹤目標較為明顯或受干擾較小時,此時將得到較為理想的響應圖,即響應圖為單峰形式且APCE值較高;反之,當目標受到背景較大影響,遮擋甚至跟蹤丟失時,APCE 值會極速減小。同時,在整個跟蹤過程中目標變化對響應圖的影響具有連續性,因此將歷史幀置信度信息融入高置信度判定部分。只有在當前幀的APCE值以σ1的比例超過歷史幀APCE均值且當前幀fmax值以σ2的比例超過歷史幀fmax均值時,才可認為當前幀的跟蹤結果具有較高的置信度,否則認為出現異常情況,不進行模型更新。只有同時滿足以下兩個條件時,認為當前幀跟蹤結果具有較高置信度。

式中,APCEt為第t幀平均峰相關能量,計算公式見式(23);ft,max為第t幀響應圖最大值;σ1及σ2為設定的比例系數。APCE值的計算公式如下:

式中,fmax為響應圖的峰值;fmin為響應圖的最低值;fx,y為坐標(x,y)處的響應值。

圖9為coke視頻序列在跟蹤過程中,各置信度分量變化情況,其中目標從第28 幀到第42 幀出現遮擋。由圖可以看出,第31幀到第39幀,fmax曲線位于fmax置信度曲線下方,此時不符合式(22)所設條件,同理在第31幀到第40幀,APCE值位于APCE置信度曲線下方,不滿足高置信度條件。因此,跟蹤模型在第31幀到第40幀屬于低置信度區間,不進行模型更新,有效避免了學習過多背景信息造成模型的錯誤更新。

圖9 coke視頻序列跟蹤置信度分量變化Fig.9 Component changes of coke sequence tracking confidence

(2)自適應更新模型學習率

在跟蹤過程中,當目標出現形變、旋轉和快速運動等情況時,容易導致跟蹤漂移,這是因為當目標發生較大變化時,設置的固定學習率較小不能使模型快速學習到目標的變化,只能學習當前幀中較少的信息,從而導致跟蹤結果不準確,如圖10(a)所示。若設置的學習率過大,一旦上一幀由于遮擋、形變、快速運動等因素導致跟蹤結果有偏差時,模型會大量學習背景信息,誤差累計到一定程度模型可能會將背景誤判為跟蹤目標,導致目標丟失,如圖10(b)所示。而圖10(c)為學習率適中的跟蹤效果,針對以上問題,本文提出了聯合幀差法及前后幀間歐式距離判斷目標的變化程度并設置相應的相關濾波更新學習率,達到自適應更新模型的目的。

圖10 不同學習率下的跟蹤效果圖Fig.10 Tracking renderings of different learning rates

①通過(1)判斷當前幀跟蹤結果的置信度,當置信度不滿足高置信度條件時,不進行模型更新,學習率保持不變。此時η=η1。

②當置信度滿足高置信度條件時進行模型更新,此時用式(24)幀差法判斷目標的變化程度,設置閾值?,當幀差均值α

式中,α為幀差均值;D(x,y)為前后兩幀圖像的灰度差;N、Q為差分圖像大小。

③通過②可判斷目標或是背景變化的幅度,當α≥?變化幅度較大時,通過計算前后兩幀的歐氏距離β判斷目標是否發生較大運動,設置閾值Γ,當歐式距離β<Γ時,說明目標的移動位移較小,可能是背景在發生變化,此時設置適中學習率η=η3;反之,當α≥?且β≥Γ時,說明目標發生了較大位移,此時目標可能發生了較大的變化或處于快速運動狀態,此時應該設置較大的學習率,使算法可以更好地適應目標變化η=η4。

歐式距離β計算公式:

通過(1)和(2)判斷目標狀態并根據其狀態設置不同的學習率η,保證在相鄰兩幀目標變化較小時設置較小的學習率,目標變化較大時設置較大學習率來加快對模型的更新,通過自適應改變學習率可以使模型更好地跟蹤到目標。

2.5 算法步驟

(1)建立初始幀樣本模型。手動選定初始幀跟蹤目標和目標框位置(x,y)及其背景區域。

(2)濾波器訓練。提取目標的HOG特征,通過式(2)和式(9)訓練二維位置濾波器和一維尺度濾波器,同時通過式(14)訓練顏色直方圖干擾感知模型。

(3)定位目標。截取目標候選區域并提取特征,將其與上一幀訓練得到的相關濾波器通過式(7)和式(8)進行相關運算,生成相關濾波響應圖fcf(I)。同時利用改進的顏色直方圖干擾感知模型通過式(14)計算像素屬于目標區域的概率,然后代入式(15)得到顏色直方圖概率響應fhist(I),最后通過式(18)和式(19)確定fcf(I)和fhist(I)的融合權重ω并代入式(20)計算融合后的干擾感知響應圖f(I),此響應圖最高峰位置即為目標所在位置。

(4)高置信度判別。利用APCE值和最高響應值fmax進行可靠性判斷,通過判別結果轉至步驟(6)選擇相應的更新策略。

(5)目標尺度估計。根據式(9)創建尺度金字塔,利用尺度濾波器計算最大響應求得目標的最佳尺度。

(6)自適應模型更新。步驟(4)判別跟蹤結果滿足高置信度條件時,通過式(6)更新顏色直方圖干擾感知模型,同時利用式(24)及式(25)確定相關濾波自適應更新學習率η,實現相關濾波模型的自適應更新。

(7)輸出跟蹤結果。將跟蹤結果可視化輸出,跳轉至步驟(2)繼續跟蹤下一幀圖像目標。

3 實驗結果分析

3.1 實驗環境及參數配置

本文算法采用GUN Octave 作為實驗測試開發平臺,處理器為Intel?CoreTMi5-9300H CPU,操作系統Windows 10,8 GB內存。本文算法參數設置:相關濾波位置濾波器中,初始未壓縮的特征維度d=32,降維后的特征維度=17,正則化參數設置為λ=0.001。顏色直方圖干擾感知模型中:前景增強系數為ζ=9.5,聯合概率模型融合權重υ=0.3,模型學習率ηtemp=0.04。尺度模型中:尺度因子a=1.02,壓縮后的特征維數s=17。自適應融合閾值ρ采用最優化步長逼近方式獲得:閾值ρ取值范圍為(0,1),根據設置的步長由粗到精地找到最佳閾值ρ的大小。首先將起始步長設置為0.1,根據逐次實驗得到其最佳閾值大小為0.4。再以0.4為中心、以長度為0.02的步長為基準在范圍(0.34,0.46)內進行逐次實驗比較,其實驗得到的最佳閾值的取值為ρ=0.38,最后以0.01長度為基準步長在范圍(0.35,0.41)進行對應的實驗比較,得到最終的最優閾值取值為ρ=0.38。置信度比例值的設定:σ1=0.45,σ2=0.60。目標更新學習率及其閾值大小的設定:幀差閾值及位移閾值同樣通過步長逼近方式經過多次實驗比對獲得,其中幀差閾值設定為?=3.5,目標位移閾值為Γ=11。四種學習率分別設置為η1=0,η2=0.005,η3=0.009,η4=0.02。

3.2 評價指標

本文選取OTB100 數據集用于與其他主流算法進行實驗對比,OTB100數據集是目標跟蹤實驗中常用的數據集,其包含100個涉及了11種不同視覺目標跟蹤挑戰屬性的視頻序列。OTB100 數據集包含的11 種屬性分別為:光照變化(illumination variation,IV)、尺度變化(scale variation,SV)、遮擋(occlusion,OCC)、非剛性變化(deformation,DEF)、運動模糊(motion blur,MB)、快速運動(fast motion,FM)、平面內旋轉(in-plane rotation,IPR)、平面外旋轉(out-plane rotation,OPR)、超出視野(out of view,OV)、復雜背景(background clutter,BC)、低分辨率(low resolution,LR)。這11 種屬性可以更加清晰地、綜合地與其他算法進行跟蹤性能的對比。本文算法采用一次性通過評估(one-pass evaluation,OPE)分析算法的性能及魯棒性,以第一幀標注的目標位置為初始位置,測試整個視頻序列組,將跟蹤成功率和精確率作為評價標準。

3.3 對比實驗結果分析

本文選取了8種主流算法進行對比實驗,驗證其有效性及魯棒性。對比算法分別為:STRCF、BACF、fDSST、Staple、ARCF、DeepSTRCF、AutoTrack、ACSDCF。

3.3.1 定量比較

圖11 為9 種算法在OTB100 數據集上的精確率和成功率曲線,本文算法的成功率為0.780,僅低于深度學習DeepSTRCF算法0.029,高于次優ACSDCF算法0.016,精確率為0.838,低于深度學習DeepSTRCF算法0.011,高于次優STRCF 算法0.021。本文在相關濾波的基礎上結合了強化前景的顏色直方圖干擾感知模型,有效彌補了相關濾波算法采用局部特征進行特征提取時,對于邊緣模糊情況下跟蹤精度較低的不足,因此提高了目標在形變、運動模糊及快速運動挑戰下的魯棒性,整體性能最優。最后,進行異常分析和自適應更新學習率,跟蹤異常出現時,不更新模型,有效避免了學習過多背景信息造成的跟蹤漂移。由圖12 可見,本文算法在形變屬性下成功率和精確率都達到了最高,分別是0.768和0.843。如圖13 所示,本文算法在運動模糊屬性下成功率和精確率達到了0.803 和0.814,遠遠超過其他算法。如圖14 所示,本文算法在快速運動屬性下成功率和精確率高達0.796和0.818,均位居第一。

圖11 9種跟蹤算法對比曲線Fig.11 Comparison curves of 9 tracking algorithms

圖13 9種跟蹤算法運動模糊屬性對比曲線Fig.13 Comparison curves of 9 tracking algorithms motion blur sequence

為了更加直觀地對比本文算法與其他算法在各屬性下的跟蹤效果,表2 和表3 分別列出了這9 種算法在OTB100 數據集上11 種視頻屬性下的跟蹤精確率和成功率。

表2 9種跟蹤算法在各屬性序列上的精確率得分Table 2 Precision scores of 9 tracking algorithms on attribute sequences

表3 9種跟蹤算法在各屬性序列上的成功率得分Table 3 Success scores of 9 tracking algorithms on attribute sequences

3.3.2 定性分析

為了更加直觀地比較本文算法和其他8 種算法在這11種屬性下的跟蹤效果,圖15列出了包含這11種屬性的部分視頻序列。

圖15 各算法跟蹤結果對比Fig.15 Comparison of tracking results of each algorithm

skiing序列中包含了形變、旋轉、背景雜亂、低分辨率及尺度變化等視頻屬性。在第11 幀時,目標發生了第一次旋轉及形變,導致ACSDCF、STRCF、ARCF、fDSST 及DeepSTRCF 算法均發生不同程度的漂移;到第15 幀時,AutoTrack 和Staple 算法不能夠及時學習到目標變化也逐漸發生漂移;在第22幀到第51幀,目標不斷發生旋轉和形變,且背景較為雜亂導致目標分辨率較低,而本文算法在傳統背景對象模型的基礎上突出了前后背景的顏色差異分量,更好地應對雜亂背景,此時只有本文算法和BACF算法能夠準確地跟蹤目標,其他算法均漂移到了背景上,導致目標丟失;到第63 幀時,目標發生形變且遠離攝像頭,造成目標尺度發生變化,BACF算法不能適應目標的尺度變化導致跟蹤框較大,包含了較多的背景信息,降低了跟蹤精度。此時只有本文算法可以精確定位目標,其余算法均存在跟蹤誤差。

在Bolt2視頻序列中,目標具有形變、尺度變化等屬性并存在大量相似物干擾。在第8幀時,目標發生自身形變,此時從圖中可以看出ACSDCF、STRCF、ARCF、AutoTrack、fDSST算法不能適應目標的變化,在跟蹤過程中學習到較多的背景信息,從而逐漸導致目標跟蹤漂移,而本文算法采用自適應更新學習率策略并結合了全局顏色特征可以更好地應對目標形變;在第11幀時,ARCF及STRCF算法甚至跟蹤漂移到了目標相似物上,而本文算法改進了增強前景的背景對象模型,可以有效避免相似物的干擾;在第22幀到第33幀,目標形變較大且出現自身尺度變化,DeepSTRCF、Staple、BACF算法逐漸發生不同程度的漂移,只跟蹤到了目標的一部分,只有本文算法跟蹤較為準確;到第86 幀,目標一直發生形變及尺度變化,只有本文算法可以準確地跟蹤到目標,其他算法均發生嚴重漂移。

DragonBaby視頻序列中包含快速運動、遮擋、旋轉、形變、出視野等屬性。第27幀到第32幀,目標第一次發生旋轉并造成形變和自身遮擋,在翻轉開始時(第27幀)除本文算法、ACSDCF、BACF算法,其他算法均發生漂移,第32幀目標再次出現時,BACF 和ACSDCF出現中度漂移,只有本文算法和DeepSTRCF算法較準確地定位到目標;在第45幀時,目標由于快速運動造成運動模糊和出視野,此時僅有本文算法正確跟蹤到目標,其他算法不能較好地提取到目標特征導致跟蹤漂移;在序列第82 幀到第91 幀,由于目標再次發生快速運動及自身形變,僅本文算法和ACSDCF 可以準確定位目標,其他算法不能較好地學習到目標的變化,導致目標丟失。本文引入了顏色直方圖模型,因此對目標外觀變化及邊緣信息較為魯棒,可以較好地解決快速運動、形變及運動模糊造成的目標丟失問題。

在Girl2 視頻序列中,存在遮擋、形變、尺度變化及運動模糊等挑戰。從初始幀到第102幀,所有算法均可準確地跟蹤到目標;第107幀到第134幀目標出現遮擋,目標被部分遮擋時(第107 幀),ARCF 和fDSST算法完全漂移,Staple、BACF算法也部分漂移到遮擋物上;到第135幀時遮擋結束,目標再次出現,從第135幀到第295幀,只有本文算法和ACSDCF算法可重新定位到目標,其余算法均發生嚴重漂移,丟失目標;第345幀時,目標自動移動到STRCF、DeepSTRCF算法目標跟蹤框位置時,STRCF 和DeepSTRCF 算法才重新跟蹤到目標;在第972幀時,目標出現形變及尺度變化,ACSDCF 算法不能適應目標的尺度變化,同時STRCF 及DeepSTRCF 算法也只能跟蹤到目標的一部分,出現中度漂移。從初始幀到最后一幀只有本文算法可以準確跟蹤目標,說明本文算法對于遮擋、形變及尺度變化的魯棒性較高。

在BlurOwl 序列中,目標具有快速運動、旋轉及運動模糊等屬性。從序列第47 幀到第52 幀目標發生旋轉、快速運動并導致運動模糊,可以看到Staple、BACF、fDSST、ARCF 算法跟蹤精度顯著降低,出現一定程度的漂移;序列第68幀、第155幀及第443幀,攝像頭再次快速旋轉導致目標模糊嚴重、分辨率較低、目標邊緣特征極不明顯,此時,DeepSTRCF、ACSDCF、AutoTrack 和STRCF 算法提取不到目標的邊緣輪廓特征,出現嚴重漂移,只有文本算法準確定位目標。本文算法利用強化前景的顏色直方圖模型進行顏色特征統計,有效彌補了局部特征的缺陷,增強了目標在快速運動及運動模糊等挑戰下的魯棒性,使算法較準確地跟蹤到目標。

在Matrix 視頻序列中,目標背景比較復雜,存在光照變化、形變、快速運動等屬性。在第21 幀時,目標自身旋轉,ARCF、AutoTrack算法首先丟失目標;在第36 幀,目標發生旋轉及快速運動,ARCF、STRCF、Staple、BACF、DeepSTRCF 及ACSDCF 算法陸續脫離正確位置,丟失目標;在序列第44 幀時,出現嚴重光照變化,此時只有本文算法具有較高的適應性,準確跟蹤目標;在第50 幀到第72 幀,目標一直處于復雜背景及光照變化條件下,同時目標姿態也不斷發生變化,BACF 和ACSDCF 算法跟蹤精度較低,部分跟蹤框漂移到背景上,其他算法均丟失目標,僅本文算法精確定位目標。

3.4 實時性分析

本文從OTB100 數據集中隨機選取了30 組視頻序列進行算法的跟蹤實時性對比,以每秒讀取幀數的平均值作為跟蹤速度的評價指標,9種算法的測試結果如表4所示。結合表2及表3,結果顯示,相比其他算法,本文算法在保障了算法實時性的前提下,有效提高了跟蹤算法的性能。

表4 9種跟蹤算法在各屬性序列上的平均跟蹤速度Table 4 Average tracking speed of 9 tracking algorithms on attribute sequences 單位:FPS

4 結束語

針對傳統相關濾波算法通常提取局部特征(HOG 特征)導致目標邊緣信息模糊或發生變化時,跟蹤效果不佳的問題,本文在相關濾波算法的基礎上自適應融合了顏色直方圖干擾感知模型,兩者有效互補減少了跟蹤的局限性,且本文改進了顏色直方圖干擾感知模型,增大前后背景顏色差異部分以達到強化突出前景的作用。因此,提高了目標在形變、運動模糊、快速運動及相似物干擾等挑戰下的跟蹤魯棒性。同時,進行跟蹤異常判斷,當跟蹤精度較低時,不更新模型,有效避免了目標錯判及學習較多背景信息。另外,當跟蹤置信度較高時,自適應更新學習率使得跟蹤模板可以較好地適應目標變化。本文算法在OTB100數據集上進行了大量的對比實驗,本文的成功率和精確率均高于其他8種主流算法,表明本文算法具有較高的跟蹤準確性及魯棒性。本文算法雖滿足跟蹤實時性,但為了進一步提高算法速度,在今后的工作中考慮將相關濾波算法與深度學習算法進行結合。

猜你喜歡
背景特征模型
一半模型
“新四化”背景下汽車NVH的發展趨勢
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
晚清外語翻譯人才培養的背景
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产91丝袜在线播放动漫 | 狠狠做深爱婷婷久久一区| 亚洲性日韩精品一区二区| 97视频免费在线观看| 一边摸一边做爽的视频17国产 | 欧美亚洲欧美| 99无码熟妇丰满人妻啪啪| 色噜噜狠狠色综合网图区| 97色伦色在线综合视频| 热久久这里是精品6免费观看| 成人毛片免费观看| 精品国产99久久| 成人av专区精品无码国产| 人妻一本久道久久综合久久鬼色| 另类重口100页在线播放| 日韩国产综合精选| 亚洲第一页在线观看| 亚洲无码37.| 国产欧美亚洲精品第3页在线| 91外围女在线观看| 就去色综合| 亚洲欧美精品在线| 国产在线高清一级毛片| 理论片一区| 又粗又硬又大又爽免费视频播放| 成人欧美在线观看| 国产美女主播一级成人毛片| 99免费在线观看视频| 亚洲第一极品精品无码| 色窝窝免费一区二区三区| 农村乱人伦一区二区| 国产在线日本| 亚洲成人动漫在线| 国产农村妇女精品一二区| 免费毛片a| 欧美一区日韩一区中文字幕页| 精品国产乱码久久久久久一区二区| 免费99精品国产自在现线| 成人免费一区二区三区| 日本爱爱精品一区二区| 亚洲欧美日韩视频一区| 久久国产高清视频| 天天摸天天操免费播放小视频| 亚洲黄网视频| 国产真实乱子伦视频播放| 欧美精品啪啪一区二区三区| 麻豆精选在线| 无码内射中文字幕岛国片| 91精品国产一区自在线拍| 毛片基地美国正在播放亚洲| 中文字幕欧美日韩高清| 国产亚洲欧美在线专区| 国产在线八区| 亚洲三级网站| 亚洲天堂网在线播放| 成人av专区精品无码国产| 国产簧片免费在线播放| 91精品人妻一区二区| 2021国产精品自拍| 亚洲国产精品VA在线看黑人| 久久综合国产乱子免费| 天堂av综合网| 久久国产精品电影| 国产综合精品日本亚洲777| 久久这里只有精品23| 永久毛片在线播| 91亚洲精品国产自在现线| 久热这里只有精品6| 国产免费一级精品视频 | 亚洲综合激情另类专区| 国产十八禁在线观看免费| 99热这里只有精品在线播放| 国产精品一区在线观看你懂的| 2022国产91精品久久久久久| 手机成人午夜在线视频| 国产三级a| 成人免费网站久久久| 囯产av无码片毛片一级| 国产一区亚洲一区| 亚洲第一成年免费网站| 午夜啪啪网| 欧美人在线一区二区三区|