999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合粒子濾波及度量學習的目標跟蹤方法

2021-06-04 14:21:46王洪雁張莉彬陳國強汪祖民管志遠
通信學報 2021年5期
關鍵詞:方法

王洪雁,張莉彬,陳國強,汪祖民,管志遠

(1.浙江理工大學信息學院,浙江 杭州 310018;2.大連大學信息工程學院,遼寧 大連 116622;3.五邑大學智能制造學部,廣東 江門 529020;4.河南大學計算機與信息工程學院,河南 開封 475004;5.杭州電子科技大學電子信息學院,浙江 杭州 310018)

1 引言

作為計算機視覺領域的研究熱點,視覺跟蹤基于可見光等媒介持續(xù)感知目標,在視頻監(jiān)控[1]、自動駕駛[2]、人機交互[3]等方面具有廣泛應用。近年來,眾多高效且穩(wěn)健的視覺跟蹤算法相繼被提出[4],極大地促進了視覺跟蹤的工程化進程。然而,由于實際場景的復雜性,跟蹤過程中存在諸如光照變化、目標遮擋等不確定因素,從而導致跟蹤性能顯著下降[5]。因此,如何提高復雜場景下目標跟蹤算法精度及穩(wěn)健性仍是視覺跟蹤領域的研究難點之一[6-7]。

針對復雜場景下視覺跟蹤性能下降問題,文獻[8]提出深度學習跟蹤(DLT,deep learning tracking)算法,其基于堆疊降噪自編碼器無監(jiān)督訓練以獲得目標特征,且解碼器后接分類層以區(qū)分目標背景進而實現(xiàn)目標跟蹤。然而,由于自編碼器僅可提取淺層特征,表達能力有限,因而目標跟蹤實時性較差。針對此問題,基于卷積神經網絡(CNN,convolutional neural network)高效且穩(wěn)健提取目標特征的特點,文獻[9]首先分析CNN 各層輸出特征,而后構建特征篩選網絡以實現(xiàn)匹配跟蹤。需要注意的是,匹配方法雖具有較好追蹤性能,然而由于跟蹤前需基于巨量數(shù)據(jù)預訓練所構建網絡以學習通用特征表示,從而導致計算復雜度顯著上升、數(shù)據(jù)過擬合等問題。為解決此問題,文獻[10]提出基于卷積網絡的跟蹤器(CNT,convolutional network based tracker),其基于輕型兩層卷積神經網絡以降低計算復雜度,且此網絡不需要大量訓練數(shù)據(jù)即可提取較穩(wěn)健的目標特征。然而,此方法所提模板更新策略涉及的參數(shù)值需基于經驗確定,因而跟蹤性能提升有限?;诖?,文獻[11]融合深度卷積網絡良好的特征提取特性及復雜場景下粒子濾波優(yōu)異的跟蹤能力,以提升遮擋及噪聲等條件下跟蹤性能,并利用簡單的在線更新策略抑制跟蹤器漂移,同時對目標形變更穩(wěn)健。值得注意的是,上述跟蹤系統(tǒng)基于歐氏距離度量模板與候選目標之間的相似性,然而幀間目標外形變化通常較明顯,從而導致歐氏距離無法精準度量目標特征分布,進而使目標跟蹤性能改善有限。針對此問題,文獻[12]提出基于深度度量學習(DML,deep metric learning)的跟蹤模型,其基于前饋神經網絡學習分層非線性距離度量,以提升模板與候選目標之間的度量精度。然而,該模型需基于大量數(shù)據(jù)訓練非線性度量網絡,因而計算復雜度較高,且樣本有限場景下所得非線性度量網絡度量精度較差,從而使跟蹤精度改善有限。

針對上述問題,本文提出基于粒子濾波與核回歸度量學習(MLKR,metric learning for kernel regression)的跟蹤方法以提高目標背景的可分性。所提方法首先離線訓練CNN,以提升網絡特征提取及泛化能力,并基于訓練所得CNN 獲取目標高層特征;其次,利用核回歸度量學習優(yōu)良的正負樣本區(qū)分能力[13],對目標背景樣本構建MLKR,以獲取表征最優(yōu)候選目標的度量矩陣并構造目標觀測模型;最后,基于短時與長期穩(wěn)定更新結合的更新策略在線更新模板,以降低遮擋、形變等不利因素影響,從而實現(xiàn)基于粒子濾波框架的有效跟蹤。仿真表明,與現(xiàn)有主流方法相比,復雜場景下所提方法具有較高跟蹤精度及較好穩(wěn)健性。

2 所提目標跟蹤方法

所提方法整體框架如圖1 所示,其主要由如下部分構成:基于給定運動目標測試序列以離線訓練CNN;基于MLKR 學習加權距離度量以最小化核回歸預測誤差從而實現(xiàn)動目標精確定位;基于短時更新與長期穩(wěn)定更新聯(lián)合更新策略以改善跟蹤精度及穩(wěn)健性;基于CNN 所提取深度特征以及粒子濾波框架實現(xiàn)目標跟蹤。

2.1 度量學習模型

相較于僅度量各特性差異的歐氏距離,馬氏距離可更有效地計算未知樣本間的相似度,且可表征各特性之間的關聯(lián)[14]。因此,為了更有效地區(qū)分正負樣本,本文基于樣本間馬氏距離可學習的核回歸方法獲得最優(yōu)映射矩陣A,而后最小化核回歸預測誤差以精確估計目標位置,進而提升跟蹤性能。

基于訓練樣本集x=(x1,x2,…,xn)∈RB×N核回歸度量學習,可以將訓練樣本數(shù)據(jù)映射至高可分性空間,從而獲取表征目標特征差異的距離度量,即

其中,B、N分別為樣本特征維度、數(shù)量,DM(xi,xj)為xi和xj之間的馬氏距離,為樣本間距離平方,M為度量矩陣,具有半正定性[12]。由于直接學習M需要明確半正定約束,因此計算效率較低[13]。為降低計算復雜度,可對其實施Cholesky 分解,即M=ATA,A∈Rb×B可視為從原空間RB到新度量空間Rb的映射矩陣,其中b?B,則可得

圖1 所提方法整體框架

核回歸中樣本xi的目標估計值可通過鄰近樣本加權平均獲得,如式(13)所示[15-16]。

其中,c為xi的鄰近數(shù),y=(y1,y2,…,yn) ∈{0,1}為x對應類別標簽,Kij為xi與鄰近樣本xj之間高斯核距離函數(shù),表征二者之間相似性,可表示為

其中,δ為正則化參數(shù),仿真實驗中設置δ2=1。

本文采用累積二次回歸誤差表征訓練樣本誤差L,并最小化此誤差以獲得最優(yōu)映射矩陣A,即

不難發(fā)現(xiàn),式(5)為關于變量A的非線性問題,較難直接獲得閉式解。相較于其他方法,梯度下降法僅需估計一階導數(shù),計算復雜度較小、優(yōu)化結果較好[13]。因此,本節(jié)基于梯度下降法求解此問題。基于鏈式法則,式(5)中目標函數(shù)關于變量A的導數(shù)可表示為

將式(7)~式(9)代入式(6),可得

基于式(10),利用梯度下降迭代更新映射矩陣A,即

其中,ρ為學習速率,仿真中取值為0.001;f為迭代次數(shù)。將式(11)所得最優(yōu)A代入M=ATA,則可求得最優(yōu)M。實驗中,A初始值可設為單位矩陣,為防止陷入局部最小值,可多次隨機初始化[13]。

2.2 粒子濾波框架

作為復雜場景下目標跟蹤的重要性采樣技術,粒子濾波基于觀測序列估計目標狀態(tài)后驗概率分布,以實現(xiàn)有效跟蹤[17]。給定觀測圖像X1:r={x1,x2,…,xr}及其狀態(tài)H1:r={h1,h2,…,hr},可基于粒子濾波遞歸估計目標最優(yōu)狀態(tài),即[18]

給定1~r幀觀測結果X1:r,基于貝葉斯推理遞歸推導式(12),以獲得當前幀最優(yōu)目標狀態(tài),可得

設時刻r的目標狀態(tài)向量為為六自由度仿射變換參數(shù),分別表示水平位移、垂直位移、旋轉角度、水平尺度因子、扭曲角和寬高比例[19]。假設狀態(tài)變量相互獨立且服從高斯分布,則相鄰幀間目標運動模型可構建為[19]

2.3 CNN 模型

CNN 以其優(yōu)良的特征提取能力、強大的容錯能力以及高效的計算效率,被廣泛應用于圖像識別、視頻跟蹤等領域[20]。本節(jié)基于具有卓越分類能力的AlexNet[21]構造視頻跟蹤特征深度提取模型(結構如圖2 所示)。該模型輸入圖片規(guī)格化為227 ×227;為有效保留局部特征,權衡欠擬合及過擬合,第一卷積層中卷積核尺寸設置為11×11×96,步長為4,卷積核個數(shù)為64,以提取測試序列各類深層特征;權衡計算復雜度及特征抽取,第一卷積層后同時接3 個卷積層;設置第五卷積層中卷積核尺寸為3×3 ×256,步長為1,提取圖像中目標背景樣本作為后續(xù)度量學習樣本;在第一、二和五卷積層后銜接尺寸為3×3、步長為2 的最大池化層,由于最大池化法較平均池化法可更好地提取紋理信息,因此本節(jié)采用最大池化方法以降低計算復雜度、提升模型穩(wěn)健性并保留關鍵信息;第五卷積層后銜接3 個全連接層,以充分融合樣本信息;基于全連接層所得融合特征,分類層采用Softmax 函數(shù)對其分類以區(qū)分目標背景;卷積層激活函數(shù)均采用ReLU 函數(shù),且于卷積層后增加歸一化層以降低過擬合。所提深度特征提取模型基于給定運動目標測試序列離線訓練AlexNet 網絡,以提升其泛化能力進而改善目標跟蹤性能。

圖2 CNN 結構

2.4 基于局部結構化評估的目標跟蹤

視頻跟蹤中,評估候選目標與真實目標之間相似度可為后續(xù)候選目標選擇提供合理依據(jù)并改善目標狀態(tài)估計性能。候選目標相似度評估準則主要包括以下2 類:整體評估和局部結構化評估。整體評估準則適用于局部特征要求不高、圖像整體區(qū)分度較小的場合;相較于整體評估方法,局部結構化評估更關注區(qū)域噪聲和部分遮擋等局部細節(jié),因而復雜環(huán)境下局部結構化評估準則更具穩(wěn)健性[22]。需要注意的是,在目標跟蹤過程中,圖像局部細微變化都將影響跟蹤效果?;诖?,本節(jié)采用局部結構化重構誤差評估準則衡量候選目標相似度。設m個候選目標Y=[Y1,Y2,…,Ym]可由包含w個模板的模板集T=[t1,t2,…,tw]表示。為避免局部變化導致跟蹤精度降低,將每個模板分割為W個局部塊,則模板集的第g個局部塊可表示為Tg=[t1g,t2g,???,twg]∈,其中,tig,i=1,2,…,w為第i個模板的第g個局部塊。類似地,將候選目標Yg分割為W個局部塊{yg|g=1,2,???,W}∈Rb×1,利用特征映射A對每個yg進行核回歸距離度量。由于局部遮擋、光照變化等干擾因素導致的目標表觀變化具有空域稀疏性,由此可構建如下基于局部化模板集的候選目標最優(yōu)稀疏表示問題

式(16)所示問題可視為W個問題的累加,且各變量相互獨立,由此,可將此問題拆分為W個子問題,即

綜上所述,對應候選目標重構誤差可表示為

其中,Γ為歸一化因子,γ為高斯核控制參數(shù),仿真取0.01[12]。

2.5 在線更新策略

在實際跟蹤過程中,模板固定不變無法有效跟蹤復雜場景下多變的目標,因而模板更新是在線跟蹤的關鍵一環(huán)[11]。若基于固定模板實施跟蹤,則光照變化或部分遮擋等因素導致跟蹤器無法較好地捕捉目標;反之,若快速更新模板,每次更新都會引入誤差,則隨著時間流逝誤差逐漸累積,從而導致跟蹤器偏離目標。針對上述問題,本節(jié)提出短時與長期穩(wěn)定更新相結合的在線跟蹤策略,以更新目標模板。

模板初始化。首先確定目標首幀所處位置,而后基于所提跟蹤方法獲得前n幀跟蹤結果并歸一化,最后將其組合為模板集T=[t1,t2,…,tn]∈Rb×n。

模板動態(tài)更新。模板與跟蹤結果相似性可表示為ψ=[ψ1,ψ2,???,ψn],設閾值為η,則跟蹤結果與第i個模板相似性ψi可表示為

設最大相似度為Λ,其可表示為

將其與閾值η比較,若Λ>η,表明本次跟蹤結果與某目標模板相似度最大,則更新對應模板;反之,不進行更新。仿真實驗中閾值取值為η=0.7。綜上所述,具體更新方案可表述如下。

短時更新。為提高目標狀態(tài)估計性能,對首幀后續(xù)各幀,若Λ>η,表明該模板與某目標相似度最大,為提高后續(xù)各幀的跟蹤準確度,可用本跟蹤結果替換對應模板,并保存跟蹤所得目標狀態(tài);反之,則表明相鄰幀變化較大,此時不更新模板。

長期穩(wěn)定更新。連續(xù)多幀所得最大相似度值Λ<η,導致無法及時更新模板,此時連續(xù)多幀最大相似度均小于閾值,從而加大多幀累積誤差,針對此類情況,可于跟蹤過程中每隔10 幀更新模板。由于起始幀目標始終真實,所提更新策略需包含首模板以增強跟蹤穩(wěn)健性。

綜上所述,結合粒子濾波與度量學習的目標跟蹤算法詳細步驟如算法1 所示。

算法1結合粒子濾波及度量學習的目標跟蹤算法

輸入測試序列I={I1,I2,I3,…,In},粒子數(shù)N,映射矩陣A以及度量矩陣M

輸出跟蹤結果目標位置

1) 初始化CNN,粒子初始權重均設為1/N;

2) 采集首幀目標背景樣本,并通過式(11)實施MLKR 以獲得最優(yōu)映射矩陣A及度量矩陣M;

3) 基于CNN 和度量學習區(qū)分目標背景,并計算每個粒子置信度(權重);

4) 基于APG 方法,迭代更新式(20)、和式(22)直至滿足收斂條件,從而獲得最優(yōu)稀疏系數(shù)向量zg;

5) 基于式(23)、式(24)與式(12)獲取目標狀態(tài)最優(yōu)估計,并實施在線跟蹤;

6) 獲得跟蹤結果,基于式(25)和式(26)計算本次跟蹤最大相似度;

7) 若跟蹤最大相似度大于閾值,則用本幀跟蹤結果更新模板;反之,不進行更新;

8) 若跟蹤最大相似度持續(xù)小于閾值,為防止跟蹤累計誤差過大,可每隔10 幀更新目標模板;

9) 判斷是否跟蹤至最后一幀,若沒有,重復步驟3)~步驟8);反之,結束跟蹤,獲得最終跟蹤結果并保存所得目標框。

3 實驗結果分析

目前,視覺跟蹤領域數(shù)據(jù)集主要為OTB-100 和VOT-2018,分別包含100 個和60 個測試序列[24-25],各序列皆面臨不同跟蹤挑戰(zhàn),包括光照變化、尺度變化、遮擋、形變、運動模糊、旋轉及背景復雜等,且多數(shù)序列包含2 種以上影響算法性能的因素[25]。

基于上述數(shù)據(jù)集,本節(jié)選擇包含多種跟蹤挑戰(zhàn)因素的MotorRolling、Jogging、Boy、Skating1、Matrix、Bird2、Tiger2、Basketball、Singer1 及Singer2共10種測試序列作為測試集(各序列主要挑戰(zhàn)因素如表1所示),通過與CNN-PF[26]、Struck[27]、CT[28]、TLD[29]、DFT[30]、BACF[31]等主流跟蹤器對比,以驗證所提方法的有效性。實驗硬件環(huán)境為處理器i5-4258、主頻2.4 GHz、內存8 GB;軟件環(huán)境為Python3.7、MATLAB 2017a、深度學習框架Caffe。

所提跟蹤算法在首幀提取的正負樣本數(shù)分別為100 和400,后續(xù)各幀正負樣本數(shù)分別為30 和120。權衡跟蹤性能及計算復雜度,若粒子過多則會增加算法計算量,過少則無法獲取最優(yōu)目標狀態(tài),因此,每幀粒子數(shù)設為600,粒子權重初始化為1/600。所提跟蹤算法在首幀提取的正負樣本數(shù)分別為100 和400,后續(xù)各幀正負樣本數(shù)分別為30和120。權衡跟蹤性能及計算復雜度,若粒子過多則會增加算法計算量,過少則無法獲取最優(yōu)目標狀態(tài),因此,每幀粒子數(shù)設為600,粒子權重初始化為1/600。CNN 結構如圖2 所示,采用深度學習框架Caffe,基于Imagenet 數(shù)據(jù)集訓練所得模型,而后利用OTB-100 及VOT-2018 微調參數(shù),從而獲得可有效提取特征的離線網絡,權值更新采用梯度下降法,設置局部區(qū)域歸一化參數(shù)α=0.0001,τ=0.75,以起到側抑制作用;學習率設為0.001,訓練周期為300,以最大程度減少過擬合發(fā)生。

3.1 定性分析

圖3 為10 種測試序列的7 種跟蹤算法的結果對比。MotorRolling 序列包含快速運動、背景雜波和光照變化等挑戰(zhàn)因素,第52 及64 幀中目標由空中下降明顯變化,DFT 和TLD 出現(xiàn)跟蹤漂移或跟蹤框與真實目標不符現(xiàn)象,而所提方法始終可較好地跟蹤目標,原因是所提方法考慮背景雜波及快速運動影響并對目標背景樣本進行誤差學習,從而精確估計運動目標。Jogging 中目標存在明顯遮擋,所提方法與TLD 及BACF 可定位目標并有效跟蹤,其余算法出現(xiàn)跟蹤丟失現(xiàn)象,表明部分遮擋條件下所提方法也具有較好的跟蹤效果。Boy 中目標快速運動,同時出現(xiàn)比例變化和旋轉等因素干擾,401 幀之后CT 出現(xiàn)跟蹤漂移現(xiàn)象,原因在于其泛化能力較差,無法較好地適應顯著外觀變化,而所提方法始終可精確跟蹤。Skating1 屬于較復雜場景,目標背景對比度較低,且存在較強光照變化。此場景下目標分辨率較低,CT、DFT 及TLD 均出現(xiàn)目標丟失,原因是目標背景相似性較大,對比方法無法有效區(qū)分相似目標背景;而所提方法通過長短時結合在線更新策略及時更新模板,從而可有效區(qū)分目標背景進而實現(xiàn)穩(wěn)定跟蹤。然而,某些特殊場景下訓練數(shù)據(jù)量較小,從而使網絡參數(shù)無法獲得最優(yōu)值,導致跟蹤中平均中心位置誤差稍次于CNN-PF。由于Matrix 序列光照變化較大,對比方法均出現(xiàn)跟蹤丟失現(xiàn)象,而所提方法仍可較好地鎖定目標,這是由于所提方法基于MLKR 精準度量目標背景距離,并有效判別跟蹤結果以確保最優(yōu)候選目標得

以選擇??焖龠\動導致運動模糊情況下,Bird2中目標外觀尺度同時發(fā)生較大變化,Struck 及DFT 無法準確估計目標尺度,從而導致跟蹤失敗,而所提方法可自適應目標尺度變化因而仍可鎖定目標。Tiger2 出現(xiàn)嚴重遮擋以及強背景雜波,對比方法均發(fā)生不同程度漂移或跟蹤框與真實目標尺度不符,所提方法仍能穩(wěn)定跟蹤目標,且具有較高跟蹤精度及穩(wěn)健性,這是因為所提方法通過引入重構誤差構建似然模型且采用局部化模板方法以解決目標遮擋和背景雜波,所以具有較強穩(wěn)健性。由圖3 可知,基于數(shù)據(jù)集VOT-2018測試序列Basketball、Singer1 和Singer2 所得結果與上述結果類似。Singer2 序列平均中心位置誤差稍次于CNN-PF,原因與序列Skating1 相似,不再贅述。

表1 測試序列及其主要挑戰(zhàn)因素

圖3 7 種不同跟蹤方法的跟蹤結果

3.2 定量分析

本節(jié)采用平均跟蹤重疊率和平均中心位置誤差定量分析所提方法性能。平均中心位置誤差為真實位置(x0,y0)與估計位置(x1,y1)之間距離,即

平均跟蹤重疊率表示為

其中,Rt、Rg分別為跟蹤結果及真實目標的面積。

表2 和表3 分別為不同跟蹤方法在各測試序列的平均跟蹤重疊率與平均中心位置誤差。其中,加粗字體及下劃線分別為性能最優(yōu)及次優(yōu)值。重疊率越大,中心位置誤差越小,跟蹤效果越好。

表2 不同跟蹤方法在各測試序列的平均跟蹤重疊率

由表2 和表3 可知,基于OTB-100 及VOT-2018所選10 種測試序列,所提方法相較于對比方法均有較好的跟蹤效果,其可歸因于所提方法采用MLKR 并引入誤差項構建似然模型以降低相似目標背景之間敏感度。相較于對比方法,所提方法在遮擋及噪聲等條件下性能出色,主要原因可表述如下。

表3 不同跟蹤方法在各測試序列的平均中心位置誤差

1) 所提方法考慮候選目標模板之間相關性,提高了復雜場景下算法跟蹤穩(wěn)健性。

2) 核回歸距離度量衡量粒子相似性,從而提升跟蹤有效性。

3) 目標模板局部結構化表示改善了噪聲及遮擋場景下所提方法的穩(wěn)健性及跟蹤精度。

基于平均跟蹤重疊率和平均中心位置誤差指標,采用成功率曲線和整體精度曲線評估跟蹤器整體性能[12]。成功率曲線表示將重合率大于給定閾值的幀作為成功跟蹤幀,當閾值從0 變化到1 時,記錄成功跟蹤幀數(shù)占總幀數(shù)的比率;整體精度表示中心位置誤差在距離閾值內成功幀數(shù)與總幀數(shù)的百分比[12]。不同跟蹤方法跟蹤成功率及整體精度曲線分別如圖4 和圖5 所示。由圖4 可知,多數(shù)序列中所提方法跟蹤成功率高于對比方法;Skating1 序列中所提方法相較于Struck 成功率偏低,而整體跟蹤精度(如圖5 所示)仍優(yōu)于Struck;Tiger2 序列中所提方法跟蹤精度略次于BACF,而跟蹤成功率仍優(yōu)于BACF;此外,其他序列中所提方法整體跟蹤精度也優(yōu)于對比方法。由此可知,復雜場景下所提方法整體性能優(yōu)于對比方法,且具有較好的穩(wěn)健性。

圖4 不同跟蹤方法跟蹤成功率曲線

圖5 不同跟蹤方法跟蹤整體精度曲線

為驗證復雜場景下所提方法的穩(wěn)健性,選取序列Boy 與MotorRolling 進行時間穩(wěn)健性評估(TRE,temporal robustness evaluation)與空間穩(wěn)健性評估(SRE,spatial robustness evaluation),對比結果如圖6和圖7 所示。由圖6 和圖7 可知,相較于對比方法,所提方法在光照變化、雜波等復雜背景下仍可有效跟蹤目標,此可歸因于所提方法優(yōu)化所得度量矩陣可改善模板及候選目標之間相似性度量,模板局部結構化稀疏表示可顯著抑制雜波及噪聲,模板更新策略可有效抑制雜波、噪聲、光照變化及遮擋等影響,從而復雜場景下所提方法跟蹤穩(wěn)健性相較于對比方法也可獲得明顯提升。

圖6 序列Boy 場景下不同跟蹤方法穩(wěn)健性評估

圖7 序列MotorRolling 場景下不同跟蹤方法穩(wěn)健性評估

為驗證所提方法各模塊的有效性,基于測試序列Boy 與MotorRolling 的仿真結果如表4 所示。由表4 可知,MLKR 跟蹤精度可平均提升0.065,粒子濾波跟蹤精度可平均提升0.045,長短時更新跟蹤精度可平均提升0.02,這表明度量學習及CNN融合模塊、目標稀疏表示模塊以及長短時更新策略模塊均可有效提升視覺跟蹤性能。

表4 基于測試序列Boy 和MotorRolling 的仿真結果

此外,為驗證所提方法的跟蹤時效性,本節(jié)采用每秒運行幀數(shù)(FPS,frame per second)衡量算法速度(運行50 次,平均所得FPS 作為評估指標),不同測試序列中各跟蹤方法的FPS 如表5 所示。由表5 可知,所提方法速度高于CNN-PF、Struck 及DFT,低于CT、TLD 及BACF。然而,正如前文所述,各測試序列中所提方法跟蹤性能整體優(yōu)于對比方法。需要注意的是,基于粒子濾波的跟蹤算法計算復雜度通常正比于候選粒子數(shù)量,因此,可通過先驗或時間序列信息自適應調整粒子數(shù)量以降低復雜度,從而較好地均衡跟蹤性能以及實時性。

表5 不同測試序列中各跟蹤方法的FPS

4 結束語

針對目標形變等因素導致跟蹤性能顯著下降的問題,本文提出了融合度量學習與粒子濾波的跟蹤方法。所提方法通過CNN 提取正負樣本,并基于MLKR 對其度量學習后構建觀測模型,然后基于短時及長期穩(wěn)定更新相結合更新策略更新目標模板?;贠TB-100 及VOT-2018 數(shù)據(jù)集所選包含遮擋及光照變化等因素的10 種測試序列,通過與BACF、CNN-PF、Struck、CT、TLD 以及DFT 這6 種主流跟蹤器對比驗證了所提方法的有效性。由定性分析可知,所提方法在部分遮擋、光照變化、目標形變等復雜場景下具有較強穩(wěn)健性;基于定量分析可知,相較于對比方法,多數(shù)測試場景下,所提方法平均中心誤差較低,平均重疊率較高,這表明所提方法整體跟蹤性能較優(yōu)。

猜你喜歡
方法
中醫(yī)特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數(shù)學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 青青青视频蜜桃一区二区| 国产大片黄在线观看| 国产精品一区二区国产主播| 四虎永久在线精品国产免费| 国产男女免费视频| 亚洲aaa视频| 在线欧美一区| 在线播放精品一区二区啪视频| 欧洲极品无码一区二区三区| 中国丰满人妻无码束缚啪啪| 亚洲视频在线青青| 国产经典三级在线| 中文字幕伦视频| 九九九久久国产精品| 九一九色国产| 国产亚洲欧美日韩在线观看一区二区| 99久久精品免费看国产免费软件| 精品一区二区三区四区五区| 国产精品毛片在线直播完整版| 亚洲an第二区国产精品| 亚洲五月激情网| 中文毛片无遮挡播放免费| 国产精品久久久久久久久久久久| 国产青青操| 日本黄网在线观看| 欧美另类第一页| 小说区 亚洲 自拍 另类| 国产精品久线在线观看| 又黄又湿又爽的视频| 亚洲自偷自拍另类小说| 99久久免费精品特色大片| 强奷白丝美女在线观看| 国产国拍精品视频免费看| 精品国产自| 中文字幕免费视频| www.91在线播放| 精品夜恋影院亚洲欧洲| 国产精品美女网站| 伊人久久婷婷| 超碰精品无码一区二区| 麻豆精品在线视频| 免费女人18毛片a级毛片视频| 亚洲有码在线播放| 99热最新网址| 影音先锋亚洲无码| 在线亚洲精品福利网址导航| 国产精品污视频| 九九视频在线免费观看| 免费AV在线播放观看18禁强制| 国产精品一区二区在线播放| av尤物免费在线观看| 精品国产aⅴ一区二区三区| 亚洲第一成人在线| 国产主播福利在线观看| 亚洲免费黄色网| 国产成人一二三| 亚洲国产高清精品线久久| 日韩免费毛片| 国产永久免费视频m3u8| 在线观看无码av五月花| 日韩精品一区二区深田咏美| 欧美日韩午夜视频在线观看| 亚洲成人网在线播放| 欧洲日本亚洲中文字幕| 国产在线视频二区| 亚洲成a人在线观看| 天堂岛国av无码免费无禁网站 | 欧美成在线视频| 都市激情亚洲综合久久| 美女一区二区在线观看| 无码AV日韩一二三区| 国产成人无码久久久久毛片| 日本免费一级视频| 亚洲国产日韩视频观看| 国产va欧美va在线观看| 国产在线日本| 精品视频在线观看你懂的一区| 91视频精品| 91久久性奴调教国产免费| 99视频精品在线观看| 欧美精品在线看| 99这里精品|