999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度建議框的目標(biāo)跟蹤誤差修正方法

2020-10-10 01:00:16張宏偉李曉霞
關(guān)鍵詞:模型

張宏偉,李曉霞,朱 斌,馬 旗

國防科技大學(xué) 電子對抗學(xué)院,合肥230037

1 引言

視覺目標(biāo)跟蹤一直是機(jī)器視覺領(lǐng)域的重點(diǎn)問題[1-2],其廣泛應(yīng)用于視頻監(jiān)控、智能交通、行為分析等領(lǐng)域。隨著各類無人機(jī)的廣泛使用,針對無人機(jī)航拍圖像的視覺跟蹤在遠(yuǎn)程無人機(jī)打擊、前視紅外、精確制導(dǎo)等領(lǐng)域得到了越來越多的應(yīng)用。最近幾年,隨著深度學(xué)習(xí)算法和計(jì)算機(jī)硬件條件的發(fā)展,跟蹤算法都在朝著深度學(xué)習(xí)方向發(fā)展,精度得到了顯著的提升。依據(jù)目標(biāo)的外觀模型描述的不同,目前跟蹤算法通常分為基于產(chǎn)生式(Generative)模型和判別式(Discriminative)模型的方法[3],判別式方法通過訓(xùn)練分類器來區(qū)分目標(biāo)和背景,兼顧背景模型用作負(fù)的樣本進(jìn)行訓(xùn)練,因此在處理復(fù)雜的場景時(shí)一般具有更好的魯棒性。

在OTB(Visual Object Tracking)測試集,上評分較高的算法實(shí)際應(yīng)用于無人機(jī)視覺跟蹤時(shí)往往只能短時(shí)間鎖定目標(biāo),其中最主要的挑戰(zhàn)是跟蹤漂移問題,原因在于針對判別式模型只有少量準(zhǔn)確的標(biāo)簽樣本來訓(xùn)練分類器。由于在跟蹤過程中,模板跟蹤依賴的是前面序列幀的分類結(jié)果,因此,如果前幾幀的跟蹤沒有正確的框定目標(biāo),這種自我學(xué)習(xí)的方法最終將造成跟蹤漂移,從而致使誤差不斷累積導(dǎo)致跟蹤失敗,如圖1所示。

圖1 無人機(jī)視覺跟蹤時(shí)跟蹤失敗情況

在低空無人機(jī)視覺跟蹤中,無人機(jī)視角轉(zhuǎn)換、目標(biāo)的非平面內(nèi)旋轉(zhuǎn)較頻繁的出現(xiàn),現(xiàn)有算法由于跟蹤漂移問題,難以自適應(yīng)調(diào)整目標(biāo)框。判別式模型跟蹤方法都屬于自我學(xué)習(xí)類方法,要克服這類方法的缺陷,需要離線訓(xùn)練模型來對跟蹤結(jié)果進(jìn)行修正。本文使用核相關(guān)濾波跟蹤方法作為跟蹤器,用學(xué)習(xí)得到的卷積神經(jīng)網(wǎng)絡(luò)特征代替HOG特征。目標(biāo)跟蹤修正模型采用多尺度建議框回歸的網(wǎng)絡(luò)結(jié)構(gòu),特征提取來自relu6_2 和relu7 兩個(gè)分支,通過大量的已標(biāo)注的目標(biāo)樣本離線訓(xùn)練,修正模型學(xué)習(xí)得到的是目標(biāo)級(jí)別信息,通過置信度評價(jià)機(jī)制對相關(guān)濾波跟蹤結(jié)果進(jìn)行分析判斷,及時(shí)修正跟蹤漂移帶來的誤差,實(shí)驗(yàn)結(jié)果表明了該算法的有效性。

2 相關(guān)工作

最近幾年,深度學(xué)習(xí)在圖像分類、目標(biāo)識(shí)別、顯著性檢測等計(jì)算機(jī)領(lǐng)域取得了非常大的發(fā)展。對于視覺跟蹤,基于深度學(xué)習(xí)的方法已經(jīng)超過傳統(tǒng)的方法逐步成為研究的重點(diǎn)。例如,DLT[4]基于去噪自編碼器通過離線訓(xùn)練和在線微調(diào)的方式實(shí)現(xiàn)對目標(biāo)的跟蹤。Zhang 等人[5]提出采用兩層的卷積神經(jīng)網(wǎng)絡(luò),通過局部特征映射獲取魯棒性全局特征來提高算法的魯棒性。通過聯(lián)合多層卷積特征,Wang等人[6]基于全卷積神經(jīng)網(wǎng)絡(luò)提高了跟蹤的準(zhǔn)確性。同樣是多層卷積特征的結(jié)合,Ma等人[7]通過由粗到精的方式來挖掘不同深度特征的優(yōu)勢。MDNet 采用多域卷積網(wǎng)絡(luò)的方式,針對不同的視頻在線訓(xùn)練新的fc6 層提高了跟蹤精度,但由于需要在線訓(xùn)練影響了跟蹤速度[8]。Learnet[9]是第一個(gè)利用元學(xué)習(xí)方法解決跟蹤任務(wù),利用單個(gè)的樣本來預(yù)測網(wǎng)絡(luò)的參數(shù),但該方法的性能比不上基于相關(guān)濾波(Correlation Filter,CF)的最新算法,例如CCOT[10]。

相對于傳統(tǒng)算法采用人工設(shè)計(jì)的特征,基于深度學(xué)習(xí)的跟蹤算法在成功率和跟蹤精度上占據(jù)明顯的優(yōu)勢,但跟蹤速度還無法做到實(shí)時(shí)。另外一類判別式跟蹤方法就是相關(guān)濾波算法,利用循環(huán)矩陣的性質(zhì)推導(dǎo)實(shí)現(xiàn)了密集采樣相關(guān)濾波,在跟蹤速度上占據(jù)明顯優(yōu)勢。MOSSE[11]首先推導(dǎo)了核相關(guān)濾波的閉解形式并用于視覺跟蹤,如果采用單通道灰度圖像速度能達(dá)到600 FPS,CN[12]、CSK[13]、KCF[14]以及COOT 都是后續(xù)在此基礎(chǔ)上提出的改進(jìn)算法,跟蹤速度也達(dá)到了100 FPS。

這兩類算法都有各自的優(yōu)勢,在OTB 測試集上獲得了較高的評分,但實(shí)際應(yīng)用于無人機(jī)視覺跟蹤場景時(shí)普遍存在跟蹤漂移的情況,因此需要對此進(jìn)行改進(jìn)才能應(yīng)用于長時(shí)間跟蹤問題。在最新的無人機(jī)跟蹤算法中,文獻(xiàn)[15]采用CSK跟顏色特征相結(jié)合的方法,提高了算法在目標(biāo)運(yùn)動(dòng)速度較快、幅度改變較大時(shí)的適應(yīng)能力,但由于采用手工設(shè)計(jì)的特征,算法的準(zhǔn)確性不高,同時(shí)無法自適應(yīng)調(diào)整目標(biāo)框。文獻(xiàn)[16]改進(jìn)的基于核相關(guān)濾波器的無人機(jī)目標(biāo)跟蹤算法,也只是對尺度估計(jì)進(jìn)行了重新設(shè)計(jì),沒有解決目標(biāo)較大形變時(shí)的跟蹤漂移問題。

3 本文算法

圖2 基于修正模型的核相關(guān)濾波跟蹤框架

為了解決無人機(jī)視覺跟蹤時(shí)的跟蹤漂移問題,本文提出了基于多尺度建議框回歸的核相關(guān)濾波跟蹤算法,整個(gè)算法跟蹤框架如圖2 所示。第一部分為孿生卷積神經(jīng)網(wǎng)絡(luò)提取特征,孿生網(wǎng)絡(luò)兩個(gè)分支具有相同的濾波參數(shù),輸入圖像為模板圖像和以上一幀跟蹤結(jié)果為中心的周圍搜索區(qū)域,通過核相關(guān)濾波得到模板匹配響應(yīng),響應(yīng)圖的中心即為初始估計(jì)位置。第二部分為目標(biāo)跟蹤修正模型,目標(biāo)框回歸訓(xùn)練在不同特征層多尺度建議框上進(jìn)行,在線跟蹤時(shí)能比較好的的修正跟蹤漂移帶來的誤差。為了提高算法速度,跟蹤框的修正只在發(fā)生漂移時(shí)進(jìn)行,期間設(shè)計(jì)了相關(guān)響應(yīng)置信度自適應(yīng)評價(jià)機(jī)制對跟蹤結(jié)果進(jìn)行綜合判斷。得益于目標(biāo)跟蹤修正模型,精修后的跟蹤結(jié)果反過來用于跟蹤模塊中模板的更新,避免了核相關(guān)濾波模板的污染。

3.1 基于孿生網(wǎng)絡(luò)的核相關(guān)濾波跟蹤

基于深度學(xué)習(xí)的跟蹤算法在準(zhǔn)確率上有明顯的提高,其中在線更新類需要針對正、負(fù)樣本在線訓(xùn)練網(wǎng)絡(luò)參數(shù),影響了跟蹤速度,而相關(guān)濾波類算法在速度和精度上均有優(yōu)良的表現(xiàn),因此這里采用核相關(guān)濾波作為跟蹤器。相關(guān)濾波采用孿生卷積神經(jīng)網(wǎng)絡(luò)來提取目標(biāo)的深度學(xué)習(xí)特征,孿生卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練框架如圖3所示。

圖3 孿生卷積神經(jīng)網(wǎng)絡(luò)提取深度特征

在前向傳播過程中,網(wǎng)絡(luò)輸入為訓(xùn)練圖像x和測試圖像z,圖像x為前一幀以目標(biāo)為中心的周圍區(qū)域,圖像z為當(dāng)前幀搜索區(qū)域內(nèi)圖像,分別通過具有相同結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)fρ提取特征。CF為相關(guān)濾波模塊,通過在傅里葉域求解脊回歸問題獲取訓(xùn)練樣本的特征模板,最后再進(jìn)行互相關(guān)運(yùn)算,響應(yīng)的表達(dá)式為:

為了使相關(guān)響應(yīng)變換到邏輯回歸的值域,增加s、b調(diào)整系數(shù)。在跟蹤的過程中,每一幀都可以得到一個(gè)跟蹤結(jié)果,獲取一個(gè)新的目標(biāo)模板w,實(shí)際跟蹤時(shí)用于相關(guān)運(yùn)算的模板是通過與前面所有幀計(jì)算的模板進(jìn)行加權(quán)平均得到,這樣可以自適應(yīng)目標(biāo)外觀的變化。

其中矩陣X∈?d×n每列為取樣向量,y∈?n為目標(biāo)向量,λ為正則化系數(shù)。利用拉格朗日乘子法[17]進(jìn)行求解,首先構(gòu)建拉格朗日表達(dá)式,并令r=XTw-y可以得到:

因?yàn)橄嚓P(guān)濾波操作為矩陣元素點(diǎn)積,因此在跟蹤時(shí)速度非常快,通過相關(guān)濾波網(wǎng)絡(luò)離線訓(xùn)練CNN參數(shù)ρ,同直接采用目標(biāo)檢測任務(wù)遷移過來的網(wǎng)絡(luò)相比較,可以進(jìn)一步提高跟蹤精度。

3.2 基于多尺度建議框的修正模型設(shè)計(jì)

為了解決跟蹤漂移漂移時(shí)跟蹤器無法自適應(yīng)調(diào)整目標(biāo)框,訓(xùn)練目標(biāo)跟蹤修正模型對跟蹤結(jié)果進(jìn)行修正。設(shè)目標(biāo)建議框p(px,py,pw,ph)到正確的目標(biāo)框g(gx,gy,gw,gh)的偏差估計(jì)為g?(g?x,g?y,g?w,g?h),修正模型輸入以目標(biāo)為中心的周圍區(qū)域,經(jīng)過網(wǎng)絡(luò)前端的特征提取之后,訓(xùn)練得到目標(biāo)特征到偏差的映射關(guān)系。由于CNN具有尺度不變性,因此偏差的計(jì)算一般采用平移+尺度縮放的形式,即:

當(dāng)輸入的建議框與目標(biāo)框相差較小時(shí)(參考RCNN設(shè)置為IOU>0.6),才能認(rèn)為這種變換是一種線性變換,那么可以用線性回歸來建模對窗口進(jìn)行微調(diào),否則會(huì)導(dǎo)致訓(xùn)練的修正模型不收斂。

為了讓建議框更加接近目標(biāo)框,這里選擇在多層特征圖的每個(gè)點(diǎn)選取不同比例的預(yù)選框,如圖4 所示,在特征圖的每個(gè)位置設(shè)定固定的多個(gè)不同尺度建議框,當(dāng)其中一個(gè)建議框與目標(biāo)框差別較小時(shí),訓(xùn)練時(shí)就能擬合偏差的線性關(guān)系。建議框的使用能讓目標(biāo)函數(shù)更容易收斂,降低訓(xùn)練難度,并能對應(yīng)目標(biāo)大小到不同的特征層。CNNbase采用VGG網(wǎng)絡(luò)第5卷積層前面的相關(guān)層,回歸模塊包括建議框提取、置信度計(jì)算、目標(biāo)框回歸3個(gè)分支,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)如圖5所示。

圖4 多尺度建議框選取示意圖

目標(biāo)跟蹤修正模型采用離線訓(xùn)練的形式,以避免在線跟蹤再訓(xùn)練降低跟蹤速度。

3.3 置信度評價(jià)機(jī)制和模板更新策略

通過前面的相關(guān)濾波網(wǎng)絡(luò)和回歸網(wǎng)絡(luò)可以得到目標(biāo)的兩方面的信息,一是跟蹤器根據(jù)前面幀的跟蹤結(jié)果學(xué)習(xí)得到的目標(biāo)外觀模型w,可以預(yù)測它在下一幀的尺度和位置,但這樣難以避免誤差累積問題,而且一旦物體在圖像中消失,跟蹤就會(huì)失效,即使物體再出現(xiàn)也無法重新跟蹤;二是修正模型離線訓(xùn)練得到的物體類級(jí)別的信息和特征到邊框預(yù)測的映射關(guān)系,但也存在訓(xùn)練樣本不足或者多目標(biāo)干擾無法檢測到目標(biāo)的情況。為了綜合運(yùn)用這兩方面的信息,需要對跟蹤結(jié)果的可靠性進(jìn)行評價(jià),以便于及時(shí)停止用錯(cuò)誤的結(jié)果對相關(guān)濾波模板進(jìn)行更新。

在跟蹤漂移出現(xiàn)的時(shí)候,往往伴隨著相關(guān)濾波響應(yīng)峰值的逐漸降低,這里用峰值旁瓣比(Peak Sidelobe Ratio,PSR)來定量描述相關(guān)響應(yīng)峰的尖銳程度:

其中η為目標(biāo)模板學(xué)習(xí)系數(shù)。通過引入目標(biāo)跟蹤修正模型,可以充分利用離線訓(xùn)練樣本獲取的先驗(yàn)知識(shí),克服在線跟蹤訓(xùn)練樣本不足的缺陷,用準(zhǔn)確位置對相關(guān)濾波模板進(jìn)行更新,防止錯(cuò)誤樣本對跟蹤器造成污染。融合相關(guān)濾波響應(yīng)f(i)r和修正模型輸出的目標(biāo)置信圖f(i)c是為了尋找數(shù)據(jù)在空間上的結(jié)構(gòu)性,把跟蹤器產(chǎn)生的結(jié)果和修正模型檢測的正樣本進(jìn)行比較,選擇出一個(gè)最可信的位置,保證物體最多只出現(xiàn)在一個(gè)位置上。

圖5 回歸網(wǎng)絡(luò)結(jié)構(gòu)示意圖

以圖6 的例子為例分析綜合利用相關(guān)濾波跟蹤和修正模型各自優(yōu)點(diǎn)的好處,列表中第2 行為t時(shí)刻初始化框,第3 行中黃色框是t+1 時(shí)刻跟蹤器產(chǎn)生的正樣本,藍(lán)色框是修正模型得到的正樣本,紅星標(biāo)記的是綜合判斷之后的最后結(jié)果,4 行和5 行分別為相關(guān)濾波響應(yīng)和修正模型得到的目標(biāo)置信度。序列1 中汽車在轉(zhuǎn)彎時(shí)跟蹤器不能準(zhǔn)確框定目標(biāo),置信度小于閾值,此時(shí)引入修正模型對跟蹤器結(jié)果進(jìn)行修正,防止跟蹤漂移。序列2 中修正模型錯(cuò)誤的認(rèn)為上面一輛車的樣本更可信,跟蹤器通過前面序列幀學(xué)習(xí)得到的表觀模型選擇了置信度排序第2的下方一輛車,通過綜合利用了離線訓(xùn)練獲得的先驗(yàn)知識(shí)和在線跟蹤特定目標(biāo)的表觀模型,最后仍然可以追蹤到正確的目標(biāo)。

images/BZ_141_328_1287_998_2048.png

4 實(shí)驗(yàn)結(jié)果及分析

4.1 網(wǎng)絡(luò)訓(xùn)練

相關(guān)濾波網(wǎng)絡(luò)特征提取層的訓(xùn)練數(shù)據(jù)來自ImageNet 視頻數(shù)據(jù)集ILSVRC VID2015,輸入圖片為同個(gè)視頻中時(shí)間間隔為T的兩幀圖像,以目標(biāo)為中心裁剪周圍區(qū)域。使用大小為32的批量處理計(jì)算每次迭代的梯度,學(xué)習(xí)速率從102到105依次遞減。

修正模型首先在VOC2007 和VOC2010 數(shù)據(jù)集上訓(xùn)練學(xué)習(xí)得到卷積特征層的通用表達(dá)。對于每張圖像取目標(biāo)周圍區(qū)域3倍目標(biāo)框尺寸的范圍,圖片輸入大小為300×300像素。采用SGD梯度下降算法,動(dòng)量取0.9,權(quán)值衰減 γ 取0.000 5,學(xué)習(xí)率為105。在VOC 數(shù)據(jù)上訓(xùn)練將損失降到一定程度之后,再針對特定目標(biāo)在無人機(jī)數(shù)據(jù)集VisDrone 上接著訓(xùn)練。VisDrone 中訓(xùn)練集含56個(gè)序列,共計(jì)24 201 幀圖像,驗(yàn)證集含7 個(gè)序列,共計(jì)2 819 幀圖像。模型總共訓(xùn)練了24 代,迭代過程中的損失函數(shù)變化如圖7所示。

圖7 修正模型訓(xùn)練時(shí)的損失函數(shù)變化

4.2 測試及結(jié)果分析

為了對算法效果進(jìn)行評價(jià),采用VisDrone、UAV123和DTB這3種專用的無人機(jī)跟蹤數(shù)據(jù)集進(jìn)行測試,測試環(huán)境為:CPU為Intel I5-7300HQ,4核2.50 GHz,GPU為NVIDIA GeForce GTX 1060 MaxQ。在使用GPU 的情況下,文本算法的運(yùn)行速度大約為34.7 FPS。

評價(jià)采用OTB-100 標(biāo)準(zhǔn)中的中心定位誤差和邊框重合率兩種評價(jià)指標(biāo),采用OPE(One Pass Evaluation)測試方法,將本文算法與目前較好的9 種算法ECO、Staple、CFNet、SRDCF、DSST、SiamFC、Goturn、KCF、CN進(jìn)行了比較。

圖8為成功率曲線測試圖,其表征的是估計(jì)目標(biāo)矩形框與真實(shí)目標(biāo)矩形框的重疊率的大小,即兩矩形框的相交部分面積除以兩矩形框的相并部分的面積。其橫坐標(biāo)是從0 到1 的連續(xù)閾值,縱坐標(biāo)是重疊率大于該閾值的所有幀占該序列總幀的百分比,使用曲線下方的面積來表示評價(jià)得分。圖9是精度曲線圖測試,其衡量的是估計(jì)目標(biāo)中心與真實(shí)目標(biāo)中心的歐式距離誤差大小,其橫坐標(biāo)是一系列不同的距離閾值大小(像素單位),縱坐標(biāo)是估計(jì)目標(biāo)中心位置的誤差距離小于該閾值的所有幀占該序列總幀的百分比,其中采用閾值為11 像素所對應(yīng)的百分比為評價(jià)得分。

圖8 航拍視頻成功率曲線測試

圖9 航拍視頻精度曲線測試

可以看到針對無人機(jī)平臺(tái)視覺目標(biāo)跟蹤,本文算法在成功率和精度要優(yōu)于其他幾類算法,特別是較小重疊率情況下。從成功率曲線可以看到,本文算法比排第二的ECO提高了14.3%,效果比較明顯。對于精度曲線中心距離差小于11像素的占比為0.635,比SiamFC提高了3.1%(0.616),跟蹤精度的提高主要得益于算法中修正模型對相關(guān)濾波跟蹤結(jié)果的修正,克服了相關(guān)濾波長時(shí)間跟蹤時(shí)容易產(chǎn)生跟蹤漂移的缺點(diǎn)。

如圖10 為10 種算法對視頻序列跟蹤的定性分析,由于篇幅原因列出了其中差別較大的4個(gè)序列。例如,序列UAV123-Car1 汽車轉(zhuǎn)彎、序列UAV123-Boat3 船大尺度的變形情況時(shí),其他幾種算法只學(xué)習(xí)到前面序列幀目標(biāo)出現(xiàn)過的形態(tài),當(dāng)形態(tài)發(fā)生劇烈變化,跟蹤框不能及時(shí)的調(diào)整,而本文算法因?yàn)樵陔x線階段目標(biāo)跟蹤修正模型學(xué)習(xí)到目標(biāo)的先驗(yàn)知識(shí),所以在線跟蹤時(shí)能及時(shí)對目標(biāo)框進(jìn)行修正,防止跟蹤器目標(biāo)模板被污染。序列visDrone-Person1中跟蹤目標(biāo)人在跟蹤的過程中有大量遮擋,并且不時(shí)有旁邊相似物體的干擾,本文算法都有好的表現(xiàn),目標(biāo)框能緊隨目標(biāo)形態(tài)的改變而改變。序列visDrone-Sheep2為成小目標(biāo)形態(tài)的羊,在前面序列幀都能框定目標(biāo),在700幀的時(shí)候,相機(jī)有大幅度的晃動(dòng),因此所有算法都跟丟了目標(biāo)。

同時(shí),本文算法也存在跟蹤失敗的情況,如圖11所示。在對DTB-Animal3序列羊的跟蹤過程中,另一只羊從前面交叉通過,目標(biāo)框最終漂移到了羊的頭部,主要是因?yàn)槟繕?biāo)跟蹤修正模型錯(cuò)誤的將兩只羊當(dāng)成了一個(gè)目標(biāo)。DTB-ChasingDrones序列和UAV123-Car7序列存在目標(biāo)跟丟的情況,出現(xiàn)在無人機(jī)速度太快導(dǎo)致視野晃動(dòng)、汽車被遮擋的時(shí)候,本文算法因?yàn)樗阉饔虮容^小,還不能應(yīng)對大范圍搜索跟蹤的情況,這同時(shí)也是另外幾種跟蹤算法普遍存在問題,是下一步需要進(jìn)一步解決的問題。

圖11 跟蹤失敗的情況

圖10 部分無人機(jī)視頻序列中的跟蹤結(jié)果

5 總結(jié)

目前基于深度學(xué)習(xí)的目標(biāo)跟蹤方法跟蹤精度上有顯著的提升,在OTB等常規(guī)測試集上有明顯的優(yōu)勢,但實(shí)際應(yīng)用于低空無人機(jī)平臺(tái)目標(biāo)跟蹤時(shí),存在嚴(yán)重的跟蹤漂移情況,主要是由于模板跟蹤依賴的是前面序列幀的分類結(jié)果,當(dāng)目標(biāo)外觀改變造成模板污染之后,很難重新框定目標(biāo)。針對該問題,本文提出了一種基于目標(biāo)跟蹤修正模型的相關(guān)濾波跟蹤算法,利用相關(guān)濾波來對目標(biāo)的位置和尺度進(jìn)行初始估計(jì),針對特定的目標(biāo),修正模型離線訓(xùn)練得到目標(biāo)級(jí)別信息,在線跟蹤時(shí)對相關(guān)濾波跟蹤結(jié)果進(jìn)行精修成功的避免了誤差累積的擴(kuò)大。在UAV123、VisDrone、DTB無人機(jī)航拍數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)結(jié)果表明,本文算法能較好地克服跟蹤時(shí)跟蹤漂移問題,跟蹤精度和成功率要優(yōu)于其他幾種算法。該跟蹤框架還存在同類相似目標(biāo)干擾、長時(shí)間跟蹤的問題,需要下步更進(jìn)一步改進(jìn)。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 婷五月综合| 婷婷伊人久久| 中文字幕av无码不卡免费| 久久综合结合久久狠狠狠97色| 亚洲美女一级毛片| 一区二区午夜| 男人天堂亚洲天堂| www.91中文字幕| 国产呦精品一区二区三区下载 | 手机在线看片不卡中文字幕| 亚洲天堂伊人| 国产高清不卡| 亚洲欧美激情小说另类| 亚洲无码视频图片| 无码AV动漫| 久久久久国产精品嫩草影院| 亚洲国产成人在线| 2021国产精品自产拍在线观看| 免费无码一区二区| 青青草久久伊人| 日韩无码白| 亚洲精品欧美日韩在线| 亚洲最大福利视频网| 欧美另类视频一区二区三区| 亚洲AV无码一区二区三区牲色| 综合网久久| a级毛片在线免费观看| 在线毛片免费| 免费观看精品视频999| 日韩精品专区免费无码aⅴ| 国产极品美女在线播放| 久久综合成人| 69精品在线观看| www.99精品视频在线播放| 国产成人喷潮在线观看| 午夜福利亚洲精品| 国产香蕉一区二区在线网站| 亚洲精品另类| 欧美日韩一区二区在线免费观看| av一区二区无码在线| 青青草91视频| 欧美h在线观看| 成人午夜亚洲影视在线观看| 五月天丁香婷婷综合久久| jizz国产在线| 国产精品片在线观看手机版 | 自慰网址在线观看| 亚洲精品无码久久毛片波多野吉| 欧美日韩国产一级| 国产一级裸网站| 又爽又大又黄a级毛片在线视频| 久久狠狠色噜噜狠狠狠狠97视色| 一区二区自拍| 国产麻豆福利av在线播放| 五月激情婷婷综合| 亚洲免费黄色网| 日本人妻丰满熟妇区| 久久久久人妻一区精品色奶水| 欧美自拍另类欧美综合图区| 亚洲系列中文字幕一区二区| 国产美女91视频| 亚洲国产成人麻豆精品| 在线观看免费黄色网址| 欧美国产视频| 日韩123欧美字幕| 亚洲国产系列| 国产自在自线午夜精品视频| 欧美综合区自拍亚洲综合天堂 | 永久免费无码成人网站| 在线看片国产| 2021国产v亚洲v天堂无码| 日本三级黄在线观看| 日韩在线成年视频人网站观看| 亚洲中文字幕手机在线第一页| 亚洲美女一级毛片| 91精品国产一区自在线拍| 99热这里都是国产精品| 国产亚洲精久久久久久久91| 99热这里都是国产精品| 亚洲一级毛片| 真实国产乱子伦高清| 国产成人高清精品免费5388|