999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種時(shí)空特征融合的魯棒視覺跟蹤算法

2023-01-07 01:47:46楊志龍侯志強(qiáng)余旺盛張成煜馬素剛
關(guān)鍵詞:特征融合

楊志龍, 侯志強(qiáng), 余旺盛 , 蒲 磊, 張成煜, 馬素剛

(1.西安郵電大學(xué)計(jì)算機(jī)學(xué)院,西安, 710121 ;2.空軍工程大學(xué)信息與導(dǎo)航學(xué)院,西安, 710077;3.火箭軍工程大學(xué)作戰(zhàn)保障學(xué)院,西安, 710025)

視覺目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)之一,在視頻理解、人機(jī)交互、無人機(jī)、自動(dòng)駕駛等方面具有廣泛的應(yīng)用[1]。近年來,視覺跟蹤領(lǐng)域涌現(xiàn)出諸多優(yōu)異的成果,但仍然面臨著不小的挑戰(zhàn)[2],在跟蹤過程中,當(dāng)目標(biāo)發(fā)生形變、遮擋、旋轉(zhuǎn)、運(yùn)動(dòng)模糊以及處于復(fù)雜場景等情況下,往往會(huì)造成目標(biāo)丟失。

近幾年,相關(guān)濾波跟蹤算法[3]以其良好的跟蹤性能吸引了眾多研究人員的關(guān)注。相關(guān)濾波類跟蹤算法通常采用手工特征[4-6]對(duì)目標(biāo)外觀進(jìn)行表征,基于深度學(xué)習(xí)的CNN特征[7]也被廣泛應(yīng)用,并取得了良好的跟蹤效果。文獻(xiàn)[8]在分析了深度特征和手工特征各自的優(yōu)勢(shì)后,提出不同特征應(yīng)區(qū)別對(duì)待,調(diào)整不同特征的權(quán)重系數(shù)進(jìn)行融合,發(fā)揮不同特征的優(yōu)勢(shì),進(jìn)一步提升了跟蹤器的性能。在基于相關(guān)濾波的跟蹤算法中,ECO算法[9]表現(xiàn)突出,該算法使用了CN特征、HOG特征和CNN特征的組合,獲得了很好的跟蹤性能。

但上述這些特征都屬于表征目標(biāo)表觀特征的靜態(tài)信息,在運(yùn)動(dòng)目標(biāo)的跟蹤中,如果引入表征目標(biāo)運(yùn)動(dòng)特征的動(dòng)態(tài)信息或者時(shí)序信息,應(yīng)該能夠進(jìn)一步提升算法的跟蹤性能。文獻(xiàn)[10]提出遞歸全對(duì)場變換深度網(wǎng)絡(luò)(recurrent all-pairs field transforms,RAFT),通過遞歸單元迭代更新的方式提取光流獲取運(yùn)動(dòng)特征,該網(wǎng)絡(luò)具有良好的泛化能力,并在推理時(shí)間和計(jì)算速度等方面具有較高的效率。運(yùn)動(dòng)特征被廣泛應(yīng)用于動(dòng)作識(shí)別[11]和人體行為識(shí)別[12]中, 文獻(xiàn)[13]在視覺跟蹤算法中運(yùn)用了深度運(yùn)動(dòng)特征,并取得了較好效果,但現(xiàn)有的跟蹤算法大多數(shù)沒有利用目標(biāo)的運(yùn)動(dòng)特征,如何通過對(duì)目標(biāo)的運(yùn)動(dòng)特征和空間表觀特征的融合來提高算法的跟蹤性能,是一個(gè)值得研究的工作。

此外,在跟蹤過程中,對(duì)跟蹤結(jié)果質(zhì)量的判定可以有效減少模型累積錯(cuò)誤導(dǎo)致的跟蹤失敗。常用的質(zhì)量判別指標(biāo)是根據(jù)目標(biāo)響應(yīng)圖的變化來判斷跟蹤結(jié)果是否可靠,文獻(xiàn)[14]提出了峰值旁瓣比(peak-to-sidelobe ratio, PSR),該方法通過響應(yīng)圖峰值尖銳程度來判定跟蹤結(jié)果是否可靠。文獻(xiàn)[15]在LMCF算法中提出平均相關(guān)峰能量(average peak to correlation energy,APCE)通過對(duì)響應(yīng)圖振蕩的幅度來判斷跟蹤結(jié)果是否可靠。因此,可以依據(jù)相關(guān)的判別準(zhǔn)則對(duì)跟蹤結(jié)果的質(zhì)量進(jìn)行判定,以保證獲得較好的跟蹤結(jié)果。

綜上所述,本文將在相關(guān)濾波跟蹤框架的基礎(chǔ)上,通過引入RAFT深度網(wǎng)絡(luò)來估計(jì)光流,獲取表征目標(biāo)運(yùn)動(dòng)特征的時(shí)序信息,提取目標(biāo)的CN特征和HOG特征,獲取表征目標(biāo)表觀特征的空間信息,然后融合這兩種信息以增強(qiáng)對(duì)目標(biāo)時(shí)空特征的表征能力;其次,建立一種基于相似度的跟蹤結(jié)果質(zhì)量判別機(jī)制,根據(jù)跟蹤結(jié)果實(shí)時(shí)調(diào)整時(shí)序信息在融合過程中的權(quán)重,以期在跟蹤過程中更好地發(fā)揮不同特征的優(yōu)勢(shì)。在OTB100[16]和VOT2019[17]數(shù)據(jù)集上對(duì)所提出的算法進(jìn)行了測試,實(shí)驗(yàn)結(jié)果表明,基于目標(biāo)時(shí)序信息和空間信息自適應(yīng)融合的跟蹤算法有效提升了視覺跟蹤算法的精度與成功率。

1 相關(guān)工作

為提升視覺跟蹤算法的跟蹤性能,本文選擇了性能優(yōu)異的ECO算法作為基準(zhǔn)算法,將目標(biāo)的運(yùn)動(dòng)特征引入到ECO算法中。ECO算法分析了影響跟蹤算法的3個(gè)重要因素:模型冗余、時(shí)間復(fù)雜度和模型更新策略。針對(duì)模型冗余提出了因式分解卷積,針對(duì)時(shí)間復(fù)雜度提出了樣本生成空間模型,在模型更新中主要減少了模型更新次數(shù)。接下來介紹ECO算法中的因式分解卷積過程和樣本生成空間模型。

1.1 因式分解的卷積操作

SPf(x)=PfJ(x)=∑c,dpd,cfcJd{xd}=fPTJ{x}

(1)

式中:PT為線性降維算子。傅里葉域中濾波器求解目標(biāo)函數(shù)表示為:

(2)

1.2 樣本生成空間模型

該模型通過樣本分類來簡化訓(xùn)練集。通過概率生成模型減小冗余樣本集進(jìn)而使樣本更緊湊。將樣本進(jìn)行編組,類似的樣本劃為一組,每一個(gè)組都代表一種特定的場景。即組與組之間差異性大,而組內(nèi)比較相似程度高,該方法極大豐富了訓(xùn)練樣本集的多樣性。

根據(jù)樣本特征x和對(duì)應(yīng)的期望輸出分?jǐn)?shù)y的聯(lián)合概率分布p(x,y),可將式(2)進(jìn)一步完善為:

(3)

式中:E為聯(lián)合概率分布p(x,y)的期望。樣本x的關(guān)聯(lián)輸出y的形狀是預(yù)先定義好的,在這里為一個(gè)高斯函數(shù)。假設(shè)為目標(biāo)位于圖像區(qū)域中心點(diǎn),因此所有y都一致。將樣本分布簡化為P(x,y)=p(x)δy0(y)只需計(jì)算p(x)即可:

(4)

式中:L表示樣本組的個(gè)數(shù),i∈[1,L];樣本組由N(x;μ;I)表示。將原訓(xùn)練樣本替換為高斯模型均值μ1,使用高斯主成分先驗(yàn)權(quán)值π1代替原更新系數(shù)。引入上述模型后濾波器求解目標(biāo)函數(shù)最終可表示為:

E(f)=

(5)

2 本文算法

本文首先引入遞歸全對(duì)場變換深度網(wǎng)絡(luò)(RAFT)估計(jì)光流,以提取時(shí)序信息,然后,利用目標(biāo)的運(yùn)動(dòng)特征和表觀特征的互補(bǔ)性,融合目標(biāo)時(shí)序信息和空間信息,以增強(qiáng)目標(biāo)時(shí)空特征的表征能力,同時(shí),建立了一種基于相似度的跟蹤結(jié)果質(zhì)量判別機(jī)制,根據(jù)跟蹤結(jié)果實(shí)時(shí)調(diào)整時(shí)序信息在融合過程中的權(quán)重,在特征融合過程中發(fā)揮不同特征的優(yōu)勢(shì),以獲得更好的跟蹤性能。

2.1 RAFT網(wǎng)絡(luò)時(shí)序信息提取

RAFT是一種性能優(yōu)異的光流深層網(wǎng)絡(luò)結(jié)構(gòu),如圖1所示。 RAFT主要由三部分構(gòu)成:特征編碼器、4D相關(guān)聯(lián)層和基于門控循環(huán)單元[17](gate recurrent unit,GRU)的更新運(yùn)算器。

圖1 RAFT網(wǎng)絡(luò)結(jié)構(gòu)

定義視頻的總序列為t={1,2,…,i},其中i為視頻總幀數(shù),第t時(shí)刻圖像為It,選取t、t+1時(shí)刻連續(xù)2幀RGB圖像輸入網(wǎng)絡(luò)。首先通過特征編碼器提取It、It+1的特征,對(duì)It+1的特征圖進(jìn)行平均池化,池化核大小分別為{1,2,4,8};其次將池化后的特征向量分別與It的特征向量進(jìn)行內(nèi)積運(yùn)算,得到一個(gè)4D的多尺度相關(guān)聯(lián)層ck(k=1,2,3),圖1中Ck的維度大小為H×W×H/2k-2;最后將相關(guān)聯(lián)層特征向量和上下文編碼器特征向量輸入GRU更新運(yùn)算器,GRU更新運(yùn)算器的輸出為最終光流。 RAFT網(wǎng)絡(luò)估計(jì)了一個(gè)密集位移場(f1,f2),該場將It+1中的每個(gè)像素(u,v)映射到對(duì)應(yīng)的坐標(biāo)(u′,v′)=(u+f1(u),v+f2(v)),以描述每個(gè)像素在下一幀中的運(yùn)動(dòng)光流。其中光流場可以通過GRU更新運(yùn)算器的迭代來更新。

在測試中,當(dāng)直接利用RAFT網(wǎng)絡(luò)計(jì)算的原始光流進(jìn)行特征融合跟蹤時(shí),目標(biāo)非常容易丟失,通過分析得知,ECO算法分別對(duì)CN特征和HOG特征進(jìn)行了歸一化處理,而原始光流沒有進(jìn)行歸一化處理,使得3種特征融合時(shí)得到了錯(cuò)誤的融合結(jié)果,造成跟蹤失敗。為此,我們對(duì)原始光流采用式(6)進(jìn)行了歸一化處理。

(6)

式中::xij為矩陣中對(duì)應(yīng)的像素值;f′為歸一化處理后的光流特征向量,通過對(duì)原始光流的歸一化處理,使特征融合結(jié)果能夠很好地用于目標(biāo)跟蹤,顯著提升了算法的跟蹤性能。

RAFT網(wǎng)絡(luò)中,光流提取速度約為10 FPS,不同的迭代次數(shù)對(duì)跟蹤速度和成功率有重要的影響,在OTB100數(shù)據(jù)集實(shí)驗(yàn)結(jié)果如表1所示。從表中可以看出,迭代次數(shù)為4時(shí)跟蹤效果最好,而當(dāng)?shù)螖?shù)超過4時(shí),不僅影響跟蹤器的實(shí)時(shí)性,同時(shí)會(huì)降低跟蹤器的性能。因此,為平衡跟蹤器性能,本文將RAFT網(wǎng)絡(luò)迭代次數(shù)設(shè)置為4,并在后續(xù)實(shí)驗(yàn)中采用該值。

表1 迭代次數(shù)對(duì)精度、成功率和速度的影響

2.2 跟蹤結(jié)果質(zhì)量判定

目標(biāo)跟蹤過程中,目標(biāo)外觀和背景隨時(shí)間的推移不斷發(fā)生變化,在目標(biāo)遮擋或者外觀出現(xiàn)劇烈變化時(shí)容易造成模型污染,從而導(dǎo)致跟蹤失敗,因此對(duì)跟蹤結(jié)果的質(zhì)量判定非常重要。這不僅會(huì)影響模型更新的策略,也會(huì)影響不同類別特征在融合過程中所占的比重。

APCE是根據(jù)響應(yīng)圖震蕩程度來反映跟蹤結(jié)果的指標(biāo),該指標(biāo)定義如式(7)所示,當(dāng)響應(yīng)圖峰值起伏越小則該值越大,說明跟蹤結(jié)果可靠,反之當(dāng)出現(xiàn)跟蹤失敗時(shí)該值會(huì)急劇下降。

(7)

當(dāng)APCE突然減小時(shí),可能發(fā)生目標(biāo)被遮擋,或者目標(biāo)丟失的情況,但當(dāng)目標(biāo)在快速運(yùn)動(dòng)、運(yùn)動(dòng)模糊或周圍有干擾物等情況下,該值也會(huì)突然減小,而大多這種情況下跟蹤結(jié)果卻是可靠的,所以這時(shí)該值會(huì)對(duì)跟蹤結(jié)果的質(zhì)量造成誤判。

對(duì)此,我們采用目標(biāo)模板和候選模板之間的相似度來判斷跟蹤結(jié)果的可靠程度,該指標(biāo)定義如下:

(8)

式中:Aobj為目標(biāo)模板,選取圖像的初始模板為目標(biāo)模板;Bcdt為候選模板,每一幀的跟蹤結(jié)果為候選模板;·為計(jì)算矩陣二范式范圍為[0,1]。最后根據(jù)調(diào)整運(yùn)動(dòng)特征在融合過程中的權(quán)重。

2.3 特征融合

當(dāng)目標(biāo)處于復(fù)雜動(dòng)態(tài)環(huán)境下,僅用空間特征表征目標(biāo)的特征,其表征能力十分有限。針對(duì)不同特征之間的互補(bǔ)性,本文采用時(shí)序特征和空間特征的自適應(yīng)融合方式對(duì)目標(biāo)建模。采用的3種不同特征分別為:HOG、CN和光流。首先從訓(xùn)練樣本X中提取不同類型的特征fj,提取目標(biāo)的CN特征和HOG特征表征目標(biāo)空間信息,將It、It+1時(shí)刻的相鄰幀輸入RAFT網(wǎng)絡(luò)中提取光流,利用目標(biāo)的運(yùn)動(dòng)特征和表觀特征的互補(bǔ)性,融合目標(biāo)時(shí)序信息和空間信息,增強(qiáng)目標(biāo)時(shí)空信息的表征能力。

光流可以提取目標(biāo)的運(yùn)動(dòng)信息,在復(fù)雜動(dòng)態(tài)背景下相對(duì)于空間特征更有利于定位,但光流對(duì)周邊相似運(yùn)動(dòng)干擾物十分敏感,這種情況下,如果光流設(shè)置權(quán)值過大會(huì)造成模型漂移。針對(duì)不同場景下光流在特征融合過程中體現(xiàn)的重要程度不同,本文采用式(8)對(duì)跟蹤結(jié)果質(zhì)量的判定,來調(diào)整光流在跟蹤過程中所占的比重,對(duì)光流fflow乘以系數(shù)w。定義w為光流的權(quán)值,取值為:

(9)

式中:δ為目標(biāo)模板和候選模板之間的相似度,α取值為0.3,β取值為0.7,當(dāng)δ<0.3時(shí),跟蹤過程中可能發(fā)生遮擋、形變等情況,此時(shí)增加光流權(quán)值,可以更好地提取目標(biāo)的運(yùn)動(dòng)信息,更有利于對(duì)目標(biāo)進(jìn)行定位;δ≥0.7時(shí),為緩解目標(biāo)周邊相似運(yùn)動(dòng)干擾物造成的模型漂移,則減小光流的權(quán)值。在0.3~0.7時(shí),光流權(quán)重為1。

相關(guān)濾波器分別與3種特征的特征圖進(jìn)行相關(guān)計(jì)算得到響應(yīng)圖,為保證響應(yīng)圖的質(zhì)量,根據(jù)響應(yīng)值大小對(duì)響應(yīng)圖通道進(jìn)行篩選,取3個(gè)特征圖響應(yīng)值最高的前k個(gè)通道進(jìn)行add融合,最后根據(jù)融合后的響應(yīng)圖Z估計(jì)新的一幀中的目標(biāo)。特征響應(yīng)值最高的前k個(gè)通道的計(jì)算過程如式(10)所示:

(10)

式中:P為響應(yīng)值;fcn、fhog、fflow分別為CN 特征、HOG 特征和光流特征對(duì)應(yīng)的響應(yīng)圖。

本文在OTB100數(shù)據(jù)集測試了k(k=1,2,3)對(duì)成功率和精度的影響,結(jié)果如表2所示,實(shí)驗(yàn)表明本文算法在k=2時(shí),在融合過程中更好地發(fā)揮了不同特征優(yōu)勢(shì),得到較好的成功率和精度。

表2 參數(shù)對(duì)成功率和精度的影響

2.4 算法流程

圖2為本文算法流程圖。首先提取目標(biāo)的CN特征和HOG特征,利用RAFT網(wǎng)絡(luò)提取連續(xù)兩幀圖像的光流,然后分別訓(xùn)練HOG 特征、CN 特征和光流的相關(guān)濾波器,通過相關(guān)濾波計(jì)算得到各自的響應(yīng)圖;根據(jù)跟蹤結(jié)果的可靠程度來計(jì)算光流的權(quán)重,將光流乘以權(quán)重對(duì)光流特征進(jìn)行調(diào)整,圖2中綠色的線條模塊為光流權(quán)重調(diào)整模塊;最后,對(duì)3種特征響應(yīng)圖篩選后進(jìn)行特征融合,根據(jù)融合后的響應(yīng)圖計(jì)算目標(biāo)最終的位置。

圖2 算法流程圖

3 實(shí)驗(yàn)

為驗(yàn)證本文算法的有效性,在Ubuntu操作系統(tǒng)下,使用Python語言編程實(shí)現(xiàn)本文算法, 在Intel i5-8400 CPU@2.80 GHz處理器上進(jìn)行測試,并利用GPU(NVIDIA GTX 1080Ti)進(jìn)行加速。實(shí)驗(yàn)部分參數(shù)設(shè)置為: 目標(biāo)尺度搜索個(gè)數(shù)K=5,學(xué)習(xí)率為P=0.009,尺度縮放參數(shù)初始化為R=4。為驗(yàn)證算法的實(shí)際效果,本文選擇OTB100[18]、VOT2019[19]這2個(gè)經(jīng)典數(shù)據(jù)平臺(tái)進(jìn)行評(píng)估。選擇ECO-HC[9]等經(jīng)典算法[20-26]作為參照算法。

3.1 OTB100實(shí)驗(yàn)

3.1.1 消融實(shí)驗(yàn)

表3為本文在增加不同模塊下在OTB100數(shù)據(jù)上的實(shí)驗(yàn)結(jié)果的比較。實(shí)驗(yàn)性能評(píng)估指標(biāo)采用OTB100數(shù)據(jù)集的評(píng)價(jià)指標(biāo),分別為精度和成功率,其中精度衡量算法對(duì)目標(biāo)中心點(diǎn)位置的估計(jì)能力。成功率衡量算法對(duì)目標(biāo)尺度大小的估計(jì)能力。從表中可以看出,在單獨(dú)CN特征和HOG特征下的跟蹤精度分別為0.796和0.804,成功率分別為0.618和0.610。在對(duì)3種特征融合后精度達(dá)到0.873和0.642,證明了跟蹤過程中運(yùn)動(dòng)特征和空間特征互補(bǔ)融合的重要性。與基準(zhǔn)算法相比,融合光流特征后精度提升1.2%,成功率提升0.8%;在對(duì)光流權(quán)重根據(jù)式(9)進(jìn)行更新后,算法精度提升2.4%,成功率提升1.6%。

表3 本文算法在OTB100上的消融實(shí)驗(yàn)結(jié)果

3.1.2 定性分析

圖3(a)為Soccer視頻序列,該視頻序列背景復(fù)雜,目標(biāo)在運(yùn)動(dòng)過程中的多次出現(xiàn)被大量相似干擾物遮擋的情況,目標(biāo)在第109幀中目標(biāo)幾乎不可見,Staple和ECO-HC等算法無法準(zhǔn)確跟蹤,本文算法可以較好的跟蹤且當(dāng)目標(biāo)剛從被遮擋區(qū)域恢復(fù)出來時(shí)仍能跟上目標(biāo)。圖3(b)為Dragon baby視頻序列,該視頻中的目標(biāo)和小恐龍對(duì)打,目標(biāo)姿態(tài)變化豐富。目標(biāo)快速運(yùn)動(dòng)過程中極易發(fā)生跟蹤漂移,其他3種算法在跟蹤過程中均產(chǎn)生了不同程度的誤差,本文算法有效緩解了因目標(biāo)運(yùn)動(dòng)過快而造成的跟蹤失敗問題。圖3(c)為Skating視頻序列跟蹤過程中背景光照發(fā)生變化,本文算法在低分辨率下能夠很好跟蹤目標(biāo)。圖3(d)為Biker序列,在跟蹤過程中目標(biāo)發(fā)生旋轉(zhuǎn),要求算法具有一定旋轉(zhuǎn)不變性。部分算法出現(xiàn)跟蹤漂移,本文算法和ECO-HC算法能夠較好地跟蹤目標(biāo)。

3.1.3 定量分析

1)整體性能

圖4為本文算法與其他8種經(jīng)典參照算法在OTB100數(shù)據(jù)集上評(píng)估結(jié)果。從圖中可以看出,本文算法通過時(shí)序信息和空間信息的自適應(yīng)融合,充分發(fā)揮了不同特征間判別力,相對(duì)ECO-HC算法,本文算法精度提升了2.4%,成功率提升了1.6%。

(a)精確度曲線

(b) 成功率曲線圖4 不同算法精度曲線和成功率曲線

2)屬性分析

在OTB100數(shù)據(jù)集測試了不同屬性下的成功率曲線下面積(area under curve, AUC)并繪制了雷達(dá)圖,如圖5所示,運(yùn)動(dòng)類視頻往往會(huì)出現(xiàn)圖像低分辨,目標(biāo)重影等情況。在該類視頻中能夠提取單幀圖像的空間特征十分有限,本文算法充分利用了視頻序列中幀與幀之間的時(shí)序信息。相對(duì)ECO-HC算法,在運(yùn)動(dòng)模糊視頻中AUC提升3.6%;快速運(yùn)動(dòng)視頻中AUC提升1.4%。在運(yùn)動(dòng)類視頻序列中有明顯優(yōu)勢(shì)。表明在應(yīng)對(duì)復(fù)雜場景時(shí)本文算法具有很好的魯棒性。

圖5 視覺跟蹤實(shí)驗(yàn)結(jié)果

3.2 VOT2019實(shí)驗(yàn)

為進(jìn)一步評(píng)估本文算法在視覺跟蹤中的有效性,本文在VOT2019數(shù)據(jù)集進(jìn)行測試,并與其他7種經(jīng)典的相關(guān)濾波類算法[27-29]進(jìn)行比較,比較了EAO(expected average overlap, EAO)、精度和魯棒性3個(gè)指標(biāo),結(jié)果如表4所示。其中最優(yōu)結(jié)果加黑表示,次優(yōu)結(jié)果加下劃線表示,第3優(yōu)結(jié)果加虛下劃線表示。相對(duì)ECO-HC算法,本文算法在VOT2019數(shù)據(jù)集中EAO提升了1.7%,該結(jié)果進(jìn)一步說明了基于時(shí)空信息和空間信息自適應(yīng)融合算法在視覺跟蹤中的有效性。

4 結(jié)語

本文提出一種時(shí)序信息和空間信息自適應(yīng)融合的視覺跟蹤算法。利用目標(biāo)的運(yùn)動(dòng)特征和表觀特征的互補(bǔ)性,融合目標(biāo)時(shí)序信息和空間信息,增強(qiáng)了目標(biāo)時(shí)空特征的表征能力;其次,建立一種基于相似度的跟蹤結(jié)果質(zhì)量判別機(jī)制,根據(jù)跟蹤結(jié)果實(shí)時(shí)調(diào)整運(yùn)動(dòng)特征在融合過程中的權(quán)重,以適應(yīng)復(fù)雜動(dòng)態(tài)場景下目標(biāo)的變化。結(jié)果表明,本文算法有效提升了跟蹤性能,在一些具有挑戰(zhàn)性的視頻中跟蹤效果良好。但是,光流在提取過程中計(jì)算量較大,在提升跟蹤性能的前提下,如何減少光流在跟蹤過程中的計(jì)算量將是本文未來的工作。

猜你喜歡
特征融合
抓住特征巧觀察
一次函數(shù)“四融合”
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
寬窄融合便攜箱IPFS500
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
《融合》
如何表達(dá)“特征”
不忠誠的四個(gè)特征
主站蜘蛛池模板: 久久熟女AV| 99热这里只有精品国产99| 国产精品主播| 国产手机在线ΑⅤ片无码观看| 国产丝袜无码一区二区视频| 午夜三级在线| 午夜精品久久久久久久无码软件| 亚洲人成网站观看在线观看| 综合亚洲网| 福利视频99| 91久久国产综合精品| 国产在线98福利播放视频免费| 欧美高清三区| 亚洲一区二区三区国产精华液| 91香蕉视频下载网站| 热久久综合这里只有精品电影| 日韩AV无码免费一二三区| 黄色污网站在线观看| 久久这里只有精品2| 亚洲第一黄色网址| 亚洲人人视频| 日韩欧美国产中文| 91 九色视频丝袜| 亚洲永久免费网站| 亚洲中文精品久久久久久不卡| 国产精品永久久久久| 免费又爽又刺激高潮网址| 国产人妖视频一区在线观看| 国产又粗又猛又爽| 亚洲AV人人澡人人双人| 亚洲欧美日韩久久精品| 99精品福利视频| 成人在线观看一区| 亚洲欧美成aⅴ人在线观看 | 99久久精品国产综合婷婷| 五月天香蕉视频国产亚| 一本大道东京热无码av| 久久激情影院| 国产一区二区三区在线观看视频| 九九久久精品国产av片囯产区| 日韩精品专区免费无码aⅴ| 91探花国产综合在线精品| 1024你懂的国产精品| 欧美激情第一欧美在线| 国产成人亚洲无吗淙合青草| 爱做久久久久久| 国产拍揄自揄精品视频网站| 超碰91免费人妻| 亚洲成年人网| 日本欧美在线观看| 久久综合色88| 欧美午夜精品| 搞黄网站免费观看| 激情综合网激情综合| 亚洲无码日韩一区| 欧美成人午夜视频| 国产欧美日韩一区二区视频在线| 香蕉久人久人青草青草| 国产喷水视频| 亚洲精品天堂在线观看| 人妻夜夜爽天天爽| 久久久亚洲色| 手机永久AV在线播放| v天堂中文在线| 日本午夜视频在线观看| 乱系列中文字幕在线视频| 91视频青青草| 国产精品丝袜视频| Jizz国产色系免费| 国产欧美自拍视频| 伊人91视频| 成人国产免费| 亚洲成A人V欧美综合| 欧美日韩中文国产va另类| 毛片网站在线看| 一区二区三区四区日韩| 国产精品福利尤物youwu| 久久国产精品麻豆系列| 中国毛片网| 中字无码精油按摩中出视频| 国产成人精品亚洲77美色| 免费不卡视频|