999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于對抗學習的實時跟蹤模型設計

2021-06-18 07:32:32李志鵬
計算機工程 2021年6期
關鍵詞:特征優化模型

李志鵬,張 睿

(1.復旦大學 軟件學院,上海 201203;2.復旦大學 計算機實驗教學中心,上海 201203)

0 概述

目標跟蹤是指在視頻的每一幀中找到感興趣目標的運動位置,其被廣泛應用于人機交互、視頻監控和自動駕駛等領域,也是計算機視覺的一個重要分支。在設計目標跟蹤算法時,需要同時考慮復雜環境中的跟蹤精度以及跟蹤速度,以滿足實時性需求。隨著深度學習研究的深入,卷積神經網絡(Convolutional Neural Network,CNN)大幅提升了跟蹤算法的性能和穩定性[1],但是計算復雜度的提升使得單一CNN 算法難以滿足實時性需求[2]?;谙嚓P濾波器的目標跟蹤算法一般具有較高的計算效率,現有實時跟蹤算法大多使用基于圖像卷積特征的相關濾波器[3],但是此類算法保持高跟蹤速度的同時難以保證高跟蹤精度。隨著實際應用中對精度需求的不斷提升,相關濾波器輸入維數的增長也會限制算法的跟蹤速度[4]。因此,設計同時具有高精度和高速度的目標跟蹤模型具有重要意義。

在現有的跟蹤算法中,研究人員應用遷移學習的思想[5],使用VGG-NET[6]等預訓練卷積網絡提取圖像特征,大幅提高了算法性能。但是直接應用VGG-NET 并非最優方案,原因是對于特定跟蹤場景,待處理的圖像分布通常與VGG-NET 訓練數據的分布不同,這類分布差異問題會影響圖像特征的可靠性。為了解決這一問題,本文采用對抗學習方法[7],在不需要跟蹤場景圖像標簽的情況下解決分布差異問題,使模型在特定任務中表現更穩定。另外,由于特征維數是限制模型計算效率的主要因素,本文利用自編碼器將圖像特征壓縮到低維空間[8]。在實際應用中,模型要處理包含多類目標和環境風格的圖像,因此,本文設計一種雙通道自編碼器結構并在訓練時優化判別損失函數,以提高模型的泛化能力。在特征壓縮后使用相關濾波器進行目標跟蹤。具體地,本文提出一種應用深度壓縮特征的相關濾波器實時跟蹤模型(TDFC),使用對抗學習和特征壓縮提高跟蹤算法的精度和速度[9]。應用對抗學習方法優化圖像特征提取過程,使得跟蹤場景數據與 特征提取模型VGG-NET的預訓練ImageNet[10]數據分布一致,得到針對任務場景的優化圖像卷積特征。在此基礎上,提出一種基于自編碼器的雙通道結構模型,將圖像特征壓縮到低維空間,并通過類別標簽信息優化模型的訓練過程。

1 研究背景

現有的目標跟蹤算法主要分為兩類:

1)第一類是基于相關濾波器的算法,此類算法一般具有較高的計算效率。文獻[11]提出的KCF 算法利用快速傅里葉變換和循環矩陣降低算法的時間復雜度。SAMF[12]在KCF 的基礎上,結合HOG 特征和CN 特征,并對目標尺度變化進行檢測。文獻[13]與SAMF 類似,除了聚合多種特征外,還提出一種三維濾波器結構,實現對目標尺度的自適應。STC[14]在貝葉斯框架下對跟蹤目標及其上下文的時空關系建模,得到目標和周圍區域的統計相關性。但是上述相關濾波器跟蹤算法會在跟蹤精度方面存在局限性。為了解決這一問題,HCF[15]算法在KCF 的基礎上,將HOG 特征替換為分層卷積特征,在不同層訓練相關濾波器以提高跟蹤精度。DeepSRDCF[16]在使用卷積特征的同時還加入懲罰項以改善邊界的影響。這些改進算法通過使用圖像卷積特征使跟蹤精度得到提升,但是圖像卷積特征的通道數遠多于原始圖像的通道數,這會導致計算復雜度提升以及跟蹤速度降低。

2)第二類是基于神經網絡的算法。文獻[17]提出的SO-DLT 算法使用CNN 作為獲取特征和分類結果的模型,先在非跟蹤數據上進行離線預訓練,然后基于跟蹤數據調整參數,以解決跟蹤過程中數據不足的問題。文獻[18]在SO-DLT 思想的基礎上,在多域學習模型中使用帶標注的視頻數據。文獻[19]用小型卷積網絡將多層卷積特征稀疏化,得到用于跟蹤的判別式特征。文獻[20]使用循環神經網絡對目標物體建模,提升模型鑒別相似物體的能力。文獻[21]通過強化學習來學習物體的連續性動作,從而檢測目標變化。雖然上述基于神經網絡的算法能達到很高的跟蹤精度,但隨著網絡復雜度的提高,跟蹤速度不可避免地會有所下降,難以滿足實時性的需求。

2 模型和算法

本文提出的模型主要包含特征提取、特征壓縮、目標跟蹤等步驟。在特征提取步驟中,首先使用對抗學習方法調整跟蹤場景圖像的分布,然后使用預訓練的VGG-NET 提取圖像的卷積特征。在特征壓縮步驟中,采用基于自編碼器的雙通道網絡結構,結合類別信息優化訓練過程以降低圖像特征維度,再對雙通道特征執行聚合操作得到壓縮特征。最后,將壓縮特征作為相關濾波器的輸入以實現目標跟蹤。

2.1 特征提取優化

在使用VGG-NET 提取圖像特征時,預訓練數據與跟蹤場景任務域數據存在分布不一致的問題,該問題會影響圖像特征的有效性。因此,本文采用對抗學習方法優化特征提取過程,從而解決該問題。

2.1.1 優化方法的理論支持

為了解決VGG-NET 預訓練數據(ImageNet 圖像)與跟蹤場景任務域數據分布不一致的問題,需要對齊跟蹤場景圖像和ImageNet 圖像的分布,即降低VGG-NET 在跟蹤場景數據上的遷移學習誤差。根據文獻[22]中關于遷移學習模型誤差分析的理論,對于?h?H,遷移學習模型的期望誤差ET(h)有如下性質:

其中,H表示假設函數族(亦可理解為模型族),h是H的一個實例,ES(h)表示遷移學習模型在源域(即ImageNet 圖像服從的分布)數據集上的誤差項,ET(h)表示遷移學習模型在目標域(即跟蹤場景圖像服從的分布)數據集上的誤差項,dH?H是衡量一對分類器之間差異的項,λ表示一對分類器間的共有誤差。在式(1)右側的各項中,ES(h)為模型在源域數據上的期望誤差,是實驗中得到的常量,dH?H是變量,λ是常數。因此,為了降低VGG-NET 模型在跟蹤場景圖像上的期望誤差(即式(1)左側的ET(h))的大小,只需對式(1)右側的dH?H項進行分析,dH?H定義如下:

其中,sup 表示最小上界,xS表示源域數據,xT表示目標域數據,E為求期望運算,I為布爾函數,其參數為真時輸出1,否則輸出0,x為輸入樣本,S表示源域(即ImageNet 圖像服從的分布),T表示目標域(即跟蹤場景圖像服從的分布),h和h′表示不同的假設函數實例,等價于結構相同但參數不同的分類器模型,h(˙)表示模型輸出。

在實際應用中,經過訓練的分類器h和h′在源域數據上具有較高的分類精度,即對于?x~S,h和h′關于輸入x的預測值接近標簽值,h和h′關于源域數據的輸出總體趨于一致,故式(2)中的是接近于0 的較小數值,可從式(2)中移除。因此,式(2)可進一步簡化為:

式(3)右邊可理解為結構相同但參數不同的分類器h和h′對目標域數據?x~T的預估值分布差導的期望的最小上界。通過上述過程,可將式(1)中誤差項ET(h)的優化問題轉化為式(3)中dH?H的優化問題。

將式(3)中的最小上界改寫為min max 形式,得到式(4):

引入本文設計的對抗學習模型結構后,將式(4)改寫為:

其中,D1和D2表示結構相同但參數不同的判別器,G表示生成器。式(4)中的x被修正為原始樣本經生成器處理后的輸出G(x),h被具體化為判別器D1,h′被具體化為判別器D2。

按照式(5)給出的目標進行優化,可以使dH?H趨近最低值,結合前文對式(1)右側各項的分析,這一優化操作可以限制遷移學習模型在目標域數據上期望誤差ET(h)的上界,從而有利于模型在目標域上的誤差趨近最低值。更重要的是,訓練后的生成器G可以將跟蹤場景圖像映射到ImageNet 圖像服從的分布上。

2.1.2 優化模型設計

本節根據2.1.1 節中的理論推導設計優化方案。訓練數據包含ImageNet的部分標簽數據(記作{XS,YS})以及從跟蹤場景采集的無標簽圖像(記作{XT})。

按照2.1.1 節的理論分析,與特征提取優化相關的對抗學習模型應當按照式(5)進行設計和優化,式(5)將式(4)中的模型輸出項(h(x)和h′(x))具體化為生成器和判別器的聯合輸出項(D1°G(x)和D2°G(x)),其中,G、D1、D2三項為對抗學習模型包含的主要結構,G是生成器,D1和D2是判別器,由于式(4)中的h和h′來自同一假設函數族H,因此D1和D2是一對結構相同但參數不同的判別器。基于對抗學習的網絡結構如圖1 所示,生成器G的輸入是從{XS,YS}和{XT}中采樣的圖像,分別記作(xs,ys)和xT。判別器D1和D2以生成器G的輸出為輸入,是兩個結構相同但參數不同的圖像分類器,由卷積層和全連接層組成,P1和P2分別是判別器D1和D2輸出的預測向量,用于計算損失函數。

圖1 基于對抗學習的網絡結構Fig.1 Network structure based on adversarial learning

網絡優化目標是降低VGG-NET 在任務場景數據上的誤差,提高圖像特征的有效性。為達到此目標,需要利用兩個判別器間的差異信息,式(5)中的布爾函數項I(D1°G(x)≠D2°G(x))指定了判別器差異的衡量方式,即判別器D1和D2的輸出向量差異。在保證整體模型在ImageNet 數據集上具有高分類精度的前提下,最大化判別器D1和D2的預測差異(式(5)中的max);對于生成器G,其輸出應使判別器D1和D2的輸出一致(式(5)中的min)。對生成器參數和判別器參數進行交替優化,即可優化式(5)中的dH?H項,使得生成器G能夠將任務場景圖像映射到ImageNet 數據服從的分布上。

2.1.3 優化步驟

具體優化步驟如下:

步驟1以不同的參數初始化判別器D1和D2。根據2.1.2 節的討論,首先需要保證整體模型在ImageNet數據集上具有高分類精度,因此,第一步的優化目標是最小化一個交叉熵損失函數,如式(6)所示:

其中,(xs,ys)表示帶標簽的ImageNet樣本,n為類別數量,P1和P2分別是D1和D2的輸出向量,i是向量索引。

步驟2固定生成器G,調整判別器D1和D2的參數。在這一步中,結合式(5)及相關討論,優化目標是對于相同的輸入數據,D1和D2輸出的預測向量,即P1和P2之間的差異盡可能大。為了衡量這一差異,定義包含距離度量的損失函數,分別如式(7)和式(8)所示:

其中,|˙|1表示L1 范數。式(7)為分類損失項,適用于帶標簽的ImageNet 數據,由于模型優化依賴的式(5)的推導前提是模型實例h和h'在源域數據上具有高分類精度,因此需要式(7)來提升模型對ImageNet 樣本的分類精度。式(8)為距離度量項,適用于無標簽的任務場景圖像。式(7)和式(8)共同構成本步驟的優化目標。

步驟3固定判別器D1和D2,調整生成器G的參數。在這一步中,優化目標是輸入圖像經G處理后,D1和D2的輸出盡可能一致,損失函數如式(9)所示:

參考文獻[23]中對抗生成網絡的訓練過程,特征提取優化模型具體的訓練方法如下:

1)在ImageNet 數據上訓練生成器G和判別器D1、D(2即上文步驟1)。

2)調整判別器D1和D2,最大化預測差異(即上文步驟2)。

3)調整生成器G,最小化預測差異(即上文步驟3)。

4)重復上述第2 步和第3 步,直至達到最大迭代次數。

隨著損失函數的收斂,經過調整的生成器G可以將任務場景圖像映射到ImageNet 數據服從的分布上,從而解決數據分布不匹配的問題。

經過本文設計的優化方案,對于給定的跟蹤場景圖像,使用生成器G對其處理后,將G的輸出作為VGGNET 的輸入,即可得到更有效的圖像卷積特征。

2.1.4 特征提取模型實現細節

本文生成器G采用全卷積結構,判別器D1、D2是包含一組卷積層和兩個全連接層的圖像分類器,每一個卷積層中卷積核空間上的大小為3×3,全連接層的神經元數量分別為2 048 和1 024。取VGG-NET的第二層feature map 作為圖像特征,因此,輸出維度是224×224×64。模型訓練時批量大小為16,采用ADAM[24]優化算法來優化損失函數,學習率設置為10-4,其他超參數取文獻[24]中的默認值。

2.2 雙通道自編碼器

自編碼器是一種無監督特征壓縮方法,通過優化重構成本,能在保留重要信息的同時去除數據中的冗余。為了實現高壓縮率,自編碼器包含多個隱藏層,第i個編碼器層的計算方式為:,從而將圖像卷積特征的通道數逐層降低。本文方法采用雙通道自編碼器結構和特征聚合操作來提高模型的泛化能力。

雙通道自編碼器的模型結構如圖2 所示。模型以端到端的方式進行訓練,輸入是VGG-NET 輸出的圖像卷積特征。編碼器1 和解碼器1 組成一個卷積自編碼器,每一個卷積層中卷積核空間上的大小是3×3,激活函數是relu 函數。編碼器2 和解碼器2 組成一個去噪自編碼器,樣本輸入到去噪自編碼器之前,按照一定概率對其加入噪聲,噪聲分三種:第一種是隨機將圖像特征中的值置為0 或高斯噪聲,這類似于信息傳輸中的隨機擾亂;第二種是隨機選取特征中的一個通道,將該通道上的值置為0;第三種是隨機調換特征中兩個區域位置下所有通道的值,由于卷積層平移等變的性質,這相當于在原始圖像中執行區域互換,可以修正位置因素對特征的影響。在上述過程中,每個樣本至多被加入一種噪聲。

圖2 雙通道自編碼器網絡結構Fig.2 Network structure of dual channel autoencoder

深度自編碼器在應用時容易出現過擬合問題,本文方法采取兩個措施來防止過擬合:

1)第一個措施源自壓縮特征應保留足夠判別式信息的思想,即壓縮后的特征可通過線性分類器預測其原有的類別標簽。具體的實現方式如圖2 所示“,壓縮特征1”和“壓縮特征2”經“特征聚合”(聚合函數的具體形式在下文介紹)操作后輸入到一個“線性分類器”中,該“線性分類器”預測輸入的類別標簽,然后根據預測結果計算判別損失,損失函數如式(10)所示:

其中,cS表示帶標簽ImageNet 樣本xS的壓縮特征,yS是xS的標簽,w是線性分類器的參數矩陣,表示平方L2 范數。

2)第二個措施是引入多級重構誤差函數,除了考慮完整自編碼器中輸入和輸出間的重構誤差,還考慮自編碼器子結構的重構誤差,損失函數如式(11)所示:

其中,x表示ImageNet 樣本特征或跟蹤場景樣本特征,i是雙通道分支索引,AE(i)指代圖2 結構中的兩個自編碼器之一,li表示相應自編碼器中編碼器結構的層數,由于自編碼器結構對稱的特點,解碼器的層數也是li,AEj表示自編碼器的子結構,即AE1表示保留編碼器的第一個隱藏層、解碼器的最后一個隱藏層而組成的子結構,AE2表示保留編碼器的前兩個隱藏層、解碼器的最后兩個隱藏層而組成的子結構,AEj表示保留編碼器的前j個隱藏層、解碼器的最后j個隱藏層而組成的子結構,AEl則表示完整的自編碼器結構。

結合式(10)、式(11)可以得到特征壓縮過程的整體優化目標:

其中,超參數α衡量損失函數各部分的重要程度。

經過以上兩個措施,能夠有效防止模型出現過擬合問題。此外,訓練過程還應用數據增強方法進一步防止過擬合問題,包括水平翻轉、豎直翻轉、色調變化、對比度變化等操作。

在圖2 中,雙通道自編碼器輸出的降維特征還需要經過特征聚合操作,以提高模型的泛化能力。聚合函數中的參數能夠與模型其他部分一同進行端到端的訓練,其具體形式如下:

1)線性聚合,這種聚合方式假設每一個自編碼器起到同等作用,如式(13)所示:

其中,c是聚合后的壓縮特征,i是雙通道分支索引,f是對應分支的降維特征,m是變換矩陣。

2)加權線性聚合,簡單的線性聚合不能反映每個特征的重要性差異,因此,加權線性聚合方式為每一種特征賦予一定的權重,如式(14)所示:

其中,w是權重向量。

3)加權非線性聚合,這種聚合方式引入非線性變換,提高聚合層的表達能力,從而建模更復雜的統計相關性,如式(15)所示:

其中,σ表示sigmoid 函數。

對于上述三種聚合方式,線性聚合的參數量最少,因此,其聚合能力最弱;加權線性聚合和加權非線性聚合對模型總體性能的影響差別不大,這是因為先前的特征提取優化和特征壓縮都是非線性過程,所以加權非線性聚合中σ函數的作用不是特別明顯。

本文卷積自編碼器的層數為4 層,去噪自編碼器為6 層。特征樣本輸入到去噪自編碼器前,被添加噪聲的幾率為30%。特征融合方式選擇線性加權聚合。訓練時的批量大小為16,采用ADAM 優化算子,學習率設置為2×10-6,算子超參數取文獻[24]中的默認值。

基于本節設計的模型結構和優化方法,可以實現圖像特征的高效壓縮,提高算法的計算效率。

2.3 相關濾波器

傅里葉域循環矩陣的性質使得經過訓練的相關濾波器能以較低的計算開銷完成目標跟蹤任務。在本文模型中,為了對場景中的目標進行跟蹤,需要將2.2 節得到的壓縮特征輸入相關濾波器,以得到跟蹤結果。相關濾波器的參數可表示為:

其中,w是相關濾波器參數,F-1是逆傅里葉變換,c為圖像特征,r為響應窗口,c′和r′為相應向量經過傅里葉變換的結果,為共軛向量,λ為常數。

按照式(16)更新相關濾波器后,給定待跟蹤的圖像特征,計算得到的響應窗口如式(17)所示:

其中,cnew是待跟蹤圖像特征,是共軛向量,w′是w經傅里葉變換的結果。

通過響應窗口r即可得到目標跟蹤結果。相關濾波器是本文算法在功能實現時的重要一環,相關濾波器的原理和其他細節本文不再贅述。

3 實驗結果與分析

3.1 訓練集和評估方式

本文模型的訓練數據來自ImageNet[10]和OTB-100數據集[25]。為了評估算法的性能,在實驗中統計算法的跟蹤精度和跟蹤速度(FPS)信息。實驗中算法的跟蹤精度基于“Location error threshold”和“Overlap threshold”計算而得。其中,基于“Location error threshold”的跟蹤精度指算法估計的目標位置與人工標注中心點間的距離小于給定閾值的視頻幀所占的百分比;基于“Overlap threshold”的跟蹤精度指算法估計的目標范圍與人工標注框間重疊比例大于給定閾值的視頻幀所占的百分比。

實驗中所使用的軟硬件平臺設置:硬件環境為Intel i7-7700K CPU @ 4.20 GHz,16 GB 內存,NVIDIA GTX1080Ti GPU;軟件環境為Python3.6,keras,tensorflow,Matlab。

3.2 模型性能分析

在OTB-100 數據集上驗證本文跟蹤算法及其他算法的效果,相關量化指標結果如表1 和表2 所示,表中記錄的跟蹤精度是基于“Location error threshold”為20像素所計算,默認的特征聚合方式為加權線性聚合。

表1 本文算法在不同配置下的性能比較Table 1 Performance comparison of this algorithm under different configurations

表2 不同跟蹤算法的性能比較Table 2 Performance comparison of different tracking algorithms

表1 統計本文算法在不同配置下的跟蹤精度和速度,TDFC 是本文算法的最優配置,TDFC-nolinear 將聚合函數改為加權非線性聚合,TDFC-mean 將聚合函數改為線性聚合,TDFC-noAugmentation 中移除了2.2 節提到的數據增強處理,TDFC-noLabel 中訓練雙通道自編碼器時忽略了判別式損失,僅考慮重構損失,TDFC-noEnsemble 中移除了雙通道自編碼器結構和特征聚合操作,僅使用兩個分支中的去噪自編碼器,TDFCnoLevel 中訓練雙通道自編碼器時將多級重構損失簡化為完整自編碼器結構輸入層和輸出層間的重構損失,TDFC-noGenerator 在提取圖像卷積特征前移除了基于對抗學習的優化步驟。表2 統計本文算法以及其他跟蹤算法的跟蹤性能,對比算法包括SCT[26]、SiamFC[27]、DSST[13]、KCF[11]、ADNET[21]、SANET[20]、FCNT[19]、DeepSRDCF[16],以上算法均按照原參考文獻設計實現。其中,SCT、SiamFC、DSST、KCF 是實時跟蹤算法,ADNET、SANET、FCNT、DeepSRDCF 是非實時跟蹤算法,從表2 可以看出,與現有跟蹤算法相比,本文算法的跟蹤精度損失不超過3%。圖3 所示為本文算法在不同配置下的性能統計信息,其中,圖3(a)的橫軸統計量為“Location error threshold”,圖3(b)的橫軸統計量為“Overlap threshold”。

圖3 本文算法在不同配置下的跟蹤精度統計Fig.3 The tracking accuracy statistics of the algorithm under different configurations

對比上述結果可以看出:聚合函數的選擇對跟蹤效果有一定影響,使用非線性聚合的TDFC-nolinear 由于σ函數引起的梯度消失,模型更難以訓練,其精度比使用加權線性聚合的TDFC 略低;與使用線性聚合的TDFC-mean 相比,TDFC 有1.9%的跟蹤精度提升,線性聚合的參數量相對更少,不能充分反映模型間重要程度的差異;與TDFC-noAugmentation 的對比說明應用數據增強方法給模型帶來了3.2%的跟蹤精度提升;與TDFC-noLabel 相比,TDFC 有7%的精度提升,說明通過保留判別式信息,能夠有效防止自編碼器出現過擬合,提高算法的性能;與TDFC-noEnsemble 相比,TDFC的跟蹤精度有9.2%的提升,表明雙通道自編碼器結構和特征聚合提升了模型的泛化性,得到的壓縮特征有助于提高跟蹤精度;與TDFC-noLevel 相比,TDFC 有11.6%的精度提升,說明2.2 節定義的多級重構損失函數有助于改進自編碼器模型的訓練,提高最終的跟蹤精度;與TDFC-noGenerator 相比,TDFC 有13.2%的精度提升,說明2.1 節提出的遷移學習分布不匹配問題確實存在,基于對抗學習的優化方法能夠解決此問題,有助于提高跟蹤算法的精度。

圖4 所示為特征提取優化模型的收斂情況,可以看出,在距離損失逐漸降低的同時,判別器D1和D2對訓練數據的平均分類精度逐漸升高,當迭代(epoch)次數達到45 時,模型趨于收斂。以上數據和分析結果表明本文設計中的各步驟具有有效性。

圖4 距離損失函數的收斂情況Fig.4 Convergence of distance loss function

為了進一步驗證2.1 節中對抗學習方法的有效性,用t-SNE[28]工具對部分ImageNet 數據和跟蹤場景數據進行降維處理及可視化操作,數據集可視化情況如圖5 所示。

圖5 ImageNet 數據和跟蹤場景數據分布的可視化效果Fig.5 Visualization of distribution of ImageNet data and tracking scene data

圖5(a)展示了未經2.1 節對抗學習方法優化的圖像數據分布,其中,ImageNet數據展現出一定的可分性,跟蹤場景數據的分布特征并不明顯,與ImageNet 數據顯示出不一致的分布情況;圖5(b)展示了經過2.1 節對抗學習方法優化后的數據分布情況,可以發現,優化后數據的分布趨于一致,雖然跟蹤場景數據與ImageNet數據分布未完全匹配,但跟蹤場景數據呈現出與ImageNet 數據聚類中心保持一致的趨勢,并呈現出一定的可分性,進一步驗證了對抗學習方法對解決數據分布不匹配問題的有效性。

選擇最優算法配置TDFC(本文模型)并與其他目標跟蹤算法進行對比實驗。圖6 所示為各算法的性能統計信息,其中,圖6(a)的橫軸統計量為“Location error threshold”,圖6(b)的橫軸統計量為“Overlap threshold”。

圖6 不同跟蹤算法的跟蹤精度統計Fig.6 Tracking accuracy statistics of different tracking algorithms

通過上述跟蹤算法的性能比較結果可以看出,本文設計的對抗學習方法和高效特征壓縮使得TDFC 的跟蹤精度和速度均高于SCT、SiamFC 和DSST 算法。與KCF 相比,TDFC 有14.6%的跟蹤精度提升,雖然跟蹤速度低于KCF,但103.1FPS 的跟蹤速度足以滿足實時跟蹤的需求,符合精度與速度兼具的特點。綜上,與其他跟蹤算法相比,本文算法能以更高的精度對目標進行實時跟蹤。

圖7所示為本文算法以及其他跟蹤算法在OTB-100數據集上的部分跟蹤效果。

圖7 不同算法的跟蹤效果對比Fig.7 Tracking effect comparison of different algorithms

4 結束語

本文提出一種基于對抗學習和特征壓縮的高精度實時跟蹤算法。使用對抗學習方法優化圖像特征提取過程,設計雙通道自編碼器結構壓縮圖像特征并結合類別信息優化訓練過程。實驗結果表明,相比現有的實時跟蹤算法,該算法具有明顯的精度優勢,且在有限的精度損失下能夠取得較大的速度提升。下一步將降低本文算法在跟蹤時的計算復雜度,并將其擴展到DCF、SO-DLT 等其他跟蹤框架中。

猜你喜歡
特征優化模型
一半模型
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 国产成人高清在线精品| 毛片久久网站小视频| 不卡午夜视频| 国产女人综合久久精品视| 亚洲美女视频一区| 国产欧美在线观看精品一区污| 亚洲Av激情网五月天| 精品久久久久久中文字幕女| 九色在线观看视频| 亚洲日韩精品无码专区97| 国产高清国内精品福利| 国禁国产you女视频网站| 精品久久久久久中文字幕女 | 亚洲va视频| 亚洲天堂高清| 欧美一级在线| 777午夜精品电影免费看| 91免费观看视频| 香蕉网久久| 亚洲精品无码成人片在线观看| 在线播放国产一区| 日韩国产黄色网站| 午夜无码一区二区三区| 亚洲色无码专线精品观看| 国产成人一区免费观看| 国产91线观看| 国产无码网站在线观看| 色婷婷综合激情视频免费看| P尤物久久99国产综合精品| 91久久国产成人免费观看| 色综合综合网| 久久久久免费看成人影片| 福利姬国产精品一区在线| 亚洲美女AV免费一区| 人妻21p大胆| 色综合天天综合| 亚洲欧美日本国产专区一区| 丁香综合在线| 欧美97色| 亚洲女同欧美在线| 欧美区国产区| 亚洲成aⅴ人在线观看| 一级毛片在线播放| 国产欧美另类| 国产成年女人特黄特色毛片免| 九色视频一区| 精品伊人久久久香线蕉| 亚洲日韩精品伊甸| 中文字幕久久波多野结衣| 亚洲男人的天堂在线| 国产成人午夜福利免费无码r| 一本二本三本不卡无码| 久久香蕉国产线看精品| 亚洲国产精品不卡在线| 毛片网站免费在线观看| 国产精品无码AⅤ在线观看播放| 久久这里只精品热免费99| 在线色国产| 精品国产欧美精品v| 99精品国产高清一区二区| 亚洲精品无码日韩国产不卡| 97视频在线观看免费视频| 99精品这里只有精品高清视频| 亚洲精品成人片在线播放| 成人在线天堂| 国产精品爽爽va在线无码观看| 欧美成人午夜视频免看| 成人午夜久久| 2022精品国偷自产免费观看| 老司机久久99久久精品播放| 青青草91视频| 国产欧美高清| 9啪在线视频| 欧美日韩va| 日本在线视频免费| 国产丝袜一区二区三区视频免下载| 视频二区欧美| 亚洲国产亚综合在线区| 中文精品久久久久国产网址| 成人午夜亚洲影视在线观看| 天天综合网站| 国产成+人+综合+亚洲欧美|