999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合重檢測機制的多卷積層特征響應跟蹤算法

2021-03-11 06:20:56黃浩淼
計算機與生活 2021年3期
關鍵詞:特征模型

張 晶,黃浩淼

1.昆明理工大學 信息工程與自動化學院,昆明650500

2.云南省人工智能重點實驗室(昆明理工大學),昆明650500

3.云南梟潤科技服務有限公司,昆明650500

在計算機視覺領域中目標跟蹤是研究的熱點,并且在信息物理融合系統(cyber physical systems)的感知層中也得到了廣泛的應用。然而對于目標嚴重變化、快速移動、長時間遮擋后再出現等復雜場景下,跟蹤仍然面臨很大的挑戰性。因此,研究者提出了許多優秀的判別式與生成式目標跟蹤算法[1-2],比如引入循環矩陣和核概念的算法(circulant structure of tracking-by-detection with kernel,CSK)[3]首先對訓練樣本中前景和背景進行密集采樣,再由分類器循環移位樣本從而快速檢測出目標,提高了算法的速度,但由于只提取灰度特征,導致CSK 算法在復雜情景下不能更好體現目標外觀模型,容易跟蹤失敗。CN(adaptive color attributes for real-time visual tracking)[4]提取多通道顏色信息經過快速傅里葉變換與核函數映射,得出目標最大響應值,同時該算法使用PCA(principal component analysis)降維技術大大減少顏色維度,提高跟蹤的實時性,但也屏蔽了部分目標信息,對于光照強度下魯棒性較差。KCF(high-speed tracking with kernelized correlation filters)[5]在CSK 的基礎上,提取多通道HOG(histogram of gradient)特征替換灰度特征,然后高斯核函數簡化特征矩陣,提高算法的魯棒性,但目標尺度發生變化后,跟蹤框容易漂移。DSST(discriminative scale space tracking)[6]構建33 層金字塔特征向量,再由尺度濾波器求響應值應對目標尺度變化,在解決目標尺度變化問題的同時跟蹤精度也很高,但目標快速運動環境下跟蹤效果不佳。以上相關濾波器算法在目標快速運動跟蹤過程中,濾波器都容易因為邊界效應而導致跟蹤失敗。Kalal 等人提出了跟蹤與檢測結合的TLD(tracking learning detection)算法[7],該算法通過正負樣本在線學習機制檢測樣本,由TLD檢測器篩除錯誤樣本,避免快速運動后邊界效應的影響,但檢測器使用循環采樣矩形框的方式,降低了算法的實時性。Danelljan等提出空間約束相關濾波器(spatially regularized correlation filter,SRDCF)[8],構建濾波器的過程中引入正則化因子,得到較大的檢測區域,提高邊界效應中邊緣物體檢測的魯棒性,但在目標完全遮擋時容易出現跟蹤丟失。在目標嚴重形變、長時期遮擋等復雜情景下,傳統跟蹤算法使用手工特征無法提取目標高級的語義信息,容易跟蹤失敗,而深度學習方法能更優地表述目標特征,因此,Ma 等人提出了HCF(hierarchical convolutional features for visual tracking)[9]方法,根據分層卷積特征訓練不同的相關濾波器,使用高層特征找到目標所在的區域范圍,然后由粗到精通過低層特征實現精確定位,從而有效地結合卷積層的空間位置信息,但在遮擋和物體變形的情況下魯棒性較差。Nam 等人提出TCNN(tree convolutional neural network)[10]方法,使用樹形的結構管理具有CNN(convolutional neural network)特征的目標外觀模型,通過加權平均模型的候選框預測目標位置,可以適應目標的快速變化,但模型較為復雜后降低了跟蹤的實時性。Danelljan等人提出了ECO(efficient convolution operators for tracking)[11]方法,通過高維特征圖的集成,減少了特征的復雜度,解決高維度的參數空間過擬合,并引入相似性的度量方法對模型參數進行更新,提高算法的跟蹤速度。Chen 等人提出MFKCF(single target tracking algorithm based on multi-fuzzy kernel fusion)[12]方法,首先將模糊理論應用到核函數中,然后通過核映射空間融合多種模糊核函數,提高算法的魯棒性。Wang 等人提出基于分塊檢測的跟蹤算法(scale adaptive correlation tracking method for circular target based on block detection)[13],通過邊緣特征點與輪廓擬合解決了目標遮擋的問題,但光照強度發生變化時影響該算法提取邊緣特征,從而導致跟蹤框漂移。

深度特征和相關濾波器的結合,得到了更精確的跟蹤效果,但目標與背景信息特征相似,快速運動后跟蹤模型仍然會受到背景信息干擾而更新失敗;同時目標長時間遮擋后,由于缺乏重檢測機制使得跟蹤漂移。本文在目標檢測區域的圖像分塊處理后建立混合高斯模型,將塊圖像內服從高斯分布的像素點分別與該模型進行匹配,由每一幀圖像不斷調整模型參數,提高自適應區分背景和目標的能力,再根據文獻[9]中卷積層Conv3的底層特征有較高的空間分辨率可對目標進行精確定位,Conv5的高層特征包含著目標語義信息可以應對重大的形變和環境變化,本文提出梯度加權的類激活映射得到CNN 的多卷積層特征圖來訓練出多卷積層濾波器,然后融合第3層Conv3卷積層和第5層Conv5卷積層濾波器的響應值來預測目標位置,從而避免目標快速運動引起邊界效應后,跟蹤過程受到背景信息的干擾;同時本文利用重檢測機制約束濾波器融合的響應值,得到平滑輸出響應結果,提高算法的魯棒性。

1 核相關濾波跟蹤算法

1.1 卷積特征提取

深度卷積網絡中存在池化的過程,隨著卷積層級的加深,特征的空間分辨率逐步降低為原輸入圖像尺寸224×224 的1/32,則在VGG(visual geometry group)網絡結構[14]中Conv5-4 卷積層的空間尺寸是7×7,由于特征圖尺寸太小,沒法對目標進行精確的定位,因此對特征圖進行升采樣將圖像縮放到一個固定合適的尺寸上。

其中,h代表升采樣前的特征圖,i代表特征圖位置,γ代表域的特征向量,a是插值的權值。

1.2 核相關濾波器構建

每個卷積層的輸出可以作為多個通道提取的特征,假設其尺寸為M×N×D,M、N和D分別代表圖像特征的寬和高和特征的通道數,由于所有循環移位的訓練樣本都有一個高斯函數標簽,故構造核相關濾波器的目標函數為:

其中,y(m,n)=exp代表在(m,n)處像素的標簽,λ為正則化參數,防止過擬合現象,w為相關濾波器。然后將目標函數經過FFT 變換轉換到頻域,求解后可以得到卷積層的d通道下濾波器目標函數的最優解為:

其中,Y(M,N)表示頻域上的高斯標簽,當給定下一幀圖像塊Z的尺寸M×N×D,提取圖像的特征后,相關濾波器的目標響應可以表示為:

最后,通過搜索卷積層中響應的最大值就可以估計出目標位置。

1.3 濾波器模型更新

卷積層的最優濾波器可以通過最小化所有錯誤輸出的跟蹤結果來更新,但涉及到在每一個位置(m,n)處求解一個D×D的線性方程組,而且深度特征的通道通常都特別多,導致計算量很大。因此,采用移動平均分別更新濾波器的分子分母:

其中,η為學習率。同時根據視頻幀之間具有連續性,通過每兩幀對目標模型進行更新,提高了算法的跟蹤速度,防止模型的過擬合和跟蹤漂移。

2 結合重檢測機制的多卷積層特征響應跟蹤算法

2.1 自適應區分圖像中目標與背景

目標快速運動導致圖像模糊產生邊界效應,濾波器目標響應容易受到背景信息的干擾,導致跟蹤失敗。本文利用混合高斯模型[15]對復雜情景下目標和背景信息區分能力強的優點,首先對檢測區域中圖像進行均勻分塊,然后根據塊圖像中心像素點的分布特征建立起混合高斯模型,再對于塊圖像內剩余像素點分別與模型進行匹配,若匹配成功則為背景像素點,否則為目標像素點,最后下一幀輸入圖像不斷更新該混合高斯模型,提高跟蹤器對圖像邊緣處目標與背景的區分能力。

檢測區域依據網格均分采樣N×N共W塊圖像,根據區域內第τ塊圖像距離矩形框中心位置越近,其圖像塊特征得分權重值越高,進而弱化矩形框內邊緣處圖像中包含的背景信息對跟蹤器分類影響,第τ塊圖像權重值公式如下:

其中,(lx,ly)為矩形框的中心位置坐標,(τx,τy)為網格均分中第τ塊圖像的中心位置坐標。再結合第τ塊圖像壓縮的特征權重值構建混合高斯模型,假設塊中心的每個像素點序列為X1,X2,…,XW,建立k個高斯分布的混合模型,則像素點的高斯概率密度函數公式為:

其中,k為該像素點對應的高斯模型的數目,Wτ,t是第t幀時的第τ塊圖像權重值,uτ,t是第t幀時的第τ塊圖像的期望,Στ,t是第t幀時的第τ塊圖像的協方差值,η()是高斯概率密度方程,表示為:

下一步對當前幀服從式(9)的圖像塊內剩余像素點,若滿足以下條件:

則判定該點匹配成功,將匹配的高斯模型進行更新:

其中,α為背景更新的學習率,δ為權值學習率,對于不匹配的高斯模型降低權重值Wτ,t,并對高斯模型方差和均值進行更新:

其中,δ學習率越小,均值和方差更新得越快,對目標跟蹤效果越好,通過每一幀圖像塊的像素點與混合高斯模型匹配過程中,不斷地更新高斯分布函數,最終得到隨目標變化的高斯模型。當圖像目標區域內的像素點匹配結束,相對靜止的背景像素點高斯分布的方差小,其對應的權重偏大,而運動的目標像素點方差更大,權重偏小,本文按照權重與方差的比值進行降序排列,由設定閾值ξ=0.7 選出B個服從高斯分布像素點判斷為最優目標像素點:

圖1為圖像內目標與背景進行區分的具體過程。

2.2 融合卷積層濾波器對目標響應

從2.1節獲得圖像處理的目標區域后,VGG網絡卷積層中提取的目標區域CNN 特征具有噪聲,導致形成的特征圖存在局部激活性和稀疏性。本文借鑒梯度加權的類激活映射[16]思想將目標像素空間梯度引入導向反向傳播中使特征圖譜中突出細粒度細節,減少圖像的噪聲對目標模型產生定位誤差,從而弱化CNN 卷積層在特征映射時噪聲的影響;然后將映射后的深度特征圖訓練出卷積層所對應的濾波器;接下來為了結合Conv5 高層特征的語義信息和Conv3 底層特征的空間細節來處理目標嚴重變化情況,通過融合卷積層中第3 層Conv3 和第5 層Conv5濾波器的目標響應位置,達到定位更魯棒的濾波器模型。

首先將標記了目標區域的圖像作為輸入,設置目標區域的梯度為1,其余的梯度為0。然后計算目標區域c的像素空間梯度yc與卷積層的γ個特征映射Aγ之間偏導數即,利用CNN全局平均池化的卷積特征映射直接輸入到濾波器的導向反向傳播中訓練,具體通過卷積層產生γ個特征映射,根據全局平均池化將這些映射的特征圖進行空間池化和線性變換反饋得到目標位置的重要性權重:

Fig.1 Process diagram of distinguishing target from background in image圖1 圖像內區分目標與背景的過程圖

然后通過ReLU對映射的特征圖線性加權組合,關注目標具有積極影響的特征,增加目標位置定位的性能,得到:

從而獲得目標區域c寬度為u和高度為v的混合特征圖,特征圖中每個特征層都有單獨的分辨率Nd,引入插值模型將特征圖轉移到連續空間域t∈[0,T],插值模型定義如下:

其中,d是通道數,bd是周期T>0 插值核函數,特征圖中插入的特征層。本文用J{x}表示整個插入的特征圖,通過訓練連續的周期多通道卷積濾波器f=(f1,f2,…,f D)預測目標位置響應結果的得分Sf{x}(t),即:

因此,最小化目標函數學習得到新的濾波器公式如下:

其中,ym,n是xm,n樣本像素標簽的檢測得分,am,n是樣本xm,n的權重,由數據項加權的分類誤差構成,取最大分數作為位置響應值。下一步依據自適應權重分配系數ρ融合卷積層中Conv3 和Conv5 對目標響應結果進行輸出:

2.3 結合重檢測機制的目標響應

約束模型中濾波器的目標位置響應值,得到平滑調整的輸出結果,從而構建出強跟蹤器。傳統的跟蹤算法[7]檢測機制都假設目標運動軌跡平滑,對當前幀目標位置周圍進行全局搜索,導致樣本數量大。本文進行改進后采用半徑更小的局部窗搜索圖像,根據候選矩形框內圖像紋理特征約束排除那些不太可能包含目標的矩形框,減少了檢測的誤匹配,從而高效搜索整幀。

假設濾波器確定目標響應區域的大小(m,n,w′,h′),通過包含上下文信息的(w′+2p)×(h′+2p)的圖像進行擴展得到重檢測機制的多尺度信息:

其中,s=1.02 是尺度變換系數,然后按照尺度掃描產生大量的滑動矩形框,本文根據文獻[7],利用TLD檢測器的級聯分類器過濾掉那些與目標區域相似度和重疊度低的滑動矩形框,然后將過濾后的樣本作為置信度高的矩形框樣本,來約束卷積層濾波器的目標響應位置,得到平滑輸出的跟蹤結果:

Fig.2 Process diagram of filter's fusion response to target position圖2 濾波器對目標位置融合響應的過程圖

其中,ws表示平滑約束項,最后跟蹤器得到平滑輸出結果,由濾波器響應ft和檢測機制矩形框約束項s(Bt,Bt-1)組成。

2.4 模型更新

對目標進行長時間跟蹤時,由于每一幀圖像都要計算2.2節自適應權重系數ρ,導致算法的實時性降低。因此本文提出一種新的權重參數更新方法,同時為了防止模型過擬合,每隔5幀時對權重參數進行更新,對應于第t幀的權重自適應調整公式為:

其中,θ、Γ、w-、w+是調整因子,若ρ一直減小,最后可能小于零,則復雜環境下跟蹤模型沒有考慮到高層特征的語義信息,導致跟蹤失敗;若ρ一直增大,則影響跟蹤模型對目標的精確定位,導致跟蹤框漂移,因此本文設定兩個閾值來約束ρ,這樣就避免權重的過大過小問題影響跟蹤效果。

2.5 算法流程

輸入:上一幀目標位置p0(m,n)。

輸出:下一幀目標位置pt(m,n),更新自適應權重系數ρ,模型更新后濾波器。

步驟1人工劃分第一幀的目標中心。

步驟2對圖像分塊提取特征,根據混合高斯模型對塊像素點進行匹配,通過式(16)判斷出目標像素點。

步驟3獲得目標區域,通過式(18)得到深度特征圖,再與濾波器模型進行卷積操作,通過式(22)融合目標位置響應值。

步驟4由式(26)重檢測機制約束濾波器的響應值,得到平滑輸出的跟蹤結果。

步驟5使用式(27)對2.2 節自適應權重系數進行更新,并用目標函數訓練濾波器。

步驟6依次重復步驟2~步驟5,直到視頻結束為止。圖3是本文算法流程圖。

3 實驗結果

Fig.3 Flow chart of proposed algorithm圖3 本文算法流程圖

本文算法與HCF 算法、TCNN 算法、TLD 算法、DSST 算法、CN 算法進行實驗分析。在目標跟蹤測試集網站上(http://www.visual-tracking.net)選擇了6個實驗測試視頻,如表1 所示,共有2 691 幀,實驗測試視頻序列包括光照變化、旋轉、背景雜亂、遮擋、快速運動等背景環境。

Table 1 Test video sequence表1 測試視頻序列

本文算法輸入包含上下文信息的224×224×3 圖像,經過卷積、池化、全連接操作后由Softmax層得到1 000 個分類結果,然后提取Conv5 和Conv3 的平均特征圖輸入卷積層濾波器中訓練得到目標響應結果。其中網絡偏置初始值設為0,VGG 網絡參數、輸入輸出、卷積核的元素設置見表2。

Table 2 VGG network structure表2 VGG網絡結構

本文實驗環境的處理器為Intel?i5-4210 2.60 GHz,內存為4 GB。對本文權重更新參數調整因子取θ=0,Γ=0.05,w-=w+=1,背景更新的學習率取a=0.025,平滑約束項取ws=0.2,初始化混合高斯模型的塊圖像權重值Wτ,t取0.1,塊圖像的協方差值Στ,t取15,塊圖像的期望uτ,t取像素點的平均值。本文算法從成功率圖、精度圖和幀率FPS三方面評測標準來比較上述6種算法,使用文獻[17]給出的測試視頻中Ground truth 作為實際目標框來計算得到成功率圖和精度圖[18-19],將跟蹤算法輸出跟蹤框的中心位置與實際跟蹤框的中心位置進行歐氏距離計算,得到精確圖SSE=,其中(gxi,gyi)和(rxi,ryi)分別為本文算法得到的跟蹤框中心位置坐標和實際的跟蹤框中心位置坐標;通過計算跟蹤算法每幀的跟蹤框重疊度,然后將大于給定閾值的幀數除以總幀數得到成功率圖S=,其中Bg和Br分別為本文算法得到的跟蹤框面積和實際的跟蹤框面積。接下來通過本文實驗結果以及視頻測試序列部分截圖對6種不同的跟蹤算法進行實驗分析。

實驗中本文算法用紅色表示,TLD 算法用藍色表示,CN 算法用綠色表示,DSST 算法用紫色表示,TCNN算法用黃色表示,HCF算法用青色表示。

3.1 跟蹤結果定性分析

在實驗測試視頻中,本文選擇soccer測試視頻具有遮擋、背景雜亂、快速運動的情景,圖4 第1 行是soccer測試視頻跟蹤結果的截圖,從Frame 57、Frame 78可以看出,目標的衣服與背景的顏色相似,在快速運動中,由于目標姿態的變化產生邊界效應,導致CN算法的目標顏色模型和DSST 算法的相關濾波器模型更新受到背景信息的干擾,對目標顏色特征和HOG 特征的描述變差,影響跟蹤框準確表征目標區域,從而跟蹤框發生偏移;從Frame 114、Frame 149可以看出,目標被彩帶遮擋時,DSST 算法跟蹤框積累偏移誤差后跟蹤失敗,HCF 算法不能有效區分目標與背景信息,使跟蹤器發生漂移。選擇coke 測試視頻具有光照變化、旋轉、遮擋的情景,圖4 第2 行是coke 測試視頻跟蹤結果的截圖,從Frame 25 可以看出,光線變強時,影響TLD跟蹤框內特征點通過光流法計算前后向誤差,導致特征點預測的跟蹤框縮小;從Frame 273、Frame 281 可以看出,目標發生完全遮擋后,CN 算法和DSST 算法對偽目標葉子進行濾波器訓練并更新目標模型,導致跟蹤失敗,TCNN 樹狀模型根據上一幀偽目標葉子的位置得到檢測后的候選框,導致跟蹤框不穩健,HCF算法缺乏重檢測機制無法持續跟蹤到目標,TLD 算法通過檢測器的跟蹤失敗恢復機制重新找到目標區域。選擇panda 測試視頻具有形變、旋轉、遮擋的情景,圖4第3行是panda測試視頻跟蹤結果的截圖,從Frame 148、Frame 162、Frame 182、Frame 215可以看出,目標旋轉時影響CN算法和DSST 算法提取目標顏色特征和HOG 特征,導致跟蹤框漂移,DSST算法引入過多背景信息的響應導致跟蹤失敗,TCNN算法通過Tree的結構對多個CNN模型進行權重計算,選出候選框,可以適應目標的快速變換。選擇bird1 測試視頻具有快速運動、形變、遮擋的情景,圖4 第4 行是bird1 測試視頻跟蹤結果的截圖,從Frame 12、Frame 16可以看出,目標發生形變后,由于翅膀的擺動,CN算法、TLD算法和HCF算法跟蹤框漂移;從Frame 119、Frame 187可以看出,目標被彩云完全長時間遮擋后,CN 算法和DSST 算法濾波器對背景信息進行濾波響應,最后跟蹤失敗,TCNN算法通過多個模型檢測候選框,但無法對目標進行位置確定從而跟蹤失敗,HCF 算法使用的特征模型不能應對長期遮擋的目標。選擇bolt 測試視頻具有快速運動、旋轉、形變的情景,圖4 第5 行是bolt測試視頻跟蹤結果的截圖,從Frame 241、Frame 250可以看出,目標旋轉時,影響CN算法和DSST算法對目標提取特征進行訓練從而跟蹤失敗。選擇david3測試視頻具有背景雜亂、旋轉、遮擋的情景,圖4 第6行是david3 測試視頻跟蹤結果的截圖,從Frame 81看到DSST 算法受到樹的遮擋導致跟蹤框偏移;從Frame 117、Frame 136 可以看出,目標發生旋轉后,CN 算法、TLD 算法和DSST 算法提取目標單一的手工特征導致跟蹤框漂移,TCNN算法提取目標深度特征后,通過樹的結構模型避免了最近幀的過擬合,HCF 算法通過深度特征訓練不同的濾波器,從粗到精對目標位置進行預測。

Fig.4 Screenshot of part of video tracking sequence圖4 視頻跟蹤序列部分截圖

Fig.5 Accuracy chart of test video圖5 測試視頻的精度圖

從以上視頻幀中看出,本文算法在以上情景下跟蹤效果更魯棒,本文采用多層次的深度卷積特征表征目標,并根據不同的卷積層語義信息和空間信息不同,通過自適應訓練多層的相關濾波器,由Conv5 卷積層濾波器的響應區域融合Conv3 卷積層濾波器的初始響應位置,得到目標精確定位的結果。另外從bolt測試視頻中Frame 241、Frame 250可以看出,本文通過混合高斯模型進行像素點匹配,有效地區分目標和背景,避免了相似物的干擾。從bird1測試視頻中Frame 119、Frame 187 可以看出,本文重檢測機制輸出的矩形框平滑約束濾波器的位置響應,重新找到目標區域。

3.2 跟蹤結果定量分析

圖5、表3 為6 種算法的精確度,圖6、表4 為6 種算法的成功率。從表3和表4的soccer實驗精確度和成功率得到,本文算法精確度為0.726,成功率為0.573,比次優的CN 算法分別提高了4.7%和7.2%。從圖6的soccer實驗成功率圖得到,在重疊閾值大于0.7時,本文算法和CN算法比其他算法的成功率高,主要是在目標遮擋時,DSST 算法跟蹤失敗,HCF 算法和TCNN 算法跟蹤框漂移,CN 算法通過目標顏色特征進行跟蹤,避免背景信息的干擾。本文算法根據混合高斯模型有效區分了目標與背景信息;在重疊閾值小于0.7 時,本文算法、TCNN 算法和HCF 算法比CN 算法和DSST 算法的成功率高,主要是在目標快速移動時,產生的邊界效應影響了CN 算法和DSST算法濾波器對位置響應,導致運動模型更新失敗。從表3和表4的coke實驗精確度和成功率得到,本文算法精確度為0.812,成功率為0.679,比次優的TCNN 算法分別提高了6.1%和9.8%。從圖5 的coke實驗精度圖得到,本文算法比其他算法的精確度高,主要是視頻中存在光照變化導致TLD 跟蹤框縮小,相關濾波算法的濾波器對葉子進行訓練響應,導致目標跟蹤失敗,深度學習算法模型得出錯誤的候選框,而本文算法通過梯度加權的類激活映射得到深度特征圖,然后多層濾波器融合特征圖響應,得到目標精確定位的結果。從表3和表4的panda實驗精確度和成功率得到,本文算法精確度為0.758,成功率為0.632,比次優的HCF 算法分別提高了5.8%和5.5%。從圖6 的panda 實驗成功率圖得到,深度學習算法比相關濾波算法的成功率高,主要是因為深度特征比手工特征對目標的表述更魯棒。從表3 和表4 的bird1 實驗精確度和成功率得到,本文算法精確度為0.691,成功率為0.564,比次優的TCNN 算法分別提高了6.4%和6.9%。從圖5 的bird1 實驗精度圖得到,本文算法比其他算法的精度高,主要是在目標完全遮擋時,其他算法被背景信息進行錯誤響應,導致目標跟蹤失敗,而本文算法通過重檢測機制平滑約束濾波器的響應值,重新找到圖像中目標位置。從表3和表4的bolt實驗精確度和成功率得到,本文算法精確度為0.745,成功率為0.617,比次優的TCNN 算法分別提高了2.6%和4.1%。從圖6 的bolt 實驗成功率圖得到,本文算法比其他算法的成功率高,主要原因是其他算法對目標周圍進行采樣時,決策邊界位置正負樣本存在模糊性,HCF算法跟蹤框發生漂移,而CN 算法、DSST 算法跟蹤失敗,本文通過對Conv3 和Conv5層分別自適應訓練相關濾波器,緩解采樣模糊時的模型更新問題,并通過融合響應來預測目標位置。從表3 和表4 的david3 實驗精確度和成功率得到,本文算法精確度為0.766,成功率為0.647,比次優的TCNN 算法分別提高了2.7%和3.9%。從圖5 的david3實驗精度圖得到,深度學習算法比相關濾波算法的成功率高,主要是深度學習算法采用卷積層對目標提取特征,得到更優的表觀模型,避免了目標旋轉和背景雜亂導致的背景信息干擾。

Table 3 Average center error rate(accuracy)of 6 algorithms表3 6種算法的平均中心誤差率(精確度)

Fig.6 Success rate graph of test video圖6 測試視頻的成功率圖

Table 4 Average overlap rate(success rate)of 6 algorithms表4 6種算法的平均重疊率(成功率)

3.3 算法跟蹤速率分析

從表5 得到,CN 算法在CSK 算法上融入顏色特征后,使用主成成分降維,跟蹤的實時性最好,平均幀率達到105.06 f/s;DSST算法通過對高斯核函數轉為頻域計算,并提出濾波器更新機制,從而跟蹤的實時性得到提高;TLD算法通過網格循環采樣矩形框,計算每個矩形框的重疊度和相似度使得TLD算法實時性一般;HCF提取多個卷積層的特征訓練濾波器,增加模型的復雜度,通過每一幀對濾波器進行更新使算法的實時性較差;TCNN算法對目標進行多層卷積提取深度特征,并需要對每一幀進行樹形判斷,導致實時性最差,平均幀率為1.35 f/s;本文算法選取局部窗搜索的方式,大大減少檢測器學習和訓練的滑動矩形框,并通過一種新的自適應權重更新方法降低計算的復雜性,減少高維度參數空間的過擬合,使平均幀率達到29.46 f/s。

Table 5 Comparison of average frame rate of 6 algorithms表5 6種算法的平均幀率對比 f/s

4 結束語

本文算法融合多卷積層的深度特征后,能夠處理環境中目標快速變化并防止跟蹤器漂移;檢測器機制可以有效應對目標長時間遮擋情景下的持續跟蹤問題。提出了一種結合重檢測機制的多卷積層特征響應跟蹤算法,首先將分塊處理后圖像內服從高斯分布的塊像素點分別與混合高斯模型匹配,然后獲得目標區域并由加權梯度的類激活映射出深度特征圖,再利用卷積層中第3 層Conv3 和第5 層Conv5提取深度特征圖并訓練相關濾波器,自適應權重系數融合Conv5 高層特征濾波器和Conv3 底層特征濾波器的目標位置響應值,重檢測機制約束該響應值,得到平滑輸出的跟蹤結果,提高了跟蹤算法的魯棒性,同時本文通過對模型權重更新,減少了模型參數之間的過擬合。實驗結果表明,本文算法對于目標嚴重形變、旋轉、長期遮擋等情景跟蹤結果更魯棒。然而,本文算法跟蹤速度較差,下一步的研究方向是通過端對端的更新策略提高跟蹤算法的實時性。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 欧美国产日韩一区二区三区精品影视| 无码精品一区二区久久久| 亚洲综合激情另类专区| 中文字幕乱码二三区免费| 成人日韩精品| 国产黑丝一区| 一本大道AV人久久综合| 国产精品性| 欧美一级99在线观看国产| 亚洲美女一区| 成人蜜桃网| 久久精品中文无码资源站| 久久99国产综合精品1| 日韩欧美在线观看| 米奇精品一区二区三区| 欧美亚洲一区二区三区在线| 国产成人精品一区二区| 国产亚洲一区二区三区在线| 99精品国产高清一区二区| 国产精品无码AV片在线观看播放| 超清无码一区二区三区| 热re99久久精品国99热| 国产天天色| 亚洲无码视频图片| 超碰91免费人妻| 国产h视频免费观看| 广东一级毛片| 欧美无遮挡国产欧美另类| 国产一区二区精品福利 | 精品福利网| 午夜精品影院| 亚洲欧美自拍视频| 亚洲国产精品一区二区第一页免| 99精品视频在线观看免费播放| 香蕉99国内自产自拍视频| 91视频精品| 国产极品粉嫩小泬免费看| 在线观看亚洲成人| 国产XXXX做受性欧美88| 无码中文AⅤ在线观看| 欧美不卡二区| 中文字幕久久精品波多野结| 无码 在线 在线| 色婷婷视频在线| 欧洲日本亚洲中文字幕| 免费不卡在线观看av| 日韩精品一区二区三区中文无码 | 免费国产在线精品一区| 天天躁夜夜躁狠狠躁图片| 亚洲永久免费网站| 91小视频在线观看免费版高清| 欧亚日韩Av| 国产免费福利网站| 国产凹凸视频在线观看| 国产成人免费| 精品剧情v国产在线观看| 欧美亚洲第一页| 欧美日韩国产在线人| 欧美日韩成人| 国产日韩欧美在线播放| 精品人妻AV区| 亚洲成综合人影院在院播放| 亚洲综合片| 欧洲成人免费视频| 亚洲精品图区| julia中文字幕久久亚洲| 另类专区亚洲| 欧美精品在线免费| 国产一二三区视频| 综合色在线| 丁香婷婷综合激情| 热久久这里是精品6免费观看| 丰满人妻中出白浆| 激情六月丁香婷婷四房播| 亚洲无线一二三四区男男| 五月激情婷婷综合| 亚洲91在线精品| 欧美日韩资源| 999国产精品永久免费视频精品久久| 97国产精品视频自在拍| 亚洲三级色| 91色综合综合热五月激情|