999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自適應(yīng)模型的視覺跟蹤算法*

2021-01-21 13:32:46朱洪波
計算機與數(shù)字工程 2020年12期
關(guān)鍵詞:特征方法模型

朱洪波

(廈門弘搏科技有限公司 廈門 362000)

1 引言

視覺跟蹤在視頻監(jiān)控、自動駕駛、車輛導航和人機交互等領(lǐng)域有著廣泛的應(yīng)用。但由于固有因素(如規(guī)模變化和變形)和外部因素(如光照變化、遮擋)。目標跟蹤方法可分為判別[5~9]或生成法[1~4]。其中生成方法學習可以通過提取的特征表示的外觀模型,然后制定跟蹤任務(wù),如搜索與定義為目標的模型最相關(guān)的目標圖像區(qū)域。常見生成模型包括增量跟蹤器(IVT)[1]、跟蹤器[2]、多任務(wù)跟蹤器(MTT)[3]、稀疏表示[4]等。判別方法可以看作是二進制分類問題,通常可以稱為逐導檢測方法,其中一種是目標對象,另一個是周圍的背景。這些方法的主要任務(wù)是通過學習分類器來確定當前幀位置上的目標,從而區(qū)分目標和不斷變化的背景。一般判別模型已被提出包括多實例學習(MIL)[5]、支持向量跟蹤[6]、P-N學習[7]、壓縮傳感[8],所有相關(guān)過濾器為基礎(chǔ)跟蹤器。生成模型具有更全面的能力來描述目標對象的特征,但缺點是沒有考慮到目標對象周圍的背景信息。考慮到目標和背景信息的判別模型具有很高的判別能力,可以區(qū)分目標和復雜的背景,很容易導致過度擬合現(xiàn)象[10]。

目前,傳統(tǒng)的視覺跟蹤算法可以簡單地分為兩種方法,包括基于相關(guān)濾波器(CF)[13~20,27~29]和基于深度學習的[21~23,33~37]方法。這兩種方法都可以從不同的方面提高算法的性能。基于深度學習的跟蹤方法通常采用從卷積神經(jīng)網(wǎng)絡(luò)(CNN)中提取的預先訓練的深高維特征來表示特征。雖然實現(xiàn)了理想的跟蹤結(jié)果,但在特征提取過程中增加了大量的計算復雜性,將嚴重影響實時性能。在跟蹤過程中,跟蹤模型的更新過程對于確定跟蹤是否準確至關(guān)重要。目前大多對跟蹤模型進行了從一個幀到下一個幀更新。這種更新方法存在缺點。當目標遇到顯著的外觀變化,如照明變化、遮擋、超出視圖,將產(chǎn)生錯誤的跟蹤信息。這些信息將被傳遞到下一幀,積累很長時間后,將增加跟蹤漂流的風險,最終會導致跟蹤失敗。

本文針對上述問題研究如何設(shè)計一個穩(wěn)健的策略來更新模型,以進一步提高模型的質(zhì)量。以前幀中的正確跟蹤信息可以及時傳遞到下一個幀,并且當目標對象經(jīng)歷復雜的情況(如遮擋和照明變化)時,可以正確地更新模型,從而使模型保持隨后的視頻序列在一定程度上被惡化。

2 基于相關(guān)濾波器的跟蹤算法

2.1 基于判別相關(guān)濾波器的框架

首先介紹了關(guān)于本文算法中使用的上下文感知相關(guān)濾波器框架的先驗知識,然后介紹了有關(guān)尺度相關(guān)濾波器如何集成到本文的算法。最常見的基于識別性相關(guān)的跟蹤器總是傾向于忽略周圍的上下文信息。然而,目標位置周圍的上下文區(qū)域在跟蹤性能方面發(fā)揮著重要作用。文獻[18]提出了基于判別相關(guān)濾波器的上下文感知框架,將全局上下文信息集成到學習濾波器中。目標是訓練一個對目標圖像補丁有較高響應(yīng)和對上下文區(qū)域的響應(yīng)接近于零的濾波器。在CACF框架中,主要目標是訓練最佳相關(guān)濾波器w,對于所有訓練樣本DO(DO包含由循環(huán)移位運算符和理想的回歸目標y生成的矢量化圖像補丁dO的所有循環(huán)轉(zhuǎn)換)(y是二維高斯的矢量化圖像),如式(1):

根據(jù)傅里葉域中循環(huán)矩陣性質(zhì),本文將訓練一個濾波器w,它對目標圖像補丁具有較高的置信度響應(yīng),對上下文補丁具有接近零的置信度響應(yīng)。通過在標準配方中添加上下文補丁作為正則化術(shù)語如式(2):

由于目標圖像補丁包含許多上下文圖像信息,并形成了一個新的數(shù)據(jù)矩陣B∈R(k+1)n×n,主目標函數(shù)(2)可以重寫如下:

其中B=and=,yˉ∈R(k+1)n∈R(k+1)n表示

新的理想回歸目標。由于目標函數(shù)是凸函數(shù),可以通過派生操作將其最小化,如下所示:

2.2 尺度判別相關(guān)濾波器

在跟蹤過程中,參考文獻[15]提出了一種基于判別相關(guān)濾波器的精確尺度估計方法。通過訓練一個尺度判別相關(guān)濾波器的規(guī)模金字塔表示,然后估計規(guī)模從最好的置信度框架。以用于比例估計的目標為中心的圖像補丁大小為

其中P和R分別表示當前幀中的寬度和高度,表示比例因子,s表示比例濾波器的大小。目標是通過最小化以下目標函數(shù)來獲得最佳的尺度相關(guān)濾波器h:

其中g(shù)表示理想的相關(guān)輸出,l表示特征的維度,是一個正則系數(shù)。上述頻域中的解決方案是通過以下方式給出的:

為了獲得準確的結(jié)果,H1中的分母分別更新如下:

η是一個學習速率參數(shù)。在下一幀中通過以下公式求解比例濾波器的響應(yīng):

3 本文提出跟蹤模型

3.1 多特征自適應(yīng)融合策略

視覺特征表示是視覺跟蹤框架的重要組成部分。本文主要集中在手工制作的功能。常見的手工制作功能包括HOG功能和CN功能,兩個都有自己的優(yōu)點和缺點。HOG功能被廣泛用于大多數(shù)現(xiàn)有的跟蹤器和對象檢測。通過計算和完成圖像貼片單元空間網(wǎng)格中梯度方向的統(tǒng)計直方圖來生成特征,使其與幾何變形和光學變形保持了優(yōu)越的不變性。CN特征[27]描述符利用PCA技術(shù)進行降維。局部強度(HOI)[17]的直方圖是HOG特征的補充,通過計算局部強度的直方圖,使其對遮擋和運動模糊等劇烈的外觀變化更加穩(wěn)健。為了實現(xiàn)卓越的特征表示,并補充了各自的優(yōu)勢。本文考慮將上述分析的HOG、CN和HOI的兩個特征結(jié)合起來。本文首先在CACF框架的基礎(chǔ)上,分別計算HOG和CN分別與HOI集成所產(chǎn)生的相應(yīng)的最大響應(yīng)分數(shù)。每個要素的權(quán)重根據(jù)相應(yīng)響應(yīng)分數(shù)的比例進行分配。因此,下一幀中的視頻序列將被優(yōu)先用于選擇權(quán)重較高的要素。在t-th框架中分別與HOI集成的HOG和CN特征的歸一化權(quán)重為

HOI表示像素強度直方圖特征,fHOG+HOI表示與像素強度直方圖特征集成的HOG特征的相應(yīng)輸出響應(yīng)分數(shù),,fHOG+HOI表示CN特征與像素強度直方圖特征集成的相應(yīng)輸出響應(yīng)分數(shù)。t+1-th框架中的權(quán)重wt+1用于更新以前的要素權(quán)重wˉt:

本文根據(jù)響應(yīng)分數(shù)的比例為所有要素分配權(quán)重。最終響應(yīng)是由HOG和CN功能分別與HOI集成而生成的,響應(yīng)分數(shù)Rt如下所示:

3.2 本文算法的自適應(yīng)模型更新方法

本文將響應(yīng)圖的PSR及其響應(yīng)圖作為跟蹤質(zhì)量評估的高峰。表達式方程是通過以下方式給出的:

該模型可以根據(jù)每個不同視頻序列的最大響應(yīng)分數(shù)自適應(yīng)地判斷結(jié)果。只有當滿足特定條件時,PSR大于其最大響應(yīng)峰值分數(shù)Rmax(x),轉(zhuǎn)換濾波器模型。在當前幀中,跟蹤結(jié)果是準確的。它有效地防止了不正確的更新信息被傳輸?shù)胶罄m(xù)幀,從而導致跟蹤漂移,從而創(chuàng)建了一種自適應(yīng)的方式來更新比例模型和翻譯模型。該算法的總體流程如下所示。

初始化:確定第一幀要跟蹤目標狀態(tài),設(shè)定更新閾值T為0.43

fort=1 toT(T為視頻總幀數(shù))

ift>1

1)位置估計:

Step1:根據(jù)目標的狀態(tài),采樣圖像塊,分別采用HOG和CN特征表達;

Step2:(H O G+H O I)W t、(CN+HOI)W t分別對HOG、CN特征表達的圖像塊進行相關(guān)濾波,求出響應(yīng)圖

Step3:根據(jù)式(15)計算融合響應(yīng)圖,估計當前幀的位置;

2)尺度估計:

Step4:根據(jù)式(16)求得最大尺度相關(guān)濾波得分,估計當前幀的尺度,并使用式(13)、(14)更新;

end

3)if max(Rt)>T

Step5:根據(jù)目標狀態(tài),訓練和更新HOG和CN特征的濾波器模型(w t,x t)、尺度濾波模型(At,Bt);

Step6:根據(jù)式(13)(14)更新HOG和CN特征的融合權(quán)重;

end

end

4 實驗結(jié)果

本文采用OTB基準數(shù)據(jù)集評估,并與目前主流的跟蹤方法包括SRDCF[16],LMCF[19],C-COT_HOG[39],LCT[17],KCF[14],CSK[13],SAMF[28],DSST[15],STAPLE_CA[18],DCF[18],SAMF_CA[18],MOSSE_CA[18]、CNSVM[41],數(shù)據(jù)集中的所有這些視頻都由包含不同挑戰(zhàn)性場景的11個屬性進行注釋:照明變化(IV)、比例變化(SV)、遮擋(OCC)、變形(DEF)、運動模糊(MB)、快速運動(FM)、平面旋轉(zhuǎn)(IPR)、超視點(OV)、背景離合器(BC)和低分辨率(LR)。圖1表明本文算法在幾個屬性挑戰(zhàn)中具有較好的距離精度和重疊成功率,并表明該方法在光照變化屬性(80.7、55.5)方面達到了優(yōu)越的DP和OS,平面內(nèi)旋轉(zhuǎn)(82.4,54.4%)、平面外旋轉(zhuǎn)(82.4,54.7%)、刻度變化(82%,50.3%)。結(jié)果表明本文更新方法和多重特征的融合策略大幅度提高跟蹤精度。

圖1 部分不同狀態(tài)的跟蹤結(jié)果(平面旋轉(zhuǎn),平面外旋轉(zhuǎn),規(guī)模變化)

5 結(jié)語

本文提出了一種基于判別相關(guān)濾波器的精確模型自適應(yīng)更新方法。利用判別相關(guān)濾波器生成的響應(yīng)峰值分數(shù)作為動態(tài)閾值,并與各幀響應(yīng)圖的峰值側(cè)瓣比進行了比較,然后將比較結(jié)果作為實現(xiàn)平移濾波模型和尺度濾波器模型更新的差異化條件,實現(xiàn)自適應(yīng)更新方法。為了實現(xiàn)較好的特征表示,提出了響應(yīng)層中的HOG、CN和HOI等多種手工制作特征的自適應(yīng)融合策略。實驗結(jié)果表明,該跟蹤器與最先進的基于濾波器的判別相關(guān)跟蹤器相比效果良好,在遮擋、尺度變化、變形、快速等復雜情況下表現(xiàn)良好的跟蹤效果。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 久久香蕉国产线看观看式| 一区二区欧美日韩高清免费 | 五月天在线网站| 国产成人综合久久精品下载| 国产真实乱人视频| 99热6这里只有精品| 国产麻豆精品久久一二三| 高清无码手机在线观看 | 亚洲三级色| 毛片网站在线播放| 啪啪国产视频| 国模私拍一区二区| 欧美午夜在线播放| 国产在线精品美女观看| 亚洲国产午夜精华无码福利| 亚洲国产在一区二区三区| 亚洲AⅤ波多系列中文字幕| 九九免费观看全部免费视频| 亚洲乱码精品久久久久..| 国产精品成| 无码一区中文字幕| 国产黄网永久免费| 九色在线观看视频| 国产视频欧美| 高清不卡毛片| 伊人久久精品亚洲午夜| 色综合a怡红院怡红院首页| 国产在线97| 四虎永久免费在线| 国产成人亚洲综合A∨在线播放| 国产免费人成视频网| 国产成人三级| 好紧好深好大乳无码中文字幕| 亚洲区欧美区| 欧美人人干| 亚洲三级视频在线观看| 亚洲浓毛av| 亚洲第一成网站| 日韩亚洲高清一区二区| 精品亚洲国产成人AV| 国产成人喷潮在线观看| 亚洲国产精品无码AV| 人妻中文久热无码丝袜| 18禁色诱爆乳网站| 国模视频一区二区| 国产高清在线丝袜精品一区| 久久婷婷色综合老司机| 乱人伦视频中文字幕在线| 国产女人在线| 国产色婷婷| 99视频在线免费看| 91九色视频网| 国产成人精品在线1区| 东京热高清无码精品| 超清无码熟妇人妻AV在线绿巨人| 国产福利免费视频| 久久成人国产精品免费软件| 久久国产精品夜色| yjizz国产在线视频网| 91偷拍一区| 91青草视频| 欧美精品二区| 国产人成在线观看| 欧美激情第一区| 久久精品亚洲专区| 女人18毛片久久| 国产一级无码不卡视频| 久久精品国产免费观看频道| 久久狠狠色噜噜狠狠狠狠97视色| 国产精品美女免费视频大全| 日韩A∨精品日韩精品无码| 99在线视频精品| 九九久久99精品| 日本人又色又爽的视频| 亚洲Aⅴ无码专区在线观看q| 91精品专区国产盗摄| 91久久国产综合精品女同我| 91精品最新国内在线播放| 91外围女在线观看| 波多野结衣第一页| 中文字幕亚洲专区第19页| 人妻无码AⅤ中文字|