999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自適應(yīng)模型的視覺跟蹤算法*

2021-01-21 13:32:46朱洪波
計算機與數(shù)字工程 2020年12期
關(guān)鍵詞:特征方法模型

朱洪波

(廈門弘搏科技有限公司 廈門 362000)

1 引言

視覺跟蹤在視頻監(jiān)控、自動駕駛、車輛導航和人機交互等領(lǐng)域有著廣泛的應(yīng)用。但由于固有因素(如規(guī)模變化和變形)和外部因素(如光照變化、遮擋)。目標跟蹤方法可分為判別[5~9]或生成法[1~4]。其中生成方法學習可以通過提取的特征表示的外觀模型,然后制定跟蹤任務(wù),如搜索與定義為目標的模型最相關(guān)的目標圖像區(qū)域。常見生成模型包括增量跟蹤器(IVT)[1]、跟蹤器[2]、多任務(wù)跟蹤器(MTT)[3]、稀疏表示[4]等。判別方法可以看作是二進制分類問題,通常可以稱為逐導檢測方法,其中一種是目標對象,另一個是周圍的背景。這些方法的主要任務(wù)是通過學習分類器來確定當前幀位置上的目標,從而區(qū)分目標和不斷變化的背景。一般判別模型已被提出包括多實例學習(MIL)[5]、支持向量跟蹤[6]、P-N學習[7]、壓縮傳感[8],所有相關(guān)過濾器為基礎(chǔ)跟蹤器。生成模型具有更全面的能力來描述目標對象的特征,但缺點是沒有考慮到目標對象周圍的背景信息。考慮到目標和背景信息的判別模型具有很高的判別能力,可以區(qū)分目標和復雜的背景,很容易導致過度擬合現(xiàn)象[10]。

目前,傳統(tǒng)的視覺跟蹤算法可以簡單地分為兩種方法,包括基于相關(guān)濾波器(CF)[13~20,27~29]和基于深度學習的[21~23,33~37]方法。這兩種方法都可以從不同的方面提高算法的性能。基于深度學習的跟蹤方法通常采用從卷積神經(jīng)網(wǎng)絡(luò)(CNN)中提取的預先訓練的深高維特征來表示特征。雖然實現(xiàn)了理想的跟蹤結(jié)果,但在特征提取過程中增加了大量的計算復雜性,將嚴重影響實時性能。在跟蹤過程中,跟蹤模型的更新過程對于確定跟蹤是否準確至關(guān)重要。目前大多對跟蹤模型進行了從一個幀到下一個幀更新。這種更新方法存在缺點。當目標遇到顯著的外觀變化,如照明變化、遮擋、超出視圖,將產(chǎn)生錯誤的跟蹤信息。這些信息將被傳遞到下一幀,積累很長時間后,將增加跟蹤漂流的風險,最終會導致跟蹤失敗。

本文針對上述問題研究如何設(shè)計一個穩(wěn)健的策略來更新模型,以進一步提高模型的質(zhì)量。以前幀中的正確跟蹤信息可以及時傳遞到下一個幀,并且當目標對象經(jīng)歷復雜的情況(如遮擋和照明變化)時,可以正確地更新模型,從而使模型保持隨后的視頻序列在一定程度上被惡化。

2 基于相關(guān)濾波器的跟蹤算法

2.1 基于判別相關(guān)濾波器的框架

首先介紹了關(guān)于本文算法中使用的上下文感知相關(guān)濾波器框架的先驗知識,然后介紹了有關(guān)尺度相關(guān)濾波器如何集成到本文的算法。最常見的基于識別性相關(guān)的跟蹤器總是傾向于忽略周圍的上下文信息。然而,目標位置周圍的上下文區(qū)域在跟蹤性能方面發(fā)揮著重要作用。文獻[18]提出了基于判別相關(guān)濾波器的上下文感知框架,將全局上下文信息集成到學習濾波器中。目標是訓練一個對目標圖像補丁有較高響應(yīng)和對上下文區(qū)域的響應(yīng)接近于零的濾波器。在CACF框架中,主要目標是訓練最佳相關(guān)濾波器w,對于所有訓練樣本DO(DO包含由循環(huán)移位運算符和理想的回歸目標y生成的矢量化圖像補丁dO的所有循環(huán)轉(zhuǎn)換)(y是二維高斯的矢量化圖像),如式(1):

根據(jù)傅里葉域中循環(huán)矩陣性質(zhì),本文將訓練一個濾波器w,它對目標圖像補丁具有較高的置信度響應(yīng),對上下文補丁具有接近零的置信度響應(yīng)。通過在標準配方中添加上下文補丁作為正則化術(shù)語如式(2):

由于目標圖像補丁包含許多上下文圖像信息,并形成了一個新的數(shù)據(jù)矩陣B∈R(k+1)n×n,主目標函數(shù)(2)可以重寫如下:

其中B=and=,yˉ∈R(k+1)n∈R(k+1)n表示

新的理想回歸目標。由于目標函數(shù)是凸函數(shù),可以通過派生操作將其最小化,如下所示:

2.2 尺度判別相關(guān)濾波器

在跟蹤過程中,參考文獻[15]提出了一種基于判別相關(guān)濾波器的精確尺度估計方法。通過訓練一個尺度判別相關(guān)濾波器的規(guī)模金字塔表示,然后估計規(guī)模從最好的置信度框架。以用于比例估計的目標為中心的圖像補丁大小為

其中P和R分別表示當前幀中的寬度和高度,表示比例因子,s表示比例濾波器的大小。目標是通過最小化以下目標函數(shù)來獲得最佳的尺度相關(guān)濾波器h:

其中g(shù)表示理想的相關(guān)輸出,l表示特征的維度,是一個正則系數(shù)。上述頻域中的解決方案是通過以下方式給出的:

為了獲得準確的結(jié)果,H1中的分母分別更新如下:

η是一個學習速率參數(shù)。在下一幀中通過以下公式求解比例濾波器的響應(yīng):

3 本文提出跟蹤模型

3.1 多特征自適應(yīng)融合策略

視覺特征表示是視覺跟蹤框架的重要組成部分。本文主要集中在手工制作的功能。常見的手工制作功能包括HOG功能和CN功能,兩個都有自己的優(yōu)點和缺點。HOG功能被廣泛用于大多數(shù)現(xiàn)有的跟蹤器和對象檢測。通過計算和完成圖像貼片單元空間網(wǎng)格中梯度方向的統(tǒng)計直方圖來生成特征,使其與幾何變形和光學變形保持了優(yōu)越的不變性。CN特征[27]描述符利用PCA技術(shù)進行降維。局部強度(HOI)[17]的直方圖是HOG特征的補充,通過計算局部強度的直方圖,使其對遮擋和運動模糊等劇烈的外觀變化更加穩(wěn)健。為了實現(xiàn)卓越的特征表示,并補充了各自的優(yōu)勢。本文考慮將上述分析的HOG、CN和HOI的兩個特征結(jié)合起來。本文首先在CACF框架的基礎(chǔ)上,分別計算HOG和CN分別與HOI集成所產(chǎn)生的相應(yīng)的最大響應(yīng)分數(shù)。每個要素的權(quán)重根據(jù)相應(yīng)響應(yīng)分數(shù)的比例進行分配。因此,下一幀中的視頻序列將被優(yōu)先用于選擇權(quán)重較高的要素。在t-th框架中分別與HOI集成的HOG和CN特征的歸一化權(quán)重為

HOI表示像素強度直方圖特征,fHOG+HOI表示與像素強度直方圖特征集成的HOG特征的相應(yīng)輸出響應(yīng)分數(shù),,fHOG+HOI表示CN特征與像素強度直方圖特征集成的相應(yīng)輸出響應(yīng)分數(shù)。t+1-th框架中的權(quán)重wt+1用于更新以前的要素權(quán)重wˉt:

本文根據(jù)響應(yīng)分數(shù)的比例為所有要素分配權(quán)重。最終響應(yīng)是由HOG和CN功能分別與HOI集成而生成的,響應(yīng)分數(shù)Rt如下所示:

3.2 本文算法的自適應(yīng)模型更新方法

本文將響應(yīng)圖的PSR及其響應(yīng)圖作為跟蹤質(zhì)量評估的高峰。表達式方程是通過以下方式給出的:

該模型可以根據(jù)每個不同視頻序列的最大響應(yīng)分數(shù)自適應(yīng)地判斷結(jié)果。只有當滿足特定條件時,PSR大于其最大響應(yīng)峰值分數(shù)Rmax(x),轉(zhuǎn)換濾波器模型。在當前幀中,跟蹤結(jié)果是準確的。它有效地防止了不正確的更新信息被傳輸?shù)胶罄m(xù)幀,從而導致跟蹤漂移,從而創(chuàng)建了一種自適應(yīng)的方式來更新比例模型和翻譯模型。該算法的總體流程如下所示。

初始化:確定第一幀要跟蹤目標狀態(tài),設(shè)定更新閾值T為0.43

fort=1 toT(T為視頻總幀數(shù))

ift>1

1)位置估計:

Step1:根據(jù)目標的狀態(tài),采樣圖像塊,分別采用HOG和CN特征表達;

Step2:(H O G+H O I)W t、(CN+HOI)W t分別對HOG、CN特征表達的圖像塊進行相關(guān)濾波,求出響應(yīng)圖

Step3:根據(jù)式(15)計算融合響應(yīng)圖,估計當前幀的位置;

2)尺度估計:

Step4:根據(jù)式(16)求得最大尺度相關(guān)濾波得分,估計當前幀的尺度,并使用式(13)、(14)更新;

end

3)if max(Rt)>T

Step5:根據(jù)目標狀態(tài),訓練和更新HOG和CN特征的濾波器模型(w t,x t)、尺度濾波模型(At,Bt);

Step6:根據(jù)式(13)(14)更新HOG和CN特征的融合權(quán)重;

end

end

4 實驗結(jié)果

本文采用OTB基準數(shù)據(jù)集評估,并與目前主流的跟蹤方法包括SRDCF[16],LMCF[19],C-COT_HOG[39],LCT[17],KCF[14],CSK[13],SAMF[28],DSST[15],STAPLE_CA[18],DCF[18],SAMF_CA[18],MOSSE_CA[18]、CNSVM[41],數(shù)據(jù)集中的所有這些視頻都由包含不同挑戰(zhàn)性場景的11個屬性進行注釋:照明變化(IV)、比例變化(SV)、遮擋(OCC)、變形(DEF)、運動模糊(MB)、快速運動(FM)、平面旋轉(zhuǎn)(IPR)、超視點(OV)、背景離合器(BC)和低分辨率(LR)。圖1表明本文算法在幾個屬性挑戰(zhàn)中具有較好的距離精度和重疊成功率,并表明該方法在光照變化屬性(80.7、55.5)方面達到了優(yōu)越的DP和OS,平面內(nèi)旋轉(zhuǎn)(82.4,54.4%)、平面外旋轉(zhuǎn)(82.4,54.7%)、刻度變化(82%,50.3%)。結(jié)果表明本文更新方法和多重特征的融合策略大幅度提高跟蹤精度。

圖1 部分不同狀態(tài)的跟蹤結(jié)果(平面旋轉(zhuǎn),平面外旋轉(zhuǎn),規(guī)模變化)

5 結(jié)語

本文提出了一種基于判別相關(guān)濾波器的精確模型自適應(yīng)更新方法。利用判別相關(guān)濾波器生成的響應(yīng)峰值分數(shù)作為動態(tài)閾值,并與各幀響應(yīng)圖的峰值側(cè)瓣比進行了比較,然后將比較結(jié)果作為實現(xiàn)平移濾波模型和尺度濾波器模型更新的差異化條件,實現(xiàn)自適應(yīng)更新方法。為了實現(xiàn)較好的特征表示,提出了響應(yīng)層中的HOG、CN和HOI等多種手工制作特征的自適應(yīng)融合策略。實驗結(jié)果表明,該跟蹤器與最先進的基于濾波器的判別相關(guān)跟蹤器相比效果良好,在遮擋、尺度變化、變形、快速等復雜情況下表現(xiàn)良好的跟蹤效果。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 亚洲日产2021三区在线| 欧美一级高清片久久99| 亚洲欧美色中文字幕| 亚州AV秘 一区二区三区| 亚洲国产精品久久久久秋霞影院| 亚洲天堂在线免费| 在线观看欧美国产| 亚洲清纯自偷自拍另类专区| yjizz视频最新网站在线| 99尹人香蕉国产免费天天拍| 在线国产毛片| 在线观看精品自拍视频| 69视频国产| 高潮爽到爆的喷水女主播视频| 狠狠色丁香婷婷| 九九久久精品免费观看| 日本高清免费一本在线观看| 亚洲永久色| 国产一在线观看| 男人天堂亚洲天堂| 亚洲 欧美 偷自乱 图片 | 精品国产三级在线观看| 国产成年女人特黄特色大片免费| 粉嫩国产白浆在线观看| 激情综合激情| 久久网综合| 国产成人亚洲毛片| 青草国产在线视频| 亚洲AV色香蕉一区二区| 亚洲人人视频| 国产拍揄自揄精品视频网站| 久久国产高潮流白浆免费观看| 台湾AV国片精品女同性| 3D动漫精品啪啪一区二区下载| 天天综合天天综合| 精品久久蜜桃| 色天天综合| 美女视频黄又黄又免费高清| 亚洲AⅤ波多系列中文字幕| 强奷白丝美女在线观看| 亚洲成人在线免费| 亚洲最大在线观看| 国产农村妇女精品一二区| 欧美天天干| 国产精品熟女亚洲AV麻豆| 久久久久九九精品影院| 无码精品国产dvd在线观看9久| 午夜三级在线| 成人a免费α片在线视频网站| 欧美第二区| 国产门事件在线| 日本爱爱精品一区二区| 久久人体视频| 精品国产一区91在线| 亚洲婷婷在线视频| 综合社区亚洲熟妇p| 精品伊人久久久久7777人| 香蕉在线视频网站| 自拍中文字幕| 国产玖玖玖精品视频| 国产av剧情无码精品色午夜| 日韩欧美中文字幕在线精品| 国产本道久久一区二区三区| 久久美女精品| 久久久精品无码一二三区| 国产精品青青| 人妻少妇乱子伦精品无码专区毛片| 自偷自拍三级全三级视频| 亚洲日本一本dvd高清| 亚洲色图欧美激情| 成人va亚洲va欧美天堂| 在线一级毛片| 亚洲日韩第九十九页| 2020最新国产精品视频| 天天综合天天综合| a级毛片一区二区免费视频| 亚洲精品福利视频| 99re这里只有国产中文精品国产精品| 制服丝袜一区| 四虎综合网| 久久精品亚洲中文字幕乱码| 亚洲精品大秀视频|