999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

在線判別式超像素跟蹤算法

2018-06-14 06:10:30劉雨情
西安電子科技大學學報 2018年3期
關(guān)鍵詞:前景背景特征

劉雨情, 肖 嵩, 李 磊

(西安電子科技大學 綜合業(yè)務(wù)網(wǎng)理論及關(guān)鍵技術(shù)國家重點實驗室,陜西 西安 710071)

基于視頻序列的目標跟蹤技術(shù),一直以來都是計算機視覺領(lǐng)域的核心問題,在智能交通、軍事航天以及人機交互領(lǐng)域都有著廣泛的應(yīng)用.國內(nèi)外學者通過不斷研究也提出了許多有效的目標跟蹤算法[1-5].

近年來,超像素特征作為一種新興的中層視覺特征,被廣泛研究和應(yīng)用于各種計算視覺任務(wù)中,如圖像分割、人體姿態(tài)估計和目標識別等.2014年,文獻[5]將超像素用于目標跟蹤中,提出了一種魯棒性的超像素跟蹤(robust SuperPixel Tracking,SPT)算法.該算法能出色解決目標跟蹤中的挑戰(zhàn)性難題,如復雜背景、非剛性形變和快速運動等,并在PASCAL VOC tests上取得了比跟蹤學習檢測(Tracking Learning Detection,TLD)算法[3]、視覺跟蹤分解(Visual Tracking Decomposition,VTD)算法[7]等主流目標跟蹤算法更好的跟蹤性能.但由于該算法每次在更新外觀模型時積累了海量的超像素信息(平均達上千個),采用MeanShift方法進行聚類對外觀建模非常耗時,達不到實時性要求.此外,該算法在目標遮擋時易出現(xiàn)跟蹤漂移,具有一定的局限性.

1 在線判別式超像素跟蹤方法

針對SPT[5]算法建模速度慢的缺陷,筆者提出了一種新的表觀模型構(gòu)建機制,創(chuàng)新性地將超像素特征和超限學習機相結(jié)合,用于處理超大樣本集的快速特征學習問題,將收集到的大量帶標簽的目標前景-背景數(shù)據(jù)集結(jié)合超限學習機的監(jiān)督型學習算法,訓練得到一個超像素前景-背景分類器,實現(xiàn)前景-背景粗分類.在此基礎(chǔ)上,結(jié)合k-d樹實現(xiàn)快速K近鄰(K-Nearest Neighbor,KNN)聚類,對前景和背景特征空間進行細分割,精確構(gòu)建目標前景和背景的外觀模型(即特征詞典).筆者所改進的這種從粗到精的前景-背景建模方法顯著降低了表觀建模的時間開銷,將每次模型構(gòu)建時間從原來的幾十秒控制在 1 s 以內(nèi).最后,算法結(jié)合粒子濾波和相關(guān)濾波實現(xiàn)了魯棒性的目標跟蹤.文中所提算法的框架如圖1所示.

圖1 目標跟蹤方法訓練和跟蹤過程框架圖

1.1 基于超像素分割的目標前景和背景特征提取

由于顏色統(tǒng)計特征在目標發(fā)生非剛性形變、旋轉(zhuǎn)和快速運動時具備不變性,但不具備光照不變性.而方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征對光照、尺度等具備不變性,但卻不適應(yīng)非剛性形變和快速運動.文中算法將顏色統(tǒng)計特征和HOG特征相結(jié)合,取得對目標更強的描述能力.

設(shè)第t幀目標的狀態(tài)St={Xt,Yt,Wt,Ht},其中,{Xt,Yt}表示目標的中心位置,{Wt,Ht}表示目標的寬和高.在訓練階段如圖1(a)所示,收集前幾幀的目標和背景信息,然后將每個訓練幀分割為Nt個超像素s(r,t),r=1,2,…,Nt,其中,s(r,t)為第t幀的第r個超像素.統(tǒng)計每個超像素中屬于目標框和不屬于目標框的像素個數(shù),將與目標框重合的超像素標記為前景,其余情況全部標記為背景.第r個超像素的標簽l(r)可表示為

(1)

在得到超像素信息后,提取每個超像素的顏色特征構(gòu)成該超像素塊的特征.

1.2 構(gòu)建前景-背景特征詞典

針對SPT[5]算法建模耗時大的問題,筆者用超像素特征訓練超限學習機學習前景和背景表觀特征,結(jié)合KNN聚類減少建模耗時.文中所提算法在跟蹤中對一定區(qū)域內(nèi)的超像素依據(jù)訓練好的超限學習機進行前景-背景特征的分類,之后,依據(jù)超像素塊的置信值來收集超限學習機的更新訓練數(shù)據(jù).

1.2.1 訓練超限學習機

超限學習機(Extreme Learning Machine,ELM)[6]是一種含單個隱藏層的前饋型神經(jīng)網(wǎng)絡(luò),在1.1節(jié)中通過超像素分割和特征提取獲得大量帶有標記的超像素訓練樣本(Xj,tj),j=1,2,…,N,Xj= (x1,x2,…,xn)T∈Rn,為提取的超像素特征向量,tj為每個特征對應(yīng)的類別.假設(shè)隱藏層節(jié)點數(shù)為L,需訓練得到一個超限學習機最小化網(wǎng)絡(luò)預(yù)測標簽與訓練數(shù)據(jù)標簽間的差值:

其中,σ1>0,σ2>0,u,v=2,H為隱藏層輸出矩陣(隨機初始化的矩陣),β為隱藏層與輸出層的連接權(quán)矩陣.網(wǎng)絡(luò)的前向預(yù)測輸出fL(X)為

(3)

其中,ai為隱藏層神經(jīng)元的輸入權(quán)值,bi為偏置,βi為隱藏層與輸出層的連接權(quán)值,Gi(·)為隱藏層神經(jīng)元的特征映射函數(shù).例如,在映射函數(shù)為徑向基函數(shù)的情況下,隱藏層節(jié)點的響應(yīng)為

(4)

在目標跟蹤的初始訓練階段,由于在訓練樣本集中采用區(qū)域規(guī)劃策略采集到大量的負樣本,冗余的負樣本會影響ELM的分類性能.為此在訓練過程中采用困難負樣本挖掘策略將負樣本分組,每次迭代求解ELM時僅將后一組中的假正樣本加入到前面組組成的背景特征集,學習到更具區(qū)分性的負樣本集,從而提高超限學習機的分類準確率.

1.2.2 KNN聚類

在收集到目標表觀特征池,F(xiàn)t= {s(i,t)|l(i)=1},F(xiàn)b= {s(i,t)|l(i)=0} 的基礎(chǔ)上,在特征池內(nèi)部采用k-d樹實現(xiàn)快速KNN聚類,分割前景和背景特征空間,構(gòu)建帶置信度的前景-背景特征詞典.在聚類中將近鄰的參數(shù)設(shè)置為常數(shù)(近鄰的參數(shù)設(shè)置過高會降低跟蹤的準確度,過低會影響算法的實時運行速度,為了兼顧跟蹤的速度與準確度,通過大量實驗仿真將近鄰的參數(shù)設(shè)置為經(jīng)驗值10),并將距離小于固定值的近鄰聚為一類.記C(j)為每類的置信度,則有

C(j)=S+(i)-S-(i)S+(i)+S-(i) ,i=1,2,…,Nt,(7)

其中,S+(i)和S-(i)分別為屬于和不屬于目標框的像素數(shù).在特征空間中,與目標框重合度高的類其前景置信度就越高(置信值越趨近于1);相反,與目標框重合度低的類其背景置信度就越高(置信值越趨近于 -1).

1.3 目標位置估計

跟蹤過程中,文中算法在一定的搜索區(qū)域Pt內(nèi),依據(jù)目標的大小變化先進行變尺度超像素分割,搜索區(qū)域Pt以{Xt-1,Yt-1}為中心,以λd{Wt-1,Ht-1}為大小.隨后提取每個超像素的特征并輸入到超限學習機,對超像素進行前景-背景分類,之后,通過模塊匹配快速找到其最近鄰和所屬的類j.每個超像素的前景-背景置信度由其所屬類的置信度C(j)和其最小類內(nèi)距計算得出,即

(8)

?l=1,2,…,N.(9)

1.4 目標尺度估計

(10)

在頻域表示內(nèi),對式(10)中的H進行逐元素求偏導,最終得所需濾波器H*的解析解為

(11)

在當前目標中心位置{Xt,Yt}處,利用所得相關(guān)濾波器搜索目標的尺寸,搜索尺寸設(shè)置為尺度金字塔的m個尺度級數(shù).當新的一幀到來時,提取不同尺度目標圖像塊的HOG特征并求得其頻域為Z,利用得到的濾波器計算每個尺度的相關(guān)響應(yīng),求得相關(guān)得分為

yi=F-1(H*⊙Zi) ,i=1,2,…,m.(12)

從中將響應(yīng)值最大的尺度和粒子濾波的結(jié)果進行加權(quán)處理后,作為當前幀的尺度S,后續(xù)依據(jù)固定的學習速率對濾波器進行更新.

2 實驗分析

文中所提算法仿真的實驗環(huán)境配置為3.30 GHz Intel(R) Core(TM)i3-3220 CPU的臺式機,軟件環(huán)境為Matlab R2016b (64 bit).

(1) 算法耗時分析.文中選取4個典型的視頻序列,通過平均聚類樣本數(shù)、外觀建模時間和平均跟蹤速度3項對比分析了SPT[5]算法和文中所提算法,具體數(shù)據(jù)如表1所示.SPT[5]算法在4個視頻序列中聚類的樣本數(shù)每次均達到 4 000 以上,每次的聚類耗時最少的為Bird2序列達到了 22.68 s.SPT[5]算法在外觀模型聚類上的耗時導致算法每幀的跟蹤用時至少為 2 s,達不到實時要求.文中所提算法將表觀建模時間降至 1 s 以內(nèi),每幀的處理時耗降至 0.15 s 左右,顯著提高了目標跟蹤的速度.

表1 算法時間性能對比分析表

(2) 算法性能驗證.SPT[5]算法針對12個測試視頻進行了性能分析,由于原算法需由作者根據(jù)視頻序列目標的運動信息預(yù)先人工設(shè)定不同的運動參數(shù)(共6個),所以筆者基于這12個視頻序列和原算法以及一些主流跟蹤算法進行比較,包括TLD算法[3]、核結(jié)構(gòu)輸出(Structured output kernels,Struck)算法[1]、VTD算法[7].算法針對各個測試視頻的跟蹤性能采用中心位置誤差(Center Location Error,CLE)和成功跟蹤幀數(shù)(Successfully Tracked Frames,STF)指標表示,其中,CLE表示跟蹤算法預(yù)測出的目標中心與真實目標中心的像素距離值在每個序列上的平均值,STF表示序列中跟蹤算法預(yù)測出的目標框與真實目標框的重合率在50%以上的總幀數(shù).

由表2可知,文中所提算法在9個測試視頻上具有穩(wěn)定的跟蹤效果,且算法的總體平均性能優(yōu)于TLD算法[3]、Struck算法[1]和VTD算法[7]的性能.

表2 算法對于測試視頻序列的CLE、STF性能指標

(3) 算法性能分析.為了進一步驗證算法的性能,選取另外一些測試視頻并將算法與一些跟蹤算法進行了跟蹤結(jié)果的比較,部分視頻序列的跟蹤結(jié)果如圖2所示.比較算法包括TLD算法[3]、稀疏聯(lián)合模型(Sparsity-based Collaborative Model,SCM)算法[8]和核關(guān)聯(lián)濾波(Kernelized Correlation Filters,KCF)算法[4].

圖2 不同算法的跟蹤結(jié)果

3 結(jié) 束 語

筆者在超像素分割的基礎(chǔ)上提出了一種新的目標跟蹤算法,算法利用超像素分割和特征提取分別獲取大量前景和背景模板,之后利用ELM和KNN聚類分別構(gòu)建目標和背景的判別式外觀模型,實現(xiàn)前景和背景建模的分離,并結(jié)合粒子濾波得到目標的最優(yōu)位置;最后,結(jié)合相關(guān)濾波策略對目標進行尺度估計.在大量測試視頻序列上,通過定量的實驗分析,證明了文中所提算法在處理速度上優(yōu)于原算法,并針對目標的遮擋、快速移動、形變以及尺度變化,均具有良好的魯棒性.

[1] HARE S, GOLODETZ S, SAFFARI A, et al. Struck: Structured Output Tracking with Kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10): 2096-2109.

[2] 張浪, 侯志強, 余旺盛, 等. 利用快速傅里葉變換的雙層搜索目標跟蹤算法[J]. 西安電子科技大學學報, 2016, 43(5): 153-159.

ZHANG Lang, HOU Zhiqiang, YU Wangsheng, et al. Two-level Searching Tracking Algorithm Based on Fast Fourier Transform[J]. Journal of Xidian University, 2016, 43(5): 153-159.

[3] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

[4] LI Y, ZHU J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[C]//Lecture Notes in Computer Science: 8926. Heidelberg: Springer Verlag, 2014: 254-265.

[5] YANG F, LU H, YANG M H. Robust Superpixel Tracking[J]. IEEE Transactions on Image Processing, 2014, 23(4): 1639-1651.

[6] KWON J, LEE K M. Visual Tracking Decomposition[C]//Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2010: 1269-1276.

[7] TANG J, DENG C, HUANG G B. Extreme Learning Machine for Multilayer Perceptron[J]. IEEE Transactions on Neural Networks and Learning Systems, 2016, 27(4): 809-821.

[8] ZHONG W, LU H, YANG M H. Robust Object Tracking via Sparsity-based Collaborative Model[C]//Proceedings of the 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2012: 1838-1845.

猜你喜歡
前景背景特征
“新四化”背景下汽車NVH的發(fā)展趨勢
我國旅游房地產(chǎn)開發(fā)前景的探討
法德軸心的重啟及前景
《論持久戰(zhàn)》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
如何表達“特征”
離岸央票:需求與前景
中國外匯(2019年11期)2019-08-27 02:06:32
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
晚清外語翻譯人才培養(yǎng)的背景
量子糾纏的來歷及應(yīng)用前景
太空探索(2016年10期)2016-07-10 12:07:01
主站蜘蛛池模板: 亚洲熟女中文字幕男人总站| 毛片一区二区在线看| 久操中文在线| 色噜噜在线观看| 色综合色国产热无码一| 中文字幕无码中文字幕有码在线| 成人字幕网视频在线观看| 精品亚洲欧美中文字幕在线看| 久久亚洲国产最新网站| 国产大片黄在线观看| 谁有在线观看日韩亚洲最新视频| 成色7777精品在线| 囯产av无码片毛片一级| 久久国产免费观看| 波多野结衣一级毛片| 日本欧美视频在线观看| 亚洲中文字幕手机在线第一页| 99这里只有精品免费视频| 精品一区二区三区水蜜桃| 91精品国产91久无码网站| 国产主播在线一区| 四虎影视8848永久精品| 中文字幕乱码中文乱码51精品| 99草精品视频| 久久午夜影院| 就去色综合| 久久精品中文字幕免费| 成人精品在线观看| 亚洲国产综合精品一区| 久久精品无码一区二区国产区| 亚洲人成影院在线观看| 原味小视频在线www国产| 午夜国产精品视频| 免费激情网站| 亚洲区第一页| 国产精品无码翘臀在线看纯欲| 四虎永久免费地址| 国产女人18水真多毛片18精品| 波多野结衣无码AV在线| 久久a毛片| 国产精品部在线观看| 婷婷五月在线| 国产福利一区在线| 国产精品内射视频| 国产精品冒白浆免费视频| 国产91丝袜| 黄色成年视频| 午夜福利免费视频| 思思99思思久久最新精品| 国产一级做美女做受视频| 欧美区一区| 无码中文AⅤ在线观看| 欧美国产在线看| 中文字幕乱码中文乱码51精品| 免费jjzz在在线播放国产| 青青青视频91在线 | 久久网综合| 国产本道久久一区二区三区| 精品五夜婷香蕉国产线看观看| 日韩国产黄色网站| 欧美国产日韩在线| 亚洲日韩第九十九页| 欧美性天天| 99久久精品美女高潮喷水| P尤物久久99国产综合精品| 91国内在线观看| 无码福利日韩神码福利片| 青青草91视频| 精品成人一区二区| 人妖无码第一页| 91啪在线| 精品自拍视频在线观看| 久久国产黑丝袜视频| 亚洲高清在线天堂精品| 欧美在线视频不卡第一页| 东京热高清无码精品| 波多野结衣视频一区二区| 欧美在线视频不卡第一页| 一级香蕉视频在线观看| 999国产精品| 国产91丝袜在线播放动漫 | 99久久精品免费视频|