李金奎 姜明新
(大連民族學(xué)院信息與通信工程學(xué)院,遼寧 大連 116600)
視覺追蹤在計(jì)算機(jī)視覺領(lǐng)域一直是一個(gè)重要的課題,尤其對(duì)于監(jiān)測(cè)應(yīng)用、車輛導(dǎo)航和人機(jī)界面研究。比如有人在文獻(xiàn)[1-4]中已經(jīng)提出了很多追蹤方法,但仍然是一個(gè)具有挑戰(zhàn)性的問題,由于像局部遮擋,光照變化,姿勢(shì)變化,背景混亂和視角變化等因素的影響。在本文中,基于結(jié)構(gòu)局部稀疏表達(dá)模型和自適應(yīng)模板更新策略提出了一種有效的跟蹤算法。
在此介紹基于自適應(yīng)結(jié)構(gòu)局部稀疏外觀模型法的視覺跟蹤,以下是基于Matlab的系統(tǒng)流程。
圖1 運(yùn)動(dòng)目標(biāo)檢測(cè)和跟蹤系統(tǒng)流程圖
給出一組目標(biāo)模板視頻圖像序列T=[T1,T2,…,Tn],在目標(biāo)區(qū)域?qū)σ唤M重疊的局部圖像塊抽樣。利用這些局部塊作為詞典來給在可能的候選區(qū)域局部塊編碼,即 D=[d1,d2,…,d(n×N)]∈Rd×(n×N),其中 d 是圖像塊向量的尺度,n是目標(biāo)模板的數(shù)量,N是在目標(biāo)區(qū)域局部塊的數(shù)量。矩陣D中的每一列都是從矩陣T中矢量化的局部圖像塊中通過?1歸一化方法獲取的。每個(gè)局部塊代表固定目標(biāo)對(duì)象的一部分,因此所有的局部塊就能表達(dá)目標(biāo)的完整結(jié)構(gòu),由于局部塊是從許多模板收集的,所以這個(gè)詞典收集了不同模板的共同點(diǎn)并能表達(dá)他們的各種形式。對(duì)于一個(gè)候選目標(biāo)區(qū)域,可以表示成Y=[y1,y2,…,yN]∈Rd×N。如圖2所示。
圖2 目標(biāo)候選區(qū)域示意圖
假設(shè)具有稀疏性的情況下,在目標(biāo)區(qū)域的局部塊都能夠表示為只有幾個(gè)基本數(shù)組元素的線性組合,通過求解此公式:
這里yi指的是第i個(gè)量化的局部圖像塊,bi∈R(n)N是局部塊相應(yīng)的稀疏編碼,bi≥0意思是bi所有的元素非負(fù)。記B=[b1,b2,…,bN],表示一個(gè)候選區(qū)域的稀疏代碼矩陣。每個(gè)局部塊的稀疏系數(shù)都被分成若干段,根據(jù)每個(gè)向量元素對(duì)應(yīng)的模板,即,其中∈RN表示系數(shù)向量bi的K階分塊。對(duì)這些分段系數(shù)加權(quán),獲得第i個(gè)局部塊向量Vi,
這里向量Vi對(duì)應(yīng)第i個(gè)局部塊,C是一個(gè)標(biāo)準(zhǔn)術(shù)語(yǔ)。然后在候選區(qū)確定位置的每個(gè)局部塊都可以用在不同模板位置的局部塊表示。采取的平方矩陣V的對(duì)角線元素作為混合特征值,即:
其中f是混合特征值的向量,對(duì)齊的跟蹤結(jié)果也便于使用增量子空間訓(xùn)練方法進(jìn)行碼本更新。在集中遍歷這些局部塊之后,異常值的影響降低了并且結(jié)構(gòu)信息扔被保存在表達(dá)數(shù)據(jù)中以此更好地定位目標(biāo)。
在目標(biāo)跟蹤方法中,生成累積概率序列:
根據(jù)均勻分布定理產(chǎn)生一個(gè)在單位區(qū)間[0,1]的隨機(jī)數(shù)r。通過選取哪一本部分的隨機(jī)數(shù),可以選擇被更換的模板。這能使舊模板緩慢地更新和新模板的快速更新,從而減小漂移的問題。
利用稀疏表達(dá)和子空間學(xué)習(xí)方法給更新的模板建模。這種增量式法不但可以適應(yīng)外觀改變,而且也可以保護(hù)收集到的目標(biāo)物體的相同視角的共同信息。目標(biāo)估計(jì)可以通過主成分分析的基向量的線性組合建模和在文獻(xiàn)[4]中使用的瑣碎模板法。
其中:p表示觀測(cè)向量矩陣,矩陣U由特征向量組成,q是特征向量系數(shù)矩陣,e表示在p被損壞或遮擋的矩陣中的像素。由于遮擋和噪聲引起的誤差是任意的并且稀疏的,用?1正規(guī)化最小二乘法解決此問題。
其中:H=[U I],c=[q e]T,λ是正則化參數(shù)。瑣碎模板系數(shù)被應(yīng)用到解決噪聲或遮擋問題和避免太多的遮擋塊被更新到模板集。然后重建的圖像被用于更新將被替換的模板。這個(gè)過程可以看作是引入稀疏子空間表達(dá)方法。
本文使用的目標(biāo)跟蹤算法是在貝葉斯定理框架下實(shí)現(xiàn)的。給出目標(biāo)觀察數(shù)據(jù)集z1:t=[z1,…,zt]到第t幀,目標(biāo)狀態(tài)變量xt可以由最大的后驗(yàn)概率估計(jì)計(jì)算
其中p(xt|xt-1)表示動(dòng)態(tài)模型和p(zt|xt)指的是觀測(cè)模型。動(dòng)態(tài)模板p(xt|xt-1)描述連續(xù)幀之間的目標(biāo)狀態(tài)的時(shí)間相關(guān)性。把六參數(shù)仿射轉(zhuǎn)換模型運(yùn)用到給連續(xù)兩幀之間的目標(biāo)模板進(jìn)行建模。狀態(tài)轉(zhuǎn)換作為p(zt|xt-1)=N(xt;xt-1,Σ),Σ是對(duì)角協(xié)方差矩陣,它的元素是仿射參數(shù)各個(gè)方差。
觀察模型p(zt|xt)表示zt觀察在狀態(tài)xt的可能性。它對(duì)于穩(wěn)健的跟蹤起著重要的作用。在此方法中,觀測(cè)模型由
在等式的右邊表示候選區(qū)域和基于混合特征f目標(biāo)之間的相似性。隨著模板的逐漸更新,觀察模型能夠適應(yīng)目標(biāo)的外觀改變。
該算法在MATLAB軟件中實(shí)現(xiàn)。?1最小化問題可以用文獻(xiàn)[5]中的SPAMS package方法來解決,在所有的實(shí)驗(yàn)中正規(guī)化常數(shù)的λ被設(shè)置為0.01,對(duì)于每一個(gè)視頻序列,目標(biāo)對(duì)象的位置在第一幀需要手動(dòng)標(biāo)記。 文獻(xiàn)[6]增量視覺跟蹤(IVT)方法,文獻(xiàn)[7]基于片段(fragtrack)跟蹤方法,文獻(xiàn)[8]?1指數(shù)法,文獻(xiàn)[9]多實(shí)例學(xué)習(xí)(MIL)跟蹤器法。實(shí)驗(yàn)結(jié)果表明,本文的跟蹤方法比其他的方法更好。
圖3 實(shí)驗(yàn)跟蹤結(jié)果
本文所提出的方法利用跟蹤目標(biāo)的空間和局部信息通過使用隊(duì)列池方法遍歷空間布局的局部塊。這有助于更準(zhǔn)確地定位目標(biāo),在被遮擋時(shí)更可靠。但有時(shí)會(huì)出現(xiàn)誤差,導(dǎo)致跟蹤出錯(cuò),所以本系統(tǒng)的跟蹤算法也有待改進(jìn)。
[1]姜明新,王洪玉,劉曉凱.基于多相機(jī)的多目標(biāo)跟蹤算法[J].自動(dòng)化學(xué)報(bào),2012,38(4):497-506.
[2]姜明新,王洪玉,等.基于ML和L2范數(shù)的視頻目標(biāo)跟蹤算法[J].電子學(xué)報(bào),2013,41(11):2307-2313.
[3]姜明新,王洪玉.基于多層定位的多目標(biāo)跟蹤算法[J].大連理工大學(xué)學(xué)報(bào),2012,52(5):767-771.
[4]姜明新,王洪玉.基于特征分組的在線目標(biāo)跟蹤算法[J].大連理工大學(xué)學(xué)報(bào),2013,53(5):755-759.
[5]B.Liu,L.Yang, J.Huang,P.Meer, L.Gong,and C.A.Kulikowski.Robust and fast collaborative tracking with two stage sparse optimization[C]//ECCV.2010.
[6]J.Mairal,F(xiàn).Bach,J.Ponce,and G.Sapiro.Online learning for matrix factorization and sparse coding[J].Journal of Machine Learning Research,2010,11:19-60.
[7]D.Ross,J.Lim, R.-S.Lin,and M.-H.Yang.Incremental learning for robust visual tracking[J].IJCV,2008,77(1):125-141.
[8]A.Adam,E.Rivlin,and I.Shimshoni.Robust fragments-based tracking using the integral histogram[C]//CVPR.2006.