999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

稀疏編碼目標跟蹤方法研究

2015-11-04 09:06:25張冬梅汪榮貴楊娟游生福齊立立
計算機工程與應用 2015年22期
關鍵詞:方法模型

張冬梅,汪榮貴,楊娟,游生福,齊立立

合肥工業大學計算機與信息學院,合肥230009

稀疏編碼目標跟蹤方法研究

張冬梅,汪榮貴,楊娟,游生福,齊立立

合肥工業大學計算機與信息學院,合肥230009

針對稀疏表示用于目標跟蹤時存在重構誤差表示不夠精確、目標模板更新錯誤等問題,提出一種改進的稀疏編碼模型。該模型無需重構誤差滿足特定的先驗概率分布,且加入對編碼系數的自適應約束,可以取得更優的編碼向量,使得跟蹤結果更為準確。在此基礎上,將這種改進的編碼模型與粒子濾波目標跟蹤算法相結合,研究并實現一種新的基于魯棒稀疏編碼模型的目標跟蹤方法。該方法對每個粒子的采樣區域進行編碼,用所得的稀疏編碼向量作為當前粒子的觀測量,并采用目標模板分級更新策略,使得目標模板更加準確。實驗結果表明,方法可以較好地解決目標部分遮擋和光照變化等干擾下的目標跟蹤問題。

目標跟蹤;稀疏編碼;稀疏表示;粒子濾波

1 引言

目標跟蹤是計算機視覺的重要研究內容,在智能監控、汽車導航、目標識別與人機交互等領域都有著廣闊的應用價值。實際應用中經常遇到不可預估的干擾,例如:光照變化、目標的遮擋以及旋轉、尺度變化等,這些干擾經常導致目標跟蹤的漂移或失敗。因此,如何構造一個能夠適應復雜場景的魯棒的跟蹤器是一個急需解決的問題[1]。

目前,復雜場景下的目標跟蹤方法大致分為判別式和生成式兩大類。判別式方法將跟蹤問題作為分類問題處理[2-4],即將目標從背景中區分出來,跟蹤過程中對分類器進行在線更新。例如H Grabner等[4]提出一種新的基于在線AdaBoost特征選擇的目標跟蹤算法,在跟蹤過程中利用對背景的學習選取最具區分力的特征,并通過對分類器的在線訓練以適應目標外觀的變化。這類方法的難點主要是在線訓練過程中能否實現對樣本的自動正確標記。

生成式方法通過建立目標的觀測模型,將跟蹤問題轉化為尋求與目標外觀模型具有最高似然性的區域[5-6],在跟蹤過程中,增量地更新目標的外觀模型以適應環境的變化和目標外觀的改變。例如S K Zhou等[6]提出基于粒子框架的外觀自適應模型的目標跟蹤識別算法;L Matthews等[7]對Lucas-Kanade跟蹤方法中的模板更新方法進行改進,建立了目標的主動外觀模型等等。其中,粒子濾波方法是目標跟蹤的經典方法,通常從解決粒子退化和粒子的多樣性保持[8]或者改進目標的觀測模型[9]入手提高算法的魯棒性。目前,描述目標外觀模型有很多方法,如顏色特征、紋理特征和梯度方向等,但是在復雜環境下這些特征仍不足以描述目標外觀的變化,以獲取魯棒的跟蹤效果。

稀疏表示[10-11]是智能信息處理的重要工具,目前在圖像分類[12-13],人臉識別[14],圖像的超分辨重建[15-16]等方面得到廣泛的應用。由于基于稀疏表示的目標觀測模型對環境的變化具有一定的魯棒性,因此,用稀疏表示解決復雜場景下的目標跟蹤問題具有較大的研究價值。稀疏表示應用于目標跟蹤時,將跟蹤問題的求解轉化為在模板空間中尋求一個稀疏近似解[9,17-18]。W Qing等[17]提出一種局部稀疏表示的目標跟蹤算法,目標樣本的每個局部塊由一個在線更新的超完備字典編碼表示,利用局部塊的編碼結果學習得到一個線性分類器,繼而將目標跟蹤問題轉化為分類問題。這種局部化方法雖然在處理干擾時有一定的魯棒性,但是通常會丟失目標的全局信息。M Xue等[9]提出目標樣本由目標模板和平凡模板(trivial templates)構成的超完備字典稀疏表示(以下稱?1方法),加入了對平凡系數(trivial coefficient)的非負約束,對光照變化有一定的處理效果,但是重構誤差的計算不夠精確。

針對上述問題,本文提出一種改進的稀疏編碼模型,這種編碼模型無需重構誤差滿足特定的先驗概率分布,使得編碼模型更加精確,且加入對編碼系數的自適應約束,取得更優的編碼結果以使跟蹤結果更為準確。在此基礎上,本文將這種改進的編碼模型與粒子濾波目標跟蹤算法相結合,研究并實現一種新的基于魯棒稀疏編碼模型的目標跟蹤方法。該方法對每個粒子的采樣區域進行編碼,用所得的稀疏編碼向量作為當前粒子的觀測量,并且采用目標模板分級更新策略,使目標模板更加準確,由此可以較好地處理目標部分遮擋和光照變化等干擾下的目標跟蹤問題。

2 粒子濾波

粒子濾波是一種基于貝葉斯框架的狀態估計方法,通過尋找一組在狀態空間中傳播的隨機樣本對概率密度函數p(xt|z1:t)進行近似,以樣本均值代替積分運算,從而獲得狀態最小方差估計的過程[19]。粒子濾波分為預測和更新兩個基本階段,其中預測階段是根據系統模型預測狀態的先驗概率分布,而更新階段則是利用最新的觀測值修正先驗概率分布,得到狀態的后驗概率分布。

令xt表示目標在t時刻的狀態,z1:t-1={z1,z2,…,zt-1}表示前t-1時刻系統的觀測值,預測和更新過程分別如式(1)和式(2)表示:

其中,使得式(2)中后驗概率最大的xt被認為是t時刻的最優狀態。

由于式(1)的積分形式難以求出,粒子濾波中使用蒙特卡羅模擬將這個積分轉化為加權的粒子集求和形式表示。t時刻從重要性密度函數中采樣得到粒子(N為粒子的個數),其相應權重為,使用下式更新:

歸一化后權重為:

后驗概率分布可由粒子集加權平均表示為:

其中δ(·)為Diracδ函數。

3 基于魯棒稀疏編碼的目標觀測模型

稀疏表示是獲取、表示和壓縮高維信號的重要工具[15],其基本思想是:給定一個足夠大的基集(也稱作超完備字典),對于一個待編碼信號,從基集中盡可能少地選擇基向量線性重建待編碼信號,同時使重構誤差盡可能小。在跟蹤問題中,可以利用稀疏表示對干擾的不敏感特性建立目標觀測模型。

3.1目標觀測模型

在建立目標的觀測模型時,將目標樣本在目標子空間上的稀疏表示向量作為樣本的觀測量[20-21],將目標子空間表示為:

子空間中的每個向量由目標模板列向量化得到,n表示目標模板的個數。同時引入平凡模板來表示在跟蹤過程中出現的如部分遮擋、光照變化等不可預知干擾,令ε表示干擾,加入平凡模板集。

使用平凡模板表示ε,每個平凡模板ii∈Rd都是只有一個非零元素的列向量。

為了濾掉那些如陰影這類與目標模板反密度模式相似的干擾,文獻[9]中加入平凡模板的非負約束,這可以使平凡系數中的項全部為非負值,平凡模板集擴展為:

對于當前的一個樣本,將其列向量化后得到y∈Rd,進而y可以由目標子空間T與平凡模板集線性表示為:

在文獻[9]中描述的跟蹤方法中,觀測值y在編碼字典B上的稀疏表示解c可以通過求解?1規范化最小二乘問題得到,并用求得的編碼向量c作為樣本y的觀測量。本文將這種方法稱為?1方法,計算表達式如式(7)表述:

3.2魯棒稀疏編碼

在求解編碼向量時,希望得到的是使重構誤差最小的解,即極大似然估計(MLE,Maximum Likelihood Estimation)解,這意味重構誤差表示的精確度非常重要,式(7)采用?2范數來表示編碼重構誤差,這需要誤差滿足高斯分布。

盡管由中心極限定理可知,當樣本趨近于無窮時,可以認為這些隨機出現的誤差是近似滿足高斯分布的;然而,在具體的某個跟蹤問題中,干擾的出現滿足隨機性,但是一個視頻中樣本的數目卻不是趨近于無窮大,因此用?2范數來表示編碼重構誤差并不精確。

為了更精確地表示重構誤差,本文僅給出每個重構誤差項的概率密度函數表示形式fθ(ei),θ表示描述分布的參數集,然后根據MLE的原理,最大化似然函數:

或最小化目標函數:

其中ρθ(ei)=-lnfθ(ei)。

計算過程中,為方便起見,將編碼字典B記為:

其中ri為B的第i行;

將觀測值y記為:

編碼向量按如下公式求解:

在實際的目標跟蹤過程中,當出現嚴重干擾時,目標子空間將不能很好地表示目標樣本,平凡系數中出現大量的非零項,平凡系數能量增大;當出現的干擾可忽略時,目標子空間很好地表示目標,平凡系數項幾乎全部為零[9],但是平凡模板集也可以表示目標的某些部分,這會激活平凡系數中的零項,這時將無法得到最優的稀疏編碼向量。

對此,為了提高魯棒性,本文在式(8)中加入對平凡系數的自適應約束:當出現嚴重的干擾時,不考慮平凡系數能量的增大帶來的影響;當出現的干擾可忽略時,增大對平凡系數的能量進行約束,使編碼得到的平凡系數項盡可能多地為零。

基于以上分析,本文提出一種魯棒稀疏編碼模型,表述如下:

其中,λ2是一個自適應調節的值,當未檢測到干擾或干擾可忽略時,為一個預設的常量,當檢測到較嚴重干擾時,λ2=0。本文描述的稀疏編碼模型式(9)不要求重構誤差滿足特定的先驗概率分布,所以得到的編碼結果更加精確。

加入對平凡系數的約束后,在干擾較小的時候,由式(9)求得的向量中,平凡系數的能量將會比式(7)的低。如圖1、圖2和圖3所示,圖1第一行為?1方法對視頻Tiger的跟蹤效果,第二行為本文方法跟蹤效果;圖2和圖3中分別為?1方法中和本文求取的編碼向量的平凡系數能量比,其中橫軸為視頻的幀數,縱軸為計算目標樣本平凡系數能量比所得的值。

圖1 跟蹤效果

從圖2中可看出,在?1方法所求得稀疏向量中,平凡系數向量的比重在200幀以后一直高達30%,而在這些幀中,目標并不是一直受到干擾的,在那些受到干擾較小的幀中,平凡系數的能量應保持較低比值。這時,平凡系數的能量過高致使跟蹤器無法區分目標和背景,最終發生跟蹤錯誤。而本文由式(9)求解得到的系數向量基本上滿足在目標受到較小干擾時,得到較佳的稀疏解,進而得到更優的跟蹤結果。

圖2 ?1中平凡系數能量比

圖3 本文平凡系數能量比

4 基于魯棒稀疏編碼模型的目標跟蹤

前文給出的魯棒稀疏編碼模型中僅設計出重構誤差的計算表達式,還需要進一步探究相應編碼向量的求解方法。為此,本章將給出這種稀疏編碼模型的求解方法,并說明干擾檢測以及目標模板的更新方法,然后與粒子濾波方法結合,提出一種新的基于魯棒稀疏編碼模型的目標跟蹤方法。

4.1魯棒稀疏編碼模型的求解方法

在求解式(9)時,不能通過確定重構誤差的分布進行求解。但是對于重構誤差項,如果異常值(通常是由干擾引起)權值很小,那么就可以減小它們對回歸估計的影響,從而使得編碼對異常值的敏感性大大減小,M Yang等[22]將重構誤差項改寫成權重矩陣形式:

其中W為對角陣,且

e0為給定初始值后求得的重構誤差,W對角線上的元素為權重值,指派給每個重構誤差項。對于權重函數ωθ(ei),其范圍應控制在[0,1]之間,這樣可避免出現,很小的殘差值獲得趨近于無窮大的權重,綜上權重函數ωθ(ei)可以寫為:

其中,μ控制權重的下降率,δ為分界點。根據式(12)以及ρθ(0)=0,可得

由于W是使用前一次的重構誤差而不斷更新的,所以式(10)可以轉化為一個迭代再加權的稀疏編碼問題:即每次得到W后采用加速臨近梯度法[23]求解得到一個稀疏解,然后根據最新得到的稀疏解更新權重矩陣W,不斷循環,直到滿足收斂條件其中γ是一個很小的正標量。

其中?為控制參數,Γ為歸一化因子,在t時刻,當前的跟蹤結果是觀測似然性最大的樣本,并且由式(3)和式(14)可知,編碼殘差越小的樣本,其對應粒子的權重越大。

4.2干擾檢測及目標模板的更新

在跟蹤中,為了處理隨機出現的干擾,增強算法的穩健性,需要及時地更新目標子空間。目標外觀的變化通常是由一系列干擾引起的,如果將帶有嚴重干擾的樣本更新到目標子空間中,將會導致子空間退化,最終無法較好地表示目標樣本,進而導致跟蹤錯誤。為此,在更新目標子空間時,必須對待更新樣本進行干擾檢測。

當出現干擾時,平凡系數中會出現很多非零項,可以利用這些非零項來檢測當前樣本受干擾的程度。首先,構造一個二維零矩陣,其大小和列向量化前的目標模板大小一致,每個元素對應樣本中像素是否受到干擾,稱其為干擾索引圖。然后,將平凡系數向量進行列向量化的逆運算,轉化為矩陣形式,掃描平凡系數的矩陣,只要它的元素大于選定閾值,就將干擾索引圖中的相應位置標記為1,標記為1的位置表示當前像素點受到干擾。并且利用形態學方法處理干擾索引圖,計算連通區域大小,即以受干擾的像素數來判斷樣本受干擾的程度。最后,統計受到干擾的像素所占的百分比。如果達到一定閾值,即認為發生干擾。

利用上述的干擾檢測方法,在獲取當前的跟蹤結果后,采用如下步驟對目標子空間進行更新:

(1)選擇出當前待更新的目標模板與最優模板,與目標系數中最小項對應的模板,記為待更新模板t0;與目標系數中最大項對應的模板,記為最優模板topt。

(2)當前跟蹤結果記為y,然后計算y與topt的相似程度(本文用向量間的夾角作為判斷標準,閾值η=0.5),如果兩者相似程度小于閾值,則不需要進行更新,結束;否則,進行更新,轉(3)。

(3)設定兩個門限值tr1,tr2(本文中tr1=0.1,tr2=0.6),計算出當前目標樣本的受干擾程度tr,若tr<tr1,直接用y替換t0進行更新;若tr1≤tr≤tr2,使用當前目標模板的均值替換當前樣本中受到干擾的部分,其相應位置根據干擾索引圖求得,然后使用修正過的y替換t0;若tr>tr2,則認為干擾太嚴重,不進行更新,結束。

4.3目標跟蹤算法流程

結合前文所述,本文提出的基于魯棒稀疏表示模型的目標跟蹤算法跟蹤流程如下:

(1)跟蹤初始時,目標通過人機交互獲取,同時得到一個目標模板,并利用在該模板中加入微擾的方式產生剩余模板,本文共使用10個目標模板,加入平凡模板,構成編碼的超完備字典,初始化粒子。

(3)計算粒子權重,對于每個粒子,使用式(9)對粒子的采樣區域進行稀疏編碼,得到編碼向量,也就是當前粒子的觀測值后,根據得到的式(14)和式(3)更新粒子的權值。

(4)更新目標模板,根據當前的跟蹤結果,對目標樣本進行更新,更新算法如本文4.2節所述,更新后得到當前的超完備字典。

(6)輸出當前跟蹤結果,跟蹤結果為粒子集的加權平均值,計算公式為公式(5),標記跟蹤到的目標位置。是視頻最后一幀,結束,否則轉步驟(2)。

5 實驗結果分析

本文實驗平臺為CPU雙核2.6 GHz,內存2 GB,軟件為Matlab R2009a,Windows XP操作系統,算法執行效率為1.93 s/幀。為了驗證本文算法的有效性,實驗中選取了多組具有代表性的視頻進行處理,這些視頻中包含了目標的遮擋,光照的劇烈變化,目標的快速移動等較難處理的情況。實驗中選取?1跟蹤方法以及VTD(Visual Tracking Decomposition)[24]跟蹤方法作為對比實驗,并且分別通過主觀觀察和客觀評價方法驗證本文算法的優越性。

在跟蹤起始時刻,需要跟蹤的目標是在第一幀時經手動選取的。在實驗過程中,粒子的個數為300個,目標模板的個數為10個,模板的大小根據第一幀選取所得的目標長寬比確定,由長寬比最終歸一到四種大小12×15,15×12,10×18以及18×10中的一種,平凡模板的個數為360個,每個編碼向量為370×1的列向量。令ψ=[(e1)2,(e2)2,…,(en)2],將其元素按升序排列,得到ψa。文中參數δ=ψa(175),μ=8/δ,λ1=0.01。圖4為VTD,?1和本文方法分別對視頻Occlusion,David,Singer,Car以及Deer的跟蹤效果。其中,藍色框為VTD方法,綠色為?1方法,紅色為本文方法。

圖4 各類算法跟蹤效果對比

第一組為視頻Occlusion的跟蹤效果,此視頻的主要處理難度在于人臉面部的遮擋,遮擋率最大時達到近70%,文中選取了較有代表性的#1、#130、#198、#300、#500、#550幀作為效果展示。在目標受到的遮擋不嚴重的時候,如#130、#198幀,?1算法和本文算法都能較好地跟蹤到目標,但是當干擾比較嚴重時,如#550幀,?1算法的跟蹤正確率下降,這時?1跟蹤算法中在模板更新時可能將受干擾的樣本更新到目標模板中,而本文算法此時仍能較好地表示并跟蹤到目標。

圖5 各類方法中心像素誤差對比

第二組為視頻David中的#1,#100,#150,#300,#400,#460幀的效果展示,David視頻中目標運動過程中有一些形變,并且光照也有一定的變化,其中摘戴眼鏡時還發生了遮擋。在這個視頻中,本文算法總體上跟?1算法的效果差不多,但是在目標側臉和摘戴眼鏡時,目標外觀發生了一定的變化,本文算法的跟蹤結果較好,這可能是本文的編碼方法對出現干擾有更為精確的表示,在求解編碼向量時準確度更高。

第三組和第四組是視頻Singer和Car的跟蹤效果,其中分別選取了#1,#70,#90,#115,#170,#310幀以及#1,#55,#150,#250,#300,#390幀展示。對這兩個視頻處理時的主要挑戰在于光照的劇烈變化,其中視頻Singer中目標的尺度也發生了一定的變化。在Singer中,在光照變化非常劇烈的時候,如#115幀,?1算法的準確度較本文算法下降更多,產生了一定的漂移,此時VTD方法保持不錯的效果。在Car視頻中,有一段時間目標穿越陰影區,光照變化也比較劇烈,如#150,此時本文算法仍保持比較高的跟蹤精確度。

第五組為從視頻Deer中選取的#1,#25,#35,#50,#52,#71幀,這組序列處理難度主要在于目標運動速度較快,很難通過預測來確定目標位置,這種由運動模糊造成的目標外形的變化在進行模板更新時處理難度較大。在這個視頻中,本文方法和VTD方法具有較好跟蹤效果,而在#50和#52幀中,?1算法已幾乎跟蹤不到目標。

衡量一個算法的性能需要一種合理的評價標準,目前對于跟蹤算法主要采用中心像素誤差作為評價標準。中心像素誤差指的是目前跟蹤到的目標中心位置與目標實際中心位置的像素距離。圖5為基于中心像素誤差標準的跟蹤效果對比:其中,藍色為VTD方法,綠色為?1方法,紅色為本文方法。

基于中心像素誤差的衡量標準一定程度上體現了一個算法的魯棒性,但是這種標準并沒有考慮目標的形狀的大小。比如,中心像素誤差為0,但是目標的實際大小和跟蹤的結果大小相差較大,這時中心像素誤差就不能很好地反映算法的性能了。所以,本文引入了另外一個評價標準,目標的重疊率。本文使用PASCAL VOC[25]的規范,設當前的跟蹤結果為RT,實際的目標位置為RG,則重疊率定義為,理想情況下score值為1。這種評價標準不僅包括了對目標位置的準確度要求,也加入了對目標大小的準確度要求。圖6為每個視頻的跟蹤結果重疊率比較。藍色為VTD方法,綠色為?1方法,紅色為本文方法。圖像橫軸為視頻幀數,縱軸為重疊率。

通過對實驗結果的分析,以及針對兩種跟蹤評價標準(即中心像素誤差和目標的重疊率)的對比,可以看出,本文算法具有較好的穩健性和魯棒性,在目標有遮擋、光照變化和快速移動都有較高的跟蹤準確度。

圖6 各類方法重疊率對比

6 總結

本文對在粒子濾波框架下的基于稀疏表示模型的目標跟蹤方法進行了理論分析,指出在進行編碼時對重構誤差表示的精確度不高,且存在將受干擾較大樣本更新到目標模板中等問題。針對上述問題,本文首先提出了一種魯棒稀疏編碼模型,并且加入了對編碼系數的自適應約束,該模型求取編碼的極大似然估計解,對干擾更加魯棒,可以取得更優的跟蹤效果;其次,使用改進的目標模板更新方法,使當前的目標模板能夠更好地描述最新的目標狀態;通過多組實驗表明,本文算法在處理部分遮擋、光照變化及一定程度的形變時,具有較好的跟蹤效果。

[1]Yilmaz A,Javed O,Shah M.Object tracking:A survey[J]. ACM Comput Surveys,2006,38(4):13-32.

[2]Babenko B,Yang M H,Belongie S.Visual tracking with online multiple instance learning[C]//IEEE Conference on CVPR,Miami,FL,IEEE Proc,2009:983-990.

[3]Breitenstein M D,Reichlin F,Leibe B,et al.Robust trackingby-detection using a detector confidence particle filter[C]// IEEEConferenceonICCV,Kyoto,IEEEProc,2009:1515-1522.

[4]Grabner H,Grabner M,Bischof H.Real-time tracking via on-line boosting[C]//British Machine Vision Conference,2006:47-55.

[5]Matthews I,Baker S.Active appearance models revisited[J]. International Journal of Computer Vision,2004,60:135-164.

[6]Zhou S K,Chellappa R.Visual tracking and recognition using appearance-adaptive models in particle filters[J].IEEE Transactions on Image Processing,2004,13:1491-1506.

[7]Lain M,Takahiro I,Simon B.The template update problem[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26:810-815.

[8]汪榮貴,沈法琳,李孟敏.非線性系統狀態突變下的非退化粒子濾波方法研究[J].中國科學技術大學學報,2012,42(2):140-147.

[9]Mei X,Ling H.Robust visual tracking using?1minimization[C]//IEEE Conference on ICCV,Kyoto,IEEE Proc,2009:1436-1443.

[10]戴瓊海,付長軍,季向陽.壓縮感知研究[J].計算機學報,2011(3):425-434.

[11]Donoho D L.Compressed Sensing[J].IEEE Information Theory,2006,52(4):1289-1306.

[12]Mairal J,Bach F,Ponce J,et al.Discriminative learning dictionaries for local image analysis[C]//IEEE Conference on CVPR,Anchorage,AK,IEEE Proc,2008:1-8.

[13]亓曉振,王慶.一種基于稀疏編碼的多核學習圖像分類方法[J].電子學報,2012,40(4):773-779.

[14]Wright J,Yang A,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,30(2):210-227.

[15]Yang J,Wright J,Huang T,et al.Image superresolution as sparse representation of raw patches[C]//IEEE Conference on CVPR,Anchorage,AK,IEEE Proc,2008:1-8.

[16]練秋生,張偉.基于圖像塊分類稀疏表示的超分辨率重構算法[J].電子學報,2012,40(5):920-925.

[17]Wang Qing,Chen F.Online discriminative object tracking withlocalsparserepresentation[C]//IEEEConference on WACV,Breckenridge,CO,IEEE Proc,2012:425-432.

[18]Liu B,Yang L,Huang J,et al.Robust and fast collaborative tracking with two stage sparse optimization[C]// Computer Vision ECCV.Berlin Heidelberg:Springer,2010: 624-637.

[19]汪榮貴,李孟敏,吳昊,等.一種新型的基于自適應遺傳算法的粒子濾波方法[J].中國科學技術大學學報,2012,41(2):134-141.

[20]Lee K C,Kriegman D.Online learning of probabilistic appearance manifolds for video-based recognition and tracking[C]//IEEEConferenceonCVPR,Kyoto,IEEE Proc,2005:825-859.

[21]Yu Q,Dinh T B,Medioni G.Online tracking and reacquisition using co-trained generative and discriminative trackers[C]//Computer Vision ECCV.Berlin Heidelberg:Springer,2008:678-691.

[22]Zhang Meng,Zhang Lei,Yang Jian,et al.Robust sparse codingforfacerecognition[C]//IEEEConferenceon CVPR,Providence RI,IEEE Proc,2011:625-632.

[23]Teng P.On accelerated proximal gradient methods for convex-concave optimization[J].SIAMJournal on Optimation,2008.

[24]Kwon J,Lee K M.Visual tracking decomposition[C]// IEEE Conference on CVPR,San Francisco,CA,IEEE Proc,2010:1269-1276.

[25]Everingham M,Van Gool L,Williams C K I,et al.The PASCAL visual object classeschallenge[J].Internatinal Journal of Computer Vision,2010,88(2):303-338.

Research on sparse coding object tracking method .

ZHANG Dongmei,WANG Ronggui,YANG Juan,YOU Shengfu,QI Lili

School of Computer and Information,Hefei University of Technology,Hefei 230009,China

To deal with the problems in sparse presentation’s application to object tracking,such as the not accurate enough representation of construction error,the wrong update of object templates and so on.This paper proposes a modified sparse coding model.This model doesn’t require the construction error following a particular prior probability density function,and adds an adaptive restraint of the coding coefficient,and this model can acquire better coding vectors for more accurate tracking results.Combined the modified model with the particle filter object tracking algorithm on this basis,a new object tracking method based on the robust sparse coding model is researched and realized.The proposed method encodes every particle’s sample area,uses the sparse coding vector as the observation for the particle,and updates the object templates with different grade to make them more accurate.The experiment results show that the proposed object tracking method can deal well with the corruption like occlusion and illumination variation in object tracking.

object tracking;sparse coding;sparse representation;particle filter

A

TP391.41

10.3778/j.issn.1002-8331.1311-0185

國家自然科學基金(No.61075032);安徽省自然科學基金(No.1408085QF117)。

張冬梅(1989—),女,碩士研究生,主要研究方向為智能視頻處理與分析、目標跟蹤;汪榮貴,教授,博導,主要研究領域為智能視頻處理與分析、車載視覺增強系統、多媒體技術;楊娟,講師,博士;游生福,碩士研究生;齊立立,碩士研究生。E-mail:zhangdm_ever@sina.com

2013-11-13

2013-12-26

1002-8331(2015)22-0053-08

CNKI網絡優先出版:2014-04-01,http://www.cnki.net/kcms/doi/10.3778/j.issn.1002-8331.1311-0185.html

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 午夜欧美理论2019理论| 少妇被粗大的猛烈进出免费视频| 日本伊人色综合网| 国产va视频| 91最新精品视频发布页| 永久毛片在线播| 免费无遮挡AV| 精品视频免费在线| 午夜福利视频一区| 波多野结衣在线一区二区| a级毛片毛片免费观看久潮| 呦女亚洲一区精品| 日韩中文无码av超清| 在线观看亚洲国产| 欧美日韩精品一区二区在线线| 92午夜福利影院一区二区三区| 99热最新网址| 国内精自线i品一区202| 在线无码私拍| 成人精品免费视频| 色综合日本| 久久综合九九亚洲一区| 少妇露出福利视频| 国产精品男人的天堂| 欧美a在线| 美女无遮挡被啪啪到高潮免费| 国产一区二区三区在线观看视频| 国产97视频在线| 欧美在线一二区| 亚洲天堂伊人| 国产亚洲欧美另类一区二区| 精品少妇人妻av无码久久| 亚洲av中文无码乱人伦在线r| 午夜国产不卡在线观看视频| 爱做久久久久久| 欧美日本二区| 国产精品无码制服丝袜| 2021国产在线视频| 欧美丝袜高跟鞋一区二区| 欧美成一级| 亚洲AV无码不卡无码| 亚洲国产在一区二区三区| 日韩在线1| 在线观看免费人成视频色快速| 中文无码毛片又爽又刺激| 久久精品国产精品一区二区| 国产精品漂亮美女在线观看| 丰满人妻久久中文字幕| 自慰网址在线观看| 热99re99首页精品亚洲五月天| 在线观看国产精品一区| 亚洲福利一区二区三区| 草逼视频国产| 亚洲一区二区三区国产精华液| 国产在线视频导航| 99久视频| 美女无遮挡免费视频网站| www.亚洲一区二区三区| 国产永久在线视频| 伊人成人在线视频| 波多野一区| 狠狠色噜噜狠狠狠狠奇米777| 色综合久久88色综合天天提莫| 日韩国产一区二区三区无码| 久久免费观看视频| 欧洲成人在线观看| 国产第一页免费浮力影院| 岛国精品一区免费视频在线观看| 亚洲无码高清一区| 超清无码一区二区三区| 国产新AV天堂| 亚洲欧美成人网| 国产欧美高清| 国产原创第一页在线观看| 精品一区二区三区自慰喷水| 欧美精品1区2区| 91福利在线观看视频| 欧美福利在线观看| 91精品国产91久久久久久三级| 热热久久狠狠偷偷色男同| 激情综合婷婷丁香五月尤物| 亚洲视频免费播放|