999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時間上下文跟蹤學習檢測的指尖跟蹤方法

2016-05-14 10:01:54侯榮波康文雄房育勛黃榮恩徐偉釗
計算機應用 2016年5期

侯榮波 康文雄 房育勛 黃榮恩 徐偉釗

摘要:針對在基于視頻的空中簽名認證系統中,現有方法無法滿足指尖跟蹤的準確性、實時性和魯棒性要求的問題,在對比研究目前常用的多種跟蹤方法的基礎上,提出一種基于時間上下文的跟蹤學習檢測(TLD)方法。在原始TLD算法的基礎上引入時間上下文信息,即相鄰兩幀間指尖運動具有連續性的先驗知識,自適應地縮小檢測和跟蹤的搜索范圍,以提高跟蹤的速度。對12組公開的1組自錄的視頻序列的實驗結果表明,改進后的TLD算法能夠準確地跟蹤指尖,并且跟蹤速度達到43幀/秒;與原始TLD跟蹤算法相比,準確率提高了15%,跟蹤速度至少提高1倍,達到了指尖跟蹤的準確性、實時性和魯棒性要求。

關鍵詞:目標跟蹤;指尖跟蹤;跟蹤學習檢測算法;時間上下文;人機交互

中圖分類號:TP242.6 文獻標志碼:A

Abstract:In the video based inair signature verification system, the existed methods cannot meet the requirement of accuracy, real time, robustness for fingertip tracking. To solve this problem, the TrackingLearningDetection (TLD) method based on temporal context was proposed. Based on the original TLD algorithm, the temporal context massage, namely the prior knowledge that the movement of fingertip is continuity in two adjacent frames, was introduced to narrow the search range of detection and tracking adaptively, thereby improving tracking speed. The experimental results on 12 public and 1 selfmade video sequences show that the improved TLD algorithm can accurately track fingers, and tracking speed can reach 43 frames per secend. Compared with the original TLD tracking algorithm, the accuracy was increased by 15% and the tracking speed was increased more than 100%, which make the proposed method meet the realtime requirements for fingertip tracking.

Key words:object tracking; fingertip tracking; TrackingLearningDetection (TLD) algorithm; temporal context; human computer interaction

0 引言

在廣泛的計算機視覺應用的系統中,比如智能監控、人機交互、醫療診斷、導航制導等,目標跟蹤是這些系統的重要組成部分[1]。

雖然目前的文獻提出了許多跟蹤算法,但是目標跟蹤仍然是個尚未解決的極具挑戰性的問題。因為在目標運動過程中,目標姿態的變化、光照強度的變化、目標遮擋等因素會導致目標的外形發生改變,給跟蹤帶來了極大的難度。一個有效的目標模型是跟蹤算法極為重要的一部分得到廣泛關注。按照目標的模型,跟蹤算法可以分為生成模型和判別模型兩類。

生成模型的跟蹤算法通常是通過學習來建立一個目標模型,然后利用它來計算圖像中每一點的分數,分數最高的則為目標。Black等[2]實現了通過學習一個離線的子空間模型來表示跟蹤目標。增強視覺跟蹤(Incremental Visual Tracking, IVT)方法[3]則是通過利用增量子空間模型來應對目標外觀的變化。L1跟蹤器利用目標和簡單模板的稀疏線性組合來為目標建模,但L1跟蹤器的計算量相當大,從而限制了它在實時系統的應用。Li等[4]利用正交匹配跟蹤算法來進一步改善L1跟蹤器,有效地解決了優化問題。胡昭華等[5]利用多種特征聯合的稀疏表示了跟蹤目標,克服了單一特征描述目標能力較差的缺點,充分發揮了不同特征目標能力的優點。Zhang等[6]提出的基于時空上下文的跟蹤算法(SpatioTemporal Context, STC),利用目標與其周圍背景的聯系,包括距離及其方向和像素特征,來表示目標,通過計算目標似然的最大值來確定目標的位置,該算法能夠很好地解決目標被遮擋問題,但當目標消失然后出現后,由于缺少檢測模塊,無法對目標進行跟蹤。

判別模型的跟蹤算法則是把跟蹤問題當作是一個二值分類問題,通過利用一個分類器來區分目標和背景,這是目前最常用的跟蹤算法。Avidan等[7]通過利用支持向量機(Support Vector Machine, SVM)分類器來改善光流法來用于對目標的跟蹤,而Collin[8]證明了大多數判別特征可以通過在線學習來更好地區分目標與背景。此外,Grabner等[9]提出了一種在線Boosting算法來選擇特征。但上述三種跟蹤算法只用到了一個正樣本和少量的負樣本來更新分類器,當目標外觀模型的更新受到噪聲的干擾時,就會導致目標漂移而使得跟蹤失敗。Grabner等[10]提出了一種在線的半監督的boosting算法來解決漂移問題,Babenko等[11]運用了多示例學習(Multiple Instance Learning,MIL)算法來實現在線跟蹤,MIL算法采用了密集采樣的方法來解決更新分類器時訓練樣本少的問題,提高了跟蹤器的魯棒性,但是訓練如此多的樣本需要消耗大量的計算時間。郭鵬宇等[12]提出了在線混合隨機樸素貝葉斯跟蹤器方法,通過融合紋理和形狀兩類特征,以及分類器誤差調整混合系數,實現分類器的在線學習和更新。Zhang等[13]把壓縮感知采樣方法應用到跟蹤算法中,該方法將正負樣本通過尺度變換,對樣本量進行擴充,然后將這個多尺度的樣本空間的樣本通過稀疏矩陣投影到低維空間中。如此一來,既保證了樣本的準確度,又有效地降低了計算量。Sun等[14]提出了目標上下文預測的跟蹤算法(Tracking with Context Prediction, TCP),把目標附近的物體和目標的特別部分當作輔助目標,利用傳統的跟蹤算法跟蹤輔助目標來預測目標的位置。Zhang等[15]提出的結構保留目標跟蹤 (Structure Preserving Object Tracker, SPOT)方法,把單個目標分割成多個小塊,然后利用個小塊間的聯系來表示目標,從而很好地解決了由于目標遮擋而導致跟蹤失敗的問題。

對于在不確定的環境下的長時間跟蹤問題,僅僅通過學習目標的描述或判別特征無法確保跟蹤系統的魯棒性。Yang等[16]提出一種有上下文意識的跟蹤算法(ContextAware Tracking, CAT)來跟蹤目標周圍區域而不是目標本身。該算法充分利用了有利于跟蹤的一些輔助目標,使之對目標具有一致的運動關聯性,從而避免了目標的漂移問題。Saffari等[17]提出了一種多類的增強線性規劃(Linear Programming Boosting, LPBoost)算法來解決跟蹤問題。該算法把跟蹤問題看成是一個多類的分類問題,雖然在簡單環境下,它能很好地跟蹤目標,但是當環境變得復雜時,包括目標遮擋,光照強度變化情況下,跟蹤效果會變得很差。Grabner等[18]運用了一種有用的目標特征——支持向量的清晰度來預測目標的位置,當目標不可見時,該算法利用強運動耦合,運用一些相關聯的空間上下文信息來確定目標,但是,該算法的檢測需要大量的時間,并且目標的運動難以預測。

本文算法在原始的跟蹤學習檢測(TrackingLearningDetection, TLD)算法[19]的基礎上,提出基于時間上下文的TLD目標跟蹤算法。TLD跟蹤算法是基于跟蹤、檢測和學習的長時間跟蹤未知物體的算法,具有強魯棒性,但算法跟蹤速度較慢,無法滿足應用的實時跟蹤需求,為此,國內外研究人員在TLD的基礎上進行了改進算法的設計和研究[20-21]。本文則通過引入時間上下文信息,利用相鄰兩幀間目標運動連續性的先驗知識,來縮小檢測和跟蹤的搜索范圍,由此來提高跟蹤的速度。實驗表明,改進后的TLD算法能夠準確地跟蹤捏合三指尖等物體,并且跟蹤速度是原始TLD跟蹤算法的至少2倍,能夠達到指尖跟蹤的實時性要求。

1 基于時間上下文的TLD跟蹤算法

TLD是一種單目標長時間跟蹤算法。該算法的主要特點在于將傳統的檢測算法和跟蹤算法相結合來解決被跟蹤目標在被跟蹤過程中發生的形態變化、尺度變化、部分遮擋等問題。同時,通過PN(Positive constraint、Negative constraint)在線學習機制不斷更新檢測模塊的目標模型及相關參數和跟蹤模塊的“顯著特征點”,利用了跟蹤、學習、檢測三個模塊的優勢互補,實現目標的有效跟蹤,但速度上仍然無法滿足空中簽名過程中的指尖跟蹤。通過對自建系統所采集的空中簽名視頻進行分析,本研究發現,盡管在書寫簽名的過程中指尖運動速度有時會比較快,但通過高速攝像頭所采集的視頻中連續兩幀間的指尖運動距離有限,指尖目標相距不會很遠,因此本文提出了基于時間上下文的TLD跟蹤算法,適當地縮小檢測、跟蹤范圍來避免不必要的檢測以及部分背景的影響,進而提高算法的跟蹤速度和算法的準確率。算法的具體跟蹤流程如圖1所示。

1.3 目標模型更新

采用如下的策略來將一個新的已賦予標簽的圖像片添加到目標模型當中:只有當最近鄰分類器賦予的標簽同學習模塊賦予的標簽相矛盾時,才將其添加到目標模型當中。但這樣一來,添加到目標模型的樣本就略顯偏少,為了解決這個問題,定義一個參數m=Sr-θNN來代表分類盈余。對于一個圖像片p而言,如果其分類盈余m<λ,也將這個樣本添加到目標模型當中。顯然,添加到目標模型的圖像片隨λ的增大而增多,也就是得到一個更好的分類決策邊界。為了在目標模型的更新速度和精度之間得到一個很好的平衡,本文將λ設置為0.1。

1.4 基于時間上下文的指尖檢測模塊

如圖2所示,圖(a)中的虛線框為搜索區域,其尺寸為目標框的4倍。目標檢測模塊采用掃描窗口對每個圖像中的搜索區域進行處理,每次掃描一個圖像片,并給出其中是否含有待檢測目標。掃描窗口的參數設置如下:窗口的尺度縮放系數為1.2,水平方向的步長是寬度的10%,垂直方向的步長是高度的10%,最小的掃描窗口大小為20個像素。目標檢測模塊的流程如圖2(b)所示。

可見TLD的檢測模塊采用的分類器是一個級聯分類器。每個可能出現待檢測目標的區域,依次經過圖像區方差檢測模塊、分類器集合檢測模塊、最近鄰分類器檢測模塊三個部分,任意一個部分都可以判定當前檢測區域是否含有檢測目標。只有依次通過這3部分的檢測區域才被認定含有檢測目標。

1)圖像片方差檢測模塊:該模塊是級聯分類器檢測模塊的第一個子模塊,該模塊首先利用積分圖來計算每個待檢測圖像片的方差。方差小于某個閾值的區域就被認定為包含前景目標。

2)分類器集合檢測模塊:該模塊的輸入是方差檢測模塊判定包含前景目標的圖像片。分類器集合含有N個基本分類器,每個基本分類器所提取的特征為由像素比較獲得的13位二值碼。對于每個圖像片而言,當所有基本分類器的后驗概率的平均值如果大于50%時,就可認定當前圖像片含有前景目標。

3)最近鄰分類器:對待檢測圖像片而言,如果Sr(p,M)>θNN,那么該圖像片就被認定為含有前景目標,本文取θNN=0.6。

1.5 跟蹤模塊

TLD的跟蹤模塊是一種在中值流跟蹤方法的基礎上增加了跟蹤失敗的檢測算法的新跟蹤方法。中值流跟蹤方法通過利用目標框來表示被跟蹤目標,并在連續的相鄰幀之間估計目標的運動。中值流跟蹤算法的前提假設是被跟蹤的目標是可見的,這也就意味著,當目標被完全遮擋或者目標離開當前場景時,跟蹤肯定失敗。可用如下策略來應對這些情況:di代表中值流跟蹤中某一個特征點的位移,而dm代表所有特征點位移的中值,可定義位移殘差|di-dm|,如果殘差大于10個像素,就可認為跟蹤失敗。這種方法可以很好地發現由于被跟蹤目標移動過快或者被遮擋而造成的跟蹤失敗。當系統跟蹤失敗時,不返回目標框。

1.6 學習模塊

在第一幀中,學習模塊利用下面的方法生成帶標簽的樣本來訓練一個初始的檢測器。生成帶標簽樣本方法是:在目標框內生成正樣本。首先在距離初始目標框最近的掃描窗口中選擇10個區域,并且在每個區域內部利用幾何變換生成20個仿射的區域。也就是在每個區域內部進行±1%范圍的偏移、±1%范圍的尺度變化、±10°的平面內旋轉操作,并且可以在每個像素上增加方差為5的高斯噪聲。在設定范圍內隨機地設置偏移、尺度變化、旋轉的大小,對每個區域都進行20次這種幾何變化,如此一來,10個區域就生成了200個仿射變化的區域版本。這200個區域可以作為正樣本,而負樣本則是通過初始目標框的周圍并在搜索范圍內選取,由于圖片中大部分區域都是負樣本,因此負樣本無需進行幾何變化。

在跟蹤的第一幀對目標模型進行初始化后,利用PN學習來對模型進行不斷的更新。PN學習包含四個部分:1)一個待學習的分類器;2)訓練樣本集:一些已知類別標簽的樣本;3)監督學習:一種從訓練樣本集中訓練分類器的方法;4)PN experts:在學習過程中用于產生正樣本和負樣本的表達函數。PN學習過程如圖3所示。

2 指尖的跟蹤效果

為了分析基于時間上下文的TLD跟蹤算法對指尖的跟蹤效果,本項目錄制了由14個同學書寫的814個空中簽名視頻進行實驗。由于人正常簽名時,指尖的運動較快,為了能夠跟蹤獲得書寫軌跡足夠的點以便獲得完整的個人簽名信息,本文采用分辨率為640×480的高速攝像頭錄制手指簽名的視頻。除此之外,對于視頻的采集,本文還作了以下幾方面的限制:1)簽名者的手腕不可以出現大幅度的擺動,并且簽名范圍被限定在一個17cm×25cm的矩形區域內;2)背景簡單,背景顏色統一為棕色。

為了能夠更好地復現跟蹤算法在各個測試視頻上的跟蹤結果,盡量降低由于初始化指尖跟蹤區域的差別而導致的跟蹤效果的差異,本文為選取指尖跟蹤區域定了一個標準,初始化區域是一個正方形,它的面積為包含拳頭的矩形區域面積的1/14,中心為三捏合指尖的中心。

2.1 指尖跟蹤實驗結果

本文利用成功率和幀率來分析算法對指尖的跟蹤效果,其中成功率SR(Success Rate)和幀率FPS(Frames Per Second)的計算方法如下:

2.2 指尖跟蹤效果分析

通過對實驗結果進行分析,本研究發現改進后的TLD算法,在光照強度大、環境簡單,指尖快速運動的情況下,對于指尖的上、下、左、右偏時都取得較好的效果,具有強魯棒性。對比與原始的TLD跟蹤算法,不足之處在于,當指尖運動發生突變時會出現跟蹤不準確甚至是失敗。部分跟蹤效果如圖4所示,為了進一步清晰地說明跟蹤效果,本文將指尖跟蹤結果的軌跡顯示在圖5中。從圖中可以看出跟蹤的軌跡能夠完整準確地展現個人的空中簽名,這為空中簽名數據庫的構建以及后續空中簽名的認證奠定了良好的基礎。

3 與常用跟蹤算法的比較

為了進一步評估基于時間上下文的TLD跟蹤算法的跟蹤效果,本研究選用13組視頻序列進行實驗。這13組視頻序列包括12組公開的以及1組本項目錄制的,它們包含了遮擋、劇烈光照強度變化、姿勢與尺度的變化、非剛性變換、背景群集、運動模糊和目標運動速度等影響跟蹤效果的因素,視頻幀的相關信息見表2。本章將提出的改進跟蹤算法與最新的5種主流跟蹤算法進行了比較。對于每一種跟蹤算法,本項目運用了作者提供的原始代碼或是二進制碼,將其中的參數設置到最好的跟蹤結果進行了實驗。這五種跟蹤算法分別是: CSK(Circulant Structure Tracker)[22]、STC、Struck(Structured Output Tracker)[23]、CT(Compressive Tracker)和TLD。由于每種跟蹤算法的跟蹤效果都有一定的隨機性,因此,對于每一個視頻序列,本研究都重復實驗了10遍并以平均值作為最終的結果。由于,視頻序列Car、 Jumping中的目標分別存在向右、上下快速運動的情況,搜索區域的比例系數K分別取為2.8、5。本文的跟蹤算法是在i53210M 2.50GHz CPU、8GB RAM、Windows 7操作系統的計算機上用C++編程實現。

表3表明,改進的TLD跟蹤算法在Car、David、Pedestrian、Fingers、FaceOcc2、Walking測試視頻上的跟蹤成功率較高,在大多數的測試視頻上的跟蹤成功率高于TLD,如,David、Fingers、FaceOcc2、Walking。對于David測試視頻,改進的TLD的成功率遠大于TLD的成功率,主要原因在于,David視頻的前部分序列中人臉目標和背景都是黑色的,TLD在整張圖像中檢測目標,背景對目標模型影響較大,檢測器逐漸引入了錯誤的目標模型,最終導致跟蹤失敗;而改進的TLD因為限制了檢測區域,減少了背景的影響,所以跟蹤成功率有了較大的提高。對于Jumping視頻,由于人臉模糊且人的快速跳動,同時改進的TLD縮小了檢測區域,其檢測器的負樣本較少,因此改進的TLD的檢測模塊的分類效果較TLD差。對于Skiing測試視頻,由于視頻中的目標較小,特征不明顯并且目標快速運動的同時發生旋轉,目標外觀發生了巨大的變化,導致實驗中的幾種跟蹤算法只能跟蹤視頻的前幾幀,跟蹤成功率較低。

在計算CLE時,由于算法在一些圖像中判斷為沒有目標,因此本文不計算這種情況的CLE值,表5為跟蹤算法在每一個標準視頻中有跟蹤到目標的幀數,從表中可以得知,只有TLD和改進的TLD在跟蹤過程出現判斷為沒有目標的情況,其他幾種跟蹤算法在每一幀視頻中都會給出一個目標區域。在Animal測試視頻中,由于動物以及相機的運動,導致TLD和改進的TLD無法準確地跟蹤目標,在部分視頻幀中丟失了目標。在Tiger1測試視頻中,TLD和改進的TLD跟蹤到目標少的原因在于視頻中目標的遮擋、外觀變化、旋轉以及光照強度發生變化的影響。表4表明,改進的TLD的CLE值普遍較小,取得最小的平均CLE值。對于大部分的測試視頻,改進的TLD的CLE值較TLD的CLE值小。只有在Skiing視頻中,改進的TLD的CLE值遠大于TLD的CLE值,這是因為改進的TLD在視頻中有較多幀是跟蹤錯誤的。

表6表明,對于大部分的測試視頻,改進的TLD的FPS是TLD的2~3倍,其中,對于Fingers、Girl、Sylvester分別是5、10、8倍。改進的TLD的平均速度為43frame/s,達到了實時跟蹤的要求。

3.2 跟蹤算法比較的定性分析

圖6是本文跟蹤算法和常用的5種跟蹤算法的部分跟蹤效果圖。由于CSK沒有測試Car視頻,Struck沒有測試David視頻,因此,圖6(e)、(f)分別沒有Car、David的跟蹤效果圖,具體的分析如下(#x表示第x幀)。

1)光照強度、目標尺度和姿態的變化:在這些測試視頻中存在著大量的光照強度發生變化的情況。在David視頻中,David由于從黑暗處走向亮處,光照強度發生巨大的變化,同時David的臉部尺度和姿態在一些幀也發生了變化。大多數文獻在測試這個視頻時都會忽略開始時臉部完全黑暗的一部分,本次實驗對整個視頻進行測試。本算法和STC在這6種跟蹤算法中跟蹤效果最好。在Girl視頻中,目標在平面外旋轉,姿態發生變化,同時光照強度和目標姿態也發生了變化,本算法能夠準確跟蹤目標。

2)目標遮擋和姿態的變化:在FaceOcc2視頻中,人臉受到了嚴重的遮擋,以及它的姿態也發生了極大的改變。CSK、Struck和本算法能夠準確跟蹤。在Car視頻中,當目標被遮擋時,TLD、Struck和本文的算法能準確地跟蹤目標。

3)目標的快速運動:在Fingers視頻中,由于指尖的快速運動,導致了三捏合指尖的外觀極度模糊,給跟蹤帶來極大的挑戰。只有TLD和本算法能夠準確跟蹤,本算法具有最高的成功率,因為本算法中的檢測模塊是由三個分類器級聯而成的,并且在跟蹤過程中,借助學習模塊有效的更新,能夠準確地檢測目標。

4 結語

為了解決TLD算法跟蹤速度慢的問題,滿足空中簽名認證系統的實時性需求,本文提出了基于時間上下文的TLD跟蹤算法,引入時空上下文信息,即利用相鄰兩幀間目標運動連續性的先驗知識,縮小搜索范圍以提高跟蹤速度。實驗表明,本文的跟蹤算法能夠準確跟蹤指尖,跟蹤獲得的簽名字跡能夠完整準確地反映了個人的空中簽名。同時,算法的跟蹤成功率和跟蹤速度都優于原始的TLD算法,其中平均跟蹤速度達到了43幀/s,達到跟蹤的實時性標準。但算法仍存在不足,當指尖的運動發生突變或拐彎時,算法容易跟蹤失敗。今后將會在檢測和跟蹤方面結合目前常有的方法的優點來改善TLD跟蹤算法的性能,使其更好地應用在基于視頻的簽名認證系統當中,乃至其他的與目標跟蹤相關的應用系統。

參考文獻:

[1]YILMAZ A, JAVED O, SHAH M. Object tracking: a survey[J]. ACM Computing Surveys, 2006, 38(4): Article No. 13.

[2] BLACK M J, JEPSON A D. Eigentracking: robust matching and tracking of articulated objects using a viewbased representation [J]. International Journal of Computer Vision, 1998, 26(1): 63-84.

[3] ROSS D A, LIM J, LIN RS, et al. Incremental learning for robust visual tracking [J]. International Journal of Computer Vision, 2008, 77(1): 125-141.

[4] LI H, SHEN C, SHI Q. Realtime visual tracking using compressive sensing [C]// CVPR 2011: Proceedings of the 2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2011: 1305-1312.

[5]胡昭華,徐玉偉,趙孝磊,等.多特征聯合的稀疏跟蹤方法[J].計算機應用,2014,34(8):2380-2384. (HU Z H, XU Y W, ZHAO X L, et al. Sparse tracking algorithm based on multifeature fusion [J]. Journal of Computer Applications, 2014, 34(8): 2380-2384.)

[6]ZHANG K, ZHANG L, LIU Q, et al. Fast visual tracking via dense spatiotemporal context learning [C]// ECCV 2014: Proceedings of the 13th European Conference on Computer Vision, LNCS 8693. Berlin: SpringerVerlag, 2014: 127-141.

[7]AVIDAN S. Support vector tracking [C]// CVPR 2001: Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2001, 1: 184-191.

[8]COLLINS R T, LIU Y, LEORDEANU M. Online selection of discriminative tracking features [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(10): 1631-1643.

[9]GRABNER H, GRABNER M, BISCHOF H. Realtime tracking via online boosting [C]// BMVC 2006: Proceedings of the 2006 British Machine Vision Conference. Nottingham, UK: BMVA Press, 2006, 1: 47-56.

[10]GRABNER H, LEISTNER C, BISCHOF H. Semisupervised online boosting for robust tracking [C]// ECCV 2008: Proceedings of the 10th European Conference on Computer Vision, LNCS 5302. Berlin: SpringerVerlag, 2008:234-247.

[11]BABENKO B, YANG M, BELONGIE S. Robust object tracking with online multiple instance learning [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.

[12]郭鵬宇,蘇昂,張紅良,等.結合紋理和形狀特征的在線混合隨機樸素貝葉斯視覺跟蹤器[J].光學學報,2015,35(3):0315002. (GUO P Y, SU A, ZHANG H L, et al. Online mixture of random naive Bayes tracker combined texture with shape feature [J]. Acta Optica Sinica,2015,35(3): 0315002.)

[13]ZHANG K, ZHANG L, YANG MH. Realtime compressive tracking [C]// ECCV 2012: Proceedings of the 12th European Conference on Computer Vision, LNCS 7574. Berlin: SpringerVerlag, 2012: 864-877.

[14]SUN Z, YAO H, ZHANG S, et al. Robust visual tracking via context objects computing [C]// Proceedings of the 2011 IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2011: 509-512.

[15]ZHANG L,van der MAATEN L J P. Preserving structure in modelfree tracking [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(4): 756-769.

[16]YANG M, WU Y, HUA G. Contextaware visual tracking [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(7): 1195-1209.

[17]SAFFARI A, GODEC M, POCK T, et al. Online multiclass LPBoost [C]// CVPR 2010: Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 3570-3577.

[18]GRABNER H, MATAS J, VAN GOOL L, et al. Tracking the invisible: learning where the object might be [C]// CVPR 2010: Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 1285-1292.

[19]KALAL Z, MIKOLAJCZYK K, MATAS J. Trackinglearning detection [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

[20]周鑫,錢秋朦,葉永強,等.改進后的TLD視頻目標跟蹤方法[J].中國圖象圖形學報,2013,18(9):1115-1123. (ZHOU X, QIAN Q M, YE Y Q, et al. Improve TLD visual target tracking algorithm [J]. Journal of Image and Graphics, 2013, 18(9):1115-1123.)

[21]金龍,孫涵.TLD視頻目標跟蹤方法改進[J].計算機與現代化,2015(4):42-46. (JIN L, SUN H. An improve TLD visual target tracking method [J]. Computer and Modernization, 2015(4): 42-46.)

[22]HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of trackingbydetection with kernels [C]// ECCV 2012: Proceedings of the 12th European Conference on Computer Vision, LNCS 7575. Berlin: SpringerVerlag, 2012: 702-715.

[23]HARE S, SAFFARI A, TORR P H S. Struck: structured output tracking with kernels [C]// ICCV 2011: Proceedings of the 2011 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011: 263-270.

主站蜘蛛池模板: 久久99国产视频| 一级毛片无毒不卡直接观看| 亚洲区一区| 国产毛片基地| 国产手机在线ΑⅤ片无码观看| 日韩天堂在线观看| 日a本亚洲中文在线观看| 国产女人水多毛片18| 在线观看欧美精品二区| 国产精品手机在线观看你懂的| julia中文字幕久久亚洲| 国产精品视频猛进猛出| 一本大道东京热无码av| 91年精品国产福利线观看久久| 亚洲成人在线免费观看| 欧美日韩导航| 免费播放毛片| 成人福利在线视频| 伊人久久久久久久久久| 免费看av在线网站网址| 中文毛片无遮挡播放免费| 人妻精品久久无码区| 久久这里只有精品66| 亚洲欧美日韩另类在线一| 老色鬼欧美精品| 亚洲日本精品一区二区| 免费在线a视频| 毛片最新网址| 亚洲无线观看| 青草娱乐极品免费视频| 欧美不卡视频一区发布| 在线观看国产精品日本不卡网| 成人午夜亚洲影视在线观看| 亚洲第一国产综合| 欧洲一区二区三区无码| 天堂网亚洲系列亚洲系列| 国产浮力第一页永久地址 | 午夜视频免费试看| 亚洲中文字幕手机在线第一页| 2021国产精品自产拍在线| 午夜国产大片免费观看| 国产午夜无码专区喷水| 中文字幕久久精品波多野结| 欧美成人综合视频| 国产真实乱了在线播放| 2020精品极品国产色在线观看| 操美女免费网站| 国产在线自乱拍播放| 免费A∨中文乱码专区| 亚洲欧美成人综合| 国产美女精品在线| 日本五区在线不卡精品| 秋霞国产在线| 91视频区| 国产成人精品高清不卡在线| 成人综合网址| 精品视频福利| 欧美成人看片一区二区三区| 99激情网| 91久久性奴调教国产免费| 日韩麻豆小视频| 婷婷中文在线| 一级毛片在线播放免费观看| 日韩黄色精品| 日本精品影院| 中文字幕调教一区二区视频| 成人福利在线看| aaa国产一级毛片| 免费av一区二区三区在线| 色综合婷婷| 国产高清在线精品一区二区三区 | 欧美精品导航| 亚洲无限乱码| 国产人碰人摸人爱免费视频| 国产精品一区二区久久精品无码| 19国产精品麻豆免费观看| 四虎免费视频网站| 高h视频在线| 三上悠亚一区二区| 99久久婷婷国产综合精| 九九免费观看全部免费视频| 国产无码精品在线|