徐華偉 顏晶晶
(臺州職業技術學院 臺州 318000)
目標跟蹤是計算機視覺領域的一個重要研究方向,該技術可用于視頻監控[1]、人機交互[2]和無人駕駛[3]等領域。隨著計算機技術的不斷發展,各種目標跟蹤算法取得了長足的進步,特別是最近兩年利用深度學習的目標跟蹤方法取得了令人滿意的效果,使目標跟蹤技術獲得了突破性的進展。文獻[4]提出了增量式魯棒目標跟蹤方法,采用增量主成分分析來減少圖像空間,可以不斷更新以適應跟蹤目標的變化。文獻[5]中將目標模型分解為稀疏主成分分析構造的幾個基本目標模型,跟蹤器通過一組附加的基本運動模型跟蹤目標。它可以處理外觀變換或運動。文獻[6]提出了箱式粒子濾波的群目標跟蹤算法,采用區間量測壓縮后的粒子與預測粒子的容積比來計算粒子權重,有效地減少了測量偏差或未知分布邊界誤差的影響。然而,上述方法計算量巨大,難以實現實時跟蹤。
壓縮跟蹤方法是一種利用壓縮感知理論的快速跟蹤算法[7]。該算法通過非常稀疏的投影矩陣將高維圖像特征投影到低維圖像空間中,利用隨機投影產生的低維圖像特征對目標進行跟蹤。它減少了許多需要比較的圖像特征,極大地降低了算法的計算復雜度[8]。然而,由投影矩陣隨機生成圖像特征,即使在同一測試視頻中,每次圖像特征也有相當大的變化,這使得每次執行的結果時好時壞,并且難以有效地使用[9]。
為了解決上述問題,本文提出了一種具有多個隨機生成特征的目標跟蹤算法。附加的跟蹤和不同的圖像特征可以產生多個不同的跟蹤結果。如果選擇最理想的跟蹤結果作為最終目標位置,則比原算法有更多的機會產生更好的跟蹤結果。
在本文中,提出的跟蹤算法流程如圖1所示。為了解決由遮擋引起的漂移問題,本文參照文獻[10],將子區域分類器應用到本文算法中。同時,減少子區域分類器的數量來加速算法,僅使用九個子區域分類器進行跟蹤。此外,為了避免子區域分類器的過度集中或過度分散,子區域分類器的位置均勻分布。在跟蹤過程中,每個子區域分類器獨立地跟蹤目標的指定部分。如果目標被部分遮擋,則只會影響跟蹤的遮擋部分。因此,可以避免由于遮擋引起的漂移問題。在分類器更新階段,每個子區域分類器根據各自的分類器得分決定是否更新,以防止被遮擋的目標模型更新。如果分類器的分數小于零,則表示被判斷為屬于非目標對象的區域的概率相對較大。因此,利用不參與更新的子區域目標模型來保留對象信息。

圖1 所提出的算法流程圖
以花樣滑冰的動作圖像為例,選手在騰空期間雙腳合并具有重疊區域。圖2給出了子區域的分布,其中,圖2(a)顯示了所有的子區域。在子區域之間存在一些重疊區域,圖2(b)顯示了單個子區域。

圖2 子區域的分布
每個子區域的位置如等式(1)所示。其中x和y是感興趣區域的左上角的坐標,ws和hs是子區域的寬度和高度,Tij是子區域的上半部分的坐標:

在建立目標模型階段時,本文使用文獻[11]中提出的方法,根據正樣本的重要性來分配不同的權重。則目標模型的方程為

其中,p(y1=1|v1j)是樣本v1j的后驗概率,N是正樣本數,L是負樣本數,假設l是位置函數,c是歸一化常數,則

對應的背景模型的方程為

其中,w是常數。
在跟蹤算法中,本文分別使用隨機生成的多個圖像特征進行跟蹤。在每次計算候選位置的最高分類器得分后,選擇最優跟蹤結果作為最終目標位置。由于圖像具有多重特征集合,所產生比原始圖像更好的結果概率更大。因此,如果可以從候選圖像中選擇最佳候選圖像,則可以獲得比單獨使用算法更好的跟蹤性能。
在所提出的跟蹤算法中,通過計算候選圖像和參考圖像之間的Bhattacharyya系數來確定最佳跟蹤結果。Bhattacharyya系數定義為[12]

其中,N是直方圖的指數的總數。在文獻[13]中提出的目標圖像和候選圖像模型分別為

其中,δ是Kronecker函數,C和Ch是歸一化常數:

Bhattacharyya系數的越大表示候選圖像與目標圖像具有的相似性越高。因此,在每次跟蹤結束后,選擇與候選圖像位置對應的最大Bhattacharyya系數作為跟蹤結果。
由于低維圖像特征具有尺度不變性,因此,本文將多尺度跟蹤函數加入到所提出的算法中,結合大尺度、不變尺度和小尺度的圖像特征進行跟蹤。為了避免目標尺寸的變化非常小且無法檢測,本文使用附加的目標模型來進行尺度檢測和跟蹤。第二個目標模型的更新頻率較低,并且直到每第五幀結束時才被更新。較慢的更新頻率使得在五幀之前保存目標圖像信息。所檢測到的圖像與第二個目標模型將更加不同,并且相對容易檢測目標尺寸的變化。本文所提出的多尺度跟蹤算法如圖3所示。
在跟蹤階段結束時執行多尺度檢測,每五幀執行一次。如果需要尺度檢測,則使用不同尺度的圖像特征和第二個目標模型進行再次跟蹤。如果最高分類器得分是從較大或較小的尺度圖像特征中導出,則表示目標尺寸的變化。因此,目標位置由最終跟蹤中獲得的最高分類器得分來確定。如果從不變尺度圖像特征中得到最高分類器得分,則將尺度檢測之前獲得的跟蹤結果作為目標位置。由于先前的結果是通過每幀更新的第一個目標模型跟蹤,所以它比用第二個目標模型跟蹤的結果更精確。

圖3 多尺度跟蹤算法
此外,物體尺寸的劇烈變化通常發生在目標與觀察者之間的距離發生巨大變化。由于目標和觀察者之間的介質影響,目標的顏色不可避免地會發生改變。因此,需要對多尺度檢測中使用的目標模型進行更新來減少目標顏色變化影響。本文使用如下更新方法:

其中,q(tu)是第t幀更新的目標模型,λ是學習參數,p(u)是第t幀最終跟蹤結果模型。
本文所設計的實驗參數如下:每個子區域有10個弱分類器。學習參數λ設為0.85。Kronecker函數δ設為0.1。對每個測試視頻測試20個實驗,測量結果取20個實驗的平均值。對于單尺度跟蹤和多尺度跟蹤分別設計兩個不同的測試案例場景
場景1:選用經典的CAVIAR測試案例場景[14],該場景記錄了許多視頻剪輯,并表現出不同的興趣場景。這些包括人們獨自行走、與他人會面、購物、進出商店、戰斗和過街。圖像序列的典型幀如圖4所示。圖中給出了3個單獨的子區域和1組所有子區域。圖像序列中有幾個人沒有在子區域中,這是由于他們在序列過程中并沒有移動。

圖4 CAVIAR場景典型幀
場景 2:選用 STEREO 2015測試案例場景[15],該場景包括200個訓練場景和200個測試場景,且每個場景由4個銳化后png格式的彩色圖像組成,該圖像的視差小于3px且場景流誤差小于5%,并在半自動過程中建立地面真相動態場景。圖像序列的典型幀如圖5所示圖中給出了16個單獨的子區域和4組所有子區域。圖像序列中有幾個人沒有在子區域中,這是由于他們在序列過程中并沒有移動。

圖5 STEREO 2015場景典型幀
單尺度跟蹤利用場景1進行分析,單尺度跟蹤實驗的中心位置誤差(CLE)、邊界框重疊率(BBOR)和成功率(SR)分別如表1、表2和表3所示。

表1 單尺度跟蹤實驗的中心位置誤差

表2 單尺度跟蹤實驗的邊界框重疊率

表3 單尺度跟蹤實驗的成功率
從表1~3的實驗數據可以看出,無論使用哪種度量,所提出的兩個特征跟蹤算法都有顯著的改進。相比單個特征提取,兩個體征共同提取的中心位置誤差平均減少了18.86%,邊界框重疊率平均提升了14.14%,成功率平均提升了20.72%。
多尺度跟蹤利用場景2進行分析,多尺度跟蹤的實驗結果如表4所示。
從表4可以看出,在大多數測試視頻中,具有兩個特征的跟蹤結果更好。對于測試視頻中例如公交、銀色汽車和摩托車等難點目標的跟蹤成功率提升顯著。這是由于公交車目標經歷了由橋引起的陰影變化和摩托車引起的短時遮擋,而銀色汽車由于目標小和陰影區域大使得跟蹤難度大大增加,跟蹤銀色汽車的難度來自于摩托車造成的部分遮擋。在跟蹤紅色汽車和高速公路這兩個目標的邊界框重疊率時,具有兩個特征的結果比單個特征的結果更差,這是由于采用圖像顏色作為判別方法,當背景中出現相似顏色時,很容易選擇出錯誤的候選圖像,跟蹤器由于背景顏色引起的干擾而發生漂移,使得分類器通過背景圖像進行更新,因此效果較差。

表4 多尺度跟蹤實驗
由于多尺度下的跟蹤實驗計算量龐大,本文僅對場景1的單尺度跟蹤實驗計算速度進行分析,如表5所示。

表5 單尺度跟蹤實驗的計算速度
表5的實驗結果表明,該算法的計算速度與圖像尺寸有關,圖像尺寸越大計算速度越慢。此外,相比單個特征的目標跟蹤計算速度,采用兩個特征共同提取的計算速度下降了34.27%。由此可見,所提出的目標跟蹤算法可以在圖像尺寸較小的情況下,對于單特征提取可以加快目標跟蹤的速度。
本文提出的跟蹤算法主要是為了改善圖像壓縮跟蹤過程中的目標跟蹤性能。利用許多不同的圖像特征集合來跟蹤并通過選擇最佳的跟蹤結果來產生更好的跟蹤性能。采用Bhattacharyya系數來選擇跟蹤結果,有效地克服了諸如遮擋、形變或類似背景的影響。在衡量性能的三個度量中可以看到顯著的改進。實驗結果表明,相比單個特征提取,兩個體征共同提取的中心位置誤差將減小,邊界框重疊率和成功率均有所提升。此外,當圖像尺寸較小時,對于具有單個特征的目標能夠實現實時跟蹤計算。