許 敬,張 合,王曉鋒
(南京理工大學智能彈藥技術國防重點學科實驗室,江蘇 南京 210094)
現代武器系統正朝著高抗干擾性和精確打擊技術方向發展,為獲取及利用更多的目標和環境信息,成像探測已經成為當代軍事技術的研究熱點,成像探測獲取的圖像序列中的運動目標的檢測、識別和跟蹤等問題是研究的重點內容。
針對圖像序列,運動目標的檢測方法主要有背景減法[1]、幀間差分法[2]和光流法[3]。背景減法是利用當前幀圖像與背景圖像的差分來檢測運動區域。背景減法能夠得到比較精確的運動目標區域,但是各種背景模型均對光照變化和外部條件造成的場景變化等特別敏感,在非受控環境下需要加入背景圖像更新機制,且不適用于背景灰度變化很大的情況[4-5]。幀間差分法是最簡單的背景估計方法,利用序列圖像中相鄰幀的像素灰度值的差分的閾值化分割來提取運動區域[6]。此方法的最大特點是速度快,適用于實時性要求較高的應用場合,且對環境整體光照變換不敏感,但當運動物體在成像平面有重疊時不能得到所檢測目標的完整信息。光流法是利用運動目標隨時間變化的光流特性進行運動檢測,它不需要預先知道任何背景的信息,但計算復雜,且抗噪性能差。
針對圖像序列中運動目標的檢測和分割問題,研究人員在上述三種基本算法的基礎上進行改進或通過與其他算法的融合達到更好的效果。薛麗霞[5]等人提出一種基于幀間差分的自適應運動目標檢測算法,利用直方圖統計圖像序列中相應像素點處最大概率灰度的方法提取出連續視頻的背景圖像,該算法能夠較好地提取背景圖像,但在背景場景發生變化時,不能夠及時更新背景。Russo[7]等人提出了兩種基于光流法的運動目標檢測算法,但是只能檢測出運動目標的大致區域,不能進行目標的精確定位。李平岐[8]等人提出了一種基于LK光流柱狀圖和Canny邊緣檢測相融合的方法,雖然該方法能夠得到目標完整的邊緣信息,并計算出目標的形心,但僅僅利用LK光流柱狀圖完成對運動目標的檢測和分割在目標背景較為復雜的情況下,會造成大量的虛假目標,增加了假陽性的發生概率。Antonio[9]等人提出了一種結合閾值分割和光流估計相結合的運動目標檢測算法,該算法分別使用閾值分割和光流估計進行目標的提取,對結果圖像進行相與計算,提高對目標檢測的準確度。但是在亮度閾值分割和光流估計中大量使用了經驗值。
針對上述問題,本文提出了基于特征點和區域生長的運動目標圖像分割方法。
在基于特征的圖像序列中關鍵的步驟是如何選擇特征點。盡管已經存在很多目標分割和跟蹤方法,但是選擇好的特征仍舊是一件困難的事情。本文采用 KLT[10-11]角點檢測方法進行運動目標中特征點的提取。
KLT角點檢測算法是一種非常適用于圖像序列的角點檢測方法,源于LK[12]光流法,它利用連續兩幀中兩個固定大小的特征窗口,通過窗口的灰度差的平方和作為匹配的度量,并計算窗口內的特征,來判斷其是否為角點。
對灰度圖像,t+τ時刻的圖像J可以通過將時間t的圖像I中的每個點進行適當的移動來得到表達式為:

定義J(x)=I(x,y,t+τ),I(x-d)=I(x-ξ,y-η,t)。當時間變量t很小時,局部圖像模型為:

式(2)中,n(x)為時間τ內由于光照條件變化等因素產生的噪聲。
將n(x)平方并在窗口W 上積分,得到窗口的SSD,這里用殘差ε表示:

式(3)中,W 是給定的特征窗口,w是加權函數。最簡單的情況,w=1。另外,w也可以是類高斯函數用來強調窗口的中央區域。
當d為一個和x比起來可忽略的小量時,將J(x+d)泰勒展開,并去除高次項,得到:

將式(5)代入式(4)得:

式(5)中,h=I(x)-J(x),g= (Ix,Iy)T。
為了最小化ε,位移矢量d對式(5)求導,并置結果為0,得到:

式(6)中,

對于每兩幀圖像可求出特征窗口的位移d。
在KLT算法中,并不是所有包含紋理信息的特征窗口都適合跟蹤。為了評價窗口的好壞,計算2×2系數矩陣G的特征值。兩個小的特征值是指在一個窗口內亮度大致不變。一個大特征值和一個小特征值對應著單向模式,即指窗口橫跨邊界。兩個大的特征值可以代表角點、椒鹽和胡椒紋理,或其它模式,能夠可靠跟蹤。設G的兩個特征值λ1和λ2,當式(7)滿足時,接受該窗口作為跟蹤窗口,即可靠的角點特征。

式(7)中,λ為預定義閾值。
本文提出的基于特征提取和區域生長的復雜場景中運動目標的分割方法的實現分為3個步驟,整個方法的流程如圖1所示。

圖1 運動目標分割算法Fig.1 Moving target segmentation algorithm
首先在視頻中提取基于時間順序的圖像序列,為了能夠較好地尋找適于分割的運動目標的特征點,本文不直接對圖像序列中的幀進行特征點的檢測,而是先計算差分圖像,得到大概的運動目標區域,然后再尋找特征點,這樣得到的特征更加可靠。對特征點進行非最大值抑制,減少特征點的數量,從而降低了后面步驟的計算復雜性。對好的特征點進行區域生長,并對得到的連通區域進行后處理,從而分割出完整的運動目標。下面對這3個步驟進行詳細的介紹。
幀間差分法是最為簡單和快速的運動區域的提取方法,但是對于運動目標在幀序列中有重疊時不能完整地提取目標,并且在差分圖像中含有較多的噪聲干擾。因此在本文中,在計算得到連續兩幀圖像的絕對差值圖像后,設定閾值ε,去除小于該閾值的差異像素值。
設相鄰兩幀圖像為ft(x,y)和ft-1(x,y),它們的絕對差分圖像g(x,y)的表達式為:

即使兩幀圖像取自同一場景的極小的時間間隔,但是由于光照的變化以及微風的吹動等因素的影響,兩幀圖像的相應像素之間除了由運動目標引起的像素值的變化外,還有大量的噪聲所引起的像素灰度值的變化。設定閾值ε,在絕對差分圖像g(x,y)中若像素值小于ε,則置為0,即:

閾值ε的選取依賴于所拍攝的場景,一般取值可設置為10~30,若ε太小,則不能很好地濾除噪聲;ε太大,則容易丟失目標細節。
對差分圖像,按照式(6)和式(7)進行計算,并選擇合適的λ,得到可靠的特征點。雖然這樣計算出來的特征點適于可靠地跟蹤運動目標,但是由于特征點的數量直接決定著后面算法的計算復雜性,為了提高分割速度,必須嚴格控制特征點的數量,可通過一定的準則評價特征點的篩選。
為此,本文采用一種自適應非最大值抑制[13](non-maximal suppression,ANMS)策略來選擇出一定數量的特征點。感興趣的點由鄰域中的像素點的灰度值得到抑制,它必須是半徑為r的鄰域內最大值,而且排除靠近圖像邊界的點。初始化r=0,并逐漸增大r直到感興趣的特征點的限制數量N。在實際的運算中,可通過在特征點的鄰域中進行像素的灰度值的升序排列,判斷該特征點的灰度值是否為該鄰域內的最大值,若是,則接受該點為好的特征點,否則丟棄該特征點。
把KLT角點檢測和非最大值抑制共同作用后保留下來的特征點作為原始的種子點,把種子點的坐標映射到差分圖像g(x,y)中,進行區域生長。
區域生長[14]是根據預先定義的生長準則把像素或子區域集合成較大區域的處理方法。它由一組“種子”點開始,將與種子性質相似(諸如灰度級或顏色的特定方位)的相鄰像素附加到生長區域的每個種子上。
區域生長的步驟:
1)種子點的選取KLT角點檢測和非最大值抑制共同作用結果的特征點作為種子點。
2)生長準則:定義一個全局閾值,若像素和種子之間的灰度差的絕對值小于或等于該閾值,則認為該像素類似于種子點。并定義區域生長的連通性為8連接。
3)終止準則:通過第2條中生長準則限定的同時也限定了終止準則,灰度差大于閾值的像素點拒絕進入生長區域。
為了驗證算法的優劣,本文通過拍攝一系列的圖像序列并對其中的運動目標進行分割。圖2為拍攝的汽車行駛的圖像序列中的132~134幀。背景中含有大量的樹木,在拍攝的過程中,由于微風的擾動以及光線的變化等干擾會產生大量的噪聲。

圖2 汽車行駛圖像序列Fig.2 Moving car image sequence
圖3為中分別為133幀和132幀的差值圖像和134幀和133幀的差值圖像。圖4是對圖3中的圖像序列直接采用KLT角點檢測方法得到的角點,其中“+”表示角點即特征點。這些特征角點的密度較大,若直接利用這些角點進行區域生長,會導致大量重疊的區域,不但造成計算量的增大和計算成本的浪費,而且得不到所期望的區域分割效果。

圖3 差值圖像Fig.3 Difference image

圖4 KLT角點檢測及區域生長結果Fig.4 KLT corner detection and region growing
圖5左圖為對圖4中左圖進行自適應非最大值抑制的結果。右圖為對特征點進行區域生長得到的區域分割結果。
從圖3和圖4中可以清楚地看出,通過對圖像序列中的相鄰幀進行差值圖像,然后再進行特征點的檢測,可以較為準確地對運動目標進行定位。對比圖5和圖4可看出,通過非最大值抑制方法可有效地減少特征點的數量,從而能夠大大地減少區域生長過程中的計算量。

圖5 KLT+ANMS角點檢測及區域生長結果Fig.5 KLT+ANMS corner detection and region growing
本文提出了一種基于特征點和區域生長目標分割方法,通過相鄰圖像幀的絕對值差分圖像得到運動目標的大致區域,利用KLT角點檢測方法提取差值圖像中的特征點,采用非最大值抑制對特征點的優劣性進行評估,對好的特征點進行區域生長,從而分割出完整的運動目標。通過對復雜背景中的行駛汽車圖像序列進行實驗仿真,結果表明該方法能夠對復雜圖像序列中的運動目標進行準確定位,得到較好的目標分割結果,并且計算量小,具有較高的魯棒性。文中采用KLT方法進行特征點的檢測,較為適用于下一步的目標的識別或跟蹤處理。
[1]Piccardi M.Background subtraction techniques:a review[C]//Systems,Man,Cybernetics.Sydney,Australia:IEEE Press,2004:3 099-3 104.
[2]Alard C,Robert H Lupton.A method for optimal image subtraction[J].The Astrophysical Journal,1998,4(503):325-331.
[3]Siddhartha Bhattacharyya,Ujjwal Maulik,Paramartha Dutta.High-speed target tracking by fuzzy hostility-induced segmentation of optical flow field[J].Applied Soft Computing,2009,9(1):126-134.
[4]李毅,孫正興,遠博,等.一種改進的幀差和背景減相結合的運動檢測方法[J].中國圖像圖形學報,2009,14(6):1 163-1 168.LI Yi,SUN Zhengxing,YUAN Bo,et al.An improved method for motion detection by frame difference and background subtraction[J].Journal of Image and Graphics,2009,14(6):1 163-1 168.
[5]薛麗霞,羅艷麗,王佐成.基于幀間差分的自適應運動目標檢測方法[J].計算機應用研究,2011,4(28):1 551-1 553.XUE Lixia,LUO Yanli,WANG Zuocheng.Detection algorithm of adaptive moving objects based on frame difference method[J].Application Research of Computers,2011,4(28):1 551-1 553.
[6]陳邦忠,王秀壇,涂建平,等.紅外圖象序列的運動目標檢測[J].探測與控制學報,2002,9(24):11-14.CHENG Bangzhong,WANG Xiutan,TU Jianping,et al.Moving target detection from infrared image sequences[J].Journal of Detection & Control,2002,9(24):11-14.
[7]RUSSO P,MARKANDEY V,BUI T,et al.Optical flow techniques for moving target detection[J].SPIE Press,1990,1(383):62-71.
[8]李平岐,陳萬春,邢曉嵐.復雜背景下運動目標的檢測與跟蹤[J].紅外與激光工程,2007,36(9):182-186.LI Pingqi,CHEN Wanchun,XING Xiaolan.Detection and tracking of moving object in complex background[J].Infrared and Laser Engineering,2007,36(9):182-186.
[9]Antonio Fernández-Caballero,JoséCarlos Castilloa,Javier Martínez-Cantos.Optical flow or image subtraction in human detection from infrared camera on mobile robot[J].Robotics and Autonomous Systems,2010,12(58):1 273-1 281.
[10]Tomasi C,Kanade T.Detection and tracking of Point features[R].US:Carnegie Mellon University:1991.
[11]Shi J,Tomasi C.Good features to track[C]//Proeeedings of IEEE computer society conference on computer vision and pattern recognition.US:IEEE,1994:593-600.
[12]Lucas B,Kanade T.An iterative image registration technique with an application to stereo vision[C]//Proceedings of the 7th International Joint Conference on Artificial Intelligence.US:IJCAI,1981:674-679.
[13]Matthew Brown,Richard Szeliski,Simon Winder.Multiimage matching using multi-scale oriented patches[C]//Computer Vision and Pattern Recognition.US:IEEE,2005:510–517.
[14]Rafael C Gonzalez,Richard E Woods.Digital image processing third edition[M].US:Publishing house of electronics industry,2010.