摘要:提出了一種基于B-樣條曲線Snake模型的新的人體運動跟蹤方法。Snake算法是通過最小能量來逼近物體的輪廓。采用改進的B-樣條曲線Snake模型,每一幀圖像中的目標輪廓用三次樣條曲線準確地表示,使Snake模型更加穩定和具有較快的收斂速度。計算相鄰幀之間的差分圖像,通過利用一種基于統計關系雙閾值分割方法,有效地檢測出圖像中運動人體,初步確定目標在每幀圖像中的粗略位置。把從上一幀圖像中得到的目標輪廓置于該位置,作為B-樣條曲線Snake算法中輪廓提取的初始值,經運算后可得到對人體目標的準確分割與跟蹤。
關鍵詞:Snake算法; B-樣條曲線; 目標提取; 人體跟蹤
中圖分類號:TP391文獻標志碼:A
文章編號:1001-3695(2008)02-0504-03
0引言
序列圖像中運動人體目標的檢測和跟蹤是計算機視覺研究的重要內容。它在航空航天#65380;智能機器人#65380;自動監控系統#65380;醫學圖像分析以及視頻壓縮等領域都具有廣泛的應用。
對圖像的檢測和跟蹤主要的方法有差圖像法[7]。它是利用當前圖像與背景圖像的差分來檢測和跟蹤運動區域的一種技術。但是此方法對于動態場景的變化特別敏感。時間差分法[7]是在連續兩幀或三幀圖像間采用基于像素的時間差分并閾值化來提取圖像中的運動區域。其方法一般不能完全提取出所有相關的特征像素點,而且在運動實體內部容易產生空洞現象。光流法[1]是采用了基于運動目標隨時間變化的光流特性,能有效地提取和跟蹤運動目標。但是其算法過于復雜,且抗噪聲差,沒有特別的硬件裝置則不能被應用于全幀視頻流的實時處理。由于人體的非剛性運動#65380;目標之間相互遮擋與自遮擋#65380;背景圖像的動態變化等因素的影響,使得人體檢測和跟蹤成為一項極具挑戰性的課題。國內外學者也對此進行了大量的研究,并提出了許多有效的方法,如光流法[1]#65380;Hausdorff法[2]#65380;跟蹤特征點法[4]以及通過使用廣義哈夫變換[5]#65380;Snake法[6]#65380;邊緣連接法[7]等來獲取目標的輪廓。
本文提出了一種基于B-樣條曲線Snake模型的人體運動跟蹤方法。Snake算法是通過最小能量來逼近物體的輪廓。本文采用改進的B-樣條曲線Snake模型,每一幀圖像中的目標輪廓用三次樣條曲線準確地表示,使Snake模型更加穩定和具有較快的收斂速度。關于Snake算法中的初始輪廓,通過計算相鄰幀之間的差分圖像,利用一種基于統計關系雙閾值分割方法,有效地檢測出圖像中運動人體,初步確定目標在每幀圖像中的粗略位置。把從上一幀圖像中得到的目標輪廓置于該位置,作為B-樣條曲線Snake算法中輪廓提取的初始值,經運算后可得到對人體目標的準確分割與跟蹤。
1B-樣條 Snake模型
1.1Snake模型
Snake模型的原理是首先設定對于擬合目標的一個待選曲線集,定義能量函數與待選集中的每一條曲線相關聯。能量函數的設計原則就是有利屬性要能導致能量縮小。有利屬性包括曲線連續#65380;平滑#65380;曲線與高梯度區域接近以及其他一些具體的先驗知識。這樣,輪廓在取值范圍內移動時,就能在能量函數的指導下收斂到局部邊界,且能保持曲線的連續和平滑[6]。
Snake模型可以看做是在代表曲線本身的內力和代表圖像數據的外力約束力共同作用下移動的變形輪廓線。作用在Snake模型上的力,依據輪廓所在的位置及其形狀決定如何在空間局部的變化。內力起平滑約束作用,外力則引導Snake模型向圖像特征移動。因此,Snake模型最小化的能量泛函就是內力和外部約束力加權組合。參數化的Snake曲線被定義為V(s)=(x(s),y(s))。其中:x(s)和y(s)是輪廓的坐標值;弧長參數s∈[0,1];Snake模型的總能量函數可以表示為
1.2基于三次B-樣條的Snake模型
傳統的Snake模型,其輪廓線是由控制點組成的多邊形,在曲率變化大的邊界上就需要更多控制點才能得到較好的效果。而B-樣條曲線位于由控制點組成的多邊形內,其基函數是局部支撐的。一個控制點的改變只影響曲線的局部形狀,可以任意地控制B-樣條基函數在控制點處的連續性。所以,為了使Snake模型更加穩定和具有較快的收斂速度,將B-樣條曲線和Snake模型相結合,形成了新的B-樣條 Snake模型。
一個三次的B-樣條曲線是個光滑的曲線而且具有連續的二階導。因此用三次B-樣條來表示輪廓曲線時就不需要計算內部能量,減少了計算的復雜度。
2目標跟蹤
基于B-樣條 Snake模型,本文提出了一種新的人體運動跟蹤方法,采用改進的B-樣條曲線Snake模型,每一幀圖像中的目標輪廓用三次樣條曲線準確地表示,使Snake模型更加穩定和具有較快的收斂速度。計算相鄰幀之間的差分圖像,通過利用一種基于統計關系雙閾值分割方法,有效地檢測出圖像中運動人體,初步確定目標在每幀圖像中的粗略位置。把從上一幀圖像中得到的目標輪廓置于該位置,作為B-樣條曲線Snake算法中輪廓提取的初始值。經運算后可得到對人體目標的準確分割與跟蹤。其主要過程如圖1所示。
2.1初始化輪廓
當圖像存在空間梯度時,物體的運動可以從圖像序列的時間梯度上體現出來。因此,對具有一定時間間隔的兩幀圖像進行差分,根據差分輸出可以確定目標的運動范圍。差分輸出來源于目標物體的運動。設圖像序列中的圖像為I0,I1,…,In,則差分圖像D為
式中的x和y分別是像點的縱坐標和橫坐標。為了提取出運動目標,必須對差值圖像作閾值分割。即設定一個閾值T,若差值圖像D(x,y)>T,則認為在該像素點處有運動變化;若D(x,y) T=MED+3×1.482 6×MAD(15) 其中:1.482 6為標準正態分布的系數。令雙閾值中的低閾值TL=T,高閾值TH=aTL,a為高低閾值之比,其取值大小由物體在圖像中所占比例決定。用高低兩個閾值分別對差值圖像做二值化操作,得到兩幅二值圖像BWL和BWH。由于低閾值的取值較低,其對應的二值圖像不僅包括完整的運動人體也混雜了大量噪聲;而高閾值對應的二值圖像只包括灰度變化較大的部分,即運動人體,但并不完整。對BWH進行數學形態學中的膨脹操作,再將其結果與BWL相與,得到更準確的差分圖像Dt,這樣即可分割出完整的運動人體,而且將BWL中原有的噪聲去除。 邊緣信息是區分不同物體的重要依據,它一般用圖像的空間梯度來表示。梯度的求法有很多種,如Sobel算子#65380;Prewitt算子和Log算子[6]等。為了得到單像素寬度的精確邊緣,采用了Canny算子[9],得到梯度圖像e。把梯度圖像e和差分圖像Dt的與定義為運動目標的邊緣圖像E: E=Dt e(16) 在當前幀獲取了運動物體的部分邊緣后,求得目標的粗略位置,然后把從上一幀獲取的目標輪廓置于運動目標的粗略位置上,將其作為輪廓提取的初始值。 2.2算法實現 根據前面獲得的輪廓初始值,進行人體目標的跟蹤。具體算法描述如下: a)當前幀與前一幀相比,計算每一個像素塊中不同像素的數量。 b)如果不同像素的數量超過某一個閾值,則進入步驟c);否則退出。 c)將差分圖像進行二值化,并將其與梯度圖像相與,得到初始輪廓v。 3實驗 為驗證本文算法的有效性,選擇一組人頭圖像進行了目標輪廓跟蹤實驗。在試驗中,用本文算法跟蹤一個運動人的頭部形狀。首先從視頻圖像中獲得圖像序列,經過邊緣檢測和圖像差分,得到初始輪廓;然后用式(13)的三次樣條插值形成一條閉合的初始輪廓曲線;再經過新的三次B-樣條Snake算法就可以準確地跟蹤到人的頭部形狀。圖2給出了在某幾幀圖像中目標分割的最終結果。可以看到,在每一幀圖像中都獲得了對目標進行較準確的分割結果。 4結束語 本文提出了一種基于三次B-樣條Snake的人體運動跟蹤方法。Snake算法是通過最小能量來逼近物體的輪廓。本文采用改進的B-樣條曲線Snake模型,每一幀圖像中的目標輪廓用三次樣條曲線準確地表示,使Snake模型更加穩定和具有較快的收斂速度。通過計算相鄰幀之間的差分圖像,利用一種基于統計關系雙閾值分割方法,有效地檢測出圖像中運動人體,初步確定目標在每幀圖像中的粗略位置。把從上一幀圖像中得到的目標輪廓置于該位置,作為B-樣條曲線Snake算法中輪廓提取的初始值,經運算后可得到對人體目標的準確分割與跟蹤。該方法具有實時性好#65380;準確性高#65380;適用范圍廣等特點。為運動目標的自動檢測與跟蹤提供了理論與技術基礎。 參考文獻: [1]HORN B K P, SCHUNCK B G. Determining optical flow[J]. Artificial Intelligence, 1981,17:185-203. [2]HUTTENLOCHER D P. Comparing images using the Hausdorff distance[J]. IEEE Trans on Pattern Anal Machine Intel, 1993,15(9):850-863. [3]TEKALP A M, 崔之祜.數字視頻處理[M].北京:電子工業出版社,1998:56-79. [4]YAO Y S, CHLLAPPA R. Tracking a dynamic set of feature points[J]. IEEE Trans on Image Process, 1995,18:4-10. [5]SON C F. Efficient pose clustering using a randomized algorithm[J]. Compute Vision, 1997,23(2):131-147. [6]KASS M, WITKIN A, TERZOPOULOS D. Snakes active contour models[J]. Compute Vision, 1988,13:321-331. [7]GONZALEZ R C, WOODS R E. Digital image processing[M].北京:電子工業出版社, 2002:52-78. [8]FABRICE B, CHIBELUSHI C C, LOW A A. Robust facia feature tracking[C]//Proc of the 11th British Machine Vision Conference. Bristol:[s.n.], 2000:232-241. [9]CANNY J. A computational approach to edge detection[J]. IEEE Trans on Pattern Anal Machine Intell, 1986,8(6):679-698. “本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文”