黃 玉,殷萇茗,周書仁
(長沙理工大學計算機與通信工程學院,湖南 長沙410004)
運動目標檢測,即檢測當前圖像和背景圖像中對應像素點的差異,選擇合適閾值判定該像素為前景運動目標。它是運動分析、視頻監控的關鍵步驟,也是最基礎和底層的步驟,其檢測結果的好壞直接關系到后續分析處理的優劣和實用性。目前,常用的運動目標檢測算法主要有幀差法[1]、光流法、背景差分法。背景建模是背景差分法的核心環節。
Stauffer C 與Grimson W[2]提出了混合高斯MoG(Mixture of Gaussians)背景模型方法,利用在線估計更新模型,能較好地處理光照變化和背景混亂運動的干擾等產生的影響,但它所耗費的龐大計算量限制了這種模型在實時性很強的系統中的應用。文獻[3]用實驗證明該經典MoG 方法對噪聲情況的處理效果很一般。Kaewtrakulpong P等[4]對MoG 方法進行改進,使用兩個階段的學習方案對參數進行更新,但由于檢測階段的更新速度較小且恒定,模型仍不能很好地適應背景變化。Zivkovic Z[5]提出了一種自適應選擇高斯成分個數的方法對MoG 進行改進,較大地提高了計算時間和性能,但其對收斂速度沒有明顯改進。Lee D S[6]引入另一變量對學習速率進行計算,提高了收斂速度和精確率,但容易將運動較慢、面積較大的目標學習為背景,導致目標檢測不完整。王永忠等[7]提出了一種新的混合高斯模型高斯成分個數的自適應選擇策略,能夠加快建模速度,實現實時效果。
本文對MoG 進行改進,提出一種基于YCbCr的自適應混合高斯模型背景建模方法:將建模顏色空間從RGB轉換到YCbCr,采用自適應選擇策略來確定混合高斯模型的高斯成分個數,按照新的關鍵字變量的值對高斯成分進行排序。將提出的建模方法應用于運動目標檢測,實驗結果表明,相較于MoG 方法,本文提出的方法應用于運動目標檢測中能取得更準確的檢測結果,能更好地處理噪聲的影響,耗時更少。
文獻[2]提出的混合高斯背景模型的基本思想是,用K(一般取3~5)個高斯分布的混合對每個像素建模,并對高斯分布的均值和方差進行在線更新。在前景檢測過程中,如果圖像像素點與被選為背景模型的高斯成分相匹配,則該像素點歸類為背景點,相反地,則被認為是前景點。t時刻視頻序列中第i個像素點Xi,t的概率可以用K個高斯分布表示:

其中,η(Xi,t,μi,k,t,Σi,k,t)是高斯分布函數,μi,k,t為均值,Σi,k,t為協方差矩陣,ωi,k,t為權重。
當有新的圖像幀到來時,將其中的每個像素與該像素處已存在的K個高斯分布逐一匹配檢驗,若滿足:

則說明當前像素點Xt與混合高斯模型中第k個高斯分布相匹配,反之則不匹配。其中,λ為一常量,通常取2.5~3.5,σk,t為標準差。對匹配的第k個高斯分布的參數按下式更新:

其中,α為自定義的學習速率(通常取0.005),ρ為參數學習速率。匹配時,Mk,t+1取1,否則取0。不匹配的高斯分布的權值更新依舊為式(3)所示,但其均值和方差不變。
若構建該像素的所有高斯分布中不存在與Xt相匹配的高斯分布,則將Xt作為均值賦給權重最小的高斯分布,并對該高斯分布重新賦以較小的權重和較大的方差。
按照ωk,t/σk,t從大到 小對K個 高 斯 分 布 進 行排序,滿足:

的前Bt個分布選為背景模型,T為權重閾值。將每個像素值與背景模型進行匹配測試,若匹配,則該像素點為背景點,否則該像素點為前景點。
YCbCr空間有極其穩定和獨立的亮度通道,最適合用于處理噪聲。改進的混合高斯模型高斯成分個數的自適應選擇策略和對前景檢測中排序關鍵字的計算的改進能夠提升效率,改善算法實時性。初始化模型時,一般用采集到的第一幀圖像中各像素點的彩色向量值初始化構建該像素的K個高斯分布的均值,并對每個高斯分布指定較大的標準差σinit(通常為30)和較小的權重winit(0.05)。因為,初始化的高斯模型是一個并不準確的模型,需要不停地縮小它的范圍,更新它的參數值,從而得到最可能的高斯模型。將方差設置大些,則能將盡可能多的像素包含到一個模型之中,從而獲得最有可能的模型。
MoG 中采用RGB 顏色空間進行背景建模,RGB顏色空間的分量與亮度密切相關,只要亮度改變,三個分量都會隨之改變,且三個分量不是獨立的。所以,RGB顏色空間適合于顯示系統,卻并不適合于圖像處理。因此,很多作者使用其他顏色空間建模,以獲得更魯棒的效果,類似的有:文獻[8]使用YUV 顏色空間,文獻[9]使用HSV 顏色空間等。
本文方法采用YCbCr顏色空間進行背景建模。在YCbCr顏色空間中,Y分量表示圖像的亮度信息,Cb和Cr分量分別表示藍色和紅色分量。亮度信息和色度信息相互獨立,Cb和Cr分量不受亮度的影響。文獻[10]指出YCbCr顏色空間是最適合用于分割算法的顏色空間,它對噪聲最不敏感,因為它具有強穩定性和更獨立的顏色通道。因此,選擇YCbCr顏色空間作為運動目標顏色特征,能更好地處理噪聲。
采用公式(8)將顏色空間由RGB 轉換為YCbCr:

在MoG 中,混合高斯模型高斯成分個數K是一個固定的常量,每個像素擁有相同數目的高斯成分。但是,在背景場景中,大部分像素的模態是不一樣的。文獻[6]通過實驗得出結論:動態區域建模需要使用更多的高斯成分,即:相同的室外場景,包含了樹枝和灌木隨風晃動的像素的高斯成分數目比其他不是表示這些晃動的像素的高斯成分數目多。所以,設置一個固定大小的高斯成分個數來表示場景背景是不合理的,不能確切地描述實際場景狀態。若每個像素使用自適應的高斯成分個數,就會減少計算量,加快建模速度,從而提升檢測速度。
文獻[7]中提出的自適應策略采用的原理是:隨著參數的不斷更新,混合高斯模型中長時間與場景匹配的高斯成分的權重會越來越大,不匹配的高斯成分的權重會越來越小。在選擇背景模型時,由于會選擇權重與標準差之比較大的幾個高斯成分作為表示背景的分布,所以權重逐漸變小的高斯成分會逐漸成為前景模型。當某個高斯分布的權重小于初始權值,且該高斯成分的權重與方差之比小于初始化時的權重與方差之比時,該高斯成分將會被排在新的初始化的高斯成分之后,將這樣的高斯成分稱為過期高斯成分,在背景模型更新時刪除它們。
此自適應策略方法可以顯著地提高背景建模的速度,有效地節約運算資源,但是它仍然有缺陷。當某一高斯分布的權值和權值與方差的比都小于其對應的初始值時,該高斯分布會被刪除,但有可能下一幀圖像該高斯分布又被增加進來,這樣會影響正常的背景建模,降低系統的魯棒性。所以,本文對此自適應策略進行改進,修改其高斯分布丟棄制度,對過期高斯分布的判別公式如下所示:


其中,cIE為某一高斯分布的最新匹配幀距當前幀的幀數;N為預先設定的閾值(通常N≥1),表示該高斯分布在連續N幀中都沒有匹配的像素點。
改進的自適應策略的步驟如下:
步驟1 初始化時,給場景中每個像素的混合高斯模型都只設置一個高斯成分,將每個像素點的所有高斯成分的cIE初始化為0。
步驟2 增加新的高斯成分:隨著場景的變化,當某個像素的混合高斯模型不能與當前像素匹配時,為該像素的所有高斯成分的cIE加1。如果該像素混合高斯模型中的高斯成分個數沒有達到設定的最大值Kmax(一般設置為3),則自動地增加一個以當前像素值為均值的初始高斯成分;否則用以當前像素值為均值的新的高斯成分代替該像素混合高斯模型中排在最后的高斯成分。
步驟3 刪除過期的高斯成分:在每次模型更新完成后,根據式(9)判斷每個像素混合高斯模型中的最后一個高斯成分是否過期,如果過期則刪除。
利用混合高斯模型進行前景檢測包括三個階段:(1)排序:原始MoG 中,一般設置排序關鍵字變量為sortkey,令它等于ωk,t/σk,t,根據它對K個分布進行排序;(2)通過背景閾值T標記高斯成分;(3)使用匹配測試將當前像素分類。
由于混合高斯模型中長時間與場景匹配的高斯成分的權重會越來越大,不匹配的高斯成分的權重會越來越小,而權值越大的高斯成分,其為背景模型的概率越大,反之亦然。各高斯成分的方差的大小表示該高斯成分的穩定性程度,方差越小越穩定,反之亦然。所以,本文對前景檢測中的排序方法中的排序關鍵字變量sortkey的值設置如下:

這樣便能在排序之時確保權值大的高斯分布定會被選為背景模型,從而獲得最可能的高斯模型,減少sortkey的計算量,節約計算成本。
為驗證本文方法的性能,實驗在Pentium(R)Dual CPU T3200 2GHz、內存為2GB的PC機上運行,在Windows XP Professional SP3操作系統中VS2010環境下結合OpenCV 編程,采用多個視頻序列[11~13]進行測試,并與經典MoG[2]比較。實驗中所使用的參數為:Kmax=3;ωinit=0.05;σinit=30;α=0.005;T=0.7;λ=3.5;N=5。
一般室內環境的背景相對比較簡單和穩定,除燈光照射條件劇烈變化和窗口陽光照射變化影響外,像素值不會發生很大的波動,所以室內背景的獲取相對較容易。
此處室內場景測試用了兩個視頻序列。序列1為IPPR Dataset[11]中的data1 序列,長300 幀,圖像大小為320×240像素,包含多個運動目標,目標有交錯及遮蔽現象;序列2為ATON Dataset[12]中的智能屋視頻,長298幀,圖像大小為320×240像素,它是一室內測試視頻,噪聲水平中等,人的運動陰影很難辨別。
圖1顯示了本文方法與MoG 方法對室內場景進行運動目標檢測的比較,其中,測試幀分別為data1序列的第113幀、智能屋視頻中的第108幀,所有檢測結果均未做后處理。從圖1中可以看出,MoG 方法能夠實現目標檢測,但其效果不佳,獲得的運動目標輪廓很稀疏,有許多空洞。相比之下,本文方法能抑制噪聲的影響,更好地將前景與背景分割,獲得更完整的運動目標。
室外場景一般較室內場景復雜許多,很多時候包含了許多其他運動的背景,如樹枝或灌木隨風搖擺。為驗證本文方法對室外場景的良好檢測性能,此處選擇了兩個視頻序列進行實驗。
序列1 為Wallflower Dataset[13]中 的Wavetrees序列,長286幀,圖像大小為160×120像素,包含動態變化的背景;序列2 為IPPR Dataset[11]中的data3序列,長300幀,圖像大小為320×240像素,包含多個運動目標,目標有交錯及遮蔽現象,且傍晚時分環境光線有變化。
圖2顯示MoG 方法與本文方法對室外場景進行檢測的比較。圖中的測試幀分別為Wavetrees序列中的第247幀和data3 序列的第39幀??梢钥闯?,MoG 方法會將搖晃的樹枝誤檢為前景目標,且其檢測出的前景目標有較多空洞;本文方法的檢測結果更準確,更能適應背景的輕微運動,可獲得更清晰完整的前景目標。

Figure 1 Moving targets detection results of indoor scenes圖1 室內場景運動目標檢測結果

Figure 2 Moving targets detection results of outdoor scenes圖2 室外場景運動目標檢測結果
本文方法最大的特點在于提升了背景建模的速度,表1列出了采用本文方法與MoG 方法對四個視頻序列進行運動目標檢測的耗時??梢钥闯?,不論場景的復雜與簡單,不論視頻序列是大還是小,本文方法的耗時都比MoG 方法的少許多。

Table 1 Time-consuming comparison of two kinds of detect methods表1 兩種方法檢測耗時比較 s
本文方法是針對經典MoG 方法以耗時計算為代價獲取可觀的效果而提出來的。實驗結果表明,本文方法顯著提高了建模效率和目標檢測的速度,能夠達到實時要求。同時,本文方法沒有以犧牲檢測效果為代價來獲取速度的提升,除不能很好地處理突然的光照變化和陰影之外,它能夠更好地抑制噪聲和背景中的動態變化的影響,且檢測到的運動目標信息更完整,空洞現象更少。
[1] Meier T,Ngun K N.Video segmentation for content-based coding[J].IEEE Transactions on Circuits and Systems for Video Technology,1999,9(8):1190-1203.
[2] Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]∥Proc of Computer Vision and Pattern Recognition(CVPR),1999:246-252.
[3] Brutzer S,H?ferlin B,Heidemann G.Evaluation of background subtraction techniques for video surveillance[C]∥Proc of Computer Vision and Pattern Recognition(CVPR),2011:1937-1944.
[4] Kaewtrakulpong P,Bowden R.An improved adaptive background mixture model for real-time tracking with shadow detection[C]∥Proc of the 2nd European Workshop on Advanced Video Based Surveillance Systems,2001:1-5.
[5] Zivkovic Z.Improved adaptive Gaussian mixture model for background subtraction[C]∥Proc of International Conference on Pattern Recognition,2004:28-31.
[6] Lee D S.Effective Gaussian mixture learning for video background subtraction[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):827-832.
[7] Wang Yong-zhong,Liang Yan,Pan Quan,et al.Spatiotemporal background modeling based on adaptive mixture of Gaussians[J].ACTA Automatica SINICA,2009,35(4):371-378.(in Chinese)
[8] Fang X,Xiong W,Hu B,et al.A moving object detection algorithm based on color information[C]∥Proc of International Symposium on Instrumentation Science and Technology,2006:384-387.
[9] Sun Y,Li B,Yuan B,et al.Better foreground segmentation for static cameras via new energy form and dynamic graph-cut[C]∥Proc of the 18th International Conference on Pattern Recognition(ICPR 2006),2006:49-52.
[10] Kristensen F,Nilsson P,?wall V.Background segmentation beyond RGB[C]∥Proc of ACCV’06,2006:602-612.
[11] IPPR Dataset[EB/OL].[2013-02-16].http://archer.ee.nctu.edu.tw/contest/.
[12] ATON Dataset[EB/OL].[2013-02-13].http://cvrr.ucsd.edu/aton/shadow/.
[13] Wallflower Dataset[EB/OL].[2013-02-13].http://research.microsoft.com/users/jckrumm/WallFlower/TestImages.htm.
附中文參考文獻:
[7] 王永忠,梁彥,潘泉,等.基于自適應混合高斯模型的時空背景建模[J].自動化學報,2009,35(4):371-378.