摘 要:在運(yùn)動(dòng)目標(biāo)檢測(cè)方法的研究中提出一種基于高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)的改進(jìn)算法。首先利用顏色信息對(duì)背景建立高斯混合模型;其次在模型更新階段,為了模型的自適應(yīng)性和盡量逼近真實(shí)信號(hào)量,在傳統(tǒng)學(xué)習(xí)率基礎(chǔ)上提出一種加權(quán)思想,即對(duì)均值與方差分別給出一個(gè)不同的加權(quán)值。最后應(yīng)用中值濾波及物體空間連通性進(jìn)行后處理。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)高斯混合模型方法相比,改進(jìn)的方法能更加有效地檢測(cè)出運(yùn)動(dòng)目標(biāo),具有較好的魯棒性。
關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測(cè);高斯混合模型;加權(quán)值;魯棒性
中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1004-373X(2010)02-125-03
Improved Moving Object Detection Algorithm Based on Gaussian Mixture Model
CHEN Shiwen,CAI Nian,TANG Xiaoyan
(School of Information Engineering,Guangdong University of Technology,Guangzhou,510006,China)
Abstract:An improved method for detecting moving objects based on Gaussian mixture model for a video monitoring system is proposed in detection research.A Gaussian mixture model is established for the background based on color information.To keep adaptive characteristics and approximation to the real signal,a weighted method is provided based on the traditional learning rate in the model updating step,which gives different weights to the mean value and the variance value correspondingly.A median filter and object spatial connectivity are used to reduce noise.Experimental results indicate that compared with the old method,the proposed method can detect the moving objects more effectively,which is a robust method.
Keywords:moving object detection;Gaussian mixture model;weighted method;robust
0 引 言
目標(biāo)跟蹤是計(jì)算機(jī)視覺的一個(gè)重要研究領(lǐng)域,受到眾多學(xué)者的密切關(guān)注,并應(yīng)用于各個(gè)領(lǐng)域。在固定攝相機(jī)的視頻監(jiān)控系統(tǒng)中,如何從視頻序列中實(shí)時(shí)檢測(cè)出運(yùn)動(dòng)目標(biāo)既是基礎(chǔ),又是關(guān)鍵的一步。目前,運(yùn)動(dòng)目標(biāo)檢測(cè)方法主要有:光流計(jì)算法、幀間差分法、背景消減法等。但是由于背景的復(fù)雜性,如光照變化,背景突變,目標(biāo)與背景相似,運(yùn)動(dòng)目標(biāo)慢等原因,運(yùn)動(dòng)目標(biāo)檢測(cè)仍然是一個(gè)非常值得探討的學(xué)術(shù)問題。
高斯混合模型(Gaussian Mixture Model,GMM)是一種半?yún)?shù)的估計(jì)方法,通過新的學(xué)習(xí)分布代替舊的高斯分布,能很好地表征背景變化[1]。目前,該方法是研究運(yùn)動(dòng)目標(biāo)檢測(cè)的最有效方法之一,已被眾多學(xué)者所認(rèn)可,并提出了多種改進(jìn)方法。文獻(xiàn)[2]結(jié)合圖像的空間深度信息和色彩亮度信息,提出一種改進(jìn)的方法,該方法能較好地檢測(cè)多目標(biāo)的運(yùn)動(dòng),但是不同的目標(biāo)處在同一像素深度時(shí),盡管有不同的色彩信息,也難檢測(cè)出運(yùn)動(dòng)目標(biāo)。文獻(xiàn)[1]在對(duì)背景建立自適應(yīng)高斯混合模型的基礎(chǔ)上,結(jié)合像素梯度信息進(jìn)行校正,較好地解決了光照變化的問題,但模型收斂速度慢,實(shí)時(shí)性較差。文獻(xiàn)[3]采用EM學(xué)習(xí)更新高斯混合模型,通過對(duì)算法的介紹及其分析,得出EM 算法是參數(shù)估計(jì)的一種有效算法,但EM算法要求預(yù)分配大量存儲(chǔ)空間,實(shí)時(shí)性較差。在此,提出一種改進(jìn)的高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法。為了使均值盡量逼近背景信號(hào),同時(shí)保證方差穩(wěn)定性,在自適應(yīng)性的基礎(chǔ)上,提出一種加權(quán)思想,即在模型更新中分別給均值和方差不同的加權(quán)值,以保證均值更新相對(duì)較大的點(diǎn),方差更新相對(duì)較小的點(diǎn)。最后利用中值濾波及像素的連通性抑制噪聲的影響。
1 目標(biāo)檢測(cè)及更新
1.1 高斯混合模型
GMM是一種直觀的概率密度模型,反映了某段時(shí)間內(nèi)圖像運(yùn)動(dòng)的統(tǒng)計(jì)特征。假設(shè)t時(shí)刻圖像的狀態(tài)為It,前n幀的圖像狀態(tài)為It-n,令t時(shí)刻圖像的最近n個(gè)狀態(tài)集為A={It-n,It-(n-1),…,It-1},若用多元K個(gè)高斯混合模型表示最近n個(gè)狀態(tài)的集A概率分布,則t時(shí)刻狀態(tài)的概率為:
P(It|θ)=∑ki=1ωi,tηi(It,μi,tσi,t)(1)
式中:ωi,t為t時(shí)刻第i個(gè)高斯分布的權(quán)值,所有子模型的權(quán)值和等于1;ηi為第i高斯分布的概率密度函數(shù);μi,t為其均值;σi,t為方差;θ=(ωi,t,μi,t,σi,t)是參數(shù)向量集。K 表示混合模型中描述像素色彩特性的高斯分布模型個(gè)數(shù),K 值越大,處理波動(dòng)能力越強(qiáng),但計(jì)算量越大,一般K取3~5。
1.2 模型學(xué)習(xí)及匹配
對(duì)K個(gè)高斯分布進(jìn)行初始化,將最初5幀的亮度值設(shè)置為均值,方差初始化為一個(gè)較大的值,權(quán)值初始化為1/K[1]。然后,將K個(gè)高斯分布按ω/σ從大到小排序,并依次與當(dāng)前像素點(diǎn)匹配,若第j個(gè)模型滿足下式:
(It-μj,t)<2.5σ2j,t(2)
則認(rèn)為當(dāng)前像素與第j個(gè)模型匹配成功,并停止與后續(xù)模型的匹配[1]。
模型更新的目的是適應(yīng)背景的變化,維持穩(wěn)定的背景。根據(jù)當(dāng)前像素與其K個(gè)高斯分布相匹配的結(jié)果對(duì)模型進(jìn)行更新。對(duì)于未匹配的模型,其均值和方差應(yīng)保持不變,而匹配成功的第j個(gè)模型按下列式子更新:
μt=(1-α)μt-1+αIt(3)
σ2t=(1-α)σ2t-1+α(μt-It)T(μt-It)(4)
α=βη(i,μ,σ)(5)
式中:α為學(xué)習(xí)率,它反應(yīng)了當(dāng)前像素融入背景模型的速率[1]。學(xué)習(xí)率的選擇是關(guān)鍵。不同的學(xué)習(xí)率影響模型的效果,如果學(xué)習(xí)率選擇得好,模型收斂速度快,而且不會(huì)導(dǎo)致局部最小值;如果選擇得不好,則收斂慢,而且會(huì)出現(xiàn)局部最小值[4]。文獻(xiàn)[4]對(duì)均值和方差采用不同的學(xué)習(xí)率,收到較好的效果。K個(gè)高斯分布的權(quán)值調(diào)整用下式表示:
ωn,t=(1-α)ωn,t-1+αMn,t, n∈[1,K](6)
式中:n=j表示當(dāng)前觀察值與第j個(gè)高斯模型匹配。此時(shí)Mn,t=1,其他Mn,t=0。
1.3 目標(biāo)分割決策
對(duì)每個(gè)像素建立高斯混合模型,相對(duì)來說背景在最近一段時(shí)間內(nèi)出現(xiàn)的頻率比較高,權(quán)重較大,而且是顏色更集中;前景出現(xiàn)時(shí)間較短,權(quán)重較小。先將K個(gè)高斯分布按ω/σ從大到小排列,再根據(jù)式(7),前面b個(gè)模型被選擇為背景,其他模型被視為前景。
B=argminb(∑bk=1ωk>T)(7)
式中:T是常數(shù),代表在整個(gè)視頻中背景出現(xiàn)的概率[1]。
1.4 模型更新的改進(jìn)
由于背景的復(fù)雜性,如光照變化,背景漸變,運(yùn)動(dòng)目標(biāo)過慢等,傳統(tǒng)的高斯模型分割目標(biāo)效果不夠理想。文獻(xiàn)[5]提出在線跟蹤方法,較好地解決了背景漸變的問題,但是對(duì)背景突變,特別是是短時(shí)間的突變無(wú)法處理。文獻(xiàn)[1]在高斯混合模型的基礎(chǔ)上結(jié)合像素梯度信息,模型適應(yīng)了光照變化,但沒有考慮收斂性和實(shí)時(shí)性。文獻(xiàn)[6]設(shè)計(jì)了基于高斯混合模型的固定視頻監(jiān)控系統(tǒng),系統(tǒng)的穩(wěn)定性和實(shí)時(shí)性不夠理想。高斯模型的均值和方差決定著高斯模型,對(duì)均值和方差采用不同的學(xué)習(xí)機(jī)制將直接影響到模型的穩(wěn)定性、精確性和收斂性[4]。更新各個(gè)分布的權(quán)重時(shí),如果更新過快會(huì)降低對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)的靈敏度,更新過慢會(huì)使本來靜止的目標(biāo)發(fā)生運(yùn)動(dòng)時(shí)產(chǎn)生拖影。文獻(xiàn)[7]提出學(xué)習(xí)率公式:α=β/ωi,t,通過該學(xué)習(xí)率,均值收斂快且準(zhǔn),但用于方差學(xué)習(xí)卻不夠理想。文獻(xiàn)[4]通過大量實(shí)驗(yàn)發(fā)現(xiàn),均值和方差采用不同的學(xué)習(xí)率有利于模型的穩(wěn)定性和收斂性,學(xué)習(xí)率αμ=0.01;當(dāng)1/t>0.001時(shí),ασ=1/t;當(dāng)1/t≤0.001時(shí),ασ=0.001。這種判決條件使方差收斂較快,但會(huì)陷入偏小。文獻(xiàn)[8]通過自適應(yīng)的數(shù)學(xué)模型減少高斯混合模型的計(jì)算量,能較好地檢測(cè)出運(yùn)動(dòng)目標(biāo)運(yùn)動(dòng)過慢的情況,但沒有考慮光照變化,模型收斂慢。
如果均值與方差采用同一學(xué)習(xí)率,β取較小時(shí),因?yàn)棣?i,μ,σ)使學(xué)習(xí)率比較小,所以在式(3)條件下,均值會(huì)偏離真實(shí)信號(hào)量;在式(4)條件下,方差保持了一定的穩(wěn)定性。如果β取大一點(diǎn)值,在式(4)條件下,方差容易陷入偏小值;在式(2)條件下,一些大樣本被識(shí)為不匹配。本文提出一種加權(quán)思想,即在模型更新初始階段,均值和方差都采用同一個(gè)較大的學(xué)習(xí)率,背景的模型收斂性比較好;隨著時(shí)間的推移,在模型更新中,在式(3)的第一項(xiàng)加入一個(gè)略大于1的加權(quán)值,得到下式:
μt=δμ(1-α)μt-1+αIt(8)
這樣使得均值更加真實(shí)逼近背景信號(hào),適應(yīng)了背景的漸變。權(quán)值的取值視場(chǎng)景而定,一般不能取得太大。
在式(4)的第一項(xiàng)加入一個(gè)略小于1的加權(quán)值,得到下式:
σ2t=δσ(1-α)σ2t-1+α(μt-It)T(μt-It) (9)
這樣保證了背景模型的穩(wěn)定性。權(quán)值一般不可取太小,一般接近于1。
模型更新討論:剛開始,模型的均值和方差都給予一個(gè)較大值,模型收斂性較好。隨著背景的漸變,由于η的原因,模型收斂慢,而且不夠精確。在式(3)、式(4)作用下,均值和方差容易偏離真實(shí)值,容易出現(xiàn)重噪聲,而根據(jù)式(8)、式(9),通過權(quán)值調(diào)整,使模型均值逼近真實(shí)信號(hào),方差不會(huì)陷入偏小,適應(yīng)了光照漸變,又使背景收斂性和穩(wěn)定性較好。分析表明,式(8)、式(9)與文獻(xiàn)[4]的方法有相同的效果,收斂較快,精度較高。
1.5 噪聲的抑制
經(jīng)過以上步驟進(jìn)行目標(biāo)分割后,并不能完全消除噪聲點(diǎn),原因是有光照、拖影等變化,容易產(chǎn)生誤判。對(duì)此通過中值濾波及物體空間連通性進(jìn)行噪聲抑制[6]。
2 實(shí)驗(yàn)結(jié)果與分析
在Matlab 7.0開發(fā)環(huán)境中做模擬實(shí)驗(yàn)。硬件配置為賽揚(yáng)2.4 GHz處理器,內(nèi)存512 MB。對(duì)傳統(tǒng)的高斯方法和本文方法進(jìn)行仿真實(shí)驗(yàn)。實(shí)驗(yàn)中,對(duì)權(quán)值進(jìn)行調(diào)整發(fā)現(xiàn),當(dāng)均值權(quán)值取得不恰當(dāng)時(shí),目標(biāo)支離破碎,且有噪聲點(diǎn);當(dāng)方差權(quán)值取得過大時(shí),精度不高,檢測(cè)不到邊緣輪廓,大量目標(biāo)信息丟失。在本文模型更新階段,均值加權(quán)值取1.1,方差加權(quán)值取0.92。圖1是未經(jīng)處理的幀,圖2為經(jīng)過傳統(tǒng)高斯混合模型處理的幀,圖3為經(jīng)過本文方法處理的幀。
圖1 原始圖像
圖2 基于傳統(tǒng)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果
對(duì)比可以看出,在20,49,300幀中,傳統(tǒng)方法把大量背景當(dāng)作前景分割出來,分割面積遠(yuǎn)遠(yuǎn)超出運(yùn)動(dòng)目標(biāo),精度不高,而且有大量噪聲點(diǎn),49幀把陰影誤判為前景。而本文方法較好地檢測(cè)出了運(yùn)動(dòng)目標(biāo),其分割面積基本符合真實(shí)運(yùn)動(dòng)目標(biāo),誤判率較小,而且沒有噪聲點(diǎn),49幀也不會(huì)把陰影誤判為前景。對(duì)于222幀,兩種方法的處理都不夠好,原因是運(yùn)動(dòng)目標(biāo)垂直視頻,信號(hào)在一段時(shí)間內(nèi)無(wú)變化或是變化非常小,導(dǎo)致誤判,這是運(yùn)動(dòng)目標(biāo)分割的難題之一,也是今后需要開展大力研究的問題。通過實(shí)驗(yàn)表明,本文提出的背景模型更新方法,收斂性和穩(wěn)定性較好,分割精度也比較高。
圖3 本文方法的運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果
3 結(jié) 語(yǔ)
提出一種在固定視頻監(jiān)控系統(tǒng)條件下進(jìn)行背景建模的方法,在傳統(tǒng)高斯混合模型的基礎(chǔ)上提出一種加權(quán)思想。即在模型更新階段,為了模型的自適應(yīng)性和盡量逼近真實(shí)信號(hào)量,在原有的學(xué)習(xí)率基礎(chǔ)上對(duì)均值和方差分別給一個(gè)不同的加權(quán)值,并采用中值濾波及物體空間連通性進(jìn)行后處理,最終完成了運(yùn)動(dòng)目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)方法比較,本文方法能夠更加有效地檢測(cè)出運(yùn)動(dòng)目標(biāo),具有較強(qiáng)的魯棒性。
參考文獻(xiàn)
[1]原春鋒,王傳旭,張祥光,等.光照突變環(huán)境下基于高斯混合模型和梯度信息的視頻分割[J].中國(guó)圖形圖像學(xué)報(bào),2007,11(12):2 068-2 073.
[2]Michael Harville,Gaile Gordon,John Woodfill.Foreground Segmentation using Adaptive Mixture Models in Color and Depth [A].IEEE Proceedings of IEEE Workshop on Detection and Recognition of Events in Video[C].Vancouver,Canada,2001:3-11.
[3]朱周華.期望最大(EM)算法及其在混合高斯模型中的應(yīng)用[J].現(xiàn)代電子技術(shù),2003,26(4):88-91.
[4]劉潔,張東來.關(guān)于自適應(yīng)高斯混合背景模型的更新算法的研究[J].微計(jì)算機(jī)信息,2006,22(22):241-242.
[5]Chris Stauffer,Grimson W.Learning Patterns of Activity using Real_time Tracking[J].IEEE Trans.on Pattern Ana_lysis and Machine Intelligence,2000,22 (8):747-757.
[6]房勝,鐘玉琢.一種基于高斯混合模型的視頻監(jiān)控運(yùn)動(dòng)物體提取系統(tǒng)[J].計(jì)算機(jī)科學(xué),2005,32(12):216-219.
[7]Power P W,Schoonees J A.Understanding Background Mixture Models for Foregrounds Segmentation[A].Proceedings of Image and Vision Computing\\.New Zealand:Auckland,2002:267 -271.
[8]Suo Peng,Wang Yanjiang.An Improved Adaptive Background Modeling Algorithm Based on Gaussian Mixture Model[A].ICSP\\.2008:1 426-1 439.