999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視頻監控中一種完整提取運動目標的檢測算法

2007-01-01 00:00:00唐宜清羅湘運
計算技術與自動化 2007年2期

摘 要:提出一種視頻監控中完整#65380;精確提取運動目標前景的檢測算法#65377;首先對彩色圖像建立混合高斯模型,由背景差分法得到基本準確的前景圖像;然后和對稱差分法圖像綜合,得到完整可靠的運動目標圖像;再利用亮度信息消除運動目標陰影;最后利用形態學濾波和連通區域面積檢測進行后處理#65377;實驗結果表明,該算法檢測的運動目標前景信息完整準確,對固定場景下的視頻監控系統具有一定實用價值#65377;

關鍵詞:運動目標檢測;混合高斯模型;對稱差分;陰影檢測

中圖分類號:TP391.41文獻標識碼:A

1 引 言

在視頻監控中,常用的運動目標檢測算法主要有背景差分法和幀間差分法#65377;大多數背景差分法主要討論了如何建立一個穩定可靠的背景模型#65377;如Mittal等人提出了采用變帶寬核密度估計法建立背景模型[1];Haritaoglu等人提出的采用最大值#65380;最小值與最大幀間變化建立背景模型的W4算法[2];以及Stauffer等人采用混合高斯模型(MoG,mixture of Guassian)作為背景統計模型的算法[3]#65377;背景差分法通常能提取較為完整的前景信息,MoG等方法對于逐漸變化的背景也具有一定適應性;但是它對運動檢測的敏感性與實時性不如幀間差分法#65377;而幀間差分法則是由兩幀連續圖像的差值得到運動物體的位置和形狀等信息,能比較準確地檢測到運動目標輪廓,它的實時性和對運動物體的敏感性比較高;但是由于運動目標上象素的紋理#65380;灰度等信息比較相近,通常只能得到部分運動信息#65377;

運動目標檢測是各種后續高級處理如目標分類#65380;行為理解等的基礎和關鍵#65377;為了實現對視頻監控系統中的運動目標的精確檢測,以滿足其后續處理的需要,本文提出了一種將幀間差分法和基于混合高斯模型的背景差分法相融合的算法,并結合陰影檢測#65380;連通組件分析和形態學濾波等方法,能準確地分割出運動物體的邊界#65377;

2 背景模型及其更新

2.1 背景模型

在視頻監控系統中由攝像機輸入的圖像是由R#65380;G#65380;B 3個分量組成,它混合了色度和亮度信息#65377;區分色度和亮度信息能更好的描述物體,我們首先將輸入圖像由R#65380;G#65380;B空間轉換到亮度#65380;色度空間(s,r,g)#65377;其中亮度坐標s定義為[4]:

色度信息由R#65380;G#65380;B 的相對確定為

r#65380;g#65380;b稱為色度坐標,并有r+g+b=1#65377;色度空間是二維的,只有兩個色度坐標獨立,我們選r#65380;g作為色度空間坐標#65377;

固定攝像機輸入視頻圖像序列為{1,2,…t,…},第t幀視頻圖像中像素X=(x,y)的輸入信號為I(X,t)=(Is(X,t),Ir(X,t),Ig(X,t))#65377;這里采用混合高斯分布來描述背景模型#65377;設用來描述每個象素點Xt顏色的高斯分布共K個,K的值通常取3~5個#65377;則象素點Xt的概率函數可用式(1)表示:

其中:ωi,t是第i個高斯分布在t時刻的權值,μi,t,Σi,t分別第i個高斯分布在t時刻的均值和協方差矩陣,η表示高斯概率密度函數:

在亮度#65380;色度空間(s,r,g)中,μi,t,Σi,tɑ可以寫成如下形式:

計算技術與自動化2007年6月第26卷第2期唐宜清等:視頻監控中一種完整提取運動目標的檢測算法各高斯分布按照優先級高低排列,優先級PRIi計算如下:

背景建模過程如下:

1) 初始化模型:用第一幅圖像每點的象素值作為均值,給一個較大的方差#65380;較小的權值#65377;

2) 模型學習:取背景場景圖,將每個象素與該象素的已有的i(i<=K)個高斯模型相比較,若滿足

則I(X,t)與模型Pi匹配#65377;其中τ為正常數,是一個全局閾值,在這里我們取τ=2.5#65377;下標i表示第i個分布模型,下標j表示在(s,r,g)空間中的分量#65377;否則,且i

2.2 背景模型的更新

1) 權重的更新

2) 均值和方差的更新

對于未匹配的高斯分布,不予更新#65377;對于匹配的第i個高斯分布如下:

3 幀間差分

幀間差分是把當前幀與前一幀圖像的像素亮度或者梯度值[5]相減,從而得到運動物體的位置與形狀等信息,它對光照的適應性較強#65377;一個改進的方法是對稱差分法,它采用三個連續幀取代兩幀[6],能很好提取出中間幀運動目標的輪廓#65377;其基本算法如下:

1) 視頻序列連續三幀源圖像為I(X,t-1),I(X,t)和I(X,t+1),分別計算相鄰兩幀源圖像的絕對差灰度圖像D(t-其中,W是一個抑制噪聲的窗口函數#65377;由于均值濾波會使圖像模糊化,從而失去邊緣信息,因此我們選用高斯濾波函數來抑制噪聲#65377;

2)對D(t-1,t)(x,y)和D(t,t+1)(x,y)分別取閾值T1,以進行二值化,得到兩個二值化圖像B(t-1,t)(x,y)和B(t,t+1)(x,y)#65377;將B(t-1,t)(x,y)和B(t,t+1)(x,y)在每一個象素位置進行邏輯與操作,得到對稱差分結果二值圖像,計算公式如下:DS,t(x,y)

4 運動目標提取

4.1 陰影檢測

在光照較強的情況下,檢測出的運動物體會包含它的陰影,這會在很大程度上影響后續跟蹤和識別的正確率,因此我們希望在檢測階段盡量消除陰影,以提高后續處理的正確率#65377;

陰影在圖像中可以看作半透明區域[7]#65377;漫反射物體被陰影遮擋時其表面物理反射特性并沒發生任何改變,只是光照度發生改變#65377;因此圖像中陰影遮擋部分的色度(r,g)相對于背景沒有發生變化,而亮度s相對背景增大或減小#65377;設t時刻圖像中前景目標像素點集合為Σ,陰影部分像素點集合為Ζ,則:

Z={X|X∈Σ,m≤IS(X,t)μS(X,t)≤n且存在與X在(r,g)空間滿足式(4)的背景分布模型}#65377;

其中IS(X,t)為像素點X在t幀取值,m為陰影導致的亮度最大衰減比率,n為陰影造成的物體亮度增大的最大比率,μS為背景物體沒有陰影遮擋時的期望值#65377;用(r,g)空間與X匹配的各背景分布模型均值的加權平均值作為μS,即

其中ωi,tΩi,t為權重,Ωi,t=∑i∈Zωi,t,Z為在(r,g)空間與X匹配的背景分布模型的集合,M為集合Z中背景分布模型的個數#65377;

4.2 目標提取

為了從視頻場景中精確地提取出運動目標,本文采取了如下六個步驟:

1) 由第2節所建立的背景模型,得到一個前景圖像,記為DB,t(x,y)#65377;它可以獲得比較好的前景信息細節,并且能克服背景場景緩慢變化的干擾#65377;

2) 由第3節的對稱差分法,得到另一個前景圖像DS,t(x,y)#65377;它能靈敏地捕捉到運動目標,并且可檢測到比較準確的運動目標輪廓,檢測的實時性強#65377;

3) 將1)和2)結合,在每一個象素位置將DS,t(x,y)和DB,t(x,y)邏輯“或”操作,可以得到一個完整#65380;準確的前景圖像Ft(x,y):

通過上述3步,在像素級低層次處理上我們得到了前景目標的像素點集合;隨后須對這些集合作進一步的高層次處理,去除噪聲才能完成目標提取#65377;步驟如下:

4) 按照4.1節中所述方法,除去Ft(x,y)中陰影部分的像素點#65377;

5) 采用開#65380;閉運算等形態學濾波方法對Ft(x,y)進行濾波,抑制噪聲#65377;

6) 利用區域標記和連通性分析計算各個變化的連通區域的面積,當某一區域面積大于給定閾值T2(即最小區域面積)時就認為背景圖像有變化,并認為該變化區域就是檢測到的目標范圍;并刪除含極少數像素點#65380;不可能是運動目標的孤立區域,進一步消除噪聲#65377;

5 實驗結果與討論

利用文中方法對一段320×240視頻序列圖像進行處理,在普通PC機(Intel Pentium 4 3.00GHz,256M)上能夠達到每秒約11幀的速度,基本滿足實時處理要求,結果如下圖所示#65377;根據第2節所述,混合高斯模型的各初始值設置為:K=5,ω=0.05,σ=30,α=0.005,τ=2.5,其中,如果學習率取的比較小,適應環境變化的能力就低,只能適應緩慢的環境變化;如果α取的比較大,適應環境變化能力強,但容易受噪聲影響,不夠穩定#65377;這里根據經驗調整為0.005#65377;對于對稱差分閾值T1,如果設置過大,則可能會丟失掉一些運動信息;如果設置過小,則可能會引入一些額外的噪聲,在這里設置為7#65377;最小區域面積T2設置為100#65377;

圖1(a)是視頻序列中的一幀源圖像#65377;圖1(b)是采用本文算法得到的背景圖像#65377;圖1(c)是由對稱差分法得到差分圖像,可以看出,雖然對稱差分法能得到一個完整的運動輪廓,但卻忽略了很多細節信息#65377;圖1(d)是基于Stauffer等人的混合高斯模型得到的差分圖像#65377;可以看到,它能得到較好的前景細節信息,但是受陰影的干擾很大;同時,由于噪聲和背景擾動的影響圖1(c)#65380;圖1(d)還含有一些非運動目標的噪聲點#65377;圖1(e)是利用本文算法得到的運動目標圖像#65377;從結果圖像圖1(e)中可看到,本文算法可以得到精確完整的前景目標信息#65377;

6 結 論

本文提出了一種視頻監控中精確完整地提取運動目標的檢測算法#65377;它綜合了基于顏色混合高斯模型的背景差分法和對稱差分法的優點,使它們的優勢形成互補#65377;同其它方法相比,該算法在存在運動目標的情況下,能準確地提取并更新背景模型,利用背景消減法得到基本準確的運動區域,并且和對稱差分法結合,將運動區域細節完整地檢測出來#65377;實驗結果表明該方法準確#65380;有效,有著廣泛的適用性#65377;

注:本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文。

主站蜘蛛池模板: yy6080理论大片一级久久| 高清久久精品亚洲日韩Av| 亚洲最大看欧美片网站地址| 国产在线一区视频| 四虎国产精品永久在线网址| 亚洲精品国偷自产在线91正片| 青青久在线视频免费观看| 露脸国产精品自产在线播| 久久久久国产一级毛片高清板| 成人在线亚洲| 欧美精品在线看| 国产成人精品一区二区秒拍1o| 国产成人免费手机在线观看视频| 美女亚洲一区| 91精品啪在线观看国产91九色| 欧美成人国产| 亚洲国产精品不卡在线| 欧美日韩精品综合在线一区| 欧美激情综合| 五月天香蕉视频国产亚| 久久久亚洲色| 亚洲成人在线免费观看| 美女免费黄网站| 日本一区二区不卡视频| 免费人成又黄又爽的视频网站| 国产极品美女在线播放| 国产精彩视频在线观看| 91视频免费观看网站| 国产网友愉拍精品| 欧美午夜在线观看| 欧美97欧美综合色伦图| 青青久视频| 亚洲国产综合精品一区| 91口爆吞精国产对白第三集| 亚洲IV视频免费在线光看| 97在线视频免费观看| 国产大片喷水在线在线视频 | 国产成人无码综合亚洲日韩不卡| 国产成人做受免费视频| 国产AV无码专区亚洲精品网站| a级毛片网| 国产美女91呻吟求| 亚洲无码A视频在线| 国产精品自拍露脸视频| 国产啪在线91| 国产爽爽视频| 亚洲美女一区| 99这里只有精品在线| 华人在线亚洲欧美精品| 91精品国产麻豆国产自产在线| 国产欧美在线观看精品一区污| 日韩视频精品在线| 色播五月婷婷| 国产精品浪潮Av| 国产精品成人久久| 欧美亚洲香蕉| 极品国产在线| 亚洲高清国产拍精品26u| 在线国产综合一区二区三区 | 人妻一本久道久久综合久久鬼色| 国产va在线观看免费| 四虎影视8848永久精品| 国产成人高清精品免费5388| 九九久久精品国产av片囯产区| 伊人婷婷色香五月综合缴缴情| 她的性爱视频| 免费中文字幕在在线不卡 | 日韩欧美国产中文| 天堂av综合网| 久久久精品国产亚洲AV日韩| 天堂成人在线| 亚洲欧美一区二区三区麻豆| 伊人久久大香线蕉综合影视| 在线精品自拍| 国产一级毛片高清完整视频版| 嫩草影院在线观看精品视频| 亚洲色欲色欲www网| 国产成人久视频免费| 日韩精品毛片| 日韩av电影一区二区三区四区| 91国内外精品自在线播放| 日韩精品毛片|