999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自適應閾值的運動目標檢測方法

2014-04-03 07:32:58張永劉巧玲
計算機工程與應用 2014年12期
關鍵詞:背景檢測模型

張永,劉巧玲

ZHANG Yong, LIU Qiao-ling

蘭州理工大學 計算機與通信學院,蘭州 730050

School of Computer and Communication,Lanzhou University of Technology,Lanzhou 730050,China

1 引言

運動目標檢測是指從視頻序列圖像中將變化區域從背景圖像中提取出來,由于后續的處理,如目標跟蹤、目標識別與分類、目標特征的提取等,只考慮圖像中運動區域的像素。因此,獲得精確的運動目標是非常重要的。

背景減除法[1,2]是目前運動目標檢測中最常用的一種方法,其核心是背景模型的建立。目前已經提出了很多的自適應背景模型方法。其中,Stauffer等人[3]提出利用多個高斯分布構建背景模型的方法得到了廣泛的應用,但該方法收斂速度比較慢,計算量大,易受光照變化和噪聲的影響。近年來,許多學者對其進行了大量的研究。例如,文獻[4]提出對均值和方差采用不同的學習速率;文獻[5]用混合高斯模型對前景進行粗分割,然后采用結構梯度互相關系數對粗分割結果進行校正,以提高目標檢測的精度;文獻[6]提出對 混合高斯模型檢測出的前景和背景,采用不同的更新策略,以實現背景模型的實時更新;文獻[7]針對傳統混合高斯背景僅對單個像素建模,而忽略了視頻序列在時間和空間上的相關性,提出利用背景時間統計特征和空間區域特征建立模型;文獻[8]通過對混合高斯背景模型進行改進,使其適應局部的光照變化,并且對模型引入幀間處理使其適應全局的光照變化。但是,效果仍不是很理想。

針對上述不足,本文對高斯模型的背景學習方法進行了深入的分析,并提出了一種自適應的方法。為了提高模型對不同噪聲的自適應性,改進方法對不同高斯分布提出了自適應的閾值,以排除由于噪聲或光照引起的誤判問題;為提高在靜態場景下,背景模型的自適應性,對模型的學習采用不同的速率,建立實時的背景模型。

2 背景知識介紹

2.1 混合高斯模型

混合高斯模型是對背景圖像中的每個像素點,利用k個高斯分布對其進行模擬,用其概率密度函數的加權和表示該像素點的概率密度函數。則在t時刻,背景圖像中某點(x,y)的概率密度為:

其中,It為t時刻的像素值,文中從實時性方面考慮,僅采用YUV顏色空間中的亮度信息;ωt,i為t時刻混合高斯模型中第i個高斯分布的權重;σt,i和μt,i為t時刻第i個高斯分布的方差和均值;ηi(It,μt,i,σt,i)為第i個高斯分布的概率密度函數,其定義如下:

2.2 模型的匹配和更新

則認為當前像素與第 j個高斯分布匹配成功,并中止與后續模型的匹配。其中匹配閾值γ一般取2.5。

對與當前像素匹配成功的第 j個高斯分布,采用(4)式和(5)式對其均值和方差進

行更新。式中ρ為學習速率,其反映了當前像素融入背景的速率。

對未匹配上的高斯分布,其方差和均值都保持不變。如果k個高斯分布均與當前像素值不匹配,則取當前像素值為均值,給定一個較大的值為方差,建立一個新的高斯分布,代替最小的高斯分布。

對k個高斯分布的權值采用下式進行修正:

式中,當i=j時,Mt,i取值為 1,否則,取值為0。

3 算法的改進

3.1 模型匹配閾值的改進

高斯模型的匹配由均值、方差和匹配閾值γ這三個參數完全決定,對均值和方差的修正通過模型的實時更新來實現,模型匹配閾值一般采用固定的數值,而沒有考慮場景中像素值隨噪聲和光照所發生的變化,因此會產生大量的誤檢測點。不同的匹配閾值將直接影響模型的精確性、穩定性。

如果噪聲和光照使得像素值與匹配模型的均值距離較小,那么采用固定的閾值肯定會將該像素判為背景像素,反之,該像素會被誤判為前景像素點。因此,為了處理不同的噪聲對檢測結果的影響,引入自適應的模型匹配閾值γ。

式中,γ主要依賴于當前所匹配模型的方差。

由高斯分布函數的特性可知,如果方差越大,則說明概率密度函數越扁平,即像素值的分布較為平緩,此時,若采用固定的匹配閾值,將會使大量的前景像素點被誤判為背景。若采用本文提出的自適應匹配閾值,當方差越大時,γ值越小,因此可以有效地降低誤檢測率。反之,如果方差越小,則概率密度函數越陡峭,即像素值的分布較為集中,若采用傳統混合高斯模型的匹配閾值,必定會使大量的背景像素點被誤判為前景。而采用文中提出的自適應匹配閾值,可以有效地緩解該現象。

3.2 模型更新

注意到視頻監控場景中通常只有運動目標區域是比較混亂的,而大部分區域是靜止的,靜止區域的像素點通常具有相同的像素值,而且該像素值總是和同一個高斯分布相匹配的,則與其相對應的高斯分布出現的概率就越大。經過學習后,該高斯分布應該具有較大的權重。但是,傳統的混合高斯模型并沒有考慮到這種情況,僅僅關注的是像素點均值的變化情況。因此,為了有效地檢測靜態背景區域,并提高模型的穩定性和自適應性,引入參數ζ,統計連續幀中每個像素與同一個高斯分布相匹配的次數。

式中,kt為t時刻與該像素匹配的高斯分布,kt-1為t-1時刻與該像素匹配的高斯分布。如果tζ超過閾值ζmin,則利用下式更新權重學習速率。

式中,m是大于 1的常量;α是初始的權重學習速率。

通過統計某點像素與同一個高斯分布連續匹配次數,針對不同的情況,采用不同的權重學習速率,使靜態區域具有較大的權重學習速率,可以有效地改善檢測的性能,并且提高模型的穩定性。

4 仿真實驗結果

為了驗證改進算法的有效性,進行了大量的實驗測試,文中列舉了兩段視頻中的部分結果并進行分析。在普通 PC機(CPU為Core(TM) i3 M 2.13 GHz,內存為4 GB,操作系統為 Windows 7)上的 Matlab R2009a平臺上進行仿真實驗。其中算法所涉及的參數:k=3,α=0.001,m=10,ζmin=10。實驗結果如圖1和圖2所示。

圖1 室內場景下,本文算法與傳統混合高斯模型的檢測結果比較

圖1是室內場景下,改進后算法與傳統混合高斯模型的檢測結果對比圖。采用的視頻序列是從網上(http://groups.inf.ed.ac.uk/vision/CAVIAR/CAVIARDATA1/)獲取的,共有599幀,分辨率為384×288,幀率為25幀/s。其中,圖1(a)為視頻序列中的檢測圖像,圖1(b)和(c)為采用傳統混合高斯模型和改進方法構建的背景,圖1(d)和(e)分別是利用傳統混合高斯模型和本文方法所分割的前景圖像。由于場景中存在光線的變化,以及前景目標和背景顏色相一致的現象,導致圖1(d)中有大量的前景被誤檢為背景,而觀察本文方法檢測的結果可知,改進的算法能夠很好的克服光線變化對檢測結果的影響,而且在室內場景中能夠獲得更加穩定的背景。

圖2 室外場景第462幀的檢測結果

圖2是選自一段典型的室外場景視頻,分辨率為384×288,幀率為30幀/s,特點是運動物體速度快,場景中存在全局的光照變化以及樹枝的搖擺。文中采用的是視頻序列的第462幀,其中圖2(a)是原始圖像,(b)和(c)分別為采用傳統混合高斯模型和改進算法檢測得到的背景圖像,比較兩個背景圖像,可以發現在室外場景中,傳統的混合高斯模型不能獲得完整的背景模型,而利用本文算法構建的背景模型更加精確,更加接近真實的背景,因此獲得的檢測結果也更加的精確。

最后,為了更加直觀的反映本文算法的有效性,將上述視頻序列正確檢測出的前景像素點比例 CFP(Correct Foreground Propotion)和背景像素點比例CBP(Correct Background Propotion)的平均值列于表 1中。其中,是檢測到的正確目標像素點,P1是實際的目標像素點,P21是檢測到的正確背景像素點,P2是實際的背景像素點。

表1 算法檢測結果對比表

實驗表明,不論是在室內場景還是室外場景,還是相對于傳統的混合高斯模型算法,本文方法都能有效地克服將前景像素點誤判為背景的現象,并且構建出更為穩定的背景,很好地克服了光照以及噪聲對檢測結果的影響。

5 結束語

通過研究傳統的混合高斯模型算法,文中提出了一種新的改進方法。該方法對不同的高斯分布采用自適應的匹配閾值,克服了由噪聲和光照引起的誤檢測點;并在此基礎上,對靜態場景中特定像素滿足同一高斯分布的次數進行統計,根據其是否超過一定的閾值,對權重學習速率進行不同的更新,從而提高算法的精確性,獲得更加穩定的背景模型。實驗表明,改進的算法不僅能夠有效地抑制光照和噪聲對檢測結果的影響,而且在不同的場景中能夠建立精確的背景模型。進一步要做的工作是研究如何在不降低精度的前提下,提高算法的實時性。

[1]Olivier Barnich,Marc Van Droogenbroeck.ViBe:A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.

[2]Haritaoglu I, Harwood D, Davis L S.W4:real-time surveillance of people and their activities[J].IEEE Transactions on Pattern Analysis and Machine Intelligence.2000,22(8):809-830.

[3]Zha Ye-fei,Bi Du-yan.Adaptive learning algorithm based on mixture Gaussian background [J].Journal of Systems Engineering and Electronics, 2007,18(2):369-373.

[4]馬義德,朱望飛,安世霞,等。改進的基于高斯混合模型的運動目標檢測方法[J].計算機應用.2007,27(10):2244-2246.

[5]原春鋒,王傳旭,張祥光,等。光照突變環境下基于高斯混合模型和梯度信息的視頻分割[J].中國圖象圖形學報,2007,12(11):2068-2072.

[6]Gang Chen, Zhezhou Yu, Qing Wen, et al.Improved Gaussian Mixture Model for Moving Object Detection.Springer Verlag Berlin Heidelberg 2011:179-186.

[7]陳明生,梁光明,孫即祥,等.利用時空背景模型的快速運動目標檢測方法[J].中國圖象圖形學報,2011,16(6):1002-1007.

[8]李亞玲,徐榮青,聶桂軍,等.適應場景光照變化的運動目標檢測算法[J].計算機技術與發展,2011,21(2):140-142.

猜你喜歡
背景檢測模型
一半模型
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
晚清外語翻譯人才培養的背景
3D打印中的模型分割與打包
主站蜘蛛池模板: 91网红精品在线观看| 综合人妻久久一区二区精品| 青青青国产在线播放| 亚洲一区二区三区麻豆| 久久精品波多野结衣| 欧美日韩一区二区在线播放| 嫩草在线视频| 欧美日韩在线第一页| 91成人精品视频| 日韩一级毛一欧美一国产| 国产第一页免费浮力影院| 亚洲Aⅴ无码专区在线观看q| 亚洲国产精品无码久久一线| 国产精品999在线| 再看日本中文字幕在线观看| 五月激情婷婷综合| 青青草a国产免费观看| 国产美女精品在线| 国模私拍一区二区| 亚洲国内精品自在自线官| 2022国产91精品久久久久久| 日本精品αv中文字幕| 天堂va亚洲va欧美va国产| 伊人精品成人久久综合| 亚洲中文无码av永久伊人| 91在线日韩在线播放| 日韩精品欧美国产在线| 全免费a级毛片免费看不卡| 日本亚洲成高清一区二区三区| 久久永久视频| 福利视频一区| 国产真实乱子伦精品视手机观看| 亚洲天堂精品在线观看| 亚洲国产91人成在线| 免费观看成人久久网免费观看| 麻豆精品在线| 伊人久久久久久久| 最新亚洲av女人的天堂| 亚洲中文精品久久久久久不卡| 永久免费无码日韩视频| 91在线播放免费不卡无毒| 欧美精品成人一区二区视频一| 国内丰满少妇猛烈精品播| 久久精品娱乐亚洲领先| 日韩AV无码一区| 91www在线观看| 国产精品综合久久久 | 综合网天天| 日韩精品免费在线视频| 国产97视频在线观看| 青青青草国产| 国产99在线观看| 99热这里只有精品2| 欧美区日韩区| 国产精品欧美亚洲韩国日本不卡| 国产丝袜无码精品| 国产精品免费福利久久播放| 欧美中文字幕在线二区| jijzzizz老师出水喷水喷出| 久久一日本道色综合久久| 国产精品午夜福利麻豆| 久久久久人妻一区精品色奶水 | 视频二区国产精品职场同事| 熟妇人妻无乱码中文字幕真矢织江| 在线观看欧美国产| 免费在线色| 国产精品福利在线观看无码卡| 精品成人一区二区三区电影| 一本综合久久| 欧美一级黄色影院| 国产鲁鲁视频在线观看| 92午夜福利影院一区二区三区| 97超级碰碰碰碰精品| 久青草免费在线视频| 亚洲最新网址| 欧美精品二区| 丁香五月婷婷激情基地| 久久久精品无码一区二区三区| 91在线免费公开视频| 四虎亚洲国产成人久久精品| 亚洲一区国色天香| 国产精品第5页|