999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法①

2017-05-17 10:00:08張國平高兆彬中國石油大學(xué)華東計(jì)算機(jī)與通信工程學(xué)院青島266580
關(guān)鍵詞:背景區(qū)域模型

張國平, 高兆彬(中國石油大學(xué)(華東) 計(jì)算機(jī)與通信工程學(xué)院, 青島 266580)

基于改進(jìn)混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法①

張國平, 高兆彬
(中國石油大學(xué)(華東) 計(jì)算機(jī)與通信工程學(xué)院, 青島 266580)

針對(duì)傳統(tǒng)高斯模型易將背景顯露區(qū)域檢測(cè)為前景問題與對(duì)復(fù)雜場景下噪音處理效果差的缺陷, 提出了一種混合了三幀差算法的改進(jìn)混合高斯模型算法. 利用三幀差算法快速確定背景顯露區(qū)域與前景的優(yōu)勢(shì), 提高了算法對(duì)背景顯露區(qū)域的適應(yīng)性; 提出一種背景模式鄰域更新法, 提高了對(duì)復(fù)雜背景噪音的抗干擾性. 通過實(shí)驗(yàn)證明, 該算法與傳統(tǒng)方法相比, 在復(fù)雜背景下減少了大量噪音, 學(xué)習(xí)周期短, 提高了對(duì)天氣、攝像頭震動(dòng)等干擾的抗性, 優(yōu)化了背景顯露引起的“影子”噪音問題.

混合高斯模型; 運(yùn)動(dòng)目標(biāo)檢測(cè); 幀差法; 復(fù)雜背景; 鄰域更新法

1 前言

人類接收外界信息有80%以上是來自視覺, 視覺是人類最重要的交流方式. 而傳統(tǒng)的攝像頭監(jiān)控系統(tǒng),達(dá)不到人類的智能程度, 很難滿足人們對(duì)智能監(jiān)控的要求, 智能視覺監(jiān)視系統(tǒng)成為一門熱門的研究課題.其中, 運(yùn)動(dòng)目標(biāo)的檢測(cè)是整個(gè)系統(tǒng)的最底層, 也是整個(gè)系統(tǒng)的基礎(chǔ), 一種好的目標(biāo)檢測(cè)算法可以提高整個(gè)系統(tǒng)的性能. 目前常用的運(yùn)動(dòng)目標(biāo)檢測(cè)算法有背景差法[1-3]、幀差法[4-7]、光流場法[8-10]和統(tǒng)計(jì)模型算法[11]等.

混合高斯背景模型最早由Stauffer等人在文獻(xiàn)[12]中提出, 在固定攝像頭的交通監(jiān)控中, 基于混合高斯模型的背景差分法是一種常用的方法, 該方法為每個(gè)像素點(diǎn)建立一個(gè)高斯模型, 具有對(duì)背景自適應(yīng)性高、更全面的描述復(fù)雜背景的優(yōu)點(diǎn). 同時(shí)針對(duì)不同場景, 對(duì)于混合高斯模型算法存在的缺陷, 很多文獻(xiàn)[13-15]都給出了自己的改進(jìn)方法. 文獻(xiàn)[13]利用混合高斯模型與幀差算法結(jié)合區(qū)分背景顯露區(qū)域與前景區(qū)域; 文獻(xiàn)[14]利用分塊思想改進(jìn)混合高斯模型, 加快背景的收斂, 提高了計(jì)算速度; 文獻(xiàn)[15]中提出的利用幀間差法, 快速分離前景目標(biāo)建立簡單背景模型的方法, 節(jié)約背景的學(xué)習(xí)時(shí)間. 以上算法沒有利用低復(fù)雜度算法兼顧改進(jìn)傳統(tǒng)高斯模型的存在一些缺陷: 1)在復(fù)雜的背景下, 傳統(tǒng)混合高斯模型算法收斂速度慢, 對(duì)因天氣如, 樹木擺動(dòng)、水溫波動(dòng)等此類因素引起的噪音的收斂速度慢, 處理效果較差; 2)對(duì)震動(dòng)引起的攝像頭的輕微震動(dòng)適應(yīng)性差; 3)當(dāng)靜止物體突然運(yùn)動(dòng)逃離背景時(shí), 傳統(tǒng)算法可能會(huì)把背景顯露區(qū)域檢測(cè)為前景, 因此產(chǎn)生類似于“影子”的噪音. 如何降低這些因素影響達(dá)到更高效的追蹤效果, 是本文研究的重心.

本文通過提出一種新的鄰域更新法改進(jìn)傳統(tǒng)高斯模型的背景模式, 建立區(qū)域像素點(diǎn)之間的聯(lián)系, 優(yōu)化上面提出的問題1)和問題2); 利用三幀差算法檢測(cè)背景顯露區(qū)域來調(diào)整背景模式的學(xué)習(xí)率來優(yōu)化問題3),提高背景顯露區(qū)域的收斂速率.

2 傳統(tǒng)混合高斯背景模型

混合高斯模型能有效適應(yīng)光線變化和多模態(tài)場景,抗干擾性強(qiáng). 它是一種直觀的概率密度模型, 反映了某段時(shí)間內(nèi)圖像運(yùn)動(dòng)的統(tǒng)計(jì)特征.

2.1 背景圖像的生成

背景圖像中的每一幀與每一個(gè)像素值并不是一成不變, 由于天氣等變化因素的影響, 會(huì)使背景像素變化.

在混合高斯模型中, 對(duì)圖像中每個(gè)像素點(diǎn)建立K個(gè)高斯模型, 為了保持合適空間與時(shí)間復(fù)雜度, K的取值在3-5之間, 對(duì)于每個(gè)像素點(diǎn)Xt, 用K個(gè)高斯分布函數(shù)的概率密度函數(shù)加權(quán)和來建模:

其中k為分布模式總數(shù), η(xt, μi,t, τi,t)為t時(shí)刻第i個(gè)高斯分布, μi,t為其均值, τi,t為其協(xié)方差矩陣, δi,t為方差, I為三維單位矩陣, ωi,t為t時(shí)刻第i個(gè)高斯分布的權(quán)重, K個(gè)高斯模型的權(quán)值和應(yīng)該為1.

2.2 混合高斯模型參數(shù)更新

對(duì)每個(gè)像素值Xt與K個(gè)模型進(jìn)行匹配, 如果∣Xt-μi,t-1∣≤ 2.5σi,t-1則匹配成功, 如果K個(gè)模型都不匹配,則認(rèn)為匹配失敗.

若匹配成功, 對(duì)于所有模型按照公式(4)進(jìn)行權(quán)值的更新; 未匹配模型均值μ與標(biāo)準(zhǔn)差σ不變, 對(duì)于匹配的模式Mk,t=1,未匹配的模式Mk,t=0并按照公式(5)和(6)分別更新均值μ和方差σ:

以上公式之中, α為學(xué)習(xí)率, 本文設(shè)置為0.01.

若匹配失敗, 則權(quán)重最小的模式將被替換, 即該模式的均值為當(dāng)前像素值, 標(biāo)準(zhǔn)差為初始較大值, 權(quán)重為較小值.

2.3 背景模型選擇及前景檢測(cè)

各個(gè)模式根據(jù)ω/α2按照降序排列, 權(quán)重大、標(biāo)準(zhǔn)差小的模式排列靠前, 選前B個(gè)模式作為背景, B滿足如下公式, 其中參數(shù)T標(biāo)示背景所占比例:

將像素點(diǎn)與前B個(gè)高斯分布進(jìn)行匹配, 如果匹配成功, 則該點(diǎn)為背景點(diǎn), 否則該點(diǎn)被檢測(cè)為前景點(diǎn). 2.4 一種創(chuàng)新的背景模式鄰域更新法

在傳統(tǒng)的混合高斯模型中, 認(rèn)為像素之間相互獨(dú)立, 各點(diǎn)之間像素沒有聯(lián)系. 對(duì)于水紋, 樹葉波動(dòng)等因素的影響, 混合高斯模型具有一定的抗干擾性, 但在復(fù)雜背景下的適應(yīng)能力比較差, 產(chǎn)生大量噪音; 而對(duì)于意外的攝像頭小幅度震動(dòng)產(chǎn)生的噪音是致命的.以上問題可以總結(jié)為像素點(diǎn)的小幅度移動(dòng)產(chǎn)生的影響, 針對(duì)以上情況我們?cè)O(shè)計(jì)背景模式鄰域更新法, 每個(gè)像素點(diǎn)的取值會(huì)考慮它周圍八個(gè)點(diǎn)的像素值, 在小區(qū)域內(nèi)建立了一種邏輯聯(lián)系, 對(duì)以上問題進(jìn)行優(yōu)化.

圖 1 像素點(diǎn)F(x,y)的八鄰域及權(quán)值

在背景圖像的生成時(shí), 我們對(duì)于每一個(gè)像素Xi在匹配成功的時(shí)候, 我們用公式:

來代替Xi代入公式(4) (5) (6)更新背景模式, 在新增背景模式時(shí)也利用該公式作為均值建立背景模式. 式(9)中映射F代表對(duì)應(yīng)點(diǎn)的像素值, 映射w代表對(duì)應(yīng)點(diǎn)的權(quán)值, Σ w=1. 改進(jìn)的混合高斯背景建模, 建立了像素點(diǎn)之間的邏輯聯(lián)系, 對(duì)于因攝像頭震動(dòng)、樹葉搖晃引起的噪音有更好的自適應(yīng)性, 復(fù)雜度小, 學(xué)習(xí)周期更短.

3 利用三幀差算法快速更新背景顯露區(qū)域

3.1 三幀差分法

三幀差分算法是相鄰兩幀差分算法的一種改進(jìn)方法, 它選取連續(xù)三幀視頻圖像進(jìn)行差分運(yùn)算, 能夠消除由于運(yùn)動(dòng)而顯露背景影響, 從而提取精確的運(yùn)動(dòng)目標(biāo)輪廓信息. 該算法的基本原理是是先選取視頻圖像序列中連續(xù)三幀圖像并分別計(jì)算相鄰兩幀的差分圖像,然后將差分圖像通過選取適當(dāng)?shù)拈撝颠M(jìn)行二值化處理,得到二值化圖像, 最后在每一個(gè)像素點(diǎn)得到的二值圖像進(jìn)行邏輯與運(yùn)算, 獲取共同部分, 從而獲得運(yùn)動(dòng)目標(biāo)的輪廓信息.

其中最關(guān)鍵的就是閾值T的選取問題, 實(shí)驗(yàn)中,閾值過小會(huì)產(chǎn)生較多噪音, 閾值過大會(huì)使大量的運(yùn)動(dòng)點(diǎn)被忽略; 同時(shí)由于在差分結(jié)果圖像中前景區(qū)域像素灰度值變化比較大且混合高斯模型不能自適應(yīng)消除,背景區(qū)域的變化較小滿足高斯分布, 所以對(duì)我們可以采用3σ準(zhǔn)則設(shè)定閾值門限. 閾值T=3σ, σ為差分圖像背景區(qū)域的方差.

3.2 利用幀差法確定背景顯露區(qū)域

利用三幀差算法, 快速確定運(yùn)動(dòng)目標(biāo)區(qū)域與背景顯露區(qū)域. 提取連續(xù)的三幀圖像:I(k-1),I(k),I(k+1)

由此我們可以得到運(yùn)動(dòng)的背景顯露區(qū)域(BG)與運(yùn)動(dòng)區(qū)域(FG):

3.3 改進(jìn)背景顯露區(qū)域?qū)W習(xí)率

在檢測(cè)大而慢的運(yùn)動(dòng)目標(biāo)或者由靜止轉(zhuǎn)化為運(yùn)動(dòng)狀態(tài)的目標(biāo)時(shí), 傳統(tǒng)高斯模型檢測(cè)會(huì)出現(xiàn)“影子”現(xiàn)象,將背景顯露區(qū)域檢測(cè)為運(yùn)動(dòng)目標(biāo), 在更新率不變的情況下, 背景模型需要一段時(shí)間去適應(yīng). 為了快速去除“影子”影響, 本文對(duì)不同區(qū)域運(yùn)用不同的學(xué)習(xí)率α.

對(duì)于運(yùn)動(dòng)區(qū)域FG, 采用與背景相同的固定的更新律; 對(duì)于背景顯露區(qū)域BG采用新的背景更新率. 由靜止?fàn)顟B(tài)轉(zhuǎn)變?yōu)檫\(yùn)動(dòng)狀態(tài)的目標(biāo)會(huì)因背景顯露造成大量噪音, 在背景顯露區(qū)域BG, 對(duì)于權(quán)值采用以下更新策略:

在背景顯露區(qū)域進(jìn)行利用上式更新率加快該像素點(diǎn)的更新, 給該像素值一個(gè)較高的權(quán)值, 縮短了學(xué)習(xí)周期.

4 檢測(cè)算法流程圖

本文算法通過循環(huán)的獲取視頻每幀圖像, 利用三幀差算法快速確定其背景顯露區(qū)域, 提高背景顯露區(qū)域的學(xué)習(xí)率, 利用鄰域更新法更新背景模式. 背景模式更新完成后, 再利用背景差分法匹配出前景目標(biāo).具體的流程圖如圖2所示.

圖2 本文算法流程圖

5 實(shí)驗(yàn)結(jié)果

5.1 實(shí)驗(yàn)一

汽車運(yùn)動(dòng)后的第八幀圖像如圖3所示, 我們對(duì)圖3紅色區(qū)域內(nèi)兩種算法處理的效果進(jìn)行比較.

傳統(tǒng)算法處理效果如圖4所示; 本文算法處理效果如圖5所示. 由圖4與圖5得對(duì)比可以看出, 對(duì)于復(fù)雜背景, 本文的算法比傳統(tǒng)的混合高斯模型具有更好的抗噪效果, 在圖4下方有大量因樹木擺動(dòng)引起的噪音; 而利用改進(jìn)算法對(duì)于風(fēng)力引起植物的晃動(dòng)有更好的適應(yīng)性.

圖3 汽車開始運(yùn)動(dòng)后的第8幀(原圖)

圖4 傳統(tǒng)混合高斯模型對(duì)紅色區(qū)域處理的結(jié)果

圖5 本文算法對(duì)紅色區(qū)域處理的結(jié)果

由圖6和圖7相比我們可以看出, 本文算法在靜止物體運(yùn)動(dòng)后第8幀消除了影子, 而傳統(tǒng)算法在第17幀才達(dá)到圖7效果, 收斂速度提高2.1倍, 更快的消除了背景顯露區(qū)域引起的“影子”噪音.

圖6 截取圖4中汽車細(xì)節(jié)

圖7 截取圖5汽車細(xì)節(jié)

當(dāng)出現(xiàn)因?yàn)閿z像頭震動(dòng)產(chǎn)生的噪音時(shí), 兩種算法的處理結(jié)果如圖8和圖9所示.

由圖8與圖9的對(duì)比可以看出, 本文算法對(duì)攝像頭在復(fù)雜背景下的小幅度震動(dòng)有更好的適應(yīng)性, 更適應(yīng)實(shí)際需求.

圖8 傳統(tǒng)高斯模型對(duì)震動(dòng)處理結(jié)果(第26幀)

圖9 本文算法處理結(jié)果(第26幀)

5.2 實(shí)驗(yàn)二

我們對(duì)一段不存在前景的視頻進(jìn)行試驗(yàn), 測(cè)試兩種算法背景模式描述的準(zhǔn)確程度. 視頻中存在天氣造成的水紋、植物擺動(dòng)等干擾因素, 采用系統(tǒng)抽樣的方法, 從100幀中抽取十幀對(duì)噪音點(diǎn)數(shù)量進(jìn)行比較, 每幀共921600個(gè)像素點(diǎn). 該視頻中一輛普通轎車占像素點(diǎn)在1200-1500之間. 提高率計(jì)算公式:

提高率(%)=(傳統(tǒng)算法噪音點(diǎn)數(shù)-本文算法噪音點(diǎn)數(shù))/ 傳統(tǒng)算法噪音點(diǎn)數(shù)

表1 噪音統(tǒng)計(jì)結(jié)果

根據(jù)表1數(shù)據(jù)計(jì)算得到傳統(tǒng)算法的期望、方差分別為3494, 1134.4; 本文算法期望, 方差分別為158.6, 22.98. 綜合來看本文算法的噪音數(shù)量, 穩(wěn)定性都要優(yōu)于傳統(tǒng)算法.

6 結(jié)語

本文提出了一種更適合于處理復(fù)雜背景的改進(jìn)的混合高斯模型算法, 本算法結(jié)合三幀差算法與一種新的背景模式鄰域更新法改進(jìn)了傳統(tǒng)混合高斯模型算法.提高了復(fù)雜背景下對(duì)于水紋、樹木晃動(dòng)以及攝像頭震動(dòng)等引起的噪音的適應(yīng)性和收斂速率, 并且能更快的處理由于靜止物體開始運(yùn)動(dòng)產(chǎn)生的“影子”噪音問題,更適合于實(shí)際的運(yùn)動(dòng)目標(biāo)檢測(cè).

1 Wu JR, Du XL, Liu HT. An improved adaptive background modeling algorithm based on Kalman filter. Transducer & Micro System Technologies, 2012.

2 Kirch W, Spahn H, Ohnhaus EE, et al. An approach to motion vehicle detection in complex factors over highway surveillance video. 2009 International Joint Conference on Computational Sciences and Optimization. IEEE Computer Society. 2009. 520–523.

3 Li GM, Li Y, Xiao WM. A background modeling algorithm based on pixel frequency. Asia-Pacific Youth Conference on Communication Technology. 2010.

4 Zhan C, Duan X, Xu S, et al. An improved moving object detection algorithm based on frame difference and edge detection. International Conference on Image and Graphics. 2007. 519–523.

5 Chen C, Zhang X. Moving vehicle detection based on union of three-frame difference. Advancesin Electronic Engineering, Communication and Management, 2012, (2): 459–464.

6 Migliore DA, Matteucci M, Naccari M. A revaluation of frame difference in fast and robust motiondetection. Polymer International, 2006, 51(2): 105–110.

7 Zhang L, Shao Z, Wu JD, et al. A moving object detection method based on improved three-frame difference algorithm and edge information. International Conference on Advances in Mechanical Engineering and Industrial Informatics. Atlantis Press. 2015.

8 李廣,馮燕.基于SIFT特征匹配與K-均值聚類的運(yùn)動(dòng)目標(biāo)檢測(cè).計(jì)算機(jī)應(yīng)用,2012,32(10):2824–2826.

9 Bhattacharyya S, Maulik U, Dutta P. High-speed target tracking by fuzzy hostility-induced segmentation of optical flow field. Applied Soft Computing, 2009, 9(1): 126–134.

10 Baby RM, Ahamed RR. Optical flow motion detection on raspberry pi. Fourth International Conference on Advances in Computing and Communications. 2014.

11林洪文,涂丹,李國輝.基于統(tǒng)計(jì)背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法.計(jì)算機(jī)工程,2003,29(16):97–99.

12 Stauffer C, Grimson WEL. Adaptive Background Mixture Models for Real-Time Tracking. IEEE Conference on Computer Vision and Pattern Recognition, IEEE Computer Society. 1999. 2246.

13劉靜.混合高斯模型背景法的一種改進(jìn)算法.計(jì)算機(jī)工程與應(yīng)用,2010,46(13):168–170.

14張燕平,白云球,趙勇,等.應(yīng)用改進(jìn)混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè).計(jì)算機(jī)工程與應(yīng)用,2010,46(34):155–157.

15 Migliore DA, Matteucci M, Naccari M. A revaluation of frame difference in fast and robust motiondetection. Polymer International, 2006, 51(2): 105–110.

Improved Moving Object Detection Method Based on Gaussian Mixture Model

ZHANG Guo-Ping, GAO Zhao-Bin
(College of Computer and Communication Engineering, China University of Petroleum, Qingdao 266580, China)

For the traditional Gaussian mixture model, it is prone to detect the background as the foreground region and has poor effect in complex background, so this paper puts forward an improved algorithm combined with three frame difference method. First, we use the three frame difference method to improve adaptation of the revealed background region. Second, we use the means of background neighborhoods update to improve the resistance to complex background noise. The experiments prove that compared with the traditional method, the improved algorithm reduces large amount of noise and shortens learning cycle, and improves resistance to the weather and camera shake, optimizing the noise caused by background region revealed.

Gaussian mixture model; moving object detection; frame difference method; complex background; neighborhood update

2016-07-12;收到修改稿時(shí)間:2016-08-08

10.15888/j.cnki.csa.005693

猜你喜歡
背景區(qū)域模型
一半模型
“新四化”背景下汽車NVH的發(fā)展趨勢(shì)
《論持久戰(zhàn)》的寫作背景
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
晚清外語翻譯人才培養(yǎng)的背景
3D打印中的模型分割與打包
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 国产日韩欧美黄色片免费观看| 无码福利视频| 欧美国产精品拍自| 午夜日韩久久影院| 国产精品精品视频| 欧美精品影院| 久久精品亚洲专区| 色综合网址| 国产伦精品一区二区三区视频优播| 日韩视频精品在线| 伊人久久大线影院首页| 国产成人精品三级| 国产美女精品人人做人人爽| 亚洲天堂免费在线视频| 久久99精品国产麻豆宅宅| 成人在线天堂| 久久久久亚洲精品成人网| 3344在线观看无码| 久久精品嫩草研究院| 久久五月视频| 午夜福利无码一区二区| 国产午夜人做人免费视频中文 | 福利视频久久| 久久不卡国产精品无码| 99免费在线观看视频| 99国产在线视频| 久久精品66| 国产91小视频| 青草娱乐极品免费视频| 啊嗯不日本网站| 欧美激情首页| 自慰网址在线观看| 在线观看国产小视频| 久久亚洲中文字幕精品一区| 国产粉嫩粉嫩的18在线播放91| 精品亚洲麻豆1区2区3区| 午夜视频免费试看| 国产欧美在线观看一区| 婷婷综合色| 亚洲精品爱草草视频在线| 亚洲欧洲一区二区三区| 中文字幕亚洲精品2页| 亚洲日本www| 综合天天色| 无码福利日韩神码福利片| 国产精品三级专区| 中文字幕中文字字幕码一二区| 日韩欧美综合在线制服| 亚洲国产成人超福利久久精品| 无码有码中文字幕| 国产精品香蕉在线| 成人无码一区二区三区视频在线观看| 国产99在线| 欧美丝袜高跟鞋一区二区| 欧美综合在线观看| 国产成人精品18| 国产成人综合在线视频| 色婷婷亚洲综合五月| 伊伊人成亚洲综合人网7777| 日本精品一在线观看视频| 99精品福利视频| 成人免费网站久久久| 伊大人香蕉久久网欧美| 孕妇高潮太爽了在线观看免费| 91小视频在线| 国产黄网永久免费| 亚洲天堂网站在线| 久久6免费视频| 久久综合色视频| 国产成人无码AV在线播放动漫| 中文字幕在线免费看| 色偷偷一区二区三区| 国产亚洲美日韩AV中文字幕无码成人| 成年女人a毛片免费视频| 欧美色亚洲| 在线毛片免费| 国产精品男人的天堂| 欧美日韩国产综合视频在线观看| 成人在线天堂| 成人午夜视频免费看欧美| 国产SUV精品一区二区6| 美女内射视频WWW网站午夜|