999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于核密度估計(jì)和馬爾科夫隨機(jī)場(chǎng)的運(yùn)動(dòng)目標(biāo)檢測(cè)

2012-07-13 03:06:58魏磊魏江
電子設(shè)計(jì)工程 2012年4期
關(guān)鍵詞:背景

魏磊,魏江

(西北工業(yè)大學(xué) 電子信息學(xué)院,陜西 西安 710072)

運(yùn)動(dòng)目標(biāo)檢測(cè)在計(jì)算機(jī)視覺(jué)領(lǐng)域是一個(gè)重要的研究方向,精確快速的運(yùn)動(dòng)目標(biāo)檢測(cè)算法能使目標(biāo)跟蹤、分類和行為理解等獲得更好的效果。

影響運(yùn)動(dòng)目標(biāo)檢測(cè)準(zhǔn)確性的因素主要有動(dòng)態(tài)背景和光照變化。常見的動(dòng)態(tài)背景有相機(jī)抖動(dòng)、樹葉擾動(dòng)、水面波動(dòng)和背景物體位置變動(dòng)等,常見的光照變化有長(zhǎng)時(shí)的緩慢光照變化(如晝夜變化)、短時(shí)的光照突變(如開關(guān)燈)和局部的光照變化(陰影)。

運(yùn)動(dòng)目標(biāo)檢測(cè)方法主要有基于幀間差的方法、光流法和基于背景建模的方法。基于背景建模的方法因其較高的準(zhǔn)確度,較好的魯棒性,成為目前應(yīng)用最為廣泛的方法,它可分為基本背景建模[1-2]、基于聚類背景建模[3-4]和基于統(tǒng)計(jì)背景建模。基于統(tǒng)計(jì)背景建模又可分為參數(shù)背景建模[5-6]和非參數(shù)背景建模[7]。非參數(shù)背景建模無(wú)需預(yù)先對(duì)模型進(jìn)行假設(shè)也不需對(duì)其參數(shù)進(jìn)行顯示的估計(jì),適用于各種分布的數(shù)據(jù),魯棒性好,文獻(xiàn)[8]基于貝葉斯模型和馬爾科夫隨機(jī)場(chǎng)的方法,文獻(xiàn)[9]基于混合高斯模型和粒子群優(yōu)化的方法,分別是非參數(shù)背景建模和參數(shù)背景建模中的優(yōu)秀方法。

馬爾科夫隨機(jī)場(chǎng)描述的是,任意點(diǎn)的局部條件概率密度由其鄰域的概率分布決定。通過(guò)引入馬爾科夫隨機(jī)場(chǎng),可以保持目標(biāo)和背景像素的空間連續(xù)性。同時(shí)考慮到非參數(shù)背景建模的優(yōu)勢(shì),提出一種基于核密度估計(jì)和馬爾科夫隨機(jī)場(chǎng)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,對(duì)背景擾動(dòng)和光照變化具有較強(qiáng)的魯棒性,錯(cuò)誤檢測(cè)率更低。

1 算法描述

1.1 算法步驟

本文算法對(duì)每個(gè)新采集到的樣本,利用擴(kuò)展的特征向量估計(jì)出其屬于背景的概率密度,再根據(jù)概率密度和空間連續(xù)性約束構(gòu)造馬爾科夫隨機(jī)場(chǎng),并通過(guò)最小化其能量函數(shù)得到目標(biāo)分割結(jié)果。

具體算法步驟如下:

Step 1讀取待檢測(cè)視頻的前N幀,計(jì)算每一像素點(diǎn)的色度分量[r,g]和顏色空間運(yùn)動(dòng)矢量分量d,構(gòu)成用于核密度估計(jì)的特征向量[r,g,d],建立背景模型;

Step 2利用核密度估計(jì),計(jì)算當(dāng)前幀每一像素點(diǎn)屬于背景的概率密度 P(x|lB);

Step 3根據(jù)Step 2計(jì)算所得的P(x|lB)和空間連續(xù)性約束構(gòu)造馬爾科夫隨機(jī)場(chǎng)能量函數(shù)E(l),并利用圖論的最小切算法得到使得該能量函數(shù)最小的標(biāo)記場(chǎng),此即為當(dāng)前幀的分割結(jié)果,輸出標(biāo)記結(jié)果;

Step 4判斷是否為最后一幀,若不是,則按照更新規(guī)則將之前的幀乘以衰減系數(shù)α更新背景模型,然后轉(zhuǎn)入Step 2,若是,則結(jié)束退出。

1.2 核密度估計(jì)

本文采用核密度估計(jì)計(jì)算當(dāng)前幀每一像素點(diǎn)屬于背景的先驗(yàn)概率密度[10],假設(shè)x為當(dāng)前幀某一像素點(diǎn)在特征空間中的特征向量,x1,x2,…xN為前N幀該像素點(diǎn)在特征空間中的特征向量,則當(dāng)前幀這一像素點(diǎn)屬于背景的概率密度可用下式估計(jì):

其中K為核函數(shù),若取高斯核,則概率密度函數(shù)如下:

其中,d為特征向量x維數(shù),lB表示當(dāng)前像素點(diǎn)標(biāo)記為背景,Σ為核函數(shù)帶寬,文獻(xiàn)[10]假設(shè)顏色空間的各個(gè)分量是獨(dú)立的,使得Σ是正定對(duì)角陣。實(shí)際上,每一個(gè)顏色通道并非完全獨(dú)立,可利用前N幀樣本相鄰幀間差值的協(xié)方差矩陣[11]近似估計(jì)Σ:

為減小光照影響,將像素點(diǎn)由顏色空間[R,G,B]轉(zhuǎn)換到顏色空間[r,g,I][10]:

將色度和亮度分離。光照變化可近似認(rèn)為只影響亮度分量I,而對(duì)色度分量[r,g]影響較小。像素點(diǎn)僅受光照變化影響而景物并未變化的情況下,I會(huì)保持在一個(gè)范圍內(nèi),α<I/E(I)<β[10],E(I)為I的均值。 利用[r,g]進(jìn)行核密度估計(jì),可以減少光照變化的影響,但在像素點(diǎn)飽和度很低或是很暗的情況下,色度信息很少,僅利用[r,g]會(huì)帶來(lái)較大誤差。因此,本文提出在[r,g]的基礎(chǔ)上加入顏色空間運(yùn)動(dòng)矢量這一分量,以進(jìn)一步增強(qiáng)對(duì)背景擾動(dòng)和光照變化的魯棒性。

背景擾動(dòng)和光照變化可以看作是像素點(diǎn)在顏色空間的運(yùn)動(dòng),相機(jī)的抖動(dòng),樹葉的擾動(dòng),水波紋和長(zhǎng)時(shí)的光照變化(如晝夜交替)等,像素點(diǎn)在顏色空間的運(yùn)動(dòng)模式是相對(duì)固定的,對(duì)其運(yùn)動(dòng)矢量的模進(jìn)行核密度估計(jì),也可以得到一個(gè)多峰的概率密度函數(shù),概率密度較高判斷為背景,概率密度較低則判斷為前景。令運(yùn)動(dòng)矢量的模為d:

本文計(jì)算的為 2-范數(shù)。 在[r,g]內(nèi)加入分量d,得到[r,g,d],將其作為核密度估計(jì)的特征向量,可進(jìn)一步增強(qiáng)算法對(duì)背景擾動(dòng)和光照變化的魯棒性,不加分量d和加入分量d估計(jì)的當(dāng)前幀概率密度如圖1所示,每個(gè)像素點(diǎn)灰度值的大小表示該點(diǎn)概率密度值的大小,灰度值高表示概率密度低,灰度值低表示概率密度高,由圖可見,加入分量d后結(jié)果更加準(zhǔn)確。由于加入了分量d,核函數(shù)帶寬:

其中,Σr,g和Σd分別按照式(3)計(jì)算。

1.3 馬爾科夫隨機(jī)場(chǎng)

馬爾科夫隨機(jī)場(chǎng)描述的是,任意點(diǎn)的局部條件概率密度由其鄰域的概率分布決定。考慮目標(biāo)和背景像素具有空間連續(xù)性的特點(diǎn),對(duì)當(dāng)前像素點(diǎn)加入空間連續(xù)性約束即條件概率PMRF(lx|li,j),l∈{lB,lF},(i,j)∈U,lx為當(dāng)前像素點(diǎn)標(biāo)記,lB表示標(biāo)記為背景,lF表示標(biāo)記為前景,U為當(dāng)前像素點(diǎn)的鄰域,比如說(shuō)4-鄰域或8-鄰域,根據(jù)貝葉斯定理,當(dāng)前像素點(diǎn)加入空間連續(xù)性約束后判斷為背景和前景的后驗(yàn)概率密度如下:

圖1 不加分量d和加入分量d概率密度對(duì)比圖Fig.1 Contrast figure of probability density calculated with and without d

di,j為一常數(shù),其大小決定了分割結(jié)果的平滑程度。令PMRF(lB|x)和PMRF(lF|x)為PMRF(l),那么,求當(dāng)前幀的最佳前景背景分割,就是求當(dāng)前幀每一點(diǎn)的標(biāo)記l,使所有像素點(diǎn)標(biāo)記的聯(lián)合概率最大。

對(duì)式(14)兩端求負(fù)自然對(duì)數(shù),則求其最大值可轉(zhuǎn)化為求能量函數(shù)最小值。略去常數(shù)項(xiàng),能量函數(shù)如下:

先驗(yàn)概率密度(P(x|lB))和(P(x|lF))有很多零值或很大的值,直接求負(fù)自然對(duì)數(shù)會(huì)得到許多極大的數(shù)或是無(wú)窮,造成數(shù)據(jù)溢出和漏警,對(duì)后續(xù)最小切的計(jì)算也會(huì)帶來(lái)困難。通常(P(x|lB))越大,像素點(diǎn)越接近于背景,(P(x|lF))就越小;(P(x|lB))越小,像素點(diǎn)越接近于前景目標(biāo),(P(x|lF))就越大。考慮上述兩個(gè)原因,本文提出E(l)的第一項(xiàng)D(lx)用如下飽和線性函數(shù)近似表示:

其中,P(lB|x)按式(2)計(jì)算,Q為D(lB)的最大值,表示判斷為背景的代價(jià)項(xiàng)最大可為多少;λ為正的常數(shù),且0<λ<1,λ越大,D(lF)的最大值越小,判斷為前景的代價(jià)越小,漏警率越低,相應(yīng)的虛警率越高。令之前幀算得的同一像素點(diǎn)的先驗(yàn)概率密度集合為A={P(x|lB),x∈x1…xN},對(duì)于這一像素點(diǎn),θ為大于A中ρ%的數(shù)的最小值,θ/λQ表示線性飽和函數(shù)線性部分的斜率。

再加入亮度分量的影響,如果當(dāng)前像素點(diǎn)的I滿足0.6<I/E(I)<1.5[12],那么D(lB)= μD(lB), μ 為一個(gè)小于 1 的正常數(shù)。

計(jì)算馬爾科夫隨機(jī)場(chǎng)能量函數(shù)(15)最小值的過(guò)程,可以轉(zhuǎn)化為計(jì)算圖的最小切過(guò)程[13],每一個(gè)像素點(diǎn)和前景背景標(biāo)記為圖的節(jié)點(diǎn),前景和背景標(biāo)記分別為源和匯,這樣共有M×N+2個(gè)節(jié)點(diǎn),M×N為幀的大小,D(lx)為像素節(jié)點(diǎn)連接源和匯的邊,V(i,j)為連接像素節(jié)點(diǎn)間的邊。最小切算法的結(jié)果使子圖中每個(gè)節(jié)點(diǎn)只與源或匯相連,這便是使能量函數(shù)最小的最佳分割,也就是最終的運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果。

1.4 背景模型的更新

由于距離當(dāng)前幀越早的幀,與當(dāng)前背景的相關(guān)性往往越低,因此需要對(duì)較早的幀進(jìn)行衰減。本文采用的方法為每次更新時(shí),將之前的幀乘上衰減系數(shù)α。當(dāng)前幀85%都判斷為前景時(shí),說(shuō)明背景發(fā)生了突變,如鏡頭的切換或者劇烈的光照變化,此時(shí)α取0.01,近似于重新建立背景模型,否則,α取0.99[8]。通過(guò)這一更新方法,可以減小由于太早的幀與當(dāng)前背景相關(guān)性過(guò)低造成的誤差。

2 實(shí)驗(yàn)結(jié)果及分析

1)TOD序列的實(shí)驗(yàn)結(jié)果表明,本文算法對(duì)光照變化的序列有更強(qiáng)的魯棒性,得到的目標(biāo)更接近真值;

2)從WT序列的結(jié)果可看出,本文算法對(duì)背景擾動(dòng)有更強(qiáng)的魯棒性。由于加入了像素連續(xù)性約束,檢測(cè)出的目標(biāo)邊緣稍有模糊,但從FA序列的結(jié)果看,加入的處理可消除目標(biāo)內(nèi)空洞;

3)從CF的結(jié)果看,本文算法對(duì)背景和目標(biāo)色度相近的情況也能取得更好的檢測(cè)效果;

4)對(duì)BS序列,本文算法漏檢了一些處于相同位置較長(zhǎng)時(shí)間的小目標(biāo),這是因?yàn)殚L(zhǎng)時(shí)間靜止的目標(biāo)屬于背景的先驗(yàn)概率密度較高,并且小目標(biāo)通過(guò)能量函數(shù)的計(jì)算,易于被背景淹沒(méi)。

從表1可以看出本文算法比另兩種算法錯(cuò)誤檢測(cè)率η更低。但正如前面所述,BS序列的錯(cuò)誤檢測(cè)率η偏高,這一點(diǎn)上算法有待改進(jìn)。

3 結(jié) 論

文中提出了一種基于核密度估計(jì)和馬爾科夫隨機(jī)場(chǎng)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[15]。在特征向量中加入顏色空間運(yùn)動(dòng)矢量分量,提高了對(duì)背景擾動(dòng)和光照變化的魯棒性;用飽和線性函數(shù)計(jì)算能量函數(shù)代價(jià)項(xiàng),避免了數(shù)據(jù)溢出導(dǎo)致的計(jì)算失敗。實(shí)驗(yàn)證明,本文算法比文獻(xiàn)[8]和文獻(xiàn)[9]算法的漏警和虛警率更低,對(duì)背景擾動(dòng)和光照變化具有更強(qiáng)的魯棒性。文中算法的不足在于對(duì)場(chǎng)景中較小且長(zhǎng)時(shí)間不動(dòng)的目標(biāo)檢測(cè)不是很理想,這是下一步研究和改進(jìn)的方向。

圖2 針對(duì)Wallflower測(cè)試集的結(jié)果對(duì)比圖Fig.2 Results on the Wallflower dataset for the three methods

表1 針對(duì)Wallflower測(cè)試集的誤警數(shù)、漏警數(shù)和錯(cuò)誤檢測(cè)率Tab.1 Comparison on the Wallflower dataset for the three methods

[1]Lee B,Hedley M.Background estimation for video surveillance[C]//New Zealand:Image and Vision Computing New Zealand,2002:315-320.

[2]Zheng J,Wang Y,Nihan N,et al.Extracting roadway background image:a mode based approach[J].Journal of the Transportation Research Board, 2006(1944):82-88.

[3]Butler D,Sridharan S.Real-time adaptive background segmentation[C]//China:International Conference on Acoustics,Speech and Signal Processing,2003:349-352.

[4]Ilyas A,Scuturici M,Miguet S.Real-time foreground-background segmentation using a modified codebook model[C]//Genova:AdvancedVideoandSignalBasedSurveillance,2009:454-459.

[5]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:real-time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

[6]Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]//America:Proceedings IEEE Conference on Computer Vision and Pattern Recognition,1999:246-252.

[7]Elgammal A,Harwood D,Davis L.Non-parametric model for background subtraction [C]//Ireland:6th European Conference on Computer Vision,2000:751-767.

[8]Sheikh Y,Shah M.Bayesian modeling of dynamic scenes for object detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(11):1778-1792.

[9]White B,Shah M.Automatically tuning background subtraction parameters using particle swarm optimization[C]//China:IEEE International Conference on Multimedia and Expo,2007:1826-1829.

[10]Elgammal A,Duraiswami R,Harwood D,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J].Proceedings of The IEEE,2002,90(7):1151-1163.

[11]Tavakkoli A,Nicolescu M,Bebis G.Automatic statistical object detection for visual surveillance[C]//America:Proceedings of the IEEE Southwest Symposium on Image Analysis and Interpretation,2006:144-148.

[12]Schindler K,Wang H.Smooth foreground-background segmentation for video processing[C]//India:Asian Conference on Computer Vision,2006:581-590.

[13]Boykov Y,Kolmogorov V.An experimental comparison of min-cut/max-flow algorithmsforenergyminimization in vision[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(9):1124-1137.

[14]Toyama K,Krumm J,Brumitt B,et al.Wallflower:Principles and practice of background maintenance[C]//Greece:International Conference on Computer Vision,1999:255-261.

[15]黃錦殿,柴衛(wèi)東.基于小波分析的氫渦輪泵低溫軸承保持架故障特征辨識(shí)[J].火箭推進(jìn),2011(2):43-47.

HUANG Jin-dian,CHAI Wei-dong.Fault identification based on wavelet analysis for bearing cage of hydrogen turbopump[J].Journal of Rocket Propulsion,2011(2):43-47.

猜你喜歡
背景
“三新”背景下關(guān)于高考一輪復(fù)習(xí)策略的思考
“新四化”背景下汽車NVH的發(fā)展趨勢(shì)
《論持久戰(zhàn)》的寫作背景
黑洞背景知識(shí)
基于高考背景下的高中數(shù)學(xué)教學(xué)探討
活力(2019年21期)2019-04-01 12:18:06
I ROBOT AI背景下的2018火人節(jié)
晚清外語(yǔ)翻譯人才培養(yǎng)的背景
背景鏈接
從背景出發(fā)還是從文本出發(fā)
“雙背景”院長(zhǎng)獲認(rèn)同
主站蜘蛛池模板: 日韩国产一区二区三区无码| 亚洲福利视频一区二区| 99re在线视频观看| 久久久久久国产精品mv| 成人字幕网视频在线观看| 国产xxxxx免费视频| 国产91高跟丝袜| 国产福利免费视频| 久久久久国产一级毛片高清板| 国产小视频a在线观看| 国产精品私拍99pans大尺度| 2021精品国产自在现线看| 日韩精品毛片人妻AV不卡| 91无码人妻精品一区| 国产精品原创不卡在线| 色综合天天操| 国产成人精品免费av| 日韩亚洲高清一区二区| 亚洲欧州色色免费AV| 视频一区视频二区日韩专区 | 久久性妇女精品免费| 亚洲婷婷丁香| 日本www色视频| 99精品影院| 狠狠干欧美| 毛片免费视频| 国产九九精品视频| 国内精品久久久久鸭| 亚洲无码A视频在线| 午夜精品久久久久久久无码软件| 丰满的熟女一区二区三区l| 福利片91| 精品国产美女福到在线不卡f| 国产白丝av| 乱人伦99久久| 欧美亚洲一区二区三区在线| 四虎国产在线观看| 91免费在线看| 久996视频精品免费观看| 国产素人在线| 欧美一区二区精品久久久| 一级成人欧美一区在线观看 | 国产又色又刺激高潮免费看| 日韩一区二区三免费高清| 青青久视频| 亚洲中文字幕av无码区| 99精品国产自在现线观看| 久久精品无码国产一区二区三区| 99国产精品免费观看视频| 六月婷婷综合| 亚洲人成网18禁| 日韩免费无码人妻系列| 熟女成人国产精品视频| 国产18在线播放| lhav亚洲精品| 麻豆精品在线视频| 亚洲男人天堂2020| 国产尤物视频网址导航| 又粗又大又爽又紧免费视频| 精品小视频在线观看| 国产激情无码一区二区三区免费| 欧美亚洲日韩不卡在线在线观看| 久草性视频| 亚洲AV无码乱码在线观看代蜜桃 | 国产精品刺激对白在线| 亚洲男人的天堂久久香蕉网| 亚洲成在线观看| 广东一级毛片| 欧美在线视频不卡第一页| 19国产精品麻豆免费观看| 欧美日韩91| 国产精品免费久久久久影院无码| 国产一级片网址| 日韩av电影一区二区三区四区 | 婷婷丁香在线观看| 免费观看成人久久网免费观看| 91免费观看视频| 91精品啪在线观看国产91九色| 日韩精品免费一线在线观看| a级毛片视频免费观看| 黄色网址手机国内免费在线观看| www精品久久|