999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

利用改進的背景模型實現車輛檢測

2010-08-14 01:11:56郭莉瓊王小鵬
網絡安全與數據管理 2010年16期
關鍵詞:背景檢測模型

郭莉瓊,王小鵬

(蘭州交通大學 電子與信息工程學院,甘肅 蘭州 730070)

隨著智能交通技術的發展,智能交通系統中交通檢測已經成為計算機視覺技術應用的一項重要課題。序列圖像中車輛檢測與跟蹤在智能交通領域中起著關鍵作用。車輛檢測常用的方法有基于幀間的差分辦法、光流法和基于背景的差分辦法。基于幀間的差分辦法可以簡單快速地提取出物體的運動信息,但存在檢測出的運動目標位置不精確、物體在運動方向上被拉伸等問題,而且很難實現多目標檢測。光流法由于噪聲、多光源、陰影和遮擋等原因,計算出的光流場分布不十分可靠,且光流場的計算實時性和實用性較差?;诒尘暗牟罘洲k法能解決基于幀間差分辦法和光流法中的問題,并且計算簡單,但是背景容易受到交通環境和光強度的影響,理想的背景不容易獲得,所以,自適應環境變化的背景模型對運動車輛檢測的精確性起著非常重要的作用。

1算法描述

智能交通系統是目前世界和各國交通運輸領域競先研究和開發的熱點,基于背景差分的辦法是從視頻流中檢測運動物體常用的方法,是目前研究的重點。由于受到交通狀況、天氣和光強度等因素的影響,不容易獲得理想的背景,尤其在交通堵塞、車輛行動緩慢或者臨時停車等情況下,背景更新率低。

圖1本文算法流程框圖

圖1為車輛檢測流程圖。首先,建立基于區間分布的快速自適應背景模型,然后利用改進的基于ε-δ的背景更新算法對建立的背景模型進行選擇性更新,結合閾值分割和形態學操作實現運動車輛的提取。該算法既保持了較高的計算效率,也保證了復雜城市交通環境中車輛檢測的精確度。實驗結果表明,本文提出的算法對于復雜交通環境(交通堵塞、車流量非常大、車流緩慢、交通堵塞或臨時停車等情況)有很好的背景提取和更新效果,與經典的算法(混合高斯平均[1]、核密度估計[2])相比,在實時性和準確性方面都有所提高。

2自適應背景模型

為了解決車輛檢測精確度問題,國內外學者在背景建模方面做了大量的研究[3]。參考文獻[4]利用視頻圖像中最近N幀的像素點的平均值的作為背景模型,這種方法在多個運動目標或者運動目標行動緩慢時,背景會被前景目標污染。參考文獻[5]利用前幾幀的像素分布建立高斯分布模型,對于頻繁變化的像素,需要多個高斯混合分布[6]才能反映背景像素的變化。這些方法要求在背景模型的建立過程中沒有運動車輛并且建立背景模型的時間較長,不能滿足實際應用的需要。本文提出簡單有效的背景模型和更新的方法。

2.1背景模型的建立

在視頻圖像序列中,可以統計出每個坐標點像素值的分布,并設定出現頻率高的像素值作為背景模型中對應點的像素值。但是這種方法計算量比較大,并且對光線和背景的逐漸改變適應性差。

經觀察,背景中每個點的像素值在某一區間范圍內變化。給出視頻序列[F1,F2,…,FM],灰度圖像的像素范圍為0~255,把它分成N段區間,每個區間的范圍為[(i-1)×255/N,i×255/N]。 設定每個區間有兩個參數 ui(x,y)、Ci(x,y),其中 ui(x,y)是區間灰度平均值,代表像素從 F1到FM的加權平均值;Ci(x,y)是區間計數,代表從F1到FM像素屬于區間i的計數。為了使背景模型更好地適應背景環境的改變,定義 ui(x,y)時,引入了一個衰減因子α。Fi的權值比 Fi-1的權值大,如 Fi的數值貢獻為 1,Fi-1的數值貢獻以α的速率衰減。設定當前幀為n,定義第i個區間的參數ui(x,y)如下:

其中,In(x,y)是點(x,y)在第n幀中的像素值,如果像素值In(x,y)屬于區間 i,計算 ui(x,y),否則 ui(x,y)保持不變。

同樣,定義 Ci(x,y)時,為 Ci(x,y)引入一個衰減因子β,β能夠有效地減小圖像歷史信息的影響。像素在Fi的貢獻為 1,則 Fi-1的貢獻為 1×β=β,每前 m幀的貢獻為1·β·β·β·…·β=βm。 設定當前幀為 n,定義第 i個區間的Ci(x,y)為:

在定義了ui(x,y)和 Ci(x,y)后,建立背景模型的細節步驟如下:

(1)確定當前像素屬于哪個區間,設定為i。

(2)計 算 ui(x,y)和 Ci(x,y)。

(3)根據Ci(x,y)把區間從小到大分類。

(4)設定 Ci(x,y)最大的區間的 ui(x,y)作為背景模型Mt中對應點的像素值。

(5)對視頻流各幀所有像素點重復步驟(1)~(4)。

2.2 背景模型更新

經過上述幾個步驟,得到能自適應光強度變化的背景模型。但在車輛擁擠、臨時停車或者車輛運動緩慢的情況下,背景模型容易出錯,導致車輛檢測準確性降低。為了在復雜交通狀況下也能得到理想的背景模型,論文在傳統σ-δ背景更新方法[7]基礎上提出了一個是否更新背景模型的判斷尺度。

圖2所示為判斷是否需要更新背景模型的流程圖。計算每個置信區間內的Vt,比較每個像素點的方差估計量Vt和最小方差估計量 Vmin的大小。如果 Vt<Vmin,說明背景變化較小,保持該像素點的背景模型的基礎上判斷車流量的大小。針對車流量狀況,作是否改變置信區間、是否更新背景模型的判斷。反之,如果Vt≥Vmin,背景變化較大,用上面的方法尋找一個新的背景模型,再作車流量情況的判斷。如果判斷需要更新,使用如下σ-δ算法更新:

(1)計算當前背景模型:Mt=Mt1+sgn(It-Mt1);

(3)更新方差估計量 Vt:Vt=Vt1+sgn(4△t-Vt1);

(4)計算幀差 Dt:Dt=(△t-Vt);

(5)判斷 Dt,如果 Dt為真,更新變化的 Vt和 Dt,否則只檢測不更新;

(6)更新檢測計數圖像 ItDC:ItDC+=(Dt==1)。

3運動目標提取

圖2選擇更新背景模型流程圖

其中,M(x,y)是運動車輛的像素集,I(x,y)是當前幀在點(x,y)的灰度值,B(x,y)是背景圖像在點(x,y)的灰度值,K為閾值。

閾值分割的核心是閾值的選取問題。若閾值選取過大,會使車輛的某些部分被認為是背景,使得車輛圖像殘缺,獲得的車輛信息不準確;若閾值選取過小,由于光照的原因形成的陰影會和車輛粘連在一起,變成了車輛的一部分。因此選取合適的閾值對運動車輛部分準確地提取出來非常關鍵。

本文選取基于最大方差理論的大津法作為視頻車輛檢測中閾值分割的處理算法。取閾值將物體從背景中分離出來,實際上就是將圖像中的所有像素分為2組,或屬于物體像素,或屬于背景像素。由概率論中的理論得知,若使待分割的2組數據方差最大,則得到2組數據的錯分概率最小。

經過閾值分割已經能夠成功地分割出運動車輛。大津法分割得到的二值圖像仍然在車輛內部存在黑色像素點的問題。為了使檢測到的運動目標完整而連續,對背景幀差法得到的二值圖像進行形態學膨脹與腐蝕。實驗證明,經過三次膨脹與腐蝕之后的圖像,可以基本填補運動目標的空洞。

4實驗結果

本文以智能交通中車輛自動監視系統為應用背景,通過實驗證明提出方法的正確性。使用固定在三腳架上的攝像機在室外攝取不同場景的視頻進行實驗。實驗平臺為PC機Matlab7.0仿真。

圖3為自適應背景模型的提取。選取特殊的臨時停車情況,本文提出的算法能夠自適應提取出背景模型。本文提出的算法在第621幀時能夠得到理想的背景模型,如圖3所示;而利用高斯分布提取背景模型的方法則在1 460幀時才能獲得如圖所示的理想的背景模型。所以該算法比傳統的算法在計算速度上有所提高,能夠實時性地檢測出運動車輛。

圖4為一段城市交通視頻,圖5為城市交通視頻中臨時停車情況,其中左下角為原始視頻,右下角為本文算法提取的背景模型,左上角為檢測出的運動物體,右上角為標定檢測出的運動車輛。圖4分別取了城市交通視頻的第59幀和第114幀,圖5選取了第618幀和第673幀,可以看出在繁忙的城市交通中,本文提出的算法能夠準確地檢測出運動車輛。

從圖4中可以看出在城市交通場景中運動車輛能夠實時地提取出理想的背景模型。通過背景差分辦法并結合閾值分割和形態學操作,精確地得到了運動區域。

從圖5可以看到臨時停車時,能夠準確提取出背景模型。當車輛經過短暫的停車又并入車流時,背景中這個車輛慢慢變得模糊,而且在運動目標提取時提取了該車輛。說明該算法能夠在提高計算速度的同時保證檢測精確度。

本文以背景模型的建立和選擇性更新為基礎實現車輛檢測。為了適應快速改變的交通環境,本文提出一個自適應的背景模型算法。在建立自適應背景模型后,利用灰度圖像與背景模型差分實現運動目標提取。結合基于最大方差理論的大津法求取閾值進行閾值分割,最后利用形態學膨脹和腐蝕操作填補閾值分割后運動目標的空洞,標定出視頻圖像中的運動車輛。仿真實驗證明,提出的算法在像素水平上建立自適應光強度等環境變化背景模型,同時估計交通流量的大小,通過對交通流量的估計判斷是否更新背景模型。本文提出的算法對于復雜交通環境(交通堵塞,車流量非常大,車流緩慢,交通堵塞或臨時停車等情況)有很好的背景提取和更新效果,并且能實時精確地提取出運動車輛的完整信息。

[1]CUCCHIARA R,GRANA C,PICCARD M,et al.Detecting moving objects,ghosts,and shadows in video streams[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,25:(10):1337-1342.

[2]MITTAL A,PARAGIOS N.Motionbased background subtraction using adaptive kernel density estimation[J].Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2004,2:302-309.

[3]PICCARDI M.Background subtraction techniques:a review[J].Proceedings of IEEE International Conference on Systems,Man,and Cybernetics.Hague,Netherlands:IEEE,2004:3099-3140.

[4]WANG Xing,PAN Shi Zhu.Real time detection of moving object in video surveillance system[J].Microcomputer and Its Application,2004(156):47-49.

[5]ZHAO Ming,LI Na,CHEN Chun.Statistical inference for automatic video segmentation[J].Computer-aided Design and Computer Graphics,2005(36):318-323.

[6]COLOMBARI A,FUDIELLO A,MURINO V.Segment and tracking of multiple video objects[J].Pattern Recognition,2007,40(4):1307-1317.

猜你喜歡
背景檢測模型
一半模型
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
晚清外語翻譯人才培養的背景
3D打印中的模型分割與打包
主站蜘蛛池模板: 99热线精品大全在线观看| 亚洲欧美一区二区三区蜜芽| 国产精品一线天| 国产精品尤物铁牛tv| 国产欧美综合在线观看第七页| 日韩黄色大片免费看| 91视频国产高清| 欧美人与牲动交a欧美精品| 日韩专区欧美| 亚洲综合中文字幕国产精品欧美| 手机看片1024久久精品你懂的| 国产亚洲精| 国产毛片高清一级国语| 国产亚洲精| 91丨九色丨首页在线播放| 99视频国产精品| 亚洲精品少妇熟女| 伊伊人成亚洲综合人网7777 | 国产啪在线91| 国产欧美日韩免费| 99久久亚洲精品影院| 国产精品内射视频| 99999久久久久久亚洲| 无码中文字幕精品推荐| 久久夜色精品国产嚕嚕亚洲av| 欧美三級片黃色三級片黃色1| 91网在线| 久久a级片| 国产精品久久久久久影院| 欧美日本在线| 国产精品美女免费视频大全| 欧美亚洲国产一区| 操国产美女| 亚洲国产综合精品中文第一| 亚洲无码高清一区| 无码啪啪精品天堂浪潮av| 亚洲国产日韩一区| 国产综合精品日本亚洲777| 国产精品黄色片| 国产无码在线调教| 第九色区aⅴ天堂久久香| 无遮挡国产高潮视频免费观看| 国产美女91视频| 一本大道AV人久久综合| 亚洲精品视频免费| 亚洲中文字幕在线一区播放| 国产9191精品免费观看| 亚洲永久精品ww47国产| 国产黄在线观看| 欧美人在线一区二区三区| 国产成人综合亚洲欧美在| 国产专区综合另类日韩一区| 一级毛片在线播放免费观看| 精品三级网站| 亚洲男人天堂2020| 国产精品亚欧美一区二区 | 国产一级做美女做受视频| 97se亚洲综合在线| 亚洲V日韩V无码一区二区| 国产丰满成熟女性性满足视频| 久久综合亚洲色一区二区三区| a毛片基地免费大全| 久精品色妇丰满人妻| www.youjizz.com久久| 黄色网址免费在线| 亚洲日本中文字幕乱码中文| 91美女在线| 性视频久久| 久久久久夜色精品波多野结衣| 久久国产黑丝袜视频| 久久精品无码专区免费| 国内精品小视频在线| 国产靠逼视频| 在线国产91| 亚洲综合精品香蕉久久网| 国产a网站| 亚洲bt欧美bt精品| 一区二区午夜| 2048国产精品原创综合在线| 永久免费av网站可以直接看的| 欧美一级片在线| 久久精品午夜视频|