999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

雙背景模型自適應(yīng)運(yùn)動(dòng)目標(biāo)檢測(cè)算法在交通監(jiān)控系統(tǒng)中的應(yīng)用研究

2020-05-11 11:43:41成亞玲彭湘華譚愛(ài)平
微型電腦應(yīng)用 2020年1期

成亞玲 彭湘華 譚愛(ài)平

摘 要: 針對(duì)現(xiàn)有運(yùn)動(dòng)目標(biāo)檢測(cè)算法不能滿足復(fù)雜場(chǎng)景需求,提出一種基于高斯混合模型和時(shí)間平均模型改進(jìn)的雙背景模型自適應(yīng)運(yùn)動(dòng)目標(biāo)檢測(cè)算法。對(duì)視頻圖像背景進(jìn)行簡(jiǎn)單背景和復(fù)雜背景自適應(yīng)判別,并建立相應(yīng)的背景模型。雙背景模型獲取的運(yùn)動(dòng)目標(biāo)區(qū)域信息更完整、清晰。實(shí)驗(yàn)表明,與傳統(tǒng)檢測(cè)算法相比,新算法在去除區(qū)域孔洞、目標(biāo)區(qū)域完整性具有較好性能和優(yōu)越性。

關(guān)鍵詞: 智能交通; 目標(biāo)檢測(cè); 陰影抑制; 高斯模型; 雙背景自適應(yīng)模型

中圖分類號(hào): TG409 ? ? ?文獻(xiàn)標(biāo)志碼: A

Applcaton of Dual Background Model Adaptve Moton

Target Detecton Algorthm n Traffc Montorng System

CHENG Yalng, Peng Xanghua TAN Apng

(School of nformaton Engneerng, Hunan ndustry Polytechnc, Changsha 410208, Chna)

Abstract: Because the exstng movng target detecton algorthm cannot meet the complex scene requrements, an mproved movng target detecton algorthm based on Gaussan mxture model and tme-average model s proposed. The algorthm performs smple background and complex background adaptve dscrmnaton on the vdeo mage background, and establshes the correspondng background model. The movng target regon nformaton obtaned by the dual background model s more complete and clearer. Experments show that compared wth the tradtonal detecton algorthm, the new algorthm has better performance and advantages n removng regonal holes and ntegrty of the target regon.

Key words: ntellgent transportaton; Target detecton; Shadow suppresson; Gaussan model; Dual background adaptve model

0 引言

隨著社會(huì)快速發(fā)展,智能交通系統(tǒng)(ntellgent Transportaton Systems,簡(jiǎn)稱TS)在旅游出行、車輛識(shí)別以及平安城市等方面提供全方位信息,在人們生活工作中的作用日益凸顯。在智能視頻監(jiān)控系統(tǒng)中, 運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤是實(shí)現(xiàn)其智能化工作的基礎(chǔ)[1]。同時(shí),視頻圖像處理技術(shù)是智能交通視頻監(jiān)控系統(tǒng)中比較重要的一個(gè)技術(shù)領(lǐng)域。視頻圖像處理技術(shù)通過(guò)對(duì)監(jiān)控圖像序列進(jìn)行智能分析、判別場(chǎng)景中運(yùn)動(dòng)目標(biāo)的行為,并對(duì)交通道路中出現(xiàn)異常情況做出及時(shí)的反應(yīng)。

1 研究現(xiàn)狀

1.1 智能交通系統(tǒng)研究現(xiàn)狀

智能交通系統(tǒng)是近年來(lái)交通運(yùn)輸發(fā)展的熱點(diǎn)問(wèn)題之一。自第一屆智能交通系統(tǒng)世界大會(huì)至今,歐美日等過(guò)在TS方面投入較多,成果凸顯。如,2001年歐盟年頒布了歐洲運(yùn)輸政策白皮書(shū),對(duì)交通事故進(jìn)行主動(dòng)預(yù)防等;計(jì)劃2013年在所有大型車輛安裝車道偏離預(yù)警、緊急制動(dòng)系統(tǒng)等主動(dòng)安全措施。2009年美國(guó),建立了智能交通環(huán)境,提高其交通系統(tǒng)的安全性[2] [3]。日本在TS方面自1960年代大力發(fā)展智能交通系統(tǒng)。我國(guó)自20世紀(jì)90年代,TS受到政府、科研機(jī)構(gòu)和企業(yè)的關(guān)注。從國(guó)家戰(zhàn)略角度,由國(guó)家科技部牽頭聯(lián)合多部門全面規(guī)劃智能交通發(fā)展。

1.2 運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)研究現(xiàn)狀

大力發(fā)展運(yùn)動(dòng)目標(biāo)監(jiān)測(cè)相關(guān)技術(shù)有利于我國(guó)TS標(biāo)準(zhǔn)制定、改造和完善城市交通管理系統(tǒng)、發(fā)展公共交通系統(tǒng)等業(yè)務(wù)?;谝曨l的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)受到社會(huì)各界廣泛關(guān)注。如實(shí)時(shí)視覺(jué)監(jiān)控系統(tǒng)W4[4],對(duì)室外多人環(huán)境下的活動(dòng)進(jìn)行檢測(cè)、跟蹤、定位,并通過(guò)建立模型實(shí)現(xiàn)跟蹤與檢測(cè)。國(guó)際上各權(quán)威期刊如PAM、WVS等都對(duì)基于視頻的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)進(jìn)行了相關(guān)研究。在TS中,運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)主要包含視頻圖像預(yù)處理、運(yùn)動(dòng)目標(biāo)檢測(cè)、運(yùn)動(dòng)目標(biāo)追蹤、目標(biāo)行為識(shí)別和場(chǎng)景理解描述等方面內(nèi)容。其中,運(yùn)動(dòng)目標(biāo)檢測(cè)是目標(biāo)跟蹤、行為理解、場(chǎng)景理解等后期處理的基礎(chǔ)。運(yùn)動(dòng)目標(biāo)檢測(cè)方法核心理念是利用目標(biāo)相對(duì)于場(chǎng)景的運(yùn)動(dòng),將目標(biāo)從背景中分離處理,實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測(cè)。從研究文獻(xiàn)來(lái)看,現(xiàn)有的檢測(cè)方法通常有幀間差分法[5]、光流法[6]、背景差減法[7]等?,F(xiàn)有運(yùn)動(dòng)目標(biāo)檢測(cè)算法各有優(yōu)缺點(diǎn),但共同的缺陷是對(duì)目標(biāo)陰影不能很好的進(jìn)行有效抑制。所以,對(duì)運(yùn)動(dòng)目標(biāo)陰影進(jìn)行有效抑制是運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)的一個(gè)重要研究方向。

國(guó)內(nèi)學(xué)者對(duì)運(yùn)動(dòng)目標(biāo)陰影抑制研究主要有兩類:基于模型的陰影抑制和基于屬性的陰影抑制。雖然國(guó)內(nèi)學(xué)者對(duì)運(yùn)動(dòng)目標(biāo)的背景也進(jìn)行了建模研究[8],如,高斯混合模型、卡爾曼估計(jì)模型等,但運(yùn)動(dòng)目標(biāo)檢測(cè)算法在復(fù)雜場(chǎng)景下并不完美。針對(duì)在TS中交通道路視頻監(jiān)控畫(huà)面背景復(fù)雜、系統(tǒng)實(shí)時(shí)性要求高、檢測(cè)出運(yùn)動(dòng)目標(biāo)難度大等現(xiàn)實(shí)困境,本文對(duì)復(fù)雜背景運(yùn)動(dòng)目標(biāo)檢測(cè)算法進(jìn)行改進(jìn),提高系統(tǒng)實(shí)時(shí)性、準(zhǔn)確性,改善檢測(cè)效果。

2 雙模型自適應(yīng)背景建模方法改進(jìn)

2.1 運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)基礎(chǔ)

運(yùn)動(dòng)目標(biāo)檢測(cè)是后續(xù)運(yùn)動(dòng)目標(biāo)追蹤、行為分類、行為識(shí)別等操作的基礎(chǔ)。視頻監(jiān)控圖像運(yùn)動(dòng)目標(biāo)檢測(cè)包括圖像預(yù)處理、圖像分割、特征提取、判決分類等環(huán)節(jié),如圖1所示。

在TS中,圖像傳輸和轉(zhuǎn)換會(huì)導(dǎo)致圖像部分質(zhì)量下降,運(yùn)動(dòng)目標(biāo)圖像預(yù)處理通過(guò)技術(shù)手段對(duì)圖像質(zhì)量進(jìn)行還原與改善。圖像質(zhì)量的改善,目前有圖像增強(qiáng)和圖像復(fù)原兩大類技術(shù),而在TS中通常使用變換域和空間域[9]兩種圖像增強(qiáng)技術(shù)。

圖像分割即把圖像分割成多個(gè)差異明顯的區(qū)域,并提取感興趣的目標(biāo) [1]。通常將運(yùn)動(dòng)目標(biāo)圖像中感興趣的部分圖像稱之為前景或目標(biāo),其它稱為背景。目前常用的圖像分割有基于區(qū)域、基于邊緣檢測(cè)和基于特定理論等3種分割技術(shù)[10]。

運(yùn)動(dòng)目標(biāo)特征提取,關(guān)鍵在于特征的選取及特征識(shí)別。在TS中通常采用具有唯一性、魯棒性等多個(gè)組合特征來(lái)識(shí)別圖像?;谀J教卣鞑煌x擇、判決方法不同,運(yùn)動(dòng)目標(biāo)判決識(shí)別一般有結(jié)構(gòu)模式、模糊模式、統(tǒng)計(jì)模式三種識(shí)別模式[11]。

2.2 運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)算法研究

運(yùn)動(dòng)目標(biāo)檢測(cè)其核心思想是從視頻監(jiān)控圖像頻序列中,將變化區(qū)域的運(yùn)動(dòng)目標(biāo)圖像從背景中較完整提取出來(lái)。由于受光照、天氣等外界影響,導(dǎo)致運(yùn)動(dòng)目標(biāo)的正確檢測(cè)有很大困難。目前常用的檢測(cè)技術(shù)方法有光流法,幀間差分法,背景差減法等。

光流法,描述空間運(yùn)動(dòng)物體動(dòng)態(tài)行為與表面結(jié)構(gòu)的信息,適用于瞬時(shí)速度場(chǎng)景。光流的計(jì)算有基于匹配(基于區(qū)域、基于特征進(jìn)行定位跟蹤)、頻域(通過(guò)濾波進(jìn)行相位或頻率輸出)、梯度(采用序列的時(shí)空微分計(jì)算光流)的3種方法。改方法由于受陰影、噪聲等影響,精確度低復(fù)雜度高,難以滿足實(shí)時(shí)性檢測(cè)需求。

幀間差分法,對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)雖然具有自適應(yīng)性強(qiáng)、魯棒性好等特點(diǎn),但是其應(yīng)用場(chǎng)景要求具備噪聲較小、背景基本無(wú)變化、目標(biāo)速度不為零且目標(biāo)區(qū)域亮度變化明顯等特性,導(dǎo)致對(duì)動(dòng)態(tài)目標(biāo)進(jìn)行跟蹤時(shí)必須采用如塊匹配法、坐標(biāo)變換法等對(duì)全局運(yùn)動(dòng)作出補(bǔ)償才能達(dá)到較好的檢測(cè)效果。在幀間差分算法中典型代表為雙差分方法,該方法在差分圖像基礎(chǔ)上進(jìn)行二次像素相乘處理,其計(jì)算公式如式(1)—式(3)。DK-1(x,y)=|K(x,y)-K-1(x,y)|

(1)

DK(x,y)=|K+1(x,y)-K(x,y)|

(2)

TK(x,y)=1DK(x,y)≥T∩DK-1(x,y)≥T

0DK(x,y)(3) ?幀間差分算法中的區(qū)域差分法利用空間信息消除噪聲影響,其運(yùn)算為式(4)。HK(x,y)=∑(x,y)∈AHK(x,y)

(4)

DK-1(x,y)=|HK(x,y)-HK-1(x,y)|

(5) ?HK(x,y)為模板區(qū)域內(nèi)圖像像素灰度和,A為模板區(qū)間。

背景差減法,將背景模型與輸入視頻圖像對(duì)比,通過(guò)對(duì)比其灰度特征或直方圖統(tǒng)計(jì)信息變化來(lái)分割運(yùn)動(dòng)目標(biāo)并判別異常情況。其工作流程圖2所示。

背景差減法利用當(dāng)前背景幀與當(dāng)前幀進(jìn)行差值后得到圖像。假設(shè)圖像序列第H幀在像素(x,y)的灰度值為H(x,y),用BH(x,y)表示其背景灰度值,那么其背景差圖DH(x,y)、二值TH(x,y)結(jié)果是式(6)、式(7)。DH(x,y)=|K+1(x,y)-BK(x,y)|

(6)

TH(x,y)=1DH(x,y)≥thresh

0DH(x,y)(7) ?在(7)中,thresh為二值化的閥值,當(dāng)TK(x,y)=1時(shí),表示其為當(dāng)前圖像與一部分被誤判成前景的噪聲。背景差減法可以檢測(cè)不運(yùn)動(dòng)的物體,但其收天氣、光線等條件影響較大,同時(shí)因背景更新導(dǎo)致算法復(fù)雜性和實(shí)時(shí)性不能完全滿足現(xiàn)實(shí)需求。

2.3 TS中視頻監(jiān)控背景建模研究

在TS中,運(yùn)動(dòng)目標(biāo)檢測(cè)首要任務(wù)是準(zhǔn)確獲取背景圖像,并為后續(xù)各種高級(jí)操作奠定基礎(chǔ)。但是,在現(xiàn)實(shí)場(chǎng)景中經(jīng)常存在背景樹(shù)葉、樹(shù)枝的擾動(dòng)、早中晚光照變化、天氣影響、背景更新等因素影響。目前背景建模算法主要有模型法和非模型法兩類自適應(yīng)背景提取及更新方法。模型法通過(guò)為背景中每個(gè)像素點(diǎn)建立一個(gè)獨(dú)立的背景模型,提取背景圖像。模型法采用自適應(yīng)更新機(jī)制較好適應(yīng)交通道路背景變化。如,高斯混合分布模型就是采用自適應(yīng)更新機(jī)制,并能較好適應(yīng)交通道路背景變化來(lái)提取背景圖像。背景模型的建立通常包含背景初始化、背景更新兩個(gè)步驟。在背景初始化算法中典型算法有時(shí)間平均模型、高斯混合模型以及像素估計(jì)等3種方法。時(shí)間平均模型法(TAM),基于某時(shí)間序列的視頻圖像,對(duì)其取平均值,得到背景估計(jì)值。該算法簡(jiǎn)單,復(fù)雜度低,但存在前景、背景容易混淆、圖像不清晰、準(zhǔn)確率不高等缺點(diǎn)。像素估計(jì)法,即從過(guò)去的視頻序列中對(duì)每個(gè)像素的背景值進(jìn)行估計(jì),典型的方法有時(shí)間中值法[12] [13]。高斯混合模型法(GMM),高斯混合模型法所建立的模型為像素級(jí)模型,圖像中每個(gè)像素點(diǎn)都有自己的獨(dú)立模型,對(duì)TS視頻監(jiān)控圖像中任何一像素點(diǎn)(x,y),其灰度值在一定時(shí)間內(nèi)構(gòu)成一個(gè)時(shí)間序列,如圖3所示。

在緩慢變化的場(chǎng)景下,視頻監(jiān)控圖像中的像素點(diǎn)在過(guò)去一定時(shí)間內(nèi)樣本灰度值時(shí)間序列分布都可以用一個(gè)高斯混合模型來(lái)進(jìn)行定義或描述。因視頻圖像中每個(gè)點(diǎn)都有其相依的模型參數(shù),進(jìn)而可以準(zhǔn)確表達(dá)各像素點(diǎn)不同的分布情況,最終完成背景的準(zhǔn)確提取。

2.4 雙模型自適應(yīng)背景建模方法改進(jìn)

由于視頻背景中顏色分布的差異性很大,其對(duì)背景模型精細(xì)程度要求也不相同。由于傳統(tǒng)背景建模方法中像素顏色分布在時(shí)間上的時(shí)變性和在空間上的不一致性,導(dǎo)致模型在計(jì)算量小背景簡(jiǎn)單、計(jì)算量大且精細(xì)背景要求的實(shí)際應(yīng)用過(guò)程中存在不少困境。鑒于上述傳統(tǒng)模型存在的問(wèn)題,本研究將基于雙模型思路對(duì)分布范圍窄且取值范圍不確定性小的背景建立簡(jiǎn)單模型;對(duì)亮度范圍分布寬且取值不確定性大的背景建立精細(xì)模型,以此來(lái)提高算法的精確度。雙模型算法在高斯混合模型和時(shí)間平均模型的基礎(chǔ)上進(jìn)行改進(jìn),具體包括以下步驟:

2.4.1 劃分視頻監(jiān)控區(qū)域

監(jiān)控區(qū)域劃分,即將背景圖像通過(guò)熵圖像劃分成獨(dú)立不交叉的監(jiān)控區(qū)域,并從中選取代表性檢測(cè)區(qū)域級(jí)監(jiān)控點(diǎn)。在監(jiān)控點(diǎn)選取時(shí)盡量選擇區(qū)域中心附近的像素點(diǎn)。如,時(shí)間監(jiān)控圖像初始畫(huà)面尺寸大小為a×b,坐標(biāo)為(x, y)的像素表示為Px,y。進(jìn)行熵圖像計(jì)算時(shí),選取m×m為小區(qū)域尺寸,熵圖像尺寸為a′×l′,其中,a′=a/n,′=a/n。熵圖像中坐標(biāo)為(x′,y′)的像素表示為Px′,y′ ,與熵圖像對(duì)應(yīng)原始圖像中m×m小區(qū)域用R x′,y′表示。如果監(jiān)測(cè)區(qū)域的尺寸是m′×m′,則共有n″×b″個(gè)監(jiān)測(cè)點(diǎn),其中,n″=n/m′,b″=n′/m′。第(x″,y″個(gè)監(jiān)測(cè)點(diǎn)表示為Px″y″,第(x″,jy″)個(gè)監(jiān)測(cè)區(qū)域?yàn)镽 x″,y″,表示包含mm′×mm′個(gè)原始視頻監(jiān)控圖像中的像素。

2.4.2 監(jiān)測(cè)點(diǎn)亮度分布更新

在某時(shí)刻t,像素P x′,y′,欲更新其亮度分布直方圖,需確保應(yīng)用于R x′,y′的原始視頻中m×m個(gè)像素點(diǎn)在t時(shí)刻全部來(lái)自背景圖像,否則將不予以更新。假設(shè)時(shí)間標(biāo)簽t為當(dāng)前圖像序列時(shí)刻,t′是激活直方圖更新過(guò)程的起始。分別用D x′,y′,c(t′)和H x′,y′,c(t′)表示監(jiān)測(cè)點(diǎn)Px′,y′經(jīng)過(guò)t′次更新后的直方圖和視頻分布,如式(8)、(9)。D x′,y′,c(t′)=[b x′,y′,c,l(t′)…b x′,y′,c,g(t′)]T

(8)

Hx′,y′,c(t′)=[b′ ?x′,y′,c,l(t′)…b′ ?x′,y′,c,g(t′)]T

(9) ?上式中,g表示灰度級(jí)數(shù)目,b x′,y′,c,z(t′)表示D x′,y′,c(t′)的第L個(gè)箱格的概值,b′ ?x′,y′,c,z(t′)表示H x′,y′,c(t′)的L個(gè)箱格中樣本數(shù)。

2.4.3 監(jiān)測(cè)點(diǎn)灰度值計(jì)算

根據(jù)熵的定義和性質(zhì),在更新模塊周期內(nèi),可以獲取熵圖像在時(shí)刻t的紅藍(lán)綠三個(gè)通道上的亮度分布直方圖。即式(10)。FN x′,y′,c(t)=-∑8q=1b x′,y′,c,q(t)log2b x′,y′,c,q(t)/log2g

(10) ?FN x′,y′,c(t)∈A[0,1],可以將三個(gè)通道上歸一化的熵值分別用FN x′,y′,R(t)、FN x′,y′,G(t)、FN x′,y′,B(t)表示,令式(11)。FN x′,y′(t)=max{FN x′,y′,R(t),F(xiàn)N x′,y′,G(t),F(xiàn)N x′,y′,B(t)}

(11) ?將FN x′,y′(t)按照式(12)映射到(0-255)灰度值并取整,獲得熵圖像上Px′,y′的灰度值FN x′,y′(t)如式(12)。FN x′,y′(t)=[255 FN x′,y′(t)]

(12)2.4.4 監(jiān)測(cè)區(qū)域更新決策

檢測(cè)區(qū)域中除監(jiān)測(cè)點(diǎn)外其它像素點(diǎn)只有在其亮度分布出現(xiàn)較大改變時(shí)才被啟動(dòng)更新,通過(guò)不斷更新Px″y″ 像素點(diǎn)的歸一化熵值,并對(duì)其灰度值進(jìn)行計(jì)算、判斷其它像素點(diǎn)是否發(fā)生較大變化。假設(shè)用S x″,y″(t)表示t時(shí)刻監(jiān)測(cè)區(qū)域更新決策模塊的二值邏輯輸出信號(hào),即式(13)。Sxm,yn(t)=1,|Fxm,yn(t)-Fxn,ym(t)|>ε1

0,|Fxm,yn(t)-Fxn,ym(t)|≤ε1

(13) ?在式(13)中,Sxm,yn(t)等于0時(shí)表示不更新,當(dāng)Sxm,yn(t)等于1時(shí)表示啟動(dòng)更新算法。

2.4.5 熵圖更新終止邏輯

由于抽樣位置對(duì)歸一化熵值的增量(ΔFNx′,y′(t′))影響比較大,所以不能用簡(jiǎn)單用熵值的增量值是否非常小而決定應(yīng)不應(yīng)該對(duì)分布更新進(jìn)行終止操作,通常可以用R濾波器對(duì)某時(shí)間序列熵值增量進(jìn)行平滑處理,經(jīng)過(guò)平滑出來(lái)后能科學(xué)合理地判定是否終止更新。如式(14)。

ΔFNSx′,y′(t′)=

c0t′=0

(1-γ)ΔFNSx′,y′(t′-1)+γΔFNSx′,y′(t′),t′t′≠0

(14)

在式(14)中,c0為濾波器初始值,γ為平滑參數(shù),對(duì)ΔFNSx′,y′(t′)用閥值法來(lái)判定是否更新,即式(15)。S′ ?x′,y′(t′)=1,ΔFNSx′,y′(t′)<ε2

0,ΔFNSx′,y′(t′)≥ε2

(15) ?在式(15)中,ε2為判決閥值,S′ ?x′,y′(t′)表示t′次更新時(shí)間,更新終止邏輯對(duì)點(diǎn)Px′,y′的輸出邏輯值。當(dāng)S′ ?x′,y′(t′)=1時(shí),斷開(kāi)開(kāi)關(guān)停止P x′,y′更新,當(dāng)S′ ?x′,y′(t′)=0時(shí),表示繼續(xù)更新。

2.4.6 背景復(fù)雜度判斷邏輯

背景復(fù)雜度判斷邏輯通常根據(jù)每個(gè)像素熵圖像的灰度值來(lái)決定采取哪種背景模型。如在t時(shí)刻背景圖像中的每個(gè)像素點(diǎn)Px,y對(duì)應(yīng)一個(gè)灰度值Fx,y(t),即式(16)。Px,y=∈A(t),F(xiàn)Nx,y(t′)<ε3

∈(t),F(xiàn)Nx,y(t′)≥ε3

(16) ?在式(16)中ε3為判別閥值,A(t)和(t)表示高、低復(fù)雜背景點(diǎn)的集合,通過(guò)該公式可以判別像素點(diǎn)屬于簡(jiǎn)單背景或復(fù)雜背景區(qū)域。

2.4.7 簡(jiǎn)單背景模型

簡(jiǎn)單背景模型通常采用時(shí)間平均模型的方法進(jìn)行背景更新,其更新過(guò)程為式(17)。μ(x,y)=(1-α)μt-1(x,y)+αXt(x,y)

(17) ?在式(17)中,μ(x,y)為參考背景圖像中像素點(diǎn)(x, y)的t時(shí)刻值,α為模型的學(xué)習(xí)速度,Xt(x,y)為像素(x, y)在t時(shí)刻的觀測(cè)值。在t+1時(shí)刻,若像素滿足式(18),那么它就屬于背景,否則它屬于前景。式(18)中‖‖為向量范數(shù),thresh為判別閾值為式(18)。‖Xt+1(x,y)-μt(x,y)‖(18)2.4.8 精細(xì)背景模型

利用高斯混合模型,將背景圖像中每個(gè)像素亮度分布用N個(gè)高斯函數(shù)來(lái)近似,其表達(dá)為式(19)。P(Xt)=∑N=1w,tδ(x,μ,t,∑,t)

(19) ?在式(19)中,權(quán)值w,t必須滿足∑N=0w,t=1,μ,t為均值向量,∑,t為協(xié)方差矩陣。在復(fù)雜精細(xì)背景模型中首先要確定代表背景的高斯模型有多少個(gè)(用B表示),通常做法是先找出背景分布的高斯分量,再將N個(gè)高斯函數(shù)值從大到小排序,取前面B個(gè)作為代表背景高斯模型,即式(21)。B=arg mn(∑b=1w,t>T)

(20) ?在式(20)中,T為設(shè)定的閥值參數(shù)。當(dāng)某像素觀測(cè)值Xt+1到來(lái)時(shí),若B個(gè)高斯函數(shù)中任何一個(gè)滿足式(21),那么表示該像素P在t+1時(shí)刻為背景,否則將其判決為運(yùn)動(dòng)目標(biāo)。在式(21)中,λ通常默認(rèn)值為2.5。如式(21)?!琗t+1-μ,t‖<λσ,t, ∈1,2,…,B

(21)3 實(shí)驗(yàn)仿真與結(jié)果分析

在仿真實(shí)驗(yàn)中,在高斯混合模型(GMM)和時(shí)間平均模型(TAM)基礎(chǔ)上,改進(jìn)雙模型運(yùn)動(dòng)目標(biāo)檢測(cè),視頻采用地方交通運(yùn)輸部門視頻,視頻原始幀為25幀/秒,圖像尺寸為320×240。實(shí)驗(yàn)仿真中,GMM的方差、均值和權(quán)值學(xué)習(xí)速度均為0.002 5,閥值參數(shù)ε1為25,ε2為4×10-5,平滑參數(shù)γ為0.15。TAM均值學(xué)習(xí)速度為0.003,決策閥值為20。

實(shí)驗(yàn)視頻圖像序列如圖4所示。

由于樹(shù)葉的晃動(dòng)造成動(dòng)態(tài)陰影以及周邊車輛的干擾,導(dǎo)致背景圖像具有較強(qiáng)的動(dòng)態(tài)性。

圖4為原始圖像,圖5為高斯混合模型(GMM)處理結(jié)果,圖6為時(shí)間平均模型(TAM)處理結(jié)果,圖7為雙模型自適應(yīng)算法處理結(jié)果。

從圖5、圖6、圖7可直觀看出,時(shí)間平均模型和高斯混合模型法都存在目標(biāo)信息不完整和車身區(qū)域空掉較多等問(wèn)題;而利用本研究的雙模型自適應(yīng)算法檢測(cè)的目標(biāo)信息交完整且相對(duì)清晰,具體各種方法的參數(shù)對(duì)比見(jiàn)表1所示。

通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)在雙模自適應(yīng)算法中對(duì)ε3取值為130時(shí)效果最好,當(dāng)ε3值變大時(shí),雖然檢測(cè)速度增加了,但是檢測(cè)效果卻并沒(méi)有顯著提升。

4 總結(jié)

本章提出了一種基于高斯混合模型(GMM)和時(shí)間平均模型(TAM)來(lái)改進(jìn)雙模型自適應(yīng)運(yùn)動(dòng)目標(biāo)檢測(cè)算法。相比傳統(tǒng)算法,本算法可根據(jù)場(chǎng)景中不同區(qū)域自適應(yīng)選用不同的模型,以提高算法的準(zhǔn)確性和性能。通過(guò)實(shí)驗(yàn)及參數(shù)比較,表明本研究算法具有較好性能和優(yōu)越性。

參考文獻(xiàn)

[1] 石明豐,王玲,張會(huì)勇.靜止成像平臺(tái)近景視頻運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[J].世界科技研究與發(fā)展,2013,35(1):62-64.

[2] Hamll A.A Topology—Based Approach to the Predctve Analyss of ntellgent Transportaton Systems Dynamcs[C]. New Technologes Moblty and Securty 5th nternatonal Conference, stanbul, 2016(10):1-5.

[3] Aldona Jarastuncne. Research nto ntellgent Transport Systems (TS )technologes and Effcency[J]. Transport,2010,22(2):61-67.

[4] Hartaoglu ,Harwood D,Davs L.W4:Real-tme survellance of people and ther actvtes[J].EEE Trans. on Pattern Analyss and Machne ntellgence,2009,22(8):809-830.

[5] Chen N,Dng F.Flame Object Segmentaton by an mproved Frame Dfference Method [C].2012 the Thrd nternatonal Conference on Dgtal Manufacturng and Automaton.Guangx,2015(8):422-425.

[6] Sakano H. A Sem transparency-Based Optcal-Flow Method wth a Pont Trajectory Model for Partcle-Lke Vdeo[J]. EEE Transactons on mage Processng,2012,21(2):441-450.

[7] ntachak T, Kaewapcha W. Real-tme llumnaton feedback system for adaptve background subtracton workng n traffc vdeo montorng[C].2015 nternatonal Symposum on ntellgent Sgnal Processng and Communcatons systems.Japan(Nagoya),2015(8):1-5.

[8] Gallego J, Pardas M,Haro G Bayesan foreground segmentaton and trackng usng pxel-wse background model and regon based foreground model[C]. Proc. of the 16th EEE nternatonal Conference mage Processng, Caro,2012,16(4), 3205-3208.

[9] 喬玲玲. 圖像分割算法研究及實(shí)現(xiàn)[D].武漢:武漢理工大學(xué),2009.

[10] Nkh ?R, Pal.A revew on mage Segment Technques[J].Patter Recognton,2003,26(9):1277-1291.

[11] 金聰,郭京蕾. 人工智能原理與應(yīng)用[M].北京:清華大學(xué)出版社,2013.

[12] Long W,Yang Y.Statonary background generaton:An alternatve to the dfference of two mages[J].Pattern Recognton,2014,23(12):1351-1359.

[13] 楊艷.智能交通中運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法研究[D].昆明:昆明理工大學(xué),2016.

(收稿日期: 2018.12.12)

基金項(xiàng)目:湖南省教育廳科研項(xiàng)目(15B072)

作者簡(jiǎn)介:成亞玲(1981-),女(回族),上海青浦人,副教授、軟件設(shè)計(jì)師,碩士,主要研究方向:軟件工程、模式識(shí)別和人工智能。

彭湘華(1985-),男,株洲人,講師、軟件設(shè)計(jì)師,碩士,研究方向:數(shù)據(jù)挖掘。

譚愛(ài)平(1979-),男,株洲人,副教授、網(wǎng)絡(luò)工程師,碩士,研究方向:數(shù)據(jù)挖掘。文章編號(hào):1007-757X(2020)01-0036-05

主站蜘蛛池模板: 成人福利免费在线观看| 自慰高潮喷白浆在线观看| 狠狠色噜噜狠狠狠狠色综合久 | 色综合网址| 亚洲高清中文字幕在线看不卡| 91久久精品国产| 免费 国产 无码久久久| 国产午夜一级淫片| 国产香蕉国产精品偷在线观看| 亚洲精品福利网站| 国产亚洲视频中文字幕视频| 国产成人一区二区| 国产一级毛片在线| 无码精品福利一区二区三区| 免费三A级毛片视频| 国产成人1024精品下载| 免费观看无遮挡www的小视频| 色妞www精品视频一级下载| 亚洲综合国产一区二区三区| 99ri精品视频在线观看播放| 日日拍夜夜操| 欧美午夜在线播放| 在线观看国产一区二区三区99| 一级黄色片网| 国产靠逼视频| 久久精品人人做人人爽97| 99r在线精品视频在线播放| 98超碰在线观看| 久久精品这里只有国产中文精品| 国产精品久久自在自线观看| 亚洲精品在线影院| 欧美高清三区| 久久国产成人精品国产成人亚洲 | 亚洲国产精品不卡在线 | 成人午夜免费观看| 在线欧美a| 人人91人人澡人人妻人人爽 | 午夜福利视频一区| 中文字幕一区二区人妻电影| 欧美中文字幕第一页线路一| 乱人伦视频中文字幕在线| 在线免费看黄的网站| www.精品国产| 一区二区无码在线视频| 国产AV无码专区亚洲A∨毛片| 国产日韩精品一区在线不卡| 国产网站免费观看| 日韩在线2020专区| 国产手机在线ΑⅤ片无码观看| 久操中文在线| 91免费国产在线观看尤物| 国产日韩欧美精品区性色| 青青草一区二区免费精品| 日本影院一区| 在线国产91| a亚洲视频| 夜夜操天天摸| 国产手机在线观看| 波多野结衣在线se| 九九九久久国产精品| 99久久精彩视频| 国产精品亚洲一区二区三区z | 蜜桃视频一区二区三区| 亚洲第一视频网| 综合色区亚洲熟妇在线| 久久国语对白| 国产在线啪| 亚洲天堂首页| 最新无码专区超级碰碰碰| 欧美成人午夜视频免看| 亚洲小视频网站| swag国产精品| 国产精品 欧美激情 在线播放 | 成人小视频网| 亚洲天堂视频在线观看免费| 亚洲人妖在线| 午夜老司机永久免费看片| 久草热视频在线| 性视频久久| 日韩精品久久无码中文字幕色欲| 日本一区二区三区精品国产| 亚洲精品国偷自产在线91正片|