999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于線性內(nèi)插權(quán)值人群密度估計(jì)的方法研究

2018-07-27 06:50:48張朋溫宏愿
現(xiàn)代電子技術(shù) 2018年14期
關(guān)鍵詞:相關(guān)性

張朋 溫宏愿

摘 要: 針對(duì)密集人群環(huán)境中行人相互遮擋造成人數(shù)難以準(zhǔn)確統(tǒng)計(jì)問(wèn)題,提出一種基于線性內(nèi)插權(quán)值的人數(shù)密度統(tǒng)計(jì)方法。系統(tǒng)從視頻監(jiān)控設(shè)備獲取圖像后,首先對(duì)圖像進(jìn)行預(yù)處理以減少原始圖像的干擾,通過(guò)混合高斯建模提取前景圖像,然后通過(guò)線性內(nèi)插權(quán)值進(jìn)行透視矯正,最后通過(guò)構(gòu)造和提取能量、對(duì)比度、熵和相關(guān)性四個(gè)特征參數(shù)進(jìn)行人數(shù)統(tǒng)計(jì)。結(jié)果表明,在不同的測(cè)試環(huán)境下所提方法的準(zhǔn)確率在90%以上,能夠達(dá)到人群密度監(jiān)控的基本要求。

關(guān)鍵詞: 人群密度估計(jì); 混合高斯建模; 透視矯正; 能量; 對(duì)比度; 相關(guān)性

中圖分類號(hào): TN911.73?34 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2018)14?0079?04

Research on crowd density estimation method based on linear interpolation weights

ZHANG Peng, WEN Hongyuan

(Taizhou Institute of Sci. & Tech., NUST, Taizhou 225300, China)

Abstract: In allusion to the problem that it is difficult to accurately count the number of pedestrians in a crowded environment due to people′s blocking from each other, a population density statistical method based on linear interpolation weights is proposed. The image obtained from the video surveillance equipment of the system is preprocessed to reduce the interference of the original image and extract the foreground image by using the mixed Gaussian modeling, and then the perspective correction is performed by using the linear interpolation weights. Population statistics are obtained by constructing and extracting the four characteristic parameters of energy, contrast, entropy and correlation. The results indicate that the method in this paper has over 90% of accuracy rate in different test environments, which can meet the basic requirement of population density monitoring.

Keywords: crowd density estimation; mixed Gaussian modeling; perspective correction; energy; contrast degree; correlation

0 引 言

隨著視頻監(jiān)控技術(shù)的快速發(fā)展,采用視頻圖像處理技術(shù)可以為公共場(chǎng)所,如:車站、商場(chǎng)、公園等提供人群密度估計(jì),為安全管理及社會(huì)經(jīng)濟(jì)效益提供準(zhǔn)確的數(shù)據(jù)依據(jù)。人群密度估計(jì)系統(tǒng)包括視頻采集、圖像預(yù)處理、前景圖像提取、圖像透視矯正以及圖像特征參數(shù)提取,最后通過(guò)特征參數(shù)估計(jì)出人群密度及人數(shù)。

人群密度檢測(cè)系統(tǒng)研究現(xiàn)狀,美國(guó) Silicon Recognition 公司的 Passenger Counting System 和美國(guó) Shopper Track 公司的 Orbit 系統(tǒng)采用視覺(jué)分析技術(shù)完成行人的統(tǒng)計(jì)任務(wù),在正常行人流量的情況下,其統(tǒng)計(jì)準(zhǔn)確率[1]維持在94%左右。英國(guó)的Central London Partnership(CLP)在 2005 年開(kāi)展了一個(gè)自動(dòng)行人統(tǒng)計(jì)的項(xiàng)目,以更好地了解和展示倫敦戶外環(huán)境中的現(xiàn)有產(chǎn)品。美國(guó)馬里蘭大學(xué)研究的 w4 系統(tǒng)和美國(guó) FDI 公司推出的智能視頻監(jiān)控系統(tǒng)(Smart System)等都涉及人流量統(tǒng)計(jì)功能的實(shí)現(xiàn)[2]。

1 人群密度估計(jì)

人群密度統(tǒng)計(jì)系統(tǒng)采用混合高斯模型建模的方法提取前景像素,由于圖像從三維空間轉(zhuǎn)換到二維空間后存在圖像畸變情況,需要進(jìn)行透視矯正后才能對(duì)前景圖像進(jìn)行紋理特征提取,最后根據(jù)特征量進(jìn)行場(chǎng)景人數(shù)密度估計(jì)。

1.1 圖像前景提取

攝像機(jī)采集到的圖像首先需要進(jìn)行圖像預(yù)處理然后才能夠進(jìn)行圖像前景提取。圖像前景提取就是將視頻圖像中有效變化的像素提取出來(lái)。但是現(xiàn)場(chǎng)視頻采集過(guò)程中,存在各種背景因素的干擾,如:隨著時(shí)間的變化光照角度及強(qiáng)度不斷變化,隨風(fēng)擺動(dòng)的樹(shù)枝或波光粼粼的水面等。這些看似是靜止的背景因素,卻在圖像前景提取過(guò)程中都會(huì)造成不同程度的影響。針對(duì)上述背景的微小變化,本文提出了采用混合高斯模型進(jìn)行圖像前景的提取。混合高斯建模是一種密度分布模型,是在圖像采集過(guò)程中對(duì)每一幀圖像中的某一個(gè)像素按時(shí)間序列進(jìn)行概率統(tǒng)計(jì),其分布模型由K個(gè)高斯模型組成。假設(shè)某一位置的像素在一段時(shí)間內(nèi)像素值為{X1,X2,…,Xt},某一個(gè)時(shí)刻該像素值概率為:

[P(Xt)=i=1kωi,tηXt,νi,tΣi,t] (1)

式中:[ωi,t]表示t時(shí)刻第i個(gè)高斯分布權(quán)重;[η]表示高斯分布密度函數(shù);[νi,t]表示t時(shí)刻的第i個(gè)高斯分布均值向量;[Σi,t]表示第i個(gè)高斯分布的協(xié)方差矩陣。

將生成的K個(gè)高斯分布與每一個(gè)新采集的像素值進(jìn)行匹配,若新采集的像素值[Xt]符合K個(gè)高斯分布中某一個(gè)分布,則更新高斯分布的權(quán)重值。更新權(quán)重值的方法如下:

[ωi,t=(1-α)ωi,t-1+αωi,t] (2)

[νi,t=(1-ρ)νi,t-1+ρXt] (3)

式中:[α]用來(lái)表示權(quán)重的更新率,[α]值越大則更新的速度越快,反之越慢;[ρ]是均值和方差的更新率:

[ρ=αηXt,νi,t,Σi,t] (4)

若新采集的像素值[Xt]沒(méi)有落在K個(gè)高斯分布中,則權(quán)重值不變,不進(jìn)行更新,并為[Xt]生成一個(gè)新的高斯分布。將原K個(gè)高斯分布中位于排序最后的一個(gè)高斯分布用該[Xt]高斯分布替代,系統(tǒng)重新將K個(gè)高斯分布由大到小進(jìn)行重新排序:

[B=argminbi=1bωi,t>T] (5)

式中:B表示背景圖像;T表示閾值;K個(gè)高斯分布中的K值大小由T來(lái)決定。在進(jìn)行前景提取時(shí),若新采集的像素值[Xt]不能夠與系統(tǒng)中的所有高斯分布匹配,則這個(gè)像素值屬于前景像素,反之則屬于背景像素。

1.2 透視矯正

前景圖像提取之后,需要對(duì)提取的前景圖像進(jìn)行透視矯正。因?yàn)楸O(jiān)控設(shè)備將三維空間轉(zhuǎn)換到二維空間時(shí)存在射影畸形現(xiàn)象。即同樣的一個(gè)物體距離攝像機(jī)鏡頭近時(shí)在圖像中占的像素空間比距離攝像頭遠(yuǎn)時(shí)所占的像素空間要大的很多。

在人群密度估計(jì)中若不解決攝影畸形問(wèn)題則無(wú)法準(zhǔn)確估算出人群密度。所以透視矯正是人群密度估計(jì)系統(tǒng)必須考慮的一個(gè)重要問(wèn)題。線性內(nèi)插權(quán)值算法能夠較好地解決射影畸形現(xiàn)象。線性內(nèi)插權(quán)重是通過(guò)對(duì)攝像頭采集的區(qū)域劃定一個(gè)敏感區(qū)域,并根據(jù)距離攝像頭遠(yuǎn)近將被采集物體的像素值進(jìn)行權(quán)重矯正,具體實(shí)現(xiàn)如圖1所示。在圖1中:首先要測(cè)量出ab和cd兩條水平線的長(zhǎng)度;其次設(shè)定一個(gè)參考物,記錄此參考物在ab水平線時(shí)的像素面積[S1=w1h1]和在cd水平線時(shí)的像素面積[S2=w2h2];最后計(jì)算出此參考物在不同位置時(shí)的像素面積,得到系統(tǒng)的像素面積比率[μ]:

[μ=S2S1=w2h2w1h1] (6)

根據(jù)等比例原理,式(6)中[w1]和[w2]的比值可以通過(guò)ab與cd的比值進(jìn)行相應(yīng)替換,因此,式(6)可以轉(zhuǎn)換成:

[μ=h2cdh1ab] (7)

式(7)可以計(jì)算出圖像不同位置的像素面積比率[μ]的大小;也可以得出,距離鏡頭越近的物體所占的的像素越多,這就是射影畸形現(xiàn)象。若設(shè)ab水平線上的像素權(quán)重[w1]=1,則可得到cd水平線上的權(quán)重[w2=h1abh2cd]。

利用線性內(nèi)插權(quán)值的方法可以得到水平線ab和cd之間的像素點(diǎn)的權(quán)重系數(shù)。

圖1中,[li]位于直線ab和cd之間,距離之間ab的距離為[l2],距離直線cd距離為[l1],根據(jù)等比例的方法可以計(jì)算出在直線[li]處的像素權(quán)值[wi],如下:

[wi=w0+l2l1wn1+l2l1=l1h2cd+l2h1ab(l1+l2)h2cd] (8)

式中,[wi]表示透視矯正參數(shù),是描述圖像中基于線性內(nèi)插權(quán)值的某一點(diǎn)的透視矯正參數(shù)。圖像中不同物體位于監(jiān)控設(shè)備的距離不同,對(duì)應(yīng)的[wi]矯正參數(shù)不同。通過(guò)這種方法來(lái)矯正射影畸形造成的誤差。在人群密度估計(jì)中采用像素作為統(tǒng)計(jì)依據(jù)時(shí),就必須通過(guò)[wi]視矯正參數(shù)對(duì)前景圖像進(jìn)行透視矯正。在統(tǒng)計(jì)時(shí)依據(jù)前景圖像像素越多,圖像中的人數(shù)越多的線性關(guān)系進(jìn)行估算。若對(duì)未進(jìn)行透視矯正的圖像進(jìn)行人數(shù)預(yù)估處理時(shí),由于受人群分布的不同,相同的前景圖像像素但實(shí)際的人數(shù)卻不相同。通過(guò)對(duì)前景圖像進(jìn)行透視矯正,圖像中不同位置的物體給與不同的像素權(quán)值,從而消除射影畸形所造成的誤差,提高視頻監(jiān)控的人數(shù)密度統(tǒng)計(jì)準(zhǔn)確率。

1.3 構(gòu)造特征向量

經(jīng)過(guò)前景圖像的提取,并對(duì)前景圖像進(jìn)行透視矯正后,就可以對(duì)前景圖像進(jìn)行特征提取,在紋理特征提取中通常采用灰度共生矩陣的方法。灰度共生矩陣的主要優(yōu)點(diǎn)是能夠減小人群相互遮擋對(duì)統(tǒng)計(jì)造成的影響,對(duì)高密度人群的檢測(cè)較為敏感。

在紋理特征提取過(guò)程中,一般不會(huì)直接采用灰度共生矩陣的數(shù)據(jù),而是通過(guò)構(gòu)建特征向量來(lái)處理共生矩陣產(chǎn)生的數(shù)據(jù),最后通過(guò)依據(jù)特征向量的數(shù)據(jù)來(lái)估計(jì)人群密度及人數(shù)。構(gòu)建的特征向量主要是以下四個(gè):

1) 能量。其通過(guò)能量特征參數(shù)來(lái)表述前景圖像的一致性:

[ASM=i=0N-1j=0N-1{P(i,jd,θ)}2] (9)

2) 對(duì)比度。其主要做反差統(tǒng)計(jì)量:

[Con=i=0N-1j=0N-1i-j2P(i,jd,θ)] (10)

通過(guò)對(duì)比度的大小可以描述前景圖像的紋理特征,對(duì)比度數(shù)值越大,圖像越清晰,反之圖像較為模糊。

3) 熵。其主要是描述灰度分布的隨機(jī)情況:

[Ent=-i=0N-1j=0N-1P(i,jd,θ)log P(i,jd,θ)] (11)

通過(guò)熵值的大小,可以反應(yīng)出前景圖像的紋理分布情況。紋理分布較為密則該數(shù)值較大。否則反之。

4) 相關(guān)性。其主要反應(yīng)圖像的灰度值:

[Cor=i=0L-1j=0L-1ijp(i,jd,θ)-μ1μ2σ1σ2] (12)

式中,μ和σ為灰度共生矩陣求得的均值和標(biāo)準(zhǔn)方差。

[μ1=i=0L-1ij=0L-1p(i,jd,θ)]

[μ2=j=0L-1ji=0L-1p(i,jd,θ)]

[σ21=i=0L-1(i-μ1)2j=0L-1p(i,jd,θ)]

[σ22=j=0L-1j-μ22i=0L-1p(i,jd,θ)]

通過(guò)相關(guān)性的大小來(lái)反應(yīng)前景圖像中像素的變化情況,若相鄰像素的數(shù)值變化較小,則相關(guān)性值較大。

2 仿真與結(jié)果分析

通過(guò)選擇實(shí)際測(cè)量環(huán)境來(lái)驗(yàn)證系統(tǒng)的實(shí)際應(yīng)用情況。首先根據(jù)實(shí)際應(yīng)用環(huán)境的情況將人群密度設(shè)定為3個(gè)等級(jí):低密度人群、中密度人群和高密度人群。硬件平臺(tái)為華碩I7?6700HQ,軟件平臺(tái)為Matlab R2015a。圖像選擇的是本校教學(xué)樓一側(cè)的通道處,圖像的視頻大小格式為1 280×720像素,幀率為30 f/s。在視頻圖像預(yù)處理后,通過(guò)混合高斯模型和紋理特征對(duì)前景圖像進(jìn)行特征提取。選擇第25幀圖像、第12 198幀圖像、第55 678幀圖像為例進(jìn)行人數(shù)統(tǒng)計(jì),如圖2所示。

通過(guò)灰度共生矩陣來(lái)分析人群圖像紋理,4個(gè)參數(shù)設(shè)置如下:灰度級(jí)為32,方向?yàn)?°和45°,距離為4。先單獨(dú)分析訓(xùn)練低、中、高情況下的人群圖像紋理特征。

表1是基于紋理分析的人群密度估計(jì)訓(xùn)練樣本估計(jì)結(jié)果,查全率均在93%以上;表2是基于紋理分析的人群密度估計(jì)測(cè)試樣本估計(jì)結(jié)果,查全率均在90%以上。由仿真結(jié)果可得,基于問(wèn)題分析的人群密度估計(jì)算法的查全率在90%以上,已達(dá)到算法設(shè)計(jì)的要求。

3 結(jié) 語(yǔ)

由于通過(guò)基于線性內(nèi)插權(quán)值的人數(shù)統(tǒng)計(jì)方法,在處理過(guò)程中只對(duì)前景圖像進(jìn)行處理,并通過(guò)前景像素估算出人數(shù)。大大節(jié)省了系統(tǒng)的處理資源,提高了系統(tǒng)的處理效率。系統(tǒng)的三種不同人群密度的環(huán)境下測(cè)試結(jié)果都在90%以上,特別在中等密度人群時(shí)系統(tǒng)的準(zhǔn)確率達(dá)到96.67%。

實(shí)驗(yàn)結(jié)果表明,基于線性內(nèi)插權(quán)值人群密度估計(jì)的方法能夠達(dá)到人群密度監(jiān)控的基本要求。但是在低密度人群和高密度人群時(shí)系統(tǒng)的準(zhǔn)確率出現(xiàn)下降。對(duì)于這種問(wèn)題將是后期研究的重點(diǎn)。

參考文獻(xiàn)

[1] 丁藝,陳樹(shù)越,劉金星,等.基于歸一化目標(biāo)像素的人群密度估計(jì)方法[J].計(jì)算機(jī)應(yīng)用與軟件,2016,33(4):212?214.

DING Yi, CHEN Shuyue, LIU Jinxing, et al. Crowd density estimation based on normalized target pixels [J]. Computer applications and software, 2016, 33(4): 212?214.

[2] 任慶云.智能視頻監(jiān)控中的人群密度估計(jì)方法[D].石家莊:河北師范大學(xué),2011.

REN Qingyun. Crowd density estimation methods in intelligent video surveillance [D]. Shijiazhuang: Hebei Normal University, 2011.

[3] 黃璐,林燕.一種基于視頻的車站人群密度估計(jì)算法[J].計(jì)算機(jī)時(shí)代,2012(7):23?25.

HUANG Lu, LIN Yan. Estimation of crowd density at the station based on video monitoring [J]. Computer era, 2012(7): 23?25.

[4] 覃勛輝,王修飛,周曦,等.多種人群密度場(chǎng)景下的人群計(jì)數(shù)[J].中國(guó)圖象圖形學(xué)報(bào),2013,18(4):392?398.

QIN Xunhui, WANG Xiufei, ZHOU Xi, et al. Counting people in various crowd density scenes using support vector regression [J]. Journal of image and graphics, 2013, 18(4): 392?398.

[5] 周蕓韜.基于R語(yǔ)言的大數(shù)據(jù)處理平臺(tái)的設(shè)計(jì)與實(shí)現(xiàn)[J].現(xiàn)代電子技術(shù),2017,40(2):53?56.

ZHOU Yuntao. Design and implementation of big data processing platform based on R language [J]. Modern electronics technique, 2017, 40(2): 53?56.

[6] 李寅,王貴錦,林行剛.結(jié)合局部和全局特征的人群密度估計(jì)算法[J].清華大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,53(4):542?545.

LI Yin, WANG Guijin, LIN Xinggang. Population density estimation algorithm combining local and global characteristics [J]. Journal of Tsinghua University (Science and technology), 2013, 53(4): 542?545.

[7] 羅維薇,王陽(yáng)萍,翟鳳文.基于混合高斯背景建模的交通視頻運(yùn)動(dòng)目標(biāo)檢測(cè)[J].蘭州交通大學(xué)學(xué)報(bào),2014,33(4):26?29.

LUO Weiwei, WANG Yangping, ZHAI Fengwen. Moving object detecting of transportation video based on mixture Gaussian model algorithm [J]. Journal of Lanzhou Jiaotong University, 2014, 33(4): 26?29.

[8] 白向峰,李艾華,李喜來(lái),等.新型背景混合高斯模型[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(6):983?988.

BAI Xiangfeng, LI Aihua, LI Xilai, et al. A novel background Gaussian mixture model [J]. Journal of image and graphics, 2011, 16(6): 983?988.

[9] 王小鵬,陳璐,魏沖沖,等.一種改進(jìn)的Retinex彩色圖像增強(qiáng)方法[J].蘭州交通大學(xué)學(xué)報(bào),2015,34(1):55?59.

WANG Xiaopeng, CHEN Lu, WEI Chongchong, et al. Color image enhancement based on improved Retinex algorithm [J]. Journal of Lanzhou Jiaotong University, 2015, 34(1): 55?59.

[10] 王凱,黃山,趙瑜,等.面向圖像目標(biāo)提取的改進(jìn)連通域標(biāo)記算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2014,35(7):2438?2441.

WANG Kai, HUANG Shan, ZHAO Yu, et al. Improved algorithm of connected component labeling for image targets extraction [J]. Computer engineering and design, 2014, 35(7): 2438?2441.

[11] JACQUES JUNIOR J C S, MUSSE S R, JUNG C R. Crowd analysis using computer vision techniques [J]. IEEE signal processing magazine, 2010, 27(5): 66?77.

[12] FRUIN J J. Crowd dynamics and the design and management of public places [C]// Proceedings of International Conference on Building Use and Safety Technology. Washington DC: [s.n.], 1984: 110?113.

猜你喜歡
相關(guān)性
我國(guó)創(chuàng)意產(chǎn)業(yè)集群與區(qū)域經(jīng)濟(jì)發(fā)展研究
商情(2016年42期)2016-12-23 14:25:52
淺析財(cái)務(wù)管理與稅收籌劃的相關(guān)性
商情(2016年42期)2016-12-23 13:35:35
醫(yī)學(xué)教育中基于蛋白質(zhì)驅(qū)動(dòng)的miRNA與疾病相關(guān)性研究
東方教育(2016年4期)2016-12-14 22:15:13
財(cái)務(wù)管理和稅收籌劃的相關(guān)性分析
基于Kronecker信道的MIMO系統(tǒng)通信性能分析
科技視界(2016年21期)2016-10-17 17:37:34
小兒支氣管哮喘與小兒肺炎支原體感染相關(guān)性分析
腦梗死與高同型半胱氨酸的相關(guān)性研究(2)
腦梗死與高同型半胱氨酸的相關(guān)性研究
會(huì)計(jì)信息質(zhì)量可靠性與相關(guān)性的矛盾與協(xié)調(diào)
主站蜘蛛池模板: 精品欧美一区二区三区久久久| 亚洲乱码在线播放| 欧美中文字幕无线码视频| 欧美有码在线| 亚洲爱婷婷色69堂| 尤物精品视频一区二区三区| 日本免费一级视频| 狠狠躁天天躁夜夜躁婷婷| 亚洲一级毛片在线观播放| 欧美日韩成人| 久久国产精品嫖妓| 亚洲三级影院| 亚洲激情区| 一级一毛片a级毛片| 亚洲天堂.com| 国产微拍精品| 久久免费看片| а∨天堂一区中文字幕| 国产精品99久久久| 日本国产一区在线观看| 欧美黑人欧美精品刺激| 国产噜噜噜视频在线观看| 国产人前露出系列视频| 中国精品自拍| 亚洲欧洲日产国产无码AV| 国产午夜人做人免费视频中文| 3344在线观看无码| 国产成年女人特黄特色大片免费| 狠狠亚洲五月天| 尤物视频一区| 成人国产精品网站在线看 | 久久黄色影院| 亚洲一级毛片在线播放| 天堂亚洲网| 精品人妻无码中字系列| 国产福利微拍精品一区二区| 2022精品国偷自产免费观看| 日韩av无码精品专区| 成人国产小视频| 国产欧美日韩综合在线第一| 成人一区专区在线观看| 国产精品v欧美| 99热这里只有精品在线播放| 久久免费视频6| 99在线视频免费观看| 午夜精品影院| 国产福利免费在线观看| 免费xxxxx在线观看网站| 女人18毛片久久| 日a本亚洲中文在线观看| 97av视频在线观看| 熟女日韩精品2区| 国产女人18水真多毛片18精品 | 国产成人久久综合一区| 免费精品一区二区h| 久久国产香蕉| 午夜爽爽视频| 天天做天天爱天天爽综合区| 色综合五月婷婷| 日韩黄色在线| 超级碰免费视频91| 欧美日本在线| 国产美女精品一区二区| 亚洲系列无码专区偷窥无码| 伊人婷婷色香五月综合缴缴情| 暴力调教一区二区三区| 成人自拍视频在线观看| 亚洲成a人片在线观看88| 四虎成人精品| 99手机在线视频| 国产情侣一区二区三区| 亚洲大尺码专区影院| 思思热精品在线8| 久久网欧美| 亚洲人成色在线观看| 国产美女91视频| 欧美福利在线观看| 91小视频在线观看| 爆乳熟妇一区二区三区| 国产成人精品第一区二区| 免费无遮挡AV| 久操线在视频在线观看|