999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種復(fù)雜背景下多尺度多視角的人體檢測(cè)方法

2016-09-08 10:32:20黃曉峰
關(guān)鍵詞:特征提取特征檢測(cè)

楊 穎 黃曉峰

(廣東農(nóng)工商職業(yè)技術(shù)學(xué)院計(jì)算機(jī)系 廣東 廣州 510507)

?

一種復(fù)雜背景下多尺度多視角的人體檢測(cè)方法

楊穎黃曉峰

(廣東農(nóng)工商職業(yè)技術(shù)學(xué)院計(jì)算機(jī)系廣東 廣州 510507)

針對(duì)復(fù)雜背景下的人體檢測(cè)技術(shù)所面臨的噪聲干擾、背景復(fù)雜、相互遮擋等問題,設(shè)計(jì)一種多尺度多視角人體檢測(cè)算法。針對(duì)傳統(tǒng)的梯度方向直方圖目標(biāo)特征提取方法特征維數(shù)大、有遮擋時(shí)檢測(cè)率低等缺陷,分別使用擴(kuò)展多尺度方向特征和經(jīng)WTA hash編碼的多尺度梯度方向直方圖特征提取,并使用弱分類器和貪婪算法進(jìn)行特征選擇以獲得圖像的粗特征和精特征。然后使用線性平移合成多視角樣本,使用多層級(jí)聯(lián)的Adaboost算法和支持向量機(jī)作為分類器進(jìn)行人體目標(biāo)檢測(cè),結(jié)合復(fù)雜背景處理、特征重裝等方法提高檢測(cè)精度。使用INRIA公共測(cè)試集的實(shí)驗(yàn)結(jié)果表明,該算法可精確檢測(cè)出復(fù)雜背景下相互遮擋情況下多視角、多姿態(tài)的人體目標(biāo),與傳統(tǒng)的人體檢測(cè)算法相比,具有更高的檢測(cè)效率和檢測(cè)精度。

復(fù)雜背景人體檢測(cè)擴(kuò)展多尺度方向多尺度梯度方向直方圖多視角分類器

0 引 言

本文立足于提高基于HOG的人體檢測(cè)方法的性能,并增強(qiáng)存在遮擋情況下的檢測(cè)率,提出了一種基于多尺度方向直方圖的特征提取方法提取圖像的粗特征和精特征。在此基礎(chǔ)上使用級(jí)聯(lián)SVM模型和Adaboost算法進(jìn)行檢測(cè),形成一種多尺度多分類器的人體檢測(cè)模型,并對(duì)其效能進(jìn)行測(cè)試。

人體檢測(cè)作為計(jì)算機(jī)視覺研究應(yīng)用領(lǐng)域的重要研究方向之一,有著巨大的市場(chǎng)應(yīng)用潛力和研究意義,可廣泛運(yùn)用于人機(jī)交互、自動(dòng)控制、視頻檢索和智能視頻監(jiān)控等方面[1]。這也進(jìn)一步推動(dòng)了學(xué)者對(duì)視頻幀和圖像中的人體目標(biāo)檢測(cè),但迄今為止人體檢測(cè)仍然存在著效率低下且易受遮擋、視角、光照等因素影響,這些方面的問題成為人體檢測(cè)領(lǐng)域的難點(diǎn)亟待解決[2]。

在目前的研究成果中,主要有三類人體檢測(cè)方法,分別是模板匹配、基于Haar特征的方法和基于梯度方向直方圖HOG(Histograms of oriented gradients)的方法[3-5]。其中模板匹配是提取圖像并與已有人體形狀模板進(jìn)行匹配檢測(cè)是否是人體,較為典型的有頭肩模型用于匹配檢測(cè)[6],但人體形態(tài)的多樣性導(dǎo)致這種方法效果較差,已較少使用;基于Haar特征的方法使用Haar特征和分類器材識(shí)別,由于人臉特征能與Haar特征較好契合從而在人臉檢測(cè)中得到較好應(yīng)用,但因背景顏色、衣服色澤等因素影響,在人體檢測(cè)中的效果不如預(yù)期[7];基于HOG的方法經(jīng)描述局部圖像的方向分布情況和梯度獲取該區(qū)域的HOG作為檢測(cè)特征并結(jié)合訓(xùn)練的分類器進(jìn)行識(shí)別,該方法精度較高因此得到了較多的重視和研究[8]。但基于HOG的也存在訓(xùn)練速度較慢、特征窗口提取單一等缺陷,因此許多研究對(duì)其進(jìn)行改進(jìn),如多尺度HOG方法[9]、局部二值模式結(jié)合HOG方法[10]、加權(quán)塊[11]等方法來增強(qiáng)局部特征的表達(dá)能力從而提高基于HOG方法的效率。但這類方法都是在固定尺度上計(jì)算,沒有將人體的多尺度輪廓納入特征提取中,而多尺度特征表達(dá)的提出通過使用Gabor小波、灰度協(xié)方差、組合塊等方法提高了基于HOG方法的性能,進(jìn)一步增強(qiáng)了基于HOG方法的應(yīng)用價(jià)值。

1 本文人體檢測(cè)方法

本文在已有研究的基礎(chǔ)上,綜合考慮復(fù)雜背景下相互遮擋且不易檢測(cè)的難點(diǎn),以背景區(qū)分、多視角檢測(cè)、遮擋去除等方法用于人體目標(biāo)檢測(cè)。訓(xùn)練特征塊以多尺度方法從訓(xùn)練樣本中提取和選擇,包含粗特征和精特征,其中粗特征使用擴(kuò)展多尺度方向特征提取并使用粗分類器選擇,精特征使用WTA hash編碼的擴(kuò)展多尺度方向直方圖提取并使用貪婪算法選擇,對(duì)特征集使用多層級(jí)聯(lián)的Adaboost算法和SVM分類器進(jìn)行多視角分類器進(jìn)行分類訓(xùn)練。將訓(xùn)練好的分類器運(yùn)用于待檢測(cè)圖像,并結(jié)合復(fù)雜背景處理、多視角樣本生成和遮擋處理得到最后的檢測(cè)結(jié)果,算法流程如圖1所示。

圖1 本文檢測(cè)算法流程

2 特征提取

本文分別使用擴(kuò)展多尺度方向特征提取和WTA hash編碼的多尺度梯度方向直方圖特征提取方法獲得圖像的粗特征和精特征。

2.1HOG原理

HOG是按照?qǐng)D像的外觀、形狀等特征的邊緣方向和梯度來獲取圖像特征,這種特征并沒有從圖像整體去提取特征,而是將圖像分割成許多個(gè)名為cell的小細(xì)胞單元,再計(jì)算所有cell中的梯度方向直方圖。同時(shí)為了提高算法效率將多個(gè)cell融合成一個(gè)名為block的大單元并將其梯度進(jìn)行歸一化,計(jì)算梯度方向向量[12]。

在HOG特征計(jì)算過程中,首先使用一維離散微分模板從垂直和水平兩個(gè)方向?qū)?80°分成N個(gè)方向計(jì)算內(nèi)部各個(gè)cell的梯度,研究得出,當(dāng)N為9時(shí)梯度精度最大[13]。然后取各cell單元中所有像素點(diǎn)的梯度幅值進(jìn)行加權(quán)求得其比重,依照比重為直方圖通道投票加權(quán)。由于圖像背景的存在和影響,各cell的梯度變化幅度較大,分類器難以適應(yīng)其變化,因此再進(jìn)行歸一化處理,使用L2范數(shù)為因子,計(jì)算如式(1)所示。

(1)

式中e為常數(shù),V表示歸一化前的梯度向量值。這樣可求得圖像的HOG特征。

2.2擴(kuò)展多尺度方向特征提取

多尺度方向MSO(Multi-scale orientation)特征是從水平和垂直兩個(gè)方向綜合描述直立或者姿態(tài)變化小的人體輪廓信息,但卻不能有效識(shí)別姿態(tài)變化明顯的人體輪廓信息[14]。為此設(shè)計(jì)一種擴(kuò)展多尺度方向特征EMSO(Extended MSO)提取方法,以擴(kuò)展的Haar-like特征為基礎(chǔ),在MSO的基礎(chǔ)上再提取兩個(gè)特征塊,使人體輪廓信息特征提取的姿態(tài)變化適應(yīng)性更強(qiáng),其原理如圖2所示。

圖2 EMSO原理

EMSO的方法是將圖像分解為n個(gè)單元塊,再將各單元塊劃分為4個(gè)子塊并計(jì)算各子塊顏色積分值,常規(guī)MSO已有垂直梯度Dd和左旋45°梯度Ddl,而水平梯度Dl和右旋45°梯度Ddr需計(jì)算得出,Dl計(jì)算方法為:

(2)

Ddr計(jì)算方法為:

(3)

式中I(·)是該點(diǎn)的像素值。計(jì)算4個(gè)子塊的顏色積分值后,可得EMSO單元塊方向He的值為:

(4)

在此基礎(chǔ)上可得量化塊方向Fi的值為:

Fi=Q(H)

(5)

即將180°以內(nèi)方向的連續(xù)值進(jìn)行8值離散化處理,將所有Fi進(jìn)行連接后可得EMSO特征,該特征可用方塊表征任何矩形,其方向計(jì)算可在方向上進(jìn)行,可降低EMSO特征維數(shù),且不易受光照、形變影響,因此可提高運(yùn)算效率。

2.3擴(kuò)展梯度方向直方圖提取

圖像上的X和Y兩點(diǎn)相似性在某種程度上和對(duì)對(duì)應(yīng)的特征維數(shù)排序類似,其pairwise-order量度計(jì)算方法為:

(6)

式中,xi、xj分別是X和Y對(duì)應(yīng)的第i特征維數(shù),T(·)是閾值函數(shù),其公式為:

(7)

式(6)可變換為:

(8)

式中有:

Ri(X,Y)=|L(X,i)∩L(Y,i)|

(9)

L(X,i)={j|X(i)>X(j)}

(10)

WTA hash編碼[16]如圖3所示,圖3(a)中L(X,0)={1,2,3,5}對(duì)應(yīng)式(10)的低于0下標(biāo)元素的元素下標(biāo)集合,類似的L(Y,0)={3,4,5},代入式(9)可得R0(X,Y)=|{3,5}|=2,由于維數(shù)為6,因此K=4,θ={1,4,2,5,0,3},圖3(a)和(b)的X不相關(guān),編碼結(jié)果分別為1和2,即不相等。而圖3中的(c)、(d)是對(duì)(a)做線性運(yùn)算而得,因此對(duì)應(yīng)的輸出結(jié)果也為1。通過實(shí)例可知,WTA hash編碼可抗干擾,且具備線性穩(wěn)定性,能將MHOG轉(zhuǎn)換到對(duì)特征維數(shù)不敏感的空間中得到稀疏特征,避免原特征空間中的冗余度大的缺陷,提高運(yùn)算速度和運(yùn)算效率。

圖3 WTA hash編碼實(shí)例

WTA hash編碼的步驟如圖4所示,實(shí)際上是將向量X中的值隨機(jī)排列,通過滑動(dòng)窗口法掃描,將最大值保留,其他值設(shè)置為0,同時(shí)利用隨機(jī)數(shù)組θ消除向量中元素的相關(guān)性,這就是本文所用的WMHOG特征提取方法。

圖4 WTA hash編碼的步驟

圖5所示為圖2的例圖經(jīng)MHOG和WMHOG兩種特征提取方法后的效果對(duì)比,分析發(fā)現(xiàn),WMHOG特征比MHOG特征更為稀疏,降低了約17%。

圖5 WTA hash編碼效果

3 特征選擇

對(duì)EMSO提取的粗特征塊的選擇使用Adaboost算法[17],對(duì)WMHOG提取的精特征塊使用貪婪算法[18]。

使用Adaboost算法選擇粗特征先需構(gòu)建弱分類器,由于人體的輪廓普遍存在一定的角度范圍,對(duì)應(yīng)的方向特征fn在人體輪廓的表征上具有較好的性能。因此對(duì)弱分類器的需求是在特征選擇時(shí)將處于一定角度范圍內(nèi)的特征作為正例樣本,這是選擇Adaboost算法的主要原因。弱分類器的構(gòu)建方法為:

(11)

式中,C(n)是粗特征經(jīng)粗分類器分類之后的結(jié)果,fn是通過式(1)所得的EMSO方向特征。Tmin(n)、Tmax(n)為弱分類器的最小和最大角度閾值,閾值可使用貪婪算法獲取。

WMHOG特征塊選擇使用貪婪算法,在其第t次求解過程中,由于局部最優(yōu)解的優(yōu)勢(shì),新加入的特征ft+1可進(jìn)一步增大分類精度,整個(gè)求解過程是從待選特征集A中選出局部最優(yōu)解的特征值加入到已選集S中,即:

(12)

式中,I(u;C)=∑Cp(C,f)log(p(C|f))為f的條件熵,p(C|f)為C樣例正確的概率。這樣經(jīng)t次求解后,A、S的更新如下:

At+1=Atfk,St+1=St∪{ft+1}

(13)

即從集合A中去除ft+1加入到集合S中,持續(xù)這一過程直到分類精度不增長(zhǎng)或增長(zhǎng)幅度小于一定閾值時(shí)為止。

4 目標(biāo)檢測(cè)

4.1多視角檢測(cè)

分類器訓(xùn)練使用級(jí)聯(lián)Adaboost和線性SVM,共分四層,第一層全部視角樣本共同訓(xùn)練單一模型,第二、三層分別使用3個(gè)、5個(gè)視角,前三層使用Adaboost,第四層使用SVM,其框架如圖6所示。在人體目標(biāo)檢測(cè)時(shí),對(duì)圖像窗口進(jìn)行逐一分類以判定圖像中是否存在目標(biāo)人體,并對(duì)其位置進(jìn)行確定,當(dāng)4層分類器都通過時(shí)判定存在目標(biāo)人體,反之判定不存在目標(biāo)人體。圖6的分類器框架經(jīng)過實(shí)驗(yàn)驗(yàn)證確定前三層只用3個(gè)級(jí)聯(lián)就能實(shí)現(xiàn)較高的查全率和較快的檢測(cè)速率,對(duì)第四層的SVM分類器,在超過128個(gè)精特征塊可使SVM分類精度超過97%。

圖6 多視角檢測(cè)分類框架

但是這種多視角檢測(cè)中存在一定的問題,即人體的正面(0°)和側(cè)面(90°)的樣本易獲取,但是獲得中間角度(30°、45°、60°)的樣本較困難,對(duì)此采取特征塊位置線性平移的方法合成中間角度樣本。由于人體的對(duì)稱性完成0°到90°的樣本獲取即可,設(shè)特征塊n的視角樣本度數(shù)為D,對(duì)應(yīng)的位置為XD(n),則可得0°,90°內(nèi)的樣本線性合成為:

XD(n)=α(n)·X0(n)+(1.0-α(n))·X90(n)

(14)

式中α(n)為合成系數(shù),由于不進(jìn)行精確的姿態(tài)識(shí)別,因此可假定人體為圓柱體,可得α(n)為合成系數(shù)α(n)為:

α(n)=cos(D)/(sin(D)+cos(D))

(15)

類似地,塊特征也可由式(16)獲?。?/p>

FD(n)=α(n)·F0(n)+(1.0-α(n))·F90(n)

(16)

式中FD(n)表示特征塊n在D°的特征值,這樣可實(shí)現(xiàn)通過正面樣本及側(cè)面樣本獲取中間各視角的樣本從而完成分類器訓(xùn)練。

4.2復(fù)雜背景處理

圖像人體識(shí)別過程中復(fù)雜背景處理主要解決人體輪廓與背景圖層灰度相似情況下檢測(cè)目標(biāo)出現(xiàn)空洞的問題[15]。因此在復(fù)雜背景存在的情況下,定義函數(shù)f(a,b):

(17)

式(17)中a(x,y)是當(dāng)前幀在像素點(diǎn)(x,y)的像素值,b(x,y)是對(duì)應(yīng)點(diǎn)的背景像素值,這樣根據(jù)式(17)可知:當(dāng)(x,y)是背景點(diǎn)時(shí),f(a,b)=0,且f(a,b)分散分布;當(dāng)(x,y)為人體目標(biāo)區(qū)域內(nèi)點(diǎn)時(shí),f(a,b)≥0且f(a,b)集中分布。計(jì)算f(a,b)集中分布的范圍即為目標(biāo)人體區(qū)域范圍。

4.3遮擋處理

(18)

(19)

5 實(shí)驗(yàn)及分析

為對(duì)本文的人體檢測(cè)算法進(jìn)行驗(yàn)證,使用法國(guó)國(guó)家信息與自動(dòng)化研究所的公共測(cè)試集INRIA行人數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)。該數(shù)據(jù)庫(kù)是目前最常用的靜態(tài)行人檢測(cè)數(shù)據(jù)庫(kù),提供了原始的圖片和相應(yīng)的標(biāo)注文件。訓(xùn)練時(shí)采用了2000正例樣本和1000反例樣本,反例樣本主要是建筑、樹干等和人體輪廓相似的圓柱形物體,其中正面和側(cè)面視角的樣本由人工劃分形成,中間視角(30°、45°、60°)的樣本能過多視角樣本合成算法生成。最后使用測(cè)試集INRIA數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn),部分人體檢測(cè)結(jié)果如圖7所示??梢钥闯霰疚乃惴梢詸z測(cè)出大部分人體,圖7(a)-(g)包含了復(fù)雜背景、與類人形圓柱體較為貼近、非正面或側(cè)面多視角人體、多姿態(tài)人體等多種情況,本文算法都能成功檢測(cè),這是由于使用了復(fù)雜背景處理和特征重裝成功檢測(cè)出了中間復(fù)雜背景中有遮擋的人像。但在圖7(h)和圖7(i)中漏檢了后方復(fù)雜背景下的人體目標(biāo),分析發(fā)現(xiàn)是WTA hash編碼導(dǎo)致部分有用信息被刪除從而無法檢測(cè)出復(fù)雜背景下較小像素的遮擋人體目標(biāo)。

圖7 人體檢測(cè)結(jié)果

算法性能定量分析比較使用單位圖片誤檢/圖片F(xiàn)PPI(False Positive per Image)條件下的漏檢率,分別與常規(guī)的HOG特征提取檢測(cè)[9]、HOG和局部二值模式HOG+LBP(HOG + Local Binary Pattern)相結(jié)合的方法[10]及多尺度HOG(MHOG)特征方法[11]相比較,其結(jié)果如圖8所示。從圖8可知,在相同F(xiàn)PPI的條件下本文的多尺度多視角算法的漏檢率低于HOG、HOG+LBP、MHOG等方法,但在FPPI接近1的時(shí)候,本文算法的漏檢率與MHOG逐漸接近,經(jīng)分析這是由于WTA hash編碼后部分有用信息被濾除導(dǎo)致漏檢率增加。

圖8 算法檢測(cè)結(jié)果比較

上述各種算法在復(fù)雜背景下的檢測(cè)效率如表1所示。由表1可知,本文的多尺度多視檢測(cè)算法的檢測(cè)率比HOG等算法高,檢測(cè)時(shí)間比HOG等算法少得多,這主要是因?yàn)槭褂肳TA hash編碼后濾除圖像特征中的冗余信息使圖像特征變得較為稀疏,從而使后續(xù)算法較為迅速,降低了檢測(cè)時(shí)間。

表1 各種算法檢測(cè)效率對(duì)比

6 結(jié) 語

本文針對(duì)人體檢測(cè)面臨的背景復(fù)雜、相互遮擋等難題,使用擴(kuò)展多尺度方向和經(jīng)WTA hash編碼的多尺度梯度方向直方圖兩種特征提取方法來提取圖像的粗特征和精特征,并使用多層多視角的級(jí)聯(lián)分類器進(jìn)行人體檢測(cè)。其中擴(kuò)展的多尺度方向特征能有效表征人體邊緣特征,而WTA hash編碼的多尺度梯度方向直方圖能有效濾除精特征中的冗余信息從而提高算法的檢測(cè)效率,多視角結(jié)合復(fù)雜背景處理和特征重裝可以在一定程度上解決復(fù)雜背景下人群相互遮擋的問題。實(shí)驗(yàn)證明,多尺度多視角的檢測(cè)方法在提高檢測(cè)精度的同時(shí)檢測(cè)效率也保持較高的水平,但WTA hash編碼后造成復(fù)雜背景下像素較低的人體目標(biāo)檢測(cè)存在一定缺陷,這也需要在以后的研究中不斷改進(jìn)的重點(diǎn)問題。

[1] Aggarwal J, Ryoo M. Human activity analysis: a review [J]. ACM Computing Surveys, 2011, 43(3): 1-47.

[2] 歐陽毅,張三元,張引.基于窗口邊緣梯度熱能的人體遮擋多驚訝檢測(cè)算法[J]. 電子與信息學(xué)報(bào),2012,34(4): 858-864.

[3] 雷慶,陳鍛生,李紹滋.復(fù)雜場(chǎng)景下的人體行為識(shí)別研究新進(jìn)展[J].計(jì)算機(jī)科學(xué), 2014,41(12):1-7.

[4] Ji Shuiwang , Xu Wei, Yang Ming, et al. 3D Convolutional Neural Networks for Human Action Recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 221-231.

[5] 邵彧.基于局部圖塊匹配的行人跟蹤算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2014,35(10):3518-3522.

[6] Ni E Z, Zhou C L, Jiang M J. A radical cascade classifier for handwritten Chinese character recognition [J]. Journal of Software, 2012, 7(10): 2294-2300.

[7] 黃炎,范賜恩,朱秋平,等.聯(lián)合梯度直方圖和局部二值模式特征的人體檢測(cè)[J].光學(xué)精密工程,2013,21(4):1047-1053.

[8] 劉亞洲.基于時(shí)空分析和多粒度特征表示的人體檢測(cè)方法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2009.

[9] Lin Zhe, Hua Gang, Davis L S. Multi-scale shared features for cascade object detection[C]//Proceeding of the IEEE International Conference on Image Processing, Orlando, FL, 2012: 1865-1868.

[10] Wang Xiaoyu, Han T X, Yan Shuicheng. An HOG-LBP human detector with partial occlusion handling[C]//Proceeding of IEEE International Conference on Computer Vision, Kyoto, 2009:32-39.

[11] 葉齊祥,焦建彬,蔣樹強(qiáng).基于多尺度方向特征的快速魯棒人體檢測(cè)算法[J]. 軟件學(xué)報(bào),2011,22(12):3004-3014.

[12] 李夢(mèng)涵,熊淑華,熊文,等.多尺度級(jí)聯(lián)行人檢測(cè)算法的研究與實(shí)現(xiàn)[J].計(jì)算機(jī)技術(shù)與發(fā)展,2014,24(8):10-13.

[13] Wantanbe T, Ito S, Yokoi K. Co-occurrence histograms of oriented gradients for pedestrian detection [J]. LNCS, 2009, 52(14): 37-47.

[14] 孫宏國(guó),李天然,蒲寶明,等.復(fù)雜背景下人體檢測(cè)算法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2013,22(4):134-138.

[15] Poppe R. A survey on vision-based human action recognition[J]. Image and Vision Computing, Elsevier B.V. 2010, 28(6): 976-990.

[16] Kratz L, Nishino K. Tracking pedestrians using local spatiotemporal motion patterns in extremely crowded scenes [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(5): 987-1002.

[17] Li W T, Chang H S, Lien K C, et al. Exploring visual and motion saliency for automatic video object extraction [J]. IEEE Transactions on Image Processing, 2013, 22(7): 2600-2610.

[18] Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: an evaluation of the state of the art [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 743-761.

A MULTI-SCALE AND MULTI-VIEW HUMAN BODY DETECTION METHOD UNDER COMPLEX BACKGROUND

Yang YingHuang Xiaofeng

(DepartmentofComputer,GuangdongAIBPolytechnic,Guangzhou510507,Guangdong,China)

Aiming at the problems such as noise interface, complex background and mutual occlusion encountered by human body detection technology under complex background, we designed a multi-scale and multi-view body detection algorithm. According to the shortcomings of traditional object feature extraction method of orientated gradient histogram including high feature-dimension and low detection rate while being occluded, in extraction we employed the extended multi-scale orientation feature and the multi-scale histogram of orientated gradient coded by WTA hash separately, and used weak classifier and greedy algorithm to select features so as to obtain the coarse features and fine features of the image. After that we then used linear shift to synthesise the multi-view samples. The multi-level cascade Adaboost algorithm and support vector machine were used as the classifiers to detect body objects, and the detection accuracy was improved in combination with complex background processing and characteristics reinstalling. Experimental results on INRIA public test set showed that the algorithm can make accurate detection on human body objects with multi-view and multi-pose under the conditions of complex background and mutual occlusion. Compared with traditional human body detection algorithm, it has higher detection efficiency and accuracy.

Complex backgroundHuman body detectionExtended multi-scale orientationMulti-scale histograms of oriented gradientsMulti-view classifier

2015-04-08。楊穎,講師,主研領(lǐng)域:物聯(lián)網(wǎng),網(wǎng)絡(luò)安全和人臉識(shí)別。黃曉峰,實(shí)驗(yàn)師。

TP391

A

10.3969/j.issn.1000-386x.2016.08.073

猜你喜歡
特征提取特征檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 免费人成在线观看成人片| 国产美女视频黄a视频全免费网站| 国产永久无码观看在线| 一级爆乳无码av| 真人免费一级毛片一区二区| 成人毛片免费在线观看| 自拍偷拍欧美日韩| 精品国产免费观看| 久久男人视频| 国产www网站| 亚洲国产精品日韩专区AV| 中国国产高清免费AV片| 久久精品人妻中文系列| 亚洲精品午夜无码电影网| 91探花在线观看国产最新| 成色7777精品在线| 国产91无码福利在线| 亚洲二区视频| 91精品专区国产盗摄| 日韩欧美国产成人| 亚洲一区二区视频在线观看| 久久香蕉国产线看精品| 污网站免费在线观看| 亚洲色图欧美一区| 97se亚洲| 亚洲五月激情网| 亚洲av无码成人专区| 欧美中文字幕在线二区| 日日碰狠狠添天天爽| 91精品啪在线观看国产| 欧美精品成人| 国产成人精品男人的天堂下载| 99热国产这里只有精品9九| 福利在线不卡| 免费无码AV片在线观看国产| 午夜一区二区三区| 亚洲三级成人| 亚洲精品你懂的| 免费观看国产小粉嫩喷水| 综合亚洲色图| 国产精品亚洲精品爽爽| 久久久波多野结衣av一区二区| 一区二区三区国产精品视频| 国产美女久久久久不卡| 国产无遮挡裸体免费视频| 久久人搡人人玩人妻精品| 日本一区二区三区精品国产| 婷婷午夜影院| 国产精品9| 国产在线专区| 99激情网| 毛片久久网站小视频| 99在线观看精品视频| 天堂久久久久久中文字幕| 亚洲国产91人成在线| 亚洲精品中文字幕无乱码| 国产另类视频| 婷婷丁香色| 色天天综合久久久久综合片| 精品国产香蕉在线播出| 香蕉在线视频网站| 中文无码日韩精品| 青青极品在线| 午夜在线不卡| 精品一区二区三区视频免费观看| 亚洲高清无码精品| 亚洲无线一二三四区男男| 欧美一区二区精品久久久| 在线国产三级| 美女内射视频WWW网站午夜| 欧美精品一区二区三区中文字幕| 青青草原国产一区二区| 2020国产免费久久精品99| 国产va视频| 亚洲香蕉在线| a级毛片一区二区免费视频| 2020最新国产精品视频| 国产亚洲精品自在久久不卡 | 国产精欧美一区二区三区| 国产日韩精品欧美一区灰| 中文字幕久久亚洲一区| 免费看黄片一区二区三区|