999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于 HOG和Haar-like特征融合的人體動作識別方法

2020-04-21 11:43:16秦秋雨
福建質(zhì)量管理 2020年7期
關(guān)鍵詞:數(shù)據(jù)庫動作特征

秦秋雨

(南京郵電大學(xué)通信與信息工程學(xué)院 江蘇 南京 210003)

引言

面對大量視頻數(shù)據(jù),如何利用自動分析視頻中內(nèi)容已儼然成為當(dāng)下一個熱門的研究課題,并引起計算機(jī)視覺領(lǐng)域?qū)W者們的廣泛關(guān)注。隨著各種智能設(shè)備的生產(chǎn)和發(fā)展,人類除了對智能機(jī)器設(shè)備更加關(guān)注外,對人體動作的識別也越來越重視。目前,人體動作識別的研究,逐漸成為了機(jī)器視覺領(lǐng)域中非常重要的研究課題。隨著科學(xué)技術(shù)的發(fā)展,人臉、手勢和指紋識別等視覺技術(shù)已經(jīng)廣泛應(yīng)用于我們生活的方方面面中,這些技術(shù)為人體動作識別帶來了巨大的動力。近年來,一些較快的動作特征提取方法被提出來并由一些計算機(jī)視覺領(lǐng)域的學(xué)者不斷地優(yōu)化改進(jìn),比如方向梯度直方圖(HOG)[9],局部二值模式(LBP)[10],Haar-like特征[3],卷積神經(jīng)網(wǎng)絡(luò)(CNN)[1]等等。

現(xiàn)為解決單一特征下進(jìn)行人體動作識別的準(zhǔn)確率較低且容易受到外部環(huán)境影響的問題,提出一種基于HOG和Haar-like特征融合的人體動作識別方法。為了驗證本文設(shè)計方法的有效性,進(jìn)行了對比測試。將本文中所涉及的方法與一些傳統(tǒng)特征提取方法進(jìn)行對比,結(jié)果表明,本文中的方法具有更高的識別準(zhǔn)確率。

一、動作識別算法

多特征融合的方式既能保留各種特征有效的識別信息,又可以在一定的程度上去除各種特征冗余無效的部分。之前融合特征的方法大多是直接將兩組特征向量通過串行方式合并成新的特征向量。但是這種方式存在很多弊端,直接合并后的特征向量為數(shù)是未合并之前多種特征向量的維數(shù)之和,由此會導(dǎo)致特征向量的維數(shù)變多。為了解決這種問題,本文利用離散 K-L 變換的方式,對開始所提取出來的兩種特征進(jìn)行信息的壓縮,從而實(shí)現(xiàn)特征向量的有效融合,同時減少特征向量維數(shù)。

(一)方向梯度直方圖

方向梯度直方圖特征用于在機(jī)器視覺和圖像識別及處理中用來進(jìn)行物體檢測。在視頻中截取出圖像后,它計算并統(tǒng)計圖像各個區(qū)域的方向梯度直方圖以此來形成特征。為了減少光照因素的影響,首先需要將圖像進(jìn)行灰度化。灰度化后的圖像,將其進(jìn)行Gamma校正,并做顏色空間歸一化處理。

I(x,y)=I(x,y)gamma

(1)

其中,gamma值取0.5。進(jìn)行公式中的計算之后,圖像中像素點(diǎn)(x,y)的梯度為:

Gx(x,y)=H(x+1,y)-H(x-1,y)

(2)

Gy(x,y)=H(x,y+1)-H(x,y-1)

(3)

其中,在圖像的像素點(diǎn)(x,y)處,Gx(x,y)為水平方向梯度函數(shù),Gy(x,y)為垂直方向梯度函數(shù),H(x,y)為像素值函數(shù)。然后,將上述圖像劃分為各個部分區(qū)域,每一個區(qū)域的尺寸現(xiàn)定為8×8像素。將各個區(qū)域中的梯度方向按照360度劃分成9個方向,接著計算出每一個方向的九維特征向量值以此得到每個方向的梯度直方圖。接著我們將各個區(qū)域組合稱為最終的區(qū)間。最后,我們將每個區(qū)間中劃分的各個區(qū)域中的特征向量采用串聯(lián)的方式連接起來就得到了該區(qū)間的HOG特征。

(二)Haar-like特征

首先,提取圖像中的所有聚合通道的特征。聚合通道特征是指聚合圖像中10個通道的特征,其中這10個通道為:LUV顏色的3個顏色通道、1個梯度幅度的通道以及6 個方向梯度直方圖的通道。在計算得出這10個通道特征之后,我們分別提取出這10個特征的Haar-Like 特征[10]。Haar-Like 特征的提取方式如下所示:

1.將各個通道中的特征圖分割為若干60×60像素的局部圖像區(qū)域塊。

2.使用滑窗方法在Haar-Like 特征的模板基礎(chǔ)上提取上述步驟中每個區(qū)域塊中各個位置的Haar-Like 特征。Haar-Like特征圖上位置(x,y)權(quán)重矩陣生成方法如下

W(x,y,w)=Fmodel(m)*C(x,y,m)

(4)

上式中m為Haar-Like特征的尺寸,F(xiàn)model(m) 是尺寸為 m 的特征模板,特征模板Fmodel(m)中,權(quán)重是1的計算單元為增性算子,權(quán)重是-1的計算單元為減性算子,權(quán)重是0的計算單元為中性算子。C(x,y,m) 為聚合通道特征.

圖上起始位置為(x,y) 尺寸為 m 的矩形區(qū)域。?表示的 是兩個相同尺寸矩陣逐個元素相乘運(yùn)算,W(x,y,m) 為Fmodel(m) 與C(x,y,m)兩個矩陣內(nèi)元素逐個相乘的結(jié)果,即 為特征圖坐標(biāo)為(x,y) 處的權(quán)重矩陣。

3.根據(jù)每一個位置的權(quán)重矩陣,計算出整個 Haar-Like 特征圖,特征圖上每一個位置的特征值的大小與該位置上權(quán)重矩陣的關(guān)系

(5)

式中F(x,y,m) 為 Haar-Like 特征圖上位置為(x,y) 上,尺寸大小為 m 的某一個 Haar-Like 特征值。sum(Wadd(x,y,m))為該 Haar-Like 特征內(nèi)增性算子在W(x,y,m)對應(yīng)位置 權(quán)重的和。sum(Wdec(x,y,m)) 為該 Haar-Like 特征內(nèi)減性算子在W(x,y,m)對應(yīng)位置權(quán)重的和。中性算子對應(yīng)的一階特征值則不做處理。Numadd和Numdec則分別為該Haar-Like 特征內(nèi)增性算子以及減性算子的個數(shù)。

(三)分類器

支持向量機(jī)(SVM)[11-13]是解決小樣本模式識別問題的有效方法,其基本原理是通過用核函數(shù)將輸入樣本空間非線性變換到一個高維空間,然后在這個高維空間求廣義最優(yōu)分類超平面SVM 是針對兩類問題提出來的,為實(shí)現(xiàn)對多個類別的識別,需要對 SVM 進(jìn)行相應(yīng)的改進(jìn)。目前,已經(jīng)提出多種方法將SVM 推廣到多類分類問題,如用多個兩類分類器來實(shí)現(xiàn)多類分類,或者用層次型兩類分類器實(shí)現(xiàn)多類分類等。在行為識別中 SVM 常用核函數(shù)用線性核、直方圖交叉核和χ2核,本文中綜合考慮 SVM 分類的精度和計算復(fù)雜這兩個因素,并且通過實(shí)驗比較,采用直方圖交叉核作為分類器的 核函數(shù),具體表達(dá)式如下:

(6)

其中:Xi、Xj為兩個任意的特征向量,an、bn分別為Xi、Xj第 n維的特征值;m 為特征向量的維度。與其他兩個核函數(shù)相比,直方圖交叉核具有計算復(fù)雜度低、分類效果好的特點(diǎn)。將最終量化得到的特征向量輸入基于直方圖交叉核的SVM 進(jìn)行訓(xùn)練,得到分類器,采用同樣的方法獲取測試集特征后用該訓(xùn)練好的分類器進(jìn)行預(yù)測,最終實(shí)現(xiàn)行為識別。

(四)算法步驟

(1)在人體動作數(shù)據(jù)庫集KTH和YouTube中分別選取一段視頻,然后提取出視頻幀圖像,并對圖像進(jìn)行灰度化及規(guī)范化處理。

(2)將處理過后的圖像分別進(jìn)行HOG特征及Haar-like特征的提取,得到HOG特征及Haar-like特征集,并使用離散K-L變換的方式進(jìn)行特征融合,得到最終的特征集。

(3)使用SVM分類器對上面得到的特征集進(jìn)行人體動作分類識別。

二、實(shí)驗分析

本文利用 YouTube數(shù)據(jù)庫和KTH數(shù)據(jù)庫進(jìn)行實(shí)驗評估,實(shí)驗在Matlab 2019b的環(huán)境中進(jìn)行。Weizmann數(shù)據(jù)庫一共包括90段視頻,這些視頻分別由 9個人執(zhí)行10個不同的動作,視頻的背景,視角以及攝像頭都是靜止的。實(shí)驗采取留一法交叉驗證,即依次把每個人的10種動作作為測試樣本,剩下的所有動作作為訓(xùn)練樣本,整個實(shí)驗過程重復(fù)10次。手、拳擊、慢跑、快跑和走。每種動作由25個人在4 個不同場景中完成,合計將近600段視頻,是一個數(shù)據(jù)量相對較大的數(shù)據(jù)庫,數(shù)據(jù)庫的視頻樣本中包含了尺度變化、光照變化、著裝變化等。本實(shí)驗從數(shù)據(jù)庫中隨機(jī)抽取15個人的視頻作為測試樣本,剩余的10 個人作為訓(xùn)練樣本。分別隨機(jī)在上述兩種數(shù)據(jù)庫的每種人體動作中選取了50張圖像數(shù)據(jù),隨機(jī)選初40張作為本次實(shí)驗的訓(xùn)練集,剩下的 10 張圖像則作為測試集。

表1 各種人體動作識別方法準(zhǔn)確率對比

三、結(jié)束語

提出了一種基于HOG和Haar-like特征融合的人體動作識別方法。HOG特征是用來計算局部圖像梯度的方向信息的統(tǒng)計值,Haar特征是一種反映圖像的灰度變化的,像素分模塊求差值的一種特征。單獨(dú)特征來看,Haar特征識別準(zhǔn)確度較高。實(shí)驗結(jié)果證明,兩種特征融合的動作識別效果比單一特征識別效果都要好。

猜你喜歡
數(shù)據(jù)庫動作特征
如何表達(dá)“特征”
不忠誠的四個特征
動作描寫要具體
抓住特征巧觀察
畫動作
動作描寫不可少
數(shù)據(jù)庫
財經(jīng)(2017年2期)2017-03-10 14:35:35
數(shù)據(jù)庫
財經(jīng)(2016年15期)2016-06-03 07:38:02
數(shù)據(jù)庫
財經(jīng)(2016年3期)2016-03-07 07:44:46
數(shù)據(jù)庫
財經(jīng)(2016年6期)2016-02-24 07:41:51
主站蜘蛛池模板: 99热国产这里只有精品9九 | 国产精品一区在线观看你懂的| 国产亚洲精品无码专| 国产成人精品亚洲77美色| 午夜不卡福利| 欧美一级高清免费a| 国产又黄又硬又粗| 日韩精品亚洲一区中文字幕| 狠狠久久综合伊人不卡| 精品无码人妻一区二区| 亚洲天堂网视频| 又爽又大又黄a级毛片在线视频| 久久伊人色| 亚洲一区二区视频在线观看| 综合网久久| 在线国产综合一区二区三区 | 成人在线天堂| 国产精品久久国产精麻豆99网站| 国产麻豆福利av在线播放| 97狠狠操| 亚洲精品第一页不卡| 99久久精品久久久久久婷婷| a级免费视频| 免费看一级毛片波多结衣| 伊人久综合| 人妖无码第一页| 亚洲无码精彩视频在线观看| 亚洲人妖在线| 午夜视频在线观看区二区| 97在线视频免费观看| 99re这里只有国产中文精品国产精品| 久久久国产精品免费视频| 国产精品成人一区二区不卡| AV片亚洲国产男人的天堂| 亚洲人网站| 久久情精品国产品免费| 日韩精品免费在线视频| 一本大道无码日韩精品影视| 亚洲中文在线视频| 久久久精品无码一区二区三区| 97视频免费在线观看| 狠狠做深爱婷婷综合一区| 毛片免费高清免费| 欧美专区在线观看| 91在线国内在线播放老师 | 亚洲欧美日韩成人在线| 国产精品无码AV中文| 2019年国产精品自拍不卡| 欧美国产日产一区二区| 欧洲日本亚洲中文字幕| 久久午夜夜伦鲁鲁片不卡| 亚洲青涩在线| 成人午夜免费观看| 国产精品女主播| 午夜国产不卡在线观看视频| 91破解版在线亚洲| 91 九色视频丝袜| 日韩AV手机在线观看蜜芽| 国产地址二永久伊甸园| 五月天婷婷网亚洲综合在线| 国产凹凸视频在线观看| 91亚洲精选| 亚洲天堂免费| 高清色本在线www| 国产精品综合久久久| 午夜福利在线观看成人| 亚洲男人的天堂在线观看| a欧美在线| 亚洲欧洲国产成人综合不卡| 最新国语自产精品视频在| 91青草视频| 欧美啪啪网| 国产99视频免费精品是看6| 无码人中文字幕| 欧美日韩在线国产| 一区二区理伦视频| 影音先锋亚洲无码| 中文字幕色站| 亚洲精品图区| 丁香婷婷激情综合激情| 国产综合色在线视频播放线视| 欧美亚洲日韩不卡在线在线观看|