999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度運(yùn)動(dòng)圖的人體行為識(shí)別

2017-07-19 11:38:55史東承李延林
關(guān)鍵詞:深度動(dòng)作信息

史東承, 李延林

(長春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長春 130012)

?

基于深度運(yùn)動(dòng)圖的人體行為識(shí)別

史東承, 李延林*

(長春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長春 130012)

將人體行為深度映射圖(depth map)連續(xù)投影到3個(gè)互相垂直的笛卡爾平面,然后對(duì)投影做絕對(duì)差分,累積各自投影面的差分圖像,得到完整的人體行為三維信息----深度運(yùn)動(dòng)圖(Depth Motion Maps, DMMs)。利用MSRAction dataset和3D Action Pairs dataset進(jìn)行訓(xùn)練以獲取人體行為字典。在識(shí)別未知?jiǎng)幼鲿r(shí),利用Tikhonov矩陣計(jì)算得出權(quán)重系數(shù)向量。最后,利用L2范式正則化協(xié)同表示對(duì)待識(shí)別動(dòng)作進(jìn)行分類。通過上述兩個(gè)數(shù)據(jù)庫的驗(yàn)證,分別達(dá)到了95.3%和83.8%的平均識(shí)別率,已經(jīng)達(dá)到對(duì)DMMs的較高識(shí)別率。

人體行為; 識(shí)別; 深度運(yùn)動(dòng)圖; L2范式

0 引 言

人體行為識(shí)別[1]是計(jì)算機(jī)視覺領(lǐng)域的熱門研究方向之一。傳統(tǒng)方法在獲取人體行為時(shí),多使用二維視頻,致使人體行為在三維空間中的動(dòng)作信息在初始場景下就已經(jīng)丟失了部分信息。并且由于傳統(tǒng)攝像機(jī)拍攝的視頻多受光照的影響,傳統(tǒng)方法不得不對(duì)光照進(jìn)行二次處理,造成人體行為信息的再次損失。隨著RGBD攝像機(jī)以及深度傳感器[2]的使用(如Kinect等),在源頭獲取人體行為的三維信息變得十分便捷,所得深度圖像序列也對(duì)光照不敏感,在信息的處理上不必處理光照產(chǎn)生的影響。正是由于人體行為信息由二維轉(zhuǎn)向了三維,讓人體行為的處理方式也更加多樣和靈活化。

文中正是利用此種優(yōu)勢提出了DMMs進(jìn)行人體行為識(shí)別。將人體行為特征的三維信息作為特征向量,并利用L2范式正則化協(xié)同表示分類器進(jìn)行分類。算法流程如圖1所示。

圖1 算法流程圖

1 深度運(yùn)動(dòng)圖

1.1 深度運(yùn)動(dòng)圖的生成

深度映射圖是由RGBD攝像機(jī)拍攝所得,以往常常用來構(gòu)建物體的三維信息和三維結(jié)構(gòu)。文中通過利用RGBD攝像機(jī)獲取人體行為視頻,使視頻擁有人體行為的三維信息。通過MSRAction3D[3]和3D Action Pairs 兩個(gè)數(shù)據(jù)庫的深度運(yùn)動(dòng)圖(DMM),將DMM在3個(gè)互相垂直的笛卡爾平面上做二維投影,投影視角為前視(front view)、側(cè)視(side view)和俯視(top view),所得DMM記為DMMf、DMMs和DMMt,分別如圖2和圖3所示。

圖2 Tennis Serve 圖3 Side Kick

假設(shè)一個(gè)深度視頻有N個(gè)幀組成,每一幀在其投影視角下的二維投影記為Mapv,則

(1)

1≤a

式中:i----視頻序列在視角v下的的第i幀(注意:為了去除DMM的冗余信息,即視頻幀的起始幀和結(jié)尾幀都含有一些動(dòng)作幅度不是很大的幀,文中建議去除這些幀,以提升輸入信息的有效性)。

1.2 深度運(yùn)動(dòng)圖特征向量的生成

從圖2和圖3可以看出,DMM在3個(gè)維度上的投影綜合在一起具有很高的辨識(shí)度。文中正是利用這一特性,將生成的DMM作為人體行為的特征向量。因拍攝人體時(shí)攝像機(jī)距離人體的遠(yuǎn)近及拍攝人物的高度、胖瘦各有不同,會(huì)造成拍攝的不同視頻序列經(jīng)投影變換后,所得DMM的尺寸各不相同。這里,將利用雙三次插值法對(duì)DMM的尺寸進(jìn)行重新調(diào)整。

2 L2范式正則化協(xié)同表示分類

2.1 稀疏表示方法

稀疏編碼[4]是從人眼視覺系統(tǒng)研究開發(fā)得來,它是一種高效合理的編碼方式。稀疏編碼在人臉識(shí)別[5]及圖像分類[6]中都獲得了不錯(cuò)的成績。稀疏編碼分類的核心思想是使用訓(xùn)練樣本生成過完備字典,并利用過完備字典對(duì)測試樣本進(jìn)行稀疏表示。最后,計(jì)算測試樣本與稀疏編碼的差值,最小差值即可表示其所表示的類別。

(2)

(3)

式中:θ----正則化尺度參數(shù),是用來平衡稀疏項(xiàng)的影響。

測試樣本g類別標(biāo)簽,則利用公式

(4)

進(jìn)行計(jì)算,然后利用公式

(5)

得出測試樣本g所屬類別。

2.2 L2范式正則化協(xié)同表示方法

(6)

λ表示正則化參數(shù),L[9]表示Tikhnov[10]正則化矩陣,L的表達(dá)式如下

(7)

(8)

3 實(shí)驗(yàn)結(jié)果

3.1 實(shí)驗(yàn)數(shù)據(jù)

文中使用Matlab進(jìn)行算法仿真,使用MSRAction3D dataset進(jìn)行算法準(zhǔn)確度評(píng)估,并與當(dāng)前主流算法進(jìn)行比對(duì)。MSRAction3D dataset包含10個(gè)人,每個(gè)人做20種不同的動(dòng)作,且每個(gè)人做的每一種動(dòng)作都會(huì)重復(fù)2~3次,這么做的目的是為了提升訓(xùn)練后的類內(nèi)多樣性,以提升識(shí)別率。首先將MSRAction3D dataset分成3個(gè)組,每個(gè)組中所包含的動(dòng)作見表1。

表1 MSRAction3D dataset 3組動(dòng)作分組

表1中,我們將3組動(dòng)作中的每組動(dòng)作都進(jìn)行測試1組、測試2組和交叉測試組試驗(yàn)。在測試1組中,每個(gè)人執(zhí)行的第1個(gè)動(dòng)作作為訓(xùn)練數(shù)據(jù),后兩個(gè)動(dòng)作作為測試數(shù)據(jù)。測試2組,每個(gè)人執(zhí)行的前兩個(gè)動(dòng)作作為訓(xùn)練數(shù)據(jù),最后一個(gè)作為測試數(shù)據(jù)。在交叉測試組,1、3、5、7、9這5個(gè)人的動(dòng)作作為訓(xùn)練數(shù)據(jù),2、4、6、8、10這5個(gè)人的動(dòng)作作為測試數(shù)據(jù)。由于不同人做不同動(dòng)作時(shí),頻率、力度和幅度各有不同,易造成識(shí)別誤差,因此,交叉測試組的結(jié)果比其他兩個(gè)組更能表明算法的魯棒性。

為了進(jìn)一步說明本方法對(duì)相似動(dòng)作的識(shí)別較有優(yōu)勢,文中還引入了另一個(gè)數(shù)據(jù)庫3D Action Pairs dataset。此數(shù)據(jù)庫內(nèi)動(dòng)作由10個(gè)人做出,每人每個(gè)動(dòng)作做3次,動(dòng)作內(nèi)容見表2。

表2 3D Action Pairs dataset所包含的動(dòng)作

實(shí)驗(yàn)中,將數(shù)據(jù)庫里每個(gè)動(dòng)作類別的前5個(gè)人所做的動(dòng)作作為訓(xùn)練集,剩余5個(gè)人的動(dòng)作作為測試集。部分3D Action Pairs dataset內(nèi)的動(dòng)作視圖如圖4所示。

圖4 3D Action Pairs dataset圖像示例

3.2 實(shí)驗(yàn)結(jié)果

使用MSRAction3D dataset與主流的3種方法進(jìn)行識(shí)別準(zhǔn)確率評(píng)估。文中方法與主流方法識(shí)別率比對(duì)見表3。

表3 文中方法與主流方法識(shí)別率比對(duì)

從表3可以看出,文中提出的方法在3組測試中都有比較明顯的優(yōu)勢,尤其是最具挑戰(zhàn)性的交叉測試組,文中的平均識(shí)別率都明顯優(yōu)于其他3種方法,可見基于DMMs的人體行為識(shí)別在相似動(dòng)作識(shí)別上依然有很強(qiáng)的魯棒性。

為了進(jìn)一步說明文中方法在相似動(dòng)作中的識(shí)別優(yōu)勢,我們使用3D Action Pairs dataset作為數(shù)據(jù)庫,使用算法分別為Skeleton+LOP和文中算法作比較。以下兩張混淆矩陣即為這兩種算法的比較,分別如圖5和圖6所示。

圖5 Skeleton+LOP

圖6 文中方法

從圖5和圖6可以看出,以Skeleton+LOP所形成的算法在3D Action Pairs dataset處于較為明顯的劣勢。文中所提的方法在Lift a box, Push a chair, Take off a hat, Put on a backpack以及Take off a backpack這5個(gè)動(dòng)作中略微差一些,但在其他7個(gè)動(dòng)作中都占有優(yōu)勢,尤其是在Pickup a box, Put down a box以及Remove a poster這3個(gè)動(dòng)作中都占據(jù)絕對(duì)的識(shí)別優(yōu)勢。

可見本方法不僅在MSRAction dataset有著不錯(cuò)的識(shí)別率,在3D Action Pairs dataset這樣動(dòng)作十分相似的數(shù)據(jù)庫實(shí)驗(yàn)中依然可以達(dá)到不錯(cuò)的識(shí)別率。足見文中提出的算法在類內(nèi)多樣性和類間區(qū)分上有著不錯(cuò)的魯棒性。

[1] Cheng G, Wan Y, Saudagar A N, et al. Advances in human action recognition:A survey[J]. Computer Science,2015(1):1-30.

[2] 陳萬軍,張二虎.基于深度信息的人體動(dòng)作識(shí)別研究綜述[J].西安理工大學(xué)學(xué)報(bào),2015(3):253-264.

[3] Wang J, Liu Z, Wu Y, et al. Mining actionlet ensemble for action recognition with depth cameras[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society,2012:1290-1297.

[4] Wright J, Yang A Y, Ganesh A, et al. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2009,31(2):210-227.

[5] Gao S, Tsang W H, Chia L T. Kernel sparse representation for image classification and face recognition[C]//Computer Vision -ECCV,2010:1-14.

[6] Yang J, Yu K, Gong Y, et al. Linear spatial pyramid matching using sparse coding for image classification[C]//IEEE,2009:1794-1801.

[7] Wright J, Ma Y. Dense error correction via l1-minimization[C]// IEEE International Conference on Acoustics. IEEE Computer Society,2009:3033-3036.

[8] Lei Zhang, Meng Yang, Xiangchu Feng. Sparse representation or collaborative representation: Which helps face recognition[C]// International Conference on Computer Vision. IEEE Computer Society,2011:471-478.

[9] Chen C, Tramel E W, Fowler J E. Compressed-sensing recovery of images and video using multihypothesis predictions[C]// Conference on Circuits. IEEE,2011:1193-1198.

[10] Golub G H, Hansen P C, O′Leary D P. Tikhonov regularization and total least squares[J]. Siam Journal on Matrix Analysis & Applications,2010,21(1):185-194.

[11] Lu Xia, Chia Chih Chen, Aggarwal J K. View invariant human action recognition using histograms of 3D joints[C]//Computer Vision and Pattern Recognition Workshops,2012.

[12] Yang X, Tian Y L. EigenJoints-based action recognition using Naive-Bayes-Nearest-Neighbor[J]. Perceptual & Motor Skills,2012,38(3c):14-19.

[13] Li W, Zhang Z, Liu Z. Action recognition based on a bag of 3D points[J]. Advances in Artificial Intelligence,2016:3-14.

Human action recognition based on depth motion maps

SHI Dongcheng, LI Yanlin*

(School of Computer Science and Engineering, Changchun University of Technology, Changchun 130012, China)

Human action depth maps are projected continuously to three perpendicular Descartes plane. The projections are absolute differentiated and cumulated to obtain complete 3D information of human action which is called the Depth Motion Maps (DMMs). With MSRAction dataset and 3D Action Pairs software, DMMs is trained to get the human action dictionary. When the unidentified human action is input, weight coefficients are calculated by using the Tikhonov matrix, and then L2-regularized collaborative representation classifier is used to classify the actions. Two data-set experiments indicate that the average recognition rates is 95.3% and 83.8% respectively.

human action; recognition; depth motion maps; L2-regularized.

2017-03-21

吉林省教育廳“十三五”規(guī)劃項(xiàng)目(吉教科合字[2016]第349號(hào))

史東承(1959-),男,漢族,吉林長春人,長春工業(yè)大學(xué)教授,碩士,主要從事圖像處理與機(jī)器視覺方向研究,E-mail:shidongchen@ccut.edu.cn. *通訊作者:李延林(1990-),男,朝鮮族,吉林通化人,長春工業(yè)大學(xué)碩士研究生,主要從事圖像處理與機(jī)器視覺方向研究,E-mail:balinshitou@163.com.

10.15923/j.cnki.cn22-1382/t.2017.3.12

TP 391

A

1674-1374(2017)03-0276-06

猜你喜歡
深度動(dòng)作信息
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
動(dòng)作描寫要具體
畫動(dòng)作
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
動(dòng)作描寫不可少
非同一般的吃飯動(dòng)作
展會(huì)信息
主站蜘蛛池模板: 日韩高清成人| 欧美不卡在线视频| 在线欧美日韩国产| 国产视频资源在线观看| 久久久久国产精品嫩草影院| 成人午夜福利视频| 国产精品网址你懂的| 欧美国产菊爆免费观看 | 午夜福利在线观看成人| 一级毛片无毒不卡直接观看 | 成人国产精品一级毛片天堂| 国产爽爽视频| 99在线观看精品视频| 国产成人91精品| 国产91av在线| 看看一级毛片| 免费无码又爽又黄又刺激网站| 男人天堂伊人网| 色综合a怡红院怡红院首页| 亚洲性影院| 91精品国产无线乱码在线| 91精品aⅴ无码中文字字幕蜜桃 | 亚洲国产欧洲精品路线久久| 久综合日韩| 欧美精品不卡| 伊人久久久久久久久久| 2020精品极品国产色在线观看 | 欧美精品成人| 精品欧美视频| 波多野吉衣一区二区三区av| 原味小视频在线www国产| 伊人久久婷婷| 五月综合色婷婷| 无码久看视频| 五月综合色婷婷| 91麻豆精品国产高清在线| 中国国产高清免费AV片| 漂亮人妻被中出中文字幕久久| 婷婷六月综合网| 99视频精品在线观看| 国产97视频在线观看| 亚洲天堂成人| 亚洲一区二区三区国产精华液| 热久久这里是精品6免费观看| 97免费在线观看视频| 亚洲精品在线91| 日本三级欧美三级| 91av成人日本不卡三区| 亚洲av无码人妻| 日韩精品视频久久| 欧美亚洲一区二区三区导航| 天天综合色网| 国产精品页| 免费看美女自慰的网站| 99re在线免费视频| 91无码人妻精品一区二区蜜桃| 免费在线a视频| 国产性精品| 少妇人妻无码首页| 欧美日韩一区二区在线免费观看| www.亚洲天堂| AV熟女乱| 欧美国产成人在线| 亚洲综合极品香蕉久久网| 老司机精品一区在线视频| 亚洲无码高清视频在线观看| 青青久在线视频免费观看| 日本欧美中文字幕精品亚洲| 国产无码精品在线| 在线va视频| 国产精品无码一二三视频| www.国产福利| 伊人久久精品亚洲午夜| 激情爆乳一区二区| 99久视频| 亚洲色图在线观看| 国产成人福利在线| 精品国产美女福到在线不卡f| 国产一国产一有一级毛片视频| 综合色在线| 亚洲精品综合一二三区在线| 亚洲天堂免费在线视频|