999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

局部證據RBF人體行為高層特征自相似融合識別研究

2016-03-25 17:25:01蔣加伏趙怡?k
計算技術與自動化 2015年4期

蔣加伏++趙怡?k

摘要:針對傳統人體動作識別算法,往往重點解決某一類行為識別,不具有通用性的問題,提出一種局部證據RBF人體行為高層特征自相似融合識別算法。首先,借用隨時間變化的廣義自相似性概念,利用時空興趣點光流場局部特征提取方法,構建基于自相似矩陣的人體行為局部特征描述;其次,在使用SVM算法進行獨立個體行為識別后,利用所提出的證據理論RBF(Radial Basis Function)高層特征融合,實現分類結構優化,從而提高分類準確度;仿真實驗表明,所提方案能夠明顯提高人體行為識別算法效率和識別準確率。

關鍵詞:局部特征描述;證據理論;RBF網絡;自相似;高層特征融合

中圖分類號:TP39文獻標識碼:A

1概述

近年來,人體行為識別已得到廣泛應用,特別是在醫療診斷、視覺監控等領域[1]。該算法主要涉及到人體運動檢測/估計,身體和手腳跟蹤以及行為理解等三個方面,本文研究重點研究人體行為活動的識別和描述 [2]。識別過程為:傳感器信息獲取、特征描述、行為識別三個過程。

在普適計算應用方面,常用方法有三種:一是外部傳感器,如文獻[3]接觸式紅外壓力式傳感器組合;二是可穿戴傳感器,如文獻[4]基于穿戴RFID對人體行為進行捕獲判定;三是環境監測傳感器,主要有溫度、濕度及光照傳感器等,通常作為補充[5]。外部傳感器使用方便,輻射小,應用最為廣泛。

在人體特征表示上通常分為:全局和局部特征兩種。在全局特征描述中,對整個視頻上對人體行為進行特征提取,然后進行相似性識別。如文獻[6]改進方向全局人體行為特征描述,可對形狀相近的人體行為進行有效識別。在局部特征描述中,方法是在視頻序列中,提取人體行為的局部特征,利用直方圖或者時序模型構建人體行為特征,如文獻[7]三維梯度直方圖人體行為局部特征描述。相對于全局特征描述,局部特征描述優點在于能夠更為有效地對時域和空域信息進行融合。

在完成局部的人體行為特征描述后,進行的人體行為識別,常用的方法有距離匹配和狀態空間法。狀態空間法對人體行為進行直接建模,能夠對人體行為時序信息進行充分利用,不足之處是算法的控制參數較多。而距離匹配雖簡單,但未考慮人體行為動態過程,因此算法的識別率相對較低[8]。

綜合上述分析,本文構建自相似矩陣人體行為局部特征描述,并設計證據理論RBF高層特征融合算法,實現人體行為識別分類結構優化。

4實驗與分析

本節實驗基于KTH數據庫及較復雜的多視角MuHAViMAS14數據庫進行實驗。硬件條件:CPU:I5-4590,3.3GHz;內存:金士頓ddr3 1600,4GHz。

對比算法:文獻[11]局部SVM算法(LSVM),文獻[12]動態貝葉斯算法(DBN),文獻[13]單純時空興趣點特征提取SVM算法(STIPSVM)。

仿真指標選取平均預測精度mAP,可定義如下:

AP=Numar/Numtar·Numtra (19)

式中,Numar為獲取數量;Numtar為行為總數;Numtra為人體行動總數。

KTH數據庫:該數據庫有6種人體行為:行走、慢跑、快跑、拳擊、擺手、拍手,如圖5所示。KTH數據庫含有2391幅不同人體行為圖像。

每種人體動作行為各選取該動作行為圖像總數量的1/4作為訓練數據集。算法各運行30次,上述6種人體行為的平均預測精度mAP值見表1所示。

從表1中可看出,上述算法均能對KTH數據庫進行較有效識別,平均識別精度在70%以上。其中對比算法在行走、慢跑、快跑三種行為的識別率偏低,原因是這三種人體行為存在邊界交叉,因此三種算法在對其進行識別時,識別率偏低,平均在71%~77%之間。而在區別較大的拳擊、擺手、拍手三種行為中,這三種算法識別率能達到82%~89%間。本文所提算法識別率均明顯好于對比算法,能達到90%~96%之間,顯示了算法良好識別能力。為更清晰對比,平均預測精度和運行時間曲線如圖6所示。采用本文算法獲得的混淆矩陣如圖7所示。

從圖6可看出,在預測精度上,本文算法要始終高于對比算法,保持在90%以上,而對比算法識別率互有高低,保持在70%~90%之間;在算法運行時間上,本文算法的運行時間最短,保持在7s~9s之間,其次是DBN算法,運行時間在10s~11.5s之間,其余兩種算法因用到SVM算法,運行時間相近,保持在14s~18s間。從圖7混淆矩陣可看出,本文算法除在個別行為間達到15%混淆概率外,其他行為間的混淆比例很低,說明識別效果很好。

MuHAViMAS14數據庫:該數據庫作為較復雜測試對象,來進一步驗證本文算法的性能有效性。該數據庫中一共含有14種人體行為,分別進行編碼{a,b,c,d,e,f,g,h,i,j,k,l,m,n}。該數據庫示例圖片如圖8所示。該數據庫由兩個人在兩個視角下完成,視角分別為:正面和45度角。這兩個視角下各有68個視頻,包含角度和動作的變化,識別難度大。對比算法同上,仿真指標選取上述14種人體行為識別率均值(運行30次),計算方法參見公式(19)。對比結果如表2所示,表2同時給出算法30次運行時間均值。圖9給出算法混淆矩陣。

表2給出對比算法在MuHAViMAS14數據庫中14種人體行為的平均識別率結果,從圖中可明顯看出,本文算法在更為復雜的數據庫上的識別率雖有所降低,但仍然保持在80%以上識別率,而對比算法的識別率均出現大幅降低,僅能保證60%多的識別率。在算法運行時間方面,本文算法的運行時間需要17.3s比KTH數據庫要長1倍左右,而對比算法的運行時間均在30s左右。

圖9給出本文算法在MuHAViMAS14數據庫中獲取的混淆矩陣,從該矩陣中可看出,在個別行為之間存在較大混淆概率,比如在人體行為f與人體行為h之間存在25%的混淆概率,在g與h之間也存在25%的混淆概率等,比在KTH數據庫上的混淆概率要高很多。

5結束語

針對傳統人體動作識別算法識別率不高的問題,提出一種局部證據RBF人體行為高層特征自相似融合識別算法,進行有效解決,實驗結果顯示,本文算法在識別率和收斂速度上均要好于對比算法。存在的不足是,在復雜的多視角MuHAVi-MAS14數據庫上個別人體行為間的混淆概率值依然較高,仍然存在較大的提升空間。

參考文獻

[1]MEDINA J R, LORENZ T, HIRCHE S. Synthesizing Anticipatory Haptic Assistance Considering Human Behavior Uncertainty[J]. IEEE Transactions on Robotics, 2015, 31(1): 180-190.

[2]田國會, 尹建芹, 韓 旭. 一種基于關節點信息的人體行為識別新方法[J]. 機器人, 2014, 36(3): 285-291.

[3]Gu Tao,Wang Liang,Wu Zhanqing. A pattern mining approach to sensor—based human activity recognition[J].IEEE Transactions on Knowledge and Data Engineering, 2013, 23(9): 1359-1372.

[4]STIKIC M, HUYNH T, LAERHOVEN K V.ADL recognition based on the combination of RFID and aceelerometer sensing[C]. //Proceedings of the International Conference of Pervasive Computing Technologies for Heahhcare, Tampere, Finland, 2008, pp. 245-250.

[5]PHILIPOSE M, FISHKIN K P, PERKOWITZ M. Inferring activities from interactions with objects[J]. IEEE Pervasive Computing, 2004, 3(4): 50-57.

[6]CAI J X, FENG G C, TANG X. Human action recognition using oriented holistic feature[C]. // 20th IEEE International Conference on Image Processing, USA, IEEE, 2013, pp. 2420-2424.

[7]ALEXANDER K,MARCIN M, CORDELIA S. A spatiotemporal descriptor based on 3dgradients[C]. //British Machine Vision Conference, IEEE Computer Society, 2008, 995-1004.

[8]蔡加欣, 馮國燦, 湯鑫. 基于局部輪廓和隨機森林的人體行為識別[J]. 光學學報, 2014, 34(10): 1-10.

[9]JUNEJO I N, DEXTER E, Laptev I. Crossview action recognition from temporal self similarities[J]. //Proceedings of the European conference on computer vision, USA, IEEE, 2008, pp. 293-306.

[10]BARRI A, DOOMS A, JANSEN B. A Locally Adaptive System for the Fusion of Objective Quality Measures[J]. IEEE Transactions on Image Processing, 2014, 23(6): 2446-2458.

[11]SCHULDT C, LAPTEV I, CAPUTO B. Recognizing human actions: a local SVM approach[C]. //Proceedings of the international conference on pattern recognition, USA, IEEE, 2004:32-36.

[12]NIEBLES J C, WANG H, LI F F. Unsupervised learning of human action categories using spatial-temporal words[C]. //British machine vision conference, Copper Mountain, IEEE,2006:22-28.

[13]WONG S F,CIPOLLA R. Extracting spatio-temporal interest points using global information[C]. //IEEE conference on computer vision and pattern recognition. Rio de Janeiro, IEEE,2007:1-8.

主站蜘蛛池模板: 午夜毛片免费观看视频 | 91在线中文| 欧美一区二区精品久久久| 久久网欧美| 久久国产精品嫖妓| 亚洲欧美人成人让影院| 免费黄色国产视频| 精品久久久久久久久久久| 亚洲欧美另类久久久精品播放的| 999福利激情视频| 亚洲人成网站观看在线观看| 亚洲国产天堂在线观看| 国产一级毛片yw| 午夜日韩久久影院| 日韩在线成年视频人网站观看| 欧美三级自拍| 91国内视频在线观看| 婷婷五月在线| 在线国产欧美| 亚洲无码视频喷水| 91年精品国产福利线观看久久| 国产00高中生在线播放| 欧美色亚洲| 欧美国产在线看| 9cao视频精品| 国产精品专区第1页| 亚洲欧美日韩精品专区| 国产精品自在在线午夜区app| 亚洲狼网站狼狼鲁亚洲下载| 欧美日韩免费观看| 白浆免费视频国产精品视频| 永久免费无码日韩视频| 欧美区在线播放| 亚洲一区二区成人| 99热最新在线| 国产美女在线免费观看| 重口调教一区二区视频| V一区无码内射国产| 99久久国产综合精品2023| 国产欧美日韩专区发布| 中文无码精品a∨在线观看| 国产精品一区在线麻豆| 国产一区二区免费播放| av在线人妻熟妇| 国产精品9| 亚洲无码高清一区二区| 国产精鲁鲁网在线视频| 日本色综合网| 久无码久无码av无码| 久久这里只有精品8| 亚洲中文字幕日产无码2021| julia中文字幕久久亚洲| 伊人久久综在合线亚洲2019| 国产成人福利在线| 久久人与动人物A级毛片| 精品福利视频网| 精品欧美一区二区三区久久久| 91九色国产在线| 日本一区二区不卡视频| 99视频在线免费观看| 国产精品 欧美激情 在线播放| 国产精品999在线| 麻豆国产在线不卡一区二区| 女人18一级毛片免费观看| 丁香亚洲综合五月天婷婷| 伊在人亞洲香蕉精品區| 蜜芽一区二区国产精品| 日韩av资源在线| 广东一级毛片| 亚洲中文字幕在线一区播放| 美女一区二区在线观看| 男女性色大片免费网站| 日本在线视频免费| 激情午夜婷婷| 国产精品免费入口视频| 国产剧情国内精品原创| 精品人妻AV区| 九九免费观看全部免费视频| 久久久久国产一级毛片高清板| 成人精品午夜福利在线播放| 久久久久久久97| 好吊色国产欧美日韩免费观看|