999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于加速度傳感器的人體前臂動(dòng)作識(shí)別

2016-06-21 07:02:34民權(quán)職業(yè)技術(shù)教育中心張金棟
電子世界 2016年11期
關(guān)鍵詞:特征提取

民權(quán)職業(yè)技術(shù)教育中心 張金棟

基于加速度傳感器的人體前臂動(dòng)作識(shí)別

民權(quán)職業(yè)技術(shù)教育中心 張金棟

【摘要】針對(duì)人體前臂運(yùn)動(dòng)識(shí)別困難,識(shí)別率低的問題,且為了有效并快速提取人體上肢前臂的運(yùn)動(dòng)特征,設(shè)計(jì)了一種基于加速度傳感器的人體前臂動(dòng)作識(shí)別系統(tǒng)。首先利用加速度傳感器來獲取的加速度原始數(shù)據(jù)矩陣,采用分段線性分類器對(duì)運(yùn)動(dòng)特征矩陣進(jìn)行動(dòng)作識(shí)別。實(shí)驗(yàn)表明,本系統(tǒng)能夠有效識(shí)別人體右手前臂向上,向下,向左,向右四種動(dòng)作,且動(dòng)作識(shí)別率達(dá)98%。

【關(guān)鍵詞】加速度傳感器;濾波;運(yùn)動(dòng)識(shí)別;特征提取

0.引言

目前主流的手勢(shì)識(shí)別技術(shù)有:(1)采用機(jī)器視覺方式來識(shí)別肢體運(yùn)動(dòng)模式[1]。此方法在于靜態(tài)運(yùn)動(dòng)模式上廣泛應(yīng)用[2],但成本較高,對(duì)硬件設(shè)備要求高且算法設(shè)計(jì)復(fù)雜難于推廣[3];(2)基于表面肌電信號(hào)來識(shí)別肢體運(yùn)動(dòng)模式[4]。此方法多用于醫(yī)療康復(fù)[5]、運(yùn)動(dòng)控制[6]等領(lǐng)域,但表面肌電信號(hào)微弱,易受干擾,獲取難度大[7];(3)基于慣性傳感器來識(shí)別肢體運(yùn)動(dòng)模式[8]。此方法在實(shí)時(shí)運(yùn)動(dòng)模式識(shí)別中廣泛應(yīng)用[9],且受外界干擾因素較少,易于獲取,只需佩戴具有慣性傳感器的體感設(shè)備,或是手持手機(jī),即可滿足需求,因而便于在日常生活中得到推廣[10]。因此,本系統(tǒng)采用基于加速度傳感器來實(shí)現(xiàn)人體上肢前臂動(dòng)作識(shí)別。

1.人體前臂動(dòng)作識(shí)別系統(tǒng)總體設(shè)計(jì)

前臂動(dòng)作識(shí)別系統(tǒng)由加速度原始數(shù)據(jù)采集[11]、加速度原始數(shù)據(jù)預(yù)處理、手勢(shì)運(yùn)動(dòng)模式分類以及后續(xù)處理五部分組成[12]。

圖1 前臂動(dòng)作識(shí)別系統(tǒng)總體設(shè)計(jì)框圖

2.前臂運(yùn)動(dòng)識(shí)別算法設(shè)計(jì)

圖2 前臂運(yùn)動(dòng)識(shí)別算法流程圖

前臂動(dòng)作識(shí)別算法設(shè)計(jì)框圖如圖2所示。經(jīng)過預(yù)處理后的數(shù)據(jù),在抬手過程中,Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì);在落手過程中,Y軸數(shù)據(jù)在正半軸有明顯的變化趨勢(shì);在向左運(yùn)動(dòng)時(shí),X軸數(shù)據(jù)在正半軸有明顯變化趨勢(shì), Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì);在向右運(yùn)動(dòng)時(shí),X軸數(shù)據(jù)在負(fù)半軸有明顯變化趨勢(shì), Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì)。圖2就是利用這種數(shù)據(jù)差異來因而采用線性分段分類器與決策樹來對(duì)這四種動(dòng)作模式進(jìn)行分類識(shí)別。

3.實(shí)驗(yàn)結(jié)果分析

實(shí)驗(yàn)中,為了測(cè)試算法的效率與通用性,挑選十名志愿者按照預(yù)定動(dòng)作,即右手佩戴體感帶有加速度傳感器的體感手環(huán),手心朝下做抬手,落手,向身體內(nèi)側(cè)運(yùn)動(dòng),展開前臂四種動(dòng)作自然運(yùn)動(dòng),以個(gè)人習(xí)慣與力度每種動(dòng)作做一百次,并與動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析三種算法的對(duì)比結(jié)果如表1所示。

表1 四種不同算法的識(shí)別結(jié)果

從表1可以看出,基于決策樹分類器對(duì)前臂四種動(dòng)作模式的平均識(shí)別率為98%,而基于動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析的平均識(shí)別率分別為:94%、92%和97%,基于決策樹分類器的識(shí)別率最高。

4.結(jié)束語

本文針對(duì)基于加速度傳感器的前臂運(yùn)動(dòng)識(shí)別設(shè)計(jì)了一種基于嵌人式系統(tǒng)的計(jì)算量小、個(gè)體適應(yīng)性強(qiáng)的方法。該方法針對(duì)加速度原始數(shù)據(jù)進(jìn)行了濾波和去重力場(chǎng)作用提取出動(dòng)作特征數(shù)據(jù),進(jìn)而使用模式識(shí)別方法中的決策樹實(shí)現(xiàn)了任意設(shè)備姿態(tài)下的前臂動(dòng)作識(shí)別,且與動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析這三種分類器相比,識(shí)別準(zhǔn)確率較高,識(shí)別率達(dá)98%。但由于加速度傳感器數(shù)據(jù)通道數(shù)的限制和時(shí)域特征參數(shù)的限制,對(duì)于上肢前臂的動(dòng)作識(shí)別還不夠充分,例如手腕翻轉(zhuǎn)、連續(xù)動(dòng)作等,還不能有效識(shí)別。因此,在后續(xù)的工作中,針對(duì)加速度傳感器在上肢前臂的安裝位置與前臂動(dòng)作的運(yùn)動(dòng)關(guān)系,深入研究在不同前臂動(dòng)作下,采用多個(gè)加速度傳感器數(shù)據(jù)融合技術(shù)來識(shí)別更多的前臂運(yùn)動(dòng)模式,并提高識(shí)別正確率。

參考文獻(xiàn)

[1]趙澤彪,常丹華.基于DSP的穿戴式動(dòng)作傳感器的手勢(shì)識(shí)別[J].計(jì)算機(jī)工程與設(shè)計(jì),2013,34(4)∶1250-1253.

[2]嚴(yán)焰,劉蓉,黃璐.基于HMM的手勢(shì)識(shí)別研究[J].華中師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,46(5)∶555-559.

[3]荊雷,馬文君,常丹華.基于動(dòng)態(tài)時(shí)間規(guī)整的手勢(shì)加速度信號(hào)識(shí)別[J].傳感技術(shù)學(xué)報(bào),2012,25(1)∶72-75.

[4]Xu R Z,Zhou S L,Li W J.MEMS Accelerometer Based Nonspecific User Hand Gesture Recognition[J].EEE Sensors Journal,2012,12(5)∶1166-1173.

[5]張建忠,常丹華.基于區(qū)間分布概率矩陣模型的動(dòng)態(tài)手勢(shì)識(shí)別方法[J].測(cè)控技術(shù)與儀器儀表,2013,39(1)∶72-75.

[6]Yang Yu,Chen Xiang,Tu You-qiang,et a1.Human-machine interactionsystem based on surface EMG signals[J].Journal of System Simulation,2010,22(3)∶651-655.

[7]萬莎,侯文生,楊丹丹等.基于LabVIEW的多通道sEMG信號(hào)檢測(cè)系統(tǒng)設(shè)計(jì)[J].測(cè)控技術(shù)與儀器儀表,2012,38(3)∶78-81.

[8]肖茜,楊平,徐立波.一種基于MEMS慣性傳感器的手勢(shì)識(shí)別方法術(shù)[J].傳感技術(shù)學(xué)報(bào),2013,26(5)∶611-615.

[9]陳意,楊平,陳旭光.一種基于加速度特征提取的手勢(shì)識(shí)別方法[J].傳感技術(shù)學(xué)報(bào),2012,25(8)∶1073-1078.

[10]Yuan Tao,Wang Ben Accelerometer Based Chinese Traffic Police Gesture Recognition System[J].Chinese Journal of Electronics,2010(19)∶270-274.

[11]孫金秋,游有鵬,傅忠云.基于共軛梯度法和互補(bǔ)濾波相結(jié)合的姿態(tài)解算算法[J].傳感技術(shù)學(xué)報(bào),2014,27(4)∶524-528.

[12]呂印新,肖前貴,胡壽松.基于四元數(shù)互補(bǔ)濾波的無人機(jī)姿態(tài)解算[J].燕山大學(xué)學(xué)報(bào),2014,38(2)∶175-180.

作者簡(jiǎn)介:

張金棟(1972—),男,河南民權(quán)人,大學(xué)本科,講師,主要從事網(wǎng)絡(luò)搭建及計(jì)算機(jī)軟件開發(fā)方面的研究。

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 免费无码AV片在线观看国产| 91成人在线免费视频| 中文纯内无码H| 人妻丝袜无码视频| 欧美v在线| 秋霞一区二区三区| 婷婷激情五月网| 国禁国产you女视频网站| 青青青草国产| 久久精品中文字幕少妇| 日韩一二三区视频精品| 久久无码高潮喷水| 久久久黄色片| 五月婷婷丁香综合| 精品久久久久成人码免费动漫| 国产精品人成在线播放| 久久99热这里只有精品免费看| 久久人搡人人玩人妻精品一| 激情无码字幕综合| 国产精欧美一区二区三区| 国产99精品久久| 成人字幕网视频在线观看| 亚洲精品成人7777在线观看| 免费国产高清精品一区在线| 免费福利视频网站| 97超爽成人免费视频在线播放| 成人福利在线免费观看| 亚洲人成网址| 亚洲乱码在线视频| 97人人做人人爽香蕉精品 | 日本午夜三级| 国产不卡国语在线| 亚洲成人免费看| 免费AV在线播放观看18禁强制 | 国产一区三区二区中文在线| 亚洲免费人成影院| 91久久青青草原精品国产| 精品久久久久无码| 天天躁夜夜躁狠狠躁图片| 欧美97欧美综合色伦图| 国产无码精品在线播放| 99精品伊人久久久大香线蕉 | 2020最新国产精品视频| 欧美日本在线一区二区三区| 浮力影院国产第一页| 国产成熟女人性满足视频| 国产AV无码专区亚洲精品网站| 亚洲精品国产首次亮相| 99精品视频在线观看免费播放| 中文字幕免费播放| 亚洲欧洲日本在线| 天天摸天天操免费播放小视频| 国产高清国内精品福利| 欧美亚洲欧美| 日本欧美视频在线观看| 97人妻精品专区久久久久| 在线看片免费人成视久网下载| 国产成人综合日韩精品无码首页| 高清精品美女在线播放| 国产尤物在线播放| 色有码无码视频| 国产在线视频二区| 久久天天躁狠狠躁夜夜躁| 亚欧成人无码AV在线播放| 精久久久久无码区中文字幕| 国产爽歪歪免费视频在线观看 | 欧美日韩北条麻妃一区二区| 日本免费高清一区| 亚洲女同一区二区| www.精品国产| 亚州AV秘 一区二区三区| av天堂最新版在线| 2021国产精品自产拍在线观看 | 久久综合一个色综合网| 国产精品成人一区二区不卡 | 久久不卡精品| 国产精品久久久久久久久| 女同国产精品一区二区| 国产va在线观看| av在线5g无码天天| 97国产精品视频人人做人人爱| 无码网站免费观看|