999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MEMS六軸傳感器的上肢運動識別系統

2017-02-09 05:15:18全,凱,莉,林,
大連理工大學學報 2017年1期
關鍵詞:標準化動作特征

胡 成 全, 王 凱, 何 麗 莉, 魏 楓 林, 姜 宇

( 吉林大學 計算機科學與技術學院, 吉林 長春 130012 )

基于MEMS六軸傳感器的上肢運動識別系統

胡 成 全, 王 凱, 何 麗 莉*, 魏 楓 林, 姜 宇

( 吉林大學 計算機科學與技術學院, 吉林 長春 130012 )

設計并實現了一種基于MEMS六軸傳感器的上肢運動識別系統.該系統通過1個MEMS六軸傳感器對用戶上肢運動的三維加速度和三維角速度進行實時采集并使用藍牙發送到計算機中.通過計算機將采集到的數據進行加速度分解、濾波、周期判別、標準化等處理后,與特征數據庫中的數據進行相關性分析,從而實現對特定動作的識別,并可對重復動作進行計數.以對啞鈴動作采集數據為例,驗證了該系統的有效性.

動作識別;六軸傳感器;相關系數;加速度分解;標準化

0 引 言

近年來,隨著人機交互[1]類應用的發展,動作識別技術成為國內外研究者關注的熱點[2].目前主流的動作識別技術包括基于圖像傳感器的動作識別技術和基于運動傳感器的動作識別技術.前者主要通過CCD(charge-coupled device)或CMOS(complementary metal-oxide-semiconductor)傳感器對視覺圖像進行采集,并對采集到的圖像進行分析、處理,實現特征提取、動作識別[3],其理論發展較早,目前已具有許多成熟的理論及應用.但這類方法需要傳感器的物理位置相對固定,且傳感器產生的數據量非常大,圖像處理過程往往需要功能強大的DSP(digital signal processor)和FPGA(field programmable gate array)才能完成[4-5],因此不適用于廉價、低功耗、便于攜帶的嵌入式應用.近年來興起的Kinect體感技術,為人機交互領域提供了新的研究途徑[6],也出現了許多基于該技術的動作識別方法[7-8],但Kinect同樣存在傳感器和處理器體積大、功耗高、價格昂貴、不便攜帶等特點.

基于運動傳感器的動作識別技術主要是基于MEMS(micro-electro-mechanical system)三軸加速度傳感器的.MEMS傳感器是采用微電子和微機械加工技術制造出來的新型傳感器[9],該傳感器具有體積小、質量輕、成本低、功耗低、可靠性高、數據量少、控制方便等特點,適用于可穿戴設備[10]等嵌入式應用.從動作的采集方式上劃分,基于該傳感器的動作識別方法主要包括兩類:基于單個傳感器的動作識別方法[11-12]和基于多個傳感器的動作識別方法.前者使用方便,使用時可將傳感器置于手持設備中或可穿戴設備中,但這類方法能夠識別的動作數目較少.后者通常能夠識別的動作數目較多,復雜度也較大,如果傳感器數目足夠多,甚至可以識別全身動作,但這類方法通常需要將傳感器綁縛于人體的各個部位上,這會給使用者帶來不便.目前,基于MEMS傳感器的動作識別應用主要包括手勢識別[13]、手寫識別[14]、體感游戲、病情分析[15]等.

本文使用單個MEMS六軸傳感器對用戶的上肢動作進行實時采集,這樣可以在單個傳感器上得到更多數據.MEMS六軸傳感器可以采集三軸加速度和三軸角速度數據,通過使用低通濾波器,又可以將三軸加速度分解為三軸重力加速度和三軸線性加速度.這樣,針對每一種動作便可得到9組特征數據,繼而實現對更多動作的識別.本文以對啞鈴動作采集數據為例,驗證該系統的有效性.

1 采集設備與系統結構

本文使用德州儀器(Texas Instruments,TI)公司的CC2650 SensorTag作為數據采集終端.該設備使用CC2650 無線MCU作為處理器,具有10個低功耗MEMS傳感器,包括加速度計、陀螺儀、磁力計、磁傳感器、數字麥克風、光、濕度、壓力、物體溫度以及環境溫度傳感器.該設備體積僅為5.0 cm×6.7 cm×1.4 cm,使用CR2032電池供電,非常適合本文所研究的低功耗、小體積、低成本的嵌入式應用.本系統數據采集端外形如圖1所示.

圖1 CC2650 SensorTag外形圖

采集端主要由CC2650無線MCU、MPU-9250九軸運動傳感器及CR2032紐扣電池等組成.CC2650 SensorTag結構框圖如圖2所示.

圖2 CC2650 SensorTag結構框圖

CC2650無線MCU含有一個32位ARM Cortex-M3處理器,主頻達到48 MHz,并支持藍牙、ZigBee 和 6LoWPAN協議,本文使用藍牙協議與計算機通信.InvenSense公司生產的MPU-9250九軸運動傳感器是一個包含2枚芯片的系統級封裝(system in package,SiP):一枚MPU-6500三軸加速度計和三軸陀螺儀,以及一枚由AKM公司生產的AK8963三軸磁力計,本文僅使用了前者.加速度計具有±2g、±4g、±8g、±16g用戶可編程量程的三軸16位AD加速度輸出,本文將其量程配置為±2g.陀螺儀具有±250°/s、±500°/s、±1 000°/s、±2 000°/s用戶可編程量程的三軸16位AD角速度輸出,本文將其量程配置為±250°/s.

CC2650通過IIC總線配置MPU-9250并讀取6個ADC輸出值,即三軸加速度和三軸角速度,通過藍牙協議將讀取到的數據發送到CC2540 USB Dongle,CC2540 USB Dongle通過USB將數據上傳到計算機.計算機接收并處理三軸加速度和三軸角速度數據,得到分析結果,具體方法將在下一章中詳細闡述.

系統的總體結構如圖3所示.

圖3 系統結構圖

2 數據處理與動作識別

傳感器的信號分析方法可分為3類:基于時域的、基于頻域的和時頻分析法[16],本文使用的是基于時域的信號分析方法.

為方便說明,下文中Agx、Agy、Agz表示x、y、z軸方向的重力加速度,Alx、Aly、Alz表示x、y、z軸方向的線性加速度,Gx、Gy、Gz表示x、y、z軸方向的角速度.

2.1 加速度分解

理論上說,加速度計通過測量施加于傳感器上的力來測量設備的加速度,根據牛頓第二定律,有

Ad=-∑Fs/m

(1)

其中Ad為設備的加速度,Fs為施加于傳感器的力,m為傳感器的質量.

然而,重力總是會按照下式的關系影響加速度的測量結果:

Ad=-g-∑F/m

(2)

其中g為重力加速度,F為傳感器受到的除重力以外的力.

因此,為了測量人體運動所產生的加速度,必須將重力加速度從加速度計的數據中分離.即將傳感器測量值分解為重力加速度和線性加速度,其中,線性加速度表示設備運動產生的加速度.使用一階低通濾波器可實現上述目的.根據一階低通濾波算法公式

y(n)=α×x(n)+(1-α)×y(n-1)

(3)

(4)

Ali(n)=Adi(n)-Agi(n)

(5)

其中α為濾波系數,i∈{x,y,z}.

濾波系數可通過下式計算:

(6)

(7)

其中τc為時間常數,dt為采樣周期,fcutoff為截止頻率.

首先給出加速度分解算法:

算法1 加速度分解算法

輸入:當前加速度傳感器讀數Adx(n)、Ady(n)、Adz(n),上一次重力加速度數值Agx(n-1)、Agy(n-1)、Agz(n-1),濾波系數α.

輸出:當前重力加速度數值Agx(n)、Agy(n)、Agz(n),當前線性加速度數值Alx(n)、Aly(n)、Alz(n).

步驟1:如果n=1,轉步驟2,否則轉步驟3.

步驟2:Agi(n)=0,i∈{x,y,z},Ali(n)=Adi(n),i∈{x,y,z},算法結束.

步驟3:Agi(n)=α×Adi(n)+(1-α)×Agi(n-1),i∈{x,y,z};Ali(n)=Adi(n)-Agi(n),i∈{x,y,z},算法結束.

圖4為啞鈴運動中連續5個“胸前至兩側平舉”動作的三軸加速度數據,采樣周期為50 ms,濾波系數為0.8,圖4(a)為分解之前的加速度,圖4(b)為重力加速度,圖4(c)為線性加速度.

由圖4可知,該動作所產生的加速度主要來源于重力加速度.

(a) 加速度

(b) 重力加速度

(c) 線性加速度

圖4 加速度分解圖

Fig.4 Acceleration decomposition diagram

需要指出的是,由于人體運動過程中的微弱抖動和傳感器的噪聲,加速度和角速度數據都具有一定的抖動,這并不利于動作分析,因此在對數據進行處理之前,應首先進行消抖.本文通過FIR濾波器對采集到的數據進行消抖.

2.2 運動周期判別

對于具有周期性的運動,由于每個周期的運動特征基本一致,故對每一個單獨周期的運動數據進行分析.本文規定,Alx、Aly、Alz的平均值由負值變為正值的點為周期起始點,一個周期起始點至下一個周期起始點之間為一個運動周期.

本文使用語音識別中常用的過零率檢測方法檢測周期起始點,與之不同的是:第一,本文只記錄數據由負值變為正值的過零點,即對于任一點x(n)滿足

x(n-1)×x(n)<0,x(n)>0

(8)

的點;第二,本文只關心過零點的位置,而不關心過零點出現的概率;第三,線性加速度的平均值中,可能仍然存在在零點附近波動的低頻噪聲,這會干擾過零點的檢測,為解決這個問題,引入自適應噪聲閾值的計算方法:

F∈[0.1,0.2]

(9)

式中:Vthr(t)表示當前時段的噪聲閾值,Vthr(t-1)表示上一時段的噪聲閾值,Vpp(t)表示當前時段有效信號的峰-峰值,F為閾值與峰-峰值的系數因子,通常在0.1~0.2.

由此引出運動周期起始點判別算法:

算法2 運動周期起始點判別算法

輸入:Alx、Aly、Alz的平均值x[m…n],噪聲閾值Vthr(t).

輸出:運動周期起始點位置Ts.

步驟1:查找第一個x[i],滿足x[i]>Vthr(t) 且m

步驟2:令i←i+1;如果i>n,則算法失敗終止.

步驟3:如果|x[i]|

步驟4:如果x[i]滿足x[i]×xpre<0且x[i]>0,則轉步驟5,否則令xpre←x[i],轉步驟2.

步驟5:令Ts←i,算法成功結束.

2.3 標準化

對于同一動作,不同人的動作幅度和快慢均有差異,這會導致特征曲線的振幅和周期出現差異.為了將采集到的運動曲線與數據庫中的特征曲線進行相關性分析,需將數據進行標準化處理.標準化分為縱向標準化和橫向標準化.

2.3.1 縱向標準化 縱向標準化是指對加速度和角速度振幅的標準化.針對同一動作,線性加速度和角速度的振幅差異反映出動作的速度和幅度差異,重力加速度的振幅差異僅反映出傳感器所處的緯度差異.

典型的min-max標準化將每一組數據映射為在區間[0,1]中的值,然而這種標準化破壞了Alx、Aly、Alz、Gx、Gy、Gz之間的關聯性,這種關聯性在動作識別中是必要的.例如,啞鈴運動中的“彎舉”動作在x軸和z軸上具有較大的線性加速度,相對而言,在y軸上幾乎沒有線性加速度,而標準化之后,在x軸和z軸上的線性加速度被縮小到[0,1]區間,在y軸上的加速度被放大到[0,1]區間,3個軸上的線性加速度的大小關系就丟失了.

為解決這一問題,令min-max標準化中的m和M為同一周期內所有線性加速度和角速度數據中的最小值和最大值,即

mmotion=min(Alx(i)∪Aly(i)∪Alz(i)∪Gx(i)∪Gy(i)∪Gz(i));i∈[0,t′)

(10)

Mmotion=max(Alx(i)∪Aly(i)∪Alz(i)∪Gx(i)∪Gy(i)∪Gz(i));i∈[0,t′)

(11)

其中t′為周期長度.于是有

i∈[0,t′),x∈{Alx,Aly,Alz,Gx,Gy,Gz}

(12)

其中x為標準化之前的數據,x*為標準化之后的數據.

對于重力加速度數據,由于重力加速度只受傳感器所在緯度影響,沿x、y、z軸方向的重力加速度分量反映出傳感器當前的姿態,即與地球表面的傾角,所以應單獨進行標準化處理,即

mg=min(Agx(i)∪Agy(i)∪Agz(i));

i∈[0,t′)

(13)

Mg=max(Agx(i)∪Agy(i)∪Agz(i));

i∈[0,t′)

(14)

i∈[0,t′),x∈{Agx,Agy,Agz}

(15)

由此引出運動周期縱向標準化算法:

算法3 運動周期縱向標準化算法

輸入:待操作數據Agx[1…t′]、Agy[1…t′]、Agz[1…t′]、Alx[1…t′]、Aly[1…t′]、Alz[1…t′]、Gx[1…t′]、Gy[1…t′]、Gz[1…t′].

步驟1:根據式(10)、(11)、(13)、(14)分別計算出mmotion、Mmotion、mg、Mg.

2.3.2 橫向標準化 橫向標準化是指對周期長度的標準化,周期長度反映出運動速度的快慢.設標準周期長度為t0.當實際周期長度t″

{t″min(t0,t″×2-1)-t″+1×n

(16)

(17)

當t″>t0時,需對曲線進行一維縮小,刪除位于位置i的點,滿足

i∈{t″t″-t0×n,n∈[1,t″-t0]}

(18)

為方便說明,設x={Agx,Agy,Agz,Alx,Aly,Alz,Gx,Gy,Gz}.具體算法如下:

算法4 運動周期橫向標準化算法

輸入:待操作信號x[1…t″],標準周期t0.

輸出:結果信號x*[1…t0].

步驟1:判斷t″與t0的關系,如果t″>t0轉步驟2;如果t″

步驟2:刪除位于x[i]的點,其中

i∈{t″t″-t0×n,n∈[1,t″-t0]}

轉步驟5.

{t″min(t0,t″×2-1)-t″+1×n,

步驟4:判斷新的數組長度t?,如果t?≠t0,轉步驟1.

步驟5:x*←x,算法結束.

2.4 動作識別

2.4.1 建立特征數據庫 為存儲每種動作的特征曲線,需建立特征數據庫.特征數據庫包含9列,即LAcc_x、LAcc_y、LAcc_z、Grav_x、Grav_y、Grav_z、Gyro_x、Gyro_y、Gyro_z,分別存儲x、y、z軸方向上的線性加速度、重力加速度、角速度的特征曲線,共9條.

在動作識別開始之前,需將欲識別的每種動作的9條特征曲線錄入特征數據庫,錄入過程如算法5所示,為保證動作的標準性和一般性,通常需要對每種動作采集若干周期,采集周期數設為t*,并對t*個周期的特征曲線取平均值,最終得到1個周期的特征曲線,將其錄入特征數據庫.

算法5 特征數據庫錄入算法

輸入:指定采集周期數t*.

輸出:一條特征數據.

步驟1:從傳感器讀取Adx、Ady、Adz、Gx、Gy、Gz.

步驟2:加速度分解,得到Agx、Agy、Agz、Alx、Aly、Alz.

步驟3:運動周期判別,如果當前點是運動周期起始點,轉步驟5,否則轉步驟4.

步驟4:存儲當前數據,轉步驟1.

步驟5:對當前周期進行標準化.

步驟6:存儲當前周期9條特征曲線.

步驟7:如果當前總共采集周期數i=t*,轉步驟8,否則i=i+1,轉步驟1.

步驟8:t*個周期對應特征曲線取均值,得到該動作的9條特征曲線,錄入特征數據庫,算法結束.

2.4.2 動作識別 定義特征數據庫中每種動作的9條特征曲線所組成的有序集合,即數據庫的每一行,用M表示;待識別動作對應的9條特征曲線所組成的有序集合用N表示;傳感器當前采集到的動作數據用X表示,X中包含x、y、z軸方向上的加速度與角速度數據;X中的數據經加速度分解后得到的有序集合用X′表示,X′中包含x、y、z軸方向上的線性加速度、重力加速度與角速度數據.

算法6 動作識別算法

輸入:傳感器采集到的動作數據序列X[1…∞].

輸出:識別結果在特征數據庫中的位置j.

步驟1:讀取當前點動作數據X.

步驟2:按照2.1節的方法對X進行加速度分解,得到X′.

步驟3:執行算法2運動周期起始點判別算法,算法2的輸入為上一周期起始點p到當前點r的動作數據序列X′[p…r],每組數據X′[i],i∈[p,r]中的x、y、z軸線性加速度的平均值組成的數列Al[p…r],如果算法2成功,轉步驟4,否則,存儲當前點數據,得到X′[p…r+1],轉步驟1.

步驟4:按照2.3.1節的方法對當前周期起始點q到上一周期起始點p之間的動作數據序列X′[p…q]進行縱向標準化.

步驟5:按照2.3.2節的方法對動作數據序列X′[p…q]進行橫向標準化,得到N.

步驟6:計算相關系數rij,即

rij=ρ(Ni,Mij);i∈[1,9],j∈[1,R]

其中R為特征數據庫的行數,即該系統可以識別的動作總數.

3 啞鈴動作識別實驗

3.1 實驗描述

本文使用啞鈴運動作為數據分析例.對啞鈴

運動中的6種常見動作進行了采集,分別為側平舉、彎舉、胸前至兩側平舉、肩部推舉、手屈上提、三頭肌高位拉伸,如圖5所示,為方便敘述,下文中用M1~M6表示這6種動作.采集周期為50 ms,標準周期長度為3 500 ms.

圖5 標準動作示意圖

3.2 實驗結果

按照3.1節所述的實驗方法,對圖5中每種標準動作采集10個周期,建立的特征數據庫如圖6所示.

圖6 6種常見啞鈴動作特征數據庫

圖6中,第1行至第6行分別為M1~M6共6種動作;第1列至第9列分別為x、y、z軸方向上的線性加速度、重力加速度、角速度,共9條特征曲線.

選取10名健身愛好者進行測試,每人每種動作做10次,得到的識別結果的混淆矩陣如表1所示.表中,None為未識別的動作.

表1 動作識別測試結果混淆矩陣

經過測試,算法對M1~M6的識別率分別為90%、90%、100%、95%、95%、95%,平均識別率達到94.17%.

4 結 語

本文設計并實現了一種基于MEMS六軸傳感器的上肢運動識別系統.該系統通過1個MEMS六軸傳感器對用戶上肢運動的三維加速度和三維角速度進行實時采集并使用藍牙發送到計算機中.通過計算機將采集到的數據進行加速度分解、濾波、周期判別、標準化等處理后,與特征數據庫中的數據進行相關性分析,從而實現對特定動作的識別,并可對重復動作進行計數.以對啞鈴動作采集數據為例,驗證了該系統的有效性,且平均識別率達到94.17%.

[1] 馮志全,楊 波,徐 濤,等. 基于自然手勢跟蹤的直接操作型三維人機交互范式[J]. 計算機學報, 2014, 37(6):1309-1323.

FENG Zhiquan, YANG Bo, XU Tao,etal. 3D direct human-computer interface paradigm based on free hand tracking [J]. Chinese Journal of Computers, 2014, 37(6):1309-1323. (in Chinese)

[2] 秦 磊,胡 瓊,黃慶明,等. 基于特征點軌跡的動作識別[J]. 計算機學報, 2014, 37(6):1281-1288.

QIN Lei, HU Qiong, HUANG Qingming,etal. Action recognition using trajectories of spatio-temporal feature points [J]. Chinese Journal of Computers, 2014, 37(6):1281-1288. (in Chinese)

[3] 胡 瓊,秦 磊,黃慶明. 基于視覺的人體動作識別綜述[J]. 計算機學報, 2013, 36(12):2512-2524.

HU Qiong, QIN Lei, HUANG Qingming. A survey on visual human action recognition [J]. Chinese Journal of Computers, 2013, 36(12):2512-2524. (in Chinese)

[4] 劉紫燕,馮 亮,祁 佳. 一種基于FPGA的實時視頻跟蹤系統硬件平臺設計[J]. 傳感器與微系統, 2014, 33(7):98-102.

LIU Ziyan, FENG Liang, QI Jia. Design of a FPGA-based hardware platform of realtime video tracking system [J]. Transducer and Microsystem Technologies, 2014, 33(7):98-102. (in Chinese)

[5] AHUJA M K, SINGH A. Static vision based hand gesture recognition using principal component analysis [C] // Proceedings of the 2015 IEEE 3rd International Conference on MOOCs, Innovation and Technology in Education, MITE 2015. Piscataway:IEEE, 2015:402-406.

[6] FABIAN J, YOUNG T, JONES J C,etal. Integrating the microsoft Kinect with simulink:Real-time object tracking example [J]. IEEE/ASME Transactions on Mechatronics, 2014, 19(1):249-257.

[7] 朱國剛,曹 林. 基于Kinect傳感器骨骼信息的人體動作識別[J]. 計算機仿真, 2014, 31(12):329-333, 345.

ZHU Guogang, CAO Lin. Human motion recognition based on skeletal information of Kinect sensor [J]. Computer Simulation, 2014, 31(12):329-333,345. (in Chinese)

[8] 林水強,吳亞東,余 芳,等. 姿勢序列有限狀態機動作識別方法[J]. 計算機輔助設計與圖形學學報, 2014, 26(9):1403-1411.

LIN Shuiqiang, WU Yadong, YU Fang,etal. Posture sequence finite-state machine method for motion recognition [J]. Journal of Computer-Aided Design & Computer Graphics, 2014, 26(9):1403-1411. (in Chinese)

[9] 李紅光. 現代軍用MEMS慣性傳感器技術進展[J]. 傳感器與微系統, 2014, 33(8):4-7.

LI Hongguang. Progress on technologies of MEMS inertial sensors for modern military [J]. Transducer and Microsystem Technologies, 2014, 33(8):4-7. (in Chinese)

[10] 呂 蕾,張金玲,朱英杰,等. 一種基于數據手套的靜態手勢識別方法[J]. 計算機輔助設計與圖形學學報, 2015, 27(12):2410-2418.

LV Lei, ZHANG Jinling, ZHU Yingjie,etal. A static gesture recognition method based on data glove [J]. Journal of Computer-Aided Design & Computer Graphics, 2015, 27(12):2410-2418. (in Chinese)

[11] 王昌喜,楊先軍,徐 強,等. 基于三維加速度傳感器的上肢動作識別系統[J]. 傳感技術學報, 2010, 23(6):816-819.

WANG Changxi, YANG Xianjun, XU Qiang,etal. Motion recognition system for upper limbs based on 3D acceleration sensors [J]. Chinese Journal of Sensors and Actuators, 2010, 23(6):816-819. (in Chinese)

[12] 陳鵬展,羅 漫,李 杰. 基于加速度傳感器的連續動態手勢識別[J]. 傳感器與微系統, 2016, 35(1):39-42.

CHEN Pengzhan, LUO Man, LI Jie. Continuous dynamic gesture recognition based on acceleration sensor [J]. Transducer and Microsystem Technologies, 2016, 35(1):39-42. (in Chinese)

[13] AKL A, FENG Chen, VALAEE S. A novel accelerometer-based gesture recognition system [J]. IEEE Transactions on Signal Processing, 2011, 59(12):6197-6205.

[14] 薛 洋,金連文. 一種基于加速度傳感器的虛擬手寫數字特征提取及識別方法[J]. 模式識別與人工智能, 2011, 24(4):492-500.

XUE Yang, JIN Lianwen. A feature extraction and recognition approach for accelerometer based virtual handwriting digit [J]. Pattern Recognition and Artificial Intelligence, 2011, 24(4):492-500. (in Chinese)

[15] 李秀豐,郭立泉,王計平,等. 基于六軸傳感器的步態分析系統設計[J]. 傳感器與微系統, 2014, 33(7):89-91.

LI Xiufeng, GUO Liquan, WANG Jiping,etal. Design of gait analysis system based on six-axis sensor [J]. Transducer and Microsystem Technologies, 2014, 33(7):89-91. (in Chinese)

[16] STUHLSATZ A, LIPPEL J, ZIELKE T. Feature extraction with deep neural networks by a generalized discriminant analysis [J]. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(4):596-608.

Arm motion detection system based on six-axis MEMS sensor

HU Chengquan, WANG Kai, HE Lili*, WEI Fenglin, JIANG Yu

( College of Computer Science and Technology, Jilin University, Changchun 130012, China )

An arm motion detection system based on six-axis MEMS sensor is designed and implemented. The system samples real-time three-dimensional accelerations and angular velocities of user′s arm motions by a single six-axis MEMS sensor and sends the data to the computer via Bluetooth. Then, the correlation between the sampled data and the vectors in the feature database is analyzed after acceleration decomposition, filtering, motion cycle determination and normalization by the computer. Thereby, the specific motions can be detected, and the repetitive motions can be counted. Taking the common dumbbell motions as examples, the effectiveness of the system is verified.

motion detection; six-axis sensor; correlation coefficient; acceleration decomposition; normalization

1000-8608(2017)01-0092-08

2016-05-12;

2016-11-07.

國家自然科學基金資助項目(51409117,61572228);中央高校基本科研業務費專項資金資助項目(JCKY-QKJC47,JCKY-QKJC49);吉林省教育廳“十三五”科學技術研究項目(吉教科合字[2016]第432號).

胡成全(1958-),男,碩士,教授,E-mail:hucq@jlu.edu.cn;何麗莉*(1976-),女,博士,講師,E-mail:helili@jlu.edu.cn.

TP391

A

10.7511/dllgxb201701013

猜你喜歡
標準化動作特征
標準化簡述
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
動作描寫要具體
抓住特征巧觀察
標準化是綜合交通運輸的保障——解讀《交通運輸標準化體系》
中國公路(2017年9期)2017-07-25 13:26:38
畫動作
動作描寫不可少
非同一般的吃飯動作
論汽車維修診斷標準化(上)
主站蜘蛛池模板: 亚洲中文字幕国产av| 国产簧片免费在线播放| 国产午夜人做人免费视频中文 | 亚洲男人的天堂久久精品| 久久福利网| 一区二区无码在线视频| 香蕉综合在线视频91| 中文字幕无码av专区久久| 国产丝袜一区二区三区视频免下载| 人妻精品久久无码区| 国产原创演绎剧情有字幕的| 国产成人无码播放| 亚洲国产系列| 成人午夜天| 九色综合视频网| 久久国产精品影院| 国产午夜精品鲁丝片| 久久动漫精品| 亚州AV秘 一区二区三区| 免费毛片a| 99视频在线看| 欧美日韩一区二区三区四区在线观看| 国产九九精品视频| 在线va视频| 丰满人妻久久中文字幕| 亚洲床戏一区| 91极品美女高潮叫床在线观看| 亚洲精品老司机| 91精品国产丝袜| 亚洲AⅤ永久无码精品毛片| 免费人欧美成又黄又爽的视频| 综合色在线| 99热在线只有精品| 亚洲欧洲免费视频| 亚洲一区波多野结衣二区三区| 极品尤物av美乳在线观看| 色欲国产一区二区日韩欧美| 色婷婷狠狠干| 玖玖免费视频在线观看| 日日碰狠狠添天天爽| 亚洲无码91视频| 日韩一区二区三免费高清| 亚洲国产av无码综合原创国产| 丁香五月亚洲综合在线| 色亚洲激情综合精品无码视频| 亚洲AV永久无码精品古装片| 国产成人乱无码视频| 国产精品亚洲综合久久小说| 亚洲视频免费在线| 亚洲三级色| 亚洲无码高清免费视频亚洲| 国产人妖视频一区在线观看| 亚洲国模精品一区| 国产高清精品在线91| 东京热高清无码精品| 国产成人做受免费视频| 麻豆精品在线播放| 国产哺乳奶水91在线播放| 亚洲精品成人福利在线电影| 超薄丝袜足j国产在线视频| 国产毛片基地| 色综合久久久久8天国| 91成人试看福利体验区| 中国丰满人妻无码束缚啪啪| 国产黄网永久免费| 亚洲成人网在线观看| 中文字幕欧美日韩高清| av一区二区三区在线观看 | 亚洲人成网站在线观看播放不卡| www.亚洲一区二区三区| 蝴蝶伊人久久中文娱乐网| 国产丝袜无码精品| 日韩午夜伦| 波多野结衣中文字幕一区二区| 九色综合伊人久久富二代| 午夜成人在线视频| 国内精品自在欧美一区| 国产白浆在线| 日本少妇又色又爽又高潮| 国产精品美女自慰喷水| 色婷婷成人| 免费A级毛片无码免费视频|