999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合手機(jī)傳感器和卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別

2018-03-22 11:44:14石代偉張若英
電子技術(shù)與軟件工程 2018年3期
關(guān)鍵詞:特征提取

石代偉 張若英

摘 要 單一傳感器在人體行為識(shí)別中誤差較大,針對此問題提出一種利用智能手機(jī)中慣性傳感器并結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的人體行為識(shí)別方法。文中利用構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)模型自動(dòng)提取加速度和角速度數(shù)據(jù)特征,并結(jié)合Softmax分類器識(shí)別人體行為。實(shí)驗(yàn)結(jié)果表明,相比于現(xiàn)有的研究,該模型在人體6種行為上取得了較高的識(shí)別準(zhǔn)確率,平均識(shí)別率可達(dá)97.22%,說明了卷積神經(jīng)網(wǎng)絡(luò)在提取特征上的優(yōu)勢以及本模型的可行性。

【關(guān)鍵詞】手機(jī)傳感器數(shù)據(jù) 行為識(shí)別 卷積神經(jīng)網(wǎng)絡(luò) 特征提取

1 引言

隨著人們生活水平不斷提高、生活節(jié)奏的加快,許多健康問題日益突出。同時(shí),我國已逐步進(jìn)入老齡化人口發(fā)展階段,人口老齡化問題越來越嚴(yán)重,相應(yīng)地就需要投入更大的人力和物力來看護(hù)老人。基于此,人體日常行為識(shí)別越來越受到關(guān)注。

在人體行為識(shí)別的研究中常利用單一的加速度傳感器采集行為信息,然而人體行為多種多樣,這就造成人體行為信息種類過于單一,無法得到準(zhǔn)確測量信息的問題。當(dāng)前,隨著智能手機(jī)等移動(dòng)設(shè)備感知、計(jì)算能力的飛速提升,以移動(dòng)設(shè)備作為載體的人體行為識(shí)別又成為新的研究熱點(diǎn)。同時(shí),傳統(tǒng)的支持向量機(jī)、隨機(jī)森林等行為識(shí)別方法都必須先提取傳感器數(shù)據(jù)的時(shí)頻域特征,并從大量的時(shí)頻特征中進(jìn)行特征選擇,且難以取得高識(shí)別率。鑒于此,本文采用智能手機(jī)內(nèi)置的加速度計(jì)和陀螺儀讀取人體行為的加速度和角速度數(shù)據(jù),并利用CNN進(jìn)行特征學(xué)習(xí),自動(dòng)提取信號特征,結(jié)合Softmax實(shí)現(xiàn)人體行為識(shí)別。

2 多傳感器數(shù)據(jù)行為識(shí)別模型

2.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)網(wǎng)絡(luò),通過引入卷積層和池化層,形成深層網(wǎng)絡(luò),簡化了復(fù)雜的預(yù)處理過程,利用網(wǎng)絡(luò)的局部連接和空間共享特性,使其成為一種高效的識(shí)別方法。鑒于CNN的高效性,當(dāng)前已有研究將其與傳感器數(shù)據(jù)相結(jié)合并應(yīng)用于人體行為識(shí)別及相關(guān)研究中。圖1是一種卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖,包括卷積層、池化層和全連接層(輸出層),卷積和池化層用來提取特征,全連接層用來分類。

2.2 CNN行為識(shí)別模型

本文將CNN應(yīng)用于手機(jī)傳感器信號進(jìn)行人體行為識(shí)別,手機(jī)采集的數(shù)據(jù)包括3維加速度和3維角速度,CNN采用圖1中結(jié)構(gòu)。傳感器信號通常為單一維度或多維信號,故本文中卷積和池化過程采用一維卷積和一維池化,圖2所示為本文CNN中傳感器數(shù)據(jù)處理過程中的數(shù)據(jù)大小變化。

本文從智能手機(jī)中采集數(shù)據(jù),并進(jìn)行預(yù)處理操作,以保證數(shù)據(jù)樣本的一致性。文中利用高通濾波器從采集的加速度中得到身體加速度信號。在濾波操作后將各信號按時(shí)間對齊并分割數(shù)據(jù)。考慮到人體行為的實(shí)際情況,每個(gè)行為樣本設(shè)為2s左右較為合適。本文中時(shí)間窗 大小設(shè)為100,每個(gè)時(shí)間窗間重疊度為窗口大小的一半,故在CNN輸入層樣本大小為1*100*9。

如圖2所示,輸入樣本大小為1*100*9,然后經(jīng)過兩次卷積和池化提取行為特征,經(jīng)過全連接層和Softmax層識(shí)別人體行為。兩次卷積和池化操作后輸出大小為1*7*1620,且每次卷積后都利用Relu函數(shù)修正特征圖,在池化后將得到的數(shù)據(jù)特征作為全連接層的輸入進(jìn)行分類。全連接層神經(jīng)元個(gè)數(shù)設(shè)為500,得到數(shù)據(jù)大小為500*1,作為Softmax的輸入進(jìn)行分類。在本文中,損失函數(shù)Loss采用交叉熵?fù)p失進(jìn)行定義,并利用Adam算法更新權(quán)重。

3 實(shí)驗(yàn)驗(yàn)證與結(jié)果分析

本文中利用智能手機(jī)采集大量樣本進(jìn)行行為識(shí)別,編程語言采用Python,并利用TensorFlow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),在構(gòu)建完CNN模型后,在該環(huán)境下進(jìn)行數(shù)據(jù)運(yùn)算。本文中采集6種人體行為的傳感器數(shù)據(jù),包括站立、步行、上樓、下樓、坐與躺等行為。其中,訓(xùn)練樣本數(shù)為6942,測試樣本數(shù)為3058。實(shí)驗(yàn)驗(yàn)證部分包括CNN訓(xùn)練誤差、行為識(shí)別率以及與其他算法的性能對比。在具體訓(xùn)練過程中,每次迭代訓(xùn)練批量數(shù)據(jù),當(dāng)模型訓(xùn)練完畢,網(wǎng)絡(luò)參數(shù)更新結(jié)束,得到行為識(shí)別模型,測試數(shù)據(jù)的識(shí)別率達(dá)到97.22%。圖3所示為訓(xùn)練過程中得到的訓(xùn)練誤差曲線和識(shí)別率曲線。

圖3橫坐標(biāo)為epoch,表示所有訓(xùn)練數(shù)據(jù)總訓(xùn)練次數(shù),縱坐標(biāo)分別表示訓(xùn)練過程中的損失函數(shù)和行為識(shí)別率變化。在訓(xùn)練過程中,圖中的誤差曲線總體上在開始時(shí)呈下降趨勢,后趨于平緩,識(shí)別準(zhǔn)確率總體上在開始時(shí)呈上升趨勢,后趨于平緩。

本文將卷積神經(jīng)網(wǎng)絡(luò)和手機(jī)傳感器數(shù)據(jù)相結(jié)合進(jìn)行人體行為識(shí)別,利用測試數(shù)據(jù)得到的6種行為的識(shí)別結(jié)果如表1所示。從表中可以得到每一類別正確識(shí)別和錯(cuò)誤識(shí)別為其他行為的結(jié)果。

從表1中可見,在測試樣本中,站立行為有21個(gè)樣本被錯(cuò)誤分類為坐下行為,坐下行為有37個(gè)樣本被錯(cuò)誤分類為站立行為,對這兩種行為的識(shí)別效果低于其他四種行為。

本文為更好地驗(yàn)證CNN行為識(shí)別模型,在卷積層和池化層提取特征后,將全連接層的輸出作用于其他分類器并對比識(shí)別性能。本文在對比算法的選擇上,選擇SVM、隨機(jī)森林和邏輯回歸進(jìn)行對比。圖4所示為利用CNN模型提取的特征分別作用于四種分類器得到的人體行為識(shí)別結(jié)果。

從圖4中可見坐下和站立行為的識(shí)別效果低于其他四種行為的識(shí)別效果,且每種行為的識(shí)別率較為接近,總體識(shí)別率較高,平均識(shí)別率達(dá)到97%左右。

綜上,本文中的方法無需通過人工方式提取原始數(shù)據(jù)的特征,避免由于人工提取特征對行為識(shí)別產(chǎn)生的影響,而且利用CNN進(jìn)行人體行為識(shí)別時(shí)識(shí)別率較高,說明CNN應(yīng)用于慣性傳感器信號的可行性,本文中的CNN模型較傳統(tǒng)行為識(shí)別模型具有優(yōu)越性。

4 結(jié)束語

本文提出一種采用智能手機(jī)中慣性傳感器并結(jié)合卷積神經(jīng)網(wǎng)絡(luò)識(shí)別人體行為的方法。文中通過智能手機(jī)中的加速度計(jì)和陀螺儀采集三軸加速度和角速度信息,利用CNN自動(dòng)提取特征,結(jié)合Softmax分類器進(jìn)行分類識(shí)別,在人體6種行為模式上取得了較高的識(shí)別率,識(shí)別準(zhǔn)確率能達(dá)到97.22%。實(shí)驗(yàn)結(jié)果表明,在本文模型下,行為識(shí)別準(zhǔn)確率有一定的提高,說明了CNN在行為識(shí)別研究中的可行性。

參考文獻(xiàn)

[1]張潔.基于加速度傳感器的人體運(yùn)動(dòng)行為識(shí)別研究[J].自動(dòng)化與儀器儀表,2016(03):228-229.

[2]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(06):1229-1251.

[3]Wang L.Recognition of Human Activities Using Continuous Autoencoders with Wearable Sensors[J].Sensors,2016,16(02):189.

作者簡介

石代偉(1991-), 男, 碩士研究生。研究領(lǐng)域?yàn)樾袨樽R(shí)別。

張若英(1976-), 女, 博士。研究領(lǐng)域?yàn)樾袨樽R(shí)別。

作者單位

重慶郵電大學(xué)通信與信息工程學(xué)院 重慶市 400065

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 中文字幕第1页在线播| 极品国产在线| 亚洲婷婷在线视频| 精品国产99久久| 久久99国产综合精品1| 久久久久无码国产精品不卡| 精品视频一区二区观看| 在线五月婷婷| 亚洲欧洲免费视频| 欧美日韩国产系列在线观看| 欧美中文字幕在线二区| 国产一级在线播放| 婷婷色在线视频| 88av在线看| 日本高清在线看免费观看| 色婷婷在线影院| 精品亚洲国产成人AV| 亚洲精品你懂的| 国产免费福利网站| 日韩av在线直播| 欧美激情视频一区二区三区免费| 熟妇人妻无乱码中文字幕真矢织江 | 国产成熟女人性满足视频| 一级香蕉人体视频| 亚洲一区二区无码视频| 日韩高清无码免费| 欧美 亚洲 日韩 国产| 亚洲水蜜桃久久综合网站| 亚洲黄色片免费看| 国产精品视频导航| 亚洲精品无码在线播放网站| 欧美一级在线看| 伊人福利视频| 精品国产aⅴ一区二区三区| 亚洲男人天堂久久| 亚洲天堂视频网| 狠狠色婷婷丁香综合久久韩国| 91无码人妻精品一区| 亚洲天堂日本| 久久精品这里只有精99品| 日本在线国产| 在线毛片免费| www精品久久| 久久五月视频| 91久久青青草原精品国产| 成人午夜视频免费看欧美| 色婷婷狠狠干| 亚洲小视频网站| 亚洲人成网站日本片| 国产国产人成免费视频77777| 18黑白丝水手服自慰喷水网站| 日本人妻丰满熟妇区| 国产原创演绎剧情有字幕的| 精品视频免费在线| 日韩欧美视频第一区在线观看| 欧美a级在线| 国产人碰人摸人爱免费视频| 中文字幕无码av专区久久| 91精品亚洲| 日本手机在线视频| 欧美在线视频不卡第一页| 欧美成人A视频| 无码AV高清毛片中国一级毛片| 全免费a级毛片免费看不卡| 亚洲中文制服丝袜欧美精品| 国产一级二级在线观看| 中文字幕av无码不卡免费| 午夜视频免费试看| 午夜日韩久久影院| 天天婬欲婬香婬色婬视频播放| 国产白浆一区二区三区视频在线| 无码中文字幕乱码免费2| 精品国产一区91在线| 亚洲欧美极品| 在线无码九区| 91视频99| 在线观看无码a∨| 91午夜福利在线观看精品| a毛片基地免费大全| 在线观看免费国产| 国产成人综合日韩精品无码首页 | 欧美亚洲国产一区|