999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

信息熵和改進特征權(quán)重融合的Adaboost-SSA-BP步態(tài)識別方法

2023-04-29 00:00:00高磊
計算機時代 2023年12期

摘" 要: 針對采用加速度信號進行步態(tài)識別錯誤率偏高的問題,提出一種基于信息熵和改進特征權(quán)重融合的Adaboost-SSA-BP步態(tài)識別方法。基于信息熵理論和改進特征權(quán)重算法,提取不同步態(tài)下加速度計輸出的信號特征,并對其進行特征組合。利用SSA優(yōu)化BP神經(jīng)網(wǎng)絡(luò),通過Adaboost算法調(diào)整網(wǎng)絡(luò)的樣本權(quán)重,并進行訓(xùn)練獲得步態(tài)識別模型。實驗結(jié)果表明:該方法能夠有效捕獲步態(tài)特征,步態(tài)識別的平均準確率可達96.15%,可為后期開展步態(tài)康復(fù)訓(xùn)練等相關(guān)研究提供技術(shù)支撐。

關(guān)鍵詞: 步態(tài)識別; 特征組合; BP神經(jīng)網(wǎng)絡(luò); Adaboost; SSA

中圖分類號:TP212.9" " " " " 文獻標(biāo)識碼:A" " "文章編號:1006-8228(2023)12-96-05

Adaboost-SSA-BP gait recognition method based on the fusion of

information entropy and improved feature weight

Gao Lei

(School of Information Science and Engineering, Zhejiang Sci-Tech University, Hangzhou, Zhejiang 310018, China)

Abstract: Aiming at the problem of high error rate of gait recognition using acceleration signals, an Adaboost-SSA-BP gait recognition method based on the fusion of information entropy and improved feature weight is proposed. The features for the outputs from the accelerometer under different gait are extracted based on the information entropy theory and the improved feature weight method algorithm, and then the features are combined for the gait recognition. The BP neural network is optimized by SSA, the weight of the optimized network is adjusted by Adaboost algorithm, and the gait recognition model is obtained by iterative training. Experiment results show that the method can effectively capture gait features, and the average accuracy of gait recognition reaches 96.15%. It can provide the technical support for the related researches such as the gait rehabilitation training.

Key words: gait recognition; feature combination; BP neural network; Adaboost; SSA

0 引言

隨著生物特征識別技術(shù)的發(fā)展,步態(tài)識別技術(shù)受到學(xué)術(shù)界的廣泛關(guān)注[1]。目前,國內(nèi)外研究者在步態(tài)識別領(lǐng)域取得了眾多階段性的研究成果[2-4]。

YOUNGSU等人基于柔性壓電傳感器設(shè)計了步態(tài)識別系統(tǒng)樣機,利用穿戴于膝蓋和臀部的柔性傳感器開展了站立和行走狀態(tài)的識別,識別成功率大于93%[5]。MARIA等人使用監(jiān)督學(xué)習(xí)分類器對采集到的足底壓力和慣性傳感器數(shù)據(jù)進行步態(tài)識別[6],實驗結(jié)果表明,三種步態(tài)的識別準確率大于96%。WANG提出一種基于卷積塊注意力網(wǎng)絡(luò)的視覺步態(tài)識別方法[7],在部分視角條件下該方法步態(tài)識別的準確率可達95%。

基于穿戴式的多傳感器融合步態(tài)識別技術(shù)能夠提高步態(tài)識別的準確率,但是多傳感器的部署增加了系統(tǒng)成本,且不利于穿戴。基于機器視覺的步態(tài)識別技術(shù)存在視場角受限、易受遮擋等問題[8-9]。針對上述問題,本文采用信息熵和改進特征權(quán)重算法作加速度計輸出信號的特征分析,提出基于加速度信號特征組合的步態(tài)識別方法,并做了步態(tài)識別實驗測試研究。

1 步態(tài)識別方法

步態(tài)特征提取、步態(tài)識別模型是步態(tài)識別的關(guān)鍵。

1.1 基于信息熵和改進特征權(quán)重的步態(tài)特征提取

信息熵是反映同一類事件集合里各單一特征的不確定性[10],計算單一特征的信息熵旨在評估該特征在同類數(shù)據(jù)下的穩(wěn)定性。信息熵計算公式如下:

[Hx=-Pxlog2Px, x?X]" ⑴

其中,P (x)表示事件x發(fā)生的概率,X表示進行信息熵計算的事件集合。當(dāng)X內(nèi)的事件趨于同一類型事件時,信息熵H (x)越小,其穩(wěn)定性越好。

改進特征權(quán)重算法根據(jù)各個特征和類別的相關(guān)性賦予特征不同的權(quán)重,搜索當(dāng)前樣本的同類最近鄰樣本和異類最近鄰樣本,比較兩種最近鄰樣本的距離,并用于更新每個特征的權(quán)重,權(quán)重小于設(shè)定閾值的特征將被移除。對于各個特征和所屬步態(tài)類別之間的相關(guān)性,特征權(quán)重值越大對應(yīng)的相關(guān)性越好。

目前,基于加速度計傳感器的測量輸出,在步態(tài)識別技術(shù)中常用的單一特征主要包括:絕對值均值(MAV)、均方根(RMS)、方差(VAR)、頻率標(biāo)準差(RVF)、頻率均方根(RMSF)、重心頻率(FC)、二階AR系數(shù)特征AR(2)-1、AR(2)-2、五階AR系數(shù)特征AR(5)-1、AR(5)-2、AR(5)-3、AR(5)-4、AR(5)-5以及谷值平均值(VM)。(依次對上述常用特征進行編號為:1、2、…14)

本文將加速度計傳感器佩戴于腳尖處,如圖1所示,隨機采集不同步態(tài)下加速度計的測量輸出,包括正常行走、跑步、上樓、下樓和站立五種步態(tài)。

計算不同步態(tài)條件下加速度計測量輸出的14種特征的信息熵,以及利用改進特征權(quán)重算法對14種特征進行評估,結(jié)果分別如圖2和圖3所示。

圖2可以看出,五種步態(tài)條件下,信息熵值最低的五個特征分別為:谷值平均值、頻率均方根、重心頻率、方差、均方根。圖3可以看出,特征權(quán)重值最高的五個特征量分別為:谷值平均值、重心頻率、頻率標(biāo)準差、頻率均方根、二階AR系數(shù)特征AR(2)-2。

綜上,不同步態(tài)下,加速度計測量輸出的谷值平均值、頻率均方根、重心頻率等特征顯著,以上述三種特征為核心,提出以下四種特征組合,如表1所示。針對上述四種特征組合做步態(tài)識別的研究。

1.2 Adaboost-SSA-BP步態(tài)識別算法

BP神經(jīng)網(wǎng)絡(luò)具有較強的非線性映射能力,采用梯度下降法對BP神經(jīng)網(wǎng)絡(luò)的初始連接權(quán)值和閾值進行更新,容易導(dǎo)致算法收斂速度慢、陷入局部最優(yōu)解等引起預(yù)測模型失真等問題。麻雀搜索算法(SparrowSearch Algorithm,SSA)具備結(jié)構(gòu)簡單、收斂速度快等優(yōu)點,利用麻雀搜索算法做BP神經(jīng)網(wǎng)絡(luò)初始連接權(quán)值和閾值的尋優(yōu),可加快BP神經(jīng)網(wǎng)絡(luò)的收斂速度。自適應(yīng)增強算法(Adaptive BoostingAlgorithm,Adaboost)根據(jù)前一個基模型對樣本預(yù)測的誤差率調(diào)整樣本權(quán)重,利用迭代訓(xùn)練和組合策略最終獲得預(yù)測模型,提高模型的預(yù)測效率。本文采用BP神經(jīng)網(wǎng)絡(luò)作為基模型,利用自適應(yīng)增強算法對不同步態(tài)的特征數(shù)據(jù)集進行訓(xùn)練,獲得多個弱BP神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)各個弱分類器的錯誤率分配不同樣本權(quán)重,并進一步迭代至終止條件,獲得最終的強分類器,從而改善BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型失真的問題,提高步態(tài)識別率。根據(jù)上述思想,設(shè)計了圖4所示的步態(tài)識別算法。

設(shè)輸入的訓(xùn)練集樣本為Train={(xi,yi),..,(xn,yn)},輸出的強分類器為G(x)。xi表示第i個樣本的特征量,yi表示第i個樣本的類別標(biāo)簽,n為訓(xùn)練集樣本數(shù)。

圖4所示的算法主要分為:基于SSA優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)初始連接權(quán)值和閾值確定;基于Adaboost集成的SSA-BP神經(jīng)網(wǎng)絡(luò)強分類模型構(gòu)建。

⑴ 初始連接權(quán)值和閾值確定

① 初始化由n只麻雀組成的種群參數(shù)X以及迭代次數(shù)N;

② 計算適應(yīng)度值f,并對適應(yīng)度值進行排序:

[f=errors/traindata]" ⑵

其中,errors為訓(xùn)練集中識別錯誤的樣本個數(shù),traindata為訓(xùn)練集樣本總數(shù)。

③ 更新捕食者的位置:

[xt+1i,j=xti,j?e-iα?N,(Rlt;ST)xti,j+Q?L,(Rgt;ST)]" ⑶

其中,xti,j為t時刻第i只麻雀在j維的位置;α為(0,1)的隨機數(shù);R、ST分別為預(yù)警值和安全值;Q服從正態(tài)分布;L為所有元素均為1的1×d維矩陣。

④ 更新加入者位置:

[xt+1i,j=Q?extworst-xti,jt2,(igt;n/2)xt+1P+xti,j-xt+1P?A+?L,(i≤n/2)]" ⑷

其中,xPt+1為捕食者在t+1時刻所占據(jù)的全局最優(yōu)位置,xtworst為t時刻全局最差位置;A是維數(shù)為1×d的矩陣,內(nèi)部元素隨機賦值1或-1,且A+=AT(AAT)-1。

⑤ 更新警戒者位置:

[xt+1i,j=xti,j+β?xti,j-xtbest,(fi≠fbest)xti,j+K?xti,j-xtworstfi-fbest+ε,(fi=fbest)]" ⑸

其中,xtbest為t時刻全局最優(yōu)位置;β為服從(0,1)正態(tài)分布的隨機數(shù);fi、fbest和fworst分別為當(dāng)前麻雀的個體、全局最優(yōu)和最差的適應(yīng)度;K為[-1,1]的隨機數(shù);ε為無限小的常數(shù),避免分式分母為0。

⑥ 更新最優(yōu)適應(yīng)度值,并判斷是否達到終止條件。若未達到終止條件,返回步驟③,否則輸出最佳適應(yīng)度值及其對應(yīng)的最優(yōu)位置,從而輸出BP神經(jīng)網(wǎng)絡(luò)的最優(yōu)初始連接權(quán)值和閾值。

⑵ Adaboost集成的SSA-BP神經(jīng)網(wǎng)絡(luò)強分類模型

① 初始化訓(xùn)練集樣本的權(quán)值:

[D1=w11, w12, w13,…,w1n,w1i=1n, i=1,2,3,…,n] ⑹

D1為第一次迭代時每個樣本的初始權(quán)重,w1(i)為第一次迭代時第i個樣本的權(quán)值,所有樣本的初始權(quán)重均設(shè)為1/n。

② 根據(jù)SSA算法獲得的BP神經(jīng)網(wǎng)絡(luò)初始連接權(quán)值和閾值,訓(xùn)練BP神經(jīng)網(wǎng)絡(luò),并將其作為第t個弱分類器ht(x),計算ht(x)的誤差率εt:

[εt=(i=1nI(yt(xt)≠yi)/n]" ⑺

其中,yt(xi)為ht(x)預(yù)測樣本類別的結(jié)果。當(dāng)yt(xi)等于其實際類別yi時,I=0,否則I=1。

③ 更新弱分類器ht(x)的權(quán)值:

[αt=12ln1-εtεt]" ⑻

④ 更新第t+1次迭代時第i個訓(xùn)練樣本的權(quán)值:

[wt+1(i)=wt(i)?εt1-εt]" ⑼

⑤ 對數(shù)據(jù)集中各個樣本權(quán)值進行歸一化:

[wt+1(i)=wt+1(i)i=1nwt+1(i)]" ⑽

⑥ 判斷誤差率εt是否小于設(shè)定的閾值或者模型訓(xùn)練是否達到迭代次數(shù),若未滿足條件,則返回步驟②,否則輸出強分類器G(x):

[G(x)=t=1Nαt?ht(x)]" ⑾

其中,N為弱分類器的個數(shù)。

1.3 Adaboost-SSA-BP步態(tài)識別算法適應(yīng)度分析

針對T1、T2、T3和T4的特征組合,利用1.1節(jié)采集的數(shù)據(jù)對SSA-BP算法和Adaboost-SSA-BP算法的適應(yīng)度值進行分析,分別記為S-BP和A-S-BP,4種特征組合的適應(yīng)度值曲線如圖5所示。

圖5可以看出,當(dāng)進化次數(shù)大于10時,四種特征組合下的適應(yīng)度值逐漸趨于穩(wěn)定,相比之下,Adaboost-SSA-BP算法具有更快的收斂速度和較高的收斂精度。

2 實驗測試與分析

采集行走、跑步、上樓、下樓和站立條件下加速度計的輸出,分別記上述步態(tài)標(biāo)簽為1、2、3、4和5。實驗共采集1235組不同步態(tài)的實驗數(shù)據(jù),將其作為數(shù)據(jù)集,隨機劃分1100組數(shù)據(jù)為訓(xùn)練集,135組數(shù)據(jù)為測試集,各數(shù)據(jù)集下不同步態(tài)的組數(shù)如表2所示。

2.1 步態(tài)特征效果測試

根據(jù)1.1節(jié)提出的四種特征組合,利用測試集數(shù)據(jù),對BP、SSA-BP以及Adaboost-SSA-BP算法進行步態(tài)識別測試,結(jié)果如圖6~圖9所示。

圖6~圖9顯示,四種特征組合下,標(biāo)簽2和標(biāo)簽4出現(xiàn)誤識別的次數(shù)較多,分別對應(yīng)跑步和下樓的狀態(tài)。對于跑步和下樓,邁步時,腳尖點地之后,以腳尖為中心,腳跟快速提起,從而引起加速度計測量輸出的突變,該特征區(qū)別于行走、上樓以及站立的狀態(tài)。表3給出了步態(tài)識別準確率的統(tǒng)計值。

從表3可以看出,T4特征組合的步態(tài)識別準確率均高于其他特征組合,且Adaboost-SSA-BP算法識別準確率優(yōu)于其他兩種算法。

2.2 步態(tài)識別算法測試

基于T4特征組合,采用KNN算法、決策樹C4.5算法和SVM算法與本文所提Adaboost-SSA-BP算法進行對比測試。受試者佩戴加速度計傳感器進行了10組實驗。每組實驗中受試者步態(tài)分布隨機,記錄實際步態(tài)標(biāo)簽。對采集的步態(tài)數(shù)據(jù)進行分類,將其與實際步態(tài)標(biāo)簽對比,從而獲得步態(tài)識別準確率。經(jīng)統(tǒng)計,10組實驗的步態(tài)識別準確率結(jié)果如圖10所示。

10組實驗中,步態(tài)識別準確率的平均值、最大值以及最小值的統(tǒng)計結(jié)果如表4所示。

圖10和表4可以看出,基于T4的特征組合,本文所提的Adaboost-SSA-BP算法開展步態(tài)識別時,平均準確率達到96.15%,均優(yōu)于其他幾種分類算法。

3 結(jié)束語

針對采用加速度信號開展步態(tài)識別錯誤率偏高的問題,提出一種基于信息熵和改進特征權(quán)重融合的Adaboost-SSA-BP步態(tài)識別方法。結(jié)果表明該方法能夠有效提取步態(tài)特征,步態(tài)識別平均準確率可達96.15%,本文設(shè)計的步態(tài)識別方法具有較好的應(yīng)用前景。

參考文獻(References):

[1] WANG X, ZHANG J, YAN W Q. Gait recognition using

multichannel convolution neural networks[J]. Neural computing and applications,2020,32(18):14275-14285.

[2] 趙東輝,王威,張紫涵,等.基于多模態(tài)步行意圖識別的助行機

器人柔順控制[J].儀器儀表學(xué)報,2022,43(2):205-215.

[3] 賈曉輝,王濤,劉今越,等.基于人體模型映射的步態(tài)識別及意

圖感知方法[J].儀器儀表學(xué)報,2020,41(12):236-244.

[4] 鄧平,趙榮鑫,朱飛翔.一種基于人體運動狀態(tài)識別的行人航

跡推算方法[J].中國慣性技術(shù)學(xué)報,2021,29(1):16-22.

[5] YONGSU C, HOJOON K, DOIK K. Flexible piezoelectric

sensor-based gait recognition[J]. Sensors,2018,18(2):468-478.

[6] MARIA D M, ALESSIO M.Biometric walk recognizer Gait

recognition by a single smartphone accelerometer[J]. Multimedia Tools and Applications,2017,76(4):4713-4745.

[7] WANG X, HU S. Visual gait recognition based on

convolutional block attention network[J]. Multimedia Tools and Applications,2022,81(20):29459-29476.

[8] LI H, QIU Y, ZHAO H, et al. GaitSlice: A gait recognition

model based on spatio-temporal slice features[J]. Pattern Recognition,2022,124:108453.

[9] CHEN X, LUO X, WENG J, et al. Multi-view gait image

generation for cross-view gait recognition[J].IEEE Transactions on Image Processing,2021,30:3041-3055.

[10] ZHAO J, LIANG J, DONG Z, et al. Accelerating

information entropy-based feature selection using rough set theory with classified nested equivalence classes[J]. Pattern Recognition,2020,107:107517.

主站蜘蛛池模板: 在线观看的黄网| 久久免费精品琪琪| 日韩黄色大片免费看| 亚洲精品手机在线| www中文字幕在线观看| 亚洲综合久久一本伊一区| 日韩123欧美字幕| 色妺妺在线视频喷水| 免费大黄网站在线观看| 国产在线麻豆波多野结衣| www.亚洲天堂| 欧美一级高清免费a| 亚洲人视频在线观看| 手机成人午夜在线视频| 国产高清又黄又嫩的免费视频网站| 欧美国产日韩另类| 99人妻碰碰碰久久久久禁片| 欧美精品一二三区| a色毛片免费视频| 一区二区三区毛片无码| 久久夜色精品国产嚕嚕亚洲av| 亚洲性影院| 久久9966精品国产免费| 日韩美一区二区| 波多野结衣中文字幕久久| 欧美区一区| 香蕉久久国产超碰青草| 国产丝袜无码精品| 国产精品浪潮Av| 91青青视频| 欧美午夜理伦三级在线观看| 在线观看国产网址你懂的| 亚洲αv毛片| 国产原创第一页在线观看| 欧美一道本| 国产网站在线看| 欧美在线黄| 黄色国产在线| 亚洲国产精品人久久电影| yy6080理论大片一级久久| 欧美黄色网站在线看| 日本欧美午夜| 亚洲精品大秀视频| 国产呦精品一区二区三区网站| 亚洲a级在线观看| 久久伊人操| 超碰精品无码一区二区| 国产午夜精品一区二区三区软件| 亚卅精品无码久久毛片乌克兰| 欧美狠狠干| 亚洲精品午夜天堂网页| 99999久久久久久亚洲| 亚洲男人的天堂在线| 国产极品粉嫩小泬免费看| 免费高清a毛片| 成AV人片一区二区三区久久| 国产福利观看| 99热这里只有精品2| 国产成人亚洲精品蜜芽影院| 99re精彩视频| 日韩美一区二区| 小说 亚洲 无码 精品| 亚洲日韩精品欧美中文字幕 | 国内精品自在欧美一区| 成人午夜久久| 国产97视频在线| 天天操精品| 成人综合久久综合| 69av在线| 国产精品 欧美激情 在线播放 | 91亚洲精品国产自在现线| 欧美日韩免费观看| 重口调教一区二区视频| 97国产精品视频自在拍| 免费啪啪网址| 亚洲成A人V欧美综合天堂| 在线精品自拍| 久99久热只有精品国产15| 国模私拍一区二区| 中字无码精油按摩中出视频| 精品黑人一区二区三区| 中国一级特黄大片在线观看|