999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于CNN算法的步態識別模型研究

2023-08-21 09:57:42張亦鳴王秋軼吳梓睿李文琳朱鵬宇丁浩
無線互聯科技 2023年12期
關鍵詞:深度學習

張亦鳴 王秋軼 吳梓睿 李文琳 朱鵬宇 丁浩

摘要:為解決傳統步態識別模型訓練時間長、識別準確率低等問題,文章構建了能夠進行深度學習的行走時步態特征數據庫,通過對所選取特征的特定性、關聯性和穩定性的研究,建立步態特征矩陣,利用Tensorflow設計CNN算法進行深度學習,使其能夠自動實現基于行走時步態特征的個人識別。在27名實驗者情況下,該模型的識別準確率可達99%以上,且訓練時間較短,優于目前已發表的其他模型,對構建更大數據庫的識別系統具有啟發意義。

關鍵詞:步態識別;CNN算法;深度學習

中圖分類號:TP183? 文獻標志碼:A

0 引言

隨著時代和科學技術的發展,出現越來越多的身份識別技術,如肖軍[1]、張震[2]、姚越武[3]等在人臉識別、虹膜識別和指紋等的研究成果獲得廣泛應用。步態識別技術作為生物識別的新興技術[4-6],雖然近年來獲得關注和發展,但由于特征穩定性不及前文所述的特征,神經網絡的計算較為復雜等原因,尚未得到普及。

筆者通過查閱文獻等方式,發現當前步態識別技術主要存在如下局限性:(1)尚無法實現個體的識別,只能實現對某些特定特征的種類識別。(2)直接利用原始坐標數據進行訓練,計算量較大,且容易受到人所在的絕對位置的影響。

為減小計算量的同時保證識別的準確性,本實驗構建了能夠進行深度學習的行走步態特征數據庫,在訓練前提取步態特征矩陣,并對其特定性、穩定性和相互關聯程度進行了論證,在減小后續訓練計算量的同時實現了信息的挖掘,避免了人每次所在絕對位置的不同帶來的誤差。利用CNN算法進行深度學習訓練,以期得到較優的訓練結果,為構建更大規模個體身份識別數據庫和計算方法提供相關技術支持。

1 數據采集

本實驗采集了27名實驗者,均健康狀況良好,無明顯不良行走習慣。本實驗使用英國 Vicon三維運動捕捉系統。系統以主動紅外捕捉的方式獲取Marker點坐標。精確度和分辨率可以滿足實驗要求[7]。采集過程如下:

(1)定義原點并校準XYZ軸。其中,X軸方向為空間前后方向,Y軸方向為空間左右方向,Z軸為空間上下方向[8]。

(2)實驗者佩戴Marker點設備,佩戴部位如圖1所示。右足:第五趾前端(Marker 1)和足跟外側最突處(Marker 2);左足:兩個第五趾前端(Marker 3)和足跟外側最突處(Marker 4)。下肢共16個Marker點,分別為:左小腿佩戴儀(Marker 5,6,9,10),右小腿佩戴儀(Marker 7,8,11,12),左大腿佩戴儀(Marker13,14,17,18),右大腿佩戴儀(Marker 15,16,19,20)。左右手臂共6個Marker點,分別為左右手臂肱骨大結節處,左右手臂肘關節鷹嘴處,左右手臂橈骨遠端

骨骺(左臂Marker點依次為Marker 25,23,21,右臂Marker點依次為Marker 26,24,22)。腰部佩戴儀4個Marker點(Marker 27,28,29,30)。

(1) 實驗者沿X軸正方向自然行走,系統以100 Hz/s的頻率采集各個Marker點的三維坐標。

(2) 多次采集,每名實驗者采集20次。

2 步態特征模型建立

2.1 周期截取

數據采集時以一個復步為周期。考慮到人的單次普通步行過程可以分為起足、碾足、落足3個階段,故每個周期步的計時從左腳起足即足根部離開地面開始,到左腳第二次完成落足即足尖落至地面結束。繪制左足第五趾骨高度和左足足跟高度隨時間變化的圖像。通過最小峰值間隔MRD、峰值兩側最小相對高度MRH識別出所有峰,定義識別出的第一個峰時間為T1,最后一個峰對應的為T2,從而定義一個模型周期T。計算方式如下:

offset=[200-T1+T2]/2(1)

T=(T2+offset)-(T1-offset)(2)

式(2)中,(T1-offset)為周期起始幀,(T2+offset)為周期結束幀。本實驗中MRD=35,MRH=8。

2.2 特征選取

為了表述方便,本文以Ni表示編號為i的Marker點,以Xi、Yi、Zi分別表示編號為i的Marker點的X、Y、Z軸坐標。利用空間幾何的方法對如下特征進行計算:

t時刻左右肘關節角度為αt1和αt2,使用大臂和小臂的夾角來表示,以右臂為例其計算方法為:

αt1=arccosN23N21·N23N25N23N21×N23N25(3)

αt2的計算與之類似。

t時刻左右大臂相對于在XZ平面上相對于Z軸的擺動角度為βt1和βt2,以右臂為例其計算方法為:

βt1=arctanY23-Y25X23-X25(4)

βt2的計算與之類似。

t時刻左右膝關節在XZ平面投影的角度為γt1和γt2,反映了膝關節在前后方向上的角度變化;在YZ平面投影的角度δt1和δt2反映了是否存在X形腿、O形腿。設Marker 17,18、Marker 13,14、Marker 9,10、Marker 5,6的中點依次為點A、B、C、D,則其計算方法為:

γt1=arccos(XA-XB)×(XD-XC)+(ZA-ZB)×(ZD-ZC)((XA-XB)2+((ZA-ZB)2×((XD-XC)2+((ZD-ZC)2(5)

δt1=arccos(YA-YB)×(YD-YC)+(ZA-ZB)×(ZD-ZC)((YA-YB)2+((ZA-ZB)2×((YD-YC)2+((ZD-ZC)2(6)

γt2、δt2的計算方式與之類似。

t時刻左右踝關節角度為εt1和εt2,其計算方法為:

εt1=arccosN3N1·DCN3N1×DC(7)

εt2的計算方式與之類似。

t時刻肩部兩端的連線擺動與Y軸形成的角度為θt,計算方法為:

θt=arctanY26-Y25X26-X25(8)

t時刻腰部擺動與Y軸形成的角度為t,設Marker 27,29、Marker 28,30的中點分別為I、J,其計算方法為:

t=arctanYJ-YIXJ-XI(9)

t時刻雙足夾角為μt,反映了人行走時雙腳外展、直行或內收的情況,其計算方法為:

μt=arccosN23N21·N23N25N23N21×N23N25(10)

t時刻左右手腕部與腰部中點Y坐標的差值為dt1和dt2,反映了手臂內擺程度的變化。設Marker27,28的中點為K,則其計算方法為:

dt1=Y21-YK(11)

dt2的計算方式與之類似。

t時刻左右足跟與腰部中點Y坐標的差值為dt3和dt4,反映了行走時步寬的情況。其計算方法為:

dt3=Y3-YK(12)

dt4的計算方式與之類似。

每次采集的數據經過如上模型計算后得到步態特征矩陣Aji(i表示實驗對象編號,j表示該實驗對象的測量次數)。

2.3 對所選特征的考察與論證

特定性:將2.2節得到的步態特征矩陣以實驗者為單位進行合并,分別檢驗每個特征在不同實驗者之間是否具有顯著差異性。以特征為單位分別進行方差齊性檢驗后,用不假定等方差中的塔姆黑尼檢驗。顯著性結果為0.05時,各個特征在不同個體之間具有顯著性差異的組數占總組數的比例均在90%左右,表明可以以此為依據區別個體。

關聯性:利用偏相關分析研究特征之間相互影響的程度,并將相關性系數作為考察指標。檢驗結果表明,相關系數普遍分布在[-0.2,+0.2]之間,說明特征之間相互關聯的程度較低,各個特征之間具有較強的獨立性,它們的相互組合是有意義的。

穩定性:利用成對樣本T檢驗考察特征在同一個體的穩定性,并以顯著性水平0.05作為評判依據。結果表明,各個特征穩定性在55%~70%左右。考慮到實驗者在各次采集中所穿著的衣物、鞋子以及身體狀態不同,符合現實中步態識別的客觀要求,故可以認為特征具有相對穩定性。

3 CNN訓練模型

對每個特征矩陣,以列為單位線性歸一化(Min-Max Scaling)。為減少數據量偏少的影響,對每個個體的特征矩陣進行復制3倍擴充數據。

本模型結構由3個“卷積層—池化層”相連,最終由全連接層輸出。

本模型其他主要超參數介紹如下:學習速率為0.01,迭代次數(Epoch)為50,卷積層使用Relu函數作為激活函數,池化層進行2×2大小的Maxpooling計算。全連接層使用Softmax作為激活函數。為提高模型的泛化能力,設置神經元的隨機失活率為0.5。損失函數使用交叉熵函數,與Softmax聯合使用,用它來衡量網絡的輸出與標簽的差異,利用這種差異經過反向傳播去更新網絡參數。

4 實驗結果與分析

在訓練50輪后,loss為0.022 8 ,accuracy為0.993 8 ,val_loss為0.0174 ,val_accuracy為0.993 8,并已經收斂。

Macro-F1是一種衡量多標簽分類精確度的一種指標,是查準率和精確率的調和平均數。經過50輪訓練后F1_score可以達到0.991 849,表明模型具有較高的識別準確率和可信度。

5 結語

在27人的樣本下,與現有模型相比,該模型的訓練耗時更短、準確率更高。由于硬件設備等原因,目前難以構建規模更大的數據庫,尚無法驗證提出的步態識別模型是否可以實現大規模應用的要求。但對于小范圍內的不同人,已經擁有了很高的精度。因此,在將來采集設備進一步發展,采集數據更加方便的情形下,本文可以為構建更加高效的模型提供理論依據。

參考文獻

[1]肖軍.人臉識別技術在追逃工作中的應用現狀與展望[J].刑事技術,2016(2):137-141.

[2]張震,劉博,李龍.一種多特征提取及融的虹膜識別方法[J].鄭州大學學報(工學版),2017(1):63-67.

[3]姚越武,丁宏,馬繼雄,等.指紋自動識別系統多種算法互補能力研究[J].刑事技術,2017(5):385-388.

[4]LEES A,VANRENTERGHEM J. The energetics and benefit of an arm swing in submaximal and maximal vertical jump performance[J].Journal of Sports Sciences,2006(1):51-57.

[5]王亮,胡衛明,譚鐵牛.基于步態特征的身份識別[J].計算機學報,2003(3):353-360.

[6]趙黎麗,侯正信.步態識別問題的特點及研究現狀[J].中國圖像圖形報,2006(2):151-161.

[7]馬越,丁浩.人行走過程中膝關節角度特征研究[J].刑事技術,2019(4):322-326.

[8]王閃閃.GPS單基線姿態測量系統研究[D].長春:長春理工大學,2010.

(編輯 王永超)

Research on a gait recognition model based on CNN algorithm

Zhang? Yiming, Wang? Qiuyi, Wu? Zirui, Li? Wenlin, Zhu? Pengyu, Ding? Hao*

(Jiangsu Police Institute, Nanjing 210000, China)

Abstract:? In order to solve the problems of long training time and low recognition accuracy of traditional gait recognition models, a walking gait feature database capable of deep learning is built. Through the study of the specificity, relevance and stability of the selected features, a gait feature matrix is established. The CNN algorithm designed by Tensorflow is used for deep learning, so that it can automatically realize personal recognition based on walking gait features. In the case of 27 experimenters, the recognition accuracy of the model can reach more than 99%, and the training time is shorter, which is superior to other published models. It is instructive for building a recognition system with a larger database.

Key words: gait recognition; CNN algorithm; deep learning

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 久久精品视频一| 免费人成网站在线高清| 亚洲AV无码精品无码久久蜜桃| 亚洲欧洲日韩综合色天使| 亚洲首页在线观看| 2022精品国偷自产免费观看| 伊人久综合| 国产尤物jk自慰制服喷水| 国产凹凸视频在线观看| 91福利国产成人精品导航| 国产小视频a在线观看| 一级成人a做片免费| 亚卅精品无码久久毛片乌克兰| 免费毛片a| 久久婷婷五月综合97色| 中文字幕久久波多野结衣| 不卡的在线视频免费观看| 亚洲第一视频免费在线| 伊人久久综在合线亚洲2019| 五月婷婷导航| 国产无码高清视频不卡| 免费看a级毛片| 免费无码AV片在线观看中文| 丝袜久久剧情精品国产| 美女啪啪无遮挡| 国产精品999在线| 国产av一码二码三码无码| 亚洲综合香蕉| 精品人妻无码区在线视频| 午夜国产小视频| 制服丝袜一区| 天堂成人av| av天堂最新版在线| 少妇高潮惨叫久久久久久| 一级高清毛片免费a级高清毛片| 精品国产中文一级毛片在线看| 亚洲无线观看| 美女国内精品自产拍在线播放 | 亚洲 日韩 激情 无码 中出| 久久久精品无码一区二区三区| 99999久久久久久亚洲| 小说 亚洲 无码 精品| 91九色国产porny| 久久人人97超碰人人澡爱香蕉| 中国一级毛片免费观看| 欧美日韩国产成人高清视频| 91亚洲免费| 在线播放国产一区| 中文字幕亚洲综久久2021| 久久人人爽人人爽人人片aV东京热| 特级欧美视频aaaaaa| 欧美午夜在线观看| 国产又色又刺激高潮免费看| 亚洲日产2021三区在线| 国产精品亚洲天堂| 91无码人妻精品一区二区蜜桃| 欧美一区精品| 国产福利一区视频| 欧日韩在线不卡视频| 无码福利视频| 欧美一区精品| 在线看国产精品| 欧美色伊人| 亚洲精品午夜天堂网页| 91精品小视频| 91久久性奴调教国产免费| 中文字幕 日韩 欧美| 九月婷婷亚洲综合在线| 亚洲天堂区| 免费中文字幕一级毛片| 欧美亚洲国产精品第一页| 午夜精品区| 欧美日本一区二区三区免费| 无码日韩人妻精品久久蜜桃| 天堂在线亚洲| 亚洲欧美日韩成人在线| 毛片网站观看| 国产91在线免费视频| 亚洲天堂网在线播放| 天堂av综合网| 美女一级免费毛片| 欧美精品v|