999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法

2021-09-23 10:52:30陳先睿
機(jī)械設(shè)計(jì)與制造 2021年9期
關(guān)鍵詞:特征提取特征實(shí)驗(yàn)

陳先睿

(貴州大學(xué)體育學(xué)院,貴州 貴陽(yáng)550025)

1 引言

現(xiàn)階段指紋、人臉等生物特征識(shí)別技術(shù)在足球訓(xùn)練、交通以及工業(yè)等領(lǐng)域中已經(jīng)有了十分廣泛的應(yīng)用[1-2]。但是這些生物特征的獲取需要依靠近距離或者接觸性的協(xié)作感知方法,而且這些信息容易偽裝或隱藏,所以生物特征識(shí)別技術(shù)的應(yīng)用范圍受到了一定的限制,因此一種全新生物特征引起了相關(guān)專家的廣泛關(guān)注,這就是步態(tài)。例如文獻(xiàn)[3]提出一種基于確定性學(xué)習(xí)的人體步態(tài)識(shí)別方法,利用人體運(yùn)動(dòng)捕捉設(shè)備獲取關(guān)節(jié)角時(shí)序數(shù)據(jù)序列,其中局部準(zhǔn)確的人體步態(tài)內(nèi)部動(dòng)力學(xué)能夠采用徑向基函數(shù)網(wǎng)絡(luò)得到逼近,根據(jù)將NN逼近獲取的步態(tài)動(dòng)力學(xué)知識(shí)存儲(chǔ)在RBF網(wǎng)絡(luò)中,利用該網(wǎng)絡(luò)有效進(jìn)行步態(tài)識(shí)別;文獻(xiàn)[4]提出一種基于MPSO-BP神經(jīng)網(wǎng)絡(luò)方法的人體步態(tài)識(shí)別方法,主要采用自適應(yīng)調(diào)整學(xué)習(xí)因子組建MPSO-BP神經(jīng)網(wǎng)絡(luò)分類器,通過(guò)多種傳感信息的特征向量樣本集對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以實(shí)現(xiàn)不同運(yùn)動(dòng)模式的步態(tài)識(shí)別。以上方法雖然在現(xiàn)階段取得了較好的研究成果,但是這兩種方法的識(shí)別有效率并不是十分理想。為了有效克服上述方法存在的問(wèn)題,提出了一種基于多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法。

2 機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法設(shè)計(jì)

以下給出基于多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別流程圖,如圖1所示。

分析圖1可知,基于多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別流程為:采用背景減除法提取機(jī)器人運(yùn)動(dòng)圖像,通過(guò)形態(tài)學(xué)方法去除所提取到的圖像中的噪聲及空洞。采用多維數(shù)據(jù)關(guān)聯(lián)提取機(jī)器人運(yùn)動(dòng)步態(tài)輪廓形狀靜態(tài)特征,在此基礎(chǔ)上獲取動(dòng)作能量圖(AEI)以及步態(tài)能量圖(GEI),并對(duì)二者進(jìn)行對(duì)比分析,獲取動(dòng)態(tài)能量信息。采用核主成分分析進(jìn)行空間降維,獲取運(yùn)動(dòng)目標(biāo)的頻率動(dòng)態(tài)特征,將機(jī)器人運(yùn)動(dòng)步態(tài)輪廓形狀靜態(tài)特征與頻率動(dòng)態(tài)特征進(jìn)行融合,根據(jù)融合結(jié)果實(shí)現(xiàn)機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別。

圖1 基于多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別流程Fig.1 Robot Gait Recognition Process Based on Multidimensional Data Association

2.1 預(yù)處理

為了更加全面對(duì)機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法進(jìn)行深入研究,由于機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別率的高低和運(yùn)動(dòng)目標(biāo)輪廓提取的準(zhǔn)確與否存在直接關(guān)聯(lián)性[5],因此首先需要在輪廓背景中對(duì)機(jī)器人進(jìn)行分離。

背景減除法最為關(guān)鍵的一個(gè)步驟就是背景建模,其中時(shí)間平均圖像為典型的背景模型,主要是將連續(xù)輸入的N幅圖像像素值的中間值設(shè)定為背景圖像的像素值,同時(shí)設(shè)定{Ik,k=1,…,N}代表一個(gè)含有幀圖像的序列,其中背景圖像能夠表示為:

式中:Ik(x,y)—第k幀圖像(x,y)處的灰度值;B(x,y)—背景圖像中(x,y)處的灰度值。

步態(tài)序列圖像主要是通過(guò)背景減除法得到機(jī)器人運(yùn)行目標(biāo),但是其中含有大量的空洞以及噪聲,將會(huì)降低整個(gè)識(shí)別方法的有效識(shí)別率,所以通過(guò)形態(tài)學(xué)方法消除圖像中存在的噪聲以及空洞。

2.2 機(jī)器人運(yùn)動(dòng)步態(tài)特征選擇與提取

機(jī)器人運(yùn)動(dòng)步態(tài)特征提取是機(jī)器人步態(tài)識(shí)別技術(shù)中十分關(guān)鍵的一步,特征提取是實(shí)現(xiàn)步態(tài)識(shí)別的基礎(chǔ)[6-7],因此以下通過(guò)多維數(shù)據(jù)關(guān)聯(lián)進(jìn)行采樣,在采樣前期需要將(x,y)坐標(biāo)轉(zhuǎn)換為(θ,r),同時(shí)將各幀圖像輪廓的質(zhì)心設(shè)定為(xc,yc),將其作為變換后的極坐標(biāo)原點(diǎn),具體的轉(zhuǎn)換公式如下所示:

長(zhǎng)度計(jì)算式為:

通過(guò)公式(4)以及公式(5)計(jì)算輪廓的質(zhì)心:

在完成采樣之后,還需要將極坐標(biāo)轉(zhuǎn)換為直角坐標(biāo),方便后續(xù)進(jìn)行Procrustes形狀特征提取[8]。假設(shè)極坐標(biāo)為(θ,r),則通過(guò)公式(6)將其轉(zhuǎn)換為直角坐標(biāo),即:

設(shè)定步態(tài)序列為F={f0,f1,…,fN-1},ft代表第t幀圖像序列,N代表一個(gè)周期步態(tài)序列的幀數(shù),首先需要計(jì)算兩個(gè)相鄰圖像的幀差圖,即:

AEI能夠定義為:

ARI中包含步態(tài)圖像中大量的動(dòng)態(tài)信息,能夠通過(guò)不同像素點(diǎn)的強(qiáng)度代表在行走過(guò)程中具有動(dòng)態(tài)變化性的像素點(diǎn)中出現(xiàn)的概率。

機(jī)器人在行走過(guò)程中,主要通過(guò)姿態(tài)變化、手臂擺動(dòng)幅度以及用力大小進(jìn)行情況進(jìn)行運(yùn)動(dòng)步態(tài)的識(shí)別,但是這些特征需要在一個(gè)完整的步態(tài)序列圖像中獲取,因此以下重點(diǎn)采用步態(tài)能量圖展開研究:

設(shè)定一組步態(tài)周期圖形序列為At()x,y,采用以下公式計(jì)算步態(tài)能量圖:

將AEI和GEI兩者進(jìn)行對(duì)比分析,獲取大量的GEI動(dòng)態(tài)能量信息,實(shí)現(xiàn)機(jī)器人運(yùn)動(dòng)步態(tài)特征提取。

2.3 機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別

核方法屬于一類模式識(shí)別方法[9],整個(gè)方法最為主要的目的就是得到一組數(shù)據(jù)之間的關(guān)系,主要通過(guò)核函數(shù)完成數(shù)據(jù)處理,同時(shí)降低算法的計(jì)算量。

設(shè)定x,y∈X,其中X代表數(shù)據(jù)空間的樣本集,分式線性性映射函數(shù)為Φ,則有:

式中:K(x,y)—核函數(shù);Φ(x)·Φ(y)—內(nèi)積。

只有滿足對(duì)應(yīng)條件的核函數(shù)才能夠應(yīng)用在核方法中,具體的判定過(guò)程如下。

針對(duì)于任意給定的函數(shù)K(x,y),不恒等于零的函數(shù)g(x)促使∫g(x)2dx<∞是函數(shù)K(x,y)能夠在特征空間進(jìn)行內(nèi)積運(yùn)算的充分必要條件,其中:

采用核主成分分析方法進(jìn)行步態(tài)特征降維的過(guò)程中,首先需要針對(duì)F空間的總體樣本協(xié)方差矩陣SΦ t的特征值進(jìn)行分解,則有:

核主成分分析算法的具體計(jì)算過(guò)程如下所示:

(1)將函數(shù)K設(shè)定為訓(xùn)練特征集S的核函數(shù);

(2)計(jì)算核函數(shù)全部對(duì)應(yīng)的核矩陣,同時(shí)計(jì)算矩陣K~;

(3)對(duì)矩陣K~進(jìn)行特征值分解,將得到的特征值按照從大到小的順序進(jìn)行排序,選取前i個(gè)特征向量;

(4)最后得到降維之后的數(shù)據(jù),其計(jì)算公式如下:

通過(guò)降維處理之后能夠得到運(yùn)動(dòng)目標(biāo)的頻率動(dòng)態(tài)特征。

通過(guò)公式(15)計(jì)算各個(gè)特征的權(quán)重值:

將公式(15)中的算法應(yīng)用到加法融合公式之中,獲取加權(quán)的加法融合規(guī)則,具體的計(jì)算公式如下:

式中:gi—總特征;Rn—第n個(gè)特征子向量。

通過(guò)兩個(gè)特征的融合,能夠?qū)崿F(xiàn)機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別[10]。

3 仿真實(shí)驗(yàn)

實(shí)驗(yàn)主要以人形仿生機(jī)器人為對(duì)象進(jìn)行研究,數(shù)據(jù)庫(kù)共含有人形仿生機(jī)器人20臺(tái),針對(duì)不同的人形仿生機(jī)器人進(jìn)行15個(gè)不同角度的拍攝,每個(gè)機(jī)器人在同一個(gè)視角下共包含10個(gè)步態(tài)序列。

選擇文獻(xiàn)[3]方法、文獻(xiàn)[4]方法作為實(shí)驗(yàn)對(duì)比方法,實(shí)驗(yàn)主要通過(guò)個(gè)人電子計(jì)算機(jī)(Inter Pentium(R)CPU3.00GHz,1GB RAM)完成。其中,實(shí)驗(yàn)用人形仿生機(jī)器人,如圖2所示。

圖2 實(shí)驗(yàn)用人形仿生機(jī)器人Fig.2 Humanoid Robot for Experiment

(1)為了針對(duì)不同識(shí)別算法的性能進(jìn)行對(duì)比,實(shí)驗(yàn)選取機(jī)器人運(yùn)動(dòng)步態(tài)特征提取準(zhǔn)確率作為方法評(píng)價(jià)指標(biāo),針對(duì)選取的20臺(tái)人形仿生機(jī)器人的不同視角序列進(jìn)行實(shí)驗(yàn)。在具體實(shí)驗(yàn)的過(guò)程中,選取4組圖像作為訓(xùn)練集,剩余的部分則作為測(cè)試集,具體的實(shí)驗(yàn)對(duì)比結(jié)果,如表1所示。

表1 特征提取準(zhǔn)確率變化情況Tab.1 Change of Feature Extraction Accuracy

由表1中的實(shí)驗(yàn)數(shù)據(jù)可知,研究方法的機(jī)器人運(yùn)動(dòng)步態(tài)特征提取準(zhǔn)確率在96.22%-99.36%之間,說(shuō)明這種方法的提取準(zhǔn)確率較高,這說(shuō)明該方法能夠準(zhǔn)確提取到機(jī)器人運(yùn)動(dòng)步態(tài)特征,能夠?yàn)楹罄m(xù)機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別奠定堅(jiān)實(shí)的基礎(chǔ)。

(2)為了進(jìn)一步驗(yàn)證研究方法的魯棒性,采用三種方法進(jìn)行有效識(shí)別率對(duì)比,結(jié)果如圖3所示。

圖3 有效識(shí)別率對(duì)比結(jié)果Fig.3 Comparison Results of Effective Recognition Rate

從圖中能夠看出,進(jìn)行特征融合之后,研究方法的有效識(shí)別率有十分明顯的上升趨勢(shì),并且這種方法的有效識(shí)別率在82%-98%之間,始終高于實(shí)驗(yàn)對(duì)比方法。

(3)為進(jìn)一步比較不同方法進(jìn)行機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別的性能,進(jìn)行識(shí)別耗時(shí)比較,結(jié)果如圖4所示。

圖4 識(shí)別耗時(shí)比較Fig.4 Comparison of Recognition Time

分析上圖可知,研究方法的識(shí)別耗時(shí)在2.2s以下,始終低于實(shí)驗(yàn)對(duì)比方法,說(shuō)明該方法能夠快速識(shí)別機(jī)器人運(yùn)動(dòng)步態(tài)。

4 結(jié)束語(yǔ)

針對(duì)傳統(tǒng)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法存在有效識(shí)別率較低等問(wèn)題,結(jié)合多維數(shù)據(jù)關(guān)聯(lián),提出了一種基于多維數(shù)據(jù)關(guān)聯(lián)的機(jī)器人運(yùn)動(dòng)步態(tài)識(shí)別方法。從實(shí)驗(yàn)結(jié)果分析可知,研究方法的機(jī)器人運(yùn)動(dòng)步態(tài)特征提取準(zhǔn)確率在96.22%-99.36%之間,有效識(shí)別率在82%-98%之間,識(shí)別耗時(shí)在2.2s以下,說(shuō)明這種方法的機(jī)器人運(yùn)動(dòng)步態(tài)特征提取準(zhǔn)確率更高,且能夠?qū)崿F(xiàn)機(jī)器人運(yùn)動(dòng)步態(tài)的快速準(zhǔn)確識(shí)別,獲取較為滿意的識(shí)別結(jié)果。

猜你喜歡
特征提取特征實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
如何表達(dá)“特征”
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 久青草免费在线视频| 久久国产热| 欧美日韩国产一级| 久热中文字幕在线| 青青青草国产| 成年人免费国产视频| 亚洲日韩Av中文字幕无码| 亚洲国产综合自在线另类| 国产精品所毛片视频| 免费一级α片在线观看| 91丝袜乱伦| 国产第八页| 国产美女无遮挡免费视频网站| 五月天婷婷网亚洲综合在线| 中文无码精品A∨在线观看不卡| 无遮挡国产高潮视频免费观看| www成人国产在线观看网站| 国产91高清视频| 亚洲a级在线观看| 亚卅精品无码久久毛片乌克兰| 国产男女免费视频| 992Tv视频国产精品| 国产福利拍拍拍| 亚洲国产天堂在线观看| 国产精品区视频中文字幕| 日本国产精品一区久久久| 日韩在线永久免费播放| 精品三级网站| 国产精品无码在线看| 国产三级毛片| 亚洲人成网站18禁动漫无码 | 亚洲第一视频网| 久久天天躁狠狠躁夜夜躁| 成人av专区精品无码国产| 丁香五月激情图片| 国内精品一区二区在线观看| 国产在线观看91精品| 亚洲男人的天堂久久精品| 精品无码日韩国产不卡av| 亚洲男人的天堂久久精品| 91福利国产成人精品导航| 欧美a级在线| 99re经典视频在线| 91小视频版在线观看www| a级毛片毛片免费观看久潮| 婷五月综合| 日韩精品一区二区三区swag| 国产偷倩视频| 日韩天堂网| 亚洲中文久久精品无玛| 亚洲精品国产首次亮相| 国产女人18水真多毛片18精品| 成人国内精品久久久久影院| 9久久伊人精品综合| 国产丰满大乳无码免费播放| 国产三级成人| 精品国产成人三级在线观看| 国产精品免费露脸视频| 香蕉久久国产超碰青草| 国内精品视频区在线2021| 国产精品久久久久久搜索 | 无码高潮喷水专区久久| 亚洲精品爱草草视频在线| 国产高潮流白浆视频| 婷婷亚洲最大| 久久午夜夜伦鲁鲁片不卡| 欧洲成人在线观看| 永久免费AⅤ无码网站在线观看| 日韩精品无码免费一区二区三区| 亚洲视频三级| 国产成人高清精品免费软件| 亚洲熟女中文字幕男人总站| 四虎影视永久在线精品| 久久精品66| 国产精品亚洲片在线va| 欧美三级日韩三级| 国产精品成人AⅤ在线一二三四 | 国语少妇高潮| 日韩中文欧美| 国产毛片基地| 91在线日韩在线播放| 综合人妻久久一区二区精品 |