999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時(shí)空注意的毫米波雷達(dá)人體活動(dòng)識(shí)別網(wǎng)絡(luò)

2023-12-31 00:00:00鄭元杰黃俊陳州全

摘 要:為了解決傳統(tǒng)方式利用攝像頭進(jìn)行人體活動(dòng)識(shí)別抗干擾性差以及侵犯用戶隱私的問題,提出一種基于時(shí)空注意的毫米波雷達(dá)3D點(diǎn)云數(shù)據(jù)的人體活動(dòng)識(shí)別網(wǎng)絡(luò),以實(shí)現(xiàn)智能應(yīng)用上下文的準(zhǔn)確感知。該網(wǎng)絡(luò)首先使用二級(jí)滑動(dòng)時(shí)間窗口分別累積和分離人體活動(dòng)產(chǎn)生的點(diǎn)云數(shù)據(jù)作為分類器的輸入,利用PointLSTM單元根據(jù)點(diǎn)云坐標(biāo)關(guān)系聚合點(diǎn)特征和狀態(tài)以提取人體活動(dòng)的時(shí)間序列特征;然后拼接時(shí)空特征,通過采樣分組模塊降低整體網(wǎng)絡(luò)計(jì)算量以及提升網(wǎng)絡(luò)對(duì)局部特征的聚合能力;最后使用堆疊的注意力模塊深度融合動(dòng)態(tài)點(diǎn)云數(shù)據(jù)時(shí)空上的全局和局部特征以完成對(duì)人體活動(dòng)任務(wù)的準(zhǔn)確分類。利用毫米波雷達(dá)采集了多種人體活動(dòng)點(diǎn)云數(shù)據(jù)集,實(shí)驗(yàn)結(jié)果表明,提出的時(shí)空注意網(wǎng)絡(luò)平均準(zhǔn)確度可達(dá)98.64%,能夠有效識(shí)別復(fù)雜且差異小的人體活動(dòng)類型,完成人體活動(dòng)識(shí)別系統(tǒng)的要求。

關(guān)鍵詞:人體活動(dòng)識(shí)別;毫米波雷達(dá);點(diǎn)云;二級(jí)滑動(dòng)窗口;時(shí)空分布;注意力機(jī)制

中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2023)08-049-2549-06

doi:10.19734/j.issn.1001-3695.2022.11.0792

Human activity recognition network for millimeter-wave radar

based on spatio-temporal attention

Zheng Yuanjie Huang Jun Chen Zhouquan

(a.School of Communication amp; Information Engineering,b.Chongqing Key Laboratory of Signal amp; Information Processing,Chongqing University of Posts amp; Telecommunications,Chongqing 400065,China)

Abstract:In order to solve the problems of poor anti-interference and invasion of user privacy in traditional methods of using cameras for human activity recognition,this paper proposed a human activity recognition network based on spatio-temporal attention of millimeter wave radar 3D point cloud data to achieve accurate perception of intelligent application context.The network firstly used a secondary sliding time window to accumulate and separate the point cloud data generated by human activities as the input of the classifier,then used the PointLSTM unit to aggregate point features and states according to the point cloud coordinate relationship to extract the time sequence features of human activities,and then spliced temporal-spatial features,reduced the overall network computation and enhanced the network’s aggregation ability for local featured through sampling grouping modules,and finally used a stacked attention module to deeply fuse global and local features in temporal-spatial point cloud data to complete the accurate classification of human activities.This paper used millimeter wave radar to collect point cloud datasets of various human activities,the experimental results show that the average accuracy of the proposed spatiotemporal attention network can reach 98.64%,which can effectively identify complex and small-difference human activities,and meet the requirements of the human activity recognition system.

Key words:human activity recognition;millimeter wave radar;point cloud;two-level sliding window;spatiotemporal distribution;attention mechanism

0 引言

人類活動(dòng)識(shí)別可以為個(gè)性化的服務(wù)提供信息,如輔助監(jiān)測(cè)醫(yī)院病人、提供老年護(hù)理和康復(fù)服務(wù)等。傳統(tǒng)方式利用攝像頭以及基于慣性傳感器的可穿戴設(shè)備實(shí)現(xiàn)檢測(cè),然而攝像頭會(huì)涉及用戶隱私問題,并且對(duì)環(huán)境光照有一定要求[1],同時(shí),可穿戴設(shè)備的接觸方式會(huì)給用戶使用體驗(yàn)造成影響,對(duì)于老人和小孩群體的使用具有復(fù)雜度。隨著自動(dòng)化技術(shù)的發(fā)展,帶動(dòng)了雷達(dá)從軍用領(lǐng)域向民用領(lǐng)域的轉(zhuǎn)變,特別是毫米波雷達(dá),其相較于激光雷達(dá)不但有價(jià)格上的優(yōu)勢(shì),同時(shí)因?yàn)槠鋵?duì)霧、灰塵等漂浮顆粒具有更強(qiáng)的穿透能力,在復(fù)雜場(chǎng)景有更好的表現(xiàn)[2],并且它可以保護(hù)用戶的隱私。以上特點(diǎn)使其成為了人體活動(dòng)識(shí)別系統(tǒng)的未來發(fā)展方向之一。

研究人員主要利用毫米波雷達(dá)產(chǎn)生的點(diǎn)云數(shù)據(jù)、距離多普勒以及微多普勒等信息來提取人體活動(dòng)特征。RadHar[1]框架從3D點(diǎn)云數(shù)據(jù)著手,利用體素化解決點(diǎn)云數(shù)據(jù)的稀疏和不均勻,使用滑動(dòng)時(shí)間窗口的方式累積點(diǎn)云數(shù)據(jù),增加時(shí)間維度,實(shí)驗(yàn)采集了五類不同的人類活動(dòng)點(diǎn)云數(shù)據(jù),并且評(píng)估了在四種不同組合分類器下的表現(xiàn),其中性能最好的分類器由卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)+雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(bi-directional long short-term memory,BiLSTM) 組成,可以達(dá)到90.47%的準(zhǔn)確率。文獻(xiàn)[3]融合點(diǎn)云和距離多普勒信息來進(jìn)行檢測(cè),使用CNN+LSTM從體素化的點(diǎn)云中提取特征,并且同時(shí)使用CNN從距離多普勒中提取特征,最后將兩種特征融合后進(jìn)行分類,在作者自建的數(shù)據(jù)集中可以達(dá)到97.26%的準(zhǔn)確率。文獻(xiàn)[4]利用超寬帶雷達(dá)采集人體動(dòng)作的四維成像數(shù)據(jù)集,包含人體目標(biāo)的距離—方位—高度—時(shí)間四維動(dòng)作數(shù)據(jù),動(dòng)作類型包含走路、揮手、打拳等十種動(dòng)作,在無遮擋環(huán)境下采用Res3D網(wǎng)絡(luò)框架下,識(shí)別率可達(dá)92.25%。

點(diǎn)云數(shù)據(jù)的處理相較于圖像而言是不一樣的,點(diǎn)云數(shù)據(jù)是不均勻、無序并且無結(jié)構(gòu)的[5]。利用體素化點(diǎn)云數(shù)據(jù)可以解決點(diǎn)云數(shù)據(jù)稀疏不均勻的特性,但是由于毫米波雷達(dá)產(chǎn)生的稀疏點(diǎn)云數(shù)據(jù)是遠(yuǎn)小于體素化窗格數(shù)量的,經(jīng)過體素化后的毫米波雷達(dá)點(diǎn)云數(shù)據(jù)會(huì)顯著增加系統(tǒng)所需內(nèi)存和計(jì)算量,導(dǎo)致大量無效的卷積計(jì)算,這給網(wǎng)絡(luò)的設(shè)計(jì)帶來一定的挑戰(zhàn)。為了解決這個(gè)問題,基于端到端的點(diǎn)云數(shù)據(jù)處理出現(xiàn)了各種深度學(xué)習(xí)的學(xué)習(xí)方法。PointNet[5]使用多層感知器(multilayer perceptron,MLP)和最大池化(max-pooling,MP)來保證點(diǎn)特征的排列不變性,使用T-Net[5]結(jié)構(gòu)保證旋轉(zhuǎn)不變性。PointNet++[6]通過對(duì)點(diǎn)云進(jìn)行多層次PointNet操作對(duì)淺層次特征進(jìn)行提取,使得網(wǎng)絡(luò)能夠兼顧全局和局部的特征。但是上述基于池化算子和分組采樣再卷積的操作適用于具有清晰外部形狀的密集點(diǎn)云數(shù)據(jù),對(duì)于稀疏的毫米波雷達(dá)點(diǎn)云數(shù)據(jù)而言,其難以提取到點(diǎn)與點(diǎn)之間的深層次聯(lián)系[7]。

文獻(xiàn)[8~10]設(shè)計(jì)了基于注意力機(jī)制的點(diǎn)云處理網(wǎng)絡(luò),能夠捕獲點(diǎn)云中的上下文,取得了較好的分類效果。但注意力機(jī)制在靜態(tài)點(diǎn)云數(shù)據(jù)中能夠捕捉該幀中點(diǎn)與點(diǎn)之間的全局上下文特征,而難以提取動(dòng)態(tài)點(diǎn)云中幀與幀之間的聯(lián)系。文獻(xiàn)[11,12]通過構(gòu)建移動(dòng)點(diǎn)云序列中每個(gè)點(diǎn)的時(shí)空鄰域,聚合特征,可以較好地針對(duì)動(dòng)態(tài)的原始點(diǎn)云序列進(jìn)行學(xué)習(xí)。

受PCT[8]和PointRNN[11]的啟發(fā),本文提出一種基于時(shí)空注意力機(jī)制下的毫米波雷達(dá)3D點(diǎn)云數(shù)據(jù)的人體活動(dòng)分類網(wǎng)絡(luò),該網(wǎng)絡(luò)首先通過兩級(jí)時(shí)間滑動(dòng)窗口收集人體活動(dòng)產(chǎn)生的點(diǎn)云數(shù)據(jù),其中一級(jí)窗口稱為活動(dòng)數(shù)據(jù)累積窗口,含有一級(jí)窗口長(zhǎng)度下人體活動(dòng)的分布特征,而二級(jí)窗口稱為活動(dòng)數(shù)據(jù)分離窗口,使用二級(jí)窗口長(zhǎng)度在一級(jí)窗口中進(jìn)行滑動(dòng),從而對(duì)人體活動(dòng)的數(shù)據(jù)進(jìn)行分離。二級(jí)窗口數(shù)據(jù)序列的順序集合作為網(wǎng)絡(luò)輸入數(shù)據(jù),數(shù)據(jù)中包含人體活動(dòng)的分布特征以及未被提取的時(shí)序特征,將二級(jí)窗口數(shù)據(jù)序列利用PointLSTM[11]單元根據(jù)點(diǎn)坐標(biāo)聚合點(diǎn)特征和狀態(tài),從而在分離窗口中提取人體動(dòng)態(tài)活動(dòng)的時(shí)序特征。將提取到的時(shí)序特征增加到對(duì)應(yīng)序列數(shù)據(jù)的特征維度中,處理后的數(shù)據(jù)將同時(shí)含有人體活動(dòng)的空間和時(shí)間特征,最后利用堆疊的注意力層處理拼接后的時(shí)空點(diǎn)云數(shù)據(jù)以深度學(xué)習(xí)人體活動(dòng)的高維特征,從而對(duì)人體活動(dòng)進(jìn)行分類。

本文對(duì)五類人體活動(dòng)(開合跳、上下跳、下蹲、拳擊、以及行走)進(jìn)行了分類,實(shí)驗(yàn)結(jié)果表明:在與文獻(xiàn)[1]相同的實(shí)驗(yàn)數(shù)據(jù)下,本文提出的網(wǎng)絡(luò)分類準(zhǔn)確度能夠達(dá)到97.68%,鑒于上述數(shù)據(jù)集缺少速度維度的問題,在七位志愿者的幫助下建立了相同動(dòng)作類型下的毫米波雷達(dá)點(diǎn)云數(shù)據(jù)集(擴(kuò)充速度維度數(shù)據(jù))。在自建數(shù)據(jù)集上,能夠達(dá)到98.64%的識(shí)別準(zhǔn)確率。

1 數(shù)據(jù)采集以及預(yù)處理

1.1 數(shù)據(jù)采集

本文選用德州儀器(TI)的IWR6843ISK[13]毫米波雷達(dá)產(chǎn)生點(diǎn)云數(shù)據(jù),其包含3根發(fā)射天線和4根接收天線,使用調(diào)頻連續(xù)波作為發(fā)射信號(hào),可在60~64 GHz頻段工作。毫米波雷達(dá)放置于目標(biāo)上部分并且往下傾斜,以便天線波束可以覆蓋感興趣的區(qū)域,但是不能夠下傾過大,否則地面雜波的噪聲會(huì)增加,有效采集面積會(huì)減小[14]。本文將雷達(dá)放置高度1.6 m,向下傾斜5°,數(shù)據(jù)采集環(huán)境如圖1所示。

圖2是一個(gè)IWR6843ISK毫米波雷達(dá)信號(hào)處理鏈,毫米波雷達(dá)前端接收回波的模數(shù)轉(zhuǎn)換數(shù)據(jù)作為輸入,然后進(jìn)行距離和多普勒的快速傅里葉變換(fast Fourier transform,F(xiàn)FT),為了濾除噪聲和干擾,使用恒虛警算法(constant 1 alarm rate detector,CFAR)進(jìn)行非相干檢測(cè),最后利用三維的FFT計(jì)算角度。

1.2 數(shù)據(jù)預(yù)處理

2 網(wǎng)絡(luò)架構(gòu)

2.1 輸入嵌入部分(input embedding)

2.2 時(shí)序提取部分(PointLSTM)

2.3 局部特征增強(qiáng)部分(set abstraction)

2.4 注意力機(jī)制(attention)

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集構(gòu)建

3.2 評(píng)價(jià)指標(biāo)

3.3 實(shí)驗(yàn)環(huán)境及模型設(shè)置

3.4 實(shí)驗(yàn)結(jié)果對(duì)比分析

4 結(jié)束語

本文提出一種基于毫米波雷達(dá)3D點(diǎn)云數(shù)據(jù)實(shí)現(xiàn)對(duì)人體活動(dòng)識(shí)別的網(wǎng)絡(luò)。該網(wǎng)絡(luò)利用二級(jí)滑動(dòng)窗口分離人體活動(dòng)點(diǎn)云數(shù)據(jù),使用PointLSTM單元有效學(xué)習(xí)動(dòng)作時(shí)序特征,然后使用采樣分組+MLP操作逐步減少模型計(jì)算量以及提升模型的局部特征提取能力,最后利用堆疊的注意力層深度學(xué)習(xí)數(shù)據(jù)的時(shí)空特征以完成人體活動(dòng)分類。實(shí)驗(yàn)結(jié)果表明該網(wǎng)絡(luò)能夠有效識(shí)別復(fù)雜且差異小的人體活動(dòng)類型,并且有更好的識(shí)別準(zhǔn)確度,能夠更好地完成人體活動(dòng)識(shí)別系統(tǒng)的要求。由于二級(jí)滑動(dòng)窗口多參數(shù)的可調(diào)性,后續(xù)工作考慮對(duì)二級(jí)滑動(dòng)窗口參數(shù)和人體活動(dòng)持續(xù)時(shí)間相關(guān)性和自適應(yīng)性進(jìn)行研究。

參考文獻(xiàn):

[1]Singh A D,Sandha S S,Garcia L,et al.RadHar:human activity recognition from point clouds generated through a millimeter-wave radar[C]//Proc of the 3rd ACM Workshop on Millimeter-Wave Networks and Sensing Systems.New York:ACM Press,2019:51-56.

[2]Darlis A R,Ibrahim N,Kusumoputro B.Performance analysis of 77 GHz mmWave radar based object behavior[J].Journal of Communications,2021,16(12):576-582.

[3]Huang Yuchen,Li Wei,Dou Zhiyang,et al.Activity recognition based on millimeter-wave radar by fusing point cloud and Range-Doppler information[J].Signals,2022,3(2):266-283.

[4]金添,宋永坤,戴永鵬,等.UWB-HA4D-1.0:超寬帶雷達(dá)人體動(dòng)作四維成像數(shù)據(jù)集[J].雷達(dá)學(xué)報(bào),2022,11(1):27-39.(Jin Tian,Song Yongkun,Dai Yongpeng,et al.UWB-HA4D-1.0:an ultra-wideband radar human activity 4D imaging dataset[J].Journal of Radars,2022,11(1):27-39.)

[5]Qi C R,Su Hao,Mo Kaichun,et al.PointNet:deep learning on point sets for 3D classification and segmentation[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:77-85.

[6]Qi C R,Yi Li,Su Hao,et al.PointNet++:deep hierarchical feature learning on point sets in a metric space[EB/OL].(2017-06-07).https://arxiv.org/abs/1706.02413.

[7]Wu Zhirong,Song Shuran,Khosla A,et al.3D ShapeNets:a deep representation for volumetric shapes[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2015:1912-1920.

[8]Guo Menghao,Cai Junxiong,Liu Zhengning,et al.PCT:point cloud transformer[J].Computational Visual Media,2021,7(2):187-199.

[9]Zhao Hengshuang,Jiang Li,Jia Jiaya,et al.Point transformer[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:16259-16268.

[10]Engel N,Belagiannis V,Dietmayer K.Point transformer[J].IEEE Access,2021,9:134826-134840.

[11]Fan Hehe,Yang Yi.PointRNN:point recurrent neural network for moving point cloud processing[EB/OL].(2019-11-24).https://arxiv.org/abs/1910.08287.

[12]Liu Xingyu,Yan Mengyuan,Bohg J.MeteorNet:deep learning on dynamic 3D point cloud sequences[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:9246-9255.

[13]Texas Instruments.IWR6843 intelligent mmWave sensor standard antenna plug-in module[EB/OL].(2022-06-15)[2022-08-23].https://www.ti.com.cn/tool/cn/IWR6843ISK.

[14]Texas Instruments.People_Counting[EB/OL].(2022-06-15)[2022-08-23].https://dev.ti.com/tirex/explore/content/mmwave_industrial_toolbox_4_12_0/labs/People_Counting/3D_People_Counting/docs/3d_people_counting_user_guide.html.

[15]Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need[C]//Proc of the 31st International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:6000-6010.

[16]Cho K,van Merriёnboer B,Gulcehre C,et al.Learning phrase representations using RNN encoder-decoder for statistical machine translation[EB/OL].(2014-09-03).https://arxiv.org/abs/1406.1078.

[17]Caesar H,Bankiti V,Lang A H,et al.nuScenes:a multimodal dataset for autonomous driving[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:11621-11631.

[18]Wang Yizhou,Jiang Zhongyu,Li Yudong,et al.RODNet:a real-time radar object detection network cross-supervised by camera-radar fused object 3D localization[J].IEEE Journal of Selected Topics in Signal Processing,2021,15(4):954-967.

[19]Kramer A,Harlow K,Williams C,et al.ColoRadar:the direct 3D millimeter wave radar dataset[J].The International Journal of Robo-tics Research,2022,41(4):351-360.

[20]Wu Wenxuan,Qi Zhongang,Li Fuxin.PointConv:deep convolutional networks on 3D point clouds[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:9621-9630.

主站蜘蛛池模板: 久草青青在线视频| 亚洲第一区在线| 青青草国产一区二区三区| 国产黄在线免费观看| 亚洲综合激情另类专区| 欧美国产综合色视频| 精品国产中文一级毛片在线看| 亚洲最大在线观看| 亚洲精品无码抽插日韩| 亚洲精品va| 91黄视频在线观看| 日韩欧美网址| 国产无遮挡裸体免费视频| 亚洲精品无码抽插日韩| 五月激情综合网| 青青青国产在线播放| 国产97视频在线观看| 呦女精品网站| 亚洲人成人无码www| 日韩精品久久久久久久电影蜜臀| 亚洲福利片无码最新在线播放| 国产手机在线观看| 在线无码九区| av尤物免费在线观看| 日本尹人综合香蕉在线观看| 亚洲成人免费看| 亚洲第一黄片大全| 久久精品视频一| 精品99在线观看| 91国内在线视频| 日日噜噜夜夜狠狠视频| 亚洲不卡av中文在线| 欧美性久久久久| 亚洲日本一本dvd高清| 久久这里只有精品2| 成人韩免费网站| 色国产视频| 亚洲成人黄色网址| 国产拍揄自揄精品视频网站| 精品精品国产高清A毛片| 香蕉综合在线视频91| 欧美综合区自拍亚洲综合天堂| 九九香蕉视频| 99尹人香蕉国产免费天天拍| 亚洲三级成人| 曰韩人妻一区二区三区| 午夜国产精品视频| 毛片久久久| 67194亚洲无码| 日韩a级片视频| 国产性生交xxxxx免费| 99久久国产综合精品女同| 亚洲精品国产日韩无码AV永久免费网| 91一级片| 亚洲婷婷在线视频| 2021精品国产自在现线看| 91人妻日韩人妻无码专区精品| 91久久精品国产| 欧美成人精品在线| 久草性视频| 自拍偷拍一区| 午夜不卡视频| 亚洲国产成人久久77| www亚洲天堂| 日韩毛片免费观看| 永久在线播放| 国产视频一二三区| 中文字幕亚洲综久久2021| 日本成人精品视频| 99精品免费在线| 欧亚日韩Av| 成人中文字幕在线| 国产视频大全| 成人国产免费| 欧美自慰一级看片免费| 无码精品一区二区久久久| 亚洲欧美人成电影在线观看| 国产成人调教在线视频| 国模粉嫩小泬视频在线观看 | 精品一区二区三区自慰喷水| 成人毛片免费在线观看| 中文精品久久久久国产网址|