999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)人物身份識(shí)別研究

2025-07-16 00:00:00賀韶楓
河南科技 2025年12期

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);人體身份識(shí)別;微多普勒信號(hào);雷達(dá)傳感器

中圖分類(lèi)號(hào):TN957 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1003-5168(2025)12-0024-05

DOI:10.19968/j.cnki.hnkj.1003-5168.2025.12.005

Convolutional Neural Network-Based Radar Human Identification Research

HE Shaofeng (Yantai Institute of Science and Technology,Yantai 264Ooo, China)

Abstract: [Purposes] Convolutional neural network is highly significant in achieveing human identification,mainly in terms of efficient feature extractionand adaptability to complexscenes.Therefore,the article proposes aradar-based human identification method based on convolutional neural network.[Methods]First,the walking gait echo signals of 1O subjects are preprocessed.Second,the Short-Time Fourier Transform (STFT) is performed to obtain the micro-Doppler time-frequency spectrogram of the human body walking.Finaly,nine types of convolutional neural networks are used to extract their features,and the extracted features are categorized using Softmax classifier to complete the human identification. [Findings] The test results show that,considering the accuracy,network parameters,test time and other factors,SqueezeNet network is more advantageous than the other 8 network in terms of network performance.In addition, the research method of using micro-Doppler signal separation resulted in a 2% increase in accuracy.[Conclusions] Therefore,both the use of micro-Doppler signal separation method and the selection of SqueezeNet network can improve the accuracy of human identification,providing valuable reference and insights for future research inthe field of identification.

Keywords: convolution neural network; human identification; micro-Doppler signal; radar sensors

0 引言

在各領(lǐng)域中發(fā)揮著越來(lái)越重要的作用。孫延鵬等[采用基于微多普勒雷達(dá)信號(hào)分離的方法,通過(guò)提取人物行走步態(tài)的微多普勒特征信息,提高了人隨著人工智能的不斷發(fā)展,人物身份識(shí)別技術(shù)物身份識(shí)別的準(zhǔn)確性。該方法實(shí)測(cè)者的步態(tài)回波信號(hào)是通過(guò)FMCW雷達(dá)發(fā)射的電磁波對(duì)人物行走的步態(tài)信息進(jìn)行探測(cè)獲取的,對(duì)回波信號(hào)預(yù)處理后,通過(guò)短時(shí)傅里葉變換獲得微多普勒時(shí)頻譜圖。由于人物行走的步態(tài)信息主要體現(xiàn)在四肢的擺動(dòng),因此,本研究通過(guò)閾值法對(duì)時(shí)頻譜圖實(shí)現(xiàn)微多普勒信號(hào)分離,從而獲得人物四肢的時(shí)頻譜圖,并將其輸入到卷積神經(jīng)網(wǎng)絡(luò)中,利用Softmax分類(lèi)器實(shí)現(xiàn)對(duì)人物身份的識(shí)別。同時(shí),對(duì)輕量級(jí)SqueezeNet網(wǎng)絡(luò)及其他8個(gè)卷積神經(jīng)網(wǎng)絡(luò)(ResNet-50、AlexNet、MobileNet、ShuffleNet、GoogleNET、Vgg19、DCNNs、CNN)進(jìn)行網(wǎng)絡(luò)性能測(cè)試對(duì)比分析,發(fā)現(xiàn)SqueezeNet網(wǎng)絡(luò)在測(cè)試時(shí)間、網(wǎng)絡(luò)參數(shù)、準(zhǔn)確率等方面表現(xiàn)出一定的優(yōu)越性。

1人物身份識(shí)別

目前,生物識(shí)別技術(shù)作為一種先進(jìn)的技術(shù)研究手段,深受學(xué)者們的喜愛(ài),其主要通過(guò)生物內(nèi)在特征或生物行為特征來(lái)進(jìn)行身份識(shí)別和認(rèn)定。其中,能實(shí)現(xiàn)人物身份識(shí)別的技術(shù)主要有指紋識(shí)別2、人臉識(shí)別3、虹膜識(shí)別和步態(tài)識(shí)別等。

相較于其他識(shí)別技術(shù),指紋識(shí)別需要識(shí)別者手指與傳感器親密接觸,一旦距離過(guò)遠(yuǎn),則不能獲取人的指紋信息,并且存在一定的衛(wèi)生隱患4。人臉識(shí)別和虹膜識(shí)別等技術(shù)主要通過(guò)攝像機(jī)采集信息,但攝像機(jī)在使用過(guò)程中存在明顯缺陷。如在私密敏感的區(qū)域內(nèi),攝像機(jī)的使用會(huì)引發(fā)不必要的爭(zhēng)議5,此外在光線(xiàn)不足或光線(xiàn)較強(qiáng)時(shí),攝像機(jī)的使用及處理結(jié)果也不一定具備優(yōu)勢(shì)。因此,本研究采用雷達(dá)傳感器來(lái)獲取人物行走的步態(tài)信息,以實(shí)現(xiàn)對(duì)人物身份識(shí)別。這是因?yàn)槔走_(dá)傳感器具備一定的使用優(yōu)勢(shì),一方面雷達(dá)傳感器不需要實(shí)測(cè)者近距離的接觸或攜帶任何的設(shè)備,不會(huì)限制實(shí)測(cè)者的自由,并保護(hù)自身的隱私;另一方面雷達(dá)傳感器所發(fā)射的是電磁信號(hào),不易受環(huán)境、外界光線(xiàn)及障礙物等外界因素的影響[7]

2雷達(dá)傳感器

本研究使用單發(fā)、單收的FMCW雷達(dá),即有1個(gè)發(fā)射天線(xiàn)(Tx)和1個(gè)接收天線(xiàn) (Rx) 。FMCW雷達(dá)示意如圖1所示,主要組成為以下4部分。 ① 合成器。產(chǎn)生線(xiàn)性頻率調(diào)制CW脈沖的合成裝置。② 發(fā)射天線(xiàn)。信號(hào)由Tx發(fā)送天線(xiàn)發(fā)送,在具體的實(shí)施中,通常需要通過(guò)一個(gè)功率放大裝置來(lái)完成。

③ 接收天線(xiàn)。在目標(biāo)物體的反射下,通過(guò) Rx 接收天線(xiàn)捕獲,在具體的實(shí)施過(guò)程中,通常需要添加一個(gè)噪聲較小的放大器。 ④ 混頻器。通常由非線(xiàn)性部件及選頻回路組成。混頻的實(shí)質(zhì)就是頻譜的線(xiàn)性遷移過(guò)程。在此基礎(chǔ)上,利用混合電路將混頻器信號(hào)與輸入的信號(hào)相乘,再經(jīng)積化和差獲得輸出的信號(hào)。

圖1FMCW雷達(dá)示意

當(dāng)發(fā)射天線(xiàn)發(fā)射的信號(hào)為 時(shí),則接收天線(xiàn)所對(duì)應(yīng)的接收回波信號(hào)為 sR(t) 。 sR(t) 是經(jīng)過(guò)被測(cè)目標(biāo)所反射的回波信號(hào),因此可看作是 sT(t) 的延時(shí)信號(hào)。具體見(jiàn)式(1)和式(2)。

式中: AT 為發(fā)射信號(hào)的幅值 ;fc 為起始頻率; B 為信號(hào)帶寬; Tc 為持續(xù)時(shí)間; td 為延時(shí)時(shí)間; AR 為接收信號(hào)的幅值。

發(fā)射信號(hào)的頻率與回波信號(hào)的頻率之間產(chǎn)生的差值是中頻信號(hào) xIF 的頻率,其相位是發(fā)射信號(hào)與回波信號(hào)的相位之差,見(jiàn)式(3)。

通過(guò)雷達(dá)傳感器采集的人物行走步態(tài)信息,先經(jīng)過(guò)短時(shí)傅里葉變換得到其時(shí)頻譜圖,再利用閾值法實(shí)現(xiàn)步態(tài)微多普勒信號(hào)分離,便可得到人物行走步態(tài)四肢信號(hào)的時(shí)頻譜圖,由此提高人物身份識(shí)別的準(zhǔn)確率。

3卷積網(wǎng)絡(luò)性能對(duì)比分析

在已有的研究中,僅對(duì)4個(gè)卷積神經(jīng)網(wǎng)絡(luò)的性能進(jìn)行對(duì)比分析8,而本研究則對(duì)9個(gè)卷積神經(jīng)網(wǎng)絡(luò)的性能進(jìn)行對(duì)比分析。每個(gè)卷積神經(jīng)網(wǎng)絡(luò)都可以對(duì)實(shí)現(xiàn)微多普勒信號(hào)分離的四肢時(shí)頻譜圖進(jìn)行訓(xùn)練,且各個(gè)卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率如圖2所示。其中,訓(xùn)練集多少的選取是影響人物身份識(shí)別的重要因素,而對(duì)人物步態(tài)信息的采集是一項(xiàng)耗時(shí)耗力的工作。因此,本研究將訓(xùn)練集與測(cè)試集的占比調(diào)成不同的百分比,以實(shí)現(xiàn)對(duì)9個(gè)卷積神經(jīng)網(wǎng)絡(luò)的性能測(cè)試。

由圖2可知,隨著每個(gè)網(wǎng)絡(luò)訓(xùn)練集占比的增加,網(wǎng)絡(luò)的性能也在逐漸地增加,可能是因?yàn)橛?xùn)練集的數(shù)據(jù)過(guò)少,網(wǎng)絡(luò)會(huì)出現(xiàn)過(guò)擬合現(xiàn)象,但SqueezeNet網(wǎng)絡(luò)在訓(xùn)練集各個(gè)占比中,相較于其他網(wǎng)絡(luò)均占有一定的優(yōu)勢(shì)[9,具有較高的網(wǎng)絡(luò)性能。因此,SqueezeNet網(wǎng)絡(luò)在小樣本學(xué)習(xí)中更具優(yōu)勢(shì)

與此同時(shí),本研究還對(duì)9個(gè)卷積神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)參數(shù)量、準(zhǔn)確率及測(cè)試時(shí)間方面進(jìn)行了對(duì)比研究,結(jié)果如圖3所示。由圖3可知,首先,9個(gè)卷積神經(jīng)網(wǎng)絡(luò)都具有較高的識(shí)別準(zhǔn)確率,但SqueezeNet網(wǎng)絡(luò)的準(zhǔn)確率比其他網(wǎng)絡(luò)要略高一些;其次,SqueezeNet網(wǎng)絡(luò)具有較短的測(cè)試時(shí)間,可以在有限的時(shí)間內(nèi)完成人物身份識(shí)別工作;最后,在網(wǎng)絡(luò)參數(shù)方面,SuqeezeNet網(wǎng)絡(luò)屬輕量化網(wǎng)絡(luò),以 Vgg19 網(wǎng)絡(luò)為參考, Vgg19 網(wǎng)絡(luò)的參數(shù)量是SqueezeNet網(wǎng)絡(luò)的89倍。綜上所述,本研究選用的SqueezeNet網(wǎng)絡(luò)在網(wǎng)絡(luò)性能方面要優(yōu)于其他8個(gè)卷積神經(jīng)網(wǎng)絡(luò)。

4t-SNE可視化分析結(jié)果

在已有的研究中,僅對(duì)4名測(cè)試者進(jìn)行人物身份識(shí)別研究,而本研究的實(shí)驗(yàn)有10名實(shí)測(cè)者,每名實(shí)測(cè)者采集了100組行走步態(tài)數(shù)據(jù),共1000個(gè)數(shù)據(jù)總量。將采集到的人物步態(tài)雷達(dá)回波信號(hào)先通過(guò)短時(shí)傅里葉變換得到相應(yīng)的時(shí)頻譜圖,再通過(guò)閾值法實(shí)現(xiàn)步態(tài)信號(hào)的微多普勒信號(hào)分離,最終輸人到卷積神經(jīng)網(wǎng)絡(luò)之中。

圖2不同訓(xùn)練集占比卷積網(wǎng)絡(luò)性能比較
圖3卷積網(wǎng)絡(luò)性能對(duì)比

為了提高該實(shí)驗(yàn)?zāi)P偷姆夯芰Γ捎梦逭劢徊骝?yàn)證,按8:2的比例將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。為了使實(shí)驗(yàn)結(jié)果更直觀,采用混淆矩陣和 t- SNE可視化分析圖呈現(xiàn)實(shí)驗(yàn)結(jié)果。未進(jìn)行微多普勒信號(hào)分離的實(shí)驗(yàn)結(jié)果如圖4和圖5所示,其人物身份識(shí)別的準(zhǔn)確率為 97.5% 。進(jìn)行微多普勒信號(hào)分離的實(shí)驗(yàn)結(jié)果如圖6和圖7所示。其中,混淆矩陣包含了縱軸的真實(shí)類(lèi)以及橫軸的預(yù)測(cè)類(lèi),實(shí)驗(yàn)包含了4位女生和6位男生,共計(jì)10個(gè)人。在混淆矩陣圖中,正確的分類(lèi)數(shù)目是通過(guò)混淆矩陣對(duì)角線(xiàn)顏色較深區(qū)域顯示,而錯(cuò)誤的分類(lèi)個(gè)數(shù)是通過(guò)周?chē)念伾^淺區(qū)域所展示。 圖表示每個(gè)類(lèi)別的聚類(lèi)情況,不同的標(biāo)注代表了不同的實(shí)測(cè)者類(lèi)別。通過(guò)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比分析發(fā)現(xiàn),實(shí)現(xiàn)微多普勒信號(hào)分離的人物身份識(shí)別準(zhǔn)確率為 99.5% ,相比于未進(jìn)行微多普勒信號(hào)分離的實(shí)驗(yàn),識(shí)別準(zhǔn)確率提高了 2% 。由實(shí)驗(yàn)結(jié)果可判斷出,人物行走步態(tài)的差異主要源于四肢的擺動(dòng)。因此,人物行走步態(tài)信號(hào)的微多普勒信號(hào)分離有助于實(shí)現(xiàn)人物身份的識(shí)別,提高人物身份識(shí)別的準(zhǔn)確率。

圖4未進(jìn)行微多普勒信號(hào)分離的混淆矩陣測(cè)試結(jié)果
圖5未進(jìn)行微多普勒信號(hào)分離的t-SNE測(cè)試結(jié)果

5結(jié)語(yǔ)

相較于其他生物識(shí)別技術(shù),基于雷達(dá)傳感器的步態(tài)識(shí)別技術(shù)具有易獲取、難偽裝、不限制自由等優(yōu)勢(shì),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,實(shí)現(xiàn)人物身份的識(shí)別。同時(shí),輕量型SqueezeNet網(wǎng)絡(luò)在網(wǎng)絡(luò)性能方面相對(duì)于其他網(wǎng)絡(luò)占據(jù)優(yōu)勢(shì),且經(jīng)過(guò)微多普勒信號(hào)分離的人物身份識(shí)別檢測(cè)結(jié)果在準(zhǔn)確率上也提高 2% 。在后續(xù)的研究中,希望可以不斷地完善人物身份識(shí)別的成果。

圖6進(jìn)行微多普勒信號(hào)分離的混淆矩陣測(cè)試結(jié)果
圖7進(jìn)行微多普勒信號(hào)分離的t-SNE測(cè)試結(jié)果

參考文獻(xiàn):

[1]孫延鵬,賀韶楓,屈樂(lè)樂(lè).基于微多普勒信號(hào)分離和SqueezeNet的人體身份識(shí)別[J].雷達(dá)科學(xué)與技術(shù),2023,21(5):511-516,525.

[2]YOON S,JAIN A K.Longitudinal study of finger-printrecognition.[J].Proceedingsof theNational AcademyofSciencesoftheUnited StatesofAmerica,2015,112(28):8555-60.

[3]SOLANKI K,PITTALIAP.Review of face recogni-tion techniques[J]. International Journal of Computer Applica-tions,2016,133(12):20-24.

[4]曹佳禾.基于毫米波雷達(dá)的身份識(shí)別技術(shù)研究[D].杭州:浙江大學(xué),2021.

[5]VANDERSMISSENB,KNUDDEN,JALALVANDA,et al.Indoor person identification using a low-powerFMCWradar[J].IEEE Transactions on Geoscience and Re-moteSensing,2018,56(7):3941-3952.

[6]QIAOXS,F(xiàn)ENGY,SHANT,etal.Person identification with low training sample based on micro-Doppler signatures separation[J].IEEE Sensors Journal,2022,22(9): 8846-8857.

[7]RODRIGUES D V Q,LI C.Noncontact exercise monitoringin multi-person scenariowith frequency-modulated continuous-waveradar[C].2020 IEEE MTT-S International Microwave Biomedical Conference(IMBioC).Toulouse,F(xiàn)rance, 2020:1-3.

[8]NI ZF,HUANGBK.Human identification based on natural gait micro-Doppler signatures using deep transfer learning[J].IETRadar,SonarNavigation,2020,14(10): 1640-1646.

[9]LANGY,WANGQ,YANGY,etal.Person identification with limited training data using radar micro-Doppler signatures[J].Microwave and Optical Technology Letters, 2020,62(3):1060-1068.

主站蜘蛛池模板: 中文字幕 日韩 欧美| 国产伦精品一区二区三区视频优播| 亚洲无码四虎黄色网站| 国产黄色片在线看| 午夜精品区| 亚洲精品在线观看91| 91人妻日韩人妻无码专区精品| 黄色网址免费在线| 色婷婷综合在线| 国内自拍久第一页| 成人国产一区二区三区| 久久午夜影院| 亚洲视屏在线观看| 欧美综合一区二区三区| 丁香亚洲综合五月天婷婷| 波多野结衣一区二区三视频| 欧美中文字幕无线码视频| 国产日韩欧美一区二区三区在线 | 99国产在线视频| 99人妻碰碰碰久久久久禁片| 成人在线亚洲| 亚洲三级a| 亚洲毛片一级带毛片基地| 婷婷综合在线观看丁香| 香蕉久久国产超碰青草| 国产成人精彩在线视频50| 国产真实乱子伦精品视手机观看| 无码在线激情片| 乱系列中文字幕在线视频| 国产制服丝袜91在线| 亚洲国产成人自拍| 欧美视频在线第一页| 亚洲国产成人久久77| 日日噜噜夜夜狠狠视频| 国产尤物在线播放| 日韩午夜片| 99er精品视频| 91在线播放国产| 日韩欧美中文在线| 久久96热在精品国产高清| 亚洲乱码精品久久久久..| 综合亚洲色图| 色欲不卡无码一区二区| 97超爽成人免费视频在线播放| 色婷婷电影网| 成人精品午夜福利在线播放| 亚洲精品在线影院| 一边摸一边做爽的视频17国产 | 亚洲成人免费看| 精品国产美女福到在线不卡f| 精品国产免费第一区二区三区日韩| 男人天堂亚洲天堂| a级毛片视频免费观看| 国产免费久久精品99re丫丫一| 婷婷六月色| 91精品国产91久无码网站| jizz在线观看| 日日拍夜夜嗷嗷叫国产| 欧美.成人.综合在线| 日韩在线第三页| 大香网伊人久久综合网2020| 天天色天天操综合网| 成人噜噜噜视频在线观看| 国产成人啪视频一区二区三区| 色综合久久综合网| 国产精品任我爽爆在线播放6080 | 国产网站免费观看| 国产成人久久综合777777麻豆| 成人综合网址| 欧美人在线一区二区三区| 91亚洲影院| 久久亚洲国产最新网站| 在线99视频| 最新国产网站| 久久精品女人天堂aaa| 欧美啪啪一区| 国产高清无码麻豆精品| 国产精品无码一二三视频| 狠狠做深爱婷婷综合一区| 小说 亚洲 无码 精品| 国产精品香蕉| 国产尤物在线播放|