999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于奇異譜分析和改進(jìn)ResNet的射頻指紋識別方法

2024-09-12 00:00:00凌浩然朱豐超姚敏立
現(xiàn)代電子技術(shù) 2024年5期

摘" 要: 針對當(dāng)前真實場景下遠(yuǎn)距離射頻指紋識別難以準(zhǔn)確提取特征且實時性較差的問題,提出一種基于奇異譜分析重構(gòu)信號和改進(jìn)殘差神經(jīng)網(wǎng)絡(luò)的射頻指紋識別的方法。首先,將采集到的信號進(jìn)行奇異譜分析,根據(jù)貢獻(xiàn)率大小對原始信號進(jìn)行重構(gòu),隨后通過STFT獲得時頻譜圖作為神經(jīng)網(wǎng)絡(luò)的輸入:其次,構(gòu)建輕量級殘差神經(jīng)網(wǎng)絡(luò),加快模型收斂速度;然后,在輕量級網(wǎng)絡(luò)的下采樣過程中引入混合維度注意力機(jī)制,對網(wǎng)絡(luò)中間的特征圖進(jìn)行重構(gòu),強(qiáng)調(diào)重要特征,抑制一般特征;最后,使用激活函數(shù)Leaky ReLU替換原有的ReLU,避免在負(fù)值區(qū)域的梯度永遠(yuǎn)為0,進(jìn)而導(dǎo)致模型訓(xùn)練無法反向傳播。使用公開數(shù)據(jù)集POWDER?4BS?Iqsample驗證實驗后的結(jié)果表明,所提方法僅需要訓(xùn)練10個epoch識別精度就能達(dá)到87%,在保證識別精度的前提下縮減了時間損耗。與多種經(jīng)典模型和算法相比,所提方法更加兼具識別精度與實時性。

關(guān)鍵詞: 射頻指紋識別; 奇異譜分析; 信號重構(gòu); 殘差神經(jīng)網(wǎng)絡(luò); 注意力機(jī)制; 激活函數(shù)

中圖分類號: TN911.7?34" " " " " " " " " " " " "文獻(xiàn)標(biāo)識碼: A" " " " " " " " " " " " 文章編號: 1004?373X(2024)05?0102?06

RF fingerprint identification method based on singular spectrum

analysis and improved ResNet

LING Haoran, ZHU Fengchao, YAO Minli

(Rocket Force University of Engineering, Xi’an 710025, China)

Abstract: In view of the difficulty in accurately extracting features and poor real?time performance in remote RF fingerprint identification in current real scenarios, a method for RF fingerprint identification based on singular spectrum analysis (SSA) and improved deep residual network (ResNet) is proposed. The collected signal is subjected to SSA, and the original signal is reconstructed based on its contribution rate. Then, the time?frequency spectrum is obtained with STFT and is taken as the input of the neural network. A lightweight ResNet is constructed to accelerate the convergence speed of the model. Then, in the downsampling process of lightweight networks, a mixed dimension attention mechanism is introduced to reconstruct the feature map in the middle of the network, which emphasizes important features and suppresses general features. The activation function Leaky ReLU is used to replace the ReLU, so as to avoid the constant zero gradient in the negative value region, which will further result in impossible backpropagation of model training. The results of the validation experiment on the public dataset POWDER?4BS?Iqsample show that the proposed method only requires training 10 epochs to achieve recognition accuracy of 87%, which reduces time loss while ensuring recognition accuracy. In comparison with various classic models and algorithms, the proposed method has both recognition accuracy and real?time performance.

Keywords: RF fingerprint identification; SSA; signal reconstruction; ResNet; attention mechanism; activation function

0" 引" 言

射頻指紋是每個設(shè)備中由于各種電子元器件參數(shù)差異使得輻射的電磁信號帶有的特有硬件特征,其如人的指紋一般是獨一無二的,因此,可以通過提取射頻指紋特征來識別高度相似的無線通信設(shè)備個體。近年來,隨著各種用途的無線終端增長迅速,無線網(wǎng)絡(luò)極易遭受非法接入,造成人們的財產(chǎn)和精神損失甚至危害公共安全,射頻指紋識別也成為重要的研究熱點之一。

傳統(tǒng)的射頻指紋識別方法主要通過接收瞬態(tài)射頻信號或穩(wěn)態(tài)射頻信號,在時域或變換域提取信號的物理參數(shù)特征及統(tǒng)計特征,再利用分類器實現(xiàn)輻射源個體的識別。文獻(xiàn)[1]提取信號的圍線積分雙譜值并使用支持向量機(jī)(Support Vector Machine, SVM)分類器進(jìn)行識別。文獻(xiàn)[2]提出使用功率譜密度指紋特征與智能分類器的識別方法。文獻(xiàn)[3]通過優(yōu)化后的星座圖提取射頻(Radio Frequency, RF)指紋,再通過二維識別算法進(jìn)行識別。文獻(xiàn)[4]利用時域射頻獨特的原生屬性提取功率放大器的射頻指紋。文獻(xiàn)[5]提出一種利用瞬態(tài)信號特征并使用加權(quán)鄰近算法(K?Nearest Neighbor, KNN)優(yōu)化算法進(jìn)行識別。文獻(xiàn)[6]利用短時傅里葉變換并采用KNN算法進(jìn)行分類識別。文獻(xiàn)[7]提出用循環(huán)奇異譜進(jìn)行信號重構(gòu)并使用SVM實現(xiàn)射頻指紋識別。但非常遺憾的是,在提取射頻指紋特征時,這些基于傳統(tǒng)特征工程的識別方法嚴(yán)重依賴基于經(jīng)驗設(shè)計的射頻指紋特征以及信號的先驗知識,結(jié)果缺乏普適性,且實時性較差,無法滿足目前的現(xiàn)實需要。

受益于近年來計算機(jī)深度學(xué)習(xí)取得的巨大突破。作為深度學(xué)習(xí)領(lǐng)域最為經(jīng)典的網(wǎng)絡(luò)模型之一的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN),其主要優(yōu)點是能夠共享卷積核,對多維數(shù)據(jù)計算速度快,具有良好的特征抽取和分類識別效果,使得其最早被應(yīng)用于射頻指紋識別領(lǐng)域[8]。由于CNN在處理圖像數(shù)據(jù)中優(yōu)勢明顯,人們主要針對數(shù)據(jù)輸入進(jìn)行不斷創(chuàng)新,包括對基帶信號進(jìn)行差分處理后映射為差分星座圖[9],雙譜估計后壓縮雙譜[10],Welch功率譜[11],融合功率譜、基于短時傅里葉變換的時頻譜、互功率譜三種信號特征[12],文獻(xiàn)[13]利用星座圖和CNN實現(xiàn)了動態(tài)信噪比下的射頻指紋識別。文獻(xiàn)[14]將原始信號轉(zhuǎn)換成頻譜瀑布圖輸入到圖像識別模型中進(jìn)行識別。

此外,殘差神經(jīng)網(wǎng)絡(luò)(Deep Residual Network, ResNet)由于其參數(shù)數(shù)量與計算量較小、訓(xùn)練速度較快,一直是進(jìn)行此任務(wù)的最優(yōu)網(wǎng)絡(luò)之一。對抗神經(jīng)網(wǎng)絡(luò)[15]、元學(xué)習(xí)[16]、聯(lián)邦學(xué)習(xí)[17]、孿生神經(jīng)網(wǎng)絡(luò)[18]等方法也逐漸被應(yīng)用在射頻指紋識別中。但遠(yuǎn)距離真實場景下的射頻信號帶有大量噪聲致使特征提取困難的問題始終制約著分類識別的精度,且現(xiàn)有成熟的深度學(xué)習(xí)模型計算量大、訓(xùn)練收斂較慢,很難滿足射頻指紋識別的實時性要求。

對此,本文提出一種基于奇異譜分析重構(gòu)信號和改進(jìn)ResNet的方法。首先,將原始射頻信號進(jìn)行奇異譜分析,根據(jù)貢獻(xiàn)率大小對信號進(jìn)行重構(gòu),一定程度上消除噪聲對于特征信號的干擾,隨后通過短時傅里葉變換轉(zhuǎn)為時頻譜圖制成數(shù)據(jù)集,同時對ResNet18模型進(jìn)行輕量化處理,加快了網(wǎng)絡(luò)的收斂速度;然后引入了混合維度注意力機(jī)制,對網(wǎng)絡(luò)中的特征圖進(jìn)行重構(gòu);最后,使用激活函數(shù)Leaky ReLU(Leaky Rectified Linear Unit, Leaky ReLU)取代原網(wǎng)絡(luò)中的激活函數(shù)ReLU(Rectified Linear Unit, ReLU),避免了對于小于0的值梯度永遠(yuǎn)為0,造成較多神經(jīng)元“死”掉的問題。實驗結(jié)果表明,通過上述改進(jìn)措施可以在保證識別精度的前提下加快模型訓(xùn)練速度,兼具識別精度與實時性,驗證了本文方法的優(yōu)越性。

1" ResNet概述

理論認(rèn)為加大網(wǎng)絡(luò)模型的深度可以提高數(shù)據(jù)擬合能力,但實踐證明網(wǎng)絡(luò)隨著深度的增加,精度達(dá)到飽和后出現(xiàn)下降。這使得傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在達(dá)到一定深度后無法通過增加網(wǎng)絡(luò)層數(shù)來優(yōu)化性能。本文采用殘差神經(jīng)網(wǎng)絡(luò)作為射頻指紋特征提取網(wǎng)絡(luò),其增加網(wǎng)絡(luò)層數(shù)的具體操作方法是將恒等映射層疊加在淺層網(wǎng)絡(luò)上構(gòu)建出殘差學(xué)習(xí)單元。殘差單元(Residual block)結(jié)構(gòu)如圖1所示,通過學(xué)習(xí)殘差將部分原始輸入的特征信息經(jīng)過映射后直接輸入下一層,一定程度上減少了卷積層在信息傳遞時造成的特征丟失。實踐證明,該網(wǎng)絡(luò)不僅可以通過增加相當(dāng)?shù)纳疃葋硖岣邷?zhǔn)確率,而且內(nèi)部殘差塊的跳躍連接很大程度緩解了僅通過簡單增加層數(shù)造成的梯度消失問題。

設(shè)輸入為[x]時學(xué)習(xí)的特征為[H(x)],[F(x)=H(x)-x]為網(wǎng)絡(luò)學(xué)習(xí)殘差,則殘差單元可以表示為:

[yi=xi+F(xi,Wi)] (1)

[xi+1=f(yi)] (2)

式中:[xi]與[yi]分別表示第[l]層的輸入和輸出;[Wi]為權(quán)重矩陣;[f(·)]表示ReLU激活函數(shù)。對于[L]層殘差單元,從淺層到深層的學(xué)習(xí)特征公式為:

[xL=xl+i=lL-1Fxi,Wi] (3)

ResNet18的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。不算初始的7[×]7卷積層和3[×]3 max pooling層,整個網(wǎng)絡(luò)模型主要由4個Layer組成,每個Layer又由2個殘差塊(Residual block)疊加而成。在最后的網(wǎng)絡(luò)輸出層并未連接全連接層而是通過Average Pool與Linear層相結(jié)合得到最終特征并映射到具體類別。

2" 基于SSA和LscSE?ResNet的射頻指紋識別方法

2.1" 基于奇異譜分析的信號重構(gòu)

SSA(Singular Spectrum Analysis)方法最早在海洋學(xué)研究中被提出并使用,由于它在信號降噪與重構(gòu)方面具有巨大優(yōu)勢,自問世以來廣泛應(yīng)用于非線性時間序列的預(yù)測與信號降噪中。其本質(zhì)是采用奇異值分解對序列進(jìn)行處理分析,將原始序列中的大量信息分解到各子序列中,從而有效地對信號進(jìn)行重構(gòu)。由于真實場景下采集的射頻信號中帶有大量隨機(jī)噪聲,因此本文首先通過SSA算法對信號進(jìn)行重構(gòu),方便后續(xù)的特征提取。其具體流程如下:

真實場景下采集到的射頻信號一維序列可表示為:

[Xi=X1,X2,…,Xn] (4)

將之轉(zhuǎn)化為[K×N]階的軌跡矩陣:

[XMK=[X1,X2,…,XK]=X1X2…XN-M+1X2X3…XN-M+2????XMXM+1…XN] (5)

式中[K=N-M+1],根據(jù)軌跡矩陣構(gòu)造矩陣[S=XMKXTMK],對它進(jìn)行特征值分析,獲得[S]的特征值[λ1],[λ2],…,[λM]以及對應(yīng)的特征向量[U1],[U2],…,[UM]。通過SVD的方法將軌跡矩陣[XMK]進(jìn)行變換:

[XMK=X1+…+Xi+…+Xd] (6)

式中:[d=maxi(λigt;0)]為[X]的秩;[Xi=λiUiVTi]表示初等矩陣,[Ui]和[Vi]表示[S]的左特征向量和右特征向量,[λi]表示軌跡矩陣的奇異譜。

初等矩陣的維度和軌跡矩陣的維度一樣,因此可以重構(gòu)出[d]個一維矩陣,表示原始一維序列的趨勢項、周期項、噪聲等信號,較大的特征值對應(yīng)的特征向量代表信號的趨勢,較小的特征值對應(yīng)的特征向量通常認(rèn)為是噪聲,從而實現(xiàn)對有用信號的分離。重構(gòu)原理公式如下:

[yi=1iM=1KXM,i-M+1," " 1≤ilt;M1MM=1LXM,i-M+1," " M≤ilt;K1N-i+1M=i-K+1N-K+1XM,i-M+1," " K≤ilt;N] (7)

將重構(gòu)后的一維信號通過短時傅里葉變換轉(zhuǎn)化成尺寸為64[×]64的時頻譜圖制成最終的數(shù)據(jù)集,這樣可以減少輸入網(wǎng)絡(luò)的數(shù)據(jù)量,減少訓(xùn)練的時間損耗。

2.2" 輕量化殘差神經(jīng)網(wǎng)絡(luò)

本文提出了適用于輸入64[×]64的時頻譜圖分類識別的14個權(quán)重層網(wǎng)絡(luò)模型。模型使用了6個包含兩層卷積層的殘差模塊,通道數(shù)隨著特征圖尺寸的減小而提升。修改后的模型復(fù)雜度明顯降低,其能保持較高識別性能的同時又擁有較少的參數(shù)量。第一個卷積層使用大小為7×7的卷積核,滑動步長為2,然后配合窗口大小為3×3的最大池化,將特征圖尺寸下采樣到16×16。后面連接6個卷積核統(tǒng)一為3×3的殘差模塊,不同殘差模塊的特征圖改變是通過步長為2的卷積層實現(xiàn)的。殘差連接在與模塊輸出相加時需要維度匹配,要進(jìn)行下采樣操作,即在中途使用步長為2的1×1大小的卷積核組成的卷積層做下采樣。其他的卷積層中,卷積核的步長均為1。

整個網(wǎng)絡(luò)的具體參數(shù)如表2所示。

2.3" 融合混合維度注意力機(jī)制

神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制模塊(Squeeze?and?Excitation, SE)已經(jīng)廣泛應(yīng)用于多種場景,尤其是在計算機(jī)視覺領(lǐng)域,它的有效性和實用性已經(jīng)得到廣泛認(rèn)可。

由此衍化出了混合維度注意力機(jī)制(Concurrent Spatial and Channel Squeeze amp; Excitation, scSE)[19],此模塊由通道注意力模塊(Spatial Squeeze and Channel Excitation Block, cSE)和空間注意力(Channel Squeeze and Spatial Excitation Block, sSE)模塊組成。這兩個子模塊分別關(guān)注了通道信息和空間信息,分別在空間與通道兩個維度先提取權(quán)重信息,再將權(quán)重信息同原始特征圖相乘得到注意力增強(qiáng)效果,最后將兩個維度進(jìn)行信息整合增強(qiáng),將兩者的特征結(jié)果沿著通道維度進(jìn)行相加,具體過程如圖2所示。

在改進(jìn)的網(wǎng)絡(luò)中增加注意力機(jī)制模塊可以抽取特征圖中的重要信息,取得更好的識別效果。

對于ResNet,提取特征的最關(guān)鍵位置是在各個Residual block,在這里網(wǎng)絡(luò)會進(jìn)行下采樣舍棄部分特征。因此,將scSE模塊加入各個Layer之間進(jìn)行注意力重構(gòu),可以承上啟下發(fā)揮此模塊的最大作用,融入了scSE模塊的改進(jìn)模型如圖3所示。

2.4" 激活函數(shù)改進(jìn)

激活函數(shù)在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)與理解復(fù)雜的非線性業(yè)務(wù)邏輯過程中發(fā)揮著非常重要的作用,它們將非線性特性引入到特定的網(wǎng)絡(luò)模型中,使得神經(jīng)網(wǎng)絡(luò)具有擬合非線性情形的能力。

殘差神經(jīng)網(wǎng)絡(luò)ResNet的隱藏層激活函數(shù)默認(rèn)采用線性修正單元函數(shù)ReLU,其數(shù)學(xué)表達(dá)式如公式(8)所示:

[ReLU(x)=0," x≤0x," xgt;0] (8)

ReLU激活函數(shù)曲線見圖4。從圖中可以看出,ReLU函數(shù)比較簡單有效、計算效率高且收斂速度快,但它存在神經(jīng)元壞死的問題,即當(dāng)輸入小于0時,函數(shù)的梯度也變?yōu)?,模型無法進(jìn)行反向傳播,進(jìn)而導(dǎo)致權(quán)重?zé)o法更新,即這部分神經(jīng)元失去作用。

為了解決“Dead ReLU”問題且保持較快的收斂速度,文獻(xiàn)[20]采用Leaky ReLU激活函數(shù)替代原有的ReLU激活函數(shù),如公式(9)所示,它可以給所有負(fù)值賦予一個非零斜率來調(diào)整負(fù)值的零梯度問題,其對應(yīng)的函數(shù)曲線如圖5所示。

[Leaky ReLU(x)=0.01x," x≤0x," xgt;0] (9)

從圖5中可以看出,Leaky ReLU通過把非常小的線性分量給予負(fù)輸入(0.01[x]),這樣既保留了在原有正值區(qū)間內(nèi)ReLU函數(shù)的優(yōu)點,強(qiáng)化了模型的表達(dá)能力,同時又在一定程度上避免了“Dead ReLU”問題。

3" 實驗結(jié)果與分析

3.1" 實驗環(huán)境

實驗環(huán)境的硬件方面,CPU為Intel Xeon Sliver 4210R,內(nèi)存為32 GB,硬盤為512 GB SSD,GPU為GeForce RTX 3090。軟件方面,操作系統(tǒng)為Windows 11,開發(fā)環(huán)境為PyCharm 2022.2,基于Python 3.10與深度學(xué)習(xí)框架Pytorch 1.12.1設(shè)計、開發(fā)、訓(xùn)練和測試。另外,模型與數(shù)據(jù)均加載到GPU并通過CUDA技術(shù)完成運算加速。

3.2" 數(shù)據(jù)集

本文選用POWDER?4BS?IQsample數(shù)據(jù)集(https://repository.library.northeastern.edu),該數(shù)據(jù)集是由4臺相同型號的USRPX310無線電在真實場景下距離接收機(jī)300~1 000 m處發(fā)出不同的波形,包括WiFi(IEEE 802.11ac)、3GPP 4G LTE和5G NR標(biāo)準(zhǔn)兼容幀,分別通過Matlab WLAN、LTE或5G工具箱生成。中央控制器采用B210SDR,可以從周圍的4個發(fā)射機(jī)捕獲傳輸?shù)膸?。對于WiFi,輸入信號以5 MS/s的速度采樣,中心頻率為2.685 GHz;對于LTE和5G NR,采樣速率為7.68 MS/s,中心頻率為2.685 GHz。實驗控制4臺發(fā)射機(jī)在不同的兩天內(nèi)周期性地發(fā)送信號,接收設(shè)備記錄設(shè)備標(biāo)簽及日期并以二進(jìn)制形式存儲數(shù)據(jù),發(fā)送周期為512個IQ數(shù)據(jù)點。

本文主要利用4個發(fā)射機(jī)發(fā)射WiFi信號的數(shù)據(jù)來驗證模型的有效性,將原始信號重構(gòu)后通過STFT生成時頻譜圖,每臺設(shè)備取1 000張圖像作為樣本,并將所有圖片隨機(jī)排序,訓(xùn)練集、測試集隨機(jī)拆分,拆分比例為8∶2。

3.3" 整體流程與訓(xùn)練策略

整體算法流程如圖6所示。

本文選用在工程實踐中運用比較出色的算法Adam來優(yōu)化網(wǎng)絡(luò)模型,它是一種可以替代隨機(jī)梯度下降算法的優(yōu)化算法,能夠基于訓(xùn)練數(shù)據(jù)不斷進(jìn)行迭代并更新神經(jīng)網(wǎng)絡(luò)的模型參數(shù)。

通過多次實驗,當(dāng)Batch_size取32時,僅需要對改進(jìn)網(wǎng)絡(luò)進(jìn)行10輪迭代,精度就可以達(dá)到87%以上,學(xué)習(xí)曲線如圖7所示。模型訓(xùn)練的超參數(shù)配置如表3所示。

3.4" 對比實驗

為了驗證本文方法的有效性與優(yōu)異性,下面與一些經(jīng)典網(wǎng)絡(luò)模型和算法在同一數(shù)據(jù)集上進(jìn)行比較,結(jié)果見表4。

經(jīng)過對比實驗,驗證了本文方法在保證一定精度的前提下,較為明顯地縮短了模型訓(xùn)練時間,證明了所提方法更具有針對性,強(qiáng)化了重要特征,取得了更好的實驗結(jié)果。

3.5" 消融實驗

按照Batch_size大小,按批依次讀入數(shù)據(jù),經(jīng)過10個epoch迭代后,損失函數(shù)接近于0,為了檢驗對網(wǎng)絡(luò)模型改進(jìn)的有效性,設(shè)置消融實驗,各方法結(jié)果見表5。

把ResNet18作為基礎(chǔ)網(wǎng)絡(luò),依次單獨融入scSE、Leaky ReLU時,相比基礎(chǔ)網(wǎng)絡(luò),識別率都有所提升,融入scSE提升較為明顯。通過測試,發(fā)現(xiàn)幾種網(wǎng)絡(luò)的訓(xùn)練時間損耗相差不大,而將措施同時作用于基礎(chǔ)網(wǎng)絡(luò)后,識別率提升較大,改善效果比較明顯,驗證了改進(jìn)網(wǎng)絡(luò)的有效性。

接下來,利用混淆矩陣評估文中模型對真實場景下遠(yuǎn)距離射頻指紋識別各設(shè)備在識別過程中的混淆程度,混淆矩陣的詳細(xì)結(jié)果數(shù)據(jù)如表6所示,數(shù)字0、1、2、3代表4臺同型號發(fā)射機(jī)。

從統(tǒng)計結(jié)果可以看出,改進(jìn)網(wǎng)絡(luò)對于編號2、3兩臺設(shè)備的識別精度較低,分析原因發(fā)現(xiàn)這兩臺設(shè)備距離接收機(jī)較遠(yuǎn)且障礙物較多,影響了信號的采集。從整體來講,改進(jìn)模型對于真實場景下遠(yuǎn)距離射頻指紋識別分類具有較低的混淆效果。

4" 結(jié)" 語

本文基于奇異譜分析和改進(jìn)殘差網(wǎng)絡(luò),提出一種真實場景下遠(yuǎn)距離射頻指紋識別的方法,在保證一定識別精度的前提下有效解決了當(dāng)前對于遠(yuǎn)距離射頻指紋識別耗時較長的問題。實驗結(jié)果表明,只需要將改進(jìn)模型訓(xùn)練10次,對于真實場景下4臺同型號設(shè)備遠(yuǎn)距離射頻指紋識別精度能達(dá)到87%,在同等實驗條件下比經(jīng)典網(wǎng)絡(luò)模型CNN、ResNet18具有更高的識別精度。相較于已有的經(jīng)典方法,改進(jìn)算法更加高效,具有更強(qiáng)的實用性。但目前對于較遠(yuǎn)距離的射頻指紋識別精度仍不夠高,后續(xù)將進(jìn)一步研究更遠(yuǎn)距離、更多設(shè)備背景下的射頻指紋識別,使算法性能更加高效。

注:本文通訊作者為朱豐超。

參考文獻(xiàn)

[1] 賈濟(jì)鋮,齊琳.基于雙譜的射頻指紋提取方法[J].太赫茲科學(xué)與電子信息學(xué)報,2021,19(1):107?111.

[2] 李靖超,應(yīng)雨龍.基于功率譜密度的通信輻射源個體識別方法[J].太赫茲科學(xué)與電子信息學(xué)報,2021,19(4):596?602.

[3] 袁建國,趙富強(qiáng),覃陸禎玥,等.基于星座圖對射頻指紋識別方法的研究[J].半導(dǎo)體光電,2020,41(4):592?597.

[4] 陳翔,郝曉軍,許雄,等.基于時域RF?DNA的功率放大器射頻指紋識別[J].太赫茲科學(xué)與電子信息學(xué)報,2020,18(1):129?135.

[5] 田園,文紅,何先定,等.基于瞬態(tài)信號特征的無人機(jī)數(shù)傳電臺識別研究[J].現(xiàn)代電子技術(shù),2022,45(12):105?109.

[6] 李超群,王金明.基于短時傅里葉變換的無人機(jī)射頻指紋分類識別[J].通信技術(shù),2022,55(9):1202?1207.

[7] BALDINI G. Radio frequency fingerprinting based on circulant singular spectrum analysis [C]// 2022 International Symposium ELMAR. New York: IEEE, 2022: 85?90.

[8] RIYAZ S, SANKHE K, IOANNIDIS S, et al. Deep learning convolutional neural networks for radio identification [J]. IEEE communications magazine, 2018, 56(9): 146?152.

[9] WANG S, PENG L N, FU H, et al. A convolutional neural network?based RF fingerprinting identification scheme for mobile phones [C]// IEEE INFOCOM 2020: IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS). New York: IEEE, 2020: 115?120.

[10] DING L D, WANG S L, WANG F G, et al. Specific emitter identification via convolutional neural networks [J]. IEEE communications letters, 2018, 22(12): 2591?2594.

[11] 王檢,張邦寧,魏國峰,等.基于Welch功率譜和卷積神經(jīng)網(wǎng)絡(luò)的通信輻射源個體識別[J].電訊技術(shù),2021,61(10):1197?1204.

[12] 熊松磊,宋甜鑫,蘇昱瑋,等.基于多特征融合多任務(wù)的射頻指紋識別方法[J].武漢大學(xué)學(xué)報(理學(xué)版),2023,69(5):545?552.

[13] 劉鑫堯,秋勇濤,皇甫雅帆,等.基于星座圖和卷積神經(jīng)網(wǎng)絡(luò)的射頻指紋識別[J].太赫茲科學(xué)與電子信息學(xué)報,2022,20(5):458?463.

[14] LIU D, WANG M J, WANG H. RF fingerprint recognition based on spectrum waterfall diagram [C]// 2021 18th International Computer Conference on Wavelet Active Media Technology and Information Processing. [S.l.: s.n.], 2021: 613?616.

[15] LIU X Y, WANG X D. Real?time indoor localization for smartphones using Tensor?Generative adversarial nets [J]. IEEE transactions on neural networks and learning systems, 2021, 32(8): 3433?3443.

[16] YANG N, ZHANG B N, DING G R, et al. Specific emitter identification with limited samples: A model agnostic meta?learning approach [J]. IEEE communications letters, 2022, 26(2): 345?349.

[17] REUS?MUNS G, CHOWDHURY K R. Classifying UAVs with proprietary waveforms via preamble feature extraction and fe?derated learning [J]. IEEE transactions on vehicular technology, 2021, 70(7): 6279?6290.

[18] MORGE?ROLLET L, LE ROY F, LE JEUNE D, et al. Siamese network on I/Q signal for RF fingerprinting [C]// Conference on Artificial Intelligence for Defense (CAID) 2020. [S.l.: s.n.], 2020: 152?158.

[19] ROY A G, NAVAB N, WACHINGER C, et al. Concurrent spatial and channel ′squeeze amp; excitation′ in fully convolutional networks [C]// International Conference on Medical Image Computing and Computer Assisted Intervention. Heidelberg, Germany: Springer, 2018: 421?429.

[20] 田娟,李英祥,李彤巖.激活函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)中的對比研究[J].計算機(jī)系統(tǒng)應(yīng)用,2018,27(7):43?49.

主站蜘蛛池模板: 97视频精品全国免费观看| 一本一道波多野结衣av黑人在线| 国产精品冒白浆免费视频| 国产日产欧美精品| 国产午夜无码专区喷水| 日本不卡在线视频| 99热这里都是国产精品| 国产黄色视频综合| 国产永久在线视频| 日韩av高清无码一区二区三区| 91精品国产91久无码网站| 又黄又湿又爽的视频| 午夜福利无码一区二区| 国产成人AV男人的天堂| 欧美另类第一页| 久久熟女AV| 欧美国产视频| 日韩性网站| 中文字幕资源站| 刘亦菲一区二区在线观看| 久久91精品牛牛| 亚洲人成在线精品| 日韩欧美国产另类| 四虎永久在线精品国产免费| 欧洲在线免费视频| 天天婬欲婬香婬色婬视频播放| 69视频国产| 国产91无码福利在线| av一区二区三区在线观看 | 亚洲午夜福利在线| 最新痴汉在线无码AV| 国产视频久久久久| 亚洲va视频| 茄子视频毛片免费观看| 国产va在线观看免费| 国产在线自乱拍播放| 九九热精品视频在线| 欧美午夜在线观看| 伊人中文网| 国产视频 第一页| 国产大片喷水在线在线视频| 无码精品国产VA在线观看DVD| 亚洲一区二区三区国产精品 | 日韩欧美网址| 久久女人网| 激情乱人伦| 超碰色了色| 亚洲国产中文精品va在线播放| 精品福利一区二区免费视频| AⅤ色综合久久天堂AV色综合| 国产91无码福利在线| 国产一二三区视频| 亚洲精选无码久久久| 色偷偷一区二区三区| 亚洲成人www| 青草精品视频| 欧美精品一区二区三区中文字幕| 国产AV无码专区亚洲A∨毛片| 久视频免费精品6| 久久精品国产999大香线焦| 国产精品永久久久久| 久久人人妻人人爽人人卡片av| 天堂成人av| 日韩无码黄色| 国产午夜看片| 亚洲欧美人成人让影院| 国内精品小视频在线| 超碰免费91| 欧美日韩国产成人在线观看| 亚洲永久色| 伊人蕉久影院| 五月婷婷欧美| 久久久精品无码一区二区三区| 欧美成人二区| 天天干伊人| 国产日韩AV高潮在线| 91无码人妻精品一区| 国产区免费精品视频| 亚洲系列无码专区偷窥无码| 免费人成黄页在线观看国产| 国产一级特黄aa级特黄裸毛片| 欧美成人精品高清在线下载|