
















摘 要:針對低信噪比情況下,雷達信號特征提取困難,導致識別準確率較低的問題,提出一種基于改進殘差神經網絡的雷達信號調制識別方法。首先使用時頻分析方法,將時域信號轉化為二維時頻圖像;然后對圖像進行灰度化、高斯濾波、雙線性插值、歸一化等預處理,作為深度學習模型的輸入;最后搭建改進的殘差神經網絡,利用空間和通道重構單元減少特征冗余,提高特征提取精度,從而提高低信噪比下雷達信號識別準確率。仿真實驗結果表明,信噪比為-8 dB時,該方法對12類典型雷達信號的整體識別準確率達到96.67%,具有較好的噪聲魯棒性與抗混淆能力。
關鍵詞: 輻射源信號識別; 時頻分析; 深度學習; 殘差神經網絡
中圖分類號: TN 971 文獻標志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.10.13
Radar signal recognition method based on improved residual neural network
NIE Qianqi, SHA Minghui ZHU Yingshen
(Beijing Institute of Radio Measurement, Beijing 100854, China)
Abstract: In the case of low signal to noise ratio, radar signal feature extraction is difficult, resulting in low recognition accuracy, a radar signal modulation recognition method based on improved residual neural network is proposed. Firstly, the time-frequency analysis method is used to transform the time-domain signal into a two-dimensional time-frequency image. Then, the image is preprocessed by graying, Gaussian filtering, bilinear interpolation, normalization, etc., as the input of the deep learning model. Finally, an improved residual neural network is built, which uses space and channel reconstruction units to reduce feature redundancy and improve feature extraction accuracy, thereby improving radar signal recognition accuracy under low signal to noise ratio. Simulation results show that when the signal to noise ratio is -8 dB, the overall recognition accuracy of the proposed method for 12 typical radar signals reaches 96.67%, which has good noise robustness and anti-confusion ability.
Keywords: emitter signal recognition; time-frequency analysis; deep learning; residual neural network
0 引 言
隨著雷達技術不斷發展,雷達信號的調制形式復雜多變,產生了多種復雜調制類型的雷達信號。對雷達信號的識別是電子戰的基礎,也是當前亟需解決的重點問題。傳統的基于脈沖描述字的雷達信號識別方法已不再適用于戰場需求,更多的學者開始挖掘雷達信號的脈內特征,包括時域[1]、頻域[24]、時頻域[58]、譜分析[9]、高階統計量[1012]等,提取特征后,用支持向量機(support vector machine, SVM)等機器學習方法進行分類。但該方法依賴研究人員的專業知識與經驗,面對復雜電磁環境中存在大量的干擾與噪聲,對低信噪比(signal to noise ratio, SNR)環境下的各種復雜調制信號識別效果降低,準確率難以得到保證。近幾年,深度學習在機器視覺、自然語言處理等領域得到廣泛應用[1315],其以數據為驅動,能夠自動提取隱含在數據中的深層特征并進行分類。而雷達信號本質上為一維序列數據,通過時頻分析方法可將其轉化為圖像,這啟發國內外學者將深度學習應用于雷達信號識別中。
目前,常用短時傅里葉變換(short time Fourier transform, STFT)、Choi-Williams分布(Choi-Williams distribution, CWD)、Wigner-Ville分布(Wigner-Ville distribution, WVD)將信號轉化為時頻圖像(time-frequency image, TFI),再使用深度神經網絡自動提取TFI中的深層特征,對雷達信號進行識別。文獻[16]用小波變換對高維信號進行降維,然后使用深度信念網絡提取非線性信號的非線性特征,最后用反向傳播神經網絡進行分類。文獻[17]使用STFT得到信號時頻圖,使用均值濾波對圖像進行預處理,再用提出的堆疊卷積降噪自編碼器進行信號波形識別。文獻[18]使用平滑偽WVD(smooth pseudo WVD, SPWVD)抑制交叉項,再使用三重損失函數的卷積神經網絡(convolutional neural network, CNN)對信號調制類型進行識別。文獻[1925]使用CWD得到TFI,使用不同的深度神經網絡進行信號識別。文獻[26]利用CWD和SPWVD變換得到TFI,對圖像預處理后,構建兩個深層CNN分別提取圖像中的特征,然后進行特征融合,最后用多softmax進行信號的分類識別。文獻[27]將CWD得到的TFI輸入雙通道CNN中進行特征提取,分別提取方向梯度直方圖(histogram of oriented gradients, HOG)和深度特征,然后將提取的特征用多層感知網絡進行融合,輸入到分類器中進行識別。文獻[28]用CWD得到TFI,用Inception_v4主干作為特征提取器,用特征解糾纏器提取純雷達特征和噪聲特征,并用損失函數監督純雷達特征與噪聲特征的提取過程,最后使用調制識別器自動提取判別特征,對雷達信號調制格式分類。上述文獻均未考慮深度神經網絡在提取特征時的冗余性,網絡的參數量較大,且網絡在低SNR下提取的特征不夠精細,影響最終的識別準確率。
針對上述問題,本文使用殘差神經網絡(residual neural network, ResNet)對包括線性調頻(linear frequency modulation, LFM)、非LFM(non-LFM, NLFM)在內的12種典型雷達信號進行識別。首先對雷達信號進行時頻分析與圖像預處理,然后考慮到網絡中的特征冗余,從空間和通道兩個角度分別引入空間重構單元(spatial reconstruction unit, SRU)和通道重構單元(channel reconstruction unit, CRU),將兩個單元順序組合構成卷積塊,代替ResNet中的標準卷積[29],構建空間與通道重構ResNet模型,減少網絡提取的冗余特征,解決網絡在低SNR下特征提取不夠精細的問題,提高識別準確率。本文方法主要步驟包括雷達信號預處理、特征提取以及分類識別。
1 雷達信號預處理
1.1 雷達信號模型
偵察接收機截獲的雷達信號一般可表示為
s(t)=Aexp(j(2πf(t)·t+φ(t)))+n(t)(1)
式中:A為信號幅度;0≤t≤T,其中T為脈沖寬度;f(t)和φ(t)表示信號頻率函數和相位函數,對應信號的不同調制類型;n(t)為加性高斯白噪聲。
1.2 時頻分析
時頻分析可以反映不同調制類型的雷達信號的本質特征,利用時頻分析能夠獲取調制信息,對雷達信號進行識別。相比于STFT與WVD,CWD時頻分析方法對信號保留較高分辨力的同時抑制了交叉項,具有一定的抗噪性,因此本文采用CWD對典型雷達信號進行時頻變換,得到信號的TFI:
CWD(t,ω)=∫∫14πτ2/σexp-(t-μ)24τ2/σ·
st+τ2st-τ2e-jωτdμdτ(2)
式中:t,ω分別表示時間和角頻率;σgt;0為縮放因子,本文選取σ=1平衡時頻分辨率和交叉項抑制的矛盾,提高最終識別的準確率。取SNR=8 dB,得到12類典型雷達信號,包括LFM、NLFM、二進制相移鍵控(binary phase shift keying, BPSK)、四進制相移鍵控(quadrature phase shift keying, QPSK)、多相碼(P1~P4)、Costas編碼頻率捷變、頻率相位復合編碼(LFM-BPSK、LFM-FSK、FSK-PSK)的CWD時頻圖如圖1所示。可以看出,各種雷達信號的CWD TFI在高SNR下具有較好的可分辨性。在低SNR下,LFM與NLFM,P1、P3與P4時頻結構被噪聲破壞,易產生混淆。
1.3 圖像預處理
通過CWD得到的TFI維數太大,直接作為網絡輸入容易導致網絡計算時間長,開銷大,需要對TFI進行預處理。首先將TFI灰度化,然后使用高斯濾波對圖像進行降噪處理,再利用雙線性插值法裁剪圖片尺寸,將圖像尺寸調整為機器視覺常用的224×224大小,再對圖像進行歸一化處理,最后將圖像轉化為張量形式作為網絡的輸入。
2 特征提取及分類識別
2.1 殘差單元結構
隨著神經網絡的層數增加,理論上網絡能夠進行更復雜的特征提取,取得更好的結果。但實驗中卻發現,隨著網絡深度的增加,準確率反而下降,存在“模型退化”現象,為解決該問題,He等人提出了ResNet[30]。圖3展示了殘差基本單元結構,輸入到輸出由一條短連接表示輸入x的恒等映射,H(x)為期望擬合的結構,F(x)=H(x)-x為殘差映射函數。
2.2 SRU
SRU主要包含兩個部分,分離和重構,通過分離操作將空間內容中信息豐富的特征圖與信息較少的特征圖分開,再使用重構操作,將信息豐富的特征與信息較少的特征用交叉重構運算相加,加強信息流,得到空間精細特征。具體而言,SRU包含以下幾個步驟。
輸入特征標準化,用組歸一化(group normalization, GN),利用輸入特征的均值和方差對輸入進行標準化,得到:
XGN=γX-μσ2+ε+β(3)
式中:γ和β為可訓練的參數;μ和σ分別表示輸入特征的均值和標準差;ε為保證除法穩定性的較小的正常數。每個通道都有一個γ,不同的大小代表不同通道的空間信息豐富程度。然后,進行歸一化得到每個通道的權重:
wi=γi∑Cj=1γj,i,j=1,2,…,C(4)
將權重與GN層的特征相乘,再經過Sigmoid函數映射到(0,1)范圍,用閾值進行門控,將大于閾值的權重設為1,小于閾值的權重設為0,分別得到信息權重W1和非信息權重W2。然后,將輸入特征分別乘以兩個權重,從而將輸入分為兩部分——具有豐富空間信息的XW1和具有較少空間信息的XW2。
最后,使用重構操作將信息豐富的特征與信息較少的特征相加,生成信息更豐富的特征。方法是進行交叉重構,將含有不同信息量的特征充分結合,加強信息流,然后將交叉重構的特征進行拼接,得到空間精細特征。
SRU結構如圖4所示。
2.3 CRU
CRU采用分裂變換融合策略,減少通道維度冗余,減小計算成本和存儲空間。具體地,CRU包含以下幾個步驟。
通道分割,將空間精細化特征以α為分割比例,分為兩個通道,再用1×1卷積壓縮特征的通道數,提高計算效率,本次實驗取壓縮比r為2。經過分割和壓縮,將空間精細化特征劃分為上部分Xup和下部分Xlow。
通道轉換,將Xup作為“富特征提取器”,用組卷積(group-wise convolution, GWC)和點卷積(point-wise convolution, PWC)代替標準卷積提取特征,降低計算成本,將GWC和PWC卷積結果合并相加,得到上部分輸出結果Y1。下部分使用PWC卷積,然后重用Xlow,與PWC卷積結果進行拼接得到下部分輸出結果Y2。
通道融合,將上部分輸出與下部分輸出進行全局平均池化(global average pooling, GAP),之后使用Softmax函數計算得到兩個特征重要性向量β1和β2,將上部分輸出與下部分輸出乘以兩個向量,最后按通道相加得到最終的通道精細化特征。
CRU結構如圖5所示。
2.4 空間與通道重構ResNet模型結構
使用時,將SRU與CRU順序組合,嵌入在殘差模塊中,得到空間與通道重構殘差網絡(spatial and channel reconstruction residual network, SCConv-ResNet)具體結構如圖6所示。
本文的SCConv-ResNet模型具體結構如圖7所示,主干網絡與ResNet相同,包含Conv1、Conv2_x、Conv3_x、Conv4_x、Conv5_x、GAP、全連接(fully connected, FC)層,最終FC輸出類別數目為12,對應12類典型雷達信號。使用SCConv模塊替代Conv2_x內的標準卷積。
3 實驗結果分析
3.1 實驗參數設置
本文對12類典型雷達信號進行識別,仿真信號脈寬均設置為2 μs,采樣率fs為500 MHz,每類信號的具體參數如表1所示。
SNR范圍為-10~8 dB,步長為2 dB,每類信號在每個SNR下按照參數隨機生成300個脈沖樣本,共36 000個樣本,然后使用CWD生成TFI,經過預處理后,按照7∶3的比例分為訓練集與驗證集,使用SCConv-ResNet18網絡進行離線訓練。每類信號在每個SNR下生成200個脈沖樣本組成測試集,用訓練好的模型進行測試,重復50次識別實驗。
本文所用網絡基于Pytorch實現,優化器選擇隨機梯度下降(stochastic gradient descent, SGD),批大小batch_size設置為64,迭代次數epoch設置為100,初始學習率為0.001,采用學習率自適應調整策略—當驗證集損失連續3個epoch不降低時,調整學習率為原來的0.1倍,采用早停技術,當驗證集損失減少的值大于閾值0.000 1時,更新驗證集損失值,當驗證集損失連續7個epoch減少的值小于閾值0.000 1時,停止訓練,保存模型參數。
3.2 不同網絡模型識別效果對比
為驗證所提方法有效性,兼顧識別效率與準確率,本節在ResNet18基礎上,添加SRU與CRU模塊,得到SCConv-ResNet18,并將其對比圖像識別領域幾種深度CNN模型:GoogleNet、視覺幾何小組(visual geometry group, VGG)網絡、壓縮激勵網絡(squeeze and excitation networks, SENet)、下一代殘差神經網絡(residual networks with next generation, ResNeXt)。
所有網絡具有相同的卷積層、池化層、批歸一化層,優化器等訓練參數設置相同,采用相同的學習率調整策略和早停技術,實驗結果如圖8所示。
為直觀感受不同方法的識別性能,從測試集中選取-8 dB下的樣本,采用t分布隨機近鄰嵌入(t-stochastic neighbor embedding, t-SNE)將不同方法提取特征進行降維,投影到二維平面上,得到特征分布如圖9所示。
可以看出,當SNR為-8 dB時,對于所有網絡模型,P1與P4兩類信號特征的類間分離度較差,原因在于低SNR下,兩類信號TFI的特征結構被噪聲淹沒,易產生混淆。整體而言,ResNeXt50和SCConv-ResNet18所提取特征的類間分離度和類內聚合度更好,識別準確率更高。接下來,對不同網絡模型的復雜度進行分析,空間復雜度用網絡模型的參數量表示,時間復雜度由一輪epoch迭代的平均時間表示,具體如表2所示。
由此可以看出,SCConv-ResNet18相比于ResNeXt50具有更小的空間復雜度與時間復雜度,相比于另外3種網絡具有更好的識別準確率,因此SCConv-ResNet18能夠更好地平衡識別的效率和準確率。
3.3 不同方法識別效果對比
本節使用SCConv-ResNet18與另外使用CWD TFI進行信號識別的方法進行對比,文獻[19]將CWD TFI直接裁剪后,使用改進的AlexNet進行識別,文獻[20]和文獻[21]將CWD TFI灰度化、開運算、裁剪處理后,分別使用ResNet與擴張殘差網絡(dilated residual network, DRN)進行識別,對比實驗結果如圖10所示。
可以看出,當SNR大于-2 dB時,所有方法的識別準確率均超過98%。隨著SNR降低,所有方法的識別準確率有不同程度的下降。當SNR=-8 dB時,本文所提SCConv-ResNet18方法的識別準確率為96.67%,相比于文獻[1921]的方法分別高出2.71%、4.04%、0.88%。文獻[19]由于未進行圖像的濾波處理,且網絡結構較為簡單,特征提取能力不足,導致低SNR下識別準確率較低;文獻[20]使用的ResNet存在特征冗余,低SNR下特征提取不夠精細,影響識別準確率;文獻[21]使用DRN的擴張結構提高了網絡特征提取的能力,但仍存在特征冗余。本文所提方法在低SNR下能夠提取更精細的特征,減少特征冗余,具有更好的噪聲魯棒性。
接下來同樣從測試集中選取-8 dB下的樣本,采用t-SNE將不同方法提取特征進行降維,投影到二維平面上,得到結果如圖11所示。
可以看出,當SNR為-8 dB時,P1與P4兩類信號的TFI由于被噪聲淹沒,時頻結構被破壞,導致兩類信號特征的類間分離度較低,易產生混淆。整體而言,DRN與SCConv-ResNet18所提取特征的類間分離度和類內聚合度更好,識別準確率更高。接下來,同樣對不同方法的網絡模型的復雜度進行分析,具體如表3所示。
可以看出,SCConv-ResNet18由于添加了SRU與CRU兩個模塊進行運算,時間復雜度高于AlexNet和DRN,但相比于另外3種方法的網絡模型具有更好的識別準確率,更小的空間復雜度,證明了本文所提方法的有效性。
圖12為SNR=-8 dB時,SCConv-ResNet18識別結果的混淆矩陣。由圖12可知,對12類典型雷達信號的識別準確率均在81%以上。識別準確率較低的信號為P1與P4兩類信號,原因在于-8 dB的SNR下,P1與P4的TFI時頻結構被破壞,導致混淆。整體而言,SCConv-ResNet18具有較好的抗混淆能力。
4 結 論
本文提出一種基于空間和CRU的改進ResNet的雷達信號識別方法。首先使用CWD變換獲取信號時頻圖,將圖像經過預處理后,使用改進的SCConv-ResNet進行特征提取,利用SRU和CRU減少網絡提取特征冗余,增強低SNR下網絡特征提取能力,提高識別準確率。實驗結果表明,當SNR為-8 dB時,該方法對12類典型雷達信號的整體識別準確率可達96.67%,對所有信號的識別準確率大于81%,具有較好的噪聲魯棒性與抗混淆能力。
參考文獻
[1] 張國柱, 黃可生, 姜文利, 等. 基于信號包絡的輻射源細微特征提取方法[J]. 系統工程與電子技術, 2006, 28(6): 795797.
ZHANG G Z, HUANG K S, JIANG W L, et al. Emitter feature extract method based on signal envelope[J]. Systems Engineering and Electronics, 2006, 28(6): 795797.
[2] YILDIRIM A. Method for estimating the central frequency of phase-coded radar signals[J]. IET Signal Processing, 2016, 10(9): 10731081.
[3] 王國濤, 姜秋喜, 劉方正, 等. 基于頻譜和瞬時自相關的雷達信號調制識別[J]. 兵器裝備工程學報, 202 43(1): 200205.
WANG G T, JIANG Q X, LIU F Z, et al. Radar signal modulation recognition based on spectrum and instaneous autocorrelation[J]. Journal of Ordnance Equipment Engineering, 202 43(1): 200205.
[4] AMIN V S, ZHANG Y D, HIMED B. Improved instaneous frequency estimation of multi-component FM signals[C]∥Proc.of the IEEE Radar Conference, 2019.
[5] ZHANG M, LIU L T, DIAO M. LPI radar waveform recognition based on time-frequency distribution[J]. Sensors, 2016, 16(10):
1682.
[6] HELBERT S, KERISTA S, SYAHRUL H, et al. Time frequency signal classification using continuous wavelet transformation[J]. IOP Conference Series Materials Science and Engineering, 2020, 851(1): 1204512051.
[7] QU Q Z, WANG Y L, DU Q L. Automatic modulation recognition for radar signals based on ACSE networks[C]∥Proc.of the CIE International Conference on Radar, 2021: 11041107.
[8] WANG G M, CHEN S W, HU X, et al. Radar emitter sorting and recognition based on time-frequency image union feature[C]∥Proc.of the IEEE 4th International Conference on Signal and Image Processing, 2019: 165170.
[9] HAN L H, HUANG G M. Intrapulse modulation recognition of radar signals based on spectrum analysis[J]. Electronic Information Warfare Technology, 201 26(3): 2932.
[10] 孟祥豪, 趙海旭, 梁言. 一種基于對角積分雙譜的復合調制 LPI 雷達信號識別方法[J]. 航天電子對抗, 202 37(5): 1318, 24.
MENG X H, ZHAO H X, LIANG Y. A compound modulated LPI radar signal recognition method based on diagonal integral bispectrum[J]. Aerospace Electronic Warfare, 202 37(5): 1318, 24.
[11] 劉贏, 田潤瀾, 王曉峰. 基于深層卷積神經網絡和雙譜特征的雷達信號識別方法[J]. 系統工程與電子技術, 2019, 41(9): 19982005.
LIU Y, TIAN R L, WANG X F. Radar signal recognition method based on deep convolutional neural network and bispectrum feature[J]. Systems Engineering and Electronics, 2019, 41(9): 19982005.
[12] MI X P, CHEN X H, LIU Q, et al. Radar signals modulation recognition based on bispectrum feature processing[J]. Journal of Physics: Conference Series, 202 1971(1): 1209912110.
[13] YUAN X Y, HE P, ZHU Q L, et al. Adversarial examples: attacks and defenses for deep learning[J]. IEEE Trans.on Neural Networks and Learning Systems, 2019, 30(9): 28052824.
[14] O’SHEA T J, ROY T, CLANCY T C. Over-the-air deep learning based radio signal classification[J]. IEEE Journal of Selected Topics in Signal Processing, 2018, 12(1): 168179.
[15] XU Z Y. Research on deep learning in natural language processing[J]. Advances in Computer and Communication, 2023, 4(3): 196200.
[16] HU K J, LI H Y, XU S F, et al. Nonlinear signal classification based on wavelet transform and deep belief network[J]. Journal of Physics: Conference Series, 202 1948(1): 1202912034.
[17] ZHOU Z W, HUANG G M, CHEN H Y, et al. Automatic radar waveform recognition based on deep convolutional denoising auto-encoders[J]. Circuits, Systems, and Signal Processing, 2018, 37(9): 40434048.
[18] LIU L T, LI X Y. Radar signal recognition based on triplet convolutional neural network[J]. EURASIP Journal on Advances in Signal Processing, 2021: 112.
[19] 楊潔, 張歡. 基于改進型AlexNet的LPI雷達信號識別[J]. 現代電子技術, 2020, 43(5): 5760.
YANG J, ZHANG H. LPI radar signal recognition based on improved AlexNet[J]. Modern Electronics Technique, 2020, 43(5): 5760.
[20] QIN X, ZHA X, HUANG J, et al. Radar waveform recognition based on deep residual network[C]∥Proc.of the IEEE 8th Joint International Information Technology and Artificial Intelligence Conference, 2019: 892896.
[21] 秦鑫, 黃潔, 查雄, 等. 基于擴張殘差網絡的雷達輻射源信號識別[J]. 電子學報, 2020, 48(3): 456462.
QIN X, HUANG J, ZHA X, et al. Radar emitter signal recognition based on dilated residual network[J]. Acta Electronica Sinica, 2020, 48(3): 456462.
[22] QU Z Y, MAO X J, DENG Z A. Radar signal intra-pulse mo-dulation recognition based on convolutional neural network[J]. IEEE Access, 2018, 6: 4387443884.
[23] HUANG D K, YAN X P, HAO X H, et al. Low SNR multi-emitter signal sorting and recognition method based on low-order cyclic statistics CWD time-frequency images and the YOLOv5 deep learning model[J]. Sensors, 202 22(20): 77837805.
[24] 肖易寒, 王亮, 郭玉霞. 基于去噪卷積神經網絡的雷達信號調制類型識別[J]. 電子與信息學報, 202 43(8): 23002307.
XIAO Y H, WANG L, GUO Y X. Radar signal modulation type recognition based on denoising convolutional neural network[J]. Journal of Electronics and Information Technology, 202 43(8): 23002307.
[25] LI J, ZHANG H Q, OU J P, et al. A radar signal recognition approach via IIF-Net deep learning models[J]. Computational Intelligence and Neuroscience, 2020: 8858588.
[26] SI W J, WAN C X, DENG Z A. An efficient deep convolutional neural network with features fusion for radar signal recognition[J]. Multimedia Tools and Applications, 2023, 82: 28712885.
[27] QUAN D Y, TANG Z Y, WANG X F, et al. LPI radar signal recognition based on dual-channel CNN and feature fusion[J]. Symmetry, 202 14(3): 570582.
[28] ZHANG X L, ZHANG J Z, LUO T Z, et al. Radar signal intrapulse modulation recognition based on a denoising-guided disentangled network[J]. Remote Sensing, 202 14(5): 12521266.
[29] LI J F, WEN Y, HE L H. SCConv: spatial and channel reconstruction convolution for feature redundancy[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023: 61536162.
[30] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770778.
作者簡介
聶千祁(1997—),男,碩士研究生,主要研究方向為電子對抗。
沙明輝(1986—),男,研究員,博士,主要研究方向為電子對抗、雷達抗干擾技術。
朱應申(1985—),男,高級工程師,碩士,主要研究方向為電子對抗、技術偵察。