999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于二值神經網絡的輻射源信號識別方法

2024-11-25 00:00:00王慧賦梅明飛齊亮柴恒陶詩飛
系統工程與電子技術 2024年11期

摘要: 針對用于輻射源信號識別的神經網絡存在參數冗余、運算量龐大等問題,提出一種基于二值神經網絡的輻射源信號識別方法。該方法指出利用卷積層效用值衡量神經網絡卷積層的重要性,根據卷積層效用值的大小,將重要的卷積層保留為實值,其余卷積層進行二值化處理。實驗結果表明,在信噪比大于-9 dB時,采用該方法得到的二值神經網絡的信號識別準確率相比于實值卷積神經網絡降低了0.5%,而網絡參數內存大小降低了83.4%,網絡運算次數降低了83.8%,網絡運算復雜度降低了85.8%,易于部署在各種硬件平臺上。

關鍵詞: 輻射源信號識別; 二值神經網絡; 卷積層效用值; 網絡復雜度

中圖分類號: TN 957.51

文獻標志碼: A

DOI:10.12305/j.issn.1001-506X.2024.11.33

Radiation source signal recognition method based on binary neural networks

WANG Huifu1,2, MEI Mingfei1,2, QI Liang2, CHAI Heng3, TAO Shifei1,*

(1. School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, China; 2. Nanhu Laboratory, Jiaxing 314000, China; 3. 723 Research Institute, Shipbuilding Group Limited of China, Yangzhou 225000, China)

Abstract: In response to the issues of parameter redundancy and high computational complexity in neural networks used for radiation source signal recognition, a radiation source signal recognition method based on binary neural network is proposed. The method proposes using the utility value of the convolution layer to measure the importance of the neural network’s convolution layers. Based on the size of the utility value of the convolution layer, important convolution layers are retained as real values, while the remaining convolution layers are binarized. The experimental results show that when the signal-to-noise ratio is greater than -9 dB, the accuracy of signal recognition of the binary neural network obtained using this method is reduced by 0.5% compared to the real-valued convolutional neural network, while the network parameter memory size is reduced by 83.4%, the network computation is reduced by 83.8%, and the network computing complexity is reduced by 85.8%, and it is easy to deploy on various hardware platforms.

Keywords: radiation source signal recognition; binary neural network; convolution layer utility value; network complexity

0 引 言

輻射源信號識別是現代電子戰領域中的關鍵技術之一,能對截獲到的輻射源信號進行分析和識別,為作戰指揮人員提供戰場態勢信息。隨著雷達體制和通信體制不斷升級,電子戰場中的輻射源信號呈現出捷變性和高干擾的特點,電磁頻譜變得愈加繁雜多樣,增加了輻射源信號識別的難度?;诿}沖描述字外部特征參數測量的傳統輻射源信號識別方法[1效果不斷降低,無法滿足現代戰場上快速識別輻射源信號的需求。因此,輻射源信號的脈內特征逐漸成為研究熱點,包括時頻特征、小波包特征、小波脊頻特征等變換域特征[2。輻射源信號的變換域特征抗噪聲干擾能力強,具有良好的特征表達能力,然而如何自動提取信號的深層次變換域特征成了一個新的問題。近年來,隨著深度學習的迅速發展,神經網絡由于具有強大的特征提取能力和泛化能力,被廣泛應用在目標檢測、圖像分類、語音識別等領域[3。鑒于神經網絡在特征提取方面的巨大優勢,研究人員開始利用神經網絡結合變換域特征的方法實現對輻射源信號的識別。文獻[4]采用平滑偽Wigner-Ville分布對輻射源信號進行時頻變換,并對時頻圖進行對稱映射、主能量脊提取等預處理以降低噪聲干擾,最后通過預訓練卷積神經網絡(convolutional neural network, CNN)提升信號識別效果。文獻[5]利用長短時記憶網絡和CNN將信號時域特征和時頻域特征融合后進行信號分類,提升了在低信噪比時的信號識別準確率。文獻[6]提出了一種殘余注意力多尺度累積卷積網絡,采用多尺度累積連接來提高特征利用率,有效提升了信號識別準確率。文獻[7]將信號的時頻分布和循環頻譜相結合,實現多通道信號處理,通過CNN進行特征提取,最后通過飛魚群算法來優化網絡類型、特征維數和網絡參數。文獻[8]通過卷積層將輻射源信號的時頻特征提取出來并將其編碼成脈沖序列,輸入至脈沖神經網絡實現對6種輻射源信號的高效識別。

目前,大多數針對輻射源信號識別方法的關注點基本上都集中在提升信號識別準確率上,然而準確率提升的同時也帶來了信號識別模型的空間復雜度和時間復雜度過高的問題。一個性能優越的神經網絡模型往往具有龐大的參數量和運算量,難以部署在存儲資源有限的終端設備上,這在一定程度上限制了神經網絡在輻射源信號識別領域的發展。因此,如何平衡神經網絡的信號識別準確率與模型復雜度成了一個亟需解決的問題。文獻[9]采用深度可分離卷積代替普通卷積,參數量降低了58%,信號識別準確率與普通CNN基本持平。文獻[10]將調制信號映射成星座圖,再利用輕量級神經網絡MobileNet進行訓練并識別。文獻[11]通過減小CNN的卷積核尺寸以減少參數量,并通過剪枝進一步降低模型大小。文獻[12]通過模型剪枝對VGG(visual geometry group)網絡和AlexNet網絡進行輕量化,在保證信號識別準確率基本不變的情況下降低了網絡的復雜度。參數量化[13-19也是一種有效的模型壓縮方法。近年來,二值量化[20-24作為網絡參數量化的一種極端形式,逐漸成為研究熱點。文獻[25]提出了一種基于二進制殘差網絡的信號調制識別方法,有效降低了模型大小和存儲成本。文獻[26]提出了一種二值神經網絡(binary neural networks, BNN),通過對卷積層的實值卷積核與輸入進行二值化處理,并用位操作代替普通卷積運算,以降低網絡參數內存與運算量大小。為了避免BNN的準確率下降過大,文獻[26]將網絡的第一層卷積層和最后一層卷積層保留為實值,然而這種BNN結構可能不是最優的,因為針對不同的網絡或者不同的數據集來說,第一層和最后一層卷積層并不一定總是最重要的。

針對上述問題,本文提出一種基于BNN的輻射源信號識別方法,主要貢獻在于:① 提出一種衡量CNN卷積層重要性程度的方法;② 根據各層卷積層的效用值大小,確定最優的二值化結構,對CNN進行二值量化,構建BNN實現對輻射源信號識別。

1 輻射源信號識別方法流程

圖1所示為基于BNN的輻射源信號識別方法流程圖。首先對輻射源時域信號進行時頻變換,得到的時頻特征數據集用于訓練實值CNN;然后計算實值CNN各層卷積層的效用值,對卷積層效用值進行排序,將效用值較高的卷積層作為目標卷積層,再將目標卷積層進行二值化,得到的BNN最后進行訓練用于輻射源信號識別。

本文采用的實值CNN網絡結構如圖2所示,類似于VGG16的結構,其中每個BLOCK的結構都為:卷積層-批歸一化(batch normalization, BN)層-激活層-池化層,其中池化層的作用為使特征圖的維度減半。因此,實值CNN一共有6層卷積層,卷積核的大小均為3×3,第一層全連接層的輸出節點為256,最后一層全連接層的輸出節點為8,輸出8種輻射源信號對應的識別概率值。

2 信號時頻特征提取

特征提取是輻射源信號識別的關鍵步驟,提取出有效的特征能大大增加信號識別的成功率。輻射源信號一般屬于非平穩信號,時域或頻域上受噪聲影響大,難以提取到通用的信號特征。時頻分析可以將時域信號映射到二維的時頻域,在時間和頻率兩個維度上分析信號,更能反映出信號的本質特性。時頻分析通過核函數來描述信號在不同時間頻率的能量密度和強度,獲得信號的時頻分布,目前已有的時頻分布主要包括Choi-Williams分布[27-28(Choi-Williams distribation, CWD)、平滑偽Wigner-Ville分布和減少分布交叉項分布等。其中,CWD分布具有很高的時頻分辨率與較強的交叉干擾項抑制能力,因此本文采用CWD分布對輻射源信號進行時頻分析,其核函數如下:

式中:*表示取共軛。本文通過構建BNN實現對8種輻射源信號進行識別,包括單頻(continue wave, CW)信號、線性調頻(linear frequency modulation, LFM)信號、偶二次調頻(even quadratic frequency modulation, EQFM)信號、余弦調制(sinusoidal frequency modulation, SFM)信號、跳頻信號(COSTAS)、二進制相移鍵控(binary phase shift keying, BPSK)信號、LFM-頻率編碼混合調制信號(LFM-frequency shift keying, LFM_FSK)和LFM_SFM。

3 BNN

3.1 卷積層二值化原理

BNN來源于神經網絡低比特量化中的極端情況,二值量化的目的是將網絡的卷積層權重和激活值用二值矩陣來表示,采用位運算來代替普通卷積運算,減少運算次數。本文采用文獻[26]中提出的二值量化算法與訓練策略,利用尺度因子與二值權重的乘積來近似實值權重,并將激活值也進行二值化,得到BNN。

假設I表示CNN卷積層的輸入,W表示卷積核的參數,則卷積層的操作可以用I*W來表示。卷積層二值化即用一個二值卷積核來代替實值卷積核W,即有W≈αB,代入卷積層操作公式,可得:I*W≈(I⊕B)α,式中⊕為不帶乘法操作的卷積運算。為了求出α和B,使W和αB最接近,得到以下優化目標:

α*,B*=arg minW-αB2(3)

展開式(3)可得

α*,B*=arg min(α2BTB-2αWTB+WTW)(4)

式中:BTB、WTW都是常量,因此可知B的最優解即為W的符號,即

B*=sign(W)(5)

對式(4)進行求導,令其導數等于0,將式(5)代入,可得α的最優解為

α=1nW1(6)

式中:n為卷積核一維展開之后的維度大小。

將卷積層的輸入進行二值化后,普通卷積運算可以轉化成位運算。假設I表示CNN卷積層的輸入,W表示卷積核的參數,那么希望得到β,H,α,B,使得XTW≈βHTαB,即用βHT近似表示輸入X,H和B均為二值矩陣,α和β為實數。為了求出β和H,得到以下優化目標:

β*,H*=arg minX⊙W-βαH⊙B(7)

類似地,可以得到β和H的最優解為

β*=1nX1(8)

H*=sign(X)(9)

3.2 卷積層參數量和運算次數分析

對于實值CNN而言,網絡各層的參數都存儲為全精度浮點數,每個參數占用32 bit的內存空間,當卷積層進行二值化后,每個參數占用1 bit的內存空間,實際中每個卷積核會對應一個縮放因子α,這里可以忽略不計,如圖3所示。因此,卷積層進行二值量化后,卷積層參數內存占用空間能減小31倍左右。

當實值CNN卷積層的參數和輸入進行二值化后,普通卷積操作能用異或非XNOR和按位相加(bitcount)進行替代,具體操作如圖4所示。在現場可編程門陣列(field programmable gate array, FPGA)或者專用集成電路(application specific integrated circuit, ASIC)芯片中,XNOR和bitcount的操作可以設計在一個時鐘周期內完成,所以將一次二值卷積操作統計為一次運算。因此,卷積層進行二值化后,運算次數能減小K2-1倍,其中K為卷積核大小。在本文中,神經網絡的運算次數用乘加累積運算次數(multiply accumulate operations, MACs)表示。

3.3 卷積層效用值

卷積層效用值定義為該層卷積層所有卷積核效用值的平均值,卷積核效用值表征該卷積核的重要性。本文采用下式作為衡量卷積核效用值的準則[29

min|C(D|W′)-C(D|W)| s.t.W′0≤B(10)

式中:C表示損失函數;W和W′分別表示完整的卷積核和去除掉某一卷積核后的參數;D表示模型的輸入和輸出;B表示權重參數中非零參數的個數。

一般認為卷積核的參數和由該卷積核得到的特征圖對損失函數的影響是等價的[29,即下式成立:

式中:Wi為某卷積核的參數;hi為該卷積核對應的特征圖。因此式(10)可以寫成

式中:C(D,hi=0)表示去除掉某特征圖時的損失函數值;C(D,hi)表示沒有去除該特征圖時的損失函數值。

為了避免繁瑣的運算,采用文獻[29]中的方法對式(12)進行處理,將C(D,hi)在hi=0處一階泰勒展開,舍去余項,即有

將式(13)代入式(12),有

式中:μ(hi)表示某個卷積核的效用值,可由其一階梯度與特征圖的乘積近似。

卷積層的效用值定義如下:

式中:k表示第k層卷積層;N表示該層卷積層的卷積核數量;μi由式(14)計算得到。卷積層效用值表征卷積層的重要性程度,效用值越高的卷積層其重要性程度也越高。

3.4 網絡結構

CNN的一般基本塊結構為:卷積層-BN層-激活層-池化層,而對于BNN來說,在二值激活后進行池化會丟失大量的特征信息。例如,在二值激活后輸出的特征元素為-1或者+1,經過最大池化后大多數特征元素都變成了+1。因此,BNN將池化層放在卷積層之后,此外在二值化激活之前采用BN層對輸入進行歸一化處理,確保輸入數據保持零均值分布。因此,BNN一般的基本塊結構為BN層-二值激活層-二值卷積層-池化層,結構如圖5所示。本文對圖2所示的CNN中卷積層效用值較低的四層卷積層與第一層全連接層進行二值化,按照圖5所示調整目標層的基本塊順序,得到BNN。

4 實驗仿真與結果分析

4.1 實驗平臺

本文實驗環境配置如下:在Windows11平臺下采用Pycharm2021.1.3作為神經網絡的搭建平臺;Python版本為3.8;輻射源信號數據集由軟件仿真生成;深度學習框架為Pytorch1.13.1;神經網絡的訓練在NVIDIA GeForce GTX2080 GPU上進行;系統處理器為Intel Core(TM)i7-10700K CPU@3.8 GHz。

4.2 輻射源信號數據集仿真

本文對8種脈內調制類型的輻射源信號進行仿真,脈寬為τ=2 μs,采樣率fs=400 MHz,各信號的具體參數取值如表1所示,為了增強輻射源信號數據集的多樣性,所有參數均在取值范圍內隨機選取。信噪比范圍為-9~3 dB,步長設置為3 dB,每個信噪比下每類信號各隨機生成800個脈沖,其中600個脈沖用于訓練集,200個脈沖用于測試集。對脈沖信號進行CWD時頻變換和時頻圖像預處理,生成相應的數據集。

4.3 卷積層效用值分析

首先采用第4.2節中的輻射源信號數據集對實值CNN進行訓練,超參數設置如表2所示。

CNN訓練收斂后,CNN對輻射源信號測試集的總體信號識別準確率為91.82%,網絡的乘加運算次數為5.21×108 MACs。通過式(13)計算CNN各層卷積層的效用值來量化其重要性程度,并對各卷積層效用值進行歸一化,結果如表3所示。由結果可知,第5層與第6層卷積層的效用值最高,說明第5層卷積層和第6層卷積層的重要性程度最高。

本文將CNN的第5層和第6層卷積層保留為實值,其余卷積層進行二值化,微調訓練10輪后得到BNN,此時BNN的總體信號識別準確率為91.36%,而網絡的乘加運算次數僅為8.4×107 MACs。

4.4 BNN的性能分析及對比

為了進一步驗證通過本文方法得到的BNN在不同信噪比下的性能,本節將分別對BNN在不同信噪比下的輻射源信號識別準確率、噪聲泛化性能、網絡參數內存大小、運算量大小和運算復雜度進行分析,并與文獻[26]提出的BNN進行對比。為了保證對比的嚴謹性,采用的數據集均為第4.2節中的仿真輻射源信號數據集,BNN均是針對第4.3節中的CNN進行二值化,BNN的微調訓練次數都為10。

4.4.1 不同信噪比下信號識別準確率的對比

表4所示為不同信噪比下CNN與BNN的信號識別準確率對比。由結果可知,在信噪比大于-3 dB時,通過文獻[26]方法得到的BNN與本文方法對輻射源信號的識別準確率相差不大,都保持在一個較高的水平,并且基本上接近CNN的識別準確率;而在信噪比小于-3 dB時,本文方法得到的BNN的識別準確率要高于文獻[26]方法。在信噪比為-9 dB時,本文方法得到的BNN的信號識別準確率比文獻[26]方法得到的BNN提升了4.1%;在信噪比為-6 dB時,本文方法得到的BNN的信號識別準確率比文獻[26]方法得到的BNN提升了3%。

圖6所示分別為CNN和BNN針對測試集的信號識別混淆矩陣,其中信號測試集中每種信號有1 000個樣本。由圖6可知,對于每種信號來說,本文方法得到的BNN的識別準確率都高于文獻[26]方法得到的BNN,其中識別準確率提升最大的是LFM_SFM信號,提升了3.2%。因此,本文方法得到的BNN相比于文獻[26]方法具有更強的特征提取與分類能力。

4.4.2 噪聲泛化性能對比

第4.2節中采用的輻射源信號訓練集和測試集均在信噪比分別為-9 dB、-6 dB、-3 dB、0 dB和3 dB下生成,為了驗證本文方法得到的BNN的噪聲泛化性能,在信噪比分別為-8 dB、-5 dB、-2 dB、1 dB、4 dB條件下仿真生成輻射源信號測試集,分別測試CNN與BNN的信號識別準確率,結果如表5所示。

由結果可知,在信噪比大于-2 dB時,本文方法得到的BNN、文獻[26]方法得到的BNN信號識別準確率與CNN相差不大,都保持在較高的水平;在信噪比為小于-2 dB時,本文方法得到的BNN信號識別準確率比文獻[26]方法提升了3.25%,且與CNN的信號準確率差異不大,這說明通過本文方法得到的BNN具有更好的噪聲泛化性能。

4.4.3 網絡參數內存、運算次數和運算復雜度分析

表6所示為CNN與通過本文方法得到的BNN的參數內存、網絡運算次數和運算復雜度的對比結果。其中,采用浮點運算次數(floating-point operations, FLOPs)衡量網絡計算復雜度[30,對于目前大部分的中央處理器(central processing unit,CPU)或圖形處理器(graphic processing unit, GPU)來說,可以并行進行64個二值計算(位運算),因此BNN的FLOPs為實值運算的次數加上二值運算次數的1/64[31。當神經網絡的二值化結構確定后,BNN的參數內存、網絡運算次數和運算復雜度均隨之確定。

由表6可知,相對于CNN來說,通過本文方法得到的BNN具有更低的參數內存、網絡運算量和運算復雜度。其中,網絡參數內存壓縮比為6.04,網絡運算量壓縮比為6.21,因此本文方法得到的BNN不僅占用較低的存儲資源,同時能夠大幅縮短前向推理時間,適合在資源有限的終端設備上部署。

5 結 語

本文提出的基于BNN的輻射源信號識別方法,其創新點在于,通過衡量網絡每層卷積層的重要性程度,將效用值高的卷積層保留為實值,將效用值低的卷積層進行二值量化,得到高性能的BNN,實現對8種輻射源信號的識別。實驗表明,通過本文方法得到的BNN在信噪比大于-9 dB時具有與實值CNN相似的特征提取能力,信號的總體識別準確率僅降低了0.5%,而網絡參數內存大小和網絡運算次數降低了83%左右,網絡的運算復雜度降低了85.8%,大大降低了神經網絡的空間和運算復雜度。此外,本文的神經網絡二值量化的方法具有一定的通用性,能夠針對任意結構的CNN確定最優的二值量化結構。本文構建的BNN能夠通過設計專用的算子進行加速推理,后續將研究在FPGA上部署BNN,實現輕量化的輻射源信號識別系統。

參考文獻

[1]YANG H H, YANG X P, LIU S K, et al. Radar emitter multi-label recognition based on residual network[J]. Defence Technology, 2022, 18(3): 410-417.

[2]劉贏, 田潤瀾, 王曉峰. 基于深層卷積神經網絡和雙譜特征的雷達信號識別方法[J]. 系統工程與電子技術, 2019, 41(9): 1998-2005.

LIU Y, TIAN R L, WANG X F. Radar signal recognition method based on deep convolutional neural network and bispectral features[J]. Systems Engineering and Electronics, 2019, 41(9): 1998-2005.

[3]MUHAMMAD Y S, WANG J H, XV M M, et al. Ship detection based on deep learning using SAR imagery: a systematic literature review[J]. Soft Computing, 2023, 27(1): 63-84.

[4]YAO Y, WANG Z H. Radar signal recognition based on time-frequency and CNN preprocessing[J]. Journal of Detection and Control, 2018, 40(6): 99-105.

[5]SHI L M, YANG C Z. Recognition method of radar signal mo-dulation method based on deep network[J]. Journal of Ordnance Equipment Engineering, 2021, 42(6): 190-193, 218.

[6]崔邦彥, 田潤瀾, 王東風, 等. 基于注意力機制和改進CLDNN的雷達輻射源識別[J]. 系統工程與電子技術, 2021, 43(5): 1224-1231.

CUI B Y, TIAN R L, WANG D F, et al. Radar emitter identification based on attention mechanism and improved CLDNN[J]. Systems Engineering and Electronics, 2021, 43(5): 1224-1231.

[7]GAO J P, WANG X, WU R W, et al. A new modulation recognition method based on flying fish swarm algorithm[J]. IEEE Access, 2021, 9: 76689-76706.

[8]TAO S F, XIAO S, GONG S, et al. Recognition of electromagnetic signals based on the spiking convolutional neural network[J]. Wireless Communications and Mobile Computing, 2022, 2022: 2395996.

[9]MUHAMMAD U, LEE J A. AMC-IoT: automatic modulation classification using efficient convolutional neural networks for low powered IoT devices[C]∥Proc.of the International Confe-rence on Information and Communication Technology Convergence, 2020: 288-293.

[10]WANG T Y, JIN Y H. Modulation recognition based on lightweight neural networks[C]∥Proc.of the 13th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics, 2020: 468-472.

[11]ZHANG F X, LUO C B, XV J L, et al. An efficient deep learning model for automatic modulation recognition based on parameter estimation and transformation[J]. IEEE Communications Letters, 2021, 25(10): 3287-3290.

[12]WANG N, LIU Y X, MA L, et al. Multidimensional CNN-LSTM network for automatic modulation classification[J]. Electronics, 2021, 10(14): 1649.

[13]權宇, 李志欣, 張燦龍, 等. 融合深度擴張網絡和輕量化網絡的目標檢測模型[J]. 電子學報, 2020, 48(2): 390-397.

QUAN Y, LI Z X, ZHANG C L, et al. Fusing deep dilated convolutions network and light-weight network for object detection[J]. ACTA Electonica Sinica, 2020, 48(2): 390-397.

[14]WANG Z W, ZHENG Q, LU J W, et al. Deep hashing with active pairwise supervision[C]∥Proc.of the European Confe-rence on Computer Vision, 2020: 522-538.

[15]WANG Z W, XIAO H, LU J W, et al. Generalizable mixed-precision quantization via attribution rank preservation[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2021: 2-9.

[16]GONG R H, LIU X L, JIANG S H, et al. Differentiable soft quantization: bridging full-precision and low-bit neural networks[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 4852-4861.

[17]YANG J W, SHEN X, XING J, et al. Quantization networks[C]∥ Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 7308-7316.

[18]ULLRICH K, MEEDS E, WELLING M, et al. Soft weight sharing for neural network compression[C]∥Proc.of the International Conference on Learning Representations, 2017.

[19]ZHANG D Q, YANG J L, YE D Q, et al. LQ-nets: learned quantization for highly accurate and compact deep neural networks[C]∥Proc.of the European Conference on Computer Vision, 2018: 365-382.

[20]QIN H T, GONG R H, LIU X L, et al. Binary neural networks: a survey[J]. Pattern Recognition, 2020, 105: 1737-1746.

[21]CHEN T L, ZHANG Z Y, OUYANG X, et al. “BNN-BN=?”: training binary neural networks without batch normalization[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 4619-4629.

[22]SHEN Z Q, LIU Z C, QIN J, et al. S2-BNN: bridging the gap between self-supervised real and 1-bit neural networks via guided distribution calibration[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 2165-2174.

[23]XUE P, LU Y, CHANG J F, et al. Self-distribution binary neural networks[J]. Applied Intelligence, 2022, 52(12): 13870-13882.

[24]WANG Z W, LU J W, WU Z Y, et al. Learning efficient binarized object detectors with information compression[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 2022, 44(6): 3082-3095.

[25]JI H, XU W Y, GAN L, et al. Modulation recognition based on lightweight residual network via binary quantization[C]∥Proc.of the 7th International Conference on Computer and Communications, 2021: 154-158.

[26]RASTEGARI M, ORDONEZ V, REDMON J, et al. Xnor-net: imagenet classification using binary convolutional neural networks[C]∥Proc.of the European Conference on Computer Vision, 2016: 525-542.

[27]HUANG D K, YAN X P, HAO X H, et al. Low SNR multi-emitter signal sorting and recognition method based on low-order cyclic statistics CWD time-frequency images and the YOLOv5 deep learning model[J]. Sensors, 2022, 22(20): 7783.

[28]肖帥, 龔帥閣, 李想, 等. FPGA平臺輕量化卷積神經網絡輻射源信號識別方法[J]. 計算技術與自動化, 2023, 42(4): 140-146.

XIAO S, GONG S G, LI X, et al. Emitter signal identification method with lightweight CNN on FPGA platform[J]. Computing Technology and Automation, 2023, 42(4): 140-146.

[29]PAVLO M, STEPHEN T, TERO K, et al. Pruning convolutional neural networks for resource efficient inference[EB/OL]. [2023-05-31]. https:∥arxiv.org/abs/1611.06440.

[30]BOYD S, PARIKH N, CHU E, et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends in Machine Learning, 2011, 3(1): 1-122.

[31]王子為, 魯繼文, 周杰. 基于自適應梯度優化的二值神經網絡[J]. 電子學報, 2023, 51(2): 257-266.

WANG Z W, LU J W, ZHOU J. Learning adaptive gradients for binary neural networks[J]. ACTA Electonica Sinica, 2023, 51(2): 257-266.

作者簡介

王慧賦(1998—),男,碩士研究生,主要研究方向為輻射源信號識別、深度學習。

梅明飛(2000—),男,碩士研究生,主要研究方向為雷達目標識別、深度學習。

齊 亮(1981—),男,高級工程師,碩士,主要研究方向為無線通信技術、信號智能識別技術。

柴 恒(1982—),男,高級工程師,碩士,主要研究方向為電子偵察設計。

陶詩飛(1987—),男,副教授,碩士,主要研究方向為雷達偵察、目標識別、電磁隱身技術。

主站蜘蛛池模板: 特级毛片免费视频| 九九香蕉视频| 香蕉视频在线观看www| 青青草原国产av福利网站| 国产精品蜜芽在线观看| 亚洲免费毛片| 青青操国产| 国产理论一区| 午夜啪啪福利| 国产91视频观看| 亚洲视频在线网| 国产一级毛片yw| 成·人免费午夜无码视频在线观看| 波多野结衣视频网站| 538国产视频| 97久久人人超碰国产精品| 成人一级黄色毛片| 97久久人人超碰国产精品| 亚洲综合专区| 91青青视频| 国产制服丝袜91在线| 久久久久亚洲精品无码网站| 亚洲成A人V欧美综合| 国产精品妖精视频| 国产流白浆视频| 思思热精品在线8| 黄片一区二区三区| 手机在线国产精品| 亚洲AV无码一二区三区在线播放| 日本高清在线看免费观看| 国产女人在线观看| 国产91成人| 国产综合另类小说色区色噜噜| 国产成人精品日本亚洲| 欧美特级AAAAAA视频免费观看| 色窝窝免费一区二区三区| 国产精品久久久精品三级| 国产区在线看| 热思思久久免费视频| AV在线天堂进入| 99精品视频在线观看免费播放| 国产美女无遮挡免费视频| 青青国产视频| 乱人伦99久久| 国产一级毛片yw| 欧美区一区二区三| av尤物免费在线观看| 国产成人精品一区二区| 99久视频| 国产视频入口| 中文字幕人妻av一区二区| 国产国产人免费视频成18| 欧美不卡在线视频| 亚洲一区二区日韩欧美gif| 国产在线视频二区| 久久国产精品电影| 久久精品无码一区二区日韩免费| 国产xx在线观看| 无码免费视频| 欧美爱爱网| 亚洲第一中文字幕| 欧美国产成人在线| 无码高清专区| 欧美日韩va| 欧美国产综合色视频| 国产精品午夜电影| 国产永久无码观看在线| 色老二精品视频在线观看| 亚洲综合18p| 超碰免费91| 色婷婷亚洲综合五月| 婷婷色狠狠干| a欧美在线| 热思思久久免费视频| 国产视频自拍一区| 亚洲 日韩 激情 无码 中出| 五月婷婷综合网| 亚洲国产日韩欧美在线| 亚洲综合片| 欧美A级V片在线观看| 亚洲最猛黑人xxxx黑人猛交 | 在线观看无码a∨|