董章華 趙士杰 賴?yán)?/p>



本文針對(duì)低截獲概率(Low Probability of Intercept, LPI)雷達(dá)信號(hào)調(diào)制類型的識(shí)別問(wèn)題提出了一種基于Swin Transformer神經(jīng)網(wǎng)絡(luò)的識(shí)別方法. 該方法首先用平滑偽Wigner-Ville分布對(duì)信號(hào)進(jìn)行時(shí)頻變換,將一維時(shí)域信號(hào)轉(zhuǎn)換為二維時(shí)頻圖像,然后使用Swin Transformer神經(jīng)網(wǎng)絡(luò)對(duì)時(shí)頻圖像進(jìn)行特征提取和調(diào)制類型識(shí)別. 仿真結(jié)果顯示該方法具有較強(qiáng)的抗噪聲能力,在低信噪比條件下識(shí)別準(zhǔn)確率高,且具有較強(qiáng)的小樣本適應(yīng)能力.
低截獲概率雷達(dá); Swin Transformer神經(jīng)網(wǎng)絡(luò); 平滑偽Wigner-Ville分布; 調(diào)制類型識(shí)別
O29A2023.021004
收稿日期: 2022-05-11
基金項(xiàng)目: 國(guó)家重點(diǎn)研發(fā)計(jì)劃(2020YFA0714000)
作者簡(jiǎn)介: 董章華(1996-), 男, 四川成都人, 碩士研究生, 主要研究方向?yàn)橹悄芟到y(tǒng)和數(shù)學(xué)信息技術(shù). E-mail: mathpix01@163.com
通訊作者: 賴?yán)? laili@scu.edu.cn
A radar signal modulation type recognition method based on Swin Transformer neural network
DONG Zhang-Hua, ZHAO Shi-Jie, LAI Li
(School of Mathematics,? Sichuan University,? Chengdu 610064,? China)
In this paper, based on the Swin Transformer neural network we propose a method for the recognition of modulation type of Low Probability of Intercept (LPI) radar signal. We firstly perform the time-frequency transformation, say, transform the one-dimensional time-domain radar signal into a two-dimensional time-frequency image by using the smooth pseudo Wigner-Ville Distribution (WVD). We then use the Swin Transformer network to extract the desired feature from the image and identify the modulation type. Numerical simulation shows that this method possesses strong anti-noise ability and high recognition accuracy even under the condition of low signal-to-noise ratio. Meanwhile, it is also shown that this method has strong adaptability to small samples.
LPI radar; Swin Transformer neural network; Smooth pseudo WVD; Radar signal modulation type recognition
1 引 言
近年來(lái),隨著低截獲概率(Low Probability of Intercept, LPI)雷達(dá)技術(shù)的發(fā)展,傳統(tǒng)的雷達(dá)輻射源識(shí)別方法的識(shí)別準(zhǔn)確率大大降低. 鑒于LPI雷達(dá)輻射源的有效識(shí)別基于雷達(dá)信號(hào)的調(diào)制類型的識(shí)別,如何提高LPI雷達(dá)信號(hào)的調(diào)制類型的識(shí)別率就成為提高對(duì)于LPI雷達(dá)的偵察能力的關(guān)鍵問(wèn)題. 對(duì)此問(wèn)題,國(guó)內(nèi)外學(xué)者開(kāi)展了大量研究,取得了豐碩成果, 如張等提出的基于熵特征和信息維數(shù)等的調(diào)制類型識(shí)別算法[1-3]及文獻(xiàn)[4-9]基于時(shí)頻分析方法進(jìn)行的信號(hào)調(diào)制類型的識(shí)別,等. 在中等信噪比條件下(高于4 dB),這些算法有較好的識(shí)別效果. 同時(shí),在信噪比高于0 dB的條件下,這些算法也能在小樣本(訓(xùn)練集大小為200)條件下取得較好的識(shí)別效果.
近年來(lái),隨著深度學(xué)習(xí)方法在圖像處理中的廣泛應(yīng)用, 將時(shí)頻變換后獲得的LPI雷達(dá)時(shí)頻圖像(Time-Frequency Image,TFI)與深度學(xué)習(xí)算法相結(jié)合的研究成果越來(lái)越多. 例如,基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的深層次自動(dòng)特征提取能力[10],文獻(xiàn)[11]將其應(yīng)用于信號(hào)的時(shí)頻圖像,在信噪比為-2 dB時(shí)識(shí)別率接近94%. 文獻(xiàn)[12]將去噪后的雷達(dá)信號(hào)的時(shí)頻圖像輸入Alex Net卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行調(diào)制類型識(shí)別,在信噪比為-6 dB時(shí)識(shí)別率達(dá)到90%以上. 文獻(xiàn)[13]則提出了一種基于Choi-Williams分布(CWD)和深度卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的調(diào)制類型識(shí)別方法. 此外,文獻(xiàn)[14]通過(guò)兩個(gè)獨(dú)立網(wǎng)絡(luò)(卷積神經(jīng)網(wǎng)絡(luò)(CNN)和Elman神經(jīng)網(wǎng)絡(luò)(ENN))來(lái)處理時(shí)頻圖像的特征提取問(wèn)題. 文獻(xiàn)[15]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)完成去噪,用Inception-V4網(wǎng)絡(luò)進(jìn)行特征提取,在數(shù)據(jù)量為200時(shí)識(shí)別率接近90%,未去噪時(shí)識(shí)別率則約為75%. 文獻(xiàn)[16]評(píng)估了AlexNet和GoogleNet在不同數(shù)據(jù)集上的識(shí)別精度. 文獻(xiàn)[17]采用ResNet解決了CNN中梯度消失的問(wèn)題. 文獻(xiàn)[18]提出了一種基于CNN的分層調(diào)制類型分類器,其中的兩個(gè)CNN分別基于低階特征和高階特征進(jìn)行識(shí)別. 以上這些方法多基于卷積神經(jīng)網(wǎng)絡(luò),需要對(duì)雷達(dá)時(shí)頻圖像進(jìn)行較為繁瑣的預(yù)處理. 在低信噪比條件下,這些方法必須進(jìn)行去噪預(yù)處理,效率低、識(shí)別率不高.
不同于常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò),本文將時(shí)頻分析與深度學(xué)習(xí)相結(jié)合,用一種基于Swim Transformer的神經(jīng)網(wǎng)絡(luò)來(lái)提取時(shí)頻圖像的特征,然后用Softmax分類器來(lái)完成LPI雷達(dá)信號(hào)調(diào)制類型的識(shí)別. 對(duì)5種LPI雷達(dá)信號(hào)調(diào)制類型(BFSK、BPSK、Costas、LFM、QPSK)的仿真識(shí)別結(jié)果顯示,在不同噪聲條件、不同訓(xùn)練集大小條件下,該方法都具有較強(qiáng)的抗噪聲能力和小樣本適應(yīng)性.
2 雷達(dá)信號(hào)轉(zhuǎn)換
雷達(dá)信號(hào)x(t)=Aejφ(t)+n(t)是一種非平穩(wěn)信號(hào).單一的時(shí)域分析或頻率分析并不能有效表征信號(hào)頻率的時(shí)間變化.這里的n(t)為噪聲. 另一方面,時(shí)頻聯(lián)合分析方法作為處理非平穩(wěn)信號(hào)的基本方法, 可以直觀地刻畫(huà)信號(hào)的時(shí)域與頻域的聯(lián)合特征.典型的非線性時(shí)頻分析方法主要有Wigner-Ville分布,Cohen類分布,Affine類分布等. 其中,Wigner-Ville分布(WVD)是信號(hào)瞬時(shí)自相關(guān)函數(shù)的傅立葉變換,具有許多優(yōu)良性能,如對(duì)稱性、時(shí)移性、組合性、復(fù)共軛關(guān)系等,且不會(huì)損失信號(hào)的幅值與相位信息,對(duì)瞬時(shí)頻率和群延時(shí)敏感.
盡管WVD在信號(hào)可視化和波形識(shí)別[19]等領(lǐng)域有諸多應(yīng)用, 但其抑制交叉項(xiàng)干擾的效果卻較差. 為解決這個(gè)問(wèn)題,我們引入如下的平滑偽Wigner-Ville分布.
SPWx(t,v)=∫+∞-∞∫+∞-∞x(t-u+τ/2)x*·
(t+u-τ/2)g(u)h(τ)e-j2πvtdτdu(1)
其中,g(u),h(τ)為窗函數(shù),用于分別實(shí)現(xiàn)時(shí)域和頻域的平滑濾波. 圖1給出了分別經(jīng)BFSK、BPSK、Costas、LFM和QPSK這5種調(diào)制方式處理之后的雷達(dá)信號(hào)經(jīng)平滑偽Wigner-Ville分布變換后得到的TFI圖像. 可以看到,經(jīng)過(guò)平滑偽Wigner-Ville分布變換,TFI圖像展示了信號(hào)調(diào)制周期與帶寬特征. 后續(xù)我們將通過(guò)對(duì)TFI圖像的特征提取來(lái)識(shí)別雷達(dá)信號(hào)的調(diào)制類型.
3 基于Swin Transformer神經(jīng)網(wǎng)絡(luò)的雷達(dá)信號(hào)調(diào)制類型識(shí)別
基于注意力機(jī)制的Transformer方法是自然語(yǔ)言處理領(lǐng)域的主流[20]. 在圖像處理領(lǐng)域,Transformer方法可以通過(guò)注意力機(jī)制來(lái)捕獲全局信息,對(duì)目標(biāo)建立遠(yuǎn)距離依賴,進(jìn)而提取出更強(qiáng)有力的特征. 進(jìn)一步,Swin Transformer神經(jīng)網(wǎng)絡(luò)結(jié)合了CNN的層次化結(jié)構(gòu)和Transformer模型的注意力機(jī)制優(yōu)勢(shì)[21],可以更好地識(shí)別雷達(dá)信號(hào)的調(diào)制類型. 圖2給出了基于Swin Transformer神經(jīng)網(wǎng)絡(luò)的信號(hào)調(diào)制類型識(shí)別方法. 該方法主要由4個(gè)部分構(gòu)成:圖像預(yù)處理與分割,Swin Transformer模塊,池化層及Softmax分類器.
首先,我們通過(guò)圖像分割模塊將輸入的時(shí)頻圖像(寬度為W,高度為H)分割為非重疊的小尺寸子圖,其特征被設(shè)置為原始時(shí)頻圖像像素RGB值. 在Swin Transformer中,我們使用4×4的子圖大小,原始圖像分割為(H/4)×(W/4)個(gè)子圖,每個(gè)子圖的特征維數(shù)為4×4×3=48. Swin Transformer神經(jīng)網(wǎng)絡(luò)的特征提取過(guò)程一共分為4個(gè)階段.
(i) 在原始特征上應(yīng)用線性嵌入層,將其投影到任意維度(如C-維度),然后將上述子圖輸入Swin Transformer模塊進(jìn)行特征提取. 為了產(chǎn)生多尺度的特征表示,隨著網(wǎng)絡(luò)的深入,我們通過(guò)圖像合并來(lái)減少子圖總數(shù)量.
(ii) 先融合每組2×2個(gè)相鄰子圖特征,在融合后的4C-維度特征上應(yīng)用線性嵌入層,子圖總數(shù)量減少了2×2=4倍,輸出維度為2C. 然后輸入Swin Transformer模塊進(jìn)行特征提取,分辨率為(H/8)×(W/8).
(iii) 重復(fù)上述過(guò)程. 這個(gè)階段包含3個(gè)相連的Swin Transformer模塊,輸出分辨率分別為(H/16)×(W/16)和(H/32)×(W/32).
(iv) 重復(fù)上述過(guò)程.
Swin Transformer模塊將原始Transformer模塊中的MSA(Multi-head Self Attention)模塊替換為W-MSA(Windows Multi-head Self Attention)和SW-MSA(Shifted Windows Multi-head Self Attention). 其中,W-MSA引入了窗,可使得計(jì)算量由平方增長(zhǎng)降為線性增長(zhǎng). 但是,由于缺乏跨窗口特征提取,其對(duì)建模能力有一定限制. 此外,SW-MSA在保持非重疊窗口高效計(jì)算的同時(shí)引入了跨窗口連接. 圖3給出了Swin Transformer模塊的工作流程[21],其中MLP是以
GELU(x)=0.5x(1+tanh(2/π(x+ 0.044715x3)))
為激活函數(shù)的包含兩層的多層感知機(jī)(Multilayer Perceptron),且在W-MSA、SW-MSA和MLP之前使用層標(biāo)準(zhǔn)化LN(Layer Norm),在每個(gè)模塊之后使用殘差連接,計(jì)算格式如下.
l=W-MSALNzl-1+zl-1,zl=MLPLNl+l,l+1=SW-MSALNzl+zl,zl+1=MLPLNl+1+l+1 (2)
其中,l和zl分別表示l層的W-MSA(或SW-MSA)模塊和MLP模塊的輸出特征.
圖4給出了W-MSA和SW-MSA工作原理[21]. 如圖4a所示,在第l層,W-MSA從左上角像素開(kāi)始進(jìn)行常規(guī)窗口分割,將8×8特征圖均勻地分割為大小為4×4(M=4)的2×2個(gè)窗口,并在每個(gè)窗口應(yīng)用注意力機(jī)制. 在接下來(lái)的第l+1層,W-MSA則改變窗口分割方式,如圖4b所示. SW-MSA按圖4c所示方法置換(M/2,M/2)像素生成新的特征圖,再將置換過(guò)的8×8特征圖均勻地分割為大小為4×4(M=4)的2×2個(gè)窗口,并在新窗口應(yīng)用注意力機(jī)制. 通過(guò)窗口的置換與重新分割,SW-MSA在保持非重疊窗口高效計(jì)算的同時(shí)引入了跨窗口連接.
在經(jīng)過(guò)4個(gè)階段的Swin Transformer模塊的計(jì)算后,我們?cè)谳敵鎏卣魃鲜褂萌制骄鼗瘜樱詈笫褂肧oftmax分類器實(shí)現(xiàn)雷達(dá)信號(hào)調(diào)制方式分類.
4 仿真與分析
4.1 數(shù)據(jù)集生成
針對(duì)前述5種調(diào)制方式,我們將信號(hào)參數(shù)的采用范圍隨機(jī)化,具體參數(shù)值如表1所示. 我們?cè)诶走_(dá)信號(hào)中加入高斯白噪聲,在-12~8 dB的信噪比范圍內(nèi)以2 dB為步長(zhǎng),每一信噪比、每一調(diào)制方式生成600組數(shù)據(jù)(共計(jì)33 000組數(shù)據(jù)),其中80%用于訓(xùn)練,20%用于測(cè)試.
4.2 識(shí)別效果分析
為了驗(yàn)證Swin Transformer識(shí)別方法的有效性,我們將其與KNN、SVM、樸素貝葉斯和決策樹(shù)等4種算法的識(shí)別結(jié)果進(jìn)行比較. KNN可解釋性強(qiáng),不需要訓(xùn)練模型,可以直接使用數(shù)據(jù)進(jìn)行分類,但預(yù)測(cè)速度慢、準(zhǔn)確性差. 樸素貝葉斯同樣可解釋性強(qiáng),可以高效處理高維數(shù)據(jù),但其缺點(diǎn)是可能忽略雷達(dá)信號(hào)特征間的依賴關(guān)系. 決策樹(shù)可讀性強(qiáng)、
訓(xùn)練速度快,但易出現(xiàn)過(guò)擬合問(wèn)題. SVM的訓(xùn)練速度快、泛化錯(cuò)誤率低,但對(duì)參數(shù)和核函數(shù)的敏感性強(qiáng). SVM和決策樹(shù)都是具有堅(jiān)實(shí)理論基礎(chǔ)且具有較好魯棒性的算法,因此具有較高的可比性.
混淆矩陣常用于在機(jī)器學(xué)習(xí)中總結(jié)分類模型預(yù)測(cè)結(jié)果. 我們以矩陣形式將數(shù)據(jù)集中的記錄按照真實(shí)類別與分類模型預(yù)測(cè)類別判斷這兩個(gè)標(biāo)準(zhǔn)進(jìn)行匯總. 圖5展示了信號(hào)在信噪比為-10 dB時(shí)采用Swin Transformer神經(jīng)網(wǎng)絡(luò)的識(shí)別混淆矩陣及其他4種機(jī)器學(xué)習(xí)算法的識(shí)別混淆矩陣(圖中識(shí)別準(zhǔn)確率均保留兩位小數(shù)). 其中,矩陣的行表示真實(shí)標(biāo)簽,列表示預(yù)測(cè)標(biāo)簽,矩陣的元素則表示對(duì)應(yīng)真實(shí)標(biāo)簽的各預(yù)測(cè)標(biāo)簽所占比例,對(duì)角線上的值即為識(shí)別準(zhǔn)確率. 可以看到,針對(duì)5種LPI雷達(dá)信號(hào)調(diào)制類型,使用Swin Transformer進(jìn)行特征提取并分類的效果均明顯優(yōu)于其他4種算法. 例如,從圖5a可以看到,Swin Transformer神經(jīng)網(wǎng)絡(luò)對(duì)BFSK、BPSK、Costas、QPSK 這4種調(diào)制類型識(shí)別準(zhǔn)確率不低于93%,對(duì)LFM雖有一定的識(shí)別錯(cuò)誤概率,但仍明顯優(yōu)于其它4種識(shí)別算法,在-10 dB信噪比下整體識(shí)別率可以達(dá)到90%以上.
4.3 抗噪聲效果分析
圖6展示了5種識(shí)別方法在不同信噪比下對(duì)5種LPI雷達(dá)信號(hào)調(diào)制類型的識(shí)別準(zhǔn)確率. 可以看到,基于Swin Transformer方法在信噪比較低時(shí)仍有較為理想的識(shí)別準(zhǔn)確率,整體上優(yōu)于其他4種方法. 值得注意的是,不同的信噪比也會(huì)對(duì)結(jié)果產(chǎn)生影響,如LFM信號(hào)當(dāng)信噪比較低時(shí)(-12 dB,-10 dB)Swin Transformer方法和其他4個(gè)識(shí)別算法一樣準(zhǔn)確率較低. 但是,隨著信噪比的提高,前者的識(shí)別準(zhǔn)確率快速提升. 在信噪比為-8~2 dB范圍內(nèi),其識(shí)別的準(zhǔn)確率顯著高于其他4種方法.
4.4 魯棒性分析
為了進(jìn)一步驗(yàn)證不同識(shí)別方法的魯棒性,我們選擇信噪比為-10 dB的樣本進(jìn)行測(cè)試,訓(xùn)練集數(shù)量分別為200,400,600. 圖7給出了5種方法在不同訓(xùn)練集大小下的識(shí)別準(zhǔn)確率. 可以看到,隨數(shù)據(jù)量的增加,所有方法的識(shí)別率都呈上升趨勢(shì),而Swin Transformer神經(jīng)網(wǎng)絡(luò)方法在不同數(shù)據(jù)量下的識(shí)別率均為最優(yōu),說(shuō)明該方法對(duì)小樣本具有較強(qiáng)的適應(yīng)性. 當(dāng)訓(xùn)練集每類數(shù)據(jù)量?jī)H為200時(shí),Swin Transformer方法的識(shí)別率約為83.5%,而當(dāng)訓(xùn)練集大小為600時(shí),其識(shí)別率則增至92.8%.
5 結(jié) 論
本文針對(duì)低截獲概率雷達(dá)信號(hào)調(diào)制類型的識(shí)別問(wèn)題提出一種基于Swin Transformer神經(jīng)網(wǎng)絡(luò)的識(shí)別方法. 該方法采用平滑偽Wigner-Ville分布對(duì)信號(hào)進(jìn)行時(shí)頻變換,得到一個(gè)二維時(shí)頻圖像,然后通過(guò)Swin Transformer神經(jīng)網(wǎng)絡(luò)對(duì)時(shí)頻圖像進(jìn)行特征提取,最后再通過(guò)Softmax分類器實(shí)現(xiàn)調(diào)制類型識(shí)別. 通過(guò)仿真實(shí)驗(yàn),我們對(duì)比分析了該方法與其它4種常見(jiàn)算法的識(shí)別率差異. 結(jié)果顯示,基于Swin Transformer神經(jīng)網(wǎng)絡(luò)的識(shí)別方法具有較強(qiáng)的抗噪聲能力,在低信噪比條件下對(duì)5種雷達(dá)信號(hào)(BFSK、BPSK、Costas、LFM、QPSK)有整體上不低于90%的識(shí)別準(zhǔn)確率. 此外,該方法還具有較強(qiáng)的小樣本適應(yīng)能力,在訓(xùn)練樣本數(shù)量較少的情況下仍可實(shí)現(xiàn)較高的識(shí)別準(zhǔn)確率.
本文提出的方法有效地實(shí)現(xiàn)了LPI雷達(dá)信號(hào)的調(diào)制類型的識(shí)別,可以為有效檢測(cè)、跟蹤和定位雷達(dá)信號(hào)源提供基礎(chǔ),因而具有重要的潛在應(yīng)用價(jià)值.
參考文獻(xiàn):
[1] 張葛祥, 胡來(lái)招, 金煒東. 雷達(dá)輻射源信號(hào)脈內(nèi)特征分析[J]. 紅外與毫米波學(xué)報(bào), 2004, 23: 477.
[2] 張葛祥, 胡來(lái)招, 金煒東. 基于熵特征的雷達(dá)輻射源信號(hào)識(shí)別[J]. 電波科學(xué)學(xué)報(bào), 2005, 20: 440.
[3] Zhang G, Rong H, Jin W, et al. Radar emitter signal recognition based on resemblance coefficient features [C]//International Conference on Rough Sets and Current Trends in Computing. Berlin/ Heidelberg: Springer, 2004.
[4] Cohen L. Time-frequency analysis theory and applications [M]. New Jersey: Prentice Hall, 1995.
[5] 朱振波, 王玉生, 何明浩. 基于近似小波變換的信號(hào)脈內(nèi)特征分析[J]. 空軍雷達(dá)學(xué)院學(xué)報(bào), 2002, 16: 8.
[6] Gao J, Dong X, Wang W B, et al. Instantaneous parameters extraction via wavelet transform [J]. IEEE T Geosci Remot, 1999, 37: 867.
[7] 郁春來(lái), 萬(wàn)建偉, 徐如海, 等. 改進(jìn)小波脊線法算法分析和仿真[J]. 現(xiàn)代雷達(dá), 2005, 27: 46.
[8] Lopez-Risueno G, Grajal J, Yeste-Ojeda O. Atomic decomposition-based radar complex signal interception [J]. IEEE P-Radar Son Nav, 2003, 150: 323.
[9] 柳征, 姜文利, 周一宇. 基于小波包變換的輻射源信號(hào)識(shí)別[J]. 信號(hào)處理, 2005, 21: 460.
[10] 彭朝霞, 蒲亦非. 基于分?jǐn)?shù)階微分的卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別[J]. 四川大學(xué)學(xué)報(bào): 自然科學(xué)版, 2022, 59: 012001.
[11] Zhang M, Diao M, Guo L. Convolutional neural networks for automatic cognitive radio waveform recognition [J]. IEEE Access, 2017, 5: 11074.
[12] 郭立民, 陳鑫, 陳濤. 基于AlexNet模型的雷達(dá)信號(hào)調(diào)制類型識(shí)別[J]. 吉林大學(xué)學(xué)報(bào): 工學(xué)版,? 2019, 49: 1000.
[13] Guo Q, Yu X, Ruan G. LPI radar waveform recognition based on deep convolutional neural network transfer learning [J]. Symmetry, 2019, 11: 540.
[14] Zhang M, Diao M, Gao L, et al. Neural networks for radar waveform recognition [J]. Symmetry, 2017, 9: 75.
[15] 肖易寒, 王亮, 郭玉霞. 基于去噪卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)信號(hào)調(diào)制類型識(shí)別[J]. 電子與信息學(xué)報(bào), 2021, 43: 8.
[16] Peng S, Jiang H, Wang H, et al. Modulation classification based on signal constellation diagrams and deep learning [J]. IEEE T Neur Net Lear, 2018, 30: 718.
[17] Qin X, Zha X, Huang J, et al. Radar waveform recognition based on deep residual network [C]//2019 IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Piscataway: IEEE, 2019.
[18] Wang Y, Liu M, Yang J, et al. Data-driven deep learning for automatic modulation recognition in cognitive radios [J]. IEEE T Veh Tech, 2019, 68: 4074.
[19] Wu Y, Li X, Wang Y. Extraction and classification of acoustic scattering from underwater target based on Wigner-Ville distribution [J]. Appl Acous, 2018, 138: 52.
[20] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [J]. Proc Adv Neur Inf Process Syst, 2017, 2017: 30.
[21] Liu Z, Lin Y, Cao Y, et al. Swin Transformer: hierarchical vision transformer using shifted windows [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2021.