董 聰,張傳武,高 勇
(1.四川大學 電子信息學院,四川 成都 610065;2.電子信息工程(西南民族大學)國家民委重點實驗室,四川 成都 610225)
通信信號的調制識別在軍事和民用領域具有重要意義[1-2]。傳統的單信號調制識別算法主要分為2大類[3]:基于決策理論的最大似然假設檢驗方法[4]和基于特征提取的模式識別方法[5-6]?;旌闲盘枂瓮ǖ佬枰R別的信號有2類:對稱混合信號和非對稱混合信號。本文研究前者,對稱混合信號識別主要有2類方法。Lu[7]、EI-Mahdy[8]等人,先將接收信號分離開,然后使用傳統的單信號識別方法對分離后的信號進行調制識別,該方法默認接收信號是混合信號。這是第一種方法,這種方法本質上仍是單信號識別,識別結果更依賴于分離效果。高玉龍以循環譜為出發點,利用BPSK、QPSK和OQPSK信號在某些循環頻率上的差異來提取信號特征[9],但是仍然要求先進行預處理將信號進行分離;另一類方法是直接從接收混合信號出發進行識別[10],是一種真正意義上的混合信號識別方法。該論文研究了共用同一信道中未知信號的調制識別問題,但是該方法必須已知一個信號調制類型且假定已知信號采用矩形成型,當信號采用升余弦成型時識別性能會惡化。
本文應用殘差神經網絡(Residual Neural Network)模型對通信混合信號進行調制識別。在保證識別率的前提下,此算法不需要對輸入數據進行預處理,不需要人工定義識別特征,并且對信號的碼元速率、頻偏和相偏具有一定的適應性。
通常發射通信信號序列可以表示為:
(1)
式中,An,ωc,φn,θ分別表示第n個符號的幅度、頻率、相位以及初始相位;g(t)表示脈沖成型函數;T表示符號周期。
接收信號的表示形式為:
(2)
式中,hn(t),ω0分別表示信道響應和接收機的頻率。
本文所用信號數據集有頻移鍵控(FSK)和相移鍵控(PSK)。
FSK通過載波頻率變化來傳遞數字信息,M進制頻移鍵控數學表達式為:
ωn∈{ω1,ω2,...,ωM},
(3)
式中,g(t)同上;ωn表示第n個符號的頻率;θ為初相。
PSK通過載波相位變化來傳遞數字信息,振幅及頻率保持不變。
M進制PSK信號可以表示為:
k=1,2,...,M,
(4)
M一般為2k,其余變量同上。
深度學習的不斷發展,神經網絡模型的深度也隨之不斷加深。但是實驗結果表明,單純地增加神經網絡深度會帶來梯度消失或爆炸的問題,為解決這個問題,殘差神經網絡(Residual Neural Network)被提出[11],它可以有效解決因為梯度爆炸而導致深層卷積神經網絡出現的退化問題,并且能夠保持良好的泛化能力。
殘差模塊 (Residual Block) 構建了ResNet ,該模塊通過增加“快捷連接”(Shortcut Connections)實現。假定某段神經網絡的輸入為x,實際的輸出為H(x),如果使用深層非線性網絡來擬合非線性映射關系F(x)=H(x)-x,那么F(x)+x就可以表示為實際的輸出H(x),而F(x)+x能通過帶有“恒等變換 (Identity Transformation)”的神經網絡實現。殘差塊結構如圖1所示。

圖1 殘差塊結構Fig.1 Residual block structure
淺層的殘差模塊由2層組成,即
F(x)=W2σ(W1x),
(5)
H(x)=F(x,{W1,W2})+x,
(6)
式中,σ表示非線性函數ReLU;W1,W2表示權重。殘差模塊增加的恒等映射(Identify Mapping)不會額外增加參數和計算量,但是卻能大大提高神經網絡模型的訓練速度。這是因為,相比于使用深層的非線性網絡去擬合隱藏的非線性映射H(x),殘差模塊目的在于使殘差F(x)盡可能小,這樣整個ResNet只需要學習輸入、輸出差別即殘差部分,簡化了神經網絡的學習難度。
本文中ResNet網絡參數設置如表1所示。

表1 ResNet網絡參數設置Tab.1 ResNet network parameter settings
神經網絡中所有的輸出以及代價函數均由輸入和參數求得,在得到相應輸出及代價函數的情況下,還需要通過優化算法來減小代價函數,得到優化后的參數和權值。一般的優化算法為梯度下降法(Gradient Descent),算法的表達式為:
(7)
式中,J(βn)為損失函數;η為學習率。
梯度下降會同時計算所有數據的梯度值,但在實際中,要處理的數據量通常非常巨大,而硬件資源的有限使得難以實現大數據的梯度計算,而且耗時較長。在不降低網絡學習效果的前提下,本文采用了隨機梯度下降算法(Stochastic Gradient Descent)來提高網絡模型的訓練速度。該算法的梯度計算以及參數更新是利用每次從數據集中隨機選取一個樣本而不是全部訓練數據的損失函數,也就是該算法優化的是每一次迭代中某一條訓練數據而不是全部數據的損失函數,這樣一來每一次迭代網絡參數更新的速度就會大大提高。
基于ResNet網絡模型的調制識別算法流程分為訓練和測試兩個過程,大概流程圖如圖2所示。
訓練過程為:
① 訓練數據是仿真生成的調制信號,它首先格式轉化為Ndarray類型,再輸入到ResNet網絡模型中;
② ResNet網絡模型通過信號特征對訓練數據進行分類識別,然后輸出算法對各信號調制方式的識別結果;
③ 將各信號調制方式的識別結果與輸入ResNet網絡的訓練數據的標簽,也就是信號實際的調制方式進行對比,利用代價函數計算出識別結果的誤差。根據最終誤差的大小以及利用梯度下降的反向傳播來更新和改進ResNet的網絡參數。
上述訓練過程反復迭代,由于信號識別結果的誤差會不斷減小,算法對信號的識別準確率就隨之不斷提高,網絡模型參數也將會逐漸接近于最優值,最終誤差趨向于一個穩定值不再減小,此時表明網絡已經收斂,訓練停止。
測試過程:在ResNet網絡模型訓練完成之后,算法就可以直接對待識別信號的調制方式進行識別,待識別信號經過格式轉化后,直接輸入到ResNet中,ResNet網絡模型將會使用訓練好的網絡參數提取特征和分類識別,最終輸出識別結果。算法原理框圖如圖2所示。

圖2 算法原理框圖Fig.2 Algorithm principle block diagram
為了驗證本文所提出的基于殘差神經網絡的通信混合信號的識別率。本文利用MXnet深度學習平臺,采用18層殘差神經網絡(ResNet)和卷積神經網絡(CNN),分別在計算機上進行了驗證。計算機CPU型號為Inter(R) Core(TM) i7-8700 CPU @3.2 GHz 3.19 GHz 16 GB內存。GPU型號為NVIDIA GeForce RTX 2080。
本文待識別的信號調制方式有:2FSK+4FSK,BPSK+2FSK,BPSK+4FSK,BPSK+BPSK,BPSK+QPSK,QPSK+2FSK,QPSK+4FSK,QPSK+QPSK,其中混合信號中兩分量信號的幅度均為1,信噪比范圍為-10~10 dB,以2 dB為間隔。采樣倍數選取4倍采樣,脈沖成型濾波器滾降系數設為0.35,碼元速率fb、載波頻率、初始相位分別在50~200 Kb/s、 ±0.05fb、0~π/8范圍內隨機選擇。每種信號調制方式產生5 000個樣本,這些樣本中,4 000個為訓練數據,1 000個為測試數據。基于ResNet網絡損失函數下降曲線圖如圖3所示。

圖3 基于ResNet網絡損失函數下降曲線Fig.3 Loss function drop graph based on ResNet network
從圖3可以看出,損失函數在接近第18次迭代時基本上不再減小,可以認為此時神經網絡模型的學習過程已經收斂。
在ResNet和CNN網絡下的各混合信號識別性能曲線如圖4和圖5所示。

圖4 基于ResNet識別率性能曲線Fig.4 Recognition rate performance graph based on ResNet

圖5 基于CNN識別率性能曲線Fig.5 Recognition rate performance graph based on CNN
從圖4和圖5可以看出,無論是基于殘差網絡還是CNN網絡,隨著信噪比的增加,信號的識別率也隨之增加。在信噪比為4 dB以上時,基于殘差網絡下識別率高達90%以上。而基于卷積神經網絡下,即使信噪比為10 dB,BPSK+2FSK,QPSK+2FSK,QPSK+4FSK三種混合信號也未能較好地識別。
基于CNN和ResNet平均識別率對比曲線圖如圖6所示。從圖中可以看出,在同一信噪比下,基于ResNet的識別算法比基于CNN的識別算法識別率高。這是因為,傳統的卷積層在進行信息傳遞時,會帶來信息丟失、損耗的問題。ResNet 通過增加“恒等映射 ”(Identity Mapping)有效解決了這個問題,它將深層的非線性網絡去擬合隱藏的非線性映射問題轉化為學習輸入、輸出差別即殘差的問題,提高神經網絡的學習效率,也保護了信息的完整性。

圖6 基于CNN和ResNet平均識別率對比圖Fig.6 Average recognition rate comparison based on CNN and ResNet
混合信號單通道識別是混合信號單通道處理需要解決的第一個問題。本文應用殘差神經網絡模型來解決通信混合信號調制識別的問題[12]。在信噪比4 dB以上能對2FSK+4FSK,BPSK+2FSK,BPSK+4FSK,BPSK+BPSK,BPSK+QPSK,QPSK+2FSK,QPSK+4FSK,QPSK+QPSK八種混合信號有較好的識別效果。不需要先驗知識,避免了復雜的預處理過程,并且在一定范圍內對信號碼元速率、相偏和頻偏不敏感,具有較強的適應能力。