李揚 周明拓
摘要:無線信道均衡可以被看成將接收端符號恢復成發射符號集中某個符號的問題;而無線通信系統中的許多恢復過程可以被認為是通過學習一組具有良好的概率包絡和相干時間的隨機濾波器來克服信號的線性混合、旋轉、時移、縮放以及卷積等特性。具體地,使用卷積神經網絡(CNN)來學習這些濾波器,然后將學習到的濾波器送入后續的循環神經網絡進行時域建模,最后對信號進行分類。實驗顯示:卷積-循環神經網絡(CRNN)均衡器與傳統的遞歸最小二乘濾波器(RLS)、多層感知機濾波器(MLP)在達到相同誤碼率(SER)情況下好2~4 dB。
關鍵詞: 信道均衡;無線通信;深度學習;神經網絡
Abstract: Channel equalization can be viewed as a task that classifies or reconstructs the received signal as a symbol from the transmitting symbol set at the receiver. Many recovery processes in wireless communication systems can be considered to overcome linear mixing, rotation, time-shift, scaling and convolution by learning a set of random filters with good probabilistic envelope and coherent time. Concretely, convolutional neural network (CNN) is used to learn these filters, which are send into the subsequent recurrent neural network (RNN) for temporal modeling, and finally the signals are classified. Experimental results show that our convolutional recurrent neural network-based (CRNN) equalizer outperforms the recursive least square (RLS) and multi-layer perceptron network (MLP) equalizers by average 2 to
4 dB with the same symbol error rate (SER).
Key words: channel equalization; wireless communications; deep learning; neural network
在數字無線通信系統中,二進制符號通過色散信道傳輸,導致產生時延擴展和符號間串擾(ISI);而ISI的存在阻礙了頻率帶寬的有效利用和系統性能的提高[1]。無線信道基本上可以用一個復數值有限脈沖響應(FIR)濾波器來表示,而信道輸出是濾波器抽頭權重的線性組合,并且被噪聲污染。信道均衡則是基于信道觀測來抵消ISI和噪聲的影響,從而重建傳輸序列。通常,傳輸信道會受到線性和非線性失真的影響,現實中往往將信道建模為一個非線性系統。傳統的線性均衡算法,如遞歸最小二乘(RLS)[2]算法,在信道非線性特性強烈及多徑豐富的情況下無法保證較低的誤碼率。
人工神經網絡的強大非線性擬合能力近來在無線信道均衡領域受到了較多關注。文獻[3-4]中,作者分別使用了不同結構的神經網絡進行均衡,并與傳統的信道均衡器做對比,發現神經網絡算法能達到更低的誤比特率。文獻[5]中作者提出一種基于自適應決策反饋的信道均衡器,其中使用了多層感知機(MLP)神經網絡結構,來解決通信衛星的信道均衡問題。由于無線信號由復數值表示,文獻[6]中作者提出一種基于復數值的多層感知機神經網絡,并提出一種基于復數值的反向傳播算法,使得其更適用于實際系統。
受時變信道的影響,無線信號屬于時間序列數據,但是上述信道均衡器并未將這一特性考慮在內。因此,本文中我們提出一種基于卷積-循環神經網絡(CRNN)的信道均衡器,其特點是既考慮了信道的非線性又兼顧了信道的時變性。我們利用卷積神經網絡的平移不變性來學習像傳統濾波器抽頭權重那樣的匹配濾波器,然后再將學習到的濾波器送入接下來的循環神經網絡進行時間建模,繼而就可以用于對接收到的信號進行分類。
具體地,我們使用自制的8×8并行多輸入多輸出(MIMO)通信系統收集實際的收發信號,構建成用于訓練我們神經網絡的數據集。特別地,收發端僅使用一根天線,從而組成一個單發單收系統,信號發送采用正交相移鍵控(QPSK)調制。據我們所知,我們是第一個采用CRNN結構進行信道均衡的[7]。我們的主要貢獻總結如下:
(1)通過將信道均衡建模成一個條件概率分布學習問題,從而可以使用神經網絡算法進行求解。
(2)基于問題建模,我們提出一種基于CRNN的信道均衡器,在其中既考慮了信道的非線性失真又兼顧了信道的時變性。
我們將所提出的CRNN均衡器與傳統的RLS均衡器,以及MLP均衡器在誤碼(SER)率性能上進行了比較。大量實驗結果顯示:我們的CRNN均衡器要比其他另外兩個均衡器在達到相同SER時好2~4 dB。
1 問題建模
無線信道均衡可以表示成如圖1所示的條件概率分布學習問題。具體地,我們假設發送符號集為S,當中包含K個符號,為方便建模,我們以自然數1~K來表示這K個符號。對于給定的接收信號[y(i)] ,信道均衡的作用就是將其識別或者還原為發送符號集的某符號[x(i)=k] ,通過計算對應于每個發送符號的條件概率(也即整個符號集的條件概率分布),我們可以得出條件概率最大的符號即為[y(i)]最可能的對應發送符號。在這當中,[y(i)]由有限個時延副本構成:
基于以上推導,目前我們需要一個標準對神經網絡調整參數后的預測性能進行評估。具體地,我們引入交叉熵損失函數進行這項評價,其表示如下:
其中,m為訓練集樣本的個數,一個訓練樣本可表示為[(y(i),x(i))] 。[y(i)]為接收符號,[x(i)]為該接收信號對應的真實發送符號,在機器學習的語境中則為樣本對應的標簽。1{·}為指示函數,表示在大括號里的假設若為真則返回1,否則返回0。該函數對一組神經網絡權重w所導致的預測誤差進行計算,我們利用收集到的訓練樣本集合通過調節w最小化這一函數從而提高預測準確率。
2 CRNN無線信道均衡器
基于以上問題建模,我們提出一種流水線式神經網絡均衡器,由2部分構成:第1部分為一個卷積神經網絡;第2部分為一個循環神經網絡。神經網絡的原理詳細可見文獻[8],本文由于篇幅所限將不深入討論。
我們所提出的CRNN均衡器如圖2所示,除輸入和輸出之外,其為一個5層神經網絡結構。輸入層為一個2xN的接收符號,分別由N個時延副本的實部和虛部構成。輸入層后接第1個卷積層Conv,卷積層是卷積神經網絡中最關鍵的環節,用于提取輸入樣本的特征[9]。每個卷積層都由若干個卷積核組成,每個卷積核都是一個特定長、寬的2D濾波器,在計算機中由一個隨機初始化的2D權重矩陣表示。這些卷積核會以一定的步長遍歷整個上層輸入進行卷積操作,生成特征圖,即我們前文提到的匹配濾波器。神經網絡下一層為Dropout,表示上層有多少比例的神經元與下一層進行連接,由1個0~1之間的參數控制。該層的作用是適當降低神經網絡的表達能力,降低神經網絡過擬合的可能性。接下來的卷積層的作用與第1個卷積層相同,但是進一步學習更加抽象地表達,即可能得到的是有利于識別信號的幅度、相位、多普勒頻移等特征。卷積神經網絡的最后一層是1個Max-pooling層,具體操作類似于卷積核,但僅提取對應面積內最大的權重值,一方面用于減少連接數,降低復雜度,另一方面可以獲得局部相似性特征。我們使用卷積神經網絡的原因在于無線通信系統中許多信號識別或還原是通過學習一組具有良好的概率包絡和相干時間的隨機濾波器來克服信號的線性混合、旋轉、時移、縮放以及卷積等特性。那么經過上述一系列操作之后,卷積神經網絡就學習出了這些濾波器。
下一步我們將這些學習到的匹配濾波器送入由長短時記憶(LSTM)單元[10]構成的循環神經網絡用于時間建模,以克服無線信道的時變特性。具體地,LSTM單元通過記憶上一時刻的狀態并把這一狀態加入當前狀態的計算,來進行時間依賴學習。需要注意的是:LSTM層的權重在每一時刻都是共享的。最后,我們使用Softmax對結果進行歸一化并得到發送符號的條件概率分布。
至此,我們可以開始使用大量預先收集的收發數據訓練所提出的CRNN均衡器。下一步,我們將討論如何獲取這些所需數據。
3 數據獲取
如圖3所示,我們采用自研的8×8 MIMO系統進行數據采集,為了保證測試數據的真實性和均衡算法的可靠性,保證采集數據的多樣化,我們在多個典型室內通信場景下采集無線收發數據。在采集實驗中信號發射端采用正交相移鍵控(QPSK)調制模式,發送端以100 Mbit/s的碼片速率連續發送4 096個QPSK碼片200次。采集的數據平均分布于信噪比為-10~20 dB的區間內,且為簡單地驗證起見,采集過程中我們僅使用單發單收設置。值得注意的是:在特定信噪比下收集的數據將單獨構成子數據集,我們的CRNN訓練將由每個不同的子數據集單獨訓練并篩選出表現最好的模型。具體地,每個子數據集包含11萬對收發數據,其中10萬對數據用于訓練CRNN,其余數據用于對模型進行測試。
4 模型訓練及測試結果
4.1 超參數優化
在第3節中,我們指出通過調整神經網絡的連接權重w,就可以優化神經網絡均衡器對于接收信號的預測結果。除了連接權重這些參數,類似于神經網絡隱藏層個數、特定隱藏層的神經元個數、神經網絡進行訓練時的梯度下降學習率等需要人工試驗的參數,我們稱之為超參數。因此,均衡器最終的預測效果除了依賴于神經網絡的連接權重,也取決于神經網絡的各個超參數。而如何確定超參數的值,以及采取何種操作使得神經網絡的預測效果最好的過程被稱為超參數優化。
在實際工程中,我們通常使用網格搜索法進行超參數優化,也即采用窮搜法逐個試驗各個人工設定的超參數組合,從而確定一組最佳超參數組合。本文中,我們將固定一些超參數從而避免搜索空間過大,導致調節效率低下。
除批數量外,表1中選取固定的超參數基本為我們的CRNN均衡器的結構參數。批數量是利用數據集進行最小化損失函數的隨機梯度下降操作時需要確定的參數,它決定了在每次梯度下降時可同時參與更新權重w所應選取的數據個數。
選取了固定的超參數之后,我們需要對剩下的超參數進行優化。具體地,我們將優化學習率[γ] 、Dropout層神經元連接丟棄比率、訓練批次等3個超參數。如圖4所示,在訓練過程中交叉熵損失在當學習率[γ=1×10-2] 或[γ=1×10-3] 時下降。雖然不夠明顯,但[γ=1×10-3]時交叉熵損失函數收斂到一個更低的值。我們還可以看到:當[γ=1×10-1] 時,交叉熵損失一直處于振蕩狀態并未明顯下降。這說明此學習率過大,對于梯度下降步長過大導致無法找到正確的使損失函數下降的方向。我們將訓練集劃分為互不相交的訓練集和驗證集,與之對應得到的準確率分別為訓練準確率和驗證準確率。驗證準確率指示了模型的泛化性能,因為驗證集中的數據在訓練集中從未遇到過。從而,我們可以利用驗證準確率來判斷該超參數設置是否真正有效。圖5表示當我們設置不同的神經元連接丟失比率時,CRNN均衡器預測準確率的表現,其中實線為訓練準確率,虛線為驗證準確率。可以看出:當Dropout層神經元連接丟棄比率為0時,我們得到更高的訓練準確率和驗證準確率,這說明先前的超參數設置導致的模型訓練結果并未過擬合我們的訓練集。因此,針對本文實驗而言,Dropout層并無必要加入CRNN均衡器結構中。最后一個需要優化的超參數為訓練批次,其定義為訓練集被完全迭代的次數,而訓練過程遍歷完一次訓練集稱為訓練一個批次。當訓練批次較大時,不同的訓練批次導致的驗證準確率差別很小,因此我們使用驗證誤差來評價超參數的影響。如圖6所示,訓練批次對于準確率的增益是有上限的。那么我們需要找到最小的上限,以防止過度訓練。在工程實驗中,我們可以使用訓練提前停止方法,即監測控制訓練批次對于準確率增益的影響,當相鄰若干次準確率增長非常小時,我們認為訓練批次達到了它對于準確率增益的上限,這時便可以提前終止訓練。在我們的實驗中,當訓練批次為40時,驗證誤差最小,也即驗證準確率最大。另外,需要強調的是:上述超參數優化是在信噪比為15 dB的數據集下進行的。我們在線下對比發現:信噪比為15 dB時的數據集訓練出的CRNN均衡器的泛化性能最好,因此我們在其他信噪比下也使用信噪比為15 dB的數據集模型。
4.2 誤碼率性能
誤碼率(SER)是信道均衡器的一個重要性能指標,我們也實現了RLS均衡器和MLP均衡器并將它們與我們訓練得到的CRNN均衡器對比SER性能。
圖6顯示了3種信道均衡器在信噪比為-10~20 dB時的SER性能,顯然當信噪比低于0 dB時,它們均無法符合性能要求,此時CRNN基本只能從噪聲中學習而無法學習到有效的信道特征。當信噪比在0~10 dB時,CRNN均衡器在達到相同SER情況下要比RLS、MLP均衡器平均高2 dB。而當信噪比在10~15 dB時,CRNN均衡器在達到相同SER情況下比另外兩個均衡器平均高4 dB,這意味著CRNN在信號特征明顯時能比傳統均衡器學習到更多的信道特征。
5 結束語
本文中我們提出了一種基于CRNN的算法,來解決非線性時變信道的均衡問題,并在實際系統中進行了驗證。具體地,我們使用卷積神經網絡來學習匹配濾波器,然后將學習到的濾波器送入后續的循環神經網絡進行時域建模,最后對信號進行分類。實驗表明:相比RLS、MLP算法,CRNN均衡算法能夠更好地處理真實通信環境中的無線信道均衡問題。
參考文獻
[1] LYU X, FENG W, SHI R, et al. Artificial Neural Networkbased Nonlinear Channel Equalization: A Soft-Output Perspective[C]// Proceedings of the International Conference on Telecommunications (ICT). USA:IEEE, 2015: 243-248.DOI: 10.1109/ICT.2015.7124690
[2] WANG Y. Channel Equalization Using a Robust Recursive Least-Squares Adaptive-Filtering Algorithm[C]//Proceedings of the IEEE International Conference on Computer and Information Technology (ICCIT).USA:IEEE, 2012: 135-138.DOI: 10.1109/CIT.2012.49
[3] BURSE K, YADAY R N, SHRIVASTAVA S C. Channel Equalization Using Neural Networks: A Review[J].IEEE Transactions on Systems, Man,and Cybernetics, Part C (Applications and Reviews),2010,40(3): 352-357.DOI: 10.1109/TSMCC.2009.2038279
[4] PATRA J C, BENG POH W, CHAUDHARI N S, et al. Nonlinear Channel Equalization with QAM Signal Using Chebyshev Artificial Neural Network[C]// Proceedings of the IEEE International Joint Conference on Neural Networks. USA:IEEE, 2005,(5):3214-3219.DOI: 10.1109/IJCNN.2005.1556442
[5] CHANG P, WANG B. Adaptive Decision Feedback Equalization for Digital Satellite Channels Using Multilayer Neural Networks[J].IEEE Journal on Selected Areas in Communications, 1995,13(2): 316-324
[6] HUANG R C, CHEN M S. Adaptive Equalization Using Complex-Valued Multilayered Neural Network Based on the Extended Kalman Filter[C]// Proceedings of the International Conference on Signal Processing. USA:IEEE, 2000:519-524
[7] LI Y, CHEN M H, YANG Y, M.T.et al. Convolutional Recurrent Neural Network-Based Channel Equalization: An Experimental Study[C]// Proceedings of the Aisa-Pacific Conference on Communications (APCC). USA:IEEE, 2017. DOI: 10.23919/APCC.2017.8304090
[8] GOODFELLOW I, BENGIO Y, COURVILLE A. Deep Learning[M]. USA:MIT Press, 2016
[9] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-Based Learning Applied to Document Recognition[C]//Proceedings of the IEEE. USA:IEEE, 1998, 86(11):2278-2324
[10] HOCHREITER S, SCHMIDHUBER J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8):1735-1780