999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

注意力機制CNN的毫米波大規(guī)模MIMO系統(tǒng)信道估計算法

2022-02-16 07:24:48劉紫燕馬珊珊朱明成
關(guān)鍵詞:機制方法模型

劉紫燕, 馬珊珊, 梁 靜, 朱明成, 袁 磊

(貴州大學(xué)大數(shù)據(jù)與信息工程學(xué)院, 貴州 貴陽 550025)

0 引 言

毫米波大規(guī)模多輸入多輸出(multiple input multiple output,MIMO)作為5G關(guān)鍵技術(shù),在提升移動通信系統(tǒng)性能方面因其具有的高速率和高效率得到了廣泛運用。由于在收發(fā)端部署了大量天線,系統(tǒng)反饋、開銷、信道矩陣尺寸變化給系統(tǒng)的通信質(zhì)量帶來了挑戰(zhàn)。信道狀態(tài)信息獲取的準確性反應(yīng)了系統(tǒng)的通信質(zhì)量,對于毫米波大規(guī)模MIMO系統(tǒng)信道估計的研究具有重要意義。信號傳播的過程中,受到外界環(huán)境、收發(fā)信機地理位置、系統(tǒng)配置等影響,對其產(chǎn)生大量數(shù)據(jù)信息進行學(xué)習(xí)有利于提取系統(tǒng)信息,為信道估計提供基礎(chǔ)。深度學(xué)習(xí)作為人工智能領(lǐng)域的主要研究方法,其構(gòu)建的網(wǎng)絡(luò)模型對大量樣本數(shù)據(jù)具有強大分析能力和識別能力。近年來,將深度學(xué)習(xí)用于解決通信系統(tǒng)信道估計、信號檢測、預(yù)編碼等問題具有較好魯棒性為通信領(lǐng)域研究提供了新興方向。

傳統(tǒng)信道估計方法主要有最小二乘法(least square,LS)、最小均方誤差(minimum mean square error,MMSE)和壓縮感知算法。LS算法依據(jù)導(dǎo)頻輔助作用進行線性插值估計未知信道響應(yīng)信息,其導(dǎo)頻開銷大,對多天線系統(tǒng)估計精度較差;MMSE算法需要基于信道的統(tǒng)計特性和先驗信息,計算復(fù)雜度高;壓縮感知算法通過重構(gòu)恢復(fù)對信號進行處理,對信道的特性具有稀疏性要求。近幾年將深度學(xué)習(xí)方法用于解決信道估計問題受到學(xué)者們的關(guān)注。將信道矩陣視作二維圖像,其方式區(qū)別于傳統(tǒng)信道估計算法,通過圖像處理方法進行信道估計。文獻[17]基于導(dǎo)頻輔助作用,通過已知位置的信息估計出信道響應(yīng)的未知值。但其方法依然依賴于導(dǎo)頻的輔助作用,訓(xùn)練過程中導(dǎo)致系統(tǒng)開銷大。隨著天線數(shù)目的增大,在圖像轉(zhuǎn)換過程中存在矩陣維數(shù)大的問題,還需要對圖像進行去噪、邊緣優(yōu)化等操作。文獻[18]引入去噪卷積神經(jīng)網(wǎng)絡(luò)(denoising convolutional neural network,DnCNN)對信道矩陣圖像進行去噪處理,該網(wǎng)絡(luò)的性能優(yōu)于基于壓縮感知的算法。而DnCNN是針對特定的噪音水平量身定做的,只有當噪音水平在訓(xùn)練范圍內(nèi)時效果才顯著。因此,將信道矩陣視為自然圖像進行訓(xùn)練,采用深度學(xué)習(xí)訓(xùn)練模型估計方法,可適用于多種信號噪聲級別及空間相關(guān)噪聲,并可以提升訓(xùn)練速度。在去噪過程中,由于前期需要人為設(shè)定噪聲水平,而噪聲通常是與通道和空間相關(guān)的,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)在去噪方面具有較好的魯棒性。

基于導(dǎo)頻的信道估計方法,會產(chǎn)生導(dǎo)頻污染與開銷從而影響通信性能,基于深度學(xué)習(xí)的信道估計方法可以不依賴導(dǎo)頻信號的輔助,根據(jù)信道特性采取圖像去噪的方式解決信道估計問題。由于系統(tǒng)受噪聲影響,為提升去噪泛化能力和估計精度。本文提出一種基于注意力機制的CNN的信道估計方案,以CNN為基礎(chǔ)網(wǎng)絡(luò),融合注意力機制構(gòu)建信道估計網(wǎng)絡(luò)模型。將信道矩陣視為圖像進行去噪處理,通過CNN提取信道噪聲信息,結(jié)合注意力機制增強圖像噪聲特性并進行特征融合提取噪聲,該網(wǎng)絡(luò)具有良好的去噪效果。

1 系統(tǒng)模型

在時刻,系統(tǒng)傳輸?shù)臄?shù)據(jù)流為,經(jīng)系統(tǒng)傳輸,第個用戶向第個基站端發(fā)送信號,接受信號可以表示為

=,+

(1)

在生成信道路徑后,信道矩陣可由信道響應(yīng)加權(quán)相加,信道矩陣可以表示為

(2)

式中:=diag(,,…,);分別是收發(fā)端陣列響應(yīng)矩陣。

考慮到大規(guī)模天線系統(tǒng)中天線間的相關(guān)性和毫米波在傳播過程中經(jīng)歷散射次數(shù)有限,信道,元素之間存在一定相關(guān)性,信道呈現(xiàn)稀疏特性。依據(jù)此特性,可將信道矩陣看作二維自然圖像,考慮信道噪聲的影響,采用圖像去噪技術(shù)提取信道噪聲部分,通過網(wǎng)絡(luò)模型進行訓(xùn)練和測試,得到估計的信道矩陣,從而實現(xiàn)信道估計。

2 基于注意力機制的CNN信道估計

2.1 基于注意力機制的圖像特征提取

注意力機制被廣泛運用在自然語言處理、圖像識別、語音識別等領(lǐng)域,是深度學(xué)習(xí)技術(shù)中關(guān)鍵核心技術(shù)之一。其與人類視覺注意力機制相似,通過注意力機制可以從大量信息中快速提取出有效的信息,極大提高信息處理的效率。

注意力機制的過程如圖1所示,其過程主要分為3個階段:第一階段為將從模型的卷積層中提取得到, (0≤≤,0≤≤),其中、表示圖片的大小,通過傳輸?shù)阶⒁饬?將得到, 計算與各個元素,=之間的相關(guān)性。表達式為

圖1 注意力機制計算過程Fig.1 Computation process of attention mechanism

Similarity (,, )=,

(3)

第二階段對第一階段的結(jié)果進行數(shù)值轉(zhuǎn)換,進行歸一化處理,引入SoftMax。表達式為

, =SoftMax(Sim, )

(4)

第三階段將, 中對應(yīng)的權(quán)重值Value, 進行加權(quán)求和得到權(quán)重值。表達式為

(5)

其輸入是從卷積層中提取到的特征,輸出是該特征的注意力權(quán)重。

算法 1 注意力機制算法輸入:卷積層提取特征Zi,j輸出:權(quán)重Attention1. W,H2. Similarity (Kl, Zi,j)=KlZi,j3. αi,j=SoftMax(Simi,j) 4. for i < 0 to W do;5. for j < 0 to H do;6. Attention (Kl, Zi,j)=∑Wi=1∑Hj=1αi,j·Valuei,j7. end for8. end for

2.2 基于注意力機制CNN信道估計

CNN是由基礎(chǔ)的神經(jīng)元之間線性加權(quán)組成,并且是具有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò)。卷積結(jié)構(gòu)可以有效減少網(wǎng)絡(luò)參數(shù),緩解模型過擬合問題。其特征提取功能的核心模塊是由網(wǎng)絡(luò)中隱含層的卷積層和池化層組成,是一種多層的監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)模型中的權(quán)重參數(shù)逐層調(diào)節(jié)主要通過梯度下降法最小化損失函數(shù),通過不斷的迭代訓(xùn)練可以提高網(wǎng)絡(luò)的性能。因此,在圖像分類、識別、去噪等領(lǐng)域得到廣泛運用。

CNN包括卷積層、激勵層、池化層和全連接層,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。卷積層(Conv)可以實現(xiàn)對輸入圖片的特征進行提取,其具有局部感受野和權(quán)值共享兩個特性。池化層(BN)可以降低網(wǎng)絡(luò)參數(shù)并避免特征維數(shù)大而出現(xiàn)過擬合問題。激勵層(Relu)為了防止數(shù)據(jù)中存在較大或小的數(shù)據(jù)對訓(xùn)練效果弱化。全連接層通過進行特征融合并輸出。

圖2 CNN結(jié)構(gòu)Fig.2 CNN structure

本文提出基于注意力機制CNN的信道估計模型如圖3所示,其中模型由基礎(chǔ)的CNN和注意力機制網(wǎng)絡(luò)組成,將信道矩陣看作二維圖像輸入到網(wǎng)絡(luò)模型中。

圖3 基于注意力機制CNN的信道估計模型Fig.3 Channel estimation model based on attention mechanism CNN

通過CNN前兩層提取圖像的淺層特征,將CNN提取的淺層特征輸入到注意力網(wǎng)絡(luò)中,通過結(jié)合注意力機制網(wǎng)絡(luò)提取的特征,融合后得到顯著特征。最后,將提取的特征通過卷積層進行噪聲提取,將提取的噪聲通過全連接層輸出。輸入是含信道噪聲矩陣,通過模型提取噪聲,輸出是估計信道矩陣。整個模型包含15層,除layer1層、layer2層和輸出全連接層外,每層由Conv+BN+Relu組成,其中Conv代表卷積,BN代表批量歸一化,Relu代表激活函數(shù)采用Relu函數(shù),卷積核采用3×3×64大小。

2.3 評價指標

本文主要采用歸一化均方誤差(normalized mean square error,NMSE)來評價信道估計質(zhì)量。其是用來衡量估計量與被估計量之間差異程度,表達式為

(6)

2.4 復(fù)雜度分析

表1為本文提出和對比算法的復(fù)雜度比較,其中為子載波數(shù),為路徑數(shù)?;谏疃葘W(xué)習(xí)的信道估計方法,主要考慮以在線估計的復(fù)雜性為度量。

表1 算法復(fù)雜度對比

由表1可知,考慮在線估計階段,本文所提算法的復(fù)雜度高于LS,但較LS估計精度有較大提升,復(fù)雜度低于MMSE。主要是神經(jīng)網(wǎng)絡(luò)進行在線訓(xùn)練,將已經(jīng)訓(xùn)練好的網(wǎng)絡(luò)用于估計,通過對矩陣進行乘法加權(quán)無需進行求逆,其復(fù)雜度較低。所提算法低于CNN,與DnCNN復(fù)雜度處于同等級,因增加了注意力機制,相較于CNN和DnCNN收斂得更快,相較于DnCNN可以得到更高的估計精度。

3 仿真結(jié)果與分析

本文所采用的數(shù)據(jù)集主要模擬在十字街道上分布的建筑物、基站和用戶之間的通信場景,通過DeepMIMO捕捉周圍環(huán)境和位置信息,將產(chǎn)生的數(shù)據(jù)通過網(wǎng)絡(luò)模型進行訓(xùn)練并估計信道狀態(tài)信息。首先通過文獻[30]的方式產(chǎn)生數(shù)據(jù)集,將得到的信道矩陣輸入到網(wǎng)絡(luò)中。數(shù)據(jù)集的產(chǎn)生中提供了18個可以選擇的基站,本文選定了第5~8個基站。在其分布的100萬多用戶中選取第1 200~1 800行的用戶。基站天線數(shù)=××,分別代表基站,,方向上天線的數(shù)量,參數(shù)設(shè)置如表2所示。其次選取樣本數(shù)40 000,其中75%用于訓(xùn)練數(shù)據(jù)集,15%用于驗證數(shù)據(jù),10%用于測試數(shù)據(jù)。最后本文將所提出的算法與LS、MMSE、CNN、DnCNN方法進行比較分析。

表2 系統(tǒng)仿真的主要參數(shù)

圖4分別對比了CNN、DnCNN 2種方法和所提方法在不同迭代次數(shù)下各網(wǎng)絡(luò)模型的損失。通過設(shè)定相同網(wǎng)絡(luò)參數(shù),在不同迭代次數(shù)下,優(yōu)于基于注意力機制模塊的優(yōu)化,在提取特征時更加注重需要關(guān)注的特征而忽略不重要的特征,基于所提方法的網(wǎng)絡(luò)模型在損失性能上優(yōu)于CNN、DnCNN。

圖4 不同迭代次數(shù)下各網(wǎng)絡(luò)模型的損失Fig.4 Loss of each network model under different iteration times

圖5~圖7分別對比了在信噪比(signal to noise ratio, SNR)分別為10 dB、20 dB、30 dB時,CNN、DnCNN兩種方法和所提方法在不同網(wǎng)絡(luò)層數(shù)下各網(wǎng)絡(luò)模型的NMSE性能比較。從圖4~圖6可以看出,通過不斷增加網(wǎng)絡(luò)層的數(shù)量來對比模型的估計性能,所提方法在相同網(wǎng)絡(luò)層數(shù)下性能優(yōu)于CNN、DnCNN方法。從圖4可以看出,當網(wǎng)絡(luò)層數(shù)為9和11時,可以發(fā)現(xiàn)所提方法和DnCNN方法的NMSE性能在同一等級。從圖5可以看出,當網(wǎng)絡(luò)層數(shù)為9和10時,可以發(fā)現(xiàn)所提方法和DnCNN方法MSE性能在同一等級。此外,所提方法在12層內(nèi)收斂,而CNN、DnCNN在15層和14層收斂。從圖6可以看出,當網(wǎng)絡(luò)層數(shù)為9和13時,可以發(fā)現(xiàn)所提方法和DnCNN方法MSE性能在同一等級。此外,所提方法在11層內(nèi)收斂,而CNN、DnCNN在14層和13層收斂。本文方法模型上較其他簡單和實用。隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的增加,所提方法都能取得更好的NMSE性能。

圖5 不同網(wǎng)絡(luò)層數(shù)下各網(wǎng)絡(luò)模型的NMSE性能比較(SNR=10 dB)Fig.5 NMSE performance comparison of various network models under different network layers (SNR=10 dB)

圖6 不同網(wǎng)絡(luò)層數(shù)下各網(wǎng)絡(luò)模型的NMSE性能比較(SNR=20 dB)Fig.6 NMSE performance comparison of various network models under different network layers (SNR=20 dB)

圖7 不同網(wǎng)絡(luò)層數(shù)下各網(wǎng)絡(luò)模型的NMSE性能比較(SNR=30 dB)Fig.7 NMSE performance comparison of various network models under different network layers (SNR=30 dB)

圖8分別對比了LS、MMSE、CNN、DnCNN 4種方法和本文所提方法在不同SNR下的NMSE性能,其中LS和MMSE為傳統(tǒng)信道估計算法。LS算法的估計性能最差,MMSE算法較LS算法有一定的提升。從圖8可以看出,本文所提方法較CNN、DnCNN方法估計性能平均提升約1.53 dB。在SNR為0~15 dB情況下,比CNN、DnCNN方法估計性能平均提高約0.15~0.23 dB;在16~30 dB情況下基于所提方法的信道估計性能平均提高約0.68~1.43 dB。由于所提方法對樣本進行訓(xùn)練學(xué)習(xí)時增加了注意力機制模塊,在噪聲提取上表現(xiàn)出了更好的性能,在同一SNR下,基于所提方法的信道估計精度平均提升約1.86 dB。

圖8 基于Attention-CNN和其他方法的NMSE曲線Fig.8 Normalized mean square error curves based on Attention-CNN and other methods

深度學(xué)習(xí)方法應(yīng)用于通信領(lǐng)域主要得益于對未知模型強大的學(xué)習(xí)能力,提出基于注意力機制CNN方法相較于其他方法性能有所提升。本文通過選取分布的基站中較為集中的幾個基站和多個用戶產(chǎn)生更符合實際通信場景的數(shù)據(jù),仿真結(jié)果表明,在不同SNR情況下,其估計精度有所提升,并且隨著信噪比增加,NMSE減小,估計性能越好。

4 結(jié) 論

針對信道估計受噪聲、系統(tǒng)性能影響的問題,本文通過DeepMIMO模擬產(chǎn)生數(shù)據(jù)集,將產(chǎn)生信道矩陣視為圖像的方式。本文通過注意力機制模塊增強圖像空間像素特征,將注意力機制結(jié)合CNN對圖像進行去噪。結(jié)果表明,本文所提算法的信道估計精度較其他方法有所提升。下一步的研究方向是創(chuàng)建更切合真實環(huán)境的數(shù)據(jù)集,其他圖像的處理方式提取信道特征以及更簡單的網(wǎng)絡(luò)模型提升信道估計的精度。

猜你喜歡
機制方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
破除舊機制要分步推進
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
注重機制的相互配合
主站蜘蛛池模板: 久久无码av一区二区三区| 69免费在线视频| 精品久久久久成人码免费动漫 | 欧美激情第一欧美在线| 亚洲日韩第九十九页| 国产日韩欧美在线视频免费观看| 中文字幕av一区二区三区欲色| 久久国产V一级毛多内射| 国产综合日韩另类一区二区| 国产视频a| 2022国产91精品久久久久久| 国产91丝袜在线观看| 国产成人精品第一区二区| 国产精品欧美在线观看| 这里只有精品国产| 日韩无码白| 国产丝袜丝视频在线观看| 97综合久久| 在线另类稀缺国产呦| 91人妻在线视频| 日韩在线视频网站| 在线观看av永久| 日本成人不卡视频| 欧美全免费aaaaaa特黄在线| 香蕉久人久人青草青草| 亚洲aaa视频| 久久综合五月婷婷| 婷婷丁香色| 精品天海翼一区二区| 亚洲一区波多野结衣二区三区| 国产精选自拍| 国产成在线观看免费视频| 8090成人午夜精品| 亚洲一区国色天香| 欧美三级视频网站| 精品第一国产综合精品Aⅴ| 71pao成人国产永久免费视频| 91丝袜乱伦| 国产三级视频网站| 久久免费成人| 毛片在线播放网址| 狠狠色综合网| 免费视频在线2021入口| 成人精品在线观看| 国产一区二区精品福利| 免费国产在线精品一区| 99久久精品国产自免费| 精品欧美日韩国产日漫一区不卡| 久久婷婷六月| 国产精品无码制服丝袜| 国产福利一区视频| 亚洲欧美日本国产综合在线| 第九色区aⅴ天堂久久香| 欧美日韩高清在线| 中字无码精油按摩中出视频| 免费国产好深啊好涨好硬视频| 日韩精品毛片| 国产真实自在自线免费精品| 国产精品永久免费嫩草研究院| 午夜色综合| 精品国产亚洲人成在线| 国产午夜精品一区二区三区软件| 欧洲欧美人成免费全部视频| 久久国产高清视频| 欧美啪啪一区| av一区二区三区在线观看| 欧美日本激情| 日韩a级片视频| 一区二区午夜| 国产成人91精品| 欧美激情综合| 狠狠综合久久| 日本在线国产| 欧美a在线| 亚洲AV无码乱码在线观看代蜜桃| 亚洲精品久综合蜜| 国产三级国产精品国产普男人| 欧美精品v欧洲精品| 18禁黄无遮挡免费动漫网站| 国内精自视频品线一二区| 毛片网站观看| 久久综合伊人 六十路|