999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于USRP的自動調(diào)制識別

2020-09-02 01:22:24劉橋平高興宇
關(guān)鍵詞:分類模型

劉橋平 高興宇 邱 昕 郭 瑞

1(中國科學(xué)院微電子所 北京 100085)2(中國科學(xué)院大學(xué) 北京 100049)

0 引 言

21世紀(jì)初,軟件無線電(Software Defined Radio,SDR)誕生。通過通用PC運(yùn)行代碼實(shí)現(xiàn)不同的通信功能,可對運(yùn)行頻率、工作帶寬、調(diào)制類別、編碼方式等進(jìn)行靈活編程,系統(tǒng)可調(diào)節(jié)適用性大為增強(qiáng)。軟件無線電為非協(xié)作通信提供了合適的硬件平臺。

在一對多與多對多的網(wǎng)絡(luò)通信、無線電監(jiān)控管理、通信系統(tǒng)故障檢查、通信對抗偵察等軍用和民用領(lǐng)域,對不影響正常通信的第三方系統(tǒng)的接入技術(shù)有了迫切需求。這樣的非授權(quán)接入的通信方式就是非協(xié)作通信。軟件無線電平臺的出現(xiàn)為非協(xié)作通信提供了合適的硬件基礎(chǔ)。非協(xié)作通信首先必須知道接收信號的調(diào)制方式和調(diào)制參數(shù),這就需要對接收信號進(jìn)行調(diào)制識別。現(xiàn)有的自動調(diào)制識別技術(shù)主要可分為兩類[1]:基于假設(shè)檢驗(yàn)的最大似然方法;基于特征提取的模式識別方法。基于假設(shè)檢驗(yàn)的最大似然方法是一種統(tǒng)計(jì)方法,其利用概率模型推導(dǎo),在觀測采樣值、觀測值的概率密度達(dá)到最大時找出最為合理的參數(shù)估計(jì)量。從貝葉斯估計(jì)的角度來說,基于假設(shè)檢驗(yàn)的最大似然方法的結(jié)果是最優(yōu)的,但該類方法對參數(shù)偏差和模型失配較為敏感,在現(xiàn)實(shí)的復(fù)雜通信環(huán)境中難以廣泛應(yīng)用。基于特征提取的模式識別方法則較為穩(wěn)定從而實(shí)用性更強(qiáng)。

本文主要使用USRP B210在空中接口環(huán)境下采集8種調(diào)制類別IQ數(shù)據(jù),訓(xùn)練分類模型實(shí)現(xiàn)USRP B210實(shí)時接收空中接口IQ數(shù)據(jù)實(shí)時輸出調(diào)制類型。為了提高自動調(diào)制識別的準(zhǔn)確度,優(yōu)化ResNet、GoogLenet、SENet用于自動調(diào)制識別。

1 相關(guān)工作

1.1 軟硬件平臺

本文硬件平臺為Ettus公司的USRP B210,其底層驅(qū)動程序?yàn)閁HD,眾多軟件平臺都能適配,相較于其他的SDR硬件平臺具有更好的通用性。軟件平臺為GNU Radio Companion(GRC),擁有非常多的頂層組件協(xié)助開發(fā)人員快速構(gòu)建工程。例如:GNU Radio使用USRP B210作為發(fā)射源,可以調(diào)用UHD:USRP Sink模塊。USRP B210板卡如圖1所示。

圖1 USRP B210板卡

本文使用了GNU Radio Companion 7種Mod調(diào)制模塊,分別是BPSK Mod、QPSK Mod、8PSK Mod、QAM16 Mod、QAM64 Mod、QAM256 Mod、GMSK Mod,可以生成對應(yīng)的7種調(diào)制類別信號源。同時空口發(fā)射端無信號時接收端依然會接收信號,于是添加ZERO這種特殊情況,則一共有8類8PSK、BPSK、GMSK、QAM16、QAM256、QAM64、QPSK、ZERO。USRP B210發(fā)射端GRC圖如圖2所示,其中未連接的是調(diào)制類別替換模塊。

圖2 USRP B210發(fā)射端GRC圖

接收端直接將USRP B210接收的數(shù)據(jù)存入Vector Sink模塊,主線程可以從中拿到類型為complex64的IQ數(shù)據(jù)。圖3為USRP B210數(shù)據(jù)集接收端GRC圖。

圖3 USRP B210接收端GRC圖

1.2 空中接口IQ數(shù)據(jù)集

采用USRP B210空中接口發(fā)射接收IQ數(shù)據(jù)。由于空口信噪比難以衡量,我們以發(fā)射增益來替代。固定接收增益、收發(fā)天線距離,假定空口噪聲功率恒定,發(fā)射增益越大,則信噪比越大。令發(fā)射端發(fā)射增益gain取值(0,5,10,15,20,25,30,35,40,45,50,55,60,65,70),假設(shè)每一個調(diào)制類別每一個發(fā)射增益采集1 000組IQ樣本點(diǎn),我們將獲得8×15×1 000×128×2維的IQ數(shù)據(jù)集。數(shù)據(jù)集每一個維度的意義依次是:8類調(diào)制方式(BPSK,QPSK,8PSK,GMSK,QAM16,QAM64,QAM256,ZERO),15類發(fā)射增益(0,5,10,15,20,25,30,35,40,45,50,55,60,65,70),每一類1 000個樣本,每個樣本是128組連續(xù)采樣的IQ數(shù)據(jù),IQ數(shù)據(jù)是2個32位浮點(diǎn)數(shù)。最后是加入調(diào)制方式標(biāo)簽,8類依次為0、1、2、3、4、5、6、7。MATLAB各調(diào)制類型信號I路時域圖見圖4,說明調(diào)制類型時域可分。MATLAB繪制各調(diào)制類型的IQ散點(diǎn)星座圖如圖5所示,說明本文生成的IQ數(shù)據(jù)集符合對應(yīng)調(diào)制類型。

圖4 接收端各調(diào)制類型信號256點(diǎn)I路時域圖

圖5 接收端各調(diào)制類型信號256點(diǎn)散點(diǎn)星座圖

2 相關(guān)算法及模型優(yōu)化

2.1 傳統(tǒng)機(jī)器學(xué)習(xí)算法

傳統(tǒng)機(jī)器學(xué)習(xí)算法包括KNN、DT、SVM,應(yīng)用于自動調(diào)制識別的具體流程[1]如圖6所示。

圖6 傳統(tǒng)機(jī)器學(xué)習(xí)的自動調(diào)制識別流程

自動調(diào)制方式識別的人工特征提取要求有較高的通信領(lǐng)域?qū)I(yè)知識,傳統(tǒng)機(jī)器學(xué)習(xí)識別方法,不能以原始IQ數(shù)據(jù)訓(xùn)練模型。常見的人工提取特征主要包括時域[2]或變換域特征參數(shù)[3]。時域特征包括瞬時相位、瞬時頻率以及瞬時幅度;變換域特征包括譜相關(guān)函數(shù)、功率譜以及其他一些統(tǒng)計(jì)參數(shù),也可以是多種特征相結(jié)合[4]。

2.2 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)能夠自動提取不同調(diào)制類別的區(qū)分特征[5],基本的CNN網(wǎng)絡(luò)模型如圖7所示。

圖7 CNN網(wǎng)絡(luò)模型

理論上,CNN疊加的層數(shù)越多,分類準(zhǔn)確度越高,然而實(shí)際上CNN疊加的層數(shù)增加到一定程度之后網(wǎng)絡(luò)的分類準(zhǔn)確度反而開始下降。針對這個問題的改進(jìn),在圖像識別領(lǐng)域各種新穎的人工神經(jīng)網(wǎng)絡(luò)框架層出不窮。

GoogLenet是谷歌(Google)2014年研究出來的深度網(wǎng)絡(luò)結(jié)構(gòu),雖然出現(xiàn)比較早,但Google一直在持續(xù)改進(jìn)。截至2019年Github開源的就有V1、V2、V3、V4版[6],可以認(rèn)為GoogLenet是一個系列。GoogLenet核心的改進(jìn)在于提出InceptionNet in net,InceptionNet將不同尺度的卷積(比如1×1,3×3,5×5)和池化在通道維度堆疊,增加了網(wǎng)絡(luò)的寬度,改善了網(wǎng)絡(luò)對尺度的適應(yīng)性。在后繼V2、V3的改進(jìn)中主要使用小尺寸的卷積核級聯(lián)網(wǎng)絡(luò)替代大尺寸的卷積核,減少參數(shù)量并保持感受野范圍。V3的InceptionNet如圖8所示。

圖8 GoogLenet InceptionNet結(jié)構(gòu)

微軟亞研院的何凱明等提出了ResNet[7],創(chuàng)新性地引入了恒等快捷連接。CNN第i+1層的輸入是第i層的輸出xi+1=F(xi),而ResNetxi+1=F(xi)+xi。網(wǎng)絡(luò)結(jié)構(gòu)圖關(guān)鍵不同點(diǎn)在于xi+1中增加了xi分量。ResNet模型結(jié)構(gòu)如圖9所示。

圖9 ResNet網(wǎng)絡(luò)模型

前面的改進(jìn)都是在空間維度提升網(wǎng)絡(luò)的性能,而胡杰等[8]提出的SENet(Squeeze-and-Excitation Networks)則是在通道維度提升網(wǎng)絡(luò)的性能。SENet學(xué)習(xí)獲得每個特征通道的權(quán)重,在通道相加或疊加之前乘以各自的權(quán)重。嚴(yán)格地說,SENet不是特指某一種網(wǎng)絡(luò),而是一種改進(jìn)思路,圖10展示了其在ResNet上的結(jié)合方式。

圖10 SENet結(jié)合Resnet

2.3 調(diào)制識別的模型優(yōu)化

ResNet、GoogLenet、SENet都是計(jì)算機(jī)視覺領(lǐng)域近幾年提出的改進(jìn)CNN模型。若是直接用于自動調(diào)制識別顯然是不行的,還需要針對自動調(diào)制識別進(jìn)行一些模型優(yōu)化。

(1) 去池化。池化層主要作用是降維減少冗余計(jì)算量,同時讓模型對輸入的少量平移不那么敏感。在自動調(diào)制識別任務(wù)ResNet、GoogLenet、SENet直接使用IQ數(shù)據(jù)進(jìn)行分類,輸入的每一組數(shù)據(jù)維度為2×128,其中IQ維度信息是最關(guān)鍵的。在網(wǎng)絡(luò)中采用池化操作會造成IQ維度關(guān)鍵信息丟失,因而本文將ResNet、GoogLenet、SENet網(wǎng)絡(luò)主干數(shù)據(jù)流的池化層全部去掉。但是GoogLenet InceptionNet內(nèi)部的Pool以及SENet求Scale所用到的Global Pooling是需要保留的。此外靠近輸出的池化層聚合特征來計(jì)算分類結(jié)果不在去池化范圍內(nèi)。

(2) 非對稱卷積。ResNet、GoogLenet、SENet原作者大多是針對矩形圖片進(jìn)行特征圖提取操作。常用的卷積核為[1,1]、[3,3]、[5,5]、[7,7]。在自動調(diào)制識別任務(wù)ResNet、GoogLenet、SENet輸入的每一組數(shù)據(jù)維度是2×128。受GoogLenet InceptionNet思想啟發(fā),本文大膽采用了大小為[2,4][2,8]的卷積核,同時在filter較多的中后段卷積層,使用一組[2,1][1,4]的卷積核來替代[2,4]的卷積核;使用一組[2,1][1,8]的卷積核來替代[2,8]的卷積核,達(dá)到減少計(jì)算量同時保持感受野的目的。網(wǎng)絡(luò)層數(shù)較深的情況下,我們在自動調(diào)制識別使用最為頻繁的還是大小為[2,2]的卷積核。

(3) 特征圖大小不變。ResNet、GoogLenet、SENet原作者大多是針對圖片,遠(yuǎn)比自動調(diào)制識別的數(shù)據(jù)維度2×128要大一些。某些卷積層stride=2有助于縮小特征圖尺寸從而減少計(jì)算量。而自動調(diào)制識別則不同,本身數(shù)據(jù)維度2×128較小,網(wǎng)絡(luò)前端多采用卷積stride=1保持特征圖大小不變是可行的。最后在網(wǎng)絡(luò)后端再進(jìn)行特征圖大小壓縮。

遵從以上三大原則對計(jì)算機(jī)視覺領(lǐng)域的ResNet、GoogLeNet、SENet模型進(jìn)行優(yōu)化,得到適用于自動調(diào)制識別的ResNet-B、GoogLeNet-B、SENet-B。此處命名是為方便后面說明,所有優(yōu)化皆源于自動調(diào)制識別數(shù)據(jù)IQ二元性,后綴B取Binary之意。

3 實(shí) 驗(yàn)

實(shí)驗(yàn)針對不同的自動調(diào)制識別模型使用相同的數(shù)據(jù)集。USRP B210采集的IQ數(shù)據(jù)50%作為訓(xùn)練集,50%作為測試集。

代碼實(shí)現(xiàn)基于TensorFlow框架。TensorFlow是一個用于各種感知和語言理解任務(wù)的機(jī)器學(xué)習(xí)開源軟件庫,最初開發(fā)者為谷歌大腦團(tuán)隊(duì),初衷是助力Google的研究和生產(chǎn),于2015年11月9日在Apache 2.0開源許可證下對外開放。訓(xùn)練模型均使用早停機(jī)制,超過10次迭代驗(yàn)證集上loss沒有低于最小值就停止訓(xùn)練,保存驗(yàn)證集上loss值最低的模型。

(1) 基礎(chǔ)CNN模型。兩層卷積層、一層池化層、兩層全連接層、最后是Softmax層。CNN超參數(shù)取值batch_size=128。CNN各發(fā)射增益條件下的分類準(zhǔn)確度如圖11所示。

圖11 CNN在各發(fā)射增益條件下的分類準(zhǔn)確度

(2) Google開源在Github上的Tensorflow/Model下的Inception_v3。GoogLenet Inception_v4已經(jīng)吸收了ResNet,這里為了對比沒有采用。超參數(shù)batch_size=128。GoogLenet Inception_v3、GoogLenet Inception_v3-B各發(fā)射增益條件下的分類準(zhǔn)確度如圖12、圖13所示。

圖12 GoogLenet在各發(fā)射增益條件下的分類準(zhǔn)確度

圖13 GoogLenet-B在各發(fā)射增益條件下的分類準(zhǔn)確度

(3) Github上的Tensorflow/Model下的ResNet。超參數(shù)batch_size=128,ResNet_size=32。ResNet、ResNet-B各發(fā)射增益條件下的分類準(zhǔn)確度如圖14、圖15所示。

圖14 ResNet在各發(fā)射增益條件下的分類準(zhǔn)確度

圖15 ResNet-B在各發(fā)射增益條件下的分類準(zhǔn)確度

(4) SENet。超參數(shù)batch_size=128。SENet、SENet-B各發(fā)射增益條件下的分類準(zhǔn)確度如圖16、圖17所示。SENet-B在發(fā)射增益gain=30時對各調(diào)制類型的分類準(zhǔn)確度如圖18所示。

圖16 SENet在各發(fā)射增益條件下的分類準(zhǔn)確度

圖17 SENet-B在各發(fā)射增益條件下的分類準(zhǔn)確度

圖18 發(fā)射增益gain=30 SENet混淆矩陣圖

CNN、GoogLenet Inception_v3、GoogLenet Inception_v3-B、ResNet、ResNet-B、SENet、SENet-B分類準(zhǔn)確度總體對比見表1。

表1 各發(fā)射增益條件下各個模型的分類準(zhǔn)確度 %

續(xù)表1 %

對實(shí)驗(yàn)結(jié)果進(jìn)行對比分析,模型優(yōu)化后調(diào)制識別準(zhǔn)確度得到了一定提升。由圖11-圖17可以看出:發(fā)射增益gain>30,即信噪比較高的條件下,以上模型均有90%以上準(zhǔn)確率;發(fā)射增益gain<15,即信噪比較低的條件下,所有模型均不能正常分類;發(fā)射增益gain處于[15,30]區(qū)間,也是我們最常遇到的信噪比條件下,GoogLenet Inception_v3-B、ResNet-B、SENet-B相比CNN有很大提升,其中又以SENet-B分類效果最好。由圖18可以看出:SENet-B對于8PSK、BPSK、GMSK、QAM16、QAM256、QAM64、QPSK、ZERO識別準(zhǔn)確率均能滿足實(shí)際工程需求。

4 結(jié) 語

優(yōu)化ResNet、GoogLenet、SENet用于自動調(diào)制識別,能準(zhǔn)確有效地分類BPSK、QPSK、8PSK、GMSK、QAM16、QAM64、QAM256、ZERO,其中ZERO代表發(fā)射端沒有發(fā)射信號的情況。相比于傳統(tǒng)機(jī)器學(xué)習(xí)方法,無需人工提取特征;相比于普通的CNN網(wǎng)絡(luò),在較低發(fā)射增益也就是較低信噪比情況下分類準(zhǔn)確度有了進(jìn)一步提升。下一步將探索如何構(gòu)建完備的調(diào)制類型數(shù)據(jù)集,使得訓(xùn)練獲得的分類模型能夠滿足更復(fù)雜空口環(huán)境、更繁多調(diào)制類別的自動調(diào)制識別需求。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 国产精品内射视频| 久热精品免费| 国产正在播放| 亚洲综合天堂网| 香蕉在线视频网站| 一级毛片a女人刺激视频免费| 小说 亚洲 无码 精品| 欧美日本一区二区三区免费| 免费av一区二区三区在线| 国产在线观看91精品亚瑟| 国产在线无码一区二区三区| 国产av色站网站| 高清码无在线看| 韩国福利一区| 在线观看国产精美视频| 久久久91人妻无码精品蜜桃HD| 国产在线一二三区| 亚洲欧洲AV一区二区三区| 特级毛片免费视频| 国产视频一区二区在线观看| 国产精品人成在线播放| 国产精品99在线观看| 欧美一区二区三区香蕉视| 日韩欧美国产精品| 成人在线综合| 久久综合伊人77777| 亚洲综合婷婷激情| 狠狠v日韩v欧美v| 亚洲91精品视频| 国产女人在线| 一级毛片高清| 久久情精品国产品免费| 在线高清亚洲精品二区| 国产爽妇精品| 极品国产在线| 精品国产aⅴ一区二区三区| 区国产精品搜索视频| 欧美激情综合| 日本人妻一区二区三区不卡影院 | 亚洲综合亚洲国产尤物| 亚洲成人www| 亚洲av无码成人专区| 99热精品久久| 国产成人1024精品| 日韩黄色大片免费看| 亚洲永久免费网站| 国产毛片高清一级国语| 在线观看无码av免费不卡网站| 日韩精品成人在线| 91精品国产91久久久久久三级| 免费观看欧美性一级| 日韩无码白| 亚洲第一极品精品无码| 日本一区中文字幕最新在线| 国产欧美视频一区二区三区| 无码精品国产dvd在线观看9久| 伊人久久久大香线蕉综合直播| 国产一区亚洲一区| 亚洲天堂日韩av电影| 国产精品自在自线免费观看| 国产亚洲视频免费播放| 日本色综合网| 国产高清免费午夜在线视频| 秋霞一区二区三区| 四虎成人精品在永久免费| 国产午夜福利在线小视频| 毛片免费高清免费| 久久精品国产电影| 精品国产自在现线看久久| 亚洲三级视频在线观看| 欧美午夜小视频| 欧美亚洲一区二区三区在线| 国产一区二区网站| 国产国产人免费视频成18| 久久www视频| 中文字幕佐山爱一区二区免费| 88av在线看| 亚洲色成人www在线观看| 国产一级毛片在线| 99热免费在线| 久久精品无码一区二区日韩免费| 精品视频免费在线|