999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于去噪卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)信號(hào)調(diào)制類型識(shí)別

2021-08-26 08:07:58肖易寒郭玉霞
電子與信息學(xué)報(bào) 2021年8期
關(guān)鍵詞:特征提取信號(hào)

肖易寒 王 亮 郭玉霞

①(哈爾濱工程大學(xué)信息與通信工程學(xué)院先進(jìn)船舶通信與信息技術(shù)工業(yè)和信息化部重點(diǎn)實(shí)驗(yàn)室 哈爾濱 150000)

②(中國(guó)空空導(dǎo)彈研究院 洛陽(yáng) 471009)

③(航空制導(dǎo)武器航空科技重點(diǎn)實(shí)驗(yàn)室 洛陽(yáng) 471009)

1 引言

低截獲概率雷達(dá)由于擁有低功率、大帶寬等優(yōu)點(diǎn),并且自身可以發(fā)射各種復(fù)雜的調(diào)制信號(hào),使得非合作接收機(jī)難以對(duì)其進(jìn)行分析。因此,針對(duì)低截獲概率(Low Probability of Intercept,LPI)雷達(dá)發(fā)射信號(hào)進(jìn)行有效的特征提取與識(shí)別成為關(guān)鍵。

由于數(shù)字信號(hào)處理技術(shù)的發(fā)展,對(duì)于脈內(nèi)特征參數(shù)的雷達(dá)信號(hào)識(shí)別發(fā)展迅速。文獻(xiàn)[1]利用調(diào)制寬帶轉(zhuǎn)換器(Modulated Wideband Converter,MWC)離散壓縮采樣的新型寬帶數(shù)字接收機(jī)結(jié)構(gòu),提出基于短時(shí)傅里葉變換以及頻譜能量聚焦率檢驗(yàn)的識(shí)別算法,對(duì)6種調(diào)制類型信號(hào)(NS,BPSK,QPSK,LFM,NLFM,2FSK)進(jìn)行分類識(shí)別,在信噪比為4 d B時(shí)識(shí)別率可以達(dá)到90%。然而這種方法需要人為提取特征,所以極其依賴特征參數(shù)的設(shè)計(jì)。隨著卷積神經(jīng)網(wǎng)絡(luò)在圖像處理與識(shí)別方面的大量應(yīng)用[2],將深度學(xué)方法應(yīng)用于LPI雷達(dá)時(shí)頻圖像(Time-Frequency Image,TFI)處理與識(shí)別的方法越來(lái)越多。文獻(xiàn)[3]提出利用Choi-Williams分布(Choi Williams Distribution,CWD)進(jìn)行時(shí)頻分析,采用LeNet-5結(jié)構(gòu)識(shí)別多種調(diào)制類型信號(hào),在信噪比為–2 d B時(shí),BPSK,LFM,Costas碼、Frank碼和多時(shí)碼(T1,T2,T3和T4)的8種信號(hào)的識(shí)別率達(dá)到93.7%。在此基礎(chǔ)上,文獻(xiàn)[4]在對(duì)TFI進(jìn)行特征提取與識(shí)別時(shí)使用Alex Net模型結(jié)構(gòu),加深和優(yōu)化了網(wǎng)絡(luò)結(jié)構(gòu),對(duì)CW,LFM,EQFM,DLFM,BFSK,BPSK以及QPSK這7種雷達(dá)信號(hào)進(jìn)行特征的自動(dòng)提取和選擇,并且在信噪比為–6 d B時(shí)識(shí)別率達(dá)到90%以上。然而上述方法存在CNN網(wǎng)絡(luò)中的梯度彌散等問(wèn)題,因此無(wú)法確保網(wǎng)絡(luò)訓(xùn)練時(shí)的穩(wěn)定性。文獻(xiàn)[5]采用的殘差網(wǎng)絡(luò)基本解決了這一問(wèn)題,但是對(duì)于時(shí)頻圖像的預(yù)處理不夠,導(dǎo)致低信噪比下的識(shí)別效果仍然有限。文獻(xiàn)[6]使用棧式稀疏自編碼器對(duì)8種LPI雷達(dá)波形進(jìn)行識(shí)別。在對(duì)信號(hào)時(shí)頻圖像進(jìn)行有效預(yù)處理的同時(shí),也在一定程度上緩解傳統(tǒng)CNN網(wǎng)絡(luò)中存在的問(wèn)題,然而預(yù)處理過(guò)程復(fù)雜,因此仍然有其局限性。

在改進(jìn)網(wǎng)絡(luò)模型時(shí),同樣也提出了遷移學(xué)習(xí)的思想,文獻(xiàn)[7]將遷移學(xué)習(xí)應(yīng)用于Inception-V3和ResNet-152網(wǎng)絡(luò)進(jìn)行特征提取,使用SVM作為分類器,在信噪比為–2 d B時(shí),8種LPI雷達(dá)信號(hào)(LFM,BPSK,Costas,F(xiàn)rank和T1~T4)的總識(shí)別率達(dá)到97.8%,同時(shí)文獻(xiàn)[8]也將遷移學(xué)習(xí)以及特征融合思想結(jié)合,并使用VGG網(wǎng)絡(luò)進(jìn)行特征提取與識(shí)別,同樣達(dá)到相似的識(shí)別效果。然而遷移學(xué)習(xí)僅適用參數(shù)小范圍波動(dòng)的數(shù)據(jù),并且由于特征提取時(shí)采用共享參數(shù)思想,因此其普適性較差。上述文獻(xiàn)不斷對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),而在時(shí)頻圖像的預(yù)處理方面工作較少,因此需要對(duì)圖像進(jìn)行有效的預(yù)處理。文獻(xiàn)[9]通過(guò)圖像濾波、圖像開放操作、骨架提取、主成分分析(PCA)、圖像二值化算法和偽Zernike矩等技術(shù),從接收數(shù)據(jù)的CWD圖像中提取特征。并使用Elman神經(jīng)網(wǎng)絡(luò)(Elman Neural Network, ENN)分類器,對(duì)8種調(diào)制信號(hào)進(jìn)行了分類,在信噪比為–2 d B時(shí),識(shí)別成功率為94.7%。文獻(xiàn)[10]則應(yīng)用2維維納濾波、雙線性插值和OTSU方法等一系列圖像處理技術(shù),去除了TFI的背景噪聲,獲得了僅包含TFI形態(tài)特征的固定尺寸二值圖像,并且使用CNN進(jìn)行分類。然而這些方法預(yù)處理過(guò)程煩瑣、復(fù)雜,實(shí)時(shí)性差。因此,如何對(duì)雷達(dá)信號(hào)時(shí)頻圖像進(jìn)行有效的預(yù)處理,并且盡可能多保留雷達(dá)波形特征信息,提高在低信噪比條件下識(shí)別率,是LPI雷達(dá)信號(hào)識(shí)別的一個(gè)具有挑戰(zhàn)性的問(wèn)題。

目前,CNN網(wǎng)絡(luò)在雷達(dá)信號(hào)識(shí)別中已經(jīng)取得良好的效果,然而由于傳統(tǒng)CNN網(wǎng)絡(luò)中存在許多問(wèn)題,而且對(duì)于如何提高低信噪比下的雷達(dá)波形識(shí)別工作還尚顯不足。文獻(xiàn)[11]將殘差去噪網(wǎng)絡(luò)應(yīng)用于通信信號(hào)處理中,證明了殘差去噪網(wǎng)絡(luò)的有效性,因此本文針對(duì)低信噪比下的雷達(dá)調(diào)制信號(hào)識(shí)別進(jìn)行研究,提出采用基于殘差思想的去噪卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)多種調(diào)制類型信號(hào)時(shí)頻圖像進(jìn)行去噪預(yù)處理,并且使用Inception-V4網(wǎng)絡(luò)進(jìn)行去噪后的時(shí)頻圖像的特征提取,最后使用softmax分類器進(jìn)行雷達(dá)波形分類。

2 有意調(diào)制信號(hào)分析

雷達(dá)信號(hào)是一種非平穩(wěn)信號(hào),傳統(tǒng)的時(shí)域和頻域分析方法只能獲得非常有限的信號(hào)信息。時(shí)頻分析是處理非平穩(wěn)信號(hào)的有力工具,有助于分析雷達(dá)信號(hào)特性,它將1維時(shí)間信號(hào)映射到2維時(shí)頻平面上,充分刻畫了非平穩(wěn)信號(hào)的時(shí)頻聯(lián)合特性。時(shí)頻分析不僅反映了信號(hào)能量在時(shí)間和頻率上的分布,而且揭示了頻率與時(shí)間的關(guān)系。

已有兩種時(shí)頻分析方法包括線性表示法和非線性表示法。本文主要研究非線性時(shí)頻分布,典型的非線性時(shí)頻分析包括Wigner-Ville分布(WVD)、Choi-Williams分布(CWD)等[12,13]。CWD時(shí)頻分析于1989年提出,它在所有未經(jīng)處理的類Cohen分布中都表現(xiàn)出最小的交叉干擾,并且對(duì)于不同時(shí)間或頻率的信號(hào)具有較高的分辨率和識(shí)別精度

對(duì)8種低截獲概率雷達(dá)信號(hào)進(jìn)行CWD時(shí)頻變換,得到時(shí)頻圖像,包括BPSK,F(xiàn)rank,T1~T4,LFM以及Costas信號(hào)。如圖1所示,其中,Barker碼調(diào)制方式為BPSK調(diào)制,Costas代碼數(shù)目設(shè)置為5,T 1~T 4代碼每段頻率步數(shù)的采樣數(shù)設(shè)置為8。

圖1 不同調(diào)制方式LPI雷達(dá)信號(hào)時(shí)頻圖像

由于減少了交叉項(xiàng)干擾,8種信號(hào)的CWD時(shí)頻圖像準(zhǔn)確地展示了信號(hào)調(diào)制周期與帶寬,同時(shí)反映了信號(hào)調(diào)制的固有屬性,為后續(xù)特征提取以及波形檢測(cè)提供了新的思路與方法。

3 基于殘差網(wǎng)絡(luò)的雷達(dá)信號(hào)時(shí)頻圖像去噪算法

傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行去噪時(shí),由于存在過(guò)擬合,梯度爆炸或者梯度消失等問(wèn)題,使得網(wǎng)絡(luò)層數(shù)較淺,當(dāng)使用正則化項(xiàng)時(shí),雖然可以使網(wǎng)絡(luò)收斂,但精度卻趨于飽和,而單純的增加網(wǎng)絡(luò)層數(shù)無(wú)法解決這一類問(wèn)題。因此文獻(xiàn)[14]提出基于殘差學(xué)習(xí)和批規(guī)范處理的卷積神經(jīng)網(wǎng)絡(luò)去噪算法,殘差網(wǎng)絡(luò)采用跳躍連接方式,通過(guò)輸入與殘差的和作為網(wǎng)絡(luò)輸出。殘差網(wǎng)絡(luò)結(jié)構(gòu)使得網(wǎng)絡(luò)層數(shù)大大增加,且網(wǎng)絡(luò)便于訓(xùn)練,收斂速度快。在此基礎(chǔ)上,去噪卷積神經(jīng)網(wǎng)絡(luò)(Denoising Convolutional Neural Network,DnCNN)算法保留殘差網(wǎng)絡(luò)優(yōu)點(diǎn),去除小殘差塊,僅采用一個(gè)殘差結(jié)構(gòu)進(jìn)行學(xué)習(xí),同時(shí)加入批規(guī)范化(Batch Normalization,BN),可以提高網(wǎng)絡(luò)訓(xùn)練速度,提高去噪性能[15]。

在雷達(dá)信號(hào)中,信號(hào)噪聲模型一般為加性高斯白噪聲,因此,在將原始雷達(dá)信號(hào)并添加噪聲后再進(jìn)行時(shí)頻變換時(shí),其噪聲模型也同樣體現(xiàn)在時(shí)頻圖像上。與直接在圖像上添加噪聲的方式不同,本文要去除的噪聲模型為時(shí)域上添加的噪聲經(jīng)過(guò)CWD變換而來(lái),式(5)—式(7)展示了本文對(duì)于時(shí)頻圖像的處理方式。首先對(duì)添加噪聲的時(shí)域信號(hào)進(jìn)行時(shí)頻變換,然后對(duì)未添加噪聲的時(shí)域信號(hào)進(jìn)行時(shí)頻變換,而二者差值即為圖像的背景噪聲

圖2 DnCNN去噪算法框圖

4 基于Inception-V 4 網(wǎng)絡(luò)的雷達(dá)信號(hào)識(shí)別模型

目前,深度學(xué)習(xí)模型因卷積神經(jīng)網(wǎng)絡(luò)能對(duì)數(shù)據(jù)進(jìn)行深層次的特征提取,已經(jīng)在圖像識(shí)別領(lǐng)域取得巨大成功,因此可以將其應(yīng)用于雷達(dá)信號(hào)識(shí)別領(lǐng)域。在GoogLeNet(Inception V1)的基礎(chǔ)上,Inception-V2,V3,V4相繼被提出[16]。本文所使用Inception-V4同樣結(jié)合了殘差網(wǎng)絡(luò)(ResNet),使用分支網(wǎng)絡(luò)的思想。Inception網(wǎng)絡(luò)的優(yōu)點(diǎn)在于改變了網(wǎng)絡(luò)的構(gòu)造形式,使用Inception網(wǎng)絡(luò)近似一個(gè)稀疏結(jié)構(gòu)。這種架構(gòu)采用Network in Network中的思想,使用Average Pooling代替全連接層,并學(xué)習(xí)VGG網(wǎng)絡(luò),將全部卷積核拆分成1維卷積(1×7,7×1)和(1×3,3×1),使得網(wǎng)絡(luò)深度增加,提高網(wǎng)絡(luò)非線性[17]。

在將原始雷達(dá)信號(hào)進(jìn)行時(shí)頻變換,并且經(jīng)過(guò)去噪處理后的圖像為灰度圖,灰度圖為2維圖像,因此無(wú)法滿足網(wǎng)絡(luò)輸入要求,需要對(duì)去噪后的灰度圖進(jìn)行預(yù)處理。如圖3所示,首先使用雙線性插值法將圖片變?yōu)?99×299×1,繼而采用步長(zhǎng)為1的3×3×3卷積層將輸入數(shù)據(jù)變?yōu)?99×299×3維度數(shù)據(jù),最后送入Inception-V4網(wǎng)絡(luò)進(jìn)行特征提取。經(jīng)過(guò)Inception-V4網(wǎng)絡(luò)輸出為1×1×1536,再經(jīng)過(guò)softmax分類器輸出為信號(hào)分類結(jié)果。

圖3 Inception-V4網(wǎng)絡(luò)提取特征模型

5 實(shí)驗(yàn)結(jié)果與分析

5.1 LPI雷達(dá)信號(hào)仿真參數(shù)設(shè)置

為了驗(yàn)證DnCNN網(wǎng)絡(luò)的穩(wěn)定性與有效性,對(duì)于每一種調(diào)制方式,均采用范圍隨機(jī)化參數(shù),因此全部雷達(dá)數(shù)據(jù)參數(shù)均有不同。LPI雷達(dá)仿真參數(shù)設(shè)置具體情況如表1所示,其中采樣率均設(shè)置為8 kHz,U(?)為 歸一化頻率。例如,初始頻率為f0=1000 Hz,采樣率為f s=8000 Hz,則f0=U(f0/f s)=U(1/8)。

表1 仿真參數(shù)

5.2 DnCNN去噪效果分析

針對(duì)每一種調(diào)制方式,均生成500張無(wú)噪聲圖片及其對(duì)應(yīng)相同參數(shù)的添加?12~8 d B噪聲的圖片,其中400張用于訓(xùn)練,100張用于去噪結(jié)果測(cè)試。本次實(shí)驗(yàn)采用的是Tensorflow實(shí)現(xiàn)DnCNN,在訓(xùn)練網(wǎng)絡(luò)時(shí),依次將每種調(diào)制方式類型的雷達(dá)信號(hào)時(shí)頻圖送入網(wǎng)絡(luò),并保存模型,構(gòu)成模型庫(kù)。在去噪時(shí)調(diào)用模型庫(kù)中的模型進(jìn)行去噪處理。

時(shí)域信號(hào)評(píng)價(jià)噪聲方式為信號(hào)與噪聲的有效功率的比值,而評(píng)價(jià)圖像噪聲水平,目前最常用的評(píng)價(jià)標(biāo)準(zhǔn)是結(jié)構(gòu)相似性(SSIM)和峰值信噪比(PSNR)[18]。PSNR在圖像去噪領(lǐng)域使用最多,是一種全參考的評(píng)價(jià)指標(biāo),它是一個(gè)關(guān)于峰值信號(hào)的能量與噪聲信號(hào)的平均能量的一個(gè)比值,這種方法是基于均方誤差求得的。設(shè)兩幅像素為m×n的圖像A與B,其MSE定義以及PSNR定義為式(9)與式(10)

在訓(xùn)練結(jié)束后,本次實(shí)驗(yàn)對(duì)少量數(shù)據(jù)進(jìn)行測(cè)試,信號(hào)添加噪聲范圍為–12~8 d B,間隔為2 d B,每種信噪比情況使用100張圖片進(jìn)行測(cè)試。以Costas信號(hào)為例,去噪后的灰度圖如圖4所示,展示信噪比為–10 d B雷達(dá)信號(hào)進(jìn)行時(shí)頻變換后再進(jìn)行去噪后的灰度圖,并計(jì)算出去噪前時(shí)頻圖像的PSNR值為21.46 d B,去噪后的時(shí)頻圖像的PSNR值為32.92 dB,提高了11.46 dB。

圖4 DnCNN去噪灰度圖

由圖中可以看出,CWD時(shí)頻變換對(duì)低信噪比信號(hào)仍然可以保留大量特征信息,但是時(shí)域信號(hào)的噪聲也同樣經(jīng)過(guò)時(shí)頻變換成為時(shí)頻圖像的背景噪聲,這導(dǎo)致時(shí)頻圖像的峰值信噪比不高,而在經(jīng)過(guò)DnCNN網(wǎng)絡(luò)去噪后,圖像可以獲得較高的峰值信噪比,這為后續(xù)的Inception網(wǎng)絡(luò)有效提取特征提供了有力的證據(jù)。表2展示了對(duì)于添加了不同噪聲的不同調(diào)制類型的信號(hào)經(jīng)過(guò)去噪后時(shí)頻圖的信噪比,每種調(diào)制類型取100張圖片去噪后的PSNR平均值。

表2 時(shí)頻圖去噪峰值信噪比(d B)

由表中可以看出,所有信號(hào)在使用殘差去噪網(wǎng)絡(luò)后時(shí)頻圖像峰值信噪均達(dá)到較高水平,其中LFM信號(hào)去噪效果最優(yōu)秀,而BPSK信號(hào)去噪效果稍差。整體來(lái)看,經(jīng)過(guò)去噪后的時(shí)頻圖像峰值信噪比整體可以提升10~15 d B,良好的去噪能力對(duì)于低信噪比下的信號(hào)識(shí)別具有重要意義。

5.3 Inception-V4網(wǎng)絡(luò)識(shí)別效果分析

為了驗(yàn)證DnCNN去噪網(wǎng)絡(luò)在雷達(dá)時(shí)頻圖像中的有效性,本文使用Inception-V4網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)。本次實(shí)驗(yàn)數(shù)據(jù)分別使用去噪前的圖像以及去噪后的圖像用于網(wǎng)絡(luò)的測(cè)試,其中每種調(diào)制方式包含1200組數(shù)據(jù),80%用于訓(xùn)練,20%用于測(cè)試,信噪比范圍為–12~8 dB,步長(zhǎng)為2 dB,其中Inception-V4網(wǎng)絡(luò)使用交叉熵?fù)p失函數(shù),圖5展示了信號(hào)在–10 d B時(shí)采用Dn CNN去噪網(wǎng)絡(luò)的識(shí)別混淆矩陣以及未采用去噪網(wǎng)絡(luò)的識(shí)別混淆矩陣。由圖中可以看出,使用DnCNN網(wǎng)絡(luò)后再經(jīng)過(guò)Inception-V4進(jìn)行特征提取并分類的效果較好,不過(guò)相似信號(hào)仍然容易混淆,例如Frank與LFM,有較大的概率識(shí)別錯(cuò)誤,但在低信噪比下整體識(shí)別率仍然可以達(dá)到90%以上。

圖5 Inception-V4網(wǎng)絡(luò)識(shí)別混淆矩陣

為了驗(yàn)證本文方法的有效性,將與文獻(xiàn)[3]提出的CNN模型以及文獻(xiàn)[6]提出的棧式稀疏自編碼(stacked Sparse Auto Encoder,sSAE)方法進(jìn)行比較,一方面是本文使用信號(hào)調(diào)制方式與這兩種方法完全相同,另一方面二者使用了不同的特征提取模型。其中,文獻(xiàn)[6]所提出的棧式稀疏自編碼器方法在LPI雷達(dá)波形識(shí)別中極具代表性,識(shí)別效果也同樣優(yōu)秀,因此具有很高的可比性。圖6展示了這幾種識(shí)別模型在不同信噪比下的不同調(diào)制方式的識(shí)別率。由圖中可以看出,本文提出的DnCNN+Inception-V4方法整體上超越了文獻(xiàn)[3]中方法的識(shí)別效果。而對(duì)于文獻(xiàn)[6]而言,本文方法與之相比在不同調(diào)制類型信號(hào)識(shí)別的敏感度不同,在BPSK,F(xiàn)rank等信號(hào)調(diào)制類型識(shí)別時(shí)本文方法一般高于sSAE方法,而在LFM信號(hào)的識(shí)別效果上則會(huì)弱于sSAE方法。同時(shí)不同的信噪比也會(huì)產(chǎn)生一定的影響,如T 1和T 2信號(hào),在低信噪比下本文方法效果較好,但是在信噪比較高時(shí)識(shí)別效果反而上升緩慢,這是由于在高信噪比時(shí)信號(hào)的背景噪聲逐漸減弱,Dn CNN對(duì)于時(shí)頻圖像的去噪程度逐漸減弱導(dǎo)致的,但是最終的整體識(shí)別率本文方法是優(yōu)于sSAE方法的。

圖6 不同信噪比下LPI雷達(dá)信號(hào)識(shí)別準(zhǔn)確率

5.4 魯棒性分析

為了驗(yàn)證魯棒性,采用不同批次的數(shù)據(jù)進(jìn)行訓(xùn)練,圖7展示的是每種調(diào)制方式的數(shù)據(jù)量不同情況下的識(shí)別率。圖中表明,由于CWD時(shí)頻變換對(duì)于信號(hào)時(shí)域特征的有效提取以及Inception網(wǎng)絡(luò)對(duì)于時(shí)頻圖像特征提取的有效性,使得當(dāng)樣本量較小時(shí),網(wǎng)絡(luò)仍然可以收斂,在單種調(diào)制方式數(shù)據(jù)量為400時(shí)基本達(dá)到了穩(wěn)定狀態(tài),從而獲得較高的識(shí)別率,這證明了網(wǎng)絡(luò)具有良好的魯棒性。

圖7 不同數(shù)據(jù)量訓(xùn)練識(shí)別結(jié)果

6 結(jié)論

本文針對(duì)LPI雷達(dá)信號(hào)識(shí)別問(wèn)題,提出基于去噪卷積神經(jīng)網(wǎng)絡(luò)和Inception-V4網(wǎng)絡(luò)的LPI雷達(dá)信號(hào)分類識(shí)別系統(tǒng)。該系統(tǒng)采用CWD時(shí)頻變換對(duì)信號(hào)進(jìn)行時(shí)頻域變換,使用DnCNN網(wǎng)絡(luò)對(duì)時(shí)頻圖像進(jìn)行預(yù)處理,在完整的保留時(shí)頻圖像信息的同時(shí)減小時(shí)頻圖像的背景噪聲,同時(shí)本文方法能夠自動(dòng)對(duì)圖像提取特征,從而解決了人工提取特征復(fù)雜、效率低的問(wèn)題,為低信噪比條件下的LPI雷達(dá)信號(hào)識(shí)別提供了新的方案。

猜你喜歡
特征提取信號(hào)
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
信號(hào)
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
孩子停止長(zhǎng)個(gè)的信號(hào)
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
基于LabVIEW的力加載信號(hào)采集與PID控制
一種基于極大似然估計(jì)的信號(hào)盲抽取算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 久久a级片| 国产精品免费福利久久播放| 婷婷综合缴情亚洲五月伊| 免费视频在线2021入口| 婷婷在线网站| 18黑白丝水手服自慰喷水网站| 99久久精品无码专区免费| 999精品在线视频| 精品午夜国产福利观看| 久久亚洲美女精品国产精品| 免费在线国产一区二区三区精品 | 久久久成年黄色视频| 国产成人无码综合亚洲日韩不卡| 91美女视频在线观看| 成人毛片在线播放| 美女国产在线| 找国产毛片看| 国产日韩欧美在线播放| 婷婷中文在线| 久久婷婷五月综合97色| 在线精品亚洲一区二区古装| 91在线激情在线观看| 狠狠操夜夜爽| 亚洲无码熟妇人妻AV在线| 亚洲系列无码专区偷窥无码| 久久人人97超碰人人澡爱香蕉| 97精品久久久大香线焦| 久久人人97超碰人人澡爱香蕉 | 国产在线小视频| 视频二区亚洲精品| 免费毛片全部不收费的| www.99精品视频在线播放| 99热亚洲精品6码| 国产中文一区二区苍井空| 在线观看国产黄色| AV天堂资源福利在线观看| 亚洲精品男人天堂| 高清无码一本到东京热| 国产浮力第一页永久地址 | 欧美亚洲欧美| 亚洲免费福利视频| 色哟哟国产精品| 国产jizz| 精品欧美一区二区三区久久久| 国产亚洲欧美日本一二三本道| 91精品福利自产拍在线观看| 热re99久久精品国99热| 波多野结衣一二三| 国内精品自在欧美一区| 青草国产在线视频| 国产va视频| 国产香蕉在线视频| 一区二区三区成人| 一级做a爰片久久免费| 91青青在线视频| 永久毛片在线播| 国产精品极品美女自在线网站| 99精品视频播放| 午夜免费小视频| 国产三级韩国三级理| 亚洲男人的天堂久久香蕉网| 国产免费好大好硬视频| 99久久精品视香蕉蕉| 国产在线日本| 精品一区二区三区中文字幕| 欧日韩在线不卡视频| 不卡无码h在线观看| 国产一区在线观看无码| 亚洲黄网在线| 高清乱码精品福利在线视频| 亚洲妓女综合网995久久| 精品视频第一页| 亚洲无码久久久久| 欧美天堂在线| 97人人做人人爽香蕉精品| 欧美性色综合网| 天天综合色天天综合网| 综合成人国产| 午夜精品福利影院| 精品亚洲麻豆1区2区3区| 在线免费亚洲无码视频| 中文字幕亚洲无线码一区女同|