999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積稀疏編碼與多分類器融合的雷達(dá)HRRP目標(biāo)識(shí)別方法

2018-11-09 05:00:58王彩云胡允侃李曉飛魏文怡趙煥玥
關(guān)鍵詞:分類方法

王彩云, 胡允侃, 李曉飛, 魏文怡, 趙煥玥

(1. 南京航空航天大學(xué)航天學(xué)院, 江蘇 南京 210016; 2. 北京電子工程總體研究所, 北京 100854)

0 引 言

雷達(dá)高分辨距離像(high resolution range profile, HRRP)中包含著目標(biāo)的位置、尺寸以及散射點(diǎn)分布等重要的結(jié)構(gòu)信息。利用雷達(dá)HRRP信息實(shí)現(xiàn)目標(biāo)的識(shí)別在雷達(dá)目標(biāo)識(shí)別領(lǐng)域引起了研究者的廣泛關(guān)注[1-2]。為了從雷達(dá)HRRP中得到豐富的特征信息并根據(jù)得到的特征信息實(shí)現(xiàn)目標(biāo)的準(zhǔn)確識(shí)別,許多研究者對(duì)HRRP的特征提取和分類方法做了研究。文獻(xiàn)[3]提出了一種利用HHRP在不同流形結(jié)構(gòu)上的特征進(jìn)行稀疏重構(gòu)的方法,實(shí)現(xiàn)目標(biāo)的識(shí)別。文獻(xiàn)[4]利用相鄰HRRP之間的結(jié)構(gòu)相似特性,提出了穩(wěn)定字典學(xué)習(xí)算法。這些算法通過對(duì)HRRP的結(jié)構(gòu)特征進(jìn)行分析,物理信息豐富,計(jì)算容易。

文獻(xiàn)[5]通過遞歸神經(jīng)網(wǎng)絡(luò)模型對(duì)HRRP的時(shí)域特征進(jìn)行編碼,并對(duì)隱藏特征進(jìn)行權(quán)重分配,實(shí)現(xiàn)HRRP的目標(biāo)識(shí)別。文獻(xiàn)[6]在不同的方位角上利用無限制玻爾茲曼機(jī)對(duì)全局的特征信息進(jìn)行提取,得到了較好的識(shí)別效果。文獻(xiàn)[7]提出了判別式深度自動(dòng)編碼方法,對(duì)HRRP的高級(jí)特征和全局特征進(jìn)行訓(xùn)練,在少量訓(xùn)練數(shù)據(jù)下實(shí)現(xiàn)較好的識(shí)別效果。利用不同的模型和學(xué)習(xí)算法對(duì)HRRP進(jìn)行識(shí)別具有比較高的適應(yīng)性,通過稀疏表示方法能夠很大程度的減小運(yùn)算量,提升HRRP目標(biāo)識(shí)別的準(zhǔn)確率。

性能優(yōu)越的稀疏表示模型能夠提升識(shí)別的準(zhǔn)確率。文獻(xiàn)[8]利用稀疏表示方法對(duì)HRRP進(jìn)行投影,在Gabor字典中進(jìn)行特征參數(shù)的提取并通過粒子群算法簡(jiǎn)化計(jì)算。文獻(xiàn)[9]利用階梯式線性調(diào)頻脈沖信號(hào)進(jìn)行采樣,降低稀疏表示的復(fù)雜度并通過動(dòng)態(tài)的感知矩陣實(shí)現(xiàn)目標(biāo)的識(shí)別。文獻(xiàn)[10]提出了一種多尺度核稀疏編碼的分類方法,對(duì)HRRP的特征信息進(jìn)行聚類并提升特征提取能力。文獻(xiàn)[11]提出了一種快速自適應(yīng)K-SVD字典學(xué)習(xí)算法,加快原子更新速度并降低計(jì)算復(fù)雜度,得到了較好的識(shí)別結(jié)果。

傳統(tǒng)稀疏表示方法在特征分類上的方法比較簡(jiǎn)單,難以有效的對(duì)特征信息進(jìn)行準(zhǔn)確區(qū)分。針對(duì)這一問題, 本文提出了一種卷積稀疏編碼與多分類器融合(convolutional sparse coding and multi-classifier fusion, CSCMF)方法,并利用該方法對(duì)雷達(dá)HRRP目標(biāo)進(jìn)行識(shí)別。首先通過CSC方法提取特征數(shù)據(jù);然后通過MF的方法實(shí)現(xiàn)雷達(dá)目標(biāo)的分類,得到識(shí)別結(jié)果。基于雷達(dá)HRRP數(shù)據(jù)的仿真實(shí)驗(yàn)驗(yàn)證了本文方法的有效性。

1 稀疏表示理論和分類方法簡(jiǎn)介

1.1 稀疏表示理論

稀疏表示方法在信號(hào)處理領(lǐng)域的應(yīng)用是人們研究的熱點(diǎn)。假設(shè)有樣本信號(hào)Y∈Rm×n,Y=[y1,y2,…,yn],可以由一個(gè)線性方程組進(jìn)行表示。即

Y=DX

(1)

式中,D是字典矩陣,D=[d1,d2,…,dp],D∈Rm×p;X是稀疏系數(shù)矩陣,X∈Rp×n,X=[x1,x2,…,xn]。在對(duì)稀疏表示方程進(jìn)行稀疏求解時(shí),可以轉(zhuǎn)化為優(yōu)化問題,優(yōu)化方程可以表示為

.t. ‖xi‖0≤k

(2)

式中,i=1,2,…,n;k是稀疏度。

優(yōu)化方程的求解可以分為稀疏編碼和字典更新兩個(gè)部分,一般將該問題轉(zhuǎn)化為凸優(yōu)化問題,采用貪婪算法或經(jīng)典的字典學(xué)習(xí)算法進(jìn)行求解。常見的求解算法有正交匹配追蹤(orthogonal matching pursuit,OMP)算法[12]、K-SVD算法等。

1.2 分類方法簡(jiǎn)介

隨著人工智能的發(fā)展,機(jī)器學(xué)習(xí)中的分類方法廣泛地應(yīng)用于圖像去噪、人臉識(shí)別等領(lǐng)域中。常見分類方法有隨機(jī)森林算法、樸素貝葉斯算法等。隨機(jī)森林算法是通過決策樹、隨機(jī)子空間的組合實(shí)現(xiàn)多個(gè)子決策樹的聯(lián)合分類。假設(shè)利用隨機(jī)森林算法進(jìn)行分類時(shí),分類器的數(shù)目是n個(gè),這n個(gè)分類器分別為f1(x),f2(x),…,fn(x),待預(yù)測(cè)樣本數(shù)據(jù)為x,樣本類別為y。可以得到隨機(jī)森林算法的泛化誤差為

g=Px,y(mg(x,y)<0)

(3)

式中,P是一種投票的概率,mg(x,y)是邊緣函數(shù)。隨機(jī)森林中決策樹的分類強(qiáng)度可以定義為

s=Ex,ymg(x,y)

(4)

泛化誤差越小越好,分類強(qiáng)度越大,隨機(jī)森林算法的分類性能越好。

樸素貝葉斯算法是在貝葉斯理論的基礎(chǔ)上進(jìn)行分類的,測(cè)試樣本數(shù)據(jù)x的不同屬性a1,a2,…,an,測(cè)試樣本數(shù)據(jù)x的類別為y,則可以得到測(cè)試樣本數(shù)據(jù)x屬于某一類別的后驗(yàn)概率為

(5)

測(cè)試樣本數(shù)據(jù)x屬于某一類別的后驗(yàn)概率值最大,則樣本就屬于這一類別。可以得到預(yù)測(cè)類別y*的值為

(6)

樸素貝葉斯算法只需要很少的訓(xùn)練樣本就可以實(shí)現(xiàn)目標(biāo)的分類,且分類速度較快。

2 基于CSCMF的HRRP目標(biāo)識(shí)別方法

2.1 CSCMF算法

CSCMF方法通過對(duì)表示方程進(jìn)行最小化以實(shí)現(xiàn)字典更新的目的,CSC的表示方程為

s.t. ‖di‖2≤1 ?i∈{1,2,…,n}

(7)

式中,xj,i是稀疏系數(shù)矩陣,j=1,2,…,m;yj是樣本數(shù)據(jù)。通過不斷地迭代最終得到最小化的xj,i和di。

利用CSC可以求得稀疏系數(shù)矩陣的X值,得到

(8)

令D=(d1,d2,…,dn),Y=(y1,y2,…,yn),X=(x1,x2,…,xn),可以得到

λ‖X‖1

(9)

通過交替方向法求解,可以得到

U(i+1)=U(i)+X(i+1)-Y(i+1)

(10)

式中,U為對(duì)應(yīng)的對(duì)偶變量,化簡(jiǎn)可以得到

(DHD+ρI)X=DHX+ρ(Y-U)

(11)

在字典更新階段,利用投影的方式對(duì)字典D進(jìn)行求解。求解公式為

(12)

式中,T(di)的取值為

,i=1,2,…,n

(13)

CP的取值為

CP={x∈Rn:(I-P)*x=0,‖x‖2≤1}

(14)

利用OMP算法對(duì)式(12)進(jìn)行求解,最終得到更新字典D。在對(duì)字典和稀疏系數(shù)進(jìn)行求解的過程中可以得到重構(gòu)誤差為

(15)

將重構(gòu)誤差放入隨機(jī)森林分類器中進(jìn)行訓(xùn)練,并通過投票的方式得到具體的類別,分類的結(jié)果為

,θ)=z))

(16)

式中,z為已知的類別。利用樸素貝葉斯分類算法對(duì)重構(gòu)誤差進(jìn)行分類,可以得到重構(gòu)誤差在某一類別下后驗(yàn)概率為

(17)

通過樸素貝葉斯分類器得到的分類結(jié)果為

(18)

利用最小值分類得到的分類結(jié)果為

(19)

采用多數(shù)投票法對(duì)3種分類器進(jìn)行融合,具體融合方法如下:

z*=

(20)

基于CSCMF方法的目標(biāo)識(shí)別流程如下:

輸入?yún)?shù):樣本數(shù)據(jù)Y,初始字典D,最大迭代次數(shù)C。

輸出結(jié)果:類別信息z*。

步驟1迭代次數(shù)t=1;

步驟2利用式(9)對(duì)稀疏系數(shù)X進(jìn)行求解;

步驟3利用式(12)和OMP算法對(duì)字典D進(jìn)行更新;

步驟4然后通過式(15)求得重構(gòu)誤差r;

步驟5如果t

步驟6通過式(20)對(duì)重構(gòu)誤差進(jìn)行分類;

步驟7得到分類結(jié)果z*;算法結(jié)束。

2.2 基于CSCMF的HRRP目標(biāo)識(shí)別

在HRRP的目標(biāo)識(shí)別中,獲得準(zhǔn)確的特征信息并進(jìn)行精確分類是識(shí)別的重要步驟。 本文利用CSCMF算法對(duì)HRRP目標(biāo)進(jìn)行識(shí)別,基于CSCMF的HRRP目標(biāo)識(shí)別方法的具體步驟如下:

步驟1預(yù)處理階段:對(duì)原始雷達(dá)HRRP數(shù)據(jù)進(jìn)行去噪、歸一化;

步驟2訓(xùn)練階段:通過卷積稀疏編碼方法求得訓(xùn)練樣本數(shù)據(jù)的重構(gòu)誤差,然后用隨機(jī)森林算法、樸素貝葉斯算法對(duì)重構(gòu)誤差進(jìn)行訓(xùn)練,得到生長(zhǎng)后的決策樹和先驗(yàn)概率值;

步驟3測(cè)試階段:對(duì)測(cè)試樣本進(jìn)行訓(xùn)練、學(xué)習(xí),得到測(cè)試樣本的重構(gòu)誤差,最后通過分類器融合方法得到最終的分類結(jié)果。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)數(shù)據(jù)介紹

本文使用5類飛機(jī)目標(biāo)TU-16, B-52, F-15, Mig-21, B-1b的一維高分辨距離像, 仿真數(shù)據(jù)來自于載頻為10GHz的烏克蘭的雷達(dá)后向散射特性仿真軟件。雷達(dá)的具體參數(shù)和飛機(jī)目標(biāo)的具體參數(shù)如表1、表2所示。

表1 雷達(dá)和飛機(jī)目標(biāo)的參數(shù)

表2 飛機(jī)目標(biāo)參數(shù)

5類飛機(jī)目標(biāo)的仿真模型與真實(shí)的飛機(jī)之間的比例為2∶1,每一類飛機(jī)目標(biāo)均有1 000幅一維高分辨距離像,每幅一維高分辨率一維距離像有600個(gè)采樣點(diǎn),距離門設(shè)置為70 m。在0°~60°的角度范圍內(nèi),從每個(gè)目標(biāo)中隨機(jī)抽取300個(gè)樣本,共1 500個(gè)樣本作為測(cè)試樣本;在0°~30°的角度范圍內(nèi),從每個(gè)目標(biāo)中隨機(jī)抽取150個(gè)樣本,共750個(gè)樣本作為訓(xùn)練樣本。

3.2 實(shí)驗(yàn)結(jié)果分析

為了對(duì)本文識(shí)別方法的有效性進(jìn)行驗(yàn)證,設(shè)計(jì)了4種不同的識(shí)別能力對(duì)比實(shí)驗(yàn),分別測(cè)試了不同稀疏表示方法、不同分類方法、不同稀疏表示與分類器結(jié)合方法以及不同信噪比下識(shí)別方法的識(shí)別能力。

實(shí)驗(yàn)1分別比較5種稀疏表示模型的識(shí)別性能。除本文方法之外,其他4種稀疏表示方法分別為費(fèi)舍爾判別字典學(xué)習(xí)(fisher discrimination dictionary learning,FDDL)算法[13]、壓縮字典學(xué)習(xí)(compressive dictionary learning,CDL)算法[14]、盲壓縮感知(blind compressed sensing,BCS)算法[15]以及核字典學(xué)習(xí)(kernel dictionary learning,KDL)算法[16],這4種稀疏表示方法的分類方式采用式(19)給出的分類方法。為了觀察在噪聲情況下的不同方法的識(shí)別性能,對(duì)測(cè)試樣本加入信噪比(signal-to-noise ratio,SNR)為10 dB的高斯白噪聲(white Gaussian noise,WGN),迭代20次。具體結(jié)果見表3所示。

表3 不同稀疏表示方法的識(shí)別性能比較

從表3可以看到,本文所使用的CSCMF算法對(duì)HRRP目標(biāo)的識(shí)別能力較強(qiáng),在所有的稀疏表示方法中識(shí)別率最高。由此可以見,本文所提方法具有較高的識(shí)別性能。

實(shí)驗(yàn)2分別對(duì)比9種不同識(shí)別方法的識(shí)別性能。除了本文方法,決策樹算法、SVM算法、K均值算法等3種方法為經(jīng)典機(jī)器學(xué)習(xí)分類算法,其他5種方法為單一分類器與卷積字典學(xué)習(xí)(convolutional dictionary learning,CDL)算法相結(jié)合的識(shí)別方法。實(shí)驗(yàn)中對(duì)測(cè)試樣本加入SNR為10 dB的WGN,迭代20次。具體結(jié)果如表4所示。

表4 不同分類方法的識(shí)別性能比較

由表4可以看到,經(jīng)典機(jī)器學(xué)習(xí)分類算法對(duì)HRRP目標(biāo)的識(shí)別性能較低。分類器與卷積字典學(xué)習(xí)算法結(jié)合之后,實(shí)現(xiàn)了樣本數(shù)據(jù)的稀疏性特征提取,有效地提高了識(shí)別性能。本文所提方法在所有識(shí)別方法中識(shí)別率最高,具有較好的識(shí)別性能。由此可見,單一的傳統(tǒng)機(jī)器學(xué)習(xí)分類方法在對(duì)目標(biāo)進(jìn)行識(shí)別時(shí)受到的其他干擾較多,無法有效地對(duì)特征進(jìn)行提取分類。分類器與卷積字典學(xué)習(xí)方法的結(jié)合可以有效提高分類精度,改善識(shí)別性能。本文方法在結(jié)合兩種方法的基礎(chǔ)上,得到了較好的識(shí)別效果。

實(shí)驗(yàn)3分別對(duì)比7種不同識(shí)別方法的識(shí)別性能,除本文方法之外,K-SVD算法、MOD算法、穩(wěn)定字典學(xué)習(xí)(stable dictionary learning, SDL)算法[17]為字典學(xué)習(xí)方法,另外3種方法為字典學(xué)習(xí)算法與本文所提多分類器融合方法的結(jié)合。實(shí)驗(yàn)時(shí)對(duì)測(cè)試樣本加入信噪比為10 dB的高斯白噪聲,迭代次數(shù)為20次。具體結(jié)果如表5所示。

表5 不同方法的識(shí)別性能比較

由表4可以看到:本文所提方法在所有方法中識(shí)別率最高,識(shí)別性能比較好。字典學(xué)習(xí)方法在HRRP的識(shí)別中具有較好的識(shí)別能力,與多分類器融合方法的結(jié)合可以有效提高識(shí)別性能。多分類器融合方法增強(qiáng)了分類精度,提升了識(shí)別性能。

實(shí)驗(yàn)4比較4種不同識(shí)別方法在不同信噪比下的識(shí)別性能。這4種識(shí)別方法分別為本文算法、FDDL算法、卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)算法、泊松伽瑪信任網(wǎng)絡(luò)(poisson gamma belief network,PGBN)算法[18],為了對(duì)不同算法進(jìn)行有效比較,在實(shí)驗(yàn)過程中對(duì)測(cè)試樣本加入SNR為-5~35 dB的WGN,迭代次數(shù)為50次,所有算法的初始稀疏度設(shè)置為3。具體結(jié)果如圖1所示。

圖1 不同SNR下算法的識(shí)別性能比較Fig.1 Performance comparison of algorithms with different SNR

由圖1可以看到,4種算法的識(shí)別率均隨SNR的增大而增大,最后均趨于穩(wěn)定。本文所提CSCMF方法在SNR大于5 dB的情況下,識(shí)別性能優(yōu)于其他算法,其識(shí)別精度最高可以達(dá)到0.99。由此可見,本文算法有效地結(jié)合了CSCMF方法的優(yōu)勢(shì),改善了識(shí)別性能。在不同SNR下,本文方法均具有較好的識(shí)別能力,對(duì)噪聲的魯棒性較強(qiáng),能夠?qū)崿F(xiàn)低SNR下的有效識(shí)別。本文算法有效地解決了稀疏表示方法分類精度不高的問題,提升了識(shí)別性能。

4 結(jié) 論

提出CSCMF方法用于雷達(dá)HRRP的識(shí)別。該方法通過CSC算法實(shí)現(xiàn)對(duì)樣本數(shù)據(jù)進(jìn)行稀疏化處理并得到特征信息,然后在多個(gè)分類器下進(jìn)行分類并對(duì)分類信息融合。基于雷達(dá)HRRP數(shù)據(jù)下的實(shí)驗(yàn)結(jié)果表明,CSCMF方法有效地提高了識(shí)別性能,對(duì)噪聲的魯棒性也較好,基于該方法的雷達(dá)HRRP識(shí)別在上述數(shù)據(jù)集上平均識(shí)別率達(dá)到了98.07%。

猜你喜歡
分類方法
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
學(xué)習(xí)方法
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
給塑料分分類吧
主站蜘蛛池模板: 五月天丁香婷婷综合久久| 超碰精品无码一区二区| 97超级碰碰碰碰精品| 好久久免费视频高清| 中文字幕在线一区二区在线| 无码在线激情片| 性网站在线观看| 成人国产精品一级毛片天堂 | 欧美在线国产| 欧美视频二区| 全部免费特黄特色大片视频| 亚洲天堂久久新| 日韩福利在线视频| 国产无码高清视频不卡| 无码专区第一页| 亚洲天堂首页| 亚洲日韩在线满18点击进入| 美女扒开下面流白浆在线试听| 欧美日韩中文字幕二区三区| 亚洲愉拍一区二区精品| 国产精品护士| 高清视频一区| 99re在线视频观看| 国产丝袜精品| 亚洲精品无码人妻无码| 人妖无码第一页| 青青国产成人免费精品视频| 国产精品13页| 免费国产好深啊好涨好硬视频| 国产又粗又猛又爽| 国产精品xxx| 国产午夜精品一区二区三| 国产精品一区在线麻豆| 国产在线观看人成激情视频| 99中文字幕亚洲一区二区| 亚洲无码在线午夜电影| 在线播放真实国产乱子伦| 欧美色图久久| 国产激爽大片在线播放| 欧洲欧美人成免费全部视频| 国产在线精品99一区不卡| 久爱午夜精品免费视频| 国产精品无码AⅤ在线观看播放| 丁香婷婷激情综合激情| 久久精品中文字幕少妇| 国产激情无码一区二区APP | 色屁屁一区二区三区视频国产| 亚洲av成人无码网站在线观看| 亚洲日本在线免费观看| 被公侵犯人妻少妇一区二区三区| 国产AV无码专区亚洲A∨毛片| 欧美在线观看不卡| 亚洲欧美在线综合图区| 激情综合五月网| 欧美亚洲国产日韩电影在线| 一级一级特黄女人精品毛片| 亚洲欧美成aⅴ人在线观看| 最新国产你懂的在线网址| 精品国产成人高清在线| 高清无码一本到东京热| 国产JIZzJIzz视频全部免费| 天堂av高清一区二区三区| 亚洲无码视频一区二区三区| 亚洲人成影院午夜网站| 中文字幕2区| 久久久久亚洲AV成人人电影软件| 亚洲成a人片7777| 国产jizzjizz视频| 青草91视频免费观看| 亚洲视频四区| 免费一级无码在线网站| 喷潮白浆直流在线播放| 欧美天堂久久| 国产一区二区三区免费观看| 试看120秒男女啪啪免费| 特级毛片免费视频| 欧美性久久久久| 精品亚洲国产成人AV| 成人小视频网| 国产视频大全| 天堂av综合网| 国产亚洲高清视频|