999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于ICNN和IGAN的SAR目標(biāo)識(shí)別方法

2020-07-22 02:52:20倉明杰喻玲娟謝曉春
關(guān)鍵詞:特征方法

倉明杰, 喻玲娟, 謝曉春

(1.江西理工大學(xué)信息工程學(xué)院, 江西贛州 341000; 2.贛南師范大學(xué)物理與電子信息學(xué)院, 江西贛州 341000)

0 引言

近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)已廣泛應(yīng)用于合成孔徑雷達(dá)(Synthetic Aperture Radar, SAR)目標(biāo)識(shí)別。由于SAR數(shù)據(jù)采集難度大,用于目標(biāo)識(shí)別的數(shù)據(jù)集通常較小,如MSTAR數(shù)據(jù)集[1-3]、極化SAR數(shù)據(jù)集[4-5],以及船只數(shù)據(jù)集[6-7]等,因此,基于CNN的SAR目標(biāo)識(shí)別容易產(chǎn)生過擬合問題。為了解決該問題,4個(gè)方面的改進(jìn)方法被提出。網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)方面:Chen等提出用卷積層替代全連接層的方法[1];Pei等提出多視深度學(xué)習(xí)框架[8];Shao等提出基于注意力機(jī)制的輕量級(jí)CNN[9];Gao等提出雙通道CNN[10]。數(shù)據(jù)集擴(kuò)充方面:Ding等提出了3種數(shù)據(jù)擴(kuò)充方法[11];Lu等提出了一種改進(jìn)的目標(biāo)旋轉(zhuǎn)擴(kuò)充方法[12]。遷移學(xué)習(xí)和CNN相結(jié)合方面:Huang等利用大場(chǎng)景圖像對(duì)卷積自編碼器進(jìn)行訓(xùn)練,然后遷移到SAR圖像目標(biāo)識(shí)別[13];Wang等利用ImagNet數(shù)據(jù)集上訓(xùn)練好的VGG16模型遷移到SAR圖像目標(biāo)識(shí)別,然后用SAR數(shù)據(jù)對(duì)預(yù)訓(xùn)練好的模型進(jìn)行微調(diào)[14]。無監(jiān)督預(yù)訓(xùn)練和CNN相結(jié)合方面:卷積自編碼器是一種無監(jiān)督訓(xùn)練方法,先將訓(xùn)練好的卷積自編碼器的編碼器參數(shù)初始化CNN,然后再對(duì)CNN模型進(jìn)行微調(diào)[15-16]。

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)也是一種無監(jiān)督訓(xùn)練網(wǎng)絡(luò),通過生成器和鑒別器兩者之間的博弈,使得生成的圖像難以被鑒別器鑒別[17]。目前基于GAN的SAR目標(biāo)識(shí)別研究較少,Gao等提出一種包含多個(gè)生成器、一個(gè)鑒別器和一個(gè)多分類器的GAN,并應(yīng)用于SAR圖像目標(biāo)識(shí)別[18]。本文采用多層特征匹配[19]的思想改進(jìn)GAN,并采用多層特征合成的思想改進(jìn)CNN,進(jìn)而提出一種基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)(Improved Convolutional Neural Network, ICNN)和改進(jìn)的生成對(duì)抗網(wǎng)絡(luò)(Improved Generative Adversarial Network, IGAN)的SAR目標(biāo)識(shí)別方法。MSTAR實(shí)驗(yàn)結(jié)果表明,該方法比直接采用ICNN的方法,不僅具有較高的識(shí)別率,而且具有更強(qiáng)的抗噪聲能力。

1 基于ICNN和IGAN的SAR目標(biāo)識(shí)別方法

基于ICNN和IGAN的SAR目標(biāo)識(shí)別方法如圖1所示,先采用訓(xùn)練樣本對(duì)IGAN進(jìn)行無監(jiān)督預(yù)訓(xùn)練,然后將訓(xùn)練好的IGAN鑒別器參數(shù)初始化ICNN,再利用訓(xùn)練樣本對(duì)ICNN微調(diào),最后利用訓(xùn)練好的ICNN進(jìn)行測(cè)試樣本的分類。該方法的詳細(xì)步驟如下:

1) 將隨機(jī)噪聲作為IGAN的輸入,經(jīng)生成器G得到生成樣本;

2) 將真實(shí)或生成樣本輸入到鑒別器D,D的輸出為屬于真實(shí)樣本或生成樣本的概率;

3) 利用后向傳播算法更新G和D的參數(shù),直到達(dá)到納什平衡;

4) 將訓(xùn)練好的D參數(shù)初始化ICNN;

5) 利用帶標(biāo)簽訓(xùn)練樣本對(duì)ICNN微調(diào);

6) 將測(cè)試樣本輸入到訓(xùn)練好的ICNN,得到其所屬類別。

1.1 ICNN

傳統(tǒng)的CNN包括輸入層、隱藏層和輸出層,其中,隱藏層又包括卷積層、池化層和全連接層。在CNN基礎(chǔ)上,ICNN對(duì)隱藏層結(jié)構(gòu)進(jìn)行了改進(jìn),輸出層仍為常用的Softmax分類器。ICNN隱藏層的改進(jìn)之處主要有:1) 采用步長(zhǎng)為s(s≥2,s∈N+)的卷積層替代池化層;2) 采用池化層以實(shí)現(xiàn)不同層次特征圖的尺寸相同化;3) 增加特征合成層,將不同層次特征圖進(jìn)行合成。因此,ICNN的結(jié)構(gòu)可以概括為卷積層、池化層、特征合成層、全連接層及Softmax分類層,如圖1所示。由于特征合成層的運(yùn)算為特征圖的簡(jiǎn)單合并,接下來詳細(xì)分析其他層的運(yùn)算過程。

1) 卷積層

2) 池化層

ICNN的池化運(yùn)算是將不同卷積層的輸出特征圖的尺寸相同化,以在隱藏層的最后一層實(shí)現(xiàn)不同層次特征的合成。假定第L+1層為特征合成層,則第l(1≤l≤L)層第j通道的特征圖的池化運(yùn)算結(jié)果為

(2)

式中,G表示池化窗口大小,(x,y)表示第L+1層特征圖的像素坐標(biāo)位置。

3) 全連接層

(3)

4) Softmax分類層

假定目標(biāo)總共有K類,將全連接層的輸出進(jìn)行Softmax分類,則輸入樣本屬于第k(k=1, 2,…,K)類的概率為

(4)

在ICNN的訓(xùn)練過程中,采用后向傳播算法進(jìn)行網(wǎng)絡(luò)參數(shù)的更新,并采用交叉熵作為損失函數(shù),

(5)

式中,qk表示訓(xùn)練樣本的真實(shí)分類結(jié)果。如果訓(xùn)練樣本的標(biāo)簽為k,則qk=1;否則,qk=0。

1.2 IGAN

傳統(tǒng)的GAN包括生成器G和鑒別器D兩部分。IGAN是在GAN的基礎(chǔ)上,按照1.1節(jié)中ICNN的結(jié)構(gòu)進(jìn)行了改進(jìn),對(duì)D增加了特征合成層,如圖1所示。其中,D的結(jié)構(gòu)包括卷積層、池化層、特征合成層以及全連接層;G包括全連接層和反卷積層。

IGAN的工作原理和GAN相同,表現(xiàn)為G和D兩者之間的博弈。G的輸入為噪聲z,服從先驗(yàn)分布pz(z),輸出為生成樣本G(z);D的輸入為真實(shí)樣本x或生成樣本G(z),輸出為屬于x或G(z)的概率。若x服從分布pdata,G(z)服從分布pg,則G的目標(biāo)是使生成樣本的分布pg盡可能接近pdata,而D的目標(biāo)是正確區(qū)分x和G(z)。因此,IGAN的目標(biāo)函數(shù)可表示為

Ez:pz(z)[log(1-D(G(z)))]

(6)

在IGAN訓(xùn)練過程中,分別對(duì)D和G進(jìn)行訓(xùn)練。當(dāng)訓(xùn)練D時(shí),先固定G的網(wǎng)絡(luò)參數(shù)。一方面,對(duì)x而言,期望D(x)最大;另一方面,對(duì)G(z)而言,期望D(G(z))最小,即最大化1-D(G(z))。當(dāng)訓(xùn)練G時(shí),固定D的網(wǎng)絡(luò)參數(shù),G的目標(biāo)是期望D(G(z))最大,即最小化1-D(G(z))。

此外,進(jìn)一步采用特征匹配方法提高IGAN的穩(wěn)定性[19]。假設(shè)F(x)表示D中不同層的特征,則G的特征匹配損失函數(shù)為

Lfeature_match=‖Ex:pdata(x)F(x)-Ez:pz(z)F(G(z))‖

(7)

2 ICNN和IGAN的結(jié)構(gòu)參數(shù)

本節(jié)采用上節(jié)提出的方法,對(duì)MSTAR數(shù)據(jù)集(詳見第3節(jié))進(jìn)行SAR目標(biāo)識(shí)別。按照ICNN和IGAN的前向傳播過程,詳細(xì)地介紹它們的結(jié)構(gòu)參數(shù)。

2.1 ICNN

ICNN包括6個(gè)卷積層、2個(gè)最大池化層、1個(gè)特征合成層、1個(gè)全連接層和Softmax分類層,所有卷積核的大小均為5×5,每個(gè)卷積層后采用LReLU激活函數(shù),如圖2所示。ICNN的前向傳播過程和各層參數(shù)如下:

圖2 ICNN的結(jié)構(gòu)和參數(shù)

1) 輸入為一幅128×128的SAR圖像,經(jīng)過第一層16個(gè)s=2的卷積核卷積后,輸出為16幅64×64的特征圖;

2) 經(jīng)過第二層32個(gè)s=2的卷積核卷積后,輸出為32幅32×32的特征圖;

3) 經(jīng)過第三層64個(gè)s=2的卷積核卷積后,輸出為64幅16×16的特征圖;

4) 經(jīng)過第四層128個(gè)s=1的卷積核卷積后,輸出為128幅16×16的特征圖;

5) 經(jīng)過第五層256個(gè)s=2的卷積核卷積后,輸出為256幅8×8的特征圖;

6) 經(jīng)過第六層512個(gè)s=2的卷積核卷積后,輸出為512幅4×4的特征圖;

7) 將步驟4)得到的特征圖,經(jīng)過大小為4×4且s=4的最大池化層后,輸出為128幅4×4的特征圖;

8) 將步驟5)得到的特征圖,經(jīng)過大小為2×2且s=2的最大池化層后,輸出為256幅4×4的特征圖;

9) 將步驟6)~8)得到的特征圖進(jìn)行合成,輸出為896幅4×4的特征圖;

10) 將合成特征圖展平,并經(jīng)過全連接層,輸出為1×10的矢量;

11) 經(jīng)過Softmax分類器輸出目標(biāo)所屬類別的概率。

2.2 IGAN

IGAN的鑒別器D和ICNN的隱藏層結(jié)構(gòu)參數(shù)相同,生成器G包括6個(gè)反卷積層和2個(gè)全連接層,前5個(gè)反卷積層后采用ReLU激活函數(shù),最后1個(gè)反卷積層后采用tanh激活函數(shù),如圖3所示。為了減輕反卷積層帶來的棋盤偽影,所有卷積核的大小均為4×4。G的前向傳播過程和各層參數(shù)如下:

圖3 IGAN的結(jié)構(gòu)和參數(shù)

1) 隨機(jī)產(chǎn)生1×100的噪聲,經(jīng)過2個(gè)全連接層后,輸出為1×8 192的矢量;

2) 將矢量變形為512幅4×4的圖像,經(jīng)過第一層256個(gè)反卷積核反卷積后,輸出為256幅8×8的圖像;

3) 經(jīng)過第二層128個(gè)反卷積核反卷積后,輸出為128幅16×16的圖像;

4) 經(jīng)過第三層64個(gè)反卷積核反卷積后,輸出為64幅16×16的圖像;

5) 經(jīng)過第四層32個(gè)反卷積核反卷積后,輸出為32幅32×32的圖像;

6) 經(jīng)過第五層16個(gè)反卷積核反卷積后,輸出為16幅64×64的圖像;

7) 經(jīng)過第六層1個(gè)反卷積核反卷積后,輸出為1幅128×128的圖像。

3 實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)采用的MSTAR數(shù)據(jù)集共包括10種不同類別的地面目標(biāo),其光學(xué)圖像及相應(yīng)的SAR圖像如圖4所示。MSTAR訓(xùn)練集和測(cè)試集中包含的各類目標(biāo)的數(shù)量如表1所示,顯然,共有2 747個(gè)訓(xùn)練樣本和2 425個(gè)測(cè)試樣本,訓(xùn)練集為17°下視角數(shù)據(jù),測(cè)試集為15°下視角數(shù)據(jù)。實(shí)驗(yàn)前將所有的SAR圖像切割成128×128大小,且保持目標(biāo)在圖像中心。實(shí)驗(yàn)按照采用全部的數(shù)據(jù)集、減少訓(xùn)練樣本數(shù)、加不同比例的噪聲,以及加不同功率的噪聲四種情況分別進(jìn)行。為了驗(yàn)證基于ICNN和IGAN方法的有效性,將其與直接采用基于ICNN的方法進(jìn)行對(duì)比。

表1 MSTAR數(shù)據(jù)集

圖4 10類目標(biāo)的光學(xué)圖像及相應(yīng)的SAR圖像

網(wǎng)絡(luò)訓(xùn)練前,在基于ICNN和IGAN方法中,隨機(jī)初始化IGAN的G和D網(wǎng)絡(luò)參數(shù);在直接采用基于ICNN的方法中,隨機(jī)初始化ICNN的參數(shù)。兩種方法在訓(xùn)練過程中,設(shè)置批尺寸大小為64,并采用Adam算法[20]完成網(wǎng)絡(luò)參數(shù)的更新。為了保持對(duì)抗平衡,IGAN的G和D的更新次數(shù)比設(shè)定為1∶2。

1) 采用全部的數(shù)據(jù)集

采用全部的訓(xùn)練和測(cè)試樣本進(jìn)行實(shí)驗(yàn),基于ICNN和IGAN的識(shí)別方法得到的10類目標(biāo)的混淆矩陣如表2所示,該方法與直接基于ICNN的方法得到的各類目標(biāo)的正確識(shí)別率及平均正確識(shí)別率如表3所示。結(jié)果表明,基于ICNN和IGAN方法的平均正確識(shí)別率為98.72%,而直接基于ICNN的方法的平均正確識(shí)別率為97.32%,即前者比后者高1.4%。

表2 基于ICNN和IGAN的SAR目標(biāo)識(shí)別結(jié)果

續(xù)表2

表3 兩種方法的實(shí)驗(yàn)結(jié)果對(duì)比

2) 減少訓(xùn)練樣本數(shù)

當(dāng)訓(xùn)練樣本數(shù)從100%減少到10%,而測(cè)試樣本數(shù)量不變時(shí),兩種方法得到的平均正確識(shí)別率隨訓(xùn)練樣本數(shù)減少的變化情況如圖5所示。結(jié)果表明,當(dāng)訓(xùn)練樣本數(shù)大于30%時(shí),兩種方法得到的平均正確識(shí)別率都較高;當(dāng)樣本數(shù)減少至30%時(shí),基于ICNN和IGAN的方法和直接基于ICNN的方法得到的平均正確識(shí)別率分別為96.37%和92.78%。當(dāng)樣本數(shù)低于30%時(shí),兩種方法得到的平均正確識(shí)別率都下降比較快,其原因是多數(shù)方位角下的訓(xùn)練樣本被丟棄,網(wǎng)絡(luò)難以學(xué)習(xí)到各方位角下的目標(biāo)特征。

圖5 平均正確識(shí)別率隨訓(xùn)練樣本數(shù)減少的變化情況

3) 加不同比例的噪聲

定義噪聲比例為SAR原圖像中的像素單元被噪聲取代的數(shù)量占所有像素單元數(shù)量的比例[1]。若噪聲服從均勻分布,則加入5%、10%、15%、20%噪聲后的SAR圖像分別如圖6(a)~(d)所示。采用100%、50%、30%的訓(xùn)練樣本和100%的測(cè)試樣本分別進(jìn)行實(shí)驗(yàn),當(dāng)噪聲比例從5%增加到20%時(shí),兩種方法的平均正確識(shí)別率隨噪聲比例的變化情況如圖7所示。結(jié)果表明,兩種方法的平均正確識(shí)別率隨噪聲比例的增加而降低。此外,在訓(xùn)練樣本數(shù)相同的情況下,基于ICNN和IGAN的方法比直接基于ICNN的方法具有更高的識(shí)別率,即前者比后者具有更強(qiáng)的抗噪聲能力。

圖6 加不同比例噪聲后的SAR圖像

圖7 平均正確識(shí)別率隨噪聲比例增加的變化情況

4) 加不同功率的噪聲

圖8 不同信噪比的SAR圖像

圖9 平均正確識(shí)別率隨信噪比下降的變化情況

4 結(jié)束語

本文針對(duì)基于CNN的SAR圖像目標(biāo)識(shí)別中,因數(shù)據(jù)集小易產(chǎn)生過擬合問題,提出了一種基于ICNN和IGAN相結(jié)合的方法。該方法先用訓(xùn)練樣本對(duì)IGAN進(jìn)行無監(jiān)督預(yù)訓(xùn)練,然后將訓(xùn)練好的IGAN鑒別器參數(shù)初始化ICNN,再利用訓(xùn)練樣本對(duì)ICNN微調(diào),最后利用訓(xùn)練好的ICNN進(jìn)行測(cè)試樣本的分類輸出。為了驗(yàn)證該方法的有效性,采用MSTAR數(shù)據(jù)集分別進(jìn)行了全部數(shù)據(jù)集、減少訓(xùn)練樣本數(shù)、加不同比例噪聲和不同功率噪聲的實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,基于ICNN和IGAN的方法比直接基于ICNN的方法,不僅具有更高的平均正確識(shí)別率,而且具有更強(qiáng)的抗噪聲能力。

猜你喜歡
特征方法
抓住特征巧觀察
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
學(xué)習(xí)方法
抓住特征巧觀察
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 久久福利片| 久久精品丝袜| 亚洲国产黄色| 97精品国产高清久久久久蜜芽 | 精品撒尿视频一区二区三区| 国产高清在线丝袜精品一区| 久久青青草原亚洲av无码| 日韩av无码精品专区| 欧美高清国产| 亚洲天堂视频在线播放| 高h视频在线| 91po国产在线精品免费观看| 日韩高清无码免费| a色毛片免费视频| 老色鬼久久亚洲AV综合| 五月天丁香婷婷综合久久| 欧美成人二区| 亚洲综合天堂网| 亚洲欧美另类中文字幕| 四虎国产精品永久一区| 中文字幕在线播放不卡| 亚洲免费成人网| 午夜视频日本| 伊人久久综在合线亚洲2019| 日本少妇又色又爽又高潮| 国产精品无码AⅤ在线观看播放| 在线观看91香蕉国产免费| 美女一级毛片无遮挡内谢| 成人国产精品网站在线看| 亚洲第一成年网| 色视频国产| 精品视频一区二区三区在线播| 老司机精品久久| 国产日韩精品欧美一区灰| 亚洲美女AV免费一区| 91青青草视频| 99re这里只有国产中文精品国产精品| 婷婷六月天激情| 精品无码一区二区三区电影| 亚洲中文字幕在线一区播放| 免费大黄网站在线观看| 婷婷激情亚洲| h视频在线观看网站| 在线视频亚洲欧美| 亚洲成a人在线播放www| 国产18在线播放| 成年午夜精品久久精品| 麻豆精品国产自产在线| 亚洲视频a| 精品日韩亚洲欧美高清a| 国产激爽爽爽大片在线观看| 成人午夜网址| 天天色天天综合| 四虎影视国产精品| 国产成人综合日韩精品无码不卡| 国产精品一区二区无码免费看片| 成年人免费国产视频| 亚洲国产精品不卡在线| 国产精品久久国产精麻豆99网站| 在线观看无码a∨| 国产主播在线一区| 国产成人无码Av在线播放无广告| 国产精彩视频在线观看| 91精品专区国产盗摄| 国产情精品嫩草影院88av| 色综合久久88色综合天天提莫 | 成人一区在线| 亚洲精品国产自在现线最新| 91久久国产综合精品女同我| 久久精品国产999大香线焦| 十八禁美女裸体网站| 国产麻豆精品久久一二三| 高清久久精品亚洲日韩Av| 亚洲人成网站色7777| 无码高清专区| 一区二区三区成人| 永久在线精品免费视频观看| 国产精品午夜电影| 亚洲国产清纯| 亚洲成网777777国产精品| 成人国产精品2021| 熟妇丰满人妻|