999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于EfficientNet與BiGRU的多角度SAR圖像目標(biāo)識(shí)別方法

2022-01-08 05:37:38趙鵬菲黃麗佳
雷達(dá)學(xué)報(bào) 2021年6期
關(guān)鍵詞:特征模型

趙鵬菲 黃麗佳

①(中國(guó)科學(xué)院空天信息創(chuàng)新研究院 北京 100094)

②(中國(guó)科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點(diǎn)實(shí)驗(yàn)室 北京 100190)

③(中國(guó)科學(xué)院大學(xué) 北京 100049)

1 引言

合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)是一種主動(dòng)式微波遙感設(shè)備,其通過(guò)天線主動(dòng)地向目標(biāo)發(fā)射微波,并接收目標(biāo)反射的回波實(shí)現(xiàn)對(duì)目標(biāo)的成像[1]。SAR不僅可以在光照不足和惡劣天氣下工作,而且可以實(shí)現(xiàn)對(duì)隱蔽目標(biāo)的穿透探測(cè),具有全天時(shí)、全天候工作的特點(diǎn)[2]。經(jīng)過(guò)30余年的發(fā)展,SAR技術(shù)越來(lái)越成熟,目前已經(jīng)成為遙感信息獲取的重要途徑,在軍用以及民用領(lǐng)域都有廣泛的應(yīng)用[3]。

與光學(xué)圖像不同,由于電磁散射和相干成像機(jī)理,SAR圖像是目標(biāo)三維幾何和輻射信息在二維圖像中的映射,存在疊掩、陰影等特點(diǎn),且含有大量相干斑噪聲。這使SAR圖像在視覺上較光學(xué)圖像更難解釋與理解,對(duì)目標(biāo)的檢測(cè)和識(shí)別有較大的影響[4]。因此,從SAR圖像中識(shí)別目標(biāo)的真實(shí)屬性,即SAR自動(dòng)目標(biāo)識(shí)別技術(shù)(SAR Automatic Target Recognition,SAR ATR)成為一直以來(lái)的研究熱點(diǎn)。

近年來(lái),隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)的SAR ATR技術(shù)得到了廣泛的應(yīng)用[5–8]。都設(shè)計(jì)了不同的卷積神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)SAR圖像進(jìn)行目標(biāo)識(shí)別任務(wù),并取得了不錯(cuò)的效果,但這些方法都是基于SAR的單角度圖像進(jìn)行的目標(biāo)識(shí)別。

由于SAR采用側(cè)視成像原理,SAR對(duì)目標(biāo)觀測(cè)俯仰角和方位角的變化都十分敏感。對(duì)于同一觀測(cè)目標(biāo),即便觀測(cè)的方位角僅有較少變化,所得目標(biāo)的SAR圖像也會(huì)有較大的差別。而對(duì)于不同目標(biāo)在某一個(gè)觀測(cè)角度下又呈現(xiàn)較大的相似性,這些情況對(duì)基于單角度SAR圖像的目標(biāo)識(shí)別造成相當(dāng)?shù)睦щy。此外,同一觀測(cè)目標(biāo)的多角度SAR圖像序列中蘊(yùn)含著多個(gè)角度的散射回波,較單角度SAR圖像更加全面精細(xì)地刻畫了目標(biāo)散射特性[9]。

多角度SAR目標(biāo)識(shí)別技術(shù)基于SAR平臺(tái)獲取目標(biāo)不同方位角的多幅圖像組成的圖像序列,利用不同視角的散射特性對(duì)目標(biāo)進(jìn)行類別屬性判別,其擁有更高的準(zhǔn)確度和魯棒性[10,11]。

目前,多角度SAR目標(biāo)識(shí)別技術(shù)也有了一定的發(fā)展。2017年,Zhang等人[12]提出多角度感知雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Multi-Aspect-aware Bidirectional Long-Short Term Memory,MA-BLSTM)用于多角度SAR目標(biāo)識(shí)別,其首先提取單張圖像的Gabor特征和3片局部二值模式(Three Patches Local Binary Pattern,TPLBP)特征,并進(jìn)一步利用長(zhǎng)短期記憶網(wǎng)絡(luò)(Long-Short Term Memory,LSTM)提取了圖像特征序列的時(shí)序特征,最后通過(guò)Softmax層進(jìn)行目標(biāo)的分類,取得了不錯(cuò)的效果。2018年,Pei等人[13]提出多視角深度卷積神經(jīng)網(wǎng)絡(luò)(Multi-View Deep Convolutional Neural Network,MVDCNN)方法,利用并行的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)來(lái)提取不同角度圖像的深度特征,并逐步將這些特征進(jìn)行融合,從而進(jìn)行識(shí)別。鄒浩等人[14]將3張不同角度的SAR圖像合并作為1張3通道的圖像送入CNN網(wǎng)絡(luò)進(jìn)行目標(biāo)識(shí)別,取得了不錯(cuò)的效果。Zhao等人[15]提出了多流卷積神經(jīng)網(wǎng)絡(luò)(Multi-Stream Convolutional Neural Network,MS-CNN)方法,設(shè)計(jì)了傅里葉特征融合層,來(lái)對(duì)由卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征進(jìn)行了融合。2019年,Zhang等人[16]在文獻(xiàn)[12]的基礎(chǔ)上,將Gabor特征和TPLBP特征換為由ResNet提取的深度特征,并提出基于投票的后處理方法,取得了目前最高的準(zhǔn)確率。

盡管上述方法都取得了不錯(cuò)的效果,但仍然存在一些尚未解決的問題,如在訓(xùn)練集和測(cè)試集圖像成像條件不同時(shí),識(shí)別準(zhǔn)確率較低;基于深度學(xué)習(xí)的方法通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練等。

為解決以上問題,本文提出基于EfficientNet[17]和BiGRU[18]的多角度SAR目標(biāo)識(shí)別方法,主要貢獻(xiàn)如下:

(1) 本文采用EfficientNet提取單張SAR圖像的空間特征,并進(jìn)一步利用BiGRU提取圖像序列的時(shí)序特征。這使模型保持高性能的同時(shí)也降低了模型參數(shù)量;

(2) 本文采用孤島損失(Island Loss)[19]改進(jìn)分類模型的訓(xùn)練損失。在SAR圖像目標(biāo)識(shí)別任務(wù)中,Island Loss通過(guò)擴(kuò)大各個(gè)目標(biāo)類別間的類間距離及縮小類內(nèi)距離來(lái)有效提升識(shí)別準(zhǔn)確率。

實(shí)驗(yàn)證明,本方法不僅在大部分?jǐn)?shù)據(jù)集上取得了當(dāng)前最好的識(shí)別效果,還在小規(guī)模數(shù)據(jù)集上取得了不錯(cuò)的識(shí)別性能。

本文的第2節(jié)詳細(xì)介紹了本文所提多角度SAR目標(biāo)識(shí)別方法;第3節(jié)介紹實(shí)驗(yàn)所采用的圖像數(shù)據(jù)以及多角度圖像數(shù)據(jù)集的構(gòu)造;第4節(jié)介紹實(shí)驗(yàn)細(xì)節(jié)與結(jié)果;第5節(jié)總結(jié)本方法的優(yōu)越性并安排了后續(xù)的工作。

2 多角度SAR圖像目標(biāo)識(shí)別方法

2.1 多角度SAR圖像序列識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)

本文所提多角度SAR圖像目標(biāo)識(shí)別網(wǎng)絡(luò)的結(jié)構(gòu)如圖1所示,其主要由提取單張圖像特征的EfficientNet網(wǎng)絡(luò)與進(jìn)一步提取多角度SAR圖像序列時(shí)序特征的BiGRU網(wǎng)絡(luò)構(gòu)成。

圖1 多角度SAR目標(biāo)識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Multi-aspect SAR ATR framework

該網(wǎng)絡(luò)的輸入數(shù)據(jù)是一組同一目標(biāo)的多角度SAR圖像序列(B,L,C,H,W)。其中,B為模型訓(xùn)練時(shí)的Batch Size,L為圖像序列的圖像數(shù)量,C,H,W分別為圖像通道數(shù)、圖像高度與寬度。

該方法首先使用一組共享權(quán)重的EfficientNet網(wǎng)絡(luò)提取圖像序列中單張圖像的空間特征(B×L,U),其中U為單張圖像空間特征的維度。對(duì)圖像序列所提取的圖像特征序列進(jìn)行維度變換,得到特征(B,L,U),再送入BiGRU網(wǎng)絡(luò)繼續(xù)提取多角度圖像序列時(shí)序特征 (B,V),其中V為特征的維度。最后,將經(jīng)過(guò)BiGRU網(wǎng)絡(luò)提取的特征送入全連接層獲取最終的輸出,即該組多角度圖像的目標(biāo)類別概率 (B,k),其中k為待識(shí)別目標(biāo)的類別數(shù)目。

2.2 EfficientNet

EfficientNet系列模型是目前性能最好的深度學(xué)習(xí)分類模型之一,該模型的基礎(chǔ)網(wǎng)絡(luò)架構(gòu)是通過(guò)神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索(Neural Architecture Search,NAS)技術(shù)得到的[17]。本文選取了EfficientNet系列模型中的EfficientNet-B0網(wǎng)絡(luò),該網(wǎng)絡(luò)在Efficient-Net系列模型中尺寸最小,速度最快,更適用于SAR領(lǐng)域這類小規(guī)模數(shù)據(jù)集。

本文所使用的EfficientNet-B0網(wǎng)絡(luò)結(jié)構(gòu)組成如表1所示,其由16個(gè)移動(dòng)倒置瓶頸卷積模塊(Mobile inverted Bottleneck Convolution,MBConv)[17]、2個(gè)卷積層、1個(gè)全局平均池化層和1個(gè)全連接層構(gòu)成。

表1 EfficientNet-B0網(wǎng)絡(luò)結(jié)構(gòu)Tab.1 EfficientNet-B0 network structure

深度學(xué)習(xí)任務(wù)中常用的殘差網(wǎng)絡(luò)ResNet分類網(wǎng)絡(luò)[20],其也應(yīng)用于文獻(xiàn)[16]進(jìn)行多角度SAR目標(biāo)圖像的識(shí)別。表2對(duì)比了EfficientNet-B0和ResNet50網(wǎng)絡(luò)的參數(shù)量、計(jì)算量與性能,top1/top5準(zhǔn)確率是在ImageNet數(shù)據(jù)集中得出的[17,21]。top1/top5準(zhǔn)確率如式(1)所示,n為 樣本總數(shù),gk表示第k個(gè)樣本的真實(shí)標(biāo)簽,lj表示模型對(duì)當(dāng)前樣本所得概率向量中第j大的概率所對(duì)應(yīng)的標(biāo)簽,函數(shù)d如式(2)所示

如表2所示,對(duì)比ResNet50網(wǎng)絡(luò),Efficient-Net-B0網(wǎng)絡(luò)的速度快10倍、參數(shù)僅為其1/5且性能更好,這使其更適用于較難獲取、數(shù)量較少的SAR遙感目標(biāo)數(shù)據(jù)集。此外,由于EfficientNet-B0網(wǎng)絡(luò)參數(shù)較少,模型部署更加容易。

表2 EfficientNet-B0與ResNet50網(wǎng)絡(luò)對(duì)比Tab.2 Comparison of EfficientNet-B0 and ResNet50 networks

在本文所提多角度SAR圖像識(shí)別框架中,EfficientNet-B0網(wǎng)絡(luò)的輸入是單張SAR的目標(biāo)圖像,輸出是其空間特征。模型將多角度圖像序列的特征進(jìn)行維度變換后送入后續(xù)的BiGRU網(wǎng)絡(luò)。

2.3 BiGRU

門控循環(huán)單元(Gate Recurrent Unit,GRU)[18]是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),其與長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)[21]相似,是為了解決長(zhǎng)期記憶和反向傳播中的梯度等問題而提出的。

GRU適宜于處理時(shí)間序列數(shù)據(jù),本文使用GRU來(lái)提取多角度SAR圖像序列的空間變化特征。對(duì)比LSTM,GRU在性能相當(dāng)?shù)耐瑫r(shí)參數(shù)量更少、更易于訓(xùn)練。相比之下更適宜于小規(guī)模數(shù)據(jù)集,因此本文選取了GRU網(wǎng)絡(luò)用于多角度圖像序列的處理。

GRU由更新門和重置門兩個(gè)門控單元組成,如圖2所示,其利用門控單元控制輸入、記憶等數(shù)據(jù)在當(dāng)前時(shí)刻做出預(yù)測(cè),其表達(dá)式為式(3)—式(6),其中zt為更新門,rt為重置門,Wz,Wr,W分別為更新門、重置門和候選隱層狀態(tài)的權(quán)值矩陣,xt為輸入信息,ht為t時(shí)刻的隱層狀態(tài),h?t為t時(shí)刻的候選隱層狀態(tài),ht?1為t ?1時(shí)刻的隱層狀態(tài),σ是Sigmoid函數(shù)。重置門將新的輸入信息與前面的記憶相結(jié)合,輸出一個(gè)0~1的值,其決定將ht?1向下一狀態(tài)傳遞的多少。更新門定義了先前記憶保存至當(dāng)前時(shí)刻的量,即先前記憶對(duì)當(dāng)前狀態(tài)的影響程度

圖2 GRU結(jié)構(gòu)示意圖Fig.2 The structure of GRU

然而,普通的GRU網(wǎng)絡(luò)僅能編碼從前向后的序列信息,無(wú)法編碼從后往前的序列信息。因此,本文采用了雙向的GRU網(wǎng)絡(luò)BiGRU來(lái)獲取了圖像特征序列雙向信息。

本文所采用的BiGRU結(jié)構(gòu)如圖3所示。

圖3 BiGRU結(jié)構(gòu)示意圖Fig.3 The structure of BiGRU

BiGRU的計(jì)算公式如式(7)—式(9)所示,其中與分別表示前向GRU與后向GRU輸出的隱層狀態(tài),wt與vt分別表示與所對(duì)應(yīng)的權(quán)重,bt則為偏置參數(shù)。可以看出,在BiGRU中,當(dāng)前隱層狀態(tài)ht由前向GRU與后向GRU輸出的隱層狀態(tài)加權(quán)所得

在本文的實(shí)驗(yàn)中,BiGRU網(wǎng)絡(luò)的隱層節(jié)點(diǎn)數(shù)為128,網(wǎng)絡(luò)層數(shù)為4。

2.4 訓(xùn)練損失

在基于深度學(xué)習(xí)的目標(biāo)識(shí)別任務(wù)中,交叉熵?fù)p失是最常使用的。然而,由于SAR圖像自身成像機(jī)理的復(fù)雜性和成像角度的敏感性,SAR圖像通常存在同一目標(biāo)之間類內(nèi)距離大,不同目標(biāo)之間類間距離小的問題。因此,簡(jiǎn)單地使用交叉熵不適用于SAR圖像目標(biāo)任務(wù)。如圖1所示,本文使用孤島損失(Island Loss)[19]和交叉熵?fù)p失共同作為訓(xùn)練損失來(lái)解決以上問題,其中交叉熵?fù)p失公式為

其中,yi是第i個(gè)樣本的類別,pi是模型輸出的第i個(gè)值。

Island Loss可以在訓(xùn)練中擴(kuò)大類間距離、縮小類內(nèi)距離,從而提高模型的分類性能。

Island Loss基于中心損失(Center Loss)[22]提出,Center Loss的公式為

其中,yi是第i個(gè)樣本的類別,xi是第i個(gè)樣本由EfficientNet-B0輸出的特征向量,第i個(gè)樣本所在類別的所有樣本計(jì)算的中心點(diǎn)。根據(jù)式(11),Center Loss為每個(gè)樣本特征距離其所在類中心的歐氏距離之和。因此,通過(guò)最小化Center Loss,可以將同一類別的不同樣本的特征聚向類別中心,以此來(lái)縮小類內(nèi)距離。

Center Loss僅僅可以縮小類內(nèi)距離,而Island Loss在其基礎(chǔ)上進(jìn)一步優(yōu)化了不同目標(biāo)的類間距離。其公式為

其中,cj和ck分別是第j個(gè)類別和第k個(gè)類別的中心點(diǎn),λ1為超參數(shù)。由式(12)可知,Island Loss的前半部分是Center Loss,后半部分是訓(xùn)練樣本所屬各個(gè)類別的特征中心之間的余弦相似度加1后的總和。當(dāng)?shù)趈個(gè)類別和第k個(gè)類別的中心點(diǎn)cj和ck相差較遠(yuǎn)時(shí),其余弦相似度接近于–1,此時(shí)的兩個(gè)類別之間所產(chǎn)生的損失為0; 當(dāng)cj和ck相近時(shí),其余弦相似度接近于1,此時(shí)兩個(gè)類別之間所產(chǎn)生的損失接近于最大值2。由此可見,可以通過(guò)最小化Island Loss,將同一類別的不同樣本的特征聚向類別中心的同時(shí),并將類別中心互相推離彼此,在高維空間中形成一座座“孤島”,因此Island Loss可以擴(kuò)大類間距離,縮小類內(nèi)距離。

在聯(lián)合交叉熵?fù)p失后,本文所使用的訓(xùn)練損失為

其中,λ為超參數(shù)。

3 數(shù)據(jù)集

本文使用了由桑迪亞國(guó)家實(shí)驗(yàn)室(Sandia national laboratory)提供的SAR圖像數(shù)據(jù)集——移動(dòng)與靜止目標(biāo)獲取識(shí)別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據(jù)集,針對(duì)SAR圖像目標(biāo)識(shí)別的研究大多都基于該數(shù)據(jù)集而展開。在該數(shù)據(jù)集中,圖像的分辨率為0.3 m×0.3 m,工作波段為X波段,所用的極化方式為HH極化方式。數(shù)據(jù)集中包含了10種不同類型的地面車輛目標(biāo)在不同俯仰角、不同方位角下的圖像數(shù)據(jù)。如圖4所示,其包含了目標(biāo)車輛在0°~360°間各個(gè)方位角的圖像數(shù)據(jù),因此該數(shù)據(jù)集適宜于建立多角度圖像目標(biāo)識(shí)別數(shù)據(jù)集。

圖4 不同方位角、同一目標(biāo)的SAR圖像Fig.4 SAR images of the same target with different azimuth

本文采用了文獻(xiàn)[16]中多角度SAR圖像數(shù)據(jù)集的構(gòu)造方式。目前,寬角SAR一次可以對(duì)目標(biāo)實(shí)現(xiàn)90°以下方位角的連續(xù)觀察,為了使方法更實(shí)用,本文設(shè)置連續(xù)觀測(cè)角θ為45°,多角度圖像序列包含的圖像個(gè)數(shù)L分別設(shè)置為2,3,4,數(shù)據(jù)集的構(gòu)造方式如圖5所示。

圖5 多角度圖像序列構(gòu)造示意圖Fig.5 Schematic diagram of multi-angle image sequence structure

構(gòu)建完成后的多角度SAR圖像序列數(shù)據(jù)集分為標(biāo)準(zhǔn)工作條件(Standard Operating Condition,SOC)和擴(kuò)展工作條件(Extended Operating Condition,EOC)兩類。其中SOC指的是訓(xùn)練集和測(cè)試集數(shù)據(jù)的SAR傳感器的成像條件相似,在實(shí)驗(yàn)中,訓(xùn)練集的成像俯仰角為17°,測(cè)試集的成像俯仰角為15°;EOC指的是訓(xùn)練集和測(cè)試集數(shù)據(jù)的SAR傳感器的成像條件存在一定的差異。圖像序列L4的SOC數(shù)據(jù)集目標(biāo)種類及數(shù)量如表3所示,其中訓(xùn)練集合計(jì)10592組,測(cè)試集合計(jì)8809組;當(dāng)圖像序列L3時(shí),訓(xùn)練集合計(jì)8016組,測(cè)試集合計(jì)6771組;當(dāng)圖像序列L2 時(shí),訓(xùn)練集合計(jì)5 3 4 7組,測(cè)試集合計(jì)4669組。

表3 圖像序列L為4時(shí),SOC數(shù)據(jù)集大小Tab.3 SOC dataset size when L=4

在MSTAR數(shù)據(jù)集中,EOC通常有3種,第1類為大俯仰角情況,本文稱為EOC-1,EOC-1的訓(xùn)練集成像俯仰角為17°,測(cè)試集成像俯仰角為30°,其中圖像序列L4時(shí),EOC-1數(shù)據(jù)集目標(biāo)種類及數(shù)量如表4所示。

表4 圖像序列L為4時(shí),EOC-1數(shù)據(jù)集大小Tab.4 EOC-1 dataset size when L=4

此外,另外兩種EOC分別指車輛版本變化與車輛配置變化。版本變化是指車輛的功能改變,即原始車輛變化為救護(hù)車、運(yùn)輸車、偵察車等;配置變化是指車輛上一些部件的增加或移除,如T72移除車后的油罐等[15]。在本文稱這兩種變化分別為EOC-2和EOC-3。

實(shí)驗(yàn)中選取了SOC訓(xùn)練集中的BMP2,BRDM_2,BTR70與T72作為EOC-2,EOC-3的訓(xùn)練集,選擇T72的5類版本變體S7,A32,A62,A63,A64作為EOC-2的測(cè)試集,選擇BMP2的兩類配置變體9566,C21及T72的5類配置變體812,A04,A05,A07,A10作為EOC-3的測(cè)試集[15]。

構(gòu)建完成后的EOC-1,EOC-2與EOC-3訓(xùn)練集與測(cè)試集總數(shù)量如表5所示。

表5 EOC-1,EOC-2與EOC-3數(shù)據(jù)集大小Tab.5 EOC-1,EOC-2 and EOC-3 dataset size

在圖像預(yù)處理中,本文對(duì)所有的圖像均中心裁剪成64×64。此外,本文還對(duì)部分訓(xùn)練集進(jìn)行了數(shù)據(jù)增廣,具體方法采用了由文獻(xiàn)[8]提出的SAR圖像增廣方法。首先將原始圖片中心裁剪為68×68,之后再隨機(jī)裁剪多張64×64的圖像,進(jìn)行數(shù)據(jù)增廣的訓(xùn)練集圖像序列數(shù)量如表6所示。

表6 部分進(jìn)行數(shù)據(jù)增廣的數(shù)據(jù)集增廣后大小Tab.6 The size of some data sets for data augmentation

4 實(shí)驗(yàn)

4.1 訓(xùn)練與測(cè)試

在SOC實(shí)驗(yàn)中,模型的各參數(shù)設(shè)置如表7所示。

表7 SOC實(shí)驗(yàn)中各參數(shù)設(shè)置Tab.7 Parameter in SOC experiment

在EOC-1實(shí)驗(yàn)中,數(shù)據(jù)增廣前λ為0.01,數(shù)據(jù)增廣后的λ為0.0001,訓(xùn)練的Epoch增加為300。對(duì)于Island Loss的超參數(shù)λ,其根據(jù)數(shù)據(jù)集的大小而變化,數(shù)據(jù)集圖像序列越大,其數(shù)值應(yīng)越少。在EOC-2與EOC-3實(shí)驗(yàn)中,其各項(xiàng)參數(shù)與SOC保持一致。

2.3 兩組治療前后血清白蛋白、非結(jié)合膽紅素及總膽紅素水平對(duì)比 治療后,觀察組黃疸新生兒血清白蛋白、肺結(jié)核膽紅素、總膽紅素水平均明顯低于治療前(P<0.05),而觀察組明顯低于對(duì)照組(P<0.05)。見表3。

在訓(xùn)練過(guò)程中,每80個(gè)Epoch,Adam優(yōu)化器的學(xué)習(xí)率會(huì)縮減到1/10。此外,實(shí)驗(yàn)中使用了EfficientNet-B0在ImageNet數(shù)據(jù)集上的預(yù)訓(xùn)練模型,而BiGRU部分,則從頭開始訓(xùn)練。

本文所有訓(xùn)練與測(cè)試實(shí)驗(yàn)均在Ubuntu18.04系統(tǒng)下進(jìn)行。在硬件方面,實(shí)驗(yàn)采用了Intel i9-9900 CPU和NVIDIA RTX 2080Ti GPU。

4.2 SOC與EOC實(shí)驗(yàn)

在SOC實(shí)驗(yàn)中,其中圖像序列個(gè)數(shù)為4,未進(jìn)行數(shù)據(jù)集的增廣,在正常數(shù)據(jù)集大小就達(dá)到了100%的識(shí)別準(zhǔn)確率。

在EOC-1實(shí)驗(yàn)中,當(dāng)圖像序列個(gè)數(shù)為4時(shí),且數(shù)據(jù)未增廣時(shí),識(shí)別準(zhǔn)確率已達(dá)到99.08%,進(jìn)行數(shù)據(jù)增廣后,識(shí)別準(zhǔn)確率提高為99.68%,其混淆矩陣如表8所示。

表8 圖像序列數(shù)L為4時(shí),EOC-1混淆矩陣Tab.8 The EOC-1 confusion matrix when L=4

如表9所示,本文對(duì)比了當(dāng)圖像序列數(shù)為4時(shí)各主要方法的識(shí)別準(zhǔn)確率。本文所提方法不僅在SOC數(shù)據(jù)集上取得了100%的識(shí)別準(zhǔn)確率,在EOC-1數(shù)據(jù)集上取得的識(shí)別準(zhǔn)確率也優(yōu)于其他方法。

表9 圖像序列數(shù)L為4時(shí),各方法識(shí)別準(zhǔn)確率在SOC與EOC-1數(shù)據(jù)集上對(duì)比Tab.9 Comparison of the recognition accuracy on SOC and EOC-1 dataset when L is 4

當(dāng)圖像序列數(shù)L為3,2時(shí),SOC與EOC-1兩種類型的測(cè)試集準(zhǔn)確率如表10、表11,其中當(dāng)圖像序列數(shù)L為3時(shí),SOC的準(zhǔn)確率為99.94%,EOC-1的準(zhǔn)確率為98.58%;圖像序列數(shù)L為2時(shí),SOC的準(zhǔn)確率為99.87%,EOC-1的準(zhǔn)確率為97.60%。與主要多角度識(shí)別方法進(jìn)行對(duì)比如表10與表11所示。

表10 圖像序列數(shù)L為3時(shí),各方法準(zhǔn)確率對(duì)比(%)Tab.10 Comparison of test accuracy when L=3 (%)

表11 圖像序列數(shù)L為2時(shí),各方法準(zhǔn)確率對(duì)比(%)Tab.11 Comparison of test accuracy when L=2 (%)

表12 EOC-2數(shù)據(jù)集識(shí)別準(zhǔn)確率對(duì)比(%)Tab.12 Comparison of accuracy on EOC-2 (%)

表13 EOC-3數(shù)據(jù)集識(shí)別準(zhǔn)確率對(duì)比(%)Tab.13 Comparison of accuracy on EOC-3 (%)

對(duì)比其他方法,在SOC,EOC-1及EOC-3數(shù)據(jù)集上,本方法取得了相對(duì)更優(yōu)的識(shí)別結(jié)果,在EOC-2數(shù)據(jù)集上,本文方法僅略低于MS-CNN[15]。

4.3 數(shù)據(jù)集縮減實(shí)驗(yàn)

由于SAR圖像較難獲取,SAR目標(biāo)識(shí)別通常面臨著數(shù)據(jù)樣本較少的共性問題,因此,本文對(duì)圖像序列L為4時(shí)的訓(xùn)練集進(jìn)行了縮減,分別測(cè)試了本文所提方法和文獻(xiàn)[13]所提方法在5%,15%,50%訓(xùn)練集規(guī)模上的識(shí)別準(zhǔn)確率,測(cè)試結(jié)果如表14所示,可以看出,本文所提方法在數(shù)據(jù)集縮減的情況下同樣保持了較高的準(zhǔn)確率。

表14 在縮減數(shù)據(jù)集上的識(shí)別準(zhǔn)確率(%)Tab.14 Recognition accuracy on the reduced dataset (%)

4.4 消融實(shí)驗(yàn)

為驗(yàn)證不同模塊對(duì)模型性能的影響,本文在圖像序列數(shù)為4且未進(jìn)行圖像增廣的EOC-1數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)。

消融實(shí)驗(yàn)以ResNet與GRU組成的基線模型為基礎(chǔ),依次進(jìn)行添加Center Loss、改變Center Loss為Island Loss、改變骨干網(wǎng)絡(luò)為EfficientNet-B0、改變GRU為BiGRU,操作對(duì)性能的影響如表15所示,其中序號(hào)1為基線模型的測(cè)試結(jié)果。

表15 消融實(shí)驗(yàn)結(jié)果Tab.15 Results of ablation experiments

由表15的實(shí)驗(yàn)結(jié)果,本文所采用的不同模塊對(duì)模型的識(shí)別準(zhǔn)確率均有較大的提升作用。在訓(xùn)練損失的改進(jìn)上,Island Loss和Center Loss的加入對(duì)模型的識(shí)別準(zhǔn)確率均有所提升,其中更改訓(xùn)練損失為Island Loss的效果更好,對(duì)比Center Loss提升了1.22%,對(duì)比基線模型提升了2.95%;更改骨干網(wǎng)絡(luò)為EfficientNet-B0網(wǎng)絡(luò)后,對(duì)比ResNet模型,識(shí)別準(zhǔn)確率提升了1.43%;將GRU網(wǎng)絡(luò)更改為BiGRU后,模型具有獲取序列中雙向信息的能力,進(jìn)一步使識(shí)別準(zhǔn)確率提升了0.62%。

消融實(shí)驗(yàn)展示了本文所采用的EfficientNet,BiGRU和Island Loss對(duì)識(shí)別性能的影響,三者的組合對(duì)比基線模型提升了5.00%的識(shí)別準(zhǔn)確率,從而使本文所提方法取得了相當(dāng)?shù)哪繕?biāo)識(shí)別性能。

5 結(jié)束語(yǔ)

本文提出一種基于EfficientNet,BiGRU與Island Loss的多角度SAR圖像目標(biāo)識(shí)別模型,其在SOC,EOC-1,EOC-3 3類數(shù)據(jù)集下的識(shí)別準(zhǔn)確率均優(yōu)于其他主流方法,在EOC-2數(shù)據(jù)集下的識(shí)別準(zhǔn)確率也接近目前的最優(yōu)準(zhǔn)確率。

同時(shí)此模型也在訓(xùn)練樣本減小的情況下維持了較高的識(shí)別準(zhǔn)確率,有較好的魯棒性,是多角度SAR目標(biāo)識(shí)別任務(wù)中一種行之有效的方法。

然而,本文方法雖提高了EOC數(shù)據(jù)集的識(shí)別準(zhǔn)確率,但仍沒有達(dá)到SOC數(shù)據(jù)集的識(shí)別準(zhǔn)確率水平,因此后續(xù)可以繼續(xù)研究測(cè)試集和訓(xùn)練集存在一定差距情況下的模型改進(jìn)和準(zhǔn)確率提升問題。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 欧美a在线看| 亚洲国产亚洲综合在线尤物| 亚洲第一黄色网址| 亚洲av无码人妻| 亚洲日本一本dvd高清| 久久久噜噜噜| 91成人免费观看在线观看| 女人一级毛片| 亚洲综合婷婷激情| 国产一区二区色淫影院| 国产凹凸视频在线观看| 在线观看国产黄色| 成年人国产视频| 国产午夜精品一区二区三| 欧美色伊人| 国产三级a| 在线观看免费人成视频色快速| 国产靠逼视频| 国产无吗一区二区三区在线欢| 免费99精品国产自在现线| 国产精品区视频中文字幕| 亚洲黄色片免费看| 日本高清免费一本在线观看| 亚洲精品动漫| 香蕉久久国产超碰青草| 网久久综合| 久久夜色精品| 极品av一区二区| 亚洲经典在线中文字幕| 亚洲欧美综合另类图片小说区| 亚洲中文字幕久久精品无码一区| 国产女同自拍视频| 在线五月婷婷| 国产精品成人观看视频国产 | 制服丝袜在线视频香蕉| 国产在线视频福利资源站| 成人精品在线观看| 久久国产V一级毛多内射| 亚洲自拍另类| 久久青青草原亚洲av无码| 久久国产精品无码hdav| 欧美不卡视频一区发布| 亚洲男人的天堂在线观看| 不卡视频国产| 激情综合网激情综合| 精品成人一区二区三区电影 | 狠狠色香婷婷久久亚洲精品| 美臀人妻中出中文字幕在线| 久久久久久久97| 女同国产精品一区二区| 日韩高清中文字幕| 97色伦色在线综合视频| 狼友av永久网站免费观看| 中文字幕欧美日韩高清| 久996视频精品免费观看| 日本人又色又爽的视频| 97精品伊人久久大香线蕉| 最新无码专区超级碰碰碰| 91精品国产91久无码网站| 欧美.成人.综合在线| 久久中文电影| 中文字幕自拍偷拍| 天天色综网| 天天色天天综合网| 日韩成人免费网站| 国产香蕉在线视频| 996免费视频国产在线播放| 国产成人h在线观看网站站| 精品少妇人妻无码久久| 中文字幕va| 亚洲欧美日韩中文字幕一区二区三区 | 伊人蕉久影院| 亚洲精品va| 日韩精品一区二区三区免费| 国产精品污视频| 91小视频在线| 九色视频一区| 欧美成人国产| a天堂视频| 国产成人久久综合一区| 在线看片免费人成视久网下载 | 亚洲天堂网在线播放|