999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

訓(xùn)練集對遙感圖像超分辨率下自動目標識別影響的研究

2021-03-22 04:26:52王晟全
關(guān)鍵詞:船舶分類

王 艷,李 昂,王晟全

(1.南京理工大學(xué) a.紫金學(xué)院;b.電子工程與光電技術(shù)學(xué)院,南京 210023;2.南京郵電大學(xué) 通信學(xué)院,南京 210003)

遙感成像技術(shù)的迅猛發(fā)展催生了大量遙感圖像的產(chǎn)生。遙感圖像在國民經(jīng)濟建設(shè)的眾多領(lǐng)域中有著特殊的優(yōu)勢,例如戰(zhàn)場態(tài)勢監(jiān)控、城市交通以及礦物、陸地植被、惰性氣體和人工材料的探測與識別等[1]。自動目標識別(ATR)是計算機自動完成目標捕捉并分類的過程[2-4]。該過程涉及圖像濾波、圖像增強、圖像分割、圖像變換、特征提取、特征選擇、圖像匹配等多個方向的專業(yè)知識[5-6]。本文以船舶為目標,在遙感圖像中實現(xiàn)船舶的自動目標識別。遙感圖像中的船舶屬于小目標,對遙感圖像進行小目標識別并非容易的事情,原因在于遙感圖像的空間分辨率較低,針對普通圖像的自動識別算法無法直接應(yīng)用于遙感圖像。因此在對船舶進行識別之前,需要完成圖像超分辨率(SISR),即將低分辨率圖像映射到高分辨率圖像[7-9],該技術(shù)可以在不改變物理成像設(shè)備的限制下,獲取更高分辨率的圖像,在遙感圖像處理方面得到了應(yīng)用[10-12],可以提高遙感圖像的空間分辨率、自動識別的準確率。下面分別介紹ATR和SISR的發(fā)展現(xiàn)狀。

隨著深度學(xué)習的巨大進展,基于卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN)的自動目標識別算法取得巨大進步。相比于傳統(tǒng)方法,目標識別性能得到巨大提升,特別是在復(fù)雜場景的自動目標識別方面。Wagner等[13]利用CNN提取數(shù)據(jù)特征,將得到的特征數(shù)據(jù)送入到可訓(xùn)練的SVM分類器中進行分類。Zeiler等[14]使用遷移學(xué)習解決了深度學(xué)習應(yīng)用于SAR目標識別時數(shù)據(jù)不足的問題。Chen等[15]用卷積層替換CNN中的全連接層,降低了過擬合風險。Deng等[16]通過在損失函數(shù)中添加歐式距離限制(euclidean distance restriction),使類與類之間的特征更具有可分性。

SISR是低分辨率圖像映射到高分辨率圖像的過程,比任何縮放算法的保真度都高,如圖1所示。SISR可以有效提高圖像的空間分辨率,因此可以減少對更大、更昂貴的衛(wèi)星攝像機的需求。SISR的核心是嘗試將低分辨率圖像映射到高分辨率圖像,如圖2所示。SISR分為3類:基于插值、基于模型和基于判別學(xué)習的方法,其中基于判別學(xué)習的方法最為主流[17]。基于判別學(xué)習的算法利用CNN對于大量的圖像訓(xùn)練數(shù)據(jù)集進行訓(xùn)練,學(xué)習LR圖像和HR圖像之間的映射關(guān)系,從而能夠?qū)擫R圖像進行有效超分辨重構(gòu)。Michal等[18]測試了用于訓(xùn)練SR網(wǎng)絡(luò)的下采樣方法,使用DIV2K圖像測試了SRResNet和FSRCNN,通過不同的下采樣方法顯示了不同的圖像質(zhì)量得分。Kim等[19]提出一個深度的超分辨網(wǎng)絡(luò)模型VDSR(very deep super-resolution),采用了20個卷積層。Kim等通過實驗驗證了采用更深網(wǎng)絡(luò)模型能夠帶來更好的重建效果,但也會對收斂速度產(chǎn)生很大影響。

圖1 SR提高空間分辨率的效果圖

圖2 SISR示意圖

本文采用超分辨復(fù)原生成對抗網(wǎng)絡(luò)(SRGAN),在包括測試船舶本體的多個訓(xùn)練集中進行訓(xùn)練,多個訓(xùn)練集包括農(nóng)業(yè)、城市、雜亂場景、石油、港口和船舶本體,然后采用AlexNet網(wǎng)絡(luò)進行分類檢測,最后采用RetinaNet網(wǎng)絡(luò)進行目標識別。本文主要研究了訓(xùn)練集對SISR、超分辨率下目標識別的影響,目前相關(guān)研究較少。實驗表明,和不包含測試本體的訓(xùn)練集相比,包含測試本體的訓(xùn)練集,SISR后的圖像更加真實,超分辨率下的目標識別準確率更高。

1 超分辨率下目標自動識別算法

1.1 SRGAN網(wǎng)絡(luò)

SRGAN的目的在于將一個低分辨率的圖片轉(zhuǎn)化為一個高分辨率的圖片[20]。SRGAN是基于GAN方法進行訓(xùn)練,包括一個生成器和一個判別器,判別器的主體使用VGG19,生成器是一連串的Residual block連接,同時在模型后部也加入了subpixel模塊,借鑒了文獻[21]的Subpixel Network思想,讓圖片在最后的網(wǎng)絡(luò)層增加分辨率,提升分辨率的同時,減少計算資源的消耗。

將均方誤差(MSE)的感知損失lSR表示為內(nèi)容損失lSXR和對抗性損失成分lSGRen的加權(quán)和,如式(1)所示:

像素方式的MSE損失lSRMSE計算方法如式(2)所示:將VGG損函數(shù)失定義為重建圖像GθG(ILR)x,y特征表示與參考圖像IHR之間的歐氏距離,如式(3)所示:

其中,φi,j表示從VGG-19網(wǎng)絡(luò)的第j層卷積(激活后)的第i個最大池化層之前獲取的特征圖;Wi,j和Hi,j是VGG網(wǎng)絡(luò)中對應(yīng)特征圖的維數(shù)。

生成損失lSRGEN是基于所有訓(xùn)練樣本上鑒別器GθC(ISR)的概率定義,如式(4)所示:

DθD(GθG(ILR))定義為重建圖像GθG(ILR)是自然HR圖像的概率。為了更好的梯度表現(xiàn),使用-log DθD(GθG(ILR))最小化生成損耗函數(shù),而不是log[1-DθD(GθG(ILR))]。

SRGAN結(jié)構(gòu)如圖3所示,其中每個卷積層指示了相應(yīng)的內(nèi)核大小(k)、特征圖數(shù)量(n)和步幅(s)。

圖3 生成器和鑒別器網(wǎng)絡(luò)的體系結(jié)構(gòu)示意圖

1.2 分類網(wǎng)絡(luò)

在后續(xù)的分類檢測中,本文采用AlexNet[22]網(wǎng)絡(luò)作為分類網(wǎng)絡(luò)的基本框架,前5層為卷積層,然后是全連接層,最后一層是分類層Softmax。傳統(tǒng)網(wǎng)絡(luò)常用的激勵函數(shù)Sigmoid和tanh函數(shù)被取代為修正線性單元ReLU,同時為了減輕過擬合問題,采用了dropout方法,可以有效提高正確率,整體框架如圖4所示。

對于80 px和320 px的輸入,使用深度均為64,內(nèi)核大小為3×3的2D卷積層,并激活ReLU,然后再進行大小為2×2的2D最大池化層,直到獲得80×80的特征空間。然后,我們改為使用深度為32的Conv2D,然后使用大小為2×2的Maxpool2D,以實現(xiàn)38×38的潛在空間。最后,應(yīng)用速率為0.30的濾除層,把特征過濾出來,添加大小為30 mm的密集層、速率為0.30的退出層、輸出為2類的Softmax,其中,損失是分類交叉熵,優(yōu)化器是默認的Keras Adadelta。

圖4 AlexNet整體框架示意圖

1.3 目標識別網(wǎng)絡(luò)

本文采用了文獻[23]基于Focal Loss的RetinaNet作為識別網(wǎng)絡(luò)。RetinaNet在識別領(lǐng)域有著重要的地位。Focal loss是一種改進了的交叉熵CE(cross-entropy)loss,但是它在原有的CE loss上乘了使得易檢測目標對模型訓(xùn)練貢獻削弱的指數(shù)式,從而成功地解決了在目標檢測時,正負樣本區(qū)域極不平衡、而目標檢測loss易被大批量負樣本影響的問題,改進后的bias:b=-αlog((1-π)/π),其中α可以控制bias的值,使之能夠根據(jù)實際的情況,取得相應(yīng)的值,使其預(yù)測圖像目標的準確性上升。

2 實驗

2.1 訓(xùn)練集

為了避免數(shù)據(jù)集中的相機偽影變化太多,訓(xùn)練圖像需使用單個長焦距鏡的照片。為此,采用了Planet公司0.8m Visual Skysat衛(wèi)星采集的圖像。SkySat衛(wèi)星是美國Planet公司發(fā)展的高頻成像對地觀測小衛(wèi)星星座,主要用于獲取時序圖像,并服務(wù)于高分辨率遙感大數(shù)據(jù)的應(yīng)用。如圖5所示,單個圖像的可視化效果和RGB直方圖,以及5種訓(xùn)練集(農(nóng)業(yè)、城市、雜亂場景、石油和港口)中每種訓(xùn)練集的直方圖平均值。

2.2 測試集

測試集采用來自Kaggle Shipsnet競賽的圖像,示例圖像如圖6所示。這些圖像來自Planet的Planetscope衛(wèi)星(3.0 m),其中包含加利福尼亞州的舊金山灣和圣佩德羅灣地區(qū)圖像。與訓(xùn)練集的圖像相似,這些圖像也是Planet視覺分類中的場景,這意味著它們也經(jīng)過了銳化、正射和顏色校正的RGB。但是,與訓(xùn)練集不同,測試集中的場景已被平鋪為80 px×80 px的正方形。就數(shù)據(jù)集中的類別而言,只有全幅船被分類為船,所有其他圖像均歸類為“無船”。測試集包含4 000張圖像,其中1 000張圖像被分類為船。

圖5 土地利用類別的示例圖像和RGB直方圖

圖6 來自Kaggle Shipsnet競賽的圖像

2.3 模型訓(xùn)練和SRGAN

在農(nóng)業(yè)、城市、雜亂場景、石油、港口和船舶本體這6個測試集訓(xùn)練了6個SRGAN,每個SRGAN均訓(xùn)練了10 000次,每批次20個。目標檢測和分類檢測在Intel i7-7700HQ 2.8 GHz上運行,每組圖片大約需要30 min。

使用所需分辨率的所有圖像后,可以設(shè)置SRGAN網(wǎng)絡(luò),加載數(shù)據(jù)后,需要先采樣以獲得LR圖像。再次使用雙3次濾波器對圖像進行下采樣,以減少采樣方法對結(jié)果的影響,通過GAN運行數(shù)據(jù)之前將-1和1之間的所有像素值標準化。

SRGAN在包括農(nóng)業(yè)、城市、雜亂場景、石油、港口和船舶本體這6個訓(xùn)練集中進行訓(xùn)練。每個SRGAN運行的船舶圖片如圖7所示。對于船舶圖像,由農(nóng)業(yè)、港口訓(xùn)練的SRGAN產(chǎn)生的圖像色彩偏暗,由城市、雜亂場景訓(xùn)練的SRGAN產(chǎn)生的圖像色彩偏亮,由石油訓(xùn)練的SRGAN在船舶的船體產(chǎn)生了黑色的人工痕跡,由船舶本體訓(xùn)練的SRGAN產(chǎn)生的圖像色彩最亮、效果最好。

在訓(xùn)練了SRGAN之后,判別出一些流行的衛(wèi)星圖像樣本的縮減樣本,如:Xview(0.3 m)、Pleides(0.5 m)、Quickbird(0.65 m)、Triplesat(0.8 m)和Ikonos(1 m)。不同種類的訓(xùn)練集SRGAN對測試集產(chǎn)生的影響如表1所示,船舶本體和其他訓(xùn)練集相比,PSNR和SSIM這2個指標均表現(xiàn)最好。這表明針對本體圖像需要進行定制訓(xùn)練。原因在于超分辨復(fù)原的訓(xùn)練是無監(jiān)督學(xué)習,結(jié)果具有隨機性,但是也與本身的圖像顯著性特征有關(guān)。

圖7 SRGAN運行的船舶圖片

表1 SRGAN應(yīng)用于不同圖像的結(jié)果

2.4 目標識別

在目標識別過程中,采用了前文提到的Alex-Net網(wǎng)絡(luò)和RetinaNet算法,圖像的固定分辨率似乎并不能從增強中獲益很多,并且顯示出對基于尺寸的分辨率變化的敏感性。xView對比例敏感度的一個示例是在較高的分辨率下,同一張圖像可以錯誤地檢測出汽車的建筑物,而在較低的分辨率下,則可以將汽車誤認為是游艇。總體而言,對于未更改的xView圖像的基礎(chǔ)模型,最佳驗證mAP為300個歷時(3 d)后為0.16,對應(yīng)的訓(xùn)練mAP為0.30。不同訓(xùn)練集下的識別評價指標如表2所示,其中TP是實際為正例、預(yù)測為正例的比例,F(xiàn)P是實際為負例、預(yù)測為正例的比例,識別精確率Precision=TP/(TP+FP)。從表2可見,在不同的訓(xùn)練集情況下SRGAN中有明顯的差異,包含測試船舶本體的訓(xùn)練集,目標識別的精確率最高,達到了98.79%,可以滿足實際的識別應(yīng)用需求。

表2 不同訓(xùn)練集下的識別評價指標

2.5 附加實驗

本文算法對飛機目標進行識別和準確性的測試效果圖如圖8所示,圖中綠色框表示標簽位置、藍色表示測試結(jié)果、紅色表示誤檢的目標,準確率比較理想。但是在不同特征尺度下的飛機還是不能特別正確的標識,當飛機分辨率較低時,有一定的誤檢率和漏檢率。因此對遙感圖像中的飛機進行識別之前,引入SISR算法是非常必要的,該算法可以將低分辨率圖像映射到高分辨率圖像。SRGAN處理過的google遙感圖像訓(xùn)練損失率Loss比較理想,如圖9所示。

圖8 對遙感機場的檢測實驗

圖9 SRGAN處理過的google遙感圖像訓(xùn)練損失率Loss

3 結(jié)論

當訓(xùn)練不同的圖像集時,在SRGAN網(wǎng)絡(luò)之間可以看到明顯的差異。這突顯了定制訓(xùn)練集需求的重要性。在農(nóng)業(yè)、城市、雜亂場景、石油、港口和船舶本體這6類訓(xùn)練集中進行SRGAN訓(xùn)練,然后采用AlexNet網(wǎng)絡(luò)進行分類檢測;最后采用RetinaNet網(wǎng)絡(luò)進行目標識別。實驗表明:在同一個船舶測試集中,受過測試本體圖像訓(xùn)練的識別效果最好,精確率最高。

猜你喜歡
船舶分類
計算流體力學(xué)在船舶操縱運動仿真中的應(yīng)用
基于改進譜分析法的船舶疲勞強度直接計算
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
船舶!請加速
BOG壓縮機在小型LNG船舶上的應(yīng)用
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
船舶壓載水管理系統(tǒng)
中國船檢(2017年3期)2017-05-18 11:33:09
主站蜘蛛池模板: 91麻豆国产在线| 九九久久精品国产av片囯产区| 99草精品视频| 四虎AV麻豆| 免费看美女自慰的网站| 丁香五月亚洲综合在线| 国产又爽又黄无遮挡免费观看| 亚洲国产综合精品一区| 久草国产在线观看| 国产成人8x视频一区二区| 99热这里只有精品国产99| 欧美成人手机在线观看网址| 久久综合九色综合97婷婷| 成人另类稀缺在线观看| 国产精品对白刺激| 欧美成人午夜影院| 日本色综合网| 中文字幕亚洲第一| 精品国产美女福到在线不卡f| 国产小视频网站| 四虎国产在线观看| 91日本在线观看亚洲精品| 欧美黑人欧美精品刺激| 97久久精品人人| 亚洲精品第一页不卡| 中国国产A一级毛片| 久久人人爽人人爽人人片aV东京热| 毛片在线播放网址| 手机在线免费毛片| 日韩精品无码免费一区二区三区 | 亚洲综合网在线观看| av大片在线无码免费| 久久综合五月| 国产午夜精品一区二区三区软件| 免费观看男人免费桶女人视频| 中日韩一区二区三区中文免费视频 | 久久精品亚洲专区| 亚洲欧美另类中文字幕| 中文字幕2区| 人妻熟妇日韩AV在线播放| 亚洲全网成人资源在线观看| 丁香五月激情图片| 91精品aⅴ无码中文字字幕蜜桃 | 天堂av综合网| 精品91在线| 22sihu国产精品视频影视资讯| 乱人伦视频中文字幕在线| 成人亚洲天堂| 男女精品视频| 91在线视频福利| 国产美女在线免费观看| 狠狠躁天天躁夜夜躁婷婷| 性视频久久| 亚洲妓女综合网995久久| 婷婷六月综合网| 在线国产毛片| 国产午夜精品一区二区三区软件| 久久国产精品影院| 亚洲精品午夜天堂网页| 激情無極限的亚洲一区免费| 成年女人a毛片免费视频| 91久久天天躁狠狠躁夜夜| 国产精品免费露脸视频| 久久99国产乱子伦精品免| 白丝美女办公室高潮喷水视频| 久久国产精品77777| 伊人久久大香线蕉成人综合网| 青青操视频在线| 亚洲欧美一区二区三区蜜芽| 国产人成网线在线播放va| 国产精品真实对白精彩久久| 国产黑丝一区| 免费一级毛片完整版在线看| 手机成人午夜在线视频| 伊人久久婷婷| 一级一毛片a级毛片| av在线人妻熟妇| 成人亚洲国产| 五月天久久综合国产一区二区| 久久精品亚洲热综合一区二区| 欧美在线天堂| 午夜电影在线观看国产1区|