999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測(cè)研究

2018-03-01 03:27:46陳金勇吳金亮
無(wú)線電工程 2018年3期
關(guān)鍵詞:深度檢測(cè)

王 港,陳金勇,高 峰,吳金亮

(1.中國(guó)電子科技集團(tuán)公司航天信息應(yīng)用技術(shù)重點(diǎn)實(shí)驗(yàn)室,河北 石家莊 050081;2.中國(guó)電子科技集團(tuán)公司第五十四研究所,河北 石家莊 050081)

0 引言

遙感是人類(lèi)在模擬人的視覺(jué)系統(tǒng)基礎(chǔ)上發(fā)展起來(lái)的一種高科技觀測(cè)技術(shù),通過(guò)檢測(cè)和度量地物目標(biāo)電磁轄射量所得到的客觀記錄,把人眼看得到的和看不到的景物都轉(zhuǎn)化為人眼所能看到的圖像,重現(xiàn)地物目標(biāo)電磁轄射特性的空間分布狀況。遙感圖像已被廣泛應(yīng)用于環(huán)境檢測(cè)、資源探測(cè)、生態(tài)研究、測(cè)繪制圖和軍事指揮等眾多領(lǐng)域[1]。遙感圖像目標(biāo)檢測(cè)作為遙感圖像處理的一個(gè)重要部分,具有覆蓋范圍廣、作用距離遠(yuǎn)、執(zhí)行效率高等優(yōu)點(diǎn),在軍事和民用領(lǐng)域都有重要的意義和價(jià)值。

高分系列衛(wèi)星是我國(guó)自行研制并發(fā)射的系列衛(wèi)星。其中,“高分一號(hào)”衛(wèi)星于2013年4月發(fā)射成功,其主要參數(shù)為2 m全色/8 m多光譜分辨率相機(jī)和16 m多光譜分辨率寬覆蓋相機(jī),幅寬分別為60 km和800 km。“高分一號(hào)”衛(wèi)星擁有8 m分辨率多光譜相機(jī),一般的基礎(chǔ)設(shè)施大小在100 m以上,故“高分一號(hào)”遙感影像適合作為基礎(chǔ)設(shè)施目標(biāo)檢測(cè)的影響材料[2]。

深度學(xué)習(xí)是近年來(lái)在大數(shù)據(jù)環(huán)境下興起的一門(mén)機(jī)器學(xué)習(xí)技術(shù),其實(shí)質(zhì)是通過(guò)構(gòu)建具有多層結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù)來(lái)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜特征,用于之后的分析、預(yù)測(cè)等應(yīng)用[3]。由于其具備海量數(shù)據(jù)的學(xué)習(xí)能力和高度的特征抽象能力,在諸多圖像應(yīng)用領(lǐng)域都取得了革命性的成功。

自2014年開(kāi)始,基于深度學(xué)習(xí)(主要是卷積神經(jīng)網(wǎng)絡(luò)(CNN)[4])的目標(biāo)識(shí)別在自然圖像應(yīng)用中也取得了巨大突破。例如,以R-CNN(Region with CNN features)方法為代表的結(jié)合通用候選區(qū)域算法和CNN分類(lèi)的目標(biāo)識(shí)別框架(R-CNN[5]、SPP-NET(Spatial Pyramid Pooling Net)[6]、Fast R-CNN(Fast Region with CNN features)方法[7]、Faster R-CNN(Faster Region with CNN features)方法[8])。其候選區(qū)域采用Selective Search[9]、EdgeBox[10]或BING特征[11]等通用目標(biāo)候選方法,而這些通用區(qū)域候選算法本質(zhì)上還是遍歷滑窗的方法。后期的算法包括Fast R-CNN和Faster R-CNN等都采用回歸學(xué)習(xí)方法對(duì)目標(biāo)的準(zhǔn)確位置進(jìn)行了修正,甚至有YOLO(You Only Look Once)方法[12]、SSD(Single Shot Multibox Detector)方法對(duì)于“大范圍、小目標(biāo)”的遙感識(shí)別效果并不理想。2015年,微軟研究院何凱明提出了深度卷積網(wǎng)絡(luò)的改進(jìn)——深度殘差網(wǎng)絡(luò),在圖像分類(lèi)和檢測(cè)方面取得了進(jìn)一步的提高。此后,殘差網(wǎng)絡(luò)結(jié)構(gòu)慢慢成為各種卷積網(wǎng)絡(luò)模型的參照結(jié)構(gòu),為各類(lèi)圖像處理任務(wù)提供了優(yōu)化。

上述深度學(xué)習(xí)算法模型,都是在ImageNet挑戰(zhàn)賽[13]上獲得過(guò)最高名次的算法。ImageNet挑戰(zhàn)賽極大地促進(jìn)了計(jì)算機(jī)視覺(jué)領(lǐng)域目標(biāo)檢測(cè)識(shí)別領(lǐng)域的發(fā)展。但是ImageNet所包含的自然圖像和衛(wèi)星遙感影像,存在著一些關(guān)鍵性區(qū)別:① 遙感影像中目標(biāo)相對(duì)影像較小,而且其存在很多的旋轉(zhuǎn)、仿射等現(xiàn)象[14];② 輸入圖像巨大,往往有數(shù)百萬(wàn)像素甚至數(shù)億像素[15];③ 十分缺乏相關(guān)的訓(xùn)練學(xué)習(xí)數(shù)據(jù),尤其在深度學(xué)習(xí)的算法中,高質(zhì)量、高數(shù)量的訓(xùn)練樣本對(duì)算法效果起到至關(guān)重要的作用;④ 欺騙性,遙感影像由于其拍攝高度原因,獲得的信息可能是不真實(shí)的。故將深度學(xué)習(xí)的算法模型借鑒到遙感影像處理領(lǐng)域,還需要做更多的工作。

針對(duì)遙感影像目標(biāo)檢測(cè)的具體情況,本文設(shè)計(jì)了基于殘差神經(jīng)網(wǎng)絡(luò)模型的“高分一號(hào)”遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測(cè)算法[16]。為解決訓(xùn)練樣本少、目標(biāo)小、圖像大的問(wèn)題,通過(guò)“高分一號(hào)”遙感影像和谷歌地圖建立了圖像目標(biāo)樣本庫(kù);為解決輸入圖像巨大難以處理的問(wèn)題,對(duì)檢測(cè)輸入的遙感影像進(jìn)行分塊處理,使得每一塊都可以直接進(jìn)行基于殘差神經(jīng)網(wǎng)絡(luò)模型的高分辨率遙感影像目標(biāo)檢測(cè),同時(shí)針對(duì)重復(fù)區(qū)域建議的問(wèn)題,進(jìn)行了RPN優(yōu)化,方便了并行化處理。實(shí)驗(yàn)結(jié)果表明,本文算法很好地解決了深度學(xué)習(xí)模型應(yīng)用于遙感影像的諸多問(wèn)題,其檢測(cè)的準(zhǔn)確率、效率、實(shí)用性和魯棒性都有提高。

1 算法流程

總體算法流程如圖1所示。設(shè)計(jì)思路主要為目標(biāo)定位和目標(biāo)識(shí)別協(xié)同工作,從而達(dá)到目標(biāo)檢測(cè)的目的。在對(duì)寬幅遙感影像進(jìn)行切分后,運(yùn)用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,提取的通用特征既可以用于目標(biāo)定位,也可以用于目標(biāo)識(shí)別。在目標(biāo)定位給出目標(biāo)具體位置后進(jìn)行識(shí)別,既保證了識(shí)別的準(zhǔn)確性,也提高了識(shí)別的針對(duì)性和魯棒性。

圖1 算法流程

2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

2.1 殘差網(wǎng)絡(luò)

深度卷積神經(jīng)網(wǎng)絡(luò)在圖像目標(biāo)檢測(cè)中表現(xiàn)出了較為良好的性能,但是在現(xiàn)有基礎(chǔ)下,想要進(jìn)一步訓(xùn)練更深層次的神經(jīng)網(wǎng)絡(luò)是非常困難的,而檢測(cè)復(fù)雜結(jié)構(gòu)目標(biāo)又迫切需要深層次的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)抽象特征。故提出了一種減輕網(wǎng)絡(luò)訓(xùn)練負(fù)擔(dān)的殘差學(xué)習(xí)框架,這種網(wǎng)絡(luò)比以前使用過(guò)的網(wǎng)絡(luò)本質(zhì)上層次更深。明確地將這層作為輸入層相關(guān)的學(xué)習(xí)殘差函數(shù),而不是學(xué)習(xí)未知的函數(shù)。同時(shí),全面實(shí)驗(yàn)數(shù)據(jù)證明殘差網(wǎng)絡(luò)更容易優(yōu)化,并且可以從深度增加中大大提高精度。在一般圖像的處理上,在ImageNet數(shù)據(jù)集用152層比VGG網(wǎng)絡(luò)深8倍的深度來(lái)評(píng)估殘差網(wǎng)絡(luò),但它仍具有較低的復(fù)雜度。在ImageNet測(cè)試集中,這些殘差網(wǎng)絡(luò)整體達(dá)到了3.57%的誤差。該結(jié)果在2015年大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽分類(lèi)任務(wù)中贏得了第一。從而證明,深度殘差網(wǎng)絡(luò)對(duì)于圖像目標(biāo)檢測(cè)識(shí)別方面是具有優(yōu)勢(shì)的,達(dá)到了現(xiàn)階段的最好效果。故將其引入到遙感影像目標(biāo)檢測(cè)中來(lái),以期達(dá)到更加出色的目標(biāo)檢測(cè)效果。

將H(x)假設(shè)為由幾個(gè)堆疊層匹配的(不一定是整個(gè)網(wǎng))基礎(chǔ)映射,用x表示這些第一層的輸入。假設(shè)多元非線性層能逼近復(fù)雜的函數(shù),也就相當(dāng)于假設(shè)它們可以逼近殘差函數(shù),例如H(x)(假設(shè)輸入和輸出在同一規(guī)模)。因此可以非常明確地讓這些層近似于殘差函數(shù),而并非期待堆疊層近似于H(x)。所以原函數(shù)變成了:F(x)+x。盡管2種形式都能逼近期望函數(shù),但F(x)更容易逼近[17]。

本文對(duì)每一個(gè)堆疊層都采用殘差學(xué)習(xí),構(gòu)建模塊定義為:

H(x)=F(x,{Wi})+x,

(1)

式中,x和H(x)是考慮到的層的輸入和輸出向量;函數(shù)F(x,{Wi})代表學(xué)習(xí)的殘差函數(shù);F+x的操作是由快捷連接和增加的元素智能進(jìn)行的。

式(1)中介紹的快捷連接,沒(méi)有額外的參數(shù)和復(fù)雜的計(jì)算。這在實(shí)踐中缺乏魯棒性,它在對(duì)比平原和殘差網(wǎng)絡(luò)方面也同樣重要。有著相同數(shù)量的參數(shù)、深度、寬度和計(jì)算成本時(shí),可以對(duì)平原和殘差網(wǎng)絡(luò)進(jìn)行簡(jiǎn)單的對(duì)比。

在式(1)中,x和F的大小必須相同。如果不同(例如改變輸入和輸出渠道)可以通過(guò)快捷連接線性投影Ws來(lái)匹配維度,

H(x)=F(x,{Wi})+Wsx,

(2)

也可以在式(1)中使用一個(gè)正方形矩陣Ws。只有在匹配維度時(shí),才使用Ws。

2.2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

在設(shè)計(jì)應(yīng)用于遙感影像目標(biāo)檢測(cè)的殘差網(wǎng)絡(luò)時(shí),借鑒于VGG網(wǎng)理論[18]。卷積層主要有3×3的過(guò)濾器并遵循2個(gè)簡(jiǎn)單的設(shè)計(jì)規(guī)則:① 對(duì)于相同的輸出特征映射大小,圖層有相同數(shù)量的濾波器;② 如果特征映射的大小被減半,過(guò)濾器的數(shù)量增加一倍,以保持每層的時(shí)間復(fù)雜度。通過(guò)有一個(gè)跨度為2的卷積層,直接進(jìn)行下采樣[18]。網(wǎng)絡(luò)以一個(gè)全局平均池層和全連接層結(jié)尾,其中加權(quán)層的總數(shù)是34。模型比VGG網(wǎng)有著更少的過(guò)濾器和更低的復(fù)雜度。34層基線有3.6億個(gè)觸發(fā)器(乘加),這只有VGG19的18%(19.6億觸發(fā)器)。網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖2所示。

圖2 深度殘差網(wǎng)絡(luò)結(jié)構(gòu)示意

基于以前的平原網(wǎng)絡(luò)(無(wú)殘差),設(shè)計(jì)出這樣一個(gè)結(jié)構(gòu)。讓一個(gè)更深度模型的訓(xùn)練誤差,不大于與其相應(yīng)的更淺的模型訓(xùn)練誤差,從而精準(zhǔn)度下降問(wèn)題得到解決。求解器在通過(guò)多個(gè)非線性層近似于身份映射方面有困難。隨著殘差學(xué)習(xí)重構(gòu),如果身份映射是最佳的方法,那么求解器可以簡(jiǎn)單地驅(qū)動(dòng)多個(gè)非線性層的權(quán)重趨向于零,以便逼近身份映射。這樣,函數(shù)逼近的模型也就是學(xué)習(xí)的模型就建立起來(lái)了[19]。

3 網(wǎng)絡(luò)訓(xùn)練

在建立的初始深度殘差網(wǎng)絡(luò)中,各個(gè)參數(shù)是初始參數(shù),沒(méi)有準(zhǔn)確地模擬相應(yīng)的復(fù)雜函數(shù),故需要通過(guò)采集到的有標(biāo)簽的遙感影像目標(biāo)樣本來(lái)訓(xùn)練,使網(wǎng)絡(luò)學(xué)習(xí)得到特征抽象描述的能力。首先將采集到的樣本數(shù)據(jù)進(jìn)行歸一化和標(biāo)準(zhǔn)化處理,得到可以直接輸入的標(biāo)準(zhǔn)樣本集;其次將樣本輸入到網(wǎng)絡(luò)中,經(jīng)過(guò)層層計(jì)算,正向傳播到最后,得到分類(lèi)結(jié)果;最后結(jié)果與標(biāo)簽進(jìn)行比照,得到誤差,進(jìn)行反向傳播,利用隨機(jī)梯度下降法(SGD)調(diào)整網(wǎng)絡(luò)各層的參數(shù)。針對(duì)每一個(gè)樣本進(jìn)行訓(xùn)練,多次迭代,當(dāng)損失函數(shù)或者樣本準(zhǔn)確率變化不大時(shí),停止迭代。此時(shí)的網(wǎng)絡(luò)作為接下來(lái)遙感影像目標(biāo)檢測(cè)的網(wǎng)絡(luò)模型。深度殘差網(wǎng)絡(luò)的訓(xùn)練流程圖如圖3所示。

圖3 深度殘差網(wǎng)絡(luò)的訓(xùn)練流程

4 基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測(cè)

在獲得訓(xùn)練好的深度殘差網(wǎng)絡(luò)上,進(jìn)行目標(biāo)未知的遙感影像的目標(biāo)檢測(cè)。首先將采集到的樣本數(shù)據(jù)進(jìn)行歸一化和標(biāo)準(zhǔn)化處理,得到可以直接輸入的標(biāo)準(zhǔn)樣本集;其次將樣本輸入到訓(xùn)練好的網(wǎng)絡(luò)中,通過(guò)殘差卷積計(jì)算和全連接分類(lèi)計(jì)算,得到分類(lèi)結(jié)果。基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測(cè)流程圖如圖4所示。

圖4 基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測(cè)流程

5 訓(xùn)練樣本庫(kù)的建立

深度學(xué)習(xí)的所有算法都建立在大量數(shù)據(jù)的基礎(chǔ)上,算法都是在大量有效數(shù)據(jù)上進(jìn)行特征和規(guī)律學(xué)習(xí)。遙感影像數(shù)量很多,但是包含有特定類(lèi)別、且分辨率一致的影像數(shù)據(jù)并不夠多。本文建立了高分辨率遙感影像的基礎(chǔ)設(shè)施典型目標(biāo)樣本庫(kù),通過(guò)這個(gè)樣本庫(kù)進(jìn)行典型目標(biāo)的學(xué)習(xí)和檢測(cè)。

搜集的典型目標(biāo)包括:機(jī)場(chǎng)、操場(chǎng)。搜集包含目標(biāo)的樣本,主要按照由大到小的范圍進(jìn)行搜集,比如機(jī)場(chǎng)樣本,即按照“國(guó)家—基地—機(jī)場(chǎng)”的思路進(jìn)行搜集。

搜集的高分辨率遙感影像數(shù)據(jù)主要來(lái)自于“高分一號(hào)”遙感衛(wèi)星和Google Earth,其中采用“高分一號(hào)”遙感衛(wèi)星中全色2 m和多光譜8 m作為樣本庫(kù)選取素材,采用Google Earth中L15層作為樣本庫(kù)選取素材。Google Earth圖像的引入,目的在于提高網(wǎng)絡(luò)模型的魯棒性,以及一定程度緩解過(guò)擬合問(wèn)題。

搜集到的粗樣本數(shù)據(jù)再進(jìn)行細(xì)加工。殘差網(wǎng)絡(luò)訓(xùn)練的樣本數(shù)據(jù)一般要求在1 000×1 000像素左右,故制作細(xì)樣本時(shí),也將樣本大小選定在1 000×1 000左右。每一幅細(xì)樣本中包含1~3個(gè)目標(biāo)。典型樣本實(shí)例如圖5所示。

圖5 樣本示例

圖5(a)為“高分一號(hào)”多光譜機(jī)場(chǎng)樣本示例,圖5(b)為“高分一號(hào)”全色機(jī)場(chǎng)樣本示例,圖5(c)為Google Earth機(jī)場(chǎng)樣本示例,圖5(d)左邊為Google Earth操場(chǎng)樣本示例,右邊為“高分一號(hào)”全色操場(chǎng)樣本示例。

6 實(shí)驗(yàn)結(jié)果分析

6.1 實(shí)驗(yàn)數(shù)據(jù)集

利用從“高分一號(hào)”和Google Earth上獲取的光學(xué)遙感圖像進(jìn)行實(shí)驗(yàn),包括機(jī)場(chǎng)、操場(chǎng)。其中機(jī)場(chǎng)樣本500幅,操場(chǎng)樣本300幅。隨機(jī)從帶有標(biāo)簽的數(shù)據(jù)集中選出機(jī)場(chǎng)樣本300幅,操場(chǎng)樣本200幅,作為訓(xùn)練樣本;其余作為測(cè)試樣本,訓(xùn)練樣本與測(cè)試樣本不重復(fù)。

6.2 實(shí)驗(yàn)環(huán)境配置

本算法在Matlab 2014b上進(jìn)行編寫(xiě),采用Caffe深度學(xué)習(xí)開(kāi)源庫(kù)作為模型構(gòu)建基礎(chǔ)[20]。計(jì)算機(jī)為聯(lián)想Think Station P100,至強(qiáng)E2630 v3(雙路),顯卡為英偉達(dá)Quadro M6000 24G。本算法訓(xùn)練和測(cè)試均是在GPU加速下完成。

由于輸入的檢測(cè)影像大小不一,本文在輸入的第一步對(duì)其進(jìn)行了尺度歸一化,以1 000×1 000作為標(biāo)準(zhǔn)輸入大小;對(duì)卷積特征圖進(jìn)行滑窗處理時(shí),以10像素作為滑窗步幅;訓(xùn)練時(shí)學(xué)習(xí)率為0.001,學(xué)習(xí)動(dòng)量為0.9,權(quán)重衰退率為0.000 5,迭代次數(shù)為3 000。

6.3 實(shí)驗(yàn)分析

本文采用了機(jī)場(chǎng)和操場(chǎng)這2種典型目標(biāo)作為測(cè)試對(duì)象,其中重點(diǎn)分析機(jī)場(chǎng)的檢測(cè)情況,并對(duì)分塊后的遙感影像進(jìn)行了準(zhǔn)確率測(cè)試。分塊后平均檢測(cè)時(shí)間為0.2 s。具體如表1所示。

表1 分塊遙感影像目標(biāo)檢測(cè)統(tǒng)計(jì)數(shù)據(jù)

樣本名稱測(cè)試樣本數(shù)準(zhǔn)確樣本數(shù)準(zhǔn)確率/%機(jī)場(chǎng)20019296操場(chǎng)1009090

傳統(tǒng)算法遙感影像目標(biāo)檢測(cè)的準(zhǔn)確率一般在80%左右。由表1可知,本文方法對(duì)于高分辨率遙感影像目標(biāo)檢測(cè)準(zhǔn)確率更高。

機(jī)場(chǎng)檢測(cè)的結(jié)果示例如圖6所示,操場(chǎng)檢測(cè)的結(jié)果示例如圖7所示。可以看出,本文方法對(duì)典型目標(biāo)的檢測(cè)效果十分良好,其復(fù)雜的環(huán)境背景并沒(méi)有對(duì)結(jié)果造成影響。

圖6 機(jī)場(chǎng)檢測(cè)結(jié)果示例

圖7 操場(chǎng)檢測(cè)結(jié)果示例

6.4 算法魯棒性驗(yàn)證

一般情況下,算法在無(wú)干擾或者去除干擾的情況下,表現(xiàn)良好,但是實(shí)際應(yīng)用中,會(huì)出現(xiàn)很多由于天氣、相機(jī)載荷和拍攝角度等原因造成的影像成像模糊、有遮擋和光照異常等情況[21]。本文將這些情況考慮進(jìn)去,從而驗(yàn)證所設(shè)計(jì)算法的魯棒性和穩(wěn)定性。

“高分一號(hào)”衛(wèi)星拍攝的影像如圖8所示,分別出現(xiàn)了光照異常、云層遮擋和模糊情況。

圖8 有干擾遙感影像示例

應(yīng)用本文算法對(duì)其進(jìn)行目標(biāo)檢測(cè)測(cè)試,得到結(jié)果如圖9所示。從檢測(cè)結(jié)果可以看出,本文算法在有干擾情況下的表現(xiàn)良好,具有很好的魯棒性。

圖9 有干擾影像檢測(cè)結(jié)果示例

7 結(jié)束語(yǔ)

本文提出了一種基于深度學(xué)習(xí)模型(深度殘差模型ResNet34)的高分辨率遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測(cè)方法。針對(duì)高分辨率遙感影像內(nèi)容豐富、尺度大等問(wèn)題,將計(jì)算機(jī)視覺(jué)領(lǐng)域目標(biāo)檢測(cè)效果最好的模型通過(guò)寬幅遙感影像分塊、RPN優(yōu)化等多處改進(jìn)應(yīng)用于遙感影像處理領(lǐng)域,并在單幅高分辨率遙感影像目標(biāo)檢測(cè)方面取得了很好的效果。

在整個(gè)實(shí)驗(yàn)中,介紹了從樣本制作、模型結(jié)構(gòu)、環(huán)境配置以及訓(xùn)練參數(shù)等多方面的“高分一號(hào)”遙感圖像處理的工程化應(yīng)用實(shí)施細(xì)節(jié),同時(shí)驗(yàn)證了本文算法對(duì)存在有云、模糊等干擾的遙感影像具有魯棒性,為接下來(lái)繼續(xù)開(kāi)展國(guó)產(chǎn)高分遙感影像處理打下了良好基礎(chǔ)。實(shí)驗(yàn)表明,在“高分一號(hào)”遙感影像典型基礎(chǔ)設(shè)施目標(biāo)檢測(cè)中,本文方法具有很好的效果,克服了目標(biāo)復(fù)雜的環(huán)境背景。

[1] 王鑫.基于選擇性視覺(jué)注意機(jī)制的遙感圖像機(jī)場(chǎng)檢測(cè)[D].上海:復(fù)旦大學(xué),2012.

[2] 陳金鳳,程乾.高分1號(hào)融合光譜特征提取杭州灣河口沿岸濕地典型植被信息方法研究[J].杭州師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,14(1):39-43.

[3] 牛新,竇勇,張鵬,等.基于深度學(xué)習(xí)的光學(xué)遙感機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別技術(shù)[J].大數(shù)據(jù),2016,5(1):54-67.

[4] LECUN Y,BOSER B,DENKER J S,et al.Backpropagation Applied to Handwritten Zip Code Recognition[J].Neural Computation,2008,1(4):541-551.

[5] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2014:580-587.

[6] HE K,ZHANG X,REN S,et al.Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(9):1904-1916.

[7] GIRSHICK R.Fast R-CNN[C]∥IEEE International Conference on Computer Vision,IEEE,2015:1440-1448.

[8] REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards Real-time Object Detection with Region Proposal Networks[C]∥Neural Information Processing Systems,2015:1-3.

[9] UIJLINGS J R R,SANDE K E A V D,GEVERS T,et al.Selective Search for Object Recognition[J].International Journal of Computer Vision,2013,104(2):154-171.

[10] ZITNICK C L,DOLLR P.Edge Boxes:Locating Object Proposals from Edges[M].Proceedings of the European Conference on Computer Vision,2014:391-405.

[11] CHENG M M,ZHANG Z,LIN W Y,et al.BING:Binarized Normed Gradients for Objectness Estimation at 300 fps[C]∥IEEE International Conference on Computer Vision.IEEE,2014:3286-3293.

[12] REDMON J,DIVVALA S,GIRSHICK R,et al.You Only Look Once:Unified,Real-Time Object Detection[C]∥IEEE International Conference on Computer Vision,IEEE,2016:779-788.

[13] DENG J,DONG W,SOCHER R,et al.ImageNet:A Large-scale Hierarchical Image Database[C]∥IEEE International Conference on Computer Vision and Pattern Recognition,IEEE,2009:248-255.

[14] 田子恒.基于遙感圖像的橋梁目標(biāo)檢測(cè)方法研究[D].長(zhǎng)春:東北大學(xué),2012.

[15] 王岳環(huán),宋云峰,陳君靈.高分辨率遙感圖像中油庫(kù)的檢測(cè)識(shí)別[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2011,39(2):110-112.

[16] 帥通,師本慧,張霞,等.高分遙感艦船目標(biāo)SIFT特征的提取與匹配[J].無(wú)線電工程,2015,45(11):48-51.

[17] HE K,ZHANG X,REN S,et al.Identity Mappings in Deep Residual Networks[C]∥Proceedings of the European Conference on Computer Vision,2016:630-645.

[18] DUMOULIN V,VISIN F.AGuide to Convolution Arithmetic for Deep Learning[J].arXiv:1603.07285[cs.CV],2016.

[19] SPRINGENBERG J T,DOSOVITSKIY A,BROX T,et al.Striving for Simplicity:The All Convolutional Net[C]∥International Conference on Learning Representations,2015.

[20] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:Convolutional Architecturefor Fast Feature Embedding[J].arXiv:1408.5093[cs.CV],2014.

[21] 季艷,魯克文,張英慧.海量遙感數(shù)據(jù)分布式集群化存儲(chǔ)技術(shù)研究[J].計(jì)算機(jī)科學(xué)與探索,2017(9):1398-1404.

猜你喜歡
深度檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: a毛片基地免费大全| 日本草草视频在线观看| 香蕉国产精品视频| 欧美亚洲网| 毛片最新网址| 国产欧美又粗又猛又爽老| 97人人模人人爽人人喊小说| 99国产精品一区二区| 为你提供最新久久精品久久综合| 午夜三级在线| 国产成人夜色91| 欧美日韩高清| 国产欧美日韩va另类在线播放| 国产人人射| 国产凹凸一区在线观看视频| 欧美www在线观看| 国产真实乱子伦精品视手机观看 | 国产真实乱了在线播放| 国产区精品高清在线观看| av无码久久精品| 88av在线看| 性欧美精品xxxx| 亚洲毛片网站| 久久久久久午夜精品| 丝袜高跟美脚国产1区| AV天堂资源福利在线观看| 国产成人乱码一区二区三区在线| 99久久精品免费视频| 日韩在线视频网| 青草视频久久| 啊嗯不日本网站| 日韩高清中文字幕| 91香蕉国产亚洲一二三区| 四虎永久在线精品影院| 国产亚洲视频免费播放| 亚洲aⅴ天堂| 国产精品入口麻豆| 色偷偷一区二区三区| 精品国产三级在线观看| 精品福利视频网| 成年看免费观看视频拍拍| 国产成人综合久久精品尤物| 亚洲国产精品VA在线看黑人| 亚洲乱码视频| 97se亚洲综合在线天天| 亚洲人人视频| 高清不卡一区二区三区香蕉| 精品色综合| 亚洲国产成人精品一二区| 国产乱人伦偷精品视频AAA| 国产一在线| 成人午夜视频在线| 久久成人免费| 成人免费网站久久久| 91国内外精品自在线播放| 欧美亚洲一二三区| 久久99国产精品成人欧美| 好久久免费视频高清| 中国美女**毛片录像在线| 亚洲高清中文字幕在线看不卡| 91麻豆久久久| 亚洲男人天堂2020| 日韩资源站| 日本少妇又色又爽又高潮| 免费人欧美成又黄又爽的视频| 亚洲国产欧美国产综合久久 | 免费午夜无码18禁无码影院| 亚洲第一福利视频导航| 天天色天天操综合网| 成人小视频网| 国产杨幂丝袜av在线播放| 99精品国产自在现线观看| 亚洲永久视频| 狠狠综合久久久久综| 国产欧美日韩专区发布| 欧美亚洲中文精品三区| 午夜不卡福利| 亚洲欧美在线综合一区二区三区| 亚洲中久无码永久在线观看软件| 91久久性奴调教国产免费| 98超碰在线观看| 好吊日免费视频|