999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合超像素和卷積神經網絡的國產高分辨率遙感影像云檢測方法

2019-02-15 04:56:04,,
測繪通報 2019年1期
關鍵詞:特征檢測方法

,,

(1. 東莞市測繪院,廣東 東莞 523129; 2. 遼寧工程技術大學測繪與地理科學學院,遼寧 阜新 123000; 3. 中國測繪科學研究院,北京100830)

隨著遙感技術的快速發展,遙感影像已廣泛應用于科學研究、社會服務等各個領域。在國內,以高分一號、高分二號、資源三號等為代表的國產衛星各項指標趨近國際先進水平,國產衛星影像的質量和數據量迅速增加,市場化程度較之前有了極大提升,在社會各領域發揮了重要作用[1]。然而,并非所有的遙感影像都可直接用于工程項目與研究實踐,其中一個重要的限制因素是由于云覆蓋導致星載衛星獲取的影像一般都含有云層,且占比較大,一般在50%以上[2]。云層的存在不僅覆蓋了地表信息,也給影像的配準、融合、影像信息提取等處理造成諸多影響,因此對遙感影像云檢測和去除是非常有必要的[3],但目前的影像云檢測和去除技術還存在著瓶頸。

近幾年,許多學者提出了多種遙感影像云檢測方法,其中光譜閾值法是當前云檢測領域中最簡單有效的算法之一。該方法主要是利用遙感影像光譜特征,即根據云在可見光波段或紅外波段反射率或亮溫值與其他地物光譜特征的差異,通過亮度閾值將目標云層與非云地物進行分離[4-5],其亮度閾值的確認常用經驗閾值或基于最大類間方差(Otsu)原理的自動閾值。此類云檢測方法具有計算簡單、監測效率高等優點,但是也存在較多的缺陷,如要求影像具有熱紅外波段信息、監測精度略低、產生誤判等。文獻[6]采用改進的顏色轉換模型,生成影像修正圖,然后利用Otsu閾值分割提取紋理信息生成云種子圖,相比傳統云檢測方法,精度提升了10%以上。文獻[7]將最大類間自適應閾值(Otsu)應用到遙感影像云檢測中,獲得了較好檢測結果,但要求被檢測遙感影像需要有足夠多波段。目前,市場上的國產高分衛星影像一般含有藍、綠、紅、近紅外4個波段,其波段范圍為0.43~0.90 μm[8],因此基于閾值的云檢測方法難以在國產高分辨率影像上體現優勢。

基于云層和地物紋理特征差異,通過提取特征組合(如灰度共生矩陣、Gabor紋理特征等)來區分云和地物,是另外一種效果較好的遙感影像云檢測方法。但由于光學遙感影像上的云特征多樣,不同的云特征在特征組合中的分布并不典型,使用紋理差異進行云檢測尚存在一定難度[9]。部分改進的基于紋理特征的云檢測算法[10]在一定程度上提升了云檢測精度,但存在著訓練分類器耗時、費力、難以滿足海量影像數據自動提取等缺陷。

卷積神經網絡是一種典型的深度學習算法,其模型參數可通過梯度下降方法進行網絡訓練獲得,避免了對圖像前期的復雜預處理過程,且經過訓練的卷積神經網絡能夠充分挖掘影像中的特征,高效完成遙感影像的云檢測[11]。

針對國產高分辨率遙感影像云檢測現存問題,本文提出基于卷積神經網絡的高分辨率遙感影像云檢測方法?;舅悸窞椋菏紫炔捎弥鞒煞址治?principal component analysis,PCA)非監督預訓練網絡結構;其次利用少量標簽數據對網絡結構進行微調;然后采用超像素分割方法進行影像分割,并將影像塊輸入已訓練卷積神經網絡中進行云檢測;最后將檢測結果影像塊拼接,完成整幅影像的云檢測。

1 原理與方法

1.1 卷積神經網絡

卷積神經網絡(CNN)是受生物神經學知識啟發并參考其結構原理結合人工神經網絡而產生的開創性研究成果之一,是一種具有深度學習能力的前饋人工神經網絡系統,典型的卷積神經網絡模型主要由輸入層、卷積層、采樣層、全連接層等幾個部分組成[12]。與傳統神經網絡相比,卷積神經網絡具有適用性強、特征提取與分類同時進行、泛化能力強、全局優化訓練參數少等優點,已逐漸成為目前學習領域的研究熱點[13]。其原理結構如圖1所示。

卷積神經網絡的工作過程為:首先目標影像(輸入影像)通過卷積層進行卷積運算,并通過采樣層對卷積輸出特征圖進行下采樣,然后經過多次的卷積運算和下采樣處理,最后通過全連接層對提取的特征影像進行分類,輸出目標結果。

本文采用Gi表示卷積神經網絡第i層的特征圖,卷積過程可以描述為[14]

Gi=f(Gi-1?Wi+bi)

(1)

式中,Gi表示卷積神經網絡第i層的特征圖;符號“?”表示第i層影像與第i-1層特征圖進行卷積運算;Wi表示第i層卷積核的權值向量;bi表示偏移向量;線性激活函數f(·)表示卷積過程中第i層的特征圖像Gi。

通過卷積神經網絡計算之后的特征圖,特征維度一般在百萬數量級,如果直接訓練分類器,很容易導致過擬合現象發生[15]。因此,在卷積運算之后需要對影像特征圖進行下采樣,即池化操作,同時為避免在池化操作中的信息損失,一般常采用概率最大化進行池化操作。

假定采樣塊Xn中有一個神經元是激活狀態,則采樣值Pn就產生響應,否則不響應,池化過程可表示為

P(Pn|i)=eGi-1?Wi+bi/(1+eGi-1?Wi+bi)

(2)

傳統全連接層參數巨大,會導致過擬合問題。因此本文在設計網絡框架時,考慮將最后全連接層由全最大化池化層代替。本文設計深度卷積神經網結構如圖2所示。

1.2 卷積神經網絡訓練

卷積神經網絡訓練時需要大量樣本,而實際建立樣本庫需要大量的時間和人力。針對此問題,本文采用半監督分類方式訓練卷積神經網絡,在保證訓練樣本的同時可有效提升訓練效率。

(3)

采用主成分分析方法最小化重構誤差求解特征向量[17]

(4)

式中,IH為H×H單位矩陣;V為協方差矩陣XXT的前H個特征向量。V可以表示輸入影像塊的主要特征。主成分分析初始化卷積神經網絡的濾波器組Wh可以表示為[18]

Wh=mg1g2(Vh)h=1,2,…,H

(5)

式中,mg1g2(Vh)表示將向量V映射到矩陣Wh,Vh表示影像的第h個主要特征。

通過主成分分析監督預訓練網絡結構,得到網絡初始權值參數,再通過云標簽數據對整個網絡進行微調。本文訓練卷積神經網絡流程如圖3所示。

1.3 超像元生成算法

為了避免將整幅影像輸入卷積神經網絡進行云檢測效率低的問題,在云檢測之前需要對遙感影像進行分塊預處理。本文在顧及遙感影像像元的光譜特征和空間特征的基礎上,采用簡單線性迭代聚類算法(simple linear iterative cluster,SLIC)[17]生成超像元,以提高分類精度。

采用像元光譜在N波段上與生成所有超像元歐氏距離之和來描述光譜特征相似,其可表達為[21]

(6)

式中,j表示影像波段數;k表示原始影像的第k像元;d1表示像元光譜在N個波段上與超像元歐氏距離之和。

采用像元和超像元在平面坐標系的距離來描述空間特征,其表達式為

(7)

則最終的SLIC聚類函數可定義為

(8)

式中,S是控制超像元間的緊密程度的參數,其范圍一般控制在[1,40],該參數表示XY空間的最大可能值。為防止超像元的聚類中心落在邊界點或噪聲像元上,在聚類中心4×4鄰域中尋找像元光譜梯度最小的點,作為新的超像元種子點,迭代完成超像元生成。

1.4 云檢測技術思路

基于卷積神經網絡的高分辨率遙感影像云檢測方法主要實現步驟如下:①采用半監督分類方式訓練卷積神經網絡;②對待檢測遙感影像進行分塊預處理;③對待檢測遙感影像進行超像素分割;④以超像素聚類中心為中心,將影像劃分為64×64像素和32×32像素影像塊;⑤將影像塊輸入已訓練卷積神經網絡中進行云檢測;⑥最后將檢測后影像塊拼接,完成整幅影像的云檢測。

本文高分辨率遙感影像云檢測技術流程如圖4所示。

2 試驗與分析

2.1 試驗及結果

本文試驗采取Linux下的TensorFlow深度學習框架,硬件環境為CPU Intel(R) Xeon(R)E5-2630,GPU Nvidia Tesla M40 32GB內存。

本文構建的卷積神經網絡結構如圖1所示,含兩個卷積層、兩個池化層、一個全連接層:第一層卷積濾波器設置為340個,第二層卷積濾波器設置為200個,濾波器大小均設置為5×5,采樣間隔設置為1,采用概率最大化進行池化。在云檢測之前,首先將待檢測遙感影像進行簡單線性迭代聚生成超像元影像,以超像素聚類中心為中心,將影像劃分為64×64像素和32×32像素影像塊,最后將卷積神經網絡學習的云特征輸入Softmax分類器完成影像云檢測。本文試驗的云檢測結果如圖5(b)和圖5(e)所示。

為驗證本文云檢測方法的有效性,筆者將本文云檢測結果與文獻[7]提出的帶有限定條件Otsu云檢測方法進行對比(文獻[7]Otsu閾值云檢測結果如圖5(c)和圖5(f)所示)。試驗選取資源三號遙感影像和高分一號遙感影像為數據源,其中資源三號影像為多光譜影像,空間分辨率為5.8 m,大小為600×600像素,研究區域主要是薄云和厚云,如圖5(a)所示;高分一號影像為多光譜影像,大小為600×600像素,研究區域主要是厚云,如圖5(d)所示。在選擇云標簽數據方面,本文綜合考慮研究區域的云分布情況,綜合選取300個云標簽數據對卷積神經網絡微調。

2.2 定性評價及定量評價

從圖5(b)和圖5(e)可以得出,本文云檢測方法結果云邊界清晰和完整,且能很好地識別薄云和面積較小云層。從圖5(c)和圖5(f)可以得出,文獻[7]Otsu云檢測結果存在“椒鹽”現象,易將反射率較低的云層檢測為地物,并且易將高反射率的地物誤檢為云。如在資源三號遙感影像中,存在將高反射率建筑物誤檢為云;在高分一號遙感影像中,將高反射率地物誤檢為云。綜上所述,通過目視評價方法,本文云檢測方法試驗結果優于文獻[7]Otsu云檢測方法的結果。

為了定量評價本文云檢測試驗結果,本文采用人工目視解譯方式勾取的云區域作為真值,并采用總體精度(OA)和Kappa系數兩個評價指標與試驗結果進行定量評價。其中,人工目視解譯方式勾繪原則設定為:①針對云邊界模糊區域勾繪精度控制在4個像素以內;②針對云邊界清晰區域勾繪精度控制在1個像素以內。最終評價結果見表1。

表1 不同云檢測方法的評價結果

由表1可知,與文獻[7]云檢測方法相比,本文云檢測方法在兩幅遙感影像云檢測中精度較高。其中資源三號遙感影像云檢測總體精度為0.986 451,比文獻[7]云檢測方法高出8.193 2%;高分一號遙感影像云檢測總體精度為0.990 163,比文獻[7]云檢測方法高出8.554 2%。本文云檢測方法在兩種不同數據源云檢測的總體精度均在98%以上,Kappa系數均在93%以上。通過定量評價方式,說明本文將深層卷積神經網絡算法應用于國產高分辨遙感影像云檢測中,能有效提高云檢測精度。

3 結 語

針對國產高分辨率遙感影像的云檢測,本文提出了基于卷積神經網絡的高分辨率遙感影像云檢測方法。通過試驗分析,該方法在一定程度上可彌補傳統Otsu方法、多光譜綜合法的不足。傳統Otsu云檢測方法主要不足表現為高反射率地物如建筑物、裸地、雪很容易產生誤判,而本文提出的云檢測方法檢測精度高,誤判較少,適合國產高分辨遙感影像云檢測,并且不受光譜范圍限制。

通過本文研究發現,卷積神經網絡算法在國產高分辨率遙感影像云檢測領域有著較大潛力,本文提出的基于卷積神經網絡的高分辨率遙感影像云檢測方法還存在許多不足。如沒有判斷本文卷積神經網絡的層次結構和參數設置是否最優;沒有引入其他特征參與云檢測(紋理特征、相關指數特征等)。在接下來的工作中,擬將紋理特征引入高分辨率遙感影像云檢測中,期待進一步提高云檢測精度。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 亚洲一区二区三区中文字幕5566| 美女国产在线| 亚洲 欧美 中文 AⅤ在线视频| 成人一级免费视频| 精品人妻AV区| 国产成人艳妇AA视频在线| 久久99国产精品成人欧美| 国产成人综合欧美精品久久| 精品综合久久久久久97超人| av在线无码浏览| 视频二区中文无码| 欧洲一区二区三区无码| 亚洲欧美精品日韩欧美| 91人妻日韩人妻无码专区精品| 欧美精品啪啪一区二区三区| 99久久亚洲综合精品TS| 丰满少妇αⅴ无码区| 国产国产人免费视频成18| 亚洲码一区二区三区| 亚洲精品人成网线在线| 国产精品太粉嫩高中在线观看| 久久国产精品77777| 亚洲色无码专线精品观看| 日本人妻丰满熟妇区| 国产精品免费电影| 亚洲国产成人麻豆精品| 欧美亚洲国产一区| 亚洲精品无码高潮喷水A| 九九热精品在线视频| 丁香五月亚洲综合在线| 欧美性猛交xxxx乱大交极品| 毛片基地视频| 91在线精品麻豆欧美在线| 国产免费观看av大片的网站| 亚洲欧洲日产无码AV| 黑色丝袜高跟国产在线91| 国产欧美日韩专区发布| 国产精品毛片一区视频播| 亚洲午夜18| 国产精品片在线观看手机版| 女同久久精品国产99国| 国产区网址| 成人第一页| 国产在线专区| 国产大片黄在线观看| 国内精品九九久久久精品 | 制服丝袜亚洲| 国内精品久久人妻无码大片高| 亚洲欧美成人在线视频| 一区二区理伦视频| 青青青草国产| 8090成人午夜精品| 精品小视频在线观看| 久久香蕉国产线看观看精品蕉| 最新国产高清在线| 午夜激情福利视频| 她的性爱视频| 亚洲天堂视频在线免费观看| 99热6这里只有精品| 91精品啪在线观看国产| 国产精品吹潮在线观看中文| 国产原创第一页在线观看| a网站在线观看| 老司机久久99久久精品播放| 日韩欧美综合在线制服| 日本亚洲欧美在线| 日本不卡在线播放| 东京热高清无码精品| 久久综合色88| 99精品国产电影| 日韩天堂在线观看| 欧美成人怡春院在线激情| 国产在线精品人成导航| 一区二区三区精品视频在线观看| 91久久偷偷做嫩草影院精品| 午夜精品久久久久久久无码软件 | 国内精自视频品线一二区| 精品国产香蕉伊思人在线| 91无码国产视频| 欧洲亚洲欧美国产日本高清| 香蕉视频在线观看www| 精品精品国产高清A毛片|