999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合空間置棄層的U-Net高分影像建筑智能解譯

2021-12-17 08:52:46陳巖奚硯濤檀明許強萬家華
遙感信息 2021年5期
關鍵詞:特征融合模型

陳巖,奚硯濤,檀明,許強,萬家華

(1.合肥學院 人工智能與大數據學院,合肥 230601;2.合肥學院 中德應用優化研究所,合肥 230601;3.中國礦業大學 資源與地球科學學院,江蘇 徐州 221006;4.安徽新華學院 大數據與人工智能學院,合肥 230031)

0 引言

建筑物是重要的地理空間數據,是基礎地理信息數據庫中的核心構成要素之一。基于高分辨率遙感影像的建筑物智能解譯對于城市規劃、城市建模、地理制圖、災害與環境管理等具有重要意義[1-2]。

近年來,以卷積神經網絡(convolutional neural network,CNN)為代表的深度學習方法被廣泛應用于遙感場景分類、地物對象識別檢測和土地利用覆蓋分類等方向,并取得了良好效果[3-4]。與傳統基于光譜和面向對象的方法相比,CNN可以有效改善椒鹽噪聲,提高解譯目標邊緣精度。U-Net[5]是基于標準CNN設計的具有對稱編解碼結構的語義分割模型。相比基于圖塊的(patch-based)[6]的CNN語義分割方法,U-Net實現了端到端的語義分割,并在云[7]、車輛[8]、浮油[9]和海冰[10]等目標對象的自動提取和解譯中獲得了SOTA(state of the art)的結果。但需要指出的是,U-Net等深度卷積神經網絡使用的最大池化層以舍棄位置信息為代價獲取高級語義特征,利用上采樣和編解碼結構進行恢復,使得整個網絡過于復雜,模型訓練耗時長,難以優化,對訓練使用的計算環境要求較高。另外,對于高分遙感影像建筑智能解譯,由于建筑物多尺度特征,及其與周邊地物對象的尺度差異性,為了提取高級語義特征,保證建筑物完整性,同時保留更多空間細節,需要充分考慮訓練樣本尺寸和感受野大小[11]。當輸入圖像尺寸過大時,模型計算開銷增加,內存和GPU負荷增大,訓練難度進一步提升。

本文通過修改標準U-Net模型編解碼結構中輸入樣本尺寸、卷積層數量、卷積核數量、最優化算法和特征融合方法,針對中低配置計算環境,設計了面向復雜場景高分遙感影像建筑智能解譯的U-Net語義分割模型。為進一步優化、提升模型效率,本文在修改的U-Net模型中引入了空間置棄層(spatial dropout)[12],設置兩組實驗情景,定量對比分析了實驗結果,得出了有意義的結論。本文的主要貢獻包括兩點。一是首次將空間置棄層引入U-Net模型,并取得了更高的精度,例如目標邊緣更準確,為進一步優化U-Net和經典深度卷積神經網絡提供了新的思路。二是實驗設計改進的輸入樣本尺寸、卷積層數量、卷積核數量、學習率等超參數以及實驗使用的特征融合方法和最優化算法,為使用中低配置計算環境訓練和測試U-Net以解決高分辨率遙感影像建筑解譯問題提供了有意義的參考。

1 標準U-Net

標準U-Net是由Ronneberger等于2015年設計開發,最初用于醫學細胞分割。其網絡結構如圖1所示,采用了對稱的編解碼結構。拆分來看,可以將整個網絡看作由九個卷積塊組成。相應的卷積塊通過跳躍連接(skip connection)方式進行多尺度特征融合。在九個卷積塊中,五個編碼卷積塊用于特征提取,四個解碼卷積塊用于恢復目標位置信息并最終實現逐像素分類。每個編碼卷積塊由若干個卷積層、非線性激活層、批歸一化層(batch normalization,BN)[13]和最大池化層構成。每個解碼卷積塊由若干個上采樣層、特征融合層、卷積層、非線性激活層和BN層構成。

圖1 標準U-Net網絡結構

標準U-Net的輸入樣本為572像素×572像素的三通道圖像。在首個編碼卷積塊中,經過兩次卷積和ReLU(rectified linear unit,ReLU)非線性激活后,對得到的特征圖進一步做BN和最大池化操作。其中,卷積層卷積核數量為64,每個卷積核通道數為3,尺寸為3像素×3像素。此后各編碼卷積塊中的卷積核數量依次成倍增加至1 024個,通道數與上層輸出特征圖通道數保持一致,卷積核尺寸保持不變。在最后一個編碼卷積塊中,對其輸出進行兩倍上采樣操作,并將上采樣輸出與第4個編碼卷積塊的輸出進行融合,再依次進行兩次卷積和ReLU非線性激活、一次BN運算,最終進入解碼卷積塊。其中,標準U-Net特征融合采用的是沿通道拼接(concatenate)的方式。依次將上采樣輸出與對應的編碼卷積塊輸出進行融合、上采樣,并最終基于1*1卷積操作和softmax分類器輸出388像素×338像素的逐像素分類結果圖。模型訓練使用的損失函數為交叉熵,最優化算法為隨機梯度下降(stochastic gradient descent,SGD)。

2 模型改進與驗證

2.1 模型設計

本文通過修改標準U-Net網絡編解碼結構中輸入樣本尺寸、卷積層數量、卷積核數量、最優化算法和特征融合方法,針對中低配置計算環境,設計了面向高分遙感影像建筑智能解譯的U-Net語義分割模型。其網絡結構如圖2所示,圖中SPD層指代空間置棄層。為了減小內存和GPU負荷,本文將輸入樣本大小從572像素×572像素修改為224像素×224像素,將編碼卷積塊和解碼卷積塊中的卷積層全部減少一層,輸入樣本通道數保持不變。為了減少模型參數,對標準U-Net各編解碼卷積塊進行了降維操作。例如,將第一個編碼卷積塊中卷積核數量從64減少為16,依次按照四倍數量減少,最后一個編碼卷積塊卷積核數量為256個,同時使用逐層特征圖融合方法替代沿通道拼接特征融合。相比于標準U-Net面向不規則自然細胞分割的設計,本文充分考慮高分遙感影像中建筑物特征[14],即人工構造的建筑物的形狀(俯視輪廓)多以矩形和直角多邊形為主,同時具有規律顯著的紋理特征和較為均勻的灰度分布。因此,上述修改對于高分遙感影像建筑物解譯是合適的,實驗結果也證明了這一點。最后,為了提高模型訓練收斂速度,本文使用Adam[15]最優化算法取代隨機梯度下降法。

圖2 改進的U-Net網絡結構

盡管標準U-Net使用了BN加速模型訓練防止過擬合,但其效果受限于batch size[16]。當 batch size較小時,會導致模型誤差增加。對于高分遙感影像建筑智能解譯這樣的語義分割任務,要求的輸入樣本尺寸較大,如果設置更大的batch size,將會導致GPU負荷增加。因此,為了進一步優化模型,本文在修改的U-Net基礎上引入了空間置棄層進行實驗。空間置棄層是Tompson等提出的一種用于圖像領域的dropout[17]方法。與密集連接中常用的dropout隨機將若干隱層節點置零相比,空間置棄層則隨機將若干特征圖全部元素置零。該方法已在部分自然圖像和醫學影像分類和識別任務中取得良好效果。

2.2 數據集與實驗設置

模型訓練和測試使用的數據集來自于武漢大學季順平團隊開發的WHU building dataset數據集[18]。該數據集樣本圖像分別采集自不同遙感平臺和城市,可用于建筑語義分割和變化檢測研究。本文實驗使用的數據集是其中的航空圖像數據集(aerial imagery dataset),如圖3所示。該數據集中原始遙感影像采集自新西蘭Christchurch市,空間分辨率為0.075 m,覆蓋面積達450 km2,包含22萬個獨立建筑。考慮內存和GPU限制,原始影像被降采樣為0.3 m空間分辨率,并按順序裁剪為8 189個大小512像素×512像素的子圖。其中,訓練集包括4 736個子圖,驗證集包括1 036個子圖,測試集包括2 416個子圖。在本文的實驗中,本文從三個子數據集中隨機提取了5 772個訓練樣本,并通過程序動態分配用于訓練、驗證和測試的數據樣本。但需要指出的是,實驗過程中設置了隨機種子點,保證了每次參與訓練、驗證和測試的數據的一致性。

圖3 aerial imagery dataset航空圖像數據集

考慮到計算環境,模型訓練使用的batch size設置為10;為保證模型有效收斂,學習率設置為0.000 01;損失函數采用交叉熵,并基于Adam優化,替換標準U-Net中使用的隨機梯度下降法;迭代次數設置為1 000;模型使用總體精度作為評價指標。實驗使用的軟硬件環境如表1所示。

表1 實驗軟硬件環境

2.3 模型實現

模型實現主要基于Tensorflow 2.0深度學習框架。對于數據預處理、載入及結果可視化,本文分別使用了相關的Python第三方庫,如numpy、matplotlib、os和glob等。實驗按照數據預處理與載入、模型框架構建、模型訓練與測試和結果可視化的技術路線實施。為減小樣本存儲容量,首先將原數據集輸入樣本和標注樣本數據格式進行了轉換:輸入樣本從24位深TIF格式轉換為24位深JPG格式;標注樣本從1位深TIF格式轉換為8位深PNG格式。模型框架主要采用Tensorflow 2.0深度集成的keras接口進行構建,這其中包括實現卷積、最大池化、批歸一化、上采樣、特征融合及空間置棄操作的所有接口。同樣,模型的訓練、驗證及模型測試評價均采用keras接口。結果可視化則采用matplotlib.pyplot庫實現。模型實現使用的核心接口如下所示,各接口返回值類型及參數可參見文獻[19]。

1)數據預處理與載入。采用的函數描述如下。

①Object glob.glob(parameters):獲取圖像文件全路徑。

②Object tensorflow.image.decode_jpeg(parameters):解碼JPG格式圖像。

③Object tensorflow.image.decode_png(parameters):解碼PNG格式圖像。

④Object tensorflow.data.Dataset.from_tensor_slices(parameters):輸入與標注特征切片與重構。

2)?模型框架構建。采用的函數描述如下。

①Object tf.keras.layers.Input(parameters):模型輸入。

②Object tf.keras.layers.Conv2D(parameters):卷積。

③Object tf.keras.layers.BatchNormalization(parameters):批歸一化。

④Object tf.keras.layers.MaxPooling2D(parameters):最大池化。

⑤Object tf.keras.layers.UpSampling2D(parameters):上采樣。

⑥Object tf.keras.layers.concatenate(parameters):特征融合。

⑦Object tf.keras.layers.SpatialDropout2D(parameters):空間置棄。

⑧Object tf.keras.models.Model(parameters):模型構建。

3)?模型訓練與測試。采用的函數描述如下。

①Object tf.keras.models.Model.compile(parameters):模型設置(如學習率、優化器、損失函數、評價尺度等)。

②Object tf.keras.models.Model.fit(parameters):模型訓練。

③Object tf.keras.models.Model.evaluation(parameters):模型測試。

④Object tf.keras.models.Model.predict(parameters):模型應用(預測)。

4)?結果可視化。采用的函數描述如下。

①Object matplotlib.pyplot.plot(parameters):繪制坐標軸。

②Object matplotlib.pyplot.figure(parameters):繪制圖像。

③Object matplotlib.pyplot.imshow(parameters):可視化。

3 結果與討論

為比較改進前后模型效率,在樣本尺寸、卷積層數量和卷積核數量保持一致前提下,設置了兩組對比實驗場景,分別命名為MUNET-SGD-CONCATENATE和MUNET-SPD-ADAM-ADD。前者與標準U-Net網絡結構、優化方法和特征融合方法保持一致,后者采用Adam替換標準U-Net的SGD優化方法,并采用逐維度加和特征融合方法取代沿通道維度聯合特征融合方法。模型參數數量、訓練時間和總體精度等改進前后主要指標如表2所示。模型訓練總精度變化曲線如圖4所示。隨機提取三個樣本進行預測,結果如圖5所示。樣本的選擇主要考慮了樣本圖像中建筑物尺度和背景復雜度,例如樣本1中包含尺度差異較大的建筑物,而樣本2和樣本3中背景包含的地物類別、紋理和顏色相對更加復雜。

圖4 模型訓練精度變化曲線

圖5 模型預測結果

表2 模型改進前后主要指標對比

從結果可以看出,面向復雜場景的高分遙感影像,通過對標準U-Net模型輸入樣本尺寸、卷積層數量和卷積核數量進行修改,模型在本研究使用的中低配置計算環境下運行良好,并獲得了更高的精度。標準U-Net采用沿通道維度聯合的特征融合方法,大大增加特征維度,參數數量增加顯著。使用逐維度加和的特征融合方法并且引入空間置棄模塊后,參數數量顯著減少。如表2所示,修改后模型的總參數數量減少了195 840個,模型訓練所用時間縮短1 h。另外,Adam優化方法的使用使得模型訓練收斂更快,例如,MUNET-SPD-ADAM-ADD僅在第13個epoch就達到了90%的精度,而MUNET-SGD-CONCATENATE直到第59個epoch才達到90%精度。值得注意的是,在MUNET-SGD-CONCATENATE實驗結果中,每一次epoch驗證集的精度均高于訓練集精度,這種精度變異情況一直持續至訓練結束。這可能是由于訓練集和驗證集中樣本特征分布不均引起,即驗證集中特征數量相對于訓練集更少,或僅集中于較窄特征分布內。當引入空間置棄層后,在未對驗證集做數據增強或特征分布修改等后處理操作情況下獲得了更好的結果,精度變異情況不再出現,如圖6所示。

圖6 訓練集與驗證集精度與loss曲線

在圖5展示的結果中可以看出,修改后的模型可以更完整地提取建筑物,同時大大降低了類似于椒鹽噪聲的局部錯分,并且建筑物邊界更加分明、準確,“羽化狀”邊界問題得到了改善。但是,盡管在原始影像上部分小尺度建筑物的顏色和紋理特征比較突出,但仍然被錯分為背景(圖7)。一方面可能由于網絡結構中最大池化作用導致的信息丟失;另一方面,空間置棄層的使用也或多或少對細節特征的提取產生了一定的影響。但總體而言,修改后的模型可以有效地支持中低配置計算環境下深度網絡的訓練和測試,同時大大提高了面向復雜場景高分辨率遙感影像建筑智能解譯精度,減少了模型參數和模型訓練時間。

圖7 小尺度建筑物的漏分

4 結束語

本文面向復雜場景高分辨率遙感影像建筑智能解譯,設計了可有效運行于中低配置計算環境的U-Net語義分割模型。在保持U-Net整體框架結構不變的基礎上,通過修改輸入樣本尺寸、卷積核數量和卷積層數量,減小了模型訓練負荷。另外,使用Adam替換了隨機梯度下降優化方法,逐維度加和的特征融合方法替換了沿通道維度聯合的特征融合方法,這些改進加速了模型訓練收斂速度,減少了模型參數數量和模型訓練時間,同時提高了面向復雜場景高分辨率遙感影像建筑智能解譯精度。本文首次將空間置棄層引入U-Net模型中,發現其可以有效改善由于數據集特征分布不均衡引起的精度變異問題,無須經過對原始數據集進行數據增強或二次特征分布均衡化,就可以很好地解決精度變異問題。本文還提供了基于Tensorflow 2.0構建U-Net模型的完整思路和接口描述,為研究人員實現快速構建深度卷積神經網絡解決遙感圖像分類問題提供了基礎支持。實驗設計的輸入樣本尺寸、卷積層數量、卷積核數量、學習率等超參數以及實驗使用的特征融合方法和最優化算法,都為進一步優化U-Net的研究提供了新的思路。然而,需要指出的是,由于模型中最大池化操作的使用,平衡小尺度建筑物特征保留和大尺度建筑物完整提取仍然是一個有待解決的問題。在未來的研究中,將會引入一些后處理模塊,如以條件隨機場為代表的概率模型圖,或通過使用多模態融合、圖像金字塔和空洞卷積等特征增強和多尺度融合方法提高模型面向多尺度建筑物解譯的魯棒性,并在此基礎上進一步考慮如何有效改善面向中低配置計算環境的深度卷積神經網絡模型訓練效率。

猜你喜歡
特征融合模型
一半模型
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
重要模型『一線三等角』
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 色综合久久综合网| 国产成熟女人性满足视频| 92午夜福利影院一区二区三区| 国产成人久久综合777777麻豆| 国产浮力第一页永久地址| 国产一区在线观看无码| 国产在线精品99一区不卡| 在线观看欧美精品二区| 亚洲视频四区| 中文字幕 日韩 欧美| 午夜电影在线观看国产1区| 国产激情无码一区二区APP| 欧美在线精品怡红院| 毛片基地美国正在播放亚洲 | 国产一级在线播放| 亚洲欧洲AV一区二区三区| 手机在线国产精品| 91在线播放国产| 99久久精品美女高潮喷水| 国产精品三级专区| 国产美女91视频| 2020最新国产精品视频| 国产欧美精品专区一区二区| 四虎综合网| 麻豆AV网站免费进入| 日本在线视频免费| 看国产毛片| 日本高清有码人妻| 在线视频97| 欧美午夜视频| 国产97视频在线观看| 国产亚洲视频免费播放| 欧洲一区二区三区无码| 亚洲欧美国产五月天综合| 午夜啪啪网| 美女无遮挡免费视频网站| 麻豆国产在线观看一区二区| 日韩不卡免费视频| 国产亚洲精久久久久久久91| 香蕉精品在线| 亚洲中文字幕在线精品一区| 免费播放毛片| 亚洲精品无码日韩国产不卡| 国产av剧情无码精品色午夜| 国产h视频免费观看| 国产欧美自拍视频| 欧美激情伊人| 国产肉感大码AV无码| 人妖无码第一页| 中文字幕在线欧美| 五月激情婷婷综合| 国产精品无码影视久久久久久久| 中文字幕在线观看日本| 日韩在线中文| 91精品视频播放| 日韩小视频在线播放| 久久久久国色AV免费观看性色| 91免费国产在线观看尤物| 亚洲天堂视频在线观看| 亚洲区第一页| 国产日韩欧美视频| 直接黄91麻豆网站| 热这里只有精品国产热门精品| 久久精品国产在热久久2019| 婷婷午夜影院| 狼友视频国产精品首页| 91香蕉国产亚洲一二三区 | 亚洲欧美日韩中文字幕在线| 亚洲天堂网在线播放| 久久a级片| 婷婷六月激情综合一区| 欧美色视频在线| 亚洲精品日产AⅤ| 中文字幕 欧美日韩| 国产在线自乱拍播放| 一本久道热中字伊人| 99成人在线观看| 国产v精品成人免费视频71pao| 欧美成人午夜视频免看| 精品无码视频在线观看| 天天干天天色综合网| 国产福利微拍精品一区二区|