呂林濤 姚建華 黃濤 王一鑫
1.寧夏回族自治區遙感調查院;2.北京科技大學計算機與通信工程學院
遙感影像耕地提取是遙感解譯的一項具體任務,良好的耕地分割結果可為農業生產和土地保護提供支撐。針對寧夏省銀川市耕地檢測需求,以高分2號衛星影像為基礎,對影像進行光譜增強和紋理增強處理,以U-Net網絡為基礎,搭建卷積神經網絡進行訓練,并利用訓練好的模型進行測試。實驗結果顯示,我們的模型平均交并比達74.3%,證明本文提出的遙感影像耕地提取技術能準確進行耕地提取,同時提高耕地檢測的效率。
遙感是20世紀60年代發展起來的對地觀測綜合性技術。隨著科技水平的不斷發展,遙感的技術也越發的成熟,推動了衛星遙感影像技術的迅猛發展,同時也隨著可以獲得的數據量的不斷增加,人們對大數據、機器學習、深度學習等概念也越來越關注。遙感影像語義分割是遙感影像信息獲取的關鍵環節和研究熱點,近年來,相關研究成果已經廣泛應用于檢測土地利用變化、城市擴張以及災害預警評估等方面。高分辨率遙感影像能夠表現豐富的地物信息,從而有利于提取地物的復雜特征以識別復雜的場景目標。
耕地是我國重要的土地資源,是農業最基本的生產資料,耕地保護對生態環境,社會穩定具有重要作用[1]。高效的耕地檢測可為耕地保護任務提供技術支撐,有利于耕地保護任務的完成。遙感影像真實的體現了地質、地貌、土壤、植被等地物特征。遙感衛星安裝有多個傳感器,可以提供不同的光譜數據。近年來,我國衛星遙感技術快速發展,為我國生態環境監測提供了巨大的幫助。
U-Net是一種U形卷積神經網絡,該網絡通過編碼—解碼操作實現圖像端到端的語義分割,已經成為圖像分割的一種標準框架。該網絡最早用于醫學影像分割,利用圖像的多尺度信息在編碼和解碼通道之間使用跳躍連接融合圖像的淺層與深層特征,因此被廣泛應用于圖像領域[2]。深度神經網絡FCN用于構建語義分割的基礎模型,它作為一種強大的圖像分割模型,可以從抽象的特征中恢復出每個像素所屬的類別,即從圖像級別的分類進一步延伸到像素級別的分類。
在耕地提取研究中,我們使用U-Net卷積神經網絡作為基礎架構,加入ResNet34網絡,橋接層和注意力機制,結合影像的光譜和紋理特征,構建了耕地提取網絡模型。
高分二號影像具有4個波段,分別是R(紅光波段)、G(綠光波段)、B(藍光波段)、NIR(近紅外波段)。通過近紅外波段和紅光波段,可以計算得到歸一化植被指數(NDVI),其定義如下:
歸一化植被指數可以反應農作物的生長狀態和覆蓋度,NDVI的范圍始終為-1~1,當值為負數時,很可能是水;當NDVI的值接近1時,很有可能是茂密的綠葉。此外,NDVI可以消除大部分由于儀器、地形等外界因素造成的影響,可以增強影像對植被的影響力[3]。
紋理特征是通過灰度的空間變化及其重復性來反應地物的視覺粗糙度,能夠充分反應影像的特征,是描述和識別圖像的重要依據。在遙感影像中,陸地、水域、城市、深林等都具有各自特定的紋理,通過分析遙感圖像的紋理特征,可以進行區域識別、森林識別等。
遙感影像中抽取紋理特征常用的方法是灰度共生矩陣。灰度共生矩陣又稱為灰度空間相關矩陣,是通過研究灰度的空間相關特性來描述紋理的常用方法,通過灰度共生矩陣可以得到8種紋理特征統計量,即均值(Mean)、方差(Variance)、同質性(Homogeneity)、對比度(Contrast)、相異性(Dissimilarity)、熵(Entropy)、能量(Energy)、相關性(Correlation)。
通過對銀川地區耕地影像分析,耕地又可以細分為干耕地和濕耕地。分別對干耕地和濕耕地影像進行紋理特征提取如表1所示,計算干濕耕地對應的紋理特征統計量的差值,差值折現圖如圖1所示,選取差值最小的紋理統計量作為新特征加入到原始影像中。

表1 干濕耕地紋理統計量Tab.1 Texture statistics of dry and wet farmland

圖1 干濕耕地紋理統計量差異折線圖Fig.1 Broken line chart of grain statistics difference of dry and wet farmland
通過干濕耕地紋理統計量差值折線圖可以看出,干濕耕地在相關性統計量上差異最小,所以選取相關性統計量作為紋理特征加入到原圖像中,能夠最大程度提升模型的精度。
本文提出的基于深度學習的遙感影像耕地提取網絡是在U-Net網絡上進行改進,U-Net網絡結構有2個主要的特點:(1)U-Net網絡是完全對稱的,編碼器和解碼器很相似,網絡左邊的編碼器部分通過卷積進行下采樣操作,提取圖像特征,加深特征層數,縮小特征圖尺寸,右邊的解碼器部分通過上采樣利用圖像特征,恢復圖像尺寸;(2)采用了跳躍連接,將下采用過程中提取到的特征運用在上采樣中。這兩個特點有助于下采樣的各個階段的信息在上采樣過程中進行整合,使得整個網絡可以更好地學習圖像的所有信息。
Net網絡不足之處是它編碼器層數太淺,參數較少,當數據量較小時網絡表現相對其他網絡較好,但這會造成網絡容易過擬合,對輸入圖像特征提取的能力較弱。本文選則使用ResNet34來替換U-Net網絡的編碼器部分,加深網絡的編碼器部分,同時利用殘差機制使得網絡能夠快速收斂,并加入了注意力機制,進一步提高整個網絡的特征提取能力。
本文在編碼器和解碼器之間添加了一個橋接層,它是由3個卷積層構成,每個卷積層都是由512個空洞卷積(Dilated=2)3×3的濾波器組成,利用空洞卷積擴大卷積核的感受野,該結構可以幫助網絡更好地獲取全局信息,使得模型在提取耕地時邊緣更加準確。
右側為解碼器部分,解碼器部分通過跳躍連接與解碼器部分相連,可以將深層網絡語義信息豐富的抽象特征與淺層網絡豐富的細節信息相結合,通過上采樣操作逐步恢復到原圖像大小,最后通過一個卷積層得到耕地提取的結果。
實驗是在Ubuntu 18.04.2 LTS操作系統上進行的,主要的編程語言為Python,深度學習的框架為PyTorch1.1.0,服務器搭載了4塊NVIDIA GeForce RTX 2080Ti顯卡,顯存容量11GB。
語義分割任務也可以理解為是一個分類任務,其目的是對輸入圖像進行逐像素判斷,進而輸出分割結果。對于分類任務而言,預測結果往往有4種情況。
(1)TP(True Positive):真正例,模型預測為正例,實際是正例(模型預測為類別1,實際是類別1);
(2)FP(False Positive):假正例,模型預測為正例,實際是反例(模型預測為類別1,實際是類別2);(3)FN(False Negative):假反例,模型預測為反例,實際是正例(模型預測為類別2,實際是類別1);(4)TN(True Negative):真反例,模型預測為反例,實際是反例(模型預測為類別2,實際是類別2)。
交并比(IoU):模型對某一類別預測結果和真實值的交集與并集的比值。
本實驗選取MIoU作為評價指標。MIoU的定義是:計算真實值和預測值兩個集合的交集和并集之比。計算公式如式(1)所示:
在公式(1)中i代表真實類別,j代表預測類別,k+1代表類別數。
這個比例也可以用TP(交集)比上TP、FP、FN之和(并集)。即如式(2)所示:
訓練得到的最終模型在測試集獲得預測結果的MIoU可以達到74.3%,部分圖像的預測結果如圖2所示,從預測結果可以看出,我們的網絡表現出了很強的提取能力,能夠準確區分耕地和非耕地的區域,甚至標簽中并未細分的道路在我們的模型中也能準確區分。圖2顯示,我們的網絡對村莊附近的耕地、全耕地影響以及形狀不規整的耕地都有較高的精度。同時,在邊界細節上也表現出了很好的效果,且提取結果可以矢量化之后在GIS軟件中顯示,從而減少從業人員的工作量。

圖2 部分圖像的預測結果圖Fig.2 Prediction results of some images
為了更好地對本文提出的網絡進行評估,我們進行了兩組對比實驗,分別在U-Net網絡和FCN網絡上進行了實驗,第一組實驗就是未經修改的FCN網絡;第二組實驗是搭載VGG網絡的U-Net網絡。實驗結果如表2所示。

表2 不同方法獲得的預測圖像平均交并比Tab.2 Average cross merge ratio of predicted images obtained by different methods
從表2可以看出,我們網絡的MIoU評價指標明顯優于FCN與搭載VGG網絡的U-Net,FCN網絡雖然層數較少,提取速度較快,但礙于其網絡參數少,對于耕地的提取效果欠佳。搭載VGG網絡的U-Net效果優于FCN,因為VGG網絡加深了U-Net的編碼器結構,一定程度上優化了U-Net的提取效果。我們的模型得益于ResNet和空洞卷積機制,使得網絡精度較高,同時因為ResNet的殘差機制,網絡訓練時收斂較快,不會消耗過多時間。
本文所研究的基于深度學習的耕地提取方法,通過使用Pytorch深度學習框架,以U-Net網絡作為基礎,使用ResNet34網絡作為編碼器結構,在橋接層中使用擴張卷積增大感受野,使網絡可以獲取全局信息。網絡搭建完成后在我們處理好的6通道數據上進行訓練,在訓練過程中加入數據增強操作。通過最終的預測結果表明,本文構建的網絡相比于U-Net網絡,FCN網絡具有更強的分割能力。
引用
[1]姚成勝,滕毅,黃琳.中國糧食安全評價指標體系構建及實證分析[J].農業工程學報,2015,31(4):1-10.
[2]宋蓓蓓,馬穗娜,何帆,等.Res2-Unet深度學習網絡的RGB-高光譜圖像重建[J].光學精密工程,2022,30(13):1606-1619.
[3]田振坤,傅鶯鶯,劉素紅,等.基于無人機低空遙感的農作物快速分類方法[J].農業工程學報,2013,29(7):109-116+295.