張祖宇,滕永核,秦元麗,廖超明,凌子燕
(1.廣西壯族自治區地理信息測繪院,廣西柳州 545000;2.廣西科學院遙感測繪研究院,廣西南寧 530001;3.廣西壯族自治區林業科學研究院,廣西南寧 530002;4.南寧師范大學 自然資源與測繪學院,廣西南寧 530001;5.廣西遙暢空間信息科技有限公司,廣西南寧 530023)
遙感分類提取方法主要包括監督分類、面向對象分類和決策樹等,研究人員通過EOS/MODIS、HJ和GF 等系列衛星遙感數據,實現對各種地表覆被信息的自動提取、面積估算及動態變化監測。近年來,隨著無人機技術的發展,基于無人機獲取的影像具有更高分辨率和更多視角的特點,利用無人機獲取的高分辨率影像進行地物分類受到越來越多的研究人員關注。研究人員利用無人機獲取多視角數據、基于面向對象的影像分析(OBIA)算法成功對濕地進行分類[1],基于無人機獲取的高分辨率圖像實現對建筑物信息的提取[2],這些研究成果表明基于無人機獲取的高分辨率影像數據完成地表覆被分類或自動解譯取得了良好的效果。
隨著計算機技術的發展,利用深度學習對高分辨率遙感影像進行自動解譯和分類已成為研究熱點。深度學習的核心是卷積神經網絡(CNN)[3],基于CNN 的深度學習算法在圖像的目標識別[4-5]、目標檢測[6]和場景分類[7-8]等方面的應用取得了成功。研究人員利用CNN對高分辨率遙感影像進行逐像素分類成像研究,如利用CNN 與遙感數據實現對城市土地利用類型的分類與制圖[9];基于CNN和光學遙感影像對林地、濕地進行分類[10-12]。由于CNN體系結構深和參數多,訓練一個具有魯棒性的CNN 需要大量且具有特定視覺的數據集。利用少量數據集完成高效的深度CNN訓練非常困難。為解決由于缺少大量數據集而無法訓練出一個高效的深度CNN 的困境,有研究采用基于CNN的中間激活層對大型數據集(如ImageNet等)完成預訓練并轉移到其他數據量小的目標識別任務上,這一方法被稱為遷移學習。有研究人員通過遷移學習方法完成特征遷移,實現對高分辨率遙感影像圖像的分類[13-14]。
林業是廣西的支柱產業,及時、準確地掌握林業作物的空間分布和時空變化可為地方政府部門進行作物種植結構調整提供重要參考。U-Net深度學習模型具有較強的語義分割功能,可對圖像上的每個像素點實現語義標注,在高分辨率遙感影像分類中得到較好應用[15-16]。本研究以甘蔗(Saccharum officinarum)種植區為例,利用無人機快速獲取高分辨率遙感影像數據,采用U-Net 模型和遷移學習方法提取甘蔗種植區的空間位置信息,研究基于深度學習的地表覆被信息自動提取方法,為后續林地覆被空間位置信息自動提取提供技術參考。
研究區位于南寧市上林縣鎮圩瑤族鄉正浪村(108°23′~108°28′E,23°39′~23°43′N)。上林縣地處低緯度地區,北回歸線橫貫縣境中部,屬南亞熱帶季風型氣候,年均氣溫20.9 ℃,年均無霜期337天;雨量充沛,年均降水量1 527 mm。全縣土壤質地以壤土為主,耕作層較厚,土壤肥沃。研究區的氣候條件和土地資源適宜甘蔗生長,為本研究獲取數據提供便利。
采用大疆M300 多旋翼無人機并搭載Canon EOS 5D Mark 數碼相機,預設的航向重疊度為70%、旁向重疊度為60%,獲取一套空間分辨率為5 cm 的試驗區影像數據。采用Pix4Dmapper 4.0 軟件將獲取的影像數據處理成正射影像圖(圖1)。

圖1 研究區的正射影像Fig.1 Orthophoto image of study area
由于原始正射影像圖太大,無法直接用于訓練。為滿足GPU 的顯存要求,將原始正射影像圖切割成13 170 張大小為128×128 像元的數據。將切割后的影像分成訓練集與測試集,比例為8∶2。訓練集主要應用于訓練模型,測試集主要應用于驗證模型分辨能力。有研究表明,當深度學習訓練時的訓練樣本數量過少,會出現過擬合現象,降低訓練集預測精準性[17]。本試驗獲取的訓練集數據量較少,設計通過數據增廣方式擴展訓練集數據,即對訓練集的數據進行翻轉變換、上下左右平移變換的方式進行增廣。
基于U-Net 深度學習模型并引入遷移學習策略,在開源數據集ImageNet 上預先訓練好的權重參數基礎上,根據當前的數據集狀態進行參數調整,進而提高最終分類器的性能。
本研究設計的U-Net甘蔗種植區提取模型架構如圖2 所示。首先,將3 波段的RGB 影像數據輸入U-Net模型,運用CNN進行下采樣,提取出一層又一層的特征;利用提取到的一層又一層特征進行上采樣;采用U-Net模型輸出分割后的圖像數據。

圖2 U-Net甘蔗種植區提取模型架構Fig.2 U-Net extraction model architecture of S.officinarum planting area
在配備8 核Intel Core i7 處理器、64 GB 運行內存、NVIDIA GeForce GTX 9 TITAN X 顯卡和Win 10操作系統的計算機上進行模型訓練。試驗模型選擇Adam 作為優化器,該優化器可在訓練過程中自適應地調整學習率,設置初始學習率為0.001,設置batch size 為8,迭代周期為50 次,選用Tensorflow +keras深度學習框架進行模型構建、訓練與驗證。
利用U-Net模型和遷移學習方法對無人機影像中的甘蔗種植區進行空間位置信息自動提取。將無人機獲取的原始影像、人工目視解譯提取的甘蔗種植區空間信息數據(原標簽圖像)與本試驗結果進行對比分析(圖3)。利用測試集樣本數據對試驗結果進行精度評定,本次試驗自動提取到甘蔗種植區空間位置信息的準確率、精確率和召回率分別為98.34%、93.10%和89.21%,表明基于U-Net 模型和遷移學習方法可以準確提取出無人機影像中甘蔗種植區的空間位置信息,且不受甘蔗種植區分布密集程度的影響。
利用U-Net模型和遷移學習方法對形狀規則的甘蔗種植區空間位置信息進行提取效果較好(圖3c下圖)。利用U-Net 模型的網絡結構進行下采樣和上采樣操作,某種程度上會導致甘蔗種植區空間信息提取結果中存在邊界模糊的現象(圖3c上圖和中圖),需在后續研究中對深度學習模型和數據處理方法進一步優化。

圖3 部分試驗提取結果Fig.3 Partial experimental extraction results
本研究采用U-Net模型和遷移學習方法完成對無人機獲取的高分辨率影像中甘蔗種植區空間位置信息的提取。針對研究區訓練集數據量不足等問題,本研究設計采用數據增廣方式對訓練集數據進行增廣。采用遷移學習方法在開源數據集IamgeNet預訓練U-Net模型,通過特征遷移對試驗區的無人機正射影像進行甘蔗種植區空間位置信息自動提取。結果顯示,使用U-Net 模型和遷移學習方法,能夠較好地自動提取甘蔗種植區的空間位置信息,其準確率、精確率和召回率分別達到98.34%、93.10%和89.21%,且不受甘蔗種植區分布密集程度的影響。
甘蔗和其他植被在遙感影像上反映的紋理存在一定的相似度,通過樣本數據采集、訓練和模型優化,本研究方法可應用到其他類型的地表覆被空間信息自動提取工作中。