999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合FCN和DenseCRF模型的無人機梯田識別方法研究

2021-02-04 14:16:28楊亞男張宏鳴李杭昊楊江濤
計算機工程與應用 2021年3期
關鍵詞:方法模型

楊亞男,張宏鳴,3,李杭昊,楊江濤,全 凱

1.西北農林科技大學 信息工程學院,陜西 楊陵712100

2.西北農林科技大學 水利與建筑工程學院,陜西 楊陵712100

3.寧夏智慧農業產業技術協同創新中心,銀川750004

梯田是在山丘坡地上沿等高線修筑的階臺式或波浪式斷面農田,修建梯田不僅是最快捷有效的水土流失控制措施[1],還能極大地提高坡耕地的農業生產能力,因此成為黃土高原最重要的水土保持工程[2]。根據水利部發布的《全國坡耕地水土流失綜合治理“十三五”專項建設方案》,2016—2020 年專項建設490.71 萬畝坡改梯即將完成,及時、準確地掌握區域梯田分布信息成為水土保持監測和評價的重要內容[3]。

傳統的梯田信息統計主要通過實地調查實現,但人工統計費時費力。隨著高分辨率影像處理技術的不斷發展,利用高分辨率遙感影像提取梯田信息成為可能[4-5]。與高分辨率衛星遙感數據相比,利用無人機航攝系統獲取高分辨率遙感影像具有高效、及時、精確、低成本的優勢[6-7],在梯田工程的監管和規劃等方面具有廣泛的應用前景[8]。

無人機高分辨率遙感梯田識別研究中,張宏鳴等[9]基于改進的Canny邊緣檢測方法通過粗輪廓提取、偽邊緣剔除和區域生長算法的結合對梯田進行分割,但是該方法提取精度較低,分類效果一般。Eckert 等[10]采用面向對象分類的方法,結合光譜特征、紋理特征以及形狀特征通過SVM 方法對梯田進行識別,該方法僅從區域劃分的角度識別梯田建設區域,不能對梯田田面進行精準的識別。薛牡丹等[11]采用面向對象多尺度分割與機器學習結合的梯田提取方法,但該方法的應用效果高度依賴于人工選擇的分割尺度,不具有普適性。以上研究方法均依賴人工進行梯田特征的提取,效率不高,并且僅能進行淺層學習[12],難以適應海量高分辨率遙感影像梯田的識別需求。

自2006 年Hinton 等[13]提出采用深度學習模型實現數據的分類并取得成功后,深度學習因其自動從海量影像數據中學習最有效特征的優勢在語義分割、圖像分類領域快速發展[14-15],近年來被廣泛應用于遙感地物識別[16-17]和遙感場景分類[18-19]中。陳鋒軍等[20]以VGG-16模型為基礎應用全卷積神經網絡分割圖像的算法,對無人機采集的云杉圖像進行分割,取得了較好的識別效果。夏夢等[21]采用將卷積神經網絡與條件隨機場相結合的方法,對中國廣西南寧市地區的遙感圖像進行分類,通過模型的融合在預分類結果的基礎上進一步抑制噪聲,提高了分類結果的準確性。

目前,基于高分辨率無人機遙感影像梯田識別的方法研究仍然停留在面向對象技術層面,尚未有公開的研究成果將深度學習技術應用于遙感梯田的識別。然而應用于遙感地物識別和遙感場景分類的深度學習方法研究更側重多種地物類別的區分效果[22-23],不適用于以精準識別梯田田面為目標的遙感梯田識別研究。

針對現有無人機遙感梯田識別方法的不足之處,本文通過無人機航空攝影獲取的高分辨率遙感梯田影像,制作一套梯田正射影像樣本集并設計構建全卷積神經網絡8s 模型(Fully Convolutional Networks-8s,FCN-8s)與全連接條件隨機場模型(Dense Conditional Random Field,DenseCRF)結合的梯田識別方法,實現了梯田特征的自動學習,避免了傳統分類方法依賴人工的特征提取過程,并取得了精確的識別效果。

1 數據材料

1.1 研究區域及數據獲取

1.1.1 研究區域

中國甘肅省生態環境脆弱,水土流失嚴重,大量坡耕地既是農業生產的嚴重制約,也是水土流失的主要發源地。為改善人民生產生活條件,甘肅省榆中地區從二十世紀六七十年代開始興修梯田,縣區內梯田面積較大,范圍清晰[24]。

本文的研究區域是中國甘肅省榆中地區龍泉鄉黃土丘陵區典型旱梯田區,該區域地理坐標范圍為東經104°10′58″~104°19′51″,北緯35°34′4″~35°40′56″,平均海拔2 160 m,總面積84 km2,地形以山溝梁峁為主。該研究區內梯田形態種類豐富,具有一定代表性。圖1為該地區所在位置及區域正射影像展示。

圖1 研究區域所在位置及區域正射影像展示

1.1.2 數據獲取

研究區圖像拍攝于2016 年3 月,拍攝期天氣晴朗,能見度高,風力小于4 級。使用安翔動力AF1000 型無人機,該機翼展開27 m,質量14 kg,有效載荷2 kg,航高90 m 左右,搭載SONYA5100 相機,有效像素2 430 萬,單幅影像面積約340 m×500 m。飛行采用自動起飛/規劃航線飛行/自動降落模式,全程總計耗時約24 h。

獲取原始數據后采用Agisoft photoscan軟件,導入影像,控制點數據及POS數據,將整個區域分成25個測試區塊進行處理,并最終拼接生成空間分辨率為0.5 m的正射影像。依據無人機影像制作的1∶500 地形圖的精度滿足《1∶500 1∶1 000 1∶2 000地形圖航空攝影測量內業規范》[25]對1∶500平地、丘陵的成圖要求。

1.2 數據預處理

本文從研究區域截取1 塊樣本區和3 塊測試區,其正射影像如圖2 所示。樣本區(圖2(a))為10 000×10 000 像素,范圍最大,包含梯田種類全面,特征清晰,作為本實驗正射影像樣本集來源。測試區1(圖2(b))、測試區2(圖2(c))、測試區3(圖2(d))作為本實驗的測試集,均為1 000×1 000像素,包含了研究區內的主要梯田類型。其中測試區1的梯田田塊形狀較短寬,位于山脊周邊,田面無覆蓋物,樣區內包含大量山丘,部分建筑物及道路,為典型山脊區梯田。測試區2的梯田田塊形狀舒長較窄,分布密集,田塊邊緣曲線光滑,田面有部分莊稼堆積物,樣區內包含少量建筑物,為密集水平梯田。測試區3的梯田田塊形狀蜿蜒不規則,田面有大量積雪覆蓋,樣區內包含部分建筑物和少許道路,屬于不規則梯田。

圖2 樣本區及各測試區正射影像圖

本文實驗所使用的正射影像數據空間分辨率高(0.5 m)、細節清晰、特征明顯、類別豐富,因此基于目視解譯使用圖像標注工具labelme 軟件,制作實驗所需要的標簽圖像,并將梯田田面的像素值設置為1,用紅色(rgb(255,0,0))標注,非梯田部分的像素值設置為0,用黑色(rgb(0,0,0))標注。為防止過擬合現象,采用翻轉(水平、垂直和左右)和旋轉(90°、180°和270°)的方式對數據集進行數據增強。經過數據增強后生成樣本集4 000組,其中訓練集3 000組,驗證集1 000組。實驗樣本的正射影像(圖3(a))和標簽圖像(圖3(b))一一成組對應,如圖3所示。

圖3 實驗樣本集圖像

2 方法設計

梯田在高分辨率遙感影像上表現為形狀相似且排列連續的面狀地物,梯田的田坎表現為臺階狀等高線條紋理特征,其邊界處常有路或溝壑[25]。不同于遙感地物識別與遙感場景分類的多目標類別檢測,旱梯田區遙感影像的梯田部分地形特征復雜但有一定規律性,而非梯田部分均質化程度高[27],因此梯田識別的重點在于通過學習更深層次的特征實現梯田邊界更精細的分割和梯田田面更準確的提取。

針對遙感影像梯田識別的特殊性,本文方法首先制作正射影像樣本集,構造并訓練FCN-8s模型,然后將測試集輸入FCN-8s 模型進行預識別,輸出的梯田預識別結果作為DenseCRF 模型的一階勢函數,然后利用高斯核函數的線性組合定義DenseCRF 模型的二階勢函數,通過平均近似場方法求解模型,得到最終的梯田識別結果,最后進行精度評價,如圖4。

圖4 本文方法流程圖

方法流程如下:

(1)數據預處理。利用無人機拍攝的高分遙感梯田樣本區正射影像,生成圖片大小為224×224像素的正射影像數據集,并標注每個實驗樣本的標簽圖像,實驗樣本的標簽圖像與原始正射影像數據一一成組對應。經數據增強處理后分為訓練集和驗證集。

(2)構建FCN-8s模型。根據全卷積神經網絡原理,在VGG-19(Visual Geometry Group,VGG)網絡模型的基礎上構建FCN-8s模型。

(3)訓練FCN-8s 模型。同時將訓練集和驗證集放入構建好的模型進行訓練及驗證,通過參數對比調優,完成模型的訓練。

(4)FCN-8s 模型預識別。將測試集輸入訓練好的模型,經計算后輸出FCN-8s梯田影像預識別結果。

(5)DenseCRF 模型。輸入梯田預識別結果,構造DenseCRF 模型二階勢函數,計算后輸出本文方法的最終識別結果。

(6)精度評價。對比各測試區的真值圖,對本文方法的實驗結果計算總體精度、F1分數和Kappa系數進行精度評價。

2.1 FCN-8s模型

本文方法中的FCN-8s 模型以VGG-19 作為特征提取器,采用FCN-8s架構進行構建。FCN-8s網絡架構是FCN架構[28]中分割結果最細致最準確的網絡架構,能夠精確預測遙感影像中每個像素的分割結果[29]。VGG[30]是基于Alexnet網絡[31]對深度神經網絡在深度和寬度上做了改進后形成的具備更強表達能力的卷積網絡模型,去掉了Alexnet的局部響應歸一化方法(Local Response Normalization,LRN),并采用了更小的3×3 的卷積核、2×2的池化核以及步長為1,因此參數量更少。VGG-19是最深的VGG 網絡[32],由16 個卷積層和3 個全連接層構成,能夠更精準有效地提取特征對圖像進行分類并得到輸入圖像的類別概率值。

根據全卷積神經網絡的原理,將VGG-19卷積層之后的3 個全連接層轉化成3 個卷積層(其中前2 個卷積層卷積核大小為4 096×1×1,第3 個卷積核大小為1 000×1×1)并添加反卷積操作,對特征提取步驟的最后一個卷積層特征圖像進行8倍上采樣,實現無人機遙感梯田影像的端到端、像素到像素級別的分類,并得到與輸入圖像大小相同的語義分割結果圖。

2.1.1 特征提取

深度學習網絡模型的特征提取通過卷積層實現,卷積層利用卷積核計算降維提取圖像不同頻段的特征。卷積核即濾波器filter,帶有一組固定權重的神經元,多個卷積核疊加形成卷積層。卷積層常用的激活函數有tanh、sigmoid 和Relu 函數。但是sigmoid 和tanh 函數都要對輸入進行歸一化,而Relu函數則不需要,并且Relu函數可以去除數據中的冗余[33],最大限度地保留數據的特征,因此本文方法中的FCN-8s 模型特征提取器每一層卷積都選用Relu 函數作為激活函數。Relu 函數的數學表達式為:

該特征提取器采用逐層訓練的方式,16個卷積層的卷積核均為3×3,每層特征提取的特征圖示例如圖5。

2.1.2 池化

圖5 卷積層特征提取圖

池化的目的是對輸入的特征圖進行壓縮,同時改善結果防止過擬合現象的發生。下采樣是池化層的主要操作,通過下采樣的壓縮簡化了網絡計算的復雜度并在壓縮過程中再一次提取特征圖的主要特征。池化操作一般有Avy Pooling 和Max Pooling,本文方法FCN-8s模型的池化層采用Max Pooling,池化核是2×2,步長為2,池化操作如圖6所示。模型共有5個池化層,pool1在Conv1-1~1-2 后面,pool2 在Conv2-1~2-2 后面,pool3 在Conv3-1~3-4 后面,pool4 在Conv4-1~4-2 后面,pool5 在Conv5-1~5-4后面。

圖6 池化圖

2.1.3 反卷積

反卷積通過上采樣操作從最后一個卷積層得到的特征圖恢復到輸入圖像的原始尺寸,并通過卷積+補位的操作還原多出的空白像素點。本文方法中FCN-8s模型反卷積操作采用轉置卷積的方式并添加crop 操作輔助反卷積,最后使用softmax 函數作為分類器對每個像素進行分類,softmax函數的數學表達式為:

其中,yi是softmax 輸出的分類結果也稱為預測結果,Zi是該網絡層的第i個輸出,wij是第i個神經元的第j個權重,bj是其bias值。

softmax的交叉熵損失函數表達式為:

本文方法中的FCN-8s 模型結構圖如圖7 所示。輸入樣本圖像首先在Conv1-1~1-2 卷積后在pool1 層第一次下采樣尺寸縮小為原圖像的1/2,接著再經過Conv2-1~2-2、pool2 縮小為原圖像的1/4,之后從第三組卷積層開始每組4 次卷積,Conv3-1~3-4、pool3,此時縮小為原圖像的1/8,并儲存pool3 的feature map,繼續卷積Conv4-1~4-2、pool4,并儲存pool4 的feature map,此時圖像已縮小為原圖像的1/16,最后進行Conv5-1~5-4 四層卷積,并將pool5 池化后縮小為原圖像大小的1/32的圖像改稱為heat map。Heat map 繼續進行conv6、conv7、conv8三層卷積,完成全卷積過程。

完成全卷積的heat map 經過soaftmax 像素級分類生成預測結果圖,此時的heat map是原圖像大小的1/32,其預測結果圖也是原圖像大小的1/32。對該結果圖進行第一次反卷積2倍上采樣恢復到原圖像大小的1/16,并與pool4的feature map生成的預測結果疊加,將此結果進行第二次反卷積,經2倍上采樣恢復到原圖像大小的1/8,再與pool3 的feature map 預測結果疊加后進行最后一次反卷積8倍上采樣,最終得到與輸入梯田影像大小相同的梯田預識別結果圖。

2.2 FCN-8s模型的訓練

本文方法的FCN-8s 模型在Ubuntu 16.04.5LTS 系統,Python2.7 環境下,采用TensorFlow1.13 版本進行訓練,將訓練集和驗證集輸入網絡,設置Batch Size 值為2,一次輸入所有數據,設置學習率為0.000 1,訓練次數為66 000次,訓練過程的交叉熵損失函數值曲線圖如圖8 所示,其橫軸為訓練次數,縱軸為損失函數值。前5 000 次迭代過程中損失函數值快速減小,經過30 000次迭代已基本收斂,雖然仍有波動出現,但隨著迭代次數的不斷增加,波動的幅度和頻率都逐漸下降,66 000次的交叉熵損失函數值穩定在6.236 51×10-4。

2.3 DenseCRF模型

圖7 FCN-8s模型結構圖

圖8 交叉熵損失函數曲線

條件隨機場(Conditional Random Field,CRF)[34]是圖模型的一種特定類型,通過最小化用戶定義的能量函數實現模型預測結果的后驗分布估計,使圖像分割結果更加精準。與由一階勢函數和相鄰元素構成的勢函數所組成的基本條件隨機場(Basic Conditional Random Field,BasicCRF)模型不同,DenseCRF 模型的二階勢函數描述的是每一個像素與其他所有像素的關系,使用該模型在圖像中的所有像素對上建立點對勢能從而實現極大地細化和分割。

本文方法將FCN-8s模型的預識別結果作為一階勢函數構建DenseCRF 模型,針對全卷積神經網絡不能充分考慮全局上下文信息,忽略了空間正則化(Spatial Regularization,SR)步驟,缺乏空間一致性的缺點,通過將每個像素點與其他所有像素點均構成一條邊的稠密全連接模型,進一步提高梯田識別結果。

2.3.1 一階勢

DenseCRF 作為一種判別式模型,可以在給定觀測場的條件下,對標記場的后驗概率直接建模。一階勢函數對單像素點的預測信息和相應的標簽之間的關系進行建模,計算每個像素點的類別概率。

隨機場的Gibbs分布定義如下:

標簽值x對應的Gibbs能量表示為:

這里,P(xi=li)為FCN-8s模型預識別結果中,像素i的標簽。

2.3.2 二階勢

式中,μ(xi,xj)=[xi≠xj]為標簽兼容函數,用來懲罰相鄰相似的像素被標記成不同類型,ω(m)為每個高斯核對應的權重,fi、fj分別表示像素i和像素j具有的特征向量,k(m)為高斯核,公式為:

其中,pi,pj是像素點i,j的位置,θα,θγ是接近度和相似度。

2.3.3 平均近似場算法

本文的DenseCRF 模型使用平均場近似方法[35]求解,計算復雜度為O(N2),該目標函數的表達式為:

式中,向量fi、fj是像素點i、j的特征向量,ω(m)是線性組合權重,μ是標簽兼容性函數,

推斷算法如下:

(2)迭代更新:

(3)當算法收斂時,停止迭代。

2.4 精度評價

精度評價是指比較實際數據與方法結果以確定該方法的準確性。本文通過目視解譯,在arcmap10.5中繪制接近于實際梯田的真值圖作為評價樣本。為了做出有效的評估,實驗使用總體精度(Overall Accuracy,OA)、F1分數和Kappa系數[36]對本文方法的實驗結果進行量化評價[37],三種精度的計算方法為:

式中,TP(True Positive)為分類正確的梯田像素點;TN(True Negative)為分類正確的非梯田像素點;FN(False Negative)為分類錯誤的非梯田像素點;FP(False Positive)為分類錯誤的梯田像素點。

3 實驗結果與分析

為驗證本文方法的有效性,分別選取山脊區梯田、密集水平梯田和不規則梯田正射影像作為測試樣區,并在使用相同樣本集的基礎上將本文方法的最終實驗結果分別與FCN-8s梯田影像預識別結果,SegNet、DeepLab方法結果進行對比。圖9 為三個測試區梯田識別結果對比圖。

圖中第一行是測試區1 山脊區梯田的識別結果對比圖,識別的誤差主要出現在以紅框1為例的不平整梯田田面和藍框2、黃框3 為例的鄰山脊處梯田。其中DeepLab方法在紅框1處斷裂點最多,識別效果最差,藍框2、黃框3 處,由于緊挨山脊,紋理特征和顏色與其他部分田面有所不同,均錯分為非梯田。SegNet方法在紅框1處識別效果相對于DeepLab方法有所提升,但依然有明顯斷裂,并且在藍框2 和黃框3 處也出現錯分情況。以上兩種方法對于梯田遙感影像的紋理顏色特征容錯性較差,在山脊區梯田識別中表現不佳。FCN-8s預識別結果圖中,紅框1處不平整田面部分識別效果明顯提升,藍框2、黃框3 處略有提升,部分田塊邊緣像素點識別正確,但未能識別整塊田面;在本文方法的最終實驗結果圖中,紅框1處和FCN-8s識別效果相當,藍框2、黃框3 處識別效果明顯提升,可以正確識別整塊田面,識別效果較好。

圖中第二行是測試區2 密集水平梯田的識別結果對比圖,識別的誤差主要出現在以紅框4為例的建筑物群和藍框5、黃框6為例的土坎陡坡地形處。其中Deep-Lab 方法在紅框4 處將大部分建筑物錯分為梯田,在藍框5 和黃框6 處將土坎陡坡也錯分為梯田。而SegNet方法在紅框1 處識別效果略有提升,錯分情況有所好轉,但是在藍框5 土坎陡坡處也將土坎陡坡錯分為梯田,并且將藍框5 左側的非梯田部分錯分為梯田,在黃框6 處土坎陡坡錯分為梯田的部分相對DeepLab 方法有所減少,但還是明顯存在。FCN-8s 預識別結果圖中紅框4 處建筑物群基本都能正確識別為非梯田,藍框5和黃框6 的土坎陡坡也正確識別為非梯田,但是藍框5和黃框6之間的梯田區域都錯分為了非梯田;本文方法的最終實驗結果圖中,紅框4處建筑物群基本能正確識別為非梯田,藍框5 和黃框6 處大部分土坎陡坡正確識別為非梯田,兩處之間的梯田區域錯分情況也有所減輕,相比于前三種方法,取得了最好的識別效果。

圖中第三行是測試區3 不規則梯田的識別結果對比圖,由于該樣區內梯田田面有積雪覆蓋,積雪覆蓋區域紋理平整,顏色接近,識別效果誤差較大,誤差主要出現在以紅框7 為例的斷崖下的梯田,藍框8 為例的積雪未完全消融的濕土梯田田面,黃框9為例的紋理多樣的不規則小塊梯田區。其中DeepLab 方法和SegNet 方法在紅框7處、藍框8處均出現錯分情況,在黃框9處,Seg-Net 方法的識別效果比DeepLab 方法略好,但識別效果依然不夠理想。FCN-8s 預識別結果圖中紅框7 處依然沒有能正確識別斷崖下梯田,藍框8 處和黃框9 處田面的識別效果相比于DeepLab和SegNet方法有所提升,但是比較粗糙;本文方法的最終實驗結果圖中,紅框7 處能夠正確識別出斷崖下梯田,但是斷崖部分也一并識別為梯田,由于該影像來自于俯視航拍,近于垂直的斷崖不能拍攝到完整斷崖面特征,而拍到的斷崖頂顏色紋理和斷崖下梯田相似,從影像上難以區分。藍框8處和黃框9 處基本能正確識別,其中藍框8 積雪未完全消融的濕土田面識別效果較為精準,黃框9處多塊不規則小塊梯田由于紋理顏色各異,識別效果不夠精準,有待進一步提升。

從實驗結果圖中可以看出,本文方法的識別結果最接近于人工標記的真值圖像,Deeplab 方法和SegNet方法在測試區1、2、3的識別中錯分和漏分現象明顯,效果難以令人滿意。FCN-8s 模型預識別效果在測試區1的識別中表現良好,而測試區2 和測試區3 的識別結果相對較為粗糙,結合DenseCRF 模型優化處理的最終結果在3個測試區的識別結果更細致準確,具有良好的魯棒性。

圖9 測試區梯田識別結果對比圖

表1 測試區梯田識別結果精度評價%

此外,根據測試區正射影像圖分析本文方法的誤差,測試區1中緊挨山脊處的梯田田面顏色與山脊相近且與非鄰近山脊的其他梯田差異較大,容易被錯識別為非梯田;測試區2 中土坎陡坡處顏色、紋理和輪廓特征與鄰近的梯田田面十分接近,只是因為坡度變化大且坡平面較窄不利于作物種植所以一般不在土坎陡坡處修建梯田,目視解譯時憑借人工經驗將此處劃分為非梯田,如何進一步解決梯田識別中這種典型的同譜異物現象有待在今后的研究中改進。測試區3 由于受田面積雪覆蓋影響,梯田田面之間顏色和紋理等特征相差較大,進一步提升田面有覆蓋物情況下的梯田識別也要在之后的研究中進行探索。

表1為測試區梯田識別結果精度評價表。從表1可以看出,相比于本文方法,Deeplab 方法和SegNet 方法在總體精度、F1分數和Kappa系數三種精度的表現都比較差。

與FCN-8s 梯田影像預識別結果相比,本文方法將FCN-8s與DenseCRF模型結合后,三個測試區在總體精度、F1 分數和Kappa 系數表現上平均分別提高了5.41、7.29、10.07個百分點。

結果表明,本文方法在三項精度指標上表現最佳,平均總體精度達到86.85%,平均F1 分數達到87.28%,平均Kappa系數值達到80.41%,取得了較好的識別效果。

4 結束語

本文針對無人機高分辨率遙感梯田識別研究中無法進行梯田特征自動學習的問題,根據梯田識別的特點,制作一套梯田正射影像樣本集,提出一種FCN-8s與DenseCRF模型結合的深度學習識別方法。

該方法首先在TensorFlow 深度學習框架上搭建FCN-8s網絡架構,以VGG-19深度神經網絡模型作為特征選擇器對梯田影像進行預識別,通過模型中的卷積層在梯田正射影像樣本集上完成梯田特征的自動學習,避免了傳統提取方法中復雜的人工處理過程。該步驟將FCN全卷積網絡中分割最細致的8s架構與VGG系列最深的網絡結合進行特征提取與預識別,充分利用VGG-19深層學習特征的優勢以進行梯田影像二分類的精準區分。然后以預識別的分類結果定義每個像素點一階勢函數,用兩種高斯核函數的線性組合定義二階勢函數,利用全連接條件隨機場考慮豐富的空間上下文信息的特點,抑制更多的分類噪聲,進一步提高梯田識別精度。實驗結果表明,該方法取得了較好的梯田識別效果,推動了深度學習技術應用于無人機遙感梯田識別方法研究領域。

本文仍有可以改進之處,后續的研究將從以下幾個方面進行嘗試:(1)能否改進模型以適應多源數據的輸入和學習,通過將梯田的地形因子數據與影像數據結合學習提高識別精度。(2)能否將集成學習與深度學習方法結合,通過集成學習的投票技術進一步優化梯田識別結果。(3)在深度學習技術之外,能否采用半監督學習方式進行無人機遙感梯田的識別有待進一步探索。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 久久五月天综合| 亚洲精品在线91| 国产成人喷潮在线观看| 无码啪啪精品天堂浪潮av | 尤物国产在线| 亚洲视频在线观看免费视频| 亚洲天堂视频在线播放| 成人毛片免费在线观看| 亚洲综合在线网| 亚洲天堂网2014| 色爽网免费视频| 日本国产在线| 亚洲中文字幕无码爆乳| AⅤ色综合久久天堂AV色综合| 久久这里只有精品8| 国产欧美精品午夜在线播放| 国产一级做美女做受视频| 亚洲欧美不卡| 国产精品原创不卡在线| 又黄又爽视频好爽视频| 久久久91人妻无码精品蜜桃HD| 免费看av在线网站网址| 亚洲国产综合精品中文第一| 国产拍揄自揄精品视频网站| 久久亚洲美女精品国产精品| 日韩在线影院| 国产福利微拍精品一区二区| 91小视频版在线观看www| 亚洲精品卡2卡3卡4卡5卡区| 欧美中出一区二区| 99一级毛片| 国产色偷丝袜婷婷无码麻豆制服| 欧美精品啪啪| 最新亚洲人成网站在线观看| 日韩国产精品无码一区二区三区| 华人在线亚洲欧美精品| 91香蕉国产亚洲一二三区| 国产一区二区影院| 欧美日韩一区二区三区在线视频| 午夜爽爽视频| 欧美日韩精品综合在线一区| 国产欧美视频在线| 97国产精品视频人人做人人爱| 国产精品美女免费视频大全| 亚洲国产成人精品青青草原| 国产麻豆另类AV| 深爱婷婷激情网| 欧美日韩午夜视频在线观看 | 天堂av综合网| 欧美国产视频| 亚洲色图综合在线| 91久久国产成人免费观看| 伊人天堂网| 国产三级韩国三级理| 亚洲国产成人综合精品2020 | 亚洲第一极品精品无码| 孕妇高潮太爽了在线观看免费| 国产91透明丝袜美腿在线| 中文字幕av无码不卡免费 | 亚洲不卡无码av中文字幕| 国产va免费精品| 五月丁香伊人啪啪手机免费观看| av在线无码浏览| 青青青国产免费线在| 欧美一级黄片一区2区| 亚洲中文字幕久久无码精品A| 国产爽歪歪免费视频在线观看| 免费激情网址| 亚洲精品第一页不卡| 中文字幕在线看视频一区二区三区| 亚洲日本www| 国模粉嫩小泬视频在线观看| 国产精品亚洲精品爽爽| 无码aⅴ精品一区二区三区| 视频在线观看一区二区| 美女一区二区在线观看| 国产永久无码观看在线| 在线观看国产精品日本不卡网| 伊人网址在线| 囯产av无码片毛片一级| 毛片a级毛片免费观看免下载| 国产精品部在线观看|