張 瀾,王 妮,朱冰雪,李 丹,謝巴圖,隋智鐘,陳圣波
(吉林大學 地球探測科學與技術學院,吉林 長春 130026)
農作物類別信息的準確獲取是農業現代化管理的基礎,同時也是農業生產過程中合理分配資源、精準施肥的重要依據[1],對于作物估產、調整農業生產和保證國家糧食安全具有重要意義。
近年來,低空無人機高分辨率成像技術因其空間分辨率高、操作簡單靈活、數據采集速度快、成本低等優勢而迅速在農作物信息識別領域得到廣泛應用[2-3]。目前,針對高分辨率影像的農作物識別分類方法主要分為基于像元和面向對象分類2種[4],傳統基于像元的作物分類法通常根據影像像元的光譜信息進行監督分類等,如最大似然法、最小距離法、馬氏距離法、神經網絡法、支持向量機法等。徐新剛等[5]基于QuickBird高分辨率影像,根據多尺度遙感影像處理原理,對四川綿陽試驗區內的冬小麥和油菜花進行分階段分類提取,其中在第二階段小尺度上采用最大似然法進行作物分類并統計其種植面積,最終結合地面抽樣調查信息適當修正分類結果,總體分類精度達95.3%。劉斌[2]基于無人機高分辨率影像的可見光波段信息,采用支持向量機法提取研究區內水稻、玉米、大豆、馬鈴薯、亞麻、小麥等作物信息,分類精度達76%,Kappa系數為0.73。然而,目前受到傳感器發展的限制,高分辨率影像雖然可以清晰表達地物詳細的空間信息,但包含的光譜信息通常較弱,因此,上述方法一般適用于作物種類少、目標與背景差異明顯的分類場景[6],在復雜農田環境下會因“同物異譜”現象[7]導致分類結果出現椒鹽碎斑和錯分現象。Conrad[8]和Vieira[9]等基于作物種植地塊單元的分類進行了研究,結果表明:作物分類的識別效果主要取決于地塊邊界的準確性,這為以面狀單元作為分類對象提供了參考依據。Luo等[10]基于Sentinel-1數據在Google Earth Engine上采用面向對象的方法對2個研究區域的大豆、玉米和水稻進行了分類,總體準確率達到90%以上,比基于像元分類的方法提高了約10%。田明璐等[11]基于無人機高分辨率多光譜影像,將面向對象的分類方法成功地應用于大白菜、花菜、卷心菜和青菜4種蔬菜地塊的分類。面向對象的分類方法能以面狀對象作為分類單元,通過綜合檢測和提取目標地物的光譜、空間、紋理等特征信息和鄰域對象間的關聯關系,并基于模糊分類原理對分割得到的同質對象進行了識別和歸類[12],因此,它能較好地提取作物地塊綜合信息、減少碎斑現象,已逐步成為作物分類的應用方法之一。然而,在目前的作物分類方法研究中,研究人員選用的作物種類通常較少(<10類),且大多針對蔬菜、玉米、水稻等作物,關于多類、多品種作物遙感分類的研究還較為稀缺。
本研究以吉林大學農業實驗基地作物圃為研究區,將該研究區內28種農作物(硬粒小麥、紫葉草、秋葵、棉花、毛豆、南瓜、胡蘿卜、豌豆、黃/黑豆、黃瓜、柿子、大麥、辣椒、地瓜、綠紅豆、茄子、三葉草、花生、小黑麥、交大34豆類、玉米、芝麻、蘇子、小麥9號、土豆、新燕9號、黑麥、燕麥)作為研究對象,利用搭載多光譜相機的無人機平臺獲取作物圃區域的高分辨率多光譜影像,據此開展基于像元和面向對象分類方法的無人機高分辨率多光譜影像的多作物分類研究,為作物精細分類、種植監測、農業精細化管理等提供有力支持。
研究區位于吉林省長春市吉林大學農業實驗基地(125°14′25.4″E,43°56′50.2″N),總面積約88081 m2,地處東北松遼平原腹地,屬于溫帶大陸性半濕潤季風氣候,四季分明,土地深厚肥沃,適合種植玉米、水稻、大豆、高粱、谷子、小麥、小雜糧、薯類等作物。
1.2.1 無人機影像數據的獲取與處理 無人機影像數據獲取時間為2020年8月19日,飛行平臺為大疆M210,搭載MS600Pro型多光譜相機作為多光譜遙感載荷,同步獲取6個通道光譜圖像數據,具體參數見表1。拍攝當天地面風速小于4級、天氣晴朗,滿足航攝要求。試驗設計飛行航高100 m,航向信息重疊度80%,旁向重疊度70%,影像空間分辨率為6.25 cm,使用Yunsense Map軟件完成無人機數據預處理,包括影像的配準定標和拼接處理等工作。

表1 MS600Pro多光譜成像儀波段參數
1.2.2 地面數據的獲取 航攝結束后,結合影像對研究區作物類型及其分布情況進行分析,獲得作物分布信息的真值。研究區內作物種類多且雜,多呈規則塊狀分布,從南到北四區作物分別屬于糧食類、菜類、豆類和雜類作物,具體類別如圖1所示。在影像上各類作物內部均勻選取感興趣區,并利用ArcGIS軟件中的隨機選點工具按4∶1的比例將其分為2個部分,其中80%的ROI作為模 型訓練樣本,20%作為驗證樣本。

圖1 研究區作物類別的分布情況
本文分別使用最小距離法、馬氏距離法、最大似然法、神經網絡法、支持向量機法5種基于像元的分類方法和面向對象的分類方法,分別建立了研究區內28類作物分類模型,對比不同分類方法下作物的分類效果及精度。
其中最小距離法依據未知類別像元到已知總體均值中心的距離進行分類,距離越小,劃分至該類的概率越大[13];馬氏距離法是一種方向敏感的距離分類器,依據未知像元到已知總體均值中心的馬氏距離來進行分類,馬氏距離可理解為一種修正后的歐氏距離,其值越小,劃分至該類的概率越大[13];最大似然法假定訓練樣本符合正態分布,通過均值和方差等統計特征建立判別函數集,計算待分類像元歸屬于每個已知總體的概率,進而將未知像元劃分至與之似然度最大的類別中[14];神經網絡遙感圖像分類采用了人工神經網絡技術的并行分布式知識處理手段,以遙感圖像為處理對象,建立基于ANN的遙感影像分類專家系統,進而模擬人腦神經系統對復雜信息的處理機制,對未知樣品進行判別歸類[15];支持向量機分類通過引入核函數來解算高維特征空間中的最優化問題,核心原理在于尋找線性最優分類超平面,使其兩側最接近平面的兩類樣品點群之間距離最大,進而保證各類像元樣本達到最佳可分狀態[16]。
本研究在ENVI 5.3軟件中利用以上5種監督分類方法進行作物分類,參數設置如表2所示。

表2 基于像元分類方法的參數設置
面向對象分類方法的核心在于運用模糊分類原理自動提取每個影像對象的各種屬性[16]。一般包括“分割”“分類”2個模塊,在分割階段,首先通過集合鄰近同質性較好的像元生成“同質”影像塊(稱之為“圖像對象”),再根據空間異質性原理合并這些影像塊,得到分類對象,并計算各個合并后對象的光譜、紋理、空間、結構等屬性信息[17]。以此作為分類依據,這個過程中分割方法和分割閾值的確定是決定分類效果的關鍵因素,常用的分割方法如基于邊緣檢測算法(Edge),通常只需輸入一個參數,就能通過不同尺度上的邊界差異控制,產生從細到粗的多尺度分割[18],其中輸入的分割閾值多通過目視預覽或評價指標確定;在分類階段,依據各對象綜合信息及影像總體特征,使用基于模糊知識判別、最鄰近算法、支持向量機法等對各個對象進行判別歸類。
本研究在ENVI 5.3軟件中選用基于樣本的面向對象分類法,對研究區無人機高分辨率影像中的作物進行分類。在分割階段選擇邊緣檢測算法(Edge),分割閾值設為53,分割后得到研究區影像上多個“同質”對象,而后選用Full Lambda Schedule算法合并,合并閾值為90,將具有相似光譜、紋理、幾何特征的影像塊合并為更加完整的對象;最后,使用最鄰近算法進行對象自動分類,閾值設置為5,臨近值設為1。
本研究通過對比研究區地表的真實情況與分類結果圖像,分別統計正確和錯誤劃分的像元個數及其比例,然后將具體分類情況顯示在混淆矩陣中,并計算分類總體精度、Kappa系數、各類作物用戶精度及生產者精度。其中,分類總體精度越接近100%,表明正確分類的像元個數占影像中所有像元個數的比例越大,分類精度越高[19];Kappa系數的范圍一般為[0,1],越接近1表明分類結果與真實類別間的一致性越高[20]。用戶精度和生產者精度用于評價特定類別的分類精度,其中用戶精度指分類模型正確劃分為某類的像元總數與整幅影像中被分為該類別的像元總數之比,在混淆矩陣中表現為對角線元素除以該類行總和,生產者精度指分類模型正確劃分為某類的像元總數與該類別真實參考像元總數之比,在混淆矩陣中表現為對角線元素除以該類列總和[21],兩者的值越接近100%,表明被正確歸類的未知像元樣品所占比例越大,分類精度越高[19]。
基于像元的監督分類結果如圖2~圖6所示,整體來看,其分類結果均存在較明顯的“椒鹽現象”,多數作物不成連續、完整塊狀,不同種類的作物出現了交織混雜的情況,不符合作物種植分布的實際情況。從分類結果評價可知(表3),5種基于像元的分類總體精度均低于90%,Kappa系數均低于0.9,其中最大似然法分類效果最好,總體精度為84.13%,Kappa系數為0.82。
在5種監督分類方法中,馬氏距離法、最大似然法、神經網絡法、支持向量機法分類總體精度均大于70%,Kappa系數均大于0.6,從分類結果的圖3~圖6、表3可知,硬粒小麥、小麥9號、新燕9號、小黑麥、大麥、黑麥、玉米等禾本科作物地塊完整連續、邊界較為清晰,分類效果較好;三葉草、紫葉草、芝麻、辣椒等草本作物分類結果中有明顯的錯分現象,部分與土壤混淆,黃/黑豆、綠/紅豆、交大34號、豌豆等幾種豆類作物混分、錯分現象比較嚴重,同一地塊中出現了多類作物碎斑。最小距離法分類的總體精度為52.3%,Kappa系數為0.45,存在大約50%的分類錯誤,從圖2中也可以看出其“椒鹽噪聲”最為嚴重,同一地塊中出現了嚴重的多類作物像元混雜現象,各類作物邊界均不清晰,分類效果很差。
各類作物用戶精度(User.Acc)和生產者精度(Prod.Acc)的對比可知(表4),最小距離法下各類作物的分類精度普遍偏低,多在50%以下;其余4種基于像元的監督分類結果中,麥子類、玉米類等禾本科作物的分類精度普遍較高,多在90%左右,紫葉草、三葉草、黃瓜、辣椒等草本作物以及土豆、毛豆、黃/黑豆、豌豆、交大34豆類等豆類作物分類精度普遍偏低,多在70%以下,與上述目視效果基本一致。

表3 面向像元分類方法對作物分類結果的精度評價結果
由面向對象分類結果可知(圖7),可見多數作物范圍連續、完整,形成邊界清晰的地塊或分布范圍。其中麥子類、玉米等禾本科作物地塊清晰完整,分類效果同樣較好;草本作物與土壤背景混淆的現象也有所改善,呈完整面狀、條壟狀或離散點狀分布,與實際種植情況基本一致;豌豆、黃/黑豆、綠/紅豆等豆類作物中,多數范圍更加連續完整,部分地塊有清晰邊界,但仍有部分地塊出現了較為嚴重的多類作物斑塊交織混雜的情況。經驗證,基于實例的面向對象分類總體精度達到91.73%,Kappa系數達0.87,表明分類結果與實際情況的一致性較好。

圖2 最小距離法分類結果

圖3 馬氏距離法分類結果

圖4 最大似然法分類結果

圖5 神經網絡法分類結果

圖6 支持向量機法分類結果

圖7 面向對象分類結果
由表4中各類作物用戶精度和生產者精度的對比可知,面向對象分類方法下多數作物的分類精度普遍較高,多在85%以上,但三葉草、棉花、秋葵、胡蘿卜的生產者精度較低,都在50%以下,交大34豆類的用戶精度較低,為43.67%。
與基于像元的作物分類結果相比,面向對象分類的整體精度提高了7~40個百分點,同時,由圖2~圖7可知,面向對象分類結果中“椒鹽現象”、多種作物混雜現象得到了改善,多數地塊內部一致性較好,呈完整連續面狀分布、邊界清晰,與真實情況更為接近。因此,根據總體精度及目視分類效果來看,面向對象分類方法在多類復雜作物分類場景下表現更好。這主要是由于面向對象分類法與傳統的基于像元分類方法相比,不再以單個像元為分類單元,而是集合鄰近像元為一個整體對象作為分類的基礎單元,同時,使用的分類信息或因子不再局限于光譜信息或植被指數,而是綜合考慮影像的光譜、紋理和空間分布等多種特征,因此能有效避免“椒鹽噪聲”“同譜異物”“同物異譜”等現象的影響[22]。
由表4可知,在6種方法分類結果對應的用戶精度和生產者精度對比中,17種作物(硬粒小麥、小麥、小黑麥、新燕9號、燕麥、黑麥、大麥、土豆、地瓜、毛豆、黃/黑豆、綠/紅豆、豌豆、黃瓜、花生、辣椒、柿子)的面向對象分類精度整體更高。分別對比分類用戶精度和生產者精度,發現24種作物(硬粒小麥、紫葉草、秋葵、棉花、毛豆、南瓜、胡蘿卜、豌豆、黃/黑豆、黃瓜、柿子、大麥、辣椒、地瓜、綠紅豆、三葉草、花生、小黑麥、芝麻、小麥9號、土豆、新燕9號、黑麥、燕麥)的面向對象分類用戶精度整體更高,25種作物(硬粒小麥、紫葉草、棉花、毛豆、南瓜、豌豆、黃/黑豆、黃瓜、柿子、大麥、辣椒、地瓜、綠紅豆、茄子、花生、小黑麥、交大34豆類、玉米、芝麻、蘇子、小麥9號、土豆、新燕9號、黑麥、燕麥)的面向對象分類生產者精度整體更高,這表明面向對象分類方法彌補了基于像元分類方法的部分缺陷,能夠較好地改善多數作物的分類效果,在該研究區作物分類場景下的表現整體優于基于像元分類方法。
通過對用戶精度的進一步對比,發現使用面向對象分類方法使辣椒、紫葉草、土豆、三葉草、胡蘿卜、棉花的用戶精度得到明顯大幅改善,與基于像元分類方法相比提高了30~70個百分點,辣椒的分類用戶精度由原來的30%左右提升到100%,紫葉草由原來的30%左右提升至93.75%,土豆由40%左右提升到89.31%,胡蘿卜提升到100%,棉花由70%左右提升到93.98%。
在這6類作物的生產者精度對比中,使用面向對象分類方法使辣椒、紫葉草、土豆的生產者精度也得到改善,與基于像元分類方法相比提高了10~70個百分點,辣椒的生產者精度由原來40%左右提升到64.86%,紫葉草由30%左右提升至68.18%,土豆由原來的50%左右提升到87.97%,但三葉草、胡蘿卜、棉花的生產者精度則比基于像元分類方法大幅下降,其中三葉草的生產者精度由原來的70%左右下降至26.63%,胡蘿卜由70%左右下降至11.49%,棉花由80%左右下降至46.99%。
分析影像特征發現,這6種作物均呈較稀疏的狀態,具體影像特征可見圖8,其中辣椒、紫葉草、土豆的種植生長密度要高于三葉草、胡蘿卜和棉花,因此推斷,本研究選定的分割方法及閾值能夠較好地分割開該尺度下影像中的前3類作物與土壤背景,從而有效改善它們的分類效果,因此用戶精度和生產者精度均提高;而針對后3種在影像中分布過于稀疏、細碎的作物種類,選用的分割方法和閾值無法將其與土壤背景分割開來,導致與真實情況不符,因此生產者精度反而大幅下降。針對這類作物,更適合使用像素光譜信息直接分類,以便更好地區分土壤和作物,使分類結果盡可能地準確。由此可見,面向對象分類方法可以改善本研究區中大部分作物的分類精度,但并不適用于過于細碎作物的分類場景。
根據表4作物分類用戶精度及生產者精度的縱向對比來看,同一分類方法對不同作物的分類精度也有所差異。
在基于像元的5種分類方法得到的精度縱向對比中,土豆、紫葉草、三葉草、棉花、秋葵、毛豆、黃/黑豆、豌豆、黃瓜、辣椒、交大34豆類的用戶精度和生產者精度整體偏低,多為40%~70%,說明基于像元分類方法可能并不適用于該生長期這些作物的分類場景;在面向對象分類精度的縱向對比中,紫葉草、三葉草、棉花、秋葵、胡蘿卜、交大34豆類作物的生產者精度較低,則是由于其分布過于細碎而難以分割開作物和土壤。

圖8 辣椒、紫葉草、土豆、三葉草、胡蘿卜、棉花的典型影像標識
綜合6種方法的分類精度來看,禾本科作物分類精度普遍較高,即2種分類方案均適用于禾本科作物分類場景,草本作物用戶精度、生產者精度差異較大,應根據作物的種植、生長情況具體分析,毛豆、黃/黑豆、豌豆、交大34等豆類作物生產者精度和用戶精度普遍偏低,在該類作物分類場景中,雖然面向對象分類方法較好地改善了地塊邊界模糊問題,但由于多種豆類作物的光譜、紋理、空間信息等比較相似,出現了較多的混雜情況,因此分類精度并沒有明顯提高。

表4 不同方法下作物分類用戶精度及生產者精度%

續表4:
本文基于多品種、多類作物的無人機高分辨率多光譜遙感影像,采用基于像元的分類方法和面向對象的分類方法對農作物進行分類,對比分析分類效果及精度探究較優分類方案。研究結果表明:面向對象分類方法在該分類場景中得到的作物地塊邊界比基于像元分類方法的結果更清晰,椒鹽碎斑減少,作物范圍更加連續完整,總體分類精度、多數作物的用戶精度和生產者精度都有所提高,更適合地物復雜的分類場景應用。但研究也發現,面向對象分類方法雖然可以改善多數作物的分類效果及精度,但在過于細碎作物分類場景中的表現要差于基于像元分類方法,因此在后續研究中,還應考慮將2種方法結合進行分類,以提高更多作物的分類效果。