














摘 要:稗草是稻田中一種典型的雜草,會嚴重影響水稻的生長發育,并最終導致減產。由于其外觀與水稻極其相似,難以區分,給治理帶來了極大的挑戰。基于室內環境下的稗草識別條件理想,難以推廣,因此,在復雜稻田環境下對稗草進行識別和制圖具有重要的研究價值和意義。首先,利用無人機載高光譜獲取低空稻田影像,經拼接校正和SG(Savitzky-Golay)卷積平滑濾波后,采用連續投影算法(SPA)對區分水稻和稗草的敏感波段進行提取,基于全波段和特征波段,使用支持向量機(SVM)、隨機森林(RF)、一維卷積神經網絡(1DCNN)和三維卷積神經網絡(3DCNN)進行建模。結果表明,SPA-3DCNN對水稻(0.942 0)和稗草(0.893 6)的識別效果最好。SPA選擇的7個特征波段(482.523 4 、546.541 5 、675.080 6 、709.138 2 、762.043 1 、922.015 7 和944.637 1 nm)對區分稗草和水稻具有重要的參考價值。隨后,將模型應用于整個高光譜數據集,生成稗草的空間分布圖與密度圖。本文成功探索了無人機載高光譜在復雜稻田環境下稗草識別的可行性,并繪制了稗草空間分布圖與密度圖,為稗草的治理防范提供了有力的數據支撐。
關鍵詞:稻田雜草識別;無人機;高光譜;空間分布;精準除草
中圖分類號:P237;S127;TP79 " " " " " " " " "文獻標志碼:ADOI:10.3969/j.issn.1007-7146.2024.04.006
Unmanned Aerial Vehicle Hyperspectral Imaging for Weeds Identification and Spatial Distribution in Paddy Fields
YAN Ziyi1, SHEN Yiyang1, TANG Wei2, ZHANG Yanchao1*, ZHOU Haozhe1
(1. School of Information Science and Engineering, Zhejiang Sci-Tech University, Zhejiang 310000, China; 2. State Key Laboratory of Rice Biology, China National Rice Research Institute, Zhejiang 311400, China)
Abstract: Barnyard grass is a typical weed in paddy fields that can severely affect the growth and development of rice, ultimately leading to reduced yields. Its appearance is very similar to that of rice, making it difficult to distinguish and posing significant challenges for management. Ideal conditions for barnyard grass identification are achievable in controlled indoor settings but are difficult to replicate in practical applications. For this reason, identifying and mapping barnyard grass in complex paddy field environments holds significant research value and importance. First, hyperspectral images of the paddy fields were captured using UAVs. After image stitching, rectification, and SG (Savitzky-Golay) convolution filtering, a sequential projection algorithm (SPA) was employed to extract sensitive bands for distinguishing rice from barnyard grass. Modeling was performed across the entire spectral range and selected feature bands, employing support vector machines (SVM), random forests (RF), one-dimensional convolutional neural networks (1DCNN), and three-dimensional convolutional neural networks (3DCNN). The results indicated that SPA-3DCNN achieved the best recognition performance for rice (0.942 0) and barnyard grass (0.893 6). The seven feature bands selected by SPA (482.523 4, 546.541 5, 675.080 6, 709.138 2, 762.043 1, 922.015 7, and 944.637 1 nm) were valuable for distinguishing barnyard grass from rice. Subsequently, the model was applied to the entire hyperspectral dataset to generate spatial distribution and density maps of barnyard grass. This study successfully explored the feasibility of UAV-based hyperspectral identification of barnyard grass in complex paddy field environments, providing strong data support for the management and prevention of barnyard grass.
Key words: identification of weeds in rice fields; unmanned aerial vehicle; hyperspectral; space distribution; precision weeding
(Acta Laser Biology Sinica, 2024, 33(4): 335-346)
雜草是農業生產活動中典型的危害之一,對作物的生長有極大的負面影響。隨著人口的增長和新冠肺炎疫情的影響,糧食的作用變得越來越突出。水稻(Oryza sativa L.)是全球主要的食物來源,其產量在保障全球糧食安全中發揮了關鍵作用。稻田中的雜草是影響水稻生長與生產的主要因素之一,必須采取有效措施予以處理。目前主要的除草方法包括人工、機械和化學除草。化學除草具有經濟性和高效性等特點,是目前大多數農業地區主要的除草方式。然而,除草劑的不當使用可能會給人類健康、環境和生態系統帶來潛在的風險。采用精準施藥是解決這一問題的有效途徑[1]。這項技術旨在確保除草劑被精確地應用于目標區域,從而減少對非靶標生物的影響,降低環境污染,提高農業生產的可持續性。
要實現精準施藥,首先需要準確識別作物和雜草。近年來,機器視覺技術廣泛應用于農業當中,在雜草檢測、營養診斷和病害監測等領域發揮著重要作用[2]。RGB(red-green-blue)相機因其低成本和實用性強等特點在雜草檢測中被普遍使用[3]。然而,這種方法的有效性受限于雜草與作物的形態和色彩差異。擬態較強的雜草[如稗草(Echinochloa crusgalli(L.)P. Beauv)]外觀和顏色與水稻相似,RGB相機區分困難。此外,RGB相機只有3個波段,提供的光譜信息有限,難以通過光譜方法識別水稻和稗草之間的差異。為了提升作物與雜草區分的準確性,多光譜與高光譜成像技術已被應用于植物學領域[4]。利用植物在不同波長下的反射光譜差異,結合機器學習算法,實現對植物的精確識別和分類。Fletcher等[5]使用隨機森林(random forest,RF)分類器結合多光譜反射數據區分3種大豆和2種雜草,大豆和雜草的分類準確率在93.8%到100.0%之間,Kappa系數值在0.93到0.97之間。Zhang等[6]采集了總共287個水稻、野生稻和稗草樣本的高光譜數據,使用了連續投影算法(successive projections algorithm,SPA)的6個光譜特征(415、561、687、705、735、1 007 nm)分析發現,水稻、稗草和野生稻的識別總體準確率為0.97。
實現對雜草的有效準確識別后,一個關鍵問題是確定雜草的空間位置。無人機技術的發展使雜草的測繪變得可能[7]。無人機能夠高效地在農田上進行圖像采集,彌補人力的局限,顯著提升作業效率。搭載高光譜或多光譜傳感器可以捕獲更全面的光譜信息,增強雜草與作物之間的光譜差異,提高雜草識別的準確性和穩定性。Gao等[8]利用高分辨率無人機圖像結合Hough變換檢測行間雜草,采用基于對象的圖像分析(object-based image analysis,OBIA)和RF生成行內雜草的二值圖像,總體準確率為0.945,Kappa值為0.912。Che’Ya等[9]利用線性判別式分析(linear discriminant analysis,LDA)從地面采集的高光譜數據中選擇5個特征波段制作多光譜,并將其安裝在無人機上,以區分高粱和馬齒莧等5種雜草,取得了良好的分類準確性。Su等[10]開發了一種基于無人機搭載多光譜成像的雜草檢測系統,并繪制了小麥田中黑草的分布圖,結果顯示,其平均精度、召回率和精確度值分別為93.8%、93.8%和93.0%。大部分的無人機雜草制圖研究都是基于無人機多光譜設備所攜帶的波段有限這一條件。相比之下,無人機高光譜設備具有豐富的光譜信息,在雜草制圖方面具有巨大的應用前景。
目前,大多數稗草的識別研究都在實驗室環境中進行。試驗條件理想,導致研究成果在實際應用場景中推廣受限。稻田全覆蓋式除草劑噴灑依舊是主要的除草方式。相較之下,基于低空遙感稻田環境下的稗草識別更貼近實際生產情況,雜草空間分布圖的制作有利于指導精準施藥,且此類研究較少。本研究利用無人機載高光譜系統收集低空稻田遙感影像,利用光譜分析以及特征提取技術,結合機器學習算法實現對稗草的有效識別,節約人力物力資源;同時,繪制稗草空間分布圖與密度圖,為精準施藥提供指導,減少藥劑浪費,并減輕對水稻和環境的污染,實現農業生產的可持續性發展。
1 材料與方法
1.1 試驗區概況
試驗區域位于浙江省杭州市富陽中國水稻研究所(東經119°55′,北緯30°4′),地處浙江省西北部,富春江下游,屬于亞熱帶季風氣候,四季分明,夏季氣候炎熱多雨,冬季溫和少雨;全年降水量充足,生長期年平均為250 d,無霜期年平均為318 d,最長349 d,最短275 d,年平均日照時數1 510 h,主要的土壤類型為水稻土。良好的地理位置和氣候條件為水稻的生長提供了優越的環境,同時也是稗草的高發地。水稻一年通常可以種植兩次,分別是春季和秋季。春稻收割結束后對試驗區土壤翻耕,人工播種水稻(秀水121)。播種后僅在初期對稗草進行噴藥處理,再未進行人工干預。灌漿期時,稻田內作物生長良好,雜草叢生,主要的雜草類型為稗草,圖1為試驗區水稻和稗草的地面影像。
1.2 數據采集與預處理
1.2.1 儀器設備和采集方法
本研究所使用無人機為大疆(中國)研發的M600 PRO六軸飛行器,如圖2a 所示。其采用模塊化設計,可靠性極強,使用便捷,配備有全球導航衛星系統和慣性測量單元,結合A3 Pro飛控實現自主巡航起降。軸長為1 668 mm,最大載重高達6 kg,滿載(6 kg)時懸停時間約16 min。搭載由五菱光學研發的雙機位推掃視光譜成像系統,能夠同時采集高光譜和RGB圖像。高光譜相機擁有300個波段,光譜范圍為429.542 9~1 020.727 2 nm,光譜分辨率為2.2 nm,空間分辨率為0.021 4 m。圖2b為硬件輔助設備:實時動態載波相位差分技術(real-time kinematic,RTK)基站(精度為0.05 m)為飛行提供精準定位;6塊黑白反射率板的反射率分別為10%、20%、30%、40%、50%、60%。
飛行前檢查設備連接,預先在稻田中放置控制點。電腦端使用制造商提供的軟件進行校準,高光譜相機無遮擋地對準反射率板,觀察實時圖傳屏幕,將像元亮度值調整至3 000左右,防止圖像過曝。使用安裝在Ipad上的 DIJ GSPro 規劃飛行任務。為了獲得更高的空間分辨率,將飛行高度調整至最低(30 m)。飛行空域設定為120 m×100 m的矩形區域,航向重疊率調整為80%,以平衡相機傳感器像素缺失造成的噪聲增加特征點的冗余度,從而增強圖像的拼接效果。完成設置后,Ipad屏幕飛行速度顯示為1.2 m/s。
1.2.2 高光譜數據預處理
無人機高光譜成像系統采集到的數據由高光譜影像和RGB圖像組成。數據導出后使用Pix4d軟件中的運動結構恢復算法,將RGB圖像拼接成完整的正射影像,用作后續高光譜圖像拼接的底圖[11]。隨后采用橫滾角的方式對高光譜條帶在飛行過程中由于風力造成的扭曲進行校正,并在Arcgis Pro上進行控制點的配準;基于遙感圖像處理平臺(the environment for visualizing images,ENVI)無縫鑲嵌方法獲得完整的高光譜影像,最后進行輻射校正,將像元亮度值轉化為反射率。
由于稻田環境下的水稻與稗草交織叢生,基于感興趣區域(region of interest,ROI)的樣本選擇方式不可避免會取到混合樣本。為了提升每類樣本的多樣性,本研究利用隨機采樣的方法獲取樣本。將高光譜圖像導入Arcgismap10.8版本中,以間隔30 cm的方式在圖上隨機采樣1 000個點。結合實地考察和人工解譯,扣除掉難以辨別的204個樣本,共獲796個樣本(表1),其中包含水稻、稗草、成熟稗草和背景。如圖3所示,所有類型的樣本均散開在試驗區域中,保證了樣本間的差異,有利于模型泛化能力的提升。
2 結果與分析
2.1 光譜處理
無人機高光譜數據有上百個波段,在獲取過程中,由于環境和設備等原因,波段間存在噪聲,表現為鋸齒狀,難以反映地物的實際反射率,因此,高光譜數據的平滑和濾波尤為重要。SG(Savitzky-Golay)濾波方法是一種基于時間域局部多項式最小二乘擬合的信號處理技術[12],其主要目的是對信號進行平滑處理,以消除噪聲的影響。該方法通過在每個滑動窗口內對信號進行多項式擬合,然后用擬合曲線的值替代原始信號中心點的值,從而實現信號的平滑處理。擬合過程中通常采用最小二乘法來找到最佳擬合多項式的系數。相較于傳統的移動平均方法,SG濾波方法在保留信號特征方面更具優勢,尤其適用于信號中存在較多尖峰或快速變化的情況。如圖4a 所示,在429.542 9~789.616 1 nm的波長區間內,原始光譜曲線表現出較平穩的反射率特性,該波段范圍內的光譜信號具有良好的連續性和穩定性。789.616 1~1 020.727 2 nm的波長區間的反射率曲線出現了明顯的鋸齒狀波動,使得水稻和稗草樣本的光譜混淆,區分困難。通過SG卷積平滑濾波處理后,429.542 9~789.616 1 nm波段范圍內的光譜響應與原始光譜響應保持了較好的一致性,且789.616 1~1 020.727 2 nm波段區間的鋸齒狀光譜曲線得到了有效的平滑處理。基于原始光譜與平滑后的光譜計算信噪比為28.07,去噪效果良好。
圖4b 展示了3種植物樣本(水稻、稗草和成熟稗草)的平均光譜反射率及其相應的最大值和最小值。429.542 9~1 020.727 2 nm的波長范圍內,水稻和稗草的光譜響應與典型的植被光譜曲線相符[13]。由于葉綠素的光合作用特性,成熟稗草在429.542 9~717.501 2 nm波長處的反射率與其他兩類樣本不同[14]。藍光區域(約444.995 5 nm)和紅光區域(約670.838 5 nm)存在兩個吸收谷。綠光對藍光和紅光的補償作用在555.371 6 nm處形成了一個反射峰。紅邊區域672.959 5~779.011 4 nm的波長范圍內,水稻和稗草的反射率急劇上升。可見光范圍內,成熟稗草與其他兩種樣本的光譜差異最為顯著,而水稻和稗草之間的差異相對較小。近紅外波段中3種樣本的光譜響應差異不大。水稻和稗草之間的光譜差異主要集中在近紅外波段。
2.2 特征篩選
遙感高光譜圖像中的大量光譜波段為特征信息提取提供了極其豐富的資源,有助于進行更精細的分類,然而,波段的增加也導致了信息的冗余以及數據處理復雜性的增加[15]。在本研究中并不是所有波段都對水稻和稗草之間的差異敏感。按照一定判別標準提取出特征波段,一方面能夠保留有效區分水稻與稗草的主要特征,提高數據的處理速度,減少模型的復雜度;另一方面,所篩選出的特征波段能夠為制備低成本的稗草識別多光譜相機提供指導。SPA是一種用于特征選擇的算法[16],特別適用于光譜數據的處理。它的目標是從原始的高維特征集中選擇出最具信息的特征子集,以提高模型性能或簡化模型。
基于均方根誤差(root mean square error,RMSE)最小化原則,本研究選擇了7個重要光譜特征(482.523 4、546.541 5、675.080 6、709.138 2、762.043 1、922.015 7和944.637 1 nm)做為識別水稻與雜草的最佳組合(圖5)。所選的特征波段涵蓋可見光波段的藍色(482.523 4 nm)、綠色(546.541 5 nm)、紅色(675.080 6、709.138 2、762.043 1 nm)和近紅外(922.015 7、944.637 1 nm)區域。紅光和近紅外波段在物種分類中的重要性已得到廣泛認可[17],超過一半的選定特征來自紅邊區域,表明該區域在量化植物特征中具有重要作用。
通過波段組合方式可視化樣本的分布能夠反映各類地物在特征波段上的差異,初步判斷所篩選的特征波段對區分地物的有效性。以482.523 4 nm波段為基礎,與其他波段組合獲得樣本分布圖。如圖6所示:在近紅外區域,水稻與稗草類分布較為集中,該光譜范圍內可分性較差;隨著波長的增加,各類樣本點的分離程度也隨之增大,其中在紅邊區域762.043 1 nm最為明顯;紅外區域中,各類樣本表現出較高的分離程度。總體來看,通過SPA篩選的特征波段可以區分3類地物,但是水稻與稗草以及稗草類間仍然存在部分重疊,需要采用分類方法進一步探究。
2.3 建模與分析
2.3.1 分類模型
本研究采用4種分類方法[支持向量機(support vector machine,SVM)、RF、一維卷積神經網絡(one-dimensional convolutional neural networks,1DCNN)和三維卷積神經網絡(three-dimensional convolutional neural networks,3DCNN)]利用全波段和特征波段進行建模對比,探究基于光譜特征下傳統機器學習(SVM和RF)和深度學習(1DCNN)在本次研究下的性能差異,并分析空譜特征結合的3DCNN深度學習方式的優勢。
SVM是一種監督學習算法,主要用于分類和回歸任務。在分類問題中,SVM的目標是找到一個超平面,將不同類別的數據分隔開。SVM的關鍵思想是找到能夠最大化間隔的超平面,即離超平面最近的數據點到超平面的距離最大。
RF是一種集成學習方法。它建立在決策樹的基礎上,通過集成多個決策樹來提高整體模型的性能和魯棒性,常用于處理復雜的、高維度的數據集,在許多機器學習問題中表現出色。
1DCNN是卷積神經網絡中的一種,用于處理一維數據。由于其輸入數據是一維特征向量,因此,在高光譜圖像分類任務中僅使用光譜特征進行分類,無法利用高光譜圖像的空間特征。如圖7a 所示,1DCNN模型的設置包括2個卷積層和2個全連接層,采用Relu激活函數。
3DCNN主要用于三維數據的處理[18]。在高光譜圖像處理中,使用3 d卷積能夠同時提取光譜特征和空間特征。本研究的3DCNN模型如圖7b 所示,由4個卷積層組成,其中每2個卷積層包含1個最大池化下采樣層,最后通過全連接層進行輸出。
2.3.2 訓練與分析
SVM和RF采用網格搜索選取最佳參數;1DCNN和3DCNN均采用Rdam優化器,Batch_size設置為32,1DCNN模型的學習率為0.01,3DCNN的學習率為0.001。為防止過擬合,兩種卷積神經網絡都采用Droupout層,隨機失活率為0.5。所有模型的實現均基于python(pytorch框架)。
全波段的建模結果如表2所示。根據分類結果,3DCNN的Kappa系數最高(0.863 3),其次是SVM(0.828 8),最后是1DCNN(0.808 6)和RF(0.798 7)。所有分類器對水稻的識別率均較高,最高達到0.942 0(3DCNN)。與水稻相比,稗草總體識別率較低,其中3DCNN(0.872 3)和1DCNN(0.816 3)的識別率高于SVM(0.787 2)和RF(0.787 2)。RF對成熟稗草的識別率最低(0.714 2)。背景類的識別率最高。總體而言,4個分類器都成功區分了水稻和稗草,基于卷積神經網絡的3DCNN和1DCNN的識別效果更好,特別是3DCNN;SVM在處理高維非線性數據方面的優勢得到了體現;RF對稗草類別的識別能力較弱。
卷積神經網絡模型的訓練過程如圖8所示。1DCNN模型結構小,輸入的是一維光譜數據,收斂速度較快。SPA-1DCNN約在80個epoch處達到穩定,此時的1DCNN模型已學習到足夠的特征,而Full-1DCNN在100個epoch附近穩定,相比之下,全波段訓練結果并沒有明顯差異。3DCNN輸入的是立體高光譜數據,訓練過程中進行了多次特征提取。SPA-3DCNN約在1 400個epoch處收斂,Full-3DCNN約在1 300個epoch左右;相較于前者,SPA-3DCNN達到穩定所用的時間略長,但也保持了較高的精度;另一方面也反映了充足的數據量使得模型能夠學習到更多的特征,利于收斂。
模型參數不變,采用特征波長建模。結果如表3所示,與全整波段相比,基于特征波長建模的分類指標均得到提升。3DCNN的提高最明顯,總體準確率提高了0.025 0,平均準確率提高了0.040 0,Kappa系數提高了0.037 1。無論是采用全波段還是特征波段建模,水稻的識別率依舊保持在較高水平。值得注意的是,所有分類器的稗草識別率都得到了提升,提高了約1到4個百分點,其中3DCNN的準確率最高,達到了0.893 6。成熟稗草識別率的提升最為明顯,兩種卷積網絡算法均超過了0.900 0,SVM的識別率最高為0.952 3,RF提高了近5個百分點。背景類別的識別率穩定在較高水平。全整波段包含大量的相關信息,減慢了模型的處理速度并影響了分類的準確性。合理的特征選擇可以減少數據冗余并突出分類目標特征。試驗結果表明,SPA所選擇的特征在減少輸入數據維度、提高識別準確性方面是有效的。
測試集的混淆矩陣展示了樣本在分類過程中更加詳細的信息,通過顏色標度來表示不同分類器的正確識別率,顏色越深表示正確識別的個數越多。如圖9所示,所有模型中,RF和1DCNN表現出最高的錯分情況,然后是SVM和3DCNN,主要錯誤來源于水稻和稗草之間的區分,前3個分類器的錯分數均為14個(錯分率約12%),兩者間仍存在難以區分的相似特征。區分稗草類時,所有模型的錯誤情況均較低,表明生理活動、形態和顏色等特征差異有助于同類別的區分。背景類別是最易于區分的,3DCNN對該類別的錯分率為0,而RF、SVM和1DCNN的錯分率均小于10%。
2.4 雜草制圖
雜草空間分布圖是田間精細化管理的基礎,用于指導做出初步農情研判。將全局高光譜影像輸入分類模型獲得雜草空間分布圖。通過對比不同模型所繪制雜草空間分布圖的方式評估分類器的性能。如圖10所示,基于光譜特征分類的SVM、RF和1DCNN 3個分類器在分布圖中均出現了噪聲,其中RF和SVM較為明顯。RF和1DCNN在稻田上邊緣和地面交界處錯分較多。相比之下,無論是在處理噪聲還是捕捉邊緣細節方面,基于聯合空間-光譜特征的3DCNN在雜草分布圖上均優于其他模型。此外,從圖10中可觀察到,SVM分類器在分類小區域時會出現錯誤,如在下角的小徑上覆蓋的成熟稗草大多數被錯分類為稗草。總而言之,4種類型的分類器都成功繪制出了雜草分布圖。3DCNN分類器在處理噪聲、保留邊緣細節和獲得更高的整體準確性方面表現更佳。
基于雜草空間分布圖,通過圖像二值化的方式提取稗草像素,突出目標輪廓,更加直觀地展示稗草的分布情況,如圖11所示。對于區塊化管理的農業,準確獲取雜草覆蓋密度或病害侵擾程度可直接為防治與精準作業提供有力的信息支持。根據實際需求設定不同大小的窗口,對二值圖像切塊處理,統計每個小塊稗草像素的占比,賦予1到5的密度等級,制成稗草密度分布圖。如圖12所示,通過不同顏色表示的密度等級可有效指導除草分級作業,實現更加綠色的現代化農業管理方式。
3 討論
本文基于無人機載高光譜系統結合機器學習的方法,探究了在復雜稻田環境下遙感高光譜影像識別稗草的可行性。主要結論如下:SG卷積平滑濾波可有效去除光譜噪聲,增強水稻與稗草光譜差異性;SPA提取的特征波段能初步區分水稻與稗草類,結合4類分類算法依然可保持較高的識別率,實現數據降維,并為稗草識別的多光譜設備制作提供依據;基于光譜特征分類的RF、SVM和1DCNN效果相近,SPA-3DCNN識別能力最佳,對地物識別的總體準確率為0.931 2;空譜特征聯合的方式有利于更精細的分類,然而訓練過程復雜,可解釋性較差;所有分類器均成功繪制了雜草空間分布圖,基于二值圖像生成的稗草密度圖能為精準作業提供有力的數據支撐。
本研究在前人的基礎上實現了野外復雜條件下的稗草識別,并以空間分布圖和密度圖的形式呈現做為應用指導,與實際生產作業緊密相連,然而也存在局限。首先,獲取的樣本為冠層光譜數據,實際上,由于競爭關系,葉面下仍存在較小的水稻或稗草植株,且陰影部分存在的植株因無法分辨而未進行標記,因此所得的準確度與真實情況下有所偏差。此外,試驗時間為水稻的灌漿期,水稻與稗草冠層繼續生長的可能性很小,對模型泛化能力要求較弱,然而,相較于跨周期的雜草檢測模型,仍需補充各時期數據等手段以期提高模型的泛化能力。
綜上所述,本文基于無人機載高光譜與機器學習實現了復雜稻田環境下稗草的識別與制圖。未來的研究將通過多角度數據獲取或結合其他傳感器(如雷達等)提高樣本標記能力;通過采集不同周期作物數據以提高訓練樣本的多樣性,并探索遷移學習等方法,探明提升模型穩定性和泛化能力的路徑,實現跨生育周期的雜草識別;將植物生理數據融合到研究中,設計、提供更有效的雜草管理策略,減少對化學農藥的依賴,提高農業的可持續性和環境友好性,為未來農業的發展奠定堅實基礎。
參考文獻 (References):
[1] 鄧巍, 陳立平, 張瑞瑞, 等. 無人機精準施藥關鍵技術綜述[J]. 農業工程, 2020(4): 1-10.
DENG Wei, CHEN Liping, ZHANG Ruirui, et al. Review on key technologies for UAV precision agro-chemical application[J]. Agricultural Engineering, 2020(4): 1-10.
[2] SMITH M L, SMITH L N, HANSEN M F. The quiet revolution in machine vision- a state-of-the-art survey paper, including historical review, perspectives, and future directions[J]. Computers in Industry, 2021, 130: 103472.
[3] MISHRA A M, HARNAL S, GAUTAM V, et al. Weed density estimation in soya bean crop using deep convolutional neural networks in smart agriculture[J]. Journal of Plant Diseases Protection, 2022, 129(3): 593-604.
[4] LU B, DAO P D, LIU J, et al. Recent advances of hyperspectral imaging technology and applications in agriculture[J]. Remote Sensing, 2020, 12(16): 2659.
[5] FLETCHER R S, REDDY K N. Random forest and leaf multispectral reflectance data to differentiate three soybean varieties from two pigweeds [J]. Computers Electronics in Agriculture, 2016, 128: 199-206.
[6] ZHANG Y, GAO J, CEN H, et al. Automated spectral feature extraction from hyperspectral images to differentiate weedy rice and barnyard grass from a rice crop[J]. Computers Electronics in Agriculture, 2019, 159: 42-49.
[7] 蘭玉彬, 鄧小玲. 無人機農業遙感在農作物病蟲草害診斷應用研究進展[J]. 智慧農業, 2019, 1(2): 1.
LAN Yubin, DENG Xiaoling. Research progress on the application of UAV agricultural remote sensing in the diagnosis of crop diseases, insect pests and weeds[J]. Smart agriculture, 2019, 1(2): 1.
[8] GAO J, LIAO W, NUYTTENS D, et al. Fusion of pixel and object-based features for weed mapping using unmanned aerial vehicle imagery[J]. International Journal of Applied Earth Observation Geoinformation, 2018, 67: 43-53.
[9] CHE’YA N N, DUNWOODY E, GUPTA M. Assessment of weed classification using hyperspectral reflectance and optimal multispectral UAV imagery[J]. Agronomy, 2021, 11(7): 1435.
[10] SU J, YI D, COOMBES M, et al. Spectral analysis and mapping of blackgrass weed by leveraging machine learning and UAV multispectral imagery[J]. Computers Electronics in Agriculture, 2022, 192: 106621.
[11] 江滔, 馬泳, 黃珺, 等. 基于賦權連接圖的增量式運動恢復結構算法[J]. 應用光學, 2022, 43(5): 921-928, 1014.
JIANG Tao, MA Yong, HUNAG Jun, et al. Incremental structure from motion algorithm based on weighted scene graph[J]. Journal of Applied Optics, 2022, 43(5): 921-928, 1014.
[12] PRESS W H, TEUKOLSKY S A. Savitzky-Golay smoothing filters[J]. Computers in Physics, 1990, 4(6): 669-672.
[13] LYU X, LI X, DANG D, et al. A new method for grassland degradation monitoring by vegetation species composition using hyperspectral remote sensing[J]. Ecological Indicators, 2020, 114: 106310.
[14] 劉偉東, 項月琴, 鄭蘭芬, 等. 高光譜數據與水稻葉面積指數及葉綠素密度的相關分析 [J]. 遙感學報, 2000(4): 279-283.
LIU Weidong, XIANG Yueqing, ZHENG Lanfen, et al. Relationships between rice LAI, CH·D and hyperspectra data[J]. Journal of Remote Sensing, 2000(4): 279-283.
[15] 鄧小玲, 曾國亮, 朱梓豪, 等. 基于無人機高光譜遙感的柑橘患病植株分類與特征波段提取[J]. 華南農業大學學報, 2020, 41(6): 100-108.
DENG Xiaoling, ZENG Guoliang, ZHU Zihao, et al. Classification and feature band extraction of diseased citrus plants based on UAV hyperspectral remote sensing[J]. Journal of South China Agricultural University, 2020, 41(6): 100-108.
[16] 成忠, 張立慶, 劉赫揚, 等. 連續投影算法及其在小麥近紅外光譜波長選擇中的應用[J]. 光譜學與光譜分析, 2010(4): 949-952.
CHENG Zhong, ZHANG Liqing, LIU Heyang, et al. Continuous projection algorithm and its application in wavelength selection of wheat near-infrared spectrum[J]. Spectroscopy and Spectral Analysis, 2010(4): 949-952.
[17] 韓月, 柯櫻海, 王展鵬, 等. 資源一號02D衛星高光譜數據黃河三角洲濕地景觀分類 [J]. 遙感學報, 2023, 27(6): 1387-1399.
HAN Yue, KE Yinghai, WANG Zhanpeng, et al. Classification of the Yellow River Delta wetland landscape based on ZY-1 02D hyperspectral imagery[J]. National Remote Sensing Bulletin, 2023, 27(6): 1387-1399.
[18] 張明華, 牛玉瑩, 杜艷玲, 等. 基于殘差 3DCNN和三維 Gabor濾波器的高光譜圖像分類[J]. 圖學學報, 2021, 42(5): 729.
ZHANG Minghua, NIU Yuying, DU Yanling, et al. Hyperspectral image classification based on residual 3DCNN and 3D Gabor filter[J]. Journal of Graphics, 2021, 42(5): 729.
收稿日期:2024-02-22;修回日期:2024-03-28。
基金項目:國家自然科學基金項目(61905219);浙江省三農九方科技協作計劃項目(2024SNJF071);農業部水稻產業體系項目(CARS-01);國家重點研發計劃項目(2023YFD1401100)。
作者簡介:顏子一,碩士研究生。
* 通信作者:張艷超,副教授,主要從事遙感領域研究工作。 E-mail: yczhang@zstu.edu.cn。