嚴薇,唐樂,彭佳元,劉文祥,張振乾*
(1 湖南農業大學農學院,湖南 長沙 410128; 2 湖南省農業信息與工程研究所,湖南 長沙 410125)
當前,我國食用油自給率不足35%[1],而油菜是我國第一大油料作物,其安全生產對確保我國食用油安全有十分重要的作用[2]。制約我國油菜產業發展的關鍵因素是栽培技術水平較低、田間管理成本高等導致種植戶的效益較差[3-4]。
無人機遙感在農業資源、災情、生態環境等方面的監測應用廣泛[5-7],具有成本較低、數據采集不受時間和頻率的限制等優點[8],在油菜研究中也有較多應用。張建等[9]利用無人機從多個角度獲取油菜終花期的可見光圖像,發現飛行高度為40 m時,油菜生物量估算精度最佳,且種植密度較高時,預測生物量的效果較好。趙必權等[10]認為利用苗期油菜目標數量與形態特征的內在關聯能有效識別油菜機械直播的出苗數。同時,利用無人機可以幫助農業管理人員快速、有效地完成大規模油菜作物的長勢監測任務[11-12]。何元[13]研究了不同施肥水平和種植密度下油菜苗期和角果期的冠層光譜,利用基于Matlab開發的農作物數字圖像分析系統CMS提取冠層圖像的顏色特征。朱紅艷[14]基于優選植被指數和優選特征波長等多種數據挖掘算法和機器學習算法,建立了穩健的油菜花數目、油菜氮素、葉面積指數和產量的遙感定量模型。當前,基于無人機光譜對油菜開展的相關研究大都集中在苗期和角果期,而越冬期的相關報道較少。而越冬期油菜體內積累有機養分較多,呼吸作用消耗養分少,是積累糖分較多的一個時期[15],且葉片光合作用較旺盛,生長較好[16],因此監測越冬期油菜長勢能為次年產量、品質等預測提供基礎數據。
本研究利用無人機獲取可見光光譜范圍內不同種類油菜越冬期冠層光譜數據,探索不同類型油菜越冬期生長發育狀況實時定量監測方法,以有效降低田間管理及數據調查的人工投入等生產成本。
試驗地點位于湖南省長沙市芙蓉區湖南農業大學耘園基地(113°09′E,28°19′N),每個小區5行,株行距30 cm×30 cm,隨機選取其中60個不同品種油菜的小區(栽培密度相同)為圖像數據采集區。
1.2.1 無人機圖像獲取
選擇晴朗無風的天氣進行數據采集。于2021年11月19日12:00—14:00,利用湖南大智無疆智能科技有限公司的大疆悟2無人機(最大飛行速度為94 km/h,最大飛行時間25 min,最快采集速度100 ms)搭載高清相機(2 080萬像素,最高可錄制5.2 K視頻),通過遙控進行油菜地俯視拍照,無人機飛行高度為40 m。
1.2.2 油菜葉片 SPAD值測定方法
每個小區選取中等長勢油菜5株,利用美國生產的SPAD-502型手持式葉綠素儀測量頂部功能葉片上、中、下3個葉位點SPAD值,并計算平均值作為該小區油菜SPAD值。從60個小區中采用3∶1劃分數據集,隨機抽取45個作為建模集,15個作為驗證集。
1.3.1 無人機影像預處理方法
本研究利用Matlab 2020a圖像處理系統軟件進行圖像分析[13]。在 RGB模型中,如果R=G=B(R、G、B分別為可見光紅色、綠色、藍色通道的值),則彩色表示一種灰度顏色,其中R=G=B的值叫灰度值[17],灰度范圍為0~255[18]。利用Matlab 2020a軟件對圖像進行灰度化處理,最后得到各個小區圖像的R、G和B值。
1.3.2 圖像顏色特征選擇
本研究選擇了與R、G和B值較相關的24個顏色指數用于無人機圖像數據分析,包括可見光大氣阻抗植被指數[VARI,VARI=(G-R)/(G+R-B)][17]、歸一化差分指數[NDI,NDI=(G-R)/(G+R)][19]和超綠植被指數(ExG,ExG=2G-R-B)[19]等。圖像顏色特征如表1。
1.3.3 數據分析
篩選與油菜SPAD值相關性顯著的顏色特征,建立基于無人機的油菜葉片葉綠素反演模型,取不同小區油菜圖像數據與SPAD值,代入模型進行驗證,以確定模型準確度。

表1 圖像顏色特征編號表
基于60個樣本的SPAD 值及優選出的圖像顏色特征,分別采用BP神經網絡(back propagation neural network,BPNN)、多元逐步回歸 (multiple stepwise regression,MSR)、多元線性回歸(multivariable linear regression,MLR)等方法構建油菜葉片SPAD值反演模型。本研究選用決定系數(coefficient of determination,R2)、均方根誤差(Root Mean Squared Error,RMSE)和相對分析誤差(the ratio of prediction to deviation,RPD)綜合評價油菜SPAD值反演模型精度,模型的R2越接近1,相應的RMSE數值越小,RPD越大,則模型估算能力越好[20]。
60個油菜樣本SPAD值為29.44~43.03,平均值為37.16,標準差為3.26,中間值為37.22。45個建模集的SPAD值為29.44~43.03,平均值為36.70,標準差為3.31,中間值為36.63。15個驗證集SPAD值為33.66~43.03,平均值為38.54,標準差為2.77,中間值為40.82。可見,試驗區域不同種類油菜葉片SPAD值有差異。建模集和驗證集與全部樣本描述統計結果相似,試驗樣本具有代表性。
采用SPSS軟件進行無人機圖像顏色特征和葉綠素含量的相關性分析,篩選油菜無人機圖像顏色與油菜葉綠素相關性顯著(P<0.05)特征的數據(表2)。B、G/R、G/B、G/(R+B)、(G-R)/B、(G-B)/R、(G-R)/(G+R)、(G-B)/(G+B)、(G-R)/(R+G+B)和(G-B)/(R+G+B)等10個顏色特征與SPAD值相關性較強,可用于建立SPAD模型。

表2 油菜葉片顏色特征與SPAD值相關性分析
基于45個建模樣本,以選取的10個顏色特征指數為自變量,SPAD值為因變量,分別采用多元逐步回歸、多元線性回歸、BP 神經網絡構建SPAD值定量反演模型。由表3可看出,3種建模方法建立的油菜SPAD值反演模型的計算精度不同。其中BP神經網絡模型建模精度決定系數R2為0.461,均方根誤差RMSE為2.147,驗證精度決定系數R2為0.367,均方根誤差RMSE為2.012,相對分析誤差為1.642。與多元線性和多元逐步回歸模型相比,BP神經網絡模型的R2最大,更接近1,RMSE數值最小,RPD值最大,因而該模型建模精度較高。利用建模集和驗證集SPAD估測值與實測值數據對進行驗證,并繪制實測值與估測值的關系圖(圖1、圖2)。由圖1、圖2可知,SPAD估測值與實測值較接近,二者間趨勢基本一致,說明該模型的穩定性較好,預測準確度較高。這與崔小濤[21]基于BP神經網絡建立模型的研究結果一致。

表3 油菜SPAD反演模型

圖1 BP神經網絡建模集SPAD估測值與實測值擬合結果Fig.1 BP neural network fitting results of modeling set SPAD estimated values and actual measured values

圖2 BP神經網絡驗證集SPAD估測值與實測值擬合結果Fig.2 BP neural network fitting results of the estimated and measured values of SPAD for the validation set
本研究中,SPAD值與B顏色特征呈顯著負相關,與其他顏色特征呈顯著正相關,這與紀偉帥等[22]研究結果不同,可能與物種和地域不同有關。BP神經網絡模型相較于多元逐步回歸模型和多元線性回歸模型精度更高、更穩定,與前人研究一致[23-25]。越冬期是油菜生長的關鍵時期,楊婧[26]發現該時期油菜葉片光譜在綠光區域的反射率增加,藍光和紅光范圍吸收谷面積增大,圖像顏色能較好地預測葉綠素含量。魏青等[27]利用無人機多光譜影像監測越冬期小麥葉綠素含量,得到的回歸模型可檢測葉片SPAD值變化。目前基于無人機研究越冬期油菜的相關報道較少,本研究對越冬期油菜SPAD值、葉綠素含量及可見光光譜進行綜合分析,并建立了可靠的監測模型,有助于更全面、便捷地了解油菜田間生長情況。
目前,油菜葉片SPAD值定量建模反演還沒有統一的標準模型。本研究是針對湖南地區油菜葉片SPAD值的建模反演研究,雖然實測樣本數量及模型精度有待進一步提高,但得到的模型仍能有效地反映油菜田間生長情況,表明該方法可用于油菜田間管理,因而在后續研究中將進一步加大樣本量及采用不同地區種植的油菜,以提高監測模型的準確度和適應性。
本研究發現SPAD值與B顏色特征呈顯著負相關,與其他顏色特征呈顯著正相關。基于相關性分析選取了與油菜葉片SPAD值顯著相關的B、G/R、G/B、G/(R+B)、(G-R)/B、(G-B)/R、(G-R)/(G+R)、(G-B)/(G+B)、(G-R)/(R+G+B)和(G-B)/(R+G+B)等10個顏色特征,分別采用BP神經網絡、多元逐步回歸、多元線性回歸等方法構建油菜葉片SPAD反演模型,其中BP神經網絡(BPNN)建模R2最高,RMSE最低,RPD最大,模型精度最佳,為本研究中的最佳分析方法。