朱路生 徐敏雅 王愛臣 張東鳳 錢偉豪 李川



摘要:
實時獲取成熟期谷物生長密度有助于減少聯合收割機喂入量檢測過程中存在的滯后性。為高效、實時地獲取谷物生長密度,提出基于改進DeepLabV3+語義分割模型的成熟期水稻生長密度實時檢測方法。在DeepLabV3+編碼器部分的卷積模塊后和主干網絡后加入Shuffle Attention模塊以減少語義損失。通過改進DeepLabV3+對水稻圖像進行語義分割并計算水稻像素在整張圖片中的占比,并與實際測得的水稻生長密度進行擬合建立模型得到水稻生長密度檢測模型。結果表明,單位面積下水稻像素比與水稻生長密度之間存在較強線性關系,決定系數R2為0.68,測試集的均方根誤差RMSE為0.46kg/m2,能實現田間水稻的密度檢測。
關鍵詞:圖像分割;水稻;密度檢測;DeepLabV3+
中圖分類號:TP391.4
文獻標識碼:A
文章編號:20955553 (2023) 12018608
Research on rice growth density detection at maturity stage based on improved DeepLabV3+
Zhu Lusheng1, Xu Minya1, Wang Aichen2, Zhang Dongfeng1, Qian Weihao2, Li Chuan2
(1. Jiangsu Vocational College of Agriculture and Forestry, Zhenjiang, 212400, China;
2. School of Agricultural Engineering, Jiangsu University, Zhenjiang, 212013, China)
Abstract:
Real-time acquisition of grain growth density is helpful to reduce the lag in the detection process of combine harvester feeding amount. In order to obtain grain growth density efficiently and in real time, this paper proposes a real-time detection method of rice growth density based on improved DeepLabV3+ semantic segmentation model. In order to reduce the influence of convolution on feature fusion in the decoder, this study adds the Shuffle Attention module after the convolution module of the encoder part and the backbone network, which reduces the semantic loss. By improving DeepLabV3+, the rice image is semantically segmented and the proportion of rice pixels in the whole image is calculated, and the rice growth density detection model is obtained by fitting with the actual measured rice growth density. The results showed that there was a strong linear relationship between rice pixel ratio and rice growth density per unit area, the determination coefficient R2 was 0.68, and the root mean square error RMSE of the test set was 0.46kg/m2, which could meet the needs of field rice growth density detection.
Keywords:
image segmentation; rice; density detection; DeepLabV3+
0 引言
谷物聯合收割機工作效率與其喂入量密切相關。聯合收割機在作業過程中,由于作業環境復雜、作物生長密度不均勻,使得聯合收割機的喂入量實時發生改變,聯合收割機各關鍵部件負載也隨之改變。當喂入量超過聯合收割機各關鍵部件的額定負載時,會使聯合收割機關鍵部件堵塞,甚至會導致聯合收割機出現故障無法繼續作業;當喂入量較低時,會降低聯合收割機的作業效率,造成收益損失。因此,實時監測聯合收割機的喂入量并進行實時調節,對保證聯合收割機的作業效率有重要意義。影響聯合收割機喂入量的因素有作業速度、割幅寬度、割茬高度和作物生長密度等,其中作物生長密度難以直接測量,也是影響聯合收割機喂入量的重要因素。眾多科研工作者直接將作物生長密度作為常量,輕視了作物生長密度對喂入量的影響[15]。實際上作物在生長過程中會受到諸多因素影響,長勢均勻的理想情況幾乎不存在。
目前,國內外學者關于喂入量的研究主要集中在通過收割機本身關鍵部件的扭矩、轉速或壓力來表征實時喂入量,且仍處于研究探索階段。李耀明等[6]設計了一種凹板篩后側油壓力采集系統,通過監測和分析油壓力來獲取當前喂入量;梁學修等[7]分析并建立了谷物籽粒流量、滾筒扭矩和轉速與喂入量的關系,通過融合多種參數來提高喂入量檢測精度。Flufy等[8]提出用過橋底板處作物厚度表征喂入量,在傾斜輸送器入口處安裝撓度傳感器測量作物厚度,試驗表明喂入量與作物厚度呈正相關;Littke等[9]結合特定聯合收割機機型,通過監測脫粒滾筒液壓對聯合收割機喂入量進行檢測,試驗表明液壓與喂入量呈正相關。上述喂入量檢測方法雖然可以測出實時的喂入量,但是存在較大的滯后性。為了解決這一問題,一些學者將研究重點放在水稻生長密度檢測上。劉海娟[10]、潘靜[11]等提出以2R+G為水稻生長密度特征分割水稻與地面,通過像素數量來預測喂入量;陳科尹等[12]提出一種改進的k-means聚類算法,實現了水稻冠層圖像分割,提高了特征像素提取精度;Saeys等[13]用激光雷達測試小麥密度,并提出了利用薄板樣條擬合來提高估算精度。上述研究一定程度上減少了實時喂入量檢測結果的滯后性,但是他們使用的算法缺乏魯棒性,容易受到環境和光照等外界因素的影響。
近年來,基于計算機視覺的語義分割方法受到了不同領域眾多學者的廣泛關注。慕濤陽等[14]通過在DeepLabV3+嵌入卷積注意力機制,提高網絡對水稻倒伏特征的提取精度;魏天翔等[15]將DeepLabV3+與ExG+Otus、Grabcut、SegNet和PSPNet對比發現DeepLabV3+對水稻有著較好的分割效果,可以很好地克服田間復雜環境的干擾。因此,本文擬用通道注意力和空間注意力機制結合的Shuffle Attention模塊對DeepLabV3+模型進行改進,來進一步提高網絡分割單位面積水稻像素的精準度,并通過研究葉面積指數(Leaf area index,LAI)與水稻像素比和水稻生長密度的關系,驗證采用水稻像素檢測水稻生長密度的可行性。最后通過建立水稻像素比與水稻生長密度之間的關系,實現成熟期水稻生長密度檢測。
1 材料與方法
1.1 試驗設備
圖像采集設備為Inter RealSense D435,是一款深度相機,主要包含1個RGB相機、2個紅外相機以及1個紅外發射器,本文主要用到其中的RGB相機,可以提供高分辨率圖像,像素為1 280×720。葉面積指數采集設備為SunScan植物冠狀分析儀,該儀器不受天氣影響,可在陰雨天氣使用,且具有較高的測量精度。
1.2 圖像及葉面積指數獲取
在晴朗天氣下上午9:30~11:00之間進行田間試驗。選取一塊水稻生長密度差別較大的稻田作為試驗田,從中選出80組1m×1m的方形區域進行數據采集,使用深度相機在每個采集區域的正上方1m處拍攝,來獲取水稻冠層信息,如圖1所示。使用SunScan采集單位面積內水稻上、中、下層的葉面積指數,如圖2所示。然后將數據采集完成的區域用鐮刀收割,保持割茬高度為10cm,最后稱量每1組水稻的質量,并與圖片、葉面積指數一一對應。上述80組數據采集完成后記錄并保存,留作后續密度監測模型使用。再額外采集200組水稻冠層圖像信息,用來制作DeepLabV3+語義分割模型的訓練集。
1.3 水稻特征圖像數據集構建
由于深度學習模型對訓練集數量有著一定要求,因此對已有的訓練集樣本進行了擴充[16],將200組訓練集擴充為800組,圖3為訓練集樣本擴充的處理方法,通過對圖像進行鏡像、旋轉和裁剪來實現數據集擴充。
本文按照9∶1的比例來劃分數據集中的訓練集和驗證集。
由于田間環境復雜很難用LabelImg軟件直接標注出水稻冠層信息,如圖4(a)所示,且標出來的圖片容易喪失很多細節部分,本文采用調節圖像HSV三通道系數的方法對圖像進行初步的閾值分割,其中H代表色度、S代表飽和度、V代表亮度。在HSV顏色空間中,陰影區域和非陰影區域有明顯區別[17],因此,采用調節HSV值濾除水稻背景可以減少水稻根部陰影的影響。
但是該方法受環境影響較大,并不能完全濾除背景,還需用Photoshop對圖像進行二次處理,擦除多余未濾除的背景,最后通過程序將處理好的二值圖像轉換成VOC數據集。
2 水稻特征提取模型的建立
2.1 DeepLabV3+模型
隨著神經網絡在圖像視頻處理領域的快速發展,深度學習技術在農業領域也得到了廣泛研究和應用。基于卷積神經網絡而構建的水稻生長密度檢測系統,在農業識別的視覺任務方面表現出巨大的優勢。DeepLab系列的算法已經發展到第四代:DeepLabV3+[18]。
DeepLabV3+網絡由編碼器(Encoder)和解碼器(Decoder)組成。在編碼器部分,圖像的輸入經過改進的Xception主干網絡[19]進行特征提取;通過不同膨脹率的空洞卷積模塊組對主干網絡輸出的語義信息進行二次提取,獲得深層語義特征信息;通過卷積模塊調整通道數后傳輸至解碼器中。
解碼器首先采用1×1的卷積來調整Xception主干網絡的輸出,使得其特征通道數與經過采樣后的深層語義特征信息在維度上保持一致,以方便二者進行特征融合;最后將融合后的特征圖經過3×3的卷積和上采樣模塊,最終實現對水稻圖像的分割。
2.2 模型改進
準確分割水稻圖像中的背景與作物有利于提高本文水稻生長密度檢測模型的精度。本文對DeepLabV3+的改進如圖5所示。
C1作為編碼器模塊的底層特征,包含豐富的語義信息,但為了與Xception主干網絡的輸出C2進行特征融合,采用了1×1的卷積來降低底層特征的通道數,計算效率得到提升,但通道數的減少會導致語義信息的嚴重損失。為了減少這種損失,Shuffle Attention[20]被引入。
在計算機視覺任務中,空間注意力機制采用池化等操作對特征圖像中空間位置的重要性進行建模,而通道注意力機制通過增強或者降低各個特征通道的權重系數來完成特征分配[21],雖然二者都在一定程度上提高了網絡對于水稻區域圖像的敏感程度,但都不可避免地增加了資源的消耗,不利于實際模型的應用。Shuffle Attention將輸入圖像特征X∈RH×W×C(H、W、C分別為特征圖像的空間高度、寬度、通道數)按通道維度劃分為多組。每一組中每個子特征沿著通道維度被分為兩個分支,如圖6所示,一個分支利用通道的相互關系來生成通道注意力圖,另一個分支通過特征空間關系來生成空間注意力;最后通過Channel shuffle算子來使得跨組信息能夠沿著通道維度流動。通過采用這種方式,結合網絡上下文的信息來減少1×1卷積帶來的語義損失[18]。
2.3 模型訓練
2.3.1 模型評價指標
本文利用均交并比(Mean Intersection over Union,MIoU)、平均像素精度(Mean Pixel Accuracy,MPA)、精度(Precision,P)和處理速度FPS(Frame Per Second)來評估模型的分割性能。
式中:
TP——真正例;
FP——假正例;
FN——假負例;
Pi——每個類別像素準確率;
N——類別數。
2.3.2 參數設置
選用處理器為8核i9-11900K、32G內存、主頻3.50GHz、NVIDIA GeForce RTX 3080Ti顯卡、12G顯存的小型深度學習工作站進行分割模型訓練。開發語言為python 3.9、開發環境為VS Code 1.76、采用Pytorch 1.10.0框架對本文分割模型進行搭建和參數調整。模型訓練時加載主干網絡Xception的預訓練模型權重,迭代次數Epoch設置為100次,批處理大小Batch Size設置為8,下采樣倍數為8,初始學習率為7×10-3,動量設置為0.9,并應用隨機梯度下降SGD(Stochastic Gradient Descent)優化器進行訓練。
2.4 試驗設計
使用訓練好的權重參數對80組試驗圖片進行語義分割,將圖像中的信息分割為兩類:水稻冠層信息和背景信息。計算出每一組試驗圖片中水稻冠層信息所占像素數量與圖片總像素數量的比例,將其作為單位面積內的水稻像素占比。使用MATLAB分析已有數據,分別對葉面積指數與水稻生長密度、水稻像素比與水稻生長密度、水稻像素比與葉面積指數進行擬合。選用統計量決定系數R2(0 3 結果與分析 3.1 水稻分割模型訓練結果 在網絡性能對比試驗中,選取改進的Xception作為主干網絡,對原始網絡和添加Shuffle Attention后的網絡進行算法有效性評估。由表1可知,改進后DeepLabV3+的精度P、平均像素精度MPA、均交并比MIoU的值分別以1.84%、2.05%、3.34%優于原始網絡的檢測結果。通過改進后DeepLabV3+調用攝像頭進行實時檢測,FPS比原始模型提高了3幀/s。為了能夠滿足田間實時性要求,通過TensorTR神經網絡加速器后,FPS可達25幀/s,滿足實際需求。 圖7為原始網絡和改進后DeepLabV3+模型對測試集樣本進行區域分割的結果。圖7(b)中,白色虛線左部和右下角白框部分均為原始模型將背景錯誤分割成水稻區域,而添加Shuffle Attention模塊后,通過采用特征分組模式,將所有分支的特征都沿著通道和空間生成注意力機制[3],這能夠較好地聚合上下文信息,增加了模型對于水稻像素區域的敏感程度,使得模型較好地完成了對于水稻圖像的分割任務。 3.2 葉面積指數與水稻生長密度之間的關系 葉面積指數在一定范圍內可以反映作物產量[22],作物產量會隨著葉面積指數的增大而提高。因此本文將試驗中獲取的80組數據的葉面積指數與水稻生長密度進行擬合,擬合結果如圖8~圖10所示。水稻上層、中層、下層葉面積指數與水稻生長密度的回歸方程分別為 y=1.84x+0.7 (R=0.68)(4) y=1.36x+0.34 (R=0.83)(5) y=1.22x-0.9 (R=0.82)(6) 可以看出水稻生長密度與葉面積指數存在一定的相關性,但與水稻上層葉面積指數的相關性較差,相關系數R只有0.68,導致該結果的可能原因是整株水稻的質量分布不均勻,水稻的局部特征不能反映整體。與下層和中層的葉面積指數相關性較好,可以達到0.83和0.82。 3.3 水稻像素占比與水稻生長密度之間的關系 本文從80組樣本數據中隨機挑選了60組數據用來做擬合曲線,其余20組數據用來驗證擬合效果,模型如圖11所示。水稻生長密度與水稻像素比的回歸方程為 y=6.27x-0.93(7) 可以看出水稻生長密度隨著單位面積水稻像素比的增加而增加,通過分析可以得到決定系數R2為0.68,測試集的均方根誤差RMSE為0.46kg/m2。造成預測誤差偏大的可能因素為試驗區域水稻有一定倒伏,導致實測像素值多于實際像素值;造成預測偏小的可能因素為試驗區域水稻長勢較矮,實測水稻生長密度高于預測水稻生長密度。 3.4 水稻像素占比與葉面積指數之間的關系 由3.2節分析可知,水稻上層葉面積指數與水稻生長密度相關性較差,因此,本小節僅研究水稻像素比與水稻中層葉面積指數和水稻下層葉面積指數之間的關系,擬合結果如圖12、圖13所示。 水稻中層、下層葉面積指數與水稻像素比的回歸方程分別為 y=3.64x-0.43 (R2=0.59,RMSE=0.36)(8) y=3.64x-0.43 (R2=0.51,RMSE=0.48)(9) 可以看出單位面積水稻像素比與單位面積內水稻葉面積指數呈現一定的相關性,與中層葉面積指數相關性較高,決定系數R2可達0.59,測試集的均方根誤差RMSE為0.36;與下層葉面積指數相關性要差一點,決定系數R2為0.51,測試集的均方根誤差RMSE為0.48。水稻像素比與下層葉面積指數相關性較差的原因可能是水稻下層葉片容易被上層葉片遮擋,相機實際拍攝的水稻下層葉面積比實際測得的水稻下層葉面積要少,因此,水稻像素比更適合預測水稻中層的葉面積指數,也側面驗證了通過水稻像素比來測量水稻生長密度的可行性。 4 結論 本文針對聯合收割機喂入量直接檢測法存在滯后性的問題,提出基于改進DeepLabV3+語義分割模型的成熟期水稻生長密度實時檢測方法。并根據分割出的水稻冠層像素數計算單位面積水稻像素比,建立其與水稻生長密度、葉面積指數間的回歸模型,實現了基于計算機視覺的田間成熟期水稻生長密度實時檢測。 1) 在DeepLabV3+編碼器部分的卷積模塊后和主干網絡后分別加入Shuffle Attention模塊以減少分割水稻像素時的語義損失,改進后的DeepLabV3+模型相比于原模型MPA和MIoU分別提高了2.05%和3.35%。 2) 成熟期水稻冠層中層和下層葉面積指數LAI與生長密度的相關性較強,相關系數分別為0.83和0.82,可以用于表征水稻生長密度;單位面積內水稻像素比與水稻生長密度之間存在較強回歸關系,決定系數R2為0.68,測試集的均方根誤差RMSE為0.46kg/m2;單位面積內水稻像素比與中層葉面積指數LAI回歸模型的決定系數R2為0.59,測試集的均方根誤差RMSE為0.36。通過計算機視覺結合改進DeepLabV3+模型可以用于成熟期水稻的生長密度檢測。 3) 在后續工作中,可進一步增強模型的魯棒性、適用性和處理深度。準備訓練數據集時采集不同光照、不同水稻(生物量、色澤等)的圖像,以及聯合收割機振動環境下的圖像,以提高模型的魯棒性;對改進DeepLabV3+模型進行模型量化和加速,減少模型參數、提高推理速度,并將其部署到嵌入式處理器中,使其真正服務于聯合收割機的喂入量預測。 參 考 文 獻 [1] 劉元元, 劉卉, 尹彥鑫, 等. 基于功率監測的聯合收割機喂入量預測方法[J]. 中國農業大學學報, 2017, 22(11): 157-163. Liu Yuanyuan, Liu Hui, Yin Yanxin, et al. Feeding assessment method for combine harvester based on power measurement [J]. Journal of China Agricultural University, 2017, 22(11): 157-163. [2] 盧文濤, 劉寶, 張東興, 等. 谷物聯合收獲機喂入量建模與試驗[J]. 農業機械學報, 2011, 42(S1): 82-85. Lu Wentao, Liu Bao, Zhang Dongxing, et al. Experiment and feed rate modeling for combine harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2011, 42(S1): 82-85. [3] 孫意凡, 劉仁杰, 歐顥, 等. 基于功率測量的聯合收獲機喂入量檢測方法研究[J]. 農業機械學報, 2020, 51(5): 118-123. Sun Yifan, Liu Renjie, Ou Hao, et al. Analysis and comparison of feed rate detection methods of combine harvester based on power detection [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 118-123. [4] 唐忠, 李耀明, 徐立章, 等. 切縱流聯合收獲機小麥喂入量預測的試驗研究[J]. 農業工程學報, 2012, 28(5): 26-31. Tang Zhong, Li Yaoming, Xu Lizhang, et al. Experimental study on wheat feed rate of tangential-axial combine harvester [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(5): 26-31. [5] 張振乾, 孫意凡, 劉仁杰, 等. 聯合收獲機喂入量監測系統設計與試驗[J]. 農業機械學報, 2019, 50(6): 85-92. Zhang Zhenqian, Sun Yifan, Liu Renjie, et al. Design and test of Feed rate monitoring system for combine harvester [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(6): 85-92. [6] 李耀明, 王建鵬, 徐立章, 等. 聯合收獲機脫粒滾筒凹板間隙調節裝置設計與試驗[J]. 農業機械學報, 2018, 49(8): 68-75. Li Yanming, Wang Jianpeng, Xu Lizhang, et al. Design and experiment on adjusting mechanism of concave clearance of combine harvester cylinder [J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(8): 68-75. [7] 梁學修, 陳志, 張小超, 等. 聯合收獲機喂入量在線監測系統設計與試驗[J]. 農業機械學報, 2013, 44(S2): 1-6. Liang Xuexiu, Chen Zhi, Zhang Xiaochao, et al. Design and experiment of On-line monitoring system for feed quantity of combine harvester [J]. Transactions of the Chinese Society of Agricultural Machinery, 2013, 44(S2): 1-6. [8] Flufy M J L, Stone G T. Speed control of a combine harvester to maintain a specific level of measured threshing grain loss [J]. Journal of Agricultural Engineering Research, 1983, 28(6): 537-543. [9] Littke J D, Mertins K H O, Burke D J, et al. Harvester feedrate control with tilt compensation [P]. Patents: CA2396321 A1, 2003-03-27. [10] 劉海娟, 邵陸壽, 朱建輝, 等. 基于圖像處理的水稻成熟期密度檢測[J]. 昆明理工大學學報(理工版), 2009, 34(2): 84-88. Liu Haijuan, Shao Lushou, Zhu Jianhui, et al. Detection of rice density during maturity based on image processing [J]. Journal of Kunming University of Science and Technology (Science and Technology), 2009, 34(2): 84-88. [11] 潘靜, 邵陸壽, 王軻. 水稻聯合收割機喂入密度檢測方法[J]. 農業工程學報, 2010, 26(8): 113-116. Pan Jing, Shao Lushou, Wang Ke. Detection method on feed density for rice combine [J]. Transactions of the Chinese Society of Agricultural Engineering, 2010, 26(8): 113-116. [12] 陳科尹, 吳崇友, 關卓懷, 等. 基于統計直方圖k-means聚類的水稻冠層圖像分割[J]. 江蘇農業學報, 2021, 37(6): 1425-1435. Chen Keyin, Wu Chongyou, Guan Zhuohuai,et al. Rice canopy image segmentation based on statistical histogram k-means clustering [J]. Jiangsu Journal of Agricultural Sciences, 2021, 37(6): 1425-1435. [13] Saeys W, Lenaerts B, Craessaerts G, et al. Estimation of the crop density of small grains using LiDAR sensors [J]. Biosystems Engineering, 2009, 102(1): 22-30. [14] 慕濤陽, 趙偉, 胡曉宇, 等. 基于改進的DeepLabV3+模型結合無人機遙感的水稻倒伏識別方法[J]. 中國農業大學學報, 2022, 27(2): 143-154. Mu Taoyang, Zhao Wei, Hu Xiaoyu, et al. Rice lodging recognition method based on UAV remote sensing combine with the improved DeepLabV3+ model [J]. Journal of China Agricultural University, 2022, 27(2): 143-154. [15] 魏天翔, 汪小旵, 施印炎, 等. 基于三維重建的秸稈地單株水稻生長形態檢測研究[J]. 南京農業大學學報, 2021, 44(6): 1197-1208. Wei Tianxiang, Wang Xiaochan, Shi Yinyan, et al. Detection of single rice early growth morphology based on 3D reconstruction under straw returning condition [J]. Journal of Nanjing Agricultural University, 2021, 44(6): 1197-1208. [16] 張遠琴, 肖德琴, 陳煥坤, 等. 基于改進Faster R-CNN的水稻稻穗檢測方法[J]. 農業機械學報, 2021, 52(8): 231-240. Zhang Yuanqin, Xiao Deqin, Chen Huankun, et al. Rice panicle detection method based on improved faster R-CNN [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(8): 231-240. [17] 周東, 李昀峰, 高妍, 等. 融合區域紋理梯度的船舶陰影視頻去除算法[J]. 北京郵電大學學報, 2017, 40(S1): 81-84, 97. Zhou Dong, Li Yunfeng, Gao Yan, et al. Ship shadow elimination algorithm based on HSV and texture of gradient amendment [J]. Journal of Beijing University of Posts and Telecommunications, 2017, 40(S1): 81-84, 97. [18] Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 801-818. [19] Chollet F. Xception: Deep learning with depthwise separable convolutions [C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 1251-1258. [20] Zhang Q L, Yang Y B. SA-Net: Shuffle attention for deep convolutional neural networks [C]. 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2021: 2235-2239. [21] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19. [22] Malone S, Herbert D A, Holshouser D L. Evaluation of the LAI-2000 plant canopy analyzer to estimate leaf area in manually defoliated soybean [J]. Agronomy Journal, 2002, 94(5): 1012-1019.