












摘要:病害檢測對提高大豆作物產(chǎn)量至關重要。針對傳統(tǒng)視覺法診斷大豆作物病害而導致病害識別效率和分類準確率不高的問題,提出一種基于局部描述符和視覺詞袋技術以數(shù)據(jù)表征大豆葉片圖像的分類算法,同時保留有關潛在疾病的視覺信息。采用SIFT、DSIFT、PHOW和SURF 4種算法對大豆葉片的霜霉病、銹病TAN和銹病RB進行分類識別。結果表明,局部描述符PHOW表現(xiàn)出最佳的分類識別結果,其正確分類率為96.25%。進一步研究PHOW在不同顏色空間下的大豆病害識別效果。結果表明,與灰度圖像相比,使用HSV、Opponent顏色空間可有效提升對大豆葉片病害檢測的正確分類率,其正確分類率分別可達99.83%和99.58%,驗證采用局部描述符和視覺詞袋技術識別大豆葉片病害方法的可行性和高效性,并為其他作物的病害識別提供一種通用的分類識別方法。
關鍵詞:大豆葉片;病害識別;局部描述符;視覺詞袋;顏色空間
中圖分類號:S435.651; TP391" " " 文獻標志碼:A" " " 文章編號:2095?5553 (2024) 08?0204?06
Identification of soybean leaf disease based on local features and visual bag of words model
Zheng Jinsong, Gu Haihong, Jiang Qinggang, Zhao Jingjie, Wang Xian, Han Zengguang
(Hebi Institute of Engineering and Technology, Henan Polytechnic University, Hebi, 458030, China)
Abstract: Disease detection is crucial for improving soybean crop yields. In response to the low efficiency and accuracy of disease recognition and classification caused by traditional visual diagnosis methods for soybean crop diseases, a classification algorithm based on local descriptors and visual bag?of?words techniques was proposed to represent soybean leaf images, while preserving visual information about potential diseases. Four algorithms such as" SIFT, DSIFT, PHOW, and SURF, were employed to classify and recognize soybean leaf diseases such as downy mildew, rust TAN, and rust RB. The results demonstrated that the local descriptor PHOW yielded the best classification and recognition results, with an accuracy rate of 96.25%. Further research on the recognition effects of PHOW in different color spaces revealed that, compared to grayscale images," the use of HSV and Opponent color spaces could effectively improve the correct classification rate of soybean leaf disease detection, reaching accuracy rates of 99.83% and 99.58% respectively. This validates the feasibility and efficiency of identifying soybean leaf diseases by using local descriptors and visual bag?of?words techniques , and provides a general classification and recognition method for the disease recognition of other crops.
Keywords: soybean leaf; disease identification; local descriptors; visual bag of words; color space
0 引言
大豆是我國重要的經(jīng)濟作物,而大豆葉片病害是造成作物減產(chǎn)的主要原因之一,因此,更精確地檢測豆葉片病害是早期減少經(jīng)濟損失、增加大豆產(chǎn)量和減少農(nóng)藥使用量的重要步驟[1]。目前農(nóng)藝種植人員通常通過肉眼觀察和經(jīng)驗判斷的方式對大豆病害進行分類識別,但該識別方式容易受農(nóng)藝種植人員主觀影響,識別不精確且效率低下,無法滿足農(nóng)業(yè)大規(guī)模生產(chǎn)的現(xiàn)實需求,且無法在早期掌握對大豆葉片病害的發(fā)展情況。此外,大豆葉片病害分類識別還可以使用基于化學反應的葉片疾病檢測技術,例如酶聯(lián)免疫吸附試驗方法和聚合酶鏈反應方法[2],此方法雖然病害分類識別精確但檢測成本昂貴且反饋效率較低。因此,目前對于早期大豆葉片病害的分類識別急需更加高效且廉價的檢測方法。
計算機視覺技術是大豆葉片病害分類識別的熱點研究方向,該方法主要采用計算機提取圖像特征或利用數(shù)據(jù)挖掘技術分析和診斷大豆葉片病害[3]。Gui等[4]提出了一種基于顯著區(qū)域和K均值聚類的大豆病害檢測方法。Shrivastava等[5]提出了一種基于形狀特征和k-Nearest鄰域分類的大豆病害分類識別方法。但上述研究對大豆病害的分類識別正確率較低,實際適用性較差,目前基于局部特征描述符和視覺詞袋技術的葉片病害分類識別文獻鮮有報道。
針對傳統(tǒng)視覺法診斷大豆作物病害而導致病害識別效率和分類準確率不高的問題,本文提出一種基于局部描述符和視覺詞袋技術的大豆葉片病害識別新方法。首先使用特征圖像算法SIFT[6?8]、DSIFT[9?11]、SURF[12?14]和PHOW[15?17]對采集的大豆葉片圖像進行檢測,并從提取的特征中,利用視覺詞袋模型計算出特征向量。出于病害分類目的,使用支持向量機(Support Vector Machine,SVM),將BOVW向量作為輸入,并采用經(jīng)典的十倍交叉驗證和度量正確分類率來評估大豆葉片病害識別和分類。探索一種不需要使用高光譜圖像的方案,以指導農(nóng)藝種植人員識別大豆葉片病害。
1 視覺詞袋模型
視覺詞袋模型(Bag of Vision Words,BOVW)是目前主流的圖像識別模型,該模型的原理是將局部特征描述子通過特征編碼技術進行編碼量化[18]。根據(jù)BOVW,從圖像中提取描述符以建立視覺詞典,給定視覺詞典將圖像的每個描述符分配給一個視覺詞,通過投票方式把特征量化到與其最近鄰的視覺詞典當中,視覺詞袋模型圖像處理原理如圖1所示。
1) 特征提取。如圖1(a)所示,對于圖像I,設置DI=[d1,…,dN]由N個描述符向量[di∈?M]組成,其中M是依賴于局部描述符方法的維數(shù)。通過檢測圖像的關鍵點或密集網(wǎng)格,可以從顯著區(qū)域提取N個向量描述符。
2) 詞匯構建。如圖1(b)所示,給定P個訓練圖像,用P個描述符構建集合D=[D1,…,DP],因此D包含來自所有訓練圖像的信息。為了構建視覺詞典,應用聚類算法對D進行分組,使得同一聚類中的描述符彼此之間的相似性高于其他聚類中的描述符。每個聚類通過質心的單個平均向量匯總圖像的相似區(qū)域。通過K?means最小化描述符之間的Euclidean距離將描述符集D劃分為k個組。因此,k個視覺單詞C=[c1,…,ck],[ci∈?M]構成視覺詞典。
3) 視覺單詞構建直方圖。給定圖像I,其描述符集DI=[d1,…,dN]和視覺詞匯C=[c1,…,ck],根據(jù)Euclidean距離將每個描述符[di∈DI]分配給其視覺詞最接近di的bin,最后用K個bin構建一個直方圖[UI∈NK],該步驟如圖1(c)所示。
2 局部描述符
本文在大豆葉片病害圖像的子區(qū)域中應用局部描述符,包括SURF、DSIFT、SIFT和PHOW,各算法提取的描述點如圖2所示,以期尋找葉片病害分類識別方案中最佳的局部描述符。
2.1 尺度不變特征變換
尺度不變特征變換(Scale Invariant Feature Transform,SIFT)是目前應用廣泛的局部描述符之一。該局部描述符具有光照不變性、尺度不變性、局部仿射不變性和局部抗遮擋的能力[19]。SIFT在多個尺度上檢測關鍵點,并為每個關鍵點提取一個局部描述符,具體可以分為以下3個步驟。
1) 關鍵點檢測與定位。關鍵點的檢測是在構建的一系列高斯差值(DoG)圖像上找到極值點,然后去除由DoG算子所產(chǎn)生的邊緣響應點和低對比度關鍵點。給定圖像I和高斯濾波器G,卷積圖像可以通過[L(x,y,σ)=I(x,y)?G(x,y,σ)]計算得出,其中,σ表示與尺度相關的標準差。
為了檢測圖像中的關鍵點,計算以常數(shù)k0分隔的連續(xù)高斯平滑圖像的差值
[D(x,y,σ)=L(x,y,k0σ)-L(x,y,σ)]" " " " " " " " "(1)
確定高斯差[D(x,y,σ)]的局部最大值和最小值。如果該點大于或小于鄰域,則將其作為關鍵點,并通過拒絕低對比度或邊緣位置不佳的點來細化關鍵點。
2) 關鍵點方向分配。為了使得到的算子具有旋轉不變性,首先為每個特征點計算出一個方向,然后利用關鍵點鄰域像素的梯度方向分布特性為其指定方向參數(shù),梯度和方向的計算如式(2)、式(3)所示。
[m(x,y)=L(x+1,y)-L(x-1,y)2+L(x,y+1)-L(x,y-1)212] (2)
[θ(x,y)=tan-1L(x+1,y)-L(x,y-1)L(x+1,y)-L(x-1,y)] (3)
根據(jù)鄰域梯度方向構建具有覆蓋360°方向的直方圖。添加到直方圖中的每個點都通過其梯度幅值進行加權。關鍵點的方向由該直方圖的峰值給出。
3) 關鍵點描述符的生成。前兩個步驟為關鍵點分配位置、尺度和方向,該步驟主要通過局部梯度直方圖構造的特征向量來描述關鍵點。在圖像上放置一個以關鍵點為中心的4×4網(wǎng)格,并統(tǒng)計8個方向上的梯度方向直方圖信息,然后統(tǒng)計每個梯度方向上的累加值。每個特征點形成一個4×4×8=128維的描述子,即[di∈?128],這樣生成具有獨特性的向量可以準確描述特征點。
2.2 密集尺度不變特征變換
密集尺度不變特征變換(Dense Scale Invariant Feature Transform,DSIFT)是在圖像的密集網(wǎng)格中提取SIFT描述符[20]。圖2(a)和圖2(b)顯示了將SIFT和DSIFT應用于大豆葉片的示例,其中SIFT首先需檢測并描述關鍵點,而DSIFT將每個像素作為關鍵點來描述,其優(yōu)勢在于不需要對圖像的關鍵點進行檢測,但計算過程較為復雜,計算時間和空間復雜度較高。
2.3 視覺詞金字塔直方圖
視覺詞金字塔直方圖(Pyramid Histograms of Visual Words,PHOW)是一種在多個尺度上應用DSIFT的變體算法。DSIFT使用網(wǎng)格上每個關鍵點周圍的固定區(qū)域提取描述符,而PHOW使用逐漸增大的正方形區(qū)域為一個關鍵點提取多個描述符,如圖2(c)所示。由于圖像尺度的多樣性,PHOW比DSIFT更好地描述并表征了不同尺度下的圖像。
2.4 加速魯棒特征
加速魯棒特征(Speeded-Up Robust Features,SURF)是一種基于SIFT局部描述符的改進算法,該算法由于使用積分圖像和近似值計算,因此SURF比SIFT更高效,該算法能在保持檢測提取性能的同時,大幅提高計算效率,但特征描述符需要的計算成本較高,算法計算過程具體可以分為以下3個步驟。
1) 關鍵點定位。給定像素(x,y)在圖像I中,Hessian矩H(x,y,σ)定義為
[H(x,y,σ)=Lxx(x,y,σ)Lxy(x,y,σ)Lxy(x,y,σ)Lyy(x,y,σ)] (4)
式中:[Lxx]([x,y,σ])——高斯二階導數(shù)在給定像素點I上的卷積。
Hessian矩陣的近似行列式表示位置(x,y)和尺度σ處的blob響應,blob響應越大,圖像中像素的重要性就越大。使用不同大小的正方形區(qū)域在多個尺度上計算blob響應,并應用非最大抑制法來定位關鍵點。
2) 方向分配。為了不受圖像旋轉的影響,SURF為每個關鍵點分配一個可重現(xiàn)的方向。在半徑為6 s的圓形鄰域內(nèi)沿x和y方向計算Haar小波響應,其中s是檢測SURF關鍵點尺度。將大小為[π/3]的滑動窗口內(nèi)的水平和垂直響應相加,形成每個窗口的局部方向向量,所有窗口中的最大向量即可定義關鍵點的方向。
3) 關鍵點描述符。關鍵點描述符是由一個以關鍵點為中心并沿關鍵點方向的大小為20 s的正方形區(qū)域。正方形區(qū)域分為4×4個子區(qū)域,對于每個子區(qū)域,計算向量
[v=dx,dx,dy,dy] (5)
式中:dx、dy——在5×5個規(guī)則間隔采樣點處計算x和y方向上的小波響應。
最后,通過連接16個子區(qū)域向量v中的每一個子區(qū)域向量來組成關鍵點描述符,從而形成具有64個值的單一向量。圖2(d)顯示了在大豆葉片中應用SURF算法的過程示例。
3 試驗設計與圖像采樣
3.1 試驗設計
試驗樣本在河南理工大學種植的大豆田采集,大豆田密度約為30萬株/hm2,試驗設計為4個重復的完全隨機區(qū)組,4個大豆田地塊之間至少相隔10 m,地塊區(qū)組之間修建了5 m寬的小梯田,以防止夏季通常發(fā)生的大雨而導致的含有細菌或肥料的表層徑流污染。
3.2 圖像采樣
在3個不同的生長階段,隨機采集大豆植株葉片,分別為:四葉期V4、五葉期V5和開花期R1。在不同的大豆植株生長階段,每個區(qū)組隨機采集9株大豆植株,用于評估葉片病害。在河南大部分種植大豆植株地區(qū),大豆銹病和霜霉病這兩類疾病較為嚴重。其中,大豆銹病根據(jù)顏色可分為兩類葉片組:黃棕色(RB)和棕褐色(TAN)。RB的大豆葉片病灶呈現(xiàn)黃棕色,而TAN呈棕褐色。與完全易感的TAN病變相比,RB病變類型被認為是抗性病變類型。
對大豆植株進行采樣后,子葉通過圖3步驟進行紋理樣本采集,主要步驟包括3部分:葉片掃描、紋理樣本拾取、紋理樣本集。使用HP Scanjet 1200型掃描儀,分辨率1 200 dpi,選擇樣本圖像中每種疾病的300幅圖像(霜霉菌、銹病RB和銹病 TAN),共900幅樣本圖像。從健康大豆植株中采集了另外300幅圖像。因此,大豆植株圖像數(shù)據(jù)集由1 200個樣本組成,共分為4類。
4 結果與分析
樣本數(shù)據(jù)集采用視覺詞袋和局部描述符特征融合,并采用10倍分層交叉驗證的支持向量機進行分類。在10倍分層交叉驗證中,將數(shù)據(jù)集的圖像劃分為10倍,確保每個類別中的比例相同。采用其中一個折疊進行測試,而剩余的折疊用于訓練支持向量機分類器,該過程重復10次,每次折疊1次,大豆病害識別結果如圖4所示。正確分類率(Correct Classification Rate,CCR)為10輪執(zhí)行的平均值。
4.1 局部描述符識別病害效果分析
圖5顯示了不同數(shù)量的k個視覺詞下各局部描述符的正確分類率。從圖5可以看出,以霜霉菌、銹病RB、銹病TAN和健康葉子作為分類識別目標的訓練模型中,SURF獲得了最多的錯誤分類實例,表現(xiàn)最差,其正確分類率CCR為68.1%,SIFT和DSIFT分類表現(xiàn)良好,CCR分別為88.3%和89.2%,而局部描述符PHOW的正確分類率最高,其CCR為95.1%,表現(xiàn)最佳。表1顯示了各局部描述符的最佳CCR及對應的視覺詞數(shù)量k。對于密集局部描述符,PHOW和DSIFT分別在k=3 500和2 000個視覺詞下提供了96.25%和80.02%的正確分類率。對于稀疏的局部描述符,SIFT和SURF分別在k=3 500和500個視覺詞下提供了93.66%和71.25%的正確分類率。此外,在相同的視覺詞下,PHOW相較SIFT的訓練和預測時間短且正確分類率更高。
為了直觀地顯示不同描述符的分類性能,繪制不同局部描述符下的混淆矩陣,如圖6所示。
由于銹病RB和銹病TAN在大部分時期圖像間的像素分布較為相似,因此在所有的局部描述符中,銹病RB和銹病TAN的分類較不準確,而對于霜霉病的分類更為準確。綜上所述,局部描述符PHOW的混淆矩陣獲得了最少的錯誤分類,表現(xiàn)最佳,其對大豆病害表現(xiàn)出良好的識別分類特征,尤其是對霜霉病和健康葉片。
4.2 顏色空間
4.1節(jié)分析了不同局部描述符下的正確分類率,得出PHOW局部描述符對大豆葉片病害分類的效果最佳,盡管與其他描述符相比具有優(yōu)勢,但PHOW錯誤地將13張銹病RB圖像歸類為銹病TAN,將21張銹病TAN圖像歸類為銹病RB。
為了改善PHOW局部描述符對大豆病害的表征,將顏色空間應用于PHOW算法。對于彩色圖像,將PHOW應用于顏色空間的每個通道,并將描述符連接起來以形成具有顏色信息的單個描述符,然后以相同的方式應用視覺詞袋。
圖7為不同數(shù)量的k個視覺詞下的PHOW用于RGB、HSV和Opponent顏色空間的結果。與原始的PHOW灰度圖像相比,三種PHOW顏色空間均提高了CCR。與PHOW-RGB相比,PHOW-HSV和PHOW-Opponent均顯示出較高的大豆葉片病害正確分類率,且二者差距不大。因此,HSV和Opponent顏色空間更適合表征顏色。
此外,圖7還表明,僅使用500個視覺詞下,PHOW-HSV提供了96.42%的CCR,這對于高效識別葉片病害至關重要。
表2顯示了PHOW應用于不同顏色空間的最佳CCR及對應的視覺詞數(shù)量。其中,PHOW-HSV獲得了99.83%的最佳性能,其次是PHOW-Opponent、PHOW-RGB和PHOW-Gray,分別為99.58%、98.75%和96.25%。此外,為了達到最佳的準確分類率,PHOW-HSV和PHOW-RGB使用了2 000個視覺詞,而PHOW-Gray則需要使用3 500詞才能達到最佳的準確分類率,因此證明了使用顏色空間可改善大豆葉片病害的表征。
圖8為PHOW用于不同顏色空間下的混淆矩陣。從圖8可以看出,三種PHOW顏色空間變體改善了大豆葉片病害的表征。PHOW-HSV和PHOW-Opponent分別只漏檢了2個銹病TAN和5個銹病RB樣本。
5 結論
大豆病害檢測是減少農(nóng)業(yè)經(jīng)濟損失和減少農(nóng)藥過量使用造成的環(huán)境污染的重要過程。針對這一需求,本文使用圖像局部描述符和視覺詞袋模型定義一種能夠以數(shù)據(jù)表征大豆葉片圖像的新方法,同時保留有關潛在疾病的視覺信息。
1) 針對大豆病害分類識別,比較不同局部描述符以及不同顏色空間對感染霜霉病、銹病TAN、銹病RB和健康葉片的正確分類率,結果表明,使用局部描述符和視覺詞袋模型對大豆病害進行分類識別是可行且高效的。其中,局部描述符PHOW表現(xiàn)出最好的分類識別結果,其次為SIFT和DSIFT。
2) 與灰度圖像相比,使用HSV、Opponent顏色空間可進一步提高大豆葉片病害的正確分類率,PHOW-HSV和PHOW-Opponent的正確分類率分別可達為99.83%和99.58%。本文所提出的使用局部描述符和視覺詞袋模型識別大豆葉片病害的方法具有通用性,該方法可用于其他作物的病害識別,如棉花或小麥等。此外,該方法未來可以與嵌入農(nóng)業(yè)機械或無人機中的掃描儀相結合,進一步提升農(nóng)藝種植人員對大豆病害的識別和分類效率。
參 考 文 獻
[ 1 ] 孫鵬, 陳桂芬, 曹麗英. 基于注意力卷積神經(jīng)網(wǎng)絡的大豆害蟲圖像識別[J]. 中國農(nóng)機化學報, 2020, 41(2): 171-176.
Sun Peng, Chen Guifen, Cao Liying. Image recognition of soybean pests based on attention convolutional neural network [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(2): 171-176.
[ 2 ] Saponari M, Manjunath K, Yokomi R K. Quantitative detection of Citrus tristeza virus in citrus and aphids by real?time reverse transcription?PCR (TaqMan) [J]. Journal of Virological Methods, 2008, 147(1): 43-53.
[ 3 ] 尚增強, 楊東福, 馬質璞. 基于深度卷積神經(jīng)網(wǎng)絡的大豆葉片多種病害分類識別[J]. 大豆科學, 2021, 40(5): 662-668.
Shang Zengqiang, Yang Dongfu, Ma Zhipu. Automatic identification of soybean leaf diseases based on UAV image and deep convolution neural network [J]. Soybean Science, 2021, 40(5): 662-668.
[ 4 ] Gui J, Hao L, Zhang Q, et al. A new method for soybean leaf disease detection based on modified salient regions [J]. International Journal of Multimedia and Ubiquitous Engineering, 2015, 10(6): 45-52.
[ 5 ] Shrivastava S, Hooda D S. Automatic brown spot and frog eye detection from the image captured in the field [J]. American Journal of Intelligent Systems, 2014, 4(4): 131-134.
[ 6 ] 高莎, 袁希平, 甘淑, 等. 集成SIFT算法與檢測模型優(yōu)化的UAV影像匹配方法[J]. 光譜學與光譜分析, 2022, 42(5): 1497-1503.
Gao Sha, Yuan Xiping, Gan Shu, et al. UAV image matching method integrating SIFT algorithm and detection model optimization [J]. Spectroscopy and Spectral Analysis, 2022, 42(5): 1497-1503.
[ 7 ] Liu Y, Yu D, Chen X, et al. TOP-SIFT: The selected SIFT descriptor based on dictionary learning [J]. The Visual Computer, 2019, 35: 667-677.
[ 8 ] Su D, Wu J, Cui Z, et al. CGCI-SIFT: A more efficient and compact representation of local descriptor [J]. Measurement Science Review, 2013, 13(3): 132-141.
[ 9 ] 劉穎, 倪天宇, 王富平, 等. 融合局部聚合描述符和全局特征的現(xiàn)勘圖像分類算法[J]. 科學技術與工程, 2020, 20(3): 1118-1124.
Liu Ying, Ni Tianyu, Wang Fuping, et al. Crime scene investigation image classification algorithm fusing VLAD and global features [J]. Science Technology and Engineering, 2020, 20(3): 1118-1124.
[10] Tu S, Xue Y, Zheng C, et al. Detection of passion fruits and maturity classification using Red?Green?Blue Depth images [J]. Biosystems Engineering, 2018, 175: 156-167.
[11] Cui Y, Chen A, Yang B, et al. Human visual perception?based multi?exposure fusion image quality assessment [J]. Symmetry, 2019, 11(12): 1494.
[12] Bay H, Ess A, Tuytelaars T, et al. Speeded?up robust features (SURF) [J]. Computer Vision amp; Image Understanding, 2008, 110(3): 346-359.
[13] Fernandez C I, Leblon B, Wang J, et al. Detecting infected cucumber plants with close?range multispectral imagery [J]. Remote Sensing, 2021, 13(15): 2948.
[14] Phan H, Ahmad A, Saraswat D. Identification of foliar disease regions on corn leaves using SLIC segmentation and deep learning under uniform background and field conditions [J]. IEEE Access, 2022, 10: 111985-111995.
[15] 翟玉婷, 遲衛(wèi), 金良安, 等. 采用塔式關鍵詞直方圖的艦船圖像實時分類檢測方法[J]. 科學技術與工程, 2017, 17(33): 131-135.
Zhuo Yuting, Chi Wei, Jin Liang’an, et al. Real?time detection method based on PHOW for ship images classification features [J]. Science Technology and Engineering, 2017, 17(33): 131-135.
[16] Mansourian L, Abdullah M T, Abdullah L N, et al. An effective fusion model for image retrieval [J]. Multimedia Tools and Applications, 2018, 77(13): 16131-16154.
[17] Banerji S, Sinha A, Liu C. New image descriptors based on color, texture, shape, and wavelets for object and scene image classification [J]. Neurocomputing, 2013, 117: 173-185.
[18] 劉靖. 基于局部聚合描述符的視點不變視覺位置識別[J]. 計算機工程與設計, 2020, 41(11): 3181-3187.
Liu Jing. View?invariant visual position recognition based on vector of locally aggregated descriptors [J]. Computer Engineering and Design, 2020, 41(11): 3181-3187.
[19] 姚藝, 黃衛(wèi)華, 章政, 等. 基于改進SIFT的無人機雙目目標識別與定位[J]. 組合機床與自動化加工技術, 2022(6): 49-53.
Yao Yi, Huang Weihua, Zhang Zheng, et al. UAV binocular vision target recognition and positioning based on improved SIFT algorithm [J]. Modular Machine Tool amp; Automatic Manufacturing Technique, 2022(6): 49-53.
[20] Liu Z Y, Wu H F, Huang J F. Application of neural networks to discriminate fungal infection levels in rice panicles using hyperspectral reflectance and principal components analysis [J]. Computers and Electronics in Agriculture, 2010, 72(2): 99-106.