














doi:10.15889/j.issn.1002-1302.2024.20.024
摘要:隨著深度學習在圖像識別領域的廣泛應用,目標檢測算法已取得顯著進展。然而,在農業病害檢測特別是馬鈴薯葉病害檢測方面,仍面臨諸多挑戰,如自然光影響和數據不平衡問題等。為此,提出一種改進YOLOX的馬鈴薯葉病害檢測方法。首先以輕量化MobileNet v3網絡作為骨干替換原有的CSPDarkNet53網絡,以提高模型在特征提取上的效率,同時減少計算量。其次引入V通道網絡,增加模型對復雜光照環境的適應性,更精確地捕獲紋理信息。最后設計一種自適應的交叉熵損失函數,以解決樣本不平衡的問題,確保模型的魯棒性和準確性。在公開數據集PlantVillage上進行試驗驗證,結果表明,改進模型平均準確率、浮點運算次數、內存和FPS分別為98.55%、14.63×109次、49.35 MB、125.92幀/s。相比原始YOLOX模型,平均準確率和單幀識別速度分別提高4.38百分點、36.65%;浮點運算次數和內存分別降低43.23%、34.33%。此外,與不同模型對比試驗以及嵌入式平臺上的試驗結果均表明,本研究提出的改進YOLOX模型在準確率、計算效率和速度方面均具有明顯的優勢,為農作物葉片病害檢測提供了一種有效的解決方案。
關鍵詞:馬鈴薯病害檢測;YOLOX;MobileNetv3;V通道網絡;交叉熵損失
中圖分類號:S126;TP391.41" 文獻標志碼:A
文章編號:1002-1302(2024)20-0199-10
收稿日期:2023-10-06
基金項目:國家自然科學基金(編號:62002330)。
作者簡介:張凱萍(1983—),女,河南許昌人,碩士,副教授,研究方向為機器學習、目標檢測。E-mail:zhangkp1983@163.com。
通信作者:李國霞,教授,主要從事農業信息技術、計算機視覺研究。E-mail:zhangkp1983@163.com。
馬鈴薯是全球最重要的糧食作物之一,年產量近3億t,為全球超過十億人口提供穩定的食物來源[1]。除了其在食品產業的核心地位,馬鈴薯在多個工業領域也有廣泛應用[2]。然而,該農作物頻繁地受到各種病害的侵襲,尤其是葉片病害,如晚疫病和早疫病。這些病害不僅可以影響植物的莖、根和果實,還可能嚴重損害作物的質量和產量。晚疫病和早疫病等疾病在早期階段對于種植者來說常常難以識別[3]。因此,及時和準確地診斷葉片病害對于減緩經濟損失至關重要。
傳統的病害診斷方法主要依賴農民的經驗和觀察,這在準確性和可靠性上有局限。先進的診斷技術如光譜儀[4]和聚合酶鏈式反應[5]雖提高了診斷精度,但高成本和操作復雜性限制了其廣泛應用。近年來,深度學習和卷積神經網絡(CNN)的發展為農業病害檢測帶來了技術革命,并被證明是一種高效的作物病害識別方法[6-8]。例如,Khan等成功地運用VGGNet-16和AlexNet分離出感染區域并提取病害特征,實現了高達98.6%的識別準確率[9];Liu等設計了一種創新的特征提取結構,并通過引入密集連接策略顯著提高了葡萄葉病害的識別準確性[10]。然而,大多數研究仍專注于單一類型的病害識別,限制了其在實際應用中的廣泛性。
近年來,目標檢測算法因能同時識別和定位多種病害而受到關注[11-13]。目標檢測算法主要可分為兩大類:第1類是基于候選框的雙階段目標檢測算法,如R-CNN、Fast R-CNN和Faster R-CNN[14-16]。這些算法首先從圖像中提取候選區域,然后進行二次精細化,從而實現高精度的目標檢測。如Khalifa等專門為馬鈴薯的早疫病和晚疫病設計了一種優化的Faster-CNN模型[17];Zhang等成功地應用改進的Faster-CNN模型來診斷番茄的多種病害[18]。雖然這些算法在病害檢測精度上表現出色,卻因其復雜的計算結構,難以在移動平臺上實現實時應用。第2類是單階段目標檢測算法,這類算法更加注重檢測速度,如YOLO系列和SSD[19-22],如趙越等成功地采用YOLO v3模型實現了馬鈴薯葉病害的準確診斷[23];Rashid等則利用YOLO v5開發了一種多級檢測模型,并構建了一個全新的病害檢測數據集[24]。Liu等的研究也展示了單階段目標檢測算法在多種植物病害診斷中的有效性,這些算法更適合用于資源有限的設備[25-27]。
盡管現有目標檢測算法在準確性方面取得了顯著進展,但在植物葉病害檢測領域,仍然存在3個未解決的關鍵問題。(1)大多數算法過分側重于特定數據集上的高準確性,卻常常忽略了模型在資源有限的硬件平臺上的實用性,這就產生了一個實際問題:如何在不犧牲準確性的前提下,優化模型以適應硬件限制;(2)現有研究往往未能充分考慮到自然環境下復雜的光照條件,這些變化容易引起色彩偏移,從而影響模型的檢測準確性;(3)雖有理論突破,但嵌入式設備上的應用幾乎是空白的,需驗證其實用性和可行性。這些問題不僅是理論上的關注點,也影響農業實踐的效率和準確性。
為解決以上問題,實現更精確和高效的馬鈴薯葉片病害檢測,本研究基于YOLOX架構設計一種實時馬鈴薯葉片病害檢測模型。使用MobileNet v3作為模型的骨干網絡,以減輕計算負擔和內存需求,保證模型不僅在高性能計算環境中有效,同時也適用于資源受限的設備。為使模型在不同光照條件下都能保持較高的準確率,設計一個V通道定位網絡,生成一組與YOLOX模型預測層尺度相匹配的特征圖,以便更準確地捕捉由光照引發的紋理和顏色變化,提高模型對光照變化的魯棒性。針對樣本不平衡問題,提出一種自適應的懲罰系數,加快模型的收斂速度,進一步提升馬鈴薯葉片病害檢測的性能。最后將所提方法部署在嵌入式設備上,以驗證其能否滿足實時和高精度的病害檢測需求。
1" 數據與方法
首先選定了一個合適的數據集并進行了數據增強,以模擬多種實際應用場景。其次,基于YOLOX框架,開發一個針對馬鈴薯葉片病害的改進識別算法。為全面驗證模型性能,設計消融試驗和與其他先進方法的對比試驗,明確了模型的優缺點。進一步,將模型部署到嵌入式設備,驗證其可行性和實用性。本研究框架如圖1所示。
1.1" 數據獲取與處理
本研究使用公開可獲取的PlantVillage數據集作為圖像數據源,該數據集含有54 309張高質量圖像,覆蓋了14種不同農作物,例如蘋果、藍莓、櫻桃、玉米等。本研究主要關注馬鈴薯葉片病害的自動檢測,原始樣本圖片共2 152張,分辨率為256像素×256像素,主要包括早疫病、晚疫病和健康葉片這3個類別,其詳細描述見表1。
本研究將2 152張馬鈴薯葉片圖像依照 8 ∶1 ∶1 的比例分配到訓練集、驗證集和測試集中。鑒于樣本數量有限可能引發過擬合,采用CycleGAN[24]這一先進的數據增強方法對訓練樣本進行優化,主要通過旋轉、裁剪、翻轉等手段來增加樣本多樣性。增強后的數據集細節請參見表2。
為進一步提高模型的準確性和可靠性,使用Labelimg圖形注釋工具對表2中的圖像樣本進行精細的手動標注。在每張圖像上,不論是健康或患病的葉片,都被準確地用一個矩形邊界框標出。其位置坐標以(xmin,ymin,xmax,ymax)形式給出。其中(xmin,ymin)代表邊界框左上角的坐標,(xmax,ymax)代表邊界框右下角的坐標。
經過以上的數據處理和增強,成功地擴大了樣本數量,為后續模型的訓練打下了堅實的基礎。
1.2" 馬鈴薯葉片病害檢測方法
馬鈴薯葉片病害檢測屬于目標檢測任務,其目的是在圖像中準確定位和分類不同區域的病害。
為了適應資源受限的設備環境,選用高效的YOLOX模型作為基線模型,進一步設計一種更為高效和精準的馬鈴薯葉片病害檢測模型[28]。該模型力求實現目標檢測準確性與計算效率之間的最優平衡,確保在資源有限的應用場合中仍能展示出卓越的性能。
1.2.1" YOLOX模型
YOLOX是一種不依賴先驗框的單階段目標檢測模型,其由CSPDarkNet53主干網絡、特征金字塔網絡(FPN)、路徑聚合網絡(PAN)和預測頭(Head)四大核心模塊組成[28-29]。這些模塊聯合工作,實現了對目標檢測任務的高效準確處理。
在YOLOX的工作流程中,CSPDarkNet53首先作為特征提取器,從輸入圖像中提取出基礎視覺特征。接著,FPN構建了一個多層次的特征圖,實現了對不同尺寸和復雜度目標的高效識別。它將主干網絡提取的高級和低級特征融合,增強對小目標的檢測性能。PAN進一步優化以上流程,它通過上下采樣和橫向連接,強化FPN中不同層級特征圖之間的信息傳遞,提升模型在多尺度目標檢測上的表現。最后,Head的Cls分支對目標框內的對象進行屬性分類并預測類別概率;Reg分支預測目標框的精確坐標;Obj分支判斷目標框內對象是前景還是背景。這3個分支共同輸出目標的分類標簽和具體的邊界框坐標,完成目標的最終分類和定位。總體而言,YOLOX模型在復雜場景和多尺度目標檢測方面表現優秀,但也存在一些不足,如計算復雜度高和對復雜光照、低對比度環境的識別能力有限。盡管一些研究嘗試通過引入通道注意力機制來改善這些問題,提高模型對關鍵特征的敏感性和整體的檢測精度,但這些改進仍有局限性。
為進一步提升模型的性能和適用范圍,本研究基于前人的工作進行了一系列創新性的優化。首先,用輕量級的MobileNet v3網絡替代原始的CSPDarkNet53主干網絡。這一改變旨在減少計算負擔并提高模型在資源受限環境下的運行效率。其次,引入V通道網絡以增強模型在復雜光照條件下的目標檢測準確性。最后,設計一種自適應的交叉熵損失函數,以提升模型的魯棒性,同時增加模型的識別準確性。
1.2.2nbsp; 輕量化骨干網絡
為優化模型的計算效率和實時性能,選用更為輕量級的MobileNet v3網絡替代原有的CSPDarkNet53主干網絡[30],其基本結構如圖2所示。
MobileNet v3繼承了MobileNet v1和v2的核心優點,尤其突出了深度可分離卷積(Depthwise Separable Convolutions,簡稱DSC)和反向殘差塊的應用。DSC是一種高效的卷積方法,它通過分解傳統卷積操作以減少計算量。具體而言,DSC首先在每個輸入通道上獨立應用卷積,然后再通過1×1的點態卷積將這些通道的輸出合并。這樣做的優勢是,與傳統的3×3卷積相比,DSC能夠將計算量減少到原來的1/9到1/8。
MobileNet v3還解決了非線性激活函數可能對低維特征造成的不良影響。具體地,其反向殘差塊通過2次1×1的卷積操作實現特征維度的先升后降,以此減輕激活函數對原始特征的影響。此外,MobileNet v3的反向殘差塊還引入了信道注意力模塊(squeeze-and-excitation,SE)以提升網絡對顯著性特征的識別能力。
1.2.3" V通道網絡
為更有效地捕捉馬鈴薯葉片病害的紋理信息,引入了一種基于HSV顏色空間的特征提取策略。該策略致力于解決在自然環境下,由于光線、遮擋和陰影等因素,造成的圖像亮度變化問題。3種馬鈴薯葉病害的HSV顏色空間如圖3所示。
在自然環境下捕獲的圖像常受到自然光、遮擋和陰影等因素的影響,導致對亮度極為敏感。而在RGB顏色空間(圖3-a)中,這些細微的亮度變化往往難以準確捕捉。為此,本文在RGB基礎之上加入了一個HSV顏色空間分支,如圖3-b、圖3-d、圖3-e所示。在HSV顏色空間中,H(色相)通道描述顏色在光譜中的位置,其值域范圍為0°~360°,S(飽和度)通道反映所選顏色的純度與其最大純度之間的比例,V(明度)通道反映了顏色的亮暗信息,其取值范圍為0~1。
在馬鈴薯葉片病害檢測中,H通道和S通道對顏色類型和純度有良好的識別,但它們容易受到自然環境中光照和陰影的影響,導致特征信息的丟失或削弱。相較之下,V通道專注于顏色的明暗度,具有更高的敏感性和穩健性,特別是在復雜的光照條件下。這使得V通道成為一個理想的選擇,能夠更準確地捕捉和定位與病害相關的紋理信息。為此,本研究設計一個專門的V通道定位網絡,其中采用了最大池化操作進行降采樣。這不僅減少了計算的復雜性,還生成了一組與YOLOX模型預測層尺度相匹配的特征圖。這種設計精準地捕捉了與紋理相關的位置信息,從而提高了模型在復雜環境下的病害檢測精度。
1.2.4" 自適應交叉熵損失
原始YOLOX模型采用BCELoss函數進行訓練,主要用于類別預測和置信度預測,其數學表達式如公式(1)和公式(2)所示。
Li=-yilnyi′-(1-yi)ln(1-yi′)
=-lnyi′,""""" yi=1
-ln(1-yi′),yi=0;(1)
LBCE=1n∑ni=1Li 。(2)
式中:Li為像素i生成的LBCE值;yi為像素i的真實標簽,正標簽為1,負標簽為0,表示前景對象類別和背景;yi′為像素i的預測值,取值范圍為[0,1];n為總像素數。
BCELoss鼓勵模型對每個樣本的預測結果和實際標簽接近。但這種損失函數并不考慮數據中各類別樣本的分布情況。因此,當面對數據分布嚴重不平衡的場景時,僅依賴BCELoss可能會導致模型的預測存在顯著的偏見,特別是對少數樣本的類別。從表2中的馬鈴薯葉片樣本數據可以明顯看出,類別不平衡的問題是非常突出的。如果單純地使用BCELoss作為損失函數進行訓練,可能會導致模型對多數樣本的類別過度擬合,而忽視了少數樣本的類別,進而導致嚴重的識別偏差。為此,本文提出了一種樣本自適應的交叉熵損失函數,該函數通過一個自適應懲罰系數進行動態權重調整。具體的數學表達式為公式(3)至公式(6)。
α=arctanP+NP+δ" y=1
arctanP+NN+δy=0," α∈[0,π2];(3)
β=sinα,β∈[0,1];(4)
BCELossβ=-βylny′-β(1-y)ln(1-y′);(5)
LBCE-β=11+exp(BCELossβ)。(6)
式中:β為樣本自適應懲罰系數;LBCE-β為樣本自適應交叉熵損失函數;P為網絡訓練反饋的正樣本量總數;N為網絡訓練反饋的總負樣本量;δ為最小值。
樣本自適應懲罰系數的引入使得損失函數能夠根據訓練過程中正負樣本的數量進行自適應調整。例如,當健康葉片的數量較少時,該系數會增加健康葉片在損失函數中的權重,從而強化模型對少數類的識別能力。反之,如果病害葉片數量減少,病害葉片的權重會相應提升。這種動態調整機制有助于模型在不同階段保持正負樣本間的平衡,從而提高模型的穩定性和準確性。此外,還使用了Sigmoid函數作為激活函數,以確保損失值輸出在[0,1]范圍內,進一步增強模型的訓練穩定性。
1.2.5" 馬鈴薯葉片病害檢測模型框架
馬鈴薯葉片病害檢測模型結構如圖4所示,由6個核心模塊組成,包括主干網絡(Backbonew)、V字通道(V channel)、注意力通道(CBAM)、特征金字塔網絡(FPN)、路徑聚合網絡(PAN)和預測頭(Detection head)。本研究使用MobileNet v3網絡作為主干特征提取,并引入V字通道生成一組與主干網絡尺度相配的特征圖,以便更準確地捕捉由光照引發的紋理和顏色變化,其他模塊和原有YOLOX模型保持一致。
2" 馬鈴薯葉片病害檢測試驗
2.1" 試驗環境
本試驗將使用一臺配置較高的計算機進行所有模型訓練,以確保結果的一致性和可靠性。該機器配備了12代英特爾酷睿i5-12400F CPU、NVIDIA GeForce RTX 3060 GPU以及16 GB的運行內存。軟件環境方面,選擇了Ubuntu 20.04作為操作系統,使用VScode作為編譯器工具,并采用了支持CUDA 11.3的PyTorch 1.10.1框架。此次試驗于2023年8月25日于許昌電氣職業學院信息工程系227實驗室完成。
2.2" 評價指標
在本研究中,模型性能的評估采用了多角度的指標。首先,使用平均精度均值(mean average precision,簡稱mAP)來衡量模型在識別和分類馬鈴薯葉片病
害方面的準確性。mAP是一個綜合性的指標,它計算了模型在所有類別上平均檢測精度的平均值。具體而言,mAP是根據召回率(recall,R)和精度(precision,P)在各個類別上計算的AP值的平均,其數學定義見公式(7)和公式(8),其中M表示病害類別。在這里,選用0.5作為評估標準。
AP=∫10P(R)dR;(7)
mAP=∑Mj=1APjM。(8)
除了關注模型的精度,還重點考慮了其計算效率和實用性。在這方面,模型的浮點運算次數(FLOPs)和內存(Size)被用作2個關鍵指標,用以衡量模型對計算資源的需求程度。低FLOPs數值通常意味著模型更為輕量級,因此更適用于資源受限的環境。同時,也采用單幀圖像識別速度(FPS)作為另一個評價指標,以量化模型的實時性和識別效率。高FPS值表明模型能夠在短時間內處理更多的圖像,這在需要實時反饋的應用場景中具有非常重要的意義。通過這2個綜合性指標,不僅可以全面評估模型的性能,還能更準確地確定其在實際應用中的適用性和局限性。
2.3" 模型訓練
模型訓練涉及多個設置和參數。具體來說,訓練總共進行了200個epoch,每個批次的大小設置為4,優化器選用SGD。輸入圖像的尺寸是224像素×224像素,學習速率設置為0.001,權重衰減因子為0.000 5,而動量因子為0.937。
圖5-a展示了在200個epoch內,訓練和驗證損失的變化情況。盡管起初的損失值較高,但隨著epoch數量的增加,損失值逐漸減少,大約在150個epoch后趨于穩定。同時,訓練與驗證損失在整個過程中保持了相對的一致性,表明模型既沒有出現過擬合也沒有出現欠擬合。進一步地,圖5-b顯示
了模型在訓練集上的mAP隨損失減小而逐步提高。在完成150個epoch后,mAP值基本穩定,并在200個epoch時達到了高達98.6%的準確度。
3" 結果與分析
3.1" 分類結果分析
為直觀地展示優化后的YOLOX模型在馬鈴薯葉片病害數據集上的識別與分類性能,根據測試集結果繪制了一張混淆矩陣,詳見圖6。從總體表現來看,該模型在識別晚疫病和健康葉片方面幾乎達到了完美的準確率。然而,在早疫病的識別上,部分樣本被錯誤地歸為晚疫病,這可能源于早疫病和晚疫病在某些特征,如顏色和紋理等方面的相似性,從而導致模型在區分這2種病害時出現一定程度的混淆。盡管如此,考慮到植物病害識別本身的復雜性和挑戰性,該模型的整體表現仍然較為出色。
3.2" 消融試驗
本研究設計的馬鈴薯葉片病害檢測模型,是在先進檢測模型YOLOX框架上進行了一系列創新性的改進。具體而言,所提模型以更輕量級MobileNet
v3網絡替換原有的CSPDarkNet53網絡,同時引入V通道定位網絡,并提出一種自適應的交叉熵損失函數(LBCE-β),以實現更加精準和高效的馬鈴薯葉病害檢測。為了量化這些改進措施帶來的性能提升,試驗對比使用CSPDarkNet53與MobileNet v3作為骨干網絡時,V通道定位網絡和自適應交叉熵損失函數對模型性能的具體影響,各性能指標如表3所示。
由表3可知,當使用更輕量級的MobileNet v3作為檢測模型的骨干網絡,相對于傳統的CSPDarkNet53,模型在多個性能指標上都有明顯提升。具體來說,模型的mAP從93.87%增加到95.44%,實現1.57百分點的提升。更值得注意的是,模型的浮點運算次數(FLOPs)從25.77×109次大幅降低到14.51×109次,減少了43.69%;內存從75.15 MB降低到 48.64 MB,降低了35.28%,這意味著模型在保持高準確率的同時,顯著減少了計算復雜性和空間資源需求。此外,模型的單幀識別速度(FPS)從92.15幀/s提升至127.20幀/s,提高38.03%,表明模型在實時性和識別效率方面也有顯著改進。
進一步觀察表3,可以明確地看出引入V通道定位網絡和自適應交叉熵損失函數(LBCE-β)對模型精度具有正向積極的作用。以CSPDarkNet53為基礎的模型在引入這2項改進后,其mAP值從93.87%提升至96.15%,增幅為2.28百分點。而以MobileNet v3為基礎的模型則從95.44%提升至98.55%,增幅為3.11百分點。值得一提的是,這2項改進幾乎沒有增加模型的計算負擔。具體來說,無論是FLOPs、Size還是FPS,三者的變化都相對微小,這進一步證實了這些改進措施在提高精度的同時,并沒有對模型的計算效率和實時性造成不利影響。
綜上,V通道定位網絡和自適應交叉熵損失函數的引入對模型的整體性能有所提升,尤其在采用MobileNet v3為骨干網絡的情況下,這一效果更為顯著。這不僅進一步證明了本研究所提改進策略的有效性,也表明了這些策略在實際應用中具有更廣泛的適用性和優越性,確保了本研究提出的檢測模型在馬鈴薯葉病害檢測任務上有著更出色的表現。
3.3" 對比試驗
為進一步評估所提出改進YOLOX模型在目標檢測方面的性能,在相同的數據集和硬件配置條件下,依據控制變量法原則,進行了一系列對比試驗。這些對比試驗涵蓋了多種主流的目標檢測算法,包括Faster RCNN、SSD、RetinaNet、YOLO v5,以及原始版本的YOLOX模型。圖7詳細呈現了各檢測模型在4個關鍵評估指標上的性能比較。
在馬鈴薯葉病害檢測任務中,本研究的改進YOLOX模型在mAP方面表現出色,達到了98.55%。這一結果顯著優于目前主流的其他目標檢測算法,如Faster RCNN的97.27%。值得注意的是,盡管Faster RCNN在精度上與改進的YOLOX接近,但在計算效率和實時性方面明顯不足。
在計算復雜度方面,改進的YOLOX只需 14.63×109 浮點運算次數(FLOPs)就能完成高精度的馬鈴薯葉病害檢測,遠低于Faster RCNN的75.62×109浮點運算次數(FLOPs)和RetinaNet的87.6×109浮點運算次數(FLOPs)。這一優勢在實際應用中尤為重要,尤其是在需要快速、準確診斷的農業場景中。
在模型所占內存方面,改進的YOLOX模型僅為49.35 MB,遠小于Faster RCNN (317.49 MB)和RetinaNet(292.3 MB)。這意味著在邊緣計算或嵌入式系統中,改進的YOLOX模型更易于部署。最后,單幀識別速度上,改進的YOLOX以125.92幀/s的速度運行,遠高于其他所有模型。這一點對于實時馬鈴薯疫病檢測尤為關鍵,可以有效地指導農民及時采取防治措施。
綜合以上評估指標,改進的YOLOX模型在馬鈴薯疫病檢測方面表現卓越,不僅在準確性上達到了高水平,同時也在計算復雜度、模型體積和實時性方面展示了明顯優勢。相較于Faster RCNN、SSD、RetinaNet以及原始版本的YOLOX,改進的YOLOX在綜合性能上具有明顯優勢。因此,該模型在馬鈴薯疫病檢測的研究和應用中具有極高的價值。
3.4" 馬鈴薯葉病害檢測
本研究所提的基于YOLOX的改進模型進行了馬鈴薯葉病害的詳細檢測和分類。圖8展示了模型在多種場景下的高效性和準確性。模型成功區分了早疫病、晚疫病和健康葉片3類,并在各自的3個不同實例上進行了有效驗證。即便在早疫病和晚疫病的微小病變區域內,模型也展現了高度的敏感性和精確度。在所有測試場景中,模型的置信度得分最低達到了0.91。這一出色表現可歸功于模型采用的先進骨干網絡MobileNet v3,以及新增的V通道定位網絡和自適應交叉熵損失函數。這些改進不僅增強了模型的特征提取能力,還提升了其分類精度。值得一提的是,模型即便在健康葉片出現非病害性質破損的情況下,也能進行準確分類,進一步證實了其魯棒性。總體而言,本模型在精確度和敏感性上達到了高標準,特別是在處理復雜和微小的病害特征方面表現優異,顯示出廣泛的應用潛力。
3.5" 嵌入式裝置中馬鈴薯葉片病害的檢測效果
為實際評估改進的YOLOX模型在馬鈴薯葉病害檢測中的性能,采用NVIDIA Jetson Nano作為邊緣計算平臺。該設備與農業檢查機器人和馬鈴薯葉病害識別系統相結合,能夠在現場實時識別并標記出受病害的馬鈴薯葉片。軟件環境包括TensorRT-7.1.3.0和JetPack-4.4.1,圖像輸入大小設置為224像素×224像素。通過TensorRT的模型量化和優化,本文在Jetson Nano上進行了模型檢測精度(mAP)和推理速度(FPS)測試。由于計算資源有限,嵌入式裝置測試中只測試了計算效率和體積較小的原始YOLOX和改進的YOLOX模型,結果如表4所示。
表4對比了在嵌入式設備NVIDIA Jetson Nano上,原始YOLOX模型和改進的YOLOX模型在mAP與FPS方面的性能。數據顯示,改進的YOLOX在mAP方面從94.17%上升至98.55%,FPS也從2.17幀/s增加至3.94幀/s。更值得注意的是,在利用TensorRT加速后,該模型在保持相同mAP的同時,FPS大幅提升至10.37幀/s。這些結果明確證實了改進的YOLOX模型在精度和速度上都有顯著提升。尤其在應用TensorRT加速之后,模型速度近乎提升了5倍,從而更有效地滿足了馬鈴薯葉片病害檢測的實時性需求。綜合來看,改進的YOLOX模型在嵌入式環境中表現出了高效和高準確度,具有很高的應用潛力。
4nbsp; 結論與討論
為精確高效地檢測馬鈴薯葉病害,提出一種基于改良YOLOX架構的先進識別方法。該方法以輕量級MobileNet v3替代原有的CSPDarkNet53,優化了特征識別和計算效率;結合V通道定位網絡,精確捕捉紋理信息;并應用自適應交叉熵損失函數解決了樣本不平衡問題,從而增強了模型的魯棒性和準確性。
試驗數據進一步證實了本研究中改進YOLOX模型的顯著性能提升。該模型在mAP方面達到了98.55%,比原始YOLOX模型提高了4.38百分點。在計算效率方面,模型的FLOPs為14.63×109次,內存占用僅為 49.35 MB,分別比原始模型降低了11.14×109次和25.80 MB。此外FPS提升到125.92幀/s,比原始模型快了36.65%。綜合性能對比分析也表明,改進的YOLOX模型與FasterCNN、SSD、RetinaNet和YOLO v5等主流檢測模型相比,具有明顯的優勢。
在嵌入式平臺測試中,改進YOLOX模型平均準確率為98.55%,相比原始YOLOX模型提高了4.38百分點。進一步采用TensorRT加速后模型的檢測速度為10.37幀/s,實時檢測速度得到顯著提升。
綜上,本研究提出的改進YOLOX模型在準確率、計算效率和速度方面都表現出色,不僅能推動農業病害檢測技術的進一步發展,也為相關領域提供了有價值的參考和啟示。
本研究所提出的方法適用于公開的葉片數據集,但并未涉及受到實際光照等復雜環境影響的農田葉片數據。下一步,可利用無人機采集農田葉片數據集進行處理與測試,使模型可以更好地應用于農田生產實踐。另外,可考慮使用一些傳統機器學習與深度學習方法與本研究方法進行對比,以改進或選擇最適于分析農田環境下由無人機采集的葉片圖像的算法。
參考文獻:
[1]趙丙秀,董" 寧. 基于WOA-BP神經網絡下馬鈴薯產量預測分析模型[J]. 農機化研究,2024,46(3):47-51.
[2]劉崇林,趙勝雪,胡" 軍,等. 兩種淀粉薯收獲期莖稈機械特性的試驗研究[J]. 農機化研究,2020,42(6):117-122.
[3]胡新元,孫小花,羅愛花,等. 葉面噴施硫酸鋅對馬鈴薯抗病性和產量的影響[J]. 西北農業學報,2023,32(8):1187-1193.
[4]王" 凡,李永玉,彭彥昆,等. 便攜式馬鈴薯多品質參數局部透射光譜無損檢測裝置[J]. 農業機械學報,2018,49(7):348-354.
[5]劉二龍,魏" 霜,關麗軍,等. 馬鈴薯成分微滴數字聚合酶鏈式反應定量檢測方法建立[J]. 糧食與油脂,2021,34(3):120-123.
[6]Minaee S,Boykov Y,Porikli F,et al. Image segmentation using deep learning:a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(7):3523-3542.
[7]Zhao Z Q,Zheng P,Xu S T,et al. Object detection with deep learning:a review[J]. IEEE Transactions on Neural Networks and Learning Systems,2019,30(11):3212-3232.
[8]Chen X,Wan M J,Ma C,et al. Recognition of small targets in remote sensing image using multi-scale feature fusion-based shot multi-box detector[J]. Optics and Precision Engineering,2021,29(11):2672-2682.
[9]Khan M A,Akram T,Sharif M,et al. CCDF:automatic system for segmentation and recognition of fruit crops diseases based on correlation coefficient and deep CNN features[J]. Computers and electronics in agriculture,2018,155:220-236.
[10]Liu B,Ding Z F,Tian L L,et al. Grape leaf disease identification using improved deep convolutional neural networks[J]. Frontiers in Plant Science,2020,11:1082.
[11]Abbas A,Jain S,Gour M,et al. Tomato plant disease detection using transfer learning with C-GAN synthetic images[J]. Computers and Electronics in Agriculture,2021,187:106279.
[12]Zhang K K,Wu Q F,Chen Y P.Detecting soybean leaf disease from synthetic image using multi-feature fusion faster R-CNN[J]. Computers and Electronics in Agriculture,2021,183:106064.
[13]Saeed A,Abdel-Aziz A A,Mossad A,et al. Smart detection of tomato leaf diseases using transfer learning-based convolutional neural networks[J]. Agriculture,2023,13(1):139.
[14]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition,Columbus,OH,USA. IEEE,2014:580-587.
[15]Girshick R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV).Santiago,Chile.IEEE,2015:1440-1448.
[16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transations on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[17]Khalifa N E M,Taha M H N,Abou El-Maged L M,et al. Artificial intelligence in potato leaf disease classification:a deep learning approach[M]//Hassanien A E,Darwish A. Machine learning and big data analytics paradigms:analysis,applications and challenges. Cham:Springer International Publishing,2021:63-79.
[18]Zhang Y,Song C L,Zhang D W. Deep learning-based object detection improvement for tomato disease[J]. IEEE Access,2020,8:56607-56614.
[19]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:779-788.
[20]Redmon J,Farhadi A. YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA.IEEE,2017:6517-6525.
[21]朱" 格,徐" 燕,孫瑩瑩,等. Darknet深度學習框架下基于YOLO v3的病蟲害識別和農藥噴灑系統[J]. 農業與技術,2023,43(10):33-38.
[22]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[M]//Leibe B,Matas J,Sebe N,et al. Computer vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.
[23]趙" 越,趙" 輝,姜永成,等. 基于深度學習的馬鈴薯葉片病害檢測方法[J]. 中國農機化學報,2022,43(10):183-189.
[24]Rashid J,Khan I,Ali G,et al. Multi-level deep learning model for potato leaf disease recognition[J]. Electronics,2021,10(17):2064.
[25]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOLY v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.
[26]宋" 玲,曹" 勉,胡小春,等. 基于YOLOX的復雜背景下木薯葉病害檢測方法[J]. 農業機械學報,2023,54(3):301-307.
[27]劉延鑫,王俊峰,杜傳印,等. 基于YOLO v3的多類煙草葉部病害檢測研究[J]. 中國煙草科學,2022,43(2):94-100.
[28]張劍飛,柯" 賽. 基于YOLOX-s的農業害蟲檢測研究[J]. 計算機技術與發展,2023,33(5):208-213.
[29]沈志豪,劉金江,張建洋. 基于改進YOLOX-s的田間麥穗檢測及計數[J]. 江蘇農業科學,2023,51(12):164-171.
[30]Howard A,Sandler M,Chen B,et al. Searching for MobileNet v3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South).IEEE,2019:1314-1324.