白春暉 陳健 郜魯濤
收稿日期:2024-01-24
基金項目:云南省基礎研究專項面上項目(202101AT070248)
作者簡介:白春暉(2001-),男,河南駐馬店人,在讀碩士研究生,研究方向為語義分割、植物病蟲害檢測,(電話)19803601291(電子信箱)2815985035@qq.com;通信作者,郜魯濤(1987-),男,河南新鄉人,副教授,在讀博士研究生,主要從事計算機應用技術研究,(電話)15987171851(電子信箱)2013015@ynau.edu.cn。
白春暉,陳 健,郜魯濤. 基于改進BiSeNet的葡萄黑麻疹病害程度分級預測[J]. 湖北農業科學,2024,63(5):187-193,222.
摘要:為了準確對葡萄(Vitis vinifera L.)黑麻疹病害程度進行分級預測,通過語義分割模型將葉片部分和病斑部分分割出來,以同一葉片上病斑面積與總葉面積的比值作為疾病嚴重程度分級的依據,對葡萄黑麻疹病害程度進行分級預測。精確標注了PlantVillage公開數據庫中的419張葡萄疾病圖像,細分為背景、葉片和病斑3個類別,并應用了數據增強技術增加樣本多樣性。以BiSeNet作為基準模型,引入GhostNet作為上下文路徑的主干提取網絡,不僅保持了較小的模型參數量,而且在精度上實現了明顯提升,滿足病害程度分級預測的需求。提出了累加空洞空間金字塔池化(CASPP)模塊,用來替換BiSeNet模型中單一的上下文嵌入模塊,以增強BiSeNet模型的多尺度上下文信息提取能力,提高了模型的分割精度。經過測試,本研究模型在測試集中的平均交并比為94.11%,在對葡萄黑麻疹病害程度進行分級預測時,準確率達98.21%,能夠精確地對葡萄黑麻疹病害程度進行分級預測。
關鍵詞:BiSeNet;深度學習;語義分割;病害程度;分級預測;葡萄(Vitis vinifera L.);黑麻疹
中圖分類號:TP399???????? 文獻標識碼:A
文章編號:0439-8114(2024)05-0187-07
DOI:10.14088/j.cnki.issn0439-8114.2024.05.033??????????? 開放科學(資源服務)標識碼(OSID):
Prediction of severity grading of black measles disease in grapes based on improved BiSeNet
BAI Chun-hui,CHEN Jian,GAO Lu-tao
(College of Big Data/Yunnan Engineering Technology Research Center of Agricultural Big Data/Yunnan Engineering Research Center for Big Data Intelligent Information Processing of Green Agricultural Products,Yunnan Agricultural University, Kunming? 650201,China)
Abstract: In order to accurately grade and predict the degree of black measles disease in grapes(Vitis vinifera L.), a semantic segmentation model was used to separate the leaf and lesion parts. The ratio of lesion area to total leaf area on the same leaf was used as the basis for disease severity grading, and the degree of black measles disease in grapes was predicted. 419 grapes disease images from the PlantVillage public database were accurately annotated and subdivided into three categories: background, leaves, and lesions, and data augmentation techniques were applied to increase sample diversity. Using BiSeNet as the benchmark model and introducing GhostNet as the backbone extraction network for context paths not only maintained a small number of model parameters, but also achieved a significant improvement in accuracy, meeting the needs of disease severity classification prediction. A cumulative atrous spatial pyramid pooling (CASPP) module was proposed to replace the single context embedding module in the BiSeNet model, in order to enhance the multi-scale context information extraction ability of the BiSeNet model and improve the segmentation accuracy of the model. After testing, the average Intersection over to Union of this research model in the test set was 94.11%. When predicting the degree of black measles disease in grapes, the accuracy reached 98.21%, which could accurately predict the degree of black measles disease in grapes.
Key words: BiSeNet; deep learning; semantic segmentation; disease severity; grading prediction; grapes(Vitis vinifera L.); black measles disease
中國葡萄(Vitis vinifera L.)的產量和消費量均領先于其他國家。葡萄作為一種重要的經濟作物,被廣泛種植于全球許多地區[1]。云南省有著得天獨厚的葡萄種植條件,地處云貴高原,享有充沛的陽光和顯著的日夜溫度變化,這些條件有助于提高葡萄中的糖含量。因此,云南省不僅能種植鮮食葡萄,還能生產出適合釀酒的優質葡萄。但是,各類病害對葡萄生產造成損害,降低葡萄的產出并且對經濟增益產生負面效果。因此,快速準確地識別葡萄疾病類型并判斷疾病嚴重程度對于及時實施預防措施至關重要[2,3]。
近年來,深度學習技術的進步推動了卷積神經網絡(CNN)在識別植物疾病和害蟲方面的發展[4-6]。然而,目前大多數深度學習模型被廣泛應用于病蟲害的分類和識別方面,且取得了較好的效果[7-14],但是在疾病嚴重程度檢測方面所做的工作較少[15]。從實際角度來看,與疾病分類相比,可靠、準確、及時地檢測植物病害嚴重程度對于農民來說更為重要,因為病害嚴重程度檢測有助于農民做出有效決策,采取適當措施防止植物病害,減輕因感染引起的損失[16]。
基于人工智能的病蟲害嚴重程度分類是農業智慧種植領域新的熱點任務。Sun等[17]采用電子鼻(E-nose)和氣相色譜-質樸聯用儀(GC-MS)從入侵嚴重程度方面檢測茶尺蠖(Ectropis obliqua)對茶樹(克隆龍井43)的侵害情況,提出了一種基于金屬氧化物傳感器響應分段函數的特征提取方法,將該方法提取的特征送入多層感知機(MLP)訓練后,平均分類準確率超過95%。但該方法設備價格昂貴,數據獲取難度大,不易于推廣。Zeng等[15]針對柑橘感染黃龍病的嚴重程度進行研究,將葉片分為早期感染、中期感染和嚴重感染3類,分別對比了AlexNet、DenseNet-169、Inception V3、ResNet-34,SqueezeNet-1.1和VGG13 6種模型,最終Inception V3效果最好,準確率達92.60% 。Wang等[18]基于語義分割技術對黃瓜霜霉病、白粉病和病毒病的嚴重程度進行評估,將葉片染病部分與葉片面積的比值作為病害嚴重程度分級的依據,提出了基于DeepLabV3+和U-Net的兩段式黃瓜葉病分割模型,平均分級準確率為92.85%。
葡萄黑麻疹(Grape black measles)是一種葡萄藤疾病,由真菌引起,主要影響葡萄的果實、葉片和莖部,葡萄葉片出現黃化、黑色斑點、枯死和凋落,枝干出現黑色斑點,以及果實出現褐色或黑色壞死斑點。葡萄黑麻疹會影響葡萄藤的正常生長和養分吸收,最終導致葡萄減產或死亡。本研究通過語義分割模型對圖像中的葉片和病斑區域進行分割,以同一葉片上病斑面積與總葉面積的比值作為疾病嚴重程度分級的依據,對葡萄黑麻疹病害程度進行分級預測。
1 BiSeNet模型結構
BiSeNet[19]是一種用于實時語義分割的模型。它的設計主要用于提高圖像分割任務的速度,同時盡量保持較高的準確度。BiSeNet利用其創新的雙路徑架構,有效捕獲高分辨率圖像的細節及全局上下文信息,實現圖像的快速分割。該模型由2個互補路徑構成:空間路徑(Spatial path)專注于保持圖像細節,從而捕獲更加細膩的邊緣和輪廓,而上下文路徑(Context path)則致力于提煉全局上下文特征,利用較深的網絡結構,通過多次下采樣迅速擴大感受野,捕獲圖像的上下文信息,二者的融合為圖像分割任務提供強有力的支撐。BiSeNet進一步融合了注意力機制,即注意力引導模塊(Attention refinement module,ARM)和特征融合模塊(Feature fusion module,FFM)。ARM用于加強上下文路徑中的特征表達,而FFM則用于整合空間路徑和上下文路徑的特征。BiSeNet基本結構如圖1所示。
[Conv+BN+ReLU][8倍下采樣][16倍下采樣][32倍下采樣][空間路徑][FFM][8倍上采樣][ARM][ARM][avg][上下文路徑][Conv+BN+ReLU][Conv+BN+ReLU]
2 模型改進
2.1 改進主干網絡
盡管深層卷積網絡在性能上達到了顯著成效,但因為其眾多卷積層而需要龐大的計算資源,從而顯著增加了計算成本[20]。雖然MobileNet引入了深度卷積[21],但剩余的1×1卷積層仍然會占用相當大的內存。Han等[22]認為主流卷積神經網絡中的中間特征普遍存在較大程度的冗余,為了解決該問題引入了創新性的Ghost module,該模塊利用成本效益更高的線性變換來生成特征圖,基于Ghost module模塊,進一步開發GhostNet架構,其在確保網絡性能的同時提升計算效率。
GhostNet架構的主要模塊是Ghost module,該模塊通過線性操作輸出額外特征圖,在減少運算成本和參數量的同時保持較好的性能。這是因為在主流卷積神經網絡模型中存在較多的特征圖重復信息。首先,使用常規的卷積操作生成少量的特征圖,稱為原始特征圖。其次,對每個原始特征圖應用更簡單的線性操作(如普通的線性卷積或深度卷積)來生成多個冗余特征圖。這些特征圖可以看作是原始特征圖的不同線性變換版本,它們是通過廉價的操作生成的,從而減少了計算成本。最后,原始特征圖及由線性變換生成的冗余特征圖通過拼接操作輸出最終的特征圖。這種方法允許模型保持更多信息的同時又保證計算資源的高效利用。拼接后的特征圖既包括由常規卷積生成的原始特征,也包括由簡單操作變換得到的冗余特征,同時保持了特征的多樣性。Ghost module使用更少的常規卷積操作,減少了模型的參數量,通過計算成本更加廉價的線性變化生成更多特征圖,使得基于Ghost module設計的GhostNet卷積神經網絡雖然減少了模型參數量,但模型性能依然能得到保證。
BiSeNet選用了Xception39這一以深度可分離卷積(DWConv)為基礎的網絡作為其上下文路徑的主干網絡,有效減少了模型整體的參數量[19]。然而,就精度而言,Xception39并未能充分滿足病害程度分級預測的需求。為此,本研究引入GhostNet作為上下文路徑的主干提取網絡。GhostNet架構起始于一個常規的卷積層,該層負責從輸入圖像中提取初始特征。此后,網絡通過多個Ghost bottleneck結構的串聯不斷深化特征提取。每個Ghost bottleneck結構由2個Ghost module順序堆疊而成。第一個Ghost module的作用在于增加特征通道的維數,為后續處理提供豐富的特征信息;第二個Ghost module則旨在減少通道數,以匹配和優化殘差連接的結構。通過在Ghost module的輸入與輸出之間建立殘差連接,實現特征的有效傳遞和網絡深度的加強,而不增加額外的計算負擔。Ghost bottleneck的結構如圖2所示。GhostNet不僅保持了較小的模型參數量,而且在精度上實現了顯著提升,滿足病害程度分級預測的需求。
2.2 改進上下文嵌入模塊
在上下文路徑的末端,BiSeNet通過添加全局平均池化模塊為網絡提供全局上下文信息,從而拓展接收域(即感受野)。這種設計實現了特征的有效融合,但對于病害場景,全局平均池化模塊這種全局化的方法未必充分。因為在病害場景中,目標的形狀更加復雜,尺寸也不一,單一尺度的全局信息不能捕捉到所有細節,從而影響分割效果。為了克服該問題,PSPNet基于金字塔池化原理,創新性地引入了由多尺度池化塊構成的金字塔池化模塊(PPM)[23]。PPM能捕捉并整合來自不同尺度子區域的層次化全局信息,減少在尺度變化中上下文信息的損失。經過試驗證實,與傳統的單尺度方法相比,PPM在處理具有復雜上下文關系的場景上具有更強的信息保持能力,從而在圖像分割任務中實現更高的性能。DeepLabv2首創的空洞空間金字塔池化模塊(ASPP)采用了不同膨脹系數的膨脹卷積來進一步擴大感知域[24]。DeepLabV3對ASPP進行了改進[25],通過這些優化,使模型的分割性能得到進一步提升。
基于病害場景目標性狀的復雜性,本研究提出了累加空洞空間金字塔池化(Cumulative atrous spatial pyramid pooling,CASPP)模塊,該模塊在ASPP模塊的基礎上對每個分支與前面分支進行相加操作,更好地提取到圖像多尺度、深層次信息,具體結構如圖3所示。本研究使用累加空洞空間金字塔池化模塊來替換BiSeNet模型中單一的上下文嵌入模塊,以增強BiSeNet模型的多尺度上下文信息提取能力。CASPP模塊旨在解決病害圖像中目標邊界模糊的問題,特別是在尺度變化的條件下。CASPP模塊通過綜合利用不同尺度的空間特征,明確描繪對象的邊緣,從而顯著提升了分割的精確性。鑒于場景中目標的多樣尺寸,CASPP模塊能夠有效處理各種尺度的對象,并優化分割結果。CASPP模塊通過捕獲一系列復雜的語義層次,為模型提供深刻的視覺理解,保證在語義分割任務中的全面性和魯棒性。
2.3 葡萄黑麻疹病害嚴重程度分級方法
病害嚴重程度分級是制定防控策略的依據之一,在實踐中通常使用以下3種方法:第一種方法是計算單位面積內感染植株數與總植株數的比值;第二種方法是計算同一株植物患病葉片數與總葉片數的比值;第三種方法是計算同一葉片上病斑面積與總葉面積的比值。根據文獻[18]中對黃瓜霜霉病嚴重程度提出的標準,本研究采用第三種方法,以同一葉片上病斑面積與總葉面積的比值作為病害嚴重程度分級的依據,將葡萄葉片黑麻疹病害嚴重程度分為5級。這種方法不僅提高了病害評估的準確性,而且也為葡萄病害的早期檢測與管理提供了科學依據。
3 試驗設計與評價指標
3.1 數據集
本研究所需的圖像數據均來源于PlantVillage網站(http://plantvillage.psu.edu)的公開數據庫,共包含54 309張圖片,涵蓋14種不同作物,從中挑選了419張葡萄黑麻疹病害圖片來研究病害分級預測的效果。原始圖像分辨率為256 px×256 px,為了更有效地實現語義分割,將圖像分辨率調整至512 px×512 px,使用Labelme工具對圖像中的葉片和病斑區域進行細致地標注處理,劃分成背景、葉片、病斑3個類別,生成相應的掩膜圖像。這些標注圖像為評估分割模型的準確性提供了標準,數據集示例如圖4所示。
鑒于深度學習模型的訓練需要大量數據,本研究對標注精確的419張圖像進行數據增強處理以提高模型的分割精度。數據增強后,圖像總數達1 676張,具體增強策略如下。①增加噪點:在圖像上施加均值為0、標準差為25的高斯噪點,生成變化后的圖像。②降低亮度:通過將亮度因子設置為0.7來減少原始圖像的亮度,得到一張新的圖像。③增加亮度:通過將亮度因子設置為1.5來提高原始圖像的亮度,得到一張新的圖像。數據增強效果如圖5所示。
上述方法通過模擬不同的光照條件和干擾,增加了圖像的多樣性。增強后的圖像按照8∶2的比例劃分為訓練集和測試集,用于模型的訓練與性能評估。
3.2 試驗平臺與設計
在進行試驗之前,建立一個穩定、高效的試驗平臺至關重要。因此,本研究選擇Linux x86_64服務器作為基礎硬件平臺。在操作系統方面,采用穩定且廣泛支持的Ubuntu 20.04.6 LTS版本,為確保試驗順利執行提供了必要的軟件環境和兼容性。在硬件選擇方面,CPU采用高性能的Intel(R) Xeon(R) Silver 4210R,頻率為2.40 GHz,以支持復雜的計算任務。為了處理深度學習中密集的圖形計算,選用NVIDIA GeForce RTX 3090 GPU,它擁有24 GB的顯存,保證大規模數據處理和模型訓練的高效性。在軟件環境方面,采用PyTorch框架,版本1.11.0,構建和訓練基于BiSeNet改進的深度學習模型。PyTorch憑借其靈活性和易用性,在學術研究中被廣泛應用。配合Python 3.8.8的穩定性和CUDA 11.3的強大并行處理能力,整個試驗環境被優化以確保最大的運行效率。
在模型訓練階段,設定批量大小為8,意味著每次送入模型的圖像數量為8張。為了進一步增強模型的泛化能力,實施了隨機尺度縮放的數據增強策略,縮放尺度為0.75~2.00。隨后,圖像被隨機裁剪至512 px×512 px的分辨率以符合模型輸入需求。本研究模型的訓練將經歷 80 000次迭代更新。在參數優化方面,采用隨機梯度下降(SGD)作為優化算法。初始學習率設定為0.01,動量參數為0.9和權重衰減率為5×10-4。此外,本研究應用了一個多項式學習率衰減策略,衰減指數設置為0.9。為了在訓練初期獲得更穩定的更新步驟,還采用了一個指數預熱學習率策略,其中預熱期為前1 000次迭代,初始學習率預熱比率為0.1。
[ratio= warmupratio1? α,iter≤1 000ratio= (1? α)power,iter>1 000] ??? ?(1)
式中,[ratio]表示學習率比率;[warmupratio]表示初始學習率預熱比率;α表示當前迭代次數相對于總迭代次數的比例;[power]表示指定的多項式衰減指數;iter表示訓練迭代次數。
在語義分割領域,類別不平衡和稀有困難樣本的存在經常導致模型性能受損。以葡萄病害分割為例,葉片圖像通常居于主導地位。這種傾向性會使模型在訓練時偏向于識別葉片,進而忽略識別病斑,導致模型在病斑的預測上性能顯著下降。本研究在交叉熵損失函數中融入在線困難樣本挖掘(OHEM)策略[26],目的是強化模型對于這些難以分割和較少見類別的學習,借此提升模型在全局任務中的表現。
3.3 評價指標
采用平均交并比(Mean intersection over union,MIoU)、宏觀平均F1得分(Macro F1 score)、像素準確率(Pixel accuracy,PA)及模型的參數量(Parameters,Params)來評估分割模型的性能。準確度指標是通過構建混淆矩陣來計算的。該矩陣包含真正例(True positives,TP)、假正例(False positives,FP)、真負例(True negatives,TN)、假負例(False negatives,FN)4個關鍵成分。在混淆矩陣中,行用于表示實際類別,而列代表模型的預測類別。對于多類別分割任務,混淆矩陣將展開為一個多維數組,每個維度對應于特定的類別,以此來表征模型性能的多面性,混淆矩陣的表達式如下。
[C11???C1j???C1N?Ci1?CN1???Cij?CNj???CiN?CNN]?? ?? ??????????(2)
式中,Cij表示類別為i預測為j的樣本數;N表示類別數。
交并比(IoU)是語義分割任務中常用的評價指標,用于度量模型在多個類別上的性能。交并比是通過比較模型預測區域與實際區域的重疊程度來度量分割結果的準確性。IoU的計算公式如下。
[IoU= TPTP+FP+FN]???? ??????? ?????????????????(3)
然后,MIoU是對所有類別的IoU取平均值,MIoU的計算公式如下。
[MIoU= 1Ni=0N-1IoUi]? ???????? ?????????????????(4)
式中,N表示類別數;i表示第i個類別。
Macro F1 score對每個類別計算F1分數,然后取平均值,在處理不平衡類別的情況下,對每個類別平等看待;F1分數是一種評估分類模型性能的指標,同時考慮了精確率和召回率,對于平衡模型在每個類別上的性能非常有用,計算公式如下。
[precision= TPTP+FP]???? ???? ???????????(5)
[recall = TPTP+FN]????? ??????? ????????????(6)
[F1=2×precision×recallprecision+recall]? ???????? ???????(7)
[Macro F1= 1Ni=0N?1F1i]??? ??????? ??????????(8)
[PA= i=1NCiii=1Nj=1NCij]??? ????????????????(9)
式中,i表示第i個類別;Cii表示表示類別為i預測為i的樣本數;N表示類別數; precision表示精確率;recall表示召回率;像素準確率(PA)表示模型分割圖與標簽的比值。
4 結果與分析
4.1 消融試驗
為了驗證本研究提出方法的有效性,設計了消融試驗以評估各項改進所帶來的影響。選取BiSeNet作為比較基線,在此基礎上逐步改進。第一組方案采用基準模型BiSeNet。第二組方案在基準模型的基礎上將上下文路徑的Xception39主干網絡替換為GhostNet主干網絡。第三組方案在第二組的基礎上使用累加空洞空間金字塔池化(CASPP)模塊替換原有的上下文嵌入模塊。使用MIoU、Macro F1 score、PA、Params作為分割模型的評價指標,消融試驗結果如表1所示。
第三組方案明顯提高了模型的性能。在第一組方案中,基準模型的MIoU為91.83%,Macro F1 score為95.58%,PA為98.13%,同時模型的參數量保持在0.19×107的水平。在第二組方案中,將主干網絡Xception39替換為GhostNet,雖然模型的參數量有所增加,但模型性能比第一組方案有明顯提升,MIoU為93.60%,Macro F1 score為96.60%,PA為98.55%。在第三組方案中,以第二組為基礎引入了基于膨脹卷積的累加空洞空間金字塔池化模塊,替代BiseNet模型中的全局平均池化上下文嵌入模塊,模型性能進一步增強,MIoU為94.11%,Macro F1 score為96.89%,PA為98.68%。這些改進雖然導致了參數量的輕微增加,但模型仍符合輕量級的分割網絡要求。
4.2 對比試驗
為了驗證本研究模型的性能優越性,選取BiSeNet[19]、BiSeNetV2[27]、DDRNet[28]和PIDNet[29]???? 4個目前較先進的輕量級分割模型作為對照,使用MIoU、Macro F1 score、PA、Params作為分割模型的評價指標,以實現對各模型分割性能的全面分析。
由表2可知,本研究模型顯示出優越的性能,MIoU、Macro F1 Score、PA分別為94.11%、96.89%、98.68%。特別是在MIoU指標上,本模型比PIDNet模型高1.67個百分點。本研究模型的參數量符合輕量級分割網絡的設計標準。通過與當前領先的輕量級分割模型進行對比分析,本研究模型在病害場景的分割任務中表現出色,并且完全符合對于葡萄病害嚴重程度分級預測的需求。
由圖6可知,雖然BiSeNetV2模型和PIDNet模型在分割任務上表現出色,但它們在分割多個微小病斑時效果并不理想。本研究所提出的模型在處理葡萄病斑的細微部分時展示了優異的性能,避免了細微病斑被遺漏的情況,整體上實現了更精確、全面的分割效果。
4.3 病害嚴重程度分級預測
以同一葉片上病斑面積與總葉面積的比值作為病害嚴重程度分級的依據,將葡萄葉片黑麻疹病害嚴重程度分為5級。本研究模型在測試集上分級預測準確率達98.21%。
由圖7可知,本研究模型在進行葡萄病害嚴重程度的分級預測方面表現出色。模型預測的病斑面積與總葉面積的比值與真實標簽之間的接近度很高,即使在預測分級錯誤的個別樣本中,差值也小于0.20個百分點。綜上,本研究模型能夠對葡萄黑麻疹的嚴重程度進行準確的預測。
5 小結
為了開發能準確預測葡萄黑麻疹病害程度的分割算法,本研究精確標注了PlantVillage公開數據庫中的419張葡萄疾病圖像,細分為背景、葉片和病斑3個類別,并應用了數據增強技術增加樣本多樣性。鑒于葡萄黑麻疹病害分割任務對精度與模型輕量化的雙重需求,選擇BiSeNet作為底層架構,并對其進行優化以滿足葡萄黑麻疹病害圖像分割的要求。選用GhostNet作為主干網絡,在保持參數量僅輕微增加的情況下,明顯提升了模型的精度。此外,本研究設計了一種新穎的累加空洞空間金字塔池化模塊,有效取代了原有采用全局平均池化的上下文模塊。經過測試,本研究模型在測試集中的平均交并比達94.11%,相較于業內領先的輕量級分割模型PIDNet,平均交并比提高了1.67個百分點。在參數量上,本研究模型優于PIDNet模型,滿足了對輕量級的需求。本研究模型在測試集上分級預測準確率達98.21%,表明該模型能夠精確評估病害的嚴重程度。本研究主要用于簡單背景下的葡萄黑麻疹病害程度預測,未來的工作將拓展到在復雜背景及不同作物種類下的病害程度預測,以全面提高模型的適用性和實用性。
參考文獻:
[1] FRAIWAN M, FAOURI E, KHASAWNEH N. Multiclass classification of grape diseases using deep artificial intelligence[J]. Agriculture, 2022, 12(10): 1542.
[2] AMPATZIDIS Y, DE BELLIS L, LUVISI A. IPathology:Robotic applications and management of plants and plant diseases[J]. Sustainability, 2017, 9(6): 1010.
[3] CRUZ A C, LUVISI A, DE BELLIS L, et al. X-FIDO: An effective application for detecting olive quick decline syndrome with deep learning and data fusion[J]. Frontiers in plant science, 2017, 8: 1741.
[4] BARBEDO J G A. Plant disease identification from individual lesions and spots using deep learning[J]. Biosystems engineering, 2019, 180: 96-107.
[5] FERENTINOS K P. Deep learning models for plant disease detection and diagnosis[J]. Computers and electronics in agriculture, 2018, 145: 311-318.
[6] RAMCHARAN A, MCCLOSKEY P, BARANOWSKI K, et al. A mobile-based deep learning model for cassava disease diagnosis[J]. Frontiers in plant science, 2019, 10: 425916.
[7] BARBEDO J G A. Factors influencing the use of deep learning for plant disease recognition[J]. Biosystems engineering, 2018, 172: 84-91.
[8] BOCK C H, BARBEDO J G A, DEL PONTE E M, et al. From visual estimates to fully automated sensor-based measurements of plant disease severity:Status and challenges for improving accuracy[J]. Phytopathology research, 2020, 2(1): 1-30.
[9] JI M, WU Z. Automatic detection and severity analysis of grape black measles disease based on deep learning and fuzzy logic[J]. Computers and electronics in agriculture, 2022, 193: 106718.
[10] BRAHIMI M, ARSENOVIC M, LARABA S, et al. Deep learning for plant diseases: Detection and saliency map visualisation[J]. Human and machine learning, 2018: 93.
[11] LU Y, YI S, ZENG N, et al. Identification of rice diseases using deep convolutional neural networks[J]. Neurocomputing, 2017, 267: 378-384.
[12] MOHANTY S P, HUGHES D P, SALATHé M. Using deep learning for image-based plant disease detection[J]. Frontiers in plant science, 2016, 7: 1419.
[13] RAMCHARAN A, BARANOWSKI K, MCCLOSKEY P, et al. Deep learning for image-based cassava disease detection[J]. Frontiers in plant science, 2017, 8: 1852.
[14] SLADOJEVIC S, ARSENOVIC M, ANDERLA A, et al. Deep neural networks based recognition of plant diseases by leaf image classification[J]. Computational intelligence and neuroscience, 2016, 6: 1-11.
[15] ZENG Q, MA X, CHENG B, et al. Gans-based data augmentation for citrus disease severity detection using deep learning[J]. IEEE Access, 2020, 8: 172882-172891.
[16] ZHANG D, HUANG Y, WU C, et al. Detecting tomato disease types and degrees using multi-branch and destruction learning[J]. Computers and electronics in agriculture, 2023, 213: 108244.
[17] SUN Y, WANG J, CHENG S. Discrimination among tea plants either with different invasive severities or different invasive times using MOS electronic nose combined with a new feature extraction method[J]. Computers and electronics in agriculture, 2017, 143: 293-301.
[18] WANG C, DU P, WU H, et al. A cucumber leaf disease severity classification method based on the fusion of DeepLab V3+ and U-Net[J]. Computers and electronics in agriculture, 2021, 189: 106373.
[19] YU C, WANG J, PENG C, et al. BiSeNet: Bilateral segmentation network for real-time semantic segmentation[A]. Computer vision foundation proceedings of the european conference on computer vision (ECCV)[C]. Berlin: Springer,2018.325-341.
[20] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[A]. Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2016.770-778.
[21] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[J/OL]. arXiv preprint arXiv:1704.04861, 2017.
[22] HAN K, WANG Y, TIAN Q, et al. Ghostnet:More features from cheap operations[A]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2020.1580-1589.
[23] ZHAO H,SHI J, QI X, et al. Pyramid scene parsing network[A]. Proceedings of the IEEE conference on computer vision and pattern recognition(CVPR)[C]. New York:IEEE xplore, 2017.2881-2890.
[24] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE transactions on pattern analysis and machine intelligence,2017, 40(4): 834-848.
[25] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[J]. arXiv preprint arXiv:1706.05587, 2017.
[26] SHRIVASTAVA A, GUPTA A, GIRSHICK R. Training region-based object detectors with online hard example mining[A]. Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2016. 761-769.
[27] YU C, GAO C, WANG J, et al. BiSeNet V2: Bilateral network with guided aggregation for real-time semantic segmentation[J]. International journal of computer vision, 2021, 129: 3051-3068.
[28] PAN H,HONG Y,SUN W,et al. Deep dual-resolution networks for real-time and accurate semantic segmentation of traffic scenes[J]. IEEE transactions on intelligent transportation systems,2022,24(3): 3448-3460.
[29] XU J, XIONG Z, BHATTACHARYYA S P. PIDNet: A real-time semantic segmentation network inspired by PID controllers[A]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2023: 19529-19539.