

中圖分類號:TP391.41;S661.1 文獻標識碼:A 文章編號:2095-5553(2025)08-0075-08
Abstract:Taking appleleaf lesionsas the research object,a semantic segmentation method based onan improved DeepLabV3+model for apple leaf disease spots is proposed to solvetheproblems of low segmentation acuracy and large numberof model parameters.In this paper,MobileNetV2 isemployedas the backbone featureextraction network of DeepLabV 3+ to reduce the model's parameter size. An MP—DenseASPP module is introduced,which adds the dilated convolution layers on topof ASPP and incorporates dense connections,along with a mixed poling module to enlarge the model'sreceptive fieldandenhance itsrobustness.Amulti-scaleshalow feature layerisdesigned toimprove the segmentation capability for multi-scaletargets.Furthermore,an improved AFFmodule,named ECAFF,is proposed to merge features across diferent levelsof themulti-scaleshallow feature layer,thereby boosting inter-layer feature fusion. The results show that the mean Intersection over Union(mIoU),mean pixel accuracy and F1 score of the improved DeepLabV3+ model on the ATLDSD dataset reach 72.22% , 88.77% and 83.44% ,representing increases of 1.10% , 4.73% and 1.02% ,respectively,compared to the original model. The floating-point operations and parameter number of the improved model are approximately reduced by 58.5% and 77.1% ,respectively,the average frame rate is increased by 6.67f/s compared to the original model. The proposed method significantly reduces the model's parameter number whileensuring theaccuracyofleaf diseasespot detection,meting thereal-timerequirementsandlayingafoundation for online detection of leaf disease spots based on semantic segmentation.
Keywords: apple leaves; disease segmentation; atention mechanism; feature fusion; deep learning
0 引言
蘋果是我國產量最大的水果,而病害是影響蘋果產量的重要因素之一[1]。受到環境和病菌等因素的影響,蘋果病害的發生往往發生在根莖、果實以及葉部區域,其中葉部區域發生病害次數較多,會產生諸如銹病、花葉病、斑點落葉病、褐斑病和灰斑病等多種病害,嚴重阻礙蘋果正常生長,影響蘋果的產量和質量[2。因此蘋果葉片病害的實時檢測對病害有效防治,提高蘋果品質,減少果農經濟損失,促進農村經濟發展等方面具有十分重要的意義。目前,果樹葉片病斑識別大多依賴果農自身的肉眼與長期經驗知識進行識別和判斷,難以即時推廣及適應大面積種植。隨著計算機軟硬件技術的發展,機器視覺技術在農作物病害檢測領域中也被廣泛運用,相較于傳統人工識別,機器視覺可以更加高效、客觀地獲取葉面病害信息,是未來智能化農業發展的必然趨勢[3]。
隨著深度學習的不斷發展,越來越多的學者融合機器視覺與深度學習并應用于植物病害分割與診斷,其中使用語義分割網絡可以同時進行病斑分割與識別,完成植物病害檢測工作。Qi等4使用PSPNet模型對荔枝主脈圖像進行語義分割。劉永波等[5提出基于U—Net算法的玉米病斑嚴重程度分級方法,試驗表明該模型可以實現對玉米常見葉部病害程度的準確客觀分級。Chen等在U—Net網絡跳躍連接結構上添加SE模塊,構建BLSNet語義分割網絡,實現對水稻細菌性條斑病的分割與病害程度診斷。晁曉菲提出了用于提取全局上下文特征信息的斜紋池化方法以及十字交叉池化方法,實現對蘋果葉部多個方向的特征信息融合,并為模型加入全局空間注意力,最后將其應用到U—Net網絡構建DCPU一Net語義分割網絡,實現對葉片病斑的語義分割。Wang等研究基于深度融合的黃瓜葉部病害嚴重程度,利用DeepLabV3網絡從復雜背景分割出黃瓜葉片。熊俊濤等9使用ResNet—34為主干網絡的DeepLabV3模型對荔枝花、葉進行分割。顧文娟等[°]提出一種以CA—GhostNet作為DeepLabV3十的主干特征提取網絡用于番茄的多類別分割。李鑫然[]使用密集連接ASPP模塊作為DeepLabV3十的特征提取網絡將蘋果葉片從復雜背景中進行提取,再將提取出的蘋果葉片送入基于FasterR—CNN構建的檢測模型進行病斑定位。
由于葉片病斑存在尺度不一、形態各異等特征,提升模型對多尺度病斑的檢測能力至關重要。而上述方法忽視了模型的多尺度特征提取能力,且部分方法為提高模型性能,導致模型參數量成倍增加,降低模型分割速度。
針對上述問題,本文提出一種基于改進的DeepLabV3十的蘋果葉片病斑分割算法。在編碼器中,引人MobileNetV2[12]網絡以壓縮模型、提高檢測速度;在ASPP模塊中引人密集連接和混合池化模塊構建具有雙重池化結構的MP—DenseASPP,以獲得更大的感受野,加強對各種形狀的葉片缺陷的特征提取能力;同時,對解碼器進行改進,提出ECAFF模塊和多尺度淺層特征層,進一步增強對多尺度病斑的檢測識別能力。
1 DeepLabV3+算法
DeepLabV3+[13是一種在分割精度和計算效率之間取得平衡的語義分割模型,在許多領域中得到了廣泛的應用,其模型結構如圖1所示。該算法通過引入一系列新的特征提取模塊和空洞卷積模塊,從而有效地提高模型的分割精度和計算效率。DeepLabV3十采用Xception[14]模型作為其主干網絡,以增加模型的深度和感受野。同時,為了減小分辨率下降對分割精度的影響,DeepLabV3+使用了一種“空洞空間金字塔池化\"(ASPP)的多尺度特征提取模塊。該模塊可以在不同尺度下提取特征,并通過空洞卷積將這些特征進行融合,從而使模型能夠更好地理解不同尺寸和形狀的物體。除了ASPP模塊,DeepLabV3十還使用了一種編碼器一解碼器的結構,用于將低分辨率的特征圖上采樣到原始分辨率,并與高分辨率的特征圖進行融合,從而提高分割精度。
圖1DeepLabV3+模型 Fig.1DeepLabV3+ model

2改進DeepLabV3+語義分割算法
2.1 總體框架改進設計
設計一種基于改進DeepLabV3 + 的蘋果葉面病斑分割模型,圖2為改進后的DeepLabV3+模型結構。從4個方面進行改進:(1)將傳統的Xception主干網絡用輕量級的MobileNetV2網絡替代,以減少模型的參數量,提高模型的計算速度。(2)密集連接空洞率為3、6、12、18、24的空洞卷積層,同時并聯混合池化模塊[15](MPM),構成具有雙重池化結構的MP—
DenseASPP模塊,可以增大模型感受野,并增強模型對不同形狀病斑的特征提取能力。(3)選取MobileNetV2處理過程中3個不同大小的特征圖,進行不同倍數的雙線性插值上采樣,將通道數和特征圖尺寸調整至相同,接著按照原始特征圖大小依次融合,輸出最終融合特征圖,增強模型對多尺度病斑的分割能力。(4)提出ECAFF模塊,在AFF模塊中嵌入ECA注意力機制,避免原本AFF模塊先降維再升維導致通道信息缺失,進一步增強該模塊的特征融合表現。
圖2改進DeepLabV3+模型結構Fig.2 Improved DeepLabV3+ model structure

2.2 MobileNetV2模塊
DeepLabV3+主干網絡Xception雖然有較為良好的檢測精度,但該網絡參數量、浮點計算量較大,需要更多的計算資源,不能實現葉片病斑的快速分割,因此,采用輕量化MobileNetV2模塊,在大幅度提高模型計算速度的同時與分割準確率得到了較好的平衡。
MobileNetV2是一種專為嵌人式平臺設計的輕量級深度神經網絡。其采用逆殘差結構來取代傳統的非線性激活變換,從而構建基于MobileNetV2的倒置殘差塊(InvertedResidualBlock),結構如圖3所示。
上,為實現從低維空間到高維空間的映射并減少通道數,引人擴展層(Expansionlayer)和投影層(Projectionlayer)。在投影層中,選擇使用線性激活函數而非ReLU激活函數,以避免后者可能引起的特征信息的丟失或破壞。
2.3 MP一DenseASPP網絡構建
在DeepLabV3+模型中,ASPP在葉片病斑語義分割應用過程中存在一定的局限性。自然場景中葉片的分割和葉片上尺寸較大的病斑分割通常需要較大的感受野。但是,由于空洞卷積的特性,在進行卷積運算時,ASPP僅選取少量的像素點進行運算,導致大量信息丟失。同時,傳統方形卷積核的感受域決定了ASPP對狹長形缺陷的檢測效果變差,并且當葉片病斑處于離散狀態時,方形卷積核不可避免地會合并來自無關區域的污染信息。針對上述問題,將混合池化模塊引入DenseASPP[16]中構成MP—DenseASPP模塊。
圖3倒置殘差塊結構 Fig.3 Inverted residual block structure

倒置殘差塊的核心是利用深度可分離卷積進行特征提取,通過大量的 1×1 卷積核對輸入的每個通道單獨進行卷積處理,進而整合各通道之間的信息。殘差分支直接將輸人與輸出連接起來。在網絡架構設計
MP一DenseASPP模塊通過將上層各個空洞卷積輸出的特征圖傳遞到下一層的空洞卷積,并與下一層的特征圖進行拼接,從而構建一個更為密集的特征金字塔,實現空洞卷積層感受野的逐層增加,有效規避了ASPP模塊中核退化的問題。同時,通過一系列拼接操作,使模塊最終輸出的特征圖不僅包含了廣泛的語義信息,而且以極其密集的方式覆蓋了這些信息范圍,從而提高了模型在處理復雜圖像時的性能和準確度。此外,并聯MPM模塊組成雙重池化模塊,強化了模型對遠程和近程的上下文信息的捕捉能力,加強了對狹長形葉面缺陷的識別能力,使模型在特征提取階段能更好地識別和處理各種形狀的缺陷特征。MP—DenseASPP網絡結構如圖4所示。
首先,將原始深層特征信息傳到輸出位置,再依次進行空洞率rate為3、6、12、18、24的空洞卷積,每個空洞卷積層的輸人都是前面所有卷積層的輸出和初始輸人特征的連接。接著,對原始深層特征信息進行全局平均池化和混合池化操作。最后,將所有輸出特征圖融合拼接,得到最終輸出特征圖。
混合池化模塊由兩個子模塊組成,分別是條帶池化模塊(SPM)和金字塔池化模塊(PPM)[17],如圖5所示。條帶池化和金字塔池化分別用于捕獲長距離和短距離的依賴關系,從而更好地適應于不同形狀的物體。

金字塔池化(PP)過程如圖5(a)所示,為了解決輸入特征圖大小不同的問題,對每一張輸人特征圖采用不同尺寸的池化操作,得到尺度不同的低維輸出特征圖,通過雙線性插值上采樣和Concat操作,得到與原始輸入特征映射相同尺寸的特征圖并進行拼接,從而得到最后的輸出特征圖。
條帶池化(SP)過程如圖5(b)所示,是一個沿著空間維度部署的長條形狀的池化核,在條帶池化中,將當前的特征圖按照一定的規則劃分為若干條帶狀區域,每個帶狀區域再執行標準的池化操作,從而得到一組池化后的小特征圖。同時,SP帶狀池化的設計是輕量級的。
假設 x∈Rc×H×W 為輸人張量。若對其使用池化核為 1×W 的水平池化,則輸出的列向量為 c× H×1 ,如式(1)所示。

式中: c 一 特征圖的通道數;
H,W —特征圖的寬和高;
i,j? ——特征圖中第 i 行和第 j 列的像素位置;
JH 一水平方向的條帶池化。
類似地,若對其使用池化核為 W×1 的垂直池化,則輸出的行向量為 C×1×H ,如式(2)所示。

式中: yv 垂直方向的條帶池化。
2.4多尺度淺層特征層設計
淺層特征層包含一些局部、細微的特征信息,能夠獲得像素級的定位精度[18],而深層特征是全局的特征,能夠獲得上下文信息和準確的語義信息。像素分類依賴于高維和低維特征,因而淺層與深層特征的融合,可以獲得更加強大的特征表達。所以增強淺層特征層的特征表現,提高特征圖融合性能對于提高圖像分割性能具有重要意義。基于此,提出一種多尺度淺層特征層以提高網絡分割語義信息表征能力,其結構如圖6所示。

首先,將MobileNetV2中大小為 128×128×24 64×64×32 和 32×32×64 的特征圖作為特征層的輸入。其次,對輸入特征圖進行 1×1 卷積調整通道數為48,使3個輸入特征圖的通道數保持一致。然后,分別對尺寸為 64×64×48 和 32×32×48 的特征圖進行2倍和4倍雙線性插值上采樣,調整尺寸與感受野為128×128×48 。最后,將特征圖按原始尺寸從大到小的順序依次合并,輸出尺寸為 128×128×144 的多尺度淺層融合特征圖。最后輸出的融合特征圖具有豐富的語義和空間信息,有助于提高葉面多尺度病斑分割精度。
2.5 ECAFF模塊設計
在2.4節提出的多尺度淺層特征層中只是將3個淺層特征層直接進行拼接融合,存在融合后通道數過多和分割對象細節信息丟失的問題。因此,針對上述不足,在AFF模塊19的基礎上進行改進,提出ECAFF模塊以聚合特征圖的上下文信息,同時降低模型復雜程度,其結構如圖7所示。
改進ECAFF模塊的結構如圖7(a)所示。由于MS一CAM模塊中的局部注意力和全局注意力會將輸入特征 X,Y 的通道數先減少為原來的 1/r ,最后再恢復為原始通道數,這種對通道數的升降維操作會讓通道注意力捕獲所有通道之間依存關系的效率和準確率降低。為了解決通道升降維帶來的副作用,使用ECA注意力機制,分別串聯于局部加權特征圖和全局加權特征圖后,對兩種特征圖分別進行完整通道數的特征加權,讓模塊更有效地捕獲跨通道的信息交互,增強融合后特征圖的特征表現。
在原始AFF模中,輸入特征 X 和 Y 經過元素相加,輸出到多尺度通道注意力模塊(MS一CAM)中獲取通道方向的注意力權重,MS一CAM結構如圖7(b)所示。MS一CAM左側分支提取全局通道注意力,與右側分支提取局部通道注意力結合后生成輸人特征的通道注意力權重,該權重分別與 X,Y 相乘后產生的特征圖的結果進行相加,輸出得到最終的特征圖 Z O

ECA注意力機制結構2如圖8所示,首先對 c× H×W 的輸人特征圖進行全局平均池化(GAP)得到1×1×C 的特征圖,接著由式(1確定 k 的大小,進行卷積核大小為 k 的一維卷積,并經過Sigmoid激活函數獲得 0~1 的歸一化權重值,并將其加權到每個通道的特征中,輸出具有通道注意力的特征圖。
超參數, γ=2,b=1 。

3 試驗結果及分析
3.1試驗參數配置及試驗數據集
試驗運行環境如表1所示,在模型訓練中,試驗采用批次迭代訓練法,共迭代200次,前50次訓練為凍結訓練,后15O次為解凍訓練,batchsize設置為16,學習率設置為0.007,使用隨機梯度下降法SGD優化器更新權重參數,動量設置為0.9。此外,試驗中利用遷移學習思想在訓練前先載入主干網絡MobileNetV2的預訓練模型權重,將預訓練參數更新至改進網絡中訓練,使得模型能夠加速收斂。
表1試驗環境配置Tab.1 Experimental environment configuration

為驗證改進模型的可行性和優勢性,使用ATLDSD公開數據集進行訓練和驗證。ATLDSD數據集共包含4種病害和健康葉片圖像共1644幅作為供試數據集,其中斑點落葉病279幅、褐斑病216幅、灰斑病396幅、銹病344幅及健康葉片409幅。供試圖像中大田背景居多,僅有小部分樣本在實驗室獲取。本文以9:1隨機劃分訓練集和驗證集,為客觀評價改進模型在該數據集的表現,不對數據集圖像進行數據增強處理。
3.2 試驗評價指標

圖8ECA注意力機制Fig.8 ECA attention mechanism

選取平均交并比(mIoU)、平均像素精度 (mPA) )、F1 分數、浮點計算量 (FLOPs) 參數量(Params)以及檢測速度 (FPS) 作為模型的評價指標,計算如式(4)~式(8)所示。平均交并比反映預測病斑與實際病斑的重合程度;平均像素精度反映病斑檢測的可靠程度; F1 分數是通過綜合評價查全率(Recal)和查準率(Precision)的評價指標,分數越大表示分割效果越佳。參數量和浮點計算量為評價模型體積的重要指標,越低表示模型的輕量化程度越高。檢測速度為模型1s處理的圖像數量,指標越高表示模型推理速度越快。
ECA注意力機制的計算如式(3)所示,其中, γ,b 為





式中:
真實類別為 a 被預測為 b 的樣本個數;?aa 真實類別為 a 且被正確預測的樣本數;?ba 真實類別為 b 被預測為 a 的樣本個數;$\textcircled { \rho } _ { b b }$ 真實類別為 b 且被正確預測的樣本數;K? 一 除背景類的其他類別總數。
3.3 損失函數
損失函數是評估深度學習模型的一種度量方式。Dice損失函數是一種語義分割任務常用的損失函數,適用于訓練類別不平衡的分割模型,在類別不平衡的情況下可以達到更好的效果。其表達式如式(9)所示。

式中: yi 一第 i 個像素點的標簽值;?ρi 一第 i 個像素點的預測概率值;N? —像素點總數;£ 平滑系數。
為加快收斂,減少過擬合,ε值設置為1。
圖9為改進后的DeepLab ΔV3+ 模型和傳統DeepLabV3十模型在模型訓練時的訓練損失和驗證損失。兩種模型的兩種損失值都隨網絡訓練迭代次數增加而遞減,并且逐漸趨于平穩、收斂。
其中,改進模型的損失值曲線和準確度曲線收斂速度比傳統DeepLab V3+ 算法快,且損失值更低,波動小。

3.4消融實驗
為驗證不同改進模塊對改進模型的影響,設計與DeepLab .V3+ 原模型的對比消融實驗來驗證改進的有效性,以方案A為基準模型,設計對模型的不同處理方法如表2所示。
表2不同處理方法Tab.2Different processing methods

為驗證改進方案的檢測效果,在ATLDSD數據集上進行消融實驗,并進行對比分析。為確保實驗的嚴謹性,模型訓練和測試均使用同一數據集和驗證集,并且在實驗過程中使用相同的參數配置,消融實驗的結果如表3所示。
表3消融實驗結果 Tab.3 Results of ablation experiment

由表3可知,改進后的DeepLabV3十模型在性能方面有比較明顯的提升。具體地,相較于傳統的DeepLabV3十模型,方案B的參數量減少 186.52MB ,浮點計算量減少113.975G,其他指標卻只有略微的降低,表明將傳統DeepLabV3+模型的Xception主干特征提取網絡改為更輕量級的MobileNetV2網絡可明顯減少模型參數量,顯著提高推理速度。改進模型與方案D對比發現,所有評價指標均優于方案D,浮點計算量和參數量也分別減少 7.15G,0.83MB ,檢測速度增加7.14幀/s,這說明通過添加所提出的ECAFF特征融合模塊,可以在提升網絡性能的同時減少參數量。改進模型相比于方案B、方案C、方案D,在平均交并比、平均像素精度和 F1 分數均有不同程度的提升。改進模型對比傳統的DeepLab V3+ 模型,浮點計算量減少97.658G,參數量減少 160.92MB ,檢測速度增加6.67幀/s,平均交并比、平均像素精度和 F1 分數分別提升 1.10%.4.73%.1.02%
5種方案在驗證集上的實際預測結果如圖10所示,其中,對于斑點落葉病,5種方案都能正確地識別出病斑區域,但是方案 A~ 方案D對于葉片邊緣的分割還不夠準確,出現漏識和誤識的現象,而改進模型則很好地分割出病斑區域和葉片邊緣。對于褐斑病,方案B表現最差,方案A、方案C、方案D和改進模型都能識別出大部分病斑,但是都存在漏檢現象。對于灰斑病,方案A、方案C能正確分割出葉片但存在病斑漏檢的現象,方案B能檢測出全部病斑但是邊緣分割不準確,方案D與改進模型處理較好。對于銹病,方案 A~ 方案D準確分割出葉片邊緣,但是出現誤檢現象,本文算法則能夠正確分割出邊緣和病斑。試驗結果表明,所提出的基于改進的DeepLab .V3+ 模型有效提高圖像語義分割性能,對比原始模型大量減少參數量,并在提升葉面病斑檢測精度的同時滿足實時性要求。
3.5 對比試驗
為進一步驗證改進DeepLabV3 + 模型的葉面病斑檢測性能,將改進模型與U一Net和PSPNet進行性能對比,結果如表4所示。改進模型相較于U一Net和PSPNet模型,浮點計算量分別增加16.317G和63.186G,參數量分別增加 25.6MB?38.72MB ,檢測速度分別降低1.55幀/s、55.4幀/s,但是在平均交并比、平均像素精度和F1分數上分別比U—Net提高2.71%.10.25%.3.6% ,比PSPNet分別提高 3.63% 、8.1%.4.12% 。U—Net和PSPNet模型雖檢測效率比改進模型高,但是以犧牲精度為代價,檢測效果不佳,不利于蘋果樹葉片病斑的準確識別。
表4主流算法性能對比 Tab.4 Performance comparison of mainstream algorithms

不同模型在驗證集上的實際預測結果如圖11所示。其中,PSPNet邊緣分割不準確,細小特征提取能力差;U一Net對于邊緣分割比較準確,對于細小特征的提取存在誤檢的現象。改進后的模型在整體和局部的分割精度均優于其他模型,誤識率低,邊緣分割光滑。

圖12不同模型分割結果

綜上,所提出的基于改進的DeepLabV3 3+ 模型對比另外兩種主流算法在蘋果樹葉片病斑識別準確性和實時性之間做到較好的平衡,在試驗中檢測效果最好。
4結論
1)在編碼器中,將特征提取主干網絡的Xception模塊替換成輕量級的MobileNetV2模塊,使用
DenseASPP和混合池化模塊構建MP—DenseASPP作為模型的池化模塊,提高模型的特征提取能力,并有效降低模型大小。在解碼器中,構建ECAFF模塊和多尺度淺層特征層,加強模型對多尺度病斑的檢測識別能力。
2)改進后模型的平均交并比、平均像素精度、F1 分數和檢測速度相較于原模型分別提升 1.10% 、4.73%.1.02% 和6.67幀/s,浮點計算量和參數量對比原模型分別減少約 58.5%.77.1% ,在降低模型大小的同時提高模型分割精度。相較于其他常用的語義分割模型(PSPNet、U—Net),該模型在準確率與模型復雜程度之間取得較好的平衡。
3)所提出的基于改進DeepLabV3 + 的蘋果葉面病 斑語義分割方法實現對蘋果葉面病斑的識別與分割,為 蘋果樹葉片病害實時檢測和精準分級提供技術支撐。
參考文獻
[1]王彩峰,史建民.山東省蘋果種植面積的時空演變特征分 析[J].中國農業資源與區劃,2017,38(12):170—177.
[2]Khan AI,Quadri S MK,Banday S,et al.Deep diagnosis:A real-time apple leaf disease detection system based on deep learning [J]. Computers and Electronics in Agriculture,2022,198:107093.
[3]翟肇裕,曹益飛,徐煥良,等.農作物病蟲害識別關鍵技 術研究綜述[J].農業機械學報,2021,52(7):1-18. Zhai Zhaoyu,Cao Yifei,Xu Huanliang,et al. Review of key techniques for crop disease and pest detection [J]. Transactions of the Chinese Society for Agricultural Machinery,2021,52(7):1—18.
[4]QiX,Dong J,Lan Y,et al.Method for identifying litchi picking position based on YOLOv5 andPSPNet [J]. Remote Sensing,2022,14(9):2004.
[5]劉永波,胡亮,曹艷,等.基于U—Net的玉米葉部病斑 分割算法[J].中國農學通報,2021,37(5):88-95.
[6]Chen X,Lian Y,Jiao L,et al. Supervised edge attentionnetworkforaccurateimage instance segmentation[C]. Computer Vision-ECCV, 2020: 617—631.
[7]晁曉菲.基于深度學習的常見蘋果葉片病害識別與病斑 分割方法研究[D].楊凌:西北農林科技大學,2022.
[8]Wang C,Du P,Wu H,etal. A cucumber leaf disease severity classification method based on the fusion of DeepLabV3+andU—Net[J]. Computersand Electronics in Agriculture,2021,189:106373.
[9]熊俊濤,劉柏林,鐘灼,等.基于深度語義分割網絡的荔 枝花葉分割與識別[J].農業機械學報,2021,52(6): 252-258. Xiong Juntao,Liu Bolin, Zhong Zhuo,et al. Litchi flower semantic segmentation [J]. Transactions of the Chinese Societyfor AgriculturalMachinery,2O21,52(6): 252-258.
[10]顧文娟,魏金,陰艷超,等.基于改進DeepLabV3十的番 茄圖像多類別分割方法[J].農業機械學報,2023, 54(12):261—271. Gu Wenjuan,Wei Jin,Yin Yanchao,et al. Mult-category segmentation method of tomato image based on improved DeepLabV3+ [J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(12):261—271.
[11]李鑫然.基于深度學習的蘋果葉片病害檢測方法研 究[D].楊凌:西北農林科技大學,2021.
[12]Sandler M,Howard A,Zhu M,et al. MobileNetV2: Inverted residuals and linear bottenecks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018: 4510—4520.
[13] Chen L,Zhu Y,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C].ProceedingsoftheEuropean Conference on ComputerVision (ECCV), 2018: 801—818.
[14]Chollet F. Xception:Deep learning with depthwise separable convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017:1251—1258.
[15]Hou Q,Zhang L,Cheng M,et al.Strip pooling: Rethinkingspatial pooling forsceneparsing[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2020: 4003—4012.
[16] Yang M,Yu K, Zhang C,et al. Denseaspp for semantic segmentation in street scenes [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:3684—3692.
[17] Zhao H,Shi J,Qi X,et al.Pyramid scene parsing network [C]. Proceedings of the IEEE Conference on ComputerVision andPatternRecognition, 2017: 2881—2890.
[18]黃聰,楊珺,劉毅,等.基于改進DeepLabV3十的遙感圖像 分割算法[J].電子測量技術,2022,45(21):148-155.
[19]Dai Y,Gieseke F,Oehmcke S,et al. Attentional feature fusion[C]. Proceedings of theIEEE/CVF Winter Conference on Applications of Computer Vision,2021: 3560-3569.
[20] Wang Q,Wu B,Zhu P,et al. ECA—Net:Efficient channelattention fordeepconvolutionalneural networks[C]. Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition,2020: 11534—11542.