中圖分類號:S565.2;TP183 文獻標識碼:A 文章編號:2095-5553(2025)07-0226-08
Abstract:Aimingattheproblemsoflowidentificationeficiencyofpeanutleafdiseasesanddiffcultyinone-site identification,apeanutleaf diseaserecognitionalgorithmbasedontheConvolution Block AtentionModule(CBAM) andMobileNetV2isproposed throughtransfer learning and by integrating theatentionmechanismof CBAM. Firstly,adataset offivekindsof peanut leaf disease images,including healthyleaves,black spotdisease leaves, brown spot disease leaves,net spot disease leaves,and mosaic disease leaves,is established.Secondly,a peanut leaf diseaserecognitionmodelisbuiltbyintegratingchannelatentionmechanismandspatialattentionmechanism.Finally, therecognitionaccuracy beforeandaftermodel improvement isanalyzed,compared with VGG16,InceptionV3and ResNet5O,and the detection time of a single image is predicted. Theexperimental results show that theaccuracy rates of MobileNetV2,VGG16,InceptionV3 and ResNet50 are 97.54% , 97.34% , 96.06% and 74.88% ,respectively, which are all lower than the accuracy rate of the improved model at 99.41% . The detection time for a single image is 0.061 s. The peanutleaf diseaserecognitionalgorithmbasedon transferlearningandatentionmechanismisalightweightneuralnetwork withhighaccuracyandfewmodelparameters.Itcanbeapliedinpeanutfieldsandusedforon-sitedetectionof peanutdiseasesby using mobile devices,enabling farmers to understand the growth status of peanuts in a timely manner.
Keywords:peanut;leaf disease identification;attention mechanism;transfer learning;MobileNetV2
0 引言
年都會出現花生產量減少和品質下降等問題,進而給種植戶帶來較大的經濟損失。因此,對花生病害進行快速、準確地識別,并及時采取防治措施,可有效降低花生是我國的主要農作物之一。受病害影響,每損失。傳統的花生病害識別通常通過人工完成,這種識別方法效率低,且需要一定的知識儲備,易受人為因素干擾。因此,亟須一種實時、快速、準確的識別方法。
隨著科技的進步與計算機科學技術的發展,圖像識別與人工智能技術被廣泛用于農業領域,為農業生產發展注入了新的動力。鄧繼忠等1提出了一種基于圖像識別的小麥黑穗病分類診斷技術,利用濾波增強和病害區域分割提取圖像特征,BP網絡充當分類器實現對小麥黑穗病的診斷;馬佳佳等[2]提出了一種基于優化SVM的蟲害圖像識別方法,通過HOG特征描述提取圖像特征,利用粒子群優化算法對SVM進行優化,復雜背景下識別準確率為 93.89% ;杜曉晨等3使用顏色直方圖、灰度共生矩陣和Gabor濾波提取甘薯圖像特征,提出一種基于圖像顏色和紋理特征的薯種識別算法,平均準確率達 90% 。
傳統圖像識別技術需要對圖像進行預處理,提取重要特征信息,再將特征傳人合適的分類器[4],過程復雜、泛化能力差。深度學習的出現很好地解決了這個問題,已廣泛應用于許多領域。Zhu等[5]以EfficientNet為基礎,添加卷積注意力機制模塊(CBAM),得到改進EfficientNet模型,并與ResNet5O等模型比較,最后準確率達 97.02% ,優于試驗中的其他模型;Zhang等在不同深度的殘差網絡(ResNet)添加注意力機制,提出了一種結合注意力機制和殘差網絡的不完美小麥籽粒識別方法,平均識別準確率達 97.5% ;Zhao等針對植物病情程度問題,提出一種注意力網絡模型(SEV—Net),此模型減少了通道信息的冗余,將重點放在信息最豐富的區域,對番茄多、單株病情嚴重程度識別準確率分別為97.59%.95.57% ,優于現有的注意網絡SE—Net和CBAM;Zhang等[利用DenseNet和 Self—Attention機制融合進行6種臍橙病蟲害的識別,在測試中的準確率高達96.9% 。由此可見,引入注意力機制可顯著提高模型的特征提取能力。目前基于輕量級網絡與注意力機制的研究相對較少,尤其是對于病害識別移動設備的研究。
移動端要求模型參數量少、識別快、準確率高。王春山等9在ResNet18的基礎上,增加多尺度特征提取模塊,改變殘差層連接方式,分解大卷積核,進行群卷積操作,提出多尺度殘差(Multi-scaleResNet)輕量級病害識別模型,識別準確率在 90% 以上,并且具備在硬件受限的場景下部署和運行的能力,為神經網絡在移動端部署提供參考;劉陽等[10]在經典SqueezeNet網絡的基礎上改進SqueezeNet,平均準確率達 97.62% ,并且通過縮減模型參數量,實現輕量化的分類檢測;張善文等[1針對性地優化了傳統卷積神經網絡,提出多尺度融合卷積神經網絡概念,將其應用于黃瓜葉片病害分割中,平均分割準確率為 93.12% 。
上述研究對經典網絡進行修改,準確率得到提高,結合輕量化網絡與注意力機制,為神經網絡成功部署于移動端提供條件,但是應用于花生病害識別方面的研究較少。本文提出一種基于CBAM—MobileNetV2的花生葉部病害識別方法,該方法通過在ImageNet數據上遷移學習輕量級網絡MobileNetV2,引人融合通道注意力和空間注意力的 CBAM[12] 注意力卷積模塊,以提升花生葉部病害的表征能力,為植物病害識別模型部署于移動設備上提供思路。
1數據采集與處理
1.1 圖像數據集采集
圖像數據集來自中國山東省煙臺市農業植保站專用試驗田 (37°31′47′′N,121°24′41′′E) 和山東省城陽區惜福鎮街道花生種植田 (36°19′11′′N,120°23′45′′E) 。分別使用OLYMPUSIMAGINGCORP.C7070WZ相機、CanonEOSKissX5相機以及SONYDSC-HX30V相機拍攝,圖片大小為3072像素 ×2304 像素,所采集圖像均為單葉狀態。為保證圖片清晰,方便后續對圖片的預處理,通過手動劃分各類圖片,裁剪出合適的圖片大小,獲得單葉狀態圖像。將這些圖片分為健康、黑斑病、褐斑病、網斑病、花葉病5大類,并劃分訓練集、驗證集和測試集,5種花生典型葉部圖像如圖1所示。
圖1花生4種病害和健康葉部圖
Fig.1Four diseases and healthy leaves of peanut
1. 2 數據預處理
數據集的圖像質量是影響網絡模型訓練和測試的重要因素之一[13],如果數據集樣本分布失衡,則容易導致網絡過擬合現象。為構建不同復雜環境背景下的圖片,使模型適應不同的復雜背景,加強模型的魯棒性,提高網絡模型的識別準確率,需要對數據集進行增強處理,對圖像進行旋轉、平移、翻轉調整,將數據集擴增到9693張,健康葉片及4種病害葉片數據集增強前后數量如表1所示。
表1數據集詳細信息Tab.1 Dataset details
按 6:2:2 分為訓練集、驗證集和測試集,訓練集5695張,驗證集2014張,測試集1984張,并統一成224像素 ×224 像素大小的圖片。
2 模型構建
2.1 MobileNetV2模型
MobileNetV2[14]具有占用內存少、計算量小等優點,適用于移動設備和嵌入式微機部署。不同于傳統卷積網絡,MobileNetV2引人深度可分離卷積與2個超參數 α 和 β,α 能調整卷積核的個數, β 能控制輸入網絡的圖像尺寸參數。表2為MobileNetV2的網絡結構參數,此模型在MobileNetV1的基礎上引人線性瓶頸層,提出倒置殘差網絡的架構。傳統的殘差結構:1×1 卷積降維 卷積
卷積升維,這是一個降維到升維的過程,而倒置殘差結構恰好相反[15,16]。倒置殘差結構如圖2所示,前兩層使用ReLU函數,最后一層使用Linear函數,這樣可以減少特征損失。但是花生病害圖像具有背景復雜、病斑分布廣等特點,利用MobileNetV2進行圖像識別時,存在特征提取不準確、感興趣區域分散等問題。
表2MobileNetV2網絡結構參數配置Tab.2MobileNetV2 network structure parameter configuration
注:“—\"表示該處值不存在; ?k ”表示任意正整數值。
2.2 遷移學習
遷移學習[17]是圖像識別中常用的方法,該方法可節省計算資源,提高訓練效率。基于遷移學習的花生葉部病害圖像分類模型訓練過程如圖3所示,加載ImageNet的MobileNetV2模型,在全連接層前面加上全局平均池化層和Dropout層,可以加強特征圖與類別的一致性,使卷積結構更簡單,避免模型過擬合,并且整合全局空間信息,提高輸入圖片空間平移的魯棒性。
ImageNet上的MobileNetV2模型為1000分類的全連接層輸出,加載模型時去掉模型的輸入與輸出,重新定義輸人為 128×128×3 ,全連接層輸出為5分類,并采用Softmax函數對圖像進行分類。
圖3模型整體結構
Fig. 3Overall structure of the model
2.3 CBAM注意力機制
卷積注意力模塊[18能夠使網絡在進行圖像識別時專注于主要信息而忽略無關信息。常見注意力模塊有DA注意力模塊[19]、SE注意力模塊[20]以及CBAM注意力模塊等。
DA模塊通過位置注意力機制和通道注意力機制并行獲取信息;SE模塊主要在通道維度上增加注意力;CBAM注意力機制由通道注意力與空間注意力串行,兩種注意力關注不同的特征,通道注意力關注有意義的輸入特征,空間注意力會自動尋找圖像中最重要的區域。花生病害圖像的環境背景復雜,花生病斑大小不一,空間注意力使網絡更加關注花生病害圖像中對分類起決定作用的像素區域而忽略無關緊要的區域,會更加關注斑點而忽略綠色葉片以及背景。通道注意力則負責處理特征圖通道的分配關系,對2個維度進行注意力分配,達到注意力機制對模型性能提升的最佳效果[21.22]。CBAM模塊內部無大量卷積結構,只有少量池化層和特征融合操作,計算量小且能有效提高模型性能。因此,加人CBAM模塊能有效提高模型的特征提取能力。
通道注意力機制[23流程如圖4所示。將輸入特征圖分別進行全局最大池化和全局平均池化,基于2個維度對特征映射進行壓縮,得到2個維度不同的特征描述。池化后的特征圖共用一個多層感知器(MLP),先通過 1×1 卷積降維,再 1×1 升維,再將2張圖相加,經過Sigmoid激活函數歸一化特征圖得到每個通道的權重,權重與輸入特征圖相乘得到新特征。
圖4通道注意力模塊Fig.4 Channel attention module
空間注意力機制[24模塊如圖5所示,空間注意力位于通道注意力后面,處理通道注意力輸出特征圖的空間域,特征圖分別經過基于通道維度的最大池化和平均池化處理,再將2張特征圖在通道維度堆疊,1×1 卷積對通道數調整,最后經過Sigmoid函數歸一化權重,得到的權重與輸入特征相乘便可得到新特征。在原始模型后加人CBAM模塊、GAP層和Dropout層,重新定義輸人層和全連接層,使之適用于圖像的5分類輸出。
圖5空間注意力模塊Fig.5 Spatial attention module
2.4 模型微調與訓練
在TensorFlow學習框架下,使用預訓練模型MobileNetV2作為特征提取器,將凍結預訓練網絡的所有層,之后依次解凍靠近最后一層的部分卷積層,其余層的權重直接使用,重新訓練未凍結的卷積層參數和分類器。試驗過程中發現模型收斂位于 10~20 次迭代,設置學習率為0.0001,迭代次數(epochs)為50,使得模型訓練效果更佳。由于沒有GPU加速訓練,因此一個批次訓練所使用的樣本數(batchsize)為32,每次迭代的圖像數為241。使用自適應矩陣估計算法(Adam)[25]來優化網絡的損失函數。Dropout層丟失率為0.2。網絡損失函數采用交叉熵損失函數(cross-entropy),用于度量預測的概率與真實的差異情況,其值越小則準確率越高,計算如式(1)所示。
式中: L ——交叉熵損失值;g(xi) ——模型輸出預測值;yi 1 輸人 xi 的真實值;c 樣本數。
表3為整個模型的網絡特征參數,預處理后的圖像以 128×128×3 形式輸人,經過MobileNetV2網絡后變為 4×4×1 280 ,再依次通過添加的CBAM模塊、GAP層、Dropout層,最后經過Dense分類層。
表3模型網絡特征參數Tab.3 Model network characteristic parameters
2.5 評價指標
采用準確率 Acc 、召回率 R 、精確率 P?F1 分數( (F1) 和模型參數量對模型進行評價[26], Acc,R,P 和F1 計算如式 (2)~ 式(5)所示。
式中: TPi ——正樣本被預測為正樣本的數量;TNi ——負樣本被預測為負樣本的數量;(204號 FPi ———負樣本被錯誤預測為正樣本的數量;FNi ———正樣本被錯誤預測為負樣本的數量。
3試驗結果與分析
3.1 試驗環境
試驗在Windowsl064位操作系統和處理器為CPU的環境下進行,Tensorflow版本為2.8.0,Python版本為3.9。CPU為IntelCorei5-7200U,內存為 12GB 。
3.2 試驗結果
為驗證CBAM模塊優于其他注意力機制,在MobileNetV2模型上分別添加DA注意力機制、SE注意力機制、空間注意力機制和通道注意力機制,并通過測試集測試各模型的性能,結果如表4所示。
添加CBAM模塊所得到的每類病害精確率、召回率和 F1 值均高于添加其他注意力模塊,并且在增加參數量可觀的前提下,準確率較MobileNetV2提高1.87% 。在圖像預測方面,添加CBAM模塊的模型單幅圖像預測時間為0.061s,僅比MobileNetV2多0.001s。添加SE的模型雖然在預測時間上取得優勢,但是在準確率方面不如添加CBAM的模型。添加空間注意力機制和通道注意力機制所得到的準確率分別是 97.07%.98.96% ,單幅圖像預測時間分別是 ,添加融合空間與通道注意力機制的模型得到的準確率為 99.41% ,單幅圖像預測時間為0.061s,證明融合這兩種注意力機制比單獨注意力機制更能提升網絡準確率和識別速度。
表4不同注意力模塊對比Tab.4Comparison of different attention modules
3.3 模型改進前后對比
圖6為模型改進前后的準確率曲線。可以看出,2種模型在約10次迭代中快速擬合,準確率快速增加,當迭代30次后,準確率維持平穩。在相同條件下搭建2種網絡結構,迭代50次后,CBAM—MobileNetV2模型準確率達到 99.41% ,MobileNetV2模型準確率為
97.54% ,并且訓練過程中CBAM—MobileNetV2模型準確率始終比MobileNetV2模型高。表明改進后模型更能精準捕捉花生病害圖像信息,獲得圖像中更多的特征,防止模型過擬合,證明改進模型的有效性。圖7為訓練集、驗證集損失值曲線,可以看出,與準確率曲線相對應,迭代次數達到30次后,損失值趨于平穩。
圖9改進后MobileNetV2混淆矩陣 Fig.9Improved MobileNetV2 confusion matrix
圖8和圖9為改進前、后的混淆矩陣,其中大部分的分類數據位于混淆矩陣的對角線上,說明模型性能較好,每類病害都有較高的準確率。CBAM—MobileNetV2預測正確的每類圖像數量均多于MobileNetV2,從表4可以看出,CBAM—MobileNetV2的每類圖像精確率、召回率、F1值均高于原始MobileNetV2。健康葉片與其他4種病害的區別最為明顯,因此,健康葉片全都被正確識別。
圖 10~ 圖12為InceptionV3、VGG16、ResNet50的混淆矩陣,CBAM—MobileNetV2預測正確的每類圖像數量均多于其他4種模型。由圖9可知,有17張黑斑病被識別成褐斑病,有6張被識別成網斑病。如圖13所示,黑斑病和褐斑病的癥狀都是相同大小的圓形斑點,兩者最大區別是顏色不同,褐斑病圓形斑點外圍多一圈黃褐色圓環,容易將2種病害葉片判別錯誤。當黑斑病嚴重時,斑點會擴大并相連,形狀就會類似網斑病,因此,會把嚴重的黑斑病識別成網斑病。
圖13不同程度病害葉片對比
3.4 與經典網絡對比
為更好地驗證CBAM—MobileNetV2的性能,加人VGG16、InceptionV3和ResNet50進行對比。從表5可以看出,CBAM—MobileNetV2的準確率比VGG16高出2.07% ;比InceptionV3高出 3.35% ;比ResNet50高出24.53% ,并且模型所占內存均少于其他經典模型,所需時間僅比MobileNetV2多 0.03s ,明顯少于其他模型。由此可知,CBAM—MobileNetV2在內存占用少的情況下依然保持較高的識別準確率和效率。如圖14所示,網絡模型準確率都呈現上升趨勢,模型在訓練時不斷學習,曲線都在10次迭代之后趨于平穩。CBAM—MobileNetV2模型在識別準確率和參數內存方面都取得較好的平衡,能夠較好地滿足移動端花生病害識別的要求。
表5經典模型性能對比 Tab.5Classic model performance comparison
4結論
1)針對花生葉部的健康、黑斑病、褐斑病、網斑病、花葉病5種狀態,基于CBAM—MobileNetV2建立的花生病害識別模型的準確率達到 99.41% 。
2)通過適當的圖像預處理方式可以提高模型的性能。利用ImageNet數據集上訓練好MobileNetV2模型進行遷移學習,通過加人CBAM模塊、全局平均池化層和Dropout層,準確率比原始網絡提高 1.87% ,并且預測速度幾乎不變,同時與經典網絡對比,性能均優于其他網絡。
3)所建立的模型在5種花生葉部狀態識別任務中取得很好的效果,但是花生不僅有病害,還有蟲害,以及病害和蟲害同時發生的情況。下一步可以對花生的更多病蟲害進行識別。此模型屬于輕量級神經網絡,可應用于花生田間,利用移動設備即可現場檢測花生病害,能夠及時了解花生生長狀況,選擇正確的藥物,進行花生病害防治,可大大減少花生的損失。
參考文獻
[1]鄧繼忠,李敏,袁之報,等.基于圖像識別的小麥腥黑穗病害診斷技術研究[J].東北農業大學學報,2012,43(5):74—77.Deng Jizhong,Li Min,Yuan Zhibao,et al. Study ondiagnosis of Tilletia based on image recognition [J].Journal of Northeast Agricultural University,2012,43(5):74-77 :
[2]馬佳佳,陳友鵬,王克強,等.基于優化SVM的蟲害圖像識別研究[J].中國糧油學報,2022,37(5):10—15.
[3]杜曉晨,張幸,陸國權.基于圖像處理的甘薯種類識別方法研究[J].中國糧油學報,2014,29(11):118—122,128.
[4]黃林生,羅耀武,楊小冬,等.基于注意力機制和多尺度殘差網絡的農作物病害識別[J].農業機械學報,2021,52(10):264-271.Huang Linsheng,Luo Yaowu, Yang Xiaodong,et al.Crop disease recognition based on attentionmechanism andmulti-scaleresidualnetwork[J].Transactions of the Chinese Society for AgriculturalMachinery,2021,52(10):264-271.
[5] Zhu X, Zhang X,Sun Z,et al. Identification of oil tea (Camelliaoleifera C. Abel) cultivars using EfficientNet—B4 CNN modelwith attention mechanism[J].Forests,2021,13(1):1.
[6] ZhangW,Ma H,Li X, etal. Imperfectwheatgrain recognition combined with an attentionmechanism and residual network [J]. Applied Sciences,2021,11(11):5139.
[7] Zhao Y,Chen J,Xu X,et al. SEV—Net:Residualnetwork embeddedwithattention mechanismforplant disease severity detection [J]. Concurrency andComputation:PracticeandExperience, 2021,33(10):e6161.
[8] Zhang Y,Liu Y. Identification of navel orange diseases andpests based on the fusionofDenseNetandself-attention mechanism [J]. Computational Intelligenceand Neuroscience,2021,2021(1):5436729.
[9]王春山,周冀,吳華瑞,等.改進Multi-scaleResNet的蔬菜葉部病害識別[J].農業工程學報,2020,36(20):209—217.Wang Chunshan,Zhou Ji,Wu Huarui,et al.Identificationof vegetable leaf diseases based on improved Multi-scaleResNet [J]. Transactions of the Chinese Society ofAgricultural Engineering,2020,36(20):209—217.
[10]劉陽,高國琴.采用改進的SqueezeNet模型識別多類葉片病害[J].農業工程學報,2021,37(2):187-195.LiuYang, Gao Guoqin.Identification of multipleleaf diseases using improved SqueezeNet model [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(2):187-195.
[11]張善文,王振,王祖良.多尺度融合卷積神經網絡的黃瓜病害葉片圖像分割方法[J].農業工程學報,2020,36for image segmentation of cucumber disease leaves basedon multi-scale fusion convolutional neural networks [J].Transactions of the Chinese Society of AgriculturalEngineering,2020,36(16):149-157.
[12]張旭,周云成,劉忠穎,等.基于改進ShuffleNetV2模型的蘋果葉部病害識別及應用[J].沈陽農業大學學報,2022,53(1):110—118.Zhang Xu, Zhou Yuncheng,Liu Zhongying,et al.Identification and application of apple leaf diseases basedonimproved ShuffleNetV2 model [J]. Journal ofShenyang Agricultural University, 2022, 53(1):110—118.
[13]王金,李顏娥,馮海林,等.基于改進的FasterR一CNN的小目標儲糧害蟲檢測研究[J].中國糧油學報,2021,36(9): 164—171.
[14]孫俊,朱偉棟,羅元秋,等.基于改進MobileNetV2的田間農作物葉片病害識別[J].農業工程學報,2021,37(22):161—169.Sun Jun,Zhu Weidong,Luo Yuanqiu,et al. Recognizingthe diseases of crop leaves in fields using improvedMobileNetV2[J]. Transactions of the Chinese Society ofAgricultural Engineering,2021,37(22):161—169.
[15]李國進,黃曉潔,李修華.采用輕量級網絡MobileNetV2的釀酒葡萄檢測模型[J].農業工程學報,2021,37(17):168—176.Li Guojin,Huang Xiaojie,Li Xiuhua. Detection model forwine grapes using MobileNetV2 lightweight network [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(17):168-176.
[16]鄧楊,王粵,尚玉婷.基于深度學習的大米堊白分割算法研究[J].中國糧油學報,2021,36(4):139—144.
[17]張寧,吳華瑞,韓笑,等.基于多尺度和注意力機制的番茄病害識別方法[J].浙江農業學報,2021,33(7):1329—1338.Zhang Ning,Wu Huarui,Han Xiao, et al.Tomatodisease recognition scheme based on multi-scale andattentionmechanism [J]. Acta AgriculturaeZhejiangensis,2021,33(7):1329-1338.
[18]寧紀鋒,倪靜,何宜家,等.基于卷積注意力的無人機多光譜遙感影像地膜農田識別[J].農業機械學報,2021,52(9):213-220.Ning Jifeng,Ni Jing,He Yijia,et al. Convolutional attentionbased plastic mulching farmland identification via UAVmultispectral remote sensing image [J]. Transactions of theChinese Society for Agricultural Machinery,2O21,52(9):213-220.
[19]陸仲達,張春達,張佳奇,等.雙分支網絡的蘋果葉部病害識別[J].計算機科學與探索,2022,16(4):917-926.
[20]李書琴,陳聰,朱彤,等.基于輕量級殘差網絡的植物葉片病害識別[J].農業機械學報,2022,53(3):243—250.LiShuqin,Chen Cong,Zhu Tong, etal. Plant leafdisease identification based on lightweightresidualnetwork [J].Transactions the Chinese Society forAgriculturalMachinery,2022,53(3): 243-250
[21]章權兵,胡姍姍,舒文燦,等.基于注意力機制金字塔網絡的麥穗檢測方法[J].農業機械學報,2021,52(11):253-262.Zhang Quanbing,Hu Shanshan, Shu Wencan, etal.Wheat spikes detection method based on Pyramidal Networkattention mechanism [J].Transactions the ChineseSociety forAgriculturalMachinery,2021,52(11):253—262.
[22]陳智超,焦海寧,楊杰,等.基于改進MobileNetV2的垃圾圖像分類算法[J].浙江大學學報(工學版),2021,55(8):1490-1499.ChenZhichao, JiaoHaining, Yang Jie,etal.Garbageimageclassificationalgorithm based onimprovedMobileNetV2[J].Journal ZhejiangUniversity(Science),2021, 55(8):1490—1499.
[23]YaoL,He S,Su K,et al.Facial expression recognitionbased on spatial channel attention mechanisms [J].Wireless Personal Communications,2022,125(2):1483-1500.
[24] Zhao X,Li K,Li Y, et al.Identification method vegetable diseasesbased ontransfer learningattention mechanism [J]. Computers Electronics inAgriculture,2022,193:106703.
[25]楊晶晶,韓閏凱,吳占福,等.基于CNN 和圖像深度特征的雛雞性別自動鑒別方法[J].農業機械學報,2020,51(6):258-263,92.Yang Jingjing, Han Runkai, Wu Zhanfu, etal.Automatic recognition method chick sex based onconvolutional neural network imagedepthfeatures [J]. Transactions the Chinese Society forAgriculturalMachinery,2020,51(6):258-263,92.
[26]朱明,張鎮府,黃凰,等.基于輕量級神經網絡MobileNetV3—Small的鱸魚攝食狀態分類[J].農業工程學報,2021,37(19):165—172.Zhu Ming, Zhang Zhenfu, Huang Huang,et al.Classificationperchingestingconditionusinglightweight neural network MobileNetV3—Small [J].Transactions the Chinese Society Agricultural,2021,37(19):165—172.