999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度特征增強的輕量化黃瓜病害識別模型

2024-12-31 00:00:00李帥薄敬東龔瑞昆崔傳金
江蘇農業科學 2024年20期

doi:10.15889/j.issn.1002-1302.2024.20.032

摘要:在復雜的背景環境下對農作物病害進行準確識別與分類,為農作物病害的診斷及防治提供可靠依據,具有重要經濟意義。提出了一種新的網絡模型——MeNet(multiscale enhance on me),用于對大田中黃瓜的8種形態(其中包含6種病害和鮮黃瓜、鮮葉)進行精準識別。該模型的設計包括適用于網絡前端的特征增強模塊,對原始圖像進行像素級多尺度特征增強,從而提升模型的特征表達效率;運用特征挑選的思想進行后續的特征提取和增強,再加入基于空域抑制的SimAM注意力,進一步突出了顯著特征,提高特征效用;運用逐點卷積對特征圖進行通道間信息交互,再以全局平均池化總結特征圖。結果表明,相較于其他模型,本研究的MeNet性能更為優越,在復雜背景病害數據集上,平均準確率達到92.38%,最高準確率達到了92.92%,而模型的參數量僅為0.33 M,浮點運算量僅為 0.30 G,證明MeNet模型在圖像識別領域具有實際應用的潛力和繼續研究的價值。

關鍵詞:黃瓜病害;圖像識別;卷積神經網絡;輕量化;多尺度特征增強;空域抑制

中圖分類號:S126;S436.421.1;TP391.41" 文獻標志碼:A

文章編號:1002-1302(2024)20-0267-10

收稿日期:2023-11-09

基金項目:河北省自然科學基金(編號:F2015209308-PT);唐山市科技計劃項目(編號:20150212C);河北省高等學校科學技術研究項目(編號:ZD2016070);河北省省級研究生示范課程建設項目(編號:KCJSX2021061)。

作者簡介:李" 帥(1996—),男,安徽阜陽人,碩士,主要從事檢測技術及智能裝置研究。E-mail:ncstlishuai@163.com。

通信作者:龔瑞昆,博士,教授,碩士生導師,主要從事檢測技術及智能裝置研究。E-mail:ncstgongruikun@163.com。

生物防治是農業可持續發展模式的重要內容,生物防治學科為農業可持續發展提供了重要的科學支撐。近年來,我國已進入加快推進農業可持續發展的歷史階段,這為生物防治學科的發展提供了新的機遇,同時也對生物防治學科的發展提出了更高的要求[1]。

在深度學習興起之前,人們主要使用傳統的機器學習方法來解決圖像分類問題。這些方法通常涉及人工設計的特征提取器和分類器,如支持向量機(SVM)、隨機森林等。這些方法在小規模問題上效果較好,但在復雜圖像數據上的分類任務中表現不佳。但是,關于深度學習的探索一直都在進行,一直到2012年Alex等的AlexNet在ImageNet圖像分類比賽中獲勝,標志著卷積神經網絡(CNN)正式嶄露頭角。隨著卷積提取特征的特性被認可,深度學習開始向著更深的網絡進發,此后的VGG和ResNet都將網絡推向了更深的方向,而GoogleNet則提出了多尺度卷積的概念,又讓網絡變得更寬,通過大量卷積的疊加,追求網絡的識別性能,因為人們普遍認為卷積神經網絡中特征的復雜性是隨網絡深度加深而提高的[2]。在卷積不能滿足需求后,又發展出了疊加注意力機制的網絡模型,進一步提升識別準確度。

劉陽等以PlantVillage數據集為對象,對經典輕量級卷積神經網絡SqueezeNet進行改進,通過修剪模型,更改通道參數,以犧牲小部分性能換取了大幅度參數量減少[3];孫俊等以Kaggle網站收集到的11類病害萬張數據為對象,將CA坐標注意力和多尺度特征金字塔融入MobileNet v2,使網絡準確率提高了2.91%[4];彭紅星等以自IP102和PlantVillage收集到的葡萄病蟲害數據為對象,用深度可分離卷積構建雙分支特征提取,輔以CA坐標注意力改進MobileNet v2,取得了1.83百分點的準確率提升[5];賈璐等以自農管家平臺收集到的3種病害為對象,用Inception結構和加入SE注意力的倒殘差結構自建模型,在其自建數據集上取得了平均識別準確率87.93%的成績[6];王煥鑫等以PlantVillage中的4種作物為對象,用ECA注意力和AFF特征融合改進MobileNet v2,取得了參數量減少15.37%,識別準確率提升0.9百分點的成績[7];朱學巖等以自采集的油橄欖自建數據集為對象,以EfficientNet-B0為主干,輔以CBAM注意力和雙線性池化層,搭建雙線性網絡,提升了識別準確率[8];杜海順等以AI challenger 2018數據集為對象,用大量的平均池化組成的特征信息融合改進ConvNeXt網絡,使ConvNeXt識別準確率提升了2.01百分點[9];李建威等以國際皮膚影像合作組織的2018挑戰賽數據集為對象,用SE通道注意力和SimAM無參注意力改進ConvNeXt網絡,也取得了較好的成績[10];Chen等以自采集的橡膠樹病害數據集為對象,用倒殘差結構、SE注意力、EIoU損失函數改進了 YOLO v5 模型,在其自建數據集上平均精度達到了70%,比YOLO v5提高了5.4百分點[11]。

經過對參考文獻及其他諸多文獻的細致分析,總結了以往深度學習模型的一些關鍵問題:

(1)在圖像分類的研究中出現的數據集大致分為2類,一類是單一背景的實驗室條件圖片,另一類是復雜背景的大田條件圖片。通常情況下,后者的圖像識別準確率普遍較低,這是一個重要的挑戰。

(2)盡管已有的網絡模型已經在植物病害識別中取得了較好的效果,但由于其本身的參數量和存儲空間的需求量很大,使其很難應用在移動或嵌入式設備中大量推廣[12]。傳統的網絡模型通常具有大量參數,且單個參數的利用率較低,也正因為如此讓深度學習變得難以解釋,宛如一個黑匣子。因此,精簡模型參數不僅有利于推廣應用,還有利于進一步解釋深度學習,這是一項很有意義的工作。

本研究基于以上2個問題,著眼于精簡模型參數和參數的可解釋性,設計了一種輕量化深度學習網絡用以解決黃瓜病害的分類問題。

1" 黃瓜病蟲害數據集構建及增廣處理

本研究所使用的數據集是來源于Mendeley Data的一個黃瓜病害數據集,其中包含8種類型的黃瓜,即炭疽病、細菌性枯萎病、肚腐病、霜霉病、苜蓿果腐病、蔓枯病、鮮葉和鮮黃瓜,每類160張,共 1 280 張圖片。其黃瓜病害分類是在農業專家的合作下完成的,該數據集原材料取自真實田間,對比實驗室條件下采集的數據集背景噪聲更復雜,也具有更強的真實性。

為降低病害診斷模型在訓練過程中的過擬合風險,并提高其泛化效果,在現有圖像數據基礎上,采用數據增廣方法對樣本進行擴充。采用的主要方法包括翻轉、亮度、對比度、飽和度和色調技術生成增強圖像,用以模擬不同的拍攝角度和不同的拍攝距離,以盡可能地還原真實的拍攝條件并增加數據數量,這些方法均采用torchvision庫中的transforms方法實現。從數據集中分別隨機抽取80%作為訓練集,在訓練集上使用上述數據增廣方法;剩余20%作為測試集,不使用數據增廣方法,用于后續試驗。樣本質量如圖1所示。

為了普適性地反映網絡模型的性能,評估模型的泛化性能,本研究還給出了在PlantVillage數據集上的測試結果,這是一個公開的農作物病害數據集,其中的所有圖像均是由專業人士出于科學研究目的而拍攝并標注的,具有很強的專業性,其中共包含13種農作物的38類葉片圖像信息,這38類圖像細分為26類病害葉片和12類健康葉片,總計有54 305張圖片。該數據集的特點是數據量大,標注清晰,但其背景是單一的實驗室背景,背景便于區分。在試驗中,擾亂數據集的次序,并按照比例 8 ∶2 將其分成訓練集和測試集。同時將數據集中的原始圖像統一裁剪為3×224×224,使其適應模型的輸入。樣本質量如圖2所示。

2" 相關方法

2.1" MeNet模型設計思想和結構

本研究提出了一種輕量化深度學習模型,能夠在黃瓜病害的分類任務中實現較高的識別準確率。

與主流網絡相比,該模型具有更精簡的參數,更容易解釋,同時滿足小型模型的要求,有利于推廣應用。

在圖像分類任務中,每張圖片是以1個三通道的數值矩陣的形式呈現的,每個數值對應1個像素點,通過卷積操作后得到特征圖,在反向傳播的時候不斷修正,直到特征圖適應我們的預期。也就是說可以把原圖片看作一個原始特征圖集合;把原圖片的每一個通道看作一個原始特征圖;把組成原圖片的數值矩陣中的每個數值看作是一個原始特征;將源自同一張圖片的原始特征圖集合、原始特征圖、原始特征看作原始特征集合。已有網絡只在第一層卷積中利用了上述的原始特征集合,隨后便以最淺層特征集合代替原始特征集合向前傳播,之后的每一層都是如此更替的模式。筆者提出一種新的主張,不再用卷積得到的特征集合替代上一層的特征集合,而是將卷積得到的特征集合看作一種關注,疊加在原始特征集合上,以原始特征集合為“骨”,貫穿整個模型,以每一層卷積得到的特征集合為“肉”,不斷地附著在“骨”上。在前向傳播的過程中,單位“骨”上“肉”越多,卷積時所獲得的關注越多,作用越大。用這樣的方式可以規范特征圖的更新路徑,進而精簡模型參數,并且能最大化地將原始圖片中的有效信息保留在每一層的特征圖上傳遞出來,以提高識別的準確率。

本研究將其命名為MeNet(multiscale enhance on me)。MeNet的整體模型如圖3所示。

結合圖3可知,MeNet模型主要由多尺度特征增強模塊(MFE)、特征挑選和空域抑制模塊(CC)、最大池化層、可分離卷積層、平均池化層和全連接層構成。將上述思想用于黃瓜圖像分類的任務。

2.2" 多尺度特征增強模塊(multi-scale feature enhancement module,MFE)

在許多模型中,第一次下采樣操作通常通過控制卷積操作的步長來實現,用以縮小特征圖,后續提取圖像的高層特征以支持識別任務[12]。然而,由于這種下采樣方式導致原始圖像中不同像素點的計算次數不同,不同的計算次數先天性地給予了不同像素點不同的重要性,這可能會使模型丟失一些原始圖像的重要特征[13]。尤其是對于真實田間背景這種復雜情況,這種損失很可能會導致模型忽略圖像邊緣的特征,進而影響模型的性能。為解決這個問題,本研究提出了一種新的方法:在第一次下采樣前,讓所有像素點的計算次數相同,提取底層特征后對原始圖像進行像素級特征增強,使網絡在進行第一次下采樣前能夠保留更多的有效特征,從而提升網絡的表達上限,搭配最大池化下采樣,起到突出特征、過濾噪聲的效果。

多尺度結構的核心思想在于利用不同感受野的卷積核提取不同尺度的信息,其實質是讓網絡學習一個不同尺度局部區域內像素之間的上下文關系,這有助于更好地捕捉不同尺寸的特征信息[14-15]。

本模塊(MFE)學習輸入圖像不同尺度的特征信息,并且給予不同尺度特征圖不同的權重后,再疊加相應尺度的特征增強;其中的權重由特征圖整體平均池化后經過線性變換和sigmoid激活后得到,特征增強所用的增強矩陣由相應尺度的最大池化和1×1卷積得到;最后將原始特征集合增維后與權重矩陣和增強矩陣進行像素級融合。

本模塊包含2個感受野,分別是3×3和5×5,2個分支分別提取不同感受野的特征,由于輸入圖像都是3通道的RGB圖像,為了每個通道的特征圖都能均勻得到增強,本模塊所得到的特征圖通道須為3的倍數。

本模塊的結構圖如圖4所示。

2.3" 特征挑選和空域抑制模塊(feature selection and spatial suppression module,SS)

本模塊(SS)的主要目的是提取圖像特征,并用不同尺寸的最大池化對不同感受野內的特征進行挑選,之后將挑選出來的突出特征與上一層特征圖進行像素級融合,讓網絡在提取特征的同時挑選更為突出的特征來加強自身。

在近些年,注意力機制一直是一個重要的研究方向[16]。Yang等認為應由神經科學中的一些統一原則來指導注意力機制的計算,因此基于一些成熟的神經科學理論提出了一種新的方法[17],可以有效地產生真正的三維權重。要想成功地實現注意力,需要根據特征圖來估算單個神經元的重要性。在神經科學中,信息量最大的神經元通常是那些在周圍神經元中顯示出獨特放電模式的神經元。而且,一個活躍的神經元通常會抑制周圍神經元的活動,

這種現象被稱為空域抑制。由此得到啟發,在視覺加工過程中,表現出明顯空域抑制效應的神經元應被賦予更高的優先權(即重要性)。在尋找重要神經元時,最簡單的方法就是度量神經元之間的線性可分性。基于這一思想,為每個神經元定義以下能量函數。

et(wt,bt,y,xi)=(y-t^)2+1M-1∑M-1i=1(y-x^i)2

t^=wtt+bt

x^i=wtxi+bt 。(1)

式中:t和xt為輸入特征X∈RC×H×W的單個通道中的目標神經元和其他神經元;i是空間維度上的索引;M=H×W是該通道上的神經元數量;wt還有bt是計算中的權重和偏置。經過研究人員一步步的計算后,最終給出了一個可以簡單計算的能量公式:

e*t=4(σ2+φ)(t-μ)2+2σ2+2φ。(2)

式中:μ和σ2是除t以外的所有神經元的平均值和方差,系數φ在0.000 1時取得較好的性能。其能量越低,意味著神經元t與周圍神經元的差異越大,其重要性也越高。因此,神經元的重要性可以通過1e*得到。最后,根據各神經元的重要性,對特征圖進行優化,并將其總結在一個通道上,則SimAM的計算流程可概況為

X=sigmoid1E·X。(3)

式中:輸出結果X為增強后的特征,X為輸入特征,·為點積運算,E為每個通道上所有神經元能量函數的值列表,sigmoid則用來限制E值的范圍。

通過這種方式,可以更準確地在神經元群體中捕捉到在特定任務中扮演關鍵角色的神經元以重現人腦中的注意力協同機制,并將其體現在SimAM注意力模塊中。

整體的模塊結構如圖5所示。

2.4" 通道混合和壓縮模塊(channels and compression module,CC)

深度可分離卷積(DP)由1個卷積核大小為3的深度卷積(DW)和1個卷積核大小為1的逐點卷積(PW)組成。相比于普通卷積,DW能節省非常多的參數量和運算量,而特征提取效果與普通卷積相比相差不大,且PW可以讓各通道間的信息進行融合,在降低計算成本的同時增加非線性容量,這有助于模型擬合數據分布,故而深度可分離卷積模塊對于輕量型模型來說是最好的選擇之一。

上述幾個模塊不斷將模型的關注點聚焦到病害特征所在位置,這就使得此時的特征圖中包含2類特征點:其一為病灶位置的特征點,特征效率高,越靠近病灶位置的特征值就越高;其二為非病灶位置的特征點,離病灶位置越遠特征值就越低。非病灶位置的特征點在分類器中是有害的,一方面增加運算量,一方面干擾分類結果。要解決這一問題需要在最后分類前對特征圖進行優化,采用全局平均池化將特征圖壓縮為一個值,由一個值的輸出來總結一個特征圖的關鍵信息,這將會使模型忽略非病灶位置的特征點,從而提高分類性能,同時能進一步減少參數量。

本模塊(CC)的計算過程公式化表達為

X2=PW[DW(X)]

X3=MP{ReLU[BN(X2)]}

X4=AVG(X3)。(4)

式中:X為模塊輸入;X4為模塊輸出;DW為分組卷積;PW為點卷積;ReLU為激活函數;BN為歸一化層;MP為最大池化操作;AVG為平均池化操作。

3" 試驗結果

3.1" 試驗平臺

本研究采用的試驗平臺硬件環境:處理器為12 vCPU Intel Xeon Platinum 8255C CPU @ 2.50 GHz,內存為40 GB,顯卡為NVIDIA GeForce RTX 2080 Ti,顯存為11 GB。編程語言為Python,深度學習框架:Pytorch 1.11.0,CUDA版本為11.3,進行模型的搭建和訓練。

3.2" 訓練參數

為試驗的有效性考量,所有試驗均采用相同的環境參數:模型在訓練和測試時均采用相同的批處理的方式,每批數據包含64幅圖像,即批訓練數據量的大小(batch)設置為64。模型訓練的迭代總次數(Epoch)設置為300,采用Adam優化器,初始學習率設置為0.001,betas設置為(0.9,0.999),損失函數使用交叉熵損失函數。

3.3" 模型評價指標

本研究是輕量化分類模型在黃瓜病害圖像上的應用,所以將采用5個指標[18]來判斷模型的整體性能,分別是最高準確率、平均準確率、參數量、浮點運算數、混淆矩陣。

其中的平均準確率為10次試驗在測試集上準確率的平均值,且平均準確率更高意味著模型的穩定性更好;最高準確率為10次試驗在測試集上的最高值,最高準確率更高意味著模型的上限更好。

參數量、浮點運算量由thop庫中的profile方法導出,其中浮點運算量為1張224像素×224像素分辨率的RGB圖像輸入網絡后前向傳播時共執行的浮點運算次數。

混淆矩陣是由sklearn庫中的metrics方法導出,經過pandas庫對混淆矩陣進行美化,方便分析。本研究混淆矩陣的縱坐標為預測值,橫坐標為真實值。混淆矩陣中自左上至右下的對角線數值為模型對于每種圖像預測正確的數量,哪種圖像對應的數值越大則說明模型在此種圖像上的分類效果越好。

3.4" 消融試驗

由于本研究的目的是完成一種輕量化模型的設計,大體上有13層的卷積結構,故而以VGG16網絡進行網絡剪枝,以只保留13層卷積的CNN網絡為基礎模型,以下稱為BaseCNN,以此為基礎在試驗中驗證所包含的模塊性能。

按照基礎模型(BaseCNN)中的特征圖尺寸變化規律,將BaseCNN中的普通卷積全部替換為深度可分離卷積模塊(DP),該模型以DPNet代指;將DPNet中的第1次下采樣(第1個DP)替換為本研究所采用的多尺度特征增強模塊(MFE),稱為MFE_DP;將模型的中間部分每一個DP都(中間3個DP)替換為本研究所采用的特征挑選和空域抑制模塊(SS),稱為MFE_SS_DP;將MFE_SS_DP中的SimAM空域抑制刪去,稱為MFE_S_DP;最后將模型的尾部(最后一個DP)替換為本研究所采用的通道混合和壓縮模塊(CC),稱為MFE_SS_CC(MeNet)。

由表1可知,DPNet的最高準確率和平均準確率均比BaseCNN要高,而且參數量和運算量均超大幅度減少。這是因為深度可分離卷積(DP)本身分

組卷積加點卷積的組合可以大幅降低參數量和運算量;DP中的點卷積能有效進行跨通道的特征整合,且點卷積的本質也可以對原特征圖的每一個像素點進行1次像素級的加權,這使得其準確率也有大幅度提高,這個優點將保留在CC模塊中。

MFE_DP的最高準確率和平均準確率均比DPNet要高,MFE模塊給DPNet帶來了1.45百分點的平均準確率提升和1.56百分點的最高準確率提升,運算量減少17.07%,參數量略微減少。因為MFE模塊為模型保留了不同感受野的完整圖像信息,對圖像邊緣的特征保留得也更全面,且能夠針對不同尺寸的病害信息給予特征圖相應的增強信號。

MFE_SS_DP和MFE_DP的比較說明SS模塊給MFE_DP帶來了1.72百分點的平均準確率提升和1.17百分點的最高準確率提升,參數量減少17.19%,運算量減少了11.76%。其中,MFE_S_DP中只包含了特征挑選,可以使MFE_DP的平均準確率提升0.33百分點,最高準確率提升0.39百分點。從MFE_SS_DP和MFE_S_DP的比較中看出,在特征挑選的基礎上加入SimAM(神經元挑選)后平均準確率提升了1.39百分點,最高準確率提升了0.78百分點,說明空域抑制和特征挑選是可以配合使用的,并不會沖突,且空域抑制模塊挑選出的重要神經元在分類中發揮了更強大的作用。通過反復3次的特征挑選和神經元挑選,特征有效性大大提高,這是輕量化模型可以用少量參數實現較好分類效果的重要條件。

MFE_SS_CC(MeNet)和MFE_SS_DP的比較說明CC模塊給MFE_SS_DP帶來了2.93百分點的平均準確率提升和3.08百分點的最高準確率提升,參數量減少了37.74%,運算量幾乎不變。CC模塊與被替換掉的DP模塊相比,雖然只多了一個特征圖壓縮的步驟,但是這個壓縮的過程正是貫徹設計思想的關鍵一招,大量非病灶位置的特征點的取值比較小,對分類任務起不利影響,用壓縮特征圖的方式將取值較小的特征點忽略,只有這樣才能真正地將前2個模塊處理好的高效特征的作用發揮出來,篩選有效的特征進入分類器。這種做法直接將下一步全連接分類時的輸入特征數減少為原來的 1/49,減少了大量的冗余連接,而保留了重要連接,讓分類更加準確,也大大減少了參數量。

從整體上來看,試驗驗證了“2.1”節中的設計思想,可以實現黃瓜病害的分類,且大大提高了特征的有效性,讓模型用更少的參數完成了分類的任務。接下來,將用MeNet和其他主流模型對比以證明其優越性。

3.5" 對比試驗

將本研究的網絡模型與主流網絡模型在相同數據集和訓練環境下作對比試驗,以評估MeNet的網絡性能,結果如表2所示。

由表2可知,本研究提出的模型在復雜背景的黃瓜數據集上有著出色的性能表現。與老牌網絡VGG16相比,MeNet無論是參數量、浮點運算量還是準確率都更優秀,充分說明對于深度學習來說,特征數量不是越多越好;與模型體量最接近的GhostNet、ShuffleNet v1、MobileNet v3網絡相比,MeNet在參數量和準確率上更具有優勢,參數量僅為ShuffleNet v1的15.64%,但是浮點運算數卻比GhostNet高出了0.08 G,平均準確率則是最高的,比GhostNet高出5.08百分點,比ShuffleNet v1高出4.42百分點,比MobileNet v3高出2.58百分點;與準確率表現最接近的EfficientNetB0、Inception v2網絡相比,MeNet在網絡體量上有著巨大的優勢,參數量不足它們的1/20,浮點運算數也只有它們的1/6,MeNet準確率也高出二者至少1.13百分點;這說明MeNet提取的特征更加簡潔、高效,具有更強的可解釋性,繼續研究的價值也更高。

3.6" 可視化分析

使用Grad-CAM++方法對模型的最后一層卷積層進行可視化分析,用疊加熱力圖的方式查看網絡經過特征增強和挑選后所關注的特征。

計算網絡模型的混淆矩陣,通過數據集內容和混淆矩陣的對照,可以觀察出數據集的難分點和網絡模型的缺點,這對指明以后的研究方向很有幫助。

可視化結果如圖6和圖7所示。

由圖6可知,MeNet模型可以很好地將關注集中在病灶區域,這是模型能夠正確分類的保障,同時也驗證了模型切實提高了特征表達效率,使得模型在參數減少的同時保證準確率。

由圖7可知,MeNet模型整體分類效果較好,最影響結果的是炭疽病(anthracnose)和蔓枯病(gummy stem blight),這2種病害的識別最為困難,因2種病害病灶區域極其相似,故而容易相互混淆。2種病害的圖像如圖8所示。

3.7" 泛化性試驗

將本研究的模型在大型公開數據集PlantVillage上運行,訓練集與測試集比例均為8 ∶2,用以測試模型的泛化能力。在對比試驗中挑選參數量最接近的和準確率最接近的模型共同參與。試驗結果如表3所示。

從表3可以明顯看出,與GhostNet和EfficientNetB0模型相比,本研究提出的MeNet模型不僅在準確率方面表現更出色,而且模型的體積也更小。就MeNet模型本身而言, 其準確率完全滿足需求。且依據MeNet在大型數據集上的表現可以推斷,MeNet模型同樣可以很好地擬合大型數據集,

有著很大的移植應用空間。

4" 結論

以往神經網絡模型存在復雜背景下病害識別困難和參數量大2個問題,導致網絡難解釋、難推廣、難應用,歸根結底是由于以往模型提取的特征有效性不高所致。本研究據此展開研究并得出以下結論:采用“2.1”節提出的以輸入圖像原始特征集合為“骨”,以特征矩陣為“肉”構建圖像特征的方法是可行的;本研究的模型以0.33 M的參數在復雜背景下達到了92.92%的準確率,優于現有主流模型,證實本研究的方法是有效的;模型可視化結果證實了本研究的方法可以規范特征圖的更新路徑,讓特征更易解釋;參數量的大幅降低驗證了本方法能用少量高質量特征替換大量低質量特征,提高了特征效率,顯著降低了模型參數。

本研究模型參數量與運算量極小,可以輕松移植到許多性能較低的設備上使用。這不僅降低了設備成本,增強了模型的可移植性;還有助于生產商減小設備的體積,增強設備便攜性,對于廣泛推廣電子設備用于農作物病害的識別具有巨大的推動作用。

參考文獻:

[1]陳學新,杜永均,黃健華,等. 我國作物病蟲害生物防治研究與應用最新進展[J]. 植物保護,2023,49(5):340-370.

[2]Li Z W,Liu F,Yang W J,et al. A survey of convolutional neural networks:analysis,applications,and prospects[J]. IEEE Transactions on Neural Networks and Learning Systems,2022,33(12):6999-7019.

[3]劉" 陽,高國琴. 采用改進的SqueezeNet模型識別多類葉片病害[J]. 農業工程學報,2021,37(2):187-195.

[4]孫" 俊,朱偉棟,羅元秋,等. 基于改進MobileNet v2的田間農作物葉片病害識別[J]. 農業工程學報,2021,37(22):161-169.

[5]彭紅星,徐慧明,劉華鼐. 融合雙分支特征和注意力機制的葡萄病蟲害識別模型[J]. 農業工程學報,2022,38(10):156-165.

[6]賈 "璐,葉中華. 基于注意力機制和特征融合的葡萄病害識別模型[J]. 農業機械學報,2023,54(7):223-233.

[7]王煥鑫,沈志豪,劉" 泉,等. 基于改進MobileNet v2模型的農作物葉片病害識別研究[J]. 河南農業科學,2023,52(4):143-151.

[8]朱學巖,陳鋒軍,鄭一力,等. 融合雙線性網絡和注意力機制的油橄欖品種識別[J]. 農業工程學報,2023,39(10):183-192.

[9]杜海順,張春海,安文昊,等. 基于多層信息融合和顯著性特征增強的農作物病害識別[J]. 農業機械學報,2023,54(7):214-222.

[10]李建威,呂曉琪,谷" 宇. 基于改進ConvNeXt的皮膚鏡圖像分類方法[J]. 計算機工程,2023,49(10):239-246,254.

[11]Chen Z Y,Wu R H,Lin Y Y,et al. Plant disease recognition model based on improved YOLO v5[J]. Agronomy,2022,12(2):365.

[12]王" 軍,馮孫鋮,程" 勇. 深度學習的輕量化神經網絡結構研究綜述[J]. 計算機工程,2021,47(8):1-13.

[13]吳建成,郭榮佐,成嘉偉,等. 注意力特征融合的快速遙感圖像目標檢測算法[J]. 計算機工程與應用,2024,60(1):207-216.

[14]Ioffe S,Szegedy C. Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]. 32nd International Conference on Machine Learning,ICML 2015,2015,1:448-456.

[15]齊國紅,許新華,師曉麗. 基于多尺度注意力U-Net的結球甘藍青蟲檢測方法[J]. 江蘇農業學報,2023,39(6):1349-1357.

[16]Wang Q L,Wu B G,Zhu P F,et al. ECA-net:efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA.IEEE,2020:11531-11539.

[17]Yang L,Zhang R Y,Li L,et al. Simam:A simple,parameter-free attention module for convolutional neural networks[C]//International conference on machine learning. Virtual:IEEE,2021:11863-11874.

[18]Sandler M,Howard A,Zhu M L,et al. MobileNet v2:inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT.IEEE,2018:4510-4520.

[19]Tan M X,Le Q V. EfficientNet:rethinking model scaling for convolutional neural networks[EB/OL]. (2019-05-28)[2023-11-09]. http://arxiv.org/abs/1905.11946.

[20]Han K,Wang Y H,Tian Q,et al. GhostNet:more features from cheap operations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA.IEEE,2020:1577-1586.

[21]Liu Z,Mao H Z,Wu C Y,et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans,LA,USA.IEEE,2022:11966-11976.

主站蜘蛛池模板: 国产浮力第一页永久地址| 国产小视频网站| 在线人成精品免费视频| 91人妻日韩人妻无码专区精品| 色偷偷一区二区三区| 久久综合亚洲色一区二区三区| 国产福利2021最新在线观看| 特级毛片8级毛片免费观看| 欧美精品v欧洲精品| 国产精品99久久久久久董美香| 亚洲专区一区二区在线观看| www.av男人.com| 国产福利不卡视频| 人妖无码第一页| 日韩a级毛片| 国产成a人片在线播放| 日韩a级毛片| 99re这里只有国产中文精品国产精品| 欧美日韩午夜| 亚洲女同一区二区| 中文字幕无码电影| 国产99精品久久| 欧美日韩高清在线| 亚洲乱强伦| 午夜天堂视频| 国产网站一区二区三区| 免费女人18毛片a级毛片视频| 中文字幕免费播放| 久久精品一品道久久精品| 九月婷婷亚洲综合在线| 无码日韩视频| 青青青亚洲精品国产| 91色国产在线| 国产女人18毛片水真多1| 久久香蕉国产线看观看式| 免费人成视网站在线不卡| 中文字幕人妻av一区二区| 国产日韩精品欧美一区喷| 欧美日韩导航| 亚洲成A人V欧美综合| 亚欧美国产综合| 欧美日韩国产综合视频在线观看 | 黄色福利在线| 亚洲人成网站色7777| 亚洲人成人伊人成综合网无码| 久久国产乱子伦视频无卡顿| 国产自产视频一区二区三区| 国产香蕉在线| 激情综合网址| 为你提供最新久久精品久久综合| 熟女成人国产精品视频| 亚洲色图另类| 亚洲第一黄色网| 国产91无码福利在线| 性色生活片在线观看| 日本亚洲国产一区二区三区| 欧美日韩久久综合| 亚洲人成人无码www| 久久精品视频一| 免费jjzz在在线播放国产| 日本午夜影院| 亚洲一级色| 亚洲高清无在码在线无弹窗| 国模沟沟一区二区三区| 亚洲青涩在线| 国产亚洲视频在线观看| 亚洲青涩在线| 国产一区二区三区在线观看免费| 国产精品刺激对白在线| 亚洲一区二区三区中文字幕5566| 亚洲综合网在线观看| 久久婷婷五月综合色一区二区| 欧美午夜精品| 国产无遮挡裸体免费视频| 欧美成人午夜视频| 天天做天天爱夜夜爽毛片毛片| 无码中文字幕精品推荐| 国模在线视频一区二区三区| 制服丝袜亚洲| 欧美日韩一区二区在线播放 | 中文字幕乱码中文乱码51精品| 国产麻豆福利av在线播放|