中圖分類號:TP391.4;S5 文獻標識碼:A 文章編號:2095-5553(2025)10-0183-09
Abstract:Pest management inagricultural production playsa keyrole in ensuringcrop yieldandquality.Although pest detectiontechnologybasedonConvolutionalNeuralNetworkhasmadesomeprogressinrecentyears,itstllfaces two majorchallenges.First,somepestspeciesarehighlysimilarinappearance,whichmakes itdificult toclasifyanddentify. Secondly,themulti-scalecharacteristicsofpestobectsleadtoalargenumberof1negativedetections,especiall nthe identificationof smallpests.To solve these problems,areal-time,anchorfreeimproved CenterNet pest detection model was proposed inthis study.TheCBAMatention mechanism wasembedded inthebackbone network toefectivelyimprove the clasification accuracy offeatures.At the same time,a multiscale feature fusion module named MFF was aded to the neck network toachieveeficient integrationoffeaturemapsofdiferentscales.Alargenumberofexperimentaldatashows that the mAP of the model on the Baidu AI insect dataset and the highly challenging IPlO2 dataset is as high as 98.6% and (204號 89.7% respectively,and the inference speed on the two datasets is more than3O frames/s ,showing remarkable real-time performance.Compared with the existing mainstream methods,the improved CenterNet pest detectionmodelshows outstandingadvantages intheaccurateidentificationof pests incomplexagricultural environments,andhasawiderangeof application potential.
Keywords:pest detection;farmland environment;object detection;anchor-free;CenterNe
0 引言
農(nóng)業(yè)作為國家經(jīng)濟的基石和社會穩(wěn)定的關鍵支柱,其重要性不言而喻。然而,這一基礎性產(chǎn)業(yè)面臨諸多挑戰(zhàn),其中作物害蟲問題是制約其可持續(xù)和健康發(fā)展的重大難題之一。針對該問題,通常使用大量的農(nóng)藥進行植物病害的預防和治理,但過度使用農(nóng)藥會致使作物留有殘存農(nóng)藥,危害人體健康。集成害蟲管理(IPM)模型旨在通過早期和實時的精準害蟲檢測定位病害區(qū)域,然后精準施藥,實現(xiàn)更有效的作物病害管理并減少農(nóng)藥使用1。為此,本文致力于研發(fā)更高效的害蟲檢測模型,以便更精確地定位害蟲區(qū)域。
目前,有關作物病害檢測的研究已取得一定進展。例如,Deng等2采用了基于SIFT—HMAX和局部配置模型(LocalConfigurationPattern)的方法,利用支持向量機(SVM)實現(xiàn)了害蟲識別,但其局限性在于實時處理能力不足。Xiao等3則通過詞袋模型的支持向量機(BOF一SVM)成功地對多種南方蔬菜害蟲進行分類。董偉等4基于深度卷積網(wǎng)絡構建了一種用于5種常見且易混淆害蟲的識別與計數(shù),其平均識別率和精度分別達到 94.5%.76.6% 。Kasinathant等[5]使用GrabCut算法和直方圖均衡化提取害蟲特征,展示了相當高的檢測性能。上述方法主要依賴于人為設計的特征提取算法,這種依賴性在一定程度上制約了這些方法在現(xiàn)實農(nóng)業(yè)場景中的廣泛應用。簡而言之,由于手工特征提取算法的局限,使得農(nóng)業(yè)害蟲自動檢測技術仍面臨巨大挑戰(zhàn)。
隨著深度學習,特別是卷積神經(jīng)網(wǎng)絡(CNN)在目標檢測領域取得巨大突破,其在農(nóng)業(yè)害蟲檢測上的應用逐漸受到廣泛關注。多種基于CNN的目標檢測網(wǎng)絡,如SSD[]、YOLO系列[7-9]以及FasterR—CNN系列[10-12],在不同應用場景中均展示了卓越的性能。例如,Li等[13]專門為解決密集蚜蟲分布問題設計了1個兩階段CNN模型,其中先用1個簡化版的CNN進行初步檢測,再用更復雜的CNN模型進行精細化定位。然而,該方法在處理其他種類的農(nóng)業(yè)害蟲時并不總是表現(xiàn)良好。Wang等[14]推出了一種基于兩階段移動視覺的級聯(lián)害蟲檢測方法(DeepPest),并在特定害蟲數(shù)據(jù)集上進行了驗證,雖然其檢測性能相當出色,但范圍局限于3種害蟲。Selvaraj等[15]使用了多種骨干網(wǎng)絡的SSD和FasterR—CNN來檢測8種香蕉相關的病蟲害,但由于未充分考慮農(nóng)業(yè)害蟲的特殊性,檢測效果并不理想。相對而言,李萍等16采用了基于多尺度殘差空間注意力的輕量級U一Net模型,并成功將其應用到田間害蟲檢測中,實現(xiàn)了快速和高精度的識別。
劉志等[17則通過改進型的CascadeR—CNN算法,整合了尺度、空間和任務的感知機制,從而實現(xiàn)了高精度的農(nóng)業(yè)害蟲自動識別和計數(shù)。彭紅星等[18更是在YOLOF網(wǎng)絡中引人了改良版的ACA注意力機制,在FieldPest5測試集上 mAP 達到 92.3% 。
盡管基于深度學習的方法在農(nóng)業(yè)害蟲檢測方面表現(xiàn)出較高的準確性和效率,彌補了傳統(tǒng)機器學習對手工特征提取依賴的缺陷,但這些技術仍然面臨以下問題:(1)多尺度和小尺度害蟲檢測的挑戰(zhàn):農(nóng)業(yè)害蟲種類多樣,尺度差異大,因此在圖像中表現(xiàn)出顯著的多尺度特性。特別是對于小型害蟲,其在圖像中的特征容易在特征提取階段被丟失。由于在高層語義表示中包含的信息有限,所以在樣本選擇階段模型容易將其誤判為負樣本,進而影響整體檢測性能;(2)外觀高度相似的分類問題:以夜蛾科為例,其中包含多達6個典型物種,其外觀高度相似,甚至專業(yè)人士也難以準確區(qū)分。這種高度的相似性為深度卷積神經(jīng)網(wǎng)絡在特征提取階段增加了額外的復雜性;(3)對錨點機制的依賴問題:大多數(shù)現(xiàn)有的檢測算法都依賴于錨點機制來預測目標的位置和分類。雖然錨點的使用通過枚舉可能的位置來縮小搜索空間,但錨點的數(shù)量、尺寸和長寬比等因素需要人為設定。特別是在小目標檢測上,這些基于錨點的方法由于對交并比(IoU)的高敏感性所以表現(xiàn)不佳。
針對上述問題,本文基于CenterNet架構設計一種單級、無錨點的農(nóng)業(yè)害蟲檢測模型。首先,在骨干網(wǎng)絡的第2層~第4層嵌人卷積注意模塊(CBAM)。這一設計有助于模型更有效地學習特征的分布規(guī)律,從而提高病蟲害語義和位置特征的權重。這對于識別在視覺上相似或難以區(qū)分的農(nóng)業(yè)害蟲至關重要。其次,在模型的頸部網(wǎng)絡中采用一種全新的多尺度特征融合模塊(MFF)以替代原始模型中的反卷積層。這個模塊利用一個加權的雙向特征融合網(wǎng)絡來整合輸人的特征圖,并通過添加額外的權重參數(shù)來平衡不同分辨率下特征圖的貢獻。最重要的是,這一無錨框設計克服了傳統(tǒng)檢測算法對錨點機制的依賴,解決目標檢測的不足和對IoU敏感的問題。綜上,本文提出一種基于CenterNet框架,融合注意力模塊和多尺度特征融合模塊的農(nóng)作物害蟲無錨檢測算法,以期實現(xiàn)更高的病蟲害檢測效果。
1試驗數(shù)據(jù)集
1.1 數(shù)據(jù)集獲取
農(nóng)業(yè)害蟲的高精度檢測在規(guī)模和類別方面對提升農(nóng)藥使用效率具有決定性影響,為精準農(nóng)業(yè)提供了重要的技術支撐。為全面評估模型在不同害蟲的大小和多樣性方面的性能,選擇2個具有代表性的數(shù)據(jù)集進行試驗。第1個選用的數(shù)據(jù)集為百度AI昆蟲檢測數(shù)據(jù)集[19],該數(shù)據(jù)集涵蓋了多種不同尺寸的農(nóng)業(yè)害蟲,可以為訓練模型提供一個具有多樣性的數(shù)據(jù)平臺。圖1展示了從百度AI昆蟲檢測數(shù)據(jù)集中挑選的不同大小的害蟲樣本。第2個選用的數(shù)據(jù)集是專為光斑害蟲識別而設計的IP102數(shù)據(jù)集[20,該數(shù)據(jù)通過野外攝像設備捕獲。本文對IP102數(shù)據(jù)集中涉及的10種害蟲類別進行細致的分析,具體的農(nóng)作物受害類型和目標害蟲數(shù)量詳見表1。此外,圖2具象化地呈現(xiàn)了IP102數(shù)據(jù)集中10個不同類別的樣本圖像。這2個數(shù)據(jù)集的使用,既保證樣本的多樣性,也為模型在實際應用中的有效性和廣泛適用性提供有力驗證。

表1IP102中選取的10種害蟲類別 Tab.1 Ten pest categories selected in IP102

圖2IP102數(shù)據(jù)集中選擇的10個類別 Fig. 2 Ten selected categories in the IP1O2 dataset

1.2 數(shù)據(jù)集劃分
由圖1可知,百度AI昆蟲檢測數(shù)據(jù)集的昆蟲圖像樣本相對簡單,故選取1000張高質(zhì)量圖像即可代表其多樣性;相反,IP102數(shù)據(jù)集覆蓋了更復雜的環(huán)境和多樣的作物病害,故從中選定10種主要分布在水稻、小麥和玉米田中的害蟲圖像,共8600張圖像來全面反映其特點,具體的數(shù)據(jù)分布細節(jié)見表1。所有篩選出的圖像標簽都保存為PASCALVOC數(shù)據(jù)集的標準格式,并統(tǒng)一進行尺寸為640像素 ×640 像素的裁剪。為滿足在復雜場景下的實際應用需求,并更準確地評估模型的表現(xiàn),以上2個數(shù)據(jù)集均按照8:1:1的比例劃分為訓練集、驗證集和測試集,為模型性能評估提供一個全面和均衡的參考標準。
2農(nóng)作物害蟲檢測模型
2.1 CenterNet網(wǎng)絡結構
CenterNet[21]是一種高度平衡檢測速度與精度的無錨框目標檢測算法,它主要由骨干網(wǎng)絡、解碼網(wǎng)絡以及檢測網(wǎng)絡構成。該算法首先接收一個RGB圖像作為輸入,通過骨干網(wǎng)絡進行深度特征提取。接著,這些提取出的特征通過3個步長為2的反卷積層進行上采樣,從而獲得1個分辨率為128像素 ×128 像素的特征圖。在檢測頭部分,有3個分支共享來自第3層反卷積層的輸出特征。這3個分支分別是熱力圖、中心點偏移以及寬高預測。最終,算法使用 3×3 的最大池化操作來識別代表目標中心點的局部峰值點在熱力圖上的位置,并結合預測的目標尺寸和中心點偏移來輸出最終的檢測框。
CenterNet采用“編碼器一解碼器\"的結構,并通過反卷積層成功地獲取了高級語義信息以進行自標檢測,但其在應對多尺度目標,尤其是小尺度目標上的表現(xiàn)仍然不盡如人意。多次的降采樣過程往往會導致小物體的特征信息喪失,進而引發(fā)漏檢或誤檢的問題。特別是在農(nóng)業(yè)病蟲害檢測場景中,由于物體類型和尺寸的多樣性,再加上這些物體通常具有小而密集的特征,因此使用原始的CenterNet模型會使檢測難度加大。為此,提出一種改進的CenterNet害蟲檢測模型。
2.2改進CenterNet害蟲檢測模型
改進模型主要由3個關鍵組件組成:骨干網(wǎng)絡、頸部網(wǎng)絡和檢測網(wǎng)絡。骨干網(wǎng)絡采用ResNet5O作為基礎架構來進行深度特征提取,需要強調(diào)的是本文主干中嵌人CBAM卷積注意模塊(具體見2.2.1節(jié))。目的是確保模型更精確地學習特征分布,從而有效地提升對農(nóng)業(yè)病蟲害的語義和位置特征的識別能力。頸部網(wǎng)絡則通過多尺度特征融合模塊(MFF)來取代原有模型的反卷積層(具體見2.2.2節(jié))。這個新模塊采用一個加權雙向特征融合網(wǎng)絡,不僅能整合來自不同層級的特征圖,還能通過引入額外的權重參數(shù)來平衡輸出特征圖的分辨率差異。
2.2.1注意力模塊
考慮到降采樣操作可能削弱模型在特征提取方面的性能,同時進一步強化模型對特定區(qū)域特征的表達能力,在骨干網(wǎng)絡的第2~第4層間各嵌入CBAM卷積注意模塊[22]。這使得模型能更有效地建立卷積特征通道間的依賴關系,從而更準確地捕捉到與農(nóng)業(yè)病蟲害相關的關鍵信息。另外,CBAM模塊通過強化小目標特征,有效提高模型對小型病蟲害的檢測敏感性。圖3展示CBAM模塊的結構設計,該模塊輕量且可通用,對整體模型參數(shù)規(guī)模的影響極小。
圖3CBAM網(wǎng)絡結構Fig.3Network structure of CBAM

CBAM模塊首先引入通道注意機制,以增強模型對關鍵特征的敏感性。其計算過程如式(1)所示。
Mc(F)=σ(MLP(AvgPool(F))+
MLP(Maxpool(F)))
=σ(W1(W0(Favgc))+W1(W0(Fmaxc)))
式中: F —輸人特征圖;Mc(F) 一 -通道注意輸出權重;σ -Sigmoid激活函數(shù);MLP 二 一共享全連接層;W0 ——第1層的權重矩陣;W1? 第2層的權重矩陣;Favg 平均池化后的特征圖;Fmax 最大池化后的特征圖。
將輸入特征 F 與對應特征權重 Mc 相乘,得到凸顯重要通道的輸出特征 F′ ,其計算如式(2)所示。
F′=F?Mc
進一步,加權通道特征圖 F′ 被用作空間注意力模塊的輸入。通過平均池化和最大池化操作,生成了一個單通道的特征圖,用于權衡不同空間位置的重要性。其計算過程如式(3)所示。

式中: F′ 一 通道注意力模塊加權后的輸出特征;
Ms(F′) ——空間注意的輸出權值;
Favg 平均池化后的空間特征圖;
Fmax 最大池化后的空間特征圖;
f7x7 卷積核大小為 7×7 的卷積運算。
最終,模型通過整合這2種注意力機制,輸出1個既強調(diào)通道信息也突出空間信息的特征圖 F′′ ,其計算如式(4)所示。
F′′=F′?Ms
2.2.2 多尺度特征融合模塊
小型蟲害目標經(jīng)過卷積處理后得到的特征會變得模糊和不明確,因此特征提取的準確性會降低,尤其是在目標檢測任務中。解決以上問題的常用方法是直接融合淺層特征和深層特征,但會削弱多尺度表示的能力。此外,由于各層之間的預測相互獨立,一些關鍵特征可能會被忽視。為解決這些問題,Liu等[23]提出了一種PANet的雙向特征融合網(wǎng)絡。PANet通過自底向上的連接實現(xiàn)雙向融合,但產(chǎn)生了一些僅有輸入邊的節(jié)點,這些節(jié)點不但對網(wǎng)絡性能的貢獻有限,還會增加額外的參數(shù)和計算負擔。
為解決上述問題,進一步提出一種加權雙向特征融合模塊(MFF)來優(yōu)化這一過程。首先,MFF模塊去除了那些僅有輸入邊的節(jié)點以及第6層中的最后1個節(jié)點,因為這些節(jié)點僅傳遞輸入特征,對整體網(wǎng)絡性能的貢獻較小,而且增加了不必要的參數(shù)數(shù)量。其次,MFF模塊通過添加跳躍連接,在相同尺度的層之間建立了輸入與輸出的直接連接,以減少計算成本并優(yōu)化特征融合。由于不同分辨率的輸入特征對輸出有不同的貢獻,MFF模塊為每個輸入特征分配了可學習的權重,以衡量它們在最終輸出中的重要性。這一步是通過一種帶權值的快速歸一化融合方法實現(xiàn)的。最后,通過上采樣將多個不同分辨率的特征圖融合為一個高分辨率的輸出,從而同時捕獲多尺度的局部和全局信息,以提高目標檢測的性能。
MFF模塊的具體結構如圖4所示。首先將C4 層的輸出降采樣以生成 c5 和 C6 。然后,每個節(jié)點都被賦予可學習的權重,并通過快速歸一化特征融合進行處理。以第3層為例, C3 是該層的輸人, P3′ 是中間節(jié)點,而 P3 是經(jīng)過加權融合后的輸出。中間節(jié)點 P3′ 的特征計算如式(5)所示。

式中:Conu 卷積運算;resize 大小縮放運算;ω1,ω2 1 -對應節(jié)點輸人的可學習權值;
3 數(shù)值穩(wěn)定系數(shù),通常取值 0.0001 。
進一步,具有權重融合的輸出節(jié)點 P3 的特征計算方法如式(6)所示。

式中: ω1′,ω2′,ω3′ 一對應節(jié)點輸入的可學習權值。
圖4MFF網(wǎng)絡結構Fig.4MFFnetwork structure

這些權值用于實現(xiàn)一種快速歸一化特征融合方法。通過這種方法,模型成功獲取4層不同分辨率的融合特征。為實現(xiàn)更高級別的特征表示,這些不同分辨率的融合特征經(jīng)過大小調(diào)整,以達到相同的分辨率。最后,這些調(diào)整后的特征被進一步融合,生成一個統(tǒng)一的特征表示,其不僅包含局部信息,還綜合全局信息,從而提高害蟲目標檢測的性能。這樣的設計使網(wǎng)絡在保持計算效率的同時,更有效地捕捉多尺度信息,從而在各種大小和復雜性的害蟲檢測任務中表現(xiàn)出色。
2.2.3 損失函數(shù)
由于農(nóng)田復雜環(huán)境下拍攝的害蟲圖像背景復雜,前景與背景容易出現(xiàn)類失衡。采用以下策略:利用標注的XML文件中保存的像素坐標信息,計算每個害蟲目標的真實中心點坐標。對于這些真實中心點,其對應的得分被設置為1。考慮到真實中心點附近的區(qū)域也具有代表害蟲目標的特性,采用高斯核函數(shù) Yxyc 在真實中心點附近生成1個二維正態(tài)分布。通過這種方式,這些近鄰區(qū)域被賦予介于 0~1 之間的數(shù)值,更好地反映它們的相關性。通過網(wǎng)絡訓練,能夠預測出1組可能的害蟲中心點。這些預測出的中心點得分位于0~1 。為了量化預測中心點和真實中心點之間的誤差,即中心點損失,引入一個改進的Focalloss24作為誤差函數(shù),并記該誤差為 Lhm ,如式(7)所示。


式中: Lhm ——中心點損失;NΩ 一 -圖像中物體的數(shù)量;Yxyc 高斯核函數(shù);Yxye 預測值;(x,y) 一熱圖上的一個坐標;
(2 -4倍下采樣后的真實點坐標;α,β ——焦損失的超參數(shù),分別設置為2、4;σp 由物體尺度決定的標準差。
對于尺度估計(寬高損失),可以直接使用預測寬高和實際寬高之間的 L1 損失,如式(9)所示。

式中: Lwh. (204號 寬高損失。
由于最終特征圖中的降采樣因子 r 為對象中心引入了量化誤差,因此,增加一個額外的偏移分支來補償誤差,同樣采用L1損失。實際偏移量由
得到,相應的預測偏移量用
表示。因此,偏移量的損失如式(10)所示。

式中: Loffset 偏置損失。
綜上,改進CenterNet害蟲檢測模型的訓練總損失 Ltotal 計算如式(11)所示。
Ltotal=λ1Lhm+λ2Lwh+λ3Loffset
式中: λ1? ——中心點損失平衡系數(shù),取為1;λ2 ——寬高損失平衡系數(shù),取為0.1;λ3 ——偏置損失平衡系數(shù),取為1。
以上3個損失項分別考慮了中心點的精度、下采樣偏置以及寬高的準確性。通過這樣的損失函數(shù)組合,模型不僅在邊界框回歸方面得到優(yōu)化,還挖掘出高質(zhì)量的樣本。更進一步地,通過直接計算預測框與真實框?qū)捀叩牟钪担铀倭诉吔缈虻氖諗克俣龋⑻嵘苏w檢測性能。這種多元損失函數(shù)設計使得模型在不同方面都得到全面優(yōu)化,特別是在處理多尺度和不規(guī)則形狀的害蟲目標時具有更高的魯棒性。
2.3基于改進CenterNet的害蟲檢測流程
基于改進CenterNet的農(nóng)作物害蟲檢測模型如圖5所示。初始階段為輸人圖像的處理,其中圖像首先被傳遞至集成CBAM注意力機制的骨干網(wǎng)絡。此網(wǎng)絡專注于高效地提取圖像特征,并強化對關鍵區(qū)域的關注。接下來,頸部網(wǎng)絡中的多尺度融合模塊(MFF)進一步加工這些特征,通過融合低層的位置信息和高層的語義信息,以增強對害蟲的檢測能力。最終,檢測網(wǎng)絡的3個頭部分別負責預測害蟲的中心點位置、偏移和檢測框尺度,從而確保精準識別和定位,獲得最終的檢測結果。整個模型的訓練和優(yōu)化過程中,損失函數(shù)扮演著關鍵角色,指導模型有效學習和實現(xiàn)對各類害蟲的高效檢測。
圖5改進CenterNet的蟲害檢測模型 Fig.5 Improved pestdetection model ofCenterNet

3 試驗結果與分析
3.1 試驗設置
試驗均在配備NVIDIATITANRTX圖形處理器的Ubuntu操作系統(tǒng)環(huán)境下完成。采用Python3.8.13以及PyTorch1.1O.1作為主要的開發(fā)和實現(xiàn)平臺。在數(shù)據(jù)集方面,選定百度AI害蟲數(shù)據(jù)集以及IP102數(shù)據(jù)集作為試驗驗證的基礎。對于百度AI害蟲數(shù)據(jù)集,模型的訓練過程涵蓋100個批次,每個批次由32個樣本組成;相應地,在IP102數(shù)據(jù)集上,訓練過程則包括200個批次,每批次同樣包含32個樣本。優(yōu)化器采用Adam優(yōu)化算法,并設定初始學習率為 1.25×10-3 ,動量參數(shù)為0.937。為促進模型更快地收斂,學習率在達到第90個批次時減少至其初始值的 1/10 所有輸人圖像均經(jīng)過預處理,統(tǒng)一調(diào)整至512像素 ×512 像素的分辨率。
圖6展示了損失函數(shù)的變化趨勢,可以看出,在百度AI害蟲數(shù)據(jù)集上,各類損失在第90個批次之后呈現(xiàn)出穩(wěn)定的收斂態(tài)勢,如圖6(a)所示;而在IP102數(shù)據(jù)集上,雖然第90個批次后開始表現(xiàn)出收斂趨勢,但是直到第125個批次之后才實現(xiàn)穩(wěn)定收斂,如圖6(b)所示。

3.2 評價指標
為全面而公平地評估各種目標檢測模型的性能,采用4個評估指標:精確率 P 、召回率 R 、平均精度均值 mAP 和推理速度 FPS 。
精確率表示正確預測的正例數(shù)占總預測的正例數(shù)的比例,如式(12)所示。

式中: TP -正確預測為正例的樣本數(shù)量;
FP 一 錯誤預測為正例的樣本數(shù)量。
召回率表示正確預測的正例數(shù)占實際正例數(shù)的比例,如式(13)所示。

式中: FN ——錯誤預測為負例的樣本數(shù)量。
mAP 是各個類別平均精度 (AP) 的平均值,其反映模型在所有類別上的綜合檢測精度,如式(14)所示。


式中: NΩ ——樣本類別數(shù)量。
FPS 指的是模型在單位時間內(nèi)處理的幀數(shù),它衡量了模型的計算效率和實時檢測能力。
3.3 對比試驗
為驗證所提出的改進CenterNet算法在農(nóng)作物害蟲檢測方面的優(yōu)越性,在相同的硬件配置條件下,將改進CenterNet算法與當前主流的幾種目標檢測算法對比,這些算法包括SSD[6]、FasterR—CNN[10]RetinaNet[24]、YOLOv5[25]、 ATSS[26] 以及原始的CenterNet21算法。對比試驗分別在百度AI昆蟲檢測數(shù)據(jù)集和IP102數(shù)據(jù)集上進行。
3.3.1百度AI昆蟲檢測數(shù)據(jù)集
在百度AI害蟲檢測數(shù)據(jù)集上,將改進算法與其他6種自標檢測網(wǎng)絡算法在同一計算平臺進行對比試驗,檢測結果如表2所示。
表2在百度AI害蟲檢測數(shù)據(jù)集的對比結果Tab.2Comparisonresultsin Baidu AI pestdetectiondataset

表2詳細列出各種目標檢測算法與本研究中改進的CenterNet模型在精確率、召回率 ,mAP 以及FPS等方面的性能對比。顯然,改進CenterNet在精確率、召回率和 mAP 方面均顯著優(yōu)于其他參考方法,分別達到98.1%.99.8% 和 98.6% 。具體來說,與原始CenterNet相比,改進模型在精確率、召回率和 mAP 上分別提高 3.6%3.1% 和 3.4% 。更值得一提的是,與當前性能最佳的ATSS模型相比,分別提高 0.5% 、1.5% 和 0.7% 。在計算效率方面,改進后的CenterNet模型達到31.8幀/s的推理速度。雖然這一速度略低于原始CenterNet模型的34.7幀/s,但考慮到其他性能指標的明顯提升,該模型在速度和準確性之間實現(xiàn)良好的權衡。綜合考慮,所提出的改進CenterNet模型在檢測性能和計算效率方面均表現(xiàn)出色。
圖7進一步提供1組在百度AI害蟲數(shù)據(jù)集上的檢測示例。所提出的改進版CenterNet模型在各種具挑戰(zhàn)性的條件下均表現(xiàn)出卓越的性能。無論是樣本數(shù)量的變化、光照條件的不同,還是目標尺度的多樣性與遮擋問題,該模型均能準確地識別每一只害蟲,沒有出現(xiàn)漏檢或誤檢的情況。這不僅進一步驗證模型的有效性,也充分證明其在復雜環(huán)境中的魯棒性。

3.3.2 IP102數(shù)據(jù)集
在IP102上,將改進算法與其他6種目標檢測網(wǎng)絡算法在同一計算平臺進行對比試驗,與其他6種先進的目標檢測模型進行綜合比較,檢測結果如表3所示。
表3在IP102數(shù)據(jù)集的對比結果Tab.3Comparisonresults on IPlO2dataset

在IPlO2數(shù)據(jù)集上,改進CenterNet模型在精確率、召回率 ,mAP 都取得顯著提升。具體來說,精確率達到 91.4% ,相較于原始CenterNet提升 1.9% ,并在與ATSS對比時也高出 1.2% 。召回率在改進CenterNet達到 87.6% ,比CenterNet高出 5.8% ,比ATSS高出 4.3% 。同時, mAP 也從CenterNet的84.6% 提升到 89.7% ,實現(xiàn) 5.1% 的增長;與ATSS相比, mAP 提升 3.4% 。盡管在FPS方面,改進CenterNet的3O.1幀/s略低于CenterNet的33.6幀/s,但其在準確性和召回率等關鍵性能指標上的優(yōu)勢明顯,因此在綜合性能上展現(xiàn)出顯著的優(yōu)越性。
圖8展示改進CenterNet模型在實際應用中的檢測效果。在這些試驗中,改進CenterNet模型表現(xiàn)出顯著的魯棒性和高精度。不僅如此,該算法在各種復雜場景下,如不同光照條件、多尺度目標以及不同程度的遮擋環(huán)境,都能有效地識別不同種類的害蟲。值得一提的是,對于高密度、小尺度的蚜蟲,模型也能準確檢測,進一步證明其強大的檢測能力。在白天和夜間不同光照條件下,改進CenterNet不僅降低漏檢和誤檢頻率,還對密集且不均勻分布的小目標(如被枝葉遮擋的害蟲)展示了卓越的檢測精度。特別地,該模型在高密度環(huán)境中仍能保持高召回率和精確率,凸顯其在實際應用場景的綜合優(yōu)勢。
圖8改進CenterNet在IP102數(shù)據(jù)集的檢測效果Fig.8Detection effect of improvedCenterNet on IPlO2dataset

3.4 消融實驗
表4綜合展示改進CenterNet模型在IP102數(shù)據(jù)集上的消融實驗結果,突出CBAM和MFF兩個關鍵組件在模型性能優(yōu)化方面的顯著貢獻。
表4在IP102數(shù)據(jù)集的消融實驗Tab.4 Ablation experiments on the IPlO2dataset

如表4所示,在原始CenterNet模型上,精確率、召回率和平均精度分別為 89.5%.81.8% 和 84.6% 。而單獨引入CBAM模塊后,這3個關鍵指標分別提升到 90.4%.83.3% 和 86.9% ,凸顯出CBAM模塊在模型表現(xiàn)上的積極影響。類似地,僅集成MFF模塊也導致3項指標的明顯提升,分別達到 90.7% 84.6% 和 87.2% 。最為引人注目的是,當CBAM和MFF模塊同時融入CenterNet模型中時,模型的各項性能指標均實現(xiàn)最大幅度的提升,精確率達到91.4% ,召回率為 87.6% ,mAP高達 89.7% 。這一綜合結果不僅突出CBAM和MFF兩大模塊在模型性能提升中的關鍵作用,而且也充分驗證了提出的改進方法在精確和高效地檢測害蟲方面具有顯著優(yōu)勢,進而更有效地促進害蟲防治工作。
4結論
1)提出一種高效的改進型CenterNet害蟲無錨框檢測模型,專門針對農(nóng)田復雜環(huán)境下的害蟲檢測問題。通過在骨干網(wǎng)絡中加人CBAM模塊,使模型更加專注于害蟲目標,而非背景信息。同時,頸部網(wǎng)絡中的MFF模塊實現(xiàn)低層位置信息與高層語義信息的有效融合。
2)在百度AI害蟲數(shù)據(jù)集和IP102數(shù)據(jù)集上的試驗結果顯示,改進模型的 mAP 分別達到 98.6% 、89.7% ,相對于原始的CenterNet分別提高 5.1% 、3.4% ,檢測精度顯著提升。兩個不同數(shù)據(jù)集的試驗結果證明所提模型在蟲害目標檢測方面的準確性以及在復雜農(nóng)田環(huán)境下的高穩(wěn)定性和魯棒性。
盡管如此,該模型仍存在一些不足。當前模型主要適用于特定類型的害蟲,對新種類害蟲的適應性和泛化能力有待提高。未來的研究工作將通過擴展和多樣化數(shù)據(jù)集,并可能運用遷移學習以增強對未知害蟲種類的識別。同時,模型在低光照和高遮擋等極端環(huán)境下的性能還需進一步測試和優(yōu)化,確保在各種農(nóng)田條件下都能保持高效的檢測性能。
參考文獻
[1]Falkenberg T,Ekesi S,Borgemeister C.Integrated pest management(IPM)and one health:A call for action to integrate [J]. Current Opinion in Insect Science,2022: 100960.
[2]Deng L,Wang Y,Han Z,et al. Research on insect pest image detection and recognition based on bio-inspired methods[J]. Biosystems Engineering,2018,169:139—148.
[3]Xiao D,F(xiàn)eng J,Lin T,et al.Classification and recognition scheme for vegetable pestsbased on the BOFSVM model[J]. International Journal of Agricultural and Biological Engineering,2018,11(3):190—196.
[4]董偉,錢蓉,張潔,等.基于深度學習的蔬菜鱗翅目害蟲 自動識別與檢測計數(shù)[J].中國農(nóng)業(yè)科技導報,2019, 21(12):76—84. DongWei,Qian Rong,ZhangJie,et al.Vegetable lepidopteran pest auto recognition and detection counting based on deep learning [J]. Journal of Agricultural Science and Technology,2019,21(12):76-84.
[5]Kasinathant T, Singaraju D, Uyyala S R. Insect classification and detection in field crops using modern machine learning techniques [J]. Information Processing in Agriculture,2021,8(3):446-457.
[6]Chen Z,Guo H,Yang J,et al. Fast vehicle detection algorithm in traffic scene basedon improved SSD [J]. Measurement,2022,201: 111655.
[7] Zhang Y,Guo Z,Wu J,et al. Real-time vehicle detection based on improved YOLOv5[J].Sustainability,2022, 14(19):12274.
[8]Pandey SK,Bhandari A K.YOLOv7 for brain tumour detection using morphological transfer learning model [J]. Neural Computing and Applications,2O24,36(32): 20321—20340.
[9]Jiang P,Ergu D,Liu F,et al.A Review of YOLO algorithm developments[J]. Procedia Computer Science, 2022,199:1066—1073.
[10] Xu J,Ren H,Cai S,et al.An improved Faster R—CNN algorithm for assisted detection of lung nodules [J]. Computers in Biology and Medicine,2023,153:106470.
[11]Chen M,Yu L,Zhi C,et al. Improved Faster R—CNN for fabric defect detection based on gabor filter with genetic algorithm optimization[J]. Computers in Industry,2022, 134:103551.
[12]LiR,Yu J,LiF,et al. Automatic bridge crack detection using unmanned aerial vehicle and Faster R—CNN[J]. Construction and Building Materials,2023,362:129659.
[13]LiR,Wang R,We C,et al. A coarse-to-fine network for aphid recognition and detection in the field[J].Biosystems Engineering,2019,187:39-52.
[14] Wang F,Wang R, Zhe C,et al. Fusing multi-scale context-aware information representation for automatic in-field pest detection and recognition [J]. Computers and Electronics in Agriculture,2020,169:105222.
[15] Selvaraj MG,Vergara A,Ruiz H,et al. AI-powered banana diseases and pest detection [J]. Plant Methods, 2019,15:1—11.
[16]李萍,劉裕,師曉麗,等.基于多尺度殘差空間注意力輕 量化U—Net的農(nóng)業(yè)害蟲檢測方法[J].江蘇農(nóng)業(yè)科學, 2023,51(3):187—196. Li Ping,Liu Yu,Shi Xiaoli,et al. Agricultural pest detection method based on multi-scale residual spatial attention lightweight U—Net [J]. Jiangsu Agricultural Science,2023,51(3):187—196.
[17]劉志,翟瑞芳,彭萬偉,等.融合注意力機制的Cascade R-CNN田間寶由檢測方法「I]華中農(nóng)業(yè)大學學報 2023,42(3):133-142. Liu Zhi,Zhai Ruifang,Peng Wanwei,et al. Field pest detection method based on improved Cascade R—CNNby incorporating attention mechanism[J]. Journal of Huazhong AgriculturalUniversity,2023,42(3):133-142.
[18]彭紅星,徐慧明,高宗梅,等.基于改進YOLOF模型的 田間農(nóng)作物害蟲檢測方法[J].農(nóng)業(yè)機械學報,2023, 54(4):285-294. PengHongxing,XuHuiming,Gao Zongmei,etal.Insect pest detection of field crops based on improved YOLOF model [J].Transactions of the Chinese Society for AgriculturalMachinery,2023,54(4):285-294.
[19]Ding W,Taylor G. Automatic moth detection from trap images for pest management[J].Computersand Electronics inAgriculture,2016,123:17-28.
[20]Wu X,Zhan C,Lai Y,et al.IP1O2:A large-scale benchmark dataset for insect pestrecognition[C]. Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition,2019:8787—8796.
[21]Zhou X,Wang D,Kr?henbuhl P.Objects as points[J]."arXiv preprint arXiv: 1904. 07850, 2019.
[22]Woo S,Park J,Lee JY,et al.CBAM:Convolutional block attention module [C].Proceedings of the European Conference on Computer Vision(ECCV),2018: 3-19 :
[23]Liu S,QiL,Qin H,et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018:8759-8768.
[24] Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense objectdetection[C]. ProceedingsoftheIEEE International Conference on Computer Vision,2017: 2980-2988.
[25]Li S,Li Y,Li Y,et al.YOLO—FIRI:Improved YOLOv5 for infrared image object detection [J]. IEEE Access,2021,9:141861—141875.
[26] Zhang S,Chi C,Yao Y,et al. Bridging the GAP between anchor-based and anchor-free detection via adaptive training sample selection [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020:9759-9768.