999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別

2022-03-09 02:02:08陸健強余超然蘭玉彬邱洪斌黃捷偉尹梓濠陳慧潔鄭勝杰
農業工程學報 2022年22期
關鍵詞:檢測模型

陸健強,梁 效,余超然,蘭玉彬,邱洪斌,黃捷偉,尹梓濠,陳慧潔,鄭勝杰

·農業信息與電氣技術·

基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別

陸健強1,2,3,梁 效1,余超然4,蘭玉彬1,2,3※,邱洪斌1,黃捷偉1,尹梓濠1,陳慧潔1,鄭勝杰1

(1. 華南農業大學電子工程學院(人工智能學院),廣州 510642;2. 嶺南現代農業科學與技術廣東省實驗室河源分中心,河源 517000;3. 國家精準農業航空施藥技術國際聯合研究中心,廣州 510642;4.廣東省農業科學院蔬菜研究所,廣州 510640)

綠色高效殺線農藥是現階段防治植物線蟲病的有效手段之一,針對在大規模殺線農藥活性篩選測試階段,傳統人工鏡檢工作存在耗時長、準確率低、工作量大等問題,提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別方法YOLOFN(YOLO for Nematodes)。基于YOLOv5s目標檢測理論框架,在主干網絡嵌入坐標注意力機制特征提取模塊,融合線蟲特征圖位置信息于通道注意力中;進一步,平衡考量線蟲目標的重疊比例、中心點距離、預測框寬高以及正負樣本比例,以精確邊界框回歸的高效損失函數(Efficient IoU,EIoU)和焦點損失函數(Focal loss)優化定位損失函數和分類損失函數,最小化真實框與預測框的寬高差值,動態降低易區分樣本的權重,快速聚焦有益訓練樣本,以提升模型對重疊黏連線蟲目標的解析能力和回歸精度。試驗結果表明,YOLOFN在準確率、召回率和平均精度均值(mean Average Precision,mAP)性能指標上較改進前提高了0.2、4.4和3.8個百分點,與經典檢測算法YOLOv3、SSD、Faster R-CNN3相比,mAP分別提高了1.1、31.7和15.1個百分點;與輕量化主干算法深度可分離卷積-YOLOv5、Mobilenetv2-YOLOv5、GhostNet-YOLOv5相比,在推理時間基本無差別情況下,mAP分別高出11.0、16.3和15.0個百分點。YOLOFN模型可快速、準確、高效完成線蟲鏡檢統計工作,滿足植物線蟲病農藥研發的實際需求,為加快植物線蟲病防治新藥的研制提供有力技術支持。

模型;深度學習;植物線蟲病;殺線農藥;目標檢測;注意力機制;損失函數

0 引 言

農林業病蟲害的防治對中國生態保護有重大意義。植物線蟲病是由植物寄生線蟲侵襲和寄生引起的植物病害,主要包括作用于花生、黃瓜、柑橘等多種作物的根結線蟲病,作用于大豆等豆科作物的大豆胞囊線蟲病、作用于小麥的小麥粒線蟲病和作用于松木植株的松材線蟲病等,嚴重危害中國小麥、玉米、水稻、甘薯等糧食作物和松林、蔬菜、中草藥等經濟作物的健康[1-4]。植物線蟲病的主要防治舉措包括物理防治、化學防治和生物防治,其中,采用殺線劑進行化學防治是植物線蟲病防治的重要手段之一[5-6]。然而,高效低毒的殺線劑品種當前仍然匱乏[7]。在大規模的農藥殺線活性篩選階段,實驗人員需要測定候選化合物在不同濃度藥劑處理下對線蟲的致死率,初步判斷化合物的殺線效果。在測定藥劑對線蟲防治效果的過程中,線蟲存活率的測定、繁殖量的測定以及病害發生情況的統計均涉及對線蟲死亡識別及計數[8]。因此,提出一種科學高效的線蟲識別方法具有實際應用意義。

傳統的植物線蟲形態學檢測方法包括取樣、分離和鏡檢3個環節,步驟繁瑣、人工成本高、效率低[9-10]。隨著計算機檢測技術的發展,傳統圖像處理方法如閾值分割和顏色空間轉換等常被用于農業病蟲害檢測[11]。張建華等[12]基于最優二叉樹支持向量機算法對蜜柚葉部病蟲害進行識別,平均識別率達到94.16%。近年來,隨著深度學習的快速發展,利用深度學習方法進行農林作物、病蟲害檢測的實例越來越多。孫豐剛等[13]通過將Ghost輕量化模塊引入YOLOv5s網絡模型結合卷積塊注意力機制(Convolutional Block Attention Module,CBAM )和加權雙向金字塔特征融合網絡實現了對蘋果病蟲害小目標的檢測,平均精度達90.9%;陸健強等[14]提出一種基于深度學習的柑橘黃龍病果實識別算法,利用Mixup數據增強和卷積神經網絡,在數據較少的情況下實現了柑橘黃龍病害的高精度、快速檢測。目前應用在植物線蟲病防治領域的深度學習方法多針對受災作物的現場檢測。李浩等[15]利用無人機獲取松材線蟲病害松木遙感圖像,將ResNet50與Faster R-CNN結合實現了不同病害程度的染病松木的識別,識別準確率達83.2%;徐信羅等[16]考慮到染病松木冠幅大小與正常木的差別,利用Faster R-CNN算法提高了識別異常染病松木的檢測精度;黃麗明等[17]利用深度可分離卷積和倒殘差結構改進YOLOv4算法,提高了松材線蟲病異常變色木的識別精度。這些案例從檢測病害松木角度出發,為植物線蟲病的防治提供了可行方法。但目前從綠色新型農藥研發角度出發結合深度學習技術防治植物線蟲病的方法仍有待完善。

本文以助力綠色新型殺線農藥研制為目的,以松材線蟲顯微圖像為研究對象,提出一種基于深度學習目標檢測技術的線蟲快速識別方法。針對松材線蟲顯微鏡鏡檢圖像目標細長、分布密度不均、重疊黏連率高以及死活蟲體形態相近等特點,本文從兼顧檢測速度與檢測精度的角度出發,基于YOLOv5s主要網絡框架進行優化改進,提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別模型YOLOFN(YOLO for Nematodes),以期實現準確高效識別松材線蟲顯微鏡鏡檢圖像活蟲和死蟲蟲體,為植物線蟲病的新藥研制提供有力的技術支持,為農林業病蟲害檢測、重疊細小目標的深度學習智能識別方法提供參考。

1 試驗數據

1.1 數據采集

松材線蟲樣本采集區域位于廣西省玉林市興業縣松材線蟲病疫區,中心經緯度為109.855°E,22.604°N。從疫區中選取8棵剛枯死以及尚未完全枯死的優勢木作為樣本木進行取樣,樣本取樣位置為染病松樹樹干下部(胸高處)、上部(主干與主側枝交界處)、中部(上、下部之間)3個位置。將3個取樣位置的樹皮剝凈,為避免鉆取木屑時溫度超過50 ℃從而迅速殺死松材線蟲,采用塊狀取樣方式進行取樣。從木質部表面至髓心采集100~150 g木屑作為分離樣品。松材線蟲顯微鏡鏡檢圖像采集試驗在華南農業大學植物保護學院植物線蟲病研究室進行,采集步驟如下:對在室內純培養繁殖的松材線蟲供試蟲源,采用傳統貝曼漏斗法分離,注入清水浸沒分離12 h,將繁殖后的線蟲分離出來[9],再將分離液體進行離心處理,獲得高濃度松材線蟲懸浮液,然后將高濃度松材線蟲懸浮液稀釋至2 000和5 000條/mL濃度的松材線蟲培養液樣品,最后制成不同濃度的松材線蟲玻片。使用型號為NIKON YS100和NIKON TS100倒置顯微鏡對松材線蟲玻片進行觀察,并使用Canon EOS M10單反相機采集松材線蟲顯微鏡鏡檢圖像。最終,初步構建的松材線蟲顯微鏡鏡檢圖像數據集共741張圖片,其中蟲體較稀疏圖像357張(圖1a),蟲體較密集圖像384張(圖 1b),分辨率為2 880×1 616。基于體態學判斷線蟲死活的方法和實際動態觀察到的情況,蟲體蜷曲扭動、形態不定為活蟲,蟲體僵直不動、呈現“J”狀為死蟲[18],如圖2所示。在線蟲研究人員的觀察指導下,首先通過肉眼觀察法根據線蟲形態特征鑒別線蟲死活狀態,然后使用開源標注軟件LabelImg按死蟲和活蟲兩個類別對松材線蟲圖像數據集進行標注。

圖1 松材線蟲圖像

圖2 死蟲和活蟲

1.2 數據增強

1.2.1 離線數據增強

松材線蟲圖像具有蟲體個體相似度高的特點,為提高模型魯棒性,增強模型泛化能力,使用離線數據增強方法進行訓練樣本擴充。首先,使用數據劃分腳本對741張松材線蟲圖像樣本按8∶2隨機劃分為訓練集和測試集,然后對訓練集的593張圖像進行離線數據增強,增強方法包括旋轉、平移、改變亮度、模擬遮擋、添加噪聲(圖3),按擴充倍數3將訓練集擴充至1 779張。

圖3 數據增強后松材線蟲圖像

1.2.2 在線數據增強

為進一步提高識別效果,增強模型泛化能力,對離線增強后的訓練數據集采用馬賽克數據增強方法[19-20]。如圖4所示,馬賽克數據增強主要是在訓練時從數據集中隨機選取4張圖片,通過隨機裁剪、縮放、排布的方式進行拼接,拼接后獲得的新圖片再傳入神經網絡進行訓練學習。使用馬賽克數據增強方法對訓練集進行在線數據增強,增加了傳入網絡的松材線蟲樣本數,有效降低了因松材線蟲圖像數據集樣本較少所造成的模型過擬合風險,而且提高了GPU算力的利用效率。

圖4 馬賽克數據增強流程

2 線蟲識別模型設計

2.1 YOLOFN模型設計

YOLO(You Only Look Once)[21-22]是2015年提出的基于單個神經網絡的目標檢測系統,后逐步完善并發布了YOLOv2、YOLOv3和YOLOv4。2020年,Ultralytics 公司發布了YOLO家族中最新一代的目標檢測模型YOLOv5。YOLOv5根據網絡寬度和深度的不同,分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x四個版本[23-24]。從s到x網絡所含殘差結構的個數和卷積核個數不斷增加,因此深度和寬度以及參數量和模型大小不斷增加,模型檢測精度得到提高,但相應的時間耗費也在增加。本研究所使用松材線蟲數據集相對較小,種類較單調,因此使用較淺層的網絡即可充分提取特征。且由于后續在實際應用中需要對模型進行邊緣端部署等原因,本研究從綜合應用角度出發,選擇最輕量且可滿足松材線蟲特征提取深度的YOLOv5s作為基礎網絡進行改進。

YOLOv5s基礎網絡兼顧檢測精度與檢測速度,可滿足初步識別任務。但是松材線蟲識別過程中,存在線蟲目標經重復卷積池化容易發生特征缺失進而導致漏檢的問題。還有因松材線蟲圖像蟲體發生重疊、黏連程度大,死蟲和活蟲形態差距較小而導致預測框回歸精度差的問題。因此,本文針對上述問題對基于YOLOv5s的松材線蟲識別模型進行優化改進。在YOLOv5s網絡模型的基礎上,重新設計特征提取網絡和損失函數。一是將同時考慮位置和通道信息的坐標注意力機制引入特征提取網絡,提高網絡對細長松材線蟲目標的特征提取能力。二是針對目標重疊黏連程度大、目標框回歸困難的問題,將原模型損失函數(Complete IoU Loss,CIoU)改進為Efficient IoU Loss(EIoU),將原損失函數中用來衡量縱橫比損失項的參數,進一步細化拆分為預測框的寬高,直接考慮寬高與其置信度的真實差異,使真實框與預測框的寬高之差最小,加速模型的收斂速度;三是當易區分負樣本過多,一階段檢測算法的整個訓練過程將圍繞易區分負樣本進行,從而淹沒正樣本,造成目標類別損失增大。為解決這個問題,向原類別損失函數(Binary Cross Entropy Loss,BCE)中引入一個調制因子,將類別損失函數改進為焦點損失函數(Focal Loss),動態降低易區分樣本的權重,將重心快速聚焦在對訓練有幫助的樣本上,以提高松材線蟲目標的識別精度和死活判斷準確度。

2.2 特征提取主干網絡改進

本文基于YOLOv5s主干網絡進行改進的模型網絡如下:首先把網絡中目標提取特征層的特征提取卷積模塊(Convolution-Batch Normalization-Sigmoid,CBS)前嵌入坐標注意力機制模塊構成坐標注意力特征提取卷積模塊(Coordinate Attention-CBS,CA-CBS);然后利用多層最大池化模塊進一步提取并融合經注意力加深后的高層次語義信息;繼而將特征圖再次傳入CA-CBS特征提取模塊;最后通過特征金字塔網絡+路徑聚合網絡結構進行特征融合[25-26]。改進后的模型網絡如圖5所示。

松材線蟲顯微鏡鏡檢圖像存在蟲體形態細長的特點。隨著卷積加深,細長目標在大背景下的信息十分容易被大量冗余信息所淹沒,導致識別精度低下。針對此問題,本文使用一種將位置信息嵌入到通道注意力中的坐標注意力機制[27](Coordinate Attention,CA),提高網絡對線蟲目標的注意力,減少細小特征信息遺失。

CA注意力機制通過把通道注意力分解為并行進行的一維特征編碼的過程,形成一組在方向和位置兩個層面同時敏感的特征圖,以增強對注意力信息的敏感性。

在通道注意力機制中,通常使用全局池化的方法將通道信息全局編碼,因此造成位置信息忽視而導致檢測精度降低。CA模塊對此進行改進,在坐標信息嵌入中按照公式(1)將全局池化分為一組一維特征編碼:

(2)

在垂直坐標方向上使用尺寸為(1,)的池化核對每個通道進行編碼,寬度為的第通道的輸出可以表示為

經過式(2)、式(3)對輸入進行水平垂直方向的特征聚合后,輸出一對方向敏感注意力特征和。該步驟使CA模塊在獲取一個空間方向的遠程依賴,同時保存沿另一空間方向的精確位置信息,有助于網絡更好地獲得全局感受野并編碼更精確的位置信息。

注:CA為坐標注意力模塊。下同。

Note: CA is coordinate attention module.

圖5 YOLOFN模型網絡結構

Fig.5 YOLOFN (YOLO for Nematodes) model network structure

在坐標注意力生成階段,首先利用上個階段產生的注意力表征進行級聯操作,之后利用1×1卷積變換函數對其進行變換操作:

2.3 損失函數改進

YOLOv5s的損失函數主要由回歸框預測損失L、置信度損失L、目標類別損失L組成。總體損失函數計算公式為

在早期的YOLOv5版本中,回歸框預測損失函數L采用Generalized IoU Loss(GIoU)。GIoU計算公式為

在最新版本的YOLOv5模型中,作者使用了CIoU作為損失函數。將GIoU優化兩框之間的面積改為直接最小化2個目標框的距離,避免了GIoU在兩框相距較遠時損失很大,收斂速度慢的問題;增加了兩框之間長寬比一致性的參數,對重疊密集目標檢測更友好。CIoU計算公式為

CIoU雖然綜合考慮了邊界框回歸的重疊面積、中心點距離和長寬比,但是其沒有反映長寬分別與其置信度的真實差異,容易出現預測框誤差問題。

針對松材線蟲實際觀測中出現重疊黏連目標較多的特點,對回歸框預測損失L進行重新設計,將CIoU替換為EIoU:在CIoU的基礎上進一步權衡寬高與其置信度的真實差異,最小化真實框與預測框的寬高差值,加速模型收斂。EIoU損失函數包含3部分,重疊損失計算、中心點距離損失計算、寬高損失計算。對公式(10)進行改進:

YOLOv5s采用二元交叉熵損失函數(BCE With Logits)作為目標類別損失函數BCE(,),計算公式如下:

通過以上兩個方面對損失函數的改進,本文所設計的松材線蟲快速識別算法YOLOFN的損失函數公式為

3 試驗結果與分析

3.1 試驗環境及訓練設置

試驗所采用的環境配置如下:操作系統為Windows10(x64),CPU型號為Intel(R) Xeon(R) Gold 6330 CPU @ 2.00 GHz,運行內存為48 GB,GPU為RTX 3090 24 GB,深度學習框架為Pytorch 1.10.0,開發語言為Python 3.8,使用CUDA 11.3進行GPU加速。

本文使用增強后的1 779張松材線蟲圖像訓練集進行模型訓練。訓練集由死蟲和活蟲兩個類別構成,死蟲1 731只,活蟲4 092只。

本文基于以上環境以及數據集進行模型訓練,batchsize設置為32,訓練輪次設置為200輪,初始學習率設置為0.01,訓練過程中學習率采用Warmup[29]策略進行訓練預熱,提高模型訓練時的穩定性。采用余弦退火策略對學習率進行更新。優化器采用隨機梯度下降[30](Stochastic Gradient Descent,SGD)對誤差進行調整。

本文數據采集時原圖像分辨率為2 880×1 616。為增強試驗可靠性,在輸入網絡模型訓練前統一將圖像分辨率縮放至640×640,并使用2.2.2節介紹的馬賽克在線數據增強對圖像進行處理后進行訓練。

3.2 評價指標

評價指標的合理選擇對于衡量模型性能至關重要。本文數據集背景單純,目標均為松材線蟲且只有兩類。針對農藥研制過程中的實際需求,檢測側重于快速識別出所有線蟲的活蟲和死蟲。因此本文選擇采用反映識別準確度的評價指標:精確率(Precision,)、召回率(Recall,)、平均精度均值(mean Average Precision,mAP)以及反映檢測速度的指標:檢測時間(測試集單張圖像檢測的平均時間)和模型參數量作為評價指標來綜合評定模型性能。

3.3 試驗結果分析

3.3.1 數據增強試驗分析

為提高模型泛化性,改善由于原始數據量較少而導致的過擬合問題,本文采用了數據清洗、數據增強等方法。為驗證這些方法對提高模型泛化性的有效性,進行數據增強有效性對比、消融分析試驗,試驗全程使用改進前YOLOv5s模型進行訓練測試。結果如表1~3所示。

表1 離線數據增強擴充倍數對過擬合現象影響效果對比

由表1可知,不使用離線數據增強擴充訓練數據時,模型訓練發生過擬合現象,測試集mAP比訓練集低了5個百分點,為解決過擬合現象首先采取數據增強的方式擴大訓練集,擴充倍數取2、3、4做對比試驗以獲取最佳增強倍數。由表2可知采用離線數據增強的方式擴充訓練集后過擬合現象有所改善,擴充倍數取3時測試集mAP最高,為74.3%,對過擬合現象緩解效果最好,故本文對經過數據清洗后的593張數據集進行3倍離線數據增強,得到1 779張線蟲圖像進行訓練。

由表2可知,使用馬賽克在線數據增強方法進行模型訓練后,測試集的mAP比訓練集高1.1個百分點,比未使用馬賽克增強的測試集mAP高4.2個百分點,有效緩解了過擬合現象,故本文使用馬賽克在線數據增強策略進行模型訓練。

表2 馬賽克數據增強對過擬合現象影響效果對比

表3 提高模型泛化性方法消融試驗

由表3可知,對原始數據進行清洗后,訓練集和測試集mAP均有所提高,分別提高了5.2和10.6個百分點,并且過擬合現象有所緩解;使用離線數據增強后,測試集mAP進一步提高了3.5個百分點,且測試集只比訓練集低2.0個百分點,過擬合現象基本緩解;使用在線數據增強后,訓練集mAP進一步提高了4.2個百分點,并且測試集mAP比訓練集高2.4個百分點,過擬合現象已基本消除,以上消融試驗證明了本文針對線蟲數據量較少而發生的過擬合現象采取的改進方法的有效性。

3.3.2 消融試驗分析

為驗證YOLOFN算法引進CA注意力機制模塊,及EIoU結合Focal loss的損失函數優化方法的有效性,進行YOLOFN算法的消融試驗。試驗結果如表4所示。

表4 消融試驗

注:EIoU- Focal loss為高效邊界框回歸損失結合函數和焦點損失函數。

Note: EIoU-Focal loss respresent a combination of efficient bounding box regression loss and focus loss function.

由表4可知,向YOLOv5s主干網絡添加CA注意力機制模塊后,模型mAP提高了2.7個百分點;對原模型損失函數進行改進后,模型mAP提高了0.7個百分點;將兩個改進同時加入模型之后,模型mAP達到82.3%,相比于原模型提高了3.8個百分點,驗證了本文改進方法的有效性。

3.3.3 算法性能對比分析

目前使用深度學習目標檢測算法對松材線蟲進行識別研究的文獻較少,因此本文用改進后的線蟲識別算法與目前主流的3種目標檢測算法YOLOv3、SSD、Faster R-CNN以及原始YOLOv5s進行對比試驗,并且與目前主流輕量化網絡主干深度可分離卷積網絡、Mobilenetv2和GhostNet進行對比試驗,以驗證改進的有效性。性能比較對比結果如表5所示。

表5 算法性能對比

注:為平均推理時間;為模型參數量;DWConv代表深度可分離卷積。

Note:is average inference time;is model parameter quantity. DWConv represents depth-wise separable convolution.

由表5可知,與常用目標檢測算法YOLOv3、SSD、Faster R-CNN3相比,YOLOFN算法準確率、召回率、平均精度均值(mAP)均有所提高,其中mAP分別提高了1.1、31.7、15.1個百分點,達到了82.3%;與原始算法YOLOv5s相比,準確率、召回率、mAP分別提高0.2、4.4和3.8個百分點,YOLOFN算法與YOLOv5輕量化主干網絡深度可分離卷積、Mobilenetv2和GhostNet 3種網絡相比,在模型參數量方面輕量化網絡優于YOLOFN算法,檢測時間方面差距不大,檢測精度方面YOLOFN算法mAP優于3種輕量化網絡,分別提高了11.0、16.3和15.0個百分點。其中Mobilenetv2模型擁有最輕量的模型參數量,僅為1.73 MB,檢測時間比YOLOFN算法快0.1 s,但準確率、召回率、mAP分別比YOLOFN算法低13.9、12.0和16.3個百分點。YOLOFN算法在檢測速度損耗不大的基礎上識別精度遠高于輕量化模型。以上對比試驗充分證明了YOLOFN算法在檢測精度與檢測速度上具備優勢,說明所采用的優化方法科學、有效、針對性強。圖6為算法訓練200輪次的mAP評估結果。由圖6可知,YOLOFN訓練所得到的模型在訓練200輪次后檢測性能最優。

圖6 各算法mAP評估結果

在檢測時間和模型參數量方面,YOLOFN在模型參數量沒有明顯增加的前提下,檢測單張圖片的時間為0.6 s,并且檢測時間和模型參數量都遠遠優于YOLOv3、SSD、Faster R-CNN三種檢測算法,檢測精度遠遠優于深度可分離卷積網絡、Mobilenetv2和GhostNet三種輕量化網絡。綜上,YOLOFN能夠滿足農藥研制人員在實際試驗中對于實時性的需求和模型移植部署的需求。

分類來看,改進后模型對死蟲活蟲2個類別的檢測平均精度均值和改進前對比如表6所示。由表6可知,改進后模型對死蟲和活蟲的識別平均精度均值均較改進前有所提升,分別提升了1.5和2.2個百分點。以上對比試驗證明了本文算法改進在分別針對死蟲和活蟲2個類別上的有效性。

表6 死蟲活蟲檢測精度mAP對比

3.3.4 訓練損失函數分析

損失函數值在訓練過程中的變化能反應模型的訓練情況。一般來說,損失函數曲線收斂得越快、越小,證明模型訓練效果越好,當曲線平緩證明模型訓練完畢。圖7為改進前后模型訓練過程中總損失函數曲線對比。

由圖7可知,損失函數改進后比改進前下降得更快,數值波動更穩定,損失數值更小。改進前損失函數訓練到200輪時已不再下降并出現過擬合情況,改進后損失函數訓練到200輪的結果優于改進前損失函數,并且仍有下降趨勢,且150輪之前收斂速度遠快于改進前損失函數,證明了損失函數改進的有效性。

圖7 改進前后總損失變化曲線對比

3.3.5 實際檢測效果分析

為測試本文YOLOFN算法的實際應用效果,對本文構建的松材線蟲圖像測試集進行驗證測試。考慮到本試驗背景單一,干擾物體較少,且實際應用中希望得到的是所有蟲體的查全率,基于查全率和試驗對比效果考慮,試驗將置信度設置為0.25。對比改進前和改進后的實際檢測效果。

由圖8可知,原始算法對于重疊黏連的松材線蟲目標較易出現漏檢誤檢的情況,而且目標框回歸效果較差,容易出現同一只蟲體同時檢測為死活的情況。YOLOFN算法對重疊黏連的松材線蟲檢測更加準確,松材線蟲類別框回歸更加精準。

圖8 改進前后算法的部分圖片檢測效果對比

遍歷率、誤檢率的統計在農藥研發中具有實際意義。圖8g、8h中共33條線蟲,其中31條活蟲,2條死蟲。示例圖像中改進前后線蟲遍歷率、誤檢率統計如表7所示。

表7 改進前后算法松材線蟲遍歷率、誤檢率統計

注:圖8中圖片3的統計結果。

Note: Statistical results in picture 3 in Fig. 8.

由表7可知,YOLOFN算法在實際檢測中遍歷率比改進前提高了5.6個百分點,誤檢率(誤檢數/檢測到線蟲數)比改進前降低了16.3個百分點,預測框更加精準。充分表明了YOLOFN算法實際應用效果優于改進前算法。

綜上所述,YOLOFN算法的平均精度均值為82.3%,平均檢測單張圖片時間為0.6 s,實現了死蟲活蟲的實時檢測,可滿足實際應用需求。經過算法性能對比、損失函數對比、消融試驗和實際檢測效果4個方面的分析證明,本文提出的改進線蟲檢測算法在檢測精度、檢測速度、部署難易程度方面皆優于改進前算法和其他對比算法,更適合應用在線蟲實際檢測中。

4 結 論

本文從使用深度學習技術支持大規模新藥活性篩選測試階段的線蟲快速識別任務出發,以松材線蟲顯微圖像作為實驗對象,針對重疊黏連的松材線蟲蟲體圖像識別這一難題,首次提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別模型YOLOFN。

1)本文以自建松材線蟲顯微圖像數據集為研究對象,以YOLOv5s作為主要框架,利用圖像增強和遷移學習等訓練策略進行網絡模型訓練。在主干檢測網絡中引入CA坐標注意力機制,利用通道注意力內嵌位置信息,提高網絡對細長松材線蟲目標的特征提取能力。

2)本文同時結合EIoU和Focal loss改進模型的損失函數,并在原類別損失函數基礎上引入誤差調制因子,從而有效提高檢測回歸精度。YOLOFN的平均精度均值達到了82.3%,平均推理時間達0.6 s,較改進前基線模型提升了3.8個百分點,同時與YOLOv3、SSD、Faster-RCNN、YOLOv5s四種常用檢測模型以及輕量化主干深度可分離卷積、Mobilenetv2和GhostNet 3種網絡主干相比,在檢測精度和平均推理速度方面均具備優勢。

本文提出的YOLOFN模型用于線蟲顯微鏡鏡檢圖像蟲體檢測,算法可同時滿足檢測的準確性與實時性,幫助新型農藥研發人員高效準確地進行線蟲顯微圖像的識別工作,進而計算在不同條件處理下的線蟲死亡率,助力植物線蟲病的防治工作。下一步,為滿足端側快速實現線蟲計數以及死亡率測算,在進行線蟲種類圖像數據集擴充的基礎上,計劃在模型實現整體系統化部署方面展開研究,助力綠色殺線農藥的研制,促進植物作物線蟲病害防護產業發展。

[1] Zhao D, Zhao H, Zhao D, et al. Isolation and identification of bacteria from rhizosphere soil and their effect on plant growth promotion and root-knot nematode disease[J]. Biological control, 2018, 119: 12-19.

[2] Singh S, Singh B, Singh A P. Nematodes: A threat to sustainability of agriculture[J]. Procedia Environmental Sciences, 2015, 29: 215-216.

[3] 何龍喜,吉靜,邱秀文,等. 世界松材線蟲病發生概況及防治措施[J]. 林業科技開發,2014,28(3):8-13.

He Longxi, Ji Jing, Qiu Xiuwen, et al. Occurrence and control measures of pine wood nematode disease in the world[J]. Journal of Forestry Engineering, 2014, 28(3): 8-13. (in Chinese with English abstract)

[4] 方國飛,黃文江,牟曉偉,等. 松材線蟲病疫情精準監測實踐與展望[J]. 中國森林病蟲,2022,41(4):16-23.

Fang Guofei, Huang WenJiang, Mou Xiaowei, et al. Practice and prospect of precise monitoring of pine wilt disease[J]. Forest Pest and Disease, 2022, 41(4): 16-23. (in Chinese with English abstract)

[5] Fosu-Nyarko J, Jones M G K. Application of biotechnology for nematode control in crop plants[M]. Advances in Botanical Research. Academic Press, 2015, 73: 339-376.

[6] 朱云倩,黃維燕,謝偉龍,等. 松材線蟲病防治方法研究進展[J]. 河北林業科技,2021(2):44-48.

Zhu Yunqian, Huang Weiyan, Xie Weilong, et al. Research progresson control methods of pine wilt disease[J]. The Journal of Hebei Forestry Science and Technology, 2021(2): 44-48. (in Chinese with English abstract)

[7] 陳勇. 松材線蟲病藥劑防治實驗[J]. 安徽林業,2008(3):49.

Chen Yong. Pharmaceutical control of pine wood nematode disease[J]. Anhui Forestry, 2008(3): 49. (in Chinese with English abstract)

[8] 趙曉佳,袁裕超,孫玉鳳,等. 甲氨基阿維菌素苯甲酸鹽和抗生素混合藥劑對松材線蟲病的防治效果[J]. 華中農業大學學報(自然科學版),2022,41(3):146-156.

Zhao Xiaojia, Yuan Yuchao, Sun Yufeng, et al. Control effect of emamectin benzoate and antibiotic mixture on pine wilt disease[J]. Journal of Huazhong Agricultural University, 2022, 41(3): 146-156. (in Chinese with English abstract)

[9] 覃貴勇,許彥,劉露. 農藥聯用對松材線蟲的作用研究[J]. 農業災害研究,2018,8(6):1-3,56.

Tan Guiyong, Xu Yan, Liu Lu. Effects of different pesticide combinations on[J]. Journal of Agricultural Catastrophology, 2018, 8(6): 1-3,56. (in Chinese with English abstract)

[10] 李敏,葉建仁,陳鳳毛. 松材線蟲檢測技術研究進展[J]. 中國森林病蟲,2022,41(3):52-58.

Li Min, Ye Jianren, Chen Fengmao. A review of detection technology for pine wood nematode[J]. Forest Pest and Disease, 2022, 41(3): 52-58. (in Chinese with English abstract)

[11] Patrícioa D, Riederb R. Computer vision and artificial intelligence in precision agriculture for grain crops: A systematic review[J]. Computers and Electronics in Agriculture, 2018, 153: 69-81.

[12] 張建華,孔繁濤,李哲敏,等. 基于最優二叉樹支持向量機的蜜柚葉部病害識別[J]. 農業工程學報,2014,30(19):222-231.

Zhang Jianhua, Kong Fantao, Li Zhemin, et al. Recognition of honey pomelo leaf disease based on optimal binary tree support vector machine[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(19): 222-231. (in Chinese with English abstract)

[13] 孫豐剛,王云露,蘭鵬,等. 基于改進YOLOv5s和遷移學習的蘋果果實病害識別方法[J]. 農業工程學報,2022,38(11):171-179

Sun Fenggang, Wang Yunlu, Lan Peng, et al. Identification of apple fruit diseases using improved YOLOv5s and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(11): 171-179. (in Chinese with English abstract)

[14] 陸健強,林佳翰,黃仲強,等. 基于Mixup算法和卷積神經網絡的柑橘黃龍病果實識別研究[J]. 華南農業大學學報,2021,42(3):94-101.

Lu Jianqiang, Lin Jiahan, Huang Zhongqiang, et al. Identification of citrus fruit infected with Huanglongbing based on Mixup algorithm and convolutional neural network[J]. Journal of South China Agricultural University, 2021, 42(3): 94-101. (in Chinese with English abstract)

[15] 李浩,方偉泉,李浪浪,等. 基于深度學習的松材線蟲病害松木識別[J]. 林業工程學報,2021,6(6):142-147.

Li Hao, Fang Weiquan, Li Langlang, et al. Recognition of pine wood infected with pine nematode disease based on deep learning[J]. Journal of Forestry Engineering, 2021, 6(6): 142-147. (in Chinese with English abstract)

[16] 徐信羅,陶歡,李存軍,等. 基于Faster R-CNN的松材線蟲病受害木識別與定位[J]. 農業機械學報,2020,51(7):228-236.

Xu Xinluo, Tao Huan, Li Cunjun, et al. Detection and location of pine wilt disease induce dead pine trees based on Faster R-CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 228-236. (in Chinese with English abstract)

[17] 黃麗明,王懿祥,徐琪,等. 采用YOLO算法和無人機影像的松材線蟲病異常變色木識別[J]. 農業工程學報,2021,37(14):197-203.

Huang Liming, Wang Yixiang, Xu Qi, et al. Recognition of abnormally discolored trees caused by pine wilt disease using YOLO algorithm and UAV images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(14): 197-203. (in Chinese with English abstract)

[18] 萬樹青. 殺線蟲劑活性測定中線蟲死活鑒別的染色方法[J]. 植物保護,1993(3):37.

Wan Shuqing. Dyeing method for identification of dead and alive nematodes in the determination of nematicide activity[J]. Plant Protection, 1993(3): 37. (in Chinese with English abstract)

[19] 梁曉婷,龐琦,楊一,等. 基于YOLOv4模型剪枝的番茄缺陷在線檢測[J]. 農業工程學報,2022,38(6):283-292.

Liang Xiaoting, Pang Qi, Yang Yi, et al. Online detection of tomato defects based on YOLOv4 model pruning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(6): 283-292. (in Chinese with English abstract)

[20] 張兆國,張振東,李加念,等. 采用改進YoloV4模型檢測復雜環境下馬鈴薯[J]. 農業工程學報,2021,37(22):170-178.

Zhang Zhaoguo, Zhang Zhendong, Li Jianian, et al. Potato detection in complex environment based on improved YoloV4 model[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(22): 170-178. (in Chinese with English abstract)

[21] 郝建軍,邴振凱,楊淑華,等. 采用改進YOLOv3算法檢測青皮核桃[J]. 農業工程學報,2022,38(14):183-190.

Hao Jianjun, Bing Zhenkai, Yang Shuhua, et al. Detection of green walnut by improved YOLOv3[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(14): 183-190. (in Chinese with English abstract)

[22] 汪斌斌,楊貴軍,楊浩,等. 基于YOLO-X和遷移學習的無人機影像玉米雄穗檢測[J]. 農業工程學報,2022,38(15):53-62.

Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO-X and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(15): 53-62. (in Chinese with English abstract)

[23] 胡根生,吳繼甜,鮑文霞,等. 基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測[J]. 農業工程學報,2021,37(21):191-198.

Hu Gensheng, Wu Jitian, Bao Wenxia, et al. Detection ofincomplex background images using improved YOLOv5[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(21): 191-198. (in Chinese with English abstract)

[24] 尚鈺瑩,張倩如,宋懷波. 基于YOLOv5s的深度學習在自然場景蘋果花朵檢測中的應用[J]. 農業工程學報,2022,38(9):222-229.

Shang Yuying, Zhang Qianru, Song Huaibo. Application of deep learning using YOLOv5s to apple flower detection in natural scenes[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(9): 222-229. (in Chinese with English abstract)

[25] Lin T Y, Dollar P, Girshick R, et al. Feature pyramid networks for object detection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE Computer Society, 2017: 2117-2125.

[26] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE Computer Society, 2018: 8759-8768.

[27] Hou Q B, Zhou D Q, Feng J S. Coordinate attention for efficient mobile network design[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE Computer Society, 2021: 13713-13722.

[28] Zhang Y F, Ren W, Zhang Z, et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing, 2022, 506: 146-157.

[29] Xiong R, Yang Y, He D, et al. On layer normalization in the transformer architecture[C]. Proceedings of the 37th International Conference on Machine Learning. Vienna, AUSTRIA: JMLR. org, 2020: 10524-10533.

[30] Ruder S. An overview of gradient descent optimization algorithms[EB/OL]. 2016. arXiv preprint arXiv: 1609. 04747. https: //arxiv. org/abs/1609. 04747v2

Fast identification of nematode via coordinate attention mechanism and efficient bounding box regression loss

Lu Jianqiang1,2,3, Liang Xiao1, Yu Chaoran4, Lan Yubin1,2,3※, Qiu Hongbin1, Huang Jiewei1, Yin Zihao1, Chen Huijie1, Zheng Shengjie1

(1.,,510642,;2.,517000,; 3.(),,510642,;4.,,510640,)

Plant nematode disease is one of the major diseases to threaten agricultural safety in China. The green, high-efficiency, and low-toxic nematicide pesticides can be one of the better means to control plant nematode disease, further to prevent the large-scale spread of nematode disease. However, the manual visual inspection cannot fully meet the large-scale screening and test of the nematicidal pesticide activity, such as time-consuming, low accuracy, and heavy workload. Particularly, it is very necessary to accurately and rapidly count the number of nematodes in the solution, and then to identify the dead and living insects. In this study, a fast identification was proposed for the nematodes using a coordinate attention mechanism and efficient bounding box regression loss YOLOFN (YOLO for nematodes).Firstly, the sawdust samples of tree trunks with the pine wood nematode were collected in the epidemic area of pine wood nematode disease. The solution slides of pine wood nematode were prepared with the different concentrations, after the pine wood nematode was separated in the laboratory. Secondly, the optical microscope and single lens reflex camera were used to collect the pine wood nematode images. The offline data enhancement was combined with the mosaic online data enhancement to expand the training samples of pine wood nematode images, according to the similar characteristics of pine wood nematode images. Thirdly, the feature extraction module of the coordinate attention mechanism was embedded in the backbone network, according to the theoretical framework of YOLOv5s target detection. The position information of the nematode feature map was then integrated into the channel attention, As such, this improvement enabled the model to focus on the target category and target location at the same time. Finally, a tradeoff was made on the overlapping ratio of the nematode target, the center point distance of the nematode target, the width and height of the prediction frame in the nematode target, as well as the proportion of positive and negative samples of the nematode target. The Efficient Intersection over Union (EIoU) and Focal loss functions was utilized to optimize the localization and classification loss function. There was a minimum difference between the width and height of the real frame and the predicted frame. The weight of the easily distinguishable samples was dynamically reduced to quickly focus the beneficial training samples. The analytical ability and regression accuracy of the model were improved to overlap the nematode targets.The experimental results showed that the performance indicators of YOLOFN were improved by 0.2, 4.4, and 3.8 percentage points, in terms of accuracy, recall, and mean Average Precision (mAP). The mAP of the improved model increased by 1.1, 31.7, and 15.1 percentage points, respectively, compared with the classical detection YOLOv3, SSD, and Faster R-CNN3. There was no difference in the inference time, where the mAP was higher than 11.0, 16.3, and 15.0 percentage points, respectively, compared with the lightweight backbone depth-separable convolution-YOLOv5, Mobilenetv2-YOLOv5, GhostNet-YOLOv5. Therefore, the YOLOFN model can be expected to quickly, accurately and efficiently realize the nematode microscopic examination and statistics, fully meeting the actual needs of research and development of plant nematode pesticides. The finding can provide strong technical support to accelerate the development of new drugs for plant nematode disease control. In the future research, the systematic deployment of the model can greatly contribute to the development of green nematicide, and the protection of plant nematode diseases. The high requirements of rapid end-to-side nematode counting and mortality measurement can be fully met using the expansion of the nematode species image data set.

models; deep learning; plant nematodes disease; nematode pesticide; object detection; attention mechanism; loss function

10.11975/j.issn.1002-6819.2022.22.013

S48;S435

A

1002-6819(2022)-22-0123-10

陸健強,梁效,余超然,等. 基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別 [J]. 農業工程學報,2022,38(22):123-132.doi:10.11975/j.issn.1002-6819.2022.22.013 http://www.tcsae.org

Lu Jianqiang, Liang Xiao, Yu Chaoran, et al. Fast identification of nematode via coordinate attention mechanism and efficient bounding box regression loss[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(22): 123-132. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.22.013 http://www.tcsae.org

2022-09-28

2022-11-07

嶺南現代農業科學與技術廣東省實驗室河源分中心自主科研項目(DT20220010);嶺南現代農業實驗室科研項目(NT2021009);廣州市基礎與應用基礎研究項目(202201010077);高等學校學科創新引智計劃資助(D18019);廣東省企業科技特派員項目(GDKTP2020070200)

陸健強,博士,高級實驗師,研究方向為農業物聯網與無人機遙感圖像技術。Email:ljq@scau.edu.cn

蘭玉彬,國家重點人才工程特聘專家,教授,博士生導師,研究方向為精準農業航空方向研究。Email:ylan@scau.edu.cn

中國農業工程學會高級會員:陸健強(B041905910S),蘭玉彬(E041200725S)

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 一本久道久久综合多人| 亚洲精品无码久久毛片波多野吉| lhav亚洲精品| 91精品视频在线播放| 欧美一级在线| 亚洲av综合网| 丰满少妇αⅴ无码区| 国产国产人免费视频成18| 日韩精品一区二区三区大桥未久| 亚洲综合久久成人AV| 免费无码AV片在线观看中文| 2022国产无码在线| 久久国产亚洲欧美日韩精品| 国产成人亚洲欧美激情| 成人中文字幕在线| 国产h视频免费观看| 超碰91免费人妻| 国产免费一级精品视频| 日韩精品无码免费一区二区三区 | 农村乱人伦一区二区| 最新国产网站| 三上悠亚一区二区| 国产在线专区| 亚洲AV无码一区二区三区牲色| 在线观看视频一区二区| 91久久偷偷做嫩草影院| av色爱 天堂网| 久久精品亚洲专区| 美女无遮挡免费视频网站| 亚洲第一视频免费在线| 免费人成黄页在线观看国产| 日本在线国产| 91九色国产在线| 欧美精品不卡| 国产va视频| 伊在人亞洲香蕉精品區| 被公侵犯人妻少妇一区二区三区| 亚洲国产成人在线| 久久大香伊蕉在人线观看热2| 三级视频中文字幕| 久久女人网| 亚洲国产天堂久久综合| 99视频国产精品| 91在线精品麻豆欧美在线| 无码精油按摩潮喷在线播放| 精品少妇三级亚洲| 中文字幕在线看| 国产精品亚欧美一区二区| 婷婷亚洲视频| 久久精品亚洲热综合一区二区| 人妻无码中文字幕第一区| av免费在线观看美女叉开腿| 亚洲第一成人在线| 亚洲国产91人成在线| 国产网站黄| 亚洲国产亚洲综合在线尤物| 国产成人亚洲综合a∨婷婷| 国产成人无码Av在线播放无广告| 免费人成黄页在线观看国产| 69av在线| 亚洲中文字幕久久无码精品A| 91九色国产在线| 91最新精品视频发布页| 91视频青青草| 色九九视频| 午夜久久影院| 国产福利小视频在线播放观看| 国产精品视频第一专区| 香蕉国产精品视频| 亚洲国产精品久久久久秋霞影院| 欧美激情福利| 亚洲国模精品一区| 最新亚洲人成无码网站欣赏网 | 六月婷婷激情综合| 4虎影视国产在线观看精品| 国产成人AV综合久久| 欧美国产日韩另类| 日本国产在线| 国产毛片片精品天天看视频| 亚洲性色永久网址| 国产在线精彩视频论坛| 丁香婷婷激情综合激情|