999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測

2022-01-27 02:38:12胡根生吳繼甜鮑文霞曾偉輝
農業工程學報 2021年21期
關鍵詞:背景檢測方法

胡根生,吳繼甜,鮑文霞,曾偉輝

基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測

胡根生,吳繼甜,鮑文霞※,曾偉輝

(安徽大學農業生態大數據分析與應用技術國家地方聯合工程研究中心,合肥 230601)

茶葉的產量和品質深受病蟲害的影響。茶尺蠖是一種常見的茶葉害蟲,精確檢測茶尺蠖對茶葉病蟲害防治有重要意義。由于茶尺蠖和茶樹枝、枯死茶葉的顏色、紋理相近,茶尺蠖的體積小、形態多變、被遮擋等問題,現有方法檢測茶尺蠖的精度不高。該研究提出一種基于深度學習的復雜背景圖像中茶尺蠖檢測方法,該方法使用YOLOv5為基線網絡,利用卷積核組增強對茶尺蠖的特征提取,在不增加計算量的條件下減少復雜背景對茶尺蠖檢測結果的干擾;使用注意力模塊關注茶尺蠖整體,根據茶尺蠖的大小和形狀自適應調節感受野,降低因目標大小形狀不一導致的漏檢;使用Focal loss損失函數減少前景和背景的類不平衡對檢測結果的影響。試驗結果表明,所提方法用于復雜背景圖像中茶尺蠖的檢測,可以達到0.94的召回率,0.96的精確度和92.89%的平均精度均值。與基線網絡相比,該方法的平均精度均值提高了6.44個百分點。使用相同的數據集和預處理的對比分析表明,該方法優于SSD、Faster RCNN和YOLOv4等其他經典深度學習方法,平均精度均值比SSD、Faster RCNN、YOLOv4分別高17.18個百分點、6.52個百分點和4.78個百分點。該方法可實現對茶尺蠖的智能檢測,減少人力成本,有助于實現精準施藥,提高茶葉的產量和品質。

農業;算法;目標檢測;深度學習;卷積核組;注意力模塊;茶尺蠖

0 引 言

中國是茶葉生產和消費大國。近年來中國茶葉生產快速發展,茶葉種植面積擴大,茶葉產量不斷增長,在國民經濟中占有相當大的比重[1]。茶葉生長易受病蟲害影響,導致產量和質量大幅度下降,給茶農造成較大損失[2]。盡早發現病蟲害并采取相應的防治措施,對減少茶葉產量損失、提高茶葉品質、減少農藥使用和防止環境污染等有著重要意義。

傳統上對于茶尺蠖的檢測,主要是請植保專家到茶園進行目視判斷。由于大部分茶園地處偏僻,地勢陡峭,人工檢測會耗費大量的物力和財力[3-4]。隨著數碼相機和互聯網的普及,使得研究者開發出自然場景圖像中茶尺蠖蟲害的高精確度的自動診斷技術,方便茶農快捷地診斷茶尺蠖蟲害成為可能。隨著計算機和人工智能技術的快速發展,機器學習已被廣泛應用于植物圖像中的病蟲害檢測。在機器學習方法中,害蟲檢測技術大多基于形狀、顏色和紋理等特征,通過K最近鄰(K-Nearest Neighbor,KNN)[5]、支持向量機(Support Vector Machine, SVM)[6-8]和Adaboost等[9]對害蟲進行檢測,具有計算簡單、參數量少、抗噪性能好等優點。上述傳統機器學習方法需要手工抽取圖像中病蟲害的特征,具有主觀性,易受背景信息影響。野外拍攝的茶尺蠖圖像背景復雜,圖像中的茶樹枝、枯葉等背景目標與茶尺蠖的形狀顏色相近,手工方法難以抽取茶尺蠖的本質特征,因而利用傳統機器學習方法檢測復雜背景圖像中的茶尺蠖目標難以獲得好的檢測結果。

深度學習方法能夠自動地從訓練數據集中提取目標的特征。在深度學習方法中,由于卷積神經網絡含有多個隱含層,能夠學習到更加高級的數據特征表示,無需手動設計特征,在解決目標檢測等問題上有很大的優 勢[10]。常用的目標檢測網絡有SSD(Single Shot multiBox Detector)[11]、RetinaNet[12]、Faster RCNN(Faster Region with CNN)系列[13-15]和YOLO(You Only Look Once) 系列[16-19]等。研究者使用卷積神經網絡對害蟲進行檢 測[20-24],以Fast RCNN和SSD在害蟲檢測技術中的應用為例[25-26],根據卷積層提取到的特征向量,分別通過窗口分類和窗口回歸,得到每個候選區域中害蟲的類別以及原始坐標。此類方法有效地提升了害蟲檢測的準確率,能夠對害蟲目標進行定位。由于野外拍攝的茶尺蠖圖像的前景與背景及其相似,前景茶尺蠖的形態、尺度多變,直接使用上述網絡檢測復雜圖像中的茶尺蠖的準確率有待進一步提高。

YOLO系列目標檢測網絡是目標檢測網絡的一個重要分支,其在農業目標檢測中的應用也越來越廣泛[27-32]。例如張博等[27]將空間金字塔池化與改進的YOLOv3深度卷積神經網絡相結合,提出了一種基于空間金字塔池化的深度卷積神經網絡農作物害蟲種類識別算法,首先對測試圖像上的害蟲進行檢測定位,然后對檢測定位出的害蟲進行種類識別。Wu等[30]開發了一種基于通道修剪的YOLO v4算法用于自然環境下的蘋果花檢測。結果表明,該算法對變化的果樹品種和光照方向具有較好的魯棒性。Suo等[31]使用YOLOv3和YOLOv4對多類獼猴桃檢測,可以避免被樹枝或線遮擋的果實作為可采摘目標。YOLOv5不僅擁有比YOLOv3和YOLOv4更快的檢測速度,并且能夠有效檢測被遮擋的目標,通過調節網絡感受野大小和增強網絡特征提取能力,可以更準確的檢測到復雜背景中和被遮擋的目標。

由于野外自然場景中拍攝的茶尺蠖圖像背景復雜,茶尺蠖的顏色、紋理與茶樹桿和枯死茶葉相近,茶尺蠖的體積小、形態多變、被遮擋,因而準確檢測復雜背景圖像中的茶尺蠖是一大難題。為提高茶尺蠖檢測的準確率,本研究提出一種基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測方法。

1 材料與方法

1.1 圖像獲取和預處理

本研究所用的圖像采集于天井山茶園。該茶園位于安徽省省會合肥市的南部,巢湖之濱。其地理坐標為北緯31°14′37″,東經117°36′16″,海拔40 m,采集時間分別為2019年10月和2020年10月,天氣晴朗。圖像采集設備為佳能EOS 80D手持數碼單反相機,拍攝時相機距離茶樹冠層約0.4 m,圖像大小為6 000×4 000像素,共拍攝了自然場景中茶尺蠖的原始圖像109張。從原始圖像上裁剪出112張大小不一的茶尺蠖圖像,按照6:1:3的比例構造訓練集、驗證集和測試集,其中訓練集有67張圖像,驗證集有11張圖像,測試集有34張圖像。

為了提高小樣本條件下網絡的泛化性能,防止訓練圖像數量不足導致網絡過擬合,本研究對訓練圖像和驗證圖像進行增廣。增廣方式包括:翻轉、改變對比度和加入高斯噪聲。經過增廣后,訓練集共有268張圖像,驗證集共有44張圖像,表1給出了增廣前后訓練集和測試集的圖像數以及圖像中的茶尺蠖數量。圖1給出了增廣后的茶尺蠖圖像示例。使用Labelimg工具對圖像進行標注,生成xml文件,文件中包含了圖像名稱、大小和茶尺蠖在圖像中的位置信息。

表1 增廣前后的數據集

圖1 茶尺蠖圖像增廣結果

由于自然場景圖像中的茶尺蠖呈現灰褐色,茶桿顏色為深褐色。為減小茶桿等復雜背景對茶尺蠖檢測的影響,本研究對測試圖像的對比度進行調節,將圖像的R、G和B三通道的強度值[0.3,1]映射到新圖像的[0,1]中。經過對比度增強處理后,圖像中的茶桿、茶葉縫隙等背景的顏色變為黑色,茶尺蠖的顏色和紋理特征與茶桿等背景的區別更大。

1.2 茶尺蠖檢測網絡

1.2.1YOLOv5網絡

YOLOv5的網絡結構可分為三部分:骨干網絡、頸網絡和預測網絡。在骨干網絡中,Focus模塊對輸入圖像進行切片操作,切片后的特征圖通道數擴充了4倍,特征圖經過卷積操作得到二倍下采樣特征圖。卷積單元包括二維卷積、批標準化和SiLu(激活函數)。C3模塊實現從特征圖上提取特征,通過調整C3模塊的寬度和深度,可以獲得參數量不同的4個網絡,分別為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,對應參數量分別為7.30×106、2.14×107、4.71×107、8.78×107。由于參數量越少,實時性越好,考慮到農業應用的時效性,本研究使用參數量最少速度最快的YOLOv5s,圖2給出YOLOv5s的網絡結構示意圖。SPP模塊通過不同核大小的池化抽取不同尺度特征,再進行疊加進行特征融合。

YOLOv5在頸網絡中使用FPN(Feature Pyramid Networks)結構,將頂層特征和底層特征融合,以提高網絡檢測不同尺度目標的能力。在預測網絡輸出分類結果和目標的坐標。

注:Focus為切片操作;C3為YOLOv5網絡中的瓶頸層,其后數字為C3的個數;SPP為空間金字塔池化結構;20×20×255、40×40×255和80×80×255為預測網絡輸出特征圖的長、寬和維度。

1.2.2卷積核組

由于茶尺蠖圖像是在野外自然場景中拍攝,圖像中背景復雜,茶尺蠖和枯死茶葉、茶桿的顏色紋理相近,存在部分茶尺蠖被背景遮擋,YOLOv5骨干網絡不能提取清晰的特征。為了減少復雜背景的影響,本研究通過增廣訓練樣本來提高網絡的泛化性,同時將骨干網絡中所有的3×3卷積核替換成卷積核組,以增強網絡對茶尺蠖的特征提取能力。

卷積核組(convolution kernel group)由3個并行的3×3、1×3和3×1的卷積核組成,這3個并行的卷積核對輸入圖像以相同的步長進行卷積,分別產生大小和通道數相同的特征圖,對應的特征圖求和后獲得輸出特征圖。3個并行的卷積核增強了網絡對茶尺蠖特征的提取能力。設是輸入圖像,(1),(2)和(3)分別是3×3,1×3和3×1的卷積核,則

*(1)+*(2)+*(3)=*((1)+(2)+(3))=*(1)

式中為等效的卷積核;*為卷積運算。

因而3個并行的卷積核等效于一個新的權重不同的3×3的卷積核,如圖3所示。測試時使用訓練好的等效卷積核,對比替換前的3×3卷積核,在不增加額外計算量的條件下增強了網絡對茶尺蠖特征的提取能力。

注BN為批標準化;SiLU為激活函數;Bottleneck為一個1×1的卷積后接一個3×3的卷積,其中1×1的卷積將通道數減半,3×3的卷積將通道數加倍;N為C3的個數。

1.2.3 注意力模塊

由于茶尺蠖的體積小且形態多變等問題對YOLOv5檢測算法產生干擾,本研究在YOLOv5s網絡中添加注意力模塊(attention block)[33],通過對輸入特征進行加權,強化茶尺蠖目標信息,弱化背景信息,以達到對茶尺蠖的關注,減少茶尺蠖體積小和形態多變的影響。注意力模塊還使用不同大小的卷積核,自適應調節感受野大小,以適應大小、形狀不同的茶尺蠖圖像,有效提取茶尺蠖的全局信息。

1.2.4 Focal loss損失函數

由于野外拍攝的茶尺蠖圖像的背景復雜,背景目標的類別多,為了減小前景和背景的類不平衡對檢測結果的影響,本研究將交叉熵損失函數替換為Focal loss損失函數[12]。

Focal loss損失函數是在交叉熵損失函數基礎上進行改進的,交叉熵損失函數為

式中為樣本類別的真值;′是經過激活函數得到的輸出,在0~1之間,表示預測前景目標的概率。因此對前景目標而言,預測概率越小,損失值越大。而對于背景目標而言,預測概率越小,損失值越小。如果存在大量的背景目標,則損失函數迭代緩慢且可能無法優化至最優。Focal loss損失函數(fl)在交叉熵損失函數的基礎上加了因子>0,降低易分類目標的損失,使得網絡更關注于困難的、錯分的目標,減小前景和背景的類不平衡對檢測結果的影響。

1.2.5 茶尺蠖檢測網絡

本研究所用的茶尺蠖檢測網絡以圖2中YOLOv5s作為基線網絡,使用卷積核組替換掉骨干網絡中所有的3×3卷積核,以增強網絡對茶尺蠖的特征提取能力,降低復雜背景的干擾。在C3模塊中添加可以自適應調節感受野大小的注意力模塊,以關注不同尺度的茶尺蠖,提取茶尺蠖完整的信息,減少茶尺蠖大小和形狀不一對檢測結果的影響。使用Focal loss作為損失函數,以此減少前景和背景類別不平衡帶來的影響。改進的卷積模塊、C3模塊結構如圖3所示。

1.2.6 參數設置與精度評價

茶尺蠖檢測網絡用pytorch框架搭建,在NVIDIA Tesla V100服務器上進行訓練和測試。圖像大小調整為640×640像素,批量大小(batch size)設置為16,學習率(learning rate)為0.01,訓練步數為1 000。采用Adam優化,動量(momentum)設為 0.9,權重衰減(weight decay)為0.000 5。

本研究使用精度(Precision)、召回率(Recall)、平均精度均值(mean Average Precision,mAP)和檢測速度作為茶尺蠖檢測結果的定量評價指標。設置檢測正確的標準為交并比(Intersection-over-Union,IoU)≥0.5,其中IoU是預測邊界框和真實邊界框之間的重疊率。

2 結果與分析

2.1 與傳統機器學習方法對比

將所提方法與SVM、BP神經網絡、AdaBoost等經典機器學習方法進行對比,試驗過程設置如下:增廣后的訓練集和驗證集圖像被調整成1 000×1 000大小,每張圖像按照長寬10等分分成100×100大小的100張圖像.。為了保證背景圖像和害蟲圖像數量的均衡,從10等分后的圖像中挑選出合適的背景圖像2 000張,害蟲圖像2 000張,共4 000張圖像進行訓練,利用訓練好的模型對3 400張(即34張測試集圖像按照長寬10等分)測試圖像進行測試。SVM模型的核函數選擇核(SVM模型中的參數),懲罰系數設置為200;BP算法的學習率為0.01,批量大小為16,權重衰減為0.000 5,動量為0.9,迭代次數為1 000次;AdaBoost算法的弱分類器數量設置為20。不同方法的檢測結果如表2所示。圖4顯示了不同方法的一些檢測結果示例,圖中的小框為模型檢測出的目標,大框為根據檢測結果手動標注正確檢測出的完整茶尺蠖目標。從表2和圖4可以看出,由于樣本中存在茶尺蠖被遮擋、大小形狀不一和復雜背景等問題,所以利用人工提取特征的SVM、BP和Adaboost檢測方法難以精確檢測出茶尺蠖。3種方法的漏檢測數分別為63、49和40,并且有較多的誤檢測。而本文所提方法僅有9個漏檢測,檢測效果優于SVM、BP和Adaboost傳統檢測方法。

表2 本文方法與經典機器學習方法的檢測結果比較

注:TP、FP和FN分別表示茶尺蠖被正確檢測、背景目標被錯誤地檢測為茶尺蠖和茶尺蠖被誤檢測為背景目標的數量。SVM為支持向量機;BP代表反向傳播方法。

Note: TP, FP and FN represented the number ofwere correctly detected, background targets incorrectly detected as, and the number ofincorrectly detected as background targets, respectively. SVM is Support Vector Machine; BP is Back Propagation method.

圖4 本文方法和經典機器學習方法的檢測結果示例

2.2 與常用目標檢測網絡的對比

將所提方法與SSD、Faster-RCNN、RetinaNet、YOLO系列等常用目標檢測網絡方法進行對比。不同的目標檢測網絡都使用預訓練模型進行訓練,網絡的參數設置如表3所示。不同網絡方法的檢測結果如表4所示。從表4可以看出,在不使用數據增廣和對比度預處理的條件下,Faster-RCNN方法的漏檢測數為15,而誤檢測數達86,這是由于數據集的背景復雜,Faster-RCNN作為二階段目標檢測網絡,會產生大量的誤檢測,導致檢測精度不高。由于數據集中茶尺蠖形態多樣、被遮擋,SSD和RetinaNet方法的漏檢測數為39和21,可以看出SSD和RetinaNet方法的檢測精度不高。YOLO系列方法也存在漏檢測和誤檢測多的問題。所提方法有較少的漏檢測和誤檢測數,、、mAP指標值高于上述常用目標檢測網絡方法,其中mAP比SSD、Faster RCNN、YOLOv4分別高17.18個百分點、6.52個百分點和4.78個百分點。如圖5所示為不同檢測網絡的檢測結果,各網絡的茶尺蠖檢測框和真實框比較,當交并比IoU≥0.5,則認定模型檢測正確,反正則認定模型檢測錯誤。與表4和圖5可以看出,在使用數據增廣和對比度預處理的條件下,不同網絡方法的檢測精度都有所提高,但本文方法仍優于上述常用目標檢測網絡方法。

表3 訓練不同檢測網絡的參數設置

圖5 本文方法和常用目標檢測網絡方法的檢測結果示例

2.3 消融試驗

消融試驗結果如表5所示。從表5可以看出,對數據進行增廣和預處理,利用卷積核組增強對茶尺蠖的特征提取,通用注意力模塊關注茶尺蠖整體,并使用Focal loss損失函數減少前景和背景的類不平衡,提升了模型的檢測精度、召回率和mAP。

由2.3節和表5可知,對數據進行增廣和預處理,可提高網絡泛化性,小幅度提升網絡檢測效果。上述條件下,在YOLOv5s網絡中分別加入卷積核組和注意力模塊,可以看出,都對召回率提升明顯,這是因為數據集背景復雜和茶尺蠖形態變化大,卷積核組和注意力模塊有效抑制它們的影響。最后通過替換交叉熵損失函數為Focal loss時,降低了因前景和背景類別不平衡導致的誤檢測,因而所提方法具有較少的誤檢測和漏檢測,獲得了好的檢測結果。與基線網絡相比,該方法的平均精度均值提高了6.44個百分點。

表5 消融試驗結果

圖6給出了數據增廣前后本文所用模型的訓練和驗證損失曲線。由圖6a可知,當數據無增廣時,訓練損失和驗證損失存在較大差異,且驗證損失波動較大,說明模型在訓練集上表現較好,但在驗證集上表現較差,模型訓練出現過擬合;由圖6b可知,當數據增廣后,訓練損失和測試損失差異極小,且驗證損失波動較小,說明模型在訓練集和驗證集上表現都較好。

圖6 訓練和驗證損失曲線

2.4 特征可視化

當圖像輸入網絡提取特征時,特征提取網絡越深,得到的特征圖越抽象。為了直觀展現卷積核組的效果,本研究對骨干中第一個C3×9模塊最后一層的特征圖進行可視化,如圖7所示,從圖中可以看出,基線網絡使用卷積核組后獲取的特征圖中茶尺蠖目標變得更加明顯,說明了卷積核組增強了網絡對茶尺蠖目標的特征提取能力。

2.5 數據量可靠性分析

雖然增廣后的數據集數量依然不是很多,但有研究者也使用較少的數據集進行試驗,如Cheng等[21]對10類害蟲進行識別,每類害蟲55張圖像,共550張圖像,其中每類中40張圖像用于訓練,分類準確率達到98.67%;Chen等[34]使用382張圖像作為訓練集,55張圖像作為測試集對麥田螨蟲進行識別,可達到96.4%的準確率;Hu等[35]使用398張茶葉枯萎病進行輕度和重度嚴重度估計,并將訓練集增廣到700張,Faster RCNN用于檢測病葉,VGG16用于嚴重程度分析,取得了較好的效果。

為了驗證本研究小樣本數據量的可靠性,又裁剪153張茶尺蠖圖像,按照6:1:3分成訓練集、驗證集和測試集,將訓練集和測試集增廣后加入本研究的數據集,獲得636張訓練圖像、104張驗證圖像和80張測試圖像,其中測試圖像中有336個茶尺蠖樣本,使用本文方法對兩種數據集進行試驗,試驗結果如表6所示,從表6可以看出,當數據量增長1.36倍時,檢測結果的mAP僅增長0.09個百分點,說明本文小樣本數據量滿足本文方法要求。

表6 不同增廣數據集試驗結果

3 結 論

由于自然場景中獲取的茶尺蠖圖像的背景復雜、茶尺蠖大小形狀不一且存在部分遮擋等問題,現有方法很難獲得較高的檢測精度,本研究提出了一種以YOLOv5s為基線網絡的茶尺蠖檢測方法。

1)為了減少復雜背景的影響,本研究將骨干網絡中的3×3卷積核替換為卷積核組,通過特征可視化分析可知,卷積核組增強網絡的特征提取能力;為了減少茶尺蠖體積小和形態多變的影響,本研究引入注意力模塊,通過試驗結果分析可知,注意力可以有效提取茶尺蠖的全局信息;為了減小前景和背景類不平衡對檢測結果的影響,本研究將交叉熵損失函數替換為Focal loss函數,試驗結果表明,Focal loss損失函數更進一步減少背景的影響。

2)改進的YOLOv5s模型對茶尺蠖的檢測可以達到92.89%的平均精度均值(mean Average Precision,mAP),高于經典的機器學習方法和常用的深度學習方法。

[1] Li L, Li T, Jiang Y, et al. Alteration of local and systemic amino acids metabolism for the inducible defense in tea plant () in response to leaf herbivory by[J]. Archives of Biochemistry and Biophysics, 2020, 683: 108301.

[2] Wang Y N, Tang L, Hou Y, et al. Differential transcriptome analysis of leaves of tea plant () provides comprehensive insights into the defense responses toattack using RNA-Seq[J]. Functional & Integrative Genomics, 2016, 16(4): 383-398.

[3] Hu G, Wu H, Zhang Y, et al. A low shot learning method for tea leaf’s disease identification[J]. Computers and Electronics in Agriculture, 2019, 163: 104852.

[4] Hu G, Yang X, Zhang Y, et al. Identification of tea leaf diseases by using an improved deep convolutional neural network[J]. Sustainable Computing: Informatics and Systems, 2019, 24: 100353.

[5] Kasinathan T, Singaraju D, Uyyala S R. Insect classification and detection in field crops using modern machine learning techniques[J]. Information Processing in Agriculture, 2021, 8(3): 446-457.

[6] Ebrahimi M A, Khoshtaghaza M H, Minaei S, et al. Vision-based pest detection based on SVM classification method[J]. Computers and Electronics in Agriculture, 2017, 137: 52-58.

[7] Qing Y A, Xian D, Liu Q, et al. Automated counting of rice planthoppers in paddy fields based on image processing[J]. Journal of Integrative Agriculture, 2014, 13(8): 1736-1745.

[8] 潘春華,肖德琴,林探宇,等.基于 SVM 和區域生長結合算法的南方主要蔬菜害蟲分類識別[J]. 農業工程學報,2018,34(8):192-199.

Pan Chunhua, Xiao Deqin, Lin Tanyu, et al. Classification and recognition for major vegetable pests in Southern China using SVM and region growing algorithm[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(8): 192-199. (in Chinese with English abstract)

[9] Long D, Yan H, Hu H, et al. Research on Image Location Technology of Crop Diseases and Pests Based on Haar-Adaboost[C]//2019 International Conference on Virtual Reality and Intelligent Systems (ICVRIS). Hunan: IEEE, 2019: 163-165.

[10] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.

[11] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//European Conference on Computer Vision. Cham: Springer, 2016: 21-37.

[12] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision. Hawaii: IEEE, 2017: 2980-2988.

[13]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 580-587.

[14] Girshick R. Fast r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision. Santiago: IEEE, 2015: 1440-1448.

[15] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[J]. Advances in Neural Information Processing Systems, 2015, 28: 91-99.

[16] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Honolulu: IEEE, 2017: 7263-7271.

[17] Redmon J, Farhadi A. YOLOv3: An incremental improvement[Z]. [2021-05-21] , https://arxiv.org/abs/ 1804.02767.

[18] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection[Z]. https://arxiv.org/abs/2004.10934.

[19] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE, 2016: 779-788.

[20] Wang Q J, Zhang S Y, Dong S F, et al. Pest24: A large-scale very small object data set of agricultural pests for multi-target detection[J]. Computers and Electronics in Agriculture, 2020, 175: 105585.

[21] Cheng X, Zhang Y, Chen Y, et al. Pest identification via deep residual learning in complex background[J]. Computers and Electronics in Agriculture, 2017, 141: 351-356.

[22] Yue Y, Cheng X, Zhang D, et al. Deep recursive super resolution network with Laplacian Pyramid for better agricultural pest surveillance and detection[J]. Computers and Electronics in Agriculture, 2018, 150: 26-32.

[23] Muppala C, Guruviah V. Detection of leaf folder and yellow stemborer moths in the paddy field using deep neural network with search and rescue optimization[J]. Information Processing in Agriculture, 2021, 8(2): 350-358.

[24] Wang F, Wang R, Xie C, et al. Fusing multi-scale context-aware information representation for automatic in-field pest detection and recognition[J]. Computers and Electronics in Agriculture, 2020, 169: 105222.

[25] Lyu Z, Jin H, Zhen T, et al. Small object recognition algorithm of grain pests based on SSD feature fusion[J]. IEEE Access, 2021, 9: 43202-43213.

[26] 王林惠,蘭玉彬,劉志壯,等. 便攜式柑橘蟲害實時檢測系統的研制與試驗[J]. 農業工程學報,2021,37(9):282-288.

Wang Linhui, Lan Yubin, Liu Zhizhuang, et al.Development and experiment of the portable real-time detection system for citrus pests[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2007, 23(6): 175-180. (in Chinese with English abstract)

[27] 張博,張苗輝,陳運忠. 基于空間金字塔池化和深度卷積神經網絡的作物害蟲識別[J]. 農業工程學報,2019,35(19):209-215.

Zhang Bo, Zhang Miaohui, Chen Yunzhong, et al. Crop pest identification based on spatial pyramid pooling and deep convolution neural network[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35 (19): 209-215. (in Chinese with English abstract)

[28] Tian Y, Yang G, Wang Z, et al. Apple detection during different growth stages in orchards using the improved YOLO-V3 model[J]. Computers and Electronics in Agriculture, 2019, 157: 417-426.

[29] Shi R, Li T, Yamaguchi Y. An attribution-based pruning method for real-time mango detection with YOLO network[J]. Computers and Electronics in Agriculture, 2020, 169: 105214.

[30] Wu D, Lv S, Jiang M, et al. Using channel pruning-based YOLO v4 deep learning algorithm for the real-time and accurate detection of apple flowers in natural environments[J]. Computers and Electronics in Agriculture, 2020, 178: 105742.

[31] Suo R, Gao F, Zhou Z, et al. Improved multi-classes kiwifruit detection in orchard to avoid collisions during robotic picking[J]. Computers and Electronics in Agriculture, 2021, 182: 106052.

[32] 王金鵬,高凱,姜洪喆,等. 基于改進的輕量化卷積神經網絡火龍果檢測方法[J]. 農業工程學報,2020,36(20):218-225.

Wang Jinpeng, Gao Kai, Jiang Hongzhe, et al. Method for detecting dragon fruit based on improved lightweight convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(20): 218-225. (in Chinese with English abstract)

[33] Li X, Wang W, Hu X, et al. Selective kernel networks[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 510-519.

[34] Chen P, Li W L, Yao S J, et al. Recognition and counting of wheat mites in wheat fields by a three-step deep learning method[J]. Neurocomputing, 2021, 437: 21-30.

[35] Hu G, Wang H, Zhang Y, et al. Detection and severity analysis of tea leaf blight based on deep learning[J]. Computers & Electrical Engineering, 2021, 90: 107023.

Detection ofin complex background images using improved YOLOv5

Hu Gensheng, Wu Jitian, Bao Wenxia※, Zeng Weihui

(230601)

Diseases and pests have posed a great threat to the yield and quality of tea in recent years. Among them, theis one of the most common pests in tea growth. A traditional detection has normally used the appearance of the pests, such as the color, morphology, and texture. But, these are more sensitive to the environments, particularly to the complex background, where the pests appear. A rapid and accurate detection cannot be realized, because: 1) The training samples are taken in different scales, while the pest is normally small in size; 2) The pest with the changeable shape and color may be shielded to obscure during imaging; 3) The color and texture of the pest can be similar to the tree branches and dead leaves of tea. Therefore, it is very necessary to identify and recognize the pest in a complex background in tea production. In this study, a rapid and accurate detection was proposed for thein complex background images using the improved YOLOv5 deep learning. Definitely, the YOLOv5 was taken as the baseline network. A labeling operation was first used to manually label the pest samples in the training and validation images. The data was then enhanced using the flipping, and contrast enhancement, particularly that the Gaussian noise was added to prevent data from overfitting. Meanwhile, the contrast of the test image was adjusted to reduce the influence of complex backgrounds, such as the tea pole on the detection of the scorpion. A convolution kernel group was also used to enhance the feature extraction without increasing the computation load. Furthermore, an attention module was utilized to adaptively adjust the receptive field, thereby enhancing the feature representation, according to the size and shape of the. More importantly, a Focal Loss function was used to reduce the impact of class imbalances between foreground and background during detection. The experimental results show that the convolution kernel group was effectively reduced the interference of complex background to the detection of tea geometrid. The attention module also presented an excellent performance to reduce the missed detection, due to the varying sizes and shapes of targets. Specifically, the best detection was achieved for the images with a complex background, where 0.94 recall, 0.96 precision, and 92.89% mean average precision. The improved accuracy increased by 6.44 percentage points, compared with the original YOLOv5. Moreover, there were 17.18 percentage points higher than the SSD, 6.52 percentage points higher than the Faster-RCNN, and 4.78 percentage points higher than the YOLOv4, compared with the SSD, Faster-RCNN, and YOLOv4. Consequently, the improved YOLOv5 can be widely expected to realize the intelligent monitoring ofpests in the precise pesticide application for the higher yield and quality of tea.

agriculture; algorithm; object detection; deep learning; convolution kernel group; attention module;

10.11975/j.issn.1002-6819.2021.21.022

TP391.4

A

1002-6819(2021)-21-0191-08

胡根生,吳繼甜,鮑文霞,等.基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測[J]. 農業工程學報,2021,37(21):191-198.doi:10.11975/j.issn.1002-6819.2021.21.022 http://www.tcsae.org

Hu Gensheng, Wu Jitian, Bao Wenxia, et al. Detection of Ectropis oblique in complex background images using improved YOLOv5[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(21): 191-198. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.21.022 http://www.tcsae.org

2021-06-18

2021-10-08

安徽省高等學校自然科學研究重大項目(KJ2020ZD03);農業生態大數據分析與應用技術國家地方聯合工程研究中心開放課題項目(AE201902)

胡根生,博士,教授,研究方向為農業信息處理與應用。Email:hugs2906@sina.com

鮑文霞,博士,副教授,研究方向為農業信息處理與模式識別。Email:bwxia@ahu.edu.cn

猜你喜歡
背景檢測方法
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
晚清外語翻譯人才培養的背景
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产第八页| 欧美午夜在线观看| 免费在线a视频| 婷婷激情亚洲| 超碰91免费人妻| 欧美一级专区免费大片| 精品国产中文一级毛片在线看| 成人免费网站久久久| 国产国拍精品视频免费看| 国产综合网站| 亚洲综合在线网| 婷婷成人综合| 亚洲精品无码久久久久苍井空| 2021国产精品自产拍在线| 免费可以看的无遮挡av无码| 色偷偷男人的天堂亚洲av| 欧美亚洲国产精品第一页| 亚洲成人精品久久| 亚洲va视频| 成人免费午夜视频| 91成人在线免费观看| 精品欧美一区二区三区久久久| A级毛片无码久久精品免费| 97视频在线观看免费视频| 色综合中文| 亚洲欧美成人影院| 国产成人综合久久精品下载| 亚洲无码高清一区| 免费国产不卡午夜福在线观看| 91视频首页| 欧美一区二区福利视频| 亚洲国产成熟视频在线多多| 国产麻豆精品久久一二三| 婷婷六月天激情| 日韩国产高清无码| 制服丝袜国产精品| 在线看AV天堂| 一级片一区| 孕妇高潮太爽了在线观看免费| 国产资源站| 亚洲床戏一区| 日韩视频精品在线| 无码国内精品人妻少妇蜜桃视频| 亚洲天堂视频网| 韩日免费小视频| 特级毛片8级毛片免费观看| 欧美视频在线第一页| 成人亚洲视频| 免费播放毛片| 亚洲国产中文综合专区在| 一级福利视频| 日韩视频福利| 久久无码av三级| 国产亚洲日韩av在线| 久久无码av三级| 免费在线a视频| 91精品网站| 国产欧美日韩18| 日本妇乱子伦视频| 国产精品分类视频分类一区| 亚洲国产成人在线| 一本大道香蕉久中文在线播放| 波多野结衣无码AV在线| 欧美午夜久久| 国产精品开放后亚洲| 亚洲国产午夜精华无码福利| 在线观看国产小视频| 欧洲欧美人成免费全部视频| 欧美yw精品日本国产精品| 亚洲欧洲日韩综合| 国产成人精品日本亚洲77美色| 国产夜色视频| 中文字幕第1页在线播| 色噜噜综合网| 99偷拍视频精品一区二区| 人妻熟妇日韩AV在线播放| 国产精品视频系列专区| 97成人在线观看| 玩两个丰满老熟女久久网| 亚洲an第二区国产精品| 久久网综合| 久久黄色视频影|