邊磊,何旭棟,季慧華,蔡曉明,羅宗秀,陳華才,陳宗懋*
基于機器視覺的小貫小綠葉蟬智能識別的研究與應用
邊磊1,何旭棟2,3,季慧華2,蔡曉明1,羅宗秀1,陳華才3*,陳宗懋1*
1. 中國農業科學院茶葉研究所,浙江 杭州 310008;2. 杭州益昊農業科技有限公司,浙江 杭州 310018;3. 中國計量大學,浙江 杭州 310018
深度學習已經在農作物害蟲實時監測的智能識別過程中廣泛應用。以小貫小綠葉蟬()識別模型為基礎,研究深度學習在誘蟲板上葉蟬識別中的應用,旨在提高小貫小綠葉蟬田間種群調查的準確性。本研究設計了一種茶園小貫小綠葉蟬的識別、計數方法,首先采用黃色誘蟲板誘集小貫小綠葉蟬,利用相機對誘蟲板進行圖像采集并上傳至服務器,然后通過服務器部署的目標檢測算法,對圖像中葉蟬進行識別與計數。通過算法篩選,確定YOLOv3作為識別算法,用改進后的Soft-NMS代替原來的NMS,用K-means聚類方法計算新的先驗框的尺寸,提升YOLOv3對目標識別的速度和準確率。通過田間試驗對比誘蟲板上葉蟬的真實數量,結果顯示優化后識別算法的準確率可達到95.35%以上。本研究驗證了誘蟲板誘集、目標識別算法和物聯網技術相結合,能夠為小貫小綠葉蟬田間種群的實時監測提供技術支持,可為其他具有顏色偏愛性昆蟲的實時監測和茶園害蟲綜合治理提供參考。
深度學習;目標檢測;小貫小綠葉蟬;種群監測;YOLOv3
茶樹是我國重要的經濟作物,有害生物綜合治理(IPM)是當下茶園害蟲防治的要求,害蟲種群的實時監測是IPM的基礎,是各種防治技術精準施用的依據[1-2]。長期以來,許多茶樹害蟲的種群監測采用人工統計的方法[3],不僅消耗大量的時間和人力,而且統計結果會因調查人員的變動產生誤差。因此,消除人工誤差,降低勞力成本,實時高效地監測茶園害蟲的種群動態,對于茶園害蟲的精準防治至關重要。目前,人工智能相關的自動檢測識別技術已在害蟲的識別和監測中廣泛應用,將深度學習的概念融入關聯的設備中,實現在沒有人為干預的情況下,高效準確統計穩定區域內目標昆蟲的數量[4]。
小貫小綠葉蟬是中國茶園的重大害蟲之一,對黃色具有偏愛性[5],所以統計黃色誘蟲板上的葉蟬蟲口是監測茶園葉蟬種群的一種常見的方法[6]。由于誘蟲板上葉蟬的體表特征和其他具有黃色偏愛性的昆蟲具有差異性,所以結合人工智能的視覺自動檢測識別方法是可行的。計算機視覺是一種常見、有效、并且能快速鑒別昆蟲種類的方法,將深度卷積神經網絡(CNN)用于昆蟲檢測和識別的體系在植物害蟲監測任務中具備良好的前景[7]。例如對稻田中殺蟲燈內稻飛虱(包括白背飛虱和褐飛虱)[8]和蔬菜大棚中誘蟲板上薊馬的自動識別和檢測,已體現出智能識別技術在昆蟲種群動態監測的優勢[9]。
本研究采用圖像深度學習篩選并優化小貫小綠葉蟬的識別技術,包括圖像的預處理、目標檢測算法的選擇和優化,以及識別模型的田間評估,以期為小貫小綠葉蟬的遠程實時監測提供技術支持。
1.1.1 圖像預處理
采用黃色誘蟲板(25?cm×20?cm,杭州益昊農業科技有限公司)誘集茶園中的小貫小綠葉蟬。通過工業相機(1?200萬像素,杭州海康威視數字技術股份有限公司,參數見表1)對茶園的誘蟲板進行實時拍照,采集圖像(圖1),對其中成像存在問題的圖片進行預處理。

表1 工業相機參數
對于在強光下圖片存在過度曝光的問題(圖1-c,圖2-a),采用直方圖變換的方法預處理[10]。先通過灰度值分布求出概率密度函數,再根據公式將原有圖像的灰度值做映射處理,最后用新的灰度值代替原位置像素的灰度值,將灰度值范圍進行拉伸,起到增強對比度的作用(圖2-b)。
1.1.2 小目標檢測
小目標檢測在深度學習目標檢測領域一直屬于難題[11]。小貫小綠葉蟬檢測屬于小目標檢測,其主要難點在于兩點:(1)大多數的樣本不包含小目標;(2)即使在包含小目標的樣本中,小目標的出現次數也極其有限。在本研究所有圖像中,小貫小綠葉蟬的大小在(20×20)~(70×70)范圍內,整幅圖像大小為4?000×3?000,所占的面積極少,同時每幅圖的樣本數量也不足,導致目標檢測算法很難學習到小貫小綠葉蟬的相關特征。

注:a、b、c、d分別為采集自雨天、晴天、強光和弱光條件下的圖片

注:(a)過度曝光原圖,(b)直方圖變化處理后
1.1.3 數據增強
鑒于采集圖像的數量有限,需通過數據增強的方法來提升深度學習訓練效果[12]。訓練之前不僅對圖像進行了常規的垂直水平翻轉和任意角度的旋轉,同時為了解決小目標樣本不足的問題,采用特殊的Copy-Paste技術。對整張圖片進行操作之后分別得到含目標的前景區域和不含目標的背景區域,然后把前景疊加在背景圖上,將得到的新圖加到訓練集中進行訓練。

圖3 采用Copy-Paste技術進行圖像數據增強
本研究為了得到Copy-Paste的最佳效果,嘗試了多種不同的方法。第一種嘗試是把不同小貫小綠葉蟬目標復制,并融合到一張圖中;第二種方式是把同一小貫小綠葉蟬目標復制多次,融合到一張圖中,效果如圖3所示。結果表明,這兩種方法使算法的性能得到了提升。試驗中深度學習訓練的圖片數量為2?000張,其中1?800張用于模型學習,200張用于測試。
1.2.1 Faster R-CNN
Faster R-CNN由Ross Girshick在2015年推出[13],為了提高檢測速度與精度,Faster R-CNN將R-CNN和RPN(Region proposal network)進行了結合[14]。Faster R-CNN的核心是提出了RPN,代替了傳統產生候選區域的方法,實現了端到端的訓練。在結構上,Faster R-CNN已經將特征抽取(Feature extraction)、proposal提取、bounding box regression(Rect refine)、classification整合在了一個網絡中,使得綜合性能有較大提高,在檢測速度方面尤為明顯。采用ROI Pooling(Region of interest pooling)使用最大值池化將特征圖上ROI(Region of interest pooling)固定為特定大小的特征圖,采用NMS(Non-maximum suppression,非極大值抑制)技術,篩選候選框數量。
1.2.2 SSD
SSD(Single shot multibox detector)于2016年提出,是經典的one-stage目標檢測模型之一[15]。SSD消除了邊界框候選以及特征的上采樣過程,精度上和Faster R-CNN目標檢測方法相同,在速度上也能滿足實時性的要求。SSD提取了不同尺度的特征圖進行檢測,大尺度特征圖(較靠前的特征圖)可以用來檢測小物體,而小尺度特征圖(較靠后的特征圖)用來檢測大物體;并且采用不同尺度和長寬比的先驗框。SSD借鑒了Faster R-CNN中錨的理念,每個單元設置尺度或者長寬比不同的先驗框,預測的邊界框(Bounding boxes)以先驗框為基準,減少了訓練難度。但是SSD也存在一些不足,如小目標的檢測效果不好,定位不準等。
1.2.3 YOLOv3
YOLOv3是YOLO(You only look once)系列目標檢測算法中的第3版,由Redmon等[16]提出,是以Darknet53作為Backbone的一個全卷積神經網絡。相比之前YOLO系列的算法,針對小目標的精度有顯著提升[16]。主要體現在ResNet的應用和多尺度檢測。
為了提高對小目標的檢測能力,YOLOv3采用了類似FPN(Feature pyramid networks)的多尺度特征融合算法[16],具體如圖4所示,卷積網絡在經歷幾個卷積層之后在79層得到一種尺度的檢測結果,相較于輸入圖像,這里的特征圖進行了32倍的下采樣。由于采用了較高的下采樣倍數,特征圖擁有較大的感受野,對尺寸較大的對象具有較好的檢測效果。為了實現對小目標的檢測,本研究將第79層特征圖作上采樣并與第61層特征圖融合,進行一系列卷積操作得到第91層特征圖,在提高網絡泛化能力同時提高網絡精度以及算法的速度。經過該次上采樣,可以得到相對于原圖像進行了16倍下采樣的特征圖,由于其具有中等尺寸的感受野,對中等尺寸目標的檢測效果較優。然后進行相似操作,將第91層特征圖進行第二次上采樣,與第36層特征圖融合,得到的特征圖相對于輸入圖像進行了8倍下采樣。最后的特征圖具有最小的感受野,適合檢測小目標對象。
以YOLOv3作為識別算法并進行改進,主要體現在用改進后的Soft-NMS代替原來YOLOv3中的NMS和用K-means聚類方法重新計算先驗框的尺寸兩個方面。
1.3.1 NMS的改進
對于大多數目標檢測算法,NMS是必要的后處理步驟,該處理方法容易造成目標漏檢,一旦兩個對象的重疊區域太大,則重疊的對象框可能會被過濾掉[17]。NMS根據檢測框的概率進行降序排序之后,以概率最大的檢測框作為基準,依次計算其他檢測框與其IOU(Intersection-over-union,交并比),隨后去除掉IOU值大于閾值的檢測框,導致目標檢測算法漏檢。

圖4 多尺度特征融合示意圖
如圖5所示,在YOLOv3檢測小貫小綠葉蟬的實際應用中,紅框和藍框分別為不同的目標,但紅框的得分低于藍框,并且兩框之間的IOU超過了設定的閾值,根據NMS的處理步驟,紅框會被過濾掉,造成漏檢。為了避免此類情況的發生,本研究使用改進的Soft-NMS進行目標框的去重處理。

圖5 目標漏檢
Soft-NMS算法由Bodla等[18]提出用來優化NMS算法,通常用于解決檢測框之間IOU較高的問題。其優勢是能夠把現有的概率遞歸地進行修改,不會直接過濾掉IOU較高的檢測框,在同一類目標之間IOU較高時可以避免對檢測框實施誤過濾操作。
Soft-NMS的工作原理是重疊度大于閾值的其他檢測框不會直接去除,而是采用一個函數來衰減這些檢測框的置信度。對于重疊度很高的檢測框,置信度會衰減為一個很低的分數;相反,對于重疊度很低的驗證框,保留原來的置信度。
Soft-NMS的抑制表達式的形式有兩種,一種是線性加權:

一種是高斯加權:
在高斯衰減函數中,N是指IOU的閾值,在Soft-NMS高斯衰減求最優解的試驗中,當=0.6時,效果最佳。試驗過程中,發現當兩個檢測框的IOU值較大時,Soft-NMS算法仍然會使檢驗框的置信度得分低于更新后先前設置的閾值,從而導致漏檢。基于Soft-NMS的最佳結果,提出了新的衰減公式來減小原始衰減幅度:

改進之后的Soft-NMS表達式為:
其中,是指可修改并用于控制衰減幅度的參數。在N取0.5,取0.6的Soft-NMS最優條件下,以作為自變量,研究與模型效果的關系,結果如圖6所示。在本研究中,當達到0.05時效果最佳。
1.3.2 K-means聚類方法
目前的目標檢測算法大多采用錨定機制,即先定義許多先驗框作為初始值,再在此基礎上進行優化得到最終結果。錨定機制將所有可能的實例框的連續空間離散化為一些預定義尺寸及寬高比的有限數量的框,縮小了網絡的參數分布空間,提高了算法定位的準確性[19]。傳統獲取錨點的方法是基于最后一個特征圖,例如,最后一層的特征圖大小為13×13,相對尺寸在(0×0,13×13)范圍內。經典算法是使用K-means聚類獲得不同大小的錨點,這些錨點被分為多尺度特征圖。在YOLOv3中,用于訓練的數據集為COCO數據集,根據K-means聚類的方法為每種下采樣尺度設定3種先驗框,總共聚類出9種尺寸的先驗框。在COCO數據集這9個先驗框分別是(10×13)、(16×30)、(33×23)、(30×61)、(62×45)、(59×119)、(116×90)、(156×198)、(373×326)。在本試驗中所使用的數據集與COCO數據集差異較大,使用原始錨設置不合適,需要重新計算小貫小綠葉蟬數據集的錨定尺寸,通過K-means均值聚類獲得的結果如表2所示。同樣,9個錨分為3個比例。
分配上,在最小的13×13特征圖上有較大的感受野,應用較大的先驗框(59×36)、(67×43)、(72×47)適合檢測較大的對象。中等的26×26特征圖上有中等的感受野,應用中等的先驗框(44×25)、(49×27)、(51×31)適合檢測中等大小的對象。較大的52×52特征圖上有較小的感受野,應用較小的先驗框(22×11)、(33×18)、(40×22)適合檢測較小的對象。

表2 尺寸分類表

圖6 Soft-NMS公式k值與模型效果關系圖
如圖7所示,利用原有的先驗框進行目標檢測,存在先驗框尺寸過大和定位不準的問題(圖7-a)。利用K-means均值聚類重新計算先驗框尺寸后,先驗框更加貼合目標,位置也更加準確(圖7-b)。
1.4.1 模型運行環境
計算機配置CPU型號為Intel(R)Core(TM)i7-7500HQ,CPU3.2?GHz,內存16?G,GPU型號為NVIDIA GTX 3060Ti,1?T固態硬盤。計算機操作系統為Window10 64位操作系統,配置python3.6,PyCharm2019.6,tensorflow-gpu-1.14.0+cudnn-7.6.4+cuda-10.0+Pytorch-2.2.4深度學習框架用于所有模型的訓練和測試。參數設置:Batch size設置為16,img size為416,epochs為100,GPU num為1,learning rate為0.001,并在4?000和4?500迭代中除以10,optimizer為SGD。
1.4.2 田間測試
在模型深度學習的基礎上,對其識別準確率開展田間測試評估,地點位于中國農業科學院茶葉研究所種質資源圃。分別于2020年6月和2021年6月,在測試地點架設葉蟬田間圖像采集設備(圖8),每天中午懸掛誘蟲板,24?h后進行更換,圖像采集時間為早晨7:00,每次采集1張誘蟲板圖像,連續采集15?d,以誘蟲板上葉蟬的實際誘捕數量作為真實值,通過對比設備的識別數量來評估設備的精確性。目標檢測常用的評價標準有查準率(Precision)、查全率(Recall)、平均準確率(Average precision),在本研究中用查準率作為評判不同算法識別準確率的標準。查準率的公式為:

圖7 K-means均值聚類效果對比

圖8 葉蟬田間圖像采集設備及其系統結構示意圖
=/(+)
式中,表示當目標被正確識別出來,即正樣本被識別成正樣本(真實值),表示非目標被識別成目標,即負樣本被識別成正樣本(錯誤識別)。
為了驗證算法優化后的效果,對比SSD、Faster R-CNN、原始YOLOv3和優化后YOLOv3算法的值。小貫小綠葉蟬的數據被分別輸入到4種算法中,以相同的設置進行訓練和測試。結果如圖9所示,對比SSD、Faster R-CNN和YOLOv3算法,Faster-RCNN算法在準確率值和運算速度方面都不是很理想,SSD算法的速度比YOLOv3算法快,但值較低。改進后的YOLOv3算法相較于改進前準確率提高了7.7%,達到95.3%,同時運算速度也有所提升(0.5%)。
以基準線作為對照,對比了不同策略對算法的提升效果。結果顯示,不同的策略對YOLOv3算法的值均有提升(圖10)。其中采用Copy-Paste策略后,值比原始YOLOv3算法中的正常數據增加3.6%,主要是因為Copy-Paste策略在增加小目標樣本數量尺寸的同時,增加了小目標樣本數量,保證每個圖像中同時有多個小目標。根據小貫小綠葉蟬數據的特征設計錨點,可以使網絡更加準確地了解小貫小綠葉蟬的邊緣信息,因此K-means聚類策略使值提升了1.8%的。在實際場景中,小貫小綠葉蟬的重疊非常普遍,由于原始NMS無法用于檢測重疊的對象,會導致值下降,針對此問題Soft-NMS與改進后的Soft-NMS可以對算法值分別提升0.5%和1.6%。
如表4所示,2020年田間測試試驗中,15?d中有6次系統識別的葉蟬數量與實際數量一致,整個測試期內,小貫小綠葉蟬總體識別準確率為93.86%。2021年,在持續學習采集樣本的基礎上,15?d中有7次系統識別的葉蟬數量與實際數量一致,小貫小綠葉蟬總體識別準確率為95.35%。

圖9 不同算法的查準率和速度比較

圖10 不同的策略對YOLOv3算法平均準確率的影響

表4 模型對葉蟬的識別準確率
采用深度學習和神經網絡的目標檢測算法識別誘蟲板上的小貫小綠葉蟬,在田間試驗中結合物聯網、圖像采集系統初試的識別準確率可達到93.86%以上,說明依托機器視覺的葉蟬智能識別在茶園中用于葉蟬成蟲的監測是可行的。本研究雖然在前期圖像的采集過程中考慮到了數據的多樣性,并且在算法迭代過程中加入了負樣本的學習,但是在開放環境下目標害蟲體征的實時變化,使得樣本的多樣性和復雜性遠遠超出預期。如環境中的光強度會直接影響誘蟲板圖像的亮度;濕度過高和雨天會造成誘蟲板上凝聚水滴,導致系統誤判;葉蟬和部分昆蟲因誘蟲板懸掛時間過長而導致褪色和堆疊等問題,盡管已經將這些情況作為負樣本對算法進行優化,但是受限于樣本采集的數量有限,在實際應用中仍會產生誤判。
在研究中,通過調整圖像采集時間、誘蟲板懸掛時長可減少光照等環境因素對算法準確率的影響。誘蟲板對小貫小綠葉蟬的誘集高峰是每天的清晨和傍晚[20],每天清晨采集誘蟲板上葉蟬的誘集量,能避免強光對圖像采集的影響,并反映出區域內葉蟬的相對蟲口數量[21-23]。在田間試驗中通過每天更換誘蟲板縮短懸掛時長,可以避免葉蟬和部分昆蟲因誘蟲板懸掛時間過長而導致的褪色、白化和堆疊等問題,提升系統對葉蟬的識別率,但是該措施需要定期更換誘蟲板,會增加葉蟬動態監測的工作量。受環境中濕度和氣候的影響,誘蟲板上的水滴問題不可避免,需通過采集大量的圖像進行持續學習和算法優化來解決。
茶園中具有顏色偏愛性的害蟲種類繁多,如薊馬、粉虱、葉甲、蠟蟬和網蝽等[24],結合誘蟲板誘集和智能識別技術,可以實現對這些害蟲種群的遠程監測。植保裝備的智能化是我國未來農業的發展方向,作物蟲害的準確監測是指導精準用藥的前提[25-26]。本監測系統在持續學習的基礎上,結合規范的使用方法,可進一步提升對葉蟬的識別率,作為田間環境下葉蟬蟲口遠程監測的技術儲備,能夠為其他害蟲的智能識別、監測技術研發提供指導。
[1] Kogan M. Integrated pest management: historical perspectives and contemporary developments [J]. Annual Review of Entomology, 1998, 43(1): 243-270.
[2] 吳孔明, 陸宴輝, 王振營. 我國農業害蟲綜合防治研究現狀與展望[J]. 昆蟲知識, 2009, 46(6): 831-836.
Wu K M, Lu Y H, Wang Z Y. Advance in integrated pest management of crops in China [J]. Chinese Bulletin of Entomology, 2009, 46(6): 831-836.
[3] 中國茶葉學會標準化工作委員會. 茶樹主要害蟲綠色防控技術規程: T/CTSS 37—2021 [S/OL]. [2021-12-20]. http://down.foodmate.net/standard/yulan.php?itemid=115353.
Standardization Committee of China Tea Science Society. Green controlling technical regulations for major pests of tea plant: T/CTSS 37—2021 [S/OL]. [2021-12-20]. http://down.foodmate.net/standard/yulan.php?itemid=115353.
[4] Khanna A, Kaur S. Evolution of internet of things (IoT) and its significant impact in the field of precision agriculture [J]. Computers and Electronics in Agriculture, 2019, 157: 218-231.
[5] Bian L, Sun X L, Luo Z X, et al. Design and selection of trap color for capture of the tea leafhopper,, by orthogonal optimization [J]. Entomologia Experimentalis et Applicata, 2014, 151(3): 247-258.
[6] Bian L, Cai X M, Luo Z X, et al. Design of an attractant for(Hemiptera: Cicadellidae) based on the volatile components of fresh tea leaves [J]. Journal of Economic Entomology, 2018, 111(2): 629-636.
[7] 封洪強, 姚青. 農業害蟲自動識別與監測技術[J]. 植物保護, 2018, 44(5): 127-133.
Feng H Q, Yao Q. Automatic identification and monitoring technology of agricultural pests [J]. Plant Protection, 2018, 44(5): 127-133.
[8] 姚青, 吳叔珍, 蒯乃陽, 等. 基于改進CornerNet的水稻燈誘飛虱自動檢測方法構建與驗證[J]. 農業工程學報, 2021, 37(7): 183-189.
Yao Q, Wu S Z, Kuai N Y, et al. Automatic detection of rice planthoppers through light-trap insect images using improved Corner Net [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(7): 183-189.
[9] 王茂林, 榮二花, 張利軍, 等. 基于圖像處理的薊馬計數方法研究[J]. 山西農業科學, 2020, 48(5): 812-816.
Wang M L, Rong E H, Zhang L J, et al, Study on countingbased on image processing [J]. Journal of Shanxi Agricultural Sciences, 2020, 48(5): 812-816.
[10] 李正飛. 基于小波變換的圖像增強技術研究[J]. 機械工程與自動化, 2009(2): 15-17.
Li Z F. Image enhancement method based on wavelet transform [J]. Mechanical Engineering & Automation, 2009(2): 15-17.
[11] 張江勇. 基于深度學習的動車關鍵部位故障圖像檢測[D]. 成都: 電子科技大學, 2019.
Zhang J Y. Fault detection of emus based on deep learning [D]. Chengdu: University of Electronic Science and Technology of China, 2019.
[12] 彭宜. 基于殘差網絡和隨機森林的音頻識別方法研究[D]. 武漢: 武漢科技大學, 2019.
Peng Y. Research on audio recognition method based on residual network and random forest [D]. Wuhan: Wuhan University of Science and Technology, 2019.
[13] Girshick R. Fast R-CNN [C]//IEEE. 2015 IEEE International Conference on Computer Vision (ICCV). Santiago: 2015.
[14] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[15] Liu W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector [M]//Leibe B, Matas J, Sebe N, et al. Lecture notes in computer science. Cham: Springer, 2016: 21-37.
[16] Redmon J, Farhadi A. YOLOv3: an incremental improvement [J]. Eprint ArXiv, 2018: 1804.02767. doi: 10.48550/arXiv.1804.02767.
[17] Huang J, Zhang H, Wang L, et al. Improved YOLOv3 Model for miniature camera detection [J]. Optics and Laser Technology, 2021, 142. doi: 10.1016/j.optlastec.2021.107133.
[18] Bodla N, Singh B, Chellappa R, et al. Soft-NMS-improving object detection with one line of code [J]. Eprint ArXiv, 2017: 1704.04503. doi: 10.48550/arXiv.1704.04503.
[19] Redmon J, Farhadi A. YOLO9000: better, faster, stronger [C]//IEEE. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: 2017.
[20] 邊磊, 孫曉玲, 陳宗懋. 假眼小綠葉蟬的日飛行活動性及成蟲飛行能力的研究[J]. 茶葉科學, 2014, 34(3): 248-252.
Bian L, Sun X L, Chen Z M. Studies on daily flight activity and adult flight capacity ofG?the [J]. Journal of Tea Science, 2014, 34(3): 248-252.
[21] Kim K N, Huang Q Y, Lei C L. Advances in insect phototaxis and application to pest management: a review [J]. Pest Management Science, 2019, 75(12): 3135-3143.
[22] Shimoda M, Honda K. Insect reactions to light and its applications to pest management [J]. Applied Entomology and Zoology, 2013, 48(4): 413-421.
[23] Rodriguez-Saona C R, Byers J A, Schiffhauer D. Effect of trap color and height on captures of blunt-nosed and sharp-nosed leafhoppers (Hemiptera: Cicadellidae) and non-target arthropods in cranberry bogs [J]. Crop Protection, 2012, 40: 132-144.
[24] 楊智輝. 黃色誘蟲板對茶果園主要害益蟲的誘殺作用調查[J]. 現代農業科技, 2017(15): 91-93.
Yang Z H. Investigation on the trapping and killing effect of yellow insect traps on the main harmful and beneficial insects in tea orchards [J]. Modern Agricultural Science and Technology, 2017(15): 91-93.
[25] 吳孔明. 中國農作物病蟲害防控科技的發展方向[J]. 農學學報, 2018, 8(1): 35-38.
Wu K M. Development direction of crop pest control science and technology in China [J]. Journal of Agriculture, 2018, 8(1): 35-38.
[26] 陳宗懋, 蔡曉明, 周利, 等. 中國茶園有害生物防控40年[J]. 中國茶葉, 2020, 42(1): 1-8.
Chen Z M, Cai X M, Zhou L, et al. Developments on tea plant pest control in past 40 years in China [J]. China Tea, 2020, 42(1): 1-8.
Research and Application of Intelligent Identification ofBased on Machine Vision
BIAN Lei1, HE Xudong2,3, JI Huihua2, CAI Xiaoming1, LUO Zongxiu1, CHEN Huacai3*, CHEN Zongmao1*
1. Tea Research Institute, Chinese Academy of Agricultural Sciences, Hangzhou 310008, China;2. Hangzhou Yihao Agricultural Technology Co., Ltd., Hangzhou 310018, China; 3. China Jiliang University, Hangzhou 310018, China
Deep learning has been widely used in intelligent identification in the progress of real-time monitoring of crop pests. Based on the identification model of tea leafhopper,, the application of deep learning in field leafhopper recognition was introduced to improve the precision of field population investigation ofIn this paper, a method of identification and count ofin tea garden was designed. Firstly, yellow sticky card was used to attract tea leafhoppers, and images of cards were collected by camera and uploaded to the web server. Then, target detection algorithm deployed by the server was used to identify and count the leafhoppers in the images. Through algorithm screening, YOLOv3 was determined as the recognition algorithm, and the improved soft-NMS was used to replace the original NMS. K-means clustering method was used to calculate the size of the new prior frame, so as to improve the speed and precision of YOLOv3. The results show that the average precision of the optimized algorithm could reach more than 95.35% comparing with the real number of leafhoppers on the sticky card. Therefore, the combination of the sticky card trapping, target recognition algorithm and internet of things technology could realize the real-time monitoring of population for, which could provide a reference for other insects with color preference and integrated pest management in tea gardens.
deep learning, target detection,, population monitoring, YOLOv3
S435.711;Q126
A
1000-369X(2022)03-376-11
2021-10-09
2021-12-01
浙江重點研發計劃(2019C02033)、財政部和農業農村部:國家現代農業產業技術體系(CARS-19)、中國農業科學院創新工程
邊磊,男,副研究員,主要從事茶樹害蟲物理防治技術研究。*通信作者:huacaichen@cjlu.edu.cn;zmchen2006@163.com
(責任編輯:黃晨)