999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv3的果園復雜環境下蘋果果實識別

2021-11-26 06:06:10喬艷軍王紅君岳有軍
農業工程學報 2021年16期
關鍵詞:特征檢測模型

趙 輝,喬艷軍,王紅君,岳有軍

基于改進YOLOv3的果園復雜環境下蘋果果實識別

趙 輝1,2,喬艷軍1,王紅君1,岳有軍1

(1. 天津理工大學電氣電子工程學院/天津市復雜系統控制理論與應用重點實驗室,天津 300384;2. 天津農學院工程技術學院,天津 300392)

為使采摘機器人能夠全天候在不同光照、重疊遮擋、大視場等果園復雜環境下對不同成熟度的果實進行快速、準確識別,該研究提出了一種基于改進YOLOv3的果實識別方法。首先,將DarkNet53網絡中的殘差模塊與CSPNet(Cross Stage Paritial Network)結合,在保持檢測精度的同時降低網絡的計算量;其次,在原始YOLOv3模型的檢測網絡中加入SPP(Spatial Pyramid Pooling)模塊,將果實的全局和局部特征進行融合,提高對極小果實目標的召回率;同時,采用Soft NMS(Soft Non-Maximum Suppression)算法代替傳統NMS(Non-Maximum Suppression)算法,增強對重疊遮擋果實的識別能力;最后,采用基于Focal Loss和CIoU Loss的聯合損失函數對模型進行優化,提高識別精度。以蘋果為例進行的試驗結果表明:經過數據集訓練之后的改進模型,在測試集下的MAP(Mean Average Precision)值達到96.3%,較原模型提高了3.8個百分點;1值達到91.8%,較原模型提高了3.8個百分點;在GPU下的平均檢測速度達到27.8幀/s,較原模型提高了5.6幀/s。與Faster RCNN、RetinaNet等幾種目前先進的檢測方法進行比較并在不同數目、不同光照情況下的對比試驗結果表明,該方法具有優異的檢測精度及良好的魯棒性和實時性,對解決復雜環境下果實的精準識別問題具有重要參考價值。

收獲機;目標檢測;圖像處理;果實識別;YOLOv3;復雜環境

0 引 言

果實采摘機器人可實現采摘工作的自動化,能夠很好的解決勞動力不足、人工采摘成本高且效率低的問題[1-2]。采摘機器人的重點和難點在視覺系統,機器人的工作效率和穩定性取決于其對果實識別的速度、準確率以及對復雜環境的適應能力[3-4]。因此,研究一套能夠在復雜環境下精確識別樹上果實的視覺系統,對實現自動采摘和產量估計具有重要研究價值和現實意義。

目前,國內外在水果檢測方面的研究已經取得了一定進展。Lin等[5]研究了一種基于貝葉斯分類器和密度聚類的圖像分割方法,提出了一種基于支持向量機的柑橘識別算法,可以弱化光照變化對識別效果的影響,不足之處是檢測一張圖像平均需要1.25 s,實時性較差;宋懷波等[6]提出了一種基于凸殼理論的蘋果檢測方法,解決了遮擋情況下的蘋果識別問題,但識別效果易受光照變化

和顏色飽和度的影響。上述傳統的識別方法對由人工提取出的特征過于依賴,受復雜環境因素影響較大,魯棒性和泛化性較差,難以滿足采摘機器人的實際工作需求[7-8]。近年來,隨著深度學習的發展,卷積神經網絡(Convolutional Neural Networks,CNN)可以通過無監督或半監督的特征學習來提取多層次特征,比人工提取的特征具有更強的泛化能力,其強大的表征能力使目標檢測的性能獲得了很大提升,推動了目標檢測的發展[9-10]。目前,主流的基于深度學習的目標檢測算法依據其設計原理,主要分為兩類:一種是基于區域建議的方法,標志性的算法有RCNN[11](Regions with CNN features)、Fast RCNN[12]和Faster RCNN[13]等,核心思想是首先獲得建議區域,然后在當前區域內進行精確的分類與位置預測,稱為兩階目標檢測[14-15]。Sun等[16]提出了一種基于改進的Faster RCNN番茄識別方法,該方法采用ResNet50作為特征提取網絡,使用K-means聚類方法調整預選框,有效提高了識別精度,但是檢測速度較慢,不滿足實時性的要求;張磊等[17]采用Faster RCNN算法,實現了對自然環境下多類水果的識別,其模型的精度高,泛化能力強,但是對重疊遮擋果實的檢測召回率較低,容易將重疊果實判定為一個。另一種方法是無區域建議的方法,標志性的算法有SSD[18]、YOLO[19]等,核心思想是通過單個卷積神經網絡處理圖像,直接計算出目標的分類結果與位置坐標,也稱為一階目標檢測[14-15]。Tian等[20]提出了一種改進的YOLOv3算法,利用DenseNet作為其特征提取網絡,實現了對不同生長期蘋果的識別,但是并未對大視場環境下的果實進行研究;趙德安等[21]利用改進后的YOLOv3算法,對各類復雜環境下的蘋果進行識別,檢測速度達到60幀/s,具有很好的實時性,但是當檢測密集蘋果時,1值下降明顯,不能很好地檢測密集蘋果和大視場下的蘋果。

鑒于此,本文以蘋果為研究對象,以多尺度檢測性能較好且同時兼顧了檢測速度和精度的YOLOv3網絡為基礎,根據自然環境下蘋果果實的生長特征和目前果實檢測存在的問題,對原網絡模型進行改進,在復雜環境下進行檢測試驗,并對改進后的方法進行準確性和實時性驗證。

1 數據材料

1.1 圖像獲取

本文所用的部分蘋果圖像于7—10月期間采集于天津市多個蘋果園內,分辨率為4 032×3 024(像素),共計2 200張圖像,包括晴天、多云和陰天等天氣狀況;分別在早上、中午、傍晚以及夜晚4個時間段進行采集;照明條件包括順光、側光、逆光和人工光照;在拍攝時模擬采摘機器人的操作過程,不斷變換拍攝角度和拍攝距離,采集到的圖像基本包含了不同顏色、姿態、大小、光照、背景以及果實重疊遮擋等情況。由于采集到的蘋果圖像主要為紅富士,且果園環境較為單一,考慮到視覺系統的通用性,又通過互聯網搜集了一些其他果園復雜環境中的不同品種(紅富士、嘎啦、蛇果、秦冠等)、不同成熟時期的蘋果圖像,篩選出了1 800張圖像。最終,通過實地拍攝與互聯網收集共計得到4 000張蘋果圖像,統一保存為.JPG格式,圖1展示了收集到的部分圖像。

1.2 數據集制作

為了識別不同成熟時期的蘋果果實,根據不同生長期將其分為兩類,其中一類為成熟蘋果;另一類為未成熟蘋果(包含落果期和膨大期)。本研究訓練模型采用PASCAL VOC的數據集格式,利用LabelImg軟件將圖像中目標果實所在區域進行手工標注矩形框,其中,成熟蘋果的類別標簽設定為Apple,未成熟蘋果的類別標簽設定為Green_Apple,標注時矩形框要盡量貼合果實輪廓。標注完成后,隨機選取其中3 200張作為訓練集,400張作為驗證集,400張作為測試集。

1.3 數據增強

在模型輸入端嵌入Mosaic數據增強方法,即每次讀取4張圖像,分別進行隨機縮放、翻轉、剪裁以及光學變換等操作,然后,將4張圖像拼接到一起并與調整后的標簽一同傳入網絡中,相當于一次性傳入4張圖像進行學習,極大地豐富了檢測物體的背景,增加了目標個數,且在標準化BN(Batch Normalization)計算時會同時計算4張圖像的數據,相當于增加了Batch size,使得BN層求出來的均值與方差更加接近于整體數據集的分布,有助于增強模型的魯棒性。

2 基于YOLOv3蘋果檢測模型的改進

2.1 CSPX模塊

YOLOv3借鑒了ResNet的殘差思想,在其主干網絡(DarkNet53)中大量使用了殘差連接,并利用步長為2的3×3卷積代替最大池化層進行下采樣,因此,網絡結構可以設計得很深,可以保留更多的特征信息、促進網絡前后層的特征信息融合,并且緩解訓練中梯度消失與爆炸等網絡退化的問題,使模型更容易收斂,特征提取能力更強。其網絡結構主要由一系列殘差塊(Residual Block)串聯而成,殘差塊結構如圖2所示。過深的殘差連接雖然增強了網絡性能,但也增大了計算量,限制了檢測速度。在采摘過程中,實時性是最重要的性能指標之一,因此,通過對網絡進行輕量化處理來降低計算量是非常必要的。

CSPNet[22](Cross Stage Paritial Network)是一種先進的方法,能夠解決網絡優化中的梯度信息重復問題,通過分開梯度流,使梯度流可以在不同的網絡路徑上傳播,避免了梯度信息被復用,有效減少了模型的浮點運算次數(Floating point operations,FLOPs),既保證了推理速度和準確率,又減小了模型的計算量。因此,本文將DarkNet53中的殘差塊與CSPNet結合,構成CSPX模塊,如圖3所示。CSPX模塊首先將輸入特征圖經過第一個CBL模塊進行2倍下采樣,然后再經過一個CBL模塊后,將得到的特征圖分成2個部分,一部分經過個殘差塊,而另一部分直接通過一個CBL模塊向后傳播,最后,再將這2部分的結果按通道進行拼接操作。

注:CSPX表示內部帶有X個殘差塊的CSP模塊;每個CSP模塊的第一個CBL模塊中卷積核的大小都是3×3,且stride=2。

2.2 空間金字塔池化SPP模塊

盡管YOLOv3將深淺層的特征進行了融合,加強了模型的多尺度性能,但是對小物體的檢測精度仍然較低,且漏檢率較高,因此,為了實現對大視場下的極小蘋果目標進行精確識別,從而對蘋果的整體分布預定位,以指導機器人規劃路徑、調整位姿,并完成計數,估計蘋果產量[23-24],在YOLOv3的檢測網絡中加入空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊,這是一個由3種不同尺度的最大池化層組成的結構,如圖4所示,SPP模塊將輸入特征圖分別經過3個不同池化核大小的最大池化層進行下采樣操作,然后,與原始輸入特征圖進行按通道拼接操作,最后,將拼接后的特征圖傳入到后續網絡中,可以有效融合局部特征和全局特征,增大感受野,豐富最終特征圖的表達能力,進一步增強模型對小物體的檢測性能。

2.3 軟性非極大值抑制Soft NMS算法

當前的物體檢測算法,為了保證召回率,對于同一個真實物體往往會有多個預測框輸出,由于多余的預測框會影響檢測精度,因此,需要利用非極大值抑制(Non-Maximum Suppression,NMS)算法過濾掉重疊的預測框,得到最佳的預測輸出[25]。對于傳統的NMS方法,如果一個邊框的預測得分越高,這個框將被優先考慮,其他與其重疊且超過一定閾值的邊框將被舍棄,這種方法雖然簡單有效,但是在實際采摘環境中,當果實較為密集時,本身屬于兩個果實的邊框,其中得分較低的可能會被抑制掉,從而造成漏檢。為解決上述問題,將傳統的NMS改進為軟性非極大值抑制(Soft Non-Maximum Suppression,Soft NMS)算法,具體方法如公式1所示。

式中S為當前預測框的置信度得分;為所有預測框中置信度得分最高的預測框;b為當前類別中所有被比較的預測框;IoU為兩個邊框交集與并集的比值;N為人工設定的閾值,一般取0.5;為連續懲罰項系數。

從公式(1)可以看出,Soft NMS將最高分值的預測框設定為基準框,然后分別與當前類別中剩余的預測框作交并比(Intersection Over Union,IoU)計算,保留IoU小于設定閾值的預測框,而對于IoU大于設定閾值的預測框,沒有直接將其得分置0,而是連續地降低該邊框的置信度得分,對于某些得分很高的邊框來說,在后續計算中還有被作為正確檢測框的可能,因此可以有效提升對遮擋重疊果實的檢測性能。此外,Soft NMS算法與傳統的NMS相比復雜度幾乎沒有改變,且實現同樣簡單。

2.4 網絡模型改進

改進后的模型結構如圖5所示。其中主干網絡主要由5個分別包含1、2、8、8、4個殘差塊的CSPX模塊堆疊而成,每個殘差塊又包含兩個CBL模塊,CBL模塊是卷積層、BN層以及激活層的組合,激活函數仍然使用原網絡中的Leaky ReLU。輸入圖像尺寸設置為608×608 (像素),每經過1個CSPX模塊,特征圖尺寸縮小為原來的一半,在經過主干網絡以及頸部網絡中7個CBL模塊和1個SPP模塊以及最終的卷積層,進行32倍下采樣之后,得到大小為19×19的預測特征圖y1,用于預測較大目標;然后,將經過6個CBL模塊和1個SPP模塊的輸出特征圖依次經過兩次2倍上采樣操作,分別與淺層較高分辨率的特征圖按通道進行拼接融合,進而得到兩個不同尺度的預測特征圖y2和y3,大小分別為38×38以及76×76,分別預測中等大小和較小目標,3個預測特征圖的通道數均為21(特征圖上每個特征點預測3個先驗框,每個先驗框需要兩個類別預測、1個置信度預測和4個位置預測,所以共需要21維預測特征向量),最終,將3種尺度的預測特征圖得到的預測結果一起送入Soft NMS中,過濾掉多余的預測框,完成最終的預測。

2.5 損失函數優化

2.5.1 焦點損失Focal Loss

YOLOv3等一階段網絡存在樣本不均衡問題,在訓練過程中存在大量的負樣本,容易干擾模型的優化方向;而標準的交叉熵損失函數中,所有樣本的權重都是相同的,因此,如果正負樣本不均衡,負樣本將占據主導地位,少量的難檢測樣本與正樣本會起不到作用,導致精度變差。為解決這個問題,本文利用Focal Loss(FL)代替原損失函數中的BCE Loss(Binary Cross Entropy Loss),如式2所示。

式中為樣本在該類別的預測概率;為樣本標簽;為正負樣本平衡系數,0<<1;為難易樣本調制因子。

注:CSP后面的數字表示該CSPX模塊內包含殘差塊(Residual Block)數量;Concat表示一種通道數相加的特征融合方式;Upsample表示對輸入的特征圖進行上采樣操作;y1、y2、y3分別表示3個不同尺度的輸出特征圖;圖中的×表示此處有個同樣的模塊構成。

Note: The number after CSP indicates that the CSPX module contains several Residual Block; Concat represents a feature fusion method of adding the number of channels; Upsample means upsampling the input feature map; y1, y2 and y3 represent output characteristic diagrams of three different scales respectively; The ×representation in the diagram havemultiple of same module composition here.

圖5 改進后的網絡結構圖

Fig.5 Improved network structure diagram

2.5.2 完全交并比損失CIoU Loss

原始YOLOv3損失函數中的位置損失,采用直接計算4個預測偏移量和偏移量真值(中心點坐標偏移量+寬高偏移量)之間差值平方的方法,并沒有考慮到在相同偏移損失值下,真實框與預測框之間的重疊面積以及重疊位置可能是不同的。因此,本文提出利用CIoU Loss(Complete IoU Loss)代替原損失函數中的L2位置損失,首先,將預測偏移量作用到先驗框上得到預測框,然后,直接最小化預測框與真實框中心點的距離,并最大化兩框之間的重疊面積,具體方法如式3所示。

式中為預測框與真實框的中心點距離;為預測框與真實框最小外接矩形的對角線距離;wh分別為真實框的寬和高;、分別為預測框的寬和高。

通過公式(3)可以看出,當預測框與真實框完全重合時,IoU=1,=0,=0,所以CIoU=1,則CIoU=0;而當預測框與真實框相距無窮遠時,IoU=0,2/2=1,CIoU=-(1+),則CIoU=2+,所以0

3 模型訓練

3.1 試驗運行平臺

本文所有試驗都在工作站上搭建的深度學習環境中完成,其具體配置為:Intel Xeon(R) E5-2650 v4@2.20Hz×48 CPU;運行內存為64GB;1TB固態硬盤;12GB的GTX1080Ti×2 GPU;Ubuntu18.04操作系統;NVIDIA驅動為450.102.04;編程語言Python以及深度學習框架PyTorch版本分別為3.8和1.7;并行計算架構CUDA以及深度網絡的GPU加速庫cuDNN的版本分別為11.0和7.6.5。

3.2 評價指標

使用準確率(Precision,,%)、召回率(Recall,,%)、1值,%、AP(Average Precision,%)值以及MAP(Mean Average Precision)值這5個性能指標對模型進行性能評估,如式(4)~(8)所示。

式中準確率表示所有預測框中檢測正確的比例;召回率表示正確檢測出的標簽框在所有標簽框中的比例;TP為與標簽框正確匹配的預測框的數量;FP為預測錯誤的預測框的數量;FN為漏檢的標簽框的數量;AP表示每一類蘋果的平均精度值;MAP表示2類蘋果的平均精度值;1為與的調和均值。

3.3 訓練過程

訓練開始前,首先利用由微軟提供的大規模數據集COCO(Common Objects in Context)數據集對改進后的模型進行預訓練,并使用預訓練好的權重對模型初始化[26-27],在訓練時使用Warm up,即在訓練初期先使用一個較小的學習率初始值,使模型在一開始對數據分布理解為0時,不至于對Batch size的小批量圖像過擬合,本文中將初始值設置成0.001,在前3輪訓練過程中,逐漸上升到0.01,并從第4輪開始逐漸衰減至0.001,Epoch設置為300,Batch size設置為16。權值衰減設置為0.0005。每訓練完一個Epoch保存一次網絡的權重文件,并利用Tensorboard工具對模型進行實時監測,記錄模型在驗證集下的各項性能指標,訓練共耗時6 h 32 min。

3.4 訓練數據分析

迭代訓練過程中的損失曲線和驗證集下的各項性能指標曲線如圖6所示,雖然試驗設置的訓練輪次為300輪,但驗證損失在100輪左右就趨于穩定而不再降低了,說明模型在此時已經擬合。在150輪之后,驗證損失波動上升,而訓練損失仍在下降,說明此時模型已經過擬合。通過訓練過程中驗證集的準確率、召回率、1和MAP(IoU閾值設定為0.5)的變化曲線可知,在前20輪的訓練過程中,各項性能指標變化幅度較大,但是總體趨勢是增長的,在之后的訓練過程中,逐漸趨于穩定,在小范圍內振蕩。由于模型在100輪左右已經擬合,且MAP值綜合考慮了2個類別的準確率和召回率,所以本文取第100輪左右各15輪的MAP最大值,最大值為96.1%出現在第109輪,并將這一輪所得到的權重作為最終的模型權重,此時=94.1%,=90.6%;1=92.3%。

4 試驗結果

4.1 結果評估

利用測試集對最終獲得的模型進行測試,本文的測試集中包含了各種復雜環境下的2類蘋果圖像,基本符合整體數據集的分布,通過其曲線可知,如圖7a所示,模型在測試集上的成熟蘋果類別(Apple)AP值可達到96.4%,未成熟蘋果類別(Green_Apple)AP值可達到96.3%,MAP值為96.3%,平均檢測速度為27.8幀/s,檢測精度和檢測速度均滿足實際采摘需求,故可以應用于實際果園環境中。

1值是準確率和召回率的調和均值,隨置信度閾值的變化而變化[28],模型1值變化曲線如圖7 b所示,當置信度閾值為0.674時,1取得最大值為0.92,但是,設置較大的閾值會導致召回率降低,從而導致漏檢率上升,綜合考慮了準確率和召回率之后,取置信度閾值為0.55,此時模型性能最佳。

4.2 不同算法的識別結果

利用本文制作的數據集對另外5種目標檢測算法進行訓練,得到最優模型之后,在測試集上進行測試,6種方法的平均準確率、平均召回率、平均1值、AP值以及檢測速度如表1所示。在檢測精度方面,本文方法的準確率為91.0%,召回率為92.6%,1值為91.8%,AP1達到96.4%,AP2達到96.3%,均高于其他5種方法,比YOLOv3的AP1和AP2分別高了2.2和5.5個百分點,比YOLOv5的AP1和AP2均高了1.3個百分點;特別是對未成熟蘋果的識別精度明顯優于其他算法,并且,除本文算法和YOLOv5以外的其他4種算法對成熟蘋果的檢測結果也要優于未成熟蘋果,分析其原因是未成熟蘋果顏色與背景葉子的顏色相似,且果實較小,生長密集,所以識別難度相對較大。在檢測速度方面,本文方法的平均檢測速度為27.8幀/s,比Faster RCNN高了11.3幀/s,比YOLOv3高了5.6幀/s,這是由于在主干網絡中使用了CSPX模塊從而降低了計算量,盡管比速度最快的CenterNet低了4.5幀/s,但其他各項指標均優于該模型。本文算法能夠實時檢測樹上蘋果,滿足實際采摘作業的實時性要求。綜上,在所有方法中,本文所提出的方法表現出最好的綜合檢測性能。

圖8展示了本文算法的部分檢測結果,通過檢測結果可以看出,本文算法可以很好地檢測出不同光照、不同遮擋程度、套袋、大視場等各類復雜環境下的成熟與未成熟的蘋果果實,其預測框的位置和類別較為準確且漏檢和誤檢較少,具有很強的魯棒性。

表1 6種算法在測試集上的識別結果

注:AP1表示成熟蘋果類別AP值,AP2表示未成熟蘋果類別AP值。

Note: AP1 represents the AP value of mature apple category, and AP2 represents the AP value of immature apple category.

4.3 不同果實數目下的對比試驗

建立不同蘋果數量下的對比試驗,試驗測試集一共400張圖像包含6 117個蘋果,按蘋果數量不同分為4類,其中,105張單個蘋果圖像包含105個蘋果;142張多個蘋果(每張包含2~10個蘋果)圖像包含882個蘋果;125張密集蘋果(每張包含11~30個蘋果)圖像包含2 890個蘋果;28張大視場環境下的蘋果(每張包含30個以上蘋果)圖像包含2 240個蘋果,比較改進前后2種方法在不同蘋果數量下的檢測性能,部分測試結果如圖9所示。

在上述4類不同蘋果數量的測試集上完成測試之后,得到各項性能指標,如表2所示。由表2可以看出,當檢測單個蘋果時,本文算法與YOLOv3差距不大;而隨著果實數量的不斷增加,2類算法的各項性能指標均有所下降;且YOLOv3的識別精度與本文算法差距越來越明顯,其中,當檢測多個蘋果時,其AP值分別比本文算法低了1.5和3.5個百分點,1值低了2.1個百分點;當檢測密集蘋果時,其AP值分別比本文算法低了1.8和4.0個百分點,1值低了3.7個百分點;在大視場環境下,其兩類AP值分別比本文算法低了2.8和6.7個百分點,1值低了4.2個百分點。綜合結果表明,本文方法能夠較好地應用于不同數量、不同大小、不同重疊遮擋環境下的蘋果檢測,且性能優于改進前的YOLOv3算法,尤其是針對密集和大視場環境下蘋果的檢測,性能有明顯的提升,驗證了所提出改進方法的有效性。

表2 YOLOv3改進前后對不同數目蘋果的識別結果

4.4 不同光照條件下的對比試驗

本節試驗檢驗模型對不同光照條件的魯棒性,分別涉及順光、側光、逆光(包含傍晚和陰天等情況)和夜晚人工光照,為了避免密集蘋果對試驗結果造成影響,每一類從單個蘋果和多個蘋果類別中各挑選出40張圖像作為測試,部分檢測結果如圖10所示。通過圖10可以看出,在不同光照條件下,兩類算法均有較好的識別效果,但是當光線極差時(如逆光、傍晚等),會出現預測框位置不夠準確以及誤檢和漏檢的情況。分析其原因是光線不足導致果實表面紋理特征不明顯,顏色失真,特別是對于未成熟蘋果來說,其與葉片等背景界限不明顯。

在上述不同光照條件的測試集上完成測試之后,得到各項性能指標,如表3所示。通過表3可以看出,在側光條件時,本文算法獲得最高的AP值,其中,AP1為98.0%,AP2為97.9%;而在逆光條件時,本文算法的兩類AP值最低,分別為97.3%和97.2%;YOLOv3也是相同的情況,在側光條件時AP1和AP2分別為97.4%和97.0%,而在逆光條件時,AP1和AP2分別為96.9和96.0。說明模型在側光條件下可以獲得更高的識別精度,因為蘋果在側光下紋理清楚,表面光照強度均勻,而逆光條件則會對檢測造成一定干擾。但總體上來說,2種算法在順光、側光、逆光以及夜晚人工光照條件下的各項性能指標差距不大,均能夠取得較好的檢測結果,說明基于深度學習的檢測算法對光照條件具有魯棒性;此外,本文制作的數據集中包含了各種光照條件下的圖像數據,使得模型充分學習到了不同光照條件下的果實特征,從而取得了較好的檢測結果。

表3 YOLOv3改進前后對不同光照下蘋果的識別結果

5 結 論

本文針對傳統方法在果園復雜環境下對樹上果實識別準確率和實時性較低、魯棒性較差等問題,提出了一種基于改進YOLOv3的識別方法,該方法在測試集下的準確率為91.0%,召回率為92.6%,1值為91.8%,成熟與未成熟蘋果的AP值分別為96.4%和96.3%,檢測速度可達27.8幀/s,整體性能優于其他5種算法,能夠達到蘋果自動采摘識別的準確性和實時性要求,通過更改數據集,該模型可應用于其他各類果實采摘機器人的視覺系統中,具有良好的泛化性。

為了進一步驗證本文算法的有效性和可行性,設計了不同果實數目、不同光照環境下的模型性能對比試驗。結果表明,當檢測密集蘋果時,本文算法的成熟與未成熟蘋果AP值分別比原模型提高了1.8和4.0個百分點;而在大視場環境下,分別提高了2.8和6.7個百分點,證明了所提出改進方法的有效性。此外,模型在側光條件下的檢測效果最佳,成熟與未成熟蘋果AP值分別為98.0%和97.9%;而逆光條件下的檢測效果最差,成熟與未成熟蘋果的AP值分別為97.3%和97.2%,但總體上來說基于深度學習的目標檢測方法對光照具有魯棒性,光照變化對其檢測性能影響較小。

[1] Jia W K, Tian Y Y, Luo R, et al. Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot[J]. Computers and Electronics in Agriculture, 2020, 172: 105380.

[2] Fu L S, Feng Y L, Wu J Z, et al. Fast and accurate detection of kiwifruit in orchard using improved YOLOv3-tiny model[J]. Precision Agriculture, 2020, 13(2): 1-23.

[3] Jia W K, Zhang Y, Lian J, et al. Apple harvesting robot under information technology: A review[J]. International Journal of Advanced Robotic Systems, 2020, 17(3): 1-16.

[4] Kang H W, Chen C, Zhou H Y, et al. Fruit detection and segmentation for apple harvesting using visual sensor in orchards[J]. Sensors (Basel), 2019, 19(20): 194599.

[5] Lin G C, Tang Y C, Zou X J, et al. In-field citrus detection and localisation based on RGB-D image analysis[J]. Biosystems Engineering, 2019, 186: 34-44.

[6] 宋懷波,何東健,潘景朋. 基于凸殼理論的遮擋蘋果目標識別與定位方法[J]. 農業工程學報,2012,28(22):174-180.

Song Huaibo, He Dongjian, Pan Jingpeng. Recognition and localization methods of occluded apples based on convex hull theory[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2012, 28(22): 174-180. (in Chinese with English abstract)

[7] Liu G X, Nouaze J C, Touko P L, et al. YOLO-Tomato: A robust algorithm for tomato detection based on YOLOv3[J]. Sensors (Basel), 2020, 20(7): 202145.

[8] 武星,齊澤宇,王龍軍,等. 基于輕量化YOLOv3卷積神經網絡的蘋果檢測方法[J]. 農業機械學報,2020,51(8):17-25.

Wu Xing, Qi Zeyu, Wang Longjun, et al. Apple detection method based on lightweight YOLOv3 convolutional neural network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(8): 17-25. (in Chinese with English abstract)

[9] Wan S H, Goudos S. Faster R-CNN for multi-class fruit detection using a robotic vision system[J]. Computer Networks, 2020, 168: 107036.

[10] Liang C X, Xiong J T, Zheng Z H, et al. A visual detection method for nighttime litchi fruits and fruiting stems[J]. Computers and Electronics in Agriculture, 2020, 169: 105192.

[11] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

[12] Girshick R. Fast R-CNN[C]//Proceedings of the IEEE international conference on computer vision. 2015: 1440-1448.

[13] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]// Advances in neural information processing systems. 2015: 91-99.

[14] 劉芳,劉玉坤,林森,等. 基于改進型YOLO的復雜環境下番茄果實快速識別方法[J]. 農業機械學報,2020,51(6):229-237.

Liu Fang, Liu Yukun, Lin Sen, et al. Rapid identification method of tomato fruit in complex environment based on improved YOLO[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(6): 229-237. (in Chinese with English abstract)

[15] 熊俊濤,鄭鎮輝,梁嘉恩,等. 基于改進YOLOv3網絡的夜間環境柑橘識別方法[J]. 農業機械學報,2020,51(4):199-206.

Xiong Juntao, Zheng Zhenhui, Liang Jiaen, et al. Orange recognition method in night environment based on improved YOLOv3 network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(4): 199-206. (in Chinese with English abstract)

[16] Sun J, He X F, Ge X, et al. Detection of key organs in tomato based on deep migration learning in a complex background[J]. Agriculture, 2018, 8(12): 8196.

[17] 張磊,姜軍生,李昕昱,等. 基于快速卷積神經網絡的果園果實檢測試驗研究[J]. 中國農機化學報,2020,41(10):183-190.

Zhang Lei, Jiang Junsheng, Li Xinyu, et al. Experimental reserch on orchard fruit detetion based on fast convolutional neural network[J]. Journal of Chinese Agricultural Mechanization, 2020, 41(10): 183-190. (in Chinese with English abstract)

[18] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector[C]//European conference on computer vision. Springer, Cham, 2016: 21-37.

[19] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 779-788.

[20] Tian Y N, Yang G D, Wang Z, et al. Apple detection during different growth stages in orchards using the improved YOLOv3 model[J]. Computers and Electronics in Agriculture, 2019, 157: 417-426.

[21] 趙德安,吳任迪,劉曉洋,等. 基于YOLO深度卷積神經網絡的復雜背景下機器人采摘蘋果定位[J]. 農業工程學報,2019,35(3):164-173.

Zhao Dean, Wu Rendi, Liu Xiaoyang, et al. Apple positioning based on YOLO deep convolutional neural network for picking robot in complex background[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(3): 164-173. (in Chinese with English abstract)

[22] Wang C Y, Mark Liao H Y, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2020: 1571-1580.

[23] 陳燕,王佳盛,曾澤欽,等. 大視場下荔枝采摘機器人的視覺預定位方法[J]. 農業工程學報,2019,35(23):48-54.

Chen Yan, Wang Jiasheng, Zeng Zeqin, et al. Vision prepositioning method for litchi picking robot under large field of view[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(23): 48-54. (in Chinese with English abstract)

[24] Tu S Q, Pang J, Liu H F, et al. Passion fruit detection and counting based on multiple scale faster R-CNN using RGB-D images[J]. Precision Agriculture, 2020, 21(5): 1072-1091.

[25] 蔡舒平,孫仲鳴,劉慧,等. 基于改進型YOLOv4的果園障礙物實時檢測方法[J]. 農業工程學報,2021,37(2):36-43.

Cai Shuping, Sun Zhongming, Liu Hui, et al. Real-time detection methodology for obstacles in orchards using improved YOLOv4[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(2): 36-43. (in Chinese with English abstract)

[26] Yu Y, Zhang K L, Yang L, et al. Fruit detection for strawberry harvesting robot in non-structural environment based on Mask-RCNN[J]. Computers and Electronics in Agriculture, 2019, 163: 104846.

[27] 彭紅星,黃博,邵園園,等. 自然環境下多類水果采摘目標識別的通用改進SSD模型[J]. 農業工程學報,2018,34(16):155-162.

Peng Hongxing, Huang Bo, Shao Yuanyuan, et al. General improved SSD model for picking object recognition of multiple fruits in natural environment[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(16): 155-162. (in Chinese with English abstract)

[28] 劉天真,滕桂法,苑迎春,等. 基于改進YOLOv3的自然場景下冬棗果實識別方法[J]. 農業機械學報,2021,52(5):17-25.

Liu Tianzhen, Teng Guifa, Yuan Yingchun, et al. Fruit recognition method of winter jujube in natural scene based on improved YOLOv3[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5): 17-25. (in Chinese with English abstract)

Apple fruit recognition in complex orchard environment based on improved YOLOv3

Zhao Hui1,2, Qiao Yanjun1, Wang Hongjun1, Yue Youjun1

(1.,/,300384,; 2.,,300392,)

Automatic fruit recognition is one of the most important steps in fruit picking robots. In this study, a novel fruit recognition was proposed using improved YOLOv3, in order to identify the fruit quickly and accurately for the picking robot in the complex environment of the orchard (different light, occlusion, adhesion, large field of view, bagging, whether the fruit was mature or not). The specific procedure was as follows. 1) 4000 Apple images were captured under the complex environment via the orchard shooting and Internet collection. After labeling with LabelImg software, 3200 images were randomly selected as training set, 400 as verification set, and 400 as a test set. Mosaic data enhancement was also embedded in the model to improve the input images for the better generalization ability and robustness of model. 2) The network model was also improved. First, the residual module in the DarkNet53 network was combined with the CSPNet to reduce the amount of network calculation, while maintaining the detection accuracy. Second, the SPP module was added to the detection network of the original YOLOv3 model, further to fuse the global and local characteristics of fruits, in order to enhance the recall rate of model to the minimal fruit target. Third, a soft NMS was used to replace the traditional for better recognition ability of model, particularly for the overlapping fruits. Forth, the joint loss function using Focal and CIoU Loss was used to optimize the model for higher accuracy of recognition. 3) The model was finally trained in the deep learning environment of a server, thereby analyzing the training process after the dataset production and network construction. Optimal weights and parameters were achieved, according to the loss curve and various performance indexes of verification set. The results showed that the best performance was achieved, when training to the 109th epoch, where the obtained weight in this round was taken as the final model weight,precision was 94.1%, recall was 90.6%,1was92.3%, mean average precision was 96.1%. Then, the test set is used to test the optimal model. The experimental results show that the Mean Average Precision value reached 96.3%, which is higher than 92.5% of the original model;1 value reached 91.8%, higher than 88.0% of the original model; The average detection speed of video stream under GPU is 27.8 frame/s, which is higher than 22.2 frame/s of the original model. Furthermore, it was found that the best comprehensive performance was achieved to verify the effectiveness of the improvement compared with four advanced detection of Faster RCNN, RetinaNet, YOLOv5 and CenterNet. A comparison experiment was conducted under different fruit numbers and various lighting environments, further to verify the effectiveness and feasibility of the improved model. Correspondingly, the detection performance of model was significantly better for small target apples and severely occluded overlapping apples, compared with the improved YOLOv3 model, indicating the high effectiveness. In addition, the target detection using deep learning was robust to illumination, where the illumination change presented little impact on the detection performance. Consequently, the excellent detection, robustness and real-time performance can widely be expected to serve as an important support for accurate fruit recognition in complex environment.

harvester; object detection; image processing; fruit identification; YOLOv3; complex environment

趙輝,喬艷軍,王紅君,等. 基于改進YOLOv3的果園復雜環境下蘋果果實識別[J]. 農業工程學報,2021,37(16):127-135.doi:10.11975/j.issn.1002-6819.2021.16.016 http://www.tcsae.org

Zhao Hui, Qiao Yanjun, Wang Hongjun, et al. Apple fruit recognition in complex orchard environment based on improved YOLOv3[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(16): 127-135. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.16.016 http://www.tcsae.org

2021-05-27

2021-08-01

天津市科技支撐計劃項目(19YFZCSN00360)

趙輝,博士,教授,博士生導師,研究方向為復雜系統智能控制理論與應用、農業信息化與精準農業智能監測理論與技術、農業機器人。Email:zhaohui3379@126.com

10.11975/j.issn.1002-6819.2021.16.016

TP391.4

A

1002-6819(2021)-16-0127-09

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 成人a免费α片在线视频网站| 亚洲国产中文精品va在线播放| 国产高清无码麻豆精品| 黄色成年视频| 国产凹凸一区在线观看视频| 免费欧美一级| 欧美成人综合视频| 亚洲欧美不卡| 欧美日韩国产精品综合| a级毛片视频免费观看| 亚洲国产成人久久77| 日本a∨在线观看| 国产女人喷水视频| 91福利在线看| 久久综合国产乱子免费| 亚洲乱码在线播放| 成人中文字幕在线| 亚洲永久免费网站| 色婷婷在线影院| 亚洲天堂在线免费| 国产无码精品在线播放 | 国产性爱网站| 国产精品第一区在线观看| 日韩国产 在线| 97久久超碰极品视觉盛宴| 国产丝袜无码一区二区视频| 国产黑丝视频在线观看| 久久永久视频| 亚洲日韩精品伊甸| 久久久久久尹人网香蕉| 欧美人与动牲交a欧美精品| 国产福利在线免费| 91精品小视频| 国产精品亚洲а∨天堂免下载| 最新国产在线| 国产精品久久久久无码网站| 亚洲国产中文精品va在线播放 | 亚洲人成影视在线观看| 欧美日韩国产精品综合| 老司机精品99在线播放| 日本人又色又爽的视频| 午夜视频在线观看免费网站| 久久激情影院| 乱系列中文字幕在线视频| 久久国产精品电影| 色妞永久免费视频| 国产精品女主播| 久久精品国产亚洲麻豆| 国产精品第页| 欧美精品不卡| 99久久精品免费看国产电影| 97青草最新免费精品视频| 国产精品久线在线观看| 国产又色又爽又黄| 精品无码一区二区三区电影| 四虎永久免费地址| 毛片在线播放a| 热热久久狠狠偷偷色男同| 一本大道香蕉中文日本不卡高清二区 | 国产成人精品第一区二区| 97久久超碰极品视觉盛宴| 久久永久免费人妻精品| 久久国产精品夜色| 成人免费一区二区三区| 中文无码毛片又爽又刺激| 91麻豆精品国产高清在线| 国产微拍精品| 国产欧美精品一区二区| 午夜视频免费一区二区在线看| 欧美成a人片在线观看| 欧美亚洲欧美| 91午夜福利在线观看| 日韩在线永久免费播放| jizz在线免费播放| 国产高清免费午夜在线视频| 国产无码性爱一区二区三区| 国产美女人喷水在线观看| 国产成人三级| 免费 国产 无码久久久| 蜜桃臀无码内射一区二区三区| 天堂在线亚洲| 粉嫩国产白浆在线观看|