999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv5的蘋果花生長狀態檢測方法

2022-03-02 08:32:06楊其晟李文寬楊曉峰岳琳茜李海芳
計算機工程與應用 2022年4期
關鍵詞:特征檢測信息

楊其晟,李文寬,楊曉峰,岳琳茜,李海芳

太原理工大學 信息與計算機學院,山西 晉中030600

近幾年來我國經濟林果產業飛速發展,蘋果作為最常見的經濟林果之一,其規模與產量逐年增加,但目前經濟林果的栽培質量與技術仍然有待提高。在蘋果發育的整個物候期中,想要提高蘋果產量除了要做好土、肥、水管理和病蟲害防治外,花期管理在整個過程中也具有非常重要的地位,針對不同的花朵生長狀態進行人工干預可以有效提高坐果率和果實品質。對于蘋果花朵生長狀態的自動檢測也成為一項具有重要價值的研究。

目前,國內外對經濟林果等農作物的自動觀測已經展開了非常廣泛的研究,通過計算機視覺技術可以實現農作物的自動化觀測,從而提高對農作物的管理效率。目前已經有多種方法實現了對蘋果的自動觀測,觀測的工作集中于對蘋果果實的檢測與產量估計,以及對蘋果物候期的檢測。但是,關于蘋果花期生長狀態識別方面的研究目前還存在很多不足,當前的已有成果只能單獨檢測全開的花朵而無法將各種生長狀態的花朵進行高精度的分類檢測。現階段對農作物花期的自動觀測集中于圖像分割與目標檢測的手段。鄧穎等[1]使用基于Mask R-CNN 的神經網絡模型完成了花朵的識別和分割任務,所提出的柑橘花朵分割識別方法實現了對柑橘花朵目標的高效檢測。Sharma 等[2]通過對花朵的形狀分析,使用HSV 色彩空間的圖像分割和圓形擬合算法計算出的圓心提出了一種花朵自動分割與數量估算方法。劉雙喜等[3]通過分析花朵簇輪廓面積值特征,并將其作為聚類特征,建立花量的模糊聚類模型,實現蘋果的花朵數量估計。Dias 等[4]使用簡單線性迭代聚類(simple linear iterative clustering,SLIC)和卷積神經網絡(convolutional neural networks,CNN)結合的思想,提出一種對預訓練卷積神經網絡進行微調以使其對花朵敏感的花朵分割方法。鄭玉龍等[5]提出一種結合Adam及隨機梯度下降(stochastic gradient descent,SGD)的深度學習模型Resnet20,實現自然環境下的花朵識別。Wu等[6]在CSPDarknet53框架下構建YOLOv4(you only look once version 4)模型,使用通道修剪算法對模型進行了修剪,從而快速、準確地檢測蘋果花。

總結以上方法,基于通用深度學習的模型雖然在蘋果花朵檢測這一領域做了大量研究,且對比傳統方法有效提升了檢測性能,但對蘋果花朵生長狀態進行高精度檢測方面的研究尚未取得有效成果。在現階段模型訓練與推理時也會占用大量的計算資源,致使無法做到低成本的學習,也難以實現低成本、高精度的農業自動化管理。

在此現狀下,亟需一種針對蘋果花朵生長狀態的一階段檢測方法,從而實現對復雜場景下蘋果花朵生長狀態的檢測。因此,本文針對現存問題構建了一個真實果園場景下的蘋果花期花朵圖像數據集,提出了一種改進YOLOv5的蘋果花朵生長狀態檢測方法,直接針對花朵區域,對花朵花蕾期、半開期、全開期、凋落期四種生長狀態進行識別,具有模型架構簡單、容易訓練、收斂快的優勢。該方法基于YOLOv5架構,結合協同注意力機制(coordinate attention,CA)模塊[7]對主干網絡模塊進行改進和調整,減少模型參數并利用更多的淺層特征;設計多尺度檢測結構,提高對于小目標物體的檢測性能;融合基于分離的卷積運算[8]重新設計特征融合網絡;使用CIoU(complete intersection over union)作為邊界框回歸的損失函數。實驗表明,本文方法對小目標檢測效果良好,可以應對花朵半開與全開特征不明顯而導致的誤檢情況,并在精度上相比于基線方法都取得一定幅度提升。

1 YOLO目標檢測模型

目前,基于深度學習的目標檢測技術框架主要分為一階段與兩階段目標檢測器兩大類。兩階段的檢測器首先生成可能包含目標物體的候選區域,并從每個候選區域中提取特征,再對候選區域進行進一步的分類和校準,從而得到最終的結果,如Faster R-CNN[9]、Cascade R-CNN[10]等。單階段檢測器可以直接對特征圖上每個位置的目標進行分類預測,具有更高的檢測效率,如RetinaNet[11]、SSD[12]、CenterNet[13]等。兩階段檢測器通常在數據集上具有更好的檢測性能,單階段檢測器在保障檢測精度的前提下具有更高的時間效率,對硬件設備的要求更低,在農業自動觀測領域具有更好的適用性。

1.1 YOLOv5架構

YOLOv5 是由UitralyticsLLC 公司發布的一種單階段目標檢測算法,YOLOv5相比YOLOv4[14]而言,在檢測平均精度降低不多的基礎上,具有均值權重文件更小、訓練時間和推理速度更短的特點。YOLOv5 的網絡結構分為輸入端、Backbone、Neck、Head四部分。

輸入端主要包括Mosaic 數據增強、圖片尺寸處理以及自適應錨框計算三部分。Mosaic 數據增強將四張圖片進行組合,達到豐富圖片背景的效果;圖片尺寸處理對不同長寬的原始圖像自適應地添加最少的黑邊,統一縮放為標準尺寸;自適應錨框計算在初始錨框的基礎上,將輸出預測框與真實框進行比對,計算差距后再反向更新,不斷迭代參數來獲取最合適的錨框值。

Backbone 主要包含了BottleneckCSP[15]和Focus 模塊。BottleneckCSP模塊在增強整個卷積神經網絡學習性能的同時大幅減少了計算量;Focus 模塊對圖片進行切片操作,將輸入通道擴充為原來的4 倍,并經過一次卷積得到下采樣特征圖,在實現下采樣的同時減少了計算量并提升了速度,具體操作如圖1所示。

圖1 Focus切片操作Fig.1 Focus slice operation

Neck 中采用了特征金字塔網絡(feature pyramid networks,FPN)[16]與路徑聚合網絡(path aggregation network,PAN)結合的結構,將常規的FPN 層與自底向上的特征金字塔進行結合,將所提取的語義特征與位置特征進行融合,同時將主干層與檢測層進行特征融合,使模型獲取更加豐富的特征信息。

Head 輸出一個向量,該向量具有目標對象的類別概率、對象得分和該對象邊界框的位置。檢測網絡由三層檢測層組成,不同尺寸的特征圖用于檢測不同尺寸的目標對象。每個檢測層輸出相應的向量,最后生成原圖像中目標的預測邊界框和類別并進行標記。整個YOLOv5模型結構如圖2所示。

圖2 YOLOv5算法結構Fig.2 YOLOv5 algorithm structure

1.2 YOLOv5在花朵生長狀態檢測中的問題

盡管YOLOv5 已經具有了良好的檢測性能和推理速度,但針對本文所解決問題,仍然存在以下缺陷:

(1)算法中主干網絡有較多的Bottleneck結構,卷積操作中的卷積核包含大量參數,導致識別模型中含有大量參數,增加了模型的部署成本。由于花蕾期目標較小,且小目標的物體更依賴于淺層特征,故特征提取中通過大量的卷積之后容易對小目標對象的特征提取造成一定的信息丟失。

(2)原始模型中分別利用8倍下采樣、16倍下采樣、32倍下采樣的特征圖作為特征層去檢測目標,當輸入圖像尺寸為640×640時,大小為80×80、40×40、20×20的檢測層可以用來分別檢測大小在8×8、16×16、32×32 以上的目標,因此當某一目標在原輸入圖像中大小小于8×8時去檢測目標將會變得困難。

(3)在路徑聚合網絡(path aggregation network,PANet)[17]中雖然將深層特征圖和淺層特征圖拼接來融合不同級別的特征信息,但其并未將更加底層的特征圖與高層特征圖進行融合,且未考慮特征內部的模式冗余。

(4)當預測框在目標框內部且預測框大小一致時,邊界框回歸損失函數GIoU(generalized intersection over union)完全退化為IoU(intersection over union)損失函數,無法實現高精度的定位。

2 改進的YOLOv5算法

針對YOLOv5 在花朵生長狀態檢測中所存在的問題,本文對模型做出如下改進來提升對花朵生長狀態的檢測效果:(1)在主干網絡中引入協同注意力機制,在捕獲跨通道信息的同時,還能捕獲方向感知和位置感知信息,幫助模型更加精準地定位和識別感興趣區域。對BottleneckCSP 結構修改,并減少模塊數量來保留更多的淺層特征。(2)在原有網絡結構三層檢測層的基礎上,添加小目標檢測層,從而提高對小目標物體的檢測性能。(3)將PANet 中更加底層的特征圖與高層特征圖進行融合,且在PANet中使用基于分離的卷積運算來消除同一層內輸入特征圖中存在的冗余問題。(4)使用CIoU作為邊界框回歸的損失函數,解決預測框在目標框內部且預測框大小一致的情況,提高定位精度。

2.1 主干網絡優化

2.1.1 優化BottlenckCSP結構

在原始模型主干網絡中,小目標所具有的特征信息會隨著卷積操作而減少或者消失,從而增加了小目標物體的檢測難度。針對上述問題,本文簡化了主干網絡中的特征提取層,將原來主干網絡中BottleneckCSP 的模塊數量(×3,×9,×9,×3)變為(×2,×6,×6,×2)來提取更多的淺層特征信息;為了解決過多卷積核帶來參數量較大的問題,本文對BottleneckCSP的結構進行了改進設計,刪除了原始模塊分支上的卷積層,并且將BottleneckCSP模塊的輸入特征映射與另一個分支的輸出特征圖直接連接,有效地減少了模塊中的參數數量。改進的BottleneckCSP模塊稱為BCSP_1,其結構如圖3所示。

圖3 BCSP_1結構Fig.3 BCSP_1 structure

2.1.2 引入CA協同注意力機制

通常情況下通道注意力會給模型帶來比較顯著的性能提升,但它們通常會忽略位置信息。本文在SPP(spatial pyramid pooling)結構[18]之后增加協同注意力機制(CA)將位置信息嵌入到通道注意力中,通過操作不僅能捕獲跨通道的信息,還能捕獲方向感知和位置感知信息,幫助模型更加精準地定位和識別感興趣的目標。CA注意力機制將通道注意力分解為兩個一維特征進行編碼,沿著不同的空間方向,分別捕獲長程依賴與精確的位置信息,編碼形成方向感知和位置敏感的注意力特征圖來互補地應用到輸入特征圖,從而增強感興趣目標的表示,其結構如圖4所示。

圖4 協同注意力機制Fig.4 Coordinate attention mechanism

協同注意力機制通過精確的位置信息對通道關系和長期依賴性進行編碼,為了實現坐標信息嵌入,首先通過全局平均池化分別對水平方向和垂直方向進行分解,得到兩個一維特征編碼向量。操作對應圖4 的XAvg Pool 和YAvg Pool 部分,通過操作解決了全局池化方法難以保存位置信息的缺陷。為了利用上述操作產生的信息表征,首先使用Concat級聯之前模塊生成的兩個特征圖,然后使用1×1 卷積變換函數F1對其進行變換操作:

式中[?,?]為沿空間維數的拼接操作,δ為非線性激活函數,f為在水平方向和垂直方向的空間信息進行編碼的中間特征映射。沿著空間維度將f分解為兩個張量f h∈RC/r×H和f w∈RC/r×W,其中r表示下采樣比例。利用兩個1×1 卷積變換Fh和Fw分別對f h和f w進行變換,使之具有相同通道數的張量,結果如式(2)、式(3)所示:

這里σ是sigmoid激活函數。為了降低模型的復雜性和計算開銷,通常使用適當的縮減比r來減少f的通道數。然后對輸出gh和gw進行擴展,分別作為注意力權重。其最終輸出如式(4)所示:

2.2 多尺度檢測結構

原有網絡結構中采用三層尺度特征圖層檢測設計,對于640×640的輸入圖像尺度,分別利用8倍、16倍、32倍下采樣的特征圖作為特征層去檢測不同大小尺寸的目標。花蕾期所需檢測目標通常較小,原有多尺度檢測結構對此類目標容易造成漏檢。因此,針對該問題改進多尺度檢測結構以降低小目標誤檢率。

本文在原有網絡結構上增加一個特征尺度。Conv模塊由Conv2d與批量歸一化(batch normalization,BN)層以及LeakyRelu激活函數構成。其中,Conv2d卷積核為1×1,步長為1;LeakyRelu 激活函數可以使網絡快速收斂,具有較高的計算效率,同時解決了傳統Relu激活函數在負區間導致神經元不學習的問題;BN 層防止在訓練過程中梯度消失或爆炸,加快訓練速度。UpSample為上采樣模塊,經過上采樣操作擴大特征圖。Concat代表張量拼接操作,通過操作擴充張量維度,完成特征融合。具體操作為:在第17層后,繼續對特征圖進行上采樣等處理,使得特征圖繼續擴大,同時在第21 層時,將獲取到的大小為160×160的特征圖與骨干網絡中第2層特征圖進行張量拼接融合,獲取更大的特征圖便于小目標物體的檢測。在第22層,即檢測層,增加小目標檢測層,整個模型在改進以后一共使用4層檢測層來進行檢測,設計的4個檢測尺度同時利用了底層特征高分辨率和深層特征的高語義信息,且沒有顯著增加網絡復雜度。

2.3 融合基于拆分卷積的特征融合結構

2.3.1 基于拆分的卷積運算SPConv

在原有PANet中,同一層內的輸入特征圖具有相似但不完全相同的特征冗余問題,但并不存在相同的兩個通道特征,因此無法直接刪除冗余通道特征。如圖5所示,右上角為輸入圖像,其余為部分輸入特征圖,其中有許多相似特征圖。因此,選擇一些具有代表性的特征圖來補充代表性信息,而剩余的只需要補充微小的不同細節信息即可。

圖5 部分特征圖可視化Fig.5 Partial feature map visualization

為了確定具有類似模式的特征圖是否冗余,可以在層與層之間采取一種基于拆分的卷積操作,即SPConv(split based convolutional)。它可以消除相似特征圖中的冗余且需要較少的計算量。

在SPConv中將輸入特征拆分為代表性部分與不確定部分,令X∈RL×h×w和Y∈RM×h×w分別表示輸入、輸出特征,其中L表示輸入通道個數,M表示輸出通道個數,W表示大小為k×k的卷積核,對應的卷積計算可以描述為Y=WX+b。為簡化表示,在后續介紹中忽略了偏置項b。卷積計算的矩陣表示為式(5),其中x表示L個輸入矩陣,y代表M個輸出矩陣,Wij代表M個k×k大小卷積核的參數。

基于拆分的卷積運算將輸入通道按比例α拆分為兩部分:代表性部分用k×k卷積來提供內在信息;冗余性部分用1×1 卷積來補充微小的隱藏細節。矩陣表示如式(6)所示,其中前半部分是代表性部分,后半部分是冗余性部分:

其中,y表示輸出矩陣,x表示αL個輸入矩陣,Wij表示代表性部分在αL個通道上3×3卷積核的參數,wij代表冗余性部分在(1-α)L個通道上1×1 卷積核的參數(本文中α取0.5)。由于劃分卷積之后的代表性部分可以代表不同的特征類別,可以將代表性的通道進行劃分,每個部分代表一個主要的特征類別。其中在代表性通道上使用3×3的群組卷積來進一步減少冗余信息,但是這樣的操作有可能削減了必要的通道連接,故在代表性通道中添加1×1 的點卷積操作來解決此信息的丟失問題。然后將得到的兩個特征進行直接求和融合,得到一個額外的分數,式(6)中代表性部分可以表示為式(7)。

其中,是第l組的逐分組卷積的參數,這里將αcl的代表性通道劃分為G組,每個組zl包括αcl/G個通道。通過前述操作得到了兩類特征,通過GAP 全局平均池化操作,生成通道級別的統計量S3、S1用于全局信息的嵌入,得到k個1×1 的特征圖;之后堆疊生成的S3與S1,并經過一個全連接層,得到一個壓縮的特征向量z;然后將這個壓縮的單維度向量經過Softmax層,重新分為兩個特征向量β、γ;之后分別與相應的代表性部分和冗余性部分的特征向量進行通道的相乘操作,再通過張量的相加得到最后的輸出特征。具體操作如圖6所示。

圖6 基于分離的卷積運算Fig.6 Convolution based on separation

本文PANet中通過使用基于分離的卷積運算SPConv,在減少參數量的同時有效消除各層特征圖之間的冗余,在降低模型冗余的同時加速模型推理速度。

2.3.2 特征融合結構改進

在卷積神經網絡中,通過卷積核來提取圖像的特征圖,從而完成對圖像多角度的完備描述。低層特征具有更高的分辨率,目標位置較為準確,更能反映圖像的具體內容,輪廓、邊緣、顏色、紋理和形狀特征等特征較為明顯;高層特征經過多次卷積操作以后,具有更強的語義信息,能更好地表達人類所能夠理解的圖像信息,但其分辨率較低。通過對所構建數據集中花朵圖像進行分析,發現在大多數圖像中,需要識別的蘋果樹花朵目標大部分都屬于中小尺寸情況。為了提高目標檢測網絡的識別性能,可以將低層特征與高層特征進行高效融合,使之在具有強語義信息的同時對細節仍有較強的感知力。

由于本研究中改進的網絡架構的第25層和第28層輸出特征圖為小型和中型對象目標檢測層的輸入特征圖,為了提高花朵的檢測準確率,彌補高層特征低分辨率造成的空間信息損失,通過融合多層來提升模型檢測性能。對原始體系結構中輸入到小型和中型對象規模目標檢測層的特征融合進行了改進,將原始模型中14與18層的特征融合改為12與26層,配合增加檢測層之后16 與23 層的特征融合操作,將下層感受野較大的特征提取層的輸出與目標檢測層之前特征提取層的輸出融合。特征融合的操作使用Concat方法,Concat方法避免了Add 方法可能造成的信息丟失,而且不受特征圖的通道數量限制。通過在特征圖的通道進行合并,使描述圖像本身的通道數增加,達到信息增廣的效果,使模型在檢測中小尺寸目標物體時可以具有更好的檢測性能。具體網絡結構設計如圖7 所示。本文改進的YOLOv5網絡結構可以更好地適應在果園復雜場景下對花朵的檢測,同時對于花蕾期小目標的檢測準確率有一定的提升。

圖7 改進的YOLOv5算法結構Fig.7 Improved YOLOv5 algorithm structure

2.4 改進損失函數

YOLOv5 損失函數的定義如式(8)所示,其損失函數由三部分組成,分別為置信度損失lobj、分類損失lcls以及目標框和預測框的位置損失lbox。

目標置信度誤差lobj定義如式(9)所示:

目標分類誤差lcls定義如式(10)所示:

目標框位置誤差lbox使用GIoU 損失函數定義如式(11)所示:

在YOLOv5原始模型中使用GIoU_loss作為邊界框的回歸損失函數,在GIoU_loss 中增加了相交尺度的衡量方式,從而解決了IoU_loss中當預測框和目標框不相交,即IoU=0的時候損失函數不可導,從而導致IoU_loss無法優化兩個框不相交的情況,同時也解決了當兩個預測框大小相同,兩個IoU 也相同時IoU_loss 無法區分兩者相交的情況。但是GIoU_loss無法解決預測框在目標框內部且預測框大小一致的情況,因為這時預測框和目標框的差集都是相同的,所以這三種狀態的GIoU 值也都是相同的,具體情況如圖8所示。

圖8 GIoU值相同的情況Fig.8 Same GIoU value

因此本文采用CIoU_loss作為目標檢測任務的回歸損失函數,計算公式見式(12)。CIoU_loss 中考慮了預測框與目標框之間的重疊面積和中心點距離,當目標框包裹預測框的時候,直接度量兩個框的距離,從而考慮了邊界框中心點距離的信息與邊界框寬高比的尺度信息,與此同時也考慮了預測框和目標框的長寬比,使邊界回歸結果更好。

其中,預測框中心點用b表示,目標框中心點用bgt表示,ρ表示歐氏距離,c代表相交的預測框與目標框之間所構成外接最小矩形的對角線距離,α是一個權重系數,v代表長寬比一致性的參數,計算公式如式(13)、(14)所示:

通過CIoU_loss解決了原始模型損失函數中預測框與目標框在不同位置完全重疊時損失值一樣的問題,使模型在回歸框定位時更加精準,提高模型的檢測性能。

3 實驗

3.1 數據集

本文的數據來源于山西某農田試驗站,參考農業氣象觀測規范,制定適宜本地的蘋果花期觀測標準,于2019年4月(花蕾期)開始,采集至2019年5月(凋落期)結束,使用3 888×5 184 像素分辨率的田間實時監測設備在不同花期進行圖像采集,采集時間段設定為每天8點—11 點、12 點—15 點、16 點—19 點,構建了蘋果花期花朵不同生長狀態的圖像數據集。數據集的部分樣本如圖9所示。

圖9 數據集部分樣本Fig.9 Data set sample

將采集的數據進行篩選與整理,使用標記軟件labelimg對采集到的圖片中的不同生長狀態花朵圖像樣本進行標注,構建蘋果花朵生長狀態數據集,包括標注花蕾3 301 個,半開狀態花朵1 227 個,全開狀態花朵4 193個,凋落狀態花朵1 241個。將標注好的圖像標注信息保存為.xml形式,內容包括目標物體的類別和目標框的坐標信息,數據標注示例如圖10所示。

圖10 花朵生長狀態標注Fig.10 Example of data set annotation

圖11對數據集中目標框大小的分布和目標框的出現位置分布情況進行了可視化。圖11(a)表示將原圖圖片分辨率大小正則化以后,目標框的中心點在圖中的位置坐標分布;圖11(b)表示目標框的長寬占圖片長寬的比例。從兩圖可以看出,目標框大小不均,小目標數量大,目標出現位置集中于圖片的中間。

圖11 數據集目標框分布情況Fig.11 Data set target frame distribution

除此之外對圖像數據進行Mosaic 數據增強,其原理為把4張訓練圖片縮放拼成一張圖,具體結果如圖12所示。通過這樣的操作,使得原本較大的目標在縮小大概50%之后變成較小的目標,從而減少對大物體的過度響應,增強模型檢測小目標的能力,在一定程度上解決了數據集中的小目標檢測問題。

圖12 Mosaic數據增強Fig.12 Mosaic data enhancement

3.2 實驗環境與方案設計

本文實驗環境為Ubuntu16.0464位操作系統,32 GB內存,NVIDIA GeForce RTX2080Ti 顯卡,Intel?Xeon CPU E3-1231 v3@3.40 GHz 處理器,在Pytorch 1.7.1、CUDA10.2下實現模型的搭建及訓練工作。

在網絡訓練前,使用K-Means 算法對先驗框尺寸進行計算,初始錨框的參數設定為[17,21,34,40,45,65]、[68,95,70,58,92,130]、[114,89,124,173,156,227]、[170,123,231,187,231,290],訓練時,按照比例9∶1 使用腳本自動隨機劃分訓練集和測試集。通過在大型數據集COCO上訓練得到預訓練模型進行權重初始化,使用SGD來優化總體目標,訓練批次為16,學習率設置為0.01,模型迭代300次。本文設計圖片標準尺寸為640×640×3。訓練完成后,分別將本文方法與SSD、YOLOv3、YOLOv4、Faster R-CNN 主流檢測模型進行性能對比,分析本文方法性能。

3.3 模型評估

本文采用目標檢測模型常用的三項評估指標平均精度(average precision,AP)、平均精度均值(mean average precision,mAP)以及每秒傳輸幀數(frames per second,FPS)進行模型評估。AP指PR(Precision-Recall)曲線下面積,mAP指每個類別AP的均值,計算公式見式(15)~(18)。模型推理速度通過在使用服務器NVIDIA GeForce RTX2080Ti 顯卡環境下,對實驗圖片數據進行檢測,對100張圖像的檢測時長求均值得到。

3.4 實驗設計與結果分析

本文共設計兩組實驗,分別為不同改進部分對模型檢測性能的影響與主流實時檢測模型性能對比。通過兩組實驗,首先在YOLOv5架構下分析本文不同改進部分對網絡性能的影響,再通過本文方法與主流檢測網絡SSD、YOLOv3、YOLOv4、Faster R-CNN進行性能對比,綜合分析本文方法性能。

本文方法訓練過程中損失變化情況如圖13 所示。由圖可以看出,前期損失值下降較快,隨著訓練輪數的增加,Loss曲線逐漸降低,趨于平穩。當Epoch達到250左右時算法損失降至穩定,模型收斂,訓練過程中未出現過擬合現象。

圖13 Loss曲線Fig.13 Loss curve

3.4.1 改進方法對模型性能的影響

為了分析本文提出的改進方法對YOLOv5 算法性能的影響,設計5組實驗對不同的改進部分進行結果分析,每組實驗使用相同的訓練參數,不同方法對模型檢測性能所產生影響的結果如表1所示。其中,“√”代表在網絡模型中使用了對應的改進策略,“×”代表在網絡模型中未使用對應的改進策略。對表1進行分析可見,改進1在主干網絡中使用BCSP_1結構替代原有BottleneckCSP且調整模塊數量以后,可以保證小目標可以更好地利用淺層特征,且減少了模型參數數量,使得模型在原有基礎上mAP有較小提升,FPS有較大提升。改進2在此基礎上引入CA機制,使模型將空間信息嵌入到通道注意力中,由于位置信息的加入,對于依賴位置信息的密集檢測任務具有更好的預測效果。改進3 加入新的檢測尺度對特征進行提取,從而產生更大的特征圖來預測更小的目標,使原有結構難以檢測的較小尺寸目標可以檢出,有效提升mAP 達1.7 個百分點。改進4 針對數據集中中小目標較多的特點,使用新設計的特征融合結構,將更加底層的特征圖與高層特征圖進行融合,提高模型的特征提取能力,搭配基于分離的卷積運算來解決特征圖的冗余問題,使模型mAP 得到提高。最后改進5 引入CIoU 作為邊界框回歸的損失函數,解決在原有損失函數中目標框與預測框重合情況下GIoU退化為IoU的問題,提高模型邊界框的定位精度。改進后模型的mAP 值為0.922,比改進前YOLOv5 的mAP 值高5.4個百分點,每秒傳輸幀數為93.21,與原始模型僅相差3.22,且在訓練中需要更少的顯存。圖14為改進前后檢測結果對比。

表1 不同改進方法的實驗結果Table 1 Experimental results of different improvement methods

圖14 改進前后結果對比Fig.14 Comparison of results before and after improvement

3.4.2 主流目標檢測模型性能對比

為了驗證本文改進算法的檢測性能,將本文所改進的YOLOv5 算法與主流目標檢測模型SSD、Faster RCNN、YOLOv3、YOLOv4對比,采用mAP和FPS兩項指標對每種主流檢測算法進行評估與對比,對比實驗結果如表2 所示。由表2 分析可知,改進的YOLOv5 算法mAP達到了0.922,較原始YOLOv5算法提高5.4個百分點。結合表中對于花蕾、半開、全開、凋落四類花朵生長狀態的平均精度AP 進行分析可得,本文方法在檢測小目標物體,即花朵生長狀態處于花蕾時的AP 值比原始YOLOv5 算法提高了約5.2 個百分點,相比其他主流目標檢測網絡模型具有更好的檢測性能。通過特征融合結構與多尺度檢測結構的重新設計,使得檢測目標為花朵半開時相比原有網絡模型AP值提高了約10.5個百分點,全開與凋落狀態花朵檢測所得實驗AP 值也超越原有模型與主流目標檢測模型。在保證高精度檢測的同時,模型的FPS 并未出現大幅度下降,檢測速度與主流模型相比仍然具有一定優勢。

表2 主流目標檢測模型性能對比Table 2 Performance comparison of mainstream target detection models

4 結束語

本文針對通用深度學習目標檢測技術難以在復雜果園背景下對蘋果花朵不同生長狀態進行高精度檢測的問題,提出一種改進YOLOv5的蘋果花朵生長狀態檢測方法。該方法基于YOLOv5 網絡架構,結合CA 注意力模塊與改進的BSP_1模塊設計主干網絡提取特征;增加多尺度檢測結構并融合基于分離的卷積運算設計了高效的目標提取網絡;使用CIoU 作為邊框回歸的損失函數,提高邊框回歸精度。實驗表明,本文所提出的檢測方法能夠準確、快速地檢測出不同生長狀態下的花朵圖像。本文方法在NVIDIA RTX 2080Ti 測試條件下mAP 達到0.922,速度為93.21 frame/s,實現了高精度、高速率的檢測,性能高于通用目標檢測模型,為蘋果花期管理提供了有益的幫助。下一步將在嵌入式設備上進行模型的性能改進,進一步改進網絡結構,以實現移動端實時花朵生長狀態檢測。

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 久久精品人人做人人爽| 亚洲中文字幕手机在线第一页| 色哟哟国产精品| 国产亚洲欧美在线专区| 国产综合色在线视频播放线视| 亚洲天堂日韩在线| 综合网久久| 色精品视频| 久久国产精品77777| 热99精品视频| 九九热免费在线视频| 日韩专区欧美| 老司机久久99久久精品播放| 成年人国产网站| 国产精品美女网站| 91色在线视频| 国产无遮挡猛进猛出免费软件| 国产精品刺激对白在线 | 亚洲欧美日韩另类| 免费毛片a| 热思思久久免费视频| 亚洲视频a| 中日韩欧亚无码视频| 国产成人亚洲无码淙合青草| 成人精品视频一区二区在线| 最新国产成人剧情在线播放| 国产乱码精品一区二区三区中文 | 国产黄色片在线看| 亚洲欧洲自拍拍偷午夜色无码| 亚洲天堂网在线播放| 日韩午夜福利在线观看| 性喷潮久久久久久久久| 亚洲三级视频在线观看| 久草中文网| 欧美国产精品不卡在线观看 | 欧美视频在线播放观看免费福利资源 | 97国产在线视频| 69av免费视频| 国产精品开放后亚洲| 免费女人18毛片a级毛片视频| 中文字幕久久亚洲一区| 日本成人福利视频| 亚洲成人在线播放 | 婷婷色婷婷| 国产精品区视频中文字幕| 亚洲综合片| 国产黄在线观看| 91欧美在线| 亚洲男人天堂2020| 国产免费人成视频网| 国产凹凸一区在线观看视频| 欧美19综合中文字幕| 国产一二三区视频| 一本色道久久88亚洲综合| 久久国产精品娇妻素人| 日韩一二三区视频精品| 最新国产精品第1页| 99视频精品全国免费品| 永久在线播放| 亚洲成人黄色在线| 欧美亚洲国产一区| 国国产a国产片免费麻豆| 91精品久久久无码中文字幕vr| 免费a在线观看播放| 亚洲美女久久| 97亚洲色综久久精品| 日韩毛片在线视频| 精品国产中文一级毛片在线看| 日韩精品久久无码中文字幕色欲| 日本欧美在线观看| 午夜天堂视频| 精品久久高清| 在线看国产精品| 91精品免费高清在线| 美女国内精品自产拍在线播放| 免费女人18毛片a级毛片视频| 中国国产高清免费AV片| 欧美成人二区| 一级片免费网站| 国产激爽爽爽大片在线观看| 国产丝袜无码精品| 黄片在线永久|