999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLO v5的橙子果實識別方法

2023-11-14 11:30:08劉忠意魏登峰周紹發董雨雪
江蘇農業科學 2023年19期
關鍵詞:特征檢測模型

劉忠意, 魏登峰, 李 萌, 周紹發, 魯 力, 董雨雪

(長江大學計算機科學學院,湖北荊州 434000)

橙子是中國高產量的水果之一,具有巨大的經濟效應。然而,隨著人工采摘成本不斷增加,傳統水果采摘的方式已經不太適用,開發自動化水果采摘機器人是當前的必然趨勢[1]。如何精確識別目標果實是當前研發水果采摘機器人的重要難題。傳統計算機視覺圖像識別方法主要依靠形狀、紋理和色差單個特征或多個特征的組合來識別。基于傳統方法,Hussin等使用圓形霍夫變換方法檢測芒果類物體[2];Payne等采用RGB以及基于相鄰像素可變性的紋理分割,從背景中分割芒果[3];孫建桐等提出一種基于Canny邊緣檢測番茄分割方法[4]。這些方法只能在簡單的場景中識別單一類型的水果,在復雜的自然環境下,它們很難適應枝葉遮擋、相鄰果實重疊等情況,無法準確識別目標水果。當前基于卷積神經網絡的深度學習算法已廣泛應用于水果檢測中。與傳統的圖像檢測方法相比,深度學習是以數據為驅動,以大量數據為基礎進行自我學習的方法。在深度學習方法中,Parvathi等使用Faster R-CNN網絡用于檢測復雜背景下椰子的2個重要成熟階段[5];Tian等將改進YOLO v3網絡用于檢測不同階段的蘋果[6];Chen等將改進YOLO v4網絡用于檢測密集狀態橘子[7]。這些方法雖然能夠實現準確的檢測,但使用網絡結構太大,計算復雜度高,不適合部署在用于檢測的嵌入式設備中。為了能夠在復雜自然環境下實現對橙子的精準檢測,本研究以YOLO v5網絡為基礎進行改進,能夠在保證較高準確度的情況下,同時最大限度地降低復雜度。改進的網絡首先在主干結構中使用RepVGG模塊以提高特征提取能力;隨后應用鬼影混洗卷積降低模型參數量;然后加入ECA注意力的模塊準確定位目標信息;最后改進損失函數,加快邊界框的回歸。

1 材料與方法

1.1 數據來源

本研究使用數碼相機和智能手機采集橙子圖片,拍攝時間為2022年的9—12月,拍攝地點為中國橙子密集種植區域,分別為湖北省宜昌市和江西省贛州市,拍攝時按照不同距離和多種不同角度進行拍攝,共采集1 500多張未經任何處理的橙子圖片,圖片格式為JPG。為了增加樣本數量,又通過網絡獲取300多張自然環境下的橙子圖片。在收集的圖片中,包括不同果實數量、不同生長階段、不同背景、不同遮擋程度的圖片。每張圖片都包含橙子目標水果(圖1)。

1.2 數據預處理

為了增強模型泛化能力,防止過擬合,對數據集進行數據增強。增強方式包括對圖片進行等比例縮放、隨機平移、使用不同亮度和垂直翻轉等。數據增強后得到3 661張橙子圖片,使用LabelImg標注工具對圖片中橙子目標進行標注,在人工標注圖片過程中,將所有完全暴露橙子的目標進行標注,對遮擋或有果實重疊的目標進行部分標注。圖像中枝葉遮擋程度超過80%沒有標注,2個果實重疊程度超過80%采用同一矩形框進行標注。再將標注好的圖片進行劃分,分成訓練集2 439張、驗證集611張、測試集611張(圖2)。

1.3 方法

1.3.1 YOLO v5網絡結構 YOLO v5網絡結構主要由主干網絡、頸部網絡、預測頭3個部分組成。

主干網絡主要由C3、Conv、SPPF和其他特征模塊組成,主要作用是提取輸入圖像的特征信息。

頸部網絡主要由FPN(feature pyramid network)和PAN(path augmentation network)2個部分組成,其中FPN部分是將Backbone輸出的多個特征層由上到下通過橫向連接的方式進行融合,增加低分辨特征的語義信息;PAN是對FPN結構的補充,將低分辨特征與高分辨特征進一步融合,提高目標定位方面的能力,從而提高檢測的準確率。

預測頭主要由3個用于檢測不同尺寸目標的檢測層組成,每個檢測層對輸入的圖像特征進行預測,生成目標邊界框并判斷類別。YOLO v5總體結構見圖3。

1.3.2 模型改進

1.3.2.1 主干網絡的改進 原始的YOLO v5模型采用CSPDarkNet53作為主干特征提取網絡[8],在非密集和不存在遮擋目標的情況下對特征提取能力表現優異,但對于密集且存在果實重疊和枝葉遮擋的復雜自然環境下,模型對橙子特征的提取能力有限。RepVGG是一個簡單且計算效率高的卷積神經網絡模塊[9]。RepVGG模塊主要由3×3卷積分支、1×1卷積殘差分支和恒等連接殘差分支組成。該模塊在訓練和推理階段使用不同的網絡結構。模型在訓練階段更加關注模型精度,其采用3×3卷積作為主分支結構,同時在3×3主分支的基礎上引入1×1卷積的殘差分支和恒等映射殘差分支。多分支結構的使用給網絡增加多條梯度流動的路徑,可以提供更多有效的特征信息,增加模型的表征能力。另外,多分支的殘差結構也能保證不會在網絡訓練過程中出現因模型加深而出現梯度退化和消失的問題。在推理階段,模型更加關注速度,通過使用重參數融合的策略將所有網絡層等價轉化為以3×3卷積為主分支的網絡結構,保證模型擁有強大的特征提取能力,且能夠實現高效的推理(圖4)。

本研究使用RepVGG模塊來替代CSPDarkNet53主干網絡中的C3模塊,加強主干網絡對這些難以獲取的目標進行特征獲取。

1.3.2.2 鬼影混洗卷積改進 在網絡推理過程中,模型的運行速度和檢測精度同等重要。相對于傳統卷積操作,采用深度可分離卷積可明顯降低模型運算參數量[10]。但對于多個屬性的提取和融合,深度可分離卷積并不是很強。為了平衡二者的作用,引入鬼影混洗卷積[11],它能夠在保證精度的前提下,降低模型的運算參數量。

由圖5可知鬼影混洗卷積的原理:先將輸入通道數為C1的特征圖通過傳統標準卷積得到輸出通道數一半,即C2/2通道的特征圖,然后經過深度可分離卷積得到另一個通道數相同的特征圖,把2個特征圖在通道數進行拼接,最后通過通道混洗操作將產生的信息滲透到特征圖的每一個部分,得到最終的特征圖[12]。

輸入的圖像在主干網絡提取特征過程中空間信息逐步向通道傳輸,且每次特征圖的寬度和高度壓縮和通道擴展都會導致語義信息部分丟失,而在頸部網絡階段空間信息基本完全轉化為通道信息,此時通道維度達到最大,寬度維度達到最小,不需要進行空間信息轉換。所以,本研究在網絡的頸部網絡階段使用鬼影混洗卷積替代標準卷積,能夠避免丟失特征信息。

1.3.2.3 ECA注意力改進 注意力機制是一種仿生物視覺機制。通過快速掃描全局圖像,篩選出感興趣的區域,投入更多的注意力資源,并抑制其他無用信息,從而提高視覺信息處理的效率與準確性[13]。

橙子在檢測過程中很容易受到背景環境等因素的影響,導致原始的YOLO v5網絡在推理過程中容易丟失目標的表征信息,從而導致檢測精度差。本研究將ECA注意力嵌入到模型的輸出端,增強網絡對橙子的關注度,降低自然背景等其他因素的影響,提高網絡的識別精度[14]。

ECA注意力和SE注意力見圖6,其中G表示全局平均池化,σ表示激活函數,o表示逐元素相乘,r表示通道壓縮率。ECA注意力在SE注意力的基礎上,去掉SE注意力中的全連接層,因為2個全連接層直接使用進行通道降維,會影響通道注意力的準確性[15]。ECA注意力在全局平均池化過程后使用一個可以權重共享的卷積核進行特征學習,在降低模型計算復雜度的同時,可以避免通道維度縮減對預測網絡的準確性產生影響。

圖6-b中的K表示跨通道信息交互作用的覆蓋范圍。K和通道C之間的關系見公式(1)。

(1)

1.3.2.4 EIOU損失函數改進 在自然環境中檢測尺度較小的橙子目標時,預測框的少量偏移和縮放會對檢測精度產生重大影響。原始的YOLO v5網絡采用CIOU作為位置回歸損失函數,其計算公式為

(2)

式中:IOU(intersection over union)表示模型預測的目標框和實際真實目標框重疊區域與并集區域的比值;p2(b,bgt) 表示模型預測目標框和實際真實框的中心點距離;c表示能同時包含模型預測目標框和實際真實框最小閉包區域的對角線距離;a表示平衡比例的參數;v表示模型預測的目標框和實際真實框的長寬比的一致性。其中,a和v的公式分別為

(3)

(4)

CIOU的缺點是預測框和真實框的寬和高呈現線性比例時, 會導致預測框的寬和高不能同時增大或減少,這樣會阻礙網絡快速和準確收斂。EIOU改進了CIOU的缺點,將反映縱橫比之間差異的影響因子v拆分為預測的寬高與最小外接框寬高的差值,從而可以更快地使目標框與預測框收斂,并提高邊界框的回歸精度[16]。EIOU的公式為

(5)

式中:p2(w,wgt)、p2(h,hgt)分別表示預測框的寬和高與真實框的中心點的寬和高的距離;c、Cw、Ch分別表示真實框和預測框最小外接矩形的對角線、邊寬、邊長。

CIOU和EIOU損失函數在預測框回歸過程的迭代示意見圖7。可以看出EIOU在回歸過程中解決了CIOU的寬和高不能同時增大或減少的問題。

1.3.2.5 改進后的整體網絡結構 改進后整體的網絡結構見表1。參數設置是當前層模塊所需要的參數信息,參數設置包括輸入通道數、輸出通道數、卷積核大小、步長信息以及填充大小。

表1 改進的YOLO v5網絡結構

2 結果與分析

2.1 試驗環境

試驗的搭建、訓練以及測試都是使用同一平臺。試驗環境:CPU為Intel? Xeon? Platinum 8358P CPU @ 2.60 GHz,運行內存為80 G,GPU為GeForce RTX 3080, 操作系統為Linux, 深度學習框架為PyTorch,CUDA版本為11.1。試驗時間為2022年12月至2023年2月,試驗地點為長江大學計算機科學學院。

2.2 超參數設置

本研究在改進的YOLO v5試驗中使用表2的超參數。

表2 改進的YOLO v5模型超參數

2.3 評估指標

本研究采用精準率(precision,P)、召回率(recall,R)、平均精度(mean average precision,mAP)、計算量(GFLOPs)和參數量(params)作為評價指標。其中,平均精度表示loU閾值為0.5時的平均檢測精度,GFLOPs表示10億次/s的浮點運算數。精準率、召回率、平均精度的具體公式分別為

(6)

(7)

(8)

(9)

式中:TP(true postives)表示網絡預測為正類、實際也為正類的樣本數量;FP(false postives)表示網絡預測為正類、實際為負類的樣本數量;FN(false negatives)表示網絡預測為負類、實際為正類的樣本數量。

2.4 消融試驗

為了更好地驗證本研究所提出的改進方法具有有效性,對所提出的改進方法進行一系列的消融試驗,在試驗中使用相同的數據集進行測試,試驗結果見表3。

表3 消融試驗

由表3可知,在加入每一種改進方法后,網絡平均精度都會有一定提升,表明本研究改進方法有效。

2.5 對比試驗

2.5.1 注意力對比試驗 為了驗證ECA注意力機制的有效性,本研究將ECA注意力與其他熱門注意力模塊進行對比試驗,將ECA注意力模塊與BoTNet(bottleneck transformers)注意力模塊、CBAM(convolutional block attention module)注意力模塊、SimAM(simple attention module)注意力模塊進行對比,發現ECA注意力的檢測精度更高(表4)。

表4 不同注意力對比試驗結果

2.5.2 不同模型對比試驗 為了體現所提出網絡的優越性,本研究選取目前熱門的深度學習目標檢測算法作為對比,選用的對比網絡分別是CenterNet、YOLO v3、YOLO v4。試驗中采取相同數據集劃分策略(表5)。

表5 不同網絡模型對比試驗結果

由表5可知,與CenterNet、YOLO v3、YOLO v4和原始YOLO v5網絡相比,改進的YOLO v5具有最高平均精度。改進的YOLO v5網絡在模型權重大小、計算量和參數量上略大于改進前,但遠遠小于其他網絡。改進后網絡權重大小為18.6 MB, 計算量為23.1 GFLOPs,參數量為9.6 M。與上述4種網絡相比,改進的YOLO v5在平均精度上分別提升4.4%、6.4%、6.3%、0.9%。綜上,改進后的YOLO v5不僅擁有良好的檢測精度,且相比其他網絡在模型權重大小、計算量和參數量方面均有減小。

2.6 結果分析

選取不同環境下的橙子圖片,使用改進后的YOLO v5網絡進行測試,檢測結果見圖8。

由圖8可知,改進的YOLO v5在無遮擋、果實重疊、枝葉遮擋和密集小目標4種情況下,對于絕大部分橙子目標都能夠較準確地檢測出來。表明改進的網絡對不同環境下的橙子檢測具有較好的泛化性。

為了直觀驗證改進后的YOLO v5網絡的檢測效果,選用不同網絡模型進行對比測試,檢測結果見圖9。

由圖9可知,5種網絡對沒有枝葉遮擋、果實重疊且正常大小目標基本都能夠正確地檢測出來,但對存在枝葉遮擋和果實遮擋的條件下,網絡表現差異明顯。其中,CenterNet、YOLO v3和YOLO v4在檢測存在枝葉遮擋和果實遮擋目標時,出現大部分漏檢情況。原始的 YOLO v5和改進的YOLO v5在檢測遮擋目標時,雖然也存在少量漏檢,但相比其他網絡表現,漏檢數目較少,且改進的YOLO v5網絡在檢測目標時平均置信度較高。綜合分析可知,改進的YOLO v5網絡對遮擋和重疊的橙子目標檢測效果更好,更適合在復雜的自然環境下進行檢測。

3 結論

針對自然條件下的橙子檢測任務,本研究提出一種改進的YOLO v5檢測方法,首先,在主干網絡結構中使用RepVGG模塊,提高對橙子目標特征的提取能力;其次,應用鬼影混洗卷積降低模型參數量;再次,加入ECA注意力模塊,其能夠更加準確定位目標信息;最后,改進損失函數,提升位置邊界框的回歸精度。改進的網絡在自然環境的橙子檢測中平均精度達到90.1%,相比于目前熱門的檢測網絡CenterNet、YOLO v3和YOLO v4,改進的YOLO v5網絡在枝葉遮擋、相鄰果實重疊等復雜情況下,橙子識別效果可以得到一定的提升。后續,將會繼續優化網絡,并將使用現有模型應用于果園計數和產量預測等任務中。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 免费国产一级 片内射老| 美女无遮挡被啪啪到高潮免费| 久久午夜夜伦鲁鲁片无码免费| 国产精品毛片一区| 91青青视频| 青青久久91| 亚洲色成人www在线观看| 午夜福利无码一区二区| 国产精品国产主播在线观看| 亚洲人成网线在线播放va| 久久国语对白| 婷婷色一二三区波多野衣| 精品无码日韩国产不卡av| 高潮毛片免费观看| 97亚洲色综久久精品| 国产91高清视频| 九色91在线视频| 亚洲欧美人成人让影院| 又爽又大又光又色的午夜视频| 国产成人免费视频精品一区二区| 九色在线视频导航91| 精品福利视频导航| 国产精品lululu在线观看| 亚洲视频免| 亚洲Av激情网五月天| AV不卡在线永久免费观看| www.精品视频| 亚洲无码高清一区二区| 亚洲啪啪网| 美女亚洲一区| 欧美A级V片在线观看| 日韩欧美国产成人| 欧美综合中文字幕久久| 国产高清无码第一十页在线观看| 天天综合网亚洲网站| 露脸真实国语乱在线观看| 精品国产一二三区| 不卡无码网| 亚洲第一香蕉视频| 色呦呦手机在线精品| 国产91丝袜在线播放动漫| 一本一本大道香蕉久在线播放| 国产精品亚洲综合久久小说| 国产乱人免费视频| 亚洲va精品中文字幕| 日韩欧美国产中文| 爆乳熟妇一区二区三区| 国产乱视频网站| 91精品综合| 国产乱子伦无码精品小说| 成年av福利永久免费观看| 亚洲精品视频免费| 国产成人做受免费视频| 免费国产高清精品一区在线| 国模私拍一区二区三区| 色网在线视频| 久久国产av麻豆| 国产香蕉在线| 久久伊人操| 成人免费一区二区三区| 日本国产在线| 亚洲v日韩v欧美在线观看| a色毛片免费视频| 亚洲天堂成人在线观看| 国产一区成人| 在线观看av永久| 午夜爽爽视频| 性激烈欧美三级在线播放| 免费jjzz在在线播放国产| 国产成人免费观看在线视频| 欧美人人干| 很黄的网站在线观看| 欧美在线中文字幕| 视频二区中文无码| 国产精品99一区不卡| 国产美女精品一区二区| 精品国产免费人成在线观看| 亚洲高清国产拍精品26u| 国产精品偷伦视频免费观看国产 | 青青热久麻豆精品视频在线观看| 又黄又湿又爽的视频| 亚洲精品第一页不卡|