999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的田間復雜環境障礙物檢測

2024-06-17 10:38:20楊昊霖王其歡李華彪耿端陽武繼達姚艷春
中國農機化學報 2024年6期
關鍵詞:機器視覺

楊昊霖 王其歡 李華彪 耿端陽 武繼達 姚艷春

摘要:為實現田間復雜環境下農業機器人自主導航作業過程中障礙物快速檢測,提出一種基于改進YOLOv5的田間復雜環境下障礙物檢測方法。建立包含農業機械、人、羊三類目標障礙物共計6 766張圖片的農田障礙物數據集;通過k-means聚類算法生成最佳先驗錨框尺寸;引入CBAM卷積塊注意力模塊,抑制目標障礙物周圍復雜環境的干擾,增強目標顯著度;增加一個檢測頭,跨層級連接主干特征,增強多尺度特征表達能力,緩解標注對象尺度方差帶來的負面影響;使用Ghost卷積替換Neck層中普通卷積,減少模型參數,降低模型復雜度。改進后的模型比YOLOv5s基準模型檢測精度提高2.3%,召回率提高3.1%,精確率提高1.9%,參數量降低7%左右,為無人農業機械自主作業過程中導航避障的研究提供技術參考。

關鍵詞:農業機器人;農田障礙物檢測;改進YOLOv5;圖像處理;機器視覺

中圖分類號:S220; TP391.4

文獻標識碼:A

文章編號:2095-5553 (2024) 06-0216-08

收稿日期:2022年9月13日

修回日期:2023年3月21日

*基金項目:國家重點研發計劃(2021YFD2000502);山東省現代農業產業技術體系崗位專家項目(SDAIT—02—12)

第一作者:楊昊霖,男,1997年生,山東濰坊人,碩士;研究方向為智能農機裝備。E-mail: 942740554@qq.com

通訊作者:耿端陽,男,1969年生,陜西澄城人,博士,教授,博導;研究方向為新型農業機械裝備。E-mail: dygxt@sdut.edu.cn

Obstacle detection in complex farmland environment based on improved YOLOv5

Yang Haolin, Wang Qihuan, Li Huabiao, Geng Duanyang, Wu Jida, Yao Yanchuan

(College of Agricultural Engineering and Food Science, Shandong University of Technology, Zibo, 255000, China)

Abstract: In order to realize the rapid detection of obstacles in the process of autonomous navigation of agricultural robots in complex field environments, an obstacle detection method based on improved YOLOv5 in complex field environments is proposed. The farmland obstacle data set containing a total of 6766 images of agricultural machinery, human and sheep objects are established. The optimal prior anchor box size is generated by the k-means clustering algorithm. The CBAM convolution block attention module is introduced to suppress the interference of the complex environment around the target obstacle and enhance the target saliency. A detection head is added to connect the backbone features across levels, enhance the ability to express multi-scale features, and alleviate the negative impact of the variance of the scale of the labeled objects. The Ghost convolution is used to replace the ordinary convolution in the Neck layer to reduce the model parameters and decrease the model complexity. Compared with the YOLOv5s benchmark model, the improved model has increased the detection accuracy by 2.3%, the recall rate by 3.1%, the accuracy rate by 1.9%, and has decreased the reference number by about 7%. It provides technical reference for the research of navigation and obstacle avoidance during autonomous operation of unmanned agricultural machinery.

Keywords: agricultural robot; farmland obstacle detection; improved YOLOv5; image processing; machine vision

0 引言

近年來,隨著自動駕駛和智能化作業的廣泛應用,在農業生產領域,利用無人農業機械,自主完成枯燥繁瑣的田間作業,已經成為當前解決農村勞動力短缺和用工成本上升的主要技術手段,而在自主作業過程中所面臨的環境感知、決策與邏輯判斷等技術,是無人農機必須面對的問題。在環境感知方面,當無人農機作業時,在作業路徑上,會不可避免地出現多種障礙物,如樹木、房屋、電線桿、動物和其他農機等[1]。傳統的無人農機,只對周圍的障礙物進行定位,而不對障礙物進行識別檢測分類,這不利于對不同類別障礙物危險等級的劃分、避障決策的制定和執行,如在面對活體障礙物時,很難準確預測其行動軌跡,需要立即停車,避免造成危險[2];而在面對樹木、電線桿等靜止物體時,基本不要高危險等級的制動方案,只需選擇更加有效的避障策略即可。因此,開展基于機器視覺的障礙物檢測和識別對農業機器人或者無人農機開發具有重要的意義[3]

針對農田障礙物,傳統的基于手工特征進行的目標檢測存在檢測精度低、易受環境干擾和泛化能力不強等缺點[4]。而基于深度學習的目標檢測則有效地解決了這些問題,成為當前計算機視覺領域的重要研究方向。基于深度學習的目標檢測算法分為兩類:一類是兩階段(two-stage)目標檢測算法,包括R-CNN、Fast R-CNN、Faster R-CNN等[5-7]。薛金林等[1]通過改進Faster R-CNN目標檢測算法來識別農田中的障礙物,有效提高了農田障礙物的識別速度,減少了誤檢和漏檢,滿足拖拉機低速作業的實時檢測需求。夏成楷[8]設計了一種改進的Faster R-CNN檢測模型,通過對特征提取網絡和RPN (Region Proposal Network)進行改進,提高了農田障礙物檢測的準確率和檢測速度。另一類是單階段(one-stage)目標檢測算法,包括SSD、Retina Net、YOLO系列等[9-13],該類算法具有結構簡單、計算高效、實時性好等優點[14, 15]。劉慧等[16]通過對SSD進行改進,解決了果園復雜環境障礙物信息難以準確檢測出的問題。魏建勝等[17]在YOLOv3的基礎上,使用Darknet53作為特征提取網絡,加入殘差模塊解決梯度問題,實現了農田中障礙物準確檢測。李文濤等[18]在YOLOv3-tiny檢測框架上混合使用注意力機制,通過強化檢測目標提高了障礙物識別過程的抗背景干擾能力,且在占用內存和檢測速度方面較SSD、YOLOv3等算法具有明顯優勢。YOLOv5作為YOLO系列算法的代表,相較于YOLOv3、YOLOv4來說,在檢測精度和實時性方面都有了較大的提升[19]

針對非結構農田環境下檢測目標障礙物存在作物遮擋、光線影響、自然背景干擾[20]以及障礙物與周圍作物相似造成傳統算法檢測準確率有待提高的問題,本文提出一種改進YOLOv5田間障礙物檢測方法,即建立農田障礙物目標檢測數據集,通過k-means聚類算法[21]匹配最佳先驗錨框尺寸;針對目標障礙物在復雜背景下難以檢測的問題,在YOLOv5檢測模型的基礎上引入卷積塊注意模塊(Convolutional Block Attention Module,CBAM)[22],加強對檢測目標的關注度,增強目標障礙物在復雜環境中的顯著度,進而提高網絡的檢測精度;增加一個檢測頭,跨層級融合多尺度特征;引入Ghost卷積[23],替換Neck層中的卷積操作,減少增加檢測頭以及引入注意力機制后對檢測速度的影響,降低模型復雜度,提高網絡的檢測速度。

1 YOLOv5目標檢測算法原理

YOLOv5是YOLO系列中最新算法,屬于單階段目標檢測模型,是直接對網絡進行端到端的訓練,主要包含四部分:輸入端、Backbone、Neck、Head。其中輸入端是圖像預處理階段,主要由Mosaic數據增強、自適應錨框計算和自適應圖片縮放三部分組成,最終將輸入樣本圖片調整為640×640;Backbone層中,最新v6.0版本將Conv標準卷積層替換v5.x中的Focus模塊,減少模型參數量,提升速度和精度,便于導出其他框架,還包含跨階段局部網絡(Cross Stage Partial Network, CSP)和快速空間金字塔池化(Spatial Pyramid Pooling-Fast, SPPF)三部分;Neck層采用了FPN+PAN特征金字塔結構,其中FPN用來增強語義信息,PAN用來增強定位信息,兩者互補,加強網絡特征的融合能力;在Head層中采用GIOU_Loss(Generalized Intersection over Union Loss)做Bounding box的損失函數,用來估算檢測目標矩形框的識別損失。網絡結構如圖1所示。

2 改進YOLOv5的農田障礙物檢測方法

本研究的YOLOv5改進算法框架如圖2所示。從圖2可以看出首先將樣本劃分為訓練集和測試集,并對訓練集樣本進行數據增強,然后將所得到訓練集樣本輸入到算法檢測模型進行訓練,以得到檢測算法的訓練權重,最后使用得到的訓練權重在測試集上進行測試驗證。

2.1 k-means聚類

YOLOv5算法是基于錨框的目標檢測算法,原算法中先驗錨框參數是對COCO數據集使用k-means算法聚類生成,如果基于原始設定anchor參數進行訓練,會對識別精度和定位精度產生影響。

k-means算法是在數據集所有的邊界框中挑選k個樣本作為簇的中心,針對數據集中的每個樣本計算它到k個簇中心的距離并將樣本劃分到它最近的簇中,然后對每個簇中所有樣本的均值作為簇的中心,然后求的新的簇心,循環該過程到簇心不發生變化或樣本數不發生變化為止,最終篩選出k個簇中心。在YOLOv5中使用的k-means算法,是基于歐氏距離(Euclidean Distance)作為樣本與樣本之間的距離進行聚類。然而歐氏距離只考慮了樣本距離,不考慮長寬比和覆蓋面積,容易導致適應度(Fitness)變差,所以,本文將在標準k-means算法的基礎上,使用d(bboxes,anchors)作為樣本之間的距離進行聚類,d(bboxes,anchors)的計算公式如式(1)所示。

d(bboxes,anchors)=1-IoU(bboxes,anchors)(1)

式中:d(bboxes,anchors)——當前錨框到聚類簇中心框的距離;

IoU(bboxes,anchors)——當前錨框和聚類簇中心框的交并比。

IoU的取值范圍為0~1,兩個bboxes重合程度越高,IoU值就越大,1-IoU就越趨近于0,d(bboxes,anchors)越小,表示兩個樣本之間的距離越近。通過試驗對比歐氏距離與d(bboxes,anchors)在本文數據集聚類差異,試驗結果如表1所示。

其中,適應度為每個真實框與聚類得到的12個錨框滿足閾值條件下寬高比的平均值,最大可能召回為滿足條件的寬高比概率。從表1可知,使用d(bboxes,anchors)作為樣本與樣本之間的距離進行聚類適應度(Fitness)比使用歐氏距離的方法提升2.12%,最大可能召回率(Best Possible Recall, BPR)提升了0.88%,最終得到適用本文數據集的12個聚類中心,并確定先驗錨框的尺寸,如表2所示。

2.2 注意力機制

由于農田環境的復雜性,周圍農作物對目標障礙物的影響,光照等自然因素的作用,可能存在對目標障礙物漏檢的現象。因此,在原模型Neck層C3模塊后,引入串聯通道注意力機制和空間注意力機制的CBAM卷積塊注意模塊,自適應的細化中間的特征映射,增加其表征能力,其結構如圖3所示。

使用最大池化(Max Pooling)和平均池化(Average Pooling)對特征圖特征進行空間信息匯總,得到兩個1×1×C的通道描述,然后將這兩個描述輸入共享多層感知機內,共享多層感知機是由一個多層感知機和一個隱藏層組成,再將得到的兩個特征元素相加,經過一個sigmoid函數激活得到通道注意力Mc(F),其計算方法如式(2)所示。

Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))

=σ(W1(W0(Fcavg))+W1(W0(Fcmax)))(2)

式中:F——輸入特征;

σ(·)——sigmoid激活函數;

MLP——多層感知機;

Fcavg——平均池化后的特征;

Fcmax——最大池化后的特征;

W1、W0——MLP的兩個對輸入共享的權重參數。

利用特征圖的空間關系生成空間注意力模塊,在加強圖像空間位置信息的同時,也彌補了通道注意力模塊所造成的一些位置信息的損失。其計算方法如式(3)所示。

Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))

=σ(f7×7([Fsavg;Fsmax]))(3)

輸入特征F首先沿著通道軸應用平均池化和最大池化操作,得到Fsavg和Fsmax,并將它們拼接起來得到一個特征描述符,再經過一個7×7的卷積層和sigmoid函數激活得到空間注意力Ms

CBAM注意力模塊加入前后對比結果如圖4所示。圖4中高顯著度區域用紅色表示,顏色越深表示顯著度越高。

從圖4可以看出,加入CBAM注意力模塊后,抑制了周圍無用的環境信息,增強了待測目標的顯著度,解決原網絡無注意力偏好的問題,使網絡能夠更多地關注有意義的信息,為后續障礙物的精確檢測奠定了基礎。

2.3 Ghost卷積

深度卷積神經網絡包含大量的卷積操作,而在實際應用中需要將模型部署在嵌入式終端,但是當具有大量參數的復雜模型加在性能較差的終端上時,會導致即使訓練后模型精度高,但在使用過程中因為計算工作量問題導致實時性較低、精度下降。因為普通卷積生成的特征圖會出現大量相似的特征,針對這一問題,引入Ghost卷積模塊,將普通卷積生成特征圖的過程分解為兩部分,首先Ghost卷積將原始圖像先通過少量卷積生成一小部分特征,然后利用廉價的線性操作生成剩下相似的特征,Ghost卷積模塊如圖5所示。

假設輸入為X,經過任意卷積層可生成n個特征映射,在Ghost卷積模塊中,輸入X首先使用普通卷積生成m個固有特征映射Y′,然后對每個固有特征映射Y′進行s次廉價的線性變換,根據式(4)得到s個Ghost特征。

yiji,j(yi′) i=1,…,m,j=1,…,s(4)

式中:y′i——Y′第i個固有特征;

Φi,j——生成第j個ghost特征線性運算。

最終得到n=m×s特征圖Y=[y11,y12,…,yms],作為Ghost卷積模塊的輸出。

本文利用Ghost卷積構建GhostC3模塊,替換原模型特征融合層中Conv和C3模塊,在保證模型精度的基礎上,大幅降低模型復雜度,減少模型參數,利于低性能設備上的部署。

2.4 Neck層改進

原YOLOv5模型中采用的是FPN+PAN的特征金字塔結構,FPN自頂向下傳達強語義特征,PAN則自底向上傳達強定位特征。通過對本文所構建數據集進行分析,發現所檢測物體尺度跨度過大。針對這一問題,在YOLOv5的基礎上增加一個預測頭來應對多尺度物體的檢測,結合其他三個預測頭,四個檢測頭輸出結構可以緩解標注對象尺度方差帶來的負面影響,有效提高多尺度目標識別的精度。同時因為神經網絡層數不斷加深,特征信息會不可避免地有所損失,并在Neck層特征融合過程中,跨層級連接主干網絡提取的特征,使預測特征層既擁有頂層的語義信息又擁有底層的位置信息,實現更高層次的特征融合,如圖2中Neck層所示。

3 試驗結果與分析

3.1 試驗環境

本試驗使用的操作系統為Ubuntu18.04,顯卡型號為NVIDIA RTX2060 6G,CPU為i7-1165G7,運行內存大小為16 G,基于Pytorch深度學習框架,編程語言為Python,使用CUDA11.3和CUDNN8.2.4對GPU進行加速, Learning_rate設為0.01,Weight_decay為0.000 5,Momentum為0.937,訓練100個Epochs。

3.2 數據集介紹

數據集可視化分析如圖6所示。

試驗中所用數據集為從多種渠道搜集、具有典型農業生產信息的圖片6 766張,包含以田間勞作農民為主的人,農業機械和羊三類目標障礙物,并通過LabelImg標注軟件對數據進行標注,按照9∶1的比例將數據集隨機劃分為訓練集和測試集,最終得到的數據集包含6 766張標注圖片,其中訓練集6 089張圖片,測試集677張圖片。

3.3 評價指標

為準確評價本文改進模型的性能,使用mAP@0.5、召回率(Recall, R)、精確率(Precision, P)、模型參數量作為本文模型的評價指標。其中mAP@0.5為IoU閾值為0.5時所有類別平均精度(Average Precision,AP)的平均值,召回率表示所有障礙物被識別出來的比率,精確率表示障礙物在所識別目標中所占比率,計算如式(5)~式(7)所示。

AP=∫10P(R)dR(5)

P=TPTP+FP(6)

R=TPTP+FN(7)

式中:TP——實際為正樣本,檢測為正樣本的數量;

FP——實際為負樣本,檢測為正樣本的數量;

FN——實際為正樣本,檢測為負樣本的數量。

3.4 結果分析

改進后的網絡模型與YOLOv5s訓練平均精度(mean Average Precision, mAP)對比結果如圖7所示。

從圖7(a)可以看出,兩種算法都具有較高的精度,其中YOLOv5改進算法mAP@0.5在迭代到第16輪時就達到0.8,最終逐漸穩定到0.9左右,而YOLOv5s算法迭代到第34輪mAP@0.5才達到0.8,最終穩定在0.87左右,YOLOv5改進算法較改進前提升了3個百分點;圖7(b)表示是在0.5~0.95區間內不同IoU閾值上的平均mAP。

表4為各子類在改進算法上的檢測結果。可以看出三類目標物的檢測精度都在90%左右。召回率和準確率都在80%以上。

為驗證改進后算法的優勢,選取主流的單階段及兩階段目標檢測模型進行比較,對比結果如表5所示。

由表5可知,YOLOv5改進算法較原來YOLOv5s算法檢測精度提高了2.3%,召回率提高3.1%,精確率提高了1.9%,時間提高3%,說明YOLOv5改進算法更適應于農田檢測環境,減少因為遮擋等而造成的漏檢問題,提高了算法的魯棒性。Faster R-CNN作為兩階段目標檢測算法的代表,精度和召回率都高于YOLO算法及SSD算法,但是精確率較低,檢測速度要遠慢于其他算法,實時性方面較差,硬件需求較高。而YOLOv5改進算法經過輕量化的改進,訓練后的網絡權重從14.4 MB減少到14.0 MB,檢測速度也得到了提升,遠快于其他目標檢測算法。通過對比試驗可以看出,YOLOv5改進算法在農田障礙物檢測方面有較高的精度和檢測速度,可以更有效地進行障礙物的識別,同時擁有更好的檢測性能。

為驗證YOLOv5改進算法各部分作用,進行消融試驗驗證,其結果如表6所示。

通過表6可以看出,在原YOLOv5s模型基礎上,通過使用k-means聚類算法修改先驗框尺寸,mAP提高了0.7%,召回率提高了0.4%,準確率提高了0.4%。說明修改后的先驗框尺寸比原始尺寸更加合理;在Neck層增加跨層級特征融合并增加一個檢測頭,雖然參數量有所增加,但是mAP提高了1.2%,召回率提高了1.3%,精確率提高了1.7%,緩解了數據集標注尺度方差大的問題,提高了檢測精度;針對由于檢測物體周圍環境影響造成的漏檢問題,在Neck層增加CBAM注意力模塊,mAP提高了0.9%,召回率提高了2.4%,降低漏檢風險;對改進后的模型進行輕量化的改進,將Neck層中所有的普通卷積替換為Ghost卷積,mAP雖稍有下降,但仍然比原YOLOv5s模型檢測精度提高了2.3%,召回率提高了3.1%,精確率提高了1.9%,參數量降低了7%左右,緩解了由于方法改進所造成參數量增加的問題,更有利于嵌入式設備的部署。總之,YOLOv5s改進算法在農田障礙物檢測上,具有更高的準確率、召回率和更少的模型參數量,更適用于農田障礙物檢測。

為進一步驗證YOLOv5改進算法的有效性,選取相似環境干擾、沙塵、逆光、遮擋等幾種典型情況進行驗證測試,測試結果如圖8所示。

從圖8可以看出,YOLOv5改進算法比YOLOv5s算法檢測出目標的置信度都有明顯的提升;其中YOLOv5s算法在逆光、遮擋和相似環境影響的情況下都出現漏檢問題,漏檢目標在圖8(a)中用藍色框標出,而YOLOv5改進算法在這些環境因素影響下,仍然檢測出目標,說明YOLOv5改進算法經過改進后減少了因為遮擋而造成的目標特征表達能力不足的問題,通過加入注意力模塊,增強了特定目標區域的表征能力,弱化背景環境的影響,有效解決了檢測過程中的漏檢問題。

4 結論

1) 提出一種基于YOLOv5的田間復雜環境障礙物檢測的改進型算法,即應用基于使用d(bboxes,anchors)作為樣本之間的距離的k-means聚類算法得到先驗錨框的最佳匹配結果,提高目標障礙物的識別精度和定位精度;引入CBAM注意力模塊,緩解由于環境影響導致目標顯著度弱造成的漏檢;通過增加檢測頭,跨層級連接主干特征,增強多尺度特征表達能力,提高檢測精度;將Neck層中的普通卷積替換為Ghost卷積,減少模型參數,提高檢測速度,有效提高了嵌入式設備部署的適應性。

2) 通過構建農田障礙物數據集,完成YOLOv5改進算法的測試驗證。結果表明:YOLOv5改進算法在田間復雜環境下,對目標障礙物的平均檢測精度達90.1%,較YOLOv5s檢測算法提升了2.3個百分點,并且降低了模型的復雜度,單張圖片的檢測速度減少到0.009 s。

參 考 文 獻

[1]薛金林, 李雨晴, 曹梓建. 基于深度學習的模糊農田圖像中的障礙物檢測技術[J]. 農業機械學報, 2022, 53(3): 234-242.

Xue Jinlin, Li Yuqing, Cao Zijian. Obstacle detection based on deep learning for blurred farmland images [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(3): 234-242.

[2]Mwalupaso G E, Wang S, Rahman S, et al. Agricultural informatization and technical efficiency in maize production in Zambia [J]. Sustainability, 2019, 11(8): 2451.

[3]何勇, 蔣浩, 方慧, 等. 車輛智能障礙物檢測方法及其農業應用研究進展[J]. 農業工程學報, 2018, 34(9): 21-32.

He Yong, Jiang Hao, Fang Hui, et al. Research progress of intelligent obstacle detection methods of vehicles and their application on agriculture [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(9): 21-32.

[4]郝帥, 楊磊, 馬旭, 等. 基于注意力機制與跨尺度特征融合的YOLOv5輸電線路故障檢測[J]. 中國電機工程學報, 2023(6): 2319-2330.

Hao Shuai, Yang Lei, Ma Xu, et al. YOLOv5 transmission line fault detection based on attention mechanism and cross-scale feature fusion [J]. Proceedings of the CSEE, 2023(6): 2319-2330.

[5]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[6]Girshick R. Fast R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.

[7]Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. Advances in Neural Information Processing Systems, 2015, 28.

[8]夏成楷. 基于深度學習的農田障礙物的識別和無人農業車輛避障策略研究[D]. 南京: 南京農業大學, 2020.

Xia Chengkai. Research on farmland obstacle recognition based on deep learning and obstacle avoidance strategies for unmanned agricultural vehicles [D]. Nanjing: Nanjing Agricultural University, 2020.

[9]Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector [C]. Computer Vision-ECCV, 2016: 14th European Conference, 2016: 21-37.

[10]Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2980-2988.

[11]Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 7263-7271.

[12]Redmon J, Farhadi A. Yolov3: An incremental improvement [J]. ArXiv preprint ArXiv: 1804.02767, 2018.

[13]Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection [J]. arXiv preprint arXiv: 2004.10934, 2020.

[14]劉俊明, 孟衛華. 基于深度學習的單階段目標檢測算法研究綜述[J]. 航空兵器, 2020, 27(3): 44-53.

Liu Junming, Meng Weihua. Review on single-stage object detection algorithm based on deep learning [J]. Aero Weaponry, 2020, 27(3): 44-53.

[15]趙奇慧, 劉艷洋, 項炎平. 基于深度學習的單階段車輛檢測算法綜述[J]. 計算機應用, 2020, 40(S2): 30-36.

Zhao Qihui, Liu Yanyang, Xiang Yanping. Review of one-stage vehicle detection algorithms based on deep learning [J]. Journal of Computer Applications, 2020, 40(S2): 30-36.

[16]劉慧, 張禮帥, 沈躍, 等. 基于改進SSD的果園行人實時檢測方法[J]. 農業機械學報, 2019, 50(4): 29-35, 101.

Liu Hui, Zhang Lishuai, Shen Yue, et al. Real-time pedestrian detection in orchard based on improved SSD [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(4): 29-35, 101.

[17]魏建勝, 潘樹國, 田光兆, 等. 農業車輛雙目視覺障礙物感知系統設計與試驗[J]. 農業工程學報, 2021, 37(9): 55-63.

Wei Jiansheng, Pan Shuguo, Tian Guangzhao, et al. Design and experiments of the binocular visual obstacle perception system for agricultural vehicles [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(9): 55-63.

[18]李文濤, 張巖, 莫錦秋, 等. 基于改進YOLOv3-tiny的田間行人與農機障礙物檢測[J]. 農業機械學報, 2020, 51(S1): 1-8, 33.

Li Wentao, Zhang Yan, Mo Jinqiu, et al. Detection of pedestrian and agricultural vehicles in field based on improved YOLOv3-tiny [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(S1): 1-8, 33.

[19]Wang J, Chen Y, Gao M, et al. Improved YOLOv5 network for real-time multi-scale traffic sign detection [J]. arXiv preprint arXiv: 2112.08782, 2021.

[20]楊娟娟, 高曉陽, 李紅嶺, 等. 基于機器視覺的無人機避障系統研究[J]. 中國農機化學報, 2020, 41(2): 155-160.

Yang Juanjuan, Gao Xiaoyang, Li Hongling, et al. Research on UAV obstacle avoidance system based on machine vision [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(2): 155-160.

[21]劉路, 潘艷娟, 陳志健, 等. 高遮擋環境下玉米植保機器人作物行間導航研究[J]. 農業機械學報, 2020, 51(10): 11-17.

Liu Lu, Pan Yanjuan, Chen Zhijian, et al. Inter-rows navigation method for corn crop protection vehicles under high occlusion environment [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(10): 11-17.

[22]Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

[23]Han K, Wang Y, Tian Q, et al. GhostNet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.

猜你喜歡
機器視覺
基于芯片點膠系統的視覺檢測技術研究
軟件導刊(2016年11期)2016-12-22 21:52:17
全自動模擬目標搜救系統的設計與實現
基于機器視覺的自動澆注機控制系統的研究
科技視界(2016年26期)2016-12-17 17:31:58
機器視覺技術的發展及其應用
科技視界(2016年25期)2016-11-25 19:53:52
視覺拉線檢測器的設計與實現
科技視界(2016年25期)2016-11-25 09:27:34
大場景三維激光掃描儀在研究生實踐教學培養中的應用
科教導刊(2016年25期)2016-11-15 17:53:37
基于機器視覺的工件鋸片缺陷檢測系統設計
軟件工程(2016年8期)2016-10-25 15:55:22
基于機器視覺技術的動態“白帶”常規檢測系統的開發
科技視界(2016年20期)2016-09-29 11:11:40
對激光切割機的改進
科技視界(2016年6期)2016-07-12 09:12:40
人工智能在高校圖書館的預期
科技視界(2016年15期)2016-06-30 19:03:30
主站蜘蛛池模板: 性色在线视频精品| 久久精品视频亚洲| 欧美a在线看| 成人午夜免费观看| 亚洲 欧美 日韩综合一区| 亚洲精品麻豆| 久久午夜夜伦鲁鲁片不卡| 亚洲第一中文字幕| 无码精品福利一区二区三区| 久久久噜噜噜| 日本欧美精品| 国产香蕉97碰碰视频VA碰碰看 | 99热亚洲精品6码| 国产女人在线观看| 国产午夜不卡| 真实国产乱子伦视频| 找国产毛片看| 亚洲人成日本在线观看| 精品三级在线| 久久综合五月| 欧美激情首页| 欧美色99| 99无码中文字幕视频| 国产清纯在线一区二区WWW| 国产一区二区三区精品欧美日韩| 日韩免费无码人妻系列| 国产在线精彩视频二区| 亚洲人成网7777777国产| 亚洲h视频在线| 亚洲 欧美 偷自乱 图片| 在线免费亚洲无码视频| 欧美精品啪啪一区二区三区| 日本欧美视频在线观看| 国产伦片中文免费观看| 综合社区亚洲熟妇p| 精品福利国产| 国产成人超碰无码| 国产欧美亚洲精品第3页在线| 亚洲国产亚洲综合在线尤物| 日韩免费成人| 亚洲中文精品人人永久免费| 亚洲国产精品无码AV| 在线日韩日本国产亚洲| 久久国产V一级毛多内射| 欧美国产日韩在线| 激情综合婷婷丁香五月尤物| 免费无码AV片在线观看国产| 手机精品福利在线观看| 日本亚洲欧美在线| 日日拍夜夜操| 91黄视频在线观看| 国产精品林美惠子在线播放| 91免费国产高清观看| 女人18毛片久久| 三级毛片在线播放| 97国产在线观看| 日韩在线视频网| 在线免费亚洲无码视频| 国产精品视频白浆免费视频| 精品自窥自偷在线看| 乱人伦99久久| 亚洲欧美综合在线观看| 色综合热无码热国产| 久爱午夜精品免费视频| 青青草欧美| 亚洲一级毛片免费观看| 日本在线亚洲| 国产00高中生在线播放| 9cao视频精品| 日韩国产综合精选| 国产极品美女在线播放| 天天综合色网| 97se亚洲综合在线韩国专区福利| 欧美午夜理伦三级在线观看 | 国产精品极品美女自在线网站| 久久久精品国产SM调教网站| 欧美精品1区2区| 久久免费视频播放| 人妻21p大胆| 欧洲av毛片| 亚洲精品va| 国产精品欧美在线观看|