999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

YOLO一Sugarcane:用于快速檢測復雜背景下 甘蔗植株的輕量級神經網絡

2025-09-25 00:00:00張志鵬張鐵異陸靜平熊靈聰袁安路韋俊
中國農機化學報 2025年10期

中圖分類號:S566.1 文獻標識碼:A 文章編號:2095-5553(2025)10-0210-08

Abstract:Inorder tosolvethe problem that theexistinglightweight networkmodel is susceptibletoomissionand misdetection due tosugarcane oclusion,an improved YOLO—Sugarcane lightweight neural network model is proposed. First,the Bneck moduleofMobileNetV3 isused toreplace the MPand ELANmodules withintheYOLOv7—tiny backbone network,whichefectivelyimproves therecallof themodel.Secondlythedepthseparableconvolutionisusedtoplacethe standard 3×3 convolution,which reduces the computational cost of the model and ensures its stable deployment on the sugarcane harvester.Finally,thelightweightchannelattentionmoduleECA(EficientChannelAtention)isintroduced, whichenablesthemodeltoefectivelycapturethefeatureassociationsbetweendiferentchannels,focusonefectivefeatures anddiscardredundant features.Theexperimentalresultsshow that comparedwith theYOLOv7—tinymodel,the floating-point operation amount of the YOLO—Sugarcane model is reduced by 29.18% ,the mAP is increased from 97.10% to 98.18% ,the recall rate is increased from 85.21% to 93.71% ,and the detection speed reaches 91 frames/s.

Keywords: sugarcane;neural networks;attention mechanism;deep learning;lightweight model

0 引言

要原材料。我國是全球第三大甘蔗生產國,僅次于巴西和印度。我國有 80% 的甘蔗種植于丘陵和山坡地區[1],這使得 95% 的甘蔗需要人工采摘[2]。相比于巴甘蔗生長于熱帶和亞熱帶地區,是全球制糖的重西 90% 以上[3]的甘蔗采用機械化收割,我國的甘蔗種植成本遠高于巴西。目前國內的甘蔗收割機主要分為切段式和整桿式[4],整桿式甘蔗收割機的收獲過程包括切梢、扶倒、根切、喂入、輸送、剝葉和集堆;切段式甘蔗收割機的收獲過程為切稍、扶倒、根切、喂人、輸送、切段、風力排雜、蔗段提升和裝載,但這些甘蔗收割機難以在丘陵山地地區充分發揮其效能。為降低我國的甘蔗生產成本,設計一款針對中國丘陵地貌的智能甘蔗收割機顯得尤其重要。

智能甘蔗收割機控制系統通常由圖像采集、視覺識別、甘蔗定位5、路徑規劃6和執行機構等多個單元組成。在這些單元中,對甘蔗植株進行實時識別檢測是整個控制系統的關鍵步驟,其識別準確度直接影響后續操作的效率和效果。隨著人工智能的不斷發展,越來越多的視覺處理技術被應用于農業機械上[8。傳統的機器視覺方法通常依賴于手工設計的特征來檢測目標物體。Kumar等9利用KNN聚類和支持向量機分類器定期識別檢測甘蔗圖像是否存在疾病感染。Rahmad等[1°先使用RGB顏色特征和Gabor紋理特征對收集到的甘蔗圖片進行特征提取,再使用支持向量機將甘蔗區分為成熟、未成熟和半成熟3類。雖然這種傳統的視覺檢測方法為目標檢測任務提供了一些解決方案,但其檢測精度容易受到背景顏色以及光照條件等影響[11]

近年來,深度學習技術已廣泛應用于農業生產的各個場景。深度學習自標檢測算法按照其檢測流程可分為單階段和雙階段。FasterR—CNN[12]和MaskR—CNN[13]為了追求更高的檢測精度使用雙階段檢測算法。相較于雙階段檢測算法,單階段目標檢測只需一次特征提取即可完成目標檢測,因此速度更快,使用計算資源更低。單階段目標檢測算法的思想最早應用于YOLOv1[14]算法,YOLOv1將輸入的原始圖像劃分為 7×7 個網絡,經過特征提取后根據各網格單獨預測其中可能包含的目標,預測每個網格時會生成2個預測框,隨后取與實際目標框最接近的預測框作為輸出。隨著YOLO的不斷發展,以及越來越多的學者不斷創新深化,為本研究提供了良好的參考和啟示。Yu等[15]以YOLOv5s為基礎,使用MobileNetV2網絡替換原主干網絡,用于復雜環境下甘蔗莖節點的實時檢測。陳文等[16為了降低算法部署對智能甘蔗收割機高算力需求,采用輕量化網絡模型MobileNet替換YOLOv4—tiny主干網絡和網絡瘦身兩種方法對YOLOv4—tiny模型進行改進。趙文博等[1對YOLOv5模型進行優化改進,首先基于BiFPN的跨層級加權連接優化頸部結構,然后用EIoU和Focalloss替代原損失函數,最后引入Ghost模塊,提高甘蔗智能切種機的莖節識別精度。李威等[18]使用YOLOv4網絡模型和支持向量機2種方法對中耕期甘蔗進行識別定位和坐標分類。Chen等[19]針對復雜環境下甘蔗莖節點快速識別問題,利用數據集增強方法模擬了不同光照條件,然后將5種不同的深度學習算法(FasterR—CNN、SSD300、RetinaNet、YOLOv3和 YOLOv4)進行比較,得出YOLOv4表現最佳。

傳統采用輕量級網絡模型的甘蔗目標識別技術主要側重于甘蔗莖節的目標檢測,忽略了對甘蔗整體的識別檢測。如果不能準確識別收割機前方的甘蔗,可能導致收割機卡死甚至損壞刀盤,還會影響甘蔗定位和路徑規劃,致使收割效率降低。為解決傳統輕量級網絡模型容易出現的漏檢和誤檢問題,本文對YOLOv7—tiny模型的Backbone和Neck部分進行改進,并引入不同的注意力機制,建立10個網絡模型進行消融實驗,以優化檢測效果。通過與主流網絡模型的測試對比,驗證改進后模型的有效性。

1 材料與方法

1.1 數據采集

數據來自廣西壯族自治區崇左市某甘蔗種植基地,獲取時間為2023年1月28—29日的9:00—11:00和15:00—17:00,用iPhone 14Pro 手機拍攝,分辨率為4032像素 ×3024 像素,保存格式為JPEG。為保證采集的圖像與甘蔗收割機的實際工況相匹配,在采集圖像時使用固定三腳架,使手機與甘蔗之間距離約為0.5m ,攝像頭高度約為 1m 。共收集3779張原始甘蔗圖片,數據采集過程如圖1所示。

圖1數據采集過程示意圖 Fig.1 Schematic diagram of the data acquisition process

1.2圖像增強與標注

為獲得性能更好的神經網絡模型,需要大量的數據集支撐。Liu等2通過消融實驗得出神經網絡模型的泛化能力和魯棒性隨著數據集的增加而提高。因此,從收集的原始甘蔗圖片中挑選1460張高清圖片,并使用Python軟件對這些圖片采用不同的數據增強方案,以擴充甘蔗數據集。

數據增強方式如圖2所示。最終獲得5239張甘蔗圖片數據集用于后續甘蔗目標識別研究。先對數據集進行預處理,將4032像素 ×3024 像素的圖像等比例縮放至1209像素 ×907 像素,以減小數據集所占內存,加快YOLO模型加載數據集的速度,縮短模型訓練時間。預處理之后,還需對圖像進行標注才能使用,所用的標注軟件為LabelImg。圖中的甘蔗標注準則為對人眼能夠識別的進行正常標注,標注名稱為sugarcane,以VOC格式導出,再將VOC格式轉換為YOLO格式。最后將數據集按8:1:1的比例隨機劃分為訓練集、驗證集和測試集。

圖2甘蔗數據集Fig. 2 Sugarcane data set

1.3 YOLO一Sugarcane構建

隨著人工智能不斷進步,YOLO也在不斷更新迭代。基于YOLOv721作為甘蔗目標檢測模型。YOLOv7模型有3個主要版本,分別為YOLOv7—tiny、YOLOv71和YOLOv7x。由于甘蔗收割機上的硬件平臺配置不高,所以選取參數量較少的YOLOv7—tiny模型作為基礎。

YOLOv7—tiny模型由Input、Backbone、Neck和Prediction組成。Input部分將數據集加載到模型并進行必要的預處理。Backbone部分由CBL模塊、MP模塊和ELAN模塊組成,通過多層卷積來獲取高級語義特征,擴大感受野,獲取上下文信息。為增強模型的感知能力,Neck部分由SPPCSPC模塊與FPN和PAN結構組成,有助于多尺度信息捕捉和更好地獲取物體的邊緣及輪廓信息。Prediction部分將傳入進來的不同尺度特征層,用CBL模塊進行通道調整,最后再用一個 1×1 的卷積層將網絡學到的特征圖映射為目標檢測的輸出,其中包括邊界框位置、置信度及類別概率。

為提高YOLOv7—tiny模型的召回率和魯棒性,降低甘蔗漏檢概率,將YOLOv7—tiny模型改進為YOLO一Sugarcane模型,整體結構如圖3所示。首先,使用MobileNetV3網絡中的Bneck模塊替換YOLOv7一tiny主干網絡中的MP模塊和ELAN模塊。然后,為減少Neck部分的參數量,使用深度可分離卷積DPconv模塊替換原有的標準 3×3 卷積,從而達到縮減參數量的目的。最后,在Backbone網絡有效特征層傳出通道添加ECA注意力機制。

圖3YOLO-Sugarcane模型Fig.3YOLO—Sugarcanemodel

1.3.1 Backbone

MobileNetV3[22]結合網絡架構搜索和NetAdapt算法,并在MobileNetV2的基礎上引入SE注意力機制和H一Swish激活函數,Bneck模塊是MobileNetV3網絡的核心模塊。在YOLO—Sugarcane模型中,使用經過優化的Bneck模塊,其工作流程如圖4所示。

圖4Bneck模塊工作流程Fig.4WorkflowofBneckmodule

Bneck是一個具有反向殘差結構的線性瓶頸模塊。首先,Bneck模塊會判斷是否執行殘差連接程序,接著,它會檢查輸入通道數是否與中間層通道數相同,如果相同,則執行圖4左側虛線框流程;如果不同,則執行圖4右側虛線框流程。在MobileNetV3網絡的運行過程中,絕大多數情況下會執行圖4右側虛線框流程。圖4右側虛線框流程:第1步是經過一個 1×1 卷積操作,以擴展特征圖的通道數。進行批歸一化,以提高模型的穩定性。根據判斷選擇使用預先定義的H—Swish激活函數,還是默認的ReLU激活函數,用來緩解梯度消失問題。ReLU激活函數和H—Swish激活函數計算如式(1)和式(2)所示。第2步是先使用深度卷積調整特征圖的尺寸,再進行批歸一化,以提高模型的泛化能力。第3步是先判斷是否使用SE注意力模塊,若不使用則直接調用PyTorch中的nn.Identity模塊進行恒等映射,然后使用與第一步相同的激活函數增強網絡的表達能力。第4步是再次使用 1×1 卷積操作,以降低特征圖的通道數,并經過批歸一化后傳出。

ReLU(x)=max(0,x)

式中: x —輸人,任意實數。

1.3.2改進Neck結構減少計算量對于YOLOv7一tiny模型的加強特征提取網絡,其參數量大多集中于Neck結構內的標準 3×3 卷積上。因此,使用深度可分離卷積模塊代替原有的標準3×3 卷積來降低模型的計算成本。深度可分離卷積23由深度卷積和逐點卷積組合而成,如圖5所示。DPConv模塊先經過深度卷積操作,使每個輸入通道都與一個獨立的 3×3 卷積核進行卷積,從而生成與輸入通道數相同數量的特征圖。隨后,經過逐點卷積操作,使用 1×1 的卷積核對深度卷積生成的特征圖進行卷積。逐點卷積的目的是引人通道之間的混合信息,將深度卷積產生的獨立通道進行組合,從而生成最終的輸出。

圖5DPConv模塊Fig.5DPConv module

如圖5所示,當輸入圖片為RGB三通道,大小為3×3 ,步長為1,輸出通道數為64,輸出特征圖尺寸為3×3 ,卷積核尺寸為 3×3 。標準卷積的參數量為 3× 3×3×64=1728 ,計算成本為 3×3×3×3×3×64= 15552。深度可分離卷積的參數量為 3×3×3+3× 64=219 ,計算成本為 3×3×3×3×3+3×3×3× 64=1971 。標準卷積的參數量和計算量約為深度可分離卷積的8倍,這使YOLO—Sugarcane模型能夠部署在性能較低的甘蔗收割機上。

1.3.3 引人注意力機制

添加注意力機制的效果不僅受到注意力機制類型的影響,還受其添加位置的影響。將YOLO—Sugarcane模型按照有效特征圖維度分為 80×80×C 40×40×c 和 20×20×c 的高、中、低3個維度,其中 c 為通道數。分別在位置1和位置2應用空間注意力機制CA、通道注意力機制 ECA[24] 和混合注意力機制CBAM,如圖6所示。首先對輸入特征圖進行自適應平均池化操作。隨后通過一維卷積層進行通道注意力加權操作,卷積核大小的選擇對不同通道之間信息交互和覆蓋程度具有重要影響,因此選擇合適的卷積核尤為關鍵。最后使用Sigmoid激活函數生成通道權重,再將原始輸入特征圖與得到的通道注意力權重進行按元素相乘,目的是加權調整輸入特征圖中每個通道的特征表示,使模型更加集中地關注圖中重要特征信息。

圖6注意力機制插入位置圖

Fig.6 Attention mechanism insertion location map

2 試驗結果及分析

2.1 試驗環境

試驗平臺是一臺運行Windows11(22H2)操作系統的臺式電腦,配備32GB的RAM和NVIDIAGeForceRTX3060Ti8G顯卡,處理器為13thGenIntel(R)Core(TM)i5—13400F2.50GHz。運行軟件主要包括python3.9.16、torchvision0.13.O、PyTorch1.12.0、OpenCV—python4.7.0.72、CUDA 11.3和cuDNN8.3.2。網絡模型訓練參數設置:YOLOv3模型和YOLOv4模型的輸人圖像大小為416像素 x 416像素,其他網絡模型的輸入圖像大小為640像素 x 640像素,訓練過程使用SGD優化器,批量大小(batchsize)為8,總迭代次數(epoch)為300,初始學習率設置為0.001,應用余弦退火算法對學習率進行動態調整,權重衰減系數為 5×10-4 ,動量為0.937。

2.2 評價指標

為評估模型的整體性能以及未來在甘蔗收割機上部署的可行性,采用精確率 P 、召回率 R 、平均精度 AP 平均精度均值 mAP,F1 分數、檢測速度FPS、參數量和浮點運算量 FLOPs 進行評估。精確率表示被模型識別為甘蔗的目標中真實為甘蔗所占比例,召回率表示所有甘蔗真例中被模型正確認識為甘蔗的目標所占比例,計算如式(3)和式(4)所示。 F1 分數能夠綜合評估分類器性能,F1 分數越高,模型預測性能越好,計算如式(5)所示。

式中: TP 標注為甘蔗的目標被正確檢測為甘蔗;

FP 一 -未標注的背景被錯誤檢測為甘蔗;

FN———標注為甘蔗的目標被錯誤檢測為背景。

AP 表示目標檢測中每個類別的平均精度, mAP 表示模型對多類目標識別的平均精度 AP 的平均值,計算方法如式(6)和式(7)所示。本文只檢測甘蔗,所以n=1 ,模型對甘蔗的平均精度等于模型的平均精度均值, mAP 值越高,模型性能越好。 FLOPs 表示浮點運算量, FLOPs 越高意味著模型越復雜。參數量是神經網絡模型中的權重和偏差。檢測速度 FPS 代表模型每秒處理的圖像數量,其值越大代表模型實時性越好。

式中: n —目標檢測中目標類別數量;AP(i) 一第 i 類的 AP 值。

2.3 消融實驗

1)為測試不同輕量化網絡在YOLOv7—tiny模型中的性能,分別建立MobileNetV1、MobileNetV2、MobileNetV3和GhostNet的YOLO網絡,不同主干特征提取網絡的性能如表1所示。

表1輕量級網絡性能比較 Tab.1 Lightweight network performance comparison

由表1可知,將YOLOv7—tiny模型的Backbone網絡替換為MobileNetV3后,僅以犧牲 1.17% 的精確率為代價,使模型的mAP和召回率分別提高0.89%.6.53% 。與此同時,模型的浮點運算量下降26. 18% 。這意味著改進后的模型在實際應用能力上要優于YOLOv7—tiny模型。此外,與其他輕量級網絡相比,MobileNetV3具有最高的 mAP 、召回率和精確率,是替換原Backbone的最佳選擇。

2)為檢驗不同注意力機制在YOLOv7—tiny—MobileNetV3模型中的性能。在圖6位置1,主干特征提取網絡的有效特征層前傳到Neck結構時,分別應用3種不同注意力機制,目的是使模型更有效地捕捉到小目標特征,從而提高對小目標的檢測能力。由表2可知,模型1~模型3中,模型1的 mAP 是三者中最高的,召回率相比于模型2和模型3分別提高 0.41%.1.21% ,精確率相比于最高的模型3下降 0.6% ,而模型1實時檢測速度卻比模型3提升 10.98% ,是3個模型中實時性能最好的。因此,模型1被認為是綜合性能最佳的模型。

表2不同注意力機制模型Tab.2Models of different attention mechanisms

為了進一步提高模型1的精確率,在Neck結構前傳到預測部分位置2,再次引入3種不同的注意力機制,如表2中的模型4、模型5和模型6所示。然而,在位置2再次使用注意力機制,性能并沒有進一步提高,反而模型實時檢測速度在不斷下降。因此,最終選用YOLOv7—tiny—MobileNetV3—ECA作為最終的模型輸出,本文稱為 YOLO—Sugarcane 模型。相比于 YOLOv7—tiny—MobileNetV3 模型,YOLOv7—tiny—MobileNetV3—ECA模型的 mAP 和召回率分別提升 0.19%1.97%

2.4 YOLO一Sugarcane 模型與其他深度學習模型對比

圖7為YOLOv7—tiny模型和YOLO—Sugarcane模型的 PR 曲線,這些 PR 曲線代表了模型在 IoU 閾值為0.5時的甘蔗檢測性能。 PR 曲線內的封閉區域表示模型的平均精度,其計算如式(6)所示。由圖7可知,YOLO—Sugarcane模型的PR曲線完全包裹住YOLOv7—tiny模型的曲線,這表明YOLO—Sugarcane模型具有更高的 mAP 。由表3可知,YOLO—Sugarcane模型的 mAP 較YOLOv7—tiny模型提高1.08% 。不僅如此,與YOLOv7—tiny模型相比,YOLO—Sugarcane模型在召回率和 F1 分數上分別提高 8.5%.3.93% ,而模型的浮點運算量下降 29.18% 。

表3不同網絡模型性能參數

Tab.3Performance parameters of different network models

如表3所示,與其他主流網絡模型相比,YOLO—Sugarcane模型具有最少的FLOPs和參數量。這表明該網絡模型的復雜度最低,更適于在硬件性能較低的甘蔗收割機上進行部署。同時,YOLO—Sugarcane模型也具備最高的召回率 ??F1 分數和 mAP 。雖然精確率相比于最高的YOLOv5s模型低 0.61% ,但是YOLO一Sugarcane模型的 mAP 和召回率分別比YOLOv5s模型高 1.65%.8.46% 。YOLO—Sugarcane模型在各項性能參數上均保持最高水準,并且具有91幀/s的實時檢測速度。通過全面對比分析,YOLO—Sugarcane模型在綜合檢測性能上優于目前主流的檢測模型,更適合在復雜環境中檢測甘蔗物體。

2.5復雜檢測場景下模型計數效果對比

為檢驗模型在實際應用中的檢測性能,從甘蔗數據集中隨機挑選40張具有不同遮擋程度的甘蔗圖片進行驗證。這些圖片共標記145根甘蔗物體。如圖8所示,綠色比例越多,表示模型的檢測性能越好。其中,YOLO—Sugarcane模型的檢測效果最佳,共檢測出133根甘蔗物體。YOLOv5和YOLOv7版本中,隨著模型規模的增大,檢測性能也逐漸提升。YOLOv7x模型和YOLOv51模型分別檢測出132根和114根甘蔗物體。但是更大的模型也意味著需要更多的計算資源。相比于YOLOv7x模型,YOLO—Sugarcane模型的FLOPs和參數量分別下降 94.85%.91.15% ,輕量級的YOLO—Sugarcane模型不僅具備與大模型相媲美的檢測性能,還不需要太多的計算資源。此外,YOLO一Sugarcane模型擺脫了輕量級模型在復雜環境中檢測性能不穩定、容易誤檢的情況。

圖8不同網絡模型計數對比

Fig.8Comparison of different network model counts

如圖9(a)所示,當甘蔗被前方甘蔗嚴重遮擋時,YOLOv5s模型錯誤地將前方甘蔗的葉片誤認為是后方甘蔗;圖9(b)中,一根甘蔗被甘蔗葉嚴重包裹遮擋時,YOLOv7—tiny模型將甘蔗的葉片誤認為甘蔗本體。YOLO—Sugarcane模型相比于原YOLOv7—tiny模型多檢測出34根甘蔗,其性能提升主要有兩方面:一方面,改進后的YOLO—Sugarcane模型具有最高的mAP,因此輕量級的YOLO一Sugarcane模型擁有與大模型相似的魯棒性。圖9(c)中,在逆光和未聚焦的拍攝環境下,YOLOv7—tiny模型只能檢測出近處的甘蔗,而遠處受到光照影響導致拍攝虛化的甘蔗全部漏檢,但YOLO一Sugarcane模型并不會受到光照強度干擾。另一方面,YOLO—Sugarcane模型相比于YOLOv7—tiny模型在召回率上提升 8.5% ,并具備ECA注意力機制的加持,使模型面對復雜的環境時依然表現出色。圖9(d)中,當甘蔗被甘蔗葉包裹遮擋時,YOLOv7一tiny模型會出現大量漏檢情況,而YOLO一Sugarcane模型則不受影響。綜上所述,YOLO—Sugarcane模型能夠有效應對各種復雜場景下的甘蔗物體目標檢測任務。

圖9不同網絡模型的實際檢測結果 Fig.9 Actual detection results for different network models

3結論

為實現甘蔗收獲過程的機械化,必須準確且高效地識別甘蔗收割機前方的甘蔗物體,基于此,設計一種基于YOLOv7一tiny和注意力機制的卷積神經網絡模型YOLO—Sugarcane。

1)為提高模型的魯棒性,采取5種不同的數據增強方式對甘蔗數據集進行擴充。

2)為提高YOLOv7—tiny模型的召回率,共建立10個網絡模型,旨在篩選最合適的輕量級網絡主干和注意力機制類型,并確定插入位置。通過消融實驗分析研究,最終選擇將MobileNetV3網絡替換原有的主干網絡,并引入輕量級通道注意力模塊ECA。相比于YOLOv7—tiny模型,YOLO—Sugarcane模型的召回率和 F1 分數分別提升 8.5%.3.93% 。改進后的模型能夠更加聚焦于小物體和被遮擋物體所在的區域,從而提高對這些物體的識別準確度。

3)為降低模型的復雜度,通過引入輕量級MobileNetV3網絡和深度可分離卷積,使模型的浮點運算量相比于改進前降低 29.18% ,為其部署在無人甘蔗收割機上創造可能性。

參考文獻

[1]張躍彬,鄧軍,胡朝暉.“十三五\"我國蔗糖產業現狀及 “十四五\"發展趨勢[J].中國糖料,2022,44(1):71—76.

[2]Huang J,Khan M T,Perecin D,et al. Sugarcane for bioethanol production:Potential of bagasse in Chinese perspective [J].Renewable and Sustainable Energy Reviews,2020,133:110296.

[3]Da Silva MJ,O Neves L,Correa MHF,et al. Quality indexes and performance in mechanized harvesting of sugarcane at a burnt cane and green cane[J].Sugar Tech, 2021,23(3):499-507.

[4]武濤,任甲輝,劉慶庭,等.4GDZ一132型切段式甘蔗聯 合收割機研制[J].農業工程學報,2022,38(10):30—38. Wu Tao,Ren Jiahui,Liu Qingting,et al.Development of the 4GDZ-132 sugarcane chopper combine harvester[J]. Transactions of the Chinese Society of Agricultural Engineering,2022,38(10): 30—38.

[5]Tang Y,Chen M,Wang C,et al.Recognition and localization methods for vision-based fruit picking robots: A review[J].Frontiers inPlant Science,2O2O,11:510.

[6] Liu L,Wang X,Yang X,et al. Path planning techniques for mobile robots:Review and prospect [J].Expert Systems with Applications,2023,227:120254.

[7] Zhou H,Wang X,Au W,et al. Intelligent robots for fruit harvesting:Recent developments and future challenges[J]. Precision Agriculture,2022,23(5):1856-1907.

[8] Tian H,Wang T,Liu Y,et al.Computer vision technology in agricultural automation: A review [J]. Information Processing in Agriculture,202o,7(1): 1-19.

[9]Kumar S,Mishra S,Khanna P,et al. Precision sugarcane monitoring using SVM classifier [J].Procedia Computer Science,2017,122:881-887.

[10]Rahmad C,Rahutomo F,Gustalika M A,et al. Identification of sugarcane maturity scale based on RGB, gabor feature extraction and support vector machine [J]. IOPConferenceSeries:MaterialsScienceand Engineering. IOP Publishing,2018,434(1):012065.

[11]Yu L,Xiong J,Fang X,et al.A litchi fruit recognition method ina naturalenvironment using RGB-D images[J].Biosystems Engineering,2021,204:50-63.

[12] Zhang Y,Xiao D,Liu Y,et al.An agorithm for automatic identification of multiple developmental stages of rice spikes based on improved Faster R—CNN[J].The Crop Journal,2022,10(5): 1323—1333.

[13]López-BarriosJD,EscobedoCabelloJA, G6mez-Espinosa A,et al.Green sweet pepper fruit and peduncledetectionusingMaskR—CNN in greenhouses [J]. Applied Sciences,2023,13(10):6296.

[14]Redmon J,Divvala S,GirshickR,et al.You only look once:Unified,real-timeobjectdetection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:779—788.

[15]YuK,TangG,ChenW,et al.MobileNet—YOLOv5s: An improved lightweight method for real-time detection of sugarcane stem nodes in complex natural environments [J]. IEEE Access,2023,11:104070—104083.

[16]陳文,余康,李巖舟,等.基于網絡瘦身算法的 YOLOv4—tiny的甘蔗莖節識別[J].中國農機化學報, 2023,44(2):172—181. Chen Wen,Yu Kang,LiYanzhou,et al.Recognition of sugarcane stem node based on network slimming algorithm and YOLOv4—tiny algorithm [J]. Journal of Chinese AgriculturalMechanization,2023,44(2):172—181.

[17]趙文博,周德強,鄧干然,等.基于改進YOLOv5的甘蔗 莖節識別方法[J].華中農業大學學報,2023,42(1): 268-276.

[18]李威,李尚平,潘家楓,等.基于機器學習的中耕期甘蔗幼苗 識別定位[J].中國農機化學報,2021,42(11):130—137. Li Wei,Li Shangping,Pan Jiafeng,et al. Recognition and location of sugarcane seedlings in intertillage period based on machine learning[J].Journal of Chinese Agricultural Mechanization,2021,42(11):130—137.

[19]Chen W,Ju C,Li Y,et al.Sugarcane stem node recognition in field by deep learning combining data expansion[J]. Applied Sciences,2021,11(18): 8663.

[20] Liu G,Nouaze J C,Touko Mbouembe P L,et al. YOLO—Tomato:A robust algorithm for tomato detection based onYOLOv3[J].Sensors,2020,20(7):2145.

[21]Wang C,Bochkovskiy A,Liao H. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]. Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition,2023: 7464—7475.

[22]Howard A,Sandler M,Chu G,et al.Searching for MobileNetV3 [C]. Proceedings:of the IEEE/CVF International Conference on Computer Vision, 2019: 1314—1324.

[23]Howard A G,Zhu M,Chen B,et al.MobileNets: Efficient convolutional neural networks for mobile vision applications[J]. arXiv preprint arXiv: 1704.O4861,2017.

[24]Wang Q,Wu B,Zhu P,et al. ECA—Net:Efficient channelattentionfordeepconvolutionalneural networks [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 11534—11542.

主站蜘蛛池模板: 福利国产微拍广场一区视频在线| 欧美区一区| 国产丝袜91| 亚洲欧美国产五月天综合| 91日本在线观看亚洲精品| 免费aa毛片| 日韩毛片视频| 热re99久久精品国99热| 亚洲一区二区约美女探花| 久久一本精品久久久ー99| 91麻豆国产精品91久久久| 996免费视频国产在线播放| 欧美成人午夜视频免看| 欧美va亚洲va香蕉在线| 国产精品成人AⅤ在线一二三四| 欧美国产视频| 亚洲精品无码AⅤ片青青在线观看| 欧美在线观看不卡| 色综合久久88| 国内毛片视频| 国产区网址| www.91在线播放| 99国产精品免费观看视频| 无码精品国产dvd在线观看9久| 精品一区国产精品| 毛片a级毛片免费观看免下载| 干中文字幕| Aⅴ无码专区在线观看| 精品国产成人三级在线观看| 国产精品女同一区三区五区| 喷潮白浆直流在线播放| 亚洲色图欧美在线| jizz国产视频| 国产亚洲精久久久久久久91| 亚洲无码电影| 国产精品偷伦视频免费观看国产| 欧美成人在线免费| 国产亚洲高清视频| 亚洲日本www| 91成人免费观看在线观看| 久久亚洲美女精品国产精品| 女人毛片a级大学毛片免费| 久久不卡国产精品无码| 亚洲精品国产成人7777| 日本道中文字幕久久一区| 一级高清毛片免费a级高清毛片| 亚洲a级在线观看| 国产手机在线ΑⅤ片无码观看| 国产香蕉在线| 国产黑丝视频在线观看| 中文字幕免费视频| 亚洲美女一区| 国产精品欧美日本韩免费一区二区三区不卡 | 久久综合亚洲鲁鲁九月天| 久久婷婷综合色一区二区| 污视频日本| 57pao国产成视频免费播放| 国产综合在线观看视频| 波多野结衣中文字幕一区二区| 波多野结衣一区二区三区88| 99成人在线观看| 日韩欧美一区在线观看| 啪啪免费视频一区二区| 女人毛片a级大学毛片免费| 18禁色诱爆乳网站| 欧美综合在线观看| 特级aaaaaaaaa毛片免费视频| 666精品国产精品亚洲| 毛片在线播放a| 激情影院内射美女| 国产成人精品视频一区视频二区| 毛片久久久| 国产99在线| 在线99视频| 成人国产精品视频频| 精品自窥自偷在线看| 久久综合结合久久狠狠狠97色| 久久婷婷五月综合97色| 无码国内精品人妻少妇蜜桃视频| 国产精品一区不卡| 国产欧美在线观看一区| 国产美女精品人人做人人爽|