黃書琴 黃福樂 羅柳茗 覃鋒 李巖舟



摘要:為提高自然環境下蔗田雜草檢測準確率,提出一種基于改進的Faster R-CNN的蔗田雜草檢測算法。在特征提取階段使用BFP模塊均衡各級語義特征來加強對雜草圖像深層特征的提?。徊捎肈LA策略動態調整網絡的標簽預測閾值,解決訓練前期正樣本稀缺問題;使用Soft-NMS對模型進行優化,通過改進原模型的NMS減少單類目標漏檢并提高目標定位精度。試驗結果表明,優化后算法的mAP值達81.3%,與原Faster R-CNN算法相比,精度提升6.2%,平均每幅圖像測試耗時0.132 s,且在AP50、APs、APl指標上分別有6.5%、4.7%、5.1%的提高。改進后的算法具有較高的檢測精度和穩定性,可以滿足復雜自然環境下的蔗田雜草檢測需求。
關鍵詞:雜草檢測;Faster R-CNN;均衡特征金字塔;動態分配標簽策略;軟非極大抑制
中圖分類號:TP391
文獻標識碼:A
文章編號:2095-5553 (2024) 06-0208-08
收稿日期:2022年11月14日
修回日期:2023年2月1日
*基金項目:國家重點研發計劃項目(2022YFD2301100);廣西科技重大專項經費資助(桂科AA22117007,桂科AA22117005)
第一作者:黃書琴,女,1997年生,廣西桂林人,碩士;研究方向為計算機視覺和圖像處理。E-mail:2877707484@qq.com
通訊作者:李巖舟,男,1979年生,廣西桂林人,博士,副教授;研究方向為農業機械、傳感器應用與智能控制。E-mail:lyz197916@126.com
Research on weed detection algorithm in sugarcane field based on Faster R-CNN
Huang Shuqin1, 2, Huang Fule1, Luo Liuming1, Qin Feng1, 3, Li Yanzhou1
(1. School of Mechanical Engineering, Guangxi University, Nanning, 530004, China; 2. School of Intelligent
Manufacturing, Nanning University, Nanning, 530200, China; 3. Agricultural Genomics Institute at Shenzhen,
Chinese Academy of Agricultural Sciences, Shenzhen Branch, Guangdong Laboratory of Lingnan Modern
Agriculture, Shenzhen, 518120, China)
Abstract: In order to improve the accuracy of weed recognition in cane fields under natural environment, a weed detection algorithm based on improved Faster Region-based Convolutional Neural Network (Faster R-CNN) was proposed. Firstly, in the feature extraction stage, the balanced feature pyramid module was used to balance the semantic features at all levels to strengthen the extraction of deep features of weed images. Secondly, the dynamic label assignment was used to dynamically adjust the label prediction threshold of the network to solve the problem of scarcity of positive samples in the early stage of training. Finally, soft non-maximum suppression was used to optimize the model, which was able to reduce the missed detection of single-type targets and improve the positioning accuracy of targets by improving the non-maximum suppression of the original model.The experimental results showed that the mean average precision of the optimized algorithm reached 81.3%, which compared with the original Faster R-CNN algorithm, the precision was improved by 6.2%, and the average test time for each image was 0.132 s. There were 6.5%, 4.7%, and 5.1% improvements in the average precision of the intersection over union of 0.5 and the across scale of small and medium, respectively. The proposed algorithm has high detection precision and stability, which can meet the needs of sugarcane field weed detection in complex natural environment.
Keywords: weeds detection; Faster R-CNN; balanced feature pyramid; dynamic label assignment; soft non-maximum suppression
0 引言
甘蔗是我國最主要的糖料作物,其蔗糖產量占我國食糖總產量的90%以上,而廣西作為全國最大的蔗糖生產省(區),其糖料蔗種植面積及食糖產量占全國總產量的60%以上[1, 2]。在甘蔗的生產種植中,田間雜草嚴重影響了糖料蔗生長和食糖產量,給食糖生產造成了一定程度的經濟損失,所以及時有效地去除雜草是保證農作物高產穩產的一項重要措施。
準確高效地識別田間雜草目標不僅有助于自動化除草作業和自動水肥變量噴施,還能節約成本并減少傳統除草方式造成的農藥殘留[3]。因此,將深度學習應用到田間雜草識別具有重要意義[4, 5]。傳統的田間雜草檢測主要是從作物和雜草之間的顏色、形狀、紋理等特征的差異性著手,進行圖像特征的手動提取,特征提取單一且效率較低,對于復雜背景環境下的雜草識別檢測泛化性和實用性均不高[6-8]。隨著機器視覺的發展,深度學習逐步應用于農業,其不僅在作物種節識別檢測、作物生長狀態監測、田間作物病蟲害檢測等領域取得較好的效果,還為田間雜草識別的研究提供了新思路[9-17]。孟慶寬等[18]通過構建輕量特征提取單元替代原SSD模型中相應模塊,提高了自然環境下作物與雜草的識別精度;李春明等[19]通過在網絡池化層后添加生成對抗網絡(GAN)噪聲層的方法來解決當前除草機器人雜草識別實時性差的問題;孫鵬飛[20]采用Mask R-CNN算法,對自然光照下的白菜幼苗和雜草幼苗進行識別,并取得良好效果。以上研究的開展為優化深度學習模型進一步提高田間雜草檢測精度提供了參考和依據。
由于蔗田雜草與其他作物田間雜草種類稍有不同,且甘蔗葉片交錯重疊對雜草識別造成一定干擾,經過實驗室測試,現有方法對于蔗田雜草識別效果并不理想。目前尚未有CNN(Convolutional Neural Network)網絡用于蔗田田間雜草識別的相關報導。本文針對蔗田雜草種類較多、分布狀態較為復雜,自然環境背景下雜草識別率低、魯棒性差等問題,以蔗田雜草爆發的兩個時期的6種雜草為研究對象,提出一種優化的Faster R-CNN模型以提高檢測蔗田雜草目標的精度。
1 材料與方法
1.1 制作數據集
桂糖42號是廣西農業科學院甘蔗研究所選育的甘蔗品種,由新臺糖22號×桂糖92-66雜交組合選育而成[21]。因其相比于新臺糖22號獲得了約10%的增產和約14%含糖量的提高,而在廣西區內廣泛種植,成為廣西主要糖蔗品種,試驗主要以種植有桂糖42號甘蔗的甘蔗地常見雜草為研究對象。
1.1.1 圖像采集
根據調查,廣西甘蔗地中雜草主要爆發于甘蔗幼苗期6~7葉齡以及伸長期封行前高1.2~1.5m兩個時期,本文主要以這兩個時期的雜草為研究對象。由于甘蔗地常見雜草多達二十幾種,考慮到時間以及硬件設備的負載問題,該研究選取其中生長數量較多且危害最為嚴重的6種作為主要研究對象,它們分別是野辣子、木薯、馬唐、牽牛、勝紅薊、小飛蓬。試驗數據采集于廣西亞熱帶農科新城同一宿根甘蔗種植地,采集時間為2021年4月中下旬甘蔗幼苗期以及7月中旬甘蔗伸長期封行前。甘蔗幼苗期植株較?。▓D1(a)),有較多地面暴露在陽光下,給雜草生長提供了條件,可在甘蔗田間采集到以上6種雜草圖片,如圖2所示。而甘蔗伸長期植株高、葉片多(圖1(b)),遮擋了大部分陽光,在很大程度上抑制了雜草的生長,但牽牛等藤蔓型雜草卻并不受影響,所以在該階段,可在甘蔗田間采集牽牛1種雜草圖片(為了方便區分,下文以牽牛-2表示),如圖3所示。
結合除草設備通常在甘蔗行間作業的特點,取行間距約1.5m的一半,水平方向距離甘蔗行約0.75m處作為數據采集位置。在拍攝時,根據雜草形態不同,可采用豎向(人像模式)或橫向(風景模式)進行拍攝,并使雜草植株位于相機取景框之內。相機鏡頭過高會使設備重心升高,不利于壟間行走作業,鏡頭過低不利于雜草植株采集的完整性,故鏡頭水平位置應低于1m,略高于幼苗期甘蔗(約0.4~0.6m),故取0.7~0.8m作為相機鏡頭水平高度。拍攝角度與水平方向向下夾角約為0°、45°和90°,拍攝開始前鎖定自動變焦開關(禁止自動調焦)??紤]到樣本的多樣性,通過相機共采集了不同光照條件(陰天、晴天),不同拍攝角度下的蔗田雜草圖片2165張,剔除模糊圖片,共保留858張清晰圖片。各種雜草的圖片數量如表1所示。
1.1.2 圖像預處理
本次試驗采集并有使用價值的甘蔗雜草圖像共858張,為了訓練后續模型以及減少訓練所占用的內存和顯存,需要將圖像分辨率為4160pixel×3120pixel的圖像進行壓縮處理,分辨率降至768pixel×576pixel。使用Labelme工具按照COCO數據集格式進行數據標注,在標注數據時,由于牽牛類雜草為藤蔓纏繞型雜草,若以整株雜草作為一個標注對象,其包括的背景信息過多,不利于模型訓練,所以除牽牛和牽牛-2使用葉片作為標注對象,其他種類雜草均以單棵植株作為標注對象。數據標注完成后,將全部標注圖片按照4∶1的比例劃分為訓練集和測試集,并且由于識別雜草為7種6類且圖像數量不同,各種雜草按圖像總數所占比例劃分訓練集和測試集。各數據集的圖片數如表2所示。
為了實現圖像數據增強,以增加樣本的多樣性,本文對標注后的圖像進行隨機水平翻轉、隨機垂直翻轉、隨機亮度、隨機飽和度、高斯模糊5種處理操作。經過圖像數據增強,數據集由858張擴充到5148張,其中訓練集由772張圖像擴充為4116張圖像,測試集由86張圖像擴充到1032張圖像。
1.2 試驗方法
蔗田雜草的自動化防除的基礎是雜草目標的識別檢測,即包括雜草類別的確認和雜草目標位置的鎖定,而二階段的Faster R-CNN算法不僅能滿足以上需求,而且具有優良的性能以及較好的通用性,故本試驗基于Faster R-CNN模型進行蔗田雜草目標檢測算法的優化。
1.2.1 Faster R-CNN基本原理
Faster R-CNN是由Ren等[22]通過對R-CNN和Fast R-CNN模型的分析和優化從而提出來的目標檢測網絡模型,該模型較之前的深度卷積模型在訓練速度上有較大提升。本文選用Faster R-CNN作為蔗田雜草識別檢測的基礎框架,網絡結構如圖4所示。
由圖4可以看出蔗田雜草圖像在模型中訓練的全過程。蔗田雜草圖像首先經過骨干網絡(Backbone)中的特征提取網絡進行特征提取,再由特征金字塔網絡(Feature Pyra-mid Network,FPN)進行特征融合得到雜草特征圖。接著將生成的雜草特征圖喂入RPN(Region Proposal Network)網絡中,進行雜草目標候選框的選取,該網絡替換原有的SS(Selective Search)方法,有效降低提取候選框所需要的時間成本。將雜草目標候選框與特征圖中對應位置的雜草目標選取出來,得到帶有候選框的雜草特征圖,輸入到ROI Pooling層,再利用最大池化將特征圖調整為固定大小。最后輸入到FC(Fully Connected)層,經過分類器進行雜草分類以及位置定位。
1.2.2 優化方法
本研究檢測識別的目標為蔗田雜草,類別較多,且樣本均采集于自然環境狀態下,背景復雜多樣,多存在甘蔗植株、甘蔗秸稈以及其他種類雜草,為了進一步提高模型的檢測能力,本研究對原始模型進行優化改進。
1) 平衡特征金字塔(Balanced Feature Pyramid,BFP)[23]。為了進一步提高模型的特征提取能力,獲得更多信息的雜草特征圖,采用特征層平衡策略。不同于傳統的橫向融合多級特征的方法,本試驗采用按同一深度融合來均衡各層級語義達到增強多級特征的方法。雜草圖像經過骨干網絡的下采樣,得到編號為C2、C3、C4、C5的多層級特征映射圖,各層特征映射圖為Wn×Hn×En的特征矩陣,Wn×Hn表示第n層特征映射圖的圖像信息,En代表第n層特征圖深度,使用插值和最大池化將各級特征映射圖調整至與C4尺度相同,再通過式(1)得到平衡后的語義特征。
C=1N∑nmaxn=nminCn(1)
式中:Cn——第n層特征,n=2,3,…;
N——特征總層數;
nmax——最高層數;
nmin——最低層數。
完成尺寸調整和特征融合(integrate)后,各級特征層集成并保留各自的語義信息,再通過細化提煉(Refine)特征進一步增強集成特征,最后對每層特征使用相反過程進行重新縮放,輸出為P2、P3、P4、P5,使該多層級特征映射圖與C2、C3、C4、C5大小保持一致(Identity),Pn表示特征融合后的輸出特征圖,能按照原始目標檢測流程繼續進行。優化具體結構如圖5所示。
2) 動態分配標簽策略(Dynamic Label Assignment,DLA)[24]。本次試驗使用的蔗田雜草是自采集的小數據集,為了保證訓練數據的正樣本數量,更好的訓練分類器,解決在原有網絡訓練之初設置較高的交并比(IoU)閾值往往會導致正樣本數量稀少的問題,采用動態標簽分配策略。即在訓練前期,loss值較高時,RPN無法給出高質量的目標候選框,為了保證更多的特征被模型學習,需要設置較低的IoU閾值;隨著迭代次數的增加,loss值逐漸降低,模型精度不斷提高,為了保證高質量的目標檢測,需要提高正樣本的質量來訓練高質量的分類器,則IoU閾值也應設置較高。傳統的標簽分類策略如式(2)所示。
label=1maxIoU(b,G)≥T+0maxIoU(b,G)
式中:b——候選框,表示以候選框的中心坐標、寬和高構成的1×4向量(bx,by,bw,bh);
G——雜草目標真實邊界框,表示以真實邊界框的中心坐標、寬和高構成的1×4向量(Gx,Gy,Gw,Gh);
maxIoU(b,G)——b和G的IoU最大值;
T+、T-——正負閾值,此處取值為T+=T-=0.5;
1、0、-1——正樣本、負樣本和忽略樣本。
優化后的標簽分配策略如式(3)所示。
label=1maxIoU(b,G)≥Tnow0maxIoU(b,G)
式中:Tnow——當前的IoU閾值,初始閾值設為0.4。
3) 軟非極大抑制方法(Soft Non-Maximum Suppression,Soft-NMS)。自然環境條件下的蔗田雜草通常是成片生長,而在本研究中的雜草,如牽牛和牽牛-2就存在大量密集的同類雜草重疊的情況,這就導致模型的整體檢測精度較高,但單類別雜草(如牽牛-2)檢測精度較低。為了在提高整體檢測精度的同時提高單類雜草的定位精度,本研究引入了Bodla等[25]提出的軟非極大抑制方法,該方法可以在幾乎不影響對稀疏目標的預選框檢測的同時,提高對密集同類雜草的一框一物體定位效果。用B表示目標對象周圍能檢測到的所有的候選框集合,原有NMS公式如式(4)所示。
si=siIoU(M,ci)
式中:si——B中第i個候選框包含物體可能性大小,即第i個候選框的得分,取值為(0,1];
M——最有可能包含物體的框,即當前得分最高的框,是一個1×4的向量,向量中各元素分別表示框的中心坐標、寬和高;
ci——去掉M后剩下的候選框中的第i個,是一個1×4的向量,向量中各元素分別表示框的中心坐標、寬和高;
IoU(M,ci)——M和ci的IoU值;
J——自定義閾值,此處取值為0.85。
改進后的軟非極大抑制算法如式(5)所示。
si=siIoU(M,ci) si[1-IoU(M,ci)]IoU(M,ci)≥J(5) 當與M越近的ci檢測框的IoU值越大,所受到的衰減就會越大,si值也就越小。改進后的算法與原算法不同在于,當M和ci的IoU值不小于閾值J時,不是直接把ci的得分置0,而是保留該框,減小si的值。式(5)中,為保證衰減函數的連續性,需滿足式(6)的關系,D表示框的集合。si=sie-IoU(M,ci)2σ ciD(6) 1.3 試驗條件與訓練設置 本試驗在mmdetection深度學習工具箱的基礎上實現甘蔗地雜草目標識別模型的訓練和測試,硬件配置采用16GB運行內存的Intel(R) Core(TM) i7-11800H處理器和8GB運行顯存的NVIDIA GeForce RTX 3050 Ti 顯卡,使用Windows11操作系統,pytorch1.8.1,python3.8搭建模型運行環境。除此之外,模型訓練時用ResNet50作為骨干網絡,使用ReLU激活函數,SGD優化器,權重衰減為0.0001,動量因子為0.9,初始學習率為0.0025,BatchSize設為1,max_epochs設為30,迭代次數為100000次。 2 結果與分析 2.1 優化模型訓練損失 在上述試驗條件和訓練設置下,采用優化后的模型對4116張蔗田雜草圖像進行訓練,耗時9h,模型的訓練損失曲線如圖6所示。 由圖6可以看出,優化后的Faster R-CNN模型的整體損失隨著迭代次數的增加而不斷下降,在40000次迭代后損失值降至0.096,并且在之后的訓練中損失基本穩定在0.1左右,模型基本收斂表明優化后的模型訓練效果良好。 2.2 訓練結果對比分析 為更加全面地評價分析優化后的Faster R-CNN對蔗田雜草目標識別的可靠性,采用目標檢測常用評價指標(AP,AP50,AP75,APs,APm,APl)比較三種算法對模型性能的影響,如表3所示。 從表3可以看出,在原始模型的基礎上使用BFP、DLA、Soft-NMS三種優化策略進行優化時,模型性能均得到一定提升,與原始Faster R-CNN模型相比,三種優化策略單獨使用時雜草目標檢測的平均精度AP(Average-Precision)分別提高了4.0%、2.8%、3.9%,這表明,三種優化策略均能在一定程度上促進原模型性能。而在同時使用三種優化策略,也就是本文所使用方法時,平均精度AP達到最高,比原始模型高出4.9個百分點,且在AP50、APs、APl指標上分別有6.5%、4.7%、5.1%的提高,可見優化后模型不僅提高了對中、大目標雜草的識別準確性,而且對小目標雜草的檢測精度也有一定提升。 2.3 測試結果對比分析 優化模型訓練完成后,對測試集雜草圖像進行檢測,采用平均召回率AR(Average Recall),AP和均值平均精度mAP(Mean Average Precious)作為評價指標。當IoU=0.75時,單類檢測結果如表4所示。 AR值表示正樣本的查全率,AP值表示正樣本的查準率。結果顯示,除了馬唐和牽牛-2以外,優化后模型的單類別平均召回率和平均精度都有提升,數值均能達到80%以上,且均值平均精度mAP提高了6.2%。在7種雜草中馬唐的AR值和AP值最低,結合實際情況進行分析,其主要原因可能有:一馬唐生長緊貼地面,且成傘狀展開,目標尺寸大,地面背景占比多;二蔗田存在大量其他種類雜草,大多數雜草均高于馬唐,極易造成馬唐遮擋從而未被識別;三田間背景環境復雜多樣,甘蔗秸稈較多,馬唐植株相對過小,易因遮擋而未被檢測。除此之外,牽牛-2的AR值和AP值也較低,僅高于馬唐,分析得其原因可能為:一牽牛屬藤蔓型雜草,多纏繞于甘蔗植株上,形狀位置各異,不利于檢測識別;二甘蔗伸長期時葉片比幼苗期大,甘蔗和牽牛葉片之間交錯,易造成遮擋導致牽牛的錯檢和漏檢;三甘蔗伸長期時甘蔗株間葉片交疊,或密或疏,數據采集明暗條件無法保持一致,對牽牛的檢測產生一定影響;四甘蔗伸長期蔗田環境復雜,背景為錯亂的甘蔗葉片和蔗節,不利于牽牛的檢測識別。如圖7所示,圖中黃色曲線標出了未檢測出的馬唐和牽牛-2。 除此之外,為了比較模型的實時性與應用性,采用模型訓練時間以及測試圖像平均測試時間對優化前后模型進行對比分析,結果如表5所示。 平均測試時間=測試運行時間測試的圖片總數(7) 從表5可以看出,優化后模型訓練時間略有增加,最主要的原因就是本文所用方法是基于Faster R-CNN模型的二階段目標檢測算法,其基本網絡框架沒有改變,增加了3種優化策略,模型整體框架較原模型更大,所以訓練時間增加,而平均測試時間與原模型基本持平,加之優化后模型性能更優,說明本文方法具有一定的適用性。 2.4 與其他模型的性能比較 除此之外,為了更加客觀地評價模型的性能,采用兩種經典目標檢測算法SSD、RetinaNet和優化后的模型進行對比試驗。為了保證對比試驗的有效性,3種方法均使用本文自制數據集在mmdetection開源框架進行模型的訓練和測試,學習率統一設置為0.0025,使用SGD優化器,最大迭代次數112000次。當IoU=0.5時,3種方法的P-R(Precision-Recall)曲線如圖8所示。 在P-R曲線圖中,AR反映了分類器對正樣本的覆蓋能力,AP是對P-R曲線的積分,其值越大,表示模型檢測效果越好。從圖8可以看出,與其他模型相比,本文優化后的網絡模型P-R曲線的積分值最大,說明本文方法優于前兩者,在雜草目標檢測中性能較好。 2.5 雜草目標檢測結果 為了更加直觀地看出模型優化前后在復雜背景環境下雜草目標檢測的效果之差,從測試集中隨機抽取7張圖像在相同的試驗條件下進行測試,如圖9所示。 圖9中每組對比圖中左列為原始模型的檢測結果,右列為優化后的模型檢測結果,最后一組檢測圖像是通過mosaic數據增強形成。從圖9中發現,優化后的模型相較于原始模型,降低了自然背景環境下雜草目標的漏檢率,即雜草真檢率提高,并且在一定程度上提高了總體檢測精度。 3 結論 1) 本文提出一種基于Faster R-CNN改進的蔗田雜草檢測算法。采用均衡特征金字塔增強各級語義特征,加強圖像深層特征提取;為了緩解小數據集訓練樣本不足的問題,使用動態標簽分配策略(DLA)取代傳統標簽分配方法;此外,軟非極大抑制Soft-NMS代替傳統的NMS,能在一定程度上減少自然環境下同類密集雜草的錯檢和漏檢,在優化后的模型算法在自制數據集上進行訓練和測試驗證,通過與經典目標檢測算法SSD和RetinaNet進行縱向對比試驗,以及模型優化前后檢測結果橫向對比,驗證了本文模型對于蔗田雜草識別的準確性和穩定性,同時減少了蔗田雜草錯檢和漏檢現象。 2) 改進后的Faster R-CNN模型與原模型算法相比,均值平均精度提升6.2%,mAP值達81.3%,在AP50、APs、APl指標上分別有6.5%、4.7%、5.1%的提高,滿足在復雜背景環境下的檢測需求,為自然環境下的蔗田雜草目標檢測提供了理論依據,同時也為后續蔗田自動除草機構的識別模塊研究提供了理論保障。 3) 改進后的Faster R-CNN模型平均每幅圖像測試耗時0.132s,與原模型算法平均測試時間相當,這可能是因為優化后的模型仍然屬于二階段目標檢測算法,檢測速度慢,模型框架較大,不方便小型處理器的搭載,未來可以在輕量化模型方面進一步研究,以達到實時檢測的目標。 參 考 文 獻 [1]謝金蘭, 吳建明, 黃杏, 等. 我國甘蔗新品種(系)的抗旱性研究[J]. 江蘇農業科學, 2015, 43(3): 108-112. [2]黃基杰. 甘蔗地快速識別的樣本庫建設——以廣西崇左為例[J]. 南方國土資源, 2019(4): 45-47. [3]張樂, 金秀, 傅雷揚, 等. 基于Faster R-CNN深度網絡的油菜田間雜草識別方法[J]. 激光與光電子學進展, 2020, 57(2): 304-312. Zhang Le, Jin Xiu, Fu Leiyang, et al. Recognition method for weeds in rapeseed field based on faster R-CNN deep network [J]. Laser & Optoelectronics Progress, 2020, 57(2): 304-312. [4]孫俊, 譚文軍, 武小紅, 等. 多通道深度可分離卷積模型實時識別復雜背景下甜菜與雜草[J]. 農業工程學報, 2019, 35(12): 184-190. Sun Jun, Tan Wenjun, Wu Xiaohong, et al. Real-time recognition of sugar beet and weeds in complex backgrounds using multi-channel depth-wise separable convolution model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(12): 184-190. [5]趙輝, 曹宇航, 岳有軍, 等. 基于改進DenseNet的田間雜草識別[J]. 農業工程學報, 2021, 37(18): 136-142. Zhao Hui, Cao Yuhang, Yue Youjun, et al. Field weed recognition based on improved DenseNet [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(18): 136-142. [6]毛文華, 王輝, 趙博, 等. 基于株心顏色的玉米田間雜草識別方法[J]. 農業工程學報, 2009, 25(S2): 161-164. Mao Wenhua, Wang Hui, Zhao Bo, et al. Weed detection method based the center color of corn seedling [J]. Transactions of the Chinese Society of Agricultural Engineering, 2009, 25(S2): 161-164. [7]談蓉蓉, 朱偉興. 基于圖像處理技術的雜草特征提取方法研究[J]. 傳感器與微系統, 2009, 28(2): 56-59, 65. Tan Rongrong, Zhu Weixing. Research of weed feature extraction method based on image processing technology [J]. Transducer and Microsystem Technologies, 2009, 28(2): 56-59, 65. [8]曹晶晶, 王一鳴, 毛文華, 等. 基于紋理和位置特征的麥田雜草識別方法[J]. 農業機械學報, 2007(4): 107-110. Cao Jingjing, Wang Yiming, Mao Wenhua, et al. Weed detection method in wheat field based on texture and position features [J]. Transactions of the Chinese Society for Agricultural Machinery, 2007(4): 107-110. [9]李向輝. 基于卷積神經網絡的甘蔗切種機莖節特征識別系統[D]. 南寧: 廣西民族大學, 2020. Li Xianghui. A feature recognition system for sugarcane seed cutter based on convolutional neural network [D]. Nanning: Guangxi University for Nationalities, 2020. [10]孫哲, 張春龍, 葛魯鎮, 等. 基于Faster R-CNN的田間西蘭花幼苗圖像檢測方法[J]. 農業機械學報, 2019, 50(7): 216-221. Sun Zhe, Zhang Chunlong, Ge Luzhen, et al. Image detection method for broccoli seedlings in field based on faster R-CNN [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(7): 216-221. [11]朱永寧, 周望, 楊洋, 等. 基于Faster R-CNN的枸杞開花期與果實成熟期識別技術[J]. 中國農業氣象, 2020, 41(10): 668-677. Zhu Yongning, Zhou Wang, Yang Yang, et al. Automatic identification technology of lycium barbarum flowering period and fruit ripening period based on Faster R-CNN [J]. Chinese Journal of Agro meteorology, 2020, 41(10): 668-677. [12]李就好, 林樂堅, 田凱, 等. 改進Faster R-CNN的田間苦瓜葉部病害檢測[J]. 農業工程學報, 2020, 36(12): 179-185. Li Jiuhao, Lin Lejian, Tian Kai, et al. Detection of leaf diseases of balsam pear in the field based on improved Faster R-CNN [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(12): 179-185. [13]樊湘鵬, 周建平, 許燕, 等. 基于優化Faster R-CNN的棉花苗期雜草識別與定位[J]. 農業機械學報, 2021, 52(5): 26-34. Fan Xiangpeng, Zhou Jianping, Xu Yan, et al. Identification and localization of weeds based on optimized Faster R-CNN in cotton seedling stage [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5): 26-34. [14]金小俊, 孫艷霞, 于佳琳, 等. 基于深度學習與圖像處理的蔬菜苗期雜草識別方法[J]. 吉林大學學報(工學版), 2023, 53(8): 2421-2429. Jin Xiaojun, Sun Yanxia, Yu Jialin, et al. Weed recognition in vegetable at seedling stage based on deep learning and image processing [J]. Journal of Jilin University (Engineering and Technology Edition), 2023, 53(8):2421-2429. [15]尚文卿, 齊紅波. 基于改進Faster R-CNN與遷移學習的農田雜草識別算法[J]. 中國農機化學報, 2022, 43(10): 176-182. Shang Wenqing, Qi Hongbo. Identification algorithm of field weeds based on improved Faster R-CNN and transfer learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(10): 176-182. [16]易佳昕, 張榮華, 劉長征, 等. 基于低空無人機影像和改進Faster R-CNN的棉田雜草識別方法[J]. 石河子大學學報(自然科學版), 2022, 40(4): 520-528. Yi Jiaxin, Zhang Ronghua, Liu Changzheng, et al. Weed detection method in cotton field based on low altitude UAV image and improved Faster R-CNN [J]. Journal of Shihezi University (Natural Science), 2022, 40(4): 520-528. [17]彭明霞, 夏俊芳, 彭輝. 融合FPN的Faster R-CNN復雜背景下棉田雜草高效識別方法[J]. 農業工程學報, 2019, 35(20): 202-209. Peng Mingxia, Xia Junfang, Peng Hui, et al. Efficient recognition of cotton and weed in field based on Faster R-CNN by integrating FPN [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(20): 202-209. [18]孟慶寬, 張漫, 楊曉霞, 等. 基于輕量卷積結合特征信息融合的玉米幼苗與雜草識別[J]. 農業機械學報, 2020, 51(12): 238-245, 303. Meng Qingkuan, Zhang Man, Yang Xiaoxia, et al. Recognition of maize seedling and weed based on light weight convolution and feature fusion [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(12): 238-245, 303. [19]李春明, 逯杉婷, 遠松靈, 等. 基于Faster R-CNN的除草機器人雜草識別算法[J]. 中國農機化學報, 2019, 40(12): 171-176. Li Chunming, Lu Shanting, Yuan Songling, et al. Weed identification algorithm of weeding robot based on Faster R-CNN[J]. Journal of Chinese Agricultural Mechanization, 2019, 40(12): 171-176. [20]孫騰飛. 白菜田的雜草識別研究[D]. 昆明:昆明理工大學, 2019. Sun Tengfei. Study on weed identification in cabbage field [D]. Kunming:Kunming University of Science and Technology, 2019. [21]韋保特. 甘蔗新品種桂糖42號在百色市的種植表現及高產栽培技術[J]. 現代農業科技, 2016(12): 101, 105. [22]Ren Shaoqing. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. [23]Pang J, Chen K, Shi J, et al. Libra R-CNN: Towards balanced learning for object detection [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 821-830. [24]Zhang H, Chang H, Ma B, et al. Dynamic R-CNN: Towards high quality object detection via dynamic training [C]. Computer Vision-ECCV 2020: 16th European Conference, Glasgow, 2020: 260-275. [25]Bodla N, Singh B, Chellappa R, et al. Soft-NMS-improving object detection with one line of code [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 5561-5569.