








摘要:針對現有甘蔗莖節檢測算法模型復雜度高、檢測效率低的問題,設計一種輕量化檢測網絡YOLOv5s-SG2E。首先,對YOLOv5s進行小目標網絡結構改進,刪除中、小尺度檢測頭并增加超大尺度檢測頭,以提升網絡模型對小目標的感知能力;其次,在頸部網絡中引入GhostNetV2替換C3模塊、GSConv替換標準卷積以降低模型復雜度;最后,在主干網絡末端增加通道注意力機制ECA以提高模型的學習能力,強化網絡對莖節特征的提取能力。對自建甘蔗莖節數據集進行測試,結果表明:改進模型YOLOv5s-SG2E對莖節識別精確率為96.4%、召回率為96.8%、平均精度均值mAP@0.5為98.4%,相較YOLOv5s原始模型分別提升0.6%、2.4%和1.0%;YOLOv5s-SG2E模型體積相對減少89.8%,參數量減少95.03%,計算量減少55.06%,檢測時間縮短31.6%,優于其他主流一階段目標檢測算法,可實現甘蔗莖節的高效識別檢測。
關鍵詞:甘蔗莖節識別;YOLOv5;小目標;輕量化;ECA
中圖分類號:S566.1; TP391.4
文獻標識碼:A
文章編號:2095-5553(2024)12-0224-06收稿日期:2023年6月15日
修回日期:2023年10月10日
*基金項目:國家自然科學基金項目(52165009);廣西科技重大專項項目(桂科AA22117006);廣西高校中青年教師科研基礎能力提升項目(2023KY0176)
第一作者:謝忠堅,男,1992年生,廣西賓陽人,博士,講師;研究方向為農業機械化智能裝備。E-mail:294580211@qq.com
通訊作者:文春明,男,1969年生,廣西桂林人,博士,教授;研究方向為智能控制。E-mail:2924831969@qq.com
Sugarcane node detection method based on improved YOLOv5s
Xie Zhongjian1, Liao Hengyu1, Wen Chunming1, Li Shangping1, Zhang Yaya1, Wu Weilin1, 2
(1. School of Physics and Electronic Information, Guangxi Minzu University, Nanning, 530006, China;2. Guangxi Key Laboratory of Machine Vision and Intelligent Control, Wuzhou University, Wuzhou, 543002, China)
Abstract: In order to address the challenges posed by the high model complexity and low detection efficiency of existing sugarcane node detection algorithms, a lightweight detection network YOLOv5s-SG2E was designed. Firstly, this study enhanced the network’s capability to detect small targets by refining the structure of the small target network, which involved the removal of medium and small-scale detection heads and the incorporation of super-large-scale detection headed to enhance the model’s perception of small targets. Secondly, GhostNetV2 replaced the C3 module, and GSConv replaced standard convolutions in the neck network to reduce the model’s complexity. Finally, the channel attention mechanism ECA was introduced at the end of the backbone network to enhance the model’s learning abilities and strengthen the network’s ability to extract the sugarcane node’s features. The self-made sugarcane node dataset was tested, and the experimental results showed that the YOLOv5s-SG2E model achieved a 96.4% accuracy rate for sugarcane node recognition, a 96.8% recall rate, and an average accuracy mAP@0.5 of 98.4%. These metrics represented improvements of 0.6%, 2.4% and 1.0%, respectively, over the original YOLOv5s model. Furthermore, YOLOv5s-SG2E exhibited significant reductions in model size, with an 89.8% volume reduction, a 95.03% reduction in parameters, and a 55.06% decrease in computational workload. Additionally, detection time was shortened by 31.6%. When compared to other mainstream one-stage target detection algorithms, YOLOv5s-SG2E outperforms them, which can realize the efficient identification and detection of sugarcane stem nodes.
Keywords: sugarcane node detection; YOLOv5; small target; lightweight; ECA
0 引言
甘蔗作為廣西重要經濟作物和糖料作物,2022年甘蔗種植面積達847.95 khm2,甘蔗總產量達71 165.4 kt[1]。然而甘蔗種植環節仍處于較低機械化水平,勞動強度大、人工成本高。甘蔗種植需減小頂端效應,農戶廣泛采用預切種甘蔗種植模式[2]。甘蔗預切種種植作業需先將甘蔗切成若干莖段,且每個莖段上需保證至少含一個完整莖節。因此,甘蔗莖節識別是開發預切種自動化裝備的重要技術。
近年來,以深度學習為基礎的目標檢測算法得到快速發展。其中,YOLO[3]一階段目標檢測算法歷經幾次迭代后,在識別精度和檢測速度等方面表現優異,現已廣泛地應用于農業領域,如農產品質量檢測[4, 5]、作物識別與分類[6, 7]、農作物病蟲害檢測[8, 9]等。在甘蔗莖節識別研究應用方面,國內外學者基于YOLO開展了大量研究,主流方向可分為提高網絡檢測精度和網絡輕量化。
在提高YOLO網絡檢測精度的研究中,唐玲玲[10]通過替換損失函數以及優化路徑聚合模塊來改進YOLOv4網絡,莖節識別平均精度提升0.96%;陳延祥[11]通過優化YOLOv3模型的損失函數,利用圖像糾偏與邊緣提取算法強化莖節的特征點,平均精度較基準模型提升2.6%;趙文博等[12]在YOLOv5網絡中引入Focal loss、EIoU損失函數以及采用Ghost替換頸部網絡標準卷積,莖節識別平均精度提升1.4%,但單張圖片檢測時間增加2.9 ms。以上方法有效提高甘蔗莖節的識別精度,但模型復雜、運算量龐大,對計算硬件設備要求較高,不利于甘蔗莖節實時檢測和便攜式檢測裝備開發。
在YOLO網絡輕量化研究中,Zhu等[13]利用網絡瘦身技術改進YOLOv4,并通過極性約束和RANSAC算法對SIFT特征點進行優化,模型大小減少89.1%,識別精度為94.4%。陳文等[14]基于網絡瘦身的YOLOv4-tiny網絡輕量化設計,模型大小減少2/3,識別精度為94.1%。以上方法雖有效減少網絡參數量和縮小模型體積,但甘蔗莖節識別精度普遍低于95%,相較原始模型均有所降低。
為解決上述問題,以甘蔗莖節檢測為研究對象,對YOLOv5s基線網絡進行輕量化設計。在小目標網絡結構改進的基礎上,引入GhostNetV2網絡、GSConv卷積塊以及通道注意力機制ECA,驗證改進網絡模型對甘蔗莖節的檢測效果,并與其他模型復雜度相近的一階段目標檢測算法進行比較。
1 圖像采集與數據集制作
試驗于2022年12月在廣西壯族自治區扶綏縣農科新城基地試驗田采集甘蔗樣本,人工砍收去葉后統一在廣西民族大學研究室拍攝。圖像采集設備為深度相機Intel D435i,拍攝高度為1 m。如圖1所示,最終采集到完整甘蔗圖片650張,圖像分辨率為1 920像素×1 080像素,保存為.jpg格式。采用圖片標注工具Labelimg手動標注甘蔗莖節,將甘蔗圖片標注成YOLO模型檢測所需的.txt文件格式,共標注有甘蔗莖節目標17 381個,并按照訓練集450張、測試集100張和驗證集100張來劃分數據集。
2 基于YOLOv5s的甘蔗莖節檢測算法改進
YOLOv5有四種版本(s、m、l、x),從s到x逐步擴大網絡的深度和寬度。YOLOv5s作為該系列中深度、寬度最小的模型,具有最小的模型體積和最少的參數量、計算量,故本研究采用YOLOv5s作為基準模型,并提出以下改進設計。
2.1 小目標網絡結構改進
對甘蔗莖節特征進行研究,繪制甘蔗莖節數據集標簽的寬高占比分布散點圖。如圖2所示,每個著色小方塊表示一個或多個莖節標簽在該幅甘蔗圖像中的寬高占比情況。方塊顏色的深淺程度反映甘蔗莖節標簽在寬高占比分布上的集中程度,即顏色越深,此處的莖節標簽寬高占比分布越密集。各莖節標簽的寬度占比均在整幅輸入圖片的4%以內,高度占比均在8%以內,故數據集中所有莖節標簽均屬于小目標對象。
YOLOv5s小目標檢測的特征信息大多存在于淺層主干網絡,深層主干網絡用于檢測大型目標。而主干網絡層數的加深會導致輸出特征通道數成倍增加,且網絡參數主要集中于深層主干網絡。故刪減主干網絡層數可有效減少網絡參數、提高識別速率,并不會影響莖節小目標的檢測精度。
小目標網絡結構改進的具體方法如下:在YOLOv5s網絡結構中新增一個160×160超大尺度檢測頭,通過豐富且密集的錨框來增加預測框與目標框之間的擬合程度,從而提升甘蔗莖節定位精度。因自建甘蔗莖節數據集中無中大型蔗節目標,故去除20×20小尺度檢測頭和40×40中尺度檢測頭,保留80×80大尺度檢測頭,能夠有效減少模型參數,并確保淺層網絡特征信息不丟失,提高模型對小目標檢測的效率和魯棒性。再通過上采樣和Concat操作以確保輸入到超大尺度檢測頭的特征能夠保留更多細節;刪除主干網絡尾部的兩個卷積層及C3模塊,將下采樣倍率從32倍下降至8倍;同時在頸部網絡中刪除相應卷積和下采樣分支。
最終預測錨框的寬高計算如式(1)、式(2)所示。
Bw=Pw·[2σ(Tw)2]2 (1)
Bh=Ph·[2σ(Th)2]2 (2)
式中:Bw——最終預測的錨框寬度;
Pw——預設的錨框寬度;
Tw——檢測頭寬度輸出的回歸參數;
σ——Sigmoid激活函數;
Bh——最終預測的錨框高度;
Ph——預設的錨框高度;
Th——檢測頭高度輸出的回歸參數。
通過計算,將160×160超大尺度檢測頭和80×80大尺度檢測頭的錨框尺寸分別調整為[6,11,6,13,7,14]、[8,13,9,16,10, 20]。對自建甘蔗莖節數據集進行測試,得出錨框最大可能召回率BPR=1.000 0,其中初始錨框的寬高和真實框的寬高之間的比值稱為最大可能召回率BPR。可知手動計算得到的預測框與真實框擬合度高,目標定位效果更佳,從而有效提升甘蔗莖節識別精度。
2.2 GhostNetV2替換C3模塊
GhostNetV2[15]網絡中含多個Ghost模塊,Ghost模塊可利用更少的參數來生成更多特征圖,但捕獲空間信息的能力較弱,因此,GhostNetV2網絡引入解耦全連接注意力機制(DFC)來增強廉價操作產生的擴展特征,使得GhostNetV2可以同時聚合局部和遠距離信息。DFC注意力機制是將全連接層(FC)分解為水平FC和垂直FC,分別沿著這兩個方向增大感受野,可有效增強輕量化模型的表達能力。GhostNetV2網絡基于DFC注意力機制與多個Ghost模塊的迭代處理,可實現跨不同像素位置的信息交互和長距離依賴性的捕捉。在本研究中采用GhostNetV2網絡替換C3模塊可獲取更有效的甘蔗莖節細節特征,從而提高YOLOv5s模型對甘蔗莖節小目標的感知能力。
2.3 采用GSConv替換標準卷積
GSConv[16]是一種通過Shuffle圖像塊隨機化操作將信道密集卷積和信道稀疏卷積結合起來的輕量級混合卷積。GSConv的計算量僅為標準卷積的2/3,采用GSConv替換標準卷積來進行上采樣和下采樣,能夠有效減少模型復雜度,并最大程度保證采樣效果。且GSConv將普通卷積與深度可分離卷積結合使用,并考慮通道和空間之間的關系,能夠強化圖像特征的表達能力,有效提升模型在不同尺度上對目標區域的感知能力。采用GSConv替換YOLOv5s網絡中的標準模塊可有效提升甘蔗莖節的識別精度和檢測速度,提高模型的泛化能力。
2.4 增加通道注意力機制ECA
ECA[17]作為一種通道注意力機制,其核心思想是通過學習通道間的相互關系,對輸入特征進行重要性評估和加權以提高模型性能。在YOLOv5s模型中引入注意力機制ECA僅增加極少量參數,能夠很好地解決模型性能與結構復雜性之間的矛盾。在甘蔗莖節的小目標檢測任務中,ECA注意力機制通過調整通道的權重,使得模型更聚焦于和莖節目標相關的通道,忽略與目標無關的通道,從而提高模型對莖節目標的敏感度。試驗表明,在主干網絡末端引入注意力機制ECA效果最佳,能夠有效捕獲跨通道交互,強化模型提取甘蔗莖節有效信息的能力,提高特征融合的質量,進一步提高甘蔗莖節檢測精度。
綜合上述改進方法,將改進后模型命名為YOLOv5s-SG2E,網絡模型結構,如圖3所示。
小目標網絡結構改進部分可對比原始YOLOv5s網絡結構圖,僅標紅本研究所引用的GhostNetV2、GSConv模塊和ECA注意力機制的具體位置。
3 YOLOv5s-SG2E性能試驗
3.1 試驗環境與評價指標
試驗均基于Windows11操作系統和Python 3.8環境下的Pytorch框架完成,處理器型號為Intel(R) Core(TM)i5-12500H CPU3.10 GHz,GPU為6 G顯存的NVIDIA GeForeRTX3060。每次模型訓練時批處理大小設置為16,動量因子設置為0.937,初始學習率設置為0.01,權重衰減系數設置為0.000 5,訓練代數設置為200次。
采用的評估指標分為兩方面:性能評估指標和模型復雜度評估指標。性能評估指標采用精確率P、召回率R和平均精度均值mAP@0.5,其中mAP@0.5表示閾值為0.5時每個檢測種類的平均精度均值。模型復雜度評估指標包括參數量Parameters、計算量FLOPs、模型大小Size和檢測時間Time,其中檢測時間表示網絡模型對單張甘蔗圖像的檢測時間。
3.2 輕量化方案對比試驗
為篩選出最佳輕量化方案,在小目標網絡結構改進的基礎上,將GhostNetV2和GSConv分別加入主干(Backbone)網絡和頸部(Neck)網絡中的不同位置,進行以下16組試驗。其中,“√”表示在該位置使用對應模塊,“×”表示不在該位置使用對應模塊,試驗組1設置為參照組,結果如表1所示。
由表1可知,采用GhostNetV2、GSConv改進主干網絡或頸部網絡均會減少模型參數量和計算量。與參照組對比,除試驗組6和試驗組11外,其余試驗組在采用GhostNetV2、GSConv改進網絡后平均精度均值mAP@0.5均有所降低。
相對參照組,試驗組6的參數減少5.03%,計算量減少3.61%,模型大小減少2.68%;試驗組11的參數量減少16.31%,計算量減少14.46%,模型大小減少6.71%。綜合考量后采用試驗組11改進方案,即在頸部網絡中采用GSConv替換標準卷積和GhostNetV2替換C3模塊。該方案能夠有效保證檢測精度,并降低模型復雜度,綜合效果最佳。
3.3 消融試驗
為評估不同改進方法的實際效果,對甘蔗莖節數據集進行消融試驗。在YOLOv5s模型中分別引入第2節所述改進方法,測試每種改進方法對YOLOv5s的改進效果,試驗結果如表2所示。
由表2可知,YOLOv5s原始網絡的參數量為7 012 822,計算量為15.8 G,平均精度均值mAP@0.5為97.4%;
小目標網絡結構改進后的模型參數量相對減少94.06%,計算量減少47.47%,mAP@0.5提升0.5%,證明小目標網絡結構改進能夠有效提高甘蔗莖節的檢測效率。采用GhostNetV2替換C3或GSConv替換標準卷積均能夠有效降低模型復雜度并提升模型的特征表達能力。增加通道注意力機制ECA可強化模型提取甘蔗莖節有效信息的能力,mAP@0.5提升至98.1%。綜合以上4種改進方法的YOLOv5s-SG2E模型在檢測精度、參數計算量等方面均優于YOLOv5s原始模型。
3.4 改進模型與原始模型的對比試驗
為考察YOLOv5s-SG2E改進模型的檢測性能,采用損失函數對YOLOv5s-SG2E改進模型和YOLOv5s原始模型進行評估。損失函數是反映目標檢測網絡預測結果與實際真實值誤差的重要測量指標,用于評估訓練效果、檢驗模型的收斂速度以及判斷是否出現過擬合等問題[18]。其中定位損失函數用于計算預測框與目標框之間的誤差,損失值越小則預測錨框越準;置信度損失函數用于計算網絡模型的置信度,損失值越小則目標檢測越準。
改進模型YOLOv5s-SG2E與原始模型YOLOv5s的定位損失函數與置信度損失函數的對比結果,如圖4所示。通過對比分析可知:隨訓練次數增加,兩種網絡模型的損失函數值均呈現穩定下降趨勢且最終趨于平緩。
其中,YOLOv5s-SG2E模型的定位損失函數和置信度損失函數均在訓練至100次左右趨于收斂,收斂速度較YOLOv5s更快,且其損失函數值在收斂后均低于YOLOv5s原始模型的損失函數值。因此,改進模型YOLOv5s-SG2E相較YOLOv5s原始模型具有較快的收斂速度,特征學習能力更強,目標檢測更精確。
為更直觀地展示本研究改進方法的檢測效果,選擇自建甘蔗莖節數據集樣本圖像在YOLOv5s原始模型和YOLOv5s-SG2E改進模型中進行比較驗證。如圖5所示,多檢處用黃色橢圓手動標記。在YOLOv5s檢測圖中有兩處非莖節段被錯誤標識為蔗節,而YOLOv5s-SG2E能夠正確檢測出圖中所有莖節。相較原始模型,YOLOv5s-SG2E模型的檢測精度更高,并能有效降低錯誤檢測發生的概率。
3.5 不同目標檢測算法的對比試驗
為客觀評估改進模型性能,采用同一甘蔗數據集在相同試驗環境下,與模型復雜度相近的一階段目標檢測算法YOLOv4-tiny、YOLOv5s、YOLOv6s、YOLOv7-tiny以及YOLOv8s[19-21]進行對比試驗,具體結果如表3所示。
由表3可知,YOLOv5s-SG2E模型對甘蔗莖節的平均精度均值較YOLOv4-tiny、YOLOv5s、YOLOv6s、YOLOv7-tiny和YOLOv8s分別提升6.3%、1.0%、2.9%、1.7%和1.4%。YOLOv5s-SG2E模型的計算量僅為YOLOv4-tiny的43.8%,YOLOv5s的44.9%,YOLOv6s的64.0%,YOLOv7-tiny的53.8%,YOLOv8s的25%。YOLOv5s-SG2E模型的檢測時間較YOLOv4-tiny、YOLOv5s、YOLOv6s、YOLOv7-tiny和YOLOv8s分別減少了2.6 ms、1.9 ms、0.8 ms、1.5 ms和3.7 ms。綜上數據表明,改進后的YOLOv5s-SG2E模型復雜度更低,甘蔗莖節檢測精度更高,速度更快。
4 結論
1)針對現有網絡模型復雜度高、甘蔗莖節實時檢測效率低等問題,基于YOLOv5s進行小目標網絡結構改進,并采用GhostNetV2替換C3模塊,GSConv替換標準卷積,引入注意力機制ECA,設計一種輕量化檢測模型YOLOv5s-SG2E。
2)相較YOLOv5s,YOLOv5s-SG2E模型尺寸壓縮率高達89.8%,參數量相對減少95.03%,計算量相對減少55.06%;精確率提升0.6%,召回率提升2.4%,平均精度均值提升1.0%,檢測時間縮短31.6%,可滿足甘蔗莖節實時檢測的作業需求。
3)相較一階段目標檢測算法YOLOv4-tiny、YOLOv5s、YOLOv6s、YOLOv7-tiny和YOLOv8s,YOLOv5s-SG2E模型mAP@0.5提升1.0%~6.3%,模型計算量減少25%~43.8%,檢測時間縮短0.8~3.7 ms。改進模型在識別精度、模型復雜度和檢測速度上均有一定優勢。
參 考 文 獻
[1] 廣西壯族自治區統計局, 國家統計局廣西調查總隊. 2022年廣西壯族自治區國民經濟和社會發展統計公報[N]. 廣西日報, 2023-03-31(005).
[2] 韓杰, 文晟, 劉慶庭, 等. 預切種式甘蔗種植機的設計與試驗[J]. 華南農業大學學報, 2019, 40(4): 109-118.
Han Jie, Wen Sheng, Liu Qingting, et al. Design and test of pre-cutting type sugarcane planter [J]. Journal of South China Agricultural University, 2019, 40(4): 109-118.
[3] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.
[4] 王菁, 范曉飛, 趙智慧, 等.基于YOLO算法的不同品種棗自然環境下成熟度識別[J]. 中國農機化學報, 2022, 43(11): 165-171.
Wang Jing, Fan Xiaofei, Zhao Zhihui, et al. Maturity identification of different jujube varieties under natural environment based on YOLO algorithm [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(11): 165-171.
[5] Yao J, Qi J, Zhang J, et al. A real-time detection algorithm for Kiwifruit defects based on YOLOv5 [J]. Electronics, 2021, 10(14): 1711.
[6] Fan S, Liang X, Huang W, et al. Real-time defects detection for apple sorting using NIR cameras with pruning-based YOLOV4 network [J]. Computers and Electronics in Agriculture, 2022, 193: 106715.
[7] 李光明, 弓皓斌, 袁凱. 基于輕量化YOLOv5s的花椒簇檢測研究[J]. 中國農機化學報, 2023, 44(4): 153-158.
Li Guangming, Gong Haobin, Yuan Kai. Research on lightweight pepper cluster detection based on YOLOv5s [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(4): 153-158.
[8] 何穎, 陳丁號, 彭琳. 基于改進YOLOv5模型的經濟林木蟲害目標檢測算法研究[J]. 中國農機化學報, 2022, 43(4): 106-115.
He Ying, Chen Dinghao, Peng Lin. Research on object detection algorithm of economic forestry pests based on improved YOLOv5 [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(4): 106-115.
[9] Liu J, Wang X. Tomato diseases and pests detection based on improved Yolo V3 convolutional neural network [J]. Frontiers in Plant Science, 2020, 11: 898.
[10] 唐玲玲. 基于卷積神經網絡甘蔗莖節識別與切割研究[D]. 合肥: 安徽農業大學, 2021.
Tang Lingling. Study on sugarcane stalk joint recognition and cutting based on convolutional neural network [D]. Hefei: Anhui Agricultural University, 2021.
[11] 陳延祥. 基于機器視覺的甘蔗多刀切種裝備設計與研究[D]. 無錫: 江南大學, 2022.
Chen Yanxiang. Design and research on sugarcane multi-cutter cutting equipment based on machine vision [D]. Wuxi: Jiangnan University, 2022.
[12] 趙文博, 周德強, 鄧干然, 等. 基于改進YOLOv5的甘蔗莖節識別方法[J]. 華中農業大學學報, 2023, 42(1): 268-276.
Zhao Wenbo, Zhou Deqiang, Deng Ganran, et al. Sugarcane stem node recognition method based on improved YOLOv5 [J]. Journal of Huazhong Agricultural University, 2023, 42(1): 268-276.
[13] Zhu C, Wu C, Li Y, et al. Spatial location of sugarcane node for binocular vision-based harvesting robots based on improved YOLOv4 [J]. Applied Sciences, 2022, 12(6): 3088.
[14] 陳文, 余康, 李巖舟, 等. 基于網絡瘦身算法的YOLOv4-tiny的甘蔗莖節識別[J]. 中國農機化學報, 2023, 44(2): 172-181.
Chen Wen, Yu Kang, Li Yanzhou, et al. Recognition of sugarcane stem node based on network slimming algorithm and YOLOv4-tiny algorithm [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(2): 172-181.
[15] Tang Y, Han K, Guo J, et al. GhostNetV2: Enhance cheap operation with long-range attention [J]. arXiv preprint arXiv: 2211.12905, 2022.
[16] Li H, Li J, Wei H, et al. Slim-neck by GSConv: A better design paradigm of detector architectures for autonomous vehicles [J]. arXiv preprint arXiv: 2206.02424, 2022.
[17] Wang Q, Wu B, Zhu P, et al. ECA-Net: Efficient channel attention for deep convolutional neural networks [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 11534-11542.
[18] 翟建勝. 基于深度學習的小樣本目標檢測算法研究[D]. 成都: 電子科技大學, 2022.
Zhai Jiansheng. Research on few-shot object detection algorithm based on deep learning [D]. Chengdu: University of Electronic Science and Technology of China, 2022.
[19] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection [J]. arXiv preprint arXiv: 2004.10934, 2020.
[20] Li C, Li L, Jiang H, et al. YOLOv6: A single-stage object detection framework for industrial applications [J]. arXiv preprint arXiv: 2209.02976, 2022.
[21] Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [J]. arXiv preprint arXiv: 2207.02696, 2022.