













摘要:針對在復雜環(huán)境下棉花頂芽識別率低、檢測速度慢的問題,提出一種改進的YOLOv5s目標檢測模型。首先收集在復雜棉田環(huán)境下棉花頂芽數(shù)據(jù),其次在模型的主干網(wǎng)絡中加入Hd-ShffleNetv2輕量化網(wǎng)絡模塊,以減少模型參數(shù)量,并加快模型的檢測速度。同時在頸部中加入NLMA與BotNeT注意力機制模塊,增加對棉花頂芽的特征提取能力,從而提高模型的識別精度。最后,采用EIoU損失函數(shù)來解決在頂芽部分遮擋情況下的識別問題,進一步提高識別成功率。為驗證改進的目標檢測模型的實際效果,對棉花頂芽樣本進行測試。測試結(jié)果表明,改進的YOLOv5s模型的平均檢測精度達到91%,較比原始的YOLOv5s模型提升1個百分點,模型的檢測置信度也有所提升。改進的目標檢測模型滿足棉花激光打頂機在棉田中的檢測需求,為棉花激光打頂技術(shù)的進一步研究提供有力的技術(shù)支撐。
關(guān)鍵詞:棉花頂芽識別;YOLOv5s;EIoU損失函數(shù);輕量化模型;注意力機制
中圖分類號:S223.2;TP391.4
文獻標識碼:A
文章編號:2095-5553(2024)12-0275-06收稿日期:2023年4月25日
修回日期:2023年6月2日
*基金項目:新疆維吾爾自治區(qū)自然科學基金(2022D01C671);新疆農(nóng)機研發(fā)制造推廣應用一體化項目(YTHSD2022—05)
第一作者:席光澤,男,1993年生,黑龍江牡丹江人,碩士研究生;研究方向為機器視覺。E-mail:1945097519@qq.com
通訊作者:周建平,男,1970年生,烏魯木齊人,博士,教授,博導;研究方向為農(nóng)牧機器人、智慧農(nóng)業(yè)。E-mail:linkzhoujp@sina.com
Cotton top bud recognition in complex environment based on improved YOLOv5s
Xi Guangze, Zhou Jianping, Xu Yan, Peng Xuan, Cui Chao
(College of Mechanical Engineering, Xinjiang University, Urumqi, 800054, China)
Abstract: In order to address the issues of low recognition rates and slow detection speeds for cotton apical buds under complex environmental conditions, an improved YOLOv5s object detection model is proposed. Initially, data of cotton apical buds in complex cotton field environments were collected. Subsequently, a lightweight Hd-ShuffleNetv2 network module was integrated into the backbone of the model to reduce the number of model parameters and accelerate detection speed. Additionally, NLMA and BotNeT attention mechanism modules were incorporated into the neck of the model to enhance feature extraction capabilities for cotton apical buds, thereby improving the model’s recognition accuracy. Finally, the EIoU loss function was employed to tackle recognition challenges in cases where the apical buds were partially occluded, further increasing the success rate of identification. In order to verify the practical effectiveness of the improved object detection model, tests were conducted on cotton apical bud samples. The test results indicated that the mean average precision of the improved YOLOv5s model reached 91%, 1 percentage point increase over the original YOLOv5s model, with an enhanced detection confidence. The improved object detection model meets the detection requirements for cotton laser topping machines in the field, and provides robust technical support for further research in cotton laser topping technology.
Keywords: cotton terminal bud identification; YOLOv5s; EIoU loss function; lightweight model; attention mechanism
0 引言
棉花是我國重要經(jīng)濟作物之一,現(xiàn)階段棉花打頂作業(yè)強度大、人工作業(yè)效率低下,機械打頂對棉桃破壞較大,易造成減產(chǎn)。因此需要研發(fā)一種棉花打頂機器人來代替?zhèn)鹘y(tǒng)的棉花打頂作業(yè)方式,以達到精確打頂?shù)哪康摹R曈X系統(tǒng)作為棉花打頂機獲取信息的關(guān)鍵途徑,是實現(xiàn)棉花打頂機精準去除棉花頂芽的重要前提。
隨著智能裝備的不斷發(fā)展,自動化棉花打頂技術(shù)正成為未來的發(fā)展方向。智能棉花打頂機器人面臨的主要問題是在復雜環(huán)境中如何能夠準確檢測棉花頂芽的三維空間坐標信息,以確保末端執(zhí)行器能夠精確地控制激光振鏡燒結(jié)棉花頂芽,從而消除頂端優(yōu)勢,提高棉花的產(chǎn)量。因此,選擇合適的計算機視覺模型對于解決這一問題至關(guān)重要。目前,計算機視覺識別技術(shù)的發(fā)展主要經(jīng)歷了兩個階段,在兩階段的檢測模型中首先生成候選區(qū)域,然后使用卷積神經(jīng)網(wǎng)絡預測目標的位置,其優(yōu)點是準確率高,但是速度慢、訓練時間長且誤報率較高,主要代表模型有R-CNN[1]、Fast R-CNN[2]、Mask R-CNN[3]。而在一階段的檢測模型中主要從輸入的圖像中提取特征,然后預測目標的分類和位置,其優(yōu)點是檢測速度快,對小物體的識別具有一定效果,其代表的網(wǎng)絡模型有YOLO[4]、SSD[5]等。國內(nèi)學者將農(nóng)業(yè)機械裝備與計算機視覺算法相結(jié)合,進行了深入研究工作。王小榮等[6]提出了一種基于YOLOv7的改進模型,通過制作復雜環(huán)境下的紅花樣本數(shù)據(jù),對Focal Loss損失函數(shù)、Swin Transformer注意力機制進行改進,提高了模型對各分類樣本的檢測精準率。汪斌斌等[7]提出了一種基于改進的Faster R-CNN、SSD、YOLOX目標檢測模型,使用遷移學習方法對不同品種以及不同種植密度的玉米雄穗進行檢測,實現(xiàn)了對玉米雄穗的高精度識別。王建翠等[8]為解決雜草種類多而導致的在田間對雜草檢測精度過低的問題,提出了一種將多尺度注意力機制與深度可分離卷積相結(jié)合的VGG-16雜草檢測算法。劉海濤等[9]提出了一種基于改進YOLOv4模型在復雜環(huán)境下識別棉花頂芽的方法,但由于模型參數(shù)過大,需要進一步進行優(yōu)化。陳柯屹等[10]針對在棉花密集種植情況下難以對棉花頂芽達到精確識別的問題,提出了一種改進的Faster R-CNN目標檢測算法,其主要以RegNetX-6.4GF為主要模塊,將特征金字塔網(wǎng)絡(FPN)與導向錨定(GA)機制相結(jié)合,融合動態(tài)區(qū)域的卷積神經(jīng)網(wǎng)絡Dynamic R-CNN,使錨框能夠動態(tài)地自適應生成,在訓練階段中分析目標候選區(qū)域的分布動態(tài)變化,提高了圖像的特征采集性能,完成對目標對象特征的提取任務。樊湘鵬等[11]為解決棉花幼苗雜草類型多、分布復雜的問題,以自然條件下的7種常見棉花苗期的雜草為研究對象,提出了一種改進的Faster R-CNN雜草識別與定位方法,完成了對雜草進行分類識別,但該模型的參數(shù)量過高。鮑文霞等[12]針對在復雜背景下難以對麥穗精確識別的問題,在YOLOv5s模型的骨干網(wǎng)絡中加入了注意力機制,使模型細化特征,可以更加關(guān)注到麥穗的信息,提高對麥穗的檢測精度。劉姣娣等[13]為了解決對甘蔗芽的識別與定向播種速度不匹配的問題,提出了一種改進的YOLOv4-Tiny算法,通過試驗結(jié)果表明,改進后的YOLOv4-Tiny模型在檢測精度上達到了95.87%。
綜上所述,為了精準快速地檢測到復雜環(huán)境下的棉花頂芽,首先獲取在復雜環(huán)境下的棉花頂芽數(shù)據(jù)樣本,再以YOLOv5s目標檢測網(wǎng)絡模型為基礎,對主干模型進行改進,以減少模型的參數(shù)量。為提高對棉花頂芽的檢測精度,在頸部網(wǎng)絡中加入注意力機制,并結(jié)合損失函數(shù)提升被遮擋的棉花頂芽識別成功率,增加模型的預測框回歸速度,為棉花激光打頂機器人在復雜環(huán)境下快速精準識別棉花頂芽提供技術(shù)理論基礎。
1 試驗數(shù)據(jù)獲取
因外界等因素容易影響模型對棉花頂芽的特征提取能力,從而導致錯檢漏檢,使得目標檢測模型的泛化能力不足。為了增加模型的魯棒性,收集到不同形態(tài)下的棉花頂芽,以確保棉花頂芽樣本的多樣性,增加模型的泛化能力,以新疆生產(chǎn)建設兵團第八師143團棉花種植基地的棉花為研究對象,采集棉花頂芽數(shù)據(jù)集如圖1所示。采集時間為每天8:00—10:00、16:00—18:00之間,最后獲取到棉花頂芽樣本共約506張,其中樣本包含了順光、逆光、側(cè)光,晴天、陰天、雨天等不同形態(tài)條件的棉花頂芽樣本數(shù)據(jù),最后經(jīng)過數(shù)據(jù)增強技術(shù)擴充到3 103張。從樣本數(shù)據(jù)中隨機選取2 663張作為訓練集,440張作為驗證集用于模型的訓練。
2 改進模型
2.1 改進YOLOv5s模型
YOLOv5模型相比YOLOv4[14]參數(shù)量有所降低,其主要由輸入部分、主干部分、頸部部分、輸出部分組成。輸入部分在YOLOv4基礎上添加新的改進方法,相比較YOLOv4模型的卷積層的參數(shù)量有所減少,在降低計算量的同時增加了感受野。主干網(wǎng)絡以三個解耦頭進行預測,使YOLOv5模型的特征提取能力加強,檢測速度、精度有所提升。為了提升模型的檢測效率,使用Hd-ShuffleNetv2來代替主干網(wǎng)絡中的C3模塊,使模型的參數(shù)量進一步減少。同時在頸部部分中加入NLMA注意力機制來代替C3網(wǎng)絡模塊,NLMA注意力機制較比C3模塊增加了感興趣的頂芽區(qū)域,能夠抑制不相關(guān)的棉花頂芽背景區(qū)域,可以篩選出目標特征圖。同時將C3模塊替換為BotNet注意力機制網(wǎng)絡,更加重點關(guān)注棉花頂芽的特征,進一步提升了模型的檢測精度,改進模型如圖2所示。
2.2 Hd-ShuffleNetv2模塊
ShuffleNetv2[15]輕量化模塊能夠有效減少模型參數(shù)量過大的問題,其具有通道洗牌功能,對不同通道特征信息進行隨機分配,實現(xiàn)不同組的信息交換(圖3)。但模塊中的ReLu激活函數(shù)要求輸入的特征信息必須大于0,當特征值小于0時會導致卷積計算停滯造成梯度消失,導致對棉頂芽特定區(qū)域的檢測精度下降,因此需要將激活函數(shù)進行改進。而Hard-swish激活函數(shù)具有非單調(diào)函數(shù)的特點,當輸入特征數(shù)值小于-3時,能夠緩解模型在計算過程中梯度消失所帶來的問題,避免ReLu激活函數(shù)所帶來的缺點,使模型參數(shù)量減少的同時進一步增加檢測精度。
2.3 注意力機制模塊
NLMA模塊是由C3模塊與SE注意力機制[16]組合而成。NLMA注意力機制網(wǎng)絡首先對輸入的棉頂芽特征圖進行殘差卷積壓縮,平均匯集成特征向量[1,1,c],并通過FC全連接層,將特征圖向量的通道維度下降為原來的1/r。再利用Swish激活函數(shù)進行激活,抑制對當前無意義的特征通道,最后輸出加權(quán)后的特征圖,見圖4。全連接層將特征向量映射到樣本的標記空間,轉(zhuǎn)化為0~1之間的歸一化權(quán)重向量,并將歸一化的權(quán)重向量和輸入的棉花頂芽特征圖通道相乘,獲取到每個通道特征圖的重要程度,賦予其一個重要的權(quán)重值,從而讓檢測模型重點關(guān)注到目標對象的特征通道,增加對當前對象特征提取的成功率。BoTNet[17]模塊是一種瓶頸結(jié)構(gòu),與ResNet[18]卷積神經(jīng)網(wǎng)絡相比,后者更傾向于將多種自我注意力機制,納入目標檢測模型的卷積計算的過程中。ResNet50網(wǎng)絡中的瓶頸3×3卷積被多頭自注意力(MHSA)結(jié)構(gòu)所取代,引入MHSA結(jié)構(gòu)的ResNet庫是一個瓶頸轉(zhuǎn)換(BoT),多頭自注意力層包括相對位置編碼和多頭自注意力模型,使用相對位置編碼和多頭自注意力使網(wǎng)絡模型可以學習更多的特征和圖片細節(jié),從而達到提高網(wǎng)絡性能,BotNet注意力機制模塊見圖5。
2.4 改進損失函數(shù)
CIoU[19]損失函數(shù)在DIoU損失函數(shù)的基礎上繼續(xù)優(yōu)化,后者僅局限于評估邊界框中心點間隔和相交部分面積,忽略了預測框與目標框中心點完全對齊的情況,使得DIoU損失函數(shù)退化成IoU損失函數(shù),無法繼續(xù)進行迭代。在預測框與真實框?qū)捀弑纫粯忧闆r下,會造成真實框與預測框質(zhì)心相同,使得CIoU退化成IoU損失函數(shù),因此使用EIoU[20]損失函數(shù)進行代替。EIoU損失函數(shù)可以在復雜環(huán)境下增加對被遮擋的棉花頂芽檢測成功率,使模型的魯棒性得到加強,函數(shù)的具體計算如式(1)~式(4)所示。
式中:ρ——預測框與真實框?qū)挾戎g的距離;
c2——預測框與真實框的最小矩形邊界;
α——權(quán)重系數(shù);
υ
——長寬相似比衡量參數(shù);
b——預測邊界框的中心點;
w、h——預測邊界框的寬、高;
bgt——真實邊界框的中心點;
wgt、hgt——真實邊界框的寬、高。
3 試驗分析
3.1 Jetson orin NX試驗平臺
試驗硬件為Jetson orin NX開發(fā)板,軟件運行框架為pytorch,Ubuntu 20.04的操作系統(tǒng),python-3.7編程語言,8 core NVIDIA Arm Cortex A78AE的處理器,GPU顯卡型號為1024 core NVIDIA Ampere,調(diào)用CUDA所需要的環(huán)境進行配置,展開對棉花頂芽數(shù)據(jù)集進行分類訓練跟測試,并對試驗結(jié)果進行分析。
3.2 模型評價指標
為評估出模型對棉花頂芽檢測的準確性,選取平均檢測精度mAP為評價指標,計算如式(7)~式(9)所示。
式中:P——準確率;
R——召回率;
TP——正樣本預測出來正確的框;
FP——負樣本預測出正樣本的框;
FN——從正樣本預測出負樣本的數(shù)量;
AP——平均準確率;
N——棉花頂芽數(shù)據(jù)集的數(shù)量。
3.3 不同模型試驗對比
為驗證改進的YOLOv5s模型對棉花頂芽的檢測效果,分別利用YOLOv3、YOLOv5s、YOLOv6[21]、YOLOv7-tiny[22]四種網(wǎng)絡模型對棉花頂芽樣本進行驗證,試驗結(jié)果如表1所示。
可以發(fā)現(xiàn)在相同迭代次數(shù)內(nèi),改進YOLOv5s模型在棉花數(shù)據(jù)集上的平均檢測精度比YOLOv3、YOLOv5s、YOLOv6s、YOLOv7-tiny四個不同的模型分別高出1、1、1、8個百分點,模型參數(shù)分別減少58 M、4 M、34 M、3 M,同時模型對棉花頂芽的檢測速度也得到了一定提升,結(jié)果表明改進YOLOv5s模型可以滿足在棉花激光打頂機上的檢測要求。
3.4 改進前后模型試驗對比
為更加直觀地分析YOLOv5s模型的改進效果,將改進前后的模型進行對比。從圖6可以看出,改進前YOLOv5s模型對比改進后YOLOv5s模型在迭代135個周期后上升趨勢相同。從圖7可以看出,改進后YOLOv5s模型在迭代125輪次后平均檢測精度上升了1%,說明改進后的檢測模型具有一定效果。
3.5 不同輕量化模型對比
為驗證不同輕量化模型的效果,首先,在主干網(wǎng)絡中分別加入ShuffleNetv2、MobileNetv3、GhostNet三種輕量化模塊,同時在模型的頸部中插入NLMA模塊與BotNet注意力機制,分別測試ShuffleNetv2、MobileNetv3[23]、GhostNet[24]三種輕量化模塊的效果,最后,與改進前的YOLOv5s模型進行對比試驗,如表2所示。結(jié)果表明,Hd-ShuffleNetv2模塊較比其他模塊檢測棉花頂芽速度、成功率均有所提高,能夠滿足基本試驗指標。
3.6 棉田試驗效果對比
為測試改進前后的YOLOv5s模型實地檢測效果,將改進前后YOLOv5s模型部署到Jetson orin NX開發(fā)板中,分別對不同背景條件下的棉花頂芽進行檢測,如圖8、圖9所示。試驗結(jié)果表明,改進前的YOLOv5s模型對不同遮擋條件下的棉花頂芽檢測置信度分別為0%、72%、86%、81%,而改進后的YOLOv5s模型對不同遮擋條件下的棉花頂芽檢測置信度分別為33%、77%、87%、88%,可以看出經(jīng)過改進后的模型較比改進前的模型檢測效果有所提升,而且目標檢測模型魯棒性能也得到了進一步加強,改進的模型基本滿足試驗指標。
4 結(jié)論
1)針對棉田環(huán)境對頂芽檢測的需要,通過對YOLOv5模型的主干網(wǎng)絡進行改進,構(gòu)建改進的YOLOv5的棉花頂芽檢測模型。在模型中加入Hd-ShuffleNetv2輕量化模塊,以及NLAM與BotNet注意力機制,建立在復雜環(huán)境下對棉花頂芽的識別模型。
2)通過分析不同模型的識別精度與檢測速度,得出最終改進的YOLOv5s模型的平均檢測精度為91%,在相同迭代次數(shù)內(nèi),相比YOLOv3、YOLOv5s、YOLOv6s、YOLOv7-tiny四個不同的模型分別高出1、1、1、8個百分點,模型的參數(shù)量分別減少了58 M、4 M、34 M、3 M。通過對不同背景情況下的棉花頂芽進行檢測驗證,置信度分別達到33%、77%、87%、88%,相比改進前的YOLOv5s模型有所提升,模型的魯棒性得到加強,基本滿足棉田試驗標準。
為提高在非結(jié)構(gòu)環(huán)境下對不同生長形態(tài)的棉花頂芽進行識別檢測,后續(xù)將考慮增加棉花頂芽數(shù)據(jù)集樣本的多樣性以適應在不同環(huán)境下對棉花頂芽達到精準識別,同時進一步提高模型的泛化能力。
參 考 文 獻
[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 2-6.
[2] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(6): 1137-1149.
[3] He K, Gkioxari G, Dollár P, et al. Mask R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.
[4] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.
[5] Liu W, Dragomir A, Dumitru E, et al. SSD: Single shot multibox detector [C]. Computer Vision-ECCV 2016: 14th European Conference, 2016: 21-37.
[6] 王小榮, 許燕, 周建平, 等. 基于改進YOLOv7的復雜環(huán)境下紅花采摘識別[J]. 農(nóng)業(yè)工程學報, 2023, 39(6): 169-176.
Wang Xiaorong, Xu Yan, Zhou Jianping, et al. Safflower picking recognition in complex environments based on an improved YOLOv7 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(6): 169-176.
[7] 汪斌斌, 楊貴軍, 楊浩, 等. 基于YOLO_X和遷移學習的無人機影像玉米雄穗檢測[J]. 農(nóng)業(yè)工程學報, 2022, 38(15): 53-62.
Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO_X and transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 53-62.
[8] 王建翠, 惠巧娟, 吳立國, 等 基于多尺度注意力和深度可分離卷積的農(nóng)田雜草檢測[J]. 中國農(nóng)機化報, 2023, 44(5): 182-187.
Wang Jiancui, Hui Qiaojuan, Wu Liguo, et al. Field weeds detection based on multi-scale attention and depth separable convolution [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 182-187.
[9] 劉海濤, 韓鑫, 蘭玉彬, 等. 基于YOLOv4網(wǎng)絡的棉花頂芽精準識別方法[J]. 中國農(nóng)業(yè)科技導報, 2022, 24(8): 99-108.
Liu Haitao, Han Xin, Lan Yubin, et al. Precise recognition method of cotton top buds based on YOLOv4 network [J]. Journal of Agricultural Science and Technology, 2022, 24(8): 99-108.
[10] 陳柯屹, 朱龍付, 宋鵬, 等. 融合動態(tài)機制的改進型Faster R-CNN識別田間棉花頂芽[J]. 農(nóng)業(yè)工程學報, 2021, 37(16): 161-168.
Chen Keyi, Zhu Longfu, Song Peng, et al. Recognition of cotton terminal bud in field using improved Faster R-CNN by integrating dynamic mechanism [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(16): 161-168.
[11] 樊湘鵬, 周建平, 許燕, 等. 基于優(yōu)化Faster R-CNN的棉花苗期雜草識別與定位[J]. 農(nóng)業(yè)機械學報, 2021, 52(5): 26-34.
Fan Xiangpeng, Zhou Jianping, Xu Yan,et al. Identification and localization of weeds based on optimized Faster R-CNN in cotton seedling stage [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5): 26-34.
[12] 鮑文霞, 謝文杰, 胡根生, 等. 基于TPH-YOLO的無人機圖像麥穗計數(shù)方法[J]. 農(nóng)業(yè)工程學報, 2023, 39(1): 155-161.
Bao Wenxia, Xie Wenjie, Hu Gensheng, et al. Wheat ear counting method in UAV images based on TPH-YOLO [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(1): 155-161.
[13] 劉姣娣, 何捷, 許洪振, 等. 基于改進YOLOv4-Tiny的蔗芽識別方法[J]. 中國農(nóng)機化學報, 2023, 44(11):169-175.
Liu Jiaodi, He Jie, Xu Hongzhen, et al. Identification’ method of cane sprout based on improved YOLOv4-Tiny [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(11): 169-175.
[14] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection [J]. arXiv preprint arXiv: 2004.10934, 2020.
[15] Ma N, Zhang X, Zheng H T, et al. Shufflenet v2: Practical guidelines for efficient CNN architecture design [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 116-131.
[16] Hu J, Shen L, Sun G. Squeeze-and-excitation networks [C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.
[17] Srinivas A, Lin T Y, Parmar N, et al. Bottleneck transformers for visual recognition [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 16519-16529.
[18] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[19] Zheng Z, Wang P, Liu W, et al. Distance-IoU loss: Faster and better learning for bounding box regression [C]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 12993-13000.
[20] Zhang Y F, Ren W, Zhang Z, et al. Focal and efficient IoU loss for accurate bounding box regression [J]. Neurocomputing, 2022, 506: 146-157.
[21] Li C, Li L, Jiang H, et al. YOLOv6: A single-stage object detection framework for industrial applications [J].arXiv preprint arXiv: 2209.02976, 2022.
[22] Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023: 7464-7475.
[23] Howard A, Sandler M, Chu G, et al. Searching for MobileNetV3 [C]. Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 1314-1324.
[24] Han K, Wang Y, Tian Q, et al. GhostNet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.