999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的乒乓球輕量化網絡檢測模型

2024-10-22 00:00:00施博凱張昕邱天張志鵬
現代信息科技 2024年15期

摘 要:球類運動是傳統體育競技中受關注度最高的一類運動,球類的目標檢測可以用于提高體育比賽的分析、監控系統的安全性以及虛擬現實體驗的真實感。YOLOv5作為優秀的單階段檢測算法,因其平臺移植方便與檢測步驟簡易,是計算機視覺領域近年來使用頻率最高的目標檢測算法之一。但是YOLOv5模型參數量較大,為了減少參數量以便更快地移植到其他平臺上,文章提出一種輕量化的改進YOLOv5算法,該算法以YOLOv5s為基礎模型,通過將主干網絡替換為改進的MobileNetv3、在頸部引入CBAM注意力機制并改進C3模塊等方法,減少計算量并提升精度。對訓練完成后的改進模型進行驗證,實驗結果表明改進后的檢測算法參數量大致下降了65%,平均精度提升了0.5%,滿足乒乓球實際應用場景的精度要求和實時性。

關鍵詞:目標檢測;YOLOv5;輕量化;CBAM

中圖分類號:TP391.4;TP183 文獻標識碼:A 文章編號:2096-4706(2024)15-0028-08

Lightweight Network Detection Model for Table Tennis Balls Based on Improved YOLOv5

SHI Bokai, ZHANG Xin, QIU Tian, ZHANG Zhipeng

(Joint Laboratory of Digital Optical Chips of Institute of Semiconductors, Chinese Academy of Sciences, Wuyi University, Jiangmen 529020, China)

Abstract: Ball games are the most popular sports in traditional sports competitions, and the target detection of balls can be used to improve the analysis of sports games, the security of surveillance systems, and the realism of Virtual Reality experiences. YOLOv5, as an excellent single-stage detection algorithm, is one of the most frequently used target detection algorithms in the field of computer vision in recent years due to its easy platform portability and simple detection steps. However, the YOLOv5 model has a large number of parameters. In order to reduce the number of parameters so that it can be ported to other platforms faster, this paper proposes a lightweight and improved YOLOv5 algorithm, which takes YOLOv52395b4ddc55a28d19b6190958f5a446bcbfcd3a5259b578efb97ce1a4a0f23e0s as the base model, and reduces the amount of computation and improves the accuracy by the methods of replacing the backbone network with the improved MobileNetv3, introducing the CBAM Attention Mechanism in the neck, and improving the C3 module. The improved model is verified after the training, and the experimental results show that the number of parameters of the improved detection algorithm roughly decreases by 65%, and the average accuracy improves by 0.5%, which meets the accuracy requirements and real-time performance of practical application scenarios for table tennis.

Keywords: target detection; YOLOv5; lightweight; CBAM

0 引 言

YOLO作為第一個基于深度學習的單階段檢測方法,其采取與兩階段算法截然不同的檢測方式:將單個神經網絡應用于完整圖像,該網絡將圖像劃分為多個區域,并預測每個區域的邊界框和目標分類。雖然與兩階段算法相比定位精度有所下降,但是原作者在基礎上做了一系列改進,先后提出了YOLO9000[1]、YOLOv3[2],增加了FPN等結構來改進損失函數。隨后提出的YOLOv4整合了計算機視覺領域的多種數據增強方法,并嘗試了各種新的主干網絡組合,在速度和準確性方面優于大多數先有的目標檢測方法[3]。近年來由于YOLO系列算法的快速發展與廣泛應用,越來越多的學者在目標檢測方面的研究進展集中在YOLO算法的改進優化上,例如文獻[4]在YOLOv4算法的基礎上改進損失函數并使用快速NMS算法從而進行對乒乓球的檢測,平均精度達到94.12%,但幀率僅為39.34;文獻[5]使用改進的YOLOv4算法,采用加強特征提取網絡的方法,使乒乓球的平均精度達到94%,而幀率提升到95。

上述提及的YOLOv4改進算法雖然實現了乒乓球檢測,但實驗場景較為單一,在實際應用中需要全面考慮精度與處理速度。YOLOv5是YOLO系列中綜合性能較為優秀的一個目標檢測模型,廣泛應用于諸如自動駕駛、智能監控、醫學圖像等[6-8]領域。本文以YOLOv5s算法為基礎,提出一種輕量化的乒乓球檢測算法,大幅度降低參數量,有效地提升平均精度和檢測幀率。

1 YOLOv5s模型

YOLOv5的網絡結構如圖1所示,分為輸入端(Input)、主干網絡(Backbone)、頸部網絡(Neck)、頭部網絡(Head)。相比于YOLOv4,YOLOv5在輸入端提出了一些改進思路,主要包括自適應錨框計算、Mosaic數據增強機制、自適應圖片縮放等方法;Backbone為主干網絡,由Downsample Conv、C3、SPPF三種模塊堆疊而成,特征圖經過卷積層,通過C3模塊生成不同尺寸的特征圖,之后通過SPPF融合不同感受野的特征圖,此部分網絡主要負責特征提取;Neck部分參考PANet網絡[9],采用FPN+PAN結構,FPN[10]結構通過自頂向下進行上采樣,使得底層特征圖包含圖像強語義信息,PAN[11]結構自底向上進行下采樣,使頂層特征包含圖像強定位信息,兩個特征最后進行融合,使不同尺寸的特征圖都包含圖像語義信息和圖像定位信息,提升網絡特征的融合能力。Head部分由三個不同特征尺度的預測層組成,分別為80×80、40×40、20×20,用于預測大型、中型、小型目標。

2 改進的YOLOv5s檢測算法

為了實現高實時性的乒乓球目標檢測,本文對YOLOv5s檢測算法進行優化改進,如圖2所示,改進方法分別為:

1)采用MobileNetv3[12]網絡替換主干網絡,并將其中的SE注意力模塊替換為ECA注意力模塊,降低參數量,增強網絡對局部特征的關注。

2)為了減少計算冗余和內存訪問,將頸部的C3模塊融合FasterNet[13]網絡,使用FasterNet中的PConv替換普通卷積層。

3)選擇SIoU替換YOLOv5s的CIoU,提升精度。

4)引入CBAM注意力機制,通過加強對輸入特征圖中的重要特征進行更優秀的表示,通過全局池化操作獲得了整體描述信息,從而增強了對整體信息的識別和理解能力。

2.1 MobileNetv3

為了降低YOLOv5s檢測算法的復雜度并減少參數量,提升模型的檢測速度與性能,本文選擇MobileNetv3網絡替換主干網絡,并使用ECA注意力機制替換MobileNetv3的SE[14]模塊。MobileNetV1[15]引入了深度可分離卷積(Depthwise Separable Convolution)替代標準卷積,通過深度卷積(Depthwise Convolution, DWConv)和逐點卷積(Pointwise Convolution, PWConv)的結合減少了模型的參數量,如圖3所示。

MobileNetV3網絡繼承了MobileNetV1[15]的深度可分離卷積和MobileNetV2[16]的線性瓶頸逆殘差結構的特點,且在MobileNetV2的基礎上引入了SE[14]模塊,使用改進的Hard-swish激活函數代替原來的Swish函數升級非線性層,并利用NetAdapt算法搜索和優化卷積內核和通道的數量。

2.2 ECA注意力機制

注意力機制是深度學習中的一種關鍵技術,用于模型處理輸入數據時,選擇性地偏向于某一部分,它模擬了人在處理信息時的注意力分配方式。ECA注意力機制[17]通過獲取跨通道交互的信息,即通道之間的依賴關系,并獲得明顯的性能提升。ECA使用卷積核大小為k的一維卷積代替全連接層對k個近鄰范圍進行通道加權,實現局部交叉和通道交互,從而增強網絡對局部特征的關注。ECA的結構如圖4所示,其中,G表示全局平均池化(Global Average Pooling),S表示Sigmoid激活函數,P表示點乘(Position-wise Dot Product)。給定單個輸入圖像I(C,H,W),其中C表示通道數,H表示特征圖的高度,W表示特征圖的寬度,將輸入特征圖進行全局平均池化操作,以獲取每個通道的全局上下文信息,如式(1)所示:

(1)

上式中,Icij表示特征圖I中通道C的第(i,j)個元素,式(1)的輸出是一個C維度的向量,反映每個通道的平均響應。

在ECA中,卷積核的大小k是自適應確定的,這種特性使得能夠適應不同數量的通道,更有效地獲取通道間的局部依賴關系,卷積核大小k的計算方式如下:

(2)

式(2)中,|t|odd表示距離k最近的奇數,γ表示控制局部依賴關系范圍的參數,γ越小則卷積核k越大,b、γ通常設置為1和2,用于改變卷積核大小和C之間的比例。

通過一維快速卷積獲取通道間的局部依賴關系,一維卷積的輸出設為y,將一維卷積操作記為Tconv1D。公式如下:

(3)

一維卷積的輸出經過Sigmoid激活函數記性非線性變換以提升通道間相關性的自適應學習,得到各個通道的權重ω,計算方式如下:

(4)

最后,將式(4)所得權重與原始輸入特征圖I,得到最終輸出特征圖,將結果記為Zcij,如式(5)所示:

(5)

ECA注意力機制通過獲取通道間的依賴關系來增強卷積神經網絡的特征表示,避免特征完全獨立,以高效率與低參數量的特性,使其在目標檢測和圖像分割任務中被研究人員廣泛應用,在本文中用于替換MobileNetV3網絡中的SE注意力模塊。

2.3 MobileNetV3的改進

MobileNetV3網絡結構的Bneck模塊中引入了SE注意力機制,這個注意力機制強調降維的關鍵性,因為它對于有效學習通道注意力至關重要。SE模塊的全連接降維雖然有助于減少模型的復雜性,但它會破壞通道和權重之間的直接對應關系。通過先降維后升維,導致權重和通道之間的對應關系變得間接化。

在降低模型復雜度的同時,必須確保進行適當的跨通道交互,以保持性能水平的提高。本文采用不降維的局部跨通道交互策略ECA模塊,替換原網絡Bneck中的SE模塊。ECA模塊的優點在于它可以保持通道維度不變,同時引入逐通道全局平均池化,這樣就能夠捕獲局部跨通道的信息交互,而無須增加通道的數量。這種方法允許每個通道考慮其相鄰的K個通道,從而避免了特征之間完全獨立的情況,確保權重與通道之間的關系保持直接的關聯,維護模型性能的同時,減少了冗余的復雜性。

2.4 損失函數的改進

YOLOv5的損失函數包括分類損失、定位損失、置信度損失。在定位損失方面,YOLOv5s選擇CIoU[18]作為定位損失函數。相比于傳統的IoU,CIoU考慮了兩框之間的中心點距離、寬度和高度差、重疊面積,使其對于邊界框位置的變化不敏感。傳統IoU對于位置稍有不同的邊界框可能會導致顯著不同的IoU值,而CIoU能夠提供更穩定的度量。雖然CIoU在IoU的基礎上更關注兩框之間的中心點距離、重疊區域和縱橫比等參數,但是沒有考慮期望的兩框之間不匹配的方向,導致效率低且收斂速度慢,因為預測框在訓練過程中可能會存在“漂移”現象,結果產生一個不理想的模型。SIoU[19]提出了一種新的損失函數,重新定義了懲罰系數,考慮了兩框之間的向量夾角,進一步減小了邊界框大小的影響,從而提高了對不同尺度目標的檢測性能。

SIoU損失函數由四個成本函數組成:角度損失、距離損失、形狀損失、交并比損失。角度損失的計算過程如圖5所示。

圖5中,σ表示兩框中心點的距離,Ch表示真實框和預測框中心點的高度差,Cw表示真實框與預測框中心點的寬度差,bgt表示真實框的中心點,b表示預測框的中心點。角度損失函數如下式所示。

(6)

式(6)中,x=Ch/σ=sinα,σ與Ch的計算方式為:

(7)

(8)

式(8)中,,表示真實框中心坐標,, 表示預測框中心坐標,SIoU先嘗試在X或Y軸做預測,然后沿著相關軸繼續逼近,若α≤π/4,收斂過程將首先嘗試最小化α,否則最小化β=(π/4)-α。基于對角度損失的考慮,SIoU重新定義了距離損失,如圖6所示。

計算過程如式(9)所示:

(9)

其中,,,,由公式可得:當α趨近于0時,距離成本的貢獻大幅度降低;相反,α越接近π/4,Δ越大。SIoU的形狀損失如式(10)所示:

(10)

其中:

θ用于定義形狀損失,θ的值在上式中是十分重要的一個變量,它決定了形狀損失需要多少注意力。若值為1,即立刻優化形狀,從而影響形狀的自由運動,其定義范圍在[2,6],在本文所做實驗中取θ=4。最后一項為傳統的交并比損失,綜上可得SIoU的最終損失函數LSIoU如式(11)所示:

(11)

至此,為了提高將主干網絡替換為改進MobileNetV3下降的檢測精度,本文采用SIoU替換CIoU,提高檢測精度。

2.5 FasterNet

為了實現更快的檢測,FasterNet[13]提出了一種新的部分卷積(Partial Convolution, PConv),可以同時減少冗余計算和內存訪問,冗余計算是指在數據傳輸或存儲中引入額外的冗余信息,以增強數據的可信度。延遲、FLOPs、FLOPS之間的關系如式(12)所示:

(12)

FasterNet網絡通過增加FLOPS的同時有效減少FLOPs來提高檢測速度,從而在不影響精度的情況下減少延遲并提高計算速度。在PConv的基礎上,作者提出了FasterNet,FasterNet結合了PConv和逐點卷積,工作原理如圖7所示,PConv在進行空間特征提取時,只對輸入數據的一部分通道進行卷積操作,而保持其他通道不變。這種方法采用了一種連續的內存訪問,以選擇第一個或最后一個連續通道來代表整個特征圖進行計算。這樣,輸入和輸出特征圖的通道數量保持一致,不會損失通用性。因此,PConv的內存訪問要比傳統卷積方法更小。

在YOLOv5網絡中,C3模塊扮演著關鍵的角色,它的結構如圖8所示,主要任務是增加網絡的深度和感受野,以提高特征提取的性能。神經網絡的高計算復雜性和延遲可能會導致性能下降。為了解決這個問題,本文用PConv替代C3的普通卷積層,結構如圖9所示,通過減少FLOPs,實現C3模塊的輕量化,并減少計算冗余,這樣做可以在不過度增加計算負擔的情況下,提高網絡的性能,有助于在實際應用中獲得更高的效率。用FasterNet融合YOLOv5頸部的C3模塊,有效減少模型參數量,降低FLOPs數量,增加了FLOPS數量,進而減少了內存訪問和延遲。

2.6 CBAM

CBAM是一種融合了通道注意力(Channel Atten-tion Module, CAM)和空間注意力(Spatial Attention Module, SAM)的注意力結構。CAM模塊將輸入特征圖分別進行最大池化和平均池化處理,并考慮其寬度和高度,隨后這些處理的結果進入到多層感知器(Multi-Layer Perception, MLP),MLP輸出的兩個特征圖經過逐像素求和運算和Sigmoid激活操作以產生通道特征權重Mc,由CAM模塊產生的Mc與原始輸入特征圖進行逐像素相乘,以輸出后續SAM模塊需要的特征圖F′,CAM的結構如圖10所示;SAM模塊將前面CAM模塊生成的F′作為輸入特征圖,通過全局最大池化和全局平均池化層處理后形成的兩個特征圖,將它們進行全連接,之后卷積降維并通過Sigmoid激活函數生成空間特征權重Ms,SAM的結構如圖11所示。之后將Ms與F′逐像素相乘,最終產生了CBAM注意力輸出的最終融合特征圖F″,整個過程可用數學表達式描述,如式(13)、式(14)所示:

結合CAM和SAM機制,CBAM結構如圖12所示。CBAM模塊提高了輸入特征圖中關鍵特征的表示能力,通過全局池化操作獲取全局描述信息,從而增強對全局信息的感知能力。在本文中,將CBAM模塊添加到YOLOv5頸部網絡的每一層卷積層之后。

3 實驗結果分析

3.1 實驗環境設備

本實驗使用的軟、硬件設備參數以及訓練神經網絡的加速環境如表1所示,使用PyTorch深度學習框架部署目標檢測算法。

3.2 數據集采集

因為目前缺少開源的乒乓球專用數據集,所以本實驗所使用的數據集來源為網絡收集,通過互聯網下載2 148張圖片,使用Labelimg軟件將這些得到的圖片進行數據標注,格式為適合YOLO算法訓練的txt標簽文件,部分圖片如圖13所示,并將這些圖片分成訓練集1 963張,驗證集185張,其中包含無目標的背景圖片,使用這些圖片訓練可以幫助實現數據均衡,提高模型的泛化能力和魯棒性。

3.3 評估指標

為了讓實驗結果有個評判指標,本文設置的算法檢測性能評估指標有:精確率(P)、召回率(R)、浮點計算量(Giga Floating-point Operations Per Second, GFLOPs)、參數量(Parameter)、平均精度(Average Precision, AP)、平均精度均值(mean Average Precision, mAP)。

精確率P表示預測正確的正樣本數量與所有預測為正樣本數量的比值;召回率R表示預測正確的正樣本與所有正樣本的比值,計算方式為:

(15)

(16)

其中,TP(True Positive)表示預測值與真實值均為正的樣本,FP(False Positives)表示預測值為正但真實值為負的樣本,FN(False Negatives)表示預測值為負但真實值為正的樣本。

GFLOPs用于衡量算法的復雜度,Parameters表示算法包含參數的數量。AP是對不同召回率點上的準確率求平均,AP值表示模型的平均準確率。本文僅對乒乓球進行檢測,所以AP與mAP數值相等,mAP根據IoU值可以分為mAP@0.5與mAP@0.5:0.95,由于mAP@0.5計算簡單,適合快速檢測,本文使用mAP@0.5作為評估目標檢測算法精度的指標。

3.4 實驗結果與數據分析

3.4.1 改進算法與YOLOv5檢測算法對比

為了體現改進算法在精度方面與參數量方面的性能指標,將本文提出的改進算法與YOLOv5s、YOLOv5n分別在相同實驗環境和參數設定下使用所采集的數據集進行訓練,將它們的訓練結果隨輪次變化繪制成曲線,如圖14所示,將實驗結果繪制成表,如表2所示。

由表2可知,改進算法的GFLOPs為4.6,與YOLOv5n相比,雖然GFLOPs提高了0.5,但是mAP提升了2.5%;與YOLOv5s相比,雖然mAP只提升了0.5%,但是GFLOPs下降了11.2,參數量大致下降了65%,整體表現良好。

3.4.2 消融實驗

為進一步驗證改進模型的性能表現,本文進行了消融實驗,將實驗結果繪制成表,如表3所示,其中“—”表示沒有進行相對應的改進,“√”則表示進行相應的改進,評價指標包括mAP@0.5、GFLOPs、Parameters。

在上述實驗結果中,A模型表示YOLOv5s+Mob-ileNetv3,B模型表示YOLOv5s+MobileNetv3+SIoU,C模型表示YOLOv5s+MobileNetv3+SIoU+C3_Faster,D模型表示YOLOv5s+MobileNetv3+SIoU+C3_Faster+CBAM。本文以YOLOv5s為基線(baseline),首先在YOLOv5s的基礎上將主干網絡替換成改進后的MobileNetv3網絡,以此作為輕量化模型,在此基礎上分別將CIoU替換為SIoU,將頸部的C3模塊融合FasterNet,并在頸部每層卷積層后面添加CBAM注意力機制,分別觀測它們的指標差異。

由表3可知,在替換主干網絡之后,模型整體的參數量減少了58%左右,檢測速度提高,在精度方面有小幅下降;對頸部C3模塊做改進,將C3模塊CBS中的普通卷積層替換為PConv,有效降低參數量與GLOPs,減少計算冗余;最后在前面所做改進的基礎上于頸部網絡每層卷積層后面引入CBAM注意力機制,用少許的參數代價換取精度提升。相較于原始YOLOv5s模型,本文的改進算法在同一個數據集上表現良好,上述實驗結果表明本文提出算法在輕量化方面取得優秀的效果。

3.4.3 對比實驗

為了進一步驗證本文提出改進算法的性能,將其與目前主流的目標檢測算法進行對比,包括Faster R-CNN、YOLOv3 tiny、YOLOv4、YOLOv7tiny,保持相同參數,并在同一數據集上進行訓練,將訓練完成的模型在驗證集上進行驗證,實驗結果如表4所示。

由表4可以得知:Faster R-CNN作為傳統兩階段目標檢測算法的代表,其檢測精度與權重大小均難以滿足乒乓球檢測任務需求;在召回率與精確率方面表現良好的檢測算法為YOLOv3 tiny和YOLOv4,其中YOLOv3 tiny在mAP@0.5表現雖然接近改進算法,但是權重大小相比超出了300%,而YOLOv4算法雖然在mAP@0.5表現最好,但由于其平臺移植性差以及過于巨大的權重大小,無法部署在計算資源吃緊的平臺;雖然本文的平均精度表現不是最好的,但在輕量化方面取得最好的效果,原因在于改進了主干網絡,并在特征融合部分對C3模塊進行了改進,大大降低了模型參數與計算冗余,十分適用于實際生產場景。

3.4.4 改進檢測算法結果對比

改進前后算法的檢測效果如圖15、圖16所示,圖15為YOLOv5s算法的檢測結果,圖16為改進算法的檢測結果。可以看出改進后的算法在不同場景、不同亮度下不僅提升了精度,更減少了誤檢率。

由以上結果可知,本文提出的基于改進YOLOv5s的乒乓球輕量化網絡檢測模型在乒乓球檢測任務上具有優秀的檢測效果,不僅大幅降低了YOLOv5s的參數量與權重大小,也減少了使用目標檢測算法的誤檢率,可以更好地應用于乒乓球檢測。

4 結 論

本文通過將主干網絡替換成MobileNetv3并進行改進、將CIoU替換成SIoU、在頸部引入CBAM注意力機制并對C3模塊的DWConv進行替換,減少了網絡冗余和內存訪問。大量的實驗結果表明,改進的檢測算法在mAP、參數量、模型大小綜合指標表現最好,跟YOLOv5s算法對比,mAP雖然只提升了0.5%,但參數量下降了65%左右,在輕量化方面表現優秀,更適合部署在嵌入式平臺上。

雖然改進后的算法在參數量和權重大小上取得了良好的效果,但是在檢測精度指標上并沒有顯著的提升,后續需要進一步優化。

參考文獻:

[1] REDMON J,FARHADI A. YOLO9000: Better, Faster, Stronger [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Honolulu:IEEE,2017:6517-6525.

[2] REDMON J,FARHADI A. YOLOv3: An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].(2018-04-08).https://arxiv.org/abs/1804.02767.

[3] ZOU Z X,CHEN K Y,SHI Z W,et al. Object Detection in 20 Years: A Survey [J].Proceedings of the IEEE,2023,111(3):257-276.

[4] 談小峰,王直杰.基于YOLOv4改進算法的乒乓球識別 [J].科技創新與應用,2020(27):74-76.

[5] LI W J,TAN X F,WANG Z J. Small Object Detection of Table Tennis Based on Deep Learning Network [C]//2020 International Conference on Computer Science and Management Technology (ICCSMT).Shanghai:IEEE,2020:149-152.

[6] DONG X D,YAN S,DUAN C Q. A Lightweight Vehicles Detection Network Model Based on YOLOv5 [J].Engineering Applications of Artificial Intelligence,2022,113:104914.

[7] MANTAU A J,WIDAYAT I W,LEU J-S,et al. A Human-detection Method Based on YOLOv5 and Transfer Learning Using Thermal Image Data from UAV Perspective for Surveillance System [J].Drones,2022,6(10):290.

[8] CHEN S N,DUAN J F,WANG H,et al. Automatic Detection of Stroke Lesion from Diffusion-weighted Imaging via the Improved YOLOv5 [J].Computers in Biology and Medicine,2022,150:106120.

[9] LIU S,QI L,QIN H F,et al. Path Aggregation Network for Instance Segmentation [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:8759-8768.

[10] LIN T Y,DOLLáR P,GIRSHICK R,et al. Feature Pyramid Networks for Object Detection [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Honolulu:IEEE,2017:936-944.

[11] LI H C,XIONG P F,AN J,et al. Pyramid Attention Network for Semantic Segmentation [J/OL].arXiv:1805.10180 [cs.CV].(2018-05-25).https://arxiv.org/abs/1805.10180v1.

[12] HOWARD A,SANDLER M,CHEN B,et al. Searching for MobileNetV3 [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul:IEEE,2019:1314-1324.

[13] CHEN J R,KAO S-H,HE H,et al. Run, Don't Walk: Chasing Higher FLOPS for Faster Neural Networks [C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Vancouver:IEEE,2023:12021-12031.

[14] HU J,SHEN L,ALBANIE S. Squeeze-and-excitation Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023.

[15] HOWARD A G,ZHU M L,CHEN B,et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications [J/OL].arXiv:1704.04861 [cs.CV].(2017-04-17).https://arxiv.org/abs/1704.04861.

[16] SANDLER M,HOWARD A,ZHU M,et al. MobileNetV2: Inverted Residuals and Linear Bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4510-4520.

[17] WANG Q L,WU B G,ZHU P F,et al. ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:11531-11539.

[18] ZHENG Z H,WANG P,LIU W,et al. Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression [J/OL].arXiv:1911.08287 [cs.CV].(2019-11-19).https://arxiv.org/abs/1911.08287v1.

[19] GEVORGYAN Z. SIoU Loss: More Powerful Learning for Bounding Box Regression [J/OL].arXiv:2205.12740 [cs.CV].(2022-05-25).https://arxiv.org/abs/2205.12740.

作者簡介:施博凱(1998—),男,漢族,廣東汕尾人,碩士在讀,研究方向:圖像處理;通訊作者:邱天(1977—),男,漢族,河南周口人,副教授,博士,研究方向:圖像處理、集成電路設計及智能設備研發。

主站蜘蛛池模板: 亚洲天堂网站在线| 亚洲欧美极品| 亚洲欧美不卡| 欧美色图第一页| 日本在线亚洲| a毛片基地免费大全| 亚欧成人无码AV在线播放| 久久黄色一级片| 黄色网址免费在线| 丁香婷婷久久| 日韩国产综合精选| jizz在线观看| 国产又色又刺激高潮免费看| 国产一区二区精品福利| av一区二区无码在线| 国产95在线 | 免费啪啪网址| 欧美色伊人| 亚洲无码免费黄色网址| 国产成人综合网在线观看| AV片亚洲国产男人的天堂| 露脸国产精品自产在线播| 在线播放91| 欧美一区二区自偷自拍视频| 在线亚洲精品福利网址导航| 69视频国产| 99热这里只有精品2| 国产免费人成视频网| 成色7777精品在线| 国产91无码福利在线| 日本不卡在线视频| 国产欧美在线观看一区| 日韩一区二区在线电影| 99re精彩视频| 欧美三级视频网站| 一级毛片免费观看久| Jizz国产色系免费| 2018日日摸夜夜添狠狠躁| 91福利在线看| 亚洲AV无码精品无码久久蜜桃| 六月婷婷精品视频在线观看| 男女男精品视频| swag国产精品| 91无码视频在线观看| 1024你懂的国产精品| 亚洲精品手机在线| 自偷自拍三级全三级视频| 精品国产香蕉伊思人在线| 欧美精品亚洲精品日韩专区va| 欧美自慰一级看片免费| 国内精品免费| 欧美国产日韩在线播放| 四虎永久在线视频| 久草热视频在线| 国产91精品调教在线播放| 精品三级在线| 97人人模人人爽人人喊小说| 成人国产精品2021| 中文字幕丝袜一区二区| 国产剧情无码视频在线观看| 欧美成人一级| 国产一级二级在线观看| 久久精品人人做人人爽97| 中文无码毛片又爽又刺激| 亚洲精品国产日韩无码AV永久免费网| 亚洲无码精品在线播放| 国产在线一区视频| 亚洲精品中文字幕无乱码| 91视频99| 制服丝袜亚洲| 日韩无码视频网站| 狠狠操夜夜爽| 91免费观看视频| 青青青伊人色综合久久| 天堂网国产| 国产成人成人一区二区| 亚洲AV无码乱码在线观看代蜜桃| 亚洲a免费| 欧美a在线| 国产精品美女免费视频大全| 日本高清免费不卡视频| 五月婷婷综合色|