999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv8n改進的夜間行車目標檢測算法研究

2025-07-16 00:00:00呂輝黃杰張明容上官文斌
湖南大學學報·自然科學版 2025年6期
關鍵詞:實驗檢測模型

中圖分類號:U495;TP391.4 文獻標志碼:A

Abstract:The lightcondition of drivingat night is poor,and the target iseasily blocked,which makesit difficult for the detectionalgorithm toaccurately determine theedgesand shapesof targets.Inaddition,in the process of vehicle moving,fuzzy sense is easily generated on thecaptured objects,resulting in the diffculty of featureextractionof targets.To address these issues,this paper proposes an improved objectdetection algorithm for night-time driving based on YOLOv8n.Firstly,the DCN model is introduced into the C2f moduleand improved nto the DCN - CSP2 module,which is used to replace the C2f module in the Backbone.This enhances the algorithm to capture the shape and edge information of target objects more accurately,improves the feature extraction capability, and reduces the computational burden.Secondly,the DWConv module is specifically introduced into the Neck to reduce thenumber of model parameters while maintaining computational performance,and improve the computational eficiencyandachievethe lightweightofthe model.Aditionally,toaddressthe issueof theoriginal NMS algorithm potentially causing the loss of important targets when they are partially obscured,a decay function based on the overlap size between the candidate detection boxes and the reference box is introduced.This makes important targets more likelyto be retainedand participate in thesubsequent NMS process,thereby improving the detectionperformance of the model.Analysis resultsshow that compared with YOLOv8n,the improved algorithms achieve a 6.2% increase in mAP (ω50 and a 5.7% increase in mAP @ 50:95onthermsw_5k nightdataset,and ? reduce the computational burden and the number of model parameters,achieving a balance between model lightweight and high performance.The improved algorithm efectively enhances the detection capability for nighttime targets,and itlays a solid foundation for the algorithm to be applied to the terminal devices.

Key Words:object detection;night-time driving;image recognition; YOLOv8n;lightweight

隨著城市化的加速和交通流量的增加,夜間駕駛成為許多駕駛員的常態.然而,在夜間駕駛時,由于光照條件受限,駕駛員的視野會受到顯著影響,尤其在低照度或車流量大的惡劣環境下.這不僅對駕駛能力帶來了很大挑戰,也增加了交通事故風險1.目標物體的類別繁多,涵蓋了機動車輛、行人、自行車等多種類型.這些物體在外觀和尺寸上存在顯著差異,這些因素均提升了夜間行車目標檢測的難度.在夜間駕駛場景中,目標物體可能由于車輛運動而變得模糊不清,或者被背景光線干擾而變得難以區分.

為了應對夜間行車目標檢測的挑戰,近年來,國內外學者已經做了大量相關研究工作.夜間行車目標檢測方法可以分為基于先驗知識、基于傳統機器學習以及基于深度學習等方法.基于先驗知識的方法一般利用車燈、車輛底部陰影等較低級特征進行檢測.Ma等2提出了一種基于夜間視頻數據的車輛特征提取與檢測算法,通過確定前方車輛車尾燈的位置,利用配對算法檢測出前方車輛.在基于先驗知識的方法中,單一特征往往難以充分表達更深層次的語義信息,在面對遮擋或光線變化等復雜情況時,容易導致漏檢和誤檢.

基于傳統機器學習的方法,其檢測過程一般分為特征提取和分類器判斷兩個階段.首先利用車輛具有的一些共同特征獲取可能存在目標車輛的區域,然后利用分類器對這些區域的特征進行分類并判斷是否含有車輛3.Bell等4針對夜間車輛檢測,用一個描述符來表征整幅圖像,并由共享同一圖像描述符的凹形網格分類器來估計車輛位置,通過分析夜間復雜的光線模式來檢測特定圖像區域中的車輛.Xue等5提出了一種特征提取與支持向量機相結合的多特征融合算法,實現了對行人和車輛感興趣區域的快速獲取,提高了對夜間行人和車輛的檢測精度.然而,傳統的機器學習方法在處理大規模數據或實時應用時會變得復雜而耗時.

隨著深度學習技術的不斷進步,基于卷積神經網絡的目標檢測技術在準確性方面相較于傳統方法實現了顯著的提升6.張炳力等7提出基于Retinex圖像增強算法,通過改進傳統的損失函數,提高了對夜間車輛的檢測能力,但Retinex算法會增加目標檢測流程的計算負擔,降低檢測速度和效率.當前,YOLO系列模型憑借檢測速度快和模型輕量化等出色的性能受到了學者們的廣泛關注.孔烜等8利用ZeroDCE圖像增強算法對低光照圖像進行增強,再使用改進的AFF-YOLO目標檢測算法對增強后的圖像進行車輛檢測,有效提升了低光照環境下車輛檢測的精度.江岫等基于 YOLOv4 ,引入深度可分離卷積和Inceptionv3結構,并采用 K-means++ 聚類算法重新確定錨框,提高了算法對小目標車輛的檢測性能.Chen等[10]比較了各種目標檢測算法的優缺點,利用YOLOv5進行了行人-車輛目標檢測實驗,驗證了其檢測精度.Xia等\"基于YOLOv5,引入改進的M-ELAN結構和SimAM注意力機制,增強了模型的多尺度特征提取能力,同時引入EIoU損失函數加快模型的收斂速度,提高了目標檢測的精度和效率.張峻袆等基于YOLOv7,引入SimAM注意力機制設計特征提取模塊和特征融合模塊,提高了網絡在弱光環境下的車輛檢測能力.以上對YOLO系列模型的改進使得檢測器的精度有所提升,但模型計算量增加的問題仍然比較突出,模型的輕量化與檢測精度的提高難以得到有效的平衡.

本文針對夜間行車目標檢測問題,從目標特征不明顯、小目標檢測和模型輕量化的角度出發,集中關注YOLOv8n中主干網絡、頸部網絡和NMS算法三個視角的改進和優化,提出了一種輕量且高效的夜間行車目標檢測算法.

1相關模型及改進方法

1.1改進YOLOv8n

YOLOv8是Ultralytics開發的目標檢測算法,在進一步提高模型性能和靈活性的同時,YOLOv8更加快速、準確且易于使用.YOLOv8分為 n,s,m,l,x 共5個模型,模型參數量和計算量隨著模型深度和寬度的增大而增加[13].其中,YOLOv8n檢測速度快且準確率高,適合部署在低算力需求的設備上.夜間行車目標檢測任務受到設備資源的限制,對高準確率、低延遲、易部署的模型更加青睞.本文在YO-LOv8n模型的基礎上,引人DCN_CSP2模塊和DW-Conv(depth-wiseconvolution)模塊,并改進原始NMS算法,實現了模型的輕量化和精確度的提升.改進算法的網絡結構如圖1所示.

圖1改進算法的網絡結構Fig.1Network structureof improved algorithm

1.2DCN_CSP2模塊

Deepamp;CrossNetwork(DCN)是一種用于預測和推薦系統的深度學習模型[14],通過結合淺層交叉網絡和深度交叉網絡來實現高效的特征交叉和非線性建模,從而提升推薦系統的準確性和效率.DCN模型的核心思想是在淺層交叉網絡和深度交叉網絡之間引入“交叉層”,用于捕捉輸入特征之間的交互關系.淺層交叉網絡主要用于處理低階的特征交叉,它將輸入特征進行兩兩組合后,通過一個全連接層輸出交叉特征向量.深度交叉網絡則用于處理高階的特征交叉,它通過多層神經網絡來學習輸人特征之間的復雜交互關系.DCN模型的結構如圖2所示.

DCN模塊替代傳統的卷積模塊,將輸入特征圖的通道數擴展到原來的兩倍,再分成兩部分.一部分作為DCN模塊的輸入,另一部分與DCN模塊的輸出進行拼接,從而增加了網絡的寬度和深度,提高了模型的表達能力和性能.

圖2DCN模型結構Fig.2 DCN model structure

DCN模型的輸入是圖像的特征向量,包括目標ID以及其他相關特征,如位置、顏色、紋理等.DCN模型中的交叉層將輸入特征向量進行交叉,并與原始特征向量連接起來,作為深度交叉網絡的輸入.深度交叉網絡包括多個交叉層和全連接層,用于學習輸入特征之間的復雜交互關系.DCN模型可由下式表示:

圖3DCN_CSP2模塊結構Fig.3 DCN_CSP2 module structure

xl+1=x0?(Wl×l+bl)+xl

式中: x0∈Rd 是包含1階原始特征的基礎層,通常設置為輸入層; 分別表示輸入l個交叉層和輸出 (l+1) 個交叉層; Wl∈Rd×d,bl∈Rd 分別是學習到的權重矩陣和偏差向量.

引人DCN模型對傳統卷積進行改進,可以學習特征圖中每個點的偏移量和權重,從而更加精準地捕捉目標物體的形狀和邊緣信息.如圖3所示,在DCN_CSP2模塊中,通過在Bottleneck模塊中使用

1.3DWConv模塊

相對于傳統的卷積,深度可分離卷積[15(DW-Conv)可以在保持模型性能的同時減少模型參數量,從而使模型輕量化并提高計算效率,是一種高效的卷積操作.DWConv模塊的結構如圖4所示.

圖4DWConv模塊結構Fig.4DWConv module structure

DWConv模塊可以將卷積操作分解為深度卷積和逐點卷積兩個步驟.在深度卷積中,輸人特征圖的每個通道單獨進行卷積操作.如果輸入特征圖有 N 個通道,那么將有 N 個卷積核,每個卷積核僅與相應的單個輸人通道進行卷積,主要負責捕獲空間特征,逐點卷積是在深度卷積之后,用一個 1×1 卷積合并深度卷積的輸出.逐點卷積使用的卷積核跨越所有輸入通道,目的是學習通道間的特征組合.DW-Conv模塊可由下式表示:

式中: yi,j,k 是第 i 行、第 j 列、第 k 個通道的輸出值;ωp,q,k 是大小為 K×K 的深度卷積核的第 k 個通道的權重; x(i-1)×S+p,(j-1)×S+q,k 是輸入張量中第 i 行、第 j 列、第 k 個通道的 (p,q) 位置的值; p,q 分別是深度卷積核的高和寬; s 是步長.

與傳統卷積不同,DWConv模塊為每個通道分配了不同的卷積核,使得每個卷積核專門處理輸入張量的一個通道.在頸部網絡中引入DWConv模塊,可以有效減少模型計算量并提高計算效率,使模型參數量減少,從而提高模型的輕量化程度.

1.4Non-ZeroNMS算法

非極大值抑制(NMS)是一種在目標檢測算法中廣泛使用的后處理步驟[16],用于減少重復檢測,并提高檢測精度.在YOLOv8中,NMS的目的是通過篩選出具有最高置信度的檢測框來消除冗余的檢測結果.NMS針對每個類別的檢測框,按照置信度進行排序,并選擇置信度最高的檢測框作為基準框,然后遍歷剩余的檢測框,計算其與基準框的重疊程度,如果重疊程度超過一定閾值,則將該檢測框剔除.這個過程不斷迭代,直至所有檢測框都被檢查完畢.

原版YOLOv8采用的NMS算法只保留一個具有最高置信度的檢測框,而重疊的候選檢測框被完全排除,沒有考慮它們與目標對象之間的相似性,這可能導致重要目標丟失.當目標與其他物體密集排列或被部分遮擋時,NMS會傾向于選擇置信度最高的檢測框,而忽略其他可能對目標定位更精確的檢測框.針對相鄰的檢測框,可以設置一個基于候選檢測框與基準框重疊部分大小的衰減函數,而不是直接將其分數置為零.具體地,如果一個候選檢測框與目標對象有很高的重疊度,重疊的候選檢測框會被賦予較低的分數;但如果只有少量重疊,那么它的原始分數不會受到太大的影響,如下式所示:

式中: 是NMS處理后的候選檢測框得分; scorei 是當前候選檢測框得分; IoU(M,bi) 是第 M 個候選檢測框和第 bi 個候選檢測框之間的IOU值,候選檢測框 bi 非常接近目標(重疊度在0.7以內),但得分略低于最高得分; σ 是NMS參數,取值范圍為[0.1,1.0].

基于指數函數對NMS進行改進并引入分數閾值,當候選檢測框與基準框重疊度增加時,改進后的NMS會降低候選檢測框的分數,只有高于分數閥值的候選檢測框才能參與后續的NMS過程,從而更加合理地過濾掉一些低置信度的候選檢測框.在每一輪NMS過程中,選取具有最大分數的候選檢測框作為代表,與其他候選檢測框進行重疊度計算,通過將具有最大分數的候選檢測框提前到當前輪次的第一個位置,使其更有可能被保留下來,從而提高模型的檢測性能.

2實驗數據集

夜間行車目標檢測是在夜間駕駛車輛過程中對車輛前方出現的行人、車輛等實例進行檢測和識別,在公共安全、自動駕駛、商業規劃等領域應用廣泛.在夜間駕駛的環境中,由于存在個體差異、相互遮擋、光線明暗變化以及視角差異等多種情況,夜間行車目標檢測數據集必須具備充分的代表性和多樣性.

本文針對夜間駕駛場景使用Roboflow公司發布的rmsw_5k_night數據集進行模型的訓練和驗證.該數據集是一個目標小、光線差、遮擋嚴重的用于夜間行車目標檢測的公開數據集.該數據集數量龐大,注釋豐富,包含5000張夜間駕駛場景照片,所有照片的分辨率均為 640×640 ,數據集示例如圖5所示.rmsw_5k_night數據集包括11個標簽類別,分別是自行車、公共汽車、轎車、摩托車、火車、卡車、其他車輛、行人、騎行者、交通信號燈、交通標志,各個標簽的數量分布如表1所示.數據集按照8:1:1的比例劃分為訓練集、驗證集和測試集,用于模型的訓練、驗證和測試,其各項指標適用于評估夜間駕駛場景下的目標檢測算法,同時也非常具有挑戰性.

圖5rmsw_5k_night數據集示例Fig.5Exampleofrmsw_5k_nightdataset
表1rmsw_5k_night數據集標簽數量Tab.1 Thenumberoflabelsinthermsw_5k_nightdataset

中,真正為正類的樣本所占的比例.召回率 R 是指在所有真正為正類的樣本中,被模型正確檢測出的比例.AP表示單類標簽的平均精確度,mAP是所有標簽的平均精確度的和除以所有類別總數.mAP的值越大,則說明模型的性能越好.精確度、召回率、AP、mAP公示如下:

式中:TP表示真正例;FP表示假正例;FN表示假負例; P(R) 表示一個標簽的 P-R 曲線; k 表示標簽數.在本文中分別使用 mAP@50 (IOU閾值為0.5)和mAP@50:95 (IOU閥值為 0.5~0.95 兩個指標來評估模型性能.

3.2實驗環境

實驗環境配置為:實驗平臺的操作系統為Win-dows10,GPU型號為NVIDIAGeForceRTX3090,顯存為24GB.使用的Python版本為3.8.17,torchvision使用的CUDA版本為11.7,深度學習框架為Pytorch-GPU 2.0.0+cull7

3.3實驗結果與分析

實驗使用rmsw_5k_night數據集,在相同的實驗環境下進行多組實驗,以評估增強模塊對YOLOv8n(基線模型,實驗1的影響.

3實驗分析

3.1評價指標

本次實驗采用平均精度均值(mAP)、參數量(Parameters)、模型計算力(GFLOPs)、每秒傳輸幀數(FPS)這四個評價指標來衡量模型性能.參數量是指模型訓練過程中的參數總量,用來衡量模型的空間復雜度和規模,因此低參數量是評估模型輕量化的重要指標.模型計算力是指模型在進行一次前向傳播時的浮點運算數量,用來評估模型的計算資源消耗情況,較低的計算力需求更加適用于低算力設備或場景[13].每秒傳輸幀數是指模型每秒處理的圖像幀數,用來衡量模型的處理速度,每秒傳輸幀數越大,模型在實時檢測場景中的表現越優,能夠更快地響應和處理輸入數據.

精確度 P 是指在所有被模型檢測為正類的樣本

3.3.1消融實驗

如表2所示,將主干網絡中的C2f模塊替換成DCN_CSP2模塊(實驗2)后,模型的 $\mod \mathrm { P } ( \mathscr { Q } 5 0$ 下降0.7個百分點, mAP@50:95 下降0.5個百分點,模型參數量略有增加,但模型計算力減少 6.2% .DCN_CSP2模塊以更少的模型計算力提取特征的同時盡可能保證了模型精度,有效減小了模型對算力資源的需求.

DWConv模塊是一種高效的卷積操作,在頸部網絡中引人DWConv模塊(實驗3)后,與基線模型(實驗1)相比,模型的 下降0.8個百分點,mAP@50:95下降0.7個百分點,但模型計算力GFLOPs基本不變,且模型參數量減少 5% .DWConv模塊有效減少了模型參數量,提高了計算效率,提高了模型的輕量化程度.

在引人Non-ZeroNMS算法(實驗4)后,與基線模型相比,模型參數量和模型計算力保持不變,而模型的 mAP@50 增加2.5個百分點, mAP@50:95 增加3.4個百分點.這主要歸因于數據集上含有大量受到嚴重遮擋的小目標,Non-ZeroNMS算法能極大地保留對目標定位更精確的檢測框,從而能檢測到更多的目標,檢測精度隨之提升.

表2rmsw_5k_night數據集上的消融實驗結果

如表2的實驗7所示,我們在頸部網絡中引入DWConv模塊,同時引入Non-ZeroNMS算法,與基線模型相比,實驗7的模型計算力基本不變,模型參數量減少 5% ,這與僅引人DWConv模塊(實驗3)的實驗結果基本一致;但與實驗1相比,實驗7的 mAP(a) 50保持不變,而 mAP@50:95 增加1.5個百分點.與實驗3相比,實驗7的模型性能更佳,成功驗證了結合模塊在檢測性能上超過了單個組件模塊,而且這種提升并非簡單累加.實驗8與基線模型相比,改進算法在 rmsw-5k-night 數據集上的模型參數量和模型計算力需求均減小,而 mAP@50 增加了6.2個百分點, mAP@50:95 增加了5.7個百分點,實現了模型輕量化與高性能的提升.

3.3.2對比實驗

為驗證改進算法的檢測性能,將改進算法與現階段主流的目標檢測算法FasterR-CNN[17] SSD[18] )Retinanet[19]、YOLOv4、YOLOv5、YOLOv7等,在rmsw_5k_night數據集上進行檢測性能的對比分析,結果如表3所示.

本文方法對比兩階段檢測算法FasterR-CNN,mAP@50 提升了16.4個百分點;對比以ResNet作為特征提取網絡的SSD算法, 提升了11.9個百分點;對比Retinanet檢測算法,mAP@50提升了30.8個百分點.同時,改進算法的 mAP@50 分別比YOLOv4、YOLOv5、YOLOv7高 13.3、8.6、8.8 個百分點.此外,YOLOv7的每秒傳輸幀數較大,其模型檢測速度較快,但其模型參數量和模型計算力需求較大,難以滿足模型輕量化的需求.與其他算法相比,本文方法以較小的模型參數量以及模型計算力需求,獲得較大的每秒傳輸幀數,有效提高了模型檢測效率.

表3rmsw_5k_night數據集上的對比實驗結果Tab.3 Results of comparison experiments onthermsw_5k_nightdataset

表4為不同算法在rmsw_5k_night數據集上的mAP@50 對比分析.

根據表1和表4可知,在 數據集中,由于摩托車、火車和其他車輛這三類標簽的樣本數目較少,本文方法及大部分目標檢測算法未能將其有效檢測出來.然而,本文方法在自行車、公共汽車和卡車類別上識別準確率分別達到了 51.4% 、40.1% 和 40.3% ,遠超過同類別中的其他算法.本文方法在rmsw_5k_night數據集上的 mAP@50 達到了32.2% ,表明改進后的網絡結構對于夜間行車目標檢測任務具有高性能.此外,與其他目標檢測算法相比,本文方法的模型參數量和模型計算力需求也比較小,兼顧了精度和輕量化二者之間的平衡.

3.4可視化結果分析

如圖6~圖8所示,在rmsw_5k_night數據集上的訓練過程中,本文方法的邊界框損失曲線、分類損失曲線、對象置信度損失曲線與基線模型基本一致;隨著訓練的進行,三類損失曲線逐漸下降且變化平穩,表明本文方法有效,模型參數正在向最優解靠近,如圖9\~圖10所示,本文方法的 mAP@50 和mAP@50:95 在后期訓練過程中高于基線模型,表明本文方法在得到充分學習和訓練后,性能得到了有效提升.如圖11所示,在夜間行車目標檢測的實際場景中,引人DCN_CSP2模塊和DWConv模塊,并改進原始NMS算法,能在提升模型輕量化的同時更加精準地定位目標,提高夜間駕駛過程中對行人和車輛等目標的檢測精度.

表4不同算法在rmsw_5k_night數據集上的 mAP@50 對比分析Tab.4 Comparative analysis of mAP@50 of differentalgorithms onthermsw_5k_nightdatas
圖6邊界框損失曲線
圖7分類損失曲線
圖8對象置信度損失曲線
圖9IOU閾值為0.5的平均精度均值曲線
圖10IOU閾值為0.5~0.95的平均精度均值曲線 Fig.10 The average accuracy mean curve for IOU thresholdsof O.5 to 0.95
圖11改進算法在rmsw_5k_night數據集上的可視化檢測結果Fig.11Visual detectionresults of the improved algorithmonthermsw_5k_nightdataset

4結論

本文針對夜間駕駛過程中車輛特征不明顯、環境光照干擾等因素導致目標檢測效果不佳的問題,提出了一種基于YOLOv8n改進的夜間行車目標檢測算法.

研究結果表明:本文提供的方法與基線模型相比,在rmsw_5k_night數據集上的模型參數量和模型計算力需求均有所減小, mAP@50 和 mAP@50:95 均有所提高,其中 mAP@50 提升了6.2個百分點,mAP@50:95 提升了5.7個百分點,在rmsw_5k_night數據集上的 mAP@50 達到了 32.2% ,實現了模型輕量化與高性能的提升.本文方法在提高模型檢測精度的同時,通過輕量化設計,在算力資源受限的設備上也能高效運行,這使得其成為一個有潛力應用于實際場景的目標檢測算法.此外,本文提供的方法每秒傳輸幀數為40.3,雖然遠大于其他傳統目標檢測算法,但仍有較大的提升空間,未來可進行進一步的優化與改進,以滿足夜間行車目標檢測任務的高性能要求.

參考文獻

[1] WOODJM.Nightime driving:visual,lighting and visibility challenges[J].Ophthalmicand Physiological Optics,2020, 40(2):187-201.

[2] MAGS,CAIMT,CHENGL,etal.Vehicle detectionat night basedonthefeatureoftaillightandlicenseplate[C]//Green Connected Automated Transportation and Safety.Singapore: Springer Singapore,2022:723-744.

[3] 胡憶平.基于深度學習的夜間車輛檢測算法研究[D].長沙: 湖南大學,2020. HUYP.Research on night vehicle detection algorithm based on deep learning[D].Changsha:Hunan University,2O2O.(in Chinese)

[4]BELL A,MANTECONT,DIAZC,et al.A novel system for nighttime vehicle detectionbased on foveal classfiers with realtimeperformance [J]. IEEETransactionsonIntelligent Transportation Systems,2022,23(6):5421-5433.

[5]XUE T,ZHANG ZQ,MA WN,et al.Nighttime pedestrian and vehicledetectionbased ona fast saliency and multifeaturefusion algorithm for infrared images[J].IEEE Transactions on Intelligent Transportation Systems,2022,23(9):16741-16751.

[6]郭慶梅,劉寧波,王中訓,等.基于深度學習的目標檢測算法 綜述[J].探測與控制學報,2023,45(6):10-20. GUO QM,LIUNB,WANG ZX,et al.Review of deep learning based object detection algorithms[J].Journal of Detection and Control,2023,45(6):10-20.(in Chinese)

[7]張炳力,秦浩然,江尚,等.基于RetinaNet及優化損失函數的 夜間車輛檢測方法[J].汽車工程,2021,43(8):1195-1202. ZHANG BL,QIN HR,JIANG S,et al.A methodof vehicle detection at night based onRetinaNet and optimized loss functions[J].AutomotiveEngineering,2021,43(8):1195- 1202.(in Chinese)

[8]孔烜,彭佳強,張杰,等.面向低光照環境的車輛目標檢測方 法[J].湖南大學學報(自然科學版),2025,52(1):187-195. KONGX,PENGJQ,ZHANGJ,etal.Vehicle object detection method for low-light environment[J].Journal of Hunan University (Natural Sciences),2025,52(1):187-195.(in Chinese)

[9]江岫,殷時蓉,羅天洪,等.基于改進YOLOv4的多目標車輛 檢測算法[J].計算機工程與設計,2024,45(4):1181-1188. JIANGS,YINSR,LUOTH,etal.Multi-objectvehicle detection algorithm based on improved YOLOv4[J].Computer Engineering and Design,2024,45(4):1181-1188.(in Chinese)

[10]CHEN Z, CHEN X,YAN X,et al.A lightweight pedestrian vehicle detection algorithm based on YOLOv5[J].Journal of Advancesin ArtificialLifeRobotics,2022,2(4):171-176.

[11]XIA WJ,LIPQ,HUANG HY,et al.TTD-YOLO:a real-time traffc target detection algorithm based on YOLOV5[J].IEEE Access,2024,12:66419-66431.

[12]張峻祎,丁冰,丁潔.基于弱光環境的車輛識別研究[J].現 代電子技術,2024,47(7):17-24. ZHANGJY,DINGB,DINGJ.Research onvehicle detection based on low light environments [J].Modern Electronics Technique,2024,47(7):17-24.(in Chinese)

[13]王澤宇,徐慧英,朱信忠,等.基于YOLOv8改進的密集行人 檢測算法:MER-YOLO[J].計算機工程與科學,2024,46(6): 1050-1062. WANGZY,XU HY,ZHUXZ,et al.An improved dense pedestrian detection algorithm based on YOLOv8:MER-YOLO [J].ComputerEngineeringamp; Science,2024,46(6):1050- 1062.(in Chinese)

[14]WANGRX,SHIVANNAR,CHENGD,etal.DCN V2: improved deepamp; cross network and practical lessons for webscale learning to rank systems [C]//Proceedings of the Web Conference 2021.April 19-23,2021,Ljubljana,Slovenia: ACM,2021:1785-1797.

[15]ZHOU G,CHEN W,LI X,et al. Split depth-wise separable graph-convolution network for road extraction in complex environments from high-resolution remote-sensing images [J]. IEEETransactions on Geoscience and Remote Sensing,2022, 60:1-15.

[16]ZHANGJM,SCLAROFF S,LIN Z,et al.Unconstrained salient object detection via proposal subset optimization[C]/2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE, 2016:5733-5742.

[17]REN SQ,HE K M,GIRSHICK R,et al.Faster R-CNN: towards real-time object detection with region proposal networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[18]LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot MultiBox detector[M]//Computer Vision- ECCV 2016.Cham: Springer International Publishing,2016:21-37.

[19]LINTY,GOYALP,GIRSHICKR,etal.Focal lossfor dense object detection [C]/O17 IEEE International Conference on Computer Vision(ICCV).October 22-29,2017,Venice,Italy. IEEE,2017:2999-3007.

猜你喜歡
實驗檢測模型
一半模型
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 波多野结衣AV无码久久一区| 不卡色老大久久综合网| 人人妻人人澡人人爽欧美一区| 亚洲日本一本dvd高清| 国产精品区网红主播在线观看| 日韩精品一区二区深田咏美| 四虎精品免费久久| 免费高清毛片| 97国产精品视频自在拍| 久久久久88色偷偷| 成人字幕网视频在线观看| 久久精品亚洲中文字幕乱码| 国产女人在线观看| 香蕉国产精品视频| AV熟女乱| 亚洲 欧美 中文 AⅤ在线视频| 制服无码网站| 日本免费一区视频| 亚洲天堂日韩av电影| 国产精品私拍在线爆乳| 无码中文字幕乱码免费2| 在线欧美一区| 欧美人在线一区二区三区| 中文字幕 日韩 欧美| 韩国v欧美v亚洲v日本v| 蜜桃视频一区| 欧美精品在线免费| 亚洲首页国产精品丝袜| 欧美成人h精品网站| 日韩最新中文字幕| 亚洲中文字幕日产无码2021| 91色国产在线| 国产一区二区在线视频观看| 五月天香蕉视频国产亚| 午夜精品国产自在| 77777亚洲午夜久久多人| 五月激情婷婷综合| 国产成人精品高清在线| 国产精品999在线| 亚欧成人无码AV在线播放| 亚洲国产AV无码综合原创| 免费视频在线2021入口| 亚洲区视频在线观看| 国产福利在线免费观看| 特级毛片免费视频| 欧美精品不卡| 久久中文字幕不卡一二区| 日本免费精品| 亚洲第一中文字幕| 亚洲国产欧美目韩成人综合| 亚洲国产精品日韩欧美一区| 国产精品亚洲专区一区| 宅男噜噜噜66国产在线观看| 伊伊人成亚洲综合人网7777| 色一情一乱一伦一区二区三区小说 | 香蕉久人久人青草青草| 91麻豆精品国产高清在线| 一级毛片不卡片免费观看| 免费在线播放毛片| 国产午夜小视频| 亚洲美女一级毛片| 国产极品嫩模在线观看91| 国产欧美日韩精品第二区| 成人亚洲视频| 亚洲中文字幕日产无码2021| 亚洲av综合网| 国产后式a一视频| 日韩精品无码免费专网站| 毛片基地美国正在播放亚洲 | 日韩毛片免费观看| 人人妻人人澡人人爽欧美一区| 日韩av高清无码一区二区三区| 九九热精品视频在线| 国产综合欧美| 亚洲男人天堂2018| 亚洲愉拍一区二区精品| 色悠久久久| 免费无码在线观看| 国产精品亚洲五月天高清| 欧美精品成人一区二区在线观看| 欧美三级日韩三级| 亚洲天堂久久|