999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)Y0L0v10的輕量化交通流量檢測(cè)

2025-06-19 00:00:00白云劉丹丹
現(xiàn)代信息科技 2025年8期
關(guān)鍵詞:特征檢測(cè)

中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2025)08-0077-06

Abstract:Inorder tosolvetheshortcomingsoftraditional trafficflow statisticsalgorithms inreal-time,stabilityand accuracy,atargetdetectionalgorithmbasedonimprovedYOLOv10algorithm is proposed.TheimprovedYOLOv10algorithm is combined withDepSORTtracking technologytoconstructanew traffcflowstatisticalarchitecture.The traffcscene video oftheactualroadconditioniscollctedtoverifytheaccuracyofthe framework.Theexperimentalresultsshowthatcompared with the originalalgorithm,theaverage accuracyoftheimprovednewalgorithm invehicle detectionis improved by 1 % ,and the statistical accuracy of video traffic flow is improved by 3 . 4 6 %

Keywords: computer vision; traffc flow statistic; YOLO; DeepSORT; intelligent transportatiol

0 引言

在城市化進(jìn)程持續(xù)推進(jìn)的過程中,城市空間規(guī)模呈現(xiàn)出不斷增長(zhǎng)的態(tài)勢(shì)。與此同時(shí),城市中的出行活動(dòng)頻率也日益提高。出行活動(dòng)的增加,一方面直接致使交通流量急劇上升,另一方面也在城市道路網(wǎng)絡(luò)中潛藏著引發(fā)交通事故的風(fēng)險(xiǎn)因素。而因交通流量增多所造成的交通擁堵現(xiàn)象,可借助智能交通系統(tǒng)的智能調(diào)配得以有效緩解。在智能交通系統(tǒng)領(lǐng)域,作為交通基礎(chǔ)信息的重要組成部分,如何獲取準(zhǔn)確且實(shí)時(shí)的車流量信息成為研究重點(diǎn)。

運(yùn)用計(jì)算機(jī)視覺技術(shù)對(duì)車輛進(jìn)行檢測(cè),能夠有效規(guī)避傳統(tǒng)方法維護(hù)不便的弊端。對(duì)于直接從道路上設(shè)置的攝像頭獲取的交通監(jiān)控視頻,需分兩個(gè)步驟來統(tǒng)計(jì)車流量。首先,使用目標(biāo)檢測(cè)算法對(duì)視頻中的車輛進(jìn)行實(shí)時(shí)監(jiān)測(cè);然后利用多目標(biāo)跟蹤技術(shù)對(duì)所檢測(cè)到的目標(biāo)進(jìn)行跟蹤,最終統(tǒng)計(jì)該路段的車流量。

對(duì)于車輛目標(biāo)的檢測(cè),傳統(tǒng)方法包含光流法、幀間差分法以及背景差分法等。這些傳統(tǒng)方法步驟繁雜,且檢測(cè)效率較低[]。近年來,機(jī)器學(xué)習(xí)發(fā)展迅猛,基于技術(shù)的革新與計(jì)算機(jī)設(shè)備算力的提升,目標(biāo)檢測(cè)的主流研究方向逐漸從傳統(tǒng)方法轉(zhuǎn)向深度學(xué)習(xí)方向。相較于傳統(tǒng)的車輛檢測(cè)算法,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法具有精度高、魯棒性強(qiáng)以及實(shí)時(shí)性好的特點(diǎn),能夠有效降低目標(biāo)檢測(cè)中人為因素的影響。

目前,主流的目標(biāo)檢測(cè)算法分為One-stage結(jié)構(gòu)和Two-stage結(jié)構(gòu)。Two-stage中的經(jīng)典算法有FastR-CNN、R-CNN 和 MaskR-CNN 等[2]。由于 Two-stage結(jié)構(gòu)在檢測(cè)目標(biāo)時(shí),需先對(duì)圖像進(jìn)行劃分處理,從而構(gòu)建出一系列候選框,隨后對(duì)候選框內(nèi)的目標(biāo)進(jìn)行檢測(cè)。這使得上述算法雖能在車輛檢測(cè)任務(wù)中獲得較高的準(zhǔn)確率,但檢測(cè)速度較慢,實(shí)時(shí)性欠佳。

而One-stage的經(jīng)典算法有SSD系列、YOLO系列算法。這些算法在對(duì)目標(biāo)進(jìn)行檢測(cè)時(shí)無須生成候選框,僅通過一次檢測(cè)就能獲取目標(biāo)的位置及類別[]。早期的YOLO算法在精度上存在不足,但隨著YOLO系列的迭代發(fā)展,目前的YOLO算法已在計(jì)算成本和檢測(cè)性能之間達(dá)成了有效平衡。在目標(biāo)檢測(cè)環(huán)節(jié)選用YOLO系列算法,以保障目標(biāo)檢測(cè)的精度;而在后續(xù)的車流量統(tǒng)計(jì)方面,則選用DeepSORT多目標(biāo)跟蹤算法,對(duì)已識(shí)別的車輛完成跟蹤與計(jì)數(shù)工作。

1 YOL0v10算法的改進(jìn)

1.1 YOL0v10算法分析

近年來,目標(biāo)檢測(cè)領(lǐng)域的主流算法是YOLO系列算法。YOLO的主要思想是將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為回歸問題,通過一個(gè)神經(jīng)網(wǎng)絡(luò)輸入整幅圖像,從而獲取邊界框的位置和類別信息。在網(wǎng)絡(luò)結(jié)構(gòu)方面,YOLOv1采用傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò),其具備的高效性和實(shí)時(shí)特性使其在檢測(cè)任務(wù)中表現(xiàn)優(yōu)異[4。為進(jìn)一步提升性能和效率,研究者們針對(duì)YOLO的構(gòu)建方式、優(yōu)化方向以及數(shù)據(jù)增廣等展開了深入探討,并取得了一系列突破性成果。

YOLOv10的架構(gòu)主要包含三大部分:主干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck-PAN)和頭端(Head)。其核心組件是主干網(wǎng)絡(luò),涵蓋多層卷積層、C2f層、C2fCIB層、SCDown層、SPPF層及PSA層等元素。這些層負(fù)責(zé)對(duì)輸入圖片進(jìn)行特征提取。

C2f層模塊用于融合不同尺度的特征圖,以提高目標(biāo)檢測(cè)精度和魯棒性。C2fCIB模塊在C2f的基礎(chǔ)上,將其中的Bottleneck替換為CIB模塊,從而增強(qiáng)了網(wǎng)絡(luò)的特征提取能力。在空間-通道分離下采樣方面,YOLOv10利用點(diǎn)卷積和深度卷積解耦空間降采樣與通道增加操作,在降低計(jì)算成本的同時(shí)保持性能。部分自注意力模塊(PSA)僅放置在分辨率最低的stage4之后,以避免自注意力的二次復(fù)雜性帶來過多開銷。在多頭自注意力模塊(MHSA)中,將查詢和鍵的維度設(shè)置為值的一半,并將LayerNorm替換為BatchNorm,以加快推理速度。頭部Head部分采用一致雙重分配策略,省去了NMS步驟,使得推理速度更快。在訓(xùn)練階段,采用一對(duì)多分配策略,為每個(gè)真實(shí)邊界框分配多個(gè)樣本,提供豐富的監(jiān)督信號(hào),助力模型更好地學(xué)習(xí);同時(shí),采用一對(duì)一分配策略,為每個(gè)真實(shí)邊界框分配一個(gè)正樣本,確保訓(xùn)練過程中模型能夠?qū)W會(huì)選擇最佳的預(yù)測(cè)邊界框。而在推理階段,僅使用一對(duì)一頭進(jìn)行預(yù)測(cè),一對(duì)一分配保證每個(gè)目標(biāo)僅有一個(gè)正樣本,避免了冗余預(yù)測(cè)和NMS后處理。

為使兩個(gè)分支在訓(xùn)練過程中保持一致,采用了一致的匹配度量。匹配度量用于評(píng)估預(yù)測(cè)邊界框與真實(shí)邊界框之間的一致性,計(jì)算式為:

其中, P 為分類得分, 和 b 分別為預(yù)測(cè)邊界框

和真實(shí)邊界框, s 為空間先驗(yàn), a 和 β 為超參數(shù)。通過一致的匹配度量,可以確保一對(duì)一頭和一對(duì)多頭在優(yōu)化方向上的一致性,進(jìn)一步提升模型的性能。

1.2 YOL0v10算法的輕量化改進(jìn)

隨著YOLO算法持續(xù)發(fā)展,YOLOv10算法在檢測(cè)效率與精度間已實(shí)現(xiàn)出色的平衡。不過,YOLOv10網(wǎng)絡(luò)規(guī)模大、參數(shù)量多,對(duì)硬件要求苛刻,在移動(dòng)端部署難度較大。針對(duì)這些情況,本文提出一種改進(jìn)的輕量化YOLOv10檢測(cè)算法。圖1為是改進(jìn)后的YOLOv10結(jié)構(gòu)圖。

圖1改進(jìn)YOL0v10結(jié)構(gòu)圖

首先對(duì)YOLOv10n的主干網(wǎng)絡(luò)進(jìn)行修改,用PPHGNet神經(jīng)網(wǎng)絡(luò)替換YOLOv10的主干網(wǎng)絡(luò),圖2為HG-Net神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

PP-HGNet神經(jīng)網(wǎng)絡(luò)包含Stem層、HG塊、LDS層、GAP以及全連接層FC。Stem層由五個(gè)卷積層和一個(gè)最大池化層組成,作為網(wǎng)絡(luò)的初始預(yù)處理層,負(fù)責(zé)從原始數(shù)據(jù)中提取特征。HG塊是網(wǎng)絡(luò)的關(guān)鍵部分,內(nèi)部含有兩組卷積層以及在特定情況下的LightConv。每個(gè)HG塊能夠處理不同抽象層次的數(shù)據(jù),使網(wǎng)絡(luò)得以從低級(jí)特征和高級(jí)特征中進(jìn)行學(xué)習(xí)。LDS層位于HG塊之間,承擔(dān)下采樣任務(wù),降低特征圖的空間維度,從而減輕計(jì)算負(fù)擔(dān)。在進(jìn)行最后一步分類之前,利用GAP層將特征圖的空間維度縮減為每個(gè)特征圖一個(gè)向量,增強(qiáng)網(wǎng)絡(luò)對(duì)輸入數(shù)據(jù)空間變化的穩(wěn)定性。最后對(duì)特征進(jìn)行組合,并通過全連接層將特征映射到所需輸出類別的數(shù)量。這種架構(gòu)的核心思想是采用層次化的方法提取特征,以提升網(wǎng)絡(luò)處理復(fù)雜圖像數(shù)據(jù)的能力。

圖2HG-Net結(jié)構(gòu)圖

接著對(duì)網(wǎng)絡(luò)進(jìn)行特征上采樣處理,特征上采樣是目標(biāo)檢測(cè)模型中恢復(fù)特征分辨率的關(guān)鍵環(huán)節(jié)。在此,從點(diǎn)重采樣角度構(gòu)建上采樣過程,引入Dysample動(dòng)態(tài)上采樣器,如圖3所示。Dysample實(shí)現(xiàn)動(dòng)態(tài)上采樣的模塊設(shè)計(jì)主要包含兩個(gè)方面,Dysample中有兩種生成采樣點(diǎn)的方式:靜態(tài)范圍因子和動(dòng)態(tài)范圍因子。靜態(tài)范圍因子通過將線性層(Linear)與像素洗牌技術(shù)(Pixelshuffle)相結(jié)合,利用固定的范圍因子生成偏移量 ( O ) ,再與原始網(wǎng)格位置(G)相加,從而得到采樣集。除了線性層和像素洗牌,還引入了動(dòng)態(tài)范圍因子,即先生成一個(gè)范圍因子,再用其調(diào)節(jié)偏移量(O)。隨后,輸入特征 ( X) 經(jīng)由采樣點(diǎn)生成器創(chuàng)建采樣集(S),然后借助grid_sample函數(shù)對(duì)輸入特征進(jìn)行重新采樣,進(jìn)而得到上采樣特征 。

2多目標(biāo)跟蹤算法

2.1車輛多目標(biāo)跟蹤算法分析

在進(jìn)行交通視頻的車流量檢測(cè)時(shí),僅依靠目標(biāo)檢測(cè)算法往往會(huì)出現(xiàn)漏檢、復(fù)檢和誤檢問題。誤檢是指將非車輛目標(biāo)檢測(cè)為車輛目標(biāo);當(dāng)檢測(cè)目標(biāo)長(zhǎng)時(shí)間被遮擋,再次出現(xiàn)時(shí),程序會(huì)把已識(shí)別的檢測(cè)目標(biāo)當(dāng)作新的車輛目標(biāo),導(dǎo)致同一個(gè)車輛目標(biāo)被檢測(cè)兩次,這便是復(fù)檢現(xiàn)象。將多目標(biāo)跟蹤算法與目標(biāo)檢測(cè)算法相結(jié)合,能在車輛檢測(cè)過程中持續(xù)跟蹤目標(biāo)車輛,減少復(fù)檢與誤檢的發(fā)生。常用的多目標(biāo)跟蹤算法有SORT算法,該算法依靠車輛運(yùn)動(dòng)信息,先利用卡爾曼濾波預(yù)測(cè)車輛運(yùn)動(dòng)位置信息,再運(yùn)用匈牙利算法進(jìn)行車輛

ID 匹配,然而該算法仍頻繁出現(xiàn)車輛跟丟的情況[5]。

圖3Dysample流程圖

針對(duì)SORT算法的改進(jìn),DeepSORT算法引入了級(jí)聯(lián)匹配和新軌跡確認(rèn)機(jī)制,提升了跟蹤的精準(zhǔn)度和抗干擾能力,使得DeepSORT算法在處理目標(biāo)的重復(fù)檢測(cè)問題上比SORT算法更為有效[。在跟蹤過程中,首先進(jìn)行自標(biāo)檢測(cè),然后利用匈牙利算法對(duì)幀間目標(biāo)進(jìn)行匹配。該算法以8維狀態(tài)空間描述目標(biāo)位置與運(yùn)動(dòng)狀態(tài)并直接進(jìn)行觀測(cè),通過卡爾曼濾波預(yù)測(cè)自標(biāo)位置和速度,最后依靠級(jí)聯(lián)匹配與新軌跡確認(rèn)機(jī)制提高多目標(biāo)跟蹤的準(zhǔn)確性和魯棒性。DeepSORT跟蹤流程如圖4所示。

2.2多目標(biāo)跟蹤核心思想

在多目標(biāo)跟蹤過程中,DeepSORT算法提取目標(biāo)的表觀特征進(jìn)行最近鄰匹配,使用八維空間(u,ν,γ,h,x,シ)來描述運(yùn)動(dòng)狀態(tài),這八個(gè)參數(shù)分別表示boundingbox中心的位置、縱橫比、高度以及在圖像坐標(biāo)中對(duì)應(yīng)的速度信息[]。

對(duì)于處于跟蹤狀態(tài)的目標(biāo),DeepSORT算法對(duì)目標(biāo)之間軌跡的關(guān)聯(lián)進(jìn)行了相關(guān)設(shè)定。當(dāng)某一幀出現(xiàn)一個(gè)運(yùn)動(dòng)目標(biāo),其運(yùn)動(dòng)狀態(tài)與表觀特征均與之前已保存的ID不匹配時(shí),便從該檢測(cè)開始初始化一個(gè)新的目標(biāo)[8]。成功初始化一個(gè)檢測(cè)目標(biāo)后,若該目標(biāo)在前3幀均被正常檢測(cè)且關(guān)聯(lián)成功,則會(huì)產(chǎn)生一個(gè)新track,否則將被刪除。若該目標(biāo)在最大保存時(shí)間之后仍未被關(guān)聯(lián)到,表明該目標(biāo)已離開當(dāng)前視頻畫面,此時(shí)將刪除該目標(biāo)的運(yùn)動(dòng)信息和外觀信息。

匈牙利算法 Unmatched Tracks 匈牙利算法 (門控余弦距離) 未匹配的軌跡 (IoU距離) Deleted Detecions Meaigead Unma匹cted Deteetions Confirmed Confirmed Matched Tracks Unmatched Tracks 已確定的軌跡 大于最大時(shí)間

Tracks Kalman Filter Predict 已確定的軌跡 已匹配的軌跡 未匹配的軌跡 Unconfirmed

軌跡 卡爾曼濾波預(yù)測(cè) 未確定的軌跡 小于最大時(shí)間 Unconfirmed IoUMatch Unmatched Detections 未確定的軌跡 匹配 未匹配的檢測(cè)框 Matched Tracks New Tracks (Unconfirmed) 已匹配的軌跡 新的待定軌跡 3 consecutive hits Kalman Filter Update 連續(xù)三幀匹配成功 卡爾曼濾波融合更新 Unconfirmed . gt; Confirmed 未確定軌跡變?yōu)橐汛_定軌跡

DeepSORT算法與SORT算法不同,它不僅利用運(yùn)動(dòng)特征計(jì)算代價(jià)矩陣,還結(jié)合外觀特征的方式來計(jì)算代價(jià)矩陣,最后借助匈牙利算法進(jìn)行目標(biāo)匹配[]。DeepSORT算法運(yùn)用馬氏距離衡量卡爾曼濾波對(duì)目標(biāo)位置的預(yù)測(cè)與檢測(cè)結(jié)果之間的關(guān)系,以此計(jì)算第 i 個(gè)跟蹤分布和第 j 個(gè)檢測(cè)框之間的不確定性。

為第 i 個(gè)追蹤分布和第 j 個(gè)檢測(cè)框之間的馬氏距離(不確定度)。馬氏距離通過計(jì)算預(yù)測(cè)追蹤位置的平均值與檢測(cè)位置的標(biāo)準(zhǔn)偏差,來估算狀態(tài)估計(jì)之間的不確定性。當(dāng)馬氏距離小于特定閾值 時(shí),則認(rèn)為關(guān)聯(lián)成功。在DeepSORT算法的論文中,給出倒卡方分布計(jì)算出的 9 5 % 置信區(qū)間作為閾值[1]。

對(duì)于每一個(gè)檢測(cè)框 ,使用外觀特征提取網(wǎng)絡(luò)提取出單位范數(shù)的特征向量 為每一個(gè)目標(biāo)創(chuàng)建一個(gè)gallery(樣本集),其用于存儲(chǔ)每一個(gè)目標(biāo)在不同幀中的外觀特征,最多可存儲(chǔ)目標(biāo)關(guān)聯(lián)成功的前100幀中的目標(biāo)外觀特征。然后計(jì)算當(dāng)前幀第 j 個(gè)檢測(cè)框的外觀特征與已存儲(chǔ)在gallery中的外觀特征的最小余弦距離,以此表示檢測(cè)框與追蹤目標(biāo)之間的表觀匹配程度,計(jì)算式為:

當(dāng)最小余弦距離小于指定閾值時(shí),判定該關(guān)聯(lián)成功。接著將運(yùn)動(dòng)特征與表觀特征進(jìn)行加權(quán)運(yùn)算,得到最終的度量值。只有當(dāng) 處于兩種度量閾值的交集區(qū)域內(nèi),才認(rèn)定此次關(guān)聯(lián)成功。

一旦某個(gè)目標(biāo)持續(xù)被遮擋,會(huì)增大卡爾曼濾波的不確定性,降低狀態(tài)空間的可觀察性。此時(shí)引入級(jí)聯(lián)匹配機(jī)制,使更為頻繁出現(xiàn)的目標(biāo)優(yōu)先級(jí)更高。級(jí)聯(lián)

匹配主要依據(jù)軌跡消失的時(shí)間,從小到大對(duì)消失時(shí)間相同的軌跡進(jìn)行匹配,以此確保最近出現(xiàn)的目標(biāo)具有最高優(yōu)先級(jí)。

3 實(shí)驗(yàn)及結(jié)果分析

3.1實(shí)驗(yàn)數(shù)據(jù)及訓(xùn)練環(huán)境

本文為驗(yàn)證改進(jìn)后的車流量統(tǒng)計(jì)算法的有效性與準(zhǔn)確性,選取合肥試驗(yàn)區(qū)黃科路口的數(shù)據(jù),并從中挑選黃山路天智路口的視頻監(jiān)控展開實(shí)證研究。該實(shí)驗(yàn)在一臺(tái)配置為16GB內(nèi)存、搭載NVIDIAGeForceRTX4060GPU且配備i9-13900HXCPU(主頻達(dá)2 . 2 0 G H z )的計(jì)算機(jī)上完成,使用的深度學(xué)習(xí)框架為PyTorch。在選擇車輛檢測(cè)數(shù)據(jù)集時(shí),采用UA-DETRAC公開數(shù)據(jù)集,該數(shù)據(jù)集包含超14萬幀視頻圖像以及8250個(gè)手動(dòng)標(biāo)記的車輛目標(biāo),涵蓋了各類交通場(chǎng)景。

3.2 評(píng)價(jià)指標(biāo)

在上述實(shí)驗(yàn)環(huán)境下,設(shè)置相同的batch-size、img-size,對(duì)改進(jìn)后的模型以及YOLOv10模型開展實(shí)驗(yàn)。本文將平均精度值(mAP)、精度(Precision)、召回率(Recall)作為車輛檢測(cè)精度的評(píng)價(jià)指標(biāo),各指標(biāo)的計(jì)算式為:

由于本文還針對(duì)模型開展了輕量化研究,因此在評(píng)價(jià)指標(biāo)中引入了浮點(diǎn)運(yùn)算次數(shù)(FLOPs)和參數(shù)量(Params)這兩項(xiàng)模型架構(gòu)細(xì)節(jié)參數(shù)。

圖5展示了改進(jìn)后的YOLO算法與原YOLO算法的車輛檢測(cè)圖。從中可以看出,大部分車輛類型的準(zhǔn)確率較為接近,但改進(jìn)后的YOLOv10算法在van(廂式貨車)識(shí)別上的準(zhǔn)確度高于原YOLOv10算法。

圖6為兩者的準(zhǔn)確率曲線對(duì)比,改進(jìn)后模型的準(zhǔn)確率較YOLOv10模型提升 1 % ,實(shí)現(xiàn)輕量化的同時(shí)也保證了模型的精度。

圖6改進(jìn)前后準(zhǔn)確度對(duì)比
圖7改進(jìn)前后召回率對(duì)比

本文采用消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)來驗(yàn)證改進(jìn)算法的有效性。首先,將YOLOv10n作為基線,在

UA-DETRAC數(shù)據(jù)集上開展實(shí)驗(yàn)。由表1可知,在YOLOvl0n算法中引入Dysample動(dòng)態(tài)上采樣器后,模型性能得到提升, 提升了 1 . 7 % 提升了 1 . 4 % 。盡管提升幅度不大,但證實(shí)了Dysample上采樣器應(yīng)用于YOLOV10的可行性。同時(shí),在實(shí)驗(yàn)中用HGNet替換YOLOV10的Backbone,其參數(shù)量和浮點(diǎn)運(yùn)算次數(shù)均顯著降低。其中,參數(shù)量降低了 1 4 . 6 % ,浮點(diǎn)運(yùn)算次數(shù)降低了 1 4 . 6 % ,實(shí)現(xiàn)了模型的輕量化。而改進(jìn)后的YOLOV10算法,在 方面均有所提升,參數(shù)量降低了 1 4 . 1 % ,浮點(diǎn)運(yùn)算次數(shù)降低了 1 4 . 6 % 。

表1改進(jìn)算法與原算法對(duì)比實(shí)驗(yàn)

本文采用虛擬檢測(cè)線的統(tǒng)計(jì)方法來統(tǒng)計(jì)車流量:設(shè)置虛擬線與行車方向垂直,當(dāng)車輛坐標(biāo)跨越虛擬線時(shí),模型會(huì)返回車輛ID,并將其與已記錄的車輛ID進(jìn)行比對(duì),隨后把車流量的統(tǒng)計(jì)值計(jì)入相應(yīng)方向,并累加總車流量。檢測(cè)效果如圖8所示。

圖8交通流量統(tǒng)計(jì)視頻

本文選取了相關(guān)交通視頻,涵蓋白天、雨天和夜間這三種天氣情況的視頻作為實(shí)驗(yàn)素材。對(duì)改良后的算法和YOLOv10n原始算法進(jìn)行了檢驗(yàn),并做好相應(yīng)記錄。為確保實(shí)驗(yàn)結(jié)果的可靠性,采用人工計(jì)數(shù)的方式統(tǒng)計(jì)每個(gè)視頻中的車流量,隨后對(duì)改進(jìn)算法與舊版本YOLOv10n算法的實(shí)驗(yàn)結(jié)果展開比較分析,具體數(shù)據(jù)如表2所示。

表2車流量統(tǒng)計(jì)表

表2中的數(shù)據(jù)表明,本研究所采用的算法,其精確度超越了YOLOv10原始算法。盡管在陰雨天的車輛統(tǒng)計(jì)中,該算法精度略有欠缺,但總體精度相較于YOLOv10原算法提升了 3 . 4 6 % ,滿足了輕量化和精度方面的需求。雖然YOLOv10算法在車輛識(shí)別方面已具備較強(qiáng)能力,然而仍難以避免出現(xiàn)漏檢和重復(fù)檢測(cè)的問題。這兩種情況會(huì)致使車流量統(tǒng)計(jì)結(jié)果與實(shí)際情況產(chǎn)生偏差。而將DeepSORT算法與之結(jié)合,對(duì)目標(biāo)車輛進(jìn)行多目標(biāo)跟蹤,有效降低了車輛漏檢和復(fù)檢的概率;同時(shí)結(jié)合Dysample上采樣技術(shù),提高了車輛檢測(cè)的準(zhǔn)確率。通過對(duì)主干網(wǎng)絡(luò)的改進(jìn),實(shí)現(xiàn)了檢測(cè)算法的輕量化,提升了車流量統(tǒng)計(jì)的實(shí)時(shí)性。

4結(jié)論

本研究通過優(yōu)化YOLOv10算法,并結(jié)合DeepSORT目標(biāo)追蹤算法,對(duì)交通視頻展開了統(tǒng)計(jì)分析。結(jié)果顯示,本文所提出的算法能夠?qū)崿F(xiàn)較為準(zhǔn)確的交通流量統(tǒng)計(jì)。經(jīng)由對(duì)YOLOv10算法的輕量化改進(jìn),其準(zhǔn)確率和實(shí)時(shí)性均能契合交通流量統(tǒng)計(jì)的要求。

參考文獻(xiàn):

[1]宮華,張眾,胡雨桐,等.基于改進(jìn)YOLOv7-DeepSort的紅外視頻多目標(biāo)跟蹤[J].沈陽理工大學(xué)學(xué)報(bào),2024,43(6):20-27.

[2]馬建民,朱磊,駱友曾.基于多目標(biāo)跟蹤算法的車站人流聚集監(jiān)測(cè)研究[J].計(jì)算技術(shù)與自動(dòng)化,2024,43(3):75-81.

[3]張海川.基于輕量型YOLOv5和DeepSort的跟車輔助預(yù)警算法[J].現(xiàn)代信息科技,2024,8(18):59-65.

[4]何水龍,張靖佳,張林俊,等.基于Transformer改進(jìn)的YOLOv5+DeepSORT的車輛跟蹤算法[J].汽車技術(shù),2024(7):9-16.

[5]王佳如,呂斌,吳建清,等.基于沖擊波模型與YOLOv5-DeepSORT單向耦合的排隊(duì)長(zhǎng)度感知方法[J].山東大學(xué)學(xué)報(bào):工學(xué)版,2024,54(5):42-49.

[6]黃浩.基于DeepSORT多目標(biāo)跟蹤算法的研究與實(shí)現(xiàn)[D].南京:南京信息工程大學(xué),2024.

[7]王金環(huán),李寶敏.基于YOLO模型的車流量實(shí)時(shí)采集系統(tǒng)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2024,34(9):209-214.

[8]鄭弘揚(yáng).基于深度學(xué)習(xí)的道路行人異常行為檢測(cè)研究[D].鄭州:河南農(nóng)業(yè)大學(xué),2024.

[9]朱浩.基于深度學(xué)習(xí)的車輛檢測(cè)與跟蹤方法研究[D].淮南:安徽理工大學(xué),2024.

[10]馬慶祿,吳躍川,張梓軒,等.面向車流量智能檢測(cè)的YOLOv7算法改進(jìn)與應(yīng)用[J].公路,2024,69(1):242-249.

作者簡(jiǎn)介:白云(1973一),男,漢族,內(nèi)蒙古烏蘭察布人,副教授,碩士,研究方向:交通信息處理、車輛網(wǎng);劉丹丹(2001一),女,漢族,四川達(dá)州人,碩士研究生在讀,研究方向:深度學(xué)習(xí)、圖像處理。

猜你喜歡
特征檢測(cè)
抓住特征巧觀察
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 亚洲网综合| 国产视频a| 亚洲成AV人手机在线观看网站| 日本久久久久久免费网络| 欧美国产日韩在线播放| 日本免费高清一区| JIZZ亚洲国产| 刘亦菲一区二区在线观看| 国产欧美视频一区二区三区| 国产精品亚洲αv天堂无码| 亚洲无码A视频在线| 日韩天堂网| 国产色爱av资源综合区| 四虎永久免费网站| 一区二区偷拍美女撒尿视频| 丰满人妻久久中文字幕| 免费jizz在线播放| 国产白浆一区二区三区视频在线| 亚洲国产成人精品无码区性色| 国产真实乱子伦精品视手机观看| 国产美女免费网站| 2021国产精品自产拍在线| 亚洲首页国产精品丝袜| 国产在线视频导航| 亚洲三级电影在线播放| 亚洲免费黄色网| 成人午夜在线播放| 国产午夜一级毛片| 最新无码专区超级碰碰碰| 九九热免费在线视频| 99热精品久久| 97精品久久久大香线焦| 久久黄色免费电影| 亚洲天堂伊人| 69精品在线观看| 亚洲无码精彩视频在线观看| 手机在线国产精品| 蜜桃视频一区二区| 国产无码在线调教| 欧美日韩北条麻妃一区二区| 91精品网站| 国产日韩欧美在线视频免费观看 | 国产不卡在线看| 日本免费福利视频| 亚洲—日韩aV在线| 欧美一级高清免费a| 国产日韩精品一区在线不卡 | 久久久久无码精品| 伊人国产无码高清视频| 欧美精品在线看| 欧美精品影院| 成人免费一区二区三区| 国产精品亚欧美一区二区| 久久亚洲中文字幕精品一区| 国产在线97| 欧美性色综合网| 亚洲视频影院| 色首页AV在线| 乱人伦99久久| 91久久精品日日躁夜夜躁欧美| 欧美视频二区| 亚洲二区视频| 日本午夜三级| 99久视频| 婷婷综合缴情亚洲五月伊| 欧美影院久久| 欧美在线一二区| 99热这里只有免费国产精品| 国产亚卅精品无码| 精品乱码久久久久久久| 噜噜噜综合亚洲| 国产福利小视频在线播放观看| 日韩精品专区免费无码aⅴ| 欧美精品高清| 免费在线观看av| 久久人人妻人人爽人人卡片av| 乱人伦视频中文字幕在线| 亚洲男人在线| 野花国产精品入口| 一本大道香蕉久中文在线播放| 久久不卡国产精品无码| 欧美成人一区午夜福利在线|