999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向高速公路的車輛視頻監控分析系統

2021-11-12 01:58:58毛昭勇王亦晨沈鈞戈
西安電子科技大學學報 2021年5期
關鍵詞:高速公路特征融合

毛昭勇,王亦晨,王 鑫,2,沈鈞戈

(1.西北工業大學 無人系統技術研究院,陜西 西安 710072;2.陜西交通控股集團有限公司,陜西 西安 710065)

在高速公路管理中,保障道路交通的穩定和暢通是重中之重。然而,高速公路車輛異常事件,如違法停車、交通擁堵等時常發生,極大程度地影響了高速公路暢通與安全。目前高速公路車輛監測多停留在基于全球定位系統(GPS)的位置信息監測[1]以及事故后調取視頻行車記錄進行取證還原上。此方法由于信息傳輸延遲,故缺乏交通車輛監測的實時性和準確性。隨著我國高速公路視頻監控規模的迅速擴大,已經基本實現了路網視頻監控全覆蓋,因此,利用監控視頻實現車輛監測可提升高速公路智能化管理水平,即通過監控攝像頭采集視頻流數據,并對視頻流中的車輛進行檢測和跟蹤,實現交通車輛監測應用。近年來,隨著計算機硬件發展和運算力的提高,尤其是圖形處理器(GPU)的廣泛應用,研究者利用深度學習方法對車輛進行檢測和跟蹤[2-4],使得高速公路場景下的車輛監測更準、更快、更智能化。

目前,基于智能視頻分析的高速公路車輛檢測與跟蹤面臨以下幾個問題:(1)車輛實時性檢測要求高。由于高速公路交通流量檢測和異常事件等車輛檢測信息需要實時的反饋,并且要求同一平臺運行多路監控視頻,因此對目標檢測算法的速度和效率都要求較高,需要完成實時的檢測和跟蹤以確保及時地反饋高速路況。(2)車輛尺度變化大。由于高速公路場景中存在車輛由近及遠、由遠及近等車輛尺度變化的情況,且車輛目標在圖片的不同位置會有明顯的形變,同一車輛目標在攝像頭畫面邊緣位置會發生明顯的大小形變,影響小目標的檢測和跟蹤精度。(3)場景變化大。由于高速公路監控的架設場景不同,攝像頭視角和高度也會存在差異。場景變化對檢測算法的影響較大。

面向高速公路的車輛視頻監控分析方法的基礎包括目標檢測、跟蹤等技術。目前,目標檢測技術已經有著廣泛而成熟的應用,主要有一階段算法和兩階段算法兩大類別:一階段算法從圖像直接預測目標,速度較快但精度較低;兩階段算法先在圖像上產生可能包含目標的候選框,再對候選框進行修正,該類算法精度高但速度較慢,以區域卷積神經網絡(Region-Convolution Neural Network,RCNN)系列[5-7]為代表。一階段算法,如YOLO檢測算法[8],憑借其檢測速度快且不失準確率的優點目前被廣泛應用于目標檢測領域中。特別是YOLOv3[9],其主干網絡 DarkNet53 特征提取性能強大,檢測精度有了很大提升,成為目標檢測領域精度和速度都表現較好的算法。雖然YOLOv3對在檢測精度上表現優異,但是其主干網絡DarkNet53仍包括53層卷積層,巨大的計算量和參數量會影響實際高速公路車輛監測的實時性。YOLOv3-tiny[9]是一種低參數量的檢測方法,只需34.7 MB的儲存空間,有訓練速度快、訓練時所需顯存少、檢測速度快等優點。但YOLOv3-tiny對圖像的深層特征的提取能力較弱,泛化能力較差,尤其是對多場景變化以及尺度變化較大的物體檢測效果不理想。為解決實時性問題,在特征提取主干網絡上,筆者將主干部分特征提取網絡替換成EfficientNet[10]輕量級網絡,其為一個可以平衡縮放網絡輸入圖像分辨率、網絡寬度和網絡深度的模型,減少了模型參數量,增強了其特征提取能力,使網絡處于高效、平衡的狀態。

如圖1所示,高速公路監控場景多樣,拍攝角度也不盡相同,存在車輛在監控畫面中的不同位置尺度不同的情況。如何有效地表示和處理多尺度特征,是目標檢測中的主要難點。因此,在檢測車輛時需進行多尺度特征融合。LIN等[11]提出了特征金字塔網絡(Feature Pyramid Networks,FPN),將神經網絡中更抽象的頂層特征進行上采樣,并通過橫向連接將其與神經網絡前向傳播過程中生產的相同大小的特征圖進行融合,在基本不增加計算量的情況下,提高了模型對小物體的檢測能力。在特征金字塔網絡的基礎上,LIU等[12]提出PANet,PANet 在特征金字塔網絡原有的結構上添加了一條自底向上的路徑聚合網絡,進一步提升了效果,但PANet的參數量和計算開銷都比較大。以上這些融合特征金字塔網絡都只是簡單地上采樣后將特征相加,沒有考慮不同分辨率特征貢獻程度的差別。

圖1 監控畫面中的不同尺度車輛

在多目標跟蹤算法方面,基于匈牙利算法的后端追蹤優化算法,如 SORT[13]、DeepSORT[14]算法,能夠滿足實時跟蹤的要求。其中,DeepSORT算法在SORT算法的基礎上,通過提取深度表觀特征明顯提高了多目標的跟蹤效果。

綜上所述,筆者提出并應用于面向高速公路的車輛視頻監控分析系統,主要創新點如下:

(1)提出實時、高效的高速公路車輛監測系統,通過分析高速公路監控視頻,以車輛檢測跟蹤為基本算法可完成車流量統計、交通異常事件檢測等事件,實現面向高速公路的車輛視頻監控分析系統,達到高速公路實時高效智能化車輛管理的目的;

(2)為解決高速公路車輛監測中的場景多變、多尺度目標檢測問題,同時兼顧車輛檢測的精度和速度,提出了基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤算法,使用EfficientNet輕量級網絡,實現了檢測模型的輕量化和目標檢測實時性;同時增加雙向特征金字塔網絡,對原模型多尺度融合模塊進行優化,利用跨尺度連接和加權特征融合在參數量更小的情況下實現對多尺度車輛的檢測;

(3)依據真實視頻數據構建了一個包含不同交通場景的車輛目標數據集,場景包括高速公路白天、高速公路傍晚、高速公路低能見度、高速公路收費站以及隧道視角,以驗證高速公路監控場景變化問題。

1 面向高速公路的車輛視頻監控分析系統

為解決高速公路實時智能化車輛監測問題,筆者提出了面向高速公路的車輛視頻監控分析系統,整體框架如圖2所示。該系統主要分為高速公路數據采集與輸入模塊、車輛監測主模塊和應用模塊。下面對每一模塊功能進行介紹。

圖2 面向高速公路的車輛視頻監控分析系統整體架構

數據采集與輸入模塊:通過高速公路上的監控攝像頭拍攝視頻,采集實時視頻流數據,并將視頻流數據以連續幀序列的結構輸入車輛監測主模塊。

車輛監測主模塊:即基于雙向金字塔多尺度融合的輕量級車輛檢測模型,包含車輛檢測模塊和車輛多目標跟蹤模塊。車輛檢測模塊采用多尺度融合的輕量級車輛檢測方法對輸入的連續幀序列進行車輛檢測;將車輛檢測模型輸出的每輛車候選框大小和位置信息輸入至車輛跟蹤模塊,采用DeepSORT多目標跟蹤方法進行跟蹤,得到連續幀內車輛的坐標、軌跡信息。

應用模塊:結合車輛檢測和跟蹤所得到的信息,采用虛擬線設置技術進行車流量統計;采用車輛坐標及軌跡變化進行高速公路異常事件的判斷。

2 基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤模型

在車輛監測主模塊,提出了基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤算法,以達到實際高速公路場景的應用要求。針對高速公路監控攝像頭拍攝畫面中存在的拍攝視角多樣、高速公路場景多樣、車輛尺度變化等問題,提出了基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤模型。下面對該模型進行詳細介紹。

2.1 車輛檢測模塊特征提取網絡的輕量化

為改善 YOLOv3的特征提取能力以及降低模型參數,引入EfficientNet作為特征提取主網絡。對應不同場景的需求,EfficientNet系列網絡有B0~B7共8種由小到大的網絡模型。針對高速公路監控場景車輛檢測任務,兼顧檢測精度與實際運行速度,故將EfficentNet-B2去掉最后的全局平均池化層、Dropout 層和全連接層后代替YOLOv3原始的DarkNet53網絡進行特征提取,得到YOLOv3-EffiNet網絡,具體結構如圖3所示。

輸入圖像 EfficientNet-B2特征提取網絡 多尺度融合 檢測結果輸出

將攝像頭采集到的視頻流通過連續幀序列的方式輸入至EfficientNet-B2特征提取網絡。EfficientNet-B2網絡可以平衡縮放網絡輸入圖像分辨率、網絡寬度和網絡深度,減少了模型參數量,增強了其特征提取能力,使網絡處于高效、平衡的狀態。其網絡結構如圖4所示。EfficientNet-B2由多個 MBConv(MobilenetV2卷積[15])模塊構成,MBConv中包含深度可分離卷積,Swish 激活函數以及Dropout連接。MBConv網絡模型結構如圖5所示。深度可分離卷積是由逐通道卷積(Depthwise Convolution)和逐點卷積(Piontwise Convolution)組合而成的。逐通道卷積中每一個通道被一個卷積核獨立計算,沒有利用不同通道在相同的空間區域上的特征信息,因此使用逐點卷積將逐通道卷積產生的特征圖進行融合。逐點卷積的卷積核大小為 1×1,對逐通道卷積產生的特征圖在深度方向進行加權組合,得到最終的輸出特征層。

圖4 EfficientNet-B2網絡結構

圖5 MBConv模塊結構

2.2 雙向特征金字塔網絡多尺度特征融合

針對高速公路監控攝像頭拍攝畫面中存在的拍攝視角多樣、攝像機參數設置導致車輛變形、車輛尺度變化等問題,應用雙向金字塔網絡多尺度融合方式替代YOLOv3中特征金字塔網絡堆積融合方式,以提高對多尺度車輛的檢測準確性。

如圖6所示,FPN網絡和PANet網絡融合方式都只是簡單地上采樣后將特征相加,沒有考慮不同分辨率特征貢獻程度的差。雙向特征金字塔網絡(Bi-directional Feature Pyramid Network,BiFPN)[16]利用跨尺度連接(Cross-Scale Connections)和加權特征融合(Weighted Feature Fusion)在參數量更小的情況下取得了更好的效果。

(a)FPN網絡 (b)PANet網絡 (c)BiFPN網絡

跨尺度連接:雙向特征金字塔網絡的跨尺度連接在PANet網絡基礎上主要從3個方面優化了特征網絡。(1)在 PANet 中的部分節點只有一個輸入,這意味著這些節點沒有進行特征融合。特征網絡的目的是融合不同的特征,因此這些節點對特征融合的貢獻很小。BiFPN移除這些節點簡化了網絡結構,減少了計算開銷。(2)BiFPN在相同 level 的輸入和輸出之間增加一個連接,在沒有增加太多計算開銷的情況下融合了更多的特征。(3)將 BiFPN 當作一個基礎的特征網絡層,并將其重復多次,每一層都會在原有的融合特征上進一步提取到更高層次、更加抽象的融合特征。

加權特征融合:對不同分辨率的特征進行融合時,通常將所有輸入的特征視作同等重要;輸入相同的特征權重,這種方式過于簡單,可能會在融合的過程中損失一些有用的信息。加權特征融合為每個輸入的特征賦予了不同的權重,并讓網絡自動地學習每個輸入特征的權重。加權特征融合的函數表達式為

(1)

其中,ωi是可學習的權重,ε是一個遠小于 1 的數。從式(1)可以看出,特征融合的權值被限制在 0~1 之間,并且成功地避免了使用會使計算時間顯著增加的softmax 函數。式(2)及式(3)描述了在 level 6 上BiFPN網絡的跨尺度連接和加權特征融合的過程:

(2)

(3)

其中,Pin為輸入特征,Pout為輸出特征,Ptd為自頂向下的特征融合過程中的中間層。

車輛檢測模塊的特征融合如圖7所示,將雙向特征金字塔多尺度特征融合與節2.1中提出的EfficentNet-B2主干網絡結合。EfficentNet-B2特征提取網絡共有23個MBConv模塊,取第8個MBConv模塊的輸出層為 P3層(低特征層),取第16個MBConv模塊的輸出層為 P4層(中特征層),取第23個MBConv模塊的輸出為 P5 層(高特征層),并在 P3、P4和P5層之間使用BiFPN融合方式重復3次,進行多尺度特征融合。每一次融合在原有的融合特征上進一步提取到更高層次、更加抽象的特征,以提升檢測的魯棒性。

圖7 車輛檢測模塊的雙向特征金字塔多尺度特征融合

2.3 DeepSORT車輛跟蹤

通過車輛檢測模塊可以得到視頻連續幀中的車輛候選框大小和位置信息,并將其輸入 DeepSORT多目標跟蹤模塊對待跟蹤的車輛目標進行軌跡追蹤,得到待跟蹤車輛出現的坐標集合、整個軌跡及其對應的幀數。DeepSORT在圖像空間中通過卡爾曼濾波預測,使用匈牙利算法逐幀關聯數據,由關聯度量計算邊界框的重疊率。它在處理跟蹤問題上的具體過程主要包括狀態估計、軌跡處理、信息關聯和級聯匹配等步驟。

狀態估計和軌跡處理:DeepSORT使用標準卡爾曼濾波器進行目標車輛的運動狀態預測,其幀頻采用25 幀每秒。對每個車輛的跟蹤器設置一個計數器,使其在卡爾曼濾波預測期間依次遞增。如果跟蹤與檢測結果相互匹配,則跟蹤器的計數器重置為0;如果一個跟蹤器在一段時間內一直找不到匹配的結果,則將該跟蹤器從列表中刪除。當某幀出現新的檢測結果時,為該幀創建新的跟蹤器。如果新跟蹤目標位置的預測結果與檢測結果能夠連續3幀相匹配,則認為出現了新的目標;否則,認為出現了“虛警”,并從跟蹤器列表中刪除該跟蹤器。

信息關聯:對于目標運動信息的關聯程度計算,使用檢測框與跟蹤器預測框之間的馬氏距離來描述:

(4)

(5)

與SORT算法把檢測和跟蹤框的IoU作為輸入,采用匈牙利算法輸出匹配結果不同。DeepSORT算法采用融合度量的方式,同時考慮了運動信息和目標外觀信息的關聯。將兩種方式進行線性加權來計算最終檢測和跟蹤軌跡之間的匹配程度:

ci,j=λl(1)(i,j)+(1-λ)l(2)(i,j)。

(6)

級聯匹配:當一個目標被長時間遮擋后,卡爾曼濾波預測的不確定性就會大大增加。此時如果兩個跟蹤器競爭同一個檢測結果的匹配權,則一般遮擋時間較長的那條軌跡因為長時間沒有更新位置信息,使得馬氏距離會更小,因而更可能和遮擋時間較長的那條軌跡相關聯。這種不理想的效果往往會破壞跟蹤的持續性。而級聯匹配思想的核心是由小到大對消失時間相同的軌跡進行匹配,這樣能夠保證對最近出現的目標賦予最大的優先權。

3 實驗與結果分析

3.1 數據集的構建

為驗證筆者所提出的高速公路車輛監測系統的有效性以及算法的實時性和準確性,構建陜西地區高速公路視頻監控數據集,包括繞城高速、西漢高速及終南山隧道等路段。其中西安繞城高速位于靠近市區地區,具有車流量大、車速適中、攝像頭拍攝角度多樣等特點;而西漢高速及終南山隧道位于秦嶺區域,具有車輛種類多樣、車速快、隧道多等特點。該車輛監測視頻數據集的場景包括高速公路白天、高速公路晚間、高速公路低能見度、高速公路收費站以及隧道等視角,具有多場景變化的特點,如圖8所示。

圖8 高速路多場景監控數據集

視頻總長度達到273 h,存儲總量達到了400 GB。為建立多樣化數據集,對不同場景中的不同車輛按照VOC數據集樣式進行了標注。同時,為了驗證車輛監測系統在高速公路異常事件檢測應用的準確性,選取了98段包含異常停車事件的視頻、117段包含擁堵事件的視頻和57段包含逆行事件的視頻,并對每段視頻分別標記異常事件標簽,以作為異常事件檢測數據集。

為了驗證筆者所提出的高速公路車輛檢測跟蹤系統針對多尺度變化目標的準確性,在數據集標注時特別對監控場景中的遠處小目標車輛、近處大目標車輛等存在多尺度變化的車輛進行標注。如圖9所示,標注類別為小汽車、貨車、出租車和面包貨車,并應用高斯噪聲、隨機裁剪等方法進行數據增強。最終數據集包含2 278張高速公路監控視頻,以接近7∶3的比例劃分數據集,其中將1 593張用于訓練,685張用于測試。在訓練過程中采用邊訓邊驗的方式,隨機選取訓練集的230張用于驗證。

圖9 數據集車輛類別

3.2 評價指標

在車輛檢測模塊中使用精確率(Precision)、召回率(Recall)、平均精度(AP)、全類平均精度(mAP)及總耗時和平均耗時來判斷檢測結果。

交并比(IoU)衡量的是兩個區域的重疊程度,即模型產生的目標窗口與原來標記窗口的交疊率。檢測的IoU計算公式如下所示:

(7)

在理想情況下,IoU=1,即完全重合。

在混淆矩陣中,TP表示將真實正樣本預測為正樣本的數量,TN表示將真實負樣本預測為負樣本的數量,FP表示將真實負樣本預測為正樣本的數量,FN表示將真實正樣本預測為負樣本的數量。由表1混淆矩陣可計算出各個評價指標。

表1 混淆矩陣

精確率表示預測正樣本中真實正樣本的比例:

(8)

其中,PR表示精確率,TP表示將真實正樣本實例預測為正樣本的數量,FP表示將真實負樣本預測為正樣本的數量。

召回率表示真實正樣本被預測正確的比例:

(9)

其中,R表示召回率,FN表示將真實正樣本預測為負樣本的數量。

每個預測樣本經過分類后,都得到了一個置信度,表示該樣本為正樣本的概率。大于某一閾值的樣本被預測為正樣本,反之為負樣本。置信度閾值不同,會使得混淆矩陣發生變化,得到不同的精確率和召回率。以精確率為縱軸,召回率為橫軸,繪制出P-R曲線輔助分析。平均精度即P-R曲線與橫軸圍成的面積。平均精度越大,模型性能越好。而mAP是多個類別平均精度的平均值,用于衡量多分類檢測器的性能:

(10)

此外,在車輛監測系統應用實驗中,使用幀速度(Frames Per Second,FPS)來評估目標檢測和跟蹤的速度,即每秒內可以處理的圖片數量。幀速度越大,檢測速度越快。當幀速度大于等于25時,可以認為算法滿足實時性要求。在車流量統計應用實驗中,使用車流量統計準確率(Flow Accuracy)來評估模型的準確性,即模型在固定時間內檢測到的車流量總數(Flow Detected Number,FDN)與實際車流量總數(Flow Truth Number,FTN)的比值。

在異常事件檢測應用實驗中,使用異常事件檢測準確率(Event Accuracy)來評估模型的準確性,即模型在各類事件檢測數據集上檢測到的包含異常事件視頻總數(Event Detected Number,EDN)減去錯檢視頻總數(Fault Detection Number,FDN)與實際異常事件視頻總數(Event Truth Number,ETN)的比值。

將車流流量統計準確率、異常事件檢測準確率分別結合在應用中模型的幀速度,以評估所提出的車輛監測系統的有效性。

3.3 實驗環境與參數設置

使用python作為算法編程語言,用Pytorch深度學習框架搭建網絡,并用GeForce RTX 2080Ti平臺進行實驗。操作系統為Ubuntu18.04,配套環境為CUDA11.2,Python3.6.9,Pytorch1.7.1。訓練前設置網絡初始學習率為0.001,網絡初始輸入分辨率為416×416,Batch size取4,epoch為200。

依據高速公路領域的工程背景,現已進行初步的落地測試。在異常事件檢測實驗中,本系統開發配置環境為Ubuntu18.04系統、CUDA11.2、Python3.6.9、Pytorch1.7.1、opencv-python4.5.3.56,環境包含easydict、scipy、matplotlib和tqdm等。

3.4 車輛檢測實驗結果

為驗證車輛檢測算法的有效性,將YOLOv3、YOLOv3-tiny、YOLOv3-EffiNet與YOLOv3-EffiNet+BiFPN模型分別在筆者制作的數據集上訓練200個epoch,將獲得的模型權重在685張測試集上進行評估。實驗結果如表2所示,其中mAP表示4類車型平均檢測精度的平均值,平均耗時表示平均處理一張圖片所用的時間。

表2 4種檢測模型在數據集上性能的對比

由實驗1和實驗3結果對比可得,YOLOv3-EffiNet輕量化模型參數儲存空間為62.9 MB,mAP為91.47%,比原始YOLOv3的mAP高約9.7%,同時平均耗時縮短約35.3%;由實驗1、實驗3和實驗4對比可知,筆者所提出的檢測模型YOLOv3-EffiNet+BiFPN 參數儲存空間為67.6MB,僅為原YOLOv3模型的約1/4;由于增加了雙向特征金字塔尺度融合,雖然其速度與YOLOv3-EffiNet相比有所下降,但其 mAP高達97.11%,比原YOLOv3高約16.5%,比YOLOv3-tiny高約27.7%,同時檢測的速度與YOLOv3相當,可達到實時性。這充分證明了文中改進檢測模型的有效性。

同時,為驗證YOLOv3-EffiNet+BiFPN算法模型對不同車輛的檢測準確性,對各算法在高速公路上不同車型的檢測準確率進行展示(如表3)。由實驗結果可以看出,筆者提出的算法對各種車型的檢測準確率均優于原始YOLOv3模型,且對小汽車、貨車、出租車的檢測準確率均在97%以上。

表3 不同車型檢測平均精度 %

為了分析模型在高速公路場景中存在車輛尺度多樣情況下的檢測效果,從測試集中分別選取存在大小尺度車輛的特殊場景,用YOLOv3、YOLOv3-tiny與YOLOv3-EffiNet+BiFPN模型分別進行檢測。檢測結果如圖10所示。

(1)針對大尺度車輛,YOLOv3-EffiNet+BiFPN模型對大尺度車輛檢測精度高于其余兩種算法;(2)針對視頻遠端的小尺度車輛,YOLOv3和YOLOv3-tiny對監控中的小目標不敏感,會出現檢測不到的情況,而YOLOv3-EffiNet+BiFPN模型可以檢測出視頻中所有車輛,包括極小目標;(3)針對隧道內攝像頭參數原因導致車輛變形的情況,YOLOv3模型會出現目標誤識別(將面包貨車誤識別為小汽車),YOLOv3-tiny模型對隧道內變形的小目標不敏感,而YOLOv3-EffiNet+BiFPN模型在車輛變形情況下仍能保證高準確率的檢測。對比實驗結果表明,筆者提出的YOLOv3-EffiNet+BiFPN模型對圖像中多尺度、變形目標的檢測效果優異。

3.5 車輛監測系統應用

3.5.1 車流量統計

通過車輛檢測及跟蹤模塊得到待跟蹤車輛出現的坐標集合、整個軌跡及其對應的幀數,輸入至應用模塊完成車流量統計。在車流量統計任務中,采用監控畫面實時對車輛目標計數,實現流量實時統計。計數部分采用虛擬線設置技術,在監控區域任意需要檢測的位置設計虛擬計數線,通過判斷車輛跟蹤模塊獲得的車輛軌跡(由跟蹤窗口中心點組成)是否越線來對車流量進行統計。考慮到高速公路攝像頭的安裝位置不同,所拍攝畫面可能存在單車道、多車道、雙向車道等情況,采用單虛線計數無法對車輛的運動方向、在監控區域的滯留情況進行準確判斷,因此采取如圖11所示的雙線虛擬計數。車輛軌跡由A→B視為下行,當越過B線時,下行車輛加1;由B→A視為上行,當車輛跨過A線時,上行車輛數加1;上行車輛數與下行車輛數的和記為該時刻總車流量。

圖11 車流量統計示意圖

為驗證筆者所提出的系統在車流量統計應用上的準確性,將模型YOLOv3、YOLOv3-tiny、YOLOv3-EffiNet及YOLOv3-EffiNet+BiFPN分別與DeepSORT結合,根據雙向計數規則,接入實際高速公路監控視頻進行30 min檢測,統計結果如表4所示。據統計,視頻段中實際上行車輛856輛,實際下行車輛625輛,總車輛數1 481輛。由結果可得,YOLOv3-EffiNet+BiFPN+DeepSORT模型實際檢測上行車輛數792輛(漏檢64輛),下行車輛數590輛(漏檢35),總車輛數1 382輛,統計準確率約93.3%,平均運行速度達到31幀/秒,滿足實時性要求。

3.5.2 異常事件檢測

在進行高速公路監控視頻的檢測和跟蹤后,可以得到每輛車的實時坐標信息和軌跡信息。因此筆者所提出的系統根據車輛坐標的變化信息,可以進行簡單交通事件的檢測,如高速公路車輛違停、交通擁堵、車輛逆行事件的檢測。其檢測策略如下:(1)車輛違停。根據車輛在連續幀畫面中的坐標位置變化,可判斷該車輛存在車輛違停事件。(2)交通擁堵。根據該時刻監控畫面中車輛識別碼數是否大于該場景下車輛閾值,可判斷該路段存在交通擁堵事件。(3)車輛逆行。首先對高速公路監控畫面按照正常的車流方向進行手動分割,而后判斷在某個方向區域內,根據車輛在連續幀中坐標位置變化與車流方向相反,可判斷該路段存在車輛逆行事件。圖12展示了異常事件的視頻數據例圖。

圖12 異常事件種類檢測效果展示

為驗證系統在事件檢測應用的準確性,將筆者提出的車輛監測模型結合異常事件檢測策略,在包含異常停車事件、擁堵事件和逆行事件的272段視頻組成的異常事件數據集上進行檢測,統計結果如表5所示。由檢測結果可得,筆者提出的車輛監測模型在高速公路停車、擁堵和逆行事件檢測上的準確率均達到90%以上,錯檢率低于5%,漏檢率低于10%,且平均運行速度滿足實時性要求。

表5 異常事件檢測結果

同時為驗證系統的有效性,筆者接入幀率為 25 幀每秒的實時視頻流數據進行檢測。在保證每路視頻的車流量統計和異常事件檢測達到上述準確率的情況下,可以最大支持16路監控視頻同時檢測。由此說明筆者提出的系統實現了車輛檢測、跟蹤、車流輛檢測和異常事件檢測的有效性,具有實際應用價值。

4 結束語

筆者提出了一套面向高速公路的車輛視頻監控分析系統。針對高速公路監控場景中車輛檢測跟蹤的多尺度問題和檢測實時性要求,設計了一種基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤算法?;赮OLOv3模型在主干網絡上使用輕量級網絡EfficientNet,并采用雙向特征金字塔網絡模塊進行多尺度特征融合。同時依據采集到的真實視頻數據構建了一個包含不同交通場景的車輛目標數據集,以解決高速公路多場景問題。實驗結果表明,YOLOv3-EffiNet+BiFPN模型檢測精度達97.11%,高于原始YOLOv3檢測算法約16.5%,并且結合DeepSORT模型在車輛跟蹤上以31幀每秒的幀速度實時運行。同時該車輛監測系統可在車流量統計、交通異常事件檢測領域進行多路實時檢測,具有實際應用價值。

猜你喜歡
高速公路特征融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
高速公路與PPP
高速公路上的狗
小說月刊(2014年4期)2014-04-23 08:52:20
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产精品尤物在线| 成人综合在线观看| 五月六月伊人狠狠丁香网| 欧美爱爱网| 好吊妞欧美视频免费| 亚洲美女久久| 国产精品第一区| 毛片一区二区在线看| 高清色本在线www| 四虎永久在线视频| 在线观看亚洲国产| 午夜影院a级片| 一本大道AV人久久综合| 国产无吗一区二区三区在线欢| 欧美啪啪一区| 日韩成人在线网站| 成人国产精品2021| 亚洲精品视频在线观看视频| 在线99视频| 熟妇无码人妻| 亚洲无码日韩一区| 国产永久在线观看| 亚洲成人免费在线| 亚洲黄网视频| 亚洲美女一级毛片| 国产丝袜无码精品| 国产午夜福利在线小视频| 国产99视频精品免费观看9e| 国产一级视频久久| 免费国产一级 片内射老| 另类欧美日韩| 国产网站黄| 久久综合亚洲色一区二区三区| 日韩亚洲高清一区二区| 尤物成AV人片在线观看| 国产AV毛片| 色欲综合久久中文字幕网| 亚洲国产av无码综合原创国产| 日本午夜精品一本在线观看| 91亚洲精品第一| 制服丝袜在线视频香蕉| 试看120秒男女啪啪免费| 素人激情视频福利| 久久亚洲黄色视频| 午夜一区二区三区| 亚洲人成色在线观看| 9啪在线视频| 91无码人妻精品一区二区蜜桃 | 亚洲美女视频一区| 国产成本人片免费a∨短片| 日韩在线播放欧美字幕| 亚洲天堂2014| 国产精品不卡永久免费| 中文字幕无码中文字幕有码在线| 亚洲成人动漫在线| 欧美日韩国产成人在线观看| 一级爱做片免费观看久久| 91香蕉国产亚洲一二三区| 亚洲成综合人影院在院播放| 国产精品无码一二三视频| 欧美成人午夜影院| 免费网站成人亚洲| 67194成是人免费无码| 久草视频精品| 国产91无码福利在线| 欧美在线综合视频| 在线a视频免费观看| 狠狠亚洲五月天| 视频一本大道香蕉久在线播放| 热99精品视频| 久久精品视频亚洲| 欧美在线精品怡红院| 91久久精品日日躁夜夜躁欧美| 真实国产乱子伦高清| 美女被躁出白浆视频播放| 婷婷六月色| 好紧好深好大乳无码中文字幕| 国产麻豆福利av在线播放| 色135综合网| 欧美日韩激情在线| 亚欧美国产综合| 国产精品吹潮在线观看中文|