999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

復雜場景下基于改進YOLOv3的車牌定位檢測算法

2021-04-12 05:19:38馬巧梅王明俊梁昊然
計算機工程與應用 2021年7期

馬巧梅,王明俊,梁昊然

1.中北大學 軟件學院,太原 030051

2.山西省軍民融合軟件技術工程研究中心,太原 030051

隨著交通基礎設施建設的不斷完善,車輛不斷的增多,車輛管理壓力也逐漸增大,而車牌定位檢測成為了智能交通很重要的一部分。由于現有的車牌定位大多都是在特定場景下,而在復雜場景仍然存在諸多局限。國內外車牌檢測的方法主要有兩種:一種是基于先驗信息的傳統車牌檢測方法;另一種是基于深度學習的車牌檢測方法。傳統的車牌檢測主要利用車牌的特征、紋理和顏色來進行定位[1-2],其主要問題是沒有針對性、時間復雜度高、窗口冗余和魯棒性較差。基于深度學習的方法因無需特征工程,適應性強等特點得到了較為廣泛的應用域。目前通過深度學習來解決目標檢測的方法主要有兩種,分別是以RCNN為代表的兩階段(two-stage)模型,比如RCNN[3]、SPP-NET[4]、Fast R-CNN[5]、Faster R-CNN[6]等,另一種是以YOLO[7-9]系列和SSD[10]為代表的單階段(one-stage)模型檢測算法,其僅僅使用一個CNN網絡直接預測不同目標的類別與位置。

當前國內外針對目標檢測算法最新的研究來看,王兵等[11]利用改進后的YOLOv3 算法在檢測安全帽方面得到優化;李東潔等[12]在動態手勢跟蹤領域有了新的進展;孔方方等[13]利用YOLOv3在全景交通目標檢測有了新的提升。在車牌定位檢測方面,Wang[14]利用LPR-Net對車牌進行定位檢測,實現了復雜環境下的高精度檢測;Jamtsho等[15]提出基于YOLO算法的車牌實時定位,提高了檢測精度;趙偉等[16]提出復雜環境下車牌定位的檢測方法,對有遮擋及干擾物的車牌可以實現高效、高精確度的定位識別;艾曼[17]利用Faster R-CNN 來進行車牌定位檢測,通過替換主干網絡來提高車牌定位精度。

本文將YOLOv3 算法應用于車牌定位檢測的目標領域,為了提高算法的適應性和精確度,對YOLOv3 算法進行改進,從而提高了檢測的精度,加快了收斂速度和優化了參數的計算問題。

1 YOLOv3算法

YOLOv3 算法是Joseph Redmon 等在2018 年新提出的目標檢測算法,它針對YOLOv2 中由于下采樣造成特征丟失的問題,仿照特征金字塔網絡FPN[18]設計了位置與類別預測。通過在網絡中3 個不同位置的3 種不同大小的特征圖來完成檢測,并且在每個卷積層后增加批量歸一化操作(Batch Normalization,BN)[19]并使用激活函數Leaky Relu[20]來避免梯度消失及過擬合。YOLOv3的網絡結構,如圖1所示。

首先,將輸入圖片縮放到416×416,通過特征提取網絡進行了5次下采樣,提取特征得到大小一定的特征圖,比如13×13,之后將輸入圖像分成13×13 個網格(grid cells),接著如果GT 中某個目標的中心坐標落在哪個grid cell 中,那么就由該grid cell 來預測該目標。每個grid cell都會預測3個邊界框。預測得到的輸出特征圖共有3 個維度。每個預測框都對應邊界框位置信息:中心點坐標(x,y) 框的寬高尺寸(w,h) 和置信度(confidence)。網格預測的類別置信度得分為:

其中,如有中心目標落入該網絡,則Pr(object)=1 否則Pr(object)=0。Pr(classi|object)為網絡預測第i類目標的置信概率。IOUtruthpred為預測邊界框與真實框的交并比(Intersection Over Union,IOU)[21]。之后通過對confidence 這一項設定閾值,過濾掉低分的預測框,然后對剩下的預測框執行非極大抑值(Non Maximum Suppression,NMS)[22]處理,得到網絡的最終預測。

2 改進YOLOv3算法

YOLOv3 算法在多個尺度的融合特征圖上分別獨立做檢測,最終對于小目標的檢測效果提升明顯。在VOC、COCO 等數據集上效果取得了很大的進展,但在本文車牌檢測應用中仍具備優化的潛力,需要對YOLOv3的算法進行改進來適應特定的檢測。

2.1 改進初始錨點參數

傳統的YOLOv3 網絡每種尺度的特征圖分別有3個錨框。YOLOv3 也采用K-means 算法,為每種下采樣尺度設定3 種先驗框,總共聚類出9 種尺寸的先驗框。但是尺度越大的特征圖使用越小的錨框,以得到更多的邊緣信息,如圖2 所示,對于本文的車牌數據來說,原始的錨框參數由公共數據集聚類生成。公共數據集類別豐富,實際的尺寸太大,對應的錨框參數值也很大且具有普遍性,不適用于本文的車牌數據集,所以需要重新進行維度聚類,從而對車牌數據集進行更好的預測。

圖1 YOLOv3網絡結構

圖2 目標檢測框尺寸

由于聚類的目的是anchor boxes 和臨近的ground truth有更大的IOU值,錨框尺寸的大小會影響到檢測準確率的高低,而IOU距離表示預測框與實際邊界框的交并比,因此本文使用IOU 距離公式以代替歐氏距離公式,度量的函數公式如下:

其中,box表示實際邊界框信息,centroid表示聚類中心,IOU表示預測框與實際邊界框的交并比。IOU越大,距離越小。本文針對K-means 聚類方法在初始聚類點的選擇上存在較大的隨機性和敏感性問題,使用了隨機性更小的K-means++[23]算法進行聚類計算。K-means++算法的主要思想是讓初始的聚類中心之間的相互距離要盡可能的遠。首先選取數據的任意一個樣本作為第一個聚類中心c1;然后計算每個樣本與當前已有聚類中心之間的最短距離(最短距離為最近的一個聚類中心的距離),該距離用D(x)表示。而D(x)較大的點,被選取作為聚類中心的概率較大,之后采用輪盤法選出下一個聚類中心cx,直到選出k個聚類中心。在本文數據集上進行聚類分析得到的目標框聚類分布如圖3 所示,橫坐標代表錨框的寬度,縱坐標代表錨框的高度,其中錨框的寬高維度對應聚類中心點目標框的寬高。然后從1 開始不斷增加聚類中心的個數,得到聚類中心數量k與Avg IOU 之間的關系如圖4 所示。橫坐標代表聚類中心數量k值,縱坐標代表k值對應的Avg IoU值。

圖3 目標框聚類分布圖

圖4 K-means++聚類分析結果

由圖4 可以看出,隨著聚類數量的增加,平均交并比逐漸上升,當k大于7的時候,平均交并比逐漸平緩,介于本文采用了4個尺度預測,因此選擇了12組anchor。由于車牌為一類,所以聚類結果相對稀疏,聚類得到12組anchor 為(1.26,1.03)、(1.76,1.12)、(3.75,1.74)、(9.55,4.30)、(1.53,1.06)、(0.64,0.31)、(1.71,0.77)、(6.70,2.88)、(2.66,3.27)、(2.75,1.47)、(1.90,1.34)、(4.89,2.16)。

將這些anchor 按照面積從小到大的順序分配給4種尺度的特征圖,尺度較大的特征圖使用較小的anchor框,每個網格需計算3個預測框。每個網格根據錨盒參數及特征圖多尺度縮放預測出n個候選框的位置及其對應的目標種類置信度為:(tx,ty,tw,th,to)。其中(tx,ty)表示候選框中心坐標,(tw,th)表示候選框的寬和高,to表示目標種類置信度。由錨盒參數獲得目標候選框的位置的方法公式如下:

式(3)~(6)中,Cx、Cy表示網格位置。如圖5 所示網格位置由該網格左上角坐標表示,虛線框表示錨盒,藍色線框表示目標候選框相對錨的偏移量。目標候選框位于網格(Cx,Cy)中,ph、pw表示錨盒的高和寬,錨合中心為網絡中心,bh、bw表示目標候選框相對于錨盒的長寬偏移量,而σ 為邏輯回歸函數

圖5 目標候選框示意圖

2.2 YOLOv3的改進

原始的YOLOv3 使用的特征提取網絡是DarkNet-53,雖然DarkNet-53里面加入了殘差結構后可以增加特征多樣性,加快網絡訓練。但是隨著網絡深度的增加,網絡訓練的參數也隨之加大,那么會導致車牌定位檢測的速度有所下降,且YOLOv3采用13×13的特征圖易造成小目標丟失的問題,從而也增加了復雜場境下車牌的漏檢和錯檢。針對上述問題,本文在Darknet-53的基礎上對網絡進行改進。改進的方法如下:

(1)網絡結構優化。

本文借鑒DarkNet-53,提出一種參數數量相對較少、運算復雜度相對較低的特征提取網絡。稱為DarkNet-41,如圖6 所示。首先將原來輸入圖像的416×416 大小改為512×512,然后將網絡結構中殘差結構的數量進行適當調整,分別把網絡主干中2、4、8、16、32倍下采樣后殘差網絡結構的數量調整為1、2、6、6、2個,同時將卷積層的濾波器數量降低50%,即第一層卷積層用16 個大小為3×3的卷積核過濾輸入大小為512×512的圖像,然后將之前卷積層的輸出作為輸入,采用32個尺寸為3×3的卷積核以及兩個像素的步長對它們濾波,實現下采樣操作。該網絡結構包含1×、2×和6×殘差塊的5組網絡,相比較于YOLOv3中1×、2×、8×、4×殘差塊的5組網絡,參數數量減少,運算復雜度下降,實現檢測速度的提升。

圖6 DarkNet-41網絡結構

(2)改進多尺度檢測。

首先,輸入圖像改為512×512的目的是為了確保在幾次下采樣后,小的目標不會出現特征消失的情況,在經過5次下采樣后,特征圖的大小依次變為了256、128、64、32、16。然后將網絡的3 尺度檢測改為4 尺度檢測,設定的4 個尺度大小為128×128、64×64、32×32 和16×16。最后采用FPN(Feature Pyramid Network)原理,對上述4個尺度檢測的特征層進行融合處理,在保留深層圖像語義信息的基礎上獲得更多的淺層圖像特征信息,其中新增加的128×128的特征圖采用更精確的錨框,提高算法對小目標的檢測精度。同時,緩解了在多車輛和密集車輛下車牌定位的錯檢和漏檢。

FPN 的結構如圖7 所示。應用于本文的多尺度預測方法為:先對16×16 大小的特征圖進行處理,然后送到檢測大目標的YOLO-1層,同時將該尺度特征圖上采樣后與32×32 大小的特征圖進行拼接后送到檢測中等目標的YOLO-2層,之后對當前尺度的特征圖進行上采樣并與64×64 大小的特征圖進行拼接后送到檢測小目標的YOLO-3層,最后與新增加的128×128的特征圖進行拼接操作后送到YOLO-4 層,實現了4 個尺度的相融合操作。這樣可以獲得一個強語義信息,并且在每個融合后的特征層上單獨進行預測。

圖7 FPN網絡結構

在預測方面,對于輸入的車牌圖像,預測一個三維張量,包括車牌邊界框、車牌對象和車牌類別。改進后的YOLOv3將特征圖劃分成N×N 的網格(不同特征圖N 大小不同),為每個網格預測3個不同的邊界框,并且張量可以表示為N×N×[3×(4+1+1)],即4 個邊界框偏移量,1個車牌對象和1個車牌類型。

(3)添加Inception-SE結構

Inception 結構是由不同大小的卷積核組成,其中1×1 卷積核實現了降維,再利用3×3 和5×5 卷積核對特征圖提取不同尺寸的特征信息。為了減少計算量,本文將Inception結構進行改進,一方面用3×3卷積層代替5×5卷積層,另一方面用兩個3×1和1×3的卷積層代替3×3卷積層,最大池化層的規模大小仍然為3×3。Inception結構和改進后的結構如圖8(a)和(b)所示。

如圖9 為Inception-SE 結構,該結構是將(Squeezeand-Excitation,SE)[24]注意力機制模塊融入了改進后的Inception 架構中。方框旁邊的維度信息代表該層的輸出。本文使用average pooling 作為Squeeze 操作,兩個FC(Fully Connected)層組成一個Bottleneck 結構去建模通道間的相關性,并輸出和輸入相同特征數目的權重。首先將特征維度降低到輸入的1/16,然后再通過一個FC層升回到原來的維度。

圖8 (a) Inception模塊結構

圖8 (b) 改進后Inception模塊結構

圖9 Inception-SE模塊結構

本文對檢測網絡中規模為5×5 大小的DBL(Conv+BN+Leaky Relu)模塊進行改進,如圖10(a)所示,在網絡檢測得第1、3、5層仍然使用規模為1×1大小的DBL層來進行降維操作,而在網絡的第2、4層分別由Inception-SE 模塊替代DBL,通過增加不同規模大小的卷積來提取數據的特征,同時在Inception-SE的后面繼續保留BN層和Leaky ReLu層,使得在3×1和3×3卷積操作的分支中都存在1×1的降維卷積層。對于Inception-SE結構的加入,不但可以使網絡更加收斂且在靠近輸入的層也可以獲得全局的感受野,從而提高了檢測的精度。改進后的總體網絡結構如圖10所示。

圖10 改進YOLOv3整體網絡結構

(4)使用CIoU作為邊界框損失

原始的YOLOv3采用MSE作為損失函數來進行目標框回歸,但MSE 損失函數對目標的尺度相當敏感。由于IoU可以作為目標檢測中最常用的指標,它不僅可以確定正負樣本,還可以衡量兩個邊界框的距離,因此IoU更能體現回歸框的質量。如圖11為IoU的3種不同情況。

圖11 3種IoU值的不同表現結果

然而用IoU作為損失函數,預測框與真實框之間沒有重合時,IoU無法衡量兩邊界框距離的遠近。并且當IoU 為0 時,導致優化損失函數時梯度為0,無法優化。如圖12為IoU為0的兩種不同應用場景,但是場景A中預測框與真實框的距離更近一些,其預測效果也更佳。

圖12 IoU為0的不同場景

本文針對IoU 無法優化無重疊的邊界框問題引入了CIoU[25]作為損失函數,CIoU將目標的重疊面積,中心點距離及長寬比都考慮進去,使得目標框回歸變得更加穩定,避免了IoU在訓練過程中出現發散等問題。CIoU的計算公式如下:

公式中,b 和bgt表示預測框與GT 框的中心點,ρ 表示歐式距離,C2是指剛好能包含predict box和GT box的最小box 的對角線長度平方。其中C 的表示區域為圖13 的黑色框范圍,而α 代表權重函數,ν 用來度量長寬比的相似性。α 和ν 的公式如下:

圖13 CIoU中C的表示區域

3 實驗與分析

3.1 數據預處理

本文的車牌圖像數據主要來源于選取CCPD[26]數據集以及自己收集的車牌數據圖像,共9 650 張圖像。包括各種復雜環境下的圖片(例如:傾斜、夜間、強光、遮擋、多車輛、雨霧天),其數量分配如表1所示。在9 650張數據集中,選取6 755 張圖片為訓練數據,2 895 張圖片為測試數據。數據種類名稱用英文單詞代替。最后隨機選取1/3訓練數據(965張)包括所有復雜環境的驗證數據進行實驗測試,用于分析和比較。

本文的數據預處理包括數據增強和數據標簽格式轉換兩部分。

表1 數據分配表

3.1.1 數據增強

本文車牌數據集包括不同大小的圖像,其中圖像像素分布于600×600~2 000×2 000 之間,由于本文的圖像輸入大小為512×512,所以首先需要將數據集進行裁剪操作,使數據進行歸一化處理。考慮到原數據集存在噪聲影響以及在裁剪的過程中會有圖像分辨率丟失的情況,本文采用Jobson 等[27]提出的多尺度(Multi-Scale Retinex,MSR)算法對車牌數據圖像進行增強,即對一幅圖像在不同的尺度上利用高斯進行濾波,然后在對不同尺度上的濾波結果進行平均加權,獲得所估計的照度圖像,其公式為:

其中,N 是尺度參數的個數,當N=3 時,即使用3個不同尺度的高斯濾波器對原始圖像進行濾波處理時,效果達到最好。wk是第k 個尺度在進行加權的時候的權重系數,它需要滿足公式:

當取平均時,能適用于大量的低照度圖像,比如去霧處理,Fk(x,y)是在第k 個尺度上的高斯濾波函數,即:

本文分別列舉了4 種在不同場景下原始圖像與增強圖像的對比結果。如圖14(a)~(d)所示,分別表示在低分辨率(霧天)、有干擾物(污損)、夜晚強光和雪天時的車牌增強圖像。對比原始圖像可以看出,由MSR 增強后的圖像比原始圖像的紋理更加清晰,并且減少了噪聲的影響,可以更好的適應網絡的訓練。

3.1.2 數據集標簽格式轉換

由于本文的數據集不能適應于YOLOv3 網絡的訓練格式,所以需要將數據集轉化為Pascal VOC格式,對于仿照Pascal VOC格式自制的車牌數據集需要對標注信息進行歸一化處理,便于訓練樣本數據的快速讀取。歸一化公式為:

圖14 不同場景下的原始數據和增強對比圖

式(13)~(16)中,(xmin,xmax,ymin,ymax)為原始樣本邊界框的標注信息,(x,y,w,h)為歸一化后的標注信息,其中x、y為邊界框中心點坐標。由于車牌只有一類,所以class_id值可以忽略,那么每張圖片的每個目標具有4類(x,y,w,h),這樣就可以對制作好的數據集用于YOLOv3的訓練。

3.2 模型的訓練與測試

本文采用基于pytorch的深度學習框架進行訓練和測試,選擇改進后的YOLOv3 方法對車牌進行定位檢測,在GPU 方面選用NVIDIA GeForce GTX 1060Ti,CUDA9.2,內存為16 GB;使用的編程語言為Python。在進行訓練之前,需要修改YOLOv3網絡的配置文件的相關參數,以符合本文數據集的訓練要求,而修改后的部分參數如表2 所示。本文訓練的初始學習率設置為0.001,并且在epoch 數達到90 時,學習率變為0.000 1,直到epoch 數達到130 時結束訓練。此外,在相同的實驗環境下,本文訓練了一個原始的YOLOv3 網絡模型,用于分析比較。

表2 部分實驗參數

3.3 實驗結果和分析

本文根據表2的參數對數據進行訓練,如圖15為訓練過程中YOLOv3和本文算法的loss變化對比曲線,其中橙色線條代表的是原始算法曲線,藍色線條代表的是改進算法曲線,橫坐標代表訓練輪數(epoch),縱坐標代表訓練過程中的loss值。

圖15 訓練損失對比曲線

由圖15可以看出,YOLOv3算法的初始損失值大約在3.7 左右,而改進后的算法初始損失值大約在2.8 左右,在最開始時二者的損失值均為下降狀態,隨著epoch數量的增加,原始算法的損失值較大,并且出現波動情況,在輪數達到90 時,兩者的損失值相近,之后原始算法的損失值穩定為0.45左右,而改進后的算法為0.28左右。相比于原算法,在采用CIoU 作為模型的邊界框回歸損失后,模型的損失有所降低,模型的檢測效果也更好。訓練過程中精度和召回率曲線如圖16所示。

圖16 Precision與Recall變化曲線

圖17 預測結果對比

本文根據表1 分配的測試數據分別在YOLOv3 和本文算法的預測結果如圖17 所示,橫坐標代表類別的數量,縱坐標代表場景種類。由圖17 可知,在預測方面,本文算法的檢測正確率比原始算法的檢測正確率有所提高。

為了驗證IoU和CIoU對YOLOv3算法的影響,本文將YOLOv3 的損失函數MSE 分別替換為IoU 和CIoU。3種損失函數對YOLOv3算法影響,如表3所示。

表3 損失函數性能分析

由表3 可得,采用IoU 作為邊界框損失與MSE 相比,mAP 提升了0.56%,可知將IoU 作為邊界框損失對網絡性能的提升有重要作用。而采用CIoU作為邊界框損失與IoU相比,mAP提升0.41%,因此在考慮IoU的同時,引入預測框與真實框之間的中心點距離和長寬比可以更好地優化YOLOv3算法。

表4 為采用不同尺度的YOLOv3 算法在復雜場景下的檢測對比結果,表中YOLOv3 代表原始算法,采用IoU 回歸損失。YOLOv3-3scale 和YOLOv3-4scale 分別代表本文算法的3 尺度和4 尺度檢測,采用CIoU 回歸損失。不同場景的數據種類用英文單詞表示。由表4可得,YOLOv3 模型在所有種類下的mAP 達到了97.31%,FPS 為33.2 幀/s。其中在正常車牌的檢測中效果最佳,mAP 為99.37%,FPS 為32 幀/s。對于其他應用場景的車牌檢測效果也表現良好。而YOLOv3-3scale和YOLOv3-4scale在所有種類下的mAP值為98.59%和98.84%,FPS 分別為36.59 幀/s 和36.4 幀/s,比YOLOv3模型的mAP 值分別提升了1.28%和1.53%,FPS 分別提升了3.39 幀/s 和3.2 幀/s。且在其他不同應用場景下檢測的精度和速度均有提升,表明改進后的YOLOv3算法可以更好的適應于車牌的定位檢測。對比改進后的YOLOv3 算法,采用4 尺度檢測比3 尺度檢測在所有種類下的mAP 提升了0.25%,在速度方面,4 尺度檢測的FPS僅比3尺度檢測少0.19幀/s。特別地,采用4尺度檢測主要提升了多車輛和遠距離有干擾物場景下的檢測精度,分別比3 尺度檢測時的mAP 值提升0.41%和0.22%,同時也保證了速度的實時性。綜合分析表明,增加至4 尺度檢測以及選取更為匹配的錨框尺寸有利于增強網絡識別能力,可以更有效地提高不同場景下車牌的定位精度。

為了進一步分析本文所提出的方法對YOLOv3 模型的影響,進行了消融實驗,將本文算法裁剪成7 組分別進行訓練,其中第一組為YOLOv3 算法,最后一組為本文算法,7組實驗結果如表5所示。

由表5中實驗A 和B可知,本文提出的精簡特征網絡(DarkNet-41)降低了模型復雜度,FPS增加了3.8幀/s,但準確率有一定程度的降低;對比實驗B 和C 可知,改進多尺度特征融合抵消了精簡特征提取網絡帶來的不利影響,mAP值提高了0.42%,表明將3尺度增加至4個尺度有利于增強網絡識別能力;對比實驗C 和D 可知,增加改進后的Inception-SE模塊分別給檢測的精度和速度帶來了0.65%和0.22幀/s的提升;而對比實驗D和E可知,優化錨框尺寸使得識別準確率提高0.41%,最后與本文算法相比,在采用MSR數據增強算法后,mAP提升了0.43%,FPS提升了0.4幀/s。總之,本文對于YOLOv3提出的改進策略對提取復雜場景下的車牌定位檢測效果均是有意義的。

表4 不同尺度的YOLOv3算法檢測結果

表5 消融實驗結果對比

圖18 至圖20 為算法改進前后的效果對比,本文對于復雜場景下的6 種情況進行了具體檢測效果示例展示,包括正常、強光或夜晚、雨雪天、有干擾物、傾斜和多車輛檢測。每一種場景都采用同一組相同的測試圖像。其中圖18(a)和圖18(b)分別代表正常和強光、低分辨率的檢測對比結果;圖19(a)和圖19(b)分別代表雨雪天氣和具有干擾物檢測對比結果;圖20(a)和圖20(b)分別代表傾斜和多車輛檢測對比結果。

圖18 正常、強光和低分辨率檢測結果

圖19 雨雪和有干擾物檢測結果

圖20 傾斜和多車輛檢測結果

由圖18(a)看出,對于正常車牌的定位檢測,本文算法和YOLOv3均取得了不錯的檢測效果,兩者都可以正確的檢測出車牌的位置,但是在準確率上,本文算法稍優于YOLOv3 算法;圖18(b)在強光和低分辨率的環境下,YOLOv3的精度分別為0.95%和0.91%,本文算法的精度都為0.97%。由圖19(a)可以看出,在雨雪環境下,相比于本文算法,YOLOv3存在錯檢情況且在預測精度方面,本文算法稍優于YOLOv3;圖19(b)在具有顏色相近干擾和有遮擋干擾的環境下,定位方面本文算法優于YOLOv3,且YOLOv3存在多檢和錯檢的情況。由圖20(a)可知在具有傾斜的環境下,本文算法定位正確率高于YOLOv3;而由圖20(b)可以看出,在多車輛的環境下,YOLOv3 只檢測出2 輛車,而本文算法檢查出來多輛,同時預測準確率也有一定程度的上升。綜上所述,本文算法對于復雜場景下車牌的定位檢測效果與YOLOv3相比有著顯著的提升。

使用SSD、Faster R-CNN、YOLOv3 以及其他算法和本文改進算法的對比結果,如表6 所示。由表可見,本文算法與原YOLOv3算法相比,平均檢測時間減少了8 ms,mAP提高了1.53%,其次,Faster R-CNN的準確率比YOLOv3稍差,但是檢測速度比YOLOv3慢大約4.29倍,而SSD在檢測速度和精度上都較差。相比于其他算法綜合來看,本文改進的YOLOv3模型具有一定的泛化性和魯棒性。

表6 不同算法檢測對比結果

4 結束語

本文將YOLOv3 算法應用到車牌圖像的目標檢測中,針對各種復雜場景下的車牌定位困難等問題,首先使用K-means++對錨框進行聚類分析,并且通過精簡網絡結構來優化計算參數問題,此外,改進了多尺度融合以及添加Inception-SE 模塊來提高檢測精度,最后使用CIoU評價指標來提高定位能力。在本文的數據集上進行訓練和測試,實驗結果表明,本文方法可以有效提升復雜場景下車牌定位檢測任務的精度和速度,其平均精度值達到了98.84%,幀率達到了36.4幀/s。

由于其他顏色類型的牌照(如:黃色、綠色、白色)等都是特殊牌照,數據很難收集,下一步將收集數據并考慮將Res2Net 或shufflenetv2 加入作為主干網絡。在數據處理方面,針對不同類型的數據進行分類標注然后實驗,并且會將車牌的字符識別模塊添加進去,可以更好地應用于交通場景。

主站蜘蛛池模板: 亚洲熟妇AV日韩熟妇在线| 亚洲欧洲免费视频| 色视频国产| 亚洲无码电影| 久久午夜影院| 人与鲁专区| 特级欧美视频aaaaaa| 重口调教一区二区视频| 青青久视频| 毛片网站在线播放| 99尹人香蕉国产免费天天拍| 久久91精品牛牛| 欧美无专区| 中文无码精品a∨在线观看| 久久精品人人做人人综合试看| 亚洲综合片| 在线观看精品自拍视频| 亚洲最新在线| 久久婷婷综合色一区二区| 91无码人妻精品一区| 中文字幕伦视频| 毛片免费高清免费| 国产精品视屏| 波多野结衣国产精品| 国产爽歪歪免费视频在线观看| 精品少妇人妻av无码久久| 亚洲人成色77777在线观看| 精品亚洲国产成人AV| 国产情侣一区二区三区| 欧美中文字幕无线码视频| 久久精品最新免费国产成人| 亚洲天堂久久久| 鲁鲁鲁爽爽爽在线视频观看| 亚洲美女AV免费一区| 国产三级韩国三级理| 国产男人天堂| 国产哺乳奶水91在线播放| 国产一区二区三区精品欧美日韩| 亚洲欧美极品| 91无码人妻精品一区| 欧美a在线看| 真实国产乱子伦高清| 国产国产人免费视频成18| 黄色网址手机国内免费在线观看| 国产女同自拍视频| 狼友视频一区二区三区| 色国产视频| 久久一日本道色综合久久| 伊人中文网| 精品无码日韩国产不卡av| 真人高潮娇喘嗯啊在线观看| 欧美国产视频| 久99久热只有精品国产15| 国产欧美日韩专区发布| 日韩天堂网| 国产小视频在线高清播放| 亚洲无码四虎黄色网站| 99性视频| 欧美a在线| 午夜激情福利视频| 亚洲综合久久成人AV| 18禁黄无遮挡免费动漫网站| 久久综合成人| 五月婷婷导航| 日韩免费成人| 就去色综合| 国产v精品成人免费视频71pao| 亚洲一级毛片在线播放| 日本91视频| 网友自拍视频精品区| 精品成人一区二区| 国产剧情一区二区| av一区二区人妻无码| yy6080理论大片一级久久| 中字无码精油按摩中出视频| 日本免费一区视频| 日韩国产亚洲一区二区在线观看| 国产成人乱码一区二区三区在线| 麻豆国产原创视频在线播放| 亚洲男人的天堂视频| 污网站在线观看视频| 91亚洲视频下载|