999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv3的實時交通標志檢測算法

2022-07-29 08:48:36張達為劉緒崇周維陳柱輝余瑤
計算機應用 2022年7期
關鍵詞:特征檢測模型

張達為,劉緒崇,周維,陳柱輝,余瑤

基于改進YOLOv3的實時交通標志檢測算法

張達為1*,劉緒崇2,周維1,陳柱輝1,余瑤3

(1.湘潭大學 計算機學院·網絡空間安全學院,湘潭 湖南,411105; 2.湖南警察學院 湖南公安科學技術研究院,長沙 410138; 3.湘潭大學 公共管理學院,湘潭 湖南,411105)( ? 通信作者電子郵箱1135119686@qq.com)

針對目前我國智能駕駛輔助系統識別道路交通標志檢測速度慢、識別精度低等問題,提出一種基于YOLOv3的改進的道路交通標志檢測算法。首先,將MobileNetv2作為基礎特征提取網絡引入YOLOv3以形成目標檢測網絡模塊MN-YOLOv3,在MN-YOLOv3主干網絡中引入兩條Down-up連接進行特征融合,從而減少檢測算法的模型參數,提高了檢測模塊的運行速度,增強了多尺度特征圖之間的信息融合;然后,根據交通標志目標形狀的特點,使用-Means++算法產生先驗框的初始聚類中心,并在邊界框回歸中引入距離交并比(DIOU)損失函數來將DIOU與非極大值抑制(NMS)結合;最后,將感興趣區域(ROI)與上下文信息通過ROI Align統一尺寸后融合,從而增強目標特征表達。實驗結果表明,所提算法性能更好,在長沙理工大學中國交通標志檢測(CCTSDB)數據集上的平均準確率均值(mAP)可達96.20%。相較于Faster R-CNN、YOLOv3、Cascaded R-CNN檢測算法,所提算法擁有具有更好的實時性和更高的檢測精度,對各種環境變化具有更好的魯棒性。

目標檢測;特征融合;YOLOv3;距離交并比;MobileNetv2;-Means++

0 引言

交通標志識別系統對于高速公路標志標線維護、駕駛員輔助系統和自動駕駛汽車非常重要。交通標志檢測與識別分為標志檢測和標志分類。檢測階段的目的是定位圖像中的感興趣區域并驗證感興趣區域(Region Of Interest, ROI)是否包含交通標志;識別階段的目的是對檢測階段檢測到的交通標志進行唯一識別。目前,深度卷積網絡應用于圖像識別和目標檢測,速度越來越快,準確率越來越高。卷積神經網絡(Convolutional Neural Network, CNN)可以從大量樣本中學習特征,無需預處理,避免了手工制作特征的設計難度,可學習更廣義的特征。CNN已經被作為機器學習的分類器提出,并已被用于交通標志分類。基于CNN的方法的性能是較先進的。然而,對于交通標志檢測,基于卷積神經網絡的方法由于計算復雜,實時性并不好。隨著計算機計算性能的不斷加強,實時交通標志檢測和識別技術已成為無人駕駛技術中一種不可或缺的技術。因此,本文以YOLOv3(You Only Look Once version 3)[1]為基礎來對交通標志檢測與識別算法進行研究,這對提高無人駕駛技術具有重要意義。

傳統的交通標志識別系統研究方法主要是基于顏色和形狀的方法。Li等[2]提出采用圖像預處理、顏色濾波、顏色分割進行交通標志檢測,在識別階段采用特征提取和訓練有素的神經網絡對交通標志進行唯一識別。Kaplan等[3]提出了一種圓形交通標志檢測與識別方法,通過以卷積和空間變換模塊為主要模塊的卷積神經網絡對交通標志圖像進行細粒度分類。上述方法都是通過利用交通標志特殊的顏色和形狀來進行特征提取,依靠分類器來進行分類;但是上述方法都存在檢測速度慢、檢測精度低等問題,在實際應用中難以達到預期目標。

由于深度學習的不斷發展,目標檢測、目標跟蹤技術也在不斷迭代更新。Wang等[4]提出了一種新穎的實時方法來識別具有高動態成像和深度學習的交通信號燈,從低曝光的暗幀中可靠地檢測交通信號候選,并使用深層神經網絡在連續的高曝光的亮幀中對交通燈候選進行準確分類。為了提高對交通標志的檢測和識別效果,Zhang等[5]提出使用卷積神經網絡對交通標志提案進行分類,以進行快速、準確的交通標志檢測和識別。García-Garrido等[6]采用霍夫變換從圖像邊緣獲取信息,但計算復雜度高,阻礙了實時應用。總的來說,上述方法中使用的主要方法是先提取感興趣區域特征,然后采用分類器去定位位置。因此,這些方法被稱為兩階段目標檢測方法,它們擁有較強的檢測精度和泛化能力,但是也具有訓練步驟繁瑣、訓練速度慢、精度不夠、訓練的時候占據太多的物理空間等問題,這些問題會使得在實時檢測道路交通標志時的效率較低,進而達不到預期的效果。

為了提高檢測效率,Redmon等[7]提出了利用整張圖片作為網絡的輸入,直接在輸出層回歸檢測框的位置和檢測框所屬的類別的網絡YOLO (You Only Look Once)。與前幾個卷積神經網絡相比,由于YOLO網絡擁有較快的檢測速度,所以被應用到許多領域。但是由于YOLO對小目標檢測效果不好、泛化能力偏弱、定位誤差較大等問題,所以隨后出現了YOLOv2[8]、YOLOv3改進網絡,大幅地提高了小目標的檢測精度。

但上述方法計算量較大,影響了檢測速度,也忽略了淺層位置信息對小目標及遮擋目標的重要性。因此為了減小計算量、提高道路交通標志檢測效果,本文采用MobileNetv2[9]網絡與YOLOv3集成的方式來實現在多種復雜環境下的目標檢測,不僅提高了遮擋目標及小目標的檢測精度,同時還提高了檢測速度。算法改進如下:

1)為了提高前向推斷的速度,本文以MobileNetv2作為基礎特征提取網絡[10]。

2)為了能更多獲取淺層信息,在MobileNetv2主干網中引入兩條Down-up連接,增強多尺度特征之間的信息融合。

3)為了能更好地檢測和識別小目標,本文提出在原有網絡結構基礎上創建一條新的預測分支C4,最后將C1、C2、C3、C4特征層進行統一信息融合,加強了各層之間的特征融合,有利于充分利用各層的信息。

4)為了提高模型收斂速度,本文通過引入距離交并比(Distance Intersection Over Union, DIOU)[11]損失函數,提高模型的預測精度。

5)為了更加充分地利用高層特征的語義信息和底層特征的細粒度特征,本文還引入自適應特征融合方式。

實驗結果表明,本文提出的算法相較于原始YOLOv3檢測算法在精度和運行速度上都有明顯的提升。

1 本文網絡

本文使用MobileNetv2作為骨干網絡來提取圖像的特征,通過MobileNetv2網絡將提取出來的特征圖輸入到后續的多尺度分類檢測網絡中,最后得到20×20、40×40、80×80、160×160這4個不同層級的特征圖,并在這4種不同尺度的特征圖上進行預測。

1.1 YOLOv3 算法原理

在YOLOv3網絡中繼續使用先驗框機制,使用-Means算法對數據集中的真值框進行聚類,得到3個類別的先驗框。邊界框真實位置如式(1)~(4)所示:

其中:是基于矩形框中心點左上角格點坐標的偏移量,通過Sigmoid函數激活,使其范圍限制在[0,1]區間,是先驗框的寬、高;是實際預測框的寬、高;為網格坐標,也就是距離左上角頂點的偏移量。通過上述公式計算出邊界框的位置,如圖1所示,通過對置信度設置閾值,篩選掉得分低的預測框,然后對余下的預測框使用非極大值抑制(Non-Maximum Suppression, NMS)處理,最終獲得真正的預測框。

1.2 深度可分離卷積

Google在2017年MobileNet網絡中首次提出了深度可分離卷積的概念。深度可分離卷積在幾乎不影響精度的情況下可以大幅降低網絡的計算量。傳統卷積核的通道數和卷積圖像的通道總是保持一致,與傳統卷積不同,深度可分離卷積是將傳統卷積分為兩步:深度卷積和逐點卷積;深度可分離卷積則是先將每一通道作為一組,然后對每一通道的區域進行卷積,最后各通道之間進行信息交互,結構如圖2所示。

圖 2 傳統卷積與深度可分離卷積對比

倒置殘差先通過1×1的卷積來進行通道擴張,再使用3×3的深度卷積特征提取,最后用1×1的卷積將通道數壓縮,目的是使3×3的深度卷積提取更多的特征,大幅減少了計算量,讓網絡重新變小,此網絡中間寬、兩頭窄,呈沙漏形狀,因此被稱為倒置殘差。采用倒置殘差結構可以大幅減少運算時的參數量,但是這種結構最后輸出的特征圖通道數會很少,因為其后使用非線性激活 ReLU6,會產生較大的信息丟失。為了減少信息損失,此網絡使用線性瓶頸,在瓶頸的輸出后接線性激活,減少了信息的損失。倒置殘差結構和線性瓶頸結構如圖3所示。

圖 3 倒置殘差結構

1.3 MN-YOLOv3網絡結構

為了解決Darknet-53網絡在前向特征提取時參數量和計算量較大問題,本文采用MobileNetv2網絡進行前向推理, MobileNetv2網絡采用深度可分離卷積操作大幅減少了網絡運算所需要的參數量和運算量,降低了網絡復雜度,提高了網絡的推理速度。采用MobileNetv2替換YOLOv3的主干網,與之形成了輕量級網絡MN-YOLOv3(MobileNetv2- YOLOv3),更加適合交通標志的實時性檢測,MN-YOLOv3繼續采用原YOLOv3存在的金字塔結構和多尺度特征融合方法,解決了在檢測交通標志時的多尺度問題,增加了特征圖中的語義信息。但是隨著網絡深度的不斷加深,當檢測小目標物體時,特征圖的分辨率不斷降低,20×20特征圖中的特征信息不斷丟失,所以在20×20的特征圖上引入Down-Up連接,使用3×3、步長分為4和8的卷積操作進行下采樣,最后與20×20的特征圖進行像素融合,增強高層特征圖位置信息;同時在本文結構中擴充一條新的檢測分支C4,因此能夠更多地獲取淺層的信息。為了能夠更加充分地利用高層特征的語義信息和底層特征的細粒度特征,本文還引入自適應特征融合方式,將輸出的特征圖經由自適應特征融合方式進行處理,最后輸出20、40、80、160四種不同尺度的特征圖。改進的MN-YOLOv3 的網絡結構如圖4所示。

圖 4 MN-YOLOv3 網絡結構

1.4 MN-YOLOv3損失函數

在目標檢測中,交并比(Intersection Over Union, IOU)的作用是評價預測框和真值框之間的相似度,通過計算交并比得出預測框和真值框之間的相似度,對正負樣本的選擇起關鍵性作用。邊界框回歸在目標檢測中起著關鍵性的作用。近幾年的研究證明IOU損失在邊框回歸上擁有更好的效果,因為它對尺度變化不敏感,IOU損失函數可表示為:

其中:C為包圍預測框和目標框的最小矩形區域大小。雖然該損失函數比IOU損失函數具有更好的效果,但仍存在收斂速度慢和回歸不準確的問題。GIOU損失回歸效果如圖5所示。

為了解決上述出現的收斂慢和回歸不準確問題,本文使用DIOU損失來代替IOU損失作為坐標誤差損失函數,該改進方法加快模型擬合預測框與真值框的位置關系,提高了模型的預測精度。DIOU損失在GIOU損失基礎上添加一個懲罰項,該懲罰項用于最小化兩個邊界框的中心點距離。懲罰項可以定義為:

DIOU損失函數定義為:

圖 6 DIOU 損失邊界框回歸效果

1.5 設定先驗框參數

先驗框機制首先由Faster R-CNN(Faster Region Convolutional Neural Network)[16]提出,并且隨后各種流行的目標檢測器大部分采用先驗框機制,例如:SSD(Single Shot multibox Detector)[17]、YOLOv3、RetinaNet[18]等。先驗框機制主要是解決一張圖片中的物體具有不同尺度和長寬比的問題,之前使用的方法是基于圖像金字塔或過濾器金字塔,但這兩種方法比較耗時,且效率低。先驗框機制同時還解決了真值框與真值框之間重疊過大會導致多個真值框映射到一個網格中,從而導致有些真值框丟失。先驗框機制將擁有不同尺度大小和縱橫比的物體所在的空間劃分為幾個子空間,降低了問題難度,也降低了模型學習難度。但是在Faster R-CNN和SSD中,先驗框的長、框都是手動設定,主觀性比較強;若初始選擇的先驗框尺度比較合適,那么對于模型的學習將會更加容易,從而會得到更好的預測效果。因此,在YOLOv3中通過對訓練集-Means聚類得到先驗框,但-Means的聚類結果會由于選取的初始值不同而有所區別,對預測結果也會有影響。本文預置初始聚類中心的方法,通過對交通標志的形狀及特點進行分析,手動選取-Means++[19]的12個初始聚類框,可以有效地降低原始算法在初始聚類點所造成的聚類偏差,得到比較好尺寸的先驗框并且將其匹配到對應的特征圖上,從而可以有效地提高檢測的準確率和召回率。

1.6 自適應特征融合

圖 7 自適應特征融合的結構

2 實驗與結果分析

本文實驗在Windows 10、CUDA10.0、CUDNN7.0環境下進行。CPU配置為Intel-CPU-i7-10870H 處理器,硬件配置:NVIDIA GeForce GTX 1080Ti,12 GB顯存,調用GPU進行加速訓練。

2.1 交通標志數據集

為了驗證本文算法的效果,本文采用的數據集為長沙理工大學中國交通標志檢測(CSUST Chinese Traffic Sign Detection Benchmark, CCTSDB)數據集見圖8。CCTSDB數據集圖片拍攝角度以及分類更規范,因此作為本文算法的主要研究數據集。CCTSDB數據集共包含55類交通標志,選取了數據集中的5 920張圖片。在中國交通標志數據集中選取48類交通標志作為檢測識別對象,分別為“禁止停車”“限速15 km/h”“注意危險”“右側變窄”“前方施工”等48種標簽,共計6 567個標注。將標注信息生成與之對應的XML格式的目標區域位置的信息,編寫Python程序將XML格式的目標區域位置信息統一轉換為TXT格式,以便能讓YOLOv3讀取圖片標注信息位置。最后按照VOC2007 數據集格式進行了整理,分別按3∶1比例將數據集中的圖片分為訓練集和測試集兩類。

圖8 CCTSDB數據集

2.2 先驗框參數

由于YOLOv3最原始選定先驗框尺度和寬高比是基于COCO數據集確定的,但是在本文的自制數據集應用目標是交通路面上的交通標志牌,原始設置的先驗框尺寸已不適合本文研究的環境中,因此,本文使用-Means++聚類算法對交通標志信息數據集的真實標注框進行聚類操作,聚類結果如圖9所示。

圖 9 先驗框分布

由圖9可知,真實標注框長寬映射到模型后輸出的先驗框尺寸大小為:(6.31,16.60)、(40.52,57.54)、(24.56,56.84)、(11.45,34.73)、(62.28,88.30)、(83.68,114.15)、(50.17,128.65)、(32.10,4.44)、(19.82,28.07)、(38.59,95.43)、(51.05,71.34)、(12.08,19.29),使用CCTSDB進行維度聚類,得出結果和原始的參數相比,CCTSDB數據集聚類結果更為集中,長寬比更符合交通標志數據集的特點,因此使用-Means++算法聚類得到的先驗框參數來代替原始的參數進行訓練和測試,可以使先驗框更容易擬合真實目標,從而可以降低模型訓練的難度。

2.3 模型訓練

訓練模型期間采用修改后的YOLOv3配置文件,使用數據隨機化(隨機縮放、隨機裁減、隨機排布的方式進行拼接將4張圖合為1張圖進行訓練)的方法來對交通標志圖片進行數據擴充,以此來提高模型的泛化能力。將數據隨機化后的圖像調整尺寸到640×640后送進網絡模型中進行模型訓練。數據隨機化效果圖如圖10所示。

圖 10 數據隨機化

2.4 實驗結果與分析

目標檢測領域內的重要概念即為交并比(IOU)、平均準確率(Average Precision, AP)、平均準確率均值(mean Average Precision, mAP)、查準率(Precision, P)和查全率(Recall, R)等。交并比是指預測框與真實框的交集和并集之比,AP是P和R的關系曲線與坐標軸之間所圍成的面積,準確率和召回率的計算公式如下:

其中:(True Positive)為被模型預測為真的正樣本;(False Positive)為模型預測為真的負樣本數;(False Negative)為模型預測為非真的正樣本數。mAP為各類目標的平均準確率的均值。

此實驗以MobileNetv2為特征提取網絡,以YOLOv3為網絡檢測算法框架,基于遷移學習的方法,使用預訓練模型作為提取基礎特征的網絡,整個過程共迭代了500次,其中批量大小設置為8,使用隨機梯度下降的方法,初始學習率為0.01,動量和權重衰減率分別設置為0.937和0.000 5。

2.4.1消融實驗

為了論證上述改進方法的有效性,本文在中國交通標志數據集上實行消融實驗,構建baseline網絡(通過替換MN-YOLOv3中的主干網絡MobileNetv2為ResNet-53和移除兩條Down-up連接以及移除ASFF結構得到),通過組合上述所提及的Down-up、ASFF、DIOU,來驗證不同模塊對網絡性能的提升。測試結果如表1所示。表1列出了P、R和mAP(IOU=0.5)這3種指標。由baseline和模型A、B、C可知,Down-up、ASFF、DIOU對于模型的性能均有所提升,并在mAP上分別提高了0.1個百分點、0.6個百分點、0.1個百分點。集合4種模塊的MN-YOLOv3在precision、recall、mAP上均取得了最好的結果,與baseline相比,分別提升了3.1個百分點、2.6個百分點、4個百分點。由實驗結構可知3個模塊對于網絡性能的提升是有效的。

2.4.2與其他目標檢測算法對比

本文實驗在指定IOU(IOU0.5)閾值下進行評價,本文將Faster R-CNN、YOLOv3、Cascaded R-CNN(Cascaded Region Convolutional Neural Network)[21]、MN-YOLOv3這4類目標檢測算法在CCTSDB上進行測試,測試結果如表2所示。選取P、R、mAP、每秒幀率(Frames Per Second, FPS)4項指標對各算法進行評價。雖然Cascaded R-CNN算法在查準率上排在首位,但速度最低;Faster R-CNN算法在查全率上占優勢,但FPS效果不佳;雖然在查準率上,MN-YOLOv3比Cascaded R-CNN低了1個百分點,但在速度和mAP上取得最優,說明了MN-YOLOv3算法兼顧了目標檢測準確率和速度;MN-YOLOv3的mAP為96.2%,檢測速度達到35.3 FPS,相較于原始YOLOv3的mAP提升了2.7個百分點,速度提升33.7%。檢測效果如圖11所示。

圖11 MN-YOLOv3算法檢測效果

表1CCTSDB數據集上消融實驗結果

Tab.1 Results of ablation experiment on CCTSDB dataset

表 2CCTSDB數據集上對比實驗結果

Tab.2 Comparison of experimental results on CCTSDB dataset

3 結語

本文提出改進YOLOv3算法以解決交通數據識別精度不高且檢測速度較低的問題。首先利用MobileNetv2替換原始YOLOv3的主干網絡,提高了網絡的前向推理速度;其次引入兩條Down-up連接,增強各層級之間的特征融合,有助于檢測尺度較小的交通標志;引入DIOU損失函數作為代價函數,不僅能提高檢測速度,而且還提高了模型對目標框的定位能力;引入自適應特征融合,能夠讓網絡更加充分利用高層特征的語義信息和底層特征的細粒度特征,增強各層級之間的特征融合;使用-Means++聚類算法確定先驗框的大小,使模型更容易收斂,提高了本文算法對交通標志的檢測精度。由實驗結果可知,改進后的YOLOv3算法mAP達96.20%,較原始YOLOv3算法提升了2.7個百分點,檢測速率達到35.3 FPS,較原始YOLOv3算法提升了33.7%。本文對輸入圖像的分辨率均歸一化至640×640,后續工作將以擴展圖像尺寸、減少計算復雜度,達到全分辨率實時檢測為目標開展研究。

[1] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. (2018-04-08) [2021-03-10].http://arxiv.org/pdf/1804.02767.pdf.

[2] LI H J, QIU T S, SONG H Y, et al. A fast traffic signs detection method based on color segmentation and improved radial symmetry[J]. ICIC Express Letters, 2014, 8(8): 2175-2180.

[3] KAPLAN B, SELCAN G, HUSEYIN O, et al. On circular traffic sign detection and recognition[J]. Expert Systems with Applications, 2016, 48:67-75.

[4] WANG J G, ZHOU L B. Traffic light recognition with high dynamic range imaging and deep learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(4):1341-1352.

[5] ZHANG J M, XIE Z P, SUN J, et al. A cascaded R-CNN with multiscale attention and imbalanced samples for traffic sign detection[J]. IEEE Access, 2020, 8: 29742-29754.

[6] GARCíA-GARRIDO M á, SOTELO M á, MARTIN-GOROSTIZA E. Fast road sign detection using Hough transform for assisted driving of road vehicles[C]// Proceedings of the 2015 International Conference on Computer Aided Systems Theory, LNCS 3643. Berlin: Springer, 2005: 543-548.

[7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 779-788.

[8] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017:6517-6525.

[9] SANDLER M, HOWARD A, ZHU M L, et al. MobileNetv2: inverted residuals and linear bottlenecks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:4510-4520.

[10] 任坤,黃瀧,范春奇,等. 基于多尺度像素特征融合的實時小交通標志檢測算法[J]. 信號處理, 2020, 36(9):1457-1463 .(REN K, HUANG L, FAN C Q, et al. Real-time small traffic sign detection algorithm based on multi-scale pixel feature fusion[J]. Journal of Signal Processing, 2020, 36(9):1457-1463.)

[11] ZHENG Z H, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020:12993-13000.

[12] 李震霄,孫偉,劉明明,等. 交通監控場景中的車輛檢測與跟蹤算法研究[J]. 計算機工程與應用, 2021, 57(8):103-111.(LI Z X, SUN W, LIU M M, et al. Research on vehicle detection and tracking algorithm in traffic monitoring scenes[J]. Computer Engineering and Applications, 2021, 57(8):103-111.)

[13] 蔣麗,薛善良.優化初始聚類中心及確定值的-means算法[J]. 計算機與數字工程, 2018, 46(1):21-24, 113.(JIANG L, XUE S L. A-means algorithm based on optimizing the initial clustering center and determining thevalue [J]. Computer and Digital Engineering, 2018, 46(1): 21-24, 113.)

[14] 鄧天民,周臻浩,方芳,等. 改進YOLOv3的交通標志檢測方法研究[J]. 計算機工程與應用, 2020, 56(20):28-35.(DENG T M, ZHOU Z H, FANG F, et al. Research on improved YOLOV3 traffic sign detection method[J]. Computer Engineering and Applications, 2020, 56(20): 28-35.)

[15] REZATOFIGHI H, TSOI N, GWAK J, et al. Generalized intersection over union: a metric and a loss for bounding box regression [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:658-666.

[16] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2015:91-99.

[17] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multiBox detector [C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9905. Cham: Springer, 2016: 21-37.

[18] 劉革,鄭葉龍,趙美蓉. 基于RetinaNet改進的車輛信息檢測[J]. 計算機應用, 2020, 40(3):854-858.(LIU G, ZHENG Y L, ZHAO M R. Vehicle information detection based on improved RetinaNet[J]. Journal of Computer Applications, 2020, 40(3): 854-858.)

[19] 候瑞環,楊喜旺,王智超,等. 一種基于YOLOv4-TIA的林業害蟲實時檢測方法[J]. 計算機工程, 2022, 48(4):255-261.(HOU R H, YANG X W, WANG Z C, et al. A real-time detection method of forestry pests based on YOLOV4-TIA[J]. Computer Engineering, 2022, 48(4):255-261.)

[20] LIU S T, HUANG D, WANG Y H. Learning spatial fusion for single shot object detection[EB/OL]. (2019-11-21) [2021-03-10].http://arxiv.org/pdf/1911.09516.pdf.

[21] CAI Z W,NUNO V. Cascade R-CNN: delving into high quality object detection[EB/OL].[2017-12-03].https://arxiv.org/pdf/1712.00726.pdf.

ZHANG Dawei, born in 1995, M. S. candidate. His research interests include computer vision.

LIU Xuchong,born in 1973, Ph. D., professor. His research interests include big data analysis, information network security.

ZHOU Wei, born in 1978, Ph. D., associate professor. His research interests include computer vision, intelligent systems.

CHEN Zhuhui, born in 1996, M. S. candidate. His research interests include natural language processing.

YU Yao, born in 1995, M. S. candidate. Her research interests include public opinion analysis.

Real-time traffic sign detection algorithm based on improved YOLOv3

ZHANG Dawei1*, LIU Xuchong2, ZHOU Wei1, CHEN Zhuhui1, YU Yao3

(1&,,411105,;2,,410138,;3,,411105,)

Aiming at the problems of slow detection and low recognition accuracy of road traffic signs in Chinese intelligent driving assistance system, an improved road traffic sign detection algorithm based on YOLOv3 (You Only Look Once version 3) was proposed. Firstly, MobileNetv2 was introduced into YOLOv3 as the basic feature extraction network to construct an object detection network module MN-YOLOv3 (MobileNetv2-YOLOv3). And two Down-up links were added to the backbone network of MN-YOLOv3 for feature fusion, thereby reducing the model parameters, and improving the running speed of the detection module as well as information fusion performance of the multi-scale feature maps. Then, according to the shape characteristics of traffic sign objects,-Means++ algorithm was used to generate the initial cluster center of the anchor, and the DIOU (Distance Intersection Over Union) loss function was introduced to combine DIOU and Non-Maximum Suppression (NMS) for the bounding box regression. Finally, the Region Of Interest (ROI) and the context information were unified by ROI Align and merged to enhance the object feature expression. Experimental results show that the proposed algorithm has better performance, and the mean Average Precision (mAP) of the algorithm on the dataset CSUST (ChangSha University of Science and Technology) Chinese Traffic Sign Detection Benchmark (CCTSDB) can reach 96.20%. Compared with Faster R-CNN (Region Convolutional Neural Network), YOLOv3 and Cascaded R-CNN detection algorithms, the proposed algorithm has better real-time performance, higher detection accuracy, and is more robustness to various environmental changes.

object detection; feature fusion; You Only Look Once version 3 (YOLOv3); DIOU (Distance Intersection Over Union); MobileNetv2;-Means++

This work is partially supported by Hunan Provincial Natural Science Foundation (2018JJ2107), Major Science and Technology Project of Hunan Province (2017SK1040), Project of Hunan Province High-tech Industry Science and Technology Innovation Leading Plan (2020GK2029).

TP391.4

A

1001-9081(2022)07-2219-08

10.11772/j.issn.1001-9081.2021050731

2021?05?10;

2021?10?31;

2021?11?08。

湖南省自然科學基金資助項目(2018JJ2107);湖南省科技重大專項(2017SK1040);湖南省高新技術產業科技創新引領計劃項目(2020GK2029)。

張達為(1995—),男,湖南常德人,碩士研究生,CCF會員,主要研究方向:計算機視覺; 劉緒崇(1973—),男,湖南桑植人,教授,博士,CCF會員,主要研究方向:大數據分析、信息網絡安全; 周維(1978—),男,湖南湘潭人,副教授,博士,CCF會員,主要研究方向:計算機視覺、智能系統; 陳柱輝(1996—),男,湖南永州人,碩士研究生,CCF會員,主要研究方向:自然語言處理; 余瑤(1995—),女,江西上饒人,碩士研究生,主要研究方向:公共輿論分析。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美国产精品不卡在线观看 | 色天堂无毒不卡| 国产毛片高清一级国语| 少妇人妻无码首页| 91免费国产在线观看尤物| 亚洲天堂视频在线播放| 欧美在线三级| 亚洲综合18p| 成人福利免费在线观看| 女人18毛片久久| 亚洲中文字幕在线观看| 色男人的天堂久久综合| 国产精品久久自在自线观看| av在线无码浏览| 人人澡人人爽欧美一区| 欧美在线视频不卡| 91精品视频在线播放| 波多野结衣一区二区三区四区视频| 无码日韩人妻精品久久蜜桃| 国产在线视频导航| 亚洲中文字幕久久精品无码一区| 波多野结衣一二三| 日本成人精品视频| 无码又爽又刺激的高潮视频| 国产三级视频网站| 99伊人精品| 精品一區二區久久久久久久網站| 国产真实二区一区在线亚洲| 日本精品αv中文字幕| 亚洲美女久久| 丝袜美女被出水视频一区| 国产精品亚洲天堂| 超碰免费91| 日本三级黄在线观看| 精品综合久久久久久97超人该| 国产黄网永久免费| 亚洲六月丁香六月婷婷蜜芽| 亚洲 欧美 偷自乱 图片| 欧美成人国产| 国产精品亚洲一区二区三区z| 亚洲日本韩在线观看| 日本人真淫视频一区二区三区| 高清无码不卡视频| 精品国产99久久| 国产精品99一区不卡| 亚洲天堂伊人| 久久国产精品77777| 香蕉网久久| 日韩视频福利| 暴力调教一区二区三区| 欧美成人aⅴ| 99久久免费精品特色大片| 国产在线观看一区二区三区| 精品少妇人妻无码久久| 999精品免费视频| 欧美精品成人| 国产一在线| 欧美亚洲第一页| 日本欧美成人免费| 中文字幕欧美日韩| 一边摸一边做爽的视频17国产| 国产区在线看| 四虎成人免费毛片| 国产在线91在线电影| 最近最新中文字幕免费的一页| 久久99国产精品成人欧美| 九色免费视频| 国产人成在线观看| 99999久久久久久亚洲| 国产成人亚洲精品蜜芽影院| 五月丁香伊人啪啪手机免费观看| 国产精品成人久久| 中文字幕 91| 久草性视频| 久久精品丝袜| 日本在线国产| 国产区精品高清在线观看| 中国一级毛片免费观看| 激情综合激情| 国产美女一级毛片| 国产在线小视频| 国产精品网址在线观看你懂的|