999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)的YOLOv4模型在自動(dòng)駕駛多目標(biāo)檢測(cè)的應(yīng)用

2021-11-03 09:23:44成都錦城學(xué)院自動(dòng)駕駛實(shí)驗(yàn)室陳旭淼張皞宇
電子世界 2021年18期
關(guān)鍵詞:特征檢測(cè)模型

成都錦城學(xué)院自動(dòng)駕駛實(shí)驗(yàn)室 高 揚(yáng) 陳旭淼 張皞宇

目標(biāo)檢測(cè)是自動(dòng)駕駛汽車(chē)與外界環(huán)境實(shí)現(xiàn)信息交互的重要環(huán)節(jié),為了能有效地對(duì)多個(gè)目標(biāo)進(jìn)行實(shí)時(shí)檢測(cè),本文針對(duì)在道路目標(biāo)檢測(cè)中小目標(biāo)和被物體遮擋的目標(biāo)易被漏檢或檢測(cè)框定位不準(zhǔn)確等問(wèn)題,提出一種基于YOLOv4的目標(biāo)檢測(cè)模型。增加152x152的特征融合結(jié)構(gòu),減少每個(gè)YOLO層前的兩個(gè)卷積層,以?xún)?yōu)化目標(biāo)特征提取,模型訓(xùn)練前用kmeans++聚類(lèi)算法優(yōu)化錨框,以提升模型對(duì)自動(dòng)駕駛多目標(biāo)的檢測(cè)性能。實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)YOLOv4算法比原始算法提升1.5個(gè)百分點(diǎn),在檢測(cè)精度和檢測(cè)速度上均有一定提升,改進(jìn)算法具有一定的實(shí)用價(jià)值。

自動(dòng)駕駛汽車(chē)是未來(lái)汽車(chē)產(chǎn)業(yè)發(fā)展的必然趨勢(shì),也是具有革命性影響的交通工具。自動(dòng)駕駛技術(shù)涉及計(jì)算機(jī)科學(xué)、車(chē)輛工程、傳感器技術(shù)等交叉學(xué)科內(nèi)容,它對(duì)于社會(huì)經(jīng)濟(jì)發(fā)展、科學(xué)技術(shù)研究等方面都有重大影響。在自動(dòng)駕駛技術(shù)的組成單元中,環(huán)境感知是至關(guān)重要的環(huán)節(jié)。其中多目標(biāo)檢測(cè)是環(huán)境感知的重要分支,通過(guò)對(duì)行人、車(chē)輛、交通信號(hào)燈、交通標(biāo)志等物體的檢測(cè),結(jié)合激光雷達(dá)的探測(cè)、道路交通規(guī)則以及汽車(chē)行駛狀態(tài)等信息對(duì)自動(dòng)駕駛汽車(chē)進(jìn)行規(guī)劃與控制。

本文基于YOLOv4網(wǎng)絡(luò),增加152x152的特征融合結(jié)構(gòu),用于提升小目標(biāo)檢測(cè)性能,優(yōu)化特征檢測(cè)層的卷積層數(shù),平衡網(wǎng)絡(luò)參數(shù),提高模型檢測(cè)速度,用kmeans++聚類(lèi)算法優(yōu)化適用于本實(shí)驗(yàn)所用數(shù)據(jù)集的錨框,減少非必要誤差。

1 算法解析與改進(jìn)

1.1 多尺度特征融合結(jié)構(gòu)改進(jìn)

實(shí)際駕駛場(chǎng)景下部分目標(biāo)對(duì)象存在因距離或物體遮擋、重合等因素被漏檢或識(shí)別框定位不準(zhǔn)確等情況,多尺度特征融合層可以有效地解決此類(lèi)問(wèn)題。本文提出一種采用四種檢測(cè)尺度的特征融合結(jié)構(gòu)。改進(jìn)后的YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)化圖如圖1所示,輸入圖像尺寸為608x608時(shí),在CSPDarkNet-53網(wǎng)絡(luò)的主體結(jié)構(gòu)中進(jìn)行五次下采樣,同時(shí)使用四個(gè)上采樣層作為FPN結(jié)構(gòu),使用三個(gè)PAN結(jié)構(gòu)組成特征金字塔。FPN結(jié)構(gòu)自下而上提取豐富的語(yǔ)義信息,PAN結(jié)構(gòu)自上而下提取準(zhǔn)確的位置信息,從而實(shí)現(xiàn)不同的主干層對(duì)不同的檢測(cè)層的特征融合。網(wǎng)絡(luò)檢測(cè)尺度增加到四個(gè)后得到的152x152、76x76、38x38和19x19的特征圖,能更有效地應(yīng)不同大小的目標(biāo)物體。

圖1 改進(jìn)YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)圖

1.2 特征檢測(cè)層優(yōu)化

為平衡網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)量和避免模型學(xué)習(xí)效果因網(wǎng)絡(luò)結(jié)構(gòu)加深而退化的情況,在每個(gè)YOLO層前減少兩個(gè)卷積層,由之前的5層卷積轉(zhuǎn)為3層卷積,如圖2所示。在平衡和避免以上情況的同時(shí)一定程度上提高了模型檢測(cè)速度,優(yōu)化了模型性能。

圖2 三層卷積

1.3 kmeans++聚類(lèi)算法優(yōu)化錨框

為避免Anchor Box造成的聚類(lèi)局部最優(yōu)的情況,本文采用K-means++聚類(lèi)算法生成適用于本實(shí)驗(yàn)所用數(shù)據(jù)集的錨框,算法基本流程如下:

每個(gè)樣本點(diǎn)成為下一個(gè)聚類(lèi)中心的概率為P,其計(jì)算公式為:

2 數(shù)據(jù)處理與實(shí)驗(yàn)分析

2.1 數(shù)據(jù)集處理與訓(xùn)練參數(shù)優(yōu)化

本文使用KITTI數(shù)據(jù)集訓(xùn)練YOLOv4系列模型。本文將KITTI數(shù)據(jù)集的Car、Van、Truck、Tram類(lèi)合并為Car類(lèi),將Person_sitting、Pedestrain合并為Pedestrain類(lèi),Cyclist不變,共計(jì)三類(lèi)。利用Python批處理方法將數(shù)據(jù)集處理為PASCAL VOC2007數(shù)據(jù)格式,訓(xùn)練集(含驗(yàn)證集)與測(cè)試集的比例為9:1,具體標(biāo)記圖數(shù)與標(biāo)記個(gè)數(shù)見(jiàn)表1所示。

表1 標(biāo)記數(shù)

數(shù)據(jù)集制作完成后,使用Kmeans++聚類(lèi)算法生成適用于該數(shù)據(jù)集的錨框,聚類(lèi)散點(diǎn)分布如圖6所示,12個(gè)錨框參數(shù)值分別為(13,40),(25,55),(13,116),(45,63),(33,92),(29,220),(62,104),(77,155),(58,305),(116,190),(133,300),(192,354)。

圖3 Kmeans++聚類(lèi)散點(diǎn)圖

2.2 實(shí)驗(yàn)結(jié)果與分析

本文實(shí)驗(yàn)采用顯卡配置為Nvidia GeFo orce RTX 1080Ti的Windows操作系統(tǒng)和Darknet深度學(xué)習(xí)框架搭建實(shí)驗(yàn)環(huán)境。

在訓(xùn)練前需準(zhǔn)備預(yù)訓(xùn)練權(quán)重(即yolov4.conv.137文件),結(jié)合本文2.1節(jié)給出的參數(shù)優(yōu)化結(jié)果修改YOLOv4模型配置文件,以滿(mǎn)足本文所用數(shù)據(jù)集的訓(xùn)練要求,部分參數(shù)的設(shè)置詳見(jiàn)表2。初始學(xué)習(xí)率為0.0013,本文設(shè)置當(dāng)模型訓(xùn)練至總迭代次數(shù)的80%(24000輪)和90%(27000輪)時(shí)學(xué)習(xí)率下降90%,以達(dá)到訓(xùn)練初期模型快速收斂,訓(xùn)練后期模型收斂至最優(yōu)解的目的。

表2 部分訓(xùn)練參數(shù)

本文模型訓(xùn)練的損失值和平均精度均值變化如圖7所示,在前18000輪迭代中模型的loss值和mAP值變化相對(duì)較快,在迭代24000輪后loss值穩(wěn)定在1.6左右,迭代25000輪后mAP值穩(wěn)定在92%左右。

用k-means++聚類(lèi)算法優(yōu)化錨框后,改進(jìn)的YOLOv4網(wǎng)絡(luò)在KITTI數(shù)據(jù)集上訓(xùn)練的mAP結(jié)果為91.99%,和原始YOLOv4在該數(shù)據(jù)集上訓(xùn)練的mAP結(jié)果相比,提升了1.5個(gè)百分點(diǎn)。為進(jìn)一步驗(yàn)證改進(jìn)模型的效果,將本文改進(jìn)模型與原YOLOv4模型、多尺度特征融合結(jié)構(gòu)改進(jìn)模型(YOLOv4-A)、特征檢測(cè)層改進(jìn)模型(YOLOv4-B)以及Faster-RCNN網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3、圖4所示。

圖4 loss與mAP訓(xùn)練過(guò)程變化

表3 對(duì)比實(shí)驗(yàn)的各項(xiàng)數(shù)據(jù)

由表3可看出,本文改進(jìn)算法各類(lèi)別準(zhǔn)確率和mAP指標(biāo)均高于其余三種算法,且FPS指標(biāo)高于Faster-RCNN網(wǎng)絡(luò)。綜合mAP指標(biāo)和FPS指標(biāo),本文算法優(yōu)于其他檢測(cè)算法,提升了自動(dòng)駕駛多目標(biāo)檢測(cè)性能。

本文提出了一種改進(jìn)YOLOv4算法,旨在提升自動(dòng)駕駛多目標(biāo)檢測(cè)的檢測(cè)性能,為自動(dòng)駕駛汽車(chē)的智能決策提供更有效的數(shù)據(jù)支撐。增加152x152特征融合結(jié)構(gòu),減少特征檢測(cè)層的兩層卷積層,用Kmeans++聚類(lèi)算法可以在最大程度上減小隨機(jī)生成初始聚類(lèi)中心的誤差,避免聚類(lèi)局部最優(yōu)導(dǎo)致訓(xùn)練的模型魯棒性低和檢測(cè)精度低的問(wèn)題出現(xiàn)。因此,本文改進(jìn)的YOLOv4算法將模型的mAP指標(biāo)相較于原YOLOv4算法提升了1.5個(gè)百分點(diǎn),F(xiàn)PS指標(biāo)基本持平。

本文從網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)集聚類(lèi)的角度改進(jìn)算法使模型檢測(cè)性能得到一定的提升,但對(duì)于YOLOv4主體網(wǎng)絡(luò)而言還有很大的改進(jìn)空間。這些都需要在未來(lái)的科研中研究和解決的內(nèi)容。

猜你喜歡
特征檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀(guān)察
3D打印中的模型分割與打包
主站蜘蛛池模板: 97久久超碰极品视觉盛宴| 国产在线精品人成导航| 青青青伊人色综合久久| 免费欧美一级| 久久综合AV免费观看| 57pao国产成视频免费播放| 91精品国产丝袜| 国产丝袜啪啪| 好紧好深好大乳无码中文字幕| 色婷婷成人| 亚洲精品高清视频| 免费在线国产一区二区三区精品| 久久九九热视频| 免费一级无码在线网站 | 日本免费高清一区| 国产美女91视频| 亚洲成年人网| 成人在线综合| 欧美综合区自拍亚洲综合天堂| 久草国产在线观看| 亚洲精品少妇熟女| 国产男女免费视频| 国产手机在线ΑⅤ片无码观看| 波多野结衣视频网站| 国产在线自揄拍揄视频网站| 九九九国产| 亚洲欧美另类日本| 国产精品亚洲日韩AⅤ在线观看| 亚洲AV无码久久精品色欲| 国产极品嫩模在线观看91| 丰满人妻一区二区三区视频| 欧美精品v日韩精品v国产精品| 亚洲精选无码久久久| 精品人妻一区二区三区蜜桃AⅤ| 亚洲精品无码成人片在线观看| 亚洲日本中文字幕天堂网| 亚洲无码37.| 国产成人精品视频一区二区电影 | 国产香蕉97碰碰视频VA碰碰看| 一本大道视频精品人妻 | 午夜色综合| 国产经典在线观看一区| 狠狠色丁香婷婷综合| 国产精品性| 免费在线看黄网址| 亚洲一本大道在线| 久久久久亚洲av成人网人人软件| 一本大道无码日韩精品影视| av一区二区三区在线观看| 色网站在线免费观看| 91成人精品视频| 免费欧美一级| 亚洲天堂精品在线观看| 国产在线视频自拍| 亚洲一级毛片| 真实国产乱子伦高清| www亚洲天堂| 18禁黄无遮挡免费动漫网站| 第一页亚洲| 免费中文字幕在在线不卡| 大学生久久香蕉国产线观看| 久久www视频| 亚洲色无码专线精品观看| 无码啪啪精品天堂浪潮av | 国外欧美一区另类中文字幕| 91美女视频在线观看| 免费在线a视频| 国产精品2| 亚洲天堂在线免费| 亚洲三级色| 全午夜免费一级毛片| 毛片久久网站小视频| 国产精品久久久久久久久久98 | 中文字幕av无码不卡免费| 成人免费一级片| 久久夜色精品国产嚕嚕亚洲av| 亚洲天堂网站在线| 高清免费毛片| 精品综合久久久久久97超人| 另类专区亚洲| 色偷偷一区| 亚洲精品老司机|