999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)的YOLOv4模型在自動(dòng)駕駛多目標(biāo)檢測(cè)的應(yīng)用

2021-11-03 09:23:44成都錦城學(xué)院自動(dòng)駕駛實(shí)驗(yàn)室陳旭淼張皞宇
電子世界 2021年18期
關(guān)鍵詞:特征檢測(cè)模型

成都錦城學(xué)院自動(dòng)駕駛實(shí)驗(yàn)室 高 揚(yáng) 陳旭淼 張皞宇

目標(biāo)檢測(cè)是自動(dòng)駕駛汽車(chē)與外界環(huán)境實(shí)現(xiàn)信息交互的重要環(huán)節(jié),為了能有效地對(duì)多個(gè)目標(biāo)進(jìn)行實(shí)時(shí)檢測(cè),本文針對(duì)在道路目標(biāo)檢測(cè)中小目標(biāo)和被物體遮擋的目標(biāo)易被漏檢或檢測(cè)框定位不準(zhǔn)確等問(wèn)題,提出一種基于YOLOv4的目標(biāo)檢測(cè)模型。增加152x152的特征融合結(jié)構(gòu),減少每個(gè)YOLO層前的兩個(gè)卷積層,以?xún)?yōu)化目標(biāo)特征提取,模型訓(xùn)練前用kmeans++聚類(lèi)算法優(yōu)化錨框,以提升模型對(duì)自動(dòng)駕駛多目標(biāo)的檢測(cè)性能。實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)YOLOv4算法比原始算法提升1.5個(gè)百分點(diǎn),在檢測(cè)精度和檢測(cè)速度上均有一定提升,改進(jìn)算法具有一定的實(shí)用價(jià)值。

自動(dòng)駕駛汽車(chē)是未來(lái)汽車(chē)產(chǎn)業(yè)發(fā)展的必然趨勢(shì),也是具有革命性影響的交通工具。自動(dòng)駕駛技術(shù)涉及計(jì)算機(jī)科學(xué)、車(chē)輛工程、傳感器技術(shù)等交叉學(xué)科內(nèi)容,它對(duì)于社會(huì)經(jīng)濟(jì)發(fā)展、科學(xué)技術(shù)研究等方面都有重大影響。在自動(dòng)駕駛技術(shù)的組成單元中,環(huán)境感知是至關(guān)重要的環(huán)節(jié)。其中多目標(biāo)檢測(cè)是環(huán)境感知的重要分支,通過(guò)對(duì)行人、車(chē)輛、交通信號(hào)燈、交通標(biāo)志等物體的檢測(cè),結(jié)合激光雷達(dá)的探測(cè)、道路交通規(guī)則以及汽車(chē)行駛狀態(tài)等信息對(duì)自動(dòng)駕駛汽車(chē)進(jìn)行規(guī)劃與控制。

本文基于YOLOv4網(wǎng)絡(luò),增加152x152的特征融合結(jié)構(gòu),用于提升小目標(biāo)檢測(cè)性能,優(yōu)化特征檢測(cè)層的卷積層數(shù),平衡網(wǎng)絡(luò)參數(shù),提高模型檢測(cè)速度,用kmeans++聚類(lèi)算法優(yōu)化適用于本實(shí)驗(yàn)所用數(shù)據(jù)集的錨框,減少非必要誤差。

1 算法解析與改進(jìn)

1.1 多尺度特征融合結(jié)構(gòu)改進(jìn)

實(shí)際駕駛場(chǎng)景下部分目標(biāo)對(duì)象存在因距離或物體遮擋、重合等因素被漏檢或識(shí)別框定位不準(zhǔn)確等情況,多尺度特征融合層可以有效地解決此類(lèi)問(wèn)題。本文提出一種采用四種檢測(cè)尺度的特征融合結(jié)構(gòu)。改進(jìn)后的YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)化圖如圖1所示,輸入圖像尺寸為608x608時(shí),在CSPDarkNet-53網(wǎng)絡(luò)的主體結(jié)構(gòu)中進(jìn)行五次下采樣,同時(shí)使用四個(gè)上采樣層作為FPN結(jié)構(gòu),使用三個(gè)PAN結(jié)構(gòu)組成特征金字塔。FPN結(jié)構(gòu)自下而上提取豐富的語(yǔ)義信息,PAN結(jié)構(gòu)自上而下提取準(zhǔn)確的位置信息,從而實(shí)現(xiàn)不同的主干層對(duì)不同的檢測(cè)層的特征融合。網(wǎng)絡(luò)檢測(cè)尺度增加到四個(gè)后得到的152x152、76x76、38x38和19x19的特征圖,能更有效地應(yīng)不同大小的目標(biāo)物體。

圖1 改進(jìn)YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)圖

1.2 特征檢測(cè)層優(yōu)化

為平衡網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)量和避免模型學(xué)習(xí)效果因網(wǎng)絡(luò)結(jié)構(gòu)加深而退化的情況,在每個(gè)YOLO層前減少兩個(gè)卷積層,由之前的5層卷積轉(zhuǎn)為3層卷積,如圖2所示。在平衡和避免以上情況的同時(shí)一定程度上提高了模型檢測(cè)速度,優(yōu)化了模型性能。

圖2 三層卷積

1.3 kmeans++聚類(lèi)算法優(yōu)化錨框

為避免Anchor Box造成的聚類(lèi)局部最優(yōu)的情況,本文采用K-means++聚類(lèi)算法生成適用于本實(shí)驗(yàn)所用數(shù)據(jù)集的錨框,算法基本流程如下:

每個(gè)樣本點(diǎn)成為下一個(gè)聚類(lèi)中心的概率為P,其計(jì)算公式為:

2 數(shù)據(jù)處理與實(shí)驗(yàn)分析

2.1 數(shù)據(jù)集處理與訓(xùn)練參數(shù)優(yōu)化

本文使用KITTI數(shù)據(jù)集訓(xùn)練YOLOv4系列模型。本文將KITTI數(shù)據(jù)集的Car、Van、Truck、Tram類(lèi)合并為Car類(lèi),將Person_sitting、Pedestrain合并為Pedestrain類(lèi),Cyclist不變,共計(jì)三類(lèi)。利用Python批處理方法將數(shù)據(jù)集處理為PASCAL VOC2007數(shù)據(jù)格式,訓(xùn)練集(含驗(yàn)證集)與測(cè)試集的比例為9:1,具體標(biāo)記圖數(shù)與標(biāo)記個(gè)數(shù)見(jiàn)表1所示。

表1 標(biāo)記數(shù)

數(shù)據(jù)集制作完成后,使用Kmeans++聚類(lèi)算法生成適用于該數(shù)據(jù)集的錨框,聚類(lèi)散點(diǎn)分布如圖6所示,12個(gè)錨框參數(shù)值分別為(13,40),(25,55),(13,116),(45,63),(33,92),(29,220),(62,104),(77,155),(58,305),(116,190),(133,300),(192,354)。

圖3 Kmeans++聚類(lèi)散點(diǎn)圖

2.2 實(shí)驗(yàn)結(jié)果與分析

本文實(shí)驗(yàn)采用顯卡配置為Nvidia GeFo orce RTX 1080Ti的Windows操作系統(tǒng)和Darknet深度學(xué)習(xí)框架搭建實(shí)驗(yàn)環(huán)境。

在訓(xùn)練前需準(zhǔn)備預(yù)訓(xùn)練權(quán)重(即yolov4.conv.137文件),結(jié)合本文2.1節(jié)給出的參數(shù)優(yōu)化結(jié)果修改YOLOv4模型配置文件,以滿(mǎn)足本文所用數(shù)據(jù)集的訓(xùn)練要求,部分參數(shù)的設(shè)置詳見(jiàn)表2。初始學(xué)習(xí)率為0.0013,本文設(shè)置當(dāng)模型訓(xùn)練至總迭代次數(shù)的80%(24000輪)和90%(27000輪)時(shí)學(xué)習(xí)率下降90%,以達(dá)到訓(xùn)練初期模型快速收斂,訓(xùn)練后期模型收斂至最優(yōu)解的目的。

表2 部分訓(xùn)練參數(shù)

本文模型訓(xùn)練的損失值和平均精度均值變化如圖7所示,在前18000輪迭代中模型的loss值和mAP值變化相對(duì)較快,在迭代24000輪后loss值穩(wěn)定在1.6左右,迭代25000輪后mAP值穩(wěn)定在92%左右。

用k-means++聚類(lèi)算法優(yōu)化錨框后,改進(jìn)的YOLOv4網(wǎng)絡(luò)在KITTI數(shù)據(jù)集上訓(xùn)練的mAP結(jié)果為91.99%,和原始YOLOv4在該數(shù)據(jù)集上訓(xùn)練的mAP結(jié)果相比,提升了1.5個(gè)百分點(diǎn)。為進(jìn)一步驗(yàn)證改進(jìn)模型的效果,將本文改進(jìn)模型與原YOLOv4模型、多尺度特征融合結(jié)構(gòu)改進(jìn)模型(YOLOv4-A)、特征檢測(cè)層改進(jìn)模型(YOLOv4-B)以及Faster-RCNN網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3、圖4所示。

圖4 loss與mAP訓(xùn)練過(guò)程變化

表3 對(duì)比實(shí)驗(yàn)的各項(xiàng)數(shù)據(jù)

由表3可看出,本文改進(jìn)算法各類(lèi)別準(zhǔn)確率和mAP指標(biāo)均高于其余三種算法,且FPS指標(biāo)高于Faster-RCNN網(wǎng)絡(luò)。綜合mAP指標(biāo)和FPS指標(biāo),本文算法優(yōu)于其他檢測(cè)算法,提升了自動(dòng)駕駛多目標(biāo)檢測(cè)性能。

本文提出了一種改進(jìn)YOLOv4算法,旨在提升自動(dòng)駕駛多目標(biāo)檢測(cè)的檢測(cè)性能,為自動(dòng)駕駛汽車(chē)的智能決策提供更有效的數(shù)據(jù)支撐。增加152x152特征融合結(jié)構(gòu),減少特征檢測(cè)層的兩層卷積層,用Kmeans++聚類(lèi)算法可以在最大程度上減小隨機(jī)生成初始聚類(lèi)中心的誤差,避免聚類(lèi)局部最優(yōu)導(dǎo)致訓(xùn)練的模型魯棒性低和檢測(cè)精度低的問(wèn)題出現(xiàn)。因此,本文改進(jìn)的YOLOv4算法將模型的mAP指標(biāo)相較于原YOLOv4算法提升了1.5個(gè)百分點(diǎn),F(xiàn)PS指標(biāo)基本持平。

本文從網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)集聚類(lèi)的角度改進(jìn)算法使模型檢測(cè)性能得到一定的提升,但對(duì)于YOLOv4主體網(wǎng)絡(luò)而言還有很大的改進(jìn)空間。這些都需要在未來(lái)的科研中研究和解決的內(nèi)容。

猜你喜歡
特征檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀(guān)察
3D打印中的模型分割與打包
主站蜘蛛池模板: 在线观看无码a∨| 五月天香蕉视频国产亚| 欧美视频在线观看第一页| 一区二区三区四区精品视频 | 久久99热这里只有精品免费看| 久久精品无码一区二区日韩免费| 白浆免费视频国产精品视频 | 五月婷婷精品| 先锋资源久久| 国产不卡在线看| 欧美精品三级在线| 91久久性奴调教国产免费| 华人在线亚洲欧美精品| 国产成人精彩在线视频50| 91日本在线观看亚洲精品| 2021最新国产精品网站| 蜜桃臀无码内射一区二区三区| 国产成人福利在线| 中文字幕在线视频免费| 国产无码性爱一区二区三区| 久久黄色小视频| 久久久久国产精品熟女影院| 亚洲精品无码人妻无码| 亚洲一区毛片| 国产白浆视频| 亚洲国产中文在线二区三区免| 日本91视频| 98精品全国免费观看视频| 亚洲欧美不卡视频| 免费黄色国产视频| 91小视频在线观看免费版高清| 国产麻豆永久视频| 亚洲AV人人澡人人双人| 国产精品亚洲专区一区| 欧美h在线观看| 国产91精品最新在线播放| 18禁影院亚洲专区| 亚洲三级片在线看| 亚洲精品午夜天堂网页| 婷婷午夜影院| 日韩精品亚洲一区中文字幕| 看av免费毛片手机播放| 久久夜夜视频| 成AV人片一区二区三区久久| 一级毛片在线播放| 国产区成人精品视频| 澳门av无码| 国产乱子伦视频三区| 色久综合在线| 婷婷综合色| 男女猛烈无遮挡午夜视频| 91精品福利自产拍在线观看| 欧美黄色a| 免费 国产 无码久久久| 国产白浆在线| 免费av一区二区三区在线| 欧美午夜在线观看| 亚洲色成人www在线观看| 免费一级α片在线观看| 日韩在线第三页| 国产制服丝袜无码视频| 国产精品极品美女自在线网站| 久久婷婷色综合老司机| 噜噜噜久久| 国产精品久线在线观看| 欧美午夜在线视频| 精品国产成人高清在线| 国产h视频在线观看视频| 国产福利拍拍拍| 国产成人乱码一区二区三区在线| 国产日本欧美在线观看| 丁香六月激情婷婷| 久青草免费在线视频| 久久77777| 国产女人18水真多毛片18精品 | 国产日本一线在线观看免费| 国产成人久久综合一区| 丝袜亚洲综合| 亚洲天堂高清| 亚洲一级毛片| 国产亚洲美日韩AV中文字幕无码成人| 欧美日韩国产成人高清视频|