999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)的車道線檢測方法

2023-07-08 10:27:06
汽車實用技術(shù) 2023年12期
關(guān)鍵詞:檢測模型

張 林

深度學(xué)習(xí)的車道線檢測方法

張 林

(西安汽車職業(yè)大學(xué) 智能制造工程學(xué)院,陜西 西安 710600)

隨著人工智能技術(shù)的不斷發(fā)展,無人駕駛技術(shù)已經(jīng)成為當(dāng)下社會發(fā)展的熱門,車道線檢測是無人駕駛技術(shù)的關(guān)鍵一環(huán),但傳統(tǒng)的基于視覺的車道線檢測方法處理時間較長、過程繁瑣、需要人為干預(yù)。基于深度學(xué)習(xí)的車道線檢測可大大減少此類問題。文章設(shè)計了一個完成雙任務(wù)的Enet網(wǎng)絡(luò),分別解決目標(biāo)區(qū)域分割問題和不同車道區(qū)分問題,以實現(xiàn)端到端的檢測。與主流車道線檢測網(wǎng)絡(luò)模型deeplab v3和YOLO v3進(jìn)行對比。實驗驗證表明,網(wǎng)絡(luò)模型的最終訓(xùn)練準(zhǔn)確率為99.8%,相對于deeplab v3和YOLO v3網(wǎng)絡(luò)分別提升1.2%和0.8%。

車道線檢測;深度學(xué)習(xí);端到端;實例分割

無人駕駛的相關(guān)概念最早由美國國防部于1980年提出,主要通過人工智能、自動化、通信以及計算機(jī)等相關(guān)技術(shù)的融合來實現(xiàn)車輛的自主決策[1]。無人駕駛汽車實質(zhì)上為軟件和硬件共同協(xié)作的產(chǎn)物,首先需要搭建多種車載傳感器用以接收和感知周圍的環(huán)境信息,再通過處理器對各種輸入信息進(jìn)行處理,并根據(jù)已處理的信息最終完成對汽車的控制[2]。

其中,感知作為無人駕駛技術(shù)的基礎(chǔ),必須保證較高的準(zhǔn)確率和魯棒性才能確保后續(xù)的處理部分正常運行。而車道線檢測作為感知環(huán)節(jié)中的重要一步,出現(xiàn)了多種的檢測方法,傳統(tǒng)的車道線檢測方法處理過程較為繁瑣,其核心部分為邊緣特征的提取和特征點的擬合,檢測率容易受到環(huán)境因素影響且運算速度較慢,更重要的是在面對不同環(huán)境條件時,需要人工選擇濾波算子,并進(jìn)行手動調(diào)參,工作量大的同時穩(wěn)定性較低[3]。

Xiao J S等[4]提出了一種基于道路結(jié)構(gòu)模型和擴(kuò)展卡爾曼濾波的新算法,通過邊緣點所選的線參數(shù)檢測相應(yīng)的直線,利用車道邊界點的坐標(biāo)估計車道參數(shù),再通過擴(kuò)展卡爾曼濾波器對其進(jìn)行更新。Byambaa等[5]提出了一種基于卡爾曼濾波的無人駕駛車道檢測算法,利用卡爾曼濾波中的拋物線方程和圓方程模型來估計車道線的參數(shù),該方法對曲線車道有著較好的表現(xiàn)。Zhang Z C等[6]提出了一種新的車道線處理算法,在Caltech lane數(shù)據(jù)集上可以達(dá)到97.2%的識別率。Wang Q D等[7]利用邊緣點曲率來確定感興趣區(qū)域,并對曲率區(qū)域進(jìn)行映射,得到與曲率參數(shù)對應(yīng)的車道線

近年來,隨著人工智能領(lǐng)域的不斷發(fā)展,產(chǎn)生了基于深度學(xué)習(xí)技術(shù)的車道線檢測方法,對于不同環(huán)境下的檢測均有良好的表現(xiàn),并且隨著硬件性能的提升和深度學(xué)習(xí)技術(shù)的進(jìn)步,算法的表現(xiàn)也在不斷地提高。Ding L等[8]以VGG16為卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ),利用空洞卷積提取車道線特征,將車道線分為虛線和實線,并結(jié)合實例分割,最后通過擬合實現(xiàn)對車道線的檢測,該方法在速度和精度間取得了很好的平衡。Haddad等[9]提出了一種車道線全自動分割的新模型,該分割算法采用多分辨率處理算法,逐步增加比例因子和主動輪廓控制點,檢測準(zhǔn)確率較高,且算法實時性強(qiáng)。Xiao D G等[10]提出了一種車道線檢測的DNN,對像素之間的依賴關(guān)系和通道依賴關(guān)系進(jìn)行同步建模,這種方法與常規(guī)建模方法相比,只需要較少的參數(shù)和卷積運算,極大地提升了運算速度。Nguyen等[11]提出了一種混合深度學(xué)習(xí)和高斯處理(DL-GP)的網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)合了一個緊湊的卷積編譯碼網(wǎng)絡(luò)和一個強(qiáng)大的非參數(shù)分級GP分類器,可以有效地緩解網(wǎng)絡(luò)訓(xùn)練過程中的過擬合問題,同時保持著優(yōu)秀的檢測能力。

本文提出一種網(wǎng)絡(luò)模型,在保證檢測準(zhǔn)確率和檢測速度的同時,實現(xiàn)端到端檢測,同時針對現(xiàn)有的開源數(shù)據(jù)集做了一定補(bǔ)充,以提升網(wǎng)絡(luò)模型的穩(wěn)定性和廣泛性。

1 基于Enet網(wǎng)絡(luò)的車道圖像數(shù)據(jù)處理

1.1 Enet網(wǎng)絡(luò)框架

過去常用的目標(biāo)檢測網(wǎng)絡(luò)模型都屬于非端到端模式,非端到端網(wǎng)絡(luò)的輸入端不是直接的原始數(shù)據(jù),而是在原始數(shù)據(jù)中提取的特征,這一點在圖像問題上尤為突出,因為圖像像素數(shù)太多,數(shù)據(jù)維度高,會產(chǎn)生維度災(zāi)難,所以原來的一個思路是提取圖像的一些關(guān)鍵特征,即圖像感興趣區(qū)域提取,這實際就是一個降維的過程。特征提取的好壞異常關(guān)鍵,甚至比學(xué)習(xí)算法還重要。這就需要海量的專業(yè)標(biāo)注圖片作為必備的實驗數(shù)據(jù),不僅獲取難度大,也極為花費時間,且場景的變化以及圖像采集源的變化都會導(dǎo)致輸入數(shù)據(jù)結(jié)構(gòu)發(fā)生變化,需要人為進(jìn)行調(diào)參。而采用端到端模型,圖像特征由網(wǎng)絡(luò)自行提取和學(xué)習(xí),也就是說將特征提取這一環(huán)節(jié)融入算法,不需要再進(jìn)行人為干涉,不僅減少了實際操作流程,同時也有很好的表現(xiàn)。

如圖1所示,前面的編碼階段都使用3×3卷積核的卷積層和2×2的最大池化層,每一個卷積層都使用Rectified Linear Unit(Relu)的激活函數(shù),后面的解碼階段都使用4×4卷積核的卷積層。

1.2 網(wǎng)絡(luò)結(jié)構(gòu)特點

本文所設(shè)計的車道線檢測網(wǎng)絡(luò)包括5個階段:

1)Stage 1:encoder階段。包括5個bottleneck,第一個bottleneck做下采樣,后面4個重復(fù)的bottleneck。

2)Stage 2-3:encoder階段。stage2的bott- leneck2.0做了下采樣,后面有時加空洞卷積,或分解卷積。stage3沒有下采樣,其他都一樣。

3)Stage 4:屬于decoder階段。比較簡單,一個上采樣配置兩個普通的bottleneck。

整體網(wǎng)絡(luò)架構(gòu)是基于encoder-decoder的網(wǎng)絡(luò)ENet,本實驗優(yōu)化了網(wǎng)絡(luò)結(jié)構(gòu),將網(wǎng)絡(luò)整體劃分為兩個處理過程。因為ENet的encoder比decoder包含更多的參數(shù),所以兩個處理進(jìn)程如果共享encoder的所有網(wǎng)絡(luò),可以滿足實驗需求。因此,原始的Enet的encoder包含三個stage,Enet會對這兩個進(jìn)程共享前三個stage,把第四個stage和實例分割的輸出結(jié)果傳播給decode stage。分割處理最后輸出的是一個單通道圖片(二分分割),嵌入處理輸出的是N通道的圖片,N是嵌入尺寸。每個處理過程的loss是相等的權(quán)重,然后通過網(wǎng)絡(luò)進(jìn)行反向傳播。

圖1 網(wǎng)絡(luò)架構(gòu)

1.3 網(wǎng)絡(luò)損失函數(shù)

首先要引入目標(biāo)檢測的幾種手段,常用的處理方法有分類、對象檢測、語義分割、實例分割。對于本實驗而言,分類的思想是將標(biāo)明圖中存在車道線。對象檢測的思想是標(biāo)明圖中所有的車道線,可以得到其數(shù)量和位置。語義分割的思想是將車道線和其他信息區(qū)分,注明圖中的車道線類。而實例分割的思想可以將圖中所有的車道線標(biāo)明,得到其數(shù)量和位置,并對于不同的車道線,將其劃分為了不同種類。可以看出,對于目標(biāo)檢測這一任務(wù)而言,實例分割是對象檢測和語義分割的結(jié)合與升級,擁有更加良好的表現(xiàn)。

因不同車道線對應(yīng)的作用不同,故車道線檢測問題本質(zhì)上可以看作一個實例分割問題,即每一條車道線都形成一個獨立的實例,但整體都屬于車道線這個類別。基于這個理念,本實驗將實例分割的問題轉(zhuǎn)化為一個語義分割與嵌入向量的聚類。

基于這一理念,實例分割利用聚類損失函數(shù),訓(xùn)練后輸出一個車道線的像素之間的距離,因同屬一條車道線的像素點之間距離近,不同車道線像素點之間的距離遠(yuǎn),故可以得到各條車道線。損失函數(shù)的公式為

式中,var為像素聚類方差項;為車道線數(shù)量;N為單一車道線的像素個數(shù);μ為車道線的平均像素特征表示;X為第個像素的特征表示;v為同一車道像素與聚類中心點距離閾值。

式(1)表明,所有遠(yuǎn)離閾值v的映射將向車道線的均值附近靠攏,該損失函數(shù)的作用是讓同屬一條車道線的像素足夠收斂。

式中,dist為聚類中心距離項;為車道線數(shù)量;d為不同車道中心點距離閾值;μA、μB分別為不同車道線的平均像素特征表示。

式(2)表明,所有近于閾值d的映射將向遠(yuǎn)離車道線的中心發(fā)散,該損失函數(shù)的作用是讓不同車道線的像素劃分明確。

迭代的終止條件為各個車道線的線間中心距>d,以及屬于每條車道線的像素離該車道線的距離<v。

綜上,分別完成了對兩個分支的處理,現(xiàn)在只需對兩個分支的處理結(jié)果進(jìn)行聚類,即可得到實例分割的結(jié)果。在進(jìn)行聚類時,首先需要使用Mean shift算法。

該算法使得簇中心沿著密度上升的方向移動,防止將離群點選入相同的簇中;之后對像素向量進(jìn)行劃分:以簇中心為圓心,以2v為半徑,選取圓中所有的像素歸為同一車道線。重復(fù)該步驟,直到將所有的車道線像素分配給對應(yīng)的車道。以上述處理過的圖像為例做聚類的結(jié)果如圖2所示。

圖2 聚類效果圖

圖2(c)即為對圖2(a)和圖2(b)做聚類處理后的效果圖,可以明顯看出聚類后的圖像既包含了車道線這一類信息,又以不同顏色明確區(qū)分了不同車道線,完成了實例分割這一任務(wù)。

2 實驗平臺搭建與結(jié)果分析

網(wǎng)絡(luò)模型的訓(xùn)練在Windows10(x64)系統(tǒng)下進(jìn)行,所需環(huán)境為Python3.5.2,cuda-9.0,cudnn- 7.0,tensorflow 1.10.0-gpu版本,opencv4.0.0版本,在顯存為6 g的GTX-1060顯卡下測試可達(dá)到0.04秒處理一張圖像,約為25 fps。

本實驗還調(diào)用了來自python和tensorflow的一些工具,例如:tensorboard,(該工具可以使網(wǎng)絡(luò)訓(xùn)練過程變得可視化,用戶可以監(jiān)控到網(wǎng)絡(luò)訓(xùn)練準(zhǔn)確率和損失率的變化)pyqt,config等。在訓(xùn)練模型中,訓(xùn)練數(shù)據(jù)集約為130 600張,大小為26.7 GB,測試數(shù)據(jù)集的張數(shù)約為9 000張,大小為2.14 GB,開發(fā)環(huán)境參數(shù)如表1所示。

表1 開發(fā)環(huán)境

設(shè)備參數(shù) CPUI5~6 300 hq VGANVIDIA GTX-1 060 6 G 操作系統(tǒng)Windows 10 開發(fā)環(huán)境Tensorflow-keras 程序語言Python3.5 RAM20 GB 訓(xùn)練數(shù)據(jù)26.7 GB 測試數(shù)據(jù)6.84 GB

2.1 網(wǎng)絡(luò)配置參數(shù)

表2為本網(wǎng)絡(luò)模型所采用的各項參數(shù),每層內(nèi)含有2個卷積層并且后面都有接一個最大池化層。

表2 Enet網(wǎng)絡(luò)參數(shù)配置

使用的各項名稱參數(shù) 最大池化層2x2 卷積3x3 激活函數(shù)RELU 步長1 優(yōu)化器Adam 批量大小8 學(xué)習(xí)速率5e-5 損失函數(shù)mean shift聚類g 批次大小32 訓(xùn)練迭代次數(shù)20

表3為本網(wǎng)絡(luò)模型所采用的各項參數(shù),其中每層內(nèi)含有2個卷積層并且后面都有接一個最大池化層。

表3 T-net參數(shù)配置

使用的各項名稱參數(shù) 最大池化層2x2 卷積3x3 激活函數(shù)RELU

表3 (續(xù))

使用的各項名稱參數(shù) 步長1 優(yōu)化器Adam 批量大小10 學(xué)習(xí)速率5e-5 損失函數(shù)MSE 批次大小32 訓(xùn)練迭代次數(shù)20

2.2 訓(xùn)練結(jié)果分析

本文使用部分Tusimple數(shù)據(jù)集,拍攝的圖片中有好的天氣和一般的天氣。圖片集中有2車道、3車道、4車道和高速公路,拍攝時間也是在一天中的不同時刻。標(biāo)注的信息是.json格式,指明了坐標(biāo)和離散化的坐標(biāo),也標(biāo)記出了當(dāng)前車道和左右車道。由于Tusimple數(shù)據(jù)集使用的圖像分辨率為1 280×720,這一分辨率較高,本實驗在實際訓(xùn)練時將輸入圖像的分辨率統(tǒng)一調(diào)整為512×256。

前處理網(wǎng)絡(luò)分為兩個處理任務(wù):語義分割處理和二值分割處理,所以需要針對兩者的損失函數(shù)分開進(jìn)行交替訓(xùn)練。將上述兩個網(wǎng)絡(luò)訓(xùn)練完成后可以得到訓(xùn)練準(zhǔn)確率為99.8%。為了進(jìn)一步驗證本文所使用網(wǎng)絡(luò)模型的可行性,在此選取了車道線檢測主流網(wǎng)絡(luò)deeplab v3以及YOLO v3作為參照組進(jìn)行對比。首先是對于deeplab v3的訓(xùn)練,采用同樣的訓(xùn)練集,在訓(xùn)練5萬次后,其準(zhǔn)確率穩(wěn)定于98.6%。其次是對于YOLO3的訓(xùn)練,其最終準(zhǔn)確率為99%左右。

綜上所述,使用本文所使用的網(wǎng)絡(luò)模型相對于deeplab v3以及YOLO v3在檢測速度上有所下降,但在準(zhǔn)確率上分別可以提升1.2%和0.8%,有明顯改進(jìn)。

3 結(jié)論

本文設(shè)計了一個雙分支Enet網(wǎng)絡(luò)完成車道檢測處理。通過訓(xùn)練實現(xiàn)了端到端的車道線檢測。主要結(jié)論如下:

1)基于圖像分割的思想,把車道線檢測問題轉(zhuǎn)化為實例分割問題,并將解決實例分割的問題拆分為嵌入處理和二值分割,嵌入處理的目的為區(qū)分不同的車道線,二值分割的目的為區(qū)分車道線以及背景信息,然后對兩個處理過程的結(jié)果進(jìn)行聚類,得到實例分割結(jié)果。

2)實驗表明,本文的網(wǎng)絡(luò)模型的訓(xùn)練準(zhǔn)確率為99.8%,相對于deeplab v3和YOLO v3網(wǎng)絡(luò)分別提升了1.2%和0.8%,且在復(fù)雜環(huán)境下有良好的表現(xiàn)。

[1] ALY M.Real Time Detection of Lane Markers in Urban Streets[J].IEEE,2014:4621152.

[2] YANIV A,ANDRAS F,AMNON S S.Off-road Path Following Using Region Classification and Geometric Projection Constraints[J]. IEEE, 2006(1):689-696.

[3] LOOKINGBILL A,ROGERS J,LIEB D,et al.Reverse Optical Flow for Self-supervised Adaptive Autonomous RobotNavigation[J].International Journal of Computer Vision,2007,74(3):287-302.

[4] WANG C,HU Z,UCHIMURA K.A Novel Lane Detec- tion Approach Fusion by Vehicle Localization[C]// Intelligent Control & Automation. Piscataway:IEEE, 2011:1218-1223.

[5] 石林軍,余粟.基于多約束條件下的霍夫變換車道線檢測方法[J].計算機(jī)測量與控制,2018,26(9): 9-12,38.

[6] LI J, XIANG J A, HAN G He. Lane Detection Based on Visual Attention[C]//In Image and Graphics (ICIG), 2011 Sixth International Conference on.Piscataway: IEEE,2011:570-575.

[7] GUO K Y, LI N,ZHANG M.Lane Detection Based on the Random Sample Consensus[C]//In Information Technology,Computer Engineering and Management Sciences (ICM),2011 International Conference on. Piscataway: IEEE,2011(3):38-41.

[8] KAZEMI F M,SAMADI S,POORREZA H R,et al. Vechicle Recognition Using Curvelet Transform and SVM[C] //Proc of the 4th International Conference on Information Technology.Piscataway:IEEE.2007:516- 521.

[9] HUANG L,ZHANGY S.Identification of Traffic SignsUsing Deep Convolutional Neural Network[J].Modern Electronic Technology,2015,25(1):101-106.

[10] 段建民,李岳,莊博陽.基于改進(jìn)SIS算法和順序RAN- SAC的車道線檢測方法研究[J].計算機(jī)測量與控制, 2018,26(8):280-284,289.

[11] NIU S F,LI L.Application of Neural Network and Bayesian Filter in the Prediction of Change of Channel [J].Science and Technology and Engineering,2016 (14):212-216.

Lane Line Detection Method Based on Deep Learning

ZHANG Lin

( School of Intelligent Manufacturing Engineering,Xi'an Automotive Vocational University, Xi'an 710600, China )

With the continuous development of artificial intelligence technology, driverless technology has become a hot topic in the current social development. Lane line detection is a key link of driverless technology, but the traditional vision-based lane line detection method takes a long time to process, and the process is tedious, requiring human intervention. The lane line detection based on deep learning can greatly reduce such problems. In this paper, an Enet network is designed to complete dual tasks, which solves the problem of target area segmentation and different lane differentiation respectively to achieve end-to-end detection.Compared with mainstream lane line detection network models deeplab v3 and YOLO v3, the experimental verification shows that the final training accuracy of the network model used in this experiment is 99.8%, which is 1.2% and 0.8% higher than deeplab v3 and YOLO v3, respectively.

Lane line detection;Deep learning;End-to-end;Instance segmentation

U495

B

1671-7988(2023)12-48-05

張林(1995-),女,碩士,助教,研究方向為汽車機(jī)械,E-mail:zhanglin4424@163.com。

10.16638/j.cnki.1671-7988.2023.012.010

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 亚洲无码视频图片| 国产精品 欧美激情 在线播放 | 国产精品久久久久鬼色| 日韩区欧美国产区在线观看| 亚洲色精品国产一区二区三区| 亚洲中文无码av永久伊人| 99国产在线视频| 国产91高跟丝袜| 久久永久精品免费视频| 91免费观看视频| 毛片基地美国正在播放亚洲 | 久久久噜噜噜| 成人国产精品网站在线看| 亚洲黄色成人| 欧美影院久久| 国产成人在线小视频| 久久久久国产精品嫩草影院| 精品偷拍一区二区| 99精品伊人久久久大香线蕉 | 亚洲综合婷婷激情| 亚洲天堂福利视频| 天堂va亚洲va欧美va国产 | 亚洲日韩AV无码精品| 欧美精品二区| 欧美在线综合视频| 精品国产黑色丝袜高跟鞋 | 国产成人综合久久| 天堂成人在线视频| 欧洲熟妇精品视频| 久久精品人妻中文视频| 国产女同自拍视频| 欧美日韩亚洲综合在线观看| 992tv国产人成在线观看| 亚洲欧洲一区二区三区| 日韩视频免费| 久草网视频在线| 亚洲第一黄色网址| 四虎影视8848永久精品| 精品国产香蕉伊思人在线| 伊人大杳蕉中文无码| 国产乱视频网站| 日韩小视频在线观看| 无码一区二区波多野结衣播放搜索 | 国产农村1级毛片| 国产福利一区二区在线观看| 一级毛片视频免费| 91探花在线观看国产最新| 国产黄色片在线看| 日韩一区二区在线电影| 青青青伊人色综合久久| 99热这里只有成人精品国产| 国产精品亚洲一区二区三区z| 亚洲天堂高清| 国内精品视频区在线2021| 国产青青草视频| 国产在线一区二区视频| 亚洲精品亚洲人成在线| 亚欧美国产综合| 亚洲高清中文字幕| 狠狠色成人综合首页| 日韩国产黄色网站| 欧美69视频在线| 99热免费在线| 中文字幕日韩视频欧美一区| 永久毛片在线播| 97青青青国产在线播放| 久久性视频| 国产日韩精品欧美一区灰| 男女性午夜福利网站| 四虎综合网| 亚洲a级在线观看| 18禁影院亚洲专区| 青青草原国产av福利网站| 丁香六月激情婷婷| 亚洲欧美日韩综合二区三区| 亚洲一区精品视频在线| 精品一区二区无码av| 亚洲精品午夜天堂网页| 国产精品欧美激情| 999在线免费视频| 色哟哟国产成人精品| 国产欧美视频综合二区|