李偉 張麗艷 劉健 劉鑫



摘要:傳統(tǒng)基于邊緣檢測(cè)的邊緣提取算法在進(jìn)行車(chē)道線(xiàn)待選點(diǎn)提取時(shí),難以控制邊緣的范圍,在真實(shí)場(chǎng)景中會(huì)將樹(shù)木的陰影以及汽車(chē)自身的陰影提取出來(lái),造成較大的噪聲;傳統(tǒng)基于滑動(dòng)窗搜索擬合方法的車(chē)道線(xiàn)檢測(cè)與跟蹤方法在計(jì)算時(shí),由于滑動(dòng)窗本搜索算法自身的算法問(wèn)題,導(dǎo)致計(jì)算速度較低,在實(shí)時(shí)性方面較差。針對(duì)這些問(wèn)題,本文提出一種基于邊緣提取算法與顏色空間模型相結(jié)合的復(fù)合模型,對(duì)滑動(dòng)窗搜索擬合算法進(jìn)行改進(jìn)和優(yōu)化的車(chē)道線(xiàn)檢測(cè)方法,有效地降低了提取車(chē)道線(xiàn)待選點(diǎn)時(shí)的噪聲,提高了車(chē)道線(xiàn)檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性,在實(shí)際的應(yīng)用中實(shí)用性更強(qiáng)。
關(guān)鍵詞:車(chē)道線(xiàn)檢測(cè);顏色空間模型;Sobel算子;滑動(dòng)窗搜索擬合
中圖分類(lèi)號(hào):TP311? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2019)16-0170-02
開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
1引言
車(chē)道線(xiàn)檢測(cè)[1,2]作為智能交通的重要組成部分,將計(jì)算機(jī)視覺(jué)作為信息采集的一部分,極大地改善了駕駛員對(duì)行車(chē)環(huán)境信息的接受方式,提高了行車(chē)的安全性。傳統(tǒng)的通過(guò)Canny算子[3]或Sobel算子邊緣提取的車(chē)道線(xiàn)檢測(cè)算法對(duì)車(chē)道線(xiàn)進(jìn)行邊緣都提取時(shí),引入大量噪聲而導(dǎo)致利用霍夫變換[4]進(jìn)行對(duì)車(chē)道待選點(diǎn)的確定造成一定的誤差,使得車(chē)道線(xiàn)檢測(cè)效果不好。而且傳統(tǒng)的滑動(dòng)窗搜索擬合方法,對(duì)待每一幀圖像都要進(jìn)行滑動(dòng)窗的搜索和擬合,計(jì)算量較大,導(dǎo)致對(duì)車(chē)道線(xiàn)的跟蹤擬合速度較慢,無(wú)法滿(mǎn)足實(shí)時(shí)性的要求。為此,本文提出了一種基于改進(jìn)邊緣提取方法和優(yōu)化滑動(dòng)窗搜索算法的車(chē)道線(xiàn)檢測(cè)算法。
2 本文方法
2.1 傳統(tǒng)的車(chē)道線(xiàn)檢測(cè)算法步驟
傳統(tǒng)的車(chē)道線(xiàn)檢測(cè)算法[5,6]主要步驟有圖像畸變矯正、圖像處理和數(shù)據(jù)轉(zhuǎn)換、車(chē)道線(xiàn)檢測(cè)和車(chē)道線(xiàn)擬合。
2.1.1 圖像畸變矯正
由于車(chē)載攝像頭自身的硬件問(wèn)題和車(chē)輛行駛過(guò)程中的顛簸等原因,會(huì)造成圖像發(fā)生畸變。本文中使用opencv中的findchessboardCorners()和calibrateCamera()函數(shù)對(duì)圖像進(jìn)行標(biāo)定和校準(zhǔn),在一定程度上消除畸變對(duì)于車(chē)道線(xiàn)檢測(cè)的影響。由于圖像拍攝鏡頭未完全平行與成像平面對(duì)齊,會(huì)產(chǎn)生切向失真,對(duì)于這種失真校準(zhǔn)遵循公式(1)和公式(2)。
其中[p1]和[p2]為切向畸變系數(shù)。
2.1.2 圖像處理和數(shù)據(jù)轉(zhuǎn)換
圖像處理的過(guò)程即對(duì)校準(zhǔn)后的圖像進(jìn)行處理,將RGB圖轉(zhuǎn)化為二值圖,方便選出車(chē)道線(xiàn)待選點(diǎn)。通常算法為基于邊緣提取或者顏色空間,本文使用兩種方式相結(jié)合,在提升準(zhǔn)確度的同時(shí)還加快了計(jì)算速度。由于圖片采集時(shí)視角問(wèn)題,會(huì)使得路面形成一個(gè)梯形,加大了識(shí)別難度,所以要通過(guò)透視變換方法將視角變?yōu)楦┮晥D之后進(jìn)行處理,在原圖中確定待選區(qū)域ABCD之后,可得到透視變換圖。
2.1.3 車(chē)道線(xiàn)檢測(cè)和車(chē)道線(xiàn)擬合
本文使用優(yōu)化后的滑動(dòng)窗口搜索算法對(duì)車(chē)道線(xiàn)的像素進(jìn)行捕捉,考慮到車(chē)道線(xiàn)的復(fù)雜程度,本文使用二階函數(shù)進(jìn)行車(chē)道線(xiàn)的擬合,然后計(jì)算中心偏移量和彎道曲率半徑。將像素單位轉(zhuǎn)換為m,找出水平和垂直方向車(chē)道線(xiàn)的最大值,從而計(jì)算出中心的偏移量。利用車(chē)道線(xiàn)擬合的參數(shù),半徑的計(jì)算方式如公式(3)。
2.2基于雙模型的車(chē)道線(xiàn)檢測(cè)算法
本文采用基于Sobel算子[7]的邊緣點(diǎn)檢測(cè)算法相比Canny算法[8]減少了噪聲,但是對(duì)邊緣的提取出現(xiàn)了檢測(cè)不全的情況,尤其是對(duì)白色車(chē)道線(xiàn)的邊緣提取較為明顯。針對(duì)以上問(wèn)題,本文提出使用雙模型對(duì)車(chē)道線(xiàn)待選點(diǎn)進(jìn)行檢測(cè)。首先提取基于顏色空間的HLS模型中的S通道,然后使用Sobel算法中的水平梯度提取車(chē)道線(xiàn)的邊緣。將HLS模型和Sobel算法的水平梯度相結(jié)合方法提取出的車(chē)道線(xiàn)待選點(diǎn)較為清晰,為下一步的車(chē)道線(xiàn)搜索擬合奠定了良好的基礎(chǔ)。
2.3 滑動(dòng)窗搜索擬合算法
傳統(tǒng)的車(chē)道線(xiàn)搜索算法使用霍夫直線(xiàn)變換在檢測(cè)車(chē)道線(xiàn)時(shí)對(duì)輸入圖片質(zhì)量要求較高,噪聲過(guò)大時(shí)識(shí)別效果較差,在識(shí)別彎道時(shí),較為困難,識(shí)別率較低,無(wú)法滿(mǎn)足要求。本文采用滑動(dòng)窗搜索算法對(duì)車(chē)道線(xiàn)進(jìn)行識(shí)別和跟蹤,首先挑選一張帶有一定噪聲的圖片,使用本文雙模型處理后的圖片做直方圖統(tǒng)計(jì)。在統(tǒng)計(jì)圖中依次從下到上使用兩個(gè)矩形取尋找直方圖中值較大的位置,分別為左側(cè)車(chē)道線(xiàn)和右側(cè)車(chē)道線(xiàn)。本文雙模型算法可以辨別真實(shí)車(chē)道線(xiàn),準(zhǔn)確率較高。但由于滑動(dòng)窗搜索算法,本文中使用18個(gè)滑動(dòng)窗進(jìn)行車(chē)道線(xiàn)的搜索,每個(gè)窗都是在實(shí)時(shí)搜索,極其耗費(fèi)時(shí)間。本文使用的視頻素材是在車(chē)速為40km/左右時(shí)采集的素材,幀數(shù)為30幀/秒,大約一秒出現(xiàn)一個(gè)車(chē)道線(xiàn),考慮到車(chē)道線(xiàn)的不變性,即在連續(xù)幾幀的畫(huà)面中車(chē)道線(xiàn)基本不會(huì)有較大變化,本文提出了對(duì)滑動(dòng)窗搜索算法的優(yōu)化方案。在搜索時(shí)每隔15幀進(jìn)行搜索,在兩次搜索中使用前一次搜索的車(chē)道線(xiàn)位置進(jìn)行覆蓋;當(dāng)出現(xiàn)只檢測(cè)到單車(chē)道時(shí),另一車(chē)道一直使用最初搜索車(chē)道位置進(jìn)行覆蓋。當(dāng)初線(xiàn)連續(xù)無(wú)法檢測(cè)到車(chē)道線(xiàn)時(shí),使用最初搜索車(chē)道線(xiàn)的位置進(jìn)行覆蓋。使用本文優(yōu)化后的滑動(dòng)窗搜索算法后,在準(zhǔn)確率未明顯降低的情況下,計(jì)算時(shí)間有極大提升。
3 仿真及結(jié)果與分析
本文基于雙模型和優(yōu)化滑動(dòng)窗搜索算法后的檢測(cè)效果如圖2。本文采集了國(guó)內(nèi)高速,國(guó)道,普通道路共10多個(gè)小時(shí)的行車(chē)記錄儀視頻,對(duì)比了傳統(tǒng)基于邊緣提取的車(chē)道線(xiàn)算法、本文使用的雙模型算法、Sobel算法邊緣檢測(cè)算法和HLS顏色空間模型算法的準(zhǔn)確度和計(jì)算時(shí)間,比較結(jié)果如表1。表1中使用了共9000幀圖像進(jìn)行測(cè)試,在準(zhǔn)確率方面,完全使用顏色空間模型的方法最高,但是用時(shí)較長(zhǎng),速度大約為6幀/s,無(wú)法滿(mǎn)足實(shí)時(shí)性要求;而完全使用邊緣提取的方法準(zhǔn)確率最低,但是用時(shí)最少,速度大約為40幀/s;混合模型準(zhǔn)確率滿(mǎn)足要求且速度較快大約為25幀/s滿(mǎn)足實(shí)時(shí)性。
本文對(duì)原有滑動(dòng)窗搜索算法進(jìn)行優(yōu)化,將實(shí)時(shí)的滑動(dòng)窗搜索改為了每15幀進(jìn)行一次車(chē)道線(xiàn)的搜索,間隔搜索之間的車(chē)道線(xiàn)使用上次搜索的結(jié)果。對(duì)比優(yōu)化前后的算法如表2。從表2中可以看出,優(yōu)化前的算法精確度較高,但是用時(shí)較長(zhǎng),大約為14幀/s,無(wú)法滿(mǎn)足實(shí)時(shí)性要求。
4 結(jié)語(yǔ)
實(shí)驗(yàn)結(jié)果表明,基于混合模型的車(chē)道線(xiàn)待選點(diǎn)算法和優(yōu)化后的滑動(dòng)窗算法。本文算法結(jié)合了邊緣提取算法和顏色空間算法的優(yōu)點(diǎn),并結(jié)合優(yōu)化后的滑動(dòng)窗搜索算法去除了不必要的搜索過(guò)程,加快了搜索速度。在國(guó)內(nèi)的國(guó)道、高速和城鎮(zhèn)道路上檢測(cè)準(zhǔn)確率較高,識(shí)別速度較快。
參考文獻(xiàn):
[1] 石林軍,余粟.基于多約束條件下的霍夫變換車(chē)道線(xiàn)檢測(cè)方法[J].計(jì)算機(jī)測(cè)量與控制,2018,26(09):9-12+38
[2] 范延軍. 基于機(jī)器視覺(jué)的先進(jìn)輔助駕駛系統(tǒng)關(guān)鍵技術(shù)研究[D].東南大學(xué),2016.
[3] 李亞娣,黃海波,李相鵬,陳立國(guó).基于Canny算子和Hough變換的夜間車(chē)道線(xiàn)檢測(cè)[J].科學(xué)技術(shù)與工程,2016,16(31):234-237+242.
[4] 張麗艷,張偉,龍美芳.一種基于PHOG特征的SVM的交通標(biāo)志識(shí)別方法[J].電腦知識(shí)與技術(shù),2018,14(27):230-231.
[5] Zhong-xun Wang, Wenqi, Wang The research on edge detection algorithm of lane[J]. Image and Video Processing 2018:98.
[6] F. Liming, L. Bijun, Y. Yutong, Lane detection based on multiscale resampling[J]. Electronic Technology and Applications 2017,43(4): 7–12.
[8] 李琳琳.自適應(yīng)閾值的Sobel算子邊緣檢測(cè)研究[J].電子技術(shù),2018,47(12):24-25+12.
[9] 付卓棟. 圖像分割的車(chē)牌定位算法的應(yīng)用研究[D].大連交通大學(xué),2016.
[10] 劉伸展. 實(shí)時(shí)車(chē)道線(xiàn)檢測(cè)系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn)[D].電子科技大學(xué),2017.
【通聯(lián)編輯:光文玲】