劉翔鵬 彭雨琳 童德中 陸瑋 王丹寧



摘要:為避免傳統(tǒng)車輛或無人駕駛車輛在右轉(zhuǎn)時(shí)與快速行駛的自行車發(fā)生碰撞的風(fēng)險(xiǎn),需要在轉(zhuǎn)彎前穩(wěn)定地檢測出非機(jī)動車道,并實(shí)時(shí)定位騎車者.為實(shí)現(xiàn)該目標(biāo),通過調(diào)整初始代價(jià)及代價(jià)聚合,完成更為精確的非機(jī)動車道圖像立體匹配;基于改進(jìn)的Hough變換算法,對路面上的非機(jī)動車道線進(jìn)行識別和提取;之后結(jié)合立體視覺來獲取非機(jī)動車道的精確三維坐標(biāo).實(shí)驗(yàn)結(jié)果表明:所提方法可以在大部分場景下檢測出不同類型的非機(jī)動車道,且具有較高的精確度,適用于廣義非機(jī)動車道檢測,對于先進(jìn)駕駛輔助系統(tǒng)或無人駕駛車輛實(shí)現(xiàn)全道路場景識別起到了積極的輔助作用.
關(guān)鍵詞:非機(jī)動車道檢測;駕駛輔助;立體匹配;Hough變換;車道線擬合
中圖分類號:TP399文獻(xiàn)標(biāo)志碼:A文章編號:1000-5137(2024)02-0147-09
Bicyclelanedetectionsuitedforrightturnassistance
LIU Xiangpeng1,PENG Yulin1,TONG Dezhong2,LU Wei1,WANG Danning1
(1.CollegeofInformation,MechanicalandElectricalEngineering,ShanghaiNormalUniversity,Shanghai201418,China;2.DepartmentofMechanical&AerospaceEngineering,UniversityofCalifornia-LosAngeles,LosAngeles90095,UnitedStates)
Abstract:Inordertoavoidtheriskofcollisionsbetweentraditionalvehiclesorunmannedvehiclesandfast-movingbicycleswhenturningright,itwasnecessarytodetectthebicyclelanestablyandlocatethecyclistinrealtime.Byadjustingtheinitialcostandcostaggregation,moreaccuratethree-dimensionalmatchingofbicyclelaneimageswascompleted.BasedontheimprovedHoughtransformalgorithm,thebicyclelanelinesontheroadwereidentifiedandextracted;then3Dvisiontechniquewascombinedtoobtaintheaccurate3Dcoordinatesofthebicyclelane.Experimentalresultsshowedthattheproposedmethodwasabletodetectdifferenttypesofbicyclelanesinmostscenarioswithhighaccuracy,accordinglyitwassuitableforgeneralizedbicyclelanedetection.Theproposedalgorithmwouldplayapositiveauxiliaryroleinrealizingsceneunderstandingofall-roadscenariosforadvanceddrivingassistancesystemsorunmannedvehicles.
Keywords:bicyclelanedetection;drivingassistance;stereomatching;Houghtransform;lanelinefitting
0引言
在現(xiàn)代交通系統(tǒng)中,不同的交通參與者之間會互相產(chǎn)生影響,自行車對機(jī)動車造成的干擾與妨礙就是其中的一種.對于傳統(tǒng)車輛,尤其是大型車輛而言,駕駛員容易忽視右后視鏡盲區(qū)里快速前進(jìn)的自行車,導(dǎo)致相撞事故的發(fā)生.而右轉(zhuǎn)預(yù)警類先進(jìn)駕駛輔助系統(tǒng)(ADAS)可以減少該類事故的發(fā)生.不論是對于ADAS,還是無人駕駛車輛而言,如何識別道路場景和周圍的環(huán)境,都是保證其安全穩(wěn)定工作的重要前提,精細(xì)、準(zhǔn)確地識別道路場景中的非機(jī)動車道元素則是機(jī)動車右轉(zhuǎn)場景中防止與騎車者相撞的關(guān)鍵.另外,如果無法區(qū)分非機(jī)動和機(jī)動車道,無人車也可能行駛到非機(jī)動車道上,從而妨礙非機(jī)動車道上騎行者.
目前對于車道檢測的研究集中在機(jī)動車道層面,而非機(jī)動車道識別作為道路場景中的重要組成部分,在各種道路場景元素識別的研究中卻鮮有涉及.常用的車道線檢測方法可以分為基于模型和基于特征的識別[1].
基于特征的算法包括對顏色[2-3]、邊緣[4]、梯度變化[5]等特征的識別,能在光照變化、紋理不清晰、道路破損等情況下檢測車道線.王懷濤[6]針對黃線識別效果不理想的問題,同時(shí)使用H-S顏色二維查表法和邊緣特征,根據(jù)黃色像素區(qū)別于其他像素的特點(diǎn)來區(qū)分車道標(biāo)線.吳驊躍等[7]提出了一種基于逆投影映射和邊緣圖像過濾的車道線識別方法,很大程度上減少了自動駕駛環(huán)境感知過程中路面陰影、雨水、污漬和反光對車道線識別以及車輛導(dǎo)航造成的干擾.ZHANG[8]等將改進(jìn)版Canny邊緣檢測用于識別車道線的外沿.YOO等[9]基于圖像線段交點(diǎn)的概率進(jìn)行投票來估算消隱點(diǎn),并利用車道線的幾何約束來確定候選線段.消隱點(diǎn)也可以與密集視差圖進(jìn)行結(jié)合,獲得較為精確的機(jī)動車道線檢測結(jié)果[10].Hough變換也是檢測車道線的一個(gè)重要方法,標(biāo)準(zhǔn)Hough變換可以捕捉道路場景中的直線結(jié)構(gòu)[11],通過對Hough變換的改進(jìn),可進(jìn)一步增強(qiáng)車道線檢測的效果[12].此外,寬度、紋理[13]等其他特征也被廣泛應(yīng)用于車道線檢測研究中.
基于模型的算法先對道路進(jìn)行建模,再分析圖像,獲得模型參數(shù),進(jìn)而重建道路[14].該類算法主要用于解決常用數(shù)學(xué)模型,如直線、拋物線[15]、雙曲線[16]、樣條曲線[17]等對車道線進(jìn)行有效擬合的問題.在基于數(shù)學(xué)模型檢測車道線方面,雙曲線模型正逐漸成為一個(gè)重要的車道線擬合模型[1],最小二乘法被廣泛采用于數(shù)值擬合[18].此外,如何解決道路中的遮擋、陰影等問題也是車道線檢測的一個(gè)研究方向[19].
本研究針對非機(jī)動車道檢測問題,基于立體匹配和Hough變換算法,提出非機(jī)動車可通行域的判定算法,進(jìn)一步實(shí)現(xiàn)適用于右轉(zhuǎn)輔助的非機(jī)動車道的識別功能.
1立體匹配算法
RGBD相機(jī)所采集的圖像如圖1所示,其中,圖1(a)和圖1(b)分別由水平安裝在右后視鏡上的左攝像機(jī)和右攝像機(jī)攝取,其受光照影響不同,需結(jié)合梯度差代價(jià)進(jìn)行Census代價(jià)匹配.
1.1 初始代價(jià)
為獲取視差圖,首先需在左、右視圖上尋找匹配點(diǎn),并計(jì)算相應(yīng)的視差.計(jì)算左、右視圖匹配代價(jià),
, (1)
其中,COST為初始匹配代價(jià);cl(·)和cr(·)分別為左視圖和右視圖的色度特征;d為視差;x,y分別表示待匹配點(diǎn)的橫縱坐標(biāo)值.COST越小,兩個(gè)點(diǎn)是匹配點(diǎn)的概率越高.
Census變換使用像素鄰域內(nèi)的局部灰度差異,將像素灰度轉(zhuǎn)換為比特串,通過將鄰域窗口內(nèi)的像素灰度值與窗口中心的像素灰度值進(jìn)行比較,把比較所得的布爾值映射到一個(gè)比特串中,最后用比特串的值作為中心像素的Census變換值.
1.2 代價(jià)聚合
在初始代價(jià)的計(jì)算過程中,不同像素點(diǎn)的代價(jià)沒有交互,因此初始代價(jià)相對較為獨(dú)立,這可能會對匹配過程造成干擾,需要對代價(jià)進(jìn)行聚合操作.代價(jià)聚合是將代價(jià)圖中相對較為獨(dú)立的各個(gè)像素點(diǎn)所對應(yīng)的代價(jià)進(jìn)行匹配,使得不同像素點(diǎn)的代價(jià)互為影響.代價(jià)聚合的目的是使各點(diǎn)的代價(jià)和周圍像素點(diǎn)形成聯(lián)系,從而能更加精確地求取視差.
采用導(dǎo)引圖濾波方法進(jìn)行代價(jià)聚合.導(dǎo)引圖濾波方法可以很好地保持圖像中的邊緣清晰.在處理圖像時(shí),對邊緣的像素進(jìn)行交互,這一點(diǎn)完全符合代價(jià)聚合的要求.導(dǎo)引圖濾波器核函數(shù)
, (2)
其中,uk和
分別為圖像
在窗口wk內(nèi)的均值和方差;w是窗口內(nèi)像素的個(gè)數(shù);ε為控制參數(shù).
2提取可通行域
2.1 提取基于改進(jìn)霍夫變換的消失線提取
由透視原理可知,兩條平行線在視角中會匯聚于無限遠(yuǎn)處的一點(diǎn),即路面會在無限遠(yuǎn)處消失于圖片的某條水平線上,該條水平線即為消失線.在此基礎(chǔ)上,引入Hough變換,將直線方程轉(zhuǎn)換到不同的參數(shù)空間中提取參數(shù),檢測圖像中的直線,從而推斷出消失線的位置.
在極坐標(biāo)系中,一條傾斜直線的方程為
. (3)
根據(jù)上述原理,將V視圖中的直線變換到Hough空間(ρ,θ)中,提取對應(yīng)的交點(diǎn).定義一個(gè)像素累加函數(shù)
, (4)
其中,
為極坐標(biāo)初始值;
(5)
其中,Binaty(x,y)表示V視圖二值化后對應(yīng)像素位置的像素值.
采用加權(quán)Hough變換提取更精確的道路直線.加權(quán)Hough變換對V視圖中的直線進(jìn)行灰度加權(quán),突出感興趣區(qū)域(ROI).圖像像素的灰度值由該像素的視差值大小來決定.在道路場景中,道路平面可以視作最大范圍的平面,因此在V視圖中所對應(yīng)的直線像素灰度值普遍較大.利用V視圖中的像素對Hough變換進(jìn)行加權(quán),可以有效地在Hough空間中突出道路平面.將
函數(shù)修改為:
(6)
其中,
是V視圖中像素值的大小,將得到的結(jié)果進(jìn)行歸一化.
通過對像素的截取得到該交點(diǎn)的坐標(biāo)為(ρc,θc),道路直線所對應(yīng)的方程為
, (7)
其中,cols為圖像的總列數(shù);v為像素對應(yīng)的列號.當(dāng)d=0時(shí),
所對應(yīng)的即為消失線.
2.2 基于U視差圖的道路平面提取
刪除消失線以上的部分后,很多與道路無關(guān)的場景信息會被清理,但圖像中依然存在大量干擾信息,如道路兩旁的障礙物等,可以利用U視差圖排除這些干擾.在U視差圖中,離雙目系統(tǒng)等距的物體具有相同的視差,垂直于道路平面且離雙目系統(tǒng)等距的平面也具有相同的視差.對刪除消失線后的圖像進(jìn)行U視差圖的提取,像素的明亮程度代表在圖像對應(yīng)列上具備相同視差值像素的數(shù)目.U視差圖中像素值最大點(diǎn)對應(yīng)的視差即為每一列障礙物的視差值.
3非機(jī)動車車道劃分
3.1 非機(jī)動車道檢測預(yù)處理
首先使用最大類間方差算法對ROI進(jìn)行二值化.該算法的主要思想是將圖像中的灰度信息按照閾值劃分為兩個(gè)部分,并使這兩個(gè)部分的灰度差異最大,可較好地凸顯圖中的重要特征.
令維度為
的數(shù)字圖像中L個(gè)不同等級的灰度級為{0,1,
,L-1},圖像中像素總數(shù)
為:
, (8)
其中,ni,i=0,1,…,L-1,表示灰度級為i的像素.
對于歸一化的直方圖,灰度級為k的像素的概率
(9)
若給定一個(gè)閾值
,把輸入圖像分為C1和C2兩類,C1由灰度值在數(shù)值區(qū)間
內(nèi)的所有像素組成,C2由灰度值在數(shù)值區(qū)間
內(nèi)的所有像素組成.分到C1類的像素概率
. (10)
根據(jù)貝葉斯公式,C1類像素平均值
, (11)
其中,w表示像素的灰度值大小.同理,分配到C2類的像素平均值為
. (12)
將累加均值定義為m(k),
. (13)
全局灰度值
. (14)
使用歸一化的無量綱矩陣對
級別處的閾值進(jìn)行判別,
(15)
其中,
為全局方差;
為類間方差;
(16)
其中,m1和m2相差越大,則
越大.
尋找最佳閾值
,對
的所有整數(shù)值進(jìn)行遍歷,選取能使
最大化的
值.得到
后,將通過透視變換得到的ROI鳥瞰圖進(jìn)行二值化轉(zhuǎn)換,
(17)
此時(shí),車道線周圍尚有一些噪點(diǎn),可能是由路面過于明顯的紋理、破損及光照等原因造成的,會對后續(xù)車道線提取工作產(chǎn)生不良的影響,因此閾值組合中需要加入濾波函數(shù)對處理結(jié)果進(jìn)行濾波,以盡可能多地去除噪點(diǎn).
3.2 非機(jī)動車道提取
首先確定道路的基點(diǎn).道路基點(diǎn)即位于圖像最底部且可能為道路的點(diǎn),車道線可以從基點(diǎn)衍生出來.基點(diǎn)部分是通過在圖片的底部區(qū)域沿著水平方向遍歷x軸上的像素分布而獲得的.在x軸方向上累加公式如下:
(18)
(19)
(20)
其中,IR為ROI鳥瞰圖預(yù)處理結(jié)果圖中對應(yīng)點(diǎn)的像素大小.
由于圖像中還存在少量的噪點(diǎn),會對基點(diǎn)的判斷產(chǎn)生影響,而且每個(gè)峰值區(qū)域跨越的部分也較大,需要通過以下兩個(gè)條件加以判定:
1)在連續(xù)存在的峰值區(qū)域,如果相鄰的兩個(gè)峰值間距小于閾值,則這兩個(gè)峰值可能代表一個(gè)基點(diǎn);
2)如果基點(diǎn)可能的存在范圍小于閾值,則認(rèn)為此處的峰值由噪點(diǎn)造成.
獲得基點(diǎn)之后,通過曲線擬合的方法來確定車道線的方程.首先在底部以基點(diǎn)作為窗口中心,設(shè)置一個(gè)
的窗口,在該窗口中統(tǒng)計(jì)像素在
方向上的分布,然后選取峰值對應(yīng)的x0以及該窗口中心點(diǎn)對應(yīng)的y0作為車道線上第一個(gè)點(diǎn)的位置,
(21)
以上一個(gè)包含車道線的窗口頂部的點(diǎn)為基點(diǎn),再次構(gòu)造相同維度的窗口,按照同樣的方式繼續(xù)尋找車道線點(diǎn)集.第i個(gè)窗口的基點(diǎn)為:
(22)
其中,xi和yi表示窗口基點(diǎn)的坐標(biāo);Xi-1和Yi-1表示所儲存的上一個(gè)疑似屬于車道線的點(diǎn).由于在窗口滑動的過程中可能會遇到虛線車道斷線的部分,此時(shí)窗口中不包含任何白色像素,則
(23)
通過上述的車道線遍歷模式,可以在窗口中獲得一列自下而上的疑似車道點(diǎn),對這些點(diǎn)進(jìn)行擬合分析,即可獲得車道線所在的直線或曲線.滑動窗口檢測出非機(jī)動車道點(diǎn)集之后,需進(jìn)一步判定車道線是否為非機(jī)動車道線.
如果車道線為實(shí)線,那么滑動窗口在遍歷的過程中應(yīng)該連續(xù)地在每個(gè)窗口處都能捕捉到疑似屬于車道線的點(diǎn).當(dāng)所獲取點(diǎn)的個(gè)數(shù)
和滑動窗口遍歷次數(shù)的差值在一定范圍內(nèi),則可以判定這些點(diǎn)屬于車道線,
(24)
其中,
為判定結(jié)果,1表示該點(diǎn)屬于車道線,0表示不屬于;Nslide為滑動窗口從圖像底部的疑似車道線基點(diǎn)遍歷至圖像頂部所用的次數(shù).在確認(rèn)所有的車道線之后,采用不同的系數(shù)ε來判定該條車道線是否為實(shí)線.若在圖像邊緣有連續(xù)兩條實(shí)線,則認(rèn)定為標(biāo)定區(qū)域的非機(jī)動車道線.對所獲取點(diǎn)進(jìn)行,擬合即可以獲得最終結(jié)果.
由于圖像中的非機(jī)動車道線存在轉(zhuǎn)彎弧度,用二次函數(shù)來表征車道線方程:
(25)
考慮各個(gè)點(diǎn)距離擬合曲線的距離并進(jìn)行求和,可以得到方程:
. (26)
對式(26)求偏導(dǎo)數(shù),得到方程組:
(27)
對式(27)進(jìn)行整合,用矩陣表示,可得到:
. (28)
對該矩陣進(jìn)行求解,獲得非機(jī)動車道線二次擬合曲線的各項(xiàng)系數(shù)之后,利用透視變換投射至原圖像空間中,再將圖片和原圖疊加,即可得到最終的檢測結(jié)果(如圖2所示).
4仿真實(shí)驗(yàn)
為全面驗(yàn)證所提算法的有效性,采集三種類型的非機(jī)動車道進(jìn)行檢測,分別是僅由顏色標(biāo)識的非機(jī)動車道、僅由分隔線標(biāo)識的非機(jī)動車道以及既由顏色又由分隔線標(biāo)識的非機(jī)動車道.
分別在老城區(qū)、新城區(qū)、鄉(xiāng)鎮(zhèn)及校園四種場景下各攝取1000張圖片.老城區(qū)場景拍攝地為上海市閔行區(qū)江川路街道,新城區(qū)場景拍攝地為上海市奉賢區(qū)新城,鄉(xiāng)鎮(zhèn)場景拍攝地在上海市松江區(qū)葉榭鎮(zhèn),校園場景拍攝地為上海交通大學(xué)閔行校區(qū)與上海師范大學(xué)奉賢校區(qū).
所有測試圖片中都含有非機(jī)動車道.檢測過程中偶爾會出現(xiàn)將圖片中的機(jī)動車道部分識別成非機(jī)動車道的情況(假陽性),因此測試結(jié)果分為未檢出、單純假陽性、正確檢測(假陽性)及正確檢測.
4.1 僅由顏色標(biāo)識的非機(jī)動車道檢測
由于在鄉(xiāng)鎮(zhèn)場景未找到噴涂顏色的非機(jī)動車道,本實(shí)驗(yàn)的三個(gè)實(shí)驗(yàn)場景為老城區(qū)、新城區(qū)及校園.新城區(qū)的非機(jī)動車道使用年限較短,校園中的非機(jī)動車道受到機(jī)動車的破壞較小,因此這兩個(gè)場景下檢測正確率約為90%.老城區(qū)非機(jī)動車道歷史較久,磨損掉色相對嚴(yán)重,因而正確檢測率稍低;磨損后非機(jī)動車道與機(jī)動車道界限變得模糊,因此假陽性率也較高.
4.2 僅由分隔線標(biāo)識的非機(jī)動車道檢測
該類型的非機(jī)動車道的檢測精度比上一場景稍低一些.新城區(qū)的車道線清晰且規(guī)范,因此在新城區(qū)的檢測精度最高.老城區(qū)與鄉(xiāng)鎮(zhèn)場景下的正確檢測率相當(dāng),但因?yàn)槔铣菂^(qū)的路況復(fù)雜且人流和車流密度大,所采集的圖片中干擾較多,造成了假陽性率較之鄉(xiāng)鎮(zhèn)場景稍高.而校園中非機(jī)動車道線的不規(guī)范性造成了其較低的檢測精度和最高的假陽性率.
4.3 既由顏色又由分隔線所標(biāo)識的非機(jī)動車道檢測
同時(shí)基于顏色與車道線兩種特征進(jìn)行檢測,精度顯著提升,假陽性率也相應(yīng)降低.
5結(jié)論
本研究所提出的非機(jī)動車道檢測算法能準(zhǔn)確地識別非機(jī)動車道,所檢測到的車道平面可以作為騎車者檢測與跟蹤的參考變量,可以顯著減少機(jī)動車右轉(zhuǎn)時(shí)與快速行駛的非機(jī)動車的碰撞概率,因此能較好地保障騎車者以及機(jī)動車駕乘人員的安全.
參考文獻(xiàn):
[1] 吳一全,劉莉.基于視覺的車道線檢測方法研究進(jìn)展[J].儀器儀表學(xué)報(bào),2019,40(12):92-109.
WUYQ,LIUL.Researchanddevelopmentofthevision-basedlanedetectionmethods[J].ChineseJournalofScientificInstrument,2019,40(12):92-109.
[2] LEEC,MOONJH.Robustlanedetectionandtrackingforreal-timeapplications[J].IEEETransactionsonIntelligentTransportationSystems,2018,19(12):4043-4048.
[3] LIUDF,WANGYQ,CHENT,etal.Applicationofcolorfilteradjustmentandk-meansclusteringmethodinlanedetectionforself-drivingcars[C]//2019ThirdIEEEInternationalConferenceonRoboticComputing(IRC).Naples:IEEE,2019:153-158.
[4] OZGUNALPU.Robustlane-detectionalgorithmbasedonimprovedsymmetricallocalthresholdforfeatureextractionandinverseperspectivemapping[J].IETImageProcessing,2019,13(6):975-982.
[5] ANDRADED,ADAMSHUKR,OMOTOW,etal.Lanedetectionusingorientationofgradientandvehiclenetworksignals[J/OL].SAEWorldCongressExperience,2017[2023-10-10].https://doi.org/10.4271/2017-01-0042.
[6] 王懷濤.基于相機(jī)的車道線識別與車道偏離預(yù)警技術(shù)研究[D].合肥:合肥工業(yè)大學(xué),2017.
WANGHT.Thetechniqueresearchoncamera-basedlanelinerecognitionandlanedeparturewarning[D].Hefei:HefeiUniversityofTechnology,2017.
[7] 吳驊躍,趙祥模.基于IPM和邊緣圖像過濾的多干擾車道線檢測[J].中國公路學(xué)報(bào),2020,33(5):153-164.
WUHY,ZHAOXM.Multi-interferencelanerecognitionbasedonIPMandedgeimagefiltering[J].ChinaJournalofHighwayandTransport,2020,33(5):153-164.
[8] ZHANGX,CHENF.LanelineedgedetectionbasedonimprovedadaptiveCannyalgorithm[J].JournalofPhysics:ConferenceSeries,2020,1549(2):022131.
[9] YOOJH,LEESW,PARKSK,etal.Arobustlanedetectionmethodbasedonvanishingpointestimationusingtherelevanceoflinesegments[J].IEEETransactionsonIntelligentTransportationSystems,2017,18(12):3254-3266.
[10] MAH,MAY,JIAOJ,etal.Multiplelanedetectionalgorithmbasedonoptimiseddensedisparitymapestimation[C]//2018IEEEInternationalConferenceonImagingSystemsandTechniques(IST).Krakow:IEEE,2018:1-5.
[11] 朱鴻宇,楊帆,高曉倩,等.基于級聯(lián)霍夫變換的車道線快速檢測算法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2021,31(1):88-93.
ZHUHY,YANGF,GAOXQ,etal.AfastlanedetectionalgorithmbasedoncascadeHoughtransform[J].ComputerTechnologyandDevelopment.2021,31(1):88-93.
[12] 呂侃徽,張大興.基于改進(jìn)Hough變換耦合密度空間聚類的車道線檢測算法[J].電子測量與儀器學(xué)報(bào),2020,34(12):172-180.
LYUKH,ZHANGDX.LanedetectionalgorithmbasedonimprovedHoughtransformcoupleddensityspaceclustering[J].JournalofElectronicMeasurementandInstrumentation,2020,34(12):172-180.
[13] 王先杰,汪選要.基于類Haar紋理的非結(jié)構(gòu)化道路消失點(diǎn)檢測[J].科學(xué)技術(shù)與工程,2019,19(16):221-226.
WANGXJ,WANGXY.UnstructuredroadvanishingpointdetectionbasedonHaar-liketexture[J].ScienceTechnologyandEngineering,2019,19(16):221-226.
[14] YOOJH,KIMDH.Graphmodel-basedlane-markingfeatureextractionforlanedetection[J].Sensors,2021,21(13):4428.
[15] KUOCY,LUYR,YANGSM.Ontheimagesensorprocessingforlanedetectionandcontrolinvehiclelanekeepingsystems[J].Sensors,2019,19(7):1665.
[16] 王其東,魏振亞,王乃漢,等.基于投影統(tǒng)計(jì)與雙曲線擬合的車道識別算法[J].中國機(jī)械工程,2019,30(4):393-399.
WANGQD,WEIZY,WANGNH,etal.Lanedetectionalgorithmbasedonprojectionstatisticsandhyperbolicfitting[J].ChinaMechanicalEngineering,2019,30(4):393-399.
[17] LIY,LUX,TANGT.Lanedetectionusingsplinemodelforfreewayaerialvideos[C]//10thInternationalConferenceonDigitalImageProcessing.Shanghai:ICDIP,2018:10806X.
[18] 賈會群,魏仲慧,何昕,等.基于神經(jīng)網(wǎng)絡(luò)與最小二乘法的車道線檢測算法研究[J].汽車工程,2018,40(3):363-368.
JIAHQ,WEIZH,HEX,etal.Aresearchonlanemarkingdetectionalgorithmbasedonneuralnetworkandleastsquaresmethod[J].AutomotiveEngineering,2018,40(3):363-368.
[19] KIMH,PARKJ,MINK,etal.Anomalymonitoringframeworkinlanedetectionwithagenerativeadversarialnetwork[J].IEEETransactionsonIntelligentTransportationSystems,2020,22(3):1603-1615.
(責(zé)任編輯:包震宇,郁慧)
DOI:10.3969/J.ISSN.1000-5137.2024.02.001
收稿日期:2023-12-25
基金項(xiàng)目:上海師范大學(xué)一般科研項(xiàng)目(SK202123)
作者簡介:劉翔鵬(1987—),男,講師,主要從事智能網(wǎng)聯(lián)汽車方面的研究.E-mail:xliu@shnu.edu.cn
引用格式:劉翔鵬,彭雨琳,童德中,等.適用于右轉(zhuǎn)輔助的非機(jī)動車道檢測[J].上海師范大學(xué)學(xué)報(bào)(自然科學(xué)版中英文),2024,53(2):147?155.
Citationformat:LIUXP,PENGYL,TONGDZ,etal.Bicyclelanedetectionsuitedforrightturnassistance[J].JournalofShanghaiNormalUniversity(NaturalSciences),2024,53(2):147?155.