鄧天民,蒲龍忠,萬 橋
(重慶交通大學(xué) 交通運輸學(xué)院,重慶 400074)
近年來,隨著無人駕駛技術(shù)的不斷發(fā)展,車道線檢測作為無人駕駛領(lǐng)域關(guān)鍵的一環(huán)也得到了更多學(xué)者的關(guān)注研究。在實際駕駛場景中,路況復(fù)雜多變,車道線線型也多種多樣,以至于車道線檢測任務(wù)難度較大,適用于無人駕駛的車道線檢測技術(shù)還不夠完善。
傳統(tǒng)的基于模型的方法利用三次均勻B樣條曲線模型結(jié)合霍夫變換擬合車道線[1]和使用NMPC的方法實現(xiàn)車道線的跟蹤檢測[2];基于特征的方法主要通過環(huán)境顏色[3]、車道線紋理[4]和車道線幾何形狀[5]等搭配霍夫變換[6]或濾波[7]的方法來識別、檢測車道線,但傳統(tǒng)方法因計算量大,在車輛遮擋和地面污損等復(fù)雜道路場景下泛化性差,精度低等原因已不適用于自動駕駛,因此,基于深度學(xué)習(xí)的方法應(yīng)運而生。He等[8]提出利用前視圖區(qū)分行駛車道和車輛,利用俯視圖區(qū)分車道線和箭頭等的CNN(convolutional neural networks)模型,效果較好但實時性較差。編解碼器體系結(jié)構(gòu)(visual geometry group,VGG)[9]、殘差網(wǎng)絡(luò)(residual network,ResNet)[10]以及全卷積網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)[11]等的提出解決了車道線檢測中卷積神經(jīng)網(wǎng)絡(luò)會造成空間信息的部分丟失問題;Enet(efficient neural network)[12]通過設(shè)置主分支和擴展更快、更有效進行大規(guī)模計算以提升車道線檢測速度。但大部分基于深度學(xué)習(xí)的方法檢測結(jié)果不夠準(zhǔn)確、檢測速度慢,達不到安全性和實時性的要求。
針對以上問題,本文提出將車道線檢測問題轉(zhuǎn)換為實例分割問題以識別車道線的方法。首先基于改進FCN神經(jīng)網(wǎng)絡(luò)提高車道線信息特征提取能力,得到車道線的像素點圖和二值化語義分割圖;然后通過聚類算法對車道線像素點進行聚類并形成不同實例;最后通過逆透視變換和最小二乘法對車道線進行擬合,得到擬合后的車道線檢測模型。
全卷積網(wǎng)絡(luò)(FCN)是一種在不帶有全連接層的情況下能進行密集預(yù)測的網(wǎng)絡(luò)[13],它不同于CNN網(wǎng)絡(luò)通過全連接層得到的特征向量以進行目標(biāo)分類,F(xiàn)CN在VGG16網(wǎng)絡(luò)架構(gòu)基礎(chǔ)上將全連接層改變?yōu)榫矸e層,使用上采樣操作對末端特征圖進行處理,最后得到與輸入圖像尺寸一致的特征圖,從而充分保留原圖的空間信息,同時也能提取特征讓每個像素得到一個預(yù)測值,從而解決了語義級別的圖像分割問題。基于FCN網(wǎng)絡(luò)結(jié)構(gòu),本文通過網(wǎng)絡(luò)卷積優(yōu)化改進和網(wǎng)絡(luò)分支設(shè)計等操作,提出一種基于改進FCN的車道線實例分割檢測方法。
本文采用FCN-VGG16作為車道線檢測的網(wǎng)絡(luò)主體結(jié)構(gòu),該網(wǎng)絡(luò)包含多個編碼器層和解碼器層,編碼器層和解碼器層為一一對應(yīng)關(guān)系。
VGG16總共有16層,其中包含13個卷積層和3個全連接層,在輸入任意大小圖片尺寸后,首先通過兩個64卷積核卷積,進行一次池化(max pooling),然后再次經(jīng)過兩次128個卷積核卷積后進行池化操作,再重復(fù)兩次3個512個卷積核卷積后,再次池化,最后經(jīng)過三次全連接。其中,VGG16使用了3×3的小型卷積核,是最小的能夠捕獲上下左右和中心概念的尺寸,足以捕捉到橫、豎以及斜對角像素的變化。每層卷積的滑動步長stride=1,padding=1。VGG16的池化核為2×2,stride=2。在編碼過程中,通過多個卷積層提取圖像特征,增加通道;通過多次池化操作來縮減輸入數(shù)據(jù)的空間維度,增大感受野。部分網(wǎng)絡(luò)使用大尺寸卷積核來提升感受野,這樣對模型來說確實有提升,但增加了模型的參數(shù)量,訓(xùn)練時間更久,檢測時間也隨之加長,而VGG16使用小尺寸卷積核的模型訓(xùn)練時間更短,實時處理能力更強。
FCN在VGG16網(wǎng)絡(luò)基礎(chǔ)上對最后一個卷積層的熱點圖進行上采樣層(up sampling)來還原圖像尺寸,進行輸出圖逐元素疊加作為解碼器輸出,在逐像素的訓(xùn)練后,對每個像素都產(chǎn)生預(yù)測,最后逐像素分類預(yù)測顯示在上采樣后的特征圖上,得到語義分割圖。基于FCN的圖像語義分割算法流程如圖1所示。
FCN網(wǎng)絡(luò)能夠進行目標(biāo)分類和語義分割,因此可以對其改進以解決車道線檢測問題。本文設(shè)計的基于FCN的改進網(wǎng)絡(luò)為雙分支結(jié)構(gòu)網(wǎng)絡(luò),用分割的方法解決車道線檢測問題。網(wǎng)絡(luò)直接輸出車道線像素以及每個車道線像素對應(yīng)的ID(類別),進行顏色區(qū)分,進而實現(xiàn)車道線檢測。網(wǎng)絡(luò)主要從以下4個方面進行改進:
(1)多分支網(wǎng)絡(luò)設(shè)計。通過疊加嵌入分支和分割分支,可得到兩個分支分別輸出的預(yù)測圖,實現(xiàn)端到端訓(xùn)練;
(2)網(wǎng)絡(luò)壓縮。通過對網(wǎng)絡(luò)結(jié)構(gòu)的壓縮,減少不必要的卷積層,加快訓(xùn)練和檢測的速度,提高網(wǎng)絡(luò)的實時性;
(3)卷積核替換。將網(wǎng)絡(luò)編碼結(jié)構(gòu)中最后一層卷積的常規(guī)正方形卷積核替換為非對稱卷積核,非對稱卷積能保證與常規(guī)方形卷積的結(jié)果等價的同時降低運算量;
(4)激活函數(shù)設(shè)計。使用FReLU激活函數(shù),更好適用于當(dāng)前的實例分割檢測項目。
改進的FCN網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
1.2.1 多分支網(wǎng)絡(luò)設(shè)計
如圖2所示,編碼階段第四次最大池化層的輸出分別被輸入到兩個卷積塊,進行多任務(wù)分支分別用于二值分割(binary segment)和實例分割(instance segment)卷積操作。相對應(yīng)的,兩個編碼過后開始兩個解碼操作,對每一個卷積塊的輸出進行相應(yīng)的上采樣(使用反卷積上采樣),并層層進行輸出圖逐元素疊加,然后采用DBSCAND聚類方法,將嵌入分支的單個車道線像素點以二值化分割圖為基礎(chǔ)進行聚類,兩分支結(jié)合訓(xùn)練和預(yù)測,大幅提升模型的預(yù)測精度,保證預(yù)測結(jié)果的準(zhǔn)確性。本文將改進后的FCN網(wǎng)絡(luò)命名為MB-FCN(multitasking branch fully convolutional networks)。
(1)車道線語義分割(segmentation branch)
主要用于獲取車道像素的分割結(jié)果,即篩選出車道線像素和非車道線像素,將圖像像素點分為車道線和背景,并輸出一個二值化圖像。
由于圖像中車道線和背景的像素點分布不均衡問題會出現(xiàn)在訓(xùn)練集的構(gòu)建中,尤其是在圖像中出現(xiàn)車道線被車輛遮擋或者沒有清晰車道線時,為提高車道線檢測的準(zhǔn)確率,訓(xùn)練集會補充被遮擋或不清晰的車道線,采用可較快更新網(wǎng)絡(luò)參數(shù)數(shù)值的交叉熵?fù)p失函數(shù)訓(xùn)練二值化分割模型效果較好,計算交叉熵?fù)p失的函數(shù)為
(1)

(2)車道線嵌入分割(embedding branch)
車道線嵌入分割部分主要進行實例分割操作,將圖像中的車道線像素點劃分為不同的車道線實例。該網(wǎng)絡(luò)解碼得到的輸出圖中每一個像素對應(yīng)一個N維的向量,在該N維嵌入空間中同一車道線的像素點距離更接近,而不同車道線的像素點的向量距離較大。根據(jù)該特點,聚類同屬于一車道的特征點,聚類損失函數(shù)L由L1和L2組成,其中,L1負(fù)責(zé)拉近嵌入的同屬一車道線的像素點,L2負(fù)責(zé)分離并推散嵌入的相異車道線的像素點。損失函數(shù)L設(shè)計如下
(2)
(3)
L=L1+L2
(4)
其中,C代表車道線數(shù)量;Nc表示某一車道線的聚類像素點數(shù)。μc代表某一車道線像素點的嵌入均值向量值;xi表示某一像素點的嵌入向量;μCA與μCB表示兩不同車道線所含的不同像素點 (CA,CB) 的均值向量;δ1、δ2分別為聚類半徑和集群聚類距離閾值,均為人為設(shè)定; [x]+=max(0,x)。
實驗時,為了將像素進行聚類,在上述的實例分割損失函數(shù)中設(shè)置δ2>6δ1。 本文采用基于密度的空間的聚類算法DBSCAN,將相鄰車道區(qū)分開來,從而得到獨立的單個車道線像素圖。DBSCAN可以在具有噪聲的數(shù)據(jù)庫中發(fā)現(xiàn)任意形狀的簇,能夠連接密度足夠大的相連區(qū)域,通過空間數(shù)據(jù)分布的緊密程度決定聚類情況,直到將所有的車道線像素分配給對應(yīng)的車道。
1.2.2 網(wǎng)絡(luò)壓縮
卷積網(wǎng)絡(luò)結(jié)構(gòu)一般比較復(fù)雜,多層卷積可以更好的提取特征,但是過多的卷積結(jié)構(gòu)會造成信息冗余且不會較好提升精度。因此本文在不影響訓(xùn)練和測試精度的情況下對VGG16網(wǎng)絡(luò)第二次池化后的第三次卷積和第四次池化后的第三次卷積進行相應(yīng)的剪除,以加快運算速度,滿足智能駕駛的實時性需求。壓縮后的網(wǎng)絡(luò)編碼結(jié)構(gòu)見表1。
1.2.3 卷積核替換
本文使用3×1和1×3的非對稱卷積核替代原VGG模型中的3×3卷積核。
普通卷積核大小通常為3×3或5×5,用以對圖像進行特征的提取,VGG模型卷積操作中使用的為3×3的卷積核,本文在網(wǎng)絡(luò)編碼結(jié)構(gòu)中最后一層卷積中利用3×1和1×3的非對稱卷積核替代3×3卷積核(圖3),因為高層次的卷積中圖片大小較小,較為適用非對稱卷積操作[14],使用非對稱卷積操作不僅可以降低大量的參數(shù),加快訓(xùn)練和檢測速度,而且可以保證與常規(guī)3×3卷積相同的效果。

表1 網(wǎng)絡(luò)編碼結(jié)構(gòu)
1.2.4 激活函數(shù)的選擇
本文采用一種能用于圖像識別任務(wù)的簡單但有效的激活函數(shù),F(xiàn)ReLU激活函數(shù)[15](圖4),通過增加一個空間條件來擴展ReLU/PReLU函數(shù),通過非常小的運算開銷,將對空間不敏感的激活函數(shù)擴展為擁有視覺擴展并自動建立模型的激活函數(shù)。相較于傳統(tǒng)的Sigmoid、TanH等激活函數(shù)可能出現(xiàn)的梯度消失、函數(shù)值輸出為常數(shù)、網(wǎng)絡(luò)收斂困難等問題;FReLU激活函數(shù)不僅可以提高單個任務(wù)的性能,也不存在梯度消失問題,且運算速度較快,還可以進行稀疏表達,也使模型的收斂速度維持在一個穩(wěn)定狀態(tài),可以很好地遷移到其它視覺任務(wù)。激活函數(shù)表示為n=max(m,T(m)), 其中T(m) 表示擴展運算的特征提取法。
為了實現(xiàn)空間條件,使用參數(shù)化池化窗口(parametric pooling window)來創(chuàng)建空間依賴性(使用高度優(yōu)化的深度可分離卷積算符和BN層來實現(xiàn))
f(mc,i,j)=max(mc,i,j,T(mc,i,j))
(5)
(6)
FReLU函數(shù)的設(shè)計可以讓每個像素點在激活操作中產(chǎn)生空間視野,在對空間的響應(yīng)中進行非線性變換并提升對視野的依賴性。函數(shù)max(·) 給每個像素提供了一個看空間背景或不看空間背景的選擇。考慮一個有n個FReLU層的網(wǎng)絡(luò) {F1,F2,…,Fn}, 每個FReLU層Fi有h×h個參數(shù)窗口。為了簡潔起見,只分析FReLU層,而不考慮卷積層。由于最大選擇在1×1和h×h之間,所以F1之后的每個像素都有一個激活函數(shù)集 {1,1+x}(x=h-1)。 在Fn層之后,集合就變成了 {1,1+x,1+2x,…,1+nx}, 這給每個像素提供了更多的選擇,如果n足夠大,可以近似于任何布局,如圖5所示。
圖5中不同大小的正方形代表了頂部激活層中每個像素的不同激活場。 max(·) 允許每個像素選擇在每層中尋找或不尋找,在足夠多的層數(shù)后,形成大量大小不一的方塊。因此,不同大小的方塊可以近似于圖5(a)斜線的形狀,圖5(b)弧線的形狀,這些都是比較常見的自然物體布局,弧線也適用于彎曲的車道線檢測。
為了方便擬合車道線像素點,本文采用逆透視變換,將運動圖像轉(zhuǎn)換成俯視圖。其中將現(xiàn)實世界中的點P′(XW,YW,ZW) 從世界坐標(biāo)系到相機坐標(biāo)系的關(guān)系如圖6所示,轉(zhuǎn)換公式如下
(7)
式中:H為旋轉(zhuǎn)矩陣,T表示偏移向量,即坐標(biāo)的平移。P(XC,YC,ZC) 為對應(yīng)的相機坐標(biāo)系中的點。
在得到相機坐標(biāo)后,要將屬于透視投影關(guān)系的三維相機坐標(biāo)系轉(zhuǎn)化為平面坐標(biāo)系,再通過平面坐標(biāo)系轉(zhuǎn)化為圖像坐標(biāo)系,其中,相機坐標(biāo)和平面坐標(biāo)轉(zhuǎn)換的公式為
(8)
(9)
其中,k為相機焦距,為相機坐標(biāo)原點與圖像坐標(biāo)原點的距離,點 (x,y) 為在圖像坐標(biāo)系的成點。
從平面坐標(biāo)得到圖像坐標(biāo)系, (u,v), (x,y) 分別表示以像素為單位的圖像坐標(biāo)系的坐標(biāo)和以毫米為單位的圖像坐標(biāo)系的坐標(biāo),如圖7所示。
像素坐標(biāo)系和圖像坐標(biāo)系都在成像平面上,圖像坐標(biāo)轉(zhuǎn)換為像素坐標(biāo)的公式如下
(10)
最終通過上面坐標(biāo)系的轉(zhuǎn)換就可以將一個點從世界坐標(biāo)系轉(zhuǎn)換到像素坐標(biāo)系。圖8為根據(jù)相機采集的原圖進行逆透視變換后的鳥瞰效果圖。
通過逆透視變換的方法,得知每個像素點屬于哪個車道后,將像素點集合轉(zhuǎn)換為鳥瞰圖,并對不同車道分配不同ID,將每一個車道實例進行參數(shù)曲線擬合并用不同顏色線條表示不同車道線。常用的擬合模型有霍夫變換、最小二乘法、三次曲線和貝塞爾曲線擬合[16-18]。本文采用最小二乘法對車道線像素點進行擬合,為了得到真實的預(yù)測情況,最后還要將擬合后的曲線回歸原始圖片中,得到更好的車道線檢測效果。
本實驗使用的是Tusimple數(shù)據(jù)集,Tusimple數(shù)據(jù)集是自動駕駛領(lǐng)域權(quán)威公司圖森未來專為研究自動駕駛關(guān)鍵算法和解決方法所創(chuàng)立的數(shù)據(jù)集。Tusimple數(shù)據(jù)集總共包含128 160張圖片,圖片來源于中等天氣條件下,車輛白天在高速公路多條車道情景下行駛的視頻,取每秒視頻分為連續(xù)的20幀,包含不同的交通狀況,取最后一幀進行車道線標(biāo)注。數(shù)據(jù)集共分為兩部分,訓(xùn)練集和測試集,訓(xùn)練集包含72 520張圖片,其中標(biāo)注圖片3626張,測試集包含55 640張圖片,數(shù)據(jù)集圖片尺寸統(tǒng)一為1280*720。
本實驗在Windows10環(huán)境下,依賴于Tensorflow_gpu-1.14.0,Python-3.7.6,另調(diào)用Numpy-1.18.1,Tqdm-4.42.1,Glog-0.3.1,Easydict-1.9,Matplotlib-3.1.3,Opencv-4.4.0,Scikit_learn-0.22.1等函數(shù)庫完成程序支持;硬件平臺為處理器:Intel(R)Core(TM)i7-6700K CPU@3.6GHz×8,顯卡:GeForce GTX 1070Ti/PCIe。
為了實現(xiàn)車道線的精確檢測,需要進行模型訓(xùn)練和參數(shù)優(yōu)化調(diào)整,達到訓(xùn)練次數(shù)或要求的收斂條件為止。針對深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)量大、超參數(shù)優(yōu)化耗時長的問題,本文采用Hyperopt方法選取和優(yōu)化超參數(shù),通過對經(jīng)驗和實驗的總結(jié),選擇將標(biāo)注的3626各樣本總共訓(xùn)練42 000次停止,根據(jù)超參數(shù)的設(shè)置,最終以損失值和準(zhǔn)確率等來評價網(wǎng)絡(luò)結(jié)構(gòu)效果,得到最終權(quán)重文件。通過選取和優(yōu)化,網(wǎng)絡(luò)結(jié)構(gòu)最優(yōu)超參數(shù)見表2。

表2 網(wǎng)絡(luò)超參數(shù)設(shè)置
網(wǎng)絡(luò)的訓(xùn)練損失變化曲線如圖9所示。
由圖9能夠發(fā)現(xiàn)訓(xùn)練損失值下降平穩(wěn),隨著學(xué)習(xí)率和迭代次數(shù)不斷變化,最后在迭代42 000次左右趨于穩(wěn)定,表明訓(xùn)練結(jié)果良好。
2.3.1 車道線檢測準(zhǔn)確率分析
因為自動駕駛行車安全要求較高,所以對車道線檢測的要求也很嚴(yán)格。因此采用兩個標(biāo)準(zhǔn)來評價檢測效果:準(zhǔn)確率 (acc) 和漏檢率 (FN)。 其中每幅圖像的平均正確點數(shù)作為準(zhǔn)確率判斷指標(biāo),即模型判斷正確的數(shù)據(jù)占總數(shù)據(jù)的比例
(11)
其中,Cim為正確分割的像素點數(shù)目,Sim表示標(biāo)注的真實的車道線像素點數(shù)。同時設(shè)定一個閾值,當(dāng)標(biāo)注點與檢測點匹配率大于閾值時則這個點檢測正確。
漏檢率的計算方法如式(12)所示
(12)
其中,Mpred代表沒有檢測到的車道線數(shù)量,Ngt代表真實存在的車道線數(shù)量。
訓(xùn)練準(zhǔn)確率曲線如圖10所示。
為了驗證改進后模型的良好效果,對不同改進方面分別進行了訓(xùn)練實驗。實驗結(jié)果如表3和圖11所示。

表3 不同改進方案對模型性能影響分析
由表3和圖11可知,文本設(shè)計的第7個模型算法在檢測準(zhǔn)確率和檢測速度方面較未設(shè)計前均有較大改進,綜合效果最好,說明了設(shè)計模型算法的合理性和有效性,為最優(yōu)方案。
為了測試算法在復(fù)雜場景下車道線檢測的準(zhǔn)確率和漏檢率,對測試集55 640張圖片進行了測試,部分結(jié)果如圖12所示,并且為了表明算法的泛化性,選取常規(guī)、車輛遮擋、地面污損、陰影、強曝光等5個場景圖片用本文所提算法進行測試結(jié)果展示,檢測結(jié)果如圖13所示,可以看出在多種場景下,基于本文所提算法不僅在常規(guī)道路結(jié)構(gòu)上有較好的效果,在有車輛遮擋、車道線污損、強光環(huán)境、地面陰影等情況下也有良好檢測效果。
對不同場景進行車道線總數(shù)和正確檢測數(shù)統(tǒng)計,正確檢測數(shù)與車道線總數(shù)比值記為匹配準(zhǔn)確率,結(jié)果見表4。

表4 不同道路場景下的匹配準(zhǔn)確率
在車輛遮擋情況下,由本文提出的MB-FCN優(yōu)化算法檢測,測試結(jié)果表明,本文提出的模型結(jié)構(gòu)和算法具有較高的檢測精度和較好的魯棒性,在識別效果和抗干擾能力方面也有較大提升。在挑選的測試圖片中取得了良好的測試效果,其中在常規(guī)道路上的準(zhǔn)確率最高,在強曝光和陰影環(huán)境下的準(zhǔn)確率最低,還可以看出車道線檢測準(zhǔn)確率受外部因素影響較大,原因可能是因為強光和陰影下道路特征信息難以提取。
為了進一步驗證本文方法的性能效果,使用幾種典型車道線檢測方法進行測試,表5展示了本文方法與幾種典型方法在圖森測試集上的結(jié)果比較。本文在Tusimple數(shù)據(jù)集的平均準(zhǔn)確率為97.2817%,由實驗結(jié)果可以看出本文方法平均漏檢率相比于文獻[19]降低了0.53%,而準(zhǔn)確率相比文獻[19]和文獻[20]分別提高了和0.88%和0.75%。文獻[20]采用行列卷積的形式,訓(xùn)練時需要使用固定順序的車道線標(biāo)簽數(shù)據(jù)集,而本文方法只需要訓(xùn)練圖片與標(biāo)簽一一對應(yīng)的關(guān)系,標(biāo)注操作簡單,減少了大量工作量,更貼合實際。

表5 幾種典型車道線檢測方法準(zhǔn)確率、漏檢率對比
圖14是在圖森數(shù)據(jù)集下直線和彎曲道路檢測結(jié)果,可看出在有污損的曲線車道線情況下該方法檢測準(zhǔn)確性良好,測試結(jié)果表明在改進后的算法中,直線車道和曲線車道的車道線檢測準(zhǔn)確率都有較大提高;且隨著駕駛場景的變化,車道線檢測也有較強的魯棒性。
2.3.2 車道線檢測時間測試
由于輔助駕駛對系統(tǒng)實時性要求較高,檢測速度是一個很重要的評價指標(biāo)。表6為車道線檢測在現(xiàn)有主流模型和MB-FCN模型上單張檢測時間和檢測速度比較。

表6 本文方法與典型方法檢測速度比較
測試結(jié)果表明,MB-FCN網(wǎng)絡(luò)檢測速度接近于輕量化網(wǎng)絡(luò)Enet,優(yōu)于復(fù)雜網(wǎng)絡(luò)SCNN,綜合檢測準(zhǔn)確率與檢測速度來看,MB-FCN網(wǎng)絡(luò)表現(xiàn)出了最優(yōu)檢測效果。
本文所提出的基于改進FCN的車道線實例分割檢測方法,采用改進的FCN網(wǎng)絡(luò)進行車道線的特征提取和分割,利用DBSCAN聚類算法進行聚類并分配ID,通過逆透視變換和二次擬合得到更加精準(zhǔn)的車道線,最后對ID分配顏色區(qū)分不同車道線并還原到原圖輸出,得到更加直觀的檢測結(jié)果,方法可以滿足車道線檢測任務(wù)中關(guān)鍵指標(biāo)準(zhǔn)確率與實時性的要求。未來將注重在深度學(xué)習(xí)中運用遷移學(xué)習(xí)和車道線類型區(qū)分方面的研究,以增加檢測的多樣性和泛化性并提升模型效率,提高無人駕駛技術(shù)水平,進一步保證無人車遵守交通規(guī)則,保證駕駛安全。