999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于行列錨點(diǎn)融合的車道線檢測方法研究

2024-11-21 00:00:00李燕輝方中純李海榮
現(xiàn)代電子技術(shù) 2024年22期
關(guān)鍵詞:特征提取

摘" 要: 車道線檢測是自動駕駛和高級駕駛輔助系統(tǒng)中的關(guān)鍵技術(shù)之一,對于車輛準(zhǔn)確定位和識別道路信息非常重要。為了提高檢測精度和效率,提出一種基于行列錨點(diǎn)融合的車道線檢測方法。首先,使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點(diǎn),將提取出來的特征錨點(diǎn)進(jìn)行解耦分類處理;然后對其特征錨點(diǎn)分別在行方向和列方向加入水平注意力機(jī)制和垂直注意力機(jī)制,進(jìn)行通道維度信息和空間維度信息的特征融合,以解決全局關(guān)注計(jì)算成本高、局部關(guān)注限制交互領(lǐng)域的問題,與此同時(shí),車道線檢測無視覺問題也得到了極大的改善。在CULane和Tusimple數(shù)據(jù)集上進(jìn)行了廣泛的實(shí)驗(yàn)和測試,結(jié)果表明,所提方法在檢測精度和效率方面表現(xiàn)出綜合優(yōu)勢,取得了良好的檢測效果。

關(guān)鍵詞: 車道線檢測; 行列錨點(diǎn)融合; 自動駕駛; ResNet18網(wǎng)絡(luò); 特征提取; 解耦

中圖分類號: TN911.73?34" " " " " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " " " " "文章編號: 1004?373X(2024)22?0165?08

Method of lane line detection based on row and column anchor point fusion

Abstract: Lane detection is one of the key technologies in autonomous driving and advanced driver assistance systems, which is very important for vehicle accurate positioning and road information recognition. In order to improve the detection accuracy and efficiency, a lane detection method based on row and column anchor point fusion is proposed. The backbone network ResNet18 is used to extract the feature anchor points of the lane lines, and the extracted feature anchors are decoupled and classified. The horizontal attention mechanism and vertical attention mechanism are added to the feature anchor points in the row direction and column direction, respectively, and the feature fusion of channel dimension information and spatial dimension information is carried out to solve the problem of high computation cost of global attention and limited interaction field of local attention. At the same time, the non?visual problem of lane detection has also been improved greatly. A large number of experiments are conducted on the CULane dataset and Tusimple dataset, and the results show that the proposed method has comprehensive advantages in detection accuracy and efficiency, and has achieved good detection effect.

Keywords: lane line detection; row and column anchor point fusion; autonomous driving; ResNet18 network; feature extraction; decoupling

0" 引" 言

隨著自動駕駛技術(shù)的發(fā)展,車道線檢測變得尤為重要。在自動駕駛和高級駕駛輔助系統(tǒng)中,車道線檢測是至關(guān)重要的技術(shù)之一,換言之,它是確保車輛行駛安全和穩(wěn)定的不可或缺的要素。車道線檢測技術(shù)為車輛提供了在道路上行駛時(shí)的定位和導(dǎo)航信息,幫助自動駕駛車輛準(zhǔn)確識別道路上的車道線,以確定車輛在道路上的位置和方向,避免偏離道路,從而提高行駛的安全性。

目前,國內(nèi)外的大多數(shù)研究方法可分為基于傳統(tǒng)圖像處理的車道線檢測算法和基于深度學(xué)習(xí)處理的車道線檢測算法兩種。其中,傳統(tǒng)方法[1?2]通過邊緣檢測濾波[3?5]等方式分割出車道線區(qū)域,結(jié)合霍夫變換[6?7]、改進(jìn)隨機(jī)抽樣一致性(RANSAC)算法[8]等進(jìn)行車道線檢測。這類算法需要人工手動調(diào)整濾波算子和參數(shù)曲線,以適應(yīng)特定的街道場景。這種方式工作量大且魯棒性較差,當(dāng)駕駛環(huán)境發(fā)生顯著變化時(shí),車道線檢測效果不佳,適用場景受到限制。近年來,隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度學(xué)習(xí)處理的方法[9?11]已成為主流。基于深度學(xué)習(xí)處理的方法主要分為基于分割的方法[12?14]、基于檢測的方法[15?17]、基于多項(xiàng)式的方法[18?19]等。基于分割的方法是將車道線檢測理解為圖像分割的任務(wù),對圖像中的每個(gè)像素分配正負(fù)樣本像素,正像素為車道線所在位置的點(diǎn),負(fù)像素為車道線上其他點(diǎn)的位置。基于檢測的方法是通過尋找車道線在圖像中某些行或列的位置的集合,即基于行或列方向上的位置選擇、分類,基于行或列的選擇可以降低計(jì)算成本,應(yīng)對嚴(yán)重遮擋和極端光照等具有挑戰(zhàn)性的場景。基于多項(xiàng)式的方法通常需要啟發(fā)式方法來解碼預(yù)測或制定大量錨點(diǎn),從而使用多項(xiàng)式的方式擬合車道線。基于分割的方法精度高但速度慢,基于檢測的方法速度快但精度低,基于多項(xiàng)式的方法在精度和速度方面都落后于基于分割和基于檢測的方法。

為解決上述問題,本文提出了一種基于行列錨點(diǎn)融合的車道線檢測方法。首先使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點(diǎn),將提取出來的特征錨點(diǎn)進(jìn)行解耦分類處理;然后對其特征錨點(diǎn)在行方向和列方向分別加入水平注意力機(jī)制和垂直注意力機(jī)制進(jìn)行通道維度信息和空間維度信息的特征融合,以避免全局關(guān)注計(jì)算成本高、局部關(guān)注限制交互領(lǐng)域的問題,車道線檢測無視覺狀況也得到了極大的改善。

1" 車道線檢測算法設(shè)計(jì)

1.1" 網(wǎng)絡(luò)模型架構(gòu)

本文采用行列錨點(diǎn)融合的方式實(shí)現(xiàn)車道線快速精準(zhǔn)的檢測。給定RGB圖像作為輸入,首先使用主干網(wǎng)絡(luò)ResNet18提取特征,將提取出來的特征錨點(diǎn)進(jìn)行解耦分類處理,主要分為實(shí)際檢測存在的正向車道線點(diǎn)和負(fù)向車道線點(diǎn)。對于正向車道線點(diǎn),將其進(jìn)行逐行、逐列的分類選擇,在行方向和列方向分別加入水平注意力機(jī)制和垂直注意力機(jī)制進(jìn)行通道維度信息和空間維度信息的特征融合。最后將檢測到的車道線點(diǎn)進(jìn)行點(diǎn)卷積操作,使所有通道和空間信息進(jìn)行加權(quán)并降維,輸出車道線預(yù)測值,即可檢測出對應(yīng)x軸方向和y軸方向上實(shí)際存在的車道線點(diǎn)。對于負(fù)向車道線點(diǎn),輸出車道線偏置值,使其能夠在遮擋、磨損、昏暗、炫光等復(fù)雜場景下準(zhǔn)確檢測車道線。車道線檢測總體模型框架見圖1。

1.2" 車道線特征提取

提取圖像特征的主要目標(biāo)是捕捉可以描述圖像內(nèi)容和結(jié)構(gòu)的重要信息,這些信息可能是邊緣、角點(diǎn)、紋理、顏色分布或其他局部特征,這種轉(zhuǎn)換是圖像分析、識別、檢測和分類等任務(wù)的基礎(chǔ)。車道線特征提取致力于從道路圖像中提取重要的視覺信息,以輔助車輛導(dǎo)航和環(huán)境感知。這個(gè)過程旨在識別和分析道路上的車道線,包括檢測車道線的位置、形狀、方向和顏色等特征。本節(jié)對車道線提取特征進(jìn)行探討,采用ResNet18作為主干網(wǎng)絡(luò)提取每個(gè)錨點(diǎn)的特征。ResNet通過引入跨層連接的殘差模塊,解決深度神經(jīng)網(wǎng)絡(luò)中由于增加深度而產(chǎn)生的梯度消失和梯度爆炸問題,提高模型的表達(dá)能力和性能;同時(shí)可以保留原始特征,提高模型的精度和泛化能力。模型結(jié)構(gòu)及參數(shù)如表1所示。

ResNet18模型由5個(gè)卷積組組成,每個(gè)卷積組都包含了一個(gè)下采樣操作,用于減小特征圖的大小。首先是第一層卷積,由7×7的卷積核、步長為2或3個(gè)填充、歸一化層(BN)、激活函數(shù)(ReLU)和最大池化層構(gòu)成;然后中間是4個(gè)卷積層,每個(gè)卷積層中有多個(gè)building block模塊。本文使用ResNet18提取車道線特征,目的是減小計(jì)算量且便于訓(xùn)練,更快獲取特征提取的能力,并將檢測到的特征錨點(diǎn)映射到特征圖中,完成特征圖的輸出。

1.3" 車道線特征融合

1.3.1" 特征解耦模塊

行列特征解耦圖如圖2所示。在車道線檢測中,特征解耦模塊的作用是通過解耦卷積操作,將車道線更有效地提取出來,從而降低計(jì)算量并提高模型效率。

通常情況下,車道線在圖像中呈長條狀,而傳統(tǒng)的卷積操作會在整個(gè)區(qū)域上進(jìn)行計(jì)算,導(dǎo)致計(jì)算量較大。為了解決這一問題,將原始的3×3卷積核分解為多個(gè)行采集的1×3卷積或多個(gè)列采集的3×1卷積,以便對圖像的行和列進(jìn)行逐一掃描,從而更好地捕獲車道線在圖像中的空間信息。行列解耦卷積的計(jì)算量公式如下:

[FLOPS1=2×2wh(n×3)n=12whn2] (1)

設(shè)輸入特征圖的大小為h×w×n,其中h和w分別表示特征圖的高度和寬度,n表示輸入通道數(shù)。首先,將輸入特征圖按通道數(shù)n分組,然后對每個(gè)通道組進(jìn)行獨(dú)立的行和列解耦卷積操作。具體來說,對于每個(gè)通道組,分別使用1×3的卷積核在行方向上進(jìn)行卷積操作,使用3×1的卷積核在列方向上進(jìn)行卷積操作。

此外,深度可分離行列解耦卷積操作還可以進(jìn)一步降低計(jì)算成本,設(shè)該模塊卷積分組數(shù)與輸入通道數(shù)n相同,其結(jié)構(gòu)如圖3所示。深度可分離行列解耦卷積的計(jì)算量公式如下:

[FLOPS2=2×2wh(n×3)+4×wh(n×1)n=4wh(n2+3n)] (2)

由此可知,深度可分離行列解耦卷積的計(jì)算量小于行列解耦卷積的計(jì)算量,模型更加輕量化。

1.3.2" 注意力模塊

在車道線檢測過程中,為了解決全局關(guān)注計(jì)算成本高、局部關(guān)注限制交互領(lǐng)域的問題,文章在逐行、逐列檢測車道線特征錨點(diǎn)時(shí),對逐行檢測使用水平注意力機(jī)制,對逐列檢測使用垂直注意力機(jī)制,在降低計(jì)算成本的同時(shí)增強(qiáng)了特征聚合能力,對于車道線檢測無視覺問題有極大的改善。

水平注意力機(jī)制和垂直注意力機(jī)制結(jié)構(gòu)如圖4所示,其中SDPA是比例的點(diǎn)積關(guān)注,C+R是通道關(guān)注連接并降維。輸入頂部變量X,底部輸出學(xué)習(xí)到的特征映射YH(或YV)。水平注意力是對多頭注意力輸出中的特征進(jìn)行重新加權(quán),而垂直注意力則是對特征通道進(jìn)行重新校準(zhǔn)。

在Vanila Transformer中,多頭SDPA是學(xué)習(xí)每個(gè)令牌的依賴關(guān)系。就像集成方法機(jī)器學(xué)習(xí),多頭注意力運(yùn)行SDPA所有時(shí)間并行,每個(gè)注意力頭都經(jīng)過優(yōu)化獨(dú)立,將他們的注意力輸出連接并線性轉(zhuǎn)換為期望維數(shù)。它關(guān)注特征輸出并抑制,通過重新加權(quán)函數(shù)來減少差異。水平注意力的設(shè)計(jì)是為了自動、重新加權(quán)多頭注意力的輸出。水平注意力近似最大化所有多頭SDPA輸出的邊際似然,并且計(jì)算復(fù)雜度只與維數(shù)有關(guān),與長度無關(guān)。因此水平注意力主要關(guān)注通道維數(shù)的信息,用于強(qiáng)調(diào)或抑制輸入數(shù)據(jù)的不同通道特征的重要性,可以幫助模型更好地理解和利用輸入數(shù)據(jù)的通道信息,提高模型的性能。水平注意力公式如下:

垂直注意力可以看作是一種機(jī)制,特征通道的分配偏向于輸入信號中信息量最大的組件,這是通過門控函數(shù)實(shí)現(xiàn)的。它專門以一種計(jì)算效率高的方式對信道相關(guān)信息進(jìn)行建模,提高網(wǎng)絡(luò)中的特征表示能力。垂直注意力的計(jì)算類似于水平注意力,使用輸入特征X作為上下文變量,不同的是,垂直注意力的目的是重新校準(zhǔn)多頭輸出YM的降維。垂直注意力的計(jì)算公式如下:

為了捕獲通道依賴關(guān)系,需要確保多通道被允許、被強(qiáng)調(diào),而不是單通道激活。因此,在垂直注意力中,使用Sigmoid激活函數(shù),輸入X和學(xué)習(xí)到的特征YM的通道權(quán)重。垂直注意力的計(jì)算類似于擠壓?激勵(lì)(SE)模塊;不同之處在于,在SE模塊的壓縮階段,垂直注意力將全局空間信息壓縮到通道描述符中,由于SDPA已經(jīng)嵌入了特征依賴關(guān)系,因此在垂直注意力中不需要壓縮。垂直注意力關(guān)注輸入X給出的上下文信息,它們共同考慮當(dāng)前特征輸出,因此,垂直注意力本質(zhì)上引入了以輸入和多頭SDPA為條件的動態(tài),提高了特征表征的判別能力。所以垂直注意力機(jī)制有助于模型更好地理解和利用輸入數(shù)據(jù)的空間結(jié)構(gòu),提高模型的感知能力和準(zhǔn)確性。

通過使用水平注意力機(jī)制和垂直注意力機(jī)制,模型可以更加靈活地處理不同類型的數(shù)據(jù)和任務(wù),提高模型的表達(dá)和學(xué)習(xí)能力。

1.4" 損失函數(shù)

分類損失、回歸損失以及偏置損失的和為總損失函數(shù)。其中交叉熵?fù)p失作為分類損失函數(shù),在車道線檢測中,可以衡量和預(yù)測車道線類別和真實(shí)車道線類別之間的差異,根據(jù)錨點(diǎn)正負(fù)類別的分類來確保模型能夠準(zhǔn)確地分辨出車道線中的不同區(qū)域或物體的情況。交叉熵?fù)p失函數(shù)和分類損失函數(shù)公式如下:

回歸損失采用L1損失函數(shù)回歸車道線像素在網(wǎng)格的位置,公式如下:

在車道線檢測中,存在檢測不準(zhǔn)確的情況,因此在行列上加入偏置損失提高車道線的預(yù)測精度,公式如下:

綜上,總損失函數(shù)的計(jì)算公式如下:

[Ltotal=Lcls+αLreg+βLoffset]" " "(13)

式中:[Lcls]為分類損失;[Lreg]為回歸損失;[Loffset]為偏置損失;α、β為損失系數(shù),且α,β∈[0,1]。

2" 實(shí)驗(yàn)設(shè)置與分析

2.1" 實(shí)驗(yàn)環(huán)境配置

實(shí)驗(yàn)環(huán)境配置為:Linux x64操作系統(tǒng),Intel[?] Xeon[?] CPU E5?2609 v4@1.70 GHz處理器,NVIDIA Tesla T4顯卡,16 GB內(nèi)存,編程語言采用Python 3.8,深度學(xué)習(xí)框架是PyTorch。在訓(xùn)練過程中,優(yōu)化器采用Adam,設(shè)初始學(xué)習(xí)率為0.001,batch size為8。

2.2" 數(shù)據(jù)集

2.2.1" CULane數(shù)據(jù)集

CULane數(shù)據(jù)集是一個(gè)針對交通車道線檢測的大規(guī)模挑戰(zhàn)性公開數(shù)據(jù)集,其數(shù)據(jù)來自于6輛不同車上安裝的攝像頭,共收集了超過55 h的視頻,提取了133 235幀圖像。這個(gè)數(shù)據(jù)集分成三個(gè)部分:訓(xùn)練集包含88 880幀圖像,驗(yàn)證集包含9 675幀圖像,測試集包含34 680幀圖像,主要由表2中9個(gè)場景組成。

2.2.2" Tusimple數(shù)據(jù)集

Tusimple是一組在高速公路上進(jìn)行數(shù)據(jù)采集的公開數(shù)據(jù)集,場景單一,位于高速路,天氣晴朗。它由3 268張訓(xùn)練集、35張驗(yàn)證集、2 782張測試集組成。

2.3" 評價(jià)指標(biāo)

本文實(shí)驗(yàn)CULane數(shù)據(jù)集主要采用F1分?jǐn)?shù)作為衡量車道線檢測模型性能的評價(jià)指標(biāo)。在計(jì)算時(shí),首先將檢測到的車道線看作30個(gè)像素寬的目標(biāo)形狀,然后計(jì)算真實(shí)值與預(yù)測值的交并比(IoU)。當(dāng)IoU大于閾值0.5時(shí),則為TP;當(dāng)IoU小于0.5時(shí),則為FP。具體公式如下:

Tusimple數(shù)據(jù)集主要采用Acc、FP、FN作為衡量車道線檢測模型性能的評價(jià)指標(biāo),具體公式如下:

式中:[Cclip]為預(yù)測正確的車道數(shù);[Sclip]為所有的車道數(shù);Fpred為錯(cuò)誤預(yù)測的車道數(shù);Npred為預(yù)測的車道數(shù);Mpred為漏檢的真實(shí)車道數(shù);Ngt為所有真實(shí)的車道數(shù)。

2.4" 實(shí)驗(yàn)結(jié)果與分析

2.4.1" 模型對比實(shí)驗(yàn)

將本文方法與其他車道線檢測算法在同一數(shù)據(jù)集上進(jìn)行比較。在CULane數(shù)據(jù)集的9種復(fù)雜場景中,驗(yàn)證該方法的有效性。本文方法與SAD[14]、CurveLane[20]、PINet[21]、E2E?LMD[22]、ENet[23]、UFSA[15]六種方法在CULane數(shù)據(jù)集上進(jìn)行比較,結(jié)果如表3所示。表中N/A表示相關(guān)論文未提及。本文方法在多個(gè)場景中取得了顯著的結(jié)果,通過對其特征錨點(diǎn)分別在行方向和列方向加入水平注意力機(jī)制和垂直注意力機(jī)制進(jìn)行通道維度信息和空間維度信息的特征融合,更好地解決了車道線檢測在復(fù)雜場景下的檢測效果,F(xiàn)1在一定程度上得到了提升,極大地改善了車道線檢測中無視覺問題。

為了驗(yàn)證本文方法的有效性,在Tusimple數(shù)據(jù)集上進(jìn)行了多種模型的對比實(shí)驗(yàn)。本文選取了PolyLaneNet[24]、EL?GAN[25]、USFA[15]、SAD[14]、PINet[21]五種方法在F1、Acc、FP、FN、FPS指標(biāo)上進(jìn)行對比,結(jié)果如表4所示。表中N/A表示相關(guān)論文未提及。由表4可知,SAD[14]在精度(Acc)上達(dá)到了96.64%;UFSA[15]在幀速度上達(dá)到了312.5 f/s;本文方法的F1分?jǐn)?shù)上達(dá)到了96.31%,在FP和FN上都有所降低,達(dá)到了良好的效果。本文方法在精度(Acc)和速度上相較于SAD[14]和UFSA[15]表現(xiàn)不佳,但是在F1、FP和FN上都獲得了較好的性能。總的來說,本文方法表現(xiàn)良好,且具有一定的提升空間。

2.4.2" 消融實(shí)驗(yàn)

為了驗(yàn)證本文方法的可行性,做了4組消融實(shí)驗(yàn),對比結(jié)果如表5所示。第一組是預(yù)測基礎(chǔ)模型在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,精度為65.74%;在Tusimple數(shù)據(jù)集上,精度為94.57%。第二組是在基礎(chǔ)模型上進(jìn)行解耦操作,在行方向上加入水平注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:CULane數(shù)據(jù)集上,在行方向加入水平注意力比基礎(chǔ)模型上的精度增加了4.49%;Tusimple數(shù)據(jù)集上,在行方向加入水平注意力比基礎(chǔ)模型上的精度增加了0.74%。第三組是在基礎(chǔ)模型上進(jìn)行解耦操作,在列方向加入垂直注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,在列方向加入垂直注意力并比基礎(chǔ)模型上的精度增加了5.83%;在Tusimple數(shù)據(jù)集上,在列方向加入垂直注意力比基礎(chǔ)模型上的精度增加了0.79%。第四組是在基礎(chǔ)模型上進(jìn)行解耦操作,同時(shí)在行方向和列方向分別加入水平注意力和垂直注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,同時(shí)在行方向和列方向分別加入水平注意力和垂直注意力比基礎(chǔ)模型上的精度增加了10.19%;在Tusimple數(shù)據(jù)集上,同時(shí)在行方向和列方向分別加入水平注意力和垂直注意力比基礎(chǔ)模型上的精度增加了2%。

這四組實(shí)驗(yàn)數(shù)據(jù)表明,在車道線檢測中,對其特征錨點(diǎn)分別在行方向和列方向加入水平注意力機(jī)制和垂直注意力機(jī)制進(jìn)行通道維度信息和空間維度信息的特征融合,可以有效提高模型的檢測精度。

2.4.3" 可視化實(shí)驗(yàn)

圖5是在CULane數(shù)據(jù)集的檢測結(jié)果圖,它展示了在CULane數(shù)據(jù)集上正常、擁擠、夜晚、無車道、箭頭、陰影、路口、彎道和炫光等9種復(fù)雜場景的檢測結(jié)果。圖6是在Tusimple數(shù)據(jù)集的檢測結(jié)果,它展示了在Tusimple數(shù)據(jù)集上正常、擁擠、陰影、昏暗、彎道和坡道等場景的檢測結(jié)果。通過對可視化實(shí)驗(yàn)結(jié)果的分析,可以明顯看到本文在這兩種數(shù)據(jù)集且不同的復(fù)雜場景下的車道線檢測都達(dá)到了良好的效果,驗(yàn)證了本文方法可以很好地解決擁擠、夜晚和陰影等無視覺問題。

2.4.4" 實(shí)際道路測試

為驗(yàn)證本文方法的有效性,收集各地區(qū)親朋好友的行車記錄儀拍攝視頻,共計(jì)超過5 h的視頻,提取出12 112幀圖像。參照CULane數(shù)據(jù)集進(jìn)行標(biāo)注,見圖7。

將數(shù)據(jù)集分成三個(gè)部分:訓(xùn)練集包含8 080幀圖像,驗(yàn)證集包含895幀圖像,測試集包含3 152幀圖像。選取了彎道、十字路口、正常、夜晚和擁擠5個(gè)場景進(jìn)行檢測,檢測結(jié)果如圖8所示。

3" 結(jié)" 語

為了提高網(wǎng)絡(luò)在復(fù)雜場景下的檢測精度和速度,本文提出了基于行列錨點(diǎn)融合的車道線檢測方法。首先使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點(diǎn),將提取出來的特征錨點(diǎn)進(jìn)行解耦分類處理;再對其特征錨點(diǎn)分別在行方向和列方向加入水平注意力機(jī)制和垂直注意力機(jī)制,進(jìn)行通道維度信息和空間維度信息的特征融合,以避免全局關(guān)注計(jì)算成本高、局部關(guān)注限制交互領(lǐng)域的問題,車道線檢測無視覺問題也得到了較好的解決。在Tusimple數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),該網(wǎng)絡(luò)的準(zhǔn)確度可達(dá)到96.57%,F(xiàn)1可達(dá)96.31%;在CULane數(shù)據(jù)集多個(gè)場景下,如正常、夜晚、無車道、炫光和彎道,車道線檢測都達(dá)到了良好的效果。證明了本文的模型具有良好的檢測性能。后續(xù)將在雪天、霧天、雨天和沙塵暴等更具有挑戰(zhàn)的場景進(jìn)行實(shí)驗(yàn),開展車道線檢測的研究。

參考文獻(xiàn)

[1] JIANG Y, GAO F, XU G. Computer vision?based multiple?lane detection on straight road and in a curve [C]// 2010 International Conference on Image Analysis and Signal Processing. [S.l.]: IEEE, 2010: 114?117.

[2] KIM Z W. Robust lane detection and tracking in challenging scenarios [J]. IEEE transactions on intelligent transportation systems, 2008, 9(1): 16?26.

[3] 陳初俠,丁勇.基于中值濾波的激光雷達(dá)圖像邊緣特征提取方法[J].激光雜志,2023,44(8):94?98.

[4] 王冬云,唐楚,鄂世舉,等.基于導(dǎo)向?yàn)V波Retinex和自適應(yīng)Canny的圖像邊緣檢測[J].光學(xué)精密工程,2021,29(2):443?451.

[5] 余祥偉,薛東劍,陳鳳嬌.融合多尺度邊緣檢測的小波貝葉斯SAR圖像濾波[J].遙感信息,2019,34(5):120?125.

[6] 彭文杰,況潤元,趙艷福,等.基于Gabor濾波和霍夫變換的鄱陽湖流向提取[J].水文,2021,41(4):56?61.

[7] ZHANG J Q, DUAN H B, CHEN J L, et al. Hough laneNet: lane detection with deep hough transform and dynamic convolution [J]. Computers amp; graphics, 2023, 116: 82?92.

[8] 趙夫群,馬玉,戴翀.基于改進(jìn)隨機(jī)抽樣一致的點(diǎn)云分割算法[J].科學(xué)技術(shù)與工程,2021,21(22):9455?9460.

[9] WANG Q, HAN T, QIN Z, et al. Multitask attention network for lane detection and fitting [J]. IEEE transactions on neural networks and learning systems, 2020, 33(3): 1066?1078.

[10] QIU Q, GAO H, HUA W, et al. Priorlane: a prior knowledge enhanced lane detection approach based on transformer [C]// 2023 IEEE International Conference on Robotics and Automation. [S.l.]: IEEE, 2023: 5618?5624.

[11] PAN H, HONG Y, SUN W, et al. Deep dual?resolution networks for real?time and accurate semantic segmentation of traffic scenes [J]. IEEE transactions on intelligent transportation systems, 2022, 24(3): 3448?3460.

[12] YANG J, ZHANG L, LU H. Lane detection with versatile atrousformer and local semantic guidance [J]. Pattern recognition, 2023, 133: 109053.

[13] DONG Y, PATIL S, VAN AREM B, et al. A hybrid spatial?temporal deep learning architecture for lane detection [J]. Computer‐aided civil and infrastructure engineering, 2023, 38(1): 67?86.

[14] HOU Y N,MA Z,LIU C X,et al.Learning light weight lane detection CNNs by self attention distillation [C]// 2019 IEEE/CVF International Conference on Computer Vision.Seoul: IEEE, 2019: 1013?1021.

[15] QIN Z, WANG H, LI X. Ultra fast structure?aware deep lane detection [C]// Computer Vision?ECCV 2020: 16th European Conference. Glasgow, UK: Springer, 2020: 276?291.

[16] TABELINI L, BERRIEL R, PAIXAO T M, et al. PolylaneNet: lane estimation via deep polynomial regression [C]// 2020 25th International Conference on Pattern Recognition (ICPR). [S.l.]: IEEE, 2021: 6150?6156.

[17] JI G, ZHENG Y. Automatic lane line detection system based on artificial intelligence [J]. Journal of electric and computer engineering, 2022, 2022: 5284185:1?5284185:10.

[18] FENG Z, GUO S, TAN X, et al. Rethinking efficient lane detection via curve modeling [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2022: 17062?17070.

[19] HAN J, DENG X, CAI X, et al. Laneformer: object?aware row?column transformers for lane detection [J]. Proceedings of the AAAI conference on artificial intelligence, 2022, 36(1): 799?807.

[20] XU H, WANG S J, CAI X Y, et al. Curve lane?NAS: unifying lane?sensitive architecture search and adaptive point blending [C]// 2020 European Conference on Computer Vision.Glasgow: Springer, 2020: 689?704.

[21] KOY,LEE Y,AZAM S,et al.Key points estimation and point instance segmentation approach for lane detection [J]. IEEE transactions on intelligent transportation systems, 2021, 23(7) : 8949?8958.

[22] YOO S, LEE H S, MYEONG H, et al. End?to?end lane marker detection via row?wise classification [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle: IEEE, 2020: 1006?1007.

[23] HOU Y. Agnostic lane detection [EB/OL]. [2023?11?07]. https://www.researchgate.net/publication/332528412_Agnostic_Lane_Detection/download.

[24] TABELINI L, BERRIEL R, PAIXAO T M, et al.Poly laneNet: lane estimation via deep polynomial regression [C]// 2020 25th International Conference on Pattern Recognition. Milan: IEEE, 2021: 6150?6156.

[25] GHAFOORIAN M, NUGTEREN C, BAKA N, et al. ELGAN: embedding loss driven generative adversarial networks for lane detection [C]// 2018 European Conference on Computer Vision Workshops. Munich: Springer, 2018: 256?272.

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識別
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 91原创视频在线| 亚洲天堂日韩av电影| 亚洲欧美日韩动漫| 久久青草视频| 伊人五月丁香综合AⅤ| 国产97视频在线观看| 就去吻亚洲精品国产欧美| 久久精品视频一| 成人免费黄色小视频| 欧美成人精品在线| 亚洲色图欧美在线| 久久国产乱子| 久久久91人妻无码精品蜜桃HD| 亚洲人成网站色7799在线播放| 99伊人精品| 久夜色精品国产噜噜| 尤物国产在线| 国产毛片高清一级国语| 国产精品亚洲一区二区在线观看| 91无码人妻精品一区二区蜜桃 | 成年人国产视频| 国产99免费视频| 一级黄色片网| 国产精品lululu在线观看| 九九免费观看全部免费视频| 日本成人不卡视频| 在线免费a视频| 亚洲AⅤ无码国产精品| 午夜三级在线| 国产在线观看精品| 国产欧美日韩精品第二区| 无码一区18禁| 91成人在线免费观看| 亚洲视频免费在线看| a级毛片在线免费观看| 日韩精品一区二区三区大桥未久 | 中文无码精品A∨在线观看不卡| 日韩成人免费网站| 一级毛片基地| 国产日韩欧美一区二区三区在线 | 国产精品第一区在线观看| 黑色丝袜高跟国产在线91| 三上悠亚一区二区| 国产91九色在线播放| 毛片免费视频| 中文字幕天无码久久精品视频免费| 欧洲极品无码一区二区三区| 亚洲最猛黑人xxxx黑人猛交| 精品无码专区亚洲| 亚洲国产精品日韩av专区| 99无码熟妇丰满人妻啪啪| 免费AV在线播放观看18禁强制| a级毛片视频免费观看| 国产精品无码AⅤ在线观看播放| 狠狠综合久久| 国产拍在线| a级毛片免费播放| 人妻中文字幕无码久久一区| 97在线观看视频免费| 国产欧美日韩另类精彩视频| 精品乱码久久久久久久| 亚洲人成网站日本片| 网友自拍视频精品区| 亚洲日本一本dvd高清| 人妖无码第一页| 国内精品视频在线| 国产小视频a在线观看| 中文成人在线| 精品少妇三级亚洲| 国产视频你懂得| 国产人成在线观看| а∨天堂一区中文字幕| 亚洲国产看片基地久久1024| 四虎成人精品在永久免费| 九九九久久国产精品| 91在线激情在线观看| 亚洲人成网7777777国产| 亚洲欧美日韩中文字幕在线| 日韩精品一区二区三区中文无码| 色丁丁毛片在线观看| 久久亚洲国产视频| 制服丝袜在线视频香蕉|