999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制與動態蛇形卷積的車道線分割算法

2025-02-13 00:00:00宋百玲李星禹劉偉鄧俊熙牟俊麒
山東科學 2025年1期

摘要:車道檢測作為計算機視覺技術在交通領域的關鍵應用,具有深遠的實用價值。盡管如此,現有的語義分割網絡模型在道路語義分割任務中仍面臨著精度不足和邊緣模糊等挑戰。針對這些問題,提出了一種基于UNet模型的改進型車道線圖像分割網絡架構。在UNet模型的跳躍連接中,引入雙重注意力機制,優先突出了車道線的重要性,并有效降低了噪聲的干擾。此外,采用了動態蛇形卷積來替代傳統的卷積方法,增強了網絡對車道線的識別能力??紤]到在曝光不足或光線較暗的背景下進行車道線檢測的挑戰,在圖像預處理階段引入了一種改進的自適應Gamma校正技術,以增強檢測的全面性和準確性。同時,在編碼器末端引入了空洞金字塔池化技術。實驗結果表明,在滿足實時性要求的前提下,該模型TuSimple數據集上達到了98.93%的準確率,相較于其他5種基于語義分割的車道線檢測算法,展現出更優越的識別效果,結果驗證了應用動態蛇形卷積與雙注意力機制改進的有效性。

關鍵詞:車道線檢測;語義分割;注意力機制;動態蛇形卷積;Gamma校正算法

中圖分類號:U491.6""" 文獻標志碼:A""" 文章編號:1002-4026(2025)01-0129-12

開放科學(資源服務)標志碼(OSID):

DOI:10.3976/j.issn.1002-4026.20240066【交通運輸】

收稿日期:2024-04-30

基金項目:黑龍江省“百千萬工程”科技重大專項(2021ZX04A01)

作者簡介:宋百玲(1972—), 女,博士,副教授,研究方向為汽車電控系統現代開發(硬件在環、快速控制原型)。E-mail:10559164@qq.com

*通信作者,李星禹,男,碩士研究生,研究方向為智能駕駛,計算機視覺研究。E-mail:1695352162@qq.com

Lane segmentation algorithm based on attention mechanism

and dynamic snake convolution

SONG Bailing,LI Xingyu*,LIU Wei,DENG Junxi,MU Junqi

(College of Mechanical and Electrical Engineering,Northeast Forestry University, Harbin 150006, China)

Abstract∶Lane detection is a remarkable practical application of computer vision technology in the field of transportation. However, existing semantic segmentation network models still face certain challenges such as insufficient accuracy and blurred edges in road semantic segmentation tasks. To address these issues, an improved lane segmentation network architecture based on the UNet model is proposed. First, a dual attention module (DAM) is introduced in the skip connections of the UNet model, which prioritizes the importance of lane lines and effectively reduces noise interference. Additionally, dynamic snake convolution (DSConv) is employed to replace traditional convolution methods, enhancing the network’s lane detection ability. To enhance the comprehensiveness and accuracy of lane detection in underexposed or dark backgrounds, an improved adaptive Gamma correction method is introduced in the image preprocessing stage. Furthermore, atrous spatial pyramid pooling (ASPP) technology is introduced at the end of the encoder to enhance network performance. Experimental results show that this model achieves an accuracy of 98.93% on the TuSimple dataset while meeting real-time requirements. Compared to five other semantic segmentation-based lane detection algorithms, the proposed algorithm demonstrates superior recognition performance, thus validating its effectiveness.

Key words∶lane detection; semantic segmentation; attention mechanism; dynamic snake convolution; Gamma correction algorithm

車道線作為路面上的關鍵交通標志,承擔著劃分車道、指示行進方向以及為行人提供導航的重要角色,對于確保機動車輛的安全行駛至關重要。在智能駕駛領域,車道線檢測作為核心技術之一,被廣泛應用于高級輔助駕駛系統(advanced driver assistance system,ADAS)[1],用于實現車道偏離預警、車道保持輔助以及前向碰撞預警等功能。然而,在實際駕駛環境下,車道線可能因長期磨損、行人和車輛的遮擋而出現缺失或不連續,其可見度也受到氣候、光照、路面陰影及車道線自身磨損等多種因素的影響。此外,車道線檢測任務還需要滿足實時性的要求,這給車道線檢測技術帶來了諸多挑戰。

在自動駕駛的環境感知系統中,實現快速且準確的車道線檢測對于保障自動駕駛車輛的安全與可靠行駛至關重要。現有車道檢測方法眾多,包括基于攝像機傳感器的計算機視覺方法、基于激光雷達的三維信息獲取方法以及GPS方法[2]等。近年來,鑒于計算機視覺方法具有成本低、適應性強和實時性佳等優勢,其在高速公路[3]及城市道路[4]等車道線檢測任務中得到了廣泛應用。同時,通過后續計算機技術的發展,從計算機視覺算法的角度進行的優化,有助于進一步提升車道線檢測技術的準確性及實時性。

在深度學習技術廣泛應用于車道線之前,例如霍夫變換之類的傳統圖像處理方法是處理車道線檢測的主要方法。何旭光等[5]提出了一種使用霍夫變換進行車道線檢測的方法。該方法首先采用圖像平滑技術對輸入圖像進行預處理,以減少噪聲干擾,進而更精確地提取圖像的關鍵特征。隨后,通過自適應算法提煉關鍵特征信息,最終利用霍夫變換算法有效檢測車道線的位置。此外,TIAN等[6]提出了一種針對ADAS的車道線檢測與追蹤技術,該技術融合了線段檢測器(LSD)、自適應角度過濾器及雙重卡爾曼過濾系統,著重分析了傳統車道線檢測技術的局限性,并指出了這些技術通常僅在特定環境條件下有效,其根源在于缺乏對復雜和動態場景的適應性。

為提高車道線檢測性能,PIZZATI等[7]設計了一個運行于ROS框架之上的車道線檢測算法,該算法采用均方誤差不確定性評估技術,并將其融入多任務卷積神經網絡(convolutional neural networks,CNN)訓練過程中,顯著提升了性能。PAN等[8]的SCNN(spatial convolutional neural network)網絡模型在分割模塊中采用了獨特的卷積操作,更有效地利用視覺信息,這些操作專注于處理切片特征和整合多維信息,從而提升了網絡在提取車道線特征方面的能力。但是這種切片卷積模型的計算量過大,難以進行實時的車道線檢測。CHEN等[9]提出的三分支車道線實例分割算法,該算法能夠自適應分類分割結果,以適應不同的車道線實例,展現出良好的檢測性能。總的來說,這類算法對于車道線檢測的準確度較高,但計算成本過大,并且在復雜路面檢測效果不佳。

為提高車道線檢測速度,NEVEN等[10]提出了一種將車道線視為實例分割問題的LaneNet模型,其由兩個分支構成,分為像素嵌入分支和二值分割分支,結合兩個分支的結果完成車道線的提取。HOU等[11]開發出了一種稱為自注意蒸餾模塊的輕量級網絡模型,雖明顯提升了檢測速度,但會丟失車道線信息,對車道線缺失和復雜條件下的車道線檢測結果不佳。劉彬等[12]開發了一種基于改進的Enet網絡模型的車道線檢測算法,與傳統方法相比,這一算法能夠滿足實時性的需求。KIM等[13]提出了一種車道線檢測方法,此技術采用了卷積神經網絡(CNN)與隨機采樣一致(RANSAC)算法的融合,實現了車道線的實時檢測。

綜上,本文提出了一種基于語義分割的創新車道線檢測網絡架構。該架構通過改進UNet((U-shape

d net))網絡[14],結合雙重注意力機制和動態蛇形卷積技術,顯著提升了車道線檢測的精度與實時性。同時,采用Gamma矯正和多尺度ASPP架構優化圖像處理,增強了車道線的辨識度和模型的綜合性能。實驗結果表明,該方法在精度和速度方面優于多種現有的深度學習檢測方法。

1" 方法設計

提出了一個兩階段的車道線檢測框架,具體流程詳見圖1,包括訓練階段和檢測階段。

訓練階段如圖2所示,采用基于UNet網絡模型結構,利用TuSimple數據集進行訓練與驗證。鑒于深度殘差網絡在圖像分類任務中的卓越性能,采用ResNet18[15]代替了傳統的VGG16作為UNet網絡編碼器的基礎。如圖3所示,每個ResNet18的block_x(x=1,2,3,4)均使用了3×3的卷積核,并且在每個模塊的第二層卷積中采用了步長為2的策略,實現了有效的下采樣。同時,各模塊中卷積核的數量也與UNet模型的相應部分相匹配??紤]到池化操作可能在擴大感受野和聚合上下文信息時丟失位置信息和密集的語義信息,編碼器末端采用了具有多級空洞卷積分支和全局平均池化層分支的空洞金字塔池化(ASPP)結構,以在不同尺度上抽取圖像特征。在編碼器和解碼器之間,引入了結合動態蛇形卷積的雙重注意力機制的跳躍連接,以更有效地預測車道線的具體位置。

在檢測階段中,采用了一種改進的Gamma矯正算法來優化輸入的車載圖像,增強每一張圖片的對比度,提升了圖像的質量并改善低曝光或光照不足等因素對車道線檢測的影響。經過訓練的網絡模型將對這些優化后的輸入圖像進行車道線檢測。

1.1" 動態蛇形卷積替換常規卷積

本節內容旨在探討如何利用動態蛇形卷積技術提取車道線窄結構中的局部特征。在給定的標準二維卷積坐標為K的情況下,中心坐標被定義為Ki=(xi,yi)。3×3的內核K在擴張為1的情況下表示為:

K=x-1,y-1,x-1,y,…,x+1,y+1。(1)

為了使卷積核能夠更加靈活地捕捉目標對象的復雜幾何特性,引入形變偏移量Δ。對于不同形狀、大小和尺度的對象,相應的變形偏差值各異,且當這些對象處于運動狀態時,這種偏差關系難以直接觀測。若完全由模型自主學習形變偏差量,可能會導致感知場偏離目標對象,特別是在處理車道線的細長結構時。因此,采用了一種迭代策略如圖4所示,為每個待處理的目標依次選擇要觀察的后續位置,以確保注意力的連續性,同時避免因形變偏移過大而導致感知范圍過度分散。

在動態蛇形卷積(DSConv)中,對標準卷積核進行了X軸和Y軸方向的拉直處理??紤]大小為9的卷積核,以 X 軸方向為例,K中每個網格的具體位置表示為Ki±c=(xi±c,yi±c),其中c={0,1,2,3,4}表示與中心網格的水平距離。卷積核K中每個網格位置Ki±c的選擇是一個累積過程。從中心位置 Ki 開始,遠離中心網格的位置取決于前一個網格的位置:與 Ki 相比,Ki+1增加了一個偏移量Δ={δ|δ∈[-1,1]}。因此,偏移量需要求和,從而確保卷積核符合線性形態結構。

圖4的 X 軸方向變為:

Ki±c=xi+c,yi+c=xi+c,yi+Σi+ciΔyxi-c,yi-c=xi-c,yi+Σii-cΔy。(2)

Y 軸方向上的公式(2)變為:

Kj±c=xj+c,yj+c=xj+Σj+εjΔx,yj+cxj-c,yj-ε=xj+Σjj-εΔx,yj-c。(3)

如圖5所示,由于二維(X軸、Y軸)的變化,DSConv在變形過程中覆蓋了9×9的范圍。根據動態結構設計的DSConv能更好地適應車道線的長窄狀結構,從而更好地感知關鍵特征。

1.2" 融合雙注意力機制的跳躍連接設計

跳躍連接是UNet網絡架構與其他編碼器-解碼器模型的顯著區別之一。鑒于車道線檢測任務常伴隨邊界模糊的特性,因此需要較為充分地利用淺層特征以實現精準的分割,而深層特征則有助于更準確地識別圖像中的車道線。跳躍連接的設計思想在于將淺層和深層特征圖相互融合,以便有效地整合多尺度的信息,從而獲取更為準確的上下文信息。

1.2.1" 空間注意力機制

局部信息無法很好地處理模糊車道的問題。在這種情況下,必須考慮全局上下文。因此,本研究使用空間注意力機制,旨在精準捕捉圖像的全局上下文信息。該機制通過融合特征圖中每個像素的位置信息以及像素本身的特性,增強對車道線具體位置的準確預測能力。

如圖6所示,在編碼過程的各個層級中,基于每層提取得到的特征F∈RC×H×W,利用前文介紹的動態蛇形卷積技術,能夠生成一系列新的特征圖F1、F2和F3,首先對F1和F2執行變形操作,將這些特征圖重塑為RC×N的尺寸,其中N=H×W,對重塑后的特征圖進行轉置處理,并執行兩者之間的矩陣乘法。再通過引入softmax層來構建空間注意力圖,該圖表示為S∈RN×N,其原理如式(4)所示:

Sji=expF1i·F2j∑Ni=1exp (F1i·F2j),(4)

其中,Sji映射了特征圖內任意兩點位置i和j之間的相關性。然后對得到的特征圖序列F3∈RC×H×W 轉化為RC×N的形式,然后執行該特征圖與經過轉置的S矩陣乘法,并將結果變形為RC×H×W,將此結果與參數α執行乘法操作,再與原始特征圖F進行加法運算,最終得到結果E∈RC×H×W。如式(5)所示:

Ej=α∑Ni=1SjiF3i+Fj,(5)

在該式中,參數α初始設定為零,并在網絡訓練過程中進行動態調整與優化。通過引入空間注意力機制,實現了對特征圖中各個空間位置的特征進行加權處理,賦予了它們不同的重要性權重。此種方法優化了特征提取過程,使得模型在處理圖像時,能更準確地識別圖像特征。

1.2.2" 通道注意力機制

如圖7所示的通道注意力機制首先將特征圖F∈RC×H×W通過變形處理轉化為F∈RC×N,F與其自身的轉置進行乘法計算,在此基礎上,引入softmax層,從而獲得通道注意力特征圖F∈RC×C,該過程如公式(6)所示:

Xji=expFi·Fj∑Ci=1exp (Fi·Fj),(6)

Xji能展示特征通道i和j之間的相互關系。在此基礎上,將X進行轉置處理,隨后與F進行矩陣乘法,進一步通過reshape變形至RC×H×W 。最終,通過將結果與參數β進行乘法運算并和F進行加法運算,得到的最終輸出為E∈RC×H×W。如公式(7)所示:

Ej=β∑ci=1xjiFi+Fj。(7)

與空間注意力機制相似,初始時將參數β設定為零。隨著網絡訓練的進行,該參數將不斷更新。

1.3" 基于改進Gamma算法的圖像矯正

在圖像預處理階段中融入了改進的自適應Gamma校正算法,以提高在低照明或陰影條件下車道線檢測的準確率,具體步驟如下所示:

(1)對待處理的輸入圖像進行色彩空間轉換,由RGB轉至HSV,并將其標識為I。隨后,從該圖像中提取亮度分量IV。

(2)利用雙邊濾波技術對亮度分量IV進行處理,以提取出光照分量IS,并獲取相應的空域核和值域核如公式(8)所示:

ISi,j=∑mnIVm,nωi,j,m,n∑mnωi,j,m,n。(8)

雙邊濾波算法結合了空間鄰近度和像素值相似度的考慮,使得算法能夠在盡可能保留車道線等重要邊緣特征的同時,有效降低圖像噪聲。濾波核ω包括空域核和值域核,其計算過程如公式(9)所示:

ωi,j,m,n=exp-(i-m)2+(j-n)22σ2d-‖I(i,j)-I(m,n)‖22σ2r,(9)

式中:IS(i,j),IV(m,n)分別為坐標(i,j)和(m,n)處的光照分量與亮度分量;σd,σr分別為空間鄰近高斯函數標準差和像素值相似度高斯函數標準差。

(3)在優化版的Gamma校正方法中,校正參數γ對圖像中各個像素位置的照明分量IS(i,j) 執行自適應調整。該過程如公式(10)~(11)所示:

γ=ISi,j+α1+α,(10)

α=1-2 ISImaxi,j+Imini,j+1。(11)

校正后的像素光照分量見公式(12):

IS′i,j=255ISi,j255γ,(12)

式中:IS、Imax( i,j )、Imin ( i,j )為校正前圖像的平均光照分量、最大光照分量及最小光照分量。圖8展示了利用改進版Gamma校正算法對車載圖像處理前后的效果對比。此算法調整導致了圖像中中等至高灰度動態范圍顯著增加,并有效緩解了低灰度區域的像素聚集問題,從而提高了車輛、車道線及其周圍環境的對比度,進而顯著提高了圖像的整體質量。

2" 實驗與結果分析

2.1" 測試環境

本研究模型主要在Windows 11操作系統環境下構建,并采用Python語言作為主要編程工具。在圖像處理環節,選擇OpenCV庫作為核心框架,借助其提供的豐富功能對圖像進行預處理。而深度學習模型的構建、訓練、測試及性能驗證則均基于PyTorch框架下進行。實驗的具體配置細節詳見表1。

2.2" 數據集

采用了TuSimple數據集來評估所提出的車道線檢測算法,并對模型執行了詳細的訓練與測試流程。該數據集包含3 626張用于訓練的圖像以及2 782張用于測試的圖像,所有圖像均在晴朗或多云的天氣條件下捕獲,涵蓋了日間不同天氣狀況和交通情境下的高速公路場景。訓練圖像附帶的標注信息存儲于JSON格式,這為訓練過程提供了便利。TuSimple數據集的樣本展示見圖9。

2.3" 評價標準

在相同條件下使用TuSimple數據集官方提供的準確度(AC)、F值以及mIoU,AC的計算如公式(13)所示:

AC=∑CpCg,(13)

式中:Cp表示預測正確的車道線點數,Cg表示標注的車道線真值點數。

F值,也稱作F1得分,為評價模型表現的關鍵指數,它將準確率P與召回率R這兩項度量綜合運算,得出的是這兩者的加權調和平均數。F1分數通過平衡這兩個指標,提供了一個單一指標來評估模型的整體性能,特別是在正負樣本不平衡的情況下。在模型性能評估中,F1分數越高,表示模型的準確率和召回率越均衡,模型的性能越優秀。如公式(14)~(16)所示:

P=TpTp+Fp,(14)

R=TpTp+Fn,(15)

F1=1+β2·R·Pβ2·R+P,(16)

式中:Fp為假正例(將負樣本誤判為正樣本的情況),Fn為假負例(將正樣本誤判為負樣本的情況),Tp為真正例(模型正確識別出的正樣本),β為準確率和召回率的權重分數。

此外,鑒于本研究采用的網絡屬于語義分割領域,因此平均交并比(mIoU)也被作為評價模型性能的關鍵指標之一。mIoU的計算如公式(17)所示:

平均交并比=1nc∑iniiti+∑jnji-nii,(17)

式中:ti是實際情況下類別i的像素總數,nc表示類別總數,nji表示預測屬于類別j的i類像素的數量。

2.4" 定量評估

對近年來提出的多種車道線檢測算法進行定量對比分析。實驗中將本文提出的模型分別與PolyLaneNet[16],Segnet-Res34[17],SCNN,LaneNet,VGG-LaneNet進行對比。表2為本文方法與其他幾種算法在TuSimple數據集上的實驗對比結果。為了保證實驗的公平性,所有模型的輸入圖像均經過相同的預處理步驟。這些步驟包括統一調整圖像分辨率和應用Gamma校正,以確保輸入數據的一致性。這些處理步驟在不同模型的訓練和測試過程中均保持一致,以確保對比的公平性。

由表2可知,本研究開發的網絡模型在平均交并比(mIoU)上達到了70.11%,該結果超越了表中列出的其他基于分割的車道線檢測方法,從而充分證明了該網絡模型在準確分割各種場景中的車道線方面的優越性。值得注意的是,mIoU指標并不適用于如PolyLaneNet這類基于檢測的車道線識別算法。

在處理速度方面,本文采用指標幀率(frames per second,FPS)衡量算法的實時性,所提出的網絡模型能夠以每秒44.5幀的速度進行車道線識別,這一速度與采用分割方法的其他車道線識別網絡相當或略勝一籌,盡管與采用檢測技術的車道線識別網絡相比略低。但本模型在確保實時處理能力的前提下,在車道線檢測的準確率上表現更為出色,達到了98.45%。這一結果凸顯了模型在保持高速處理能力的同時,也能實現高精度檢測,顯示了在檢測精度與處理速度之間取得了有效的平衡,從而在車道線識別任務中展現了卓越的綜合性能。

2.5" 消融實驗

為了進一步評估本研究中所采用的網絡模塊的性能,在一致的實驗參數設置下開展了一系列對比實驗。首先,為了驗證Gamma矯正預處理的有效性,在不改變模型結構的情況下,單獨測試了預處理方法的影響。接著,在固定預處理方法的基礎上,對比不同模型結構的性能,實驗結果詳見表3。

分析結果表明,使用Gamma矯正預處理后,車道線的識別效率有所提升。這表明Gamma矯正能夠有效地增強圖像中的車道線特征,從而提高檢測性能。進一步地,整合了雙重注意力機制后,車道線的識別效率進一步增強,表明雙注意力機制能夠有效集中對圖像中車道線特征的提取,同時抑制非關鍵的干擾信息。當在雙重注意力機制中加入動態蛇形卷積后,車道線檢測的準確性獲得了進一步的提高。這表明動態蛇形卷積能夠更有效地捕捉車道線細長結構的特征,從而提高檢測性能。

2.6" 可視化評估

設計的網絡模型與LaneNet模型的可視化對比實驗結果展示于圖10,所用的實驗圖像取自TuSimple數據集。通過圖10觀察可以發現LaneNet模型在車道線的擬合上存在不足,而提出的網絡模型在車道線檢測任務上,相較于真實標注,展現出了更優異的檢測性能。針對LaneNet模型在車道線檢測中出現的漏檢問題,在圖像中用紅色線框明確標注出了未被識別的部分。通過整合動態蛇形卷積與雙重注意力機制,提出的模型有效地捕獲了輸入圖像的全局上下文特征,并細致處理了車道線的細節。實驗結果證明了改進措施的有效性。

圖11展示了提出的網絡模型在TuSimple數據集的測試分組中的視覺效果圖,對多種典型情景進行了分析。在本研究中,考慮到的場景涵蓋了遮擋、陰影、多車道以及曲線道路等復雜條件。觀察結果顯示,本文所采用的車道線檢測方法在這些環境下均展現了出色的性能表現。

3" 總結

(1)提出了一種高效的車道線語義分割方法。在模型訓練階段,通過引入雙重注意力機制,使得模型更加集中于車道線特征的提取,顯著提升了其在車道線檢測方面的靈敏度及辨別能力。

(2)通過替換注意力機制中的標準3×3卷積層為動態蛇形卷積層,有效地增強了模型對車道線幾何形態的學習能力。實驗結果證實,采用雙重注意力機制能顯著提高分割精度,而動態蛇形卷積的應用則在提升F1評分方面尤為突出。并通過整合ASPP模塊,既優化了細節特征的表達,也顯著降低了模型參數量,提高了處理效率。

(3)在檢測階段,引入了Gamma校正算法,以增強中高灰度區域的動態范圍,改善低曝光區域的圖像亮度,有效提高了低曝光圖像中車道線的識別度,進而減少了車道線的漏檢與誤檢情況。

參考文獻:

[1]WAYKOLE S, SHIWAKOTI N, STASINOPOULOS P. Review on lane detection and tracking algorithms of advanced driver assistance system[J]. Sustainability, 2021, 13(20): 11417. DOI: 10.3390/su132011417.

[2]劉富強, 張姍姍, 朱文紅, 等. 一種基于視覺的車道線檢測與跟蹤算法[J]. 同濟大學學報(自然科學版), 2010, 38(2): 223-229. DOI: 10.3969/j.issn.0253-374x.2010.02.013.

[3]胡彬, 趙春霞. 基于概率霍夫變換的快速車道線檢測方法[J]. 微電子學與計算機, 2011, 28(10): 177-180. DOI: 10.19304/j.cnki.issn1000-7180.2011.10.046.

[4]ZRN J, VERTENS J, BURGARD W. Lane graph estimation for scene understanding in urban driving[J]. IEEE Robotics and Automation Letters, 2021, 6(4): 8615-8622. DOI: 10.1109/LRA.2021.3111433

[5]何旭光, 江磊, 羅一平, 等. 基于Hough變換的車道線檢測算法設計[J]. 農業裝備與車輛工程, 2019, 57(11): 90-91. DOI: 10.3969/j.issn.1673-3142.2019.11.022.

[6]TIAN J, LIU S W, ZHONG X Y, et al. LSD-based adaptive lane detection and tracking for ADAS in structured road environment[J]. Soft Computing, 2021, 25(7): 5709-5722. DOI: 10.1007/s00500-020-05566-4.

[7]PIZZATI F, GARCIA F. Enhanced free space detection in multiple lanes based on single CNN with scene identification[C]//2019 IEEE Intelligent Vehicles Symposium (IV). Paris: IEEE, 2019: 2536-2541. DOI: 10.1109/ivs.2019.8814181.

[8]PAN X G, SHI J P, LUO P, et al. Spatial as deep: Spatial CNN for traffic scene understanding[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2018, 32(1).DOI: 10.1609/aaai.v32i1.12301.

[9]CHEN Q, WANG Z, LONG B, et al. Three branch net lane detection on complex road conditions[C]//2019 IEEE International Conference on Systems, Man and Cybernetics (SMC). IEEE, 2019: 3480-3485. DOI: 10.1109/SMC.2019.8913940.

[10]NEVEN D, DE BRABANDERE B, GEORGOULIS S, et al. Towards end-to-end lane detection: An instance segmentation approach[C]//2018 IEEE Intelligent Vehicles Symposium (IV). Changshu: IEEE, 2018: 286-291. DOI: 10.1109/ivs.2018.8500547.

[11]HOU Y N, MA Z, LIU C X, et al. Learning lightweight lane detection CNNs by self attention distillation[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE, 2019: 1013-1021. DOI: 10.1109/iccv.2019.00110.

[12]劉彬, 劉宏哲. 基于改進Enet網絡的車道線檢測算法[J]. 計算機科學, 2020, 47(4): 142-149. DOI: 10.11896/jsjkx.190500021.

[13]KIM J, LEE M. Robust lane detection based on convolutional neural network and random sample consensus[M]//Neural Information Processing. Cham: Springer International Publishing, 2014: 454-461. DOI: 10.1007/978-3-319-12637-1_57.

[14]FU J, LIU J, TIAN H J, et al. Dual attention network for scene segmentation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. IEEE, 2019: 3141-3149. DOI: 10.1109/cvpr.2019.00326.

[15]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 770-778. DOI: 10.1109/cvpr.2016.90.

[16]CHEN Z P, LIU Q F, LIAN C F. PointLaneNet: Efficient end-to-end CNNs for Accurate Real-Time Lane Detection[C]//2019 IEEE Intelligent Vehicles Symposium (IV). Paris, France. IEEE, 2019: 2563-2568. DOI: 10.1109/ivs.2019.8813778.

[17]CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848. DOI: 10.1109/TPAMI.2017.2699184.

主站蜘蛛池模板: 亚洲三级影院| 亚洲天堂福利视频| 超薄丝袜足j国产在线视频| 亚洲男人的天堂网| 69综合网| 国产欧美日韩免费| 精品视频在线观看你懂的一区| 欧美国产日本高清不卡| 国产视频欧美| 91黄色在线观看| 免费AV在线播放观看18禁强制| 久久综合AV免费观看| 欧美激情一区二区三区成人| 国产午夜一级毛片| 人人91人人澡人人妻人人爽| 青青草国产精品久久久久| 久久天天躁狠狠躁夜夜2020一| 日本人又色又爽的视频| 不卡无码网| 亚洲国产成人久久精品软件| 亚洲欧州色色免费AV| 日韩精品一区二区深田咏美| 免费全部高H视频无码无遮掩| 亚洲区欧美区| 国产va视频| 久久人妻xunleige无码| 久久无码av三级| 天天干天天色综合网| 成年人视频一区二区| 红杏AV在线无码| 波多野结衣在线一区二区| 一本大道香蕉中文日本不卡高清二区| 久久96热在精品国产高清| 亚洲精品成人7777在线观看| 欧美人与性动交a欧美精品| 精品福利视频导航| 欧美日韩成人| 国产无吗一区二区三区在线欢| 亚洲国产清纯| 亚洲无码A视频在线| 91精品国产麻豆国产自产在线| 国产特一级毛片| 日韩a级片视频| 国产成人综合亚洲欧美在| 午夜爽爽视频| 亚洲男人天堂2020| 亚洲欧美日韩中文字幕在线| 色婷婷啪啪| 亚洲无码四虎黄色网站| 色色中文字幕| 国产一区二区网站| 国产69精品久久久久妇女| 国产成人精品在线| 国产精品美女免费视频大全 | 亚洲电影天堂在线国语对白| 亚洲国产精品VA在线看黑人| 国产成人一区免费观看| 香蕉eeww99国产精选播放| 欧美精品1区2区| 日韩欧美国产三级| 麻豆a级片| 九九精品在线观看| 无遮挡国产高潮视频免费观看| 91精品亚洲| 欧美中出一区二区| 欧美日韩国产在线人| 国产91在线|中文| 亚洲中文久久精品无玛| 这里只有精品国产| 国产乱子伦一区二区=| 欧美成人看片一区二区三区 | 国产夜色视频| 久久香蕉国产线| 亚洲精品无码在线播放网站| 国产在线观看99| 亚洲三级电影在线播放| 全色黄大色大片免费久久老太| 日韩欧美国产综合| 国产jizzjizz视频| 精品国产99久久| 国产成人精品优优av| 国产欧美日韩视频怡春院|