999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

零參考樣本下的夜間車道線檢測方法*

2023-05-12 02:26:26李曉旋徐晨苗
計算機與數(shù)字工程 2023年1期
關鍵詞:檢測方法

李曉旋 徐晨苗 徐 源

(長安大學 西安 710018)

1 引言

近年來,大量性能可靠的車道線檢測方法被提出,已經(jīng)能夠應對常規(guī)場景,但復雜多變的道路狀況及光照條件給車道線檢測算法帶來一定的挑戰(zhàn),在遮擋、陰影及光照影響的場景下,提高車道線檢測算法的準確性和適用性,是一個難點問題。

深度學習的發(fā)展為車道線檢測提供了新方向。Neven等[1]提出一種雙分支結構的車道線分割網(wǎng)絡LaneNet,并設計了HNet 網(wǎng)絡來學習鳥瞰圖變換的變換矩陣,便于檢測和擬合不同彎曲程度的車道線。Hou等[2]提出了一種自頂向下逐層的自注意蒸餾模塊,在不需要任何額外的監(jiān)督的情況下,提高了車道線檢測準確率。ERFNet[3]是一種結合殘差連接和分解卷積的語義分割網(wǎng)絡,在降低模型計算復雜度的基礎上提高了分割精度。本文將ERF?Net 網(wǎng)絡應用于車道線檢測中,其平均F1-measure達到73.08%,運行時間為16.1ms。但在有遮擋、陰影和夜晚的場景中,該方法的檢測準確率較低。

充分利用車道線細長的空間結構,是提高車道線檢測準確率的關鍵。Pan等[4]提出了一種空間卷積神經(jīng)網(wǎng)絡(Spatial CNN,SCNN),該方法能有效地獲取圖像中行和列之間的空間關系,但難以滿足實時性要求。而Qin等[5]提出了一種基于結構感知的快速車道線檢測算法(Ultra Fast Structure-aware Deep Lane Detection,UFLD),該方法通過對車道線圖像網(wǎng)格化,將逐像素分類問題轉化成預測每一行車道線的位置,實現(xiàn)了較快的推理速率,但檢測準確率低。為了平衡準確率和運算速度,本文將自注意力機制引入到ERFNet 中,提出了SA-ERFNet 網(wǎng)絡,在保證實時性的同時提高了遮擋、陰影等場景中的檢測準確率。

低照度車道線檢測方法主要有低照度增強和基于深度學習的數(shù)據(jù)增強兩類方法。王杰等[6]提出了一種基于雙邊濾波的Retinex 圖像增強算法改善弱光圖像。周經(jīng)美[7]采用改進Gamma 校正對圖像預處理,消減光照不均勻的環(huán)境干擾,增強了車道線紋理。Liu 等[8]利用RandAugment 數(shù)據(jù)增強方法和風格轉換方法AdaIN,從兩個方面對車道線圖像數(shù)據(jù)進行有針對性的增強。SIM-CycleGAN[9]利用生成對抗網(wǎng)絡生成弱光條件下的圖像,但該方法增加了模型的訓練時間,且需要白天和夜晚成對圖像進行訓練。

零參考樣本下的曲線估計網(wǎng)絡(Zero-Refer?ence Deep Curve Estimation,Zero-DCE)[10]通過估計像素和高階曲線的動態(tài)范圍調(diào)整給定的圖像,僅使用夜晚圖像樣本即可獲得圖像的高階增強曲線參數(shù)。本文將Zero-DCE網(wǎng)絡應用于夜間車道線檢測中,在SA-ERFNet 網(wǎng)絡前端進行零參考樣本增強,重構出一幅對比度強、視覺質(zhì)量好的夜間行車圖像。

2 零參考樣本下的圖像增強

2.1 高階亮度增強曲線

定義像素級的光照增強曲線:

其中,x 為像素坐標,I(x)為圖像數(shù)據(jù),Α[- 1,1]為可訓練的曲線參數(shù)。為了解決使用全局參數(shù)導致的局部區(qū)域過增強或欠增強等質(zhì)量退化問題,將參數(shù)Α定義為與圖像同維度的像素級參數(shù)。通過不斷迭代二次曲線,獲得更高階的曲線,進一步獲得更好的增強效果。其迭代公式為

其中,An為第n次迭代的像素級參數(shù),n設置為8。

2.2 深度曲線估計網(wǎng)絡

深度曲線估計網(wǎng)絡由7 層卷積層組成,前六層進行卷積核為3×3、步長為1 的卷積操作,并使用ReLU 作為激活函數(shù),輸出通道數(shù)為32。最后一層進行卷積核為3×3、步長為1的卷積操作,采用Tanh作為激活函數(shù),輸出通道數(shù)為24。網(wǎng)絡結構如圖1所示。

圖1 零參考樣本下的圖像增強網(wǎng)絡結構

圖像增強后的結果如圖2 所示,可以看出,夜間行車圖像亮度提升、視覺效果良好。

圖2 圖像增強前后對比

3 車道線檢測網(wǎng)絡

為了減少參數(shù)和運行時間,本文將ERFNet 作為基準網(wǎng)絡。針對車道線形狀細長的特點,本文提出了一種基于注意力機制的車道線檢測網(wǎng)絡SA-ERFNet,如圖3所示。

圖3 車道線檢測模型

3.1 編碼-解碼器

編碼器由下采樣塊和Non-bt-1D 塊(Non-bot?tleneck-1dimension)組成。下采樣塊將分別經(jīng)過卷積和最大池化操作得到的特征圖在通道維度上拼接,以獲取更豐富的特征。Non-bt-1D塊將兩個3×3 的卷積用兩組3×1、1×3 的非對稱卷積代替,并利用殘差連接融合輸入與輸出的特征。如圖4 所示,其中w 表示輸出特征圖的數(shù)量。為充分利用上下文信息,語義分割網(wǎng)絡ERFNet 第9~16 層的Non-bt-1D 塊使用空洞卷積,并設置擴張系數(shù)為2、4、8、16。

圖4 Non-bt-1D塊

解碼器由反卷積塊和Non-bt-1D 塊組成。解碼器利用提取到的圖像特征和語義信息進行學習、推理,對原始圖像中的像素進行分類,輸出車道線概率。

3.2 自注意力模塊

根據(jù)方向,將SA 模塊分為HAS 模塊和VSA 模塊,兩個模塊具有相同的編碼結構fsa,如圖5 所示,表示水平方向上的編碼結構,表示垂直方向上編碼結構,兩者輸入都為編碼器輸出的特征圖,區(qū)別在于全連接層Linear2 輸出的特征圖尺寸分別為C×H×1、C×1×W,其中C 為車道數(shù),H 為圖像的高度,W位圖像的寬度。對于HSA模塊,將輸出特征圖在水平方向上以尺寸W 擴展為原始圖像大小,得到擴展矩陣,其中每一行具有相同的元素值。對于VSA 模塊,將輸出特征圖在垂直方向上以尺寸H擴展為原始圖像大小,得到擴展矩陣,其中每一列具有相同的元素值。最后,將HAS 模塊和VSA 模塊輸出的擴展矩陣逐像素相加進行特征融合,得到權重圖。

圖5 SA網(wǎng)絡結構,按方向分為HAS模塊和VSA模塊

加權概率圖的計算公式為Epred=Ppred⊙Msa,其中,Ppred為解碼器輸出的車道概率圖,Msa為SA模塊輸出的權重圖,⊙表示按像素相乘。

4 實驗

4.1 數(shù)據(jù)集

CULane 數(shù)據(jù)集共有133235 張1640×590 的圖像,其中88880 張訓練集、9675 張驗證集和34680張測試集。CULane 數(shù)據(jù)集共包含正常、遮擋、夜晚、彎道等9類道路場景。

4.2 實驗設置及評價指標

本文實驗使用的硬件設備為PC、顯卡型號Ge?Force GTX 1050ti 6GB、內(nèi)存16GB,編譯環(huán)境為Py?torch 1.2.0、Tensorflow1.13.2、python3.6。由于GPU內(nèi)存有限,在訓練之前將圖片大小調(diào)整到820×295。

將擬合的車道線和真實標簽進行比較,計算真實車道線與預測車道線的交并比IoU。當該IoU 大于設置的閾值0.5 時,認為預測的該車道線為真正預測正確的車道線,即為TP,否則為FP。本文使用F1-measure為最終的評估標準,其計算方法為

其中,β設置為1,精確率(Precision)計算方法為

召回率(Recall)計算方法為

4.3 實驗結果與分析

4.3.1 SA-ERFNet網(wǎng)絡有效性驗證

為驗證SA-ERFNet方法有效性,選擇SCNN[4]、UFLD[5]、SAD[2]和ERFNet[3]進行對比,如表1 所示。其中,Crossroad 類僅顯示FP,其他類指標為F1-measure。SA-ERFNet 與ERFNet 方 法 相 比,Night 類的F1-measure 增加了0.87%,Crowd 類的F1-measure增加了2.12%,Shadow增加了3.29%,其他類別的檢測精度也均有不同程度的提升。實驗結果表明,本文的SA-ERFNet 車道線檢測方法可以提高遮擋、陰影等場景的檢測準確率。

將ERFNet 與SA-ERFNet 進行對比實驗,可視化結果如圖6 所示。可以看出,SA-ERFNet方法在遮擋、陰影場景下的檢測結果更好,但夜間車道線檢測結果稍差,需進一步進行夜間行車圖像增強。

圖6 ERFNet與SA-ERFNet對比結果圖

4.3.2 零樣本增強+SA-ERFNet 方法的有效性驗證

將本文零樣本增強方法與SIM-CycleGAN[9]、StarGAN[11]和EnlightenGAN[12]等數(shù)據(jù)增強方法進行對比實驗。其中,車道線檢測網(wǎng)絡均使用SA-ERF?Net,可視化結果如圖7 所示。實驗結果表明,由于車燈、路燈等光源的綜合影響,SA-ERFNet 對車道線區(qū)域判斷錯誤,出現(xiàn)了漏檢現(xiàn)象。基于風格轉換的數(shù)據(jù)增強方法一定程度上減少了漏檢的車道線像素,車道線邊界的分割效果和車道線連續(xù)性增加,但仍存在車道線的像素點分布較離散的問題。

圖7 數(shù)據(jù)增強方法對比結果圖

將本文零樣本增強與Retinex[13]、DUAL[14]和AdGamma[15]圖像增強方法進行對比實驗。其中,車道線檢測網(wǎng)絡均使用SA-ERFNet,可視化如圖8所示。這些算法提升了圖像的亮度,但預處理后的結果圖像含有明顯的偽影噪聲,不利于車道線的檢測和提取。而本文的零樣本增強方法可以有效地解決圖像增強后圖像存在的偽影問題,并且具有更高的檢測準確率。

圖8 低照度圖像增強方法對比結果圖

表2 給出了上述各種方法的檢測數(shù)據(jù)。數(shù)據(jù)增強方法中,SIM-CycleGAN 方法獲得最好的檢測精度69.47%。低照度增強方法中,AdGamma 方法獲得最好的檢測精度69.12%。而本文方法在夜晚場景下表現(xiàn)最佳,F(xiàn)1-measure 達到了69.91%,比數(shù)據(jù)增強方法的車道線檢測結果平均提高了1.92%,比低照度圖像增強方法的車道線檢測結果平均高出3.41%。

5 結語

本文提出了一種零參考樣本下的圖像增強和自注意力機制相結合的夜間車道線檢測方法。首先,通過圖像增強曲線學習低照度圖像與增強圖像的映射參數(shù),生成清晰度更高,更加自然、逼真的夜間行車圖像。然后,在基于語義分割的車道線檢測網(wǎng)絡ERFNet 中引入自注意力機制,通過預測圖像中的遮擋位置提取全局上下文信息。實驗結果表明,本文方法在白天正常情況下具有與ERFNet 相當?shù)臏蚀_率,而在遮擋、夜晚等復雜場景下具有良好的性能表現(xiàn)。

猜你喜歡
檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
學習方法
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 日本亚洲欧美在线| 五月婷婷伊人网| 少妇人妻无码首页| 九色综合视频网| 午夜综合网| 99中文字幕亚洲一区二区| 国产一级片网址| 精品国产福利在线| 国产精品亚欧美一区二区| 国产门事件在线| 四虎影视无码永久免费观看| 国产综合精品一区二区| 亚洲国产高清精品线久久| 日韩午夜伦| 欧美亚洲欧美区| 国产精品视频免费网站| 成人综合久久综合| 亚洲av日韩av制服丝袜| 精品无码日韩国产不卡av| 国产美女91视频| 国产日本欧美亚洲精品视| 97国产一区二区精品久久呦| 亚洲av无码牛牛影视在线二区| 97综合久久| 99热这里只有精品在线播放| 99ri国产在线| 国产精品深爱在线| 亚洲国产精品日韩专区AV| 国产成熟女人性满足视频| 欧美日韩一区二区在线播放| a级毛片免费网站| 亚洲第一在线播放| 欧美成人二区| 国产成人欧美| 久久9966精品国产免费| 99久视频| 亚洲精品中文字幕无乱码| 日韩精品高清自在线| 国产网站黄| 欧美在线伊人| 中文字幕66页| 国产AV毛片| 国产尹人香蕉综合在线电影| 97成人在线视频| 91九色国产在线| 一本一本大道香蕉久在线播放| 国产一二视频| 欧美a√在线| 日韩av资源在线| 中国毛片网| 日韩av资源在线| 日韩第八页| 免费观看男人免费桶女人视频| 久久亚洲AⅤ无码精品午夜麻豆| 国产91视频观看| 亚洲综合狠狠| 亚洲一区二区在线无码| 一级毛片在线播放| 伊人91在线| 国产91av在线| 51国产偷自视频区视频手机观看| 日韩免费中文字幕| 久久综合色视频| 白丝美女办公室高潮喷水视频| 啪啪啪亚洲无码| 国产导航在线| 57pao国产成视频免费播放| 免费一级无码在线网站| 亚洲高清国产拍精品26u| 成人午夜视频免费看欧美| 国产成人资源| 亚洲欧美日韩精品专区| 亚洲人人视频| 免费视频在线2021入口| 丰满人妻被猛烈进入无码| 国模粉嫩小泬视频在线观看| 久久精品66| 亚洲人成在线精品| 99热这里只有精品在线播放| 精品少妇人妻无码久久| 国产一区二区福利| 国产成人做受免费视频|