999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于視覺的車輛與車道線檢測系統的設計

2023-12-29 00:00:00高晉先馬文博李凱孔令名
專用汽車 2023年1期

摘要:隨著汽車的軟硬件迅猛發展,智能駕駛已成為熱門領域。為提高汽車的行駛安全性,發展環境感知技術至關重要,其中視覺傳感器獲取信息直觀且成本低廉,已成為智能汽車提高行駛安全性的優先選擇方式。據此,基于視覺的車輛與車道線檢測方法,進行了系統設計,并以數字圖像處理為理論基礎,分析了車輛與車道線識別的步驟和檢測,同時利用Python編寫代碼,經過運行達到了預期的設計目標。

關鍵詞:自動駕駛;視覺;數字圖像處理;車輛檢測;車距檢測

中圖分類號:U467" 收稿日期:2022-08-08

DOI:10.19999/j.cnki.1004-0226.2023.01.017

1 研究背景及意義

研究智能汽車的主要目的是在汽車行駛時提高行車的舒適性、安全性并實現良好的人車交互。而智能汽車的核心問題是保證汽車的安全駕駛。近年來,我國的機動車保有量飛速增長,在很大程度上方便了人們的日常生活以及出行,但同時帶來的交通問題也不容小覷。

在上世紀末,汽車行業中主要通過研究被動安全技術提升行駛安全。隨著被動安全技術日益完善,近年來,科研學者把研究目標轉向主動安全技術。主動安全技術的應用有效地降低了事故發生的概率,為實現L3級及以上的自動駕駛打下了基礎。目前,互聯網、初創公司、造車新勢力和傳統車企紛紛布局自動駕駛技術的研究,其中自動駕駛商業化運營已穩步推進。

在“駕駛員—汽車—環境”這個“以人為本”的系統中,“駕駛員”屬于不確定的因素而存在,駕駛員的不合理行為將導致交通效率低下,必然具有顯著的局限性。因此,汽車設計者應該改變思路,力求將駕駛員從系統中“剔除”,利用環境感知傳感器獲取信息代替駕駛員的觀察,從而提高汽車的行駛安全性。其中,汽車上常用的環境感知傳感器包括攝像頭、激光雷達、毫米波雷達等。自動駕駛汽車的整體架構如圖1所示。

2 國內外研究現狀

2.1 計算機視覺國內外研究現狀

數字圖像處理技術借助計算機技術取得了較大的發展,基于視覺傳感器獲取信息直觀且成本低廉,已成為科研學者的研究重點。計算機視覺就是研究通過機

器來看世界,它是人工智能的一個分支。類比于人類,計算機視覺是指通過用攝影頭發揮出人眼的作用——感知和獲取周圍環境信息,識別目標并進行檢測,通過識別算法處理圖像信息,最后將處理的圖像輸出或者顯示出來,在這個過程中計算機內的一系列算法就相當于人腦。

20世紀八九十年代,國外發達國家已開展計算機視覺技術的研究。谷歌公司、Mobileye等科技公司已有成熟產品進入市場。國內雖然對于計算機視覺技術進行了一些研究,但是相對于發達國家,仍然十分落后,這種情況在2010年獲得改變。2010年后計算機視覺技術發展形勢越來越迅猛,計算機視覺技術在人臉識別、損傷檢測等方面也得到了廣泛應用。

2.2 車距檢測國內外的研究現狀

對于自動駕駛,車距檢測是十分基礎且必不可少的功能。它能為汽車的自動緊急制動系統和前車碰撞預警系統提供距離信息。在汽車行駛過程中,通過車距檢測自車與行人及其他交通參與車輛的距離,通過邏輯判定是否處于安全距離,若在提示安全距離閾值之內,一般會先觸發前車碰撞報警系統提醒駕駛員,隨著距離的接近,提示音會變急促且尖銳。相應地,在提示安全距離閾值內還有緊急制動安全距離閾值,若在緊急制動安全距離閾值內則會進行緊急制動。若在提示安全距離閾值之外,則系統不進行處理。

視覺是人類最為重要的感觀系統。對于自動駕駛汽車來說,同樣需要機器視覺來獲取汽車行駛過程中的信息。目前,基于機器視覺,測距技術主要分為單目視覺測距、雙目視覺測距以及多目視覺測距。單目視覺測距通過目標的像素信息結合攝像機的內外參數計算得到,這主要依賴于攝像機標定。同時,得到目標的三維信息也是一項重要的需求,單目相機可以利用光流技術或者特征匹配技術實現該需求。雙目測距系統為了計算出目標物體的距離,使用了兩個相機,然后根據目標在相機中的像素位置結合間距和焦距信息實現測距功能,這與人類雙眼看事物原理一致。

當前,對于汽車防碰撞輔助駕駛系統,為檢測車道和前方車輛多采用單目攝像頭,為了控制方向、速度和探測前方車輛、行人、障礙物等的距離,多采用雷達。例如,美國軍方研究的智能車輛為了進行障礙物探測,釆用了雷達與機器視覺融合技術。美國卡內基梅隆大學為了探測道路上的車輛行人以及其他靜止障礙物,在其研制的系列智能車輛采用了視覺傳感器和激光雷達技術。

3 前方車輛檢測及識別算法研究

使用YOLO V3網絡檢測識別車輛,能滿足自動駕駛汽車對實時性的要求。YOLO全稱You Only Look Once。意思是算法模型只需要瀏覽一遍圖片就可以識別出圖片中物體的類別和位置。YOLO V3網絡在滿足較高實時性的同時具有良好的檢測精度。該網絡和其他的深度學習網絡在性能上的對比情況如圖2所示。

YOLO的第三代特征提取網絡——Darknet-53特征提取網絡,使用了53個卷積層的全卷積網絡,其組成為5個卷積塊和6個卷積層。該特征提取網絡有如下特點:

a.每個卷積塊提取不同尺寸的特征,不同的卷積塊有不同數量的殘差單元。

b.每個殘差單元中包含一個1×1卷積塊和一個3×3卷積塊,其中卷積塊是一個卷積層后面接局部歸一化層和非線性激活層。

c.為了減少計算量,它通過1×1卷積塊降低輸入特征的通道數,再用3×3卷積塊進行局部特征提取。

d.為了減少特征信息的丟失,它利用5個跨步卷積核代替最大值池化層來實現下采樣。

e.該輸出預測借鑒了特征金字塔模型的優點,它將倒數3個卷積塊的輸出都用作目標預測。其中,在做目標預測之前,最后一個卷積塊的輸出通過上采樣與倒數第二個卷積塊的結果進行相加;為了輸出三個不同尺度的預測結果,倒數第三個卷積塊與倒數第二個卷積塊的融合的上采樣結果進行相加再做目標預測,分別進行三次目標預測。再通過多個車輛預測結果及檢測框中心點的二維坐標集合,利用此集合篩選距離中心線位置最近的車輛索引。圖3中的框內即為檢測出的車輛。

4 前方車輛距離檢測算法研究

通過鏡頭將三維物體呈現在二維的像平面上,這就是攝像機成像的原理。這種呈現方式可以表述為投影變換。

利用攝像機的小孔成像模型,示意圖如圖4所示。

上圖中目標的實際長度為[MN],經小孔成像后,在像素平面上成像的長度為[M'N']。根據?OMN與?OM′N′相似,可得:

[fd=M'N'MN]

為了計算得到目標的距離,需要利用攝像機拍攝的單幀圖片中像素點和目標之間的幾何關系。同時,為了計算出目標的實際寬度需要利用目標在圖片中的像素寬度。能夠利用像素信息獲取交通參與車輛相距主車的距離以及交通參與車輛的車寬,可為后續的路徑規劃提供環境感知信息。通過以上可以有效避免碰撞,同時安全超車的實現也有很大的益處。圖5所示為檢測的距離結果,橫向距離為0.8 m,縱向距離為16.38 m。

5 車道線檢測算法

5.1 圖像灰度化處理

進行圖像數字處理時,往往存在彩色圖像處理速度過慢的情況,而使用灰度圖像可以有效解決這個問題。因此使用最大值法進行彩色圖像灰度轉換,轉換的表示公式為[Grayi,j=G(i,j)],圖像灰度化處理后的結果如圖6所示。

5.2 高斯模糊及Canny檢測

為了消除圖像中的高斯噪聲,可采用線性平滑濾波-高斯模糊。其本質上是低通濾波器。在計算機視覺計算中,高斯模糊所使用的高斯核為x方向和y方向上的兩個一維高斯的乘積,兩個維度上的方差通常相同。數學上表示為:

一維高斯分布:

[Gx,y=12πσ][e-x22σ2]

二維高斯分布:

[Gx,y=12πσe-(x2+y2)2σ2]

式中,δ是方差,x和y表示所用高斯核的中心。

該技術中采用Canny邊緣檢測算法,該算法進行圖像梯度計算,借助非最大信號抑制和高低閾值的連接輸出二值圖像。與其他算法相比其輸出的圖像更平滑、邊緣連續性更好、抗干擾能力更強、噪聲更小。Canny檢測結果如圖7所示。

5.3 霍夫變換檢測直線

為了在圖像中尋找直線,將圖像從平面空間轉換到極坐標空間,需要在邊緣檢測后進行霍夫變換直線檢測。圖8所示為經過霍夫變換檢測得到的直線。

圖像檢測中,直線的線性函數為[y=kx+b]共線的點b、k的值相同,令原式等于[y=(?cosθ/sinθ)x+(rsinθ)],并轉換成[b=?kx+y]的形式,可推出霍夫變換中的極坐標系標準形式為:

[r=xcosθ+ysinθ]

式中,r為直角坐標系中原點到直線的距離;θ為r與x軸的夾角。

5.4 車道線檢測結果

在經過灰度化處理、高斯模糊、Canny邊緣檢測以及霍夫變換后,最終可以檢測到車道線,檢測效果如圖9所示。

6 實驗結果

本文設計了一種基于YOLO V3的前方車輛識別及測距系統。該系統在Windows10系統下將Python3.7與YOLO V3庫進行配置,設置程序算法完成對輸入的視頻圖像的處理。最終得到的結果如圖10所示。

7 結語

作為實現汽車無人駕駛的關鍵技術之一,車輛和車道線的智能檢測與識別以及車距檢測的重要性不言而喻。本文的理論基礎是圖像處理,研究了車輛和車道線檢測和識別的步驟,基于此在Python中進行了代碼編寫,經過運行達到了預期的設計目標。但也存在以下需要改進的地方:

a.在計算距離的時候,直接將車輛檢測的矩形框等價于目標車輛,未考慮Z軸的因素影響,存在一定誤差。

b.本文的研究方法雖然達到了預期設計目標,但是對于車輛間相互遮擋以及車輛被建筑物部分遮擋的情況識別效果較差。此外,天氣情況也會影響算法的識別準確率。

參考文獻:

[1]許洋,趙亞男,高利,等基于單目視覺的車輛檢測與跟蹤[J]激光雜志,2020,41(5):18-22

[2]聶霆基于紅外圖像前方車輛識別與車距檢測[D]西安:西安電子科技大學,2015

[3]景露霞基于OpenCV的前方車輛識別與車距檢測系統的設計與研究[D]西安:長安大學,2019

[4]邱國樞,張翔,劉軍基于圖像處理的車輛識別系統設計[J]吉首大學學報,2019,40(5):18-24

[5]趙鵬,豐大軍,徐一鳳基于改進的CAM偏移算法實現運動車輛跟蹤[J]計算機技術與應用,2019,45(6):97-100

[6]陳勇基于機器視覺的前車檢測及駕駛意圖識別研究[D]長沙:湖南大學,2019

[7]盧賀基于機器視覺的前方車輛檢測與測距研究[D]重慶:重慶交通大學,2018

作者簡介:

高晉先,男,1997年生,助理工程師,研究方向為智能網聯汽車測試評價。

主站蜘蛛池模板: 亚洲精品天堂在线观看| 亚洲香蕉久久| 亚洲美女一区二区三区| 亚洲三级视频在线观看| av在线5g无码天天| 国产一级毛片网站| 免费高清毛片| 国产在线高清一级毛片| 亚洲国产欧洲精品路线久久| 免费视频在线2021入口| 亚洲无码一区在线观看| 精品少妇人妻无码久久| 国产乱人免费视频| 99热最新在线| 666精品国产精品亚洲| 亚洲天堂视频在线播放| 色婷婷久久| 人妻精品久久久无码区色视| 丁香综合在线| 国产亚洲精品91| 欧美国产日韩另类| 久久77777| 亚洲AV无码一区二区三区牲色| 看av免费毛片手机播放| 国产99视频精品免费视频7 | 狠狠综合久久| 欧美亚洲综合免费精品高清在线观看 | 亚洲精品日产AⅤ| 国产玖玖玖精品视频| 亚洲成人www| 美女啪啪无遮挡| 欧美国产在线一区| 国产精品午夜福利麻豆| 天天摸夜夜操| 女人av社区男人的天堂| 日韩一区精品视频一区二区| av一区二区无码在线| 久久性视频| 免费不卡视频| 91小视频在线观看免费版高清| 欧美无遮挡国产欧美另类| 午夜影院a级片| 午夜天堂视频| 毛片在线区| 国产成人免费视频精品一区二区| 成年人国产网站| 久久成人免费| 无码专区在线观看| 国产乱子伦一区二区=| 成人一级免费视频| 国产一线在线| 欧美成人日韩| 干中文字幕| 99精品在线看| 在线观看免费AV网| 久久精品亚洲热综合一区二区| 狠狠综合久久| 91极品美女高潮叫床在线观看| 91久久精品国产| 国产在线视频导航| 中文字幕在线免费看| 久久国产精品娇妻素人| 国产午夜一级淫片| 8090成人午夜精品| 91精品最新国内在线播放| 无码电影在线观看| 久久国产精品77777| 精品無碼一區在線觀看 | 伊人久久久久久久| 国产精品无码AV片在线观看播放| 久久亚洲国产视频| 国产成人一区免费观看| 亚洲日韩精品无码专区| 色亚洲激情综合精品无码视频| 91破解版在线亚洲| 精品视频免费在线| 天天色天天操综合网| 国产美女精品在线| 国产精品久线在线观看| 国产日本欧美亚洲精品视| 亚洲视频免费在线| 日韩在线2020专区|