999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的相機與激光雷達融合標定算法

2024-01-01 00:00:00張潔
汽車與新動力 2024年5期
關鍵詞:深度學習

摘要:在自動駕駛技術飛速發展的今天,實現精準多目標感知已成為該領域的關鍵挑戰。提出一種基于深度學習的相機與激光雷達融合標定算法,旨在通過整合2種傳感器的優勢,實現在三維空間中對目標的高效跟蹤。通過系列試驗驗證,發現該算法的總準確率達到88.54%,檢測時間為0.03 s,顯示其性能優越。此外,該算法針對目標跟蹤計算,其X軸和Y軸的誤差分別控制在4.48像素和1.81像素之內,使得整體處理時間僅為0.084 s,由此進一步證明了該算法在實時性與精度上的平衡優勢。

關鍵詞:自動駕駛;深度學習;相機;激光雷達;融合技術

0 前言

隨著自動駕駛技術的迅猛發展,提升駕駛體驗的舒適度與安全性已成為研究的新焦點。深度學習技術的引入,為自動駕駛性能的提升提供了無限可能,同時也為多目標檢測領域帶來了創新的視角[1]。本文提出了一種基于深度學習的相機與激光雷達的融合標定算法,該算法結合了單目相機與激光雷達的優勢,實現了2者的融合標定與目標檢測。該方法不僅有效克服了單一數據源在目標檢測中可能遇到的局限,而且顯著提升了自動駕駛技術在自動跟蹤方面的精度與可靠性。通過這種融合策略,能夠更全面地捕捉和理解車輛周圍的環境,為自動駕駛系統的決策提供更加豐富和精確的數據支持。

1 融合標定算法

在三維坐標系內,二維平面內的像素與激光點云坐標系之間呈現出幾何關聯度。該模型參數的推導過程,實際上就組成了相機與激光雷達融合標定的具體過程。為此,標定參數求解可通過一組方程來進行[2]。

圖1展現了相機與激光雷達融合標定的原理和架構。基于該設定,激光雷達坐標系被設定為OL、XL、YL、ZL。其中在像素坐標系內,分別為原點O,以及X軸和Y軸,而在相機坐標系內,分別為原點O,以及U軸和V軸;θx、θy、θz表示相機在X、Y、Z軸上的旋轉角度,T(t1,t2,t3)表示雷達坐標系平移向量,(u0,v0)則表示像素坐標系內圖像原點所投射的坐標。

設定基于三維空間中的某物理點P,在3D激光雷達坐標系中的坐標為( XL,YL,ZL),而在相機坐標系的坐標為( XC,YC,ZC)。這2個不同的坐標系均屬于三維空間坐標系,兩者之間轉換過程的表達式為:

2 基于機器人操作系統(ROS)的實時傳輸圖像和點云

本次所構建的基于深度學習的相機與激光雷達融合技術需要從現實世界中獲取圖像和點云相關信息,為此,通過ROS庫中訂閱器、發布器來實現通信,隨后再利用回調函數,基于幀率實現圖像數據和云數據的傳遞。通過ROC完成python程序中節點的編寫處理。基于該節點,即可實現相機與激光雷達數據的有機對接,并完成相關轉換和處理。融合標定的外參數據通過將USB相機數據和RSLidar M1激光雷達進行坐標轉換,以確保它們能夠在相同坐標下對齊。在該點上,經由ROS的發布者即可達成數據融合,并使其存放于話題下,確保其他節點能夠共享。基于ROC消息傳輸機制即可促使融合數據傳輸到對應節點,保證節點能夠遵循相應頻率完成數據發表,以更好地滿足實時信息傳遞的需求。相機與激光雷達實時傳輸生成的融合圖片如圖2所示。

3 基于深度學習的相機與激光雷達的融合技術的目標檢測

3. 1 點云降采樣

激光雷達有著優越的性能,具備極高的距離分辨率、角度分辨率,其測距精度能夠達到厘米級,但獲得的數據通常伴隨有離群點、噪聲、不規則密度等問題。這些問題需在后續的點云數據處理中予以解決,以保障點云信息提取、匹配等相關要求。點云濾波是點云處理的第一步,其主要目的是促使數據量下降。過多的點云數據必然會給后續融合工作造成極大困難。盡管隨機采樣的效率更高,但卻會導致點云微觀結構遭受破壞。而采用體素濾波則能夠在保障效率的同時,不對數據造成影響。

步驟1:獲取空間內的某點pi,運用KD樹完成鄰近區域搜索,確定最近n個點并完成其與點pi之間的距離計算,將距離小于閾值的r點納入集合Q內。

步驟2:基于集合Q,檢索pi之外的其他點,將距離小于閾值標準的r點再次納入集合Q;持續實施迭代處理,直至集合Q內點數不再發生改變。

步驟3:基于集合Q中的每個點做出相應操作,針對任意的pi∈Q,即可獲取一個聚類點云簇。完成聚類之后即可設定限定尺寸標準,保留最小與最大的聚類點閾值之間的障礙物。

本研究結合不同距離的目標提出了不同的閾值范圍,具體為:0

3. 3 相機與激光雷達的融合

4 試驗結果與分析

4. 1 算法的準確率與實時性驗證

為驗證本算法的整體可靠性,隨機獲取100張Kitti數據集中的點云和對應圖像,通過手動標記的確定192個識別框,經由激光雷達點云篩選獲得對比結果,判定其準確率。以崔善堯等[3]研究結果為對照,具體見表1。

由表1可知,與文獻[3]結果對比,本算法面對簡單、中等、困難目標的準確率均有不同程度提升,總準確率有明顯提升,同時檢測時間也顯著縮短。

4. 2 算法效果

為驗證所提算法的跟蹤效果,將其與粒子濾波(PF)算法進行對比,通過定量分析觀察不同算法下跟蹤結果,并通過ex、ey表示X軸、Y軸上的誤差,同時獲取平均區域重疊率Ot,見表2。

由表2可知,本次算法基于鄰近兩幀檢測目標和時間間隔來確定目標移動速度,并通過圖像檢測框與速度來完成中心坐標融合處理,取得了較好的跟蹤效果。與PF算法對比,本次算法具有較好的擬合真實性,在X軸與Y軸上的偏差均更低,并且平均區域重疊率更高,每幀耗費的時長更短。

5 結語

針對高速發展的自動駕駛技術,本研究基于深度學習提出了相機與雷達激光融合算法。根據本次研究目標,首先完成了融合標定算法的架設,并基于ROS明確了實時傳輸圖像和點云技術,結合深度融合目標檢測提出了點云降采樣策略,引入KD樹最近鄰搜索的自適應歐幾里得聚類算法進行點云聚類,最終通過三維空間完成相機與激光雷達的融合。通過對比分析,證實本次算法具有較高準確率和實時性,并且目標跟蹤效果較為理想。

參考文獻

[1] 齊繼超,何麗,袁亮,等.基于單目相機與激光雷達融合的SLAM方法[J].電光與控制, 2022,29(2):99-102,112.

[2] 吳瓊,時利,謝欣燕,等.基于視覺標記板的自動駕駛車輛激光雷達與相機在線標定研究[J].汽車技術,2020(4):40-44.

[3] 崔善堯,賈述斌,黃勁松.圖像與激光點云融合的實時目標定位算法[J].導航定位學報, 2023,11(2):99-105.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 久久综合久久鬼| 91欧美亚洲国产五月天| 香蕉国产精品视频| 欧美自慰一级看片免费| 欧美性天天| 欧美亚洲国产精品久久蜜芽| 亚洲欧美色中文字幕| 国产9191精品免费观看| 日本一区二区三区精品视频| 国产高清毛片| 国产成人无码播放| 高潮毛片无遮挡高清视频播放| 美美女高清毛片视频免费观看| 午夜啪啪福利| 色哟哟国产精品一区二区| 国产一级精品毛片基地| 国产乱子精品一区二区在线观看| 国产办公室秘书无码精品| 免费jizz在线播放| 国产精品精品视频| 亚洲Va中文字幕久久一区| 日韩麻豆小视频| 波多野结衣视频网站| 亚洲免费三区| 五月天久久综合| 国产呦精品一区二区三区下载 | 国产一级做美女做受视频| 自拍中文字幕| 97国产精品视频人人做人人爱| 国产精品永久在线| 九九久久精品国产av片囯产区| 国产香蕉国产精品偷在线观看| 日本少妇又色又爽又高潮| 无码中字出轨中文人妻中文中| 白浆免费视频国产精品视频| 日日拍夜夜嗷嗷叫国产| 2020国产免费久久精品99| 欧美成人手机在线视频| 欧美亚洲国产精品久久蜜芽| 无码有码中文字幕| 福利在线免费视频| 88av在线| 鲁鲁鲁爽爽爽在线视频观看| 九色91在线视频| 亚洲无码不卡网| 国产欧美日韩专区发布| 国产欧美日韩在线在线不卡视频| 亚洲人成在线精品| 国内毛片视频| 国产无人区一区二区三区| 五月天综合婷婷| 国产剧情国内精品原创| 精品三级在线| 日韩在线网址| 亚洲美女一级毛片| 精品三级网站| 国产精品3p视频| 国产福利免费观看| 欧美性爱精品一区二区三区 | 在线看片免费人成视久网下载| 中文字幕亚洲另类天堂| 狠狠色香婷婷久久亚洲精品| 亚洲第一视频免费在线| 丝袜无码一区二区三区| 国产视频一二三区| 在线色国产| 欧美日韩第三页| av无码一区二区三区在线| 亚洲中文字幕97久久精品少妇| 狼友视频一区二区三区| 中文字幕乱妇无码AV在线| 91丝袜在线观看| 亚洲精品人成网线在线| 成人国产免费| 欧美自慰一级看片免费| 白浆免费视频国产精品视频| 91精品久久久无码中文字幕vr| 婷婷久久综合九色综合88| 国产精品爽爽va在线无码观看 | 国产无码网站在线观看| 欧美一区精品| 久久久久88色偷偷|