主題詞:方程式賽車激光雷達工業相機組合慣導系統RGB錐桶地圖中圖分類號:U469.696 文獻標志碼:A DOI:10.19620/j.cnki.1000-3703.20240403
Research on Cone Barrel Mapping Algorithm Based on FSAC MultiSensor Track
LiYilong1,LiGang1,DengWeiwen2,XuLong1 (1.Liaoning Universityof Technology,Jinzhou121ooo;2.Beijing Universityof AeronauticsandAstronautics, Beijing 102206)
【Abstract】Forthe problem of mapping failure in the high-speed tracking and figure-eight scenariosof the Formula StudentAutonomous China (FSAC)duetothelimitedrecognitionand lowaccuracyofsingle-sensorcone detection,this paper proposesacone mapping algorithmbasedon theloosecoupling of LiDAR,industrial cameras,andacombined inertial navigation system.Byprojecting LiDARdataontothecamera cordinatesystem,the similaritybetweenthetargetdetection boundingboxes from thecamera’sdep learning framework (YOLOv5)andthe LiDARcone bounding boxes is matched.The fused point cloud,containing RGBcolor information,isthen transformed from the LiDAR cordinatesystem to themap coordinatesystem.Tereal-timevehicleposecalculatedbythecombined inertialnavigationsystemisusedtoupdatethefused cone pointcloud map.Real-vehicle comparative test results show thatthe algorithm achieves anaverage recallrateof 98.6% andanaverageprecisionof99.1%,enabling thedistinction betweentheinnerandoutertracksof theconemap,thereby enhancing the vehicle's perception,anticipation capabilities and path planning efficiency.
KeyWords:Formula RacingCar,LiDAR,Industrial Cameras,Combined InertialNavigation Systems,RGB Cone Barrel Maps
【引用格式】李逸龍,李剛,鄧偉文,等.基于FSAC多傳感器賽道錐桶建圖算法研究[J].汽車技術,2025(5):29-38. LIYL,LI G,DENG W W,et al. Research on Cone Barel Mapping Algorithm Based on FSAC Multi-Sensor Track[J]. Automobile Technology,2025(5): 29-38.
1前言
目前,自動駕駛技術已成為全球汽車產業轉型升級的核心驅動力和戰略制高點,中國大學生無人駕駛方程式大賽(Formula Student AutonomousChina,FSAC)依托高校,推動自動駕駛技術的創新實踐。環境感知作為無人駕駛系統的核心模塊,是實現決策規劃和控制執行的重要前提。相機和激光雷達構成了環境感知系統的主要傳感器陣列,基于多傳感器融合的技術發展趨勢,對于提升賽車環境感知精度和建圖質量具有重要的實踐意義。
FSAC賽車的同步定位與地圖構建(SimultaneousLocalizationandMapping,SLAM)方案主要基于激光SLAM、激光慣導SLAM、視覺SLAM等。馮云亮等采用最近點迭代算法(IterativeClosestPoint,ICP)和相關掃描匹配(CorrelationScanMatching,CSM)前端配準,提出了濾波器優化和圖優化的后端算法,但該算法無法應對復雜的實際工作環境,且算法的魯棒性較差。張要強等提出了一種基于激光雷達和組合慣導系統的錐桶地圖構建方法,將當前幀錐桶坐標轉化到地圖坐標系,完成錐桶地圖的構建與更新,但該算法建圖精度較低,無法準確識別非錐桶物體,難以規劃賽車的全局路徑。
本文以FSAC賽車為載體,針對高速循跡、八字環繞工況的環境感知與建圖進行算法開發,使用3D激光雷達、工業相機和組合慣導系統,采集錐桶和車體的空間位置信息,構建完整、準確、含有顏色(RGB)信息的賽道錐桶點云地圖,并通過實車試驗證明該方案的有效性。
2傳感器的時空標定
2.1傳感器坐標系位置分布
將工業相機固定在主環下方,通過相機內參標定與去畸變處理,提高輸入端圖像質量;將慣性導航安裝于座椅后方,與車輛質心重合;激光雷達安裝于賽車前翼的雷達支架上,由2個定位銷和3個M3螺栓固定。構建相機 oc-XYZ 坐標系、激光雷達 oL -XYZ坐標系和組合慣導 Ov -XYZ坐標系,如圖1所示。

2.2相機與激光雷達參數標定
為了建立全局RGB錐桶地圖,更精確地識別內、外錐桶賽道,需增加相機傳感器,對激光雷達進行時空標定。首先,通過相機內參矩陣獲得相機坐標系到像素坐標系的轉換矩陣;然后,將雷達坐標系投影至像素坐標系,為點云賦予RGB顏色信息;再將雷達坐標系下RGB點云轉換至地圖坐標系,最終完成全局RGB錐桶地圖的構建。根據成像原理,相機 O-xyz 坐標系與像素O′-x′y′ 坐標系間轉換過程如圖2所示。

當相機坐標系中點 P(X,Y,Z) 經過光心 o ,投影到成像平面為 P′(X′,Y′) ,假設焦距為f,根據相似三角形原理可知:
物理成像平面轉換至像素坐標系需要經過縮放、平移,以像素坐標系左上角為坐標原點,向右為 u 軸,向下為 v 軸,得到點
轉換矩陣形式為
。其中,K 為相機內參矩陣。
因透鏡誤差產生的徑向和切向畸變,需要進行畸變校正。設 P(X,Y) 為歸一化平面上的點,其極坐標為(r,θ) ,則徑向、切向畸變分別為:

式中:
和 k3 為徑向畸變系數, xr,yr 為去除徑向畸變系數后坐標值, p1?p2 為切向畸變系數, xt,yt 為去除切向畸變后坐標值。
因此,畸變校正后的坐標為:
,相機內參坐標為 
激光雷達與相機間的旋轉矩陣為 R ,平移矩陣為
,則外參矩陣為:
激光雷達坐標系與像素坐標系的坐標變換為:
根據實際試驗數據,將內、外參矩陣合并為 Q 矩陣:

鑒于此時的外參矩陣包含相機內參矩陣數據,為了得到最終的外參矩陣,還需將Q矩陣左乘相機內參矩陣的逆矩陣 K-1 。
2.3激光雷達與組合慣導外參標定
以車輛起始時刻的慣導位姿為地圖坐標系原點,將RGB激光點云從雷達坐標系投影到車輛坐標系,再利用組合慣導系統得到車輛在地圖坐標系的位姿,從而使點云投影到地圖坐標系。為了獲得上述坐標系的轉換關系,需對激光雷達與組合慣導系統的外參進行標定。
將慣導坐標系的原點設置在距后軸前方 0.3m 處,沿車體中軸線向前為 X 軸正方向,垂直車體中軸線向右為Y軸正方向,垂直車體中軸線向下為Z軸正方向。對于旋轉方面,假設 α,β,γ 分別為雷達坐標系相對于慣導坐標系的滾轉角(Roll)、俯仰角(Pitch)和偏航角(Yaw),以
方式安裝,雷達系相對慣導系的旋轉矩陣為:

使用激光測距儀測得雷達相對于慣導的位移向量為
測得激光雷達相對組合慣導的外參矩陣為 
使用開源的激光雷達慣性導航里程計平滑和建圖(Lidar Inertial Odometry via Smoothing and Mapping,LIO-SAM)算法記錄一段軌跡,車輛的雷達里程計數據 PL 和組合慣導里程計數據 Pv 分別為:
理論上,各時刻位姿 TLV?pLi= pvi ,由于存在誤差,可建立非線性優化問題的目標函數:(204號
(4)式中: pVipLi 分別為 Pv 和 PL 的第 i 個位姿, Np 為里程計集合的數據量。
將粗略測定的外參矩陣 TLv 作為初值進行迭代,并通過Ceres優化庫求解,當結果小于閾值,即可得到雷達相對組合慣導的坐標變換矩陣 。

2.4傳感器時間戳對準
由于各傳感器的時鐘源與發布頻率不同,若直接使用傳感器時間戳,極易影響最后狀態估計。由于激光雷達的頻率( 10Hz 低于相機與慣性導航,故將時間統一轉化到雷達的時間戳。
硬件方面,采用時間同步器同步;軟件方面,計算相機與慣性導航前、后幀數據的縮放比例,采用線性插幀方式得出與雷達同步的時間點,插值效果如圖3所示。

3前端融合RGB特征點云提取
3.1前端特征點提取算法框架
結合組合慣導,提取前端特征的原始圖像及點云信息,流程如圖4所示。
3.2點云去畸變
在激光雷達跟隨車輛運動的過程中,激光雷達掃描的頻率為 10Hz ,即0.01s獲取一幀數據,車輛運動引起的激光幀的運動誤差,如圖5所示[9]。


通過計算各點的采集時間,將所有點統一至同一時刻坐標系中,進行畸變消除,點云投影如圖6所示。tk?tk+1 分別為一幀點云的開始和結束時刻, (tk+1-tk) 為一幀點云的掃描時間,
為這一幀掃描生成的點云,水平箭頭表示將所有點都投影至 tk+1 時刻,不同的點的時間戳不同[0]。

對慣性測量單元(InertialMeasurementUnit,IMU)預積分,考慮到陀螺儀、加速度計的零偏與噪聲誤差,通過隨機高斯游走進行誤差補償,其概率密度函數為:

式中 ?:μ,σ 分別為 x 的均值和方差。
基于IMU預積分得到賽車世界坐標系下對應的里程計位姿,將 tk 時刻相對于 tk+1 時刻雷達的坐標變換矩陣記為
。對于各點,計算相對 tk+1 時刻的補償變換矩陣,即Tk+1)=t-+1 =t-k+1Tk+1。點云去畸變效果如圖7所示。

3.3基于密度的錐桶點云聚類
考慮到賽場環境中各錐桶的原始點云密度分布不均,故基于點云密度采用聚類方法[12],具體流程如圖8所示。

首先,判斷原始點云是否被標記,自動跳過已標記的激光點云,未標記點云被賦予真值后,隨機選取點 P 使用增量式K-D 樹(IncrementalK-Dimensional Tree,IKD-Tree)算法[13],在插入節點時同步進行降采樣處理。然后,計算點 P 與其他點的曼哈頓距離[14],若結果低于距離閾值 (0.67m) ),則該點的索引加人列表Neighbors。如果Neighbors的索引小于閾值,將其作為噪點簇刪除;當無法找到更多的Neighbors索引列表,聚類過程結束;否則,將選取除 P 點外Neighbors列表中的點,重復上述過程,直到Neighbors列表不再增加為止。基于點云密度聚類的效果如圖9所示。

3.4 YOLOv5目標檢測
YOLOv5采用特征金字塔網絡[5](FeaturePyramidNetwork,FPN),可利用多個卷積和池化層提取錐桶的顏色信息,同時,其小自標檢測效果較好,故使用該算法預測錐桶類別。各狀態下目標物的類別概率與置信度的乘積,為該狀態下的分類概率。所有狀態下的分類概率之和,即為最終的分類概率。
通過降低算法對圖像背景像素的關注度,提高錐桶的檢測精度,并采用Wasserstein距離衡量矩形包圍框間相似度,從而實現較遠距離的小目標檢測,檢測效果如圖10所示。其中,黃色矩形框為小目標檢測結果,錐桶的識別數量顯著提升。

3.5圖像-點云融合匹配
將去除畸變后的點云進行密度聚類,得到帶有標簽信息的錐桶點云簇,并通過計算錐桶點云的包圍框與YOLOv5目標檢測的預測框進行相似度匹配,對置信度閾值超過0.9的點云簇進行RGB中心點提取。圖像-點云匹配流程如圖11所示,匹配效果如圖12所示。


4融合RGB錐桶地圖構建算法設計
4.1 算法框架
本文算法框架流程如圖13所示。在前端特征點中提取RGB點云,經過雷達到慣導的外參矩陣,將其投影至車輛坐標系。通過組合慣導系統,得到當前車輛坐標系相對地圖坐標系的位姿變換矩陣,將融合RGB錐桶投影到地圖坐標系。最后,采用局部地圖優化算法更新錐桶地圖,得到所有錐桶在地圖坐標系的位置。通過機器人操作系統[17](RobotOperatingSystem,ROS)發布錐桶地圖數據至路徑規劃算法。
4.2錐桶的局部優化定位
為了降低建圖算法的計算復雜度,保證其實時性,需選取合適的局部地圖定位方案,優化輸入的融合RGB點云。

選取雷達前方 10m ,左、右各 3m ,高度范圍為-0.2~1m 位置作為感興趣區域,保證融合RGB點云數據的精準度;再將輸入的融合RGB點云劃分為若干個0.05m×0.05m×0.05m 體素化方塊[18],如圖14所示。將每個立方體內的RGB點云作為立方體的中心,從而實現降采樣,提升計算速度的同時,便于后續地圖點處理過程中算法的簡化。

基于扇區分段的隨機樣本一致性(RandomSampleConsensus,RANSAC)算法的地面點分割方法[19],利用組合慣導IMU預積分去畸變后,采用歐氏聚類方法將RGB色彩空間中的錐桶點云數據進行聚類分組,形成獨立的點云團簇。隨后,通過提取各點云團簇的中心點,從而獲取RGB錐桶在雷達坐標系的具體位置信息,流程如圖15所示。

假設 Φt 時刻檢測到錐桶I,其中心在雷達坐標系的坐標 PLI 為:

式中: (xLi,yLi,zLi) 為第 i 個點云在激光雷達坐標系下的坐標 ,N 為一個錐桶點云簇中點云數量, ri 為第 i 個點云距離激光雷達中心的距離, ωi 為第 i 個點云所在激光線束的垂直角度, εi 為第 i 個點云所在激光線束的水平旋轉角度。
4.3錐桶地圖RGB中心點提取
在路徑規劃算法中,基于歸一化平面,對聚類后RGB錐桶點云簇進行中心點提取,基于3D質心點提取的RGB地圖錐桶點算法流程如圖16所示。

判斷當前局部地圖的尺寸是否處于閥值區間( 2~ 30個點),若不在區間范圍內,需要進行體素下采樣處理;反之,將會遍歷局部地圖點云簇中的RGB點。通過對點的紅色和藍色通道賦值,分別進行正態分布計算。當該正態分布不再發生明顯變化,利用點云庫(PointCloudLibrary,PCL)的compute3DCentroid函數提取質心點,否則,將重新遍歷局部地圖中的RGB點云簇。
4.4車輛定位
由于組合慣導中全球導航衛星系統(GlobalNavigationSatelliteSystem,GNSS)實時動態定位(Real-TimeKinematic,RTK輸出的原始坐標為1984年世界大地測量系統(WorldGeodeticSystem1984,WGS-84)坐標系下的經緯高坐標,需要將該坐標轉換為直角坐標系。
以組合慣導的第一幀位姿 P0 為導航坐標系(地圖坐標系)原點,相應的WGS-84系坐標為
,經過解算相應的地球中心地球固定坐標系(Earth-Centered,Earth-Fixed,ECEF)坐標為
。 χt 時刻慣導位姿 Pt 對應的WGS-84系坐標為 (X1,Y1,Z1) ,經過解算ECEF系坐標為 (xt,yt,zt) ,則 Pt 在地圖坐標系中的坐標 (xM,yM,zM) 為:

式中: REM 為ECEF坐標系相對地圖坐標系的旋轉矩陣,
為 Φt 時刻車輛坐標系相對地圖坐標系的平移向量。
此時,慣性導航系統(InertialNavigation System,INS)測得 Pt 相對 P0 的滾轉角、俯仰角和偏航角分別為φ,θ,μ ,則慣導坐標系相對地圖坐標系的旋轉矩陣為:[bd bce-adbcd+ae]R=ad ace+bd acd-be[-c gc d2, χt 時刻慣導坐標系相對a=sinφ, b =cos φc=sin0, d =cosθe= sinμ, f=cosμ (204號一 g=cosβ
地圖坐標系的變換矩陣為 
4.5融合RGB錐桶全局定位
以初始時刻無人駕駛賽車的發車點為世界坐標系 Ou–XMYMZM 的原點,對錐桶進行全局定位,如圖17所示。
定義 t1 時刻的相機坐標系為 ?v-XvYvZv ,雷達坐標系為 OL-XLYLZL ,錐桶在相機坐標的齊次坐標為 PcL= (xcL,ycL,zcL,1) ,激光雷達坐標系中的齊次坐標為
,則地圖坐標系的坐標為:

式中: TcL 為相機到雷達的外參矩陣, TLv 為雷達到組合慣導的外參矩陣,
為慣導相對地圖系的變換矩陣。

5試驗驗證與結果分析
5.1試驗平臺
本文使用遼寧工業大學萬得無人駕駛方程式賽車試驗平臺。FSAC賽車激光雷達選用速騰聚創Helios32機械式激光雷達,采集賽車周圍環境的三維點云信息;使用大恒水星MER2-231-41U3相機,支持軟件觸發和外部觸發;組合慣導系統選用導遠INS570D(支持RTK),提供構建錐桶地圖所需的車體實時、精準的位姿信息;計算單元選用研華ARK-3534B工控機,接收融合RGB點云信息和定位信息。計算單元搭載IntelCore-i9LGA1700處理器,負責處理、分析傳感器接收的信息,并執行無人駕駛算法;選用機器人操作系統作為軟件通信平臺。激光雷達、相機、組合慣導系統和計算單元的安裝位置如圖18所示。

5.2 雷達與相機外參標定
在Autoware自動標注程序文件中,將點云坐標系投影到像素坐標系,得到 Q 矩陣。修改激光雷達與相機對應的變換矩陣,使用ROS中RViz進行圖形化顯示,配準后的效果如圖19所示。

5.3實車驗證與分析
圖20為高速循跡項目賽道,內、外道使用不同顏色的錐桶。設定FSAC方程式賽車第一圈以 15km/h 速度行駛,采用Viz可視化界面顯示測試結果。

5.3.1 算法驗證
傳統激光雷達 + 組合慣導2的建圖效果,如圖21所示。錐桶周圍類似雜物均會被識別到錐桶地圖中,相鄰賽道的雜物會被聚類算法歸成一類,降低建圖的精度,對路徑規劃造成一定干擾。由于基于激光雷達點云的強度信息無法準確區分錐桶類別,導致激光雷達難以識別內、外道錐桶。
用全局路徑規劃算法設計最佳的賽道路線,車輛能夠跳過雷達的實時監測,根據計算的路線執行直道加速和彎道減速動作,從而顯著提升比賽效率。
對于八字賽道(見圖22c),需要完成左、右各兩圈行駛。其中,左側的第一圈中車輛緩慢行駛,當車輛再次經過第一圈入彎口處時,通過組合慣導定位數據和地圖點匹配判斷左側第一圈回環完成狀態。回環后將自動關閉建圖程序,只接收定位數據,直到再次經過入彎口時恢復右圈的建圖程序,左、右兩側的判斷機制相同。

本文方案在循跡賽道和八字賽道錐桶地圖的檢測結果如圖22所示。圖 22a 中,白色線為組合慣導的軌跡,激光雷達當前幀掃描到的錐桶中心與錐桶地圖融合更新,且效果良好。對于循跡賽道(見圖22b),由于終點附近賽道為直線,本文方案能夠提前檢測到回環,并清晰區分全局的內、外賽道。通過預留充分時間。

5.3.2 結果分析
在高速循跡賽道項目中,共119個實體錐桶。借助目標檢測評價方法2進行性能評價,包括精準度(Precision) P 、召回率 [Recall)R ,相關公式為:

式中: TP 為實際檢測數量, FP 為誤檢數量, FN 為漏檢數量。
對比傳統雷達 + 慣導建圖算法與本文算法,多次定試驗結果如表1、表2所示。5次試驗中,基于雷達 + 慣導建圖算法的平均召回率為 73.2% ,平均精準度為 73.54% 本文方案的平均召回率達到 98.6% ,平均精準度達到99.1%0 由試驗結果可知:當環境中存在與錐桶相似障礙物時,激光雷達錐桶識別算法判斷精度較低,雷達 + 慣導建圖算法會誤檢為錐桶。本文方法中,因相機識別錯誤,導致相機與激光雷達無法匹配融合,從而存在個別誤檢情況,且該問題一般發生在多彎道與直道交接重疊處。由于個別錐桶間重疊、激光遮擋以及高速運動中誤檢的錐桶無法及時被下一幀正確修復,而發生漏檢現象。


由于車輛定位基于組合慣導中RTK位姿,檢測精度達到厘米級。因此,依據定位結果構建的錐桶地圖在誤差允許范圍內,車輛能夠順利完成回環,表明錐桶的定位精度可靠,可為無人駕駛賽車提供可靠的錐桶位置信息,實時獲取準確的錐桶賽道地圖。
6結束語
本文提出了一種基于相機、激光雷達和組合慣導耦合系統的錐桶地圖構建算法,供路徑規劃程序擬合最優路徑,為無人駕駛賽車提供準確的環境信息和穩定的提速效果。實車試驗結果表明:相較于傳統的雷達 + 慣導建圖算法,本文方案的錐桶召回率與精確度均有提升,為FSAC無人方程式賽車的決策規劃提供了科學依據。
目前,YOLOv5算法在車輛高速通過彎道等復雜場景中,易受錐桶相互遮擋、車速過快等因素影響,進而影響錐桶地圖的構建精度。后續研究將重點優化算法融合策略,并通過擴充極限工況下的錐桶數據集,提升算法的魯棒性。
參考文獻
[1]楊貴永,張越垚,朱云堯,等.全球自動駕駛汽車應用現狀 與趨勢[J].汽車維護與修理,2024(1):62-65. YANGGY,ZHANGYY,ZHUYY,etal.The Current StatusandTrendsof Global AutonomousVehicle Applications[J]. AutomobileMaintenanceandRepair, 2024(1): 62-65.
[2]胡紀濱.中國大學生無人駕駛方程式大賽規則[S].北京: 中國汽車工程學會,2020. HUJB. Rules of the Chinese University Students Autonomous Driving Formula Competition[S].Beijing: China Society of Automotive Engineers,2020.
[3]馮云亮.基于激光SLAM電動無人駕駛賽車定位與建圖 研究[D].錦州:遼寧工業大學,2020. FENGY L. Research on the Localization and Mapping of Electric Autonomous Racing Cars Based on Laser SLAM[D]. Jinzhou:LiaoningUniversityof Technology,2020.
[4]張要強,李剛,薛玉斌.針對FSAC賽場環境的全局錐桶建 圖算法研究[J].重慶理工大學學報(自然科學),2024, 38(1): 346-354. ZHANG YQ,LIG,XUE YB.Research on Global Conical BarrelMappingAlgorithmforFSACRacecourse Environment[J].JournalofChongqingUniversityof Technology(Natural Science),2024,38(1): 346-354.
[5]岑益挺,賴際舟,呂品,等.一種面向即插即用車載GNSS/ INS/ODO系統的時空在線標定方法[J].導航定位與授時, 2022,9(3): 79-86. CEN Y T,LAI J Z,LV P,et al.A Spatiotemporal Online Calibration Method for Plug-and-Play Vehicle GNSS/INS/ ODO Systems[J]. Navigation Positioning and Timing,2022, 9(3): 79-86.
[6]畢嘉楨,沈拓,張軒雄.基于機器視覺的軌道交通自動測 距研究[J].電子科技,2022,35(9):37-43. BI J Z, SHEN T, ZHANG X X. Research on Automatic Distance Measurement of Rail Transit Based on Machine Vision[J].Electronic Science and Technology,2O22,35(9): 37-43.
[7]王凌軒.面向自動駕駛的激光雷達SLAM算法研究[D].杭 州:浙江大學,2022. WANGL X.Research on Lidar SLAM Algorithm for Autonomous Driving[D]. Hangzhou: Zhejiang University, 203
[8]徐傳勝,白欣.切比雪夫的最小二乘法插值理論研究[J] 首都師范大學學報(自然科學版),2011,32(5):7-10. XU C S,BAI X. Research on Chebyshev Least Squares Interpolation Theory[J]. Journal of Capital Normal University (Natural Science Edition),2011,32(5): 7-10.
[9]陳強,陳海波,張瀝化.基于NDT配準與輪式里程計的激 光雷達運動畸變補償算法[J].高技術通訊,2024,34(1): 83-91. CHEN Q, CHEN H B, ZHANG L H. Laser Radar Motion DistortionCompensation Algorithm BasedonNDT Registration and Wheel Encoder[J]. High Technology Communications,2024,34(1): 83-91.
[10]蔡明珠,劉肖燕,唐志偉.基于多傳感器融合SLAM的 ROS 服務機器人研究[J].實驗室研究與探索,2024, 43(2): 65-70. CAIMZ,LIUXY,TANGZW.ResearchonROSService Robots Based on Multi-Sensor Fusion SLAM[J]. Laboratory Research and Exploration,2024,43(2): 65-70.
[11]王順洪,張昱,沈江楠,等.面向三維多目標追蹤的運動 補償優化方法[J].電子學報,2024,52(2):528-539. WANG SH, ZHANG Y,SHEN J N,et al.Motion Compensation Optimization Method for 3D Multi-Target Tracking[J]. Electronics Journal,2024,52(2): 528-539.
[12]陶澤宇,蘇建強,董朝軼,等.基于改進密度聚類的三維 激光雷達點云濾波算法研究[J].應用激光,2023,43(7): 87-93. TAOZY,SUJQ,DONG ZY,et al.Research on3D LiDAR Point Cloud Filtering Algorithm Based on Improved Density Clustering[J]. Applied Laser,2023, 43(7): 87-93.
[13]廖勇毅,丁怡心.Kd-tree建樹算法改進[J].現代計算機, 2019(12): 50-52. LIAO Y Y,DING Y X. Improvement of the kd-tree Construction Algorithm[J]. Modern Computer,2019(12): 50-52.
[14]何曉健,劉浩,劉紅光,等.基于聚類分析和曼哈頓距離 實現平庫煙葉堆碼及均勻投料技術研究[J].安徽農業科 學,2023,51(18): 181-186. HE XJ, LIU H, LIU HG,et al. Research on Pileup and Uniform Feeding Technology of Tobacco LeavesBased on ClusterAnalysis andManhattan Distance[J]. Anhui Agricultural Science,2023,51(18): 181-186.
[15]胡倩,皮建勇,胡偉超,等.基于改進YOLOv5的密集行 人檢測算法研究[J/OL].計算機工程,(2024-04-30) [2024-06-21]. https://doi.org/10.19678/j.issn.1000-3428. 0068753. HUQ,PI JY,HU W C,et al.Research on Dense Pedestrian Detection Algorithm Based on Improved YOLOv5[J/OL]. Computer Engineering, (2024-04-30) [2024-06-21]. https://doi.org/10.19678/j.issn.1000-3428. 0068753.
[16]鄒看看,張軍,王棟.基于ROS的室內移動機器人多目標 點導航研究與實現[J].電子制作,2024,32(7):47-50. ZOUK K,ZHANG J,WANG D.Researchand Implementation of Multi-Target Point Navigation for Indoor Mobile Robots Based on ROS[J]. Electronic Production, 2024,32(7):47-50.
[17]甘禮宜,莫黃濤,黃科薪.基于ROS的智能小車設計研 究[J].電子質量,2024(3):23-26. GANLY,MO H T,HUANGKX. Research on Intelligent Car Design Based on ROS[J]. Electronic Quality, 2024(3): 23-26.
[18]鄒昭源.基于點云體素化的多傳感器融合SLAM算法研 究[D].杭州:浙江大學,2022. ZOUZ Y. Research on Multi-Sensor Fusion SLAM AlgorithmBasedonPointCloudVoxelization[D]. Hangzhou: Zhejiang University,2022.
[19]王春陽,丘文乾,劉雪蓮,等.基于平面擬合的地面點云 精確分割方法[J].吉林大學學報(工學版),2023,53(3): 933-940. WANGCY,QIUWQ,LIUXL,et al.Accurate Ground Point Cloud Segmentation Method Based on Plane Fitting[J]. Journalof JilinUniversity (EngineeringEdition), 2023,53(3):933-940.
[20]鄭川川.融合IMU/激光雷達的無人車三維建圖與導航 研究[D].南京:南京信息工程大學,2023. ZHENG C C. Research on 3D Mapping and Navigation of AutonomousVehicles Fusing IMU/Lidar[D]. Nanjing: Nanjing University of Information Science and Technology, 2023.
[21]高翔,張濤,劉毅.視覺SLAM十四講:從理論到實踐[M]. 北京:電子工業出版社,2017. GAO X, ZHANG T,LIU Y.Visual SLAM in Fourteen Lectures:From Theory to Practice[M].Beijing:Electronic Industry Press, 2017. (青仟編輯種)
修改稿收到日期為2024年6月21日。