999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于激光雷達(dá)的牧場(chǎng)巡檢機(jī)器人定位與建圖算法設(shè)計(jì)

2024-01-01 00:00:00高金喆寇志偉孔哲景高樂馬佳音許寒琪

摘要:

針對(duì)牧場(chǎng)巡檢機(jī)器人定位精度和魯棒性低、建圖精度和穩(wěn)定性差的問題,提出一種基于激光雷達(dá)測(cè)距和測(cè)繪技術(shù)與改進(jìn)LOAM-SLAM算法的LOM-SLAM算法。LOM-SLAM算法在LOAM-SLAM算法的基礎(chǔ)上將SLAM分解為運(yùn)動(dòng)估計(jì)和地圖構(gòu)建兩個(gè)過程,利用激光雷達(dá)的高精度測(cè)距和測(cè)繪技術(shù),實(shí)現(xiàn)同時(shí)進(jìn)行機(jī)器人的定位和地圖構(gòu)建,從而提高定位與建圖的精度,提高魯棒性和穩(wěn)定性。將LOM-SLAM搭載在麥輪結(jié)構(gòu)的巡檢機(jī)器人上進(jìn)行試驗(yàn)驗(yàn)證。結(jié)果表明:在位姿估計(jì)試驗(yàn)中,LOM-SLAM算法的絕對(duì)軌跡誤差(ATE)和相對(duì)位姿誤差(RPE)的RMSE值分別僅為7.28m和2.23m,均低于對(duì)比算法。在定位與建圖試驗(yàn)中,當(dāng)巡檢機(jī)器人分別以0.2 m/s、0.5 m/s、1 m/s的速度運(yùn)動(dòng)時(shí),LOM-SLAM的定位誤差分別為0.12 m、1 m、1.2 m,具有更好的定位精度和穩(wěn)健性。

關(guān)鍵詞:巡檢機(jī)器人;激光雷達(dá);改進(jìn)SLAM;牧場(chǎng)環(huán)境;定位與建圖

中圖分類號(hào):S24

文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):2095-5553 (2024) 04-0222-09

收稿日期:2023年9月24日" 修回日期:2023年11月30日

基金項(xiàng)目:內(nèi)蒙古自治區(qū)級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(S202310128023);內(nèi)蒙古自治區(qū)高等學(xué)??茖W(xué)研究項(xiàng)目(NJZY21311)

第一作者:高金喆,男,2002年生,湖北襄陽人,碩士研究生;研究方向?yàn)橹悄苎矙z。E-mail: 2575949685@qq.com

通訊作者:寇志偉,男,1984年生,內(nèi)蒙古卓資人,博士,副教授;研究方向?yàn)槲C(jī)電傳感器技術(shù)、計(jì)算機(jī)測(cè)控技術(shù)等。E-mail: kouzhiwei@imut.edu.cn

Design of location and mapping algorithm of pasture inspection robot based on LiDAR

Gao Jinzhe1, Kou Zhiwei1, 2, 3, Kong Zhe1, Jing Gaole1, Ma Jiayin1, Xu Hanqi1

(1. College of Electric Power, Inner Mongolia University of Technology, Hohhot, 010051, China;

2. Inner Mongolia Key Laboratory of Electromechanical Control, Hohhot, 010051, China;

3. Engineering Research Center of Large Energy Storage Technology, Ministry of Education, Hohhot, 010051, China)

Abstract:

Aiming at the problems" of low positioning accuracy and robustness, as well as poor precision and stability in mapping for pasture inspection robots, a novel LOM-SLAM algorithm based on LiDAR ranging and mapping technology and improved LOM-SLAM algorithm is proposed. This algorithm is derived from an enhanced LOAM-SLAM algorithm, which integrates laser range finding and surveying technology. LOM-SLAM decomposes SLAM into two separate processes such as motion estimation and map construction. By leveraging the high precision of laser range finding and surveying technology, LOM-SLAM achieves simultaneous robot localization and map building, thereby enhancing the accuracy, robustness, and stability of both positioning and mapping. LOM-SLAM was installed on a designed inspection robot with Mecanum wheel structure for test verification. The results showed that in pose estimation tests, LOM-SLAM significantly outperformed other methods in terms of relative pose error (RPE) and absolute trajectory error (ATE), with RMSE values of just 7.28m and 2.23m, respectively, which were lower than the comparative algorithms. In the positioning and mapping tests, with the inspection robot moving at speeds of 0.2 m/s, 0.5 m/s, and 1 m/s, the positioning errors of LOM-SLAM were only 0.12 m, 1 m, and 1.2 m, respectively, demonstrating better positioning accuracy and robustness compared to the comparative algorithms.

Keywords:

inspection robots; LiDAR; improved SLAM; pastoral environment; positioning and mapping

0 引言

近年來,智能機(jī)器人技術(shù)在農(nóng)牧業(yè)領(lǐng)域,特別是在牧場(chǎng)的巡檢與管理中,得到了廣泛應(yīng)用[1]。傳統(tǒng)的牧場(chǎng)巡檢通常依賴于人工,這不僅耗費(fèi)大量的人力和時(shí)間,還可能因?yàn)樾屎蜏?zhǔn)確性不高而影響牧場(chǎng)的運(yùn)營(yíng)。為了提升效率,牧場(chǎng)開始采用巡檢機(jī)器人進(jìn)行巡檢和牧場(chǎng)管理。在這個(gè)過程中,精確的定位和有效的建圖是提高牧場(chǎng)巡檢機(jī)器人效率的關(guān)鍵[2, 3]。然而,在復(fù)雜的牧場(chǎng)環(huán)境中,傳統(tǒng)的定位方法(如全局定位系統(tǒng)和慣性導(dǎo)航系統(tǒng))的精度和魯棒性常受到限制[4, 5]。

為應(yīng)對(duì)復(fù)雜環(huán)境中的挑戰(zhàn),陳建等[3]引入基于視覺的同時(shí)定位與建圖(SLAM)技術(shù)。視覺SLAM的優(yōu)點(diǎn)在于其較低的成本和獲取高頻率圖像信息的能力。Labbe等[4]通過擴(kuò)展RTAB地圖,支持結(jié)合視覺和激光雷達(dá)的SLAM方法,以優(yōu)化自主導(dǎo)航應(yīng)用的性能。彭夢(mèng)等[5]則將SLAM算法與基于深度學(xué)習(xí)的方法及多種傳感器相結(jié)合,證明視覺SLAM在無人機(jī)、自動(dòng)駕駛和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域的有效應(yīng)用。盡管如此,視覺SLAM在牧場(chǎng)環(huán)境中的定位精度和建圖穩(wěn)定性仍有待提高[6-8]。

綜上所述,本文為解決牧場(chǎng)環(huán)境下低定位精度和建圖穩(wěn)定性的問題,提出一種基于激光雷達(dá)測(cè)距及測(cè)繪技術(shù)和改進(jìn)的LOAM-SLAM算法的LOM-SLAM算法。LOM-SLAM在LOAM-SLAM的基礎(chǔ)上將SLAM過程分解為2個(gè)主要部分:運(yùn)動(dòng)估計(jì)和地圖構(gòu)建。巡檢機(jī)器人使用激光雷達(dá)的高精度測(cè)距和測(cè)繪技術(shù),通過插值法得到任意時(shí)刻的位姿估計(jì),計(jì)算位姿變換的旋轉(zhuǎn)矩陣及平移向量,從而精確估計(jì)運(yùn)動(dòng)軌跡,實(shí)現(xiàn)自主定位。在世界坐標(biāo)系中,通過位姿估計(jì)匹配算法,得到更高精度的位姿變換,并據(jù)此構(gòu)建出新的地圖,從而提高定位和建圖的精度,增強(qiáng)系統(tǒng)的魯棒性和穩(wěn)定性。

1 牧場(chǎng)巡檢機(jī)器人結(jié)構(gòu)

牧場(chǎng)環(huán)境復(fù)雜,地面不均勻、土壤濕滑且松軟,并且常位于開闊的室外環(huán)境,需要應(yīng)對(duì)多變的氣候條件。因此,牧場(chǎng)巡檢機(jī)器人在設(shè)計(jì)時(shí)需具備高機(jī)動(dòng)性、耐候性。此外,巡檢機(jī)器人還應(yīng)盡量避免干擾動(dòng)物的活動(dòng),并能在灰塵環(huán)境中保持正常功能,同時(shí)確保在廣闊區(qū)域內(nèi)能實(shí)現(xiàn)穩(wěn)定通信和精準(zhǔn)導(dǎo)航[9, 10]。

本文采用麥輪(Mecanum wheel)結(jié)構(gòu)的巡檢機(jī)器人,確保機(jī)器人在牧場(chǎng)環(huán)境中活動(dòng)的靈活性和魯棒性,為巡檢機(jī)器人的定位與建圖提供硬件基礎(chǔ)。巡檢機(jī)器人的主板選用樹莓派4B,搭載SLAMTEC A2M12型激光雷達(dá)和INTERL D455型雙目攝像機(jī),其結(jié)構(gòu)如圖1所示。

3 試驗(yàn)驗(yàn)證

3.1 巡檢機(jī)器人位姿估計(jì)試驗(yàn)

為評(píng)估LOM-SLAM性能,試驗(yàn)選用的數(shù)據(jù)集為歐洲機(jī)器人挑戰(zhàn)賽數(shù)據(jù)集(EuRoC)。試驗(yàn)平臺(tái)為本文所設(shè)計(jì)的巡檢機(jī)器人,傳感器子系統(tǒng)負(fù)責(zé)實(shí)時(shí)采集環(huán)境數(shù)據(jù),包括激光雷達(dá)生成的點(diǎn)云和雙目攝像機(jī)捕捉到的圖像,主控計(jì)算機(jī)樹莓派4B以定時(shí)調(diào)用傳感器接口方式,獲取機(jī)器人的當(dāng)前位姿和周圍環(huán)境的幾何特征等數(shù)據(jù)流,通過解析、特征提取和匹配等操作,推導(dǎo)出機(jī)器人的實(shí)時(shí)位姿,經(jīng)過處理后的結(jié)果通過通信通道返回至由STM32芯片構(gòu)成的機(jī)器人底盤控制系統(tǒng),系統(tǒng)根據(jù)這些結(jié)果調(diào)整運(yùn)動(dòng)參數(shù),以確保機(jī)器人在自主導(dǎo)航中按照預(yù)定路徑行進(jìn)。通過連續(xù)循環(huán)執(zhí)行這一過程,機(jī)器人能夠在復(fù)雜環(huán)境中實(shí)現(xiàn)高效自主導(dǎo)航和精準(zhǔn)位姿估計(jì),具體操作框架如圖7所示。

本文采用輕型和地面優(yōu)化的激光雷達(dá)測(cè)距和測(cè)繪法(Lightweight and Ground-Optimized LiDAR Odometry and Mapping, LeGO-LOAM)[23]以及快速激光雷達(dá)實(shí)時(shí)定位與建圖技術(shù)(Fast LiDAR Odometry and Mapping on Autonomous Vehicles, Fast-LIO2)[24]與本文所提方法進(jìn)行結(jié)果對(duì)比。各個(gè)算法的掃描頻率范圍為10~20 Hz,掃描角度為360°,分辨率范圍為0.1°~0.5°。

本文選取絕對(duì)軌跡誤差(ATE)和相對(duì)位姿誤差(RPE)作為評(píng)價(jià)指標(biāo),運(yùn)用均方根誤差(RMSE)來量化ATE與RPE[21, 22]。試驗(yàn)流程包括如下步驟:首先,進(jìn)行試驗(yàn)設(shè)備準(zhǔn)備,選擇合適的激光雷達(dá)并建立試驗(yàn)平臺(tái)。其次,在牧場(chǎng)環(huán)境中執(zhí)行激光雷達(dá)掃描并記錄掃描數(shù)據(jù)。隨后,對(duì)掃描數(shù)據(jù)進(jìn)行預(yù)處理,包括噪聲去除和濾波等處理,將預(yù)處理后的數(shù)據(jù)輸入LeGO-LOAM、Fast-LIO2以及本文提出的方法,并運(yùn)行算法以獲取定位和建圖結(jié)果。最后,通過計(jì)算ATE和RPE,采用RMSE量化誤差,并進(jìn)行各算法的定位和建圖結(jié)果對(duì)比,分析其優(yōu)缺點(diǎn)。

各方法在EuRoC數(shù)據(jù)集上的RPE結(jié)果如圖8所示,橫坐標(biāo)x代表數(shù)據(jù)集的圖像序列幀數(shù),中間值與平均值是整個(gè)測(cè)試圖像序列得到的RPE的中間值與平均值。

由圖8(a)可知,LeGO-LOAM算法的RPE中間值和平均值分別為3.95m、4.22m,RMSE值高達(dá)3.15m。由圖8(b)可知,F(xiàn)ast-LIO2算法的RPE中間值和平均值分別為4.13m、4.42m,RMSE值高達(dá)2.27m。由圖8(c)可知,LOM-SLAM的RPE中間值和平均值分別為2.02m和1.86m,RMSE值僅為2.23m,其各項(xiàng)指標(biāo)明顯優(yōu)于LeGO-LOAM和Fast-LIO2算法。表明本文提出的方法具有更高的精度,能夠提供更準(zhǔn)確的相對(duì)位姿變換值。

各方法在EuRoC數(shù)據(jù)集上的ATE結(jié)果如圖9所示。從圖9(a)可知,LeGO-LOAM算法的ATE中間值和平均值分別為14.58m、14.02m,RMSE值高達(dá)14.54m。由圖9(b)可知,F(xiàn)ast-LIO2算法的ATE中間值和平均值分別為14.96m、11.66m,RMSE值高達(dá)15.25m。由圖9(c)可知,LOM-SLAM的ATE中間值和平均值分別為6.51m和5.73m,RMSE值高達(dá)7.28m,其各項(xiàng)指標(biāo)明顯優(yōu)于LeGO-LOAM和Fast-LIO2算法。說明LOM-SLAM在位姿估計(jì)方面具有顯著優(yōu)勢(shì)。

3.2 巡檢機(jī)器人定位與建圖試驗(yàn)

本文進(jìn)一步使用MATLAB進(jìn)行LOM-SLAM的可行性試驗(yàn)驗(yàn)證,采用LeGO-LOAM以及Fast-LIO2與本文所提方法進(jìn)行結(jié)果對(duì)比,試驗(yàn)對(duì)不同定位方法與真實(shí)值的誤差進(jìn)行測(cè)量,以驗(yàn)證本文所提方法的優(yōu)越性。評(píng)價(jià)指標(biāo)為定位方法檢測(cè)值與真實(shí)測(cè)量值的定位誤差值。選取內(nèi)蒙古工業(yè)大學(xué)體育場(chǎng)草坪作為試驗(yàn)環(huán)境,巡檢機(jī)器人試驗(yàn)環(huán)境如圖10所示,試驗(yàn)將機(jī)器人的轉(zhuǎn)向角設(shè)為-90°~90°,運(yùn)行速度分別設(shè)定為0.2 m/s、0.5 m/s、1 m/s。定位誤差結(jié)果如表1所示。

當(dāng)機(jī)器人的運(yùn)行速度為0.2 m/s時(shí),試驗(yàn)結(jié)果如圖11所示,圖中障礙物用藍(lán)色區(qū)域表示,信號(hào)屏蔽區(qū)域則是黃色部分。定位方法與真實(shí)值之間的誤差結(jié)果如圖12所示。由圖11可知,與LeGO-LOAM以及Fast-LIO2算法相比,LOM-SLAM算法的定位曲線與真實(shí)軌跡更吻合,說明LOM-SLAM算法的定位精度更高。從圖12可知,當(dāng)巡檢機(jī)器人的速度為0.2 m/s時(shí),LOM-SLAM的定位誤差僅為0.12 m,相對(duì)于LeGO-LOAM和Fast-LIO2,LOM-SLAM的定位誤差分別降低了0.12 m和0.18 m,表明LOM-SLAM在定位精度和魯棒性方面具有顯著的優(yōu)勢(shì)。

機(jī)器人運(yùn)行速度為0.5 m/s時(shí)的試驗(yàn)結(jié)果如圖13所示。不同定位方法與真實(shí)值之間的誤差結(jié)果如圖14所示。從圖13可知,當(dāng)速度提升至0.5 m/s時(shí),各個(gè)方法的定位曲線與真實(shí)軌跡的偏差均有所增加。然而,LOM-SLAM的定位曲線與真實(shí)軌跡依然保持著更接近的狀態(tài),顯示其在定位性能上明顯優(yōu)于其他兩種算法。由圖14可知,各個(gè)方法的定位誤差值均有所提升。具體來說,LOM-SLAM的定位誤差相比0.2 m/s時(shí)的誤差值僅增長(zhǎng)了0.8 m。相較之下,LeGO-LOAM方法的誤差值在速度為0.5 m/s時(shí)達(dá)到0.39 m,相比于0.2 m/s時(shí)的誤差值增長(zhǎng)0.15 m。Fast-LIO2方法的誤差值則達(dá)到0.42 m,相比0.2 m/s時(shí)的誤差值提升0.12 m。這表明LOM-SLAM的定位誤差值更小,顯示出更優(yōu)越的定位性能。

當(dāng)巡檢運(yùn)行速度為1 m/s時(shí)的試驗(yàn)結(jié)果如圖15所示。其定位方法與真實(shí)值之間的誤差結(jié)果如圖16所示。

由圖15可知,當(dāng)速度升至1 m/s時(shí),各個(gè)方法的定位曲線與真實(shí)軌跡的偏差都有所增加。然而,本文提出的方法在這個(gè)情況下展現(xiàn)出最小的偏差,這表明LOM-SLAM具備顯著的定位性能。由圖16可知,在運(yùn)行速度達(dá)到1 m/s時(shí),三種方法的定位誤差值都呈現(xiàn)上升趨勢(shì)。具體而言,LOM-SLAM的定位誤差最小,僅為0.28 m。相較之下,LeGO-LOAM方法的定位誤差值在速度為1 m/s時(shí)達(dá)到0.48 m,相比0.2 m/s時(shí)的誤差值增加0.24 m。Fast-LIO2方法的定位誤差值高達(dá)0.58 m,相比0.2 m/s時(shí)的誤差值增加0.28 m。這顯示出LOM-SLAM的定位精度更高,且具備更強(qiáng)的魯棒性。

4 結(jié)論

牧場(chǎng)作為畜牧業(yè)生產(chǎn)活動(dòng)中的重要組成部分,使用巡檢機(jī)器人提高牧場(chǎng)巡檢和管理的效率具有重要的現(xiàn)實(shí)意義。考慮到牧場(chǎng)的復(fù)雜環(huán)境,本文采用麥克納姆輪結(jié)構(gòu)的巡檢機(jī)器人,主板選用樹莓派4B,搭載SLAMTEC A2M12型激光雷達(dá)和Intel D455型雙目攝像機(jī),并使用LOM-SLAM算法,從而實(shí)現(xiàn)巡檢機(jī)器人的定位和建圖。

1)" 在位姿估計(jì)試驗(yàn)中,EuRoC數(shù)據(jù)集上,LOM-SLAM算法在RPE方面明顯優(yōu)于其他兩種方法,其RMSE值僅為2.23m,而LeGO-LOAM和Fast-LIO2的RMSE值分別為3.15m和2.27m。此外,LOM-SLAM算法的ATE也明顯優(yōu)于其他兩種方法,其RMSE值僅為7.28m,相較于其他兩種方法分別降低7.26m和7.97m。說明LOM-SLAM算法在位姿估計(jì)方面具有更高的精度,能夠提供更準(zhǔn)確的相對(duì)位姿變換值。

2)" 在定位與建圖試驗(yàn)中,當(dāng)機(jī)器人速度為0.2 m/s時(shí),LOM-SLAM的定位誤差僅為0.12 m,相對(duì)LeGO-LOAM和Fast-LIO2分別減少0.12 m和0.18 m。當(dāng)機(jī)器人速度分別增加到0.5 m/s和1 m/s時(shí),盡管各種方法的定位偏差都有所增加,但LOM-SLAM的定位曲線仍更接近真實(shí)軌跡。說明LOM-SLAM方法具有更優(yōu)異,更穩(wěn)定的定位性能,有利于提升建圖的準(zhǔn)確性。

3) 試驗(yàn)表明與其他兩種定位方法相比,LOM-SLAM的定位和建圖精度更高,適用于實(shí)際的牧場(chǎng)巡檢。然而,目前的探測(cè)方法無法覆蓋所有的環(huán)境信息,且在某些復(fù)雜的環(huán)境中,難以準(zhǔn)確識(shí)別和理解環(huán)境中的各種元素。為改進(jìn)這一點(diǎn),后續(xù)研究可以考慮引入更先進(jìn)的機(jī)器學(xué)習(xí)算法以提高環(huán)境適應(yīng)性和定位精度,或者結(jié)合其他傳感器以提升地圖構(gòu)建的準(zhǔn)確性。

參 考 文 獻(xiàn)

[1] 羅亮, 談莉斌, 余曉流, 等. 一種融合二維激光雷達(dá)和RGB-D相機(jī)的移動(dòng)機(jī)器人建圖方法研究[J]. 制造業(yè)自動(dòng)化, 2023, 45(4): 137-140, 190.

Luo Liang, Tan Libin, Yu Xiaoliu, et al. Research on a mobile robot mapping method based on the fusion of 2D LiDAR and RGB-D camera [J]. Manufacturing Automation, 2023, 45(4): 137-140, 190.

[2] 胡煉, 王志敏, 汪沛, 等. 基于激光感知的農(nóng)業(yè)機(jī)器人定位系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(5): 1-7.

Hu Lian, Wang Zhimin, Wang Pei, et al. Agricultural robot positioning system based on laser sensing [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(5): 1-7.

[3] 陳建, 于殿泓, 惠鑫鑫, 等. 基于二維激光雷達(dá)多車道車輛檢測(cè)與分車算法的研究[J]. 傳感技術(shù)學(xué)報(bào), 2022, 35(11): 1513-1520.

Chen Jian, Yu Dianhong, Hui Xinxin, et al. Research on multi-lane vehicle detection and separation algorithm based on two-dimensional LiDAR [J]. Chinese Journal of Sensors and Actuators, 2022, 35(11): 1513-1520.

[4] Labbe M, Michaud F. RTAB-Map as an open-source LiDAR and visual simultaneous localization and mapping library for large-scale and long-term online operation [J]. Journal of Field Robotics, 2019, 36(2): 416-446.

[5] 彭夢(mèng), 萬琴, 陳白帆, 等. 基于觀測(cè)概率有效下界估計(jì)的二維激光雷達(dá)和攝像機(jī)標(biāo)定方法[J]. 電子與信息學(xué)報(bào), 2022, 44(7): 2478-2487.

Peng Meng, Wan Qin, Chen Baifan, et al.A calibration method of 2D LiDAR and a camera based on effective lower bound estimation of observation probability [J]. Journal of Electronics amp; Information Technology, 2022, 44(7): 2478-2487.

[6] 張浩, 左杭, 劉寶華. 視覺與二維激光雷達(dá)的目標(biāo)檢測(cè)方法[J]. 電子測(cè)量與儀器學(xué)報(bào), 2022, 36(3): 79-86.

Zhang Hao, Zuo Hang, Liu Baohua. Target detection method for visual and 2D laser radar [J]. Journal of Electronic Measurement and Instrumentation, 2022, 36(3): 79-86.

[7] 王祝, 王智, 張旭, 等. 基于二維激光雷達(dá)的自適應(yīng)閾值聚類分割方法[J]. 中國(guó)激光, 2021, 48(16): 182-189.

Wang Zhu, Wang Zhi, Zhang Xu, et al. Adaptive threshold clustering segmentation method based on two-dimensional LiDAR [J]. Chinese Journal of Lasers, 2021, 48(16): 182-189.

[8] 張宏群, 劉開輝, 鄭峰, 等. 基于二維激光雷達(dá)植株高度測(cè)量系統(tǒng)的研究[J]. 電子測(cè)量技術(shù), 2021, 44(4): 97-103.

Zhang Hongqun, Liu Kaihui, Zheng Feng, et al. Research on plant height measurement system based on two-dimensional LiDAR [J]. Electronic Measurement Technology, 2021, 44(4): 97-103.

[9] 張磊, 徐孝彬, 何佳, 等. 基于室內(nèi)結(jié)構(gòu)特征的二維激光雷達(dá)與相機(jī)標(biāo)定方法(英文)[J]. 光子學(xué)報(bào), 2020, 49(12): 67-78.

Zhang Lei, Xu Xiaobin, He Jia, et al.Calibration method of 2D LiDAR and camera based on indoor structural features [J].Acta Photonica Sinica, 2020, 49(12): 67-78.

[10] 黃志清, 蘇毅, 王慶文, 等. 二維激光雷達(dá)與可見光相機(jī)外參標(biāo)定方法研究[J]. 儀器儀表學(xué)報(bào), 2020, 41(9): 121-129.

Huang Zhiqing, Su Yi, Wang Qingwen, et al. Research on extrinsic parameter calibration method of 2D laser rangefinder (LRF) and visible light camera [J]. Chinese Journal of Scientific Instrument, 2020, 41(9): 121-129.

[11] 牛秦玉, 暢科劍, 李珍惜. 基于ROS的多AGV在交叉路口下協(xié)同控制策略[J]. 現(xiàn)代制造工程, 2020(10): 33-38.

Niu Qinyu, Chang Kejian, Li Zhenxi. Cooperative control strategy of multi-AGV based on ROS at intersection [J]. Modern Manufacturing Engineering, 2020(10): 33-38.

[12] 田佳, 劉泓濱, 王宇, 等. 一種機(jī)器視覺的安防巡邏機(jī)器人系統(tǒng)設(shè)計(jì)[J]. 機(jī)械設(shè)計(jì)與制造, 2020(11): 254-257.

Tian Jia, Liu Hongbin, Wang Yu, et al. Design of a robot system with machine vision for security and patrol [J]. Machinery Design amp; Manufacture, 2020(11): 254-257.

[13] 蔡澤宇, 金誠(chéng)謙. 基于二維激光雷達(dá)點(diǎn)云的物體輪廓識(shí)別[J]. 應(yīng)用激光, 2020, 40(3): 513-518.

Cai Zeyu, Jin Chengqian. Object contour recognition based on 2D LIDAR point cloud [J]. Applied Laser, 2020, 40(3): 513-518.

[14] 張旭, 王智, 崔粲, 等. 二維激光雷達(dá)定位建圖系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J]. 光學(xué)技術(shù), 2019, 45(5): 596-600.

Zhang Xu, Wang Zhi, Cui Can, et al. Design and implementation of 2D LiDAR positioning and mapping system [J]. Optical Technique, 2019, 45(5): 596-600.

[15] 胡麗軍, 吳燕玲, 宋全軍, 等. 基于ST-GCN警用巡邏機(jī)器人警情識(shí)別系統(tǒng)設(shè)計(jì)[J]. 傳感器與微系統(tǒng), 2023, 42(6): 78-81.

Hu Lijun, Wu Yanling, Song Quanjun, et al. Design of police situation recognition system for police patrol robots based on ST-GCN [J]. Transducer and Microsystem Technologies, 2023, 42(6): 78-81.

[16] Spuler S M, Hayman M, Stillwell R A, et al. MicroPulse DIAL (MPD)-a diode-laser-based LiDAR architecture for quantitative atmospheric profiling [J]. Atmospheric Measurement Techniques, 2021, 14(6): 4593-4616.

[17] 靳荔成, 劉一萱, 白瑞峰, 等. 面向校園多機(jī)器人協(xié)同巡查的路徑規(guī)劃虛擬仿真實(shí)驗(yàn)設(shè)計(jì)[J]. 實(shí)驗(yàn)技術(shù)與管理, 2023, 40(3): 93-99.

Jin Licheng, Liu Yixuan, Bai Ruifeng, et al. Design of virtual simulation experiment of path planning for multi-robot cooperative patrol in campus [J]. Experimental Technology and Management, 2023, 40(3): 93-99.

[18] 張淑清, 鄧慶彪, 蔡志文. 安防巡邏機(jī)器人全覆蓋視覺導(dǎo)航方法[J]. 機(jī)械設(shè)計(jì)與制造, 2022(12): 264-268.

Zhang Shuqing, Deng Qingbiao, Cai Zhiwen. Visual navigation method for security patrol robot with full coverage [J]. Machinery Design amp; Manufacture, 2022(12): 264-268.

[19] Chen R, Li C, Zhu Y, et al. Extraction of crown information from individual fruit tree by UAV LiDAR [J]. Nongye Gongcheng Xuebao/Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(22): 50-59.

[20] 張輝, 王耀南, 易俊飛, 等. 面向重大疫情應(yīng)急防控的智能機(jī)器人系統(tǒng)研究[J]. 中國(guó)科學(xué): 信息科學(xué), 2020, 50(7): 1069-1090.

Zhang Hui, Wang Yaonan, Yi Junfei, et al. Research on intelligent robot systems for emergency prevention and control of major pandemics [J]. Scientia Sinica (Informationis), 2020, 50(7): 1069-1090.

[21] 趙云濤, 李宗剛, 杜亞江. 基于最大空閑時(shí)間的分布式巡邏機(jī)器人數(shù)量?jī)?yōu)化[J]. 模式識(shí)別與人工智能, 2020, 33(4): 375-382.

Zhao Yuntao, Li Zonggang, Du Yajiang. Team size optimization for distributed patrol of multi-robot systems based on maximum idle time [J]. Pattern Recognition and Artificial Intelligence, 2020, 33(4): 375-382.

[22] 徐曉蘇, 李諾, 姚逸卿. 基于快速回環(huán)檢測(cè)的室外環(huán)境下激光雷達(dá)SLAM算法[J]. 中國(guó)慣性技術(shù)學(xué)報(bào), 2022, 30(6): 716-722.

Xu Xiaosu, Li Nuo, Yao Yiqing. LiDAR SLAM algorithm in outdoor environment based on fast loop detection [J]. Journal of Chinese Inertial Technology, 2022, 30(6): 716-722.

[23] 李歡, 余紅英. 基于FPGA的高性能激光雷達(dá)測(cè)距系統(tǒng)設(shè)計(jì)[J]. 電子測(cè)量技術(shù), 2021, 44(20): 6-10.

Li Huan, Yu Hongying. Design of high-performance LiDAR ranging system based on FPGA [J]. Electronic Measurement Technology, 2021, 44(20): 6-10.

[24] 李莉. 基于傾斜攝影測(cè)量和激光雷達(dá)的三維模型快速制作方法研究[J]. 測(cè)繪與空間地理信息, 2022, 45(9): 220-221, 225.

Li Li. Research on rapid construction method of 3D models based on oblique photogrammetry and LiDAR [J]. Geomatics amp; Spatial Information Technology, 2022, 45(9): 220-221, 225.

主站蜘蛛池模板: 99视频在线精品免费观看6| 亚洲日韩国产精品无码专区| 第九色区aⅴ天堂久久香| 在线国产毛片手机小视频| 欧美日韩一区二区在线免费观看 | 伊人国产无码高清视频| 国产午夜福利片在线观看| 亚洲一区二区在线无码| 亚洲欧美国产五月天综合| 精品国产美女福到在线不卡f| 91精品在线视频观看| 国产特级毛片aaaaaa| 四虎在线高清无码| 亚洲色图欧美在线| 婷婷亚洲天堂| 久草中文网| 一区二区三区四区在线| 97精品国产高清久久久久蜜芽| 国产精品专区第一页在线观看| 欧美日本在线播放| 欧美精品成人一区二区视频一| 亚洲天堂久久| 国产欧美在线| 国内丰满少妇猛烈精品播| 日韩精品久久无码中文字幕色欲| 成人综合在线观看| 尤物国产在线| 亚洲成在人线av品善网好看| 欧美日韩91| 亚洲乱码精品久久久久..| 日韩av电影一区二区三区四区| 婷婷中文在线| 亚洲啪啪网| 国内精品久久九九国产精品 | 99热国产在线精品99| 成人亚洲视频| 国产凹凸一区在线观看视频| 欧美翘臀一区二区三区| 青青青草国产| 成人毛片免费观看| 久久久久亚洲精品成人网| 一区二区欧美日韩高清免费 | 内射人妻无套中出无码| 亚洲综合二区| 中文字幕在线看视频一区二区三区| 日韩欧美91| 91青青草视频| 在线观看国产精美视频| 91色综合综合热五月激情| 亚洲成人一区二区| 国产原创演绎剧情有字幕的| 二级毛片免费观看全程| 国产69精品久久久久孕妇大杂乱| 亚洲精品va| 国产农村妇女精品一二区| 超碰aⅴ人人做人人爽欧美| 2021国产v亚洲v天堂无码| 精品视频福利| 国产JIZzJIzz视频全部免费| 一级毛片在线免费视频| 男人天堂伊人网| 免费可以看的无遮挡av无码| 亚洲无码视频一区二区三区 | 99这里只有精品6| 茄子视频毛片免费观看| 国产午夜一级淫片| 婷婷综合色| 国产网站免费| 日本黄网在线观看| 国产96在线 | 91最新精品视频发布页| 亚洲精品国产自在现线最新| 国产视频资源在线观看| 日本午夜网站| 国产亚洲男人的天堂在线观看| 一级高清毛片免费a级高清毛片| 欧美亚洲国产精品久久蜜芽| 不卡视频国产| 国产一区二区三区在线观看免费| 国产成人精品第一区二区| 色哟哟国产精品一区二区| 黑色丝袜高跟国产在线91|