999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

點線融合雙目定位與建圖多維提升方法

2022-01-01 00:00:00陳維興王琛陳斌
計算機應用研究 2022年3期

摘 要:針對現有點線融合視覺SLAM(simultaneous localization and mapping)方法中線提取和線匹配準確度低導致定位精度下降的問題,從多維度對現有點線融合雙目視覺SLAM方法進行了改進研究。通過內部參數調整和長度閾值篩選改進LSD(line segment detection)提取質量;基于幾何約束將線特征匹配抽象為稀疏最小化問題,求得最優解即找到線段最佳匹配;基于圖像紋理評分和匹配成功特征數量分配點線特征權重,優化了后端點線特征融合策略。相比LSD算法和LBD(line binary descriptor)匹配方法,短線段數量平均下降了67%,匹配準確度平均提高了18%;相較于PL-SLAM,定位誤差在EuRoC和KITTI數據集上分別下降了15%和45%左右。實驗表明,通過多維度改進點線SLAM方法各模塊的性能有效提高了SLAM系統的定位精度。

關鍵詞:機器視覺;同步定位與建圖(SLAM);點線融合;線特征提取;幾何約束

中圖分類號:TP391.41 文獻標志碼:A

文章編號:1001-3695(2022)03-054-0956-05

doi:10.19734/j.issn.1001-3695.2021.07.0293

基金項目:國家自然科學基金委員會—中國民航局民航聯合研究基金資助項目(U1933107);2020年天津市研究生科研創新項目(人工智能專項) (2020YJSZXS16);中國民航大學研究生科研創新資助項目(2020YJS027)

作者簡介:陳維興(1981-),男,天津人,副教授,碩導,碩士,主要研究方向為視覺SLAM、工業網絡、 智慧機場物聯網;王琛(1995-),男(通信作者),安徽黃山人,碩士研究生,主要研究方向為視覺SLAM、場景識別(chenwang1127@163.com);陳斌(1974-),男,陜西鳳翔人,副研究員,碩導,博士,主要研究方向為機場自動化設備.

Multi-dimensional improving method for point-line fusion stereo SLAM

Chen Weixing,Wang Chen?,Chen Bin

(College of Electronic Information amp; Automation,Civil Aviation University of China,Tianjin 300300,China)

Abstract:Due to low line extraction and matching accuracy,existing point-line fusion visual SLAM(simultaneous localization and mapping) methods have low localization accuracy.This paper improved existing point-line fusion stereo visual SLAM method from multiple dimensions.Firstly,this paper improved the LSD(line segment detection) extraction quality through internal parameters adjustment and length threshold filtering.Secondly,on the basis of geometric constraints,it abstracted the line feature matching as a sparse minimization problem to find best match of line segment.Thirdly,on the basis of image texture score and number of successfully matched features,this paper improved back-end point-line feature fusion strategy by assigning point-line feature weights.Compared with LSD algorithm and LBD(line binary descriptor) matching method,the number of short line segments decreased by 67% on average and matching accuracy increased by 18% on average.Compared with PL-SLAM,localization error dropped by about 15% and 45% respectively on the EuRoC and KITTI datasets.Experiments demonstrate that the proposed method enhances localization accuracy of SLAM system effectively by improving various modules performance of point-line SLAM method in multiple dimensions.

Key words:machine vision;SLAM;point-line fusion;line feature extraction;geometric constraint

0 引言

視覺同步定位與建圖(SLAM)技術是機器人自主導航和增強現實的重要研究方向之一。相較于直接跟蹤法,特征法對于光照變化有更好的魯棒性和定位精度[1],如ORB-SLAM2[2]。然而在紋理缺失的環境或快速運動時,僅基于點特征的方法無法提取出足夠的有效特征點來保證穩定跟蹤,從而導致運動估計失敗。

線特征具有良好的旋轉不變性和光照不變性,蘊涵更高層次的結構幾何信息,對紋理變化的適應能力更強。為了提高低紋理場景下視覺SLAM方法的魯棒性和精度,研究人員提出在系統前端加入線特征。Smith等人[3]將線特征集成到單目EKF SLAM(extended Kalman filter SLAM)算法中,由于無法穩定提取出線特征,其精度不增反降。在很長一段時間,線特征提取和匹配穩定性都在影響線特征在SLAM中的發揮,直到LSD[4]算法和LBD[5]描述子等方法出現,線特征開始在SLAM領域被廣泛使用。

近年來大量研究聚焦在點線特征融合的方法上。Lu等人[6]提出了點線融合RGB-D視覺里程計,并且證明了在高斯噪聲的假設下基于點線融合特征的方法比僅使用一種特征類型的方法精度更高。Pumarola等人[7]在單目ORB-SLAM系統中加入edgelet線特征,并使用線特征初始化。謝曉佳[8]基于ORB-SLAM提出點線融合雙目SLAM算法,改進線特征提取與匹配方法,在后端點線誤差模型中使用正交表示參數化空間線段,并且在閉環檢測任務中加入線特征,由于線特征提取與匹配方法不足導致數據關聯準確度不高,在部分序列中所提方法相比ORB-SLAM精度反而下降。王丹等人[9]在單目點線視覺SLAM算法中融合了輪式里程計,但構建誤差模型時只是簡單疊加點線特征。Gomez-Ojeda等人[10]提出PL-SLAM,在后端優化時使用協方差矩陣加權融合點線誤差,精度有所提升,但由于計算量增加,系統實時性受到影響。陳興華等人[11]在單目點線視覺SLAM算法中引入點線不變量進行線特征匹配,提高線特征數據關聯的準確性,但是該方法實時性不佳。陶交等人[12]在圖像預處理之后再提取特征,優化了點特征匹配效果,并對點線特征加權融合。魏鑫燏等人[13]基于待匹配線段近似共線和端點近似重合的假設改進單目SLAM系統中線特征關聯方法,提高了關聯準確率。

目前,絕大多數點線融合SLAM方法都是直接使用LSD算法和LBD描述子提取和匹配線特征,在特定的位姿估計問題中,需要能穩定跟蹤的線特征且提取和匹配任務對實時性要求較高。傳統LSD為了細化場景會提取出大量線段,其中占比很多的短線段在幀間無法穩定跟蹤,并且提取耗時。類似LBD描述子這種基于外觀的匹配方法在高動態運動時準確度顯著下降,并且大多數研究方法會忽略不同特征類型的差異,只是將點線誤差簡單地疊加融合,這些問題是造成SLAM系統整體定位精度不高的關鍵因素。

針對目前研究中存在的問題,本文提出一種多維度提升的點線融合雙目SLAM方法,分別從線特征提取、線特征匹配、點線融合策略三個角度加以改進,從而提高系統精度和魯棒性。

1 點線SLAM系統及提升模塊

系統主要包括圖像預處理、視覺里程計和回環檢測三個部分。圖像預處理模塊提取、跟蹤點線特征并初始化,預處理后的圖像幀并行載入視覺里程計模塊和回環檢測模塊;視覺里程計模塊估計當前幀位姿,建立關鍵幀特征地圖并選取關鍵幀載入回環檢測模塊;回環檢測成功后進行全局優化,更新相機位姿和地圖,整體框架如圖1所示。其中,線特征提取對線特征匹配模塊呈單向相關關系,提取質量越高,匹配準確度越高,反之亦然。提取模塊的誤差會被單向傳遞到匹配模塊,線段提取質量低使得線特征數據關聯準確度下降,誤差逐級傳遞,最終在定位精度上顯現出來。后端優化模塊接收前端傳遞的特征跟蹤誤差,通過集束調整方法優化構建好的誤差模型,減小系統最終的定位誤差。誤差模型作為后端優化的目標函數,在點線SLAM方法中構建模型時需要考慮點線兩種類型特征的差異,合理地對其分配相應權重。

本文從線特征提取、匹配及點線誤差融合三個影響定位精度的因變量x出發,分別通過相應提升方法映射f改進線特征提取、匹配方法及加權融合點線誤差,最終達到提升精度的目標y。

2 點線SLAM多維提升方法(MIMPLS)

MIMPLS包括基于LSD改進的線特征提取(ILSD)、基于幾何約束的線特征匹配(LSMGC)和自適應點線特征融合策略(APLS)。

2.1 ILSD

LSD算法并非針對特定的位姿估計問題而設計,它會提取出數量較多的短線段且比較耗時。在特定的位姿估計問題中,只需提取跟蹤穩定的長線段,無須精細化刻畫場景,并且對實時性要求較高,此外過多的短線段會增加線段匹配難度,因此在視覺SLAM方法中直接使用LSD是不合理的。本文通過調整內部參數和長度閾值篩選對傳統LSD進行改進。

在實驗過程中發現通過調整LSD的一些內部參數能顯著提高提取速度,分別是金字塔層數、尺度因子和最小密度閾值。LSD生成N層高斯金字塔來表示原始圖像,在每層金字塔中提取線特征;此外,封閉矩形中與矩形主軸方向對齊的區域點密度大于最小密度閾值時,線段才能正常合成。實驗中設置金字塔層數N為3,尺度因子為0.5,最小密度閾值為0.5時能夠加快提取過程,速度大約為調整前LSD的三倍。

為了提升線特征提取質量,通過長度閾值篩選出利于位姿估計的長線段,剔除不穩定的、對位姿估計貢獻很小的短線段。線段長度需要滿足下列條件:

其中:lenli和lenmin分別為第i條線段長度和最短線段長度;WI和HI分別為輸入圖像幀寬度和高度,適應圖像尺寸變化帶來的影響;[·]表示向上取整;β表示長度因子;k表示當前幀提取線特征的數量。

文獻[14]使用類似策略改善線段質量,但其僅憑經驗設置長度因子,在線段數量變化較大時無法魯棒應對。若將長度因子設置較大,在線段較少時會使位姿估計時有效跟蹤線段數量不足;若設置較小,在線段較多時無法有效剔除冗余短線段。本文通過函數變換β=1-e-0.001·k將線段數量映射到長度因子中,線段數量較小時,放松長度閾值來獲得更多線段進行幀間跟蹤;線段數量較大時,縮緊長度閾值減少短線段對位姿估計穩定性帶來的影響,這有效提高了長度閾值篩選策略在不同線段數量下的魯棒性。

2.2 LSMGC

基于外觀的匹配方法在系統高動態范圍成像導致線特征外觀發生較大變化時,匹配常常會失效。為了提高線特征匹配的穩定性和準確度,本文提出基于幾何約束的線特征匹配方法。

在基于幾何的方法中,線特征匹配成功的條件包括待匹配線段對在投影平面上存在平行關系、滿足對極幾何和點線仿射不變量約束。推導過程如下:

定義線段lk={sk,ek},sk和ek分別為線段起點和終點。設參考線段為li,查詢線段為lj,組成待匹配線段對(li,lj),線段對夾角θij表示線段對之間的平行關系:

雙目匹配和幀間匹配都包含線特征匹配,通過線段對中點流向量xij=mi-mj,mk=(sk+ek)/2與二維坐標系下坐標軸的夾角表示對極幾何約束關系。在雙目匹配中,對極幾何約束表示為

在完成式(10)的求解后得到稀疏化向量ωi。然后對向量ωi進行歸一化,向量ωi中分量最大的ωim表示在查詢幀中線段lm為參考幀中線段li的最佳匹配。圖2是本文方法LSMGC與基于LBD線匹配方法在EuRoC數據集[16]中兩幀高動態范圍圖像的匹配效果對比,圖中光照發生較大變化,造成線特征外觀具有明顯差異。從對比結果可以看出,LSMGC相比LBD獲得了更多的正確匹配。

2.3 APLS

大多數研究在組合不同類型特征時直接疊加點線誤差,未考慮不同特征在成本函數中各自的權重。本文針對當前點線融合方法的普遍缺陷提出了APLS方法并部署在后端模塊。

2.3.1 圖像紋理評分

將圖像幀分為五個子塊Pi(i=0,1,…,4),如圖3所示。統計各子塊Pi內點特征數目Ni,計算Ni的均值Na,定義圖像紋理評分如下:

式(11)表達了圖像紋理的豐富程度,評分越高表示紋理越豐富,越低則紋理越稀疏。

2.3.2 點線誤差融合策略

后端模塊采用基于圖像紋理評分及特征匹配成功數目的加權融合策略對代價函數中的點線誤差賦予各自權重,解決了目前直接融合不同類型誤差導致精度下降的問題。

以相機位姿Tkcw和三維空間點Xkw,i、線Lkw,j作為頂點,相機位姿與三維點及空間線段的關系作為邊構建圖模型,并且在優化時使用正交表示參數化空間線段。由式(12)(13)可知,位姿—三維點邊和位姿—空間直線邊的誤差為

設觀測誤差為高斯分布,代價函數C表示為

其中:wp、wl分別為點、線特征觀測誤差權重系數;∑xk,i、∑lk,j表示點、線特征的觀測協方差;ρp、ρl為抑制異常值的Huber魯棒性代價函數,定義如式(15)所示。

基于圖像紋理評分和匹配成功的特征數目設置權重系數ωp和ωl。設當前第k幀圖像匹配成功的線特征數目Nl與點特征數目Np之比rkn=Nl/Np,圖像綜合評分Gkp由rkn和上述圖像紋理評分Sp兩部分組成,如式(16)所示。

其中:λ為自適應比例因子,與Np呈正相關。設置rkn的閾值為r控制在高度結構化場景下系數的增長規模,實驗時將其設置為1.4。權重系數wp、wl由式(17)計算可得。

3 實驗結果及分析

實驗內容包括測試方法實時性和精度。實時性實驗通過統計方法跟蹤各部分耗時來驗證;精度實驗包括測試線特征提取和匹配的質量和準確度,測試SLAM方法在公開數據集和實際場景下的定位精度。實驗具體配置如表1所示。

3.1 實時性實驗結果及分析

在KITTI數據集[17]上所有序列進行五次實驗,記錄每次跟蹤部分各模塊運行耗時并計算平均值,結果如表2所示。MIMPLS耗時比PL-SLAM少23.0%,平均每幀耗時約為85.6 ms,處理速度達到11.7 fps,KITTI數據集的幀率為10 fps,MIMPLS滿足實時性要求。

相比于PL-SLAM,MIMPLS方法在線段提取模塊使用調整后的內部參數加快提取速度,耗時更少;但在線段匹配模塊中MIMPLS耗時更多,因為PL-SLAM使用LBD二進制線段描述子在匹配速度上占據優勢,MIMPLS將線段匹配轉換為尋找最優解,求解過程會花費更多時間。MIMPLS通過長度閾值篩選只保留穩定跟蹤的線段,在局部地圖構建模塊中只需恢復更少的空間線段,因此耗時更少。

3.2 精度實驗結果及分析

3.2.1 線特征提取質量測試

在EuRoC數據集中線特征較多的MH_02_easy、MH_05_difficult、V2_01_easy和V2_03_difficult序列上進行五次實驗,統計平均每幀線特征提取數量,ILSD作為實驗組,傳統LSD及常值因子LSD作為對照組,結果如表3所示。相比于傳統LSD,ILSD提取數量明顯下降,平均降幅為66.94%,這是因為MIMPLS在傳統LSD基礎上加入了長度閾值篩選,跟蹤穩定性差的短線段被大量剔除。結合表3數據與圖4實際運行效果可以看出,將長度因子設置為常值在應對不同場景時魯棒性較差。圖4(b)中,常值因子LSD在上方圖像中提取效果較好,在下方圖像則檢測出很多不穩定的短線段,說明在線段數量規模跨度很大時,固定的長度因子在篩選線段時無法靈活地應對數量變化帶來的影響。

3.2.2 線特征匹配準確度測試

選取EuRoC數據集V2_03_difficult序列中的兩幀高動態范圍圖像進行五次實驗,統計正確匹配數量并計算平均值和正確率,結果如表4所示。相比于基于LBD描述子的方法,LSMGC準確度更高,正確匹配對的平均增幅達到18.7%。結合圖2可知,LSMGC可以正確匹配一些外觀上并不相似的線段,而LBD無法正確匹配。基于ILSD和LSMGC的方法相比基于傳統LSD和LBD描述子的方法,正確率提升了26.0%,說明ILSD和LSMGC的組合對線特征數據關聯有著積極影響。

3.2.3 整體精度測試(EuRoC數據集)

在EuRoC數據集所有序列上進行定位精度實驗,圖5為MIMPLS在MH_05_difficult序列的實際運行效果圖,包括軌跡及稀疏點線地圖。不同算法在EuRoC數據集下的絕對軌跡誤差(absolute trajectory error,ATE)如表5所示,表中加粗值為當前序列下不同算法估計誤差的最小值,“-”表示實驗未完整運行。

由表5可知,基于點線融合特征的方法在大部分場景下優于僅基于點特征的方法。相較于PL-SLAM和文獻[12]的方法,MIMPLS由于線提取質量和線匹配準確度都更高、精度占優,特別是在紋理缺失的MH_05_difficult序列和圖像模糊的V2_03_difficult序列,MIMPLS優勢更大。在完整運行的序列中,相比于ORB-SLAM2,MIMPLS誤差平均下降了11.4%;相比于同類型的PL-SLAM和文獻[12]方法,MIMPLS誤差分別平均下降了16.0%和10.3%。

圖6是不同算法在MH_05_difficult序列下xy平面軌跡與真實值對比圖,相比于ORB-SLAM2、PL-SLAM和文獻[12]方法,MIMPLS與真實值更接近、誤差更小。PL-SLAM和文獻[12]方法由于線特征數據關聯準確度低,精度反而不如ORB-SLAM2。

結合表5結果和圖6軌跡對比分析得出,線特征提取和匹配的準確度與點線SLAM方法定位精度有密切的正向聯系,提升線特征提取和匹配的準確度對提升點線SLAM方法定位精度是有效的。

3.2.4 整體精度測試(KITTI數據集)

KITTI數據集是評價視覺SLAM/VO系統性能的基準數據集,選取線特征較為豐富的01、03、04、07和10序列進行實驗,不同算法在上述序列下的ATE如表6所示。

文獻[8]提出的方法精度全面落后于僅基于點特征的方法ORB-SLAM2,并且該方法在與同類型方法的比較中精度也是最低的。該方法與PL-SLAM、文獻[12]方法都是直接使用傳統的LSD和LBD,無法穩定跟蹤線特征。在后端優化過程中該方法只是將點線特征簡單疊加融合,而PL-SLAM、文獻[12]方法和MIMPLS在后端優化中都考慮了點線誤差的權重,PL-SLAM基于概率分配權重,文獻[12]使用文獻[11]的權重分配方法加權融合點線誤差,MIMPLS自適應融合點線誤差。

MIMPLS定位誤差相比PL-SLAM、文獻[12]方法分別平均下降了45.8%、46.2%, 但是與ORB-SLAM2精度相差不大。由于KITTI數據集是室外數據集,相對于點特征跟蹤、光照等環境因素為線特征跟蹤帶來一定的挑戰。在一些序列上,MIMPLS定位精度反而比ORB-SLAM2低。PL-SLAM、文獻[12]方法定位誤差比ORB-SLAM2分別平均上升了57.3%、40.6%,說明正確的線特征數據關聯能提升定位精度,而錯誤的關聯反而會使得精度下降。

圖7是不同方法在07序列下xz平面軌跡與真實值對比圖。基于點線特征融合的PL-SLAM和文獻[12]方法比僅基于點特征的ORB-SLAM2定位誤差更大,而MIMPLS軌跡與真實值最接近,再次說明線特征數據關聯準確度是影響定位精度的關鍵因素之一,若準確度較低,反而會因為線特征的錯誤跟蹤,點線融合方法比點特征方法有更大的誤差。

3.2.5 整體精度測試(實際低紋理場景)

選取實驗樓走廊及大廳場景進行實驗,數據采集設備包括TurtleBot2平臺、PC主機和ZED雙目相機(幀率最高達到100 fps),相機安裝方式為平視。不同方法的實際場景運行效果如圖8所示。從圖8可以看出,走廊及大廳場景白墻較多,提取到的點特征數量很少,但線特征比較豐富。PL-SLAM提取了很多難以跟蹤的短線段,MIMPLS則篩選出了能穩定跟蹤的長線段。

圖9是實際場景下不同算法的xy平面運行軌跡與真實值對比圖,四種方法中MIMPLS最接近軌跡真值,文獻[12]方法、PL-SLAM精度依次降低。ORB-SLAM2因穩定跟蹤的點特征數目較少,精度最低。在實際的室內低紋理場景下,點線融合特征相比單一特征能為SLAM系統提供更加穩定的跟蹤。

4 結束語

本文探索了適用于紋理缺失或圖像模糊場景下點線融合雙目SLAM的多維提升方法,從三個方面進行改進:改進LSD提取線特征質量;提出基于幾何約束的線匹配方法以提升線段匹配準確度;在后端優化中基于圖像特點分配點線特征各自權重,自適應融合點線特征。

實驗結果表明,MIMPLS滿足實時性要求,在公共數據集和實際場景下整體定位精度都取得了不錯的結果。相比于目前同類型的PL-SLAM,MIMPLS在EuRoC和KITTI數據集定位誤差分別平均下降了16.0%和45.8%;相比于同類型最新研究成果(文獻[12]方法),MIMPLS在EuRoC和KITTI數據集定位誤差分別平均下降了10.3%和46.2%,這在實際場景實驗中精度也是最好的。說明在低紋理環境下,點線SLAM方法相比僅基于點特征的方法在定位精度上是有優勢的,線特征提取與匹配是影響點線SLAM方法定位精度的關鍵因素之一,特征融合策略對于多特征類型SLAM方法也是值得研究的方向。

參考文獻:

[1]Cadena C,Carlone L,Carrillo H,et al.Past,present,and future of simultaneous localization and mapping:towards the robust perception age[J].IEEE Trans on Robotics,2016,32(6):1309-1332.

[2]Mur-Artal R,Tardós J D.ORB-SLAM2:an open-source SLAM system for monocular,stereo,and RGB-D cameras[J].IEEE Trans on Robotics,2017,33(5):1255-1262.

[3]Smith P A,Reid I D,Davison A J.Real-time Monocular SLAM with straight lines[C]//Proc of the 17th British Conference on Machine Vision.2006:17-26.

[4]Von Gioi R G,Jakubowicz J,Morel J M,et al.LSD:a line segment detector[J].Image Processing on Line,2012,2(4):35-55.

[5]Zhang Lilian,Koch R.An efficient and robust line segment matching approach based on LBD descriptor and pairwise geometric consistency[J].Journal of Visual Communication and Image Representation,2013,24(7):794-805.

[6]Lu Yan,Song Dezhen.Robust RGB-D odometry using point and line features[C]//Proc of IEEE International Conference on Computer Vision.Washington DC:IEEE Computer Society,2015:3934-3942.

[7]Pumarola A,Vakhitov A,Agudo A,et al.PL-SLAM:real-time monocular visual SLAM with points and lines[C]//Proc of IEEE Internatio-nal Conference on Robotics and Automation.Piscataway,NJ:IEEE Press,2017:4503-4508.

[8]謝曉佳.基于點線綜合特征的雙目視覺SLAM方法[D].杭州:浙江大學,2017.(Xie Xiaojia.Stereo visual SLAM using point and line features[D].Hangzhou:Zhejiang University,2017.)

[9]王丹,黃魯,李垚.基于點線特征的單目視覺同時定位與地圖構建算法[J].機器人,2019,41(3):392-403.(Wang Dan,Huang Lu,Li Yao.Monocular visual SLAM algorithm based on point-line feature[J].Robot,2019,41(3):392-403.)

[10]Gomez-Ojeda R,Moreno F A,Zuiga-Noёl D,et al.PL-SLAM:a stereo SLAM system through the combination of points and line segments[J].IEEE Trans on Robotics,2019,35(3):734-746.

[11]陳興華,蔡云飛,唐印.一種基于點線不變量的視覺SLAM算法[J].機器人,2020,42(4):485-493.(Chen Xinghua,Cai Yunfei,Tang Ying.Visual SLAM algorithm based on line point invariants[J].Robot,2020,42(4):485-493.)

[12]陶交,范馨月,周非.點線特征融合的雙目視覺SLAM算法[J/OL].小型微型計算機系統.(2021-05-24)[2021-07-25].https://kns.cnki.net/kcms/detail/21.1106.TP.20210521.1733.035.html.(Tao Jiao,Fan Xinyue,Zhou Fei.Point-line feature fusion in stereo visual SLAM algorithm[J/OL].Journal of Chinese Computer Systems.(2021-05-24)[2021-07-25].https://kns.cnki.net/kcms/detail/21.1106.TP.20210521.1733.035.html.)

[13]魏鑫燏,黃俊,楊曉飛,等.基于線特征的單目SLAM中的迭代數據關聯算法[J].計算機應用研究,2020,37(1):57-61.(Wei Xinyu,Huang Jun,Yang Xiaofei,et al.Iterative data association algorithm for line-based monocular SLAM[J].Application Research of Computers,2020,37(1):57-61.)

[14]趙良玉,金瑞,朱葉青,等.基于點線特征融合的雙目慣性SLAM算法[J].航空學報,2021,42(12):325117.(Zhao Liangyu,Jin Rui,Zhu Yeqing,et al.Stereo visual-inertial SLAM with point and line features[J].Acta Aeronautica et Astronautica Sinica,2021,42(12):325117.)

[15]Fan Bin,Wu Fuchao,Hu Zhanyi.Robust line matching through line-point invariants[J].Pattern Recognition,2012,45(2):794-805.

[16]Burri M,Nikolic J,Gohl P,et al.The EuRoC micro aerial vehicle datasets[J].International Journal of Robotics Research,2016,35(10):1157-1163.

[17]Geiger A,Lenz P,Stiller C,et al.Vision meets robotics:the KITTI dataset[J].International Journal of Robotics Research,2013,32(11):1231-1237.

主站蜘蛛池模板: 亚洲无码精品在线播放 | 亚洲天堂日韩在线| 黄色网在线| 人妻无码AⅤ中文字| 国产一级毛片在线| 激情六月丁香婷婷四房播| 欧美激情伊人| 亚洲永久免费网站| 亚洲三级色| 国产福利影院在线观看| 在线a网站| 亚洲国产成人超福利久久精品| 伊人久久大香线蕉综合影视| 亚洲天堂视频在线播放| 亚洲天堂2014| 国产色爱av资源综合区| 99久久精品免费观看国产| 三区在线视频| 中文字幕人成乱码熟女免费| 日本亚洲成高清一区二区三区| 好久久免费视频高清| 久久综合色视频| 在线看片国产| 亚洲无码精品在线播放| 一级爱做片免费观看久久| 亚洲床戏一区| 精品一区国产精品| 亚洲三级a| 亚洲天堂区| 欧美色视频在线| 亚洲伊人电影| 精品久久国产综合精麻豆| 四虎永久在线| 国产精品自拍合集| 国产极品美女在线播放| 26uuu国产精品视频| 最新无码专区超级碰碰碰| 欧美日本在线| 永久成人无码激情视频免费| 九九这里只有精品视频| 亚洲 欧美 日韩综合一区| 国产精品999在线| 久久免费精品琪琪| 国产日韩欧美成人| 国产精品亚洲综合久久小说| 日本免费精品| 88av在线| 久久久久国产精品嫩草影院| 超碰91免费人妻| 二级特黄绝大片免费视频大片| 国产精品分类视频分类一区| 免费国产好深啊好涨好硬视频| 久久久久夜色精品波多野结衣| 亚洲人成日本在线观看| 亚洲国产清纯| 色综合色国产热无码一| 亚洲一区二区三区中文字幕5566| 亚洲一区二区三区麻豆| 久久精品人人做人人爽97| 91尤物国产尤物福利在线| 91av国产在线| 亚洲AV无码一区二区三区牲色| 亚洲精品国产首次亮相| 91亚洲视频下载| 亚洲性色永久网址| 99久久精品国产精品亚洲| 婷婷激情五月网| 国产在线97| 色综合久久无码网| 国产综合在线观看视频| 91人妻日韩人妻无码专区精品| 香蕉在线视频网站| 亚洲欧洲免费视频| 亚洲午夜福利在线| 欧美国产在线看| 国产18在线| 国产玖玖玖精品视频| 国产精品无码一区二区桃花视频| 亚洲第一黄色网址| 亚欧成人无码AV在线播放| 天天躁夜夜躁狠狠躁图片| 久久国产拍爱|