999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多傳感信息融合的語義詞袋SLAM優化算法

2024-04-29 00:00:00袁鵬谷志茹劉中偉焦龍飛毛麒云
計算機應用研究 2024年4期

摘 要:針對室外大范圍場景移動機器人建圖中,激光雷達里程計位姿計算不準確導致SLAM (simultaneous localization and mapping)算法精度下降的問題,提出一種基于多傳感信息融合的SLAM語義詞袋優化算法MSW-SLAM(multi-sensor information fusion SLAM based on semantic word bags)。采用視覺慣性系統引入激光雷達原始觀測數據,并通過滑動窗口實現了IMU (inertia measurement unit)量測、視覺特征和激光點云特征的多源數據聯合非線性優化;最后算法利用視覺與激光雷達的語義詞袋互補特性進行閉環優化,進一步提升了多傳感器融合SLAM系統的全局定位和建圖精度。實驗結果顯示,相比于傳統的緊耦合雙目視覺慣性里程計和激光雷達里程計定位,MSW-SLAM算法能夠有效探測軌跡中的閉環信息,并實現高精度的全局位姿圖優化,閉環檢測后的點云地圖具有良好的分辨率和全局一致性。

關鍵詞: 同時定位與實時建圖;語義詞袋;位姿估計

中圖分類號: TP242.6文獻標志碼:A 文章編號: 1001-3695(2024)04-042-1247-05

doi: 10.19734/j.issn.1001-3695.2023.08.0356

Multi-sensor information fusion SLAM based on semantic word bags

Yuan Peng, Gu Zhiru, Liu Zhongwei, Jiao Longfei, Mao Qiyun

Abstract:This paper proposed an algorithm known as MSW-SLAM (multi-sensor information fusion SLAM based on semantic word bags) to address the issue of inaccurate LiDAR odometry position and pose calculations in the mapping of outdoor large-scale environments by mobile robots, resulting in a decrease in the accuracy of the simultaneous localization and mapping (SLAM) algorithm. This algorithm incorporated raw observation data from LiDAR using a visual inertial system and conducts joint nonlinear optimization of measurements from the inertial measurement unit (IMU), visual features, and laser point cloud features using sliding windows, the algorithm leveraged the complementary semantic word bag characteristics of vision and LiDAR for closed-loop optimization, further enhancing the global positioning and mapping accuracy of the multi-sensor fusion SLAM system. Experimental results demonstrate that, compared to traditional tightly coupled binocular vision-inertial odometry and LiDAR odometry positioning, the MSW-SLAM algorithm can effectively detect closed-loop information in trajectories and achieve high-precision global pose optimization. The point cloud map after closed-loop detection exhibits excellent resolution and global consistency. Key words:simultaneous positioning and real-time mapping; semantic word bag; pose estimation

0 引言同步定位和映射是許多移動機器人導航任務所需的基礎能力。單一感知傳感器,如激光雷達或相機,前者可以長距離捕捉環境的細節,但這種方法在無結構環境中運行時通常會失敗,比如長走廊或平坦的空地。后者雖然特別適合于位置識別,并且在紋理豐富的環境中表現良好,但它們的性能對光照變化、快速運動和初始化都很敏感。因此,基于激光雷達和基于視覺的方法通常都與一個慣性測量單元IMU耦合,以提高其各自的魯棒性和精度。激光雷達慣性系統可以幫助糾正點云失真,并可在短時間內解決缺乏特征的問題。度量尺度和姿態可以通過IMU測量來恢復,以輔助可視化慣性系統。為進一步提高系統性能,激光雷達、相機和IMU測量的融合受到越來越多的關注。 多傳感信息融合SLAM[ 2]設計方案,可分為松散耦合方法和緊密耦合方法兩大類。松耦合是一種將IMU和其他傳感器分別獨立進行數據處理和狀態估計的方法,并通過數據融合來集成估計結果。松耦合方式的優勢在于靈活性和模塊化,可以根據具體需求選擇適當的傳感器組合,并且每個傳感器的算法和處理過程可以單獨優化和調整。目前主要的激光-IMU松散耦合SLAM算法包括LOAM[3]和LeGO-LOAM[4],因為IMU測量沒有在優化步驟中使用。常見的視覺-IMU松散耦SLAM算法主要有ORB-SLAM[5]、DS-PTAM[6]、SVO[7]等。這些算法通過提取圖像特征點,如角點和線條,進行特征匹配和三維重建。但是松耦合算法在SLAM中存在數據關聯困難、 誤差累積、實時性和延遲、對傳感器的依賴性強等缺點,本文將不采用此類方法。緊耦合是將激光雷達或攝像頭與IMU數據結合,實現高精度三維環境感知和定位的方法。通過時間同步、數據對齊和運動補償,將兩種傳感器的數據相互補償和校正,提高感知和定位的準確性。緊耦合算法又分為基于濾波器的方法和基于優化的方法。基于濾波器的方法通常使用的是擴展卡爾曼濾波算法,其中具有代表性的算法是MSCKF[8]通過維護多個相機狀態和視覺路標點的邊緣化處理,有效抑制了里程計的誤差累積,并利用多個相機的共視關系構成多狀態約束,提高了定位和地圖構建的精度。但其對初始位置和初始地圖的要求都很高,并且對于快速運動以及動態場景的魯棒性相對較低。基于優化的方法是將激光雷達的觀測數據和機器人的運動模型表示為圖結構,通過最小化重投影誤差或基于約束的優化,同時優化機器人的軌跡和地圖。VINS-Mono[9]采用了相機圖像數據和IMU聯合優化的方式,通過同時估計相機姿態、地圖點和相機的相對尺度,實現了高精度的定位和地圖構建。OKVIS[10]提出了基于關鍵幀的滑動窗口圖優化策略,較好地提高了定位和地圖構建的精度, 但對于大范圍場景的回環效果較差。目前LIO-MAP[11]、VIL-SLAM[12]、LVIO[13]、 LVI-SAM[14]等算法都是通過圖優化的方式得到更精準的軌跡和地圖。但這些算法的計算復雜度較高,對計算資源的要求嚴苛,并對大規模場景的處理存在很大的挑戰。綜上,現有的多傳感融合SLAM算法不夠完善,存在以下弊端:

a)采用松耦合方式時數據關聯困難;b)激光雷達點云數據容易產生畸變;c)在非結構化場景中, SLAM的性能往往會受到明顯的退化,不能構成回環。為解決這些不足,本文提出了一種基于多傳感信息融合的SLAM語義詞袋優化算法MSW-SLAM。a)該方法通過在原始觀測值層面融合IMU量測、視覺特征和激光點云特征,已解決點云數據畸變問題;b)利用滑動窗口進行聯合非線性優化,改善數據關聯困難問題;c)利用激光雷達和視覺詞袋的互補性,構建雙語義詞袋進行回環檢測優化, 激光數據提供場景的幾何信息,而視覺數據提供了場景的語義信息。通過結合兩者的語義特征,優化機器人在大規模場景下不能實現精準閉環檢測的情況。

1 MSW-SLAM框架

基于圖優化的多傳感融合算法的整體構成如圖1所示。SLAM系統的前端處理階段首先對圖像數據進行視覺特征提取和跟蹤,同時從激光點云數據中提取幾何特征,并根據IMU預測的位姿去除點云畸變。然后根據相機的視差變化篩選關鍵幀,并對相鄰關鍵幀間的IMU數據進行預積分,生成預積分觀測值。

在SLAM系統的后端階段,根據不同傳感器的觀測數據可以通過構建殘差項來實現聯合優化。這些殘差項包括視覺重投影殘差、IMU預積分殘差、激光點云匹配殘差以及邊緣化殘差等。通過將這些殘差項加入非線性最小二乘問題中,利用非線性優化方法進行求解。為了兼顧精度和效率,通常采用滑動窗口的方式進行后端優化。滑動窗口中的狀態變量隨著時間的推移不斷更新,而即將滑出窗口的狀態則被邊緣化操作所處理。通過邊緣化操作,將即將滑出窗口的狀態變量轉換為先驗項,參與后續的優化過程,從而減少計算復雜度,并保證系統的穩定性和一致性。通過以上方法,多傳感信息融合算法可以高效地利用非線性最小二乘優化來融合不同傳感器的觀測數據,實現系統狀態的準確估計和精確推導。

在回環檢測階段,首先提取激光雷達數據和圖像數據中的特征點,并與預定義的語義類別匹配構建語義詞袋。當新的關鍵幀出現時,與地圖數據庫中的語義特征進行匹配,如果存在匹配的關鍵幀,且匹配的特征滿足一定的條件(如特征匹配數量、幾何一致性等),則判定檢測到了閉環,當檢測到閉環時,通過點云精配準方法對位姿圖進行調整,糾正閉環帶來的誤差,并進一步提高SLAM系統的精度和一致性。

1.1 前端數據預處理本文首先對視覺和IMU進行數據預處理,獲得用于后端優化的視覺特征點和IMU預積分觀測值,采用的是文獻[12]的方式。對于關鍵幀的選擇如下:基于連續跟蹤的特征點判斷方法用于確定當前幀與上一幀之間的平均視差,若平均視差大于設定閾值,則當前幀被標記為關鍵幀,表示相機運動較大或場景發生顯著變化;反之,若平均視差小于等于閾值,則當前幀為非關鍵幀,表示相機運動較小或場景變化不明顯。計算公式如式(1)所示。

其中:M表示的是跟蹤特征點的數目;k表示的是特征標識ID;duk=ujk-uik,dvk=v-vik;u和v是像素坐標,i和j表示的上一幀和當前幀的序號。

對于獲得的激光點云數據,首先進行特征提取,計算曲率大小并提取角點和面點。由于載體運動會引起點云的位置偏差,利用IMU預測的高頻位姿結果來矯正點云的運動畸變。這樣可以減小畸變對點云匹配和SLAM算法精度的影響。令tk時刻的單幀激光數據為qk,Iqk=(Xk,Yk,Zk)是點集Qk中的一點,i ∈[tk,tk+1],此時Iqi在tk+1時的坐標為

其中: T uti和 T utk+1分別表示在tk、tk+1時刻的姿態矩陣。對Qk中所有的點云數據進行同樣的操作,最后可以得到畸變校正之后的點云集Qk 。

1.2 后端優化

在多傳感器信息融合中,由于激光點云和其他傳感器的量測模型通常是高度非線性的,所以需要采用非線性優化的方法對不同觀測值進行聯合優化。通過非線性優化能夠以最小化觀測值與預測值之間的殘差來優化系統狀態或參數的估計,使得模型的預測更接近實際觀測值。這種非線性優化方法能夠有效地處理傳感器之間的非線性關系,提高系統的精確性和可靠性。通過將不同傳感器的觀測值進行聯合優化,多傳感信息融合算法能夠更準確地估計系統的狀態和參數,從而提供更可靠的感知和決策基礎。非線性優化方法能夠處理復雜的非線性模型,提供更靈活和準確的優化能力,從而實現視覺和激光點云等多傳感器信息的聯合優化。本文的系統參數如式(3)所示。

滑動窗口模型的核心思想是在窗口內進行局部優化,以估計機器人的軌跡和地圖,同時保持計算和存儲的可行性。在優化過程中,通過最小化觀測值與預測值之間的殘差,調整狀態變量的估計值,使其更符合實際觀測。本文滑動窗口模型如圖2所示。滑動窗口模型的核心思想是在窗口內進行局部優化,以估計機器人的軌跡和地圖,同時保持計算和存儲的可行性。在優化過程中,通過最小化觀測值與預測值之間的殘差,調整狀態變量的估計值。

2 MSW-SLAM回環檢測

隨著載體運動距離的增加,里程計誤差會逐漸累積導致漂移。然而,在載體運動過程中,軌跡通常包含閉環,這些閉環信息可以有效幫助SLAM系統建立先前和當前時刻數據的關聯,進而修正里程計的累積誤差,提高SLAM系統的準確性和穩定性。本文算法利用里程計輸出的關鍵幀信息構建全局位姿圖,設計了一種激光雷達與視覺雙語義詞袋的閉環優化算法,充分利用視覺圖像的紋理信息以及激光點云的深度信息,并通過TF-IDF(term frequency-inverse document frequency)進行權重計算,使得語義詞袋能更加準確地反映特征詞的重要程度,實現對回環關鍵幀更高效的選取,并通過閉環檢測關鍵幀之間的相對約束關系進行軌跡優化,從而實現更精確的定位和建圖效果。

2.1 語義詞袋構建

激光語義詞袋從激光雷達數據中提取關鍵點,形成詞匯表,用于理解環境。視覺語義詞袋從圖像數據中提取關鍵點,形成視覺詞匯表,用于場景分類和物體識別。將數據的特征映射到詞匯表,形成語義詞袋。

激光語義詞袋的構建:首先,從三維點云數據中提取出關鍵點或采樣點,并計算每個點的特征描述子,計算這些聚合關鍵點的均值點,并將它們投影到水平面;然后對平面進行劃分,也就是描述子的維度,選擇當前點到最近點的方向,將主方向所在的區域劃定為第一個區域,其他區域逆時針排列,并在每個區域中選擇最近點進行描述(每個向量的值,也就是當前點在區域中和最近點的距離,如果區域中沒有最近點就設置為0);最后得到的描述子同時包含距離信息和方向信息。激光詞匯表中的單詞由兩部分構成:一個是非零維度值;另一個是所在維度的ID。每個單詞對應一個位姿信息,由兩部分組成:一部分是幀ID;另一部分是框架中的描述符ID。視覺語義詞袋是基于DBow(distributed bag-of-words)[15]算法的。它基于視覺詞袋模型,通過將圖像中的局部特征表示為視覺單詞的集合來描述圖像。首先,從輸入的圖像中提取局部特征,例如SIFT[16]、SURF[17]等算法提取描述子。然后,對這些特征進行聚類形成視覺單詞的集合。接下來,將圖像中的局部特征映射到最接近的視覺單詞,形成圖像的量化表示。對于每個圖像,統計每個視覺單詞在圖像中的出現頻率,形成圖像的特征向量。TF-IDF是一種常用的文本特征權重計算方法。TF(term frequency)詞頻可以反映特征詞在圖像或激光數據中的出現頻率,即語義的相對重要程度,計算公式為

TF-IDF的計算方法就是將詞頻和逆文檔頻率相乘,它能夠綜合考慮一個詞在當前文本中的重要性和在整個數據集中的重要性。對于語義詞袋,TF-IDF可以給每個特征詞賦予一個權重,使得常見的詞匯得到較低的權重,而在當前文本中出現頻率較低但在整個數據集中較為稀有的詞匯時,得到較高的權重。TF-IDF計算公式如式(7)所示。式(5)~(7)符號含義如表2所示。

通過使用TF-IDF權重計算,可以使得語義詞袋更加準確地反映特征詞的重要程度。常見的詞匯會得到較低的權重,從而減少了對模型的干擾,而稀有的詞匯會得到較高的權重,提供更多的語義信息。

2.2 回環關鍵幀檢索

對于詞袋模型描述符中的單詞,檢索單詞并計算每個出現的地方(數據幀)的頻率。如果最高的一個大于頻率閾值,則將該位置視為候選位置。此外,為了實現快速檢索,使用了逆向文檔頻率來避免檢索到出現在多個地方的單詞。更具體地說,由于單詞出現的頻率明顯高于其他單詞,它們的區別性較差,檢索效率降低。因此, 定義了一個與IDF相似的比率因子來測量當前集合中的位置數和所有集合中的平均值之間的差異。 使用它來確定在計算位置的數量時是否應該保留當前單詞的位置集。設置檢索算法主要流程如下:

a)根據當前的描述子,使用語義詞袋模型構建單詞。

b)檢查構建的單詞是否在預先構建好的詞袋中,如果在詞袋中則進行下一步,否則構建下一個單詞。

c)獲取與當前單詞相關的位置集,這些位置表示在之前的幀中提取到具有相似特征的圖像區域。

d)對位置集中出現的位置進行逆向文本頻率的計算。如果逆向文本頻率過高,說明該單詞在整個數據集中出現的頻率較高,可能不具有很好的區分能力,因此舍棄該單詞和位置集進行下一次循環。

e)否則將位置集中的位置分配到搜索表中,并統計位置的頻率。將相應的位置頻率加1。

f)從搜索表中獲取位置頻率最大的位置。

g)如果最大頻率的位置頻率大于設定的閾值,并且與詞袋產生有效匹配,則將該位置設為候選閉環,并返回該位置作為檢索結果。

h)如果沒有找到符合條件的位置,則返回- 未找到有效閉環關鍵幀。

對于篩選出的候選回環幀及其相關關鍵幀,進行回環優化,在回環優化完成后,將更新后的回環幀和相關關鍵幀的位姿和地圖信息反饋給SLAM系統。

回環關鍵幀檢索算法的核心思想是通過提取關鍵幀圖像的角點并計算描述子,然后利用字典查詢得到當前關鍵幀的向量描述,并將其存儲在數據庫中用于閉環檢索,比較當前關鍵幀與數據庫中關鍵幀的相似性,如果檢測到閉環幀,即高度相似的幀,將其作為候選幀。然而,為了確保準確性,需要進一步驗證閉環幀,尤其是時間上連續的閉環。這種連續時間檢測到的閉環被認為更可靠,算法會進行進一步處理和驗證。當視覺候選關鍵幀與激光候選幀的位姿信息處于一定的閾值范圍內判定找到了回環關鍵幀。隨后對當前關鍵幀與閉環關鍵幀進行點云精配準,通過計算相對位姿關系,構建位姿圖并優化其約束關系,實現對參數的最優估計。其中,位姿圖的節點表示關鍵幀,邊包括序列邊和閉環邊,通過最小化殘差優化整個位姿圖,提高位姿估計的準確性。

3 實驗論證本文算法采用M2DGR (multi-sensor and multi-scenario SLAM dataset for ground robots)[18]數據集進行了實驗驗證,該數據集具有完整的傳感器套件,完整機器人部件如圖3所示,包括六個魚眼和一個指向天空的RGB相機、一個紅外相機、一臺事件相機、一種視覺慣性傳感器(VI傳感器)、一個慣性測量單元(IMU)、一臺激光雷達,消費級全球導航衛星系統(global navigation satellite system,GNSS)接收器和具有實時動態(real-time kinematic,RTK)信號的GNSS-IMU導航系統。所有這些傳感器都經過了很好的校準和同步,并且同時記錄了它們的數據。地面實況軌跡由運動捕捉該數據集包括室內和室外環境在內的不同場景中捕獲的36個序列。實驗是在一個配備英特爾酷睿i7 @2.2 GHz處理器和32 GB內存的筆記本電腦上進行的。

利用本文的雙語義詞袋回環算法進行建圖,得到的點云地圖如圖4所示,整體上看地圖的效果好,在開闊環境能生成較大場景的點云地圖。由圖可知,本文優化算法在三維點云地圖構建方面表現良好,能夠基本真實還原實際場景特征,并且在細節方面表現良好,對開闊場景的點云地圖所采用的數據融合有較好的校正。

為了驗證本文算法在室外大場景環境中建圖的準確性以及穩定性,將其與ALOAM以及LVI-SAM算法軌跡進行評估,分別在street_01、street_02、street_04中進行對比。圖5(b)(d)(f)分別對應(a)(c)(e)中的黑色方框細節放大圖,同時虛線代表軌跡真值、藍色線條代表本文算法軌跡、綠色線條代表LVI-SAM算法軌跡、橙色線條代表ALOAM算法軌跡。由圖5可知,本文方法軌跡與真值更加重合,對比ALOAM和LVI-SAM算法,具有更高的精度和更低的漂移量,并且從圖5(f)可知,本文算法在大規模場景下可以實現精準閉環。

將用絕對軌跡誤差(APE)和相對軌跡誤差(RPE)對SLAM系統進行誤差評判,三者具體精度對比如表3~5所示。RPE 為相對誤差,驗證了局部旋轉及平移的漂移量,計算 RPE 時設置 delta=10,即 10幀統計一次誤差;APE 為絕對誤差,驗證估計軌跡與真值軌跡的全局一致性。表中max 為最大誤差值,min 為最小誤差值,mean 為平均誤差,RMSE 為均方根誤差,Std 為標準差。分析表4,本文算法相比LVI-SAM有更小的誤差,其中除了APE 的mean略高,其余max、min、RMSE分別下降了21%、56%、17.8%。而RPE max、min、mean、RMSE分別下降了72%、33%、54%、74%。

4 結束語本文提出了一種新的基于多傳感信息融合的SLAM語義詞袋優化算法,并通過M2DGR數據集實驗驗證了本文算法的正確性和有效性。與傳統SLAM算法相比,采用基于多傳感融合語義詞袋的SLAM優化算法在室外大場景無結構環境中可以實現全局高精度位姿估計,并能提供具有良好全局一致性的高分辨率點云地圖;該方法在三維激光雷達系統中進行重新定位和局部定位的效率、精度、魯棒性具有很大提升。未來工作中,針對本文算法中因使用多傳感混合回環檢測,存在計算量和CPU占用率較大的問題,將作進一步研究,提升算法的魯棒性。

參考文獻:

[1]齊繼超,何麗,袁亮,等. 基于單目相機與激光雷達融合的SLAM方法 [J]. 電光與控制,2022, 29 (2): 99-102,112.( Qi Jichao,He Li,Yuan Liang,et al. SLAM method based on fusion of monocular camera and LiDAR[J].Electro-Optics amp; Control ,2022, 29 (2): 99-102,112.)

[2]周治國,曹江微,邸順帆. 3D激光雷達SLAM算法綜述 [J]. 儀器儀表學報,202 42 (9): 13-27.( Zhou Zhiguo,Cao Jiangwei,Di Shunfan. Review of SLAM algorithm for 3D LiDAR [J].Chinese Journal of Scientific Instrument ,202 42 (9): 13-27.)

[3]Zhang Ji,Singh S. Low-drift and real-time LiDAR odometry and mapping [J].Autonomous Robots ,2017, 41 (2): 104-416.

[4]Shan Tixiao,Englot B. LeGO-LOAM: lightweight and ground optimized LiDAR odometry and mapping on variable terrain [C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press,2018: 4758-4765.

[5]Mur-Artal R,Montiel J M. M,Tardós D. ORB-SLAM: a versatile and accurate monocular SLAM system [J].IEEE Trans on Robotics ,2015, 31 (5): 1147-1262.

[6]De Croce M,Pire T,Bergero F. DS-PTAM: distributed stereo parallel tracking and mapping SLAM system [J].Journal of Intelligent amp; Robotic Systems: Theory amp; Application ,2019, 95 (2):365-377.

[7]Forster C,Pizzoli M,Scaramuzza D. SVO: fast semi-direct monocular visual odometry [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press 2014: 15-22.

[8]Mourikis A I,Roumeliotis I. A multi-state constraint Kalman filter for vision-aided inertial navigation [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2007: 3565-3572.

[9]Qin Tong,Li Peiliang,Shen Shaojie. VINS-Mono: a robust and versatile monocular visual-inertial state estimator [J].IEEE Trans on Robotics ,2018, 34 (4): 1004-1020.

[10]Leutenegger S,Lynen N,Bosse M,et al. Key-frame-based visual-inertial odometry using nonlinear optimization [J].The Internatio-nal Journal of Robotics Research ,2015, 34 (3): 314-334.

[11]Ye Haoyao,Chen Yuying,Liu Ming. Tightly coupled 3D LiDAR inertial odometry and mapping [C]// Proc of International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2019: 3144-3150.

[12]Ehambram A,Voges R,Brenner C,et al. Interval-based visual-inertial LiDAR SLAM with anchoring poses [C]// Proc of International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2022: 7589-7596.

[13]Zhong Xinliang,Li Yuhua,Zhu Shiqiang,et al. LVIO-SAM: a multi-sensor fusion odometry via smoothing and mapping [C]// Proc of IEEE International Conference on Robotics and Biomimetics. Pisca-taway,NJ: IEEE Press,2021: 440-445.

[14]Shan Tixiao,Englot B,Ratti C,et al. LVI-SAM: tightly-coupled LiDAR-visual-inertial odometry via smoothing and mapping[C]//Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2021: 5692-5698.

[15]Galvez-lopez D,Tardos J. Bags of binary words for fast place recognition in image sequences [J].IEEE Trans on Robotics ,2012, 28 (5): 1188-1197.

[16]Ng P C,Henikoff S. SIFT: predicting amino acid changes that affect protein function [J].Nucleic Acids Research ,2003, 31 (13): 3812-3814.

[17]Bay H,Ess A,Tuytelaars T,et al. Speeded-up robust features (SURF) [J].Computer Vision and Image Understanding ,2008, 110 (3): 346-35.

[18]Yin Jie,Li Ang,Li Tao,et al. M2DGR: a multi-sensor and multi-scenario SLAM dataset for ground robots [J].IEEE Robotics and Automation Letters ,2022, 7 (2): 2266-2273.

收稿日期:2023-08-01;修回日期:2023-09-25 基金項目:湖南省自然科學基金資助項目(2022JJ50005);湖南省研究生科研創新項目(QL20230216);國家自然科學基金區域聯合基金重點項目(U23A20385)

作者簡介:袁鵬(1998—),男,湖南常德人,碩士研究生,主要研究方向為多傳感融合SLAM;谷志茹(1979—),女(通信作者),湖南株洲人,教授,碩導,博士,主要研究方向為智能交通信息系統與裝備(guzhiru@hut.edu.cn);劉中偉(1998—),男,湖南株洲人,碩士研究生,主要研究方向為智能交通信息系統與裝備;焦龍飛(1994—),男,河南洛陽人,碩士研究生,主要研究方向為自動駕駛;毛麒云(1998—),男,湖南婁底人,碩士研究生,主要研究方向為電力線通信載波.

主站蜘蛛池模板: 2022国产91精品久久久久久| 国产又粗又猛又爽| a级毛片网| 91亚洲视频下载| 婷婷色狠狠干| 免费jizz在线播放| 成人亚洲国产| 亚洲第一黄色网| 国产精品女熟高潮视频| 成人精品区| 日本欧美视频在线观看| 国产丰满大乳无码免费播放| 国产精品成人免费视频99| 日韩精品一区二区深田咏美| 97成人在线视频| 片在线无码观看| 亚洲成人网在线播放| 久草热视频在线| 91亚洲精选| 日本在线视频免费| 国产91精品最新在线播放| 国产日韩欧美精品区性色| 免费无码又爽又刺激高| 欧美在线导航| 热九九精品| 国产喷水视频| 综合网天天| 精品久久久久久中文字幕女| 国产激爽大片在线播放| 国产乱子伦手机在线| 亚洲欧美成人在线视频| 国产老女人精品免费视频| 欧美日本激情| 久久国产精品娇妻素人| 国产精品久久国产精麻豆99网站| 在线毛片网站| 国产成人一区二区| 国产成人成人一区二区| 国产第四页| 天天色天天综合网| 国产中文在线亚洲精品官网| 日韩无码真实干出血视频| 成人中文在线| 日韩成人免费网站| 91精品综合| 18禁色诱爆乳网站| 欧美高清国产| 成人欧美在线观看| 久久精品国产999大香线焦| 国产无码在线调教| 九色视频在线免费观看| 欧美日韩va| 亚洲欧美自拍一区| 五月综合色婷婷| 久久青草精品一区二区三区| 国产精品久久久免费视频| 久久永久免费人妻精品| 日韩精品亚洲人旧成在线| 国产一在线| AV不卡无码免费一区二区三区| 久久综合一个色综合网| 九九热在线视频| 中国美女**毛片录像在线| 自慰网址在线观看| 欧美成人精品一区二区| 播五月综合| 影音先锋亚洲无码| 国产成人永久免费视频| hezyo加勒比一区二区三区| 麻豆国产在线观看一区二区| 亚洲成人精品久久| 亚洲视频一区| 亚洲人在线| 国产欧美视频综合二区| 狠狠色婷婷丁香综合久久韩国 | 久草视频精品| 香港一级毛片免费看| 一级毛片免费观看不卡视频| 欧美日韩午夜视频在线观看| 露脸真实国语乱在线观看| 成人午夜免费观看| 成人中文字幕在线|