999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

月面特征稀疏環境下的視覺慣性SLAM方法

2021-03-27 12:40:14謝洪樂陳衛東范亞嫻王景川
航空學報 2021年1期
關鍵詞:特征方法

謝洪樂,陳衛東,范亞嫻,王景川

上海交通大學 電子信息與電氣工程學院 自動化系,上海 200240

月面科學探測是一項具有重大科研價值的任務[1-2],在月球車執行月面探測任務時,首先需要解決的一個關鍵難題是確定其自身的準確位置,以保證其能夠導航至目標位置[3-4]。但是由于月球表面沒有全球衛星定位與導航系統,所以月球車很難直接獲取其準確的定位信息[3-5]。

目前,現有的月球車主要是依據其所攜帶的傳感器去感知周圍的環境信息,結合月球車的運動狀態進行定位,常用的定位方式有:航跡推算、無線電測量和星敏觀測等定位方法[3]。由于航跡推算存在較大的累計誤差,無線電測量和星敏定位等方法的準確度較低,一般只能實現十米級的定位精度,且無線電定位存在信號較弱、星敏定位存在星系的能觀性比較差等缺點,導致月球車基于上述方法都難以實現準確的定位[3-4]。

近年來,隨著計算機視覺的迅速發展,基于視覺的定位方法逐漸成熟,同時定位與地圖構建(Simultaneous Localization and Mapping,SLAM)在許多場景取得了顯著的定位效果提升。目前,現有的視覺SLAM方法主要包括直接法[6-7]和間接法[8]。直接法采用像素梯度信息進行連續圖像幀之間的數據關聯[6],而間接法采用特征點進行圖像幀之間的匹配[8]。由于月面的沙質環境難以提取穩定、魯棒的視覺特征進行可靠的跟蹤定位,且紋理信息較少,存在相似重復的環境特征會影響定位系統的精度和穩定性。基于像素梯度信息的匹配方法效果比較差,所以比較適合采用基于特征點法的視覺SLAM方法。同時,由于月面環境為典型的非結構化環境,不滿足曼哈頓世界結構特征假設[9],不存在較多的直線和平面等結構化信息,因此不能用直線特征,所以本文采用基于稀疏特征點的視覺SLAM方法。

由于月面場景的紋理信息比較少,采用純視覺的SLAM方法在特征稀疏的場景定位效果比較差,所以考慮增加一些輔助的傳感器以提升定位的性能。近年來,基于多傳感器融合的方案逐漸取得了更好的定位準確性和魯棒性,特別是視覺慣性融合定位方法,例如OKVIS[10]、VI-ORB-SLAM[11]和VINS-Mono[12]等方法,將慣性測量單元(Inertial Measurement Unit,IMU)的信息作為短期的連續幀之間運動估計,用于修正視覺定位的誤差,取得了更高的定位精度[13]。所以本文主要研究一種視覺慣性融合SLAM方法。

針對月面環境的特征稀疏的特點,在之前工作的基礎上[14],提出一種基于多層光流跟蹤的前端幀間數據關聯方法,采用四元樹結構,依據特征值響應強弱選擇有效的特征點進行跟蹤,實現了一個高效、魯棒的前端光流跟蹤方法。

針對月球車的相機視野特點,由于月球沒有大氣層,月球車的相機能夠觀測到遙遠的恒星點,但是恒星點往往處于無窮遠點的位置,這對于視覺慣性里程計(Visual-Inertial Odometry, VIO)是無效的觀測信息,這些無窮遠的路標點會嚴重影響視覺慣性里程計滑動窗口優化的準確性,進而影響定位的精度。所以針對月球車相機的成像特點,提出了一種恒星點剔除算法,基于局部圖像灰度二階矩進行恒星區域特征判斷,通過圖像多層金字塔進行尺度優化,能夠快速、有效地剔除恒星點,實現了定位性能的進一步提升。

基于位姿圖優化的方法,將視覺相機和慣性測量單元的測量信息加入后端因子圖優化,最終實現了一個準確、高效的月球車視覺慣性SLAM方法,能夠持續地進行高精度的六自由度位姿解算,并且搭建了月球車仿真樣機和月面仿真環境,通過在多種不同的仿真月面場景下的測試,仿真結果驗證了本文方法的定位準確性和魯棒性。

1 系統整體框架

本文的視覺慣性SLAM方法在之前工作[14]的基礎上進行改進和優化,由于之前工作主要針對室內無人機定位系統,其俯仰角和滾轉角狀態是可觀測的,所以只進行了位置和偏航角的四自由度(Degree of Freedom, DoF)優化,本文針對月球車的實際傳感器特點,在原始四自由度優化的基礎上改進,增加了六自由度(6DoF)位姿優化,提升了位姿估計的準確度。并且針對月面環境的特點,提出一種恒星點剔除算法,改善了前端基于光流的數據關聯的魯棒性。本文視覺慣性SLAM系統框架如圖1所示,主要包括傳感器數據預處理、前端基于光流的特征跟蹤和后端視覺慣性SLAM位姿圖聯合優化等3個部分。

在預處理階段,慣性測量單元的數據采用IMU預積分的形式[15],在短期內提供相鄰幀之間的相對位姿估計,相機圖像采用區域直方圖均衡化進行圖像增強。然后,相鄰圖像幀之間采用光流法進行前端數據關聯,并且基于四元樹進行改進,在多層圖像金字塔中選擇魯棒的特征點進行跟蹤,采用恒星點剔除算法將無窮遠點進行剔除,提升了特征關聯的魯棒性。利用慣性測量數據優化視覺測量的尺度因子,并對齊2個傳感器的位姿估計結果,實現視覺慣性聯合位姿校準。

在后端視覺慣性SLAM位姿圖聯合優化部分,基于視覺慣性里程計滑動窗口優化方法,將新增的關鍵幀依次通過滑動窗口進行優化。并且在全局位姿圖四自由度優化方法[14]基礎上進行改進,在全局位姿圖優化時,聯合優化位移、偏航角、俯仰角和滾轉角,實現了六自由度的位姿圖優化,能夠提供魯棒、高精度的位姿估計。

2 前端基于光流的特征點跟蹤方法

2.1 多層光流跟蹤方法

視覺慣性SLAM方法的前端圖像特征數據關聯的準確性,會很大程度地直接影響視覺慣性SLAM方法的整體定位精度。目前現有的視覺慣性SLAM主要是基于特征點匹配和光流2種方法,由于特征匹配方法的實時性一般較差,所以在視覺慣性里程計中,往往使用光流法作為一種輕量化的前端視覺特征數據關聯的主要方法。常使用 KLT(Kanade-Lucas-Tomasi)光流跟蹤方法[16],假設相鄰的圖像之間滿足灰度一致性,通過局部像素灰度信息進行匹配,進而擬合出最優的圖像特征點的運動狀態,并且通過多層圖像金字塔結構優化,能夠提升光流法在較大視角變化情況下的魯棒性和準確度[16]。

稀疏光流的效果直接取決于其所跟蹤特征點的質量,所以在之前工作的基礎上[14],采用基于四元樹的二維平面搜索策略改進多層光流跟蹤方法。假設圖像金字塔層數為L,在τ時刻的關鍵幀Kτ中,采用四元樹搜索策略篩選光流穩定跟蹤的特征點集合φ(Kτ),依據關鍵幀圖像高斯核尺度的二次冪,正比分配在各層的特征點數,在每一層的圖像中采用四元樹搜索局部Harris響應值最大的特征點,用于KLT光流跟蹤[17],假設四元樹的子節點總數為N,在相鄰幀之間光流跟蹤過程中,特征點集合φ(Kτ)的迭代公式為

(1)

相比于基于非極大值抑制(Non-Maximum Suppression,NMS)的特征點篩選方法[18],本文方法在保證特征點均勻分布的同時,也能夠有效地選擇可以被光流魯棒跟蹤的特征點。為驗證本文方法的有效性,進行對比測試如圖2所示。

在基于非極大值抑制約束的特征點篩選方法中,采用光流法常用的GFTT(Good Features to Track)特征[19]用于KLT光流跟蹤[17]。其中,為保證特征點能夠均勻地分布在圖像平面,采用像素距離閾值進行約束。假設特征點之間最小距離閾值為Fm,若特征點之間的距離小于閾值Fm時,則依據非極大值抑制方法[18]進行特征選擇,保留特征值最大的特征點,最終得到關鍵幀Kτ的特征點集合φ(Kτ),采用KLT光流跟蹤方法[17]實現相鄰關鍵幀(Kτ和Kτ+1)之間的特征關聯。由于光流跟蹤往往存在誤匹配點,所以采用與VINS-Mono[12]一致的策略,利用基礎矩陣模型估計的隨機抽樣一致性(Random Sample Consensus,RANSAC)方法去除誤匹配點,最終得到滿足運動一致性的光流跟蹤結果。其中,不同方法的光流跟蹤測試結果對比,如圖2所示。

在光流跟蹤性能測試中,關鍵幀Kτ特征點數均滿足|φ(Kτ)|≤300,即提取特征點數量的最大值為300個,像素分辨率為848×480。在基于非極大值抑制方法中,依據像素距離閾值不同,設置了3組對比仿真測試,分別為Fm=10、Fm=20和Fm=30。其中,Fm值越大,對應的特征分布越均勻,但是特征的魯棒性往往會越差。在本文方法中,保持與非極大值抑制方法一致的特征點數量約束|φ(Kτ)|≤300,并且采用相同基礎矩陣約束的RANSAC策略,保持嚴格控制變量的對比測試,最終的測試結果,如圖2所示。

當Fm=10時,光流跟蹤的特征點分布比較集中,存在較多特征分布在月面和太空的交界區域,如圖2(a1)、圖2(b1)和圖2(c1)所示,位于交界曲線上的特征點雖然滿足GFTT特征值約束,但是此處的特征點沿著交界曲線方向具有較大的不確定性,所以會導致光流跟蹤不穩定。而且在快速運動情況下,若特征點分布過于密集時,會存在較多的特征點移出相機的視野范圍的情況,此時會導致較大的光流數據關聯誤差。

當Fm=20和Fm=30時,光流跟蹤的特征點分布比較均勻,但由于固定的最小像素距離Fm限制,在紋理顯著的區域不能提取大量的特征點,反而在圖像模糊的區域提取到一些次優的特征點,所以導致光流跟蹤的魯棒性下降。

本文方法能夠在多層圖像金字塔中,采用四元樹搜索策略檢索魯棒的特征點,優化了光流跟蹤策略。特征點光流跟蹤成功率比較,如表1所示。本文方法的平均跟蹤(Tracking)和RANSAC匹配的成功率分別為94.27%和75.80%,僅略低于非極大值抑制Fm=10方法,但本文方法相對于Fm=10方法,具有更好的特征分布均勻性和魯棒性。綜上所述,本文方法實現了較高的特征跟蹤成功率和較好的光流估計的一致性。

在上述測試結果中,基于非極大值抑制方法的前端特征跟蹤的平均時間消耗約為19.5 ms/幀,而本文方法的前端特征跟蹤的平均時間消耗約為17 ms/幀。所以,本文方法具有更好的實時性,滿足計算的實時性需求。

表1 光流跟蹤成功率比較Table 1 Comparison of optical flow tracking success rates

2.2 特征點的逆深度估計

特征點逆深度估計是指在視覺SLAM方法中,通過估計特征點深度值的倒數實現其坐標參數化,進而求解特征點三維空間坐標的一種有效方法[20]。設一個特征點在世界坐標系下的齊次坐標位置為Gfk∈R4×1,其中Gfk=[Gxk,Gyk,Gzk,1]T,上標G表示在世界坐標系下。假設在視覺慣性SLAM滑動窗口中,有n個關鍵幀對該特征點存在有效的觀測,記這些關鍵幀集合為Φ={Kτ},τ=1,2,…,n。在每次觀測中,特征點在對應的圖像坐標系下的像素坐標為pk=[uk,vk,1]T,設該特征點的深度值為λk,依據相機的投影關系可得

λkpk=Mc[Rk,Tk]Gfk

(2)

式中:Mc∈R3×3為相機傳感器的參數矩陣;Pk=[Rk,Tk]∈R3×4為世界坐標系到相機坐標系的投影矩陣,即表示當前關鍵幀的位姿矩陣。其中Rk∈R3×3為旋轉矩陣,Tk∈R3×1為平移向量。依據投影關系可簡化為

λkpk=McPkGfk

(3)

(4)

(5)

在特征點三維坐標Gfk的參數化計算過程中,其對應的深度λk估計值的取值范圍為(λmin,+∞),其中λmin為相機有效觀測的最小距離。因為無窮大在數值求解過程中存在較大的誤差,所以采用1/λk形式進行參數化求解[20],也稱為逆深度計算。所以,式(5)可轉化成下面方程進行求解:

(6)

通過連續幀之間特征點的共視觀測關系,可求解上述方程。但是月面沒有大氣層,月球車裝載的相機往往可以看到很遙遠的恒星,此時恒星特征點位于無窮遠點,采用有限值去逼近無窮遠點,會導致上述方程式(6)的極大似然估計的解會存在較大的非線性擬合誤差。所以提出一種恒星點消除算法,將無窮遠的特征點進行剔除,以保證視覺慣性里程計的滑動窗口優化的準確性。

3 恒星特征點剔除算法

由于恒星點往往都是無窮遠點,當月球車前進時,無窮遠點對于前進方向的位移估計幾乎沒有作用,僅對于旋轉運動會有一些輔助作用,所以對恒星點進行剔除。針對月面環境的特點,在月球車相機所觀測的圖像中,恒星位置一般為無窮遠點,且位于圖像的上半部分,恒星所在的像素區域往往處于顏色較深的太空背景區域,而恒星為這一區域的唯一的中心亮點,所以針對月球車圖像像素灰度分布特點,提出一種基于局部像素區域的灰度二階矩方法,能夠將恒星特征點進行有效地剔除,提升特征點的魯棒性。

假設在當前幀圖像中光流跟蹤的一個特征點坐標為Ak(uk,vk),計算其所在高斯金字塔圖像的區域圖像的灰度二階矩的值來進行恒星點的判斷。任取圖像上一個像素點Pi(xi,yi),設這個點所在的圖像對應位置像素的灰度函數為I(xi,yi),通過計算圖像局部窗口灰度特征來判斷是否為恒星點區域,其中,像素灰度二階矩的計算公式為

(7)

式中:α為權重;Θ為像素點Ak的鄰域;Ω為對應鄰域的面積。Θ和Ω的計算公式為

(8)

(9)

式中:γ為選取的鄰域半徑。計算以特征點坐標(uk,vk)為中心,半徑范圍在γmin至γmax之間的環形區域Θ的像素灰度二階矩H值。通過判斷圖像的像素灰度二階矩H值是否小于局部灰度閾值來判斷是否為恒星點。其中s為尺度因子,在多層光流跟蹤時,s與光流跟蹤的金字塔層數一致。

恒星特征點剔除方法的測試結果如圖3所示,圖3(a)為原始的KLT光流跟蹤的測試結果[12],由于恒星點為局部亮點區域,往往是一個易于光流跟蹤的特征點,但是由于此特征點一般位于無窮遠處,而數值求解該特征的空間位置會導致系統定位性能下降,所以采用恒星點剔除算法,如圖3(b)所示,圖中紅色和藍色的方塊分別為穩定跟蹤和新增的光流特征點,白色圓圈的位置為剔除的恒星點區域,通過四元樹改進的光流能夠更均勻地跟蹤魯棒的特征點,并且通過恒星點剔除算法,能夠有效地將恒星點剔除。

本文提出的恒星點剔除方法只需要在光流穩定跟蹤的特征點中增加恒星點判斷,所以方法具有較高的實時性,平均每幀圖像大約能夠穩定光流跟蹤100~150個有效特征點,恒星點剔除方法的平均耗時約5~8 ms/幀,滿足月球車視覺慣性SLAM方法的計算實時性需求。

4 視覺慣性SLAM位姿圖聯合優化

在視覺慣性里程計后端優化部分,在VINS-Mono系統[12]的基礎之上進行改進和優化,由于視覺慣性里程計往往適用于無人機等平臺,配備了高性能的慣性測量單元,其中,飛控系統的俯仰角和滾轉角的狀態往往是可觀的,所以往往只需要進行四自由度的優化,包括位移和偏航角。但是由于月面環境重力加速度值往往不夠準確,將4DoF優化改成6DoF優化,包括位移、偏航角、俯仰角和滾轉角。在視覺慣性里程計滑動窗口優化中,優化的狀態變量Xτ為

(10)

(11)

(12)

5 仿真驗證與分析

針對實際月球車在月面執行科學探測的任務特點,搭建了一個月球車仿真樣機和一套模擬月球表面場景的計算機仿真系統,用于驗證月球車定位方法的性能。

仿真系統采用開源機器人操作系統(Robot Operating System, ROS)框架下的Gazebo仿真引擎作為開發工具,采用Gazebo-7.4.0機器人仿真平臺,使用C++語言在Ubuntu 16.04系統下開發,軟件開發平臺為Microsoft Visual Studio Code 2019。計算機硬件配置為:CPU處理器為Intel Core i7-7700HQ, 主頻為2.80 GHz,計算機內存為8 Gb RAM。使用的機器人操作系統為Ubuntu 16.04 ROS Kinetic。

5.1 月球車仿真樣機平臺

利用Gazebo仿真引擎搭建的月球車仿真樣機平臺如圖4所示。仿真月球車樣機的整體高度為1.046 m,寬度為0.75 m,長度為1.005 m,輪子直徑為0.5 m。仿真月球車采用星球車常用的四輪獨立驅動結構,利用4個相互獨立的電機控制器來分別調節4個車輪的控制力矩,進而控制4個獨立車輪運動,通過差速驅動方式實現月球車能夠平穩地運動在崎嶇的月面。月球車具有較好的越障能力,能夠正常行駛在最大傾斜度為25°的斜坡區域,而且能夠翻越最大高度約20 cm的隕石、沙堆等障礙物。在仿真平臺中,設置可調節的月球車平移速度范圍為0.05~3 m/s,角速度范圍為0.05~1.5 rad/s,滿足實際月球車仿真測試的平移速度與角速度需求。

月球車仿真樣機平臺搭載了多種傳感器,能夠進行傳感器測量數據的仿真,主要傳感器包括:雙目視覺傳感器、三維激光雷達和慣性測量單元。其中,采用的視覺傳感器型號為PointGrey Bumblebee2,為了保證實時性和定位性能,在仿真系統中,設置相機的分辨率為848×480,頻率為20 Hz。其中,相機安裝高度為0.984 m,相機與水平方向的向下傾斜角度為13.5°,仿真測試中采用雙目相機的左側相機的圖像數據。IMU位于雙目相機的中心位置,IMU型號為ADIS16448,在仿真中設置更新頻率為100 Hz。

通過仿真平臺可以進行月球表面重力模型的仿真,能夠模擬月球表面的重力情況。在月球車仿真平臺中,月面重力加速度為1.62 m/s2,約為地球表面重力加速度的1/6。

并且,在仿真月球車平臺上,具備定位軌跡真值(Ground Truth)的保存功能,能夠實時地記錄月球車在移動過程中真實軌跡和位姿。定位軌跡真值與月球車平臺上IMU的實時位置一致,能夠表征月球車在世界坐標系下的實際移動軌跡,真實軌跡可用于評估不同算法的定位性能。

5.2 月面仿真場景數據集

利用Gazebo仿真引擎,在WIP Moon Habitat開源模型庫的基礎上[21],實現了一套模擬月面環境的計算機仿真系統。為了模擬多種不同場景的月面環境,在仿真模型庫[18]的基礎上進行改進,將原本固定的單一月面場景改進成可調節的多種月面場景。在搭建的月面環境仿真系統中,可以調節多種典型的月面場景元素的狀態,進而模擬多種不同的月面場景,例如可以調節月面場景中隕石塊的形狀、尺寸、數量與空間分布等情況。通過調節不同月面場景元素的狀態,能夠模擬不同特征稀疏程度的月面場景,用于驗證本文提出的視覺慣性SLAM方法的性能。

在仿真系統中,模擬了不同程度的特征稀疏的典型月面場景,包括沙質土壤、隕石坑、隕石塊、環形山和起伏不平的山丘地形等典型月面場景元素,實現了一套較高仿真度的月面場景。其中,整個月面仿真場景的俯視圖近似為正方形區域,月面場景規模大小約為:100 m×100 m,總面積約為1.0×104m2。

為了量化評估本文方法的定位性能,采用國際通用的視覺慣性里程計Benchmark EuRoC數據集的格式[22],依據不同的最大移動速度、角速度和場景特征的稀疏程度,構建了3種不同難度的視覺慣性數據集,參數設置如表2所示。

構建的月面環境仿真數據集包括特征密集和特征稀疏等2種典型的環境。依據如表2中所示的數據集參數設置,構建了6組用于定位性能測試的數據集,圖像總數約為1.8萬張。其中,不同場景數據集的部分圖像樣本,如圖5所示。

表2 數據集參數設置Table 2 Setting of dataset parameters

5.3 定位結果與分析

為了驗證本文方法的定位性能,在多個不同的月面場景數據集下進行了仿真測試。通過仿真測試,驗證了本文方法的有效性,并且量化分析了位移定位誤差和姿態角估計誤差。

5.3.1 位移定位誤差

依據國際上通用的SLAM系統定位準確度評估方法[23-25],采用絕對軌跡誤差(Absolute Trajectory Error,ATE)的均方根誤差(Root Mean Square Error,RMSE)作為定位準確度的定量評估指標[26-28]。在3種不同難度的場景下,利用一共6組數據集進行了定位性能的對比測試,位移定位準確度的仿真測試結果,如表3所示。

表3 位移定位誤差比較Table 3 Comparison of localization errors m

本文方法在大部分數據集上的定位準確率均高于VINS-Mono[12]方法。其中,本文方法的平均定位均方根誤差(RMSE)、平均誤差的中值(Med.)和最大值(Max.)分別為0.348、0.290、0.984 m,平均定位誤差均低于VINS-Mono[12],本文方法實現了高精度的定位。

其中,用于定位仿真測試的6組月面數據集的移動軌跡總長度約為733.08 m。通過不同算法估計的軌跡和真實軌跡的均方根誤差來比較算法的定位性能,繪制均方根誤差的箱型圖,如圖6所示,橫坐標分別為數據集序號的簡寫,例如E1為Easy-1數據集,依此類推。依據箱型圖的均值可以發現,本文方法的均方根誤差比VINS-Mono[12]方法更小,且定位誤差有界,由于在D1數據集中,場景存在大量的紋理重復的區域,所以本文方法定位性能略低于VINS-Mono[12]。但是本文方法具有更好的魯棒性,本文方法在快速運動、特征稀疏的D2數據集仍能夠保持0.5 m左右的高精度定位,高于VINS-Mono[12]方法,且根據誤差箱型圖的分布可知,本文系統的定位誤差的波動更小,定位估計具有更好的一致性,實現了誤差有界的月面環境下準確、魯棒的定位。

本文方法的定位軌跡能夠更準確地接近真實軌跡,其中,在Difficult-2數據集的測試結果,如圖7所示,本文方法的定位誤差小于VINS-Mono,仿真測試結果表明本文方法的定位更準確。

為進一步量化分析絕對位移的定位誤差,選擇Difficult-2場景數據集進行定位誤差的量化分析,其中X、Y和Z軸的位移定位誤差曲線,如圖8所示,仿真測試結果表明,本文方法的平均定位誤差的均方根誤差約為0.509 m,在3個坐標軸方向的平均定位誤差均小于VINS-Mono[12]方法。

5.3.2 姿態定位誤差

針對姿態角估計情況,在上述6組不同的月面場景數據集下面進行了仿真測試,偏航角(Yaw)、俯仰角(Pitch)和滾轉角(Roll)等姿態角度的估計誤差如表4所示。本文方法在偏航角和滾轉角的平均定位精度均高于VINS-Mono[12],其中,只有俯仰角的平均誤差略低于VINS-Mono[12],并且整體姿態角估計的準確度均有一定程度的提升。

表4 姿態角估計誤差比較Table 4 Comparison of attitude angle estimation errors (°)

其中,在Difficult-2場景數據集進一步地分析姿態角度估計誤差,如圖9所示,本文方法在偏航角和滾轉角的角度的估計誤差分別為0.791°和0.152°,均小于VINS-Mono[12]的1.972°和0.528°,且俯仰角誤差僅為0.192°,本文方法實現了更加準確的姿態角估計,并且能夠適應于不同的月面場景,具有更高的魯棒性和準確性。

綜上所述,本文方法能夠在多種不同的月面仿真場景中準確地估計位移和姿態角度,能夠持續地為月球車提供高精度、可靠的位姿估計,滿足月球車在特征稀疏月面環境下的定位需求。

6 結 論

本文針對月面特征稀疏環境下的月球車自主定位難題,研究了一種基于視覺慣性傳感器融合的高精度SLAM方法,主要貢獻在于:

1) 針對視覺慣性里程計前端數據關聯誤差較大的問題,提出一種基于四元樹改進的多層光流跟蹤算法,能夠有效地提高相鄰幀圖像之間運動的估計精度。

2) 針對月面環境的恒星無窮遠點的干擾問題,提出一種恒星點剔除方法,能夠有效地減小恒星無窮遠點導致的定位性能下降影響。

3) 采用ROS Gazebo計算機仿真引擎搭建了一套模擬月面場景的仿真系統,構建了不同條件下的月面環境視覺慣性SLAM評測的數據集。

本文方法通過6DoF位姿圖優化,進一步提升了定位的精度,在多個不同的數據集上進行了仿真測試驗證,測試結果表明本文方法具有更高的定位魯棒性和準確度。

猜你喜歡
特征方法
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
學習方法
抓住特征巧觀察
可能是方法不對
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 国产网站免费| 欧美不卡在线视频| 亚洲系列中文字幕一区二区| 国产麻豆精品久久一二三| 午夜少妇精品视频小电影| 欧美a级在线| 国产精品真实对白精彩久久| 久久香蕉欧美精品| 亚洲欧洲综合| 亚洲综合色在线| 少妇高潮惨叫久久久久久| 超清无码熟妇人妻AV在线绿巨人| 亚洲天堂日韩av电影| 人妻丰满熟妇αv无码| 五月天综合婷婷| 亚洲天堂777| 婷婷五月在线| 欧美性猛交一区二区三区| 女同久久精品国产99国| 亚洲视频影院| 亚洲男人的天堂在线| 国产精品制服| 久久伊人久久亚洲综合| 国产人成在线视频| 国产综合在线观看视频| 成人免费黄色小视频| 国产午夜一级毛片| 尤物午夜福利视频| 日韩专区第一页| 操国产美女| 精品国产一二三区| 色婷婷天天综合在线| 亚洲一级无毛片无码在线免费视频| 国产精品区网红主播在线观看| 日韩免费成人| 亚洲开心婷婷中文字幕| 试看120秒男女啪啪免费| 国产第二十一页| 99草精品视频| 五月婷婷亚洲综合| 尤物国产在线| 亚洲国产精品日韩欧美一区| 亚洲中文字幕23页在线| 天堂成人av| 日本精品αv中文字幕| 美女视频黄频a免费高清不卡| 国产剧情国内精品原创| 成人午夜亚洲影视在线观看| 亚洲午夜福利精品无码| 久久精品国产一区二区小说| 久久久波多野结衣av一区二区| 99无码中文字幕视频| 亚洲精品国产首次亮相| 啊嗯不日本网站| 免费看美女毛片| 亚洲三级a| 国产a网站| 国产网站一区二区三区| 国产在线无码av完整版在线观看| 国产精品一区二区无码免费看片| 中文字幕色站| 久久美女精品| 丁香婷婷激情综合激情| 亚洲性视频网站| 亚洲视频一区| 五月婷婷中文字幕| 米奇精品一区二区三区| 3p叠罗汉国产精品久久| 国产成人综合亚洲网址| 激情综合激情| 国产精品毛片一区| 国产主播福利在线观看| 国产簧片免费在线播放| 亚洲日本一本dvd高清| 色婷婷综合激情视频免费看| 青青热久麻豆精品视频在线观看| 被公侵犯人妻少妇一区二区三区| 国产香蕉在线视频| 天天摸夜夜操| 日日碰狠狠添天天爽| 午夜福利在线观看入口| 91视频首页|