999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標檢測的室內動態場景SLAM

2023-07-19 13:07:52佟云昊席志紅
應用科技 2023年3期
關鍵詞:特征檢測系統

佟云昊,席志紅

哈爾濱工程大學 信息與通信工程學院,黑龍江 哈爾濱 150001

同步定位與地圖構建[1](simultaneous localization and mapping,SLAM)是指在陌生環境、周圍環境信息未知的情況下,移動機器人作為載體可通過自身搭載的視覺傳感器采集信息,然后估計出自身的位置和感知周圍的環境信息。因其效率高和功耗低等諸多特點在許多場景應用廣闊,當前,成熟的SLAM 系統已經應用到移動機器人等智能家居上,但是,傳統的SLAM 系統中依舊存在一些問題值得改進:移動機器人獲取的信息比較單一,傳統的視覺里程計中的關鍵幀不包括語義信息,在實際的機器人運行場景中,所選取的關鍵幀包含了大量的匹配誤差和動態點,以至于會給機器人的定位造成干擾。

近年來,隨著深度學習發展日漸完善,基于深度學習的移動機器人室內定位與建圖的方法受到了學者們的廣泛關注。ORB-SLAM2 系統[2]是當前相對成熟的SLAM 框架之一,因其穩定性高、魯棒性好[3]而得到眾多研究者使用,但是在動態環境下,單純的ORB-SLAM2 框架容易被環境因素干擾,且只能創建稀疏的點云地圖,不能為后續的導航工作提供有效環境信息。Girshick 等[4]在2014 年提出了區域卷積神經網絡(region-based convolutional neural networks, R-CNN)模型,具有里程碑意義的把卷積神經網絡(convolutional neural networks, CNN )融入到目標檢測系統,采用選擇搜索的方法生成出候選區,在候選區中采用卷積神經網絡生成特征向量,最后進行檢測物體的類別判斷。在采用R-CNN 網絡模型進行特征提取中,會出現重復提取的現象,Girshick 等[5]在2015 年對R-CNN 網絡模型進行改進,提出了快速卷積神經網絡(Fast R-CNN)和更快速卷積神經網絡(Faster R-CNN),其中Fast R-CNN 提高了檢測速度,合并了分類問題和邊框回歸問題。Faster RCNN 是為了提高選擇候選區域速度的問題,將選擇搜索策略改為區域推薦網絡,使目標檢測實現端點到端點的計算,從而提高了目標檢測的準確度和速度。Redmom 等[6]在2016 年提出了基于目標檢測的YOLO 算法,該算法采用全連接網絡,在數據輸出層輸出目標的位置和所屬類別,盡管其精度較Fast R-CNN 有所下降,但是YOLO 算法極大的提高了檢測速度,使得實時的目標檢測成為可能。

本文針對移動機器人在室內環境定位容易受到動態環境干擾造成相機位姿不準確的問題,提出了一種基于目標檢測的室內動態場景SLAM 系統,將YOLOv4 網絡[7]與ORB-SLAM2 算法相結合。 同時,引入LK 光流法[8]對圖像中可能殘留的動態特征點進行過濾。 此外,只使用靜態特征點進行特征匹配來解決攝像機的位姿問題,從而消除動態物體對SLAM 系統的影響。 利用點云拼接技術建立了無動態物體干擾的稠密點云[9]地圖,并轉化為八叉樹[10]地圖,極大地減少了地圖的存儲空間,進而為后續的導航系統做準備。

1 本文SLAM 系統框架

在動態環境中,ORB-SLAM2 算法受到移動對象的影響,導致定位精度降低、魯棒性差。為了解決這個問題,提出了一種基于對象檢測線程的運動對象檢測ORB-SLAM2 算法。同時,實現了網絡對象檢測在提取特征點的同時,利用YOLOv4目標檢測網絡檢測輸入圖像中的目標前端。獲取圖像中的語義信息后,動態對象在圖像中是確定的。根據物體檢測結果,模塊可以刪除動態特征點添加到跟蹤線程。

因為環境中有一些潛在動態的和一些模糊的物體,在特征匹配時找出所有匹配兩幀圖像特征點之間的最小距離和最大距離,當距離大于兩倍的最小距離時,即認為匹配有誤。然后,根據特征點匹配結果,采用串聯LK 光流法檢測并去除動態特征點進行極外幾何約束。最后,只使用剩余的靜態特征點進行估計相鄰幀之間的姿勢。本文中給出了改進算法的流程如圖1 所示。

圖1 本文SLAM系統框架

2 YOLOv4 目標檢測

標準的目標檢測網絡是由數據輸入、骨干網絡、頸部、頭部4 個部分構成。YOLOv4 算法是通過把原YOLOv3 中的主干網絡DarkNet53[12]和CSPNet[13]相結合,使殘差網絡的基礎層映射分為2 部分,并且采用跨階層級融合了2 部分,該方法不僅提升了目標檢測的速度和精度,同時也減少了內存占用。YOLOv4 算法在骨干網絡使用中,采用Mish 函數[14]代替了原來系統中的Leaky ReLU。并且將空間金字塔池化引入系統,利用4 種不同尺度的最大池化處理上層輸出,增加了其感受野。頸部通過采用PANe 代替原YOLOv3 中的FPN,作為參數集合的方法,將原網絡修改后,采用張量連接的方式代替捷徑鏈接。頭部采用YOLOv3 的網絡設計進行多尺度測量,一般采用608×608 大小的圖片作為輸入,根據結構圖,把3 個不相同層級的特征圖進行融合,產生3 個不同特征尺寸的輸出,分別為13×13×255、26×26×255和52×52×255 的檢測結果,提高網絡對不同尺寸特征圖的目標檢測能力。YOLOv4 目標檢測網絡結構如圖2 所示。

圖2 YOLOv4 網絡結構

在現實的場景中,動態的人、貓、狗等是主要的動態因素,YOLOv4 網絡會將輸入的圖片目標檢測,生成對應邊界框的掩膜區域,本文系統經過YOLOv4 網絡產生的結果如圖3 所示。

圖3 YOLOv4 目標檢測結果

3 LK 光流約束

光流是一種描述特征點在圖像之中運動的屬性,隨著時間變化,同一個像素會在圖像中不斷運動,而跟蹤這種流動的過程叫做光流法。計算部分像素的運動成為稀疏光流,稀疏光流以Lucas-Kanade 光流(LK 光流)為代表。LK 光流法基于3 個假設:1)每個圖像中的像素亮度在連續幀之間不變;2) 幀與幀之間時間間隔較短;3) 相鄰的2 個像素具有相似的運動[15-18]。 根據假設1),灰度是恒定的,可以通過。

式中:t和t+dt為相鄰圖像幀對應的時間,I(x,y,t)和I(x+dx,y+dy,t+dt)為圖像中像素點的位置。根據假設2),由于相鄰圖像幀之間的時間間隔較小,以式(1)右側進行泰勒級數展開為

但是在LK 光流中需要引入額外的約束來計算特征點的速度u和v。 根據假設3),即相鄰像素有相似的運動,選擇一個以特征點為中心的3×3的窗口,窗口內的9 個像素有相同的運動。 可以對9 個像素同時計算為

對鴨坯進行統一前處理,之后進行烤制實驗。具體為紅外蒸汽烤制溫度220℃,烤制時間40min,蒸汽噴射2次,分別為烤制的第10min和第30min,每次噴射時間為2、3、4、5、6s;最后紅外干烤10min。

在極坐標幾何約束下,對目標檢測后的準靜態特征點計算光流大小。 然后通過求解其均值和標準差可以判斷特征點是否為動態特征點。

式中:Li為第i個特征點的光流尺寸,Lavg和Lstd分別為各特征點光流尺寸的均值和標準差,Lthr1和Lthr2為預置閾值[19]。 若第i個特征點的光流大小Li滿足上述關系,那么判定特殊點i為動態特征點,反之為靜態特征點。從圖4 可以看出,動態特征點在光流尺寸上較靜態特征點有顯著變化,圖片中的2 個人被判斷為動態特征,所以2 個人身上覆蓋光流點,而桌子上的顯示器沒有運動,被判斷為靜態特征。該方法可有效幫助區分動態、靜態特征點。

圖4 LK 光流法區分動靜態特征點

4 動態特征點剔除

在動態環境下傳統的視覺SLAM 算法極易造成相機位姿估計不準確的問題,本文系統通過在ORB-SLAM2 算法的基礎上進行改進,在原框架下添加目標檢測線程,當RGDB-D 圖像幀進入系統,跟蹤線程和語義分割線程并行,對圖像幀進行圖像處理。采用YOLOv4 目標檢測算法對動態區域判斷,通過先驗的動態信息直接選擇特征物體種類的矩形區域。使用LK 光流法跟蹤特征點,根據特征點到極線的距離,通過矩形區域中動態特征點的數量以及所占比例進行篩選,判斷是否為特征點。本文算法經過YOLOv4 目標檢測和LK 光流法篩選出數據集中動態特征,并進行剔除,只采用顯示器、桌子等靜態特征點進行系統定位,有效地提高了定位精度。傳統的ORBSLAM2 算法和本文算法在數據集運行的過程如圖5、圖6 所示。可以看出本文算法在運行過程中,2 個人作為動態區域被框出,在框內已經沒有特征點,進而也就不會影響系統的定位。

圖5 傳統ORB-SLAM2 系統

圖6 本文系統

5 實驗測試與結果分析

本文采用的是由德國慕尼黑大學制作的TUM RGB-D 公開數據集,評估本文系統在動態環境下的定位精度。本文分別選用walking-xyz、walkinghalfsphere、walking-static 等3 個公開的動態數據集對本文系統和傳統ORB-SLAM2 系統進行對比測試,評估其在動態場景中的改進效果。

5.1 相機位姿誤差分析

本文使用2 種評估視覺SLAM 算法定位精度的評價指標[20]、絕對軌跡誤差(absolute trajectory error,ATE)和相對位姿誤差(relative pose error,RPE)。

絕對軌跡誤差可以直觀地反映出算法估計軌跡精度,是直接計算估值位姿和真實位姿的差值來顯示相機軌跡誤差。相對位姿誤差是指在某個固定的時間段內,系統估計位姿和相機真實位姿的差值[21],也稱旋轉漂移誤差。均方根誤差(root mean squared error, RMSE ) 反映的是相機軌跡估計值與真實值之間的偏差。假設整個過程中的觀測次數為m,對應得到的估計值為x1,x2,···,xm,真實值為y1,y2,···,ym,均方根誤差的數學表達式為

標準偏差(standard deviation, Std)反映的是SLAM 系統相機軌跡估計的離散程度,數學表達式為

式中u為誤差平均值。

以上客觀的評價指標,可以有效地反映出SLAM 系統在經過不同系統的穩定性與可靠性。ORB-SLAM2 和本文系統分別在3 個數據集上測試的絕對軌跡誤差對比結果如表1 所示,相對位姿誤差對比結果如表2 所示。

表1 絕對位姿誤差對比結果

表2 相對位姿誤差對比結果

由表1 可以看出,整體上相比于ORB-SLAM2系統,本文SLAM 系統在動態場景下絕對軌跡誤差的RMSE 分別下降98.08%、93.95% 和83.72%,Std 分別下降98.2%、93.26% 和86.95%,由表2 顯示,在同樣的動態場景下,旋轉漂移-相對位姿誤差的RMSE 分別下降 55.56%、33.33%和80.76%,Std 分別下降53.33%、26.67%和87.5%。分析其原因,是由于本文系統能夠有效地剔除實驗環境中動態因素,只采用動態檢測篩選后的靜態環境特征點,用來相機位姿估計,提高了相機的定位精度。利用evo 工具對傳統的ORB-SLAM2 系統與本文系統繪制相機軌跡,評估估計軌跡和真值的誤差,系統在walking-xyz數據集上的實驗結果如圖7、圖8 所示。ORB-SLAM2 系統與本文系統在walking-xyz數據集上的絕對軌跡誤差和旋轉漂移誤差結果如圖9~圖12 所示。

圖7 ORB-SLAM2 系統相機估計軌跡和真實軌跡及誤差

圖8 本文系統相機估計軌跡和真實軌跡及誤差

圖9 ORB-SLAM2 系統絕對位姿估計誤差曲線

圖10 本文系統絕對位姿估計誤差曲線

圖11 ORB-SLAM2 系統相對位姿估計誤差曲線

圖12 本文系統相對位姿估計誤差曲線

5.2 地圖構建

傳統的ORB-SLAM2 系統所創建稀疏點云地圖中缺少環境信息,環境信息不準確,無法用于后續的導航工作。在相機的運行過程中,相機頻率較高,但是相鄰的圖像幀之間變化較小。為了避免計算量過大,本文利用關鍵幀篩選,通過設置閾值,將沒有超過閾值的圖像幀,進入建圖線程,保證進入建圖線程的圖像幀需要處理的數據可行性,避免點云地圖冗余,創建點云地圖。本文利用目標檢測結果剔除室內場景中的先驗動態對象,然后根據相機提供的深度圖和RGB 彩色圖,結合相機內參以及相機的位姿(相機外參),將稀疏點云加起來,實現點云拼接,構建無動態環境干擾的靜態稠密點云地圖。加入外點去除濾波器和降采樣濾波器對點云進行濾波處理,得到噪聲小的稠密點云地圖如圖13 所示。

圖13 稠密點云地圖

稠密點云地圖可將地圖環境信息保存更加完整,可以較清楚地顯示細節,本文在稠密點云地圖的基礎上進一步建立八叉樹地圖如圖14 所示。

圖14 八叉樹地圖

數據顯示,稠密點云地圖所占空間為12.5 MB,八叉樹地圖所占空間為3.3 MB,八叉樹地圖所占空間約為稠密點云地圖的26.4%,能夠節約大量的存儲空間。

6 結論

在室內動態環境中,SLAM 系統容易受到周圍動態環境干擾,從而降低位姿估計精度,本文提出了一種基于ORB-SLAM2 框架的室內動態場景SLAM 系統。

本文系統采用YOLOv4 目標檢測網絡對環境進行語義分割,獲取語義信息,再聯合LK 光流法對動態目標進行檢測,判定動態物體區域,在對動態特征點進行跟蹤前,篩出動態信息,只使用靜態特征點進行位姿估計,有效地減少動態信息對相機位姿估計影響,并同時提高地圖構建的準確性。

在地圖構建方面,本文實現了稠密點云地圖,并為移動機器人提供導航地圖,構建八叉樹地圖,減少存儲空間,為后續實現機器人導航提供基礎。

然而,本文SLAM 系統在構建地圖實時性方面仍有待提高,目標檢測網絡方面仍需進一步加強,提升網絡性,減少運行時間和相機位姿估計誤差,保證后續移動機器人的避障和路徑規劃。

猜你喜歡
特征檢測系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
主站蜘蛛池模板: 国产精品视频观看裸模| 欧美国产精品不卡在线观看| 尤物成AV人片在线观看| 国产精品永久在线| 亚洲乱码视频| 亚洲成人高清在线观看| 91网站国产| 欧美另类第一页| 真人高潮娇喘嗯啊在线观看| 国产精品亚洲综合久久小说| 国产91在线|中文| 久久青草热| 日韩精品无码不卡无码| 国产爽爽视频| 色哟哟色院91精品网站| 91小视频在线| 欧美午夜视频| 色视频久久| 亚洲男人的天堂久久香蕉| 国产成人高清精品免费| 麻豆国产在线观看一区二区| 一区二区欧美日韩高清免费| 中国国产A一级毛片| 国产香蕉国产精品偷在线观看| 一本色道久久88| 国产在线观看91精品亚瑟| 亚洲一区二区约美女探花| 久久黄色一级片| 国产精品播放| 成人日韩视频| 国产免费高清无需播放器| 久久网欧美| 亚洲AV永久无码精品古装片| 91视频首页| 中文字幕va| 久久青草精品一区二区三区| 久久精品亚洲中文字幕乱码| 一级毛片网| 成人一级免费视频| 搞黄网站免费观看| 毛片久久网站小视频| 中文字幕久久波多野结衣| 国产人成在线观看| 天天操天天噜| 国产精品无码一二三视频| 亚洲精品午夜无码电影网| 亚洲国产中文精品va在线播放 | 国产在线97| 欧美亚洲香蕉| 欧美日韩国产高清一区二区三区| 暴力调教一区二区三区| 一本大道无码高清| 国产精品999在线| 五月天福利视频| 色135综合网| 国产精品密蕾丝视频| 亚洲成人播放| 亚洲 欧美 日韩综合一区| 色天堂无毒不卡| 国产精品第一区| 亚洲欧洲日产国码无码av喷潮| 成人综合在线观看| 欧美国产成人在线| 91精品国产情侣高潮露脸| 欧美日韩91| 激情综合图区| 国产大片黄在线观看| 91麻豆精品视频| 亚洲黄色高清| 国产一区二区丝袜高跟鞋| 精品无码专区亚洲| 九月婷婷亚洲综合在线| 热这里只有精品国产热门精品| 国产99在线观看| 亚洲欧美综合在线观看| 亚洲欧美成人| 国产成人亚洲综合A∨在线播放| 91麻豆国产视频| 国产成人一区二区| 国产三级国产精品国产普男人 | 美女扒开下面流白浆在线试听| 日韩专区欧美|