999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的機器人目標(biāo)檢測設(shè)計

2021-05-12 02:59:42余佳恩馬國軍任永恒王亞軍
電子設(shè)計工程 2021年8期
關(guān)鍵詞:深度檢測

余佳恩,馬國軍,任永恒,王亞軍

(江蘇科技大學(xué)電子信息學(xué)院,江蘇鎮(zhèn)江 212003)

室內(nèi)機器人在移動過程中,需要感知周圍環(huán)境,以進行目標(biāo)檢測和路徑規(guī)劃。常用的傳感器有激光雷達、超聲波和紅外傳感器等,為獲得較多的信息,視覺傳感器也廣泛應(yīng)用于機器人目標(biāo)檢測。

機器人目標(biāo)檢測方法是將提取的目標(biāo)圖像特征轉(zhuǎn)化為特征向量,利用分類器進行分類[1-2],同時用滑動窗口對目標(biāo)定位,找到與目標(biāo)特征最相似的位置。

隨著人工智能技術(shù)的不斷發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測算法逐步被應(yīng)用,并成為研究熱點。基于區(qū)域建議的算法先對可能存在的目標(biāo)區(qū)域進行大量的建議,構(gòu)成候選目標(biāo),然后進行識別,得到檢測結(jié)果,如Faster R-CNN 系列檢測算法[3-4],但該類算法存在處理數(shù)據(jù)速度慢,對候選區(qū)域進行處理時有大量的重復(fù)計算等問題。基于回歸學(xué)習(xí)的檢測算法能夠一步完成檢測過程,如YOLO 在去除區(qū)域建議的過程中[5],直接利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)對整幅圖像進行處理,預(yù)測出目標(biāo)的位置和類別,該方法雖然提高了運算速度,增加了實時性,但其定位的準(zhǔn)確性較低[6]。

基于此,文中設(shè)計并研究了基于MobileNet-SSD模型的目標(biāo)檢測方法,并且輸出機器人到目標(biāo)障礙物的距離。該方法使用MobileNet 網(wǎng)絡(luò)作為SSD 的基礎(chǔ)網(wǎng)絡(luò)進行特征提取,將檢測到的目標(biāo)投影到深度圖中,同時計算包圍盒內(nèi)的深度平均值作為障礙物到機器人的距離。

文中融合計算機視覺和深度學(xué)習(xí)的方法,進行機器人障礙物目標(biāo)全自動檢測,并得到距離信息,為機器人避障、路徑規(guī)劃提供基礎(chǔ)。

1 MobileNet-SSD目標(biāo)檢測

1.1 MobileNet

目前,為得到較高的準(zhǔn)確率,CNN 的深度逐漸增加,復(fù)雜度逐漸增強[7]。但是,硬件資源的限制使得巨大且復(fù)雜網(wǎng)絡(luò)模型在嵌入式設(shè)備上無法實際應(yīng)用。針對CNN 存在的問題,Google 于2017 年發(fā)布了MobileNet 卷積神經(jīng)網(wǎng)絡(luò)模型[8]。

MobileNet 采用深度可分離卷積[9]代替普通卷積,為每個輸入通道提供單獨的濾波器,使用點卷積結(jié)合所有輸出的深度卷積,使計算量大大減小,標(biāo)準(zhǔn)卷積分解為可分離卷積的示意如圖1 所示。

圖1 普通卷積和深度可分離卷積

1.2 SSD目標(biāo)檢測算法

針對R-CNN 系列檢測算法處理數(shù)據(jù)速度慢,YOLO 類算法定位準(zhǔn)確率低的問題,文獻[10]提出了SDD 算法。與兩階段目標(biāo)檢測算法相比,SSD 采用端到端的方法和金字塔式的多尺度特征層,具有實時性好、結(jié)果準(zhǔn)確的特點。

SSD 算法以VGG16 為基礎(chǔ)網(wǎng)絡(luò),通過增加4 個卷積層獲得更多的特征圖。通過多尺度特征信息和待檢測圖像的大小信息,生成候選框位置和置信度。在輸出層,利用非極大值抑制算法((Non-Maximum Suppression,NMS)去掉無效的候選框,將候選框和標(biāo)注框進行匹配,從而得到目標(biāo)的信息,包括位置、類別和置信度[11-13]。

SDD 由基礎(chǔ)網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)組成。輔助網(wǎng)絡(luò)在VGG-16 的基礎(chǔ)上增加用于目標(biāo)檢測的卷積層,其目標(biāo)檢測步驟如下:

Step1:初始化,載入模型進行網(wǎng)絡(luò)訓(xùn)練;

Step2:提取部分圖像區(qū)域,構(gòu)造候選框;

Step3:計算置信度,置信度值越大,準(zhǔn)確性越高;

Step4:輸出置信度和物體在圖像中的位置。

1.3 MobileNet-SSD目標(biāo)檢測流程

利用RGB 相機獲取場景的彩色圖像,利用MobileNet-SSD 進行障礙物檢測并構(gòu)建目標(biāo)包圍盒;然后,利用左右兩個紅外相機獲取場景的深度圖像,將RGB 彩色圖像和深度圖像融合配準(zhǔn),得到RGBD圖像數(shù)據(jù);最后,將目標(biāo)包圍盒投影到深度圖中,并輸出目標(biāo)的類別和距離。具體流程如圖2 所示。

圖2 MobileNet-SSD目標(biāo)檢測流程圖

2 RGBD圖像配準(zhǔn)

圖像配準(zhǔn)是將多個傳感器從不同視角獲得的多幅圖像,在同一場景下尋找?guī)缀紊系膶?yīng)關(guān)系。

圖像配準(zhǔn)可分為基于區(qū)域的配準(zhǔn)和基于特征的配準(zhǔn)兩種方法[14]。基于區(qū)域的配準(zhǔn)方法[15]由事先定義好尺寸的窗口來進行相關(guān)性估計。比較典型的算法有相關(guān)算法、傅里葉算法和互信息算法。

基于特征的配準(zhǔn)方法[16]是對不同圖像中提取的特征,如點、線特征進行關(guān)聯(lián),因而對圖像的旋轉(zhuǎn)、平移和尺度變換等具有不變性。

在深度圖像配準(zhǔn)中,由3D 相機獲得的圖像包括深度圖像和彩色圖像。由于深度相機和彩色相機的位置不同,因而需要通過配準(zhǔn),將深度圖像坐標(biāo)系轉(zhuǎn)換到彩色圖像坐標(biāo)系下,使得深度圖像和彩色圖像融合,得到配準(zhǔn)深度圖像。

設(shè)3D 相機的左側(cè)相機為深度相機,右側(cè)相機為彩色相機,深度圖像配準(zhǔn)到彩色圖像的過程由式(1)描述:

其中,W′為變換矩陣,(uL,vL,zL)T為深度圖像的像素坐標(biāo),(uR,vR,zR)T為彩色圖像的像素坐標(biāo)。

變換矩陣W′的構(gòu)造過程如下:

1)構(gòu)造深度相機坐標(biāo)系到圖像坐標(biāo)系的變換,由攝像機標(biāo)定原理可知,相機坐標(biāo)到圖像坐標(biāo)的變換為:

于是,圖像坐標(biāo)系到相機坐標(biāo)系的變換為:

其中,LR為雙目相機標(biāo)定的左側(cè)相機內(nèi)參矩陣。

2)同理,構(gòu)造右側(cè)相機坐標(biāo)系到圖像坐標(biāo)系的變換:

其中,RR為雙目相機標(biāo)定的右側(cè)相機內(nèi)參矩陣。

3)左側(cè)相機坐標(biāo)系到右側(cè)相機坐標(biāo)系變換為:

其中,M為兩個相機光心的外參矩陣。

4)左側(cè)圖像坐標(biāo)轉(zhuǎn)換到右側(cè)圖像坐標(biāo)系,并左乘RR矩陣得到:

此時,根據(jù)深度圖像和彩色圖像中像素的坐標(biāo),可以得到配準(zhǔn)深度圖像中的像素坐標(biāo)。

3 實驗結(jié)果與討論

研究中的軟硬件實驗平臺為PC 端,操作系統(tǒng)為Ubuntu16.04,計算機配置為Intel 酷睿4 核CPU,內(nèi)存為8 GB,框架使用TensorFlow 深度學(xué)習(xí)框架,使用的視覺相機是Intel RealSense D435i。

Intel RealSense D435i 可用于室內(nèi)外的視覺檢測與導(dǎo)航,最大測距為10 m,與光照、場景、校正有關(guān)。圖像傳感器采用全局快門,每個像素大小為3 μm ×3 μm,深度相機最小測距為0.105 m,視場深度為(87°±3°)×(58°±1°)×(95°±3°),深度輸出分辨率最大為1 280×720,幀率為90 f/s,RGB 相機最大分辨率為1 920×1 080,RGB幀率為30 f/s,RGB傳感器視場FOV(H×12 V×D)為69.4°×42.5°×77°(±3°),長寬高為90 mm×25 mm×25 mm,所用接口為USB 接口,采用Vision Processor Board 及Intel Real Sense Vision Processor D4。文中實驗示意圖如圖3 所示。

圖3 實驗示意圖

紅外光發(fā)射器將紅外結(jié)構(gòu)光投射到場景中,紅外接收部分主要有左右兩個紅外相機,用于接收被物體反射的紅外光,并采集場景內(nèi)物體的空間信息;RGB 相機用于獲取彩色圖像。

實驗中,在D435i 前方放置目標(biāo),獲取彩色圖像和深度圖像,并配準(zhǔn)對齊,融合到一幅圖像中,利用MobileNet-SSD 模型定位場景中的目標(biāo),構(gòu)建包圍盒,通過深度圖像計算機器人到目標(biāo)之間的距離。實驗中測到的距離為105.1 cm,實驗結(jié)果如圖4 所示。

4 結(jié)束語

圖4 實驗結(jié)果圖

對于機器人移動過程中的障礙物檢測,為了判斷目標(biāo)障礙物的類別與距離,研究融合深度學(xué)習(xí)和視覺感知的障礙物檢測技術(shù),利用Intel RealSense D435i 深度相機獲取場景信息,基于深度學(xué)習(xí)MobileNet 和SSD 網(wǎng)絡(luò)提取場景中的目標(biāo)并輸出目標(biāo)類別和距離,為機器人障礙物檢測提供新的方法。

猜你喜歡
深度檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 伊人激情综合网| 欧美亚洲欧美区| 91国语视频| 91无码视频在线观看| 国产精品尤物铁牛tv| 99久久无色码中文字幕| 日韩精品专区免费无码aⅴ| 久久久久亚洲精品成人网 | 精品乱码久久久久久久| 亚洲永久视频| 日韩在线2020专区| 国产91特黄特色A级毛片| 高清久久精品亚洲日韩Av| 日韩av电影一区二区三区四区| 成人无码一区二区三区视频在线观看 | 99资源在线| 久久五月天国产自| 98超碰在线观看| 国产清纯在线一区二区WWW| 国产福利免费视频| 成人免费一级片| 精品无码专区亚洲| 色综合网址| 97se亚洲综合在线| 国产不卡国语在线| 九九九精品成人免费视频7| 久久精品视频亚洲| 国产簧片免费在线播放| 91年精品国产福利线观看久久| 波多野结衣国产精品| 国产永久免费视频m3u8| 不卡无码网| 激情六月丁香婷婷四房播| 国产不卡一级毛片视频| 国产精品极品美女自在线网站| 国产视频a| 亚洲国产av无码综合原创国产| 人妻丰满熟妇av五码区| 亚洲大尺码专区影院| 青青草原国产精品啪啪视频| 亚洲综合国产一区二区三区| 99re热精品视频国产免费| 国产经典在线观看一区| 免费看黄片一区二区三区| 国产综合网站| 国产精品视频3p| 久久99蜜桃精品久久久久小说| 欧美午夜在线播放| 免费无码又爽又刺激高| 青青操国产| 高清色本在线www| 免费高清自慰一区二区三区| 日韩亚洲综合在线| 国产丰满大乳无码免费播放| 亚洲福利一区二区三区| 亚洲日本韩在线观看| 精品国产毛片| 色网站在线免费观看| 国产精品成人免费视频99| 丰满人妻一区二区三区视频| 国产成人免费观看在线视频| 日本人妻一区二区三区不卡影院| 日韩毛片免费视频| 全色黄大色大片免费久久老太| 怡春院欧美一区二区三区免费| 97se综合| 一本色道久久88综合日韩精品| 亚洲系列无码专区偷窥无码| 亚洲成av人无码综合在线观看| a级毛片免费播放| www.日韩三级| 再看日本中文字幕在线观看| 高清无码手机在线观看| 精品久久久久无码| 久久亚洲美女精品国产精品| 久久精品只有这里有| 日韩av在线直播| www中文字幕在线观看| 中文字幕无码av专区久久| 一区二区影院| 免费无码一区二区| 国产农村妇女精品一二区|