999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機(jī)器人操作系統(tǒng)的智能移動小車目標(biāo)識別研究

2021-09-06 01:48:31田宇
軟件工程 2021年8期
關(guān)鍵詞:深度學(xué)習(xí)

田宇

摘? 要:根據(jù)目前常見目標(biāo)識別算法檢測較為復(fù)雜、識別時間較長并容易出現(xiàn)錯檢漏檢等方面的不足,利用目前機(jī)器視覺技術(shù),提出一種適用智能移動小車系統(tǒng)的目標(biāo)識別算法YOLOv3(一種深度學(xué)習(xí)目標(biāo)檢測方法),并搭建智能移動小車的目標(biāo)識別仿真系統(tǒng)。其目的是研究目標(biāo)識別算法在ROS(機(jī)器人操作系統(tǒng))中結(jié)合智能小車運動控制功能進(jìn)行正確實現(xiàn),改善目標(biāo)檢測算法的漏檢率、錯誤率等。分析目標(biāo)識別算法在ROS系統(tǒng)中的精確度,使用數(shù)據(jù)集進(jìn)行檢測實驗。實驗結(jié)果表明,運用YOLOv3深度學(xué)習(xí)目標(biāo)識別算法在提高識別目標(biāo)速度的同時有較高的檢測精度,當(dāng)目標(biāo)丟失在視野中時利用ROS系統(tǒng)控制移動機(jī)器人重新使目標(biāo)快速識別,降低了識別目標(biāo)的時間,提高了移動機(jī)器人運動識別的效率。

關(guān)鍵詞:ROS系統(tǒng);深度學(xué)習(xí);YOLOv3識別算法;運動控制

中圖分類號:TP391.4? ? ?文獻(xiàn)標(biāo)識碼:A

Research on Target Recognition of Intelligent Mobile

Car based on Robot Operating System

TIAN Yu

(School of Mechanical Engineering, University of Shanghai for Science and Technology, Shanghai 200093, China)

893570276@qq.com

Abstract: Currently, common target recognition algorithms have shortcomings of complex detection, long recognition time and being prone to error detection and missed detection. In order to solve these problems, this paper proposes a target recognition algorithm YOLOv3 (A deep learning target detection method) that is suitable for intelligent mobile car system by using the current machine vision technology. Meanwhile, target recognition simulation system of the intelligent mobile car is built in order to study the correct implementation of target recognition algorithm in ROS (Robot Operating System) combined with intelligent car motion control function, thus reducing miss detection rate and error rate of target detection algorithm. Accuracy of target recognition algorithm in ROS system is analyzed and data set is used for detection experiment. Experimental results show that the proposed YOLOv3 deep learning target recognition algorithm can improve target recognition speed and detection accuracy. When a target is lost in the field of vision, ROS system is used to control the mobile robot to recognize the target quickly again, which reduces target recognition time and improves the efficiency of mobile robot motion recognition.

Keywords: ROS system; deep learning; YOLOv3 recognition algorithm; motion control

1? ?引言(Introduction)

隨著人工智能和機(jī)器人技術(shù)的發(fā)展,機(jī)器視覺成為機(jī)器和計算機(jī)領(lǐng)域新興的應(yīng)用[1],而基于深度學(xué)習(xí)的視覺識別也成為目標(biāo)識別中的主流,特別是利用移動式、腿足式機(jī)器人進(jìn)行動態(tài)識別成為當(dāng)前的研究重點,但腿足式機(jī)器人研究要結(jié)合復(fù)雜步態(tài)進(jìn)行,較為困難,故現(xiàn)對移動式智能機(jī)器人小車進(jìn)行研究。在持續(xù)識別檢測目標(biāo)的過程中,機(jī)器人與目標(biāo)需要進(jìn)行實時交互,所以需要構(gòu)建實時準(zhǔn)確的機(jī)器人識別系統(tǒng)。而ROS能夠提高機(jī)器人的功能開發(fā)效率,受到機(jī)器人科研人員和開發(fā)人員的青睞,在國內(nèi)機(jī)器人研究中,利用ROS對地圖建設(shè)、路徑計劃、導(dǎo)航和模擬、運動控制和定位等進(jìn)行了研究。使用ROS進(jìn)行移動機(jī)器人的交互在檢測跟蹤方面具有重要的研究意義,將基于深度學(xué)習(xí)的目標(biāo)識別算法和ROS系統(tǒng)進(jìn)行有效的結(jié)合,形成高效的實時仿真環(huán)境是值得研究的熱門課題。

2? ROS平臺簡介(A brief introduction of ROS platform)

機(jī)器人操作系統(tǒng)(ROS)是一個基于機(jī)器人應(yīng)用的開源系統(tǒng)框架,它包含大量工具軟件、庫代碼和約定協(xié)議。使用ROS平臺是為了提高機(jī)器人軟件開發(fā)中的軟件復(fù)用率,為機(jī)器人開發(fā)者提供底層驅(qū)動和控制、節(jié)點間的通信等功能,同時還包括獲取、編譯、封裝運行程序所使用的工具和API(操作系統(tǒng)的應(yīng)用程序接口)[2]。它的五個特點為:(1)多語言的支撐;(2)框架簡單,高集成度;(3)功能包、工具包種類多樣;(4)點對點的通信;(5)免費且開源。

ROS的節(jié)點控制:節(jié)點是機(jī)器人實現(xiàn)應(yīng)用的載體,各節(jié)點實現(xiàn)不同的目的,它們互相通過節(jié)點控制器進(jìn)行連接通信。節(jié)點控制器通過管理如目標(biāo)識別節(jié)點、傳感器控制節(jié)點、鍵盤控制節(jié)點、運動控制節(jié)點等實現(xiàn)整個系統(tǒng)的實際應(yīng)用,如圖1所示。

3? 基于深度學(xué)習(xí)的目標(biāo)識別(Target recognition based on deep learning)

3.1? ?目標(biāo)識別算法對比

比較流行的深度學(xué)習(xí)方法主要分為One-stage(SSD、YOLO系列)和Two-stage(R-CNN系列)。Two-stage包括:(1)R-CNN算法:①給出一張圖片;②從圖片中隨機(jī)生成1,000多個方框;③對搜索到的每一個方框進(jìn)行特征提取;④使用分類器對搜索到的方框進(jìn)行分類;⑤通過回歸的方法定義新的目標(biāo)方框。但此方法有很明顯的不確定性,它的特征提取有很大的冗余和重疊。(2)Fast R-CNN算法:在R-CNN的基礎(chǔ)上進(jìn)行深度研究,但選擇性搜索仍然比較慢,計算量還是很大。(3)Faster R-CNN算法:在Fast R-CNN的基礎(chǔ)上再進(jìn)行改進(jìn)[3]。此時該方法把識別檢測分為四個步驟:候選框選擇、提取特征、提取后分類、Bounding Box(預(yù)測框)預(yù)測回歸,但其缺陷是還需要花費不少的時間來訓(xùn)練。

VOC2007數(shù)據(jù)集上給出Faster R-CNN和YOLOv3的檢測模型,F(xiàn)aster R-CNN和YOLOv3在mPA(平均精度)和FPS(每秒所能達(dá)到的幀數(shù))上的評估結(jié)果如表1所示。

結(jié)果表明,YOLO方法解決了CNN(卷積神經(jīng)網(wǎng)絡(luò))系列算法速度慢的問題,而且能保證平均精度在一定高度的范圍內(nèi)。它主要使用了回歸的思想,通過對一張圖片的整體進(jìn)行研究,在一張圖片的多個位置上回歸出它的目標(biāo)方框以及反映出目標(biāo)的類別。由于在簡單環(huán)境內(nèi)需要檢測的目標(biāo)很少,因此在評估結(jié)果和保證實時方面,我們使用YOLOv3結(jié)合ROS進(jìn)行此系統(tǒng)的目標(biāo)識別實現(xiàn)。

3.2? ?YOLOv3算法網(wǎng)絡(luò)框架

YOLO算法將所需檢測的圖片進(jìn)行的柵格化[4](這是一種非常具有創(chuàng)新性的想法),然后將圖片中一個目標(biāo)的預(yù)測位置與目標(biāo)中心位置所在最小單元格的Bounding Box進(jìn)行相交。該算法大大減少了模型在圖片中搜索的冗余和復(fù)雜度,將位置識別和類型檢測封裝到一個CNN網(wǎng)絡(luò)中進(jìn)行預(yù)測,判斷圖片中幾種目標(biāo)的所屬類型和位置信息。CNN網(wǎng)絡(luò)是一種深層次的網(wǎng)絡(luò)結(jié)構(gòu)[5],CNN網(wǎng)絡(luò)結(jié)構(gòu)從輸入層到輸出層中間包含兩個隱藏層,隱藏層里包含卷積層、池化層、全連接層,如圖2所示。

YOLOv3的主干特征提取網(wǎng)絡(luò)的部分叫作Darknet-53[6]。YOLOv3輸入一個圖片,主干特征提取網(wǎng)絡(luò)就會對輸入的圖片不斷地進(jìn)行特征提取,從下到上為一系列卷積的過程。其中底層三個方向使用殘差網(wǎng)絡(luò),Darknet-53中的殘差卷積就是首先進(jìn)行一次的步長為2的卷積,然后保留該卷積層,再進(jìn)行一次的卷積和一次的卷積,并把這個結(jié)果加上Layer作為輸出的結(jié)果,在輸出的三個方向上再進(jìn)行殘差網(wǎng)絡(luò)(Residual)處理。YOLOv3尺度輸出網(wǎng)絡(luò)架構(gòu)如圖3(a)所示,可視化模型預(yù)測對網(wǎng)絡(luò)的三個方向上的Box進(jìn)行質(zhì)心預(yù)測架構(gòu)如圖3(b)所示。

(a)YOLOv3尺度輸出網(wǎng)絡(luò)架構(gòu)

(b)YOLOv3可視化網(wǎng)絡(luò)模型預(yù)測架構(gòu)

殘差網(wǎng)絡(luò)最初是用在ResNet上,把殘差網(wǎng)絡(luò)分作一個個Block,每一個Block可以有輸入也可以有輸出,殘差網(wǎng)絡(luò)塊對輸入進(jìn)行兩部分的處理結(jié)構(gòu)如圖4所示。

3.3? ?YOLOv3算法的實現(xiàn)

YOLO的方法并非直接預(yù)測實際框架的寬度和高度,而是將預(yù)測的寬度和高度分為Anchor Box(Faster R-CNN中提出的預(yù)測錨框,后來演變?yōu)轭A(yù)測Bounding Box)的寬度和高度來連接。經(jīng)過多次迭代訓(xùn)練,每個Bounding Box都會知道它是在預(yù)測什么樣的Box。Bounding Box預(yù)測用式(1)和式(2)求得預(yù)測框的寬和高:

(1)

(2)

其中,和為Anchor Box的寬和高,和為Bounding Box直接預(yù)測出的寬和高,和為轉(zhuǎn)換后預(yù)測的實際寬和高,也就是最終預(yù)測中輸出的寬和高。置信度如式(3)所示:

(3)

其中,表示第i 個最小單元格的第j 個Bounding Box的置信度。的求解如下:

當(dāng)Bounding Box認(rèn)為當(dāng)前邊框內(nèi)有目標(biāo)時,要檢測的所有類型中每種類型的概率為對象條件類別概率(Conditional Class Probabilities),YOLOv3的對象條件類別概率中對背景的預(yù)測通過置信度來分類識別,所以它的輸出是在置信度表示邊框有目標(biāo)時的前提下,而它的條件概率為,所以置信度評測由給出。

若一張圖片被分為個單元格,并且有個Bounding Box,根據(jù)圖3(b)預(yù)測的三個方向的Box,即每個Bounding Box內(nèi)有5 個位置參數(shù)含有1 個置信度和個類別概率,那么得到最終的輸出維數(shù)如式(4)所示:

(4)

根據(jù)YOLOv3算法進(jìn)行直觀檢測,該算法的檢測在圖中能精確快速地識別。在單目標(biāo)識別中有較精確的效果,如圖5(a)所示;在多目標(biāo)識別中存在極少數(shù)漏檢情況,但識別精度仍然保持一定的高度,如圖5(b)所示,而且有較快的識別速度。故將在該算法下研究ROS智能移動小車識別系統(tǒng)實驗,為移動小車的智能應(yīng)用提供基礎(chǔ),搭載YOLO識別功能包與ROS進(jìn)行通信,達(dá)到準(zhǔn)確高效的識別效果。

4 目標(biāo)識別移動小車實驗系統(tǒng)架構(gòu)搭建(Construction of experiment system architecture for target recognition mobile car)

此目標(biāo)識別系統(tǒng)的功能包架構(gòu)如圖6所示。

robot_gazebo為小車三維仿真環(huán)境及其Gazebo(可視化仿真環(huán)境)世界的建模功能包;Motion_control為移動機(jī)器人小車運動控制功能包;target_recognition為封裝的YOLOv3目標(biāo)識別功能包,三者相互通信,形成一個以移動機(jī)器人小車為仿真實驗平臺的目標(biāo)識別系統(tǒng)。

4.1? ?搭建仿真智能小車環(huán)境

該模型采用XACRO,是優(yōu)化后的URDF模型,是一種精簡化、可復(fù)用、模塊化的描述形式。模型文件的后綴名由.urdf變?yōu)?xacro,而且在模型標(biāo)簽中需要加入XACRO的聲明,使模型與ROS進(jìn)行連接:

<?xml version="1.0"?>

搭載簡要移動機(jī)器人小車模型和其他外部環(huán)境需要定義各種參數(shù),例如定義車身顏色、慣性矩陣、傳動系統(tǒng)的關(guān)節(jié)連接,等等[7]。此處利用mrobot_gazebo模型小車,如圖7所示。

此環(huán)境搭建好后可以加入其他外部models搭建整體的world環(huán)境,為后續(xù)識別更多目標(biāo)提供模型。此環(huán)境封裝為robot_gazebo功能包。此環(huán)境加載攝像頭插件camera.xacro,便于搭載視覺系統(tǒng)。

4.2? ?運動控制平臺搭建

移動小車模型中已經(jīng)加入了libgazebo_ros_diff_drive.so插件,可以使用差速控制器實現(xiàn)機(jī)器人運動,由于和控制運動有關(guān)的話題是/cmd_vel,故在終端輸入roslaunch robot_control以便執(zhí)行鍵盤運動控制節(jié)點,同時執(zhí)行rostopic echo/cmd_vel來查詢小車運動信息,此時控制鍵盤即可控制仿真小車的速度、方向等。小車的運動控制界面如圖8所示。

由于小車為兩驅(qū)輪式驅(qū)動,以直角坐標(biāo)系XOY為基礎(chǔ),小車運動學(xué)方程[8]如式(5)所示:

(5)

左右兩輪角速度如式(6)和式(7)所示:

(6)

(7)

在t時刻姿態(tài)位置變化如式(8)所示,姿態(tài)位置隨時間變化如式(9)和式(10)所示:

(8)

(9)

(10)

其中,為移動小車質(zhì)心線速度,為小車轉(zhuǎn)動角速度,為兩驅(qū)動輪的距離,為小車轉(zhuǎn)彎的角度,和分別為小車左右驅(qū)動輪的線速度,為小車某時刻回轉(zhuǎn)半徑。啟動rostopic相關(guān)話題查詢?nèi)鐖D9所示的移動小車運動信息顯示界面。

了解到小車運動方位和姿態(tài)的位置信息,將此環(huán)境封裝為Motion_contorl功能包。搭建移動小車仿真平臺后進(jìn)行目標(biāo)識別模塊的連接和通信,運動識別整體流程框架如圖10所示。首先初始化移動小車,隨后訂閱小車運動的/cmd_vel節(jié)點來獲得小車的速度、角度、方向等信息,若小車視野內(nèi)存在要識別的目標(biāo)則小車位置不發(fā)生改變,只獲取識別到的信息;若小車視野內(nèi)目標(biāo)位置偏移或者不存在目標(biāo),則調(diào)整小車速度、方向等進(jìn)行小車的運動控制,直至識別到目標(biāo)重新出現(xiàn)在視野范圍內(nèi)。

4.3? ?目標(biāo)識別在ROS中的實現(xiàn)

將YOLO算法與ROS進(jìn)行通信,需要建立移動小車仿真環(huán)境、運動控制和目標(biāo)識別間的節(jié)點通信[9],使用數(shù)據(jù)集進(jìn)行實驗。將目標(biāo)識別封裝為target_recognition功能包,通過Gazebo節(jié)點進(jìn)行三類節(jié)點的控制通信,利用/cmd_vel進(jìn)行運動控制節(jié)點連接,利用camera/image_raw進(jìn)行ROS中目標(biāo)識別算法節(jié)點連接,利用/joint_states進(jìn)行移動小車仿真環(huán)境節(jié)點連接,三者構(gòu)成基于ROS移動小車的目標(biāo)識別系統(tǒng)[10]。目標(biāo)識別小車系統(tǒng)節(jié)點通信如圖11所示。

通過虛擬機(jī)的Ubuntu系統(tǒng)中ROS各個節(jié)點控制,完成仿真系統(tǒng)的研究,以YOLOv3和ROS結(jié)合為主要識別算法進(jìn)行實驗,與R-CNN系列算法進(jìn)行比對,得出實驗結(jié)果。雖然在虛擬機(jī)下實現(xiàn)識別有一定的不確定性,但是在簡單識別目標(biāo)的前提下有很好的效果,在錯檢、漏檢和速度方面有較大改善。在ROS中的識別實驗效果如圖12所示。

5? ?結(jié)論(Conclusion)

本文以虛擬機(jī)Ubuntu 18.04系統(tǒng)的ROS平臺,創(chuàng)建移動小車XACRO模型,封裝運動控制、鍵盤驅(qū)動功能包,以YOLOv3為識別算法,分析算法的優(yōu)點,搭建相機(jī)插件,進(jìn)行仿真移動小車目標(biāo)識別實驗。該深度學(xué)習(xí)算法在ROS中錯誤識別、遺漏識別的情況很少出現(xiàn),表現(xiàn)出較好的精度和速度。后續(xù)將在高效的GPU平臺上針對復(fù)雜環(huán)境,對檢測實時性開展進(jìn)一步的研究。

參考文獻(xiàn)(References)

[1] 高娟娟,渠中豪,宋亞青.機(jī)器視覺技術(shù)研究和應(yīng)用現(xiàn)狀及發(fā)展趨勢[J].中國傳媒科技,2020(07):21-22.

[2] 詹潤哲,姜飛.基于ROS與深度學(xué)習(xí)的移動機(jī)器人目標(biāo)識別系統(tǒng)[J].電子測試,2018(15):70-71,64.

[3] 曹之君,張良.基于Faster-RCNN的快速目標(biāo)檢測算法[J].航天控制,2020,38(04):49-55.

[4] REDMON J, FARHADI A. YOLOv3: An incremental improvement[J]. IEEE Conference on Computer Vision and Pattern Recognition, 2018(04):89-95.

[5] 王琦.卷積核相關(guān)性與CNN網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化的關(guān)系研究[D].蘭州:蘭州大學(xué),2019.

[6] 王輝,張帆,劉曉鳳,等.基于DarkNet-53和YOLOv3的水果圖像識別[J].東北師大學(xué)報(自然科學(xué)版),2020,52(04):65-70.

[7] 張玉林,陳勇林.基于ROS平臺的移動機(jī)器人運動分析與仿真[J].機(jī)器人技術(shù)與應(yīng)用,2018,185(05):37-40.

[8] 許松清,吳海彬,楊興裕.兩輪驅(qū)動移動機(jī)器人的運動學(xué)研究[J].電子機(jī)械工程,2005,21(06):31-34.

[9] 張亞斌.基于ROS的輪式移動機(jī)器人行人目標(biāo)視覺感知與跟隨系統(tǒng)研究[D].徐州:中國礦業(yè)大學(xué)(江蘇),2019.

[10] 賈浩東.基于ROS平臺的機(jī)器人目標(biāo)識別系統(tǒng)的設(shè)計[J].電子測試,2018(02):49-50,59.

作者簡介:

田? ?宇(1994-),男,碩士生.研究領(lǐng)域:機(jī)器視覺.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 美女无遮挡拍拍拍免费视频| 日本成人一区| 69av在线| 激情综合激情| 制服丝袜无码每日更新| 欧美成人精品高清在线下载| 国产精品极品美女自在线网站| 国产精品久线在线观看| 国产综合精品日本亚洲777| 国产制服丝袜无码视频| 亚洲天堂在线免费| 日韩a在线观看免费观看| 91亚洲精品国产自在现线| 色婷婷电影网| 亚洲日韩欧美在线观看| 亚洲国产成熟视频在线多多 | 国产丝袜丝视频在线观看| 精品免费在线视频| 在线播放真实国产乱子伦| 全部免费毛片免费播放 | 日韩成人午夜| 欧美乱妇高清无乱码免费| 九九九久久国产精品| 尤物视频一区| 五月婷婷中文字幕| 黄色网页在线观看| 亚洲系列无码专区偷窥无码| 国产欧美亚洲精品第3页在线| 国产精品视频免费网站| 波多野结衣国产精品| 国产va在线观看免费| 欧美精品不卡| 国产91精品久久| 欧美成在线视频| 久久亚洲国产一区二区| 超碰91免费人妻| 国产乱子伦视频在线播放| 999精品免费视频| 99久久免费精品特色大片| 亚洲高清资源| 色婷婷电影网| 成人毛片在线播放| 国产对白刺激真实精品91| 激情综合五月网| 国产免费羞羞视频| 人禽伦免费交视频网页播放| 制服丝袜国产精品| 蜜臀AVWWW国产天堂| 在线观看精品自拍视频| 欧美精品影院| 伊人色综合久久天天| 伊人成人在线视频| 99偷拍视频精品一区二区| 91欧美在线| 欧类av怡春院| 亚洲成人免费在线| 东京热一区二区三区无码视频| 免费AV在线播放观看18禁强制| 毛片网站观看| 久草性视频| 五月天在线网站| 日本黄色不卡视频| 91福利在线看| 欧美精品一区二区三区中文字幕| AV色爱天堂网| 国产精品尤物铁牛tv| 色欲色欲久久综合网| 凹凸国产熟女精品视频| 久草热视频在线| 色综合五月| 久久青青草原亚洲av无码| 久久精品无码一区二区国产区| 日韩天堂网| 亚洲永久视频| 老司机久久精品视频| 一级毛片网| 国产欧美网站| 99久久国产综合精品2023| 欧美午夜久久| 国产91高跟丝袜| 亚洲一区二区三区麻豆| 99无码中文字幕视频|