999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取研究

2020-10-28 01:35:15胡慶勝符亞云牛金星
河南科技 2020年25期
關(guān)鍵詞:深度學(xué)習(xí)

胡慶勝 符亞云 牛金星

摘 要:為了解決農(nóng)業(yè)采摘中因各種不利因素造成的采摘機(jī)器人無法準(zhǔn)確識別和提取目標(biāo)的問題,本文提出了一種基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法,應(yīng)用于采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取。經(jīng)過實踐檢驗可知,該算法不僅較好地解決了采摘機(jī)器人由于復(fù)雜的周圍環(huán)境對果蔬不能很好地識別提取的問題,而且在一定程度上還能對成熟和未成熟的果蔬進(jìn)行篩選。

關(guān)鍵詞:深度學(xué)習(xí);Mask R-CNN;目標(biāo)識別提取;采摘機(jī)器人

中圖分類號:TP274文獻(xiàn)標(biāo)識碼:A文章編號:1003-5168(2020)25-0005-04

Abstract: In order to solve the problem that the picking robot can't recognize and extract the target accurately due to various adverse factors in agricultural picking, this paper proposed an adaptive recognition and extraction algorithm based on deep learning Mask R-CNN neural network framework, which was applied to the target recognition and extraction of picking robot vision system. The practical test shows that the algorithm not only solves the problem that the picking robot can not recognize and extract fruits and vegetables well due to the complex surrounding environment, but also can screen the mature and immature fruits and vegetables to a certain extent.

Keywords: deep learning;Mask R-CNN;target recognition extraction;picking robot

機(jī)器視覺系統(tǒng)作為有效獲取和處理周圍場景目標(biāo)信息的重要手段,是采摘機(jī)器人能實現(xiàn)實時、準(zhǔn)確采摘目標(biāo)的首要條件。而在采摘機(jī)器人視覺系統(tǒng)中,實現(xiàn)對目標(biāo)圖像實時、準(zhǔn)確地識別和提取的關(guān)鍵技術(shù)是圖像分割技術(shù)。大部分到了成熟期待采摘的農(nóng)作物,如蘋果、橘子、草莓、番茄等,在采摘過程中可能會出現(xiàn)待采摘的目標(biāo)部分被周圍的葉片、枝干遮擋,同種目標(biāo)之間或者目標(biāo)與葉片之間顏色相近,目標(biāo)的形狀和大小各異等現(xiàn)象,這給采摘機(jī)器人視覺系統(tǒng)實時、準(zhǔn)確地識別提取目標(biāo)帶來了巨大困難。為了解決各種不利因素造成的采摘機(jī)器人無法準(zhǔn)確識別和提取目標(biāo)的問題,本文提出了一種基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法,應(yīng)用于采摘機(jī)器人視覺系統(tǒng)的目標(biāo)識別提取。

1 研究概述

1.1 研究的整體框架

采摘機(jī)器人的視覺系統(tǒng)主要包括以下三部分:攝像頭獲取場景圖像、視覺系統(tǒng)處理場景圖像、保存并返回處理結(jié)果。整個流程如圖1所示。

1.2 Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架

Mask R-CNN是由He Kaiming等人[1]在2017年提出的針對單張圖像完成物體分割與識別的神經(jīng)網(wǎng)絡(luò)框架,它采用了Ross Girshick等人[2]提出的R-CNN系列網(wǎng)絡(luò)采用的Anchor技術(shù),并結(jié)合圖像金字塔網(wǎng)絡(luò)(Features Pyramid Network,F(xiàn)PN)對不同尺度物體的識別效果進(jìn)行優(yōu)化,還通過引入全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN),實現(xiàn)了精確的物體分割。Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架主要包含7個部分,分別是特征提取卷積網(wǎng)絡(luò)、興趣區(qū)域?qū)R層(ROIAlign Layer)、區(qū)域提議網(wǎng)絡(luò)(Region Proposal Network,RPN)、Mask分支(Mask Branch)、全連接層(Fully Connected Layers)、邊界框預(yù)測和類別預(yù)測[3],其整體實現(xiàn)流程如圖2所示。

1.3 制作和訓(xùn)練數(shù)據(jù)集

本研究主要對采摘機(jī)器人在采摘橘子和草莓的過程中其視覺系統(tǒng)獲取到的圖像進(jìn)行搜集,其中橘子圖像145張,草莓圖像152張。選取橘子圖像120張和草莓圖像130張作為訓(xùn)練集,剩余的圖像作為驗證集。使用VGG圖像標(biāo)注器對這些圖像中的目標(biāo)進(jìn)行標(biāo)注,標(biāo)注完成后,導(dǎo)出一個含標(biāo)注坐標(biāo)點信息的JSON文件,到此就制作好了一個完整的數(shù)據(jù)集。

為了減小訓(xùn)練集的規(guī)模,使用遷移學(xué)習(xí)的方法來訓(xùn)練一個新的模型數(shù)據(jù)集。本研究是在COCO數(shù)據(jù)集的基礎(chǔ)上,使用遷移學(xué)習(xí),對制作好的數(shù)據(jù)集進(jìn)行訓(xùn)練[4]。本文訓(xùn)練數(shù)據(jù)集使用的筆記本電腦參數(shù)為:CPU為Intel Core i7-8300K,GPU 為GeForce GTX 1080,16 G內(nèi)存,安裝系統(tǒng)為Windows 10。此外,設(shè)置訓(xùn)練的學(xué)習(xí)率為0.001,訓(xùn)練次數(shù)為60次,訓(xùn)練步數(shù)為100步,訓(xùn)練中損失函數(shù)變化如圖3所示。

1.4 目標(biāo)識別提取實驗

為了確定訓(xùn)練生成的模型數(shù)據(jù)集能較好地對圖像中的橘子和草莓進(jìn)行識別提取,需要在電腦上將訓(xùn)練生成的橘子和草莓圖像模型數(shù)據(jù)集加載到Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架中,進(jìn)行初步的驗證實驗。首先通過Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架加載訓(xùn)練生成的.h5類型的數(shù)據(jù)集文件,然后對剩余的25張橘子圖像和22張草莓圖像進(jìn)行測試實驗,最后觀察每一張圖像中橘子和草莓的識別提取效果。經(jīng)過實驗觀察,訓(xùn)練的數(shù)據(jù)集能夠較好地識別提取出測試中每一張圖片中的橘子和草莓。

2 實驗結(jié)果與對比分析

2.1 實驗結(jié)果

將訓(xùn)練好的數(shù)據(jù)集和Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架移植到采摘機(jī)器人的視覺系統(tǒng)中,對訓(xùn)練的數(shù)據(jù)集進(jìn)行實驗和驗證。收集了60次實驗過程中,采摘機(jī)器人機(jī)械臂以不同的速度從起始點A運(yùn)動到目標(biāo)抓取點B時,機(jī)械臂上攝像機(jī)傳回的圖像序列的目標(biāo)識別和提取結(jié)果。對實驗結(jié)果進(jìn)行分析可知,隨著采摘機(jī)器人機(jī)械臂運(yùn)動速度的加快,識別提取率有所下降。當(dāng)采摘機(jī)器人的機(jī)械臂以1 cm/s的速度緩慢移動時,視覺系統(tǒng)對攝像頭上傳過來的場景圖像序列中橘子的識別提取率約為98.1%、草莓的識別提取率約為98.4%;當(dāng)采摘機(jī)器人的機(jī)械臂以2 cm/s的速度移動時,對橘子的識別提取率約為96.1%、草莓的識別提取率約為96.8%;當(dāng)采摘機(jī)器人的機(jī)械臂以3 cm/s的速度移動時,對橘子的識別提取率約為93.1%、草莓的識別提取率約為93.4%,具體實驗結(jié)果分析如表1所示。

另外,通過對實驗結(jié)果中草莓識別圖片的分析,發(fā)現(xiàn)該神經(jīng)網(wǎng)絡(luò)對成熟與未成熟的草莓有一定的篩選作用,而對于橘子的識別則沒有顯示出該作用。圖片場景圖與識別后的圖如圖4所示。

2.2 對比實驗分析

為了驗證Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架相比于之前的神經(jīng)網(wǎng)絡(luò)框架應(yīng)用于采摘機(jī)器人視覺系統(tǒng)上的識別提取率及識別的實時性是否更優(yōu)異,本研究做了Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架與Faster R-CNN神經(jīng)網(wǎng)絡(luò)框架的對比實驗。以采摘草莓的過程為研究對象,分別用兩種神經(jīng)網(wǎng)絡(luò)框架訓(xùn)練出數(shù)據(jù)集,然后將訓(xùn)練好的數(shù)據(jù)集和神經(jīng)網(wǎng)絡(luò)框架導(dǎo)入采摘機(jī)器人的視覺系統(tǒng)上進(jìn)行驗證實驗。讓采摘機(jī)器人的機(jī)械臂仍然以不同的速度從起始點A運(yùn)動到目標(biāo)抓取點B,搜集采摘過程中圖片的識別數(shù)據(jù)進(jìn)行分析,并對不同采摘過程中,Mask R-CNN與Faster R-CNN處理的圖片數(shù)據(jù)進(jìn)行分析。通過分析可知,當(dāng)速度增加時,Mask R-CNN的識別率比Faster R-CNN的識別率下降得更加明顯,但Faster R-CNN識別率比Mask R-CNN低;Faster R-CNN不像Mask R-CNN一樣對草莓的成熟與未成熟有一定的篩選作用。對比實驗結(jié)果如表2所示。

目標(biāo) 實驗采摘次數(shù) 場景圖片數(shù)/張 目標(biāo)識別圖片數(shù)/張 完成采摘次數(shù) 識別提取率/% Mask R-CNN 1 草莓 10 315 310 10 98.4 2 10 248 240 10 96.8 3 10 198 185 10 93.4 Faster R-CNN 1 草莓 10 315 284 10 90.2 2 10 248 222 10 89.5 3 10 198 176 9 88.9 ]

得出上述結(jié)果的原因主要是Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架中添加了Mask分支層,可以實現(xiàn)像素級別的分類,所以比Faster R-CNN的目標(biāo)識別率更高;但同時,也降低了Mask R-CNN的目標(biāo)識別處理速度,因此,隨著采摘機(jī)器人機(jī)械臂速度的增加,Mask R-CNN的識別率下降得更快。圖5為Mask R-CNN與Faster R-CNN識別的對比圖。

3 結(jié)論

本研究將深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架應(yīng)用于采摘機(jī)器人的視覺系統(tǒng)上,以實現(xiàn)自適應(yīng)識別提取目標(biāo),解決采摘機(jī)器人由于復(fù)雜的周圍環(huán)境對果蔬不能很好地識別提取的問題。實驗結(jié)果表明,基于深度學(xué)習(xí)Mask R-CNN神經(jīng)網(wǎng)絡(luò)框架的自適應(yīng)識別提取目標(biāo)的算法能較好地解決復(fù)雜環(huán)境中目標(biāo)的識別提取問題;當(dāng)采摘機(jī)器人機(jī)械臂緩慢運(yùn)動時,對橘子和草莓的識別提取率約為98.1%和98.4%,但隨著運(yùn)動速度的增加會有所下降;比Faster R-CNN對橘子和草莓的識別提取率更高;對草莓識別提取時,對成熟與未成熟的草莓具有一定的篩選作用。

本研究還存在著些許不足有待以后解決和研究。例如,本文在訓(xùn)練數(shù)據(jù)集上使用了遷移學(xué)習(xí)的方法,訓(xùn)練的數(shù)據(jù)集較少,使得訓(xùn)練出來的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的環(huán)境場景較少,目標(biāo)識別的種類也較少,會在一定程度上降低采摘機(jī)器人的識別提取率;本研究只針對橘子和草莓的采摘過程進(jìn)行了實驗和研究,并未對其他果蔬的識別提取進(jìn)行實驗研究,因此在今后的研究中還需要加入對其他種類果蔬的實驗和研究,建立一個專門應(yīng)用于采摘機(jī)器人的訓(xùn)練數(shù)據(jù)集,使其能應(yīng)用于對各種果蔬的采摘。

參考文獻(xiàn):

[1] He K,Gkioxari G,Dollar P,et al. Mask R-CNN[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE Computer Society,2017.

[2]Girshick R,Donahue J,Darrelland T,et al. Rich feature hierarchies for object detection and semantic segmentation[C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2014.

[3] Girshick R . Fast R-CNN[C]// 2015 IEEE International Conference on Computer Vision (ICCV). IEEE,2016.

[4]彭秋辰,宋亦旭.基于MaskR-CNN的物體識別和定位[J].清華大學(xué)學(xué)報(自然科學(xué)版),2019(2):53-59.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 精品福利一区二区免费视频| 欧美日韩专区| 另类欧美日韩| 一本一道波多野结衣一区二区 | 伊在人亚洲香蕉精品播放 | 99伊人精品| 成人小视频网| 日本五区在线不卡精品| 精品久久高清| 一级毛片免费高清视频| 国产高清精品在线91| 欧美伦理一区| 亚洲欧美日韩成人高清在线一区| 曰韩免费无码AV一区二区| 国产在线观看一区精品| 亚洲中文字幕精品| 性色一区| 日韩高清无码免费| 国产福利免费视频| 中文字幕在线一区二区在线| 国产91久久久久久| 色香蕉网站| 亚洲三级a| h视频在线播放| 亚洲国产精品一区二区高清无码久久| 免费一极毛片| a毛片在线| 97久久人人超碰国产精品| 丁香六月综合网| 亚洲VA中文字幕| 国产00高中生在线播放| 中文字幕免费在线视频| 国产av色站网站| 99久久精品久久久久久婷婷| 国产黑人在线| 22sihu国产精品视频影视资讯| 亚洲第一黄色网址| 亚洲精品高清视频| 国产高清不卡| 无码高潮喷水在线观看| 日本一区二区不卡视频| 91在线播放国产| 亚洲制服丝袜第一页| av在线手机播放| 福利在线不卡| 欧美一区二区福利视频| 亚洲国产成人在线| 国产无码在线调教| 99re这里只有国产中文精品国产精品| 欧美日韩va| 国产麻豆永久视频| 成人国产精品2021| 日韩无码黄色| 精品夜恋影院亚洲欧洲| 毛片久久网站小视频| 国产成人精品一区二区三在线观看| 国产真实自在自线免费精品| 国产精品永久免费嫩草研究院| 国产黄网永久免费| 日韩A级毛片一区二区三区| 亚洲精品第一在线观看视频| 热久久综合这里只有精品电影| 伊人色天堂| 伊人激情综合网| 亚洲精品爱草草视频在线| 99色亚洲国产精品11p| 日本午夜影院| 首页亚洲国产丝袜长腿综合| 91无码视频在线观看| 欧美午夜理伦三级在线观看| 无码日韩精品91超碰| 日本一区二区不卡视频| 国产人成乱码视频免费观看| 久久www视频| 一级毛片在线播放免费| 国产福利大秀91| 97国产精品视频自在拍| 色成人综合| 天天综合色网| 国产成人亚洲欧美激情| 日本国产精品| 日韩一级二级三级|