999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于手勢交互的機械臂軌跡示教系統(tǒng)

2021-09-06 11:49:09花傲陽
軟件工程 2021年8期
關鍵詞:機械臂機器視覺

摘? 要:為了解決傳統(tǒng)機械臂示教方式上手難度高、效率低、人機交互系統(tǒng)不友好的問題,結合機器視覺與神經(jīng)網(wǎng)絡,提出一種基于手勢交互的機械臂軌跡示教系統(tǒng)。該系統(tǒng)通過機器視覺定位指尖位置,記錄下指尖的運動軌跡并將其用于機械臂的軌跡示教;通過卷積神經(jīng)網(wǎng)絡識別靜態(tài)手勢,用于與機械臂進行如抓取、放置、開始示教等動作的人機交互。系統(tǒng)通過ROS(機器人操作系統(tǒng))與機械臂通信,驅動機械臂完成示教軌跡的復現(xiàn)。通過設計實驗對系統(tǒng)的性能進行評估,結果顯示本示教系統(tǒng)具有編程難度低、易用性好、項目部署周期短的優(yōu)點,可用于復雜軌跡的示教工作,極大地提升了機械臂示教工作的效率。

關鍵詞:機械臂;軌跡示教;機器視覺;神經(jīng)網(wǎng)絡;人機交互

中圖分類號:TP391.4? ? ?文獻標識碼:A

Manipulator Trajectory Teaching System based on Gesture Interaction

HUA Aoyang

(College of Mechanical Engineering, University of Shanghai for Science and Technology, Shanghai 200082, China)

huaaoyang@126.com

Abstract: Aiming at the problems of difficulty to learn, low efficiency and unfriendly human-computer interaction system in traditional manipulator teaching methods, this paper proposes to establish a gesture interaction-based manipulator trajectory teaching system combining machine vision and neural network. Fingertip position is located through machine vision, and the movement trajectory of the fingertip is recorded and used for teaching manipulator trajectory. Convolutional neural network is used to identify static gestures, which are used for Human-computer interaction with the manipulator's actions, such as grasping, placing, and teaching. The system communicates with the manipulator through ROS (Robot Operating System), and drives the manipulator to complete the reproduction of the teaching trajectory. The performance of the system is evaluated through experiment designing. Results show that this teaching system has the advantages of low programming difficulty, user-friendliness, and short project deployment cycle. It can be used for teaching complex trajectories, which greatly improves teaching efficiency of the manipulator.

Keywords: manipulator; trajectory teaching; machine vision; neural network; human-computer interaction

1? ?引言(Introduction)

近年來,我國制造業(yè)發(fā)展經(jīng)歷了從制造大國向制造強國的轉型升級。機械臂是現(xiàn)代工業(yè)生產(chǎn)管理過程中的重要組成部分,由于機械臂具有工作精度高、重復能力強、能在惡劣的環(huán)境下進行操作等優(yōu)點,被廣泛應用于零部件的焊接、噴涂、裝配等工業(yè)任務中。目前,機械臂主要包含在線示教及離線示教兩種示教方式。在線示教主要通過示教盒進行逐點位示教或直接拖動機械臂示教;離線示教主要是用計算機輔助設計軟件制作三維模型,并導入各機械臂廠家的仿真軟件中進行軌跡示教[1]。傳統(tǒng)示教方法具有操作復雜、人機交互的友好性不高、不同品牌操作方式不同、示教精度依賴于工人熟練度等缺點,因此提出一種簡單高效的機械臂示教辦法是當前機械臂研究的熱點與難點。

隨著機器學習和機器視覺技術的發(fā)展,機械臂演繹編程為人機交互提供了新的解決辦法,是降低機械臂示教復雜性的重要途徑[1]。機械臂演繹編程是通過對人的示教動作進行觀測、學習,從而自動生成程序及運動軌跡的過程,具有難度低、人機交互便捷、操作靈活等優(yōu)點。本文將手勢交互與機械臂軌跡示教相結合,開發(fā)了一個利用手指進行軌跡示教,基于手勢識別進行人機交互的機械臂示教系統(tǒng)。本系統(tǒng)通過相機獲取圖像,基于卷積神經(jīng)網(wǎng)絡的手勢識別模塊識別不同的輸入手勢以實現(xiàn)人機交互。基于機器視覺的指尖識別模塊可以準確地識別指尖的位置,將其生成的軌跡用于機械臂的軌跡示教,此方法具有上手簡單、人機交互友好、軌跡準確率高等優(yōu)點,在示教復雜軌跡時能極大地提高工作效率。

2? ?示教系統(tǒng)的設計(Design of teaching system)

根據(jù)機械臂在日常生產(chǎn)中的應用場景,本示教系統(tǒng)由指尖識別、手勢識別兩個部分組成。首先通過相機獲取圖像數(shù)據(jù),接著對圖像進行濾波降噪處理。圖像處理模塊用于識別、跟蹤指尖的軌跡,手勢識別主要用于與機械臂進行人機交互。最后根據(jù)指尖的路徑、示教過程中的手勢以及機械臂手眼標定后得到的各項參數(shù)生成機械臂的運動軌跡。系統(tǒng)的流程圖如圖1所示。

3? ?運動指尖識別(Movement fingertip recognition)

本系統(tǒng)是從視頻中獲取動態(tài)的指尖點軌跡,因此需要將移動的手指作為前景從靜態(tài)的背景中分割出來,常見的運動物體的分割方法有幀間差分法以及背景消除法。由于幀間差分法不能提取運動物體的完整區(qū)域,存在較大的空洞,移動速度的快慢也會影響運動物體的提取質量,而背景消除法對運動速度不敏感且穩(wěn)定性高,因此更加適合運動物體的準確提取。

3.1? ?背景消除

背景消除法是把當前圖像與背景圖像作差分,通過設置差分后圖像的閾值,將視頻中運動的物體作為前景提取出來[2]。背景消除的流程如圖2所示。

若為t時刻的一幀圖像,為背景模型,為背景消除后的圖像,T為固定閾值,那么在t時刻背景分割的公式為:

(1)

運動物體的提取效果十分依賴背景模型的建立,如何獲取一個高質量的背景模型,是背景消除法的關鍵和難點。常見的背景消除法有基于混合高斯模型背景的減除法(GMM)、基于鄰近算法(KNN)的背景分割算法、平均背景法等。由于平均背景法具有工作原理簡單、可靠性高等優(yōu)點,故本系統(tǒng)采用平均背景法進行背景消除。平均背景法是通過累加足夠幀數(shù)的圖片,計算每個像素的平均值及其平均差得到背景的統(tǒng)計模型,通過設置合理的高低閾值,來分割圖像的前景與背景。實驗中原圖像與分割后得到的前景圖像如圖3所示。

3.2? ?指尖檢測

從視頻中獲取前景之后,由于前景圖片存在一定的噪聲,因此首先需要對其進行開運算、閉運算、濾波等操作以減少噪聲,隨后對指尖部位進行定位。目前常用的手部定位提取方法有基于膚色分割的手部提取、基于深度相機的深度閾值提取。本系統(tǒng)利用背景差分所得的前景圖像,基于輪廓查找及凸包算法對指尖定位。其主要算法流程如圖4所示。

3.2.1? ?圖像的預處理

為了抑制圖像中的噪聲,本系統(tǒng)采用中值濾波、形態(tài)學算法來處理圖像。中值濾波是將像素替換為圍繞這個像素的矩形框內的中值像素,常用于去除圖像中的椒鹽噪聲。圖像形態(tài)學算法主要使用開運算、閉運算,開運算是對圖像先進行腐蝕然后膨脹,主要用于消除圖像中小的噪聲;閉運算是將特征區(qū)域先進行膨脹然后腐蝕處理,可以填充特征區(qū)域內部的細小空洞。

3.2.2? ?基于手部輪廓檢測與凸包算法的指尖提取

在基于中值濾波及形態(tài)學處理之后,下一步就是提取手部輪廓,進而利用凸包算法找到指尖點。本系統(tǒng)利用OpenCV(計算機視覺公開庫)中的findContours函數(shù)進行輪廓查找,通過提取最長的輪廓線來確定手掌區(qū)域;接著用凸包算法將找到的輪廓用點連接起來構成一個凸多邊形;最后通過尋找凸多邊形各個點中縱向像素值的最小值來確定指尖點的位置。手的輪廓圖與手部的凸多邊形如圖5所示。

4? ?基于神經(jīng)網(wǎng)絡的手勢識別(Gesture recognition based on neural network)

人機交互功能是決定一個系統(tǒng)“友善”程度的重要指標,常見的人機交互方式包括鼠標鍵盤輸入、觸屏點擊、語音識別等。考慮到在機械臂示教過程中使用鼠標鍵盤等設備進行人機交互所帶來的不便,本系統(tǒng)開發(fā)了一套基于機器視覺和卷積神經(jīng)網(wǎng)絡的手勢識別模塊作為人機交互的接口。通過手勢可以控制機械臂示教的開始與結束,以及物體的抓取與放置功能,提升了本系統(tǒng)的人機交互能力與操作的便攜性。

4.1? ?手勢識別方案設計

本系統(tǒng)的手勢識別模塊共分為四個步驟:(1)通過相機采集圖像,并將手勢識別區(qū)域中的手勢分割出來。(2)通過圖像濾波處理去除噪點,向下采樣制作訓練用的數(shù)據(jù)集。(3)訓練神經(jīng)網(wǎng)絡。(4)采集圖像信息。(5)輸出手勢結果。根據(jù)系統(tǒng)在實際工作中的需要,本系統(tǒng)共設計了四個不同的手勢分別對應停止示教、開始示教、抓取與放置四個功能。四個手勢如圖6所示。每個手勢經(jīng)過分割、濾波、下采樣的操作以后,得到32×32像素的灰度圖片。

4.2? ?卷積神經(jīng)網(wǎng)絡的設計與訓練

本系統(tǒng)采用LeNet-5網(wǎng)絡結構進行手勢識別。LeNet-5是一種經(jīng)典的七層卷積網(wǎng)絡結構,用于手寫數(shù)字識別且取得了令人矚目的成績,是最早用于圖像識別的卷積神經(jīng)網(wǎng)絡[3]。該網(wǎng)絡由兩個卷積層、兩個池化層,以及三個全連接層組成。整個網(wǎng)絡的結構圖如圖7所示。

卷積神經(jīng)網(wǎng)絡相對于傳統(tǒng)圖像處理的手勢識別算法具有提取圖像特征效率高、分類準確率高、分類速度快等優(yōu)點,一般包含輸入層、卷積層、池化層以及全連接層四個部分。卷積層和池化層是用于提取圖像特征的核心模塊[4]。卷積層通過卷積核與所對應的圖像區(qū)域進行卷積提取圖片的特征。本系統(tǒng)的神經(jīng)網(wǎng)絡包含兩個卷積層,卷積核的數(shù)量分別為32 個、64 個。由于卷積核的大小對分類的結果具有較大的影響,采用較大的卷積核會導致手部特征喪失,較小的卷積核又會降低網(wǎng)絡訓練、識別的效率[4],因此為了保留盡可能多的圖形特征同時兼顧網(wǎng)絡的運算速度,本系統(tǒng)對兩個卷積層分別使用5×5、3×3大小的卷積核,提高了網(wǎng)絡的性能[2]。

卷積運算提取到的圖像特征是線性的,但真正的樣本往往是非線性的,為此引入非線性激活函數(shù)來解決,使得每個像素點可以用0—1的任何數(shù)值來代表,模擬更為細微的變化。激活函數(shù)一般具有非線性、連續(xù)可微、單調性等特性。本系統(tǒng)卷積層采用ReLu激活函數(shù)。ReLu激活函數(shù)的表達式為:

(2)

池化層主要用于壓縮圖像的大小,提取圖像的主要特征,簡化網(wǎng)絡的計算。池化對輸出的上層進行下采樣的過程,會減少參數(shù)矩陣的尺寸并保留有用的信息,從而減少最后全連層中的參數(shù)數(shù)量。池化常用的方式一般有兩種,分別為最大池化與均值池化,本文采用卷積核大小為2×2的最大池化采樣,抑制了網(wǎng)絡的過擬合,提高了模型的非線性映射能力[5]。

全連接層居于整個網(wǎng)絡的尾部,是卷積神經(jīng)網(wǎng)絡的“分類器”,在卷積層與第一層全連接時,卷積、池化所產(chǎn)生的特征圖會被展開為一維的特征向量,后面的全連接層的每個神經(jīng)元都與所有上層神經(jīng)元相連[6],將前面層級所提取到的特征進行非線性組合得到輸出。全連接層的表達式為:

(3)

式中,x為輸入的值,w為每個輸入所對應的權重系數(shù),b為偏置項,是一個常數(shù)。全連接層連接所有特征輸出至輸出層,輸出層使用歸一化指數(shù)函數(shù)輸出分類的結果標簽[2]。

5? ?實驗驗證(Experimental verification)

為了對本示教系統(tǒng)性能進行評估,本節(jié)設計了傳統(tǒng)示教方法與使用本系統(tǒng)示教方法的對比實驗。通過記錄機械臂的軌跡、示教所需的時間以及使用者在示教過程中的滿意程度等,從效率、精度、易用性等三個維度與傳統(tǒng)的用示教盒示教作對比,以驗證本系統(tǒng)的優(yōu)越性,同時發(fā)現(xiàn)它的不足之處。

5.1? ?示教系統(tǒng)平臺搭建

實驗的硬件組成包含一部相機、一臺機械臂、一臺預裝Ubuntu 16.04操作系統(tǒng)以及ROS(機器人操作系統(tǒng))的筆記本電腦。在使用系統(tǒng)進行示教前需要先完成相機標定、機械臂與相機間的手眼標定以及示教系統(tǒng)與機械臂的通信[7]。手勢示教的流程是首先加載卷積神經(jīng)網(wǎng)絡訓練好的手勢模型,接著由工業(yè)相機實時采集示教的畫面,操作者用右手在示教區(qū)域進行示教,系統(tǒng)會實時捕獲手指指尖的位置。左手在手勢識別區(qū)域進行人機交互,通過手勢來控制機器人完成開始示教、停止示教、物體的抓取與放置等操作。搭建實驗平臺的設計圖如圖8所示。

5.2? ?實驗設計

本實驗的方案為:在實驗臺上平鋪一張A4大小的白紙,在紙上畫一個矩形,分別使用傳統(tǒng)的示教盒以及本示教系統(tǒng)對同一軌跡進行軌跡示教,兩種示教方法如圖9所示。示教結束后,機械臂會復現(xiàn)示教的軌跡,與此同時,機械臂末端的筆會在白紙上記錄下機械臂的運行軌跡。最后,分別對這兩種示教方法進行評估,通過測量在特定點位的位置偏移量來評估示教的精度,通過測量示教所需的時長來評估示教的效率,通過不同操作者的調查問卷對示教系統(tǒng)的易用性進行評價[8]。

5.3? ?實驗結果分析

本次實驗共安排了四名同學分別用兩種示教方式進行軌跡示教,在軌跡上取若干個采樣點,記錄在每個采樣點實際軌跡與理想軌跡的平均偏移量、最大偏移量以及每次示教所需的總時長。使用示教盒示教產(chǎn)生的相關數(shù)據(jù)詳情如表1所示。

使用本系統(tǒng)示教產(chǎn)生的相關數(shù)據(jù)詳情如表2所示。

通過對比兩種編程方式所用的總時長以及最終實際軌跡與理想軌跡之間的偏差,可以得出以下結論:傳統(tǒng)的方法需要在逐點位示教之后才能生成一段完整的軌跡,對新手操作者來說易用性不高且操作煩瑣。本系通過手勢即可與機器人交互,借助滑動手指即可完成示教,具有操作簡單、效率高等優(yōu)點。另一方面,本系統(tǒng)無論在平均誤差還是最大誤差方面,對比傳統(tǒng)方法都是不盡人意的[9],除了操作者由于操作產(chǎn)生的隨機誤差以外,相機標定時所帶來的相機標定誤差、用手眼標定來確定機械臂與相機位置關系所產(chǎn)生的位置誤差、機械臂生產(chǎn)制造以及日常磨損產(chǎn)生的誤差等都使得規(guī)劃的軌跡誤差偏大[4]。因此,后期研究可以采用精度更高的相機標定算法、手眼標定算法及機械臂誤差補償算法來減少系統(tǒng)誤差。

6? ?結論(Conclusion)

使用傳統(tǒng)的示教方法進行示教存在費時費力、專業(yè)基礎要求高、人機交互性能差等問題,這些缺點阻礙了機械臂進一步的發(fā)展。為了解決上述問題,本文基于機器視覺及機器學習提出了一種簡單高效的機械臂示教系統(tǒng)。該系統(tǒng)利用背景消除法、輪廓檢測法以及凸包算法識別并追蹤手指的位置,將手指的位置點轉換為機械臂的運動軌跡。為了便于人機交互,本系統(tǒng)搭建了基于LeNet-5的視覺手勢交互模塊,設計了四種交互手勢用于與機械臂進行人機交互。該網(wǎng)絡具有95.8%的識別準確率,友好的人機交互接口降低了機器人示教的上手難度,提高了示教的效率。最后通過與傳統(tǒng)的示教盒示教作比較,驗證了本系統(tǒng)在保證軌跡精度的同時具有更高的工作效率以及更簡潔的操作邏輯。

參考文獻(References)

[1] 李致豪.基于視覺手勢交互的協(xié)作機器人示教系統(tǒng)研究[D].長春:長春工業(yè)大學,2020.

[2] 李炳臻,劉克,顧佼佼,等.卷積神經(jīng)網(wǎng)絡研究綜述[J].計算機時代,2021(04):8-12.

[3] 周忠祥,胡晉,王越,等.機器人演示編程技術的研究進展[J].自動化博覽,2020,37(06):48-57.

[4] 張宏達.基于球桿示教筆的機器人軌跡演示編程系統(tǒng)研究[D].哈爾濱:哈爾濱工業(yè)大學,2020.

[5] 段中興,白楊.結合深度學習的機器人示教系統(tǒng)設計[J].計算機測量與控制,2020,28(11):164-169.

[6] 譽洪生.面向工業(yè)裝配演示編程的動作識別[D].杭州:浙江大學,2017.

[7] 葉必鵬.基于視覺的多機器人室內協(xié)同SLAM算法的研究與實現(xiàn)[D].哈爾濱:哈爾濱工業(yè)大學,2018.

[8] HU H S, ABDUI S. Static hand gesture recognition using neural networks[J]. Artificial Intelligence Review, 2014, 41(2):147-181.

[9] SUN P, FREUND R M. Computation of minimum-volume covering ellipsoids[J]. Operations Research, 2014, 52(5):690-706.

作者簡介:

花傲陽(1995-),男,碩士生.研究領域:圖像處理.

猜你喜歡
機械臂機器視覺
基于智能車技術的圖書館書籍整理機器人
機械臂平面運動控制與分析
全自動模擬目標搜救系統(tǒng)的設計與實現(xiàn)
基于機器視覺的自動澆注機控制系統(tǒng)的研究
科技視界(2016年26期)2016-12-17 17:31:58
機械臂工作空間全局相對可操作度圖的構建方法
大場景三維激光掃描儀在研究生實踐教學培養(yǎng)中的應用
科教導刊(2016年25期)2016-11-15 17:53:37
人機交互課程創(chuàng)新實驗
計算機教育(2016年7期)2016-11-10 09:01:27
基于機器視覺的工件鋸片缺陷檢測系統(tǒng)設計
軟件工程(2016年8期)2016-10-25 15:55:22
基于機器視覺技術的動態(tài)“白帶”常規(guī)檢測系統(tǒng)的開發(fā)
科技視界(2016年20期)2016-09-29 11:11:40
定點巡視與帶電清理平臺的研究與設計
主站蜘蛛池模板: 国产美女无遮挡免费视频网站 | 成人日韩精品| 久久久久亚洲AV成人网站软件| 国产一级精品毛片基地| 国产精品一区二区不卡的视频| 午夜影院a级片| 国产精品亚洲专区一区| 国产欧美另类| 99热国产这里只有精品无卡顿" | 国产一级二级三级毛片| 激情成人综合网| 国内毛片视频| 一级爱做片免费观看久久| 免费jizz在线播放| 亚洲午夜福利在线| 亚洲二区视频| 成人精品视频一区二区在线| av免费在线观看美女叉开腿| 2021精品国产自在现线看| 久久中文字幕av不卡一区二区| 亚洲欧洲日产国产无码AV| 亚洲精品在线91| 毛片免费高清免费| 亚洲成人www| 91亚洲免费| 精品欧美一区二区三区在线| 蜜桃视频一区二区三区| 国产精品伦视频观看免费| 国产精品久久久久久久久久久久| 国产超碰一区二区三区| 1769国产精品视频免费观看| 一本大道视频精品人妻| 秘书高跟黑色丝袜国产91在线| 99精品视频播放| 欧美不卡视频在线| 久久国产精品麻豆系列| aⅴ免费在线观看| 日韩av无码DVD| 在线观看亚洲精品福利片| 露脸一二三区国语对白| 99免费在线观看视频| 在线中文字幕网| 午夜少妇精品视频小电影| 成年人国产视频| 在线观看亚洲天堂| 精品视频福利| 91亚洲影院| 韩日无码在线不卡| 日韩在线视频网| 欧美国产三级| 狠狠色丁香婷婷| 18禁黄无遮挡网站| 久久国产高清视频| 久久婷婷综合色一区二区| 国产一区成人| 久久久噜噜噜久久中文字幕色伊伊| 亚洲一区二区三区国产精华液| 高清国产va日韩亚洲免费午夜电影| 久久精品一卡日本电影| 欧美伊人色综合久久天天| 国产成人免费高清AⅤ| 国产精品99一区不卡| 欧美精品v日韩精品v国产精品| 97在线碰| 国产一区二区网站| 国产视频入口| 欧美a网站| 欧美日韩第三页| 成年人福利视频| 亚洲婷婷六月| 国产成人精品高清在线| 一级黄色网站在线免费看| 亚洲美女久久| 亚洲成人高清无码| 国产熟女一级毛片| 丝袜美女被出水视频一区| 亚洲91精品视频| 久久91精品牛牛| 毛片最新网址| 亚洲中文字幕av无码区| 国产99精品久久| 国产午夜精品一区二区三|