999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的神經網絡算法在裝配過程中的應用

2021-04-24 11:06:02陸坤龍
科學技術創新 2021年8期
關鍵詞:測量融合信息

陸坤龍 王 一

(華北理工大學電氣工程學院,河北 唐山063200)

在裝配過程中,產品工件笨重且組裝環節繁多,加上測量定位方面的精度問題,導致機器人裝配效率和精度低下。[1-2]。應運而生的是多視覺信息融合技術應用在了機器人自動裝配流程中解決機器人裝配過程中的問題。利用多個視覺傳感器對工件進行不同方位的定位,進而引導機器人執行相關動作,在這個過程中涉及到把各個傳感器的有用信息融合到統一坐標系下的問題[3-5]。目前,一些改進的新算法實質上是主要通過各種不同的方法共同作用來實現相互加強的目的。例如,模糊神經網絡方法不僅增強了神經網絡的算法魯棒性,還填補了模糊邏輯自適應能力的缺點[6]。雖然現在可以集成許多不同類型的傳感器來進行信息綜合,彌補單個傳感器信息不足的問題,但是,融合過程卻浪費了很多系統資源。文獻[7]提出了一種改進的D-S 參數理論算法,該方法比原算法多了一個距離因子,這增強了傳感器采集數據時的穩定性。文獻[8]提出了基于任務的神經網絡多傳感器數據融合的新方法,該方法在全面比較和分析了遙控機器人執行不同任務過程中的效果后,進而優化了神經網絡算法。結合本文研究內容特點,針對設計的視覺輔助系統采用改進型自適應BP 神經網絡算法對多個視覺傳感器采集到的視覺信息進行融合,從而為機器人提供視覺信息。

1 視覺輔助結構設計

本文主要對柔性裝配系統的視覺感知部分進行了設計。視覺感知系統主要有十字結構、光視覺傳感器和雙目視覺傳感器。雙目視覺傳感器作為待裝配物的遠視場測量裝置,得到待裝配物的遠位姿信息后,引導執行機構到達合適的裝配位置,之后啟動十字結構光傳感器對待裝配物進行二次位姿測量,其測量的結果與雙目視覺傳感器測量的位姿結果相融合,得出待裝配物的精確位姿信息,進而二次引導機器人進行準確的裝配動作。

2 視覺信息融合算法

2.1 自適應BP 神經網絡信息融合算法

本文提出的自適應改進BP 神經網絡信息融合算法不僅考慮到了原始BP 神經網絡的學習性能的高低,還優化了原始算法的復雜程度以及應用性能等問題。針對傳統自適應算法的不足之處,本文的改進型BP 神經網絡新方法采用了差異化的學習率,不僅能夠動態地調整著不同節點之間的連接權重數值,還能使得收斂誤差函數所需的時間減少。在改進的BP 神經網絡中,閾值是隨著權值變化的,并且將變化的閾值引入到權值的矩陣中進行再計算,形成一個反饋閉環。自適應BP 神經網絡算法實現過程如下:

第一步,算法初始化。

在軟件里面確定好三層的神經網絡后,再開始選擇合適的參數預設值。要進行設定的參數有:學習速率,誤差精度,權重矩陣。設定好后對這些參數進行訓練學習。

第二步,正向傳播誤差的求取。

首先把準備訓練的樣本進行分組,然后按照分組順序對樣本進行訓練,并記下訓練出的正向傳播誤差。

第五步,使用新權重進行正向傳播訓練,并更新網絡誤差。

第六步,BP 網絡迭代學習完成后,記錄最終值。

2.2 基于視覺信息融合的位姿估計方法設計

本文采用的是兩個組合式視覺傳感器進行數據采集的,雙目視覺傳感器位于機械臂之外,相對機器人基座是固定的,遠距離測量范圍比較大,處于0.3m-5m 之間。十字結構光傳感器是屬于近距離測量,測量范圍處于0.1m-0.3m 之間。雙目視覺傳感器的作用是預先測量被測物位姿信息引導機器人達到待裝配位置,然后待十字結構光傳感器也測量出待裝配物信息后,結合近測量信息進行信息融合,從而對近距離測量的結果進行一個精度補償。繼續配合十字結構光傳感器對機器人進行姿態調整,直到裝配精度符合預期值。其具體的算法流程如圖1 所示。

圖1 視覺信息融合算法流程圖

3 裝配測量實驗及結果分析

實驗平臺由KUKA 機器人及控制系統、十字結構光傳感器、雙目視覺傳感器、機器人末端工具鉛筆、標準方塊、計算機和三維位移臺組成。實驗的檢測結果如表1 所示,以示教對準結果為真實值,其他方式的引導結果為測量值,并且所有坐標結果都是相對于機器基坐標系而言的。

機器人在不同的引導方式下,從表1 中可以看出雙目視覺單獨引導效果最差,因為受到實驗條件和光線影響使得圖像配準效果欠佳,得到的標準塊的位姿信息不是太精確;十字結構光傳感器單獨引導精度明顯比雙目視覺引導精度要好,因為與雙目視覺傳感器相比,除了實驗條件一樣的情況下,十字結構光傳感器能夠自身打出激光線,形成自己獨有的特征線,有效的降低了外界光線對圖像處理過程中的干擾;信息融合后的引導精度最接近于示教引導效果,這也說明了本文視覺信息融合方法的有效性。

表1 對準實驗數據

在驗證了視覺信息融合方法有效性的基礎之上,為了更好的說明其性能,再驗證其引導誤差的收斂性。本文利用位移臺對標準塊進行多次位置改變,其幾何中心也會隨之改變,每次改變標準塊姿態之后,用視覺信息融合方法對其對準性進行驗證。記錄標準塊在不同位姿下的引導次數和每次引導對準數據,本次實驗對四種不同姿態下的標準塊進行對準實驗,具體數據如圖2 所示。

把示教的數值當成0 基線數值,那么每次引導的效果都是相對于基線來說的,通過擬合曲線可以看出,隨著擬合引導次數的增加,也就是機器人調整姿態次數的增加,引導誤差越來越趨近于基線,每種姿態下的測量誤差基本都在距離基線0.41mm 處穩定下來。這說明整個系統重復運作引導性能較好,融合算法具有良好的魯棒性能。

圖2 引導誤差曲線

4 結論

本文針對機器人裝配領域一直以來存在的裝配精度不高、裝配效率慢、次品率多等問題,制定了合理的視覺測量系統方案,為機器人提供精確的實時位姿引導信息。為了使視覺信息得到充分利用和提高裝配精度,提出了一種基于自適應BP 神經網絡的視覺信息融合算法。實驗結果表明融合算法引導結果最接近于示教結果,體現了本文提出的視覺信息融合算法的準確性和魯棒性能。

猜你喜歡
測量融合信息
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
把握四個“三” 測量變簡單
滑動摩擦力的測量和計算
滑動摩擦力的測量與計算
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
測量
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 免费看a毛片| 欧美亚洲一区二区三区导航| 欧洲日本亚洲中文字幕| av在线手机播放| 日韩av在线直播| 久久综合干| 欧美中文字幕无线码视频| 成人日韩精品| 9啪在线视频| 伊人网址在线| 国产网友愉拍精品视频| 青青青国产视频| 国产精品第一区在线观看| 激情无码视频在线看| 97av视频在线观看| 亚洲 日韩 激情 无码 中出| 免费Aⅴ片在线观看蜜芽Tⅴ| 久久精品国产91久久综合麻豆自制 | 久久这里只有精品23| 久久96热在精品国产高清| 好吊妞欧美视频免费| 国产成人无码综合亚洲日韩不卡| 欧美精品1区| 在线视频亚洲欧美| 丁香婷婷在线视频| 欧美成人日韩| 亚洲一区二区三区在线视频| 爱爱影院18禁免费| 99热国产在线精品99| 丝袜国产一区| 91精品在线视频观看| 欧美精品亚洲二区| AV老司机AV天堂| 亚洲一级毛片免费观看| 亚洲精品第一页不卡| 亚洲美女一区二区三区| 无码人妻热线精品视频| 白浆免费视频国产精品视频| 久久婷婷人人澡人人爱91| 色综合成人| 成人综合在线观看| 亚洲精品天堂自在久久77| 视频在线观看一区二区| 国产视频一区二区在线观看 | 漂亮人妻被中出中文字幕久久| 国产欧美精品一区二区| 超碰色了色| 亚洲国产中文精品va在线播放| 一本一道波多野结衣av黑人在线| 亚洲不卡影院| 福利视频99| 久久6免费视频| 日韩资源站| 黄片在线永久| 婷婷综合色| 亚洲无线视频| 国产精彩视频在线观看| 色综合中文| 91九色最新地址| 国产一区二区三区免费观看| 狠狠亚洲婷婷综合色香| 国产精品永久久久久| 国产精品视频第一专区| 国产亚洲视频播放9000| 日韩一级二级三级| 四虎精品黑人视频| 婷婷色中文| 国产精品福利在线观看无码卡| 国产成人8x视频一区二区| 欧美另类图片视频无弹跳第一页 | 亚洲成综合人影院在院播放| av性天堂网| 人妻无码中文字幕第一区| 九九九国产| 一级片免费网站| 亚洲六月丁香六月婷婷蜜芽| 欧美v在线| 国产成人免费手机在线观看视频| 日韩黄色在线| 日韩精品一区二区三区视频免费看| 亚洲中文字幕在线精品一区| 毛片大全免费观看|