999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多點觸摸的協作機器人近似最優人機交互控制算法

2024-01-01 00:00:00劉冰張巖
吉林大學學報(理學版) 2024年5期

摘要:針對人機交互系統中現有方法無法準確捕捉用戶的操作意圖,動態環境適應性較差,導致人機交互精準性不佳的問題,為提高協作機器人在作業過程中的人機交互精準性,提出一種基于多點觸摸的近似最優人機交互控制方法,首先,基于人機交互的多點觸摸動作匹配,建立交互手勢動作序列圖像傳導函數,提取交互手勢特征,分析圖像相似度特征分量,根據像素值得出動作判斷的模糊度集合,以實現對多點觸摸動作的匹配,從而準確捕捉用戶的操作意圖;其次,考慮機器人運動條件和摩擦力因素,建立摩擦力近似最優約束方程,以保證機器人移動交互的平衡性和穩定性;最后,獲取交互手臂的期望響應,利用Lagrange方程描述多點觸摸條件下的人機交互狀態,建立交互動作動力學方程,引入交互控制變量,利用自適應模糊控制體系輸出近似最優控制結果,以提高動態環境適應性,并根據實際情況調整控制策略,更好地滿足人機交互的需求.實驗結果表明,該方法能有效完成人機交互控制,識別率高達94%以上,控制時延誤差較小,為0.03×10-3s,且迭代收斂速度快,具有更好的控制效果.

關鍵詞:多點觸摸;協作機器人;近似最優求解;人機交互;控制算法

中圖分類號:TP242文獻標志碼:A文章編號:1671-5489(2024)05-1211-08

Approximate Optimal Human-Computer Interaction Control Algorithm for Collaborative Robots Based on Multi-point Touch

LIU Bing,ZHANG Yan

(Teaching Department of Computer and Mathematics,Shenyang Normal University,Shenyang 110034,China)l

Abstract:Aiming at the problem that existing methods in human-computer interaction systems could not accurately capture the user's operational intentions and had poor adaptability to dynamic environments,resulting in poor accuracy of human-computer interaction.In order to improve the accuracy of human-computer interaction in the operation process of collaborative robots,we proposed a multi-point touch based approximate optimal human-computer interaction control method,Firstly,based on human-computer interaction for multi-point touch action matching,we established an image conduction function for interactive gesture action sequences,extracted interactive gesture features,analyzed image similarity feature components,and obtained the fuzziness set of action judgments based on pixel values to achieve matching of multi-point touch actions and accurately capture useroperationintentions.Secondly,considering the motion conditions and friction factors of the robot,we established an approximate optimal constraint equation for friction to ensure the balance and stability of the robot's interaction and movement.Finally,we obtained the expected response of the interactive arm,described the human-computer interaction state under multi-point touch conditions through Lagrange equation,established the interaction action dynamics equation,introduced interaction control variables,and used adaptive fuzzy control system to output approximate optimal control results to improve dynamic environment adaptability.We also adjusted control strategies according to actual situations to better meet the needs of human-computer interaction.Experimental results show that the proposed method can effectively achieve human-computer interaction control,with recognition rates of over 94%,and a small delay difference of 0.03 X10-3 s during control,with fast iteration convergence speed and better control effect.

Keywords:multi-pointtouch;collaborativerobot;approximately optimal solution;human-computerinteraction;control algorithm

目前,機器人應用領域越來越廣泛,應用功能也更全面,機器人已逐漸輔助人類完成各項工作。人機交互需要協作機器人識別人類行為,并做出相應的交互動作,完成人機交互的作業內容.為實現更智能、自然的人機交互,人機交互控制算法的研究備受關注.這些算法能處理人機交互中的各種復雜問題,提高人機交互的準確性和效率,以進一步增強人工智能系統的智能水平和自適應性.

因此,要實現近似最優人機交互就需要構建對應的交互動作特征識別以及控制方法,目前,該項研究已有許多成果,例如:張學志等提出了一種多模人機交互控制方案,通過上肢可穿戴外骨骼和Myo手環檢測操作者手臂和手部的運動狀態,實現對機器人的運動控制,利用機器學習算法和檢測手臂關節運動角度的方式,完成對肌電信號和肢體動作的控制意圖識別,通過網絡將肢體動作和肌電信號的控制指令發送到虛擬環境中,實現多模態融合的控制效果,并完成了18種控制指令的映射,但該方法在實際應用中可能無法滿足個體之間的差異,導致控制效果不佳,存在較高的延時誤差;張玉蘭等2提出了一種多自由度交互控制法,考慮交互環境和復雜度,利用傳感器獲取機器人交互信息,計算信息熵以區分并調整機器人交互動作的復雜度,在此基礎上建立交互動作的控制體系,但該方法在實際應用中動態環境適應性較差,人機交互控制的可靠性和精度不理想;徐巍峰等[3]提出了一種基于語義本體的人機交互控制方法,基于本體的方法構建人機交互的概念體系,用OWL語言描述并定義地圖信息數據,形成概念本體事實庫,以概念本體事實庫為基礎,構建多元語義關系,生成關于位置節點的拓撲關系結構和語義解釋接口,提出基于標簽稀疏圖的語義位置推理方法和軌跡控制算法,從而實現人機在統一的概念內涵和位置推理基礎上的交互控制,但該方法在實際應用中計算復雜度過高,不適用于一些實時性較強且計算資源有限的應用場景,存在一定局限;吳青聰等基于神經網絡自適應控制法,考慮機器人的機械結構,通過對運動軌跡的跟蹤和訓練調整參數,實現了對人機交互的實時控制,但該方法在研究中忽略了機器人移動過程中的摩擦阻力等影響因素,因此動能損耗相對較大.

基于此,本文通過基于多點觸摸的交互條件,明確人機交互手勢識別條件,提取手勢動作特征信息和輪廓信息,實現對多點觸摸動作的匹配,從而準確捕捉用戶的操作意圖,為保證機器人在交互過程中的穩定性,建立運動狀態下的平衡約束,并利用Lagrange方程描述多點觸摸條件下的人機交互狀態,建立交互動作動力學方程,引入交互控制變量,利用自適應模糊控制體系輸出近似最優控制結果,從而提高動態環境適應性,更好地滿足人機交互的需求,實現最終人機交互的有效控制.

1基于多點觸摸的人機交互手勢識別

考慮到協作機器人在作業時可能需要完成多個任務,因此可通過多點觸摸使用多個手指完成協作交互.人機交互在可多點觸摸設備上進行,當發生觸摸行為時,通過識別軟件給機器人傳送動作要領,并將交互結果傳輸到顯示器中.

基于多點觸摸的人機交互,需要保證在交互時對手勢特征精準提取和識別,因此通過多點觸摸平面采集感知到的手勢動作序列.假設動作序列之間的幀差5為g,對應的離散采樣率]為V,對應的取值范圍為[1,-1].假設手指骨骼有N個點位個數,建立協作機器人在交互中的動作分布坐標為A和B,為使人機交互的多點觸摸動作近似最優匹配[78],提取手勢特征高頻部分為y=[Vg],提取時設立對應的約束條件kgt;0,k1=1,其中x表示手勢動作在空間坐標下的高頻信息,k;表示輪廓細節i的約束條件.根據人機交互的運動學理論,分解交互特征高頻部分y,獲得邊緣輪廓信息R。.

在人機交互過程中進行交點檢測,實現協作機器人的交互動作特征分析,建立一個交互動作要素窗口W,中心要素為m×n,以3×3的交互動作要素窗口為基礎建立人機交互手勢動作特征提取傳導函數[9]:

其中I表示滑動窗口特征,(△r,△y)表示手勢位置分布函數,(x1,y)表示手勢特征對應的坐標點.

分析交互捕捉動作要素的輪廓信息R。,需要根據輪廓信息,通過特征提取傳導函數提取手勢動作的特征,以完成對應的手勢動作重構.用{S=1,j=0,1,.·,N-1}表示手勢動作的動態特征重構參數,再根據輸出信噪比完成人機交互動作的特征提取和識別重構0].

利用動態幀差融合方法實現交互動作的特征識別,根據采集動作序列的連通區域顯示條件,獲取交互動作特征的要素值[:

其中g(r,y)表示交互動作特征值,fL表示交互動作序列提取條件.根據交互動作序列的中心要素點,建立直接性的特征匹配仿真映射不變區域,獲取相似度特征分量:

其中:m表示特征匹配映射參數;r表示交互動作序列在映射區域的紋理特征匹配參數,0≤r≤1.根據自相關匹配濾波條件獲取動作序列特征,用于協作機器人的人機交互手勢動作特征的識別重構.則獲取的動作序列特征[12]表示為

其中n(x,y)表示交互動作序列特征中包含的加性噪聲項.根據獲取的動作序列特征可得到特征向量的量化值:

其中F(x,y)表示特征置信度相對較高的要素序列在(x,y)點的特征統計量,m表示第l個序列特征對應的嵌入維數[13],β表示人機交互手勢動作序列的量化特征殘差分量.

在該條件下設定交互動作的局部方差為δ,此時可根據上述已知條件計算出β為

其中8表示噪聲方差.通過動態幀差融合的方式,有效提取出觸摸滑動角度特征.由于仿真映射不變區域有可能發生一定程度的變化,因此需要考慮到對應的幾何結構,確定動作要素值,得出動作判斷的模糊度集合[14]u=(ua),此時可根據噪聲方差戰計算出動態融合后的輸出結果,即人機交互手勢動作的識別重構結果:

其中B表示動態融合參數,f。表示模糊度影響參數.

2協作機器人的平衡約束

本文方法重點考慮人機交互控制,因此在控制過程中必須考慮協作機器人的平衡約束問題,綜合考慮協作機器人多運動條件和摩擦力等因素,以保證人機交互的運動穩定性,所以,在完成上述人機交互手勢識別后,進行協作機器人的平衡約束,可為后續控制實現奠定基礎.

當多點觸摸協作機器人的零力矩點位于多邊形C內部時,協作機器人與地面接觸部分的零力矩點[15]可表示為

其中:C表示協作機器人與地面接觸部分支撐域內的點總數;p;表示協作機器人與地面接觸部分支撐域[16]內的點;a;表示協作機器人所在地面的作用力分量比,可表示為

fi,表示機器人作用分力,在作用力分量比正常的情況下,將協作機器人的理想零力矩點軌跡p作為輸入條件,此時為保證后續交互控制的近似最優解,零力矩點的理想值pmp和實際值pmp之間的誤差Emp應滿足如下條件:

為保證協作交互的平衡性和穩定性,還需考慮機器人與地面接觸部分的摩擦情況,建立對應的摩擦力近似最優約束方程[17]

其中P.,表示平面坐標的力向量投影矩陣,P表示垂直接觸相切力投影矩陣,P,表示垂直的力向量投影矩陣,p為機器人與地面之間的摩擦系數,p,為協作機器人在交互時的扭動摩擦系數,Fo,F,,F2分別對應協作機器人在進行前向、切向和正常運動時受到的摩擦阻力,式(13)描述了協作機器人執行命令時的受力約束情況.

協作機器人在進行人機交互時,設q=(q(1),q(2),,q(L))T表示手臂旋轉角度向量,此時可解析出協作機器人在某一時刻的動能表達式[18]

其中L表示手臂長度,w(l)表示交互旋轉力矩,p(2)表示交互動作下的動能損耗,J表示協作機器人手臂的慣性向量矩陣.

在時間連續條件下完成對機器人人機交互時的動作采樣,設連續采樣點為k=1,2,……,K,可將求解人機交互動態平衡問題轉化為對交互誤差的最小加權范數求解[19],求得近似最優解,則需滿足如下約束條件:

其中:A表示平衡控制采納數;p。表示交互動能分量;Ta(tt)表示正向的平衡加權系數,描述te時刻下對機器人交互手臂的期望響應.

3人機交互動力學方程及控制實現

在完成上述協作機器人的平衡約束后,為完成對人機交互的有效控制,首先基于Lagrange方程建立人機交互的動力學方程,然后利用時刻差重點描述人機交互的行為意圖,最后在考慮上述平衡約束下,利用自適應模糊控制體系輸出最終的人機交互近似最優控制結果,完成人機交互控制.建立如下Lagrange方程[20]:

其中F表示協作機器人的人機交互廣義力矩,q表示協作機器人交互動作廣義速度,q表示交互動作機器手臂動能的廣義坐標[21].此時可將協作機器人交互體系的動力學方程表述為

其中r表示協作機器人交互動作的廣義驅動力矩,E表示協作機器人的人機交互總動能,x表示協作機器人的廣義信息,x表示對應的深度信息,E。表示協作機器人的總位能.

進行交互控制時引入控制變量0,用微分處理式(17)后得到深度動力學方程為

其中D(0)表示機器人交互時的轉動慣量矩陣,0表示實際的運動角度,H(0,0)表示運動過程中的相關矩陣,G(0)表示運動過程中的廣義重力矩陣.利用自適應模糊控制器進行相關的交互控制,先綜合考慮人機交互的運動狀態和實際環境,再利用時刻差重點描述人機交互的行為意圖[22],用公式表示為

其中ε表示交互控制影響參數,FR表示當前時刻下人機交互行為,F表示上一時刻的人機交互行為,△x表示人機交互的加減運動標準量.

經過動力學公式變換,在考慮上述平衡約束下,利用自適應模糊控制體系輸出最終的人機交互近似最優控制結果為

其中A;表示近似最優控制條件,p1表示最優控制權重,y表示人機交互的近似最優自由參數,P表示人機交互的行為意圖.

基于上述理論方法可最終實現協作機器人的人機交互近似最優控制,并有效保證人機交互的穩定性和平衡性.

4實驗

4.1實驗設置

為驗證本文協作機器人近似最優人機交互控制方法是否有效,下面基于嵌入式處理器建立實驗平臺,對協作機器人的人機交互控制穩定性進行實驗.

以如圖1所示的KUKALBRiiwa型號協作機器人為研究對象,相關參數配置如下:重復定位精度為±0.02mm,最大工作范圍為1410mm,最大負載為7kg,最大速度為240°/s,電源要求為220~240 V AC,50~60 Hz.

實驗中設置協作機器人在進行運動交互時與地面間的摩擦系數值為0.4,協作機器人交互的扭動摩擦系數為0.45.調整完最佳參數后,考慮到協作機器人的人機交互通常為瞬時運動,因此在實驗中為驗證控制穩定性,將實驗測試時間設為1s,機器人的移動速度設為0.3m/s,質量為1kg.

4.2結果分析

基于上述參數設置,首先測試本文方法的有效性,用多點觸摸手勢識別效果進行衡量,該識別效果越好,說明后續控制效果越好.本文方法的多點觸摸手勢識別效果列于表1.由表1可見,在多種觸摸動作中,本文方法的識別率都在94%以上,可證明該方法的觸摸手勢能準確被機器人識別,使機器人準確執行下達的任務,為后續人機交互控制提供支撐.

基于上述測試,為驗證本文方法的控制效果,對各項參數的研究方法進行計算,得到協作機器人的動能期望值為0.046J.下面對動能變化情況進行實驗,將本文方法的實驗結果與多自由度交互控制法和神經網絡自適應控制法進行對比,結果如圖2所示.由圖2可見:由于期望值不考慮運動中受到的摩擦力、阻力等相關損耗,所以一直保持直線不變,但實際應用中則無法忽略這些因素;多自由度交互控制法和神經網絡自適應控制法的動能曲線急速下降,動能損耗相對較大;本文方法在人機交互進行到第0.65s前的動能損耗基本接近期望值,在測試結束時的動能損耗也更小,說明近似最優控制的性能良好.

下面對得到的人機交互時延誤差結果進行分析,實驗結果如圖3所示.由圖3可見:多自由度交互控制法和神經網絡自適應控制法在控制測試時間內的時延誤差波動變化較大,在1.0s時,其時延誤差分別為0.2×10-3s和0.24×10-3s;本文方法的時延誤差雖存在波動,但波動變化相對較小, 說明時延誤差更小、更穩定,能更好地達到人機交互的實時控制,在1.0s時,其延時誤差為0.03× 10-3s.相比于其他方法,本文方法時延誤差較低,這與本文方法在研究中追求求解近似最優值有關.

下面對控制計算的迭代速度進行分析,設協作機器人在交互運動中的慣性權重為0.7,為保證實驗數據的準確性,將3種方法的迭代步數均設為1000,不同方法的實驗對比結果如圖4所示.由圖4 可見:多自由度交互控制法的迭代誤差結果始終變化較大,導致其得到穩定結果的次數更多;神經網絡自適應控制法在控制迭代計算時,存在某一節點忽然出現大幅度誤差變化的情況,算法的穩定性略差;本文方法則更穩定,當迭代次數為240次時,達到平穩.實驗結果表明,本文方法能快速得到趨于穩定的結果,迭代收斂速度快,控制效果更優.

綜上所述,本文在研究基于多點觸摸的協作機器人交互控制時,為保證良好的控制效果,先識別多點觸摸狀態下的人機交互手勢,為維持人機交互的穩定性,設立協作機器人運動作業的平衡約束條件,并建立人機交互動力學方程,在考慮約束的條件下,利用自適應模糊控制體系實現最終的人機交互有效控制.實驗結果表明,本文方法能很好地完成人機交互控制.

參考文獻

[1]張學志,谷亞倫,林高,等.面向水下機器人的多模態人機交互控制[J].自動化與儀表,2023,38(10):48-51.(ZHANG X Z,GU Y L,LIN G,etal.Multi-mode Human-Computer Interactive Control for Underwater Vehicle[J].Automationamp;.Instrumentation,2023,38(10):48-51.)

[2]張玉蘭,杜羽.多自由度包裝機器人人機交互控制方法[J].包裝工程,2021,42(15):239-244.(ZHANGYL,DU Y.Human-Computer Interaction Control Method for Multi-degree of Freedom Packaging Robot[J].Packaging Engineering,2021,42(15):239-244.)

[3]徐巍峰,徐非非,王文軍,等.基于語義本體的無人機人機交互控制方法研究[J].計算機應用與軟件,2021,38(12):103-109.(XU W F,XU F F,WANG W J,etal.Human-UAV Interaction Control Based on Semantic Ontology[J].Computer Applications and Software,2021,38(12):103-109.)

[4]吳青聰,張祖國.基于屏障Lyapunov函數的上肢康復機器人自適應主動交互訓練控制[J].儀器儀表學報,2022,43(2):216-224.(WU Q C,ZHANG Z G.Adaptive Active Interaction Exercise Control of Upper Limb Rehabilitation Robot Based on the Barrier Lyapunov Function[J].Journal of Instrumentation,2022,43(2):216-224.)

[5]曾敏,袁松,石永華,等.基于異構多核的焊接集控器人機交互設計[J].焊接,2021(11):38-41.(ZENGM,YUAN S,SHI Y H,etal.Design of Human-Machine Interaction for Welding Central Controllers Based on Heterogeneous Multi-core[J].Welding,2021(11):38-41.)

[6]王鑫強,王博,賈巍,等.基于Wayland圖形協議和光纖通道網絡的車輛人機交互顯示控制技術[J].兵工學報2022,43(增刊1):46-53.(WANG XQ,WANG B,JIA W,etal.Vehicle Human-Computer Interaction Display and Control Technology Based on Wayland Graphics Protocol and Fibre Channel Network[J].Journal of Ordnance Industry,2022,43(Suppl 1):46-53.)

[7]李浩,劉根,文笑雨,等.面向人機交互的數字孿生系統工業安全控制體系與關鍵技術[J].計算機集成制造系統,2021,27(2):374-389.(LI H,LIU G,WEN X Y,etal.Industrial Safety Control System and Key Technologies of Digital Twin System Oriented to Human-Machine Interaction J].Computer Integrated Manufacturing Systems,2021,27(2):374-389.)

[8]張燕,盧寧.面向人機交互的下肢外骨骼導納控制策略[J].控制工程,2022,29(12):2309-2315.(ZHANGY,LU N.Admittance Control Strategy of Lower Limb Exoskeleton Oriented to Human-Machine Interaction[J].Control Engineering,2022,29(12):2309-2315.)

[9]朱弟發,張恩陽,韓康,等.基于協作機器人關節集成扭矩傳感器的研究[J].儀表技術與傳感器,2021(10):6-9.(ZHU D F,ZHANG E Y,HAN K,etal.Research on Integrated Torque Sensor Based on Collaborative Robot Joint[J].Instrument Technology and Sensors,2021(10):6-9.)

[10]梁惠萍,趙天雨.繩鋸機控制器人機界面可用性評估研究[J].機械設計,2021,38(6):133-138.(LIANGHP,ZHAOT Y.Evaluation Research on Human-Machine Interface Usability of Rope Saw Controller[J].Mechanical Design,2021,38(6):133-138.)

[11]梁旭,王衛群,蘇婷婷,等.下肢康復機器人的主動柔順自適應交互控制.機器人,2021,43(5):547-556.(LIANG X,WANG W Q,SU T T.et al.Active Compliant and Adaptive Interaction Control for a Lower Limb Rehabilitation Robot[J].Robotics,2021,43(5):547-556.)

[12]方衛寧,王健新,陳悅源。復雜系統人機交互中的多任務調度策略綜述[J].包裝工程,2021,42(18):73-83.(FANG W N,WANG J X,CHEN YY.Multi-task Scheduling Strategy in Human-Computer Interaction of Complex Systems[J].Packaging Engineering,2021,42(18):73-83.)

[13]龔軻杰,王勇,段玉瑞,等.多空間機器人協同工作空間的數值求解方法[J].中國空間科學技術,2022,42(3):49-57.(GONG K J,WANG Y,DUAN Y R,etal.Numerical Methods for Collaborative Workspace of Multi-space-robot System[J].China Space Science and Technology,2022,42(3):49-57.)

[14]劉瑩,邵或,利用姿態傳感器多點位控制機器人交互方法[J].機械設計與制造,2023(2):266-269.(LIUY,SHAO Y.Multi-point Control Robot Interaction Method Using Attitude Sensor[J].Mechanical Design and Manufacturing,2023(2):266-269.)

[15]王麗萍,林豪,潘笑天,等.基于決策變量交互識別的多目標優化算法[J].浙江工業大學學報,2021,49(4):355-367.(WANG L P,LIN H,PAN X T,etal.Multi-objective Optimization Algorithm Based on InteractiveIdentification of Decision Variables[J].Journal of Zhejiang University of Technology,2021,49(4):355-367.)

[16]車延明,宋明安,陸焓,等.簡析人機協作鑄件打磨系統的控制要求及HMI功能[J].制造技術與機床,2021(9):28-32.(CHE Y M,SONG M A,LU H,etal.Analysis of Human-Machine Cooperation Casting Grinding System Control Requirements and HMI Functions[J].Manufacturing Technology and Machine Tool,2021(9):28-32.)

[17]劉蟬,巴騰躍,劉德龍,等.四足機器人智能交互控制研究[J].南京航空航天大學學報,2021,53(增刊1):62-66.(LIU C,BA T Y,LIU D L,etal.Intelligent Interaction Control of Quadruped Robot[J].Journal of Nanjing University of Aeronautics and Astronautics,2021,53(Suppl 1):62-66.)

[18]解迎剛,蘭江雨.協作機器人及其運動規劃方法研究綜述[J].計算機工程與應用,2021,57(13):18-33.(XIE Y G,LAN J Y.Review of Collaborative Robot and Its Motion Planning Methods[J].Computer Engineering and Applications,2021,57(13):18-33.)

[19]韓江,王凡志,董方方,等.基于Udwadia-Kalaba理論的協作機器人軌跡跟蹤控制[J].組合機床與自動化加工技術,2021(1):78-83.(HAN J,WANG F Z,DONG F F,etal.A Novel Trajectory Tracking Control of Collaborative Robot Based on Udwadia-Kalaba Theory[J].Combination Machine Tool and Automation Processing Technology,2021(1):78-83.)

[20]肖凡,楊慶凱,周勃,等.面向平均區域覆蓋的多機器人分布式控制[J].控制理論與應用,2023,40(3):441-449.(XIAO F,YANG Q K,ZHOU B,etal.Distributed Even Coverage Control of Multi-robot Systems[J].Control Theory and Applications,2023,40(3):441-449.)

[21]張騰,張小棟,張英杰,等.引入深度強化學習思想的腦-機協作精密操控方法[J].西安交通大學學報,2021,55(2):1-9.(ZHANG T,ZHANG X D,ZHANG Y J,etal.A Precise Control Method for Brain-ComputerCooperation with Deep Reinforcement Learning[J].Journal of Xi'an Jiaotong University,2021,55(2):1-9.)

[22]王暢,王國輝,施智平,等.協作機器人逆運動學形式化建模與驗證[J].小型微型計算機系統,2021,42(7)1353-1359.(WANG C.WANG G H,SHI Z P.et al.Formal Modeling and Verification of the Inverse Kinematics of Collaborative Robot[J].Small Scale Microcomputer Systems,2021,42(7):1353-1359.)

(責任編輯:韓嘯)

主站蜘蛛池模板: 国产成+人+综合+亚洲欧美| 久久久久国色AV免费观看性色| 国产99免费视频| 欧美成人日韩| 中文无码毛片又爽又刺激| 久久久亚洲国产美女国产盗摄| 伊人色在线视频| 天堂网亚洲系列亚洲系列| 色网站在线免费观看| 91午夜福利在线观看| 在线色综合| 网久久综合| 成人夜夜嗨| 亚洲一区国色天香| 91亚洲免费| 国产呦视频免费视频在线观看| 国产人人乐人人爱| 热re99久久精品国99热| 玖玖精品在线| 国内精自视频品线一二区| 综合五月天网| 亚洲欧美一区二区三区麻豆| 免费毛片网站在线观看| 成人国产一区二区三区| vvvv98国产成人综合青青| 久久国产黑丝袜视频| 国产99精品视频| 国产主播喷水| 免费观看国产小粉嫩喷水 | 毛片免费视频| 国产精品lululu在线观看| 曰AV在线无码| 伊人久久精品无码麻豆精品| 亚洲欧洲日本在线| 久久国产成人精品国产成人亚洲| 18禁不卡免费网站| 成人免费一级片| 久草视频一区| 免费AV在线播放观看18禁强制| 第一区免费在线观看| 少妇露出福利视频| 天堂在线亚洲| 欧美成人国产| 国产成人超碰无码| 97国产精品视频人人做人人爱| 99re精彩视频| 日本人妻丰满熟妇区| 久久无码高潮喷水| 97精品久久久大香线焦| 国产三级视频网站| 高清不卡一区二区三区香蕉| 国产亚洲男人的天堂在线观看| 五月六月伊人狠狠丁香网| 视频二区国产精品职场同事| 欧美日韩午夜| 免费在线成人网| 国产在线观看高清不卡| 91黄视频在线观看| 国产高清在线观看| 在线免费观看AV| 一级香蕉视频在线观看| 久久久久人妻精品一区三寸蜜桃| 中文成人在线| 在线观看精品自拍视频| 超清无码熟妇人妻AV在线绿巨人| 色婷婷亚洲综合五月| 67194亚洲无码| 日本国产精品一区久久久| 伊人久久婷婷五月综合97色| 色视频久久| 日韩高清欧美| 精品久久国产综合精麻豆| AV在线天堂进入| 在线欧美国产| 91色国产在线| 精品国产aⅴ一区二区三区| 欧美日韩精品综合在线一区| 国产区免费精品视频| 欧美日韩国产高清一区二区三区| 亚洲一区色| 国产呦视频免费视频在线观看 | 91丝袜乱伦|