999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的汽車車門三維定位引導

2024-12-31 00:00:00那一鳴胡超邱業余盧禮兵宋凱
中國機械工程 2024年9期
關鍵詞:機器視覺

摘要:目前車間中常通過預先示教機械臂運動軌跡的方式對夾具上位姿固定的零部件進行引導抓取,存在人機工程性差且智能化程度較低等問題。機器視覺作為非接觸感知測量的有效手段已在工業場景中有所應用。基于單目視覺位姿測量技術建立多相機n點透視定位模型和機械臂引導模型,實現了對零部件的空間感知和引導抓取。提出一種用于補償機械臂和視覺模塊系統誤差的多零位錨點的預標定方法,有效減小了大尺寸零部件的定位引導誤差。

關鍵詞:機器視覺;自動化定位引導;n點透視相機模型;多零位錨點

中圖分類號:TP391.41

DOI:10.3969/j.issn.1004-132X.2024.09.018

Three-dimensional Positioning Guidance of Automobile Doors Based on Machine Vision

NA Yiming1 HU Chao1 QIU Yeyu2 LU Libing2 SONG Kai1

1.State Key Laboratory of Advanced Design and Manufacturing for Vehicle Body,Hunan University, Changsha,410082

2.BYD Automotive Industry Co.,Ltd.,Changsha,420021

Abstract: At present, in workshops, parts fixed on fixtures were commonly guided and gripped by pre-teaching the motion trajectories of robotic arms, resulting in poor human-machine interaction and low levels of intelligence. Machine vision, as an effective means of non-contact sensing and measurement, was applied in industrial scenarios. Based on monocular vision pose measurement technology, a multi-camera PnP positioning model and robotic arm guiding model were established to achieve spatial perception and guided grasping of the parts. Additionally, a pre-calibration method was proposed using multi-zero anchors to compensate system errors between robotic arm and vision module, which effectively decreasing the positioning and guiding errors of large parts.

Key words: machine vision; automatic positioning and guiding; perspective-n-point(PnP) camera model; multi-zero anchor

0 引言

傳統零部件引導抓取任務需要通過機械臂示教或離線編程的方式實現[1],同時需要精密夾具的配合以確保零部件空間位置固定。這種引導方式往往人機工程性差、智能化水平不高、柔性化程度低。機器視覺在大規模、重復度高的工業生產過程中,能夠在提高生產效率和自動化水平的同時減少人力需求,應用場景主要包括尺寸測量[2]、缺陷檢測[3]、定位引導[4]等。對于非固定位置的零部件使用機械臂實現引導抓取,最重要的環節是零部件空間位置感知,可以通過測量視覺技術輔助實現[5]。針對物體的三維位姿估計任務,即確定物體與視覺系統之間的空間轉換關系,按照定位原理的不同可分為基于CAD模型姿態估計、基于單目視覺定位、基于雙目視覺定位等。

基于單目視覺的定位方法是利用特征點之間已知的幾何約束知識和相機透視投影模型,建立特征點與對應像點的求解關系[6]。BYAMBAA等[7]針對透明物體的抓取任務,設計了一種使用RGB圖像,通過深度神經網絡回歸2D關鍵點的方法,解決了使用3D傳感器無法在透明物體表面收集可靠深度數據的問題。陳鈞等[8]針對機械臂抓取場景中存在的工件位姿不確定、堆疊遮擋等問題,提出一種多模塊神經網絡與遺傳算法結合的單目位姿估計方法,該方法能將橫向平移誤差控制在1 mm左右,旋轉角度平均誤差控制在2°以內。基于CAD模型的位姿估計方法是利用統計學,將海量包含目標物體的圖像作為數據集來建立目標物體的3D模型,然后利用基于幾何或者灰度特征的匹配算法來識別物體三維姿態[9]。HANH等[10]基于待抓取對象的CAD三維模型及深度相機實現六自由度定位,并通過迭代最近點(iterative closest point, ICP)算法對定位精度進行優化,其結果誤差較大且算法運算較為繁瑣。DU等[11]基于雙目相機,利用物體表面的顏色特征結合連續自適應均值漂移算法實現對三維空間中物體姿態的跟蹤,并通過幾何算法對機械臂逆運動學進行了分析,減少引導姿態計算的復雜度。WAN等[12]針對定位抓取提出了一種基于雙目視覺由粗到細的定位策略,解決了定位抓取任務中存在的精度低、抓取速度慢和應用成本高等問題。

目前大部分研究主要集中于小尺寸物體的定位引導抓取,而對尺寸較大的定位對象(如汽車零部件)的關注較少。此外,針對視覺系統定位誤差補償方法的研究中,主流方法是以增加模型規模或通過多階段引導的方式實現系統誤差的補償或修正,相較于基礎定位模型,其算法復雜程度和定位速度均會受到影響,同時還會受到工業生產中計算資源及部署成本的限制。針對以上問題,本文提出了一種基于多零位視覺錨點的系統誤差補償方法,通過分析基礎n點透視定位引導模型中的誤差特性,結合K最近鄰(K-nearest neighbor, KNN)思想設定視覺錨點的空間分布以及各錨點附屬的修正信息,依據匹配準則選取修正參數完成定位引導,減小大尺寸零部件的定位引導誤差。

1 三維定位引導系統總體設計

1.1 系統設計要求分析

引導的零部件為某小轎車的車門總成,其實物與布置方式如圖1所示。車門固定于姿態可變的夾具小車上,從而模擬實際料架上車門的隨機姿態。車門的大致姿態呈水平放置,其平移分量主要出現在水平兩方向上,旋轉分量均勻分布于繞xyz三軸方向上,且旋轉分量較小。

車門總成中包含兩個定位孔分布在車門的左側和右側,機械臂末端的抓取機構中相應布置兩個定位銷,定位銷1為菱形銷,定位銷2為圓柱銷,如圖2所示。定位銷和定位孔用于實現車門的定位。其中定位銷能夠無干涉地插入到車門定位孔的誤差要求不超過0.5 mm,即對應視覺定位引導系統的精度。為了確保流水線的生產節拍,定位及引導時間同樣需要進行控制。

零件的尺寸較大,寬度和高度方向都大于1 m,若選用雙目視覺的三維定位方式,雖然可以較精確地檢測各定位孔直接的尺寸,但兩相機的公共視野較難覆蓋車門整體,且目前市面中雙目相機的三維定位大多無法確保其誤差在0.5 mm以內。單目相機實現三維定位不僅有視角大、測量距離長、測量范圍廣等優點,且相機標定、使用維護方便以及硬件成本低,很適合此次的視覺部分圖像采集工作。

1.2 定位引導方案設計

通過工業相機采集圖像來驅動機械臂進行定位運動,在進行定位引導方案設計時,需要先確定硬件(工業相機)與機械臂的坐標轉換關系。所以要先確定手眼標定的形式,后續才便于安排整個系統的工作流程。

1.2.1 硬件布置形式

系統的硬件部分包含機械臂及視覺定位裝置。為了保證后續引導其余尺寸及形狀的零部件,相機的拍照位置或拍照距離通常需要相應調整,因此選擇了“眼在手上”的相機布置形式,相機布置如圖3所示。

定位引導流程分為零位標定和實際定位引導兩部分。在零位標定過程中,將零件固定于設定好的標準零位姿態,通過示教方式完成零位標定。

1.2.2 系統工作流程

定位引導系統由軟件和硬件兩部分組成。軟件部分包含與硬件模塊的通信功能、數據參數管理功能、系統參數設置功能、圖像處理功能、姿態模型優化求解功能、用于顯示圖像及結果的交互窗口、零件越界或姿態求解錯誤的預警功能等,定位引導系統工作流程如圖4所示。根據軟件提前設定好的相機參數去除圖像畸變,并對特征點進行提取定位。若特征點數量滿足解算要求就進行姿態解算,反之則說明零件偏離引導區域過多,需要調整零件位置。

1.3 配套硬件設備選型

系統中硬件部分主要包含機械臂和視覺硬件兩部分。機械臂選型使用埃斯頓ER350-3300,重復定位精度±0.1 mm,最大負載350 kg,臂展3300 mm。相機的分辨率及鏡頭視野間接決定了系統的定位精度[13]。為保證系統的圖像采集質量,對相機、鏡頭和光源進行如下選型及布置。

1.3.1 工業相機與鏡頭選型

相機可根據其主要參數如分辨率、圖像傳感器類型、色彩、信噪比等方面進行選型,根據實際使用場景選擇合適分辨率的相機即可,最終選擇了MER-503-20GM/C工業相機和HN-0816-5M-C2/3X鏡頭,具體參數如表1所示。

1.3.2 光源選型

為保證零部件所處環境光線分布穩定,需要在物體附近合理布置光源。根據現場布置測試及零件材質特性,選用JL-HLR2的40 cm和30 cm兩種藍色條形LED光源。

2 相機標定和特征點提取

2.1 相機標定

相機和鏡頭在使用前,通過標定板對其內參數進行標定。所選用的標定板為棋盤格類型,角點數量為12×9,每個格子尺寸為25 mm。首先將標定板固定于合適位置,相機以不同姿態對標定板進行圖像采集。每個相機采集30張圖像后,通過MATLAB中相機標定工具箱實現對內參數的標定。標定過程中去除角點檢測失敗和像素誤差較大的圖像,對應相機1的平均像素誤差為0.08,相機2的平均像素誤差為0.09。相機1和相機2的標定結果如表2所示。

2.2 手眼標定

將標定板固定于合適位置,控制機械臂末端帶動相機以不同姿態對標定板拍照,同時記錄每個拍照姿態下機械臂末端的空間位置,該參數可由機械臂示教器得到,示意圖見圖5。

每個相機采集約30張圖像及末端姿態。相機1采集完后可保證標定板位置固定,移動機械臂末端使標定板出現在相機2的視野中,并繼續進行相機2的手眼標定。手眼標定通過OpenCV中的cv2.calibrateHandEye()函數實現,通過計算標定板坐標系原點相對于機械臂基坐標系xyz方向變動的標準差進行手眼標定精度的評價,并使用三個方向的均值作為手眼標定誤差。最終標定結果如表3所示,兩相機的手眼標定誤差分別為±0.23 mm和±0.11 mm。

2.3 特征點區域提取

相機的布置要滿足相機視野能夠覆蓋零件所有特征點,本文中針對車門總成數模特點,選取13個圓孔作為其特征點。對夾具小車進行固定,

當車門發生微小角度變化時,圓孔在相機相平面為橢圓,故其在像素坐標系內的圓心不會因旋轉而發生偏移。分布情況如圖6所示。

本文以圖6中1號特征點對區域提取算法進行說明。首先將零件預先固定至標準姿態即零位處。在實際引導過程中,零部件相對于標準姿態的變動幅度較小,可通過模板匹配的思想實現特征點區域的匹配。零部件在夾具上的水平姿態變化范圍有限,所以需要提前劃定特征點的分布區域,減少模板匹配過程中的搜索時間,最終當零件位于非標準姿態時,使用制作好的模板圖像以及提前劃定好的搜索區域對特征點區域進行匹配提取,效果如圖7所示。

2.4 特征點中心定位

針對提取的特征點區域,后續需要利用特征點中心定位算法和車門組件三維數模,對特征點中心在像素坐標系和零件坐標系內的坐標進行提取,為后續定位模型提供位置數據支持。主要流程有:圖像濾波、邊緣提取、輪廓檢測與橢圓擬合、圓心定位。

首先為提高信噪比保留圖像細節,使用OpenCV中的中值濾波函數對圖像進行平滑去噪操作。其次使用Canny算子用于邊緣提取,保留特征點圓孔邊緣。在邊緣檢測算法中,存在特征點圓孔邊緣及周圍陰影、劃痕處少量邊緣被檢測出的情況。為篩選無關特征,對閉合輪廓進行提取篩選,篩選示意圖見圖8。

對提取出的閉合輪廓進行遍歷,通過OpenCV中cv2.fitEllipse()函數對長度正常輪廓進行橢圓擬合。根據擬合出橢圓的長軸與短軸之比,通過設定合理閾值對擬合出的橢圓進行中心確定,具體的篩選參數設定計算公式可表示為

對輪廓長度在(20,500)區域內的輪廓進行擬合,若擬合出的橢圓長軸和短軸之比在(0.8,1.3)范圍內則對橢圓進行保留。

對于定位,零件坐標系可根據實際抓取場景及零件特征進行設定。將零件坐標系設定在車門組件左側定位孔中心,坐標軸姿態設定如圖9所示。

13個特征點序號按照圖6的排序方式,通過三維建模軟件測量出三維數模中各特征點中心在零件坐標系內的坐標,如表4所示。

3 定位引導模型的建立與測試

3.1 定位模型的建立

本文中的定位引導模型由兩部分組成,分別是“眼在手上”引導模型以及多相機n點透視(PnP)定位模型。將兩部分模型融合,以構成視覺定位引導系統整體模型。

3.1.1 “眼在手上”引導模型

“眼在手上”的定位引導方式中,機械臂末端的抓取機構在負責固定相機及光源的同時,還要起到后續定位抓取的作用。引導模型具體可分為零位標定和實際引導兩個環節。現場硬件布置方案如圖10所示。

零位標定環節用于確定機械臂的示教軌跡及起點姿態。首先將零件以固定姿態安裝在夾具上并進行移動固定。然后選取一機械臂末端位置作為拍照位,記錄此時機械臂末端姿態 baseend_pT作為拍照位。待拍照位設定完成后,手動通過示教方式移動機械臂末端,帶動定位銷準確插入至車門部件的定位孔中。此時記錄下抓取位機械臂末端參數 baseend_gT,并保存從拍照位至抓取位的機械臂示教軌跡end_pend_gT。拍照位和抓取位的末端位置參數如表5所示,其中a、b、c代表末端坐標系繞三軸旋轉的歐拉角,x、y、z代表末端空間位置。

實際引導環節的實現可分為拍照和抓取兩個過程,實際模型可抽象為圖11所示,其中主要包含四個坐標系:機械臂基坐標系base、機械臂末端坐標系end、相機坐標系cam、零件坐標系body。

3.1.2 多相機PnP定位模型

PnP定位模型的作用是求解相機坐標系與零件坐標系的空間轉換關系,選用兩個單目相機進行圖像采集,對應模型如圖12所示。

式中,A為相機內參數矩陣;cam1bodyT為相機PnP模型的求解結果,其中包含相機標定、手眼標定以及相機畸變模型所引入的誤差。

對于相機1,camicam1T為單位陣即對模型無影響;對于相機2,camicam1T為相機1與相機2的空間轉換關系cam2cam1T。該關系可通過前面手眼標定參數間接求得,可表示為

規定連接空間物點M和相機光心Oc的方向向量為pi,連接三維空間中的像點m和相機光心Oc的方向向量為qi。理想情況下兩向量應滿足共線性原則,即pi在qi上的正交投影為pi自身[14],因此有

3.2 定位引導模型的求解

針對多相機PnP定位模型,目標函數可轉化為非線性最小二乘的優化問題,選用性能較好的L-M算法用于本文多相機PnP定位模型的求解。

3.2.1 模型優化求解

針對由目標函數(式(6))和約束條件(式(7))組成的非線性最小二乘模型,搭建L-M優化算法對其目標函數進行求解,并對算法中超參數進行設定[15],如表6所示。

優化算法的開發環境為C++14,Eigen版本為3.4.0,python版本為3.7。為確保優化算法的求解時間,采用Python和C++混合編程的方式進行算法搭建。混合編程對應的算法求解時間可控制在0.4 s左右。對于非零位零件姿態的迭代求解,L-M算法的迭代誤差曲線如圖13所示,算法在2000輪附近基本收斂。

3.2.2 理論精度測試

為方便定位引導系統前期調試,先將零部件固定于零位,通過移動機械臂末端相機的方式,模擬真實抓取環境下非固定位置零部件相對于固定位置相機的姿態變化,不同末端姿態的關系如圖14所示。其中,沿機械臂基坐標系x軸采集圖像22張,沿y軸采集圖像17張,沿z軸采集圖像8張,角度變化的圖像10張。共計54組姿態。部分數據如表7所示。

在精度測試過程中,零部件相對于機械臂基坐標系未發生變化,所以兩者理論上應相等。因此可通過兩者偏差大小對系統定位精度進行定量分篩選掉去除畸變后特征點缺失的圖像,分別對各組數據進行綜合誤差計算,如圖15所示,其中角度綜合誤差的最大值為0.0994°,平均值為0.0589°,空間位置綜合誤差的最大值為0.5976 mm,平均值為0.3656 mm。

分別對角度和空間位置的均方根誤差和標準差進行計算,其中角度均方根誤差RRMSE=0.0626°,平移均方根誤差TRMSE=0.3893 mm。角度標準差RSTD=0.0211°,平移標準差TSTD=0.0026 mm。通過以上數據分析結果可知,大部分數據均能滿足精度要求,即角度誤差在0.1°以內,空間位置誤差在0.5 mm以內。但存在少量超出邊界的情況,如y方向移動過程中第15組、16組的數據結果在x方向超差,其對應圖像的特征點出現在圖像邊緣處,說明數據的定位誤差隨著相機空間位置遠離拍照位而逐漸增大。

對模型進行引導定位實驗,發現大部分的物體姿態求解結果誤差較小,定位銷能夠無干涉地準確插入至車門部件的定位孔中。但當車門距離零位姿態即理想姿態較遠時,可能出現定位銷擦著定位孔一端插入的情況,如圖16所示。

3.2.3 系統誤差補償分析

實驗過程中產生的較大定位誤差主要是因為鏡頭在成像時光線與成像平面不垂直,導致成像點與理想點之間在徑向無法重合,即鏡頭的徑向畸變。徑向畸變的數學模型可表示為

由式(9)可知,徑向畸變隨著像素點距離相機光心距離r呈冪增長。雖然前期對該畸變參數進行標定,但因標定板精度以及相機成像質量限制等因素使徑向畸變始終無法消除。故當圖像中特征點遠離圖像中心時定位誤差也將隨之增大,對零件偏移零位距離和理論定位誤差進行多項式擬合,可以看出兩者成二次關系,如圖17所示。

由此作出合理假設:定位誤差與零件偏離最近零位距離的平方成正比。在零位標定過程中,可通過兩種方式將機械臂基坐標系和零件坐標系之間建立聯系。一種是在相機拍照位通過鏈式法建立,另一種是通過機械臂示教抓取建立。兩種路徑的建立方式對應:

式中,bodyend_gT為根據零件數模信息求出的位于抓取位時零件坐標系和機械臂末端坐標系的轉換關系。

理論上通過兩種坐標系聯系方式建立得到的basebodyT應相同,但實際因系統中各類誤差的累計使該關系無法滿足。此處bodyend_gT不再根據數模信息計算得到,而是將式(10)中兩種聯系方式聯立,反向求解該關系:

按照上文的精度測試流程,使用該方法計算出零位的理論定位誤差中,對應6個自由度的誤差均為0,即通過bodyend_gT實現系統誤差的抵消。但只有零件位于零位處才滿足該關系,且根據測試結果可知,隨著零件偏離零位,定位誤差也會隨之增大。

以此為啟發,在保證零位標定過程中零件空間位置固定的前提下,通過移動機械臂帶動其末端的相機,設立多個空間位置不同的零位拍照錨點,以模擬實際定位引導過程中零件相對于固定相機可能發生的相對位置關系。保留每個錨點處采集圖像的特征點分布信息,通過多相機PnP模型求解cambodyT,以及通過抓取示教確定機械臂末端參數,根據式(11)反向求解出每個零位錨點處的bodyend_gT,作為系統的誤差修正矩陣。在實際抓取過程中根據零件特征點的分布特征,選取分布最相近的零位錨點,并使用該錨點對應的誤差修正矩陣bodyend_gT來修正定位引導參數。

3.3 定位引導抓取實驗

這里提出一種基于多零位錨點的預標定方法,用于對視覺部分和機械臂部分的系統誤差進行補償。在零位標定過程中,根據假設“定位誤差與零件偏離最近零位距離的平方成正比”可知,零件離零位越遠,對應的理論誤差就越大。擬設定9個零位拍照錨點,在空間中呈3×3布局。為保證相機視野范圍內定位誤差分布均勻,取距離中心零位的2/3處布置周邊8組零位。同理,空間中的理論定位誤差分布如圖18所示,9個零位錨點處的理論定位誤差為0。零位錨點的增加,將變相地減小零件與零位的距離,進而減小理論誤差。

對9組零位錨點處采集圖像的特征點分布信息進行保存,在實際定位引導過程中,分別計算實際圖像特征點與每組零位錨點特征點的距離之和,基于KNN算法的思想,選取距離之和最小的零位錨點序號作為匹配結果,并使用對應的誤差修正矩陣bodyend_gT完成機械臂引導參數的計算。匹配過程可表示為

式中,i代表零位錨點序號;j代表特征點序號;{(xij,yij)}為零位標定過程中的每組錨點圖像特征點分布,{(xj,yj)}為實際定位過程中采集圖像的特征點分布。

為驗證方法的可行性,采集其中5組零位錨點用于測試,零位拍照錨點和示教抓取位對應的機械臂末端參數如表8所示。利用式(11)計算各零位錨點的誤差修正矩陣,如表9所示。

對模型進行精度測試及抓取實驗,分別計算綜合誤差,結果如圖19所示。54組姿態中角度綜合誤差最大為0.0821°,均值為0.0416°;位移綜合誤差最大為0.4582 mm,均值為0.2689 mm。

計算均方根誤差和標準差,改進前后的精度評價結果如表10所示。其中空間位置綜合誤差的最大值為0.4582 mm,可以控制在項目要求0.5

4 結論

本文針對基于機器視覺的車身零部件三維定位引導方法進行了研究,基于單目視覺姿態估計的方法搭建了一種多相機PnP定位及機械臂引導模型,可以有效實現較高精度和速度下對零部件的引導抓取。通過分析定位引導系統誤差的產生原因,提出了一種基于多零位錨點的預標定策略,在不增加算法結算的前提下,有效減小了系統的定位引導誤差。

本文的研究內容仍存在以下不足之處。由于現場受限,在進行理論進度測試時,y、z軸方向及三軸角度轉動的重復實驗較少,相對生產次數不夠,無法完全體現實際情況的復雜性。單目視覺因成像原理無法直接獲取圖像的景深,因此需要提前已知物體的三維數模信息,且物體表面需要有明顯的定位特征。此外,研究還受限于不同視角下特征變化明顯、非剛體零部件的抓取任務。

未來的研究應利用機器學習方法更進一步挖掘二維圖像和三維姿態的映射關系,并開展廣泛的驗證工作。

參考文獻:

[1]王詩宇, 林滸, 孫一蘭, 等. 基于機器視覺的機器人分揀系統的設計與實現[J]. 組合機床與自動化加工技術, 2017(3):125-129.

WANG Shiyu, LIN Hu, SUN Yilan, et al. The Research of Industrial Robots Sorting Technology Based on Robot Vision[J]. Modular Machine Tool amp; Automatic Manufacturing Technique, 2017(3):125-129.

[2]馮西, 吳靜靜, 安偉. 基于機器視覺的大尺寸工件自動測量系統[J]. 傳感器與微系統, 2019, 38(4):104-107.

FENG Xi, WU Jingjing, AN Wei. Research on Automatic Measurement System of Large Size Workpiece Based on Machine Vision[J]. Transducer and Microsystem Technologies, 2019, 38(4):104-107.

[3]張濤, 劉玉婷, 楊亞寧, 等. 基于機器視覺的表面缺陷檢測研究綜述[J]. 科學技術與工程, 2020, 20(35):14366-14376.

ZHANG Tao, LIU Yuting, YANG Yaning, et al. Review of Surface Defect Detection Based on Machine Vision[J]. Science Technology and Engineering, 2020, 20(35):14366-14376.

[4]林義忠, 陳旭. 基于機器視覺的機器人定位抓取的研究進展[J]. 自動化與儀器儀表, 2021(3):9-12.

LIN Yizhong, CHEN Xu. Research Progress of Robot Positioning and Grasping Based on Machine Vision[J]. Automation amp; Instrumentation, 2021(3):9-12.

[5]孫雙花. 視覺測量關鍵技術及在自動檢測中的應用[D]. 天津:天津大學, 2007.

SUN Shuanghua. Study of the Key Technology of Visual Measurement and Its Applications in Automatic Measurement[D]. Tianjin:Tianjin University, 2007.

[6]劉長英, 高樂, 高印寒, 等. 單目視覺坐標測量方法[J]. 吉林大學學報(工學版), 2010, 40(5):1278-1282.

LIU Changying, GAO Le, GAO Yinhan, et al. Measurement of Coordinates by Single-camera Vision[J]. Journal of Jilin University(Engineering and Technology Edition), 2010, 40(5):1278-1282.

[7]BYAMBAA M, KOUTAKI G, CHOIMAA L. 6D Pose Estimation of Transparent Object from Single RGB Image for Robotic Manipulation[J]. IEEE Access, 2022, 10:114897-114906.

[8]陳鈞, 宋薇, 周洋. 一種多模塊神經網絡與遺傳算法相結合的單目位姿估計方法[J]. 機器人, 2023, 45(2):187-196.

CHEN Jun, SONG Wei, ZHOU Yang. A Monocular Pose Estimation Method Based on Multi-module Neural Network and Genetic Algorithm[J]. Robot, 2023, 45(2):187-196.

[9]劉俊. 基于單目視覺的物體位姿估計方法研究[D]. 哈爾濱:哈爾濱工業大學, 2016.

LIU Jun. Study on Object Pose Estimation Based on Monocular Vision[D]. Harbin:Harbin Institute of Technology, 2016.

[10]HANH L D, HIEU K T G. 3D Matching by Combining CAD Model and Computer Vision for Autonomous Bin Picking[J]. International Journal on Interactive Design and Manufacturing(IJIDeM), 2021, 15(2):239-247.

[11]DU Yichun, TARYUDI T, TSAI C T, et al. Eye-to-hand Robotic Tracking and Grabbing Based on Binocular Vision[J]. Microsystem Technologies, 2021, 27(4):1699-1710.

[12]WAN Guoyang, LI Fudong, ZHU Wenjun, et al. High-precision Six-degree-of-freedom Pose Measurement and Grasping System for Large-size Object Based on Binocular Vision[J]. Sensor Review, 2020, 40(1):71-80.

[13]郝仁杰, 王中宇, 李亞茹. 一種單目視覺位姿測量系統的誤差分析方法[J]. 應用光學, 2019, 40(1):79-85.

HAO Renjie, WANG Zhongyu, LI Yaru. Error Analysis Method for Monocular Vision Pose Mea-surement System[J]. Journal of Applied Optics, 2019, 40(1):79-85.

[14]LIU Tao, GUO Yin, YANG Shourui, et al. Monocular-based 6-degree of Freedom Pose Estimation Technology for Robotic Intelligent Grasping Systems[J]. Sensors, 2017, 17(2):334.

[15]LOURAKIS M I. A Brief Description of the Levenberg-Marquardt Algorithm Implemented by Levmar[J]. Foundation of Research and Technology, 2005, 4(1):1-6.

(編輯 王旻玥)

作者簡介:

那一鳴 ,男,1998年生,碩士研究生。研究方向為視覺定位引導。E-mail:nayiming1998@163.com 。

胡 超(通信作者),男,2000年生,碩士研究生。研究方向為視覺定位引導。E-mail:chaohu2000@outlook.com。

收稿日期:2023-10-12

基金項目:廣西重點研發計劃(2019AB07030);廣西創新驅動發展專項(2020AA15001AA);廣西科技基地和人才專項(2021AC19374);長沙市科技計劃(kh2201321)

猜你喜歡
機器視覺
基于芯片點膠系統的視覺檢測技術研究
軟件導刊(2016年11期)2016-12-22 21:52:17
全自動模擬目標搜救系統的設計與實現
基于機器視覺的自動澆注機控制系統的研究
科技視界(2016年26期)2016-12-17 17:31:58
機器視覺技術的發展及其應用
科技視界(2016年25期)2016-11-25 19:53:52
視覺拉線檢測器的設計與實現
科技視界(2016年25期)2016-11-25 09:27:34
大場景三維激光掃描儀在研究生實踐教學培養中的應用
科教導刊(2016年25期)2016-11-15 17:53:37
基于機器視覺的工件鋸片缺陷檢測系統設計
軟件工程(2016年8期)2016-10-25 15:55:22
基于機器視覺技術的動態“白帶”常規檢測系統的開發
科技視界(2016年20期)2016-09-29 11:11:40
對激光切割機的改進
科技視界(2016年6期)2016-07-12 09:12:40
人工智能在高校圖書館的預期
科技視界(2016年15期)2016-06-30 19:03:30
主站蜘蛛池模板: 免费一级毛片在线播放傲雪网| 99视频在线观看免费| 国产精品三级av及在线观看| 91麻豆国产在线| 日韩国产欧美精品在线| 网久久综合| 日韩A∨精品日韩精品无码| 欧美a在线看| 欧美亚洲一区二区三区在线| 成人毛片免费观看| 亚洲欧洲免费视频| 国产人在线成免费视频| 免费无码网站| 最新亚洲av女人的天堂| 亚洲无码91视频| 日韩一区二区三免费高清| 亚洲制服丝袜第一页| 91在线一9|永久视频在线| 久久久成年黄色视频| 就去色综合| 国产精品尤物在线| 日韩av在线直播| 99精品国产自在现线观看| 素人激情视频福利| 国产乱肥老妇精品视频| 国产一二三区在线| 日韩免费毛片视频| 免费国产好深啊好涨好硬视频| 女人天堂av免费| JIZZ亚洲国产| 国产精品亚洲专区一区| 一级不卡毛片| 国产亚洲成AⅤ人片在线观看| 成人午夜天| 亚洲人成影院午夜网站| 成人午夜精品一级毛片| 亚洲精品图区| 91久久大香线蕉| 99精品在线看| 日韩无码视频播放| 99re精彩视频| 伊人色天堂| 亚洲综合色吧| 日韩A∨精品日韩精品无码| 日韩亚洲高清一区二区| 精品国产91爱| 日韩高清一区 | 18禁黄无遮挡免费动漫网站 | 狠狠色狠狠综合久久| 国产在线高清一级毛片| 五月婷婷亚洲综合| 国产美女精品在线| 特级aaaaaaaaa毛片免费视频| 天天综合天天综合| 亚洲最大在线观看| 中文字幕久久亚洲一区| 国产日韩欧美精品区性色| 亚洲美女一区| 久久男人视频| 久久77777| 亚洲成年人片| 欧美激情网址| 好吊色妇女免费视频免费| 欧美成人第一页| 国产白丝av| 婷婷丁香在线观看| www.91中文字幕| 欧美a在线| 99久久亚洲综合精品TS| 国产va免费精品观看| 成年网址网站在线观看| 欧美在线精品怡红院 | 91网址在线播放| 免费a级毛片18以上观看精品| 午夜性刺激在线观看免费| 亚洲第一福利视频导航| jizz在线观看| 欧美激情成人网| 欧美黄网在线| 91小视频版在线观看www| 好吊妞欧美视频免费| 久久国产精品麻豆系列|