999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于虛擬導航線的農業機器人精確視覺導航方法

2021-01-21 03:23:24房體育李金屏
計算機應用 2021年1期
關鍵詞:方法

梁 臻,房體育,李金屏*

(1.濟南大學信息科學與工程學院,濟南 250022;2.山東省網絡環境智能計算技術重點實驗室(濟南大學),濟南 250022;3.山東省“十三五”信息處理與認知計算高校重點實驗室(濟南大學),濟南 250022)

0 引言

隨著經濟的發展,機器人應用到各行各業,農業是應用機器人的一大領域,利用機器人加強農業生產的自動化是現代農業發展越來越關注的問題。在沒有人工標記的農田環境中,農業機器人需要解決在無人操作情況下的自主導航。農田中常用的定位方法是航位推算法、全球定位系統(Global Positioning System,GPS)和實時動態定位(Real-Time Kinematic,RTK)載波相位差分技術。其中:航位推算法是通過測量移動的距離和方位來推算位置,由于地面粗糙,車輪轉速不準確,測量結果容易出現誤差[1];GPS 是一種以人造地球衛星為基礎的無線電導航的定位系統,民用端的GPS 定位精度無法滿足精準農業的要求,精準農業對于自動化駕駛、播種等工作需要厘米級定位精度[2];RTK 定位精度可達厘米級,近幾年來農機導航多用這種基于載波相位觀測的實時動態高精度定位技術,但是成本較高[3]。因此,相關學者提出使用其他傳感器輔助機器人進行精確定位的方法,常見的進行輔助導航的傳感器有激光雷達、慣性加速度測量儀、紅外測距傳感器、超聲波測距傳感器和視覺傳感器等。

激光雷達、紅外測距等導航方式普遍成本較高且對環境有一定的要求,例如,文獻[4]提出的方法要求農作物分布稀疏,且普遍比激光雷達傳感器高5~10 cm,而視覺傳感器具有成本低、設備簡單和獲取環境信息全面等優點,所以被廣泛應用在很多場景。在農田等無標記的室外環境中,控制機器人進行基于視覺導航的方法主要有兩類:一是結合其他傳感器建立導航地圖或檢測作物行、道路等;二是利用單一視覺傳感器根據顏色特征或紋理特征進行道路、作物行的識別。

對于第一類方法,一些工作利用無人機等設備把圖像傳送給機器人進而構建地圖[5-8]:文獻[9]結合激光與攝像機,實現了三維地圖的快速構建,能夠直觀地顯示環境特征;文獻[4]利用激光測距儀測量機器人到作物的距離,結合視覺傳感器開發了基于粒子過濾器的概率導航方法,在半結構化的農場中具有較好的魯棒性。雖然多傳感器融合技術能克服單一導航技術的缺陷,提高定位精度,但其成本較高,還需要考慮對傳感器的資源分配問題,不適合民用導航。

對于第二類方法,一些學者通過提取特征來檢測道路[10-11],其中:文獻[10]利用顏色特征提取作物和雜草信息,將作物與背景分離,提取了作物中心線和導航路徑;文獻[11]通過提取圖像中的紋理和顏色信息,獲取了作物行的紋理信息,用穩定的圖像生成了一個模板來估計運動中機器人的橫向偏移情況。一些學者通過檢測直線來尋找道路[12-13],其中:文獻[12]提取了水田圖像的灰度和角點特征,通過聚類算法和霍夫變換進行了直線檢測,進而尋找路徑信息;文獻[13]借助垂直投影方法估計作物行的位置,然后使用霍夫變換檢測作物行和道路信息。還有學者利用圖像分割進行路徑的提取[14-15],其中:文獻[14]利用超像素對道路圖像進行分割,利用近鄰傳播聚類算法進行二次分類,檢測出道路區域;文獻[15]用RGB(Red-Green-Blue)和HSV(Hue-Saturation-Value)模型對圖像進行分割,提出了一種利用水平樣條分割的棉花田地導航路徑提取方法。此外,還有研究者利用立體視覺提出了一種基于概率占位柵格圖和障礙物標記的導航方法,但這種方法只適用于作物稀疏的農田[16]。上述文獻[10-16]中的機器人導航方法在一定程度上取得了實際的應用效果,但都只適用于特定的農場環境,且要求作物行、道路的紋理信息明顯或者農作物容易和背景區分,一旦環境發生變化,不具備結構化特點,圖像的紋理信息不清晰或作物稠密無道路信息時,如圖1,這些方法將不再適用。為了解決這個問題,本文同樣利用單一視覺傳感器,提出了一種基于虛擬導航線的精確導航方法。

圖1 紋理不清晰的農作物展示Fig.1 Crop displays with unclear textures

該方法利用核相關濾波(Kernel Correlation Filter,KCF)方法跟蹤目標,根據目標與機器人的位置確定參照目標的位置,利用兩個目標構建虛擬導航線,然后結合虛擬定標線和虛擬導航線確定偏移角度和偏移距離,最后使用模糊控制法修正路線,從而實現機器人的精確自主導航。

本文的創新點有兩個:一是該方法對環境的結構化要求不高,利用少量信息構建了虛擬導航線,在湖泊、蘆葦地等都可以使用,適用于多種作物類型,無須鋪設地標和真實導航線;二是由于使用了目標跟蹤算法,該方法可以根據需求選擇視野中的任意一個物體作為目標,實現機器人自主朝此方向的直線行走,能夠滿足民用農業機器人的應用需求。

1 算法原理

在實時的動態環境中無法建立明確的地圖,因此田野等動態環境中不適宜構建地圖,常用的無環境地圖的視覺導航方法有基于光流、外觀信息和目標跟蹤的導航方式。利用目標跟蹤算法,能有效提高機器人的導航能力,實現機器人在未知環境下的導航[17-18]。因此,針對無明顯結構特點的野外環境中機器人直線行走的問題,本文基于目標跟蹤算法,提出了一種無須鋪設導航線、無須設立人工路標的自主導航方法。

該方法依據場景中跟蹤目標與機器人之間的空間位置關系確定參照目標并構建虛擬導航線,并采用對導航線上的參照目標進行跟蹤和動態更新的方法維持其在場景中的穩定狀態,然后利用虛擬導航線與虛擬定標線在圖像中形成的角度和距離關系,實時獲取機器人的偏角和姿態信息,進而使用模糊控制的方法實現對機器人行走速度和旋轉角度的動態調整,最終達到輔助機器人直線行走的目的。本章將從跟蹤目標的確定、基于KCF 的虛擬導航線的構建、結合虛擬定標線的偏移參數計算和基于模糊控制的校正行走4 個步驟詳細解釋此方法,該方法流程如圖2所示。

圖2 本文方法流程Fig.2 Flowchart of the proposed method

1.1 跟蹤目標的確定

本文方法的關鍵之處是利用虛擬導航線引導機器人直線行走,而虛擬導航線需要通過目標跟蹤和更新的策略實現,因此初始跟蹤目標的確定至關重要。此方法可以根據需求將視野中的任意一個物體作為初始跟蹤目標,控制機器人朝此方向進行直線行走。為了保證機器人朝著目標方向走直線,跟蹤目標應該位于視野正前方位置,因此需要調整機器人的方向,使此目標的位置由A移動到A′,即使目標框中心點位于視野中線l上,調整角度為α。具體如圖3 所示,其中(a)是確定初始目標時的視野,(b)是調整后的視野,(c)為機器人調整的角度展示。

機器人向前行走時,若只保證跟蹤目標位于視野中央,仍不能確定路線為直線,如圖4 所示,機器人由F移至F′,雖然目標一直位于正前方視野,但行走路線為曲線。因此需要確定一個參照目標來記錄此刻機器人與目標之間的空間位置關系,兩個目標的相對位置反映了機器人行走路線的變化。

本文假設機器人視野下邊界的中點M(圖5)代表機器人的起始位置,將已移至中央區域的初始目標的中心點A與視野下邊界中點M進行連線,在連線上確定參照目標,設置此目標的大小與上方目標一致,目標框中心點位于連線中點B,如圖5 所示。由于此目標的位置處于初始目標下方,下文將稱此目標為下方目標,將初始目標稱為上方目標。若上方目標的中心、下方目標的中心和機器人的動態位置,即視野下邊界的中點位于一條直線上,則說明三點共線,若機器人行走過程中仍保持三點共線,則說明行走路徑為直線。

圖3 初始跟蹤目標的確定Fig.3 Determination of initial tracking target

圖4 單目標情況下機器人姿態變化Fig.4 Change of robot’s posture in case of single target

圖5 確定下方參照跟蹤目標Fig.5 Determination of reference tracking target below the field of vision

1.2 基于KCF的虛擬導航線的構建

田野中不適宜鋪設導航線和路標,但導航線和路標能夠很好地引導機器人進行自主導航,所以本文設計了虛擬導航線來引導機器人行走。虛擬導航線是在視野中利用上下方目標形成的導航線,能輔助機器人確定前進方向,實際并不存在。本文的虛擬導航線是基于目標跟蹤算法構建的,因此需要選擇一個適用于田野環境的目標跟蹤算法,經對比實驗,本文選取了KCF算法作為目標跟蹤算法。

機器人行走過程中,若能保證上方目標中心、下方目標中心和視野下邊界的中點在一條直線上,就能保證機器人朝著上方目標進行直線行走。當機器人的方向出現偏差時,這三點將不再共線,如圖6(a)所示,A、B、M三點不共線,當機器人的位置由M移動至M′時,三點又可共線,所以本文將上方目標中心A和下方目標中心B的連線AB的延長線AM′作為虛擬導航線,出現偏差時引導機器人向能使得三點共線的方向移動,就可實現機器人朝著初始目標直線行走。這是因為導航線保存了初始目標移至視野中央區域時的視野信息和設計的路線信息,當機器人的行走偏離了預設的路線,導航線可以給予糾正,使初始目標、參照目標和機器人的動態位置再次位于一條直線。需要注意的是,機器人行走過程中,上方目標和下方目標的位置會發生改變,虛擬導航線隨之變化。當出現如圖6(b)、(c)所示的情況時,下一時刻的下方目標垂直方向或左右方向移出視野,將不具備參照意義,需要更新下方參照目標,從而更新導航線。

圖6 虛擬導航線的構建Fig.6 Construction of virtual navigation line

更新導航線的具體方法是,當下方目標即將消失時,記錄這一時刻的下方目標的位置,如圖7 所示,將此目標的中心點B與上方目標中心點A進行連線,連線的中點B′作為新的下方目標的中心點,設置更新的下方目標與上方目標大小相同,這種更新方式使得下方目標的更換不影響導航線的變化,保證了導航線的穩定性和導航的連續性。

圖7 更新下方目標Fig.7 Update of the lower target

1.3 結合虛擬定標線的偏移參數計算

本文結合虛擬導航線和虛擬定標線,計算出機器人的偏移角度和偏移距離,利用這些偏移參數來進行下一步的控制決策,從而保證機器人行走直線。地面上的平行線由于透視原理會在攝像頭中產生匯聚現象,虛擬定標線是基于此原理呈現在攝像頭畫面的具有匯聚現象的一組線,實際上并不存在[19]。虛擬定標線在視野中的匯聚程度受攝像頭俯仰角的影響,以30°俯角為例,呈現的虛擬定標線如圖8 所示,(a)是地面上的一組平行線,(b)是在攝像頭視野中相對應形成的虛擬定標線。當機器人行走路線與任意一條虛擬定標線重合時,即說明機器人行走路線與地面上的平行線重合,就可以認為機器人沿著地面上的平行直線行走。

圖8 平行線和對應的虛擬定標線展示圖Fig.8 Parallel lines and corresponding virtual calibration lines

如圖9 所示,MN是圖像中心的基準線,DQ是由兩個跟蹤目標確定的導航線,即預設的行走路線,PQ是該場景下根據30°俯角情況確定的虛擬定標線。當DQ和PQ重合時,說明機器人是沿導航線行走的,DQ和PQ形成的夾角α為機器人行進方向偏離導航線的角度,即偏移角度。d為圖像下邊界的中點M到導航線的距離,代表機器人動態位置到導航線的距離,即偏移距離。利用虛擬導航線和虛擬定標線的位置關系,確定了偏移角度和偏移距離。

圖9 偏移參數的確定Fig.9 Determination of offset parameters

1.4 基于模糊控制的校正行走

由于室外環境的不穩定性,機器人獲取到的圖像受光照、陰影等影響較大,且機器人在不平坦的地面上行走,難以使用精確的控制算法,所以本文采用模糊控制的方法修正機器人的行走路線。建立模糊控制表之前需要確定偏移角度模糊集和偏移距離模糊集,基于本文實驗機器人的攝像頭視野范圍和調整敏感度,本文將偏移角度α的取值范圍定義為(-25°,25°),并根據此范圍劃分了模糊集。當虛擬定標線位于導航線左邊時,即需要進行逆時針旋轉時,設置偏移角度為負,反之為正。以30°俯角視野為例,將偏移角度平均分成5 個語言值,如表1 所示;根據偏移距離在含有虛擬定標線的導航圖像中的位置將其定義為7個語言值,如圖10所示。

在獲得偏移角度和偏移距離后,利用模糊控制來抑制偏差的變大,控制的力度由一對比例因子(k1,k2)確定,k1為控制機器人行走速度的比例因子,k2為控制機器人旋轉角度的比例因子。當需要控制機器人逆時針旋轉,向左校正機器人行走路線時,k2設置為負值,反之,為正值。表2 給出了上述論域劃分情況下的模糊控制表[20],利用該表可以實現對機器人行走速度和旋轉角度的模糊控制,從而實現對機器人行走路徑的校正。

表1 偏移角度的模糊語言變量描述Tab.1 Fuzzy linguistic variables of offset angles

圖10 偏移距離的模糊語言變量描述Fig.10 Fuzzy linguistic variables of offset distances

表2 模糊控制表Tab.2 Fuzzy control table

2 實驗與分析

2.1 實驗硬件環境介紹

本文所用的機器人是美國MobilerRobots公司設計的智能移動機器人Pioneer3-DX,采用的控制器為日立公司的H8S 系列,操作系統為 ActivMedia Robotics Operating System(AROS),機身組成部分包括頂板緊急停車按鈕、用戶控制面板、車身、機鼻、附件面板、聲納環、電機、車輪及編碼器、電源和電池等。結合串口網絡攝像頭安訊士AXIS 214 PTZ Network Camera 和視頻采集口等,組成了實驗所用的多功能先鋒機器人,攝像頭可在云臺上實現360°旋轉和上下180°俯仰,如圖11所示。

圖11 Pioneer3-DX機器人Fig.11 Pioneer3-DX robot

2.2 目標跟蹤性能分析

本文中的虛擬導航線是實現機器人自主導航的關鍵,由于虛擬導航線是根據動態跟蹤的兩個目標確定的,所以目標跟蹤的效果好壞決定了導航線的準確性和穩定性。因此本文設計了實驗來驗證目標跟蹤算法的性能,從定性和定量的角度進行分析算法是否可以滿足構建穩定導航線的需求。

2.2.1 定性分析

在農田場景中隨意選擇視野中的一個區域作為目標并進行跟蹤,比如草地或遠方的樹,每隔2 min 記錄一次目標區域的圖像,在30 次實驗中隨機選取6 次實驗的目標區域的跟蹤結果進行效果展示。圖12 展示了農田環境中隨機選取的目標區域和跟蹤過程中的變化,①~⑥展示了本文選取的不同目標圖像隨時間的變化,列代表同一時刻對應的不同目標區域的圖像,行代表同一目標區域在不同時刻的圖像。隨著機器人向前行走,可以看出目標區域的圖像在視野中的尺寸變大,受光照影響圖像的亮度有變化,但目標跟蹤效果相對準確,沒有跟錯、跟丟現象,跟蹤性能較好。

圖12 目標跟蹤效果展示Fig.12 Effect of target tracking

2.2.2 定量分析

1)目標區域圖像的相似度測算。

跟蹤過程中,不同時刻的目標區域的圖像的相似度如果維持在較高水平,可以說明目標跟蹤效果相對準確。本文用皮爾遜相關系數作為衡量圖像相似度的一個標準。在不同場景下進行30 次實驗,每隔2 min 記錄一次跟蹤目標的圖像,每次實驗記錄10 次,然后將得到的目標區域的圖像與第一幀目標區域的圖像進行皮爾遜相關系數計算,計算圖像之間的相似度。皮爾遜相關系數是由卡爾·皮爾遜在19世紀80年代提出的用于度量兩個變量之間的相關程度的方法,其定義為兩個變量之間的協方差和標準差的商,如式(1)。本文用RGB信息組成向量信息,具體的計算方法是將R、G、B 三個原色取值都平均劃分為4 個區間,分別是0~63、64~127、128~191、192~255,一個像素值有R、G、B 三個分量,則有43=64 種組合方式,可以看作64 個不同的區間,每個像素點都唯一地屬于64 個區間中的一個,統計圖片中每個區間的像素點個數,因此每個圖片都能用一個64 維的向量表示,X代表初始目標區域圖像的像素點的RGB 信息組成的64 維向量,Y代表運動過程中目標區域圖像的像素點的RGB 信息組成的64 維向量,N代表圖片向量的維數。運動過程中,當目標區域圖像與初始目標區域圖像的大小不一致,無法進行相似度測算時,需要對該圖像進行縮放操作使其與初始目標區域圖像大小一致。

將所得的皮爾遜相關系數結果的均值、方差和最小值進行計算,結果如圖13 所示。從圖中數據可得,皮爾遜相關系數的數值波動在0.5~1,集中在0.8~0.9,方差幾乎為0,屬于較強的相似性,能夠說明不同幀的目標區域的圖像內容變化不大,跟蹤效果比較準確。

2)不同跟蹤算法的精度與成功率測算。

本文利用平均精度均值(mean Average Precision,mAP)計算跟蹤精度,用交并比(Intersect over Union,IoU)計算成功率。mAP是指跟蹤算法得到的目標位置的中心點與人工標注的目標的中心點之間的平均距離,本文用歐氏距離進行計算。其中,t時刻的中心點距離的定義如式(2)所示,(x1,y1)表示人工標注目標區域的中心坐標,(x2,y2)表示對應時刻跟蹤算法預測的目標區域的中心點的坐標。IoU 是指跟蹤算法得到的目標區域與人工標注的目標區域的平均重合率,其中,t時刻的重合率的定義如式(3)所示代表t時刻人工標注的目標區域表示t時刻跟蹤算法預測的目標區域。

圖13 目標圖像的皮爾遜相關系數計算結果Fig.13 Pearson correlation coefficient calculation results of target images

保存30次實驗過程中的視頻,用每段視頻所有幀的mAP和IoU 計算結果進行精度和成功率的計算。精度指在設定的不同的距離閾值情況下,mAP 結果小于閾值的幀數占視頻總幀數的百分比;成功率指在不同重疊率閾值情況下,IoU 大于閾值的幀數占視頻總幀數的百分比。以閾值為標準,計算30段視頻的平均精度和平均成功率,具體計算方法是計算出每段視頻在設定閾值下的精度和成功率,累加后再除以視頻個數。

由于室外場景種類繁多,而且目標選取具有隨機性,本文不適宜使用基于深度學習的跟蹤算法,因此本文選取了幾種傳統的目標跟蹤算法與KCF 目標跟蹤算法進行了比較,實驗結果如圖14所示。通過對比得知,在農田環境中KCF 相比其他跟蹤算法有一定的精度優勢,跟蹤效果比較準確,是一種跟蹤性能較好的跟蹤算法。這主要是因為KCF 使用了樣本的方向梯度直方圖(Histogram of Oriented Gradient,HOG),在顏色信息和紋理信息有限的農田環境中,HOG 特征相比灰度特征、顏色特征具有明顯的優勢,受光照等影響小,能獲得較好的跟蹤效果。

圖14 跟蹤算法的精度和成功率比較Fig.14 Comparison of accuracy and success rate of tracking algorithms

2.3 虛擬導航線的穩定性分析

虛擬導航線決定了機器人的行走方向,在機器人自主導航過程中起著至關重要的作用。若兩個目標的連線相對比較穩定,連線就可作為機器人行走的虛擬導航線,偏移角度和偏移距離就可以作為調整的參數,利用模糊推理法得到左右輪速等,然后生成控制指令發送給機器人,就可以實現機器人沿著虛擬導航線行走,因此本文設計了實驗來證明虛擬導航線的穩定性。

此實驗的環境為較平坦的地面,使機器人能在無人工干預的情況下順利地行走直線。鋪設從起始點到遠處目標的直線型標定線,使其與機器人視野中的豎直標定線重合,當機器人從起始點出發向前行走時,記錄偏移角度α的變化。當角度α接近0°時,表明當機器人行走路線為直線時,該方法對機器人偏移方向的判斷是正確的,同時證明了該方法中的虛擬導航線是穩定的。本文在不同場景下進行了30 次實驗,實驗過程中,每隔2 min 記錄一次角度α的數值,每次實驗記錄10次,計算角度α的均值、方差和最大值,統計結果如圖15所示。從圖中可以看出,角度α的變化范圍在0°~1.6°,均值波動在0.4°~1°,方差較小,角度變化波動不大,可以說明機器人行走路線接近直線,與實際情況相符,虛擬導航線具有較強的穩定性。

圖15 偏移角度統計圖Fig.15 Statistical graph of offset angle

2.4 機器人直線導航實驗與對比

此部分實驗在結構化不明顯的農田中進行,在距離起始點一定位置處計算偏移角度誤差和偏移距離誤差的數值,即算法計算的角度和距離與真實角度和距離的差值,并與其他導航方法進行對比,分別是有人工標記的導航方法和無人工標記的導航方法。

在之前的研究工作中,利用虛擬定標線的直線型導航需要借助在地面上鋪設的導航線[20],本文將此方法與提出的方法進行對比來驗證無人工標記情況下使用虛擬導航線的導航效果。在相同的較為平坦的農田場景下進行30 次實驗,在距離起始點10 m 至40 m 處記錄30 次偏移角度誤差和偏移距離誤差,并記錄每個地點的誤差均值,如圖16~17所示。隨著行走距離的增長,誤差有增大的趨勢,且本文方法整體導航精度比鋪設導航線的方法略低,但兩種方法的平均距離誤差均在10 cm 以內,平均角度誤差均在2°以內,可以說明本文方法有一定的實用性,其效果與鋪設真實導航線的導航效果相似。

圖16 平均偏移角度誤差統計圖Fig.16 Statistical graph of mean offset angle error

圖17 平均偏移距離誤差統計圖Fig.17 Statistical graph of mean offset distance error

除此之外,本文還與其他無人工標記情況下的導航方法進行對比:文獻[10]利用顏色特征把綠色農作物從背景中分離出來,利用霍夫變換提取了導航路徑;文獻[11]通過檢測圖像中主要的水平紋理方向,生成一個標準模板,然后與運動中的圖像相對比來估計機器人的前進方向;文獻[12]提取了水田圖像的灰度和角點特征,通過聚類算法和霍夫變換進行了直線檢測。每種方法進行10 次實驗,實驗環境為相同的沒有明顯結構的農田環境,在距離出發點10 m 處記錄每個方法的偏移角度和偏移距離,并取平均值進行比較。比較結果如表3 所示,文獻[10]、文獻[11]的導航效果相對較差,這是因為在農作物稠密的非結構化農田中,農作物與背景難以分離而且紋理信息難以提取。對比結果顯示,本文方法的偏移參數都比較小,有一定的先進性。

表3 不同方法的實驗結果比較Tab.3 Experimental result comparison of different methods

2.5 不同場景下的效果展示

為了證明此方法適用于多種場景,本文在農田、道路、公園等室外環境進行了實驗。如圖18 所示,(a)展示了確定初始目標區域的畫面,并給出了場景下的虛擬定標線;(b)展示了對應場景機器人行走過程中出現偏移情況時的畫面,MN是圖像中心的基準線,PQ為此刻機器人運動所需的虛擬定標線,DQ為此刻由上下方目標確定的虛擬導航線,此時的調整偏移角度為α,偏移距離為d。通過實驗,可以驗證本文方法在不同的室外環境下都有效,該方法生成的虛擬導航線比較穩定,能結合虛擬定標線準確判斷機器人的方向偏移情況,利用圖像中的少量信息引導機器人行走直線。

圖18 3種場景中的實驗效果Fig.18 Experimental results in three scenes

3 結語

為了解決在田野等非結構化環境中的機器人精確自主導航問題,本文提出了一種利用視覺傳感器的實現農業機器人精確導航的方法。該方法利用目標跟蹤獲取了虛擬導航線,根據虛擬導航線和虛擬定標線獲得了偏移參數,通過模糊控制策略實現了對路徑的修正。實驗表明,該方法能在圖像的紋理和顏色信息有限的田野中,在沒有人工標記條件下,僅使用視覺傳感器實現機器人朝著規定目標精準地行走直線,且定位精度在10 cm 以內,成本低廉,可達到民用精準農業的要求。該方法也存在一定的局限性,由于使用了視覺傳感器,受光照條件等影響較大,需要進一步改進導航方法。

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 美女被狂躁www在线观看| 99在线视频网站| 2021国产精品自产拍在线| 四虎永久免费在线| 思思99热精品在线| 国产精品99一区不卡| 国产精品视频猛进猛出| 国产成人无码Av在线播放无广告| 91毛片网| 国产免费黄| 国产成人精品在线| 亚洲AⅤ综合在线欧美一区 | 亚洲欧美成人影院| 尤物成AV人片在线观看| 91无码视频在线观看| 爽爽影院十八禁在线观看| 久久免费精品琪琪| 国产黄色爱视频| 国产精品爽爽va在线无码观看| 国产乱肥老妇精品视频| 99re经典视频在线| 91小视频在线观看| 亚洲第一网站男人都懂| 国产精品美女在线| 高清色本在线www| 日本在线欧美在线| 一级一级特黄女人精品毛片| 激情综合网激情综合| 亚洲美女高潮久久久久久久| 欧日韩在线不卡视频| 国产美女无遮挡免费视频| WWW丫丫国产成人精品| 51国产偷自视频区视频手机观看| 亚洲精品无码久久久久苍井空| 国产黄色免费看| 久久无码免费束人妻| 国产精品yjizz视频网一二区| 国产区成人精品视频| 久久精品国产精品青草app| 亚洲国产一区在线观看| 一级全免费视频播放| 久久狠狠色噜噜狠狠狠狠97视色| 欧美亚洲国产精品第一页| 一本大道在线一本久道| 在线毛片网站| 国产国模一区二区三区四区| 欧美色视频在线| 欧美日韩国产成人高清视频| 国产女同自拍视频| 亚洲三级视频在线观看| 国产美女精品一区二区| 一级全黄毛片| 国产美女丝袜高潮| 久久福利网| 香蕉eeww99国产在线观看| 中文字幕啪啪| 国产流白浆视频| 国产成人高清精品免费软件| 伊在人亞洲香蕉精品區| 婷婷六月综合| 毛片卡一卡二| 999国产精品永久免费视频精品久久| 国产无码网站在线观看| 亚洲视频免费在线| 老司国产精品视频| 另类综合视频| AV网站中文| 精品色综合| 国产成人精品在线1区| 亚洲AV无码乱码在线观看裸奔| 麻豆精品久久久久久久99蜜桃| 国产精品欧美日本韩免费一区二区三区不卡 | 91精品小视频| 亚洲一本大道在线| 精品视频福利| 天堂在线www网亚洲| 国产高清在线观看91精品| 欧美日韩中文字幕在线| 精品国产黑色丝袜高跟鞋 | 天天干伊人| 国产成人久久综合一区| 亚洲国产一区在线观看|