999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于姿態閾值濾波的單目視覺農業機械定位方法*

2018-01-26 02:46:08黃沛琛羅錫文張智剛劉兆朋
計算機工程與科學 2018年1期
關鍵詞:特征

黃沛琛,羅錫文,張智剛,劉兆朋

(1.華南農業大學工程學院,廣東 廣州 510642; 2.華南農業大學南方農業機械與裝備關鍵技術教育部重點實驗室,廣東 廣州 510642)

1 引言

自動導航是實現農業機械智能化的核心問題之一,定位是實現自動導航的基礎性難題[1]。目前,GPS、激光雷達與機器視覺是農業機械自動導航定位研究的三大熱門[2]。GPS定位精度高,但其會因障礙物遮擋而導致定位精度下降甚至丟失信號,如林業和果園環境[3 - 7]。激光檢測技術測量精度高,能以較高頻率提供準確的距離信息,但設備成本高,且探測范圍有限[8-12]。機器視覺技術憑借其探測范圍廣、獲取信息完整、成本低等優勢,成為目前國內外應用較多的機器人定位方式[13 - 19]。

機器視覺定位是一個僅利用單個或多個相機的輸入信息估計物體的運動信息的過程。根據所使用的相機數目可分為單目視覺定位和立體視覺定位。由于立體視覺可通過固定和已知的基線提供深度信息,容易確定位移絕對尺度因子,因此大部分的機器視覺定位研究集中在立體視覺定位[20]。Nister等人[21]利用隨機抽樣一致RANSAC(Random Sample Consensus)迭代提純,實現了魯棒的視覺運動估算。Olson等人[22]利用定位信息限制特征跟蹤的搜索范圍以提高跟蹤精度,并利用極大似然方法求解運動估計,在20 m的道路上獲得了1.2%的相對位置誤差。Sünderhauf等人[23]將稀疏光束平差法SBA(Sparse Bundle Adjustment) 擴展運用于立體視覺定位中,在初始三維模型和相機運動未知的情況下,對左右立體圖像對中獲取的特征運用滑動窗口 ( Sliding Window)方法,結合簡單的運動閾值濾波完成運動估計。Zhang等人[24]利用單目視覺與輪式里程計相結合,采用轉向模型分別還原旋轉姿態和位移姿態,實驗結果顯示,平均誤差低于1%。許允喜等人[25]提出了立體視覺采用微粒群優化的初始運動估計和內點檢測新方法對車體進行運動的估計。王亞龍等人[26]針對移動服務機器人在未知環境下三維路徑估計的問題,設計了一種基于Kinect攝像機的實時估計機器人運動軌跡的方法,文獻所提出的方法可將視覺定位誤差降低至3.1%。夏凌楠等人[27]則采用慣性傳感器和立體視覺信息融合實現機器人定位。對于立體視覺,當物體距離遠大于基線時,立體視覺近似于單目視覺。因此,只有在合適范圍內的物體特征,立體視覺才能提供比較精確的景深信息。同時,立體攝像機參數校正過程較單目攝像機復雜,而攝像機參數校正的精度在很大程度上影響機器視覺定位算法的精度。相比之下,單目攝像機具有成本低、參數校正過程容易和校正精度高的優點,但其最大的缺點是缺少位移絕對尺度。近年來研究指出,加入一定的約束和假設條件,可以恢復其絕對尺度,如利用輪式車體運動的非完整性約束[28]以及利用車體運動在平坦地形上的假設等[29]。

本文通過對捕獲的每幀圖像進行特征點檢測與跟蹤,基于特征點配對,還原農業車輛行駛過程中的姿態信息。同時,通過假設車輛前方區域近似平坦,攝像機離地高度近似固定不變,實時修正車輛位移的絕對尺度因子,配合姿態閾值濾波,對車輛姿態信息進行在線修正。實驗以實時動態全球定位系統RTK-GPS(Real-Time Kinematic Global Positioning System)定位數據作為對比,選擇在三種不同的場景進行檢測。

2 單目視覺定位算法

2.1 特征點檢測與跟蹤

由于blob和corner算子具有特征點位置計算精確的優點,本文對采集的每幀圖像分別采用5*5模板的blob濾波器和corner濾波器進行濾波。對濾波后的圖像采用非最大值抑制算法產生后續配對的候選特征點[30]。為確保計算效率,每幀圖像提取候選特征點不超過1 000個。

給定兩個提取的特征點,對其的11*11區域范圍內Sobel算子水平濾波和垂直濾波后的響應采用絕對差值總和SAD(Sum of Absolute Differences)公式進行區域匹配。一旦SAD計算出現最小值,則成功獲得最優匹配特征點對。圖1為連續兩幀圖像特征點匹配后在k-1圖像幀中顯示的結果,匹配特征點數目為858個,特征點檢測時間為13 ms,特征點匹配時間為22 ms。

Figure 1 Feature matching results圖1 特征點配對結果

2.2 車體姿態估算

本文計算農業車體姿態包括車輛的平面位置信息和航向角。算法分成兩步,對于初始采集的前兩幀圖像采用2D-2D特征點配對方法計算車體姿態與重構特征點的三維坐標;對于第三幀開始的圖像序列,則采用3D-2D特征點配對方法計算姿態與重構特征點的三維坐標。

(1)對于已標定內部參數的攝像機,可以通過本質矩陣E描述兩幀圖像Ik-1與Ik之間的幾何關系:

(1)

0

(2)

車體姿態估算步驟總結如下:

①獲取Ik-2,Ik-1圖像幀;

②提取并匹配兩幀圖像的特征點;

③重構Ik-2,Ik-1圖像幀的配對特征點三維坐標;

④獲取圖像幀Ik;

⑤提取特征點并與Ik-1進行匹配;

⑥對3D-2D匹配的特征點采用PnP(Perspective-n-Points)算法求解攝像機姿態;

⑦重構Ik-1,Ik圖像幀的新配對特征點三維坐標;

⑧重復步驟④;

2.3 定位姿態修正

在實際應用中,由于圖像噪聲、圖像模糊或車輛震蕩等原因會造成特征點檢測出現不精確,從而導致錯誤匹配的無效特征點,稱為外點(Outlier)。一旦出現外點,即使數目很少,計算得到的姿態結果也會與真實值有很大的偏差,因此需要識別外點,確定有效的特征匹配點對,稱為內點(Inlier)。本文采用RANSAC較常用的處理外點方法;同時,本文采用稀疏光束平差法SBA(Sparse Bundle Adjustment)軟件包實現攝像機估算位姿與重構的三維坐標實時局部最優化[34]。

單目視覺的校正難度低于立體視覺,有利于降低相機校正過程引入的誤差對最終的定位精度造成的誤差影響。然而采用單目視覺設計定位算法的困難在于缺少絕對尺度,在模型求解過程中,會出現尺度因子的模糊性。因此,在設計單目視覺定位算法時,需加入一定約束條件和假設。本文采用Kitt等人[35]提出的方法求解單目視覺定位算法過程中的絕對尺度。該算法假設車體行進過程中前方一小塊區域是近似平坦地形,同時攝像機在移動過程中離地垂直高度近似固定不變,從而對絕對尺度加以約束。算法首先在所有重構的三維坐標中篩選屬于車輛前方小區域地面的三維坐標點,采用式(3)確定絕對尺度因子s:

(3)

采用式(4)和式(5)分別對滑動窗口里面的圖像幀位移向量和重構的三維點進行修正:

(4)

(5)

其中,i∈{S,k},S為滑動窗口中最早的關鍵幀序號。

Figure 2 Camera coordinate system圖2 攝像機坐標系

|headingk-headingk-1|≤η

(6)

|distk-distk-1|≤δ

(7)

Figure 3 視覺定位軌跡與RTK-GPS軌跡對比圖圖3 Comparison between visual localization and RTK-GPS

Figure 4 Absolute value of heading change estimated by localization圖4 視覺定位估算的相鄰航向角變化絕對值

式(6)為姿態閾值濾波器的航向角濾波條件,式(7)為位移向量的濾波條件,η和δ為預設的閾值,需根據實際行走地形設定。一旦估算的姿態不符合以上兩個濾波條件之一,則該估算姿態無效并忽略當前圖像幀,重新捕獲下一幀圖像進行姿態估算。一旦連續5幀圖像都無法滿足濾波條件時,則認為視覺定位出現較大誤差,算法停止。圖5為采用本文方法修正后的視覺定位軌跡和RTK-GPS定位軌跡對比圖,姿態閾值濾波器有效抑制了漂移現象。本文在后續實驗中將此方法整合至系統,對視覺定位軌跡進行實時修正。

Figure 5 Comparison between refined visual localization and RTK-GPS圖5 修正后視覺定位軌跡與RTK-GPS定位軌跡對比圖

3 實驗結果與分析

實驗選擇在華南農業大學校園內三種不同路面上進行(如圖6場景1~場景3所示)。場景1為空曠平坦的人造草坪標準操場;場景2為地表覆蓋雜草、部分土壤裸露的草地,帶有較多坑洼,單邊種植景觀樹,樹高約3.5 m,株間距5 m;場景3主干道為瀝青地面,道路平均寬度為4.1 m,主干道兩旁種植景觀樹,樹高約3.5 m,株間距5.1 m,道路總長100 m。車輛平臺采用John Deere越野車,圖像采集設備為德國ImagingSource工業攝像機DFK21AU04,采集圖像大小為640 *480像素,存儲格式為JPG。

Figure 6 Experimental environment and agricultural vehicle圖6 實驗場景圖及實驗車輛

攝像機安置于車頂前端(圖6實驗車輛所示),其中心距離地面垂直高度為2.15 m,向下傾斜9.45°。圖像處理所用計算機為SONY VGN-SR16,CPU主頻為2.26 GHz,內存為2 GB,程序開發環境采用Visual Studio 2010,使用C++語言開發。實驗前,使用Camera Calibration Toolbox for Matlab工具箱對攝像機進行校正,獲取其內部參數。在實驗過程中,對所采集的圖像先使用Damien Teney提出的算法在線進行圖像畸形校正[36]。定位對比設備采用John Deere RTK-GPS,GPS實時位置原始數據采用10 Hz方式通過RS232串口通信傳送至圖像處理計算機,經坐標轉換后在軟件界面實時顯示視覺定位與GPS定位跟蹤效果。本文采用相對位置誤差和航向角誤差作為衡量視覺定位算法跟蹤效果的主要指標:

(8)

Table 1 Data of experimental environment 1

Table 2 Data of Experimental environment 2

Table 3 Data of experimental environment 3

估算的車輛位置坐標,xgi,ygi為對應時刻GPS原始定位數據轉后的位置坐標。

H=headingvi-headinggi

(9)

其中,headingvi為第i幀圖像估算的車輛航向角,headinggi為對應時刻GPS原始定位數據估算的航向角。

為了檢測算法的魯棒性和精度,車輛保持接近1 m/s的速度分別在三種不同的場景進行測試。η和δ為多次實驗后的經驗值,η調整范圍為40°~50°,δ調整范圍為1.0 m~1.5 m。依據不同行走地形,在此經驗值范圍內反復進行微調,直到系統在該地形上有較好的定位效果,并以此η和δ值作為該地形的閾值。不同場景采用的閾值濾波參數如下:場景1,η=45,δ=1.1;場景2,η=45,δ=1.2;場景3,η=45,δ=1.0。不同場景的位置偏差如表1~表3所示。由實驗統計結果可知,算法在場景1中有較好的跟蹤效果,相對位置偏差平均值為5.459 9%,標準差為4.184 2%,航向角平均偏差為7.717 70,標準差平均值為6.788 90。通過分析可知,場景1地表紋理特征豐富,因此視覺定位算法能捕獲足夠多的特征點進行匹配。同時,場景1為平坦的操場地面,可很好地滿足攝像機移動過程中離地面垂直高度固定不變的約束條件,故算法在場景1中有較好的跟蹤效果。盡管場景2地面紋理特征比場景1更為豐富,但場景2的地面出現較多凹凸不平的坑洼,致使約束條件不能很好地滿足,同時,凹凸的地面也導致人工駕駛難以保持勻速行駛,加劇車輛的顛簸,場景2的相對位置偏差平均值為8.373 1%,標準差為5.110 7%,航向角平均偏差為5.738 9°,標準差平均值為4.834 9°。場景3的地表紋理特征不太豐富,但其地表相對平坦,出現的凹凸地形較場景2少,配合本文的姿態閾值濾波器,跟蹤效果較為理想,相對位置偏差平均值為6.443 94%,標準差為3.811 84%,航向角平均偏差為3.438 3°,標準差平均值為3.134 0°。圖7為場景3其中一次實驗圖像序列離線處理后的視覺定位與GPS定位效果對比圖,由圖6可知,視覺定位軌跡曲線在車輛發生幅度較大的轉向時,算法處理時間滯后于車輛的變化,此時產生位置偏差,并且這個偏差累積在后續的定位跟蹤過程中。但是,只要車輛不發生大幅度轉向,視覺定位算法對于位置和航向角都能有較好的跟蹤精度。對三種場景數據統計分析可知,本文所提出的視覺定位算法在地表紋理特征豐富、地面較為平坦的道路有較好的定位效果。在凹凸不平的地面,加入本文的姿態閾值濾波器能夠在一定程度降低定位誤差。同時,本文在實驗過程中發現提升攝像機高度有利于近似滿足約束條件。本文在實驗過程中發現,只采用單目攝像機難以消除航向角偏差、位置偏差的誤差累積,配合絕對姿態傳感器如慣性測量裝置IMU(Intertial Measurement Unit)或RTK-GPS會是一個解決視覺定位算法誤差累加的方法。

Figure 7 Localization result comparison between the visual localization algorithm and GPS圖7 視覺定位算法與GPS定位軌跡對比圖

4 結束語

本文針對農業機械在果園作業時視覺定位算法進行了研究,設計了基于單目攝像機進行特征點捕獲、特征點跟蹤,采用特定約束條件求解車體姿態的定位算法,并采用RTK-GPS數據作為參照進行了實驗。

(1)針對果園環境復雜,有利于特征點檢測,提出了采用blob和corner算子配合非最大值抑制算法產生特征點,并采用SAD進行匹配,實驗表明每幀圖像檢測約600~900個特征點,所耗平均時間為38 ms。

(2)基于特征點匹配方法求解車體位置與航向角信息。同時,基于車體行進過程中前方小塊區域近似平坦,攝像機在移動過程中離地垂直高度近似固定不變的假設求解車體位移向量的絕對尺度,配合車輛姿態閾值濾波器實時修正所估算的位姿。

(3)在模擬果園環境的三種不同場景進行了實車實驗。三種不同場景的平均位置偏差分別為5.459 9%、8.373 1%、6.443 94%;三種不同場景的航向角變化平均值分別為7.717 7°、5.738 9°、3.438 3°。實驗結果表明,加入車輛姿態閾值濾波器的視覺定位算法,能夠有效降低因地形起伏不平所引致的誤差,在一定程度上提高了果園車輛自動導航的可靠性和適用性。

從現有的實驗結果來看,研究的算法是可行的,但定位精度還達不到RTK-GPS的厘米等級,在后期研究工作中,可與其他傳感器技術如輪系里程計、慣性導航設備或GPS 等相結合,能滿足如果園噴霧、 施藥等作業的精確定位要求。同時,車輛的顛簸引起攝像頭的俯仰也會對定位精度產生影響。因此,多傳感器信息融合、將機器學習和模式識別新方法引入至視覺定位系統,采用GPU進行大規模的并行計算使算法從根本上得到加速將是下一步的主要研究工作。同時,在其他傳感器信號受干擾的地區,如溫室、南方山區或果園環境,GPS信號會丟失,本文方法可作為一種低成本的輔助定位方式,起到補償 GPS 誤差的作用。

[1] Luo Xi-wen,Ou Ying-gang,Zhao Zuo-xi,et al.Research and development of intelligent flexible chassis for precision farming[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2005,21(2):83-85.(in Chinese)

[2] Li M,Imou K,Wakabayashi K,et al.Review of research on agricultural vehicle autonomous guidance[J].Int J Agric & Biol Eng,2009,2(3):1-16.

[3] Subramanian V, Burks T F, Arroyo A A.Development of machine vision and laser radar based autonomous vehicle guidance systems for citrus grove navigation[J].Computers and Electronics in Agriculture,2006,53(2):130-143.

[4] Luo Xi-wen, Zhang Zhi-gang,Zhao Zuo-xi,et al.Design of DGPS navigation control system for Dongfanghong X-804 tractor[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2009,25(11):139-145.(in Chinese)

[5] Chen Yan, Zhang Man,Ma Wen-qiang,et al.Positioning method of integrated navigation based on GPS and machine vision[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(3):126-130.(in Chinese)

[6] Zhang Hui-chun,Zheng Jia-qiang,Zhou Hong-ping.Positioning accuracy analysis of RBN DGPS applied in precision forestry[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(7):210-213.(in Chinese)

[7] Wan Li-qin,Qiu Bai-jing.Experiment and study of the positioning accuracy of DGPS in precision agriculture[J].Journal of Agricultural Mechanization Research,2003 (1):115-117.(in Chinese)

[8] Liu Pei,Chen Jun,Zhang Ming-ying.Automatic control system of orchard tractor based on laser navigation[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2011,27(3):196-199.(in Chinese)

[9] Wang Ling,Liu Si-yao,Lu Wei,et al.Laser detection method for cotton orientation in robotic cotton picking[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2014,30(14):42-47.(in Chinese)

[10] Feng Juan,Liu Gang,Si Yong-sheng,et al.Construction of laser vision system for apple harvesting robot[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2013,29(1):32-36.(in Chinese)

[11] Xue Jin-lin,Zhang Shun-shun.Navigation of an agricultural robot based on laser radar[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(9):55-60.(in Chinese)

[12] Li Yong-jian. Robot Monto Carlo self-localization method based on combination of vision sensors and laser range finder[J].Transactions of the Chinese Society for Agricultural Machinery,2012,43(1):170-174.(in Chinese)

[13] Feng Juan,Liu Gang,Si Yong-sheng,et al.Algorithm based on image processing technology to generate navigation directrix in orchard[J].Transactions of the Chinese Society for Agricultural Machinery,2012,43(7):185-189.(in Chinese)

[14] Wu Jia-yi,Yang Qing-hua,Bao Guan-jun,et al.Algorithm of path navigation line for robot in forestry environment based on machine vision[J].Transactions of the Chinese Society for Agricultural Machinery,2009,40(7):176-179.(in Chinese)

[15] Xiong Jun-tao,Zou Xiang-jun,Chen Li-juan,et al.Visual position of picking manipulator for disturbed litchi[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2012,28(14):36-41.(in Chinese)

[16] Jiang Huan-yu,Peng Yong-shi,Shen Chuan,et al.Recognizing and locating ripe tomatoes based on binocular stereo vision technology[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2008,24(8):279-283.(in Chinese)

[17] Zhou Jun,Chen Qin,Liang Quan.Vision navigation of agricultural mobile robot based on reinforcement learning[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):53-58.(in Chinese)

[18] Zhang Hao,Chen Yong,Wang Wei,et al.Positioning method for tea picking using active computer vision[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(9):61-65.(in Chinese)

[19] Meng Qing-kuan,Zhang Man,Qiu Rui-cheng,et al.Navigation line detection for farm machinery based on improved genetic algorithm[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(10):39-46.(in Chinese)

[20] Li Yu-bo,Zhu Xiao-zhou,Lu Hui-min,et al.Review on visual odometry technology[J].Application Research of Computers,2012,29(8):2801-2804.(in Chinese)

[21] Nister D, Naroditsky O,Bergen J. Visual odometry[C]∥Proc of IEEE International on Conference on Computer Vision and Pattern Recognition,2004:652-659.

[22] Olson C,Matthies L,Schoppers M,et al.Robust stereo ego-motion for long distance navigation[C]∥Proc of IEEE International Conference on Computer Vision and Pattern Recognition,2000:453-458.

[23] Sünderhauf N,Konolige K,Lacroix S,et al.Visual odometry using sparse bundle adjustment on an autonomous outdoor vehicle[C]∥Proc of Autonome Mobile System,2005:157-163.

[24] Zhang J,Singh S,Kantor G.Robust monocular visual odometry for a ground vehicle in undulating terrain[C]∥Proc of the 8th International Conference on Field and Service Robots (FSR),2014:311-326.

[25] Xu Yun-xi,Xiang Zhi-yu,Liu Ji-lin.Initial motion estimation and inliers detection based on particle swarm optimization for stereo odometry[J].Control Theory & Applications,2015,32(1):93-100.(in Chinese)

[26] Wang Ya-long,Zhang Qi-zhi,Zhou Ya-li.Design of 3D visual odometry based on Kinect[J].Journal of Computer Applications,2014,34(8):2371-2374.(in Chinese)

[27] Xia Ling-nan,Zhang Bo,Wang Ying-guan,et al.Robot localization algorithm based on inertial sensor and video odometry[J].Chinese Journal of Scientific Instrument, 2013,34(1):166-172.(in Chinese)

[28] Scaramuzza D,Fraundorfer F,Siegwart R.Real-time monocular visual odometry for on-road vehicles with 1-point RANSAC[C]∥Proc of IEEE International Conference on Robotics and Automation,2009:4293-4299.

[29] Scaramuzza D, Siegwart R.Appearance-guided monocular omnidirectional visual odometry for outdoor ground vehicles[J].IEEE Transactions on Robotics,2008,24(5):1015-1026.

[30] Neubeck A,Gool L V.Efficient non-maximum suppression[C]∥Proc of ICPR,2006:850-855.

[31] Longuet-Higgins H. A computer algorithm for reconstructing a scene from two projections[J].Nature,1981,293(10):133-135.

[32] Shewchuk J R.Triangle:Engineering a 2D quality mesh generator and delaunay triangualtor[M]∥Applied Computational Geometry Towards Geometric Engineering. Berlin:Springer, 2012:203-222.

[33] Moreno-Noguer F,Lepetit V,Fua P.Accurate non-iterativeO(n) solution to the PnP problem[C]∥Proc of IEEE International Conference on Computer Vision,2007:1-8.

[34] SBA: A generic sparse bundle adjustment C/C++ package based on the Levenberg-Marquardt algorithm[CP/OL].[2015-03-17].http://users.ics.forth.gr/~lourakis/sba/.

[35] Kitt B,Rehder J,Chambers A,et al.Monocular visual odometry using a planar road model to solve scale ambiguity[C]∥Proc of European Conference on Mobile Robots,2011:43-48.

[36] Damien’s Matlab library[CP/OL].[2015-03-17].http://www.montefiore.ulg.ac.be/~dteney/dml.htm.

附中文參考文獻:

[1] 羅錫文,區穎剛,趙祚喜,等.農業智能作業平臺的模型的研

制[J].農業工程學報,2005,21(2):83-85.

[4] 羅錫文,張智剛,趙祚喜,等.東方紅X-804拖拉機的DGPS自動導航控制系統[J].農業工程學報,2009,25(11):139-145.

[5] 陳艷,張漫,馬文強,等.基于GPS和機器視覺的組合導航定位方法[J].農業工程學報,2011,27(3):126-130.

[6] 張慧春,鄭加強,周宏平.精確林業 GPS 信標差分定位精度分析[J].農業工程學報,2011,27(7):210-213.

[7] 萬麗芹,邱白晶.GPS 在精確農業應用中定位精度的實驗研究[J].農機化研究,2003 (1):115-117.

[8] 劉沛,陳軍,張明穎.基于激光導航的果園拖拉機自動控制系統[J].農業工程學報,2011,27(3):196-199.

[9] 王玲,劉思瑤,盧偉,等.面向采摘機器人的棉花激光定位算法[J].農業工程學報,2014,30(14):42-47.

[10] 馮娟,劉剛,司永勝,等.蘋果采摘機器人激光視覺系統的構建[J].農業工程學報,2013,29(1):32-36.

[11] 薛金林,張順順.基于激光雷達的農業機器人導航控制研究[J].農業機械學報,2014,45(9):55-60.

[12] 李永堅.融合視覺和激光測距的機器人Monte Carlo自定位方法[J].農業機械學報,2012,43(1):170-174.

[13] 馮娟,劉剛,司永勝,等.果園視覺導航基準線生成算法[J].農業機械學報,2012,43(7):185-189.

[14] 吳佳藝,楊慶華,鮑官軍,等.基于機器視覺的林間導航路徑生成算法[J].農業機械學報,2009,40(7):176-179.

[15] 熊俊濤,鄒湘軍,陳麗娟,等.采摘機械手對擾動荔枝的視覺定位[J].農業工程學報,2012,28(14):36-41.

[16] 蔣煥煜,彭永石,申川,等.基于雙目立體視覺技術的成熟番茄識別與定位[J].農業工程學報,2008,24(8):279-283.

[17] 周俊,陳欽,梁泉.基于強化學習的農業移動機器人視覺導航[J].農業機械學報,2014,45(2):53-58.

[18] 張浩,陳勇,汪巍,等.基于主動計算機視覺的茶葉采摘定位技術[J].農業機械學報,2014,45(9):61-65.

[19] 孟慶寬,張漫,仇瑞承,等.基于改進遺傳算法的農機具視覺導航線檢測[J].農業機械學報,2014,45(10):39-46.

[20] 李宇波,朱效洲,盧惠民,等.視覺里程計技術綜述[J].計算機應用研究.2012,29(8):2801-2805.

[25] 許允喜,項志宇,劉濟林.立體視覺里程計中基于微粒群優化的初始運動估計和內點檢測[J].控制理論與應用,2015,32(1):93-100.

[26] 王亞龍,張奇志,周亞麗.基于Kinect的三維視覺里程計的設計[J].計算機應用,2014,34(8):2371-2374.

[27] 夏凌楠,張波,王營冠,等.基于慣性傳感器和視覺里程計的機器人定位[J].儀器儀表學報,2013,34(1):166-172.

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 精品欧美日韩国产日漫一区不卡| 手机看片1024久久精品你懂的| 国产精品13页| 欧美精品H在线播放| 国产成人一级| 国产精品福利在线观看无码卡| 成年人国产网站| 99精品国产电影| AV片亚洲国产男人的天堂| 91蜜芽尤物福利在线观看| 国产97色在线| 高清不卡毛片| 韩国v欧美v亚洲v日本v| 亚洲v日韩v欧美在线观看| 无码国产伊人| 天天爽免费视频| 视频二区中文无码| 粗大猛烈进出高潮视频无码| 白丝美女办公室高潮喷水视频| 国产精品久久久久久搜索 | 91精品福利自产拍在线观看| 久久美女精品| 丁香婷婷久久| 茄子视频毛片免费观看| 亚洲天堂免费在线视频| 99久久无色码中文字幕| 午夜福利无码一区二区| 亚洲日韩在线满18点击进入| 久久国产乱子| 91欧美亚洲国产五月天| 亚洲愉拍一区二区精品| 国产AV无码专区亚洲A∨毛片| 97视频在线精品国自产拍| 免费国产高清视频| 亚洲高清在线天堂精品| 欧美无遮挡国产欧美另类| 亚洲精品无码AⅤ片青青在线观看| 99国产在线视频| 老色鬼欧美精品| 国产成人精品无码一区二| 国产浮力第一页永久地址| 成人在线观看不卡| 91热爆在线| 久久精品国产精品一区二区| 91小视频在线| 亚洲v日韩v欧美在线观看| 亚洲第一区欧美国产综合 | 中文字幕 91| 色综合中文字幕| 99精品热视频这里只有精品7| 成人亚洲视频| 亚洲AV无码乱码在线观看代蜜桃| 国产精品99一区不卡| 99精品这里只有精品高清视频| 亚洲黄色成人| 九九热精品视频在线| 国产第二十一页| 亚洲精品第五页| 影音先锋丝袜制服| 伊在人亞洲香蕉精品區| 国模粉嫩小泬视频在线观看| 第九色区aⅴ天堂久久香| 国产h视频在线观看视频| 国产第一页屁屁影院| 亚洲欧美色中文字幕| 精品福利视频导航| 久久这里只有精品国产99| 国产美女在线免费观看| 精品人妻AV区| 国产女人在线视频| 天堂av高清一区二区三区| 久久综合色天堂av| 日韩高清欧美| 欧美性精品| 丁香婷婷激情综合激情| 欧美区日韩区| 夜夜操天天摸| 日韩资源站| 国产午夜一级淫片| 亚洲视频四区| 久草视频精品| 依依成人精品无v国产|