白曉平,胡靜濤,王 卓
?
基于視覺伺服的聯合收割機群協同導航從機定位方法
白曉平,胡靜濤※,王 卓
(1. 中國科學院沈陽自動化研究所,沈陽 110016; 2. 中國科學院網絡化控制系統重點實驗室,沈陽 110016)
針對收割機群協同導航從機實際定位需求,在分析主機與從機間相對位置關系的基礎上,提出了一種采用視覺系統求解靶標投影矩形區域形心坐標,并以此作為導引信息,引導相對位姿測量裝置測量從機相對主機位姿,實現從機精確定位的方法。重點對從機定位方法中需解決的運動靶標跟蹤和對靶控制2個關鍵問題進行了研究,提出了一種基于雙重波門的運動靶標跟蹤方法和一種基于變尺度變論域模糊控制的對靶控制方法。試驗結果表明,該文所提定位方法基本不受收割機前進速度的影響,不同速度最大偏差的標準差為0.003 5 m,平均偏差的標準差為0.002 3 m。
農業機械;控制;導航;收割機群;機群定位;視覺伺服;對靶控制
隨著中國工業化、城鎮化不斷深入推進,中國農業呈現出集約化、規模化、產業化的發展趨勢,農業機械化作業水平迅速提高。為提高田間作業效率、降低能源消耗,出現了多臺同種或異種農機裝備在田間聯合作業的機群編隊作業模式,并逐漸成為大規模農機裝備應用的發展趨勢[1]。多機協同導航技術是農機導航系統需要解決的問題,具有重要的研究價值。
目前,國內關于農業機械多機協同導航技術的研究鮮有報道,國外對農業機械多機協同導航技術的研究主要集中在機群定位技術和隊形保持控制技術兩方面[2-5],本文主要研究機群定位技術。農機的定位方法包括全局定位和相對定位2種[6]。全球衛星導航系統(global navigation satellite system,GNSS),是一種典型的全局定位方法,安裝GNSS的每臺農機均可直接得到在全局坐標系下的坐標[7-11]。因此,可采用在機群中每臺農機上均配備一臺高精度GNSS的方法來解決機群中各農機的定位問題。該方法是最為簡單的一種機群定位方法,但通常價格便宜的民用GNSS精度不高,而高精度GNSS價格昂貴[12-15],在每臺農機上安裝一臺高精度GNSS提高了機群自主作業系統的成本。機器視覺是一種典型的相對定位方法,該方法根據作物行、作業區域與非作業區域在圖像中的特征來確定自身的位姿信息[16-21]。由于傳統基于視覺的相對定位方法根據作物信息特征實現定位,無法獲知自身與其他農機間的位置關系[22-25],不能保持設定隊形作業。因此,傳統基于視覺的相對定位方法不能夠滿足收割機群自主作業的定位需求。
鑒于上述分析,針對聯合收割機群協同導航系統,本文提出了一種基于視覺伺服的從機定位方法。
1.1 基于視覺伺服的從機定位方案
主從結構的收割機群以一臺收割機作為主機,其余收割機均作為從機,與主機保持設定的橫向距離和縱向距離完成收獲作業任務。為研究主從結構的收割機群中從機與主機間的相對位置關系,本文定義了一個UTM坐標系作為全局坐標系。主從結構的收割機群中任意一臺從機與主機在UTM坐標系下的相對位置關系可由如圖1所示的幾何模型來描述。
設主機定位點和從機定位點在UTM坐標系下的坐標分別為O(x,y)、O(x,y),由圖1中主機與從機間的相對位置關系,從機定位點坐標

式中x,y分別為點O橫坐標和縱坐標;x,y分別為點O橫坐標和縱坐標;1為從機的航向角,rad;2為向量OO對于向量AB的偏轉角,rad;為主機定位點與從機定位點間的距離,m。定義(,2)為從機相對主機的位姿向量。
注:A、B分別為主機的前軸中心和后軸中心,O為AB的中點;A、B分別為從機的前軸中心和后軸中心,O為AB的中點;1為從機的航向角,rad;2為向量OO對于向量AB的偏轉角,rad;為主機定位點與從機定位點間的距離,m。
Note:A,Bare front axle center and rear axle center of master respectively,andOis midpoint ofAB;A,Bare front axle center and rear axle center of slave respectively, and Ois midpoint ofAB.;1is heading angle of slave, rad;2is deflection angle of vectorOOrelative to vectorAB, rad;is distance between master locating point to slave locating point, m.
圖1 主機與從機相對位置關系示意圖
Fig.1 Relative position between master and slave
式(1)中,從機航向角1由航向傳感器直接測量;主機定位點坐標可由安裝在主機上的高精度GPS測量;因此,僅需在從機上安裝相對位姿測量裝置測量出從機相對主機的位姿,即可計算出任意一臺從機定位點的坐標。本文采用在主機定位點安裝靶標,從機定位點安裝相對位姿測量裝置的方案測量從機相對主機位姿,所設計的相對位姿測量裝置如圖2a所示,實物如圖2b所示。
a. 相對位姿測量裝置結構圖
a. Structure of relative position and pose measurement device
b. 相對位姿測量裝置實物圖
b. Photo of relative position and pose measurement device
1.傳感器安裝架 2.單目攝像機 3.激光測距傳感器 4.云臺旋轉控制電機 5.垂直方向旋轉軸 6.云臺主支架 7.云臺底座 8.水平方向旋轉軸 9.水平方向編碼器 10.垂直方向編碼器
1.Sonsor mounting rack 2.Monocular vision 3.Laser distance sensor 4.Cradle head spin control motor 5.Vertical rotation axis 6.Mast section of cradle head 7.Base of cradle head 8.Horizontal rotation axis 9.Horizontal encoder 10. Verticlal encoder
注:圖2a中,O-XYZ為云臺旋轉坐標系。
Note: In Fig.2a,O-XYZrepresents rotating coordinate.
圖2 相對位姿測量裝置
Fig.2 Relative pose measurement device
相對位姿測量裝置采用視覺測量的方法實現導引功能,激光測距傳感器保證了測距數據的高精度。作業過程中,單目視覺系統(攝像機)不斷拍攝安裝在主機上的靶標圖像,自動提取圖像坐標系下靶標投影區域,計算靶標投影區域形心坐標。對靶控制器根據靶標投影區域形心位置與圖像中心位置偏差計算控制量,控制云臺旋轉,導引激光測距傳感器對準靶標形心投射光束。當激光測距傳感器對準靶標投射光束時,數據采集系統采集激光測距傳感器、云臺俯仰角、水平方向旋轉角數據。數據采集完成后,系統根據相對位姿測量原理計算從機相對主機的位姿。
由相對位姿測量流程知,如何采用視覺伺服的方法實現準確、快速對靶測量及如何根據測量數據計算從機相對主機的位姿是定位方案中需要解決的2個核心問題。
1.2 相對位姿測量原理
定義靶標投影區域的形心與圖像中心重合時,激光測距傳感器的姿態為對準靶標,如圖3所示。
a. 俯視圖
a. Top view
b. 正視圖
b. Front view
注:圖3a中,為云臺由初始位置到對準位置水平方向旋轉角,rad。圖3b中,點為激光投射點,點為激光束在靶標上的投影點;為云臺的俯仰角,rad。
Note: In Fig.3a,is feathering angle of cradle head, rad. In Fig.3b,is laser source point,andis projection point on target of laser beam;is pitch angle of cradle head, rad
圖3 相對位姿對靶測量示意圖
Fig.3 Relative pose target measurement sketch
如圖3a所示,由于對準時攝像機光軸在水平面上的投影直線通過靶標圓心在水平面上的投影點,攝像機光軸初始方向(X正方向)與向量AB方向相同,云臺由初始位置到對準位置水平方向旋轉角即為向量OO相對于向量AB的偏轉角2。
根據圖3b中幾何關系,主從距離可由式(2)計算得出

式中d為激光投射點與旋轉坐標系原點O間的距離,m;為激光投射點與點間的距離,數值上等于激光測距傳感器測量的距離數據,m;為云臺的俯仰角,rad;為圓柱靶標底面半徑,m。
1.3 基于視覺伺服的對靶控制器總體結構
對靶控制目標:根據靶標投影區域形心在圖像中的位置(1,1),通過對靶控制器計算出云臺水平方向旋轉偏移量及旋轉速度、俯仰偏移量及旋轉速度,調整云臺水平方向旋轉角、俯仰角,快速、準確地將靶標投影區域形心置于圖像平面的中心位置(0,0),即

式中0、0分別表示圖像中心的橫坐標和縱坐標;1、1分別表示靶標形心在圖像坐標系下的橫坐標和縱坐標;為靶標形心與圖像中心間的偏差,pixel。根據式(3)所示的對靶目標設計的對靶控制器結構如圖4所示。
注:0、0分別表示圖像中心的橫坐標和縱坐標;1、1分別表示靶標形心在圖像坐標系下的橫坐標和縱坐標;為靶標形心與圖像中心間的偏差,pixel;1、2分別表示云臺水平方向偏移量和俯仰方向偏移量,pixel;v1、v2分別表示云臺水平方向旋轉速度和俯仰方向旋轉速度,m·s-1。
Note:0,0are abscissa and ordinate of image center;1,1are abscissa and ordinate of target centroid;is deviation between target center and image center, pixel;1,2are horizontal rotary offset and pitch rotary offset of cradle head, pixel;v1,v2are horizontal rotary speed and pitch rotary speed, m·s-1.
圖4 基于視覺伺服的對靶控制器結構
Fig.4 Structure of automatic target controller based on visual servo
定義靶標投影區域形心坐標沿兩坐標軸方向的偏移量分別為

式中1、2分別為沿圖像坐標系軸方向和軸方向靶標形心與圖像中心的坐標偏差,pixel。
1.3.1 基于雙重波門的運動靶標跟蹤
1)圖像色彩特征分析
本文設計的靶標為一底面直徑為0.4 m,高為0.5 m的紅色圓柱體(靶標顏色可根據收割機機身顏色調整,選取原則為區別于機身顏色和作業環境顏色),安裝于綠色收割機頂端。在農田景物圖像中投影區域為一紅色連通矩形區域,如圖5所示。
考慮不同天氣對靶標顏色分量的影響,選取晴天、多云、陰天3種不同天氣情況下靶標圖像各10幅,從圖像中截取靶標區域作為樣本數據,部分數據如圖6所示。

a. 晴天?????b. 多云?????c. 陰天
靶標投影矩形區域所在的小范圍內只含有天空、綠色的收割機和樹木,其顏色與靶標投影矩形區域有明顯差別,可采用YUV模型中的V分量(紅色分量)值進行靶標投影矩形區域分割。
統計3種不同天氣情況下,靶標投影矩形區域內V分量的極大值和極小值,并根據統計結果計算出3種不同天氣情況下V分量的最大值和最小值。如表1所示。

表1 不同天氣下靶標區域V分量值統計結果
由統計結果可知,靶標投影矩形區域內像素點分量變化范圍為165~215。因此,可認為農田景物圖像中分量介于165~215之間的像素點為前景(標記像素為1),其余均識別為背景(標記像素為0),即

式中(,)表示圖像中第行第列的像素值,,∈;表示所有前景像素點的集合。為了驗證以上分割閾值的分割效果,選取晴天、多云、陰天條件下田間靶標圖像各5幅,采用以上閾值進行二值化處理,以晴天、多云、陰天3種不同天氣情況下圖像各1幅來分析分割效果,如圖7所示。
以上分割結果表明,不同天氣情況下,靶標區域均完整的被識別為前景。雖然有部分谷草等干擾被誤識別為前景,但由于靶標所在小范圍內的物體與靶標顏色均有較大差別,靶標投影區域所在的小范圍內(如圖7中圓形虛線框內區域所示)內不存在大的干擾物。由于靶標跟蹤識別過程中,只在小范圍內搜索靶標區域,離靶標矩形區域較遠的干擾物不會對跟蹤識別產生影響。
2)內外波門定義
相鄰兩幀圖像采樣間隔內,靶標投影區域可能作上、下、左、右4種運動或者以上4種運動的合成運動。由于實際作業過程中,收割機前進速度與圖像采樣周期均較小,無論靶標投影矩形區域作何種運動,靶標投影矩形區域所包含的所有像素點最終均落在虛線框1的內部,且包含虛線框2內部的所有像素點,如圖8所示。
由于虛線框1外部的所有像素點均不屬于靶標投影矩形區域,可直接濾掉,定義虛線框1為外波門;由于虛線框2內部所有像素點均屬于靶標投影矩形區域,定義虛線框2為內波門。引入雙重波門后,僅需確定內外波門的中心位置(0,0)及內外波門的尺寸即可計算出靶標投影矩形區域的形心坐標。
3)內外波門參數選取
在雙重波門跟蹤算法中,波門中心的選擇和內外波門間所包含的像素點數決定著算法的實時性和魯棒性。由于主機與從機間距離較遠,且圖像采樣周期、從機與主機間的相對運動速度均較小,相鄰兩幀圖像中靶標投影矩形區域形心位置變化很小,可將前一幀圖像中靶標投影矩形區域的形心位置作為當前幀波門的中心。
內外波門間所包含的像素點數由內外波門尺寸決定,與前一幀圖像中靶標投影矩形區域的尺寸和相鄰兩幀圖像采樣間隔內靶標投影矩形區域在圖像坐標系下移動的最大像素數有關。
根據圖8中幾何關系,可由式(6)計算出內波門與外波門的長和寬。

式中d、d表示外波門和內波門的寬度,pixel;d、d表示外波門和內波門的長度,pixel;、表示前一幀圖像中靶標投影矩形區域的寬度和長度,pixel;d表示靶標投影矩形區域形心單采樣周期內移動的最大像素數,pixel。d大小與主機與從機的相對運動最大速度有關,結合靶標成像原理,可由式(7)計算得到。
(7)
式中max表示主機與從機間相對運動的最大速度,m/s;表示圖像采樣周期,s;l表示前一幀測量得到的主從距離,m;d表示單位像素所表示的距離,m/pixel;表示攝像機的焦距,m。
為了提高跟蹤的實時性,靶標跟蹤過程中只計算靶標投影矩形區域形心位置及靶標投影矩形區域所包含的像素數,靶標投影矩形區域的寬度及長度可由式(8)估算得出。

式中S為前一幀圖像中靶標投影矩形區域所包含像素數,為靶標底面直徑與高度的比值。
4)內外波門參數選取方法的普適性
由于收割機實際作業過程中,車身的振動、姿態變化均可能使得靶標投影區域的幾何形狀產生較小畸變,投影區域發生微小旋轉。以上2種情況均有可能使得靶標投影區域超出外波門。為解決以上問題,提高方法的普適性,實際應用中可將外波門設置成半徑為R的圓,半徑R可由式(9)計算

式中d為畸變增量,pixel;圓形的外波門可保證在靶標投影區域發生旋轉的情況下,仍能包含靶標投影區域的所有像素點;畸變增量d可防止因投影區域發生畸變而使得投影區域超出外波門。由于從機與主機之間的距離一般大于20 m,且攝像頭與靶標形心基本處于同一高度,拍攝角度基本保持水平,靶標投影區域的畸變是很微小的,d可根據試驗測量得出,一般為3~8像素。
5)靶標形心坐標計算
根據內外波門的定義及所確定的內外波門參數,當前幀圖像中靶標投影矩形區域的形心坐標

式中x,y分別為波門中心的橫坐標和縱坐標;為內波門與外波門間所包含的像素點集合。
1.3.2 變尺度變論域模糊控制器設計
靶標運動具有隨機性,且不同距離下存在尺度變化,很難用精確的數學模型描述,因此經典控制效果不佳。由于變論域模糊控制具有不依賴于精確數學模型的優勢,本文基于變論域模糊控制思想,以1和2為輸入變量,以云臺的水平方向旋轉偏移量1、俯仰偏移量2、水平方向旋轉速度v1、俯仰運動速度v2為輸出變量,設計相對較優的控制律,使得偏差→0。
1)輸入輸出變量的論域及其隸屬度函數
模糊控制器輸入為1和2,初始論域分別設為[?200,300]、[?300,300]。輸出變量為云臺的水平方向偏移量1、俯仰偏移量2、水平方向旋轉速度v1、俯仰運動速度v2,初始論域分別為[?1 000,1 000]、[?5 000, 5 000]、[60,1 000]、[60,500]。
如圖9所示,輸入輸出的模糊論域均設為[?6,6],并分別在此論域上定義7個子集:負大(NB)、負中(NM)、負小(NS)、零(ZO)、正小(PS)、正中(PM)、正大(PB)。各個模糊子集的隸屬度函數選取為高斯函數

式中e為自然常數;u(e)為輸入變量e在第條模糊規則中模糊語言值的隸屬度;y為第條模糊規則中模糊輸出語言值的隸屬度函數中心點;為標準差。
注:NB,NM,NS,ZO,PS,PM,PB為輸入輸出模糊集合語言變量。
Note: NB, NM, NS, ZO, PS, PM, PB were linguistic of input and output fuzzy sets
圖9 隸屬度函數
Fig.9 Membership degree function
2)模糊控制規則
根據云臺的控制經驗,模糊控制規則的設定原則為:靶標投影矩形區域形心偏離圖像中心位置較遠時,即1(2)較大時,云臺應該快速旋轉,提高控制器的動態性能,即旋轉速度v1(v2)值應取得較大,偏移量1(2)也相應的取得大一些。靶標投影矩形區域形心位置離中心位置較近時,即1(2)較小時,云臺應該旋轉的慢一些,以減小超調量,即旋轉速度v1(v2)值應取得較小,位移偏移量1(2)也相應取較小值。根據以上原則,速度變量v1、v2和偏移量1、2的模糊控制規則如表2所示。

表2 模糊控制規則表
3)模糊推理及去模糊化
本文采用乘積推理機、單值模糊器和中心平均解模糊相結合的算法[26-27],得到云臺的水平方向旋轉速度、俯仰速度、水平方向偏移量和俯仰偏移量。

式中p為偏移量;v為旋轉速度;T為偏差輸入比例因子,K、K為偏移變量與速度變量的輸出比例因子。
4)論域伸縮因子
隨著1(2)的減小,為了在不增加模糊規則的前提下,實現精確控制,需要更細致的劃分輸入、輸出論域[28-29]。本文選取指數函數作為伸縮因子[30],輸入輸出變量的伸縮因子分別為

式中?、2分別為輸入變量1、2的伸縮因子;1、2分別為輸出變量1、2的伸縮因子;1、2分別為輸出變量v1、v2的伸縮因子;?、2為常量表示比例因子;?、2為伸縮幅度調節量。
實際應用中,論域伸縮因子可與輸入比例因子、輸出比例因子結合控制論域的伸縮,輸入輸出比例因子修正為

5)變尺度對靶規則設計
實際對靶過程中,為了獲得較高的對準頻率和對準精度,對準規則一般選擇為

式中為終止常數。
如圖10所示,當攝像機與靶標間距離為0(一般選擇靶標投影區域所包含像素點數為10 000時,攝像機與靶標間的距離作為基準距離0)時,通過試驗測得滿足定位精度及輸出頻率的值為0。當0時,攝像機與靶標間距離分別為0和時,激光束在靶標上的投影點分別為點和點。
由圖10中幾何關系

式中0為點到連線的距離,m;為點′到′連線的距離,m;0為點到連線的距離,m;為點′到′′連線的距離,m。0為靶標與攝像機間的基準距離,m;0為攝像機與靶標間距離為0時的終止常數。由式(16)知,隨著靶標與攝像機間距離的增大,值逐漸增大。如果選擇固定的值,測量精度隨距離的增大而降低。為了提高測量精度,需要設計變尺度的值。設計規則為:求取變尺度的值,隨著攝像機與靶標間距離的變化,值基本保持不變,即:=0恒成立。由式(16)值應滿足
(17)
因此,滿足=0的值

由于、0均小于靶標半徑,相對攝像機與靶標間距離很小,可忽略不計,即
(19)
由成像原理知,攝像機到靶標距離的平方和靶標在圖像坐標系中所成的區域面積成反比

式中、0分別表示攝像機到靶標距離為、0時,靶標在圖像坐標系下投影矩形區域的面積。因此,變尺度值為
(21)
2.1 試驗平臺與試驗方法
2.1.1 試驗平臺
為了驗證本文算法的有效性,將自主研發的相對位姿測量裝置安裝在從機駕駛室頂端,將靶標安裝在主機駕駛室頂端,將自主研發的自主導航裝置安裝在跟隨收割機上,搭建了相對定位及跟隨導航試驗平臺,進行了定位試驗和跟隨導航試驗,試驗現場如圖11a所示。
a. 試驗現場
a. Experiment site
試驗過程中,實時采集從機的航向信息,采樣頻率為100 Hz,測量精度為±1°。在主機與從機上分別配備一套高精度GPS,定位精度為2 cm。主機上的高精度GPS安裝于紅色靶標上底面的圓心處,用于測量主機的UTM坐標;而從機上的高精度GPS安裝在云臺頂端,采集的定位數據用于與本文提出的定位方法所獲取的定位數據進行對比。同時使用采集的定位數據計算從機相對設定路徑的偏差,驗證本文所提定位方法能否用于跟隨導航。網關設備實現了主機與從機間的互通互聯,可將主機的UTM坐標廣播給從機。
2.1.2 試驗過程與方法
一般情況下,收割機群在作業過程中,主機與從機的作業路徑平行,且主機與從機間應保持一定縱向距離作業,以防止碰撞。因此,本文選擇如圖11b所示的路徑作為主機和從機的試驗路徑。初始狀態下,主機停在點2,從機停在點1。
試驗步驟如下:1)打開試驗相關的RTK-GPS基準站系統、試驗數據檢測記錄系統,啟動相對定位裝置;2)首先設定主機的路徑,選擇一處長度200 m左右收割過的田塊,記路徑2個端點分別為點0、點0,該目標路徑為線,作為主機的路徑。以主機路徑為基準,采用線偏移的方法規劃出從機路徑,并將從機路徑通過無線節點發送給從機;3)將主機與從機停靠在各自導航路徑線的端內側,并使車輛盡量停靠在線上;4)啟動相對定位裝置,控制主機以0.8 m/s的速度從點2沿線段00運動到點0,啟動自動導航裝置,控制從機與主機保持橫向偏移5 m,縱向偏移30 m跟隨主機沿線段11運動;分別采用高精度GPS(定位精度為2 cm)和本文所述的定位裝置測量從機的UTM坐標,并根據式(22)計算定位偏差,根據式(23)計算跟隨導航偏差;5)當主機到達設定點0時,關閉定位裝置及數據采集系統,結束一次定位導航試驗,保存定位偏差數據及跟隨導航偏差數據;6)重復步驟3)~5),重復試驗4次;7)設定前進速度為1.0、1.2 m/s,重復步驟3)~6)。
從機定位偏差由式(22)計算得出

式中x1,y1分別為高精度GPS測量的從機第個軌跡點UTM橫縱坐標;x2,y2分別為定位裝置所測量的從機第個軌跡點UTM坐標;為軌跡點數;d為第個點的定位偏差,m;e為定位平均偏差,m。
從機的跟隨導航偏差d由式(23)計算得出

式中++=0為設定路徑00的直線方程;d為第個軌跡點的橫向偏差,m;e為跟隨導航平均偏差,m。
2.2 試驗結果與分析
2.2.1 試驗結果
定位偏差統計結果如表3所示,當收割機前進速度為0.8 m/s時,平均定位偏差為0.127 9 m;當前進速度為1.0 m/s時,平均定位偏差為0.128 6 m。當前進速度為1.2 m/s時,平均定位偏差為0.132 1 m。
從機跟隨導航試驗結果如表4所示,當收割機前進速度為0.8 m/s時,平均導航偏差為0.224 9 m;當前進速度為1.0 m/s時,平均導航偏差為0.239 8 m。當前進速度為1.2 m/s時,平均導航偏差為0.252 2 m。
2.2.2 試驗結果分析
定位試驗結果分析:由表3結果計算得知,不同速度最大偏差的標準差為0.003 5 m,平均偏差的標準差為0.002 3 m,這表明最大偏差與平均偏差隨速度的變化波動很小,受到速度的影響不大。這是因為作業過程中,主機與從機間基本保持相對靜止狀態或者相對運動速度非常小的相對運動狀態,相對位姿測量裝置相對靶標移動的距離較小,所測量的距離數據非常接近真實值,定位偏差受到前進速度的影響也就較小。

表3 不同速度從機定位偏差統計結果

表4 不同速度從機跟隨導航偏差統計結果
定位偏差成因分析:偏差成因可分為兩方面,一方面計算定位數據所采用的激光測距儀、航向傳感器、轉角編碼器均具有一定偏差,這不可避免的會給系統帶來一定的定位偏差;另一方面受到云臺旋轉最小步長的限制,存在一定的對準偏差,這也會給系統帶來一定的定位偏差。
從機跟隨導航試驗結果分析:跟隨導航在不同速度下,跟隨導航結果均小于0.3 m,表明本文所提定位方法可在收割、耕整地等大面積農業環節的自主導航中應用。
針對聯合收割機群協同導航從機實際定位需求,提出了一種基于視覺伺服的從機定位方法,研發了相對定位裝置。
1)針對運動靶標跟蹤問題,采用設置內外波門的方法限定靶標投影矩形區域搜索范圍,提高了運動靶標跟蹤的實時性。相較于其他運動靶標跟蹤方法,算法實現簡單、復雜度低、實時性高,能夠實現對特定目標的定位跟蹤。
2)針對精確對靶控制問題,引入變尺度對準規則和論域伸縮因子,提高控制器對不同距離的適應性和零點附近的定位精度。相較于其他的對靶控制方法,變尺度對準規則的引入,提高了零點附近的對靶精度。
通過試驗證明,本文所提方法的定位精度基本與前進速度無關,不同速度最大偏差的標準差為0.003 5 m,平均偏差的標準差為0.002 3 m。前進速度0.8、1.0和1.2 m/s時,從機平均定位偏差分別為0.127 9、0.128 6和0.132 1 m,從機跟隨導航偏差分別為0.224 9、0.239 8和0.252 2 m。本研究中的運動靶標跟蹤、對靶控制等方法也可為西紅柿、草莓、黃瓜等經濟作物的智能采摘提供參考。
[1] 胡靜濤,高雷,白曉平,等. 農業機械自動導航技術研究進展[J]. 農業工程學報,2015,31(10):1-10.
Hu Jingtao, Gao Lei, Bai Xiaoping, et al. Review of research on automatic guidance of agricultural vechicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(10): 1-10. (in Chinese with English abstract)
[2] Shearer S A, Pitla S K, Luck J D. Trends in the automation of agricultural field machinery[C]//In Proc. of the 21st Annual Meeting of the Club of Bologna. Italy, 2010.
[3] Bochtis D D, S?rensen C C. Conceptual model of fleet management in agriculture[J]. Biosystems Engineering, 2010, 105(1): 41-50.
[4] Vougioukas S G. A distributed control framework for motion coordination of teams of autonomous agricultural vehicles[J]. Biosystems Engineering, 2012, 11(3): 284-297.
[5] Johnson D A, Naffin D J, Puhalla J S, et al. Development and implementation of a team of robotic tractors for autonomous peat moss harvesting[J]. Journal of Field Robotics, 2009, 26(6/7): 549-571.
[6] 姬長英,周俊. 農業機械導航技術發展分析[J]. 農業機械學報,2014,45(9):44-54.
Ji Changying, Zhou Jun. Current situation of navigation technologies for agricultural machinery[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(9): 44-54. (in Chinese with English abstract)
[7] 羅錫文,張智剛,趙祚喜,等. 東方紅X-804拖拉機的DGPS自動導航控制系統[J]. 農業工程學報,2009,25(11):139-145.
Luo Xiwen, Zhang Zhigang, Zhao Zuoxi ,et al. Design of DGPS navigation control system for Dongfanghong X-804 tractor[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(11): 139-145. (in Chinese with English abstract)
[8] 李逃昌,胡靜濤,高雷,等. 一種與行駛速度無關的農機路徑跟蹤方法[J]. 農業機械學報,2014,45(2):59-65.
Li Taochang, Hu Jingtao, Gao Lei, et a1. Agricultural machine path tracking method irrelevant to travel speeds[J]. Transaction of the Chinese Society for Agricultural Machinery, 2014, 45(2): 59-65. (in Chinese with English abstract)
[9] 郭娜,胡靜濤,王鶴. 基于GPS導航的插秧機作業控制系統[J]. 農業機械學報,2013,44(1):200-204.
Guo Na, Hu Jingtao, Wang He. Intelligent operation control system for rice transplanter based on GPS navigation[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(1): 200-204. (in Chinese with English abstract)
[10] 周建軍,張漫,汪懋華,等. 基于模糊控制的農用車輛路線跟蹤[J]. 農業機械學報,2009,40(4):151-156.
Zhou Jianjun, Zhang Man, Wang Maohua, et al. Path tracking for agricultural vehicle based on fuzzy control[J]. Transaction of the Chinese Society for Agricultural Machinery, 2009, 40(4): 151-156. (in Chinese with English abstract)
[11] 陳軍,朱忠祥,鳥巢諒,等. 基于神經網絡的農用車輛自動跟蹤控制[J]. 農業機械學報,2007,38(5):131-133.
Chen Jun, Zhu Zhongxiang, Torisu R, et a1. Automatic on-tracking control of farm vehicle based on neural network[J]. Transactions of The Chinese Society of Agricultural Machinery, 2007, 38(5): 131-133. (in Chinese with English abstract)
[12] 劉兆祥,劉剛,籍穎,等. 基于自適應模糊控制的拖拉機自動導航系統[J]. 農業機械學報,2010,41(11):148-152,162.
Liu Zhaoxiang, Liu Gang, Ji Ying, et al. Autonomous navigation system for agricultural tractor based on self-adapted fuzzy control[J]. Trasactions of the Chinese Society for Agricultural Machinery, 2010, 41(11): 148-152, 162. (in Chinese with English abstract)
[13] 劉軍,袁俊,蔡駿宇,等. 基于GPS/INS和線控轉向的農業機械自動駕駛系統[J]. 農業工程學報,2016,32(1):46-53.
Liu Jun,Yuan Jun,Cai Junyu, et al. Autopilot system of agricultural vehicles based on GPS/INS and steer-by-wire[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(1): 46-53. (in Chinese with English abstract)
[14] 劉柯楠,吳普特,朱德蘭,等. 基于GPS的太陽能平移式噴灌機自主導航系統設計與試驗[J]. 農業工程學報,2016,32(16):89-94.
Liu Kenan, Wu Pute, Zhu Delan, et al. Design and experiment of autonomous navigation system for solar powered linear move sprinkler machine based on GPS[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(16): 89-94. (in Chinese with English abstract)
[15] 張美娜,呂曉蘭,陶建平,等. 農用車輛自主導航控制系統設計與試驗[J]. 農業機械學報,2016,47(7):42-47.
Zhang Meina, Lü Xiaolan, Tao Jianping, et al. Design and experimental of automatic guidance control system in agricultural vechicle[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(7): 42-47. (in Chinese with English abstract)
[16] 孟慶寬,張漫,楊耿煌,等. 自然光照下基于粒子群算法的農業機械導航路徑識別[J]. 農業機械學報,2016,47(6):11-20.
Meng Qingkuan, Zhang Man, Yang Genghuang ,et al. Guidance line recognition of agricultural machinery based on particle swarm optimization under natural illumination[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 11-20. (in Chinese with English abstract)
[17] 湯一平,王偉羊,朱巍,等. 基于機器視覺的茶隴識別與采茶機導航方法[J]. 農業機械學報,2016,47(1):45-50.
Tang Yiping, Wang Weiyang, Zhu Wei, et al. Tea ridge identification and navigation method for tea-plucking machine based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 45-50. (in Chinese with English abstract)
[18] 李景彬,陳兵旗,劉陽. 棉花鋪膜播種機導航路線圖像檢測方法[J]. 農業機械學報,2014,45(1):40-45.
Li Jingbin, Chen Bingqi, Liu Yang. Study on image detection method of navigation route of the cotton plastic film mulch planter[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(1): 40-45. (in Chinese with English abstract)
[19] 何潔,孟慶寬,張漫,等. 基于邊緣檢測與掃描濾波的農機導航基準線提取方法[J]. 農業機械學報,2014,45(11):265-270.
He Jie, Meng Qingkuan, Zhang Man, et al. Crop baseline extraction method for off-road vechicle based onboundary detection and scan-filter[J]. Transactions of the Chinese Society for Agricultural Machinery 2014, 45(11): 265-270. (in Chinese with English abstract)
[20] 趙穎,陳兵旗,王書茂. 基于機器視覺的耕作機器人行走目標直線檢測[J]. 農業機械學報,2006,37(4):81-86.
Zhao Ying, Chen Bingqi,Wang Shumao, et al. Fast detection of furrows based on machine vision on autonomous mobile robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2006, 37(4): 81-86. (in Chinese with English abstract)
[21] 陳嬌,姜國權,杜尚豐,等. 基于壟線平行特征的視覺導航多壟線識別[J]. 農業工程學報,2009,25(12):107-113.
Chen Jiao, Jiang Guoquan, Du Shangfeng, et al. Crop rows using visual navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(12): 107-113. (in Chinese with English abstract)
[22] 王新忠,韓旭,毛罕平,等. 基于最小二乘法的溫室番茄壟間視覺導航路徑檢測[J]. 農業機械學報,2012,43(6):161-166.
Wang Xinzhong, Han Xu, Mao Hanping, et al. Navigation line detection of tomato ridges in greenhouse based on least square method[J]. Transactions of the Chinese Society for Agricultural Machinery, 2012, 43(6): 161-166. (in Chinese with English abstract)
[23] 刁智華,趙明珍,宋寅卯,等. 基于機器視覺的玉米精準施藥系統作物行識別算法及系統實現[J]. 農業工程學報,2015,31(7):47-52.
Diao Zhihua, Zhao Mingzhen, Song Yinmao , et al. Crop line recognition algorithm and realization in precision pesticide system based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(7): 47-52. (in Chinese with English abstract)
[24] 梁習卉子,陳兵旗,姜秋慧,等. 基于圖像處理的玉米收割機導航路線檢測方法[J]. 農業工程學報,2016,32(22):43-49.
Liangxi Huizi, Chen Bingqi, Jiang Qiuhui , et al. Detection method of navigation route of corn harvester based on image processingJ]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(22): 43-49. (in Chinese with English abstract)
[25] 張鐵民,莊曉霖. 基于DM642的高地隙小車的田間路徑識別導航系統[J]. 農業工程學報,2015,31(4):160-167.
Zhang Tiemin, Zhuang Xiaolin. Identification and navigationsystem of farmland path for high-clearance vehicle based on DM642[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(4): 160-167. (in Chinese with English abstract)
[26] 熊中剛,葉振環,賀娟,等. 基于免疫模糊PID的小型農業機械路徑智能跟蹤控制[J]. 機器人,2015(2):212-223.
Xiong Zhonggang, Ye Zhenhuan, He Juan, et al. Small agricultural machinery path intelligent tracking control based on fuzzy immune PID[J]. Robot, 2015(2): 212-223. (in Chinese with English abstract)
[27] 張伶鳦,王潤濤,張長利,等. 基于調虧理論和模糊控制的寒地水稻智能灌溉策略[J]. 農業工程學報,2016,32(13):52-58.
Zhang Lingyi, Wang Runtao, Zhang Changli, et al. Intelligent irrigation strategy based on regulated deficit theory and fuzzy control for rice in cold region[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(13): 52-58. (in Chinese with English abstract)
[28] 牛寅,張侃諭. 輪灌條件下灌溉施肥系統混肥過程變論域模糊控制[J]. 農業機械學報,2016,47(3):45-52.
Niu Yin, Zhang Kanyu. Variable universe fuzzy control of water-fertilizer mixing process in fertigation system under rotational irrigation situation[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(3): 45-52. (in Chinese with English abstract)
[29] 李洪興. 變論域自適應模糊控制器[J]. 中國科學,1999,29(1):33-42.
Li Hongxing. Variable universe adaptive fuzzy logic controller[J]. Science in China, 1999, 29(1): 33-42. (in Chinese with English abstract)
[30] 李琳,周國雄. 基于逆模型解耦的綠茶烘焙變論域模糊控制[J]. 農業工程學報,2014,30(7):258-267.
Li Lin, Zhou Guoxiong. Method of variable universe fuzzy control base on inverse-model decoupling for green tea baking[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(7): 258-267. (in Chinese with English abstract)
Slave positioning method for cooperative navigation of combine harvester group based on visual servo
Bai Xiaoping, Hu Jingtao※, Wang Zhuo
(1.,110016,; 2.,,110016)
With the improvement of the farm mechanization level, the more corporate’ style farming emerges. For example, more than one harvester collaborated with each other completes the task of harvesting operations. The new corporate style farming creates several new challenges for the agricultural machinery navigation, and the group navigation is the trend of agricultural machinery navigation technology. Group positioning and collaborative navigation control are the 2 critical technical problems to be resolved. In order to solve the slave positioning problem, a slave positioning method based on visual servo was proposed. Firstly, the combine group based on mater-slave structure was introduced, and the slave positioning scheme was proposed. In order to fulfill the automatic measurement of the slave position, the relative positioning device was designed. The structure and measurement process of the positioning device were introduced in detail. The positioning device was composed of laser ranging sensor, PTZ (PanTiltZoom)controller and monocular camera. The monocular camera was used to guide the laser ranging sensor to aim at the target. The laser ranging sensor was used to measure the distance between the master and the slave. The laser ranging sensor guaranteed high precision of the measurement data. The position measurement process could be divided into 2 steps. The first step was to measure the relative position posture between the master and the slave. According to the deviation between the target’s center and the image center, the system adjusted the platform’s direction to change the posture of the camera, so that the 2 centers in the target and themage could coincide approximately. After aiming at the target, the laser sensor was triggered to measure the distance between the master and the slave. The second step was to calculate the slave positon. A global localization model was built up to show the relative location relationship between the master and the slave, and the slave’s coordinate under global coordinate system could be calculated. Secondly, in order to solve the 2 key problems in the process of the position measurement, 2 methods were proposed. A method of automatic identification for motion target based on dual windows was proposed to reduce the visual feedback delay. This target identify method filtered out most of the identified area by setting dual windows, and searched the target point only in a small area of the image. A variable-scale variable-universe fuzzy control method was proposed to improve the target control accuracy. This method introduced the contraction-expansion factor to improve the granularity of fuzzy rules without increasing the number of control rules, and introduced the variable scale factor to improve the adaptability to the change in the distance between the master and the slave. Finally, in order to verify the effectiveness of the proposed model and method in this paper, the slave positioning experiments were carried out. When the slave ran at the speed of 0.8, 1.0 and 1.2 m/s, the average positioning error was 0.127 9, 0.128 6 and 0.132 1 m respectively. The experimental results show that the slave positioning accuracy is independent of the forward speed, and can meet the slave positioning requirement.
agricultural machinery; control; navigation; combine group; group positioning; visual servo; target control
10.11975/j.issn.1002-6819.2016.24.008
S220.1
A
1002-6819(2016)-24-0059-10
2016-05-06
2016-11-09
國家高技術研究發展計劃(863計劃)資助項目(2013AA040403);遼寧省科技攻關計劃資助項目(2015104005)
白曉平,博士,主要從事農機導航控制方面的研究。沈陽 中國科學院沈陽自動化研究所,110016。Email:baixiaopin@sia.cn
胡靜濤,教授,博士生導師,主要從事農機精準作業控制技術研究。沈陽 中國科學院沈陽自動化研究所,110016。Email:hujingtao@sia.cn