張 志,王立瑋,楊鈺雪,樊京杭
(國網河北省電力有限公司信息通信分公司,石家莊050000)
二次設備是電網、變電站等建設過程中重要的電網設施部件,一旦二次設備發生故障,將有可能使整個電力系統處于停滯狀態,國內技術中,比如文獻[1]應用機器人的視覺導航,通過CCD 彩色相機來進行圖像采集,進而實現路徑識別,這種方式雖然也能夠采集到二次設備的運行工況,但是視覺導航方式容易受到環境中塵、霧、風雪等環境影響,采集到的圖像不清晰。文獻[2]應用了高清可見光相機,紅外熱成像儀,拾音設備等多種形式的智能化檢測裝置,實現了二次設備的自動化、智能化巡檢,但是遇到雨、雪、風等惡劣天氣時,難以實現周圍三維地形特征的獲取,圖像數據獲取不精確。
根據上述技術不足,本研究對巡檢機器人的關鍵技術進行了研究,提高了導航精度和機器人巡檢能力,下文對新型的巡檢機器人的功能進行描述。
基于上述描述,本研究采用以下技術實現二次設備的巡檢。
(1)本研究采用具有去噪功能的CCD 彩色相機實現圖像的采集與去噪,該技術克服了常規技術中,由于外界云、霧等多種因素影響造成圖像采集像素低、圖像質量差等問題。通過采用紅外熱像儀進行輔助圖像識別和計算機處理技術實現所采集圖像的處理。
(2)本研究的巡檢機器人根據深度攝像頭的視覺導航原理實現導航的軌跡查詢,在進行拐彎、直行等工作以及到達指定位置后用自身設備完成巡檢工作。將深度攝像機坐標系與圖像坐標系之間進行數量轉換,實現巡檢機器人的定位。
基于上述創新點設計,構建出新型的機器人巡檢方案如圖1 所示。

圖1 二次設備巡檢機器人功能架構示意圖Fig.1 Schematic diagram of the functional architecture of the secondary equipment inspection robot
本研究的巡檢機器人在巡檢過程中,通過數據收集,將收集到的紅外圖像、音頻圖像等進行智能預處理后實時傳遞到上一層監控中心。本研究采用多信息通道采集接口,能夠兼容RS485、RS234、無線通訊、TCP/IP 通信協議、CAN 總線、遠程無線數據接收端等多種通訊方式,使得不同的檢測終端都能夠與機器人進行信息通訊。在利用人工智能和通訊技術的基礎上,引入粒子濾波算法的去噪技術實現圖像采集的去噪,進而獲取清晰圖像信息,又采用深度攝像視覺導航原理彌補了現有技術中巡檢位置不足的缺陷,進而實現二次設備全方位的監測,使得二次設備巡檢的工作效率和檢測精度得到大幅度提高。下文對其關鍵技術進行說明。
在常規技術中,二次設備在巡檢過程中,圖像采集容易受到外界天氣或者環境的影響(比如大風、云霧、雨雪天氣),導致采集到圖像不準確。為了獲取較為精確的圖像信息,本研究采用粒子濾波算法實現圖像噪音的過濾,進而輸出較為清晰的采集圖像信息。
在本研究的設計中,假設通過CCD 相機采集到的圖像噪聲的原始坐標點為(x0,y0),則該圖像的噪聲位置和工況可以通過以下函數進行量化表示:

式中:x(k+1)表示二次設備在運行過程中的工況矢量;Fx(k)表示二次設備在運行過程中的位置移動模型;Γω(k)表示二次設備在運行過程中采集到的圖像信息噪聲點移動模型;z(k)表示二次設備在運行過程中的位置矢量;h(x(k))表示系統定位模型;v(k)表示二次設備在運行過程中采集到的圖像釋放出的熱噪點集合。
通過上述數據建模,就可以應用數據公式推導出所巡檢的二次設備在工作過程中的工況移動矩陣、噪聲點移動矩陣。進而輸出與工況移動矩陣、噪聲點移動矩陣相對應的工況矢量及原始工作條件。下文進行具體說明。
(1)在采集到的圖像信息中,針對高斯噪聲干擾因素,假設采集到的二次設備的工況變量函數為X(k)=[x(k) x(k) y(k) y(k)],工況移動矩陣F 通過矩陣表示為

采集到二次設備的噪聲點移動矩陣G 通過矩陣表示為

式中:用字母T 表示巡檢二次設備圖像的采樣間隔。
(2)在采集到的圖像信息中,針對伽馬噪聲干擾因素,假設二次設備工作環境為在高度r 上進行,在進行噪聲測量時,要考慮到其工作的角度,假設工況角度為θ,工作角速度為α,這些數值均為定值,通過1 表示不同的二次設備采集周期,利用紅外技術進行圖像采集后,工況移動矩陣F 用以下函數關系式表示:

通過上述矩陣表示,再通過函數關系式表示二次設備工況的噪聲點移動矩陣G,則有:

(3)在采集到的圖像信息中,針對圖像存在的椒鹽噪聲影響,假設工況變量為X(k)=[x(k) x(k)(k) y(k) y(k)(k)]工況移動矩陣F 通過以下函數表示為

其中噪聲點移動矩陣G 用以下函數表示:

通過上述方法能夠對不清楚的圖像信息進行過濾,如圖2、圖3 所示。

圖2 處理前的圖像信息Fig.2 Image information before processing

圖3 處理后的圖像示意Fig.3 Schematic diagram of processed image
本研究還采用了基于TOF(time of flight)技術的深度攝像頭實現數據采集,依靠的基本原理是通過儀器發射經過處理的紅外光,紅外光到達物體表面后會產生反射光線,在接收反射回來的光線后計算發射光線和反射光線的相位差距或者時間差距來計算出被測物體的具體距離和物體的空間信息,從而根據三角測距原理來計算出被測物體的深度信息。深度攝像頭原理如圖4 所示。

圖4 深度攝像頭原理圖Fig.4 Schematic diagram of depth camera
圖中,(a,b,c)坐標系是為了存儲深度攝像機獲得的深度信息。(d,e,f)與(a,b,c)的關系如下:

深度攝像機坐標系與圖像坐標系的轉換關系為

式中:X,Y,Z 為相機坐標系;θ 為角度。在使用多個深度攝像頭對機器人位置進行定位時,定位位置不可避免的會與實際中有一些偏差,所以如何保證定位的精確性是很重要的,所以要利用算法來確定機器人在二次設備巡檢中的位移變化和偏移變化。k表示具體的時刻,ΔXk和ΔYk表示k 時刻x 方向和y 方向的移動量,Δθk表示k 時刻角度的變化量。
具體的算法方式如下:
第一步首先建立工作地點的模型,確定機器人在工作地點模型中的具體坐標位置。在機器人的實際移動中,臨近時刻的相對的移動量變化非常小,所以k 時刻和k-1 時刻的導航定位變化量為

第二步計算出在k 時刻機器人移動的變化量的高斯偏差,Qde為給定的估計偏差,Qdu為不確定偏差,Qθ為偏移度估計偏差:

第三步在k-1 這個時刻時位移測量的誤差為Rd,偏移度的測量誤差為Rθ,計算出在k 時刻的位移量偏差為

第四步計算出k 時刻時,二次設備巡檢機器人在X 和Y 軸時,還有θ 角度下的相對移動量:

第五步輸出數據后,對比二次設備巡檢機器人在k-1 這個時刻的定位(Xk-1,Yk-1,θk-1)和k 時刻的相對移動信息(ΔXk,ΔYk,Δθk),可以得到二次設備巡檢機器人的定位(Xk,Yk,θk)。其中:

此算法是為了確定二級設備巡檢機器人在每個工作時刻的具體定位,利用深度攝像頭傳輸回的數據分析得出二次設備巡檢機器人的位移、偏移等數據。
第六步誤差判斷:如果二次設備巡檢機器人位移至工作地點的誤差在允許誤差范圍內,此算法結束;如果二次設備巡檢機器人位移至工作地點的誤差在允許誤差范圍外,則從第一步開始重新進行算法運算。
首先在機器人中輸入工作區域的三維模型,由機器人使用多個景深攝像頭來識別和確認周圍的三維實體,從而確定機器人本體所在的位置,通過視覺導航算法保證定位的準確性。
然后機器人開始向工作地點移動,在機器人移動的過程中隨時間進行信息更新,識別機器人本體周邊的環境和機器人自身方向和形態的變化,經過無線傳輸將信息傳輸至監控中心,直至到達工作區域開始對二次設備進行檢測。
為了驗證本文所設計二次設備巡檢機器人視覺導航技術的精確性,特意設置一個對比實驗來進行驗證,使用兩種視覺導航導航系統來進行實驗。第一種是本文所設計的使用多個深度攝像頭為主來進行視覺導航的方式,第二種是用傳統的紅外攝像頭和可見光CCD 為主來進行視覺導航方式。機器人的程序設計采用C 語言來完成,通過STM32 單片機來進行輸入輸出工作。
實驗的地點放在室內,整個實驗區域寬度為1000 cm,長度為1000 cm,有固定的地形障礙物,首先把地形信息傳輸到兩種視覺導航機器人中,由機器人自動導航至工作地點,工作地點的坐標為(900,900),起點坐標為(100,100)。經過對實驗地形的改動進行多次試驗,分析實驗數據,從而得出實驗結果。
第一步創立實驗區域,對實驗區域地形建模傳輸至機器人中,本次對比實驗創建兩個實驗區域。圖5 所示為第一實驗區,圖6 所示為第二實驗區域。

圖5 第一實驗區域Fig.5 First experimental area

圖6 第二實驗區域Fig.6 Second experimental area
第二步根據圖5 和圖6 兩種實驗區域的地形規劃出理想路徑,在每個時刻的定位坐標都要規劃清楚。
第三步將第一實驗區域輸入至兩種機器人中,將機器人放置于起始點(100,100),機器人根據兩種視覺導航系統移動至工作區域(900,900),記錄每一個時刻機器人的定位坐標位置并進行記錄。之后將圖6 實驗區域輸入至兩種機器人中,其余步驟同上。每種視覺導航系統在一個實驗區域中重復10 次運動(從起始點到達工作區域算作一次運動)。
第四步記錄實驗中的機器人分別兩種視覺導航系統下運動的基本數據。
工作區域內兩種視覺導航方式的大致軌跡和理想路徑軌跡的大致區別如圖7 和圖8 所示。

圖7 第一工作區域路徑Fig.7 First working area path

圖8 第二工作區域路徑Fig.8 Second working area path
通過圖7 和圖8 可以看出第一種導航路徑和第二種導航路徑分別與理想路徑的差別。本文所設計的視覺導航系統在實驗中的路徑與理想路徑大致相同,而傳統的視覺導航系統在實驗中的路徑與理想路徑差別較大。
通過表1 和表2 的詳細數據可以對比出,從搜索工作區域的精度上來說,本設計的視覺導航系統精度很高,誤差在1 cm 以內,而傳統的視覺導航系統誤差在5 cm 以內,第一種導航路徑的精度遠遠大于第二種導航路徑的精度。

表1 第1 實驗區域數據Tab.1 Data of the first experimental area

表2 第2 實驗區域數據Tab.2 Data of the second experimental area
通過創立實驗區域,用兩種視覺導航系統的機器人對比進行實驗得出,本文所設計的以TOF 技術為基礎,以多個深度攝像頭為主來進行視覺導航的方式在實際的二次設備巡檢機器人應用中效果較好,定位精度高,提高了機器人在二次設備巡檢中移動效率和工作效率。
本研究提出了基于機器人視覺導航技術的二次設備智能巡檢方法。通過利用TOF 技術和多個深度攝像頭進行三維識別巡檢物體,提高了定位精度,將多個深度攝像頭與單個攝像頭相比,使得定位精度得以提高,通過對二次設備的巡檢工作進行了優化,提升了機器人視覺導航的穩定性、精確性。雖然本研究具有一定的技術進步性,但是本設計目前還存在一些不足之處,目前深度攝像頭的技術不夠成熟,可識別距離不夠長,應用場景還不夠全面,這需要進一步的研究和探索。