牛國臣,袁 婕,谷潤平
(1.中國民航大學 機器人研究所,天津 300300; 2.中國民航大學 空中交通管理學院,天津 300300)(*通信作者電子郵箱13752255179@139.com)
民航機場助航燈光系統[1]需全天候服務,嵌入式助航燈具透光鏡表面附著污染物時,其發光強度大大降低[2],嚴重影響目視飛行中飛機起降過程的安全,需定期清洗[3-5]。目前,機場通常采用人工或利用自動化裝置對嵌入式助航燈具的透光鏡進行清洗,以在保證其發光強度的同時節約能源。采用自動化裝置對嵌入式燈具進行清洗時,需對燈具透光鏡進行精確定位。
目前,天津機場現采用高壓噴氣槍去除嵌入式助航燈具透光鏡上的污物;廣州白云機場曾使用燈具清洗車,但這些清洗裝置均需人工定位燈具。全自動化的嵌入式助航燈具清洗裝置中,燈具定位系統是否能準確、快速判斷燈具位置,是有效清洗的關鍵。項目組前期設計了文獻[6]中的嵌入式燈具清洗裝置,其定位系統采用電渦流傳感器通過檢測嵌入式燈具金屬外殼實現定位,存在定位誤差大、速度慢及適用性較差的問題[7]。文獻[8]中利用嵌入式燈具光強檢測的方法識別燈具位置,但未提出具體燈具定位算法,且其精度有待進一步論證。基于里程計和云臺[9]以及基于視頻監控系統[10]的視覺定位方法對運動物體有較好的定位效果,但其精度較低且無法安裝在跑道附近。文獻[11]運用小波變換方法提取對象輪廓,適用于對曲率大的尖銳物體進行識別定位;文獻[12-13]中對微小物體進行定位,精度較高,適用于在理想環境下的矩形物體定位,而民航機場嵌入式助航燈具工作環境較復雜。
綜上,現有的定位方法在嵌入式助航燈具定位方面存在精確性、適用性及快速性上的不足。因而,對嵌入式助航燈具清洗裝置的定位系統進行分析研究,提出基于改進最大類間方差法Otsu的燈具定位方法。嵌入式助航燈具的清洗均在夜間停航時進行,以夜間發光的跑道中線燈為例進行研究。
民用機場跑道中線燈兩燈間最短間距為7.5 m,一般間距15 m,最長達30 m[1]。為避免干擾,采用由兩部攝像機組成的定位系統對嵌入式助航燈具透光鏡進行定位,建立定位模型,優化攝像機安裝參數,并驗證模型的理論精度。該定位統系統將作為文獻[6]中嵌入式助航燈具清洗系統的一部分安裝于清洗車上,要求定位系統以最低速2 m/s水平行進時對嵌入式燈具進行定位。嵌入式助航燈具透光鏡長、寬分別不超過40 mm、20 mm,要求定位系統誤差不得大于嵌入式燈具透光鏡長寬的一半,用歐氏距離表示,即要求燈具定位誤差小于22.4 mm。
為使系統在水平行進過程中將一個燈具作為目標進行定位,且采用兩部攝像機對燈具進行拍攝時應盡可能減少其他燈具光強的干擾,需優化兩部攝像機的安裝參數。根據實際燈具的距離要求,優化攝像機安裝參數,反推其視角和焦距。兩部攝像機采用相同的測距原理但為同時兼顧系統的準確性、適用性、快速性,上部攝像機主要應用于對燈具位置預判并對文獻[6]中的清洗車導航,下部攝像機主要應用于對燈具進行精確定位,采用兩部攝像機是必要的[14]。
定位系統將安裝于文獻[6]中的嵌入式助航燈具清洗車上,清洗車高2 m,底盤高0.3 m。兩攝像機上下豎直安裝于清洗車上,下部攝像機光心位于A0點,垂直高度0.5 m以滿足精度要求;上部攝像機光心位于A1點,垂直高度2 m以實現對燈具位置預判和清洗車導航。跑道中線燈直徑約為0.2 m和0.3 m,如圖1所示,為使拍攝視野中僅有一個燈且兩攝像機的拍攝范圍相銜接,設計兩攝像機視野相交處為B1C0=0.5 m;考慮跑道中線燈的最短間距,同時為減小跑道其他發光燈具對圖像品質的影響,設計兩攝像機總視程為B0C1=6.5 m,其中B0C0=2 m,B1C1=5 m。

圖1 系統結構及視角范圍
定義攝像機光軸偏離水平面以下的角度為攝像機安裝角θ,表示水平面與攝像機光軸的夾角。由系統模型知,下部攝像機θ0=18.0°;上部攝像機θ1=26.8°。攝像機焦距依據系統模型和攝像機垂直視角通過計算和實驗反推出,上下兩部攝像機的物理焦距分別為4 mm和6 mm。
依據基于視覺的定位原理計算上述模型理論精度,以下部攝像機為例,驗證該系統是否能達到精度要求。
1.2.1 定位原理
圖1中地面上一點P在下部攝像機電荷耦合元件(Charge Coupled Device, CCD)平面上成像圖如圖2所示,其中:P′為P的成像點;e為攝像機光軸與CCD平面交點,其坐標通過攝像機標定獲得[15]。P經系統定位可得其空間坐標(x0,y0,z0),如式(1)~(2)所示:
(1)
其中:

(2)
其中:kx、ky(mm/像素)分別是單位像素在CCD平面上的物理長度;(u0,v0)為攝像機光心像素坐標;(uP′,vP′)為P點投影在攝像機圖像平面上的像素坐標;Py是P點在空間Y軸的投影;f0為攝像機焦距。

圖2 從攝像機處觀察成像平面γ
1.2.2 理論精度計算

(3)

圖3 目標點圖像偏差在位置C0′處產生實際偏差
使用攝像機對嵌入式燈具進行定位,目的是根據圖像定位出燈具透光鏡的實際質心。根據夜間發光的嵌入式助航燈具特點:透光鏡附近很小的區域比其周圍的環境亮得多,因而將夜間發光燈具的透光鏡中心位置作為定位目標。首先,將拍攝的彩色圖像變為二值圖像;其次,采用簡單平滑對圖像進行濾波處理;最后,研究閾值化和目標提取算法。
在視頻處理中使用固定閾值無法保證每幀圖像都能提取出有效的目標圖像,因此,使用自適應閾值算法對圖像進行二值化處理。最大類間方差法Otsu作為一種能夠對圖像進行二值化閾值計算的高效算法,可用于對圖像進行自適應閾值處理。對于夜間發光燈具,運用Otsu標準算法在本設計中運用效果不好,為達到更好的目標提取效果,保證系統精度,對該算法進行改進。
夜間進行圖像采集,平均灰度值較低且對整幅圖片影響較大,直方圖數據表明灰度值較大部分其所占像素數少,使得標準Otsu算法閾值偏低,導致部分背景圖像被劃分到前景圖像中。其結果是使原本應作為背景的部分區域劃分到前景區域中,因此目標區域較大影響系統定位精度。
為解決此問題,對灰度值低于整幅圖像平均灰度值的像素點進行處理,使其灰度直方圖的概率累加和為平均灰度值所對應概率的一半。這樣在遍歷所有灰度值求類間方差最大值時,自適應閾值相對改進前會變大,因而減小了夜間拍攝時黑暗環境對目標圖像提取的影響。設目標為S,所占概率PS,平均灰度值為ωS;背景為R,所占概率PR,平均灰度值為ωR;全局平均灰度值ω0,所對應的灰度級為I,所占像素數為nI;L表示灰度級總數,每個灰度級i所占像素數ni,其占總像素數的比例為Pi;類間方差σ2;t0、t分別為改進前后類間方差最大時的灰度值,即所求自適應閾值。算法如下。
步驟1 建立灰度直方圖:

(4)
步驟2 計算目標、背景概率,并計算兩類圖像的平均灰度:

(5)
(6)
步驟3 計算平均灰度值公式如下:
(7)
步驟4 直方圖重建計算式如下:
(8)
重復步驟2~3后進行步驟5。
步驟5 計算類間方差公式如下:
σ2=PS(ωS-ω0)2+PR(ωR-ω0)2
(9)
遍歷所有像素,選擇類間方差最大值時的t值作為閾值。算法改進前后灰度直方圖示意圖如圖4所示。
圖4中,橫坐標表示灰度值,縱坐標表示每個灰度值所占像素數。圖4(b)中灰度值小于平均灰度值ω0的概率用平均灰度值所占概率的一半替代,使得類間方差最大值t大于改進前的t0,即閾值增大。

圖4 Otsu算法改進前后灰度直方圖示意圖
對夜間發光的兩種嵌入式助航燈具進行圖像采集,如圖5(a)、(d)所示。

圖5 兩種燈具經Otsu算法改進前后的自適應閾值處理結果
圖5(b)、(c)與圖5(e)、(f)為圖5(a)、(d)經改進前后的Otsu算法處理所得圖像,閾值分別為:37,254,92,106,圖5(c)、(f)較圖5(b)、(e)的閾值大得多且二值化區域更小更精確。通過觀察圖像對比處理前后閾值可知,Otsu改進算法通過在標準算法中運用所提方法對灰度直方圖進行重建,使得該算法能夠獲取更大的類間方差最大值t,使得二值化處理后獲得的燈具透光鏡位置信息更精確,便于后續圖像質心的精確提取。
采用階距法對經Otsu算法處理后的圖像進行質心提取,得到嵌入式助航燈具在圖像中的定位點。對一幅2D的離散化數字圖像,當f(u,v)≥0時,p+q階矩mpq定義為:
(10)
其中:M、N分別為橫、縱坐標像素數,當(u,v)為目標區域中的點時取f(u,v)=1;否則f(u,v)=0。
圖像的質心和第0、第1階矩有關。式(11)為嵌入式助航燈具質心坐標(uc,vc)計算方程:
(11)
為減小視頻拍攝過程中的誤差和系統自身誤差,提高精度,對系統進行誤差補償。對補償后的系統進行精確度測試,判斷所設計的系統是否滿足要求。
在燈具定位系統中,存在諸多因素引起的誤差,其中由環境、系統安裝等外部因素引起的誤差發生在視頻圖像的采集階段,系統中大部分誤差在該階段產生。針對這類誤差,通過對比實際距離和測量距離之間的偏差,尋找二者之間的關系,對系統進行誤差補償,提高系統精確度。
機場夜間停航時一般關閉跑道燈光;飛機起降頻率較低時會降低光強;停航檢修時一般會開二級或三級光。一般選擇上述3種情況對燈具進行清洗。在實際拍攝和圖片處理過程中發現三級光燈具能得到較好的處理效果,最終選擇三級光強的跑道中線燈對系統進行誤差補償,應用SONY HDR-PJ30E攝像機進行拍攝。開發工具包括:Microsoft Visual Studio 2010、OpenCV b5a、Matlab。以下部攝像機為例,具體燈具定位系統校正實驗步驟如下:
1)固定攝像機傾角;
2)建立如圖1所示攝像機坐標系,其中XOY平面為地面,Z軸垂直于XOY平面且通過攝像機光心;
3)移動攝像機使得燈具坐標x=0,y變化時拍攝多組照片,并記錄燈具此時實際距離;
4)確定三個y值,移動攝像機使得燈具處于相應y值處,x進行變化,拍攝多組照片,并記錄燈具此時實際距離;
5)對所有照片進行處理,記錄處理后的數據;
6)用Matlab得到補償的擬合方程。
誤差補償實驗分兩部分:Y方向和X方向的補償。其中,誤差=測量坐標-實際坐標。首先進行沿Y軸方向的校正。攝像機安裝角為18.0°,架設離地0.5 m處;燈具沿Y軸放置,拍攝在三級光強下燈具的照片。此時的數據如表1所示。

表1 校正前跑道中線燈的系統測試數據
分析產生的誤差,誤差數值均不大且為正值,則產生原因有:①燈具放置位置統一偏向某一側;②燈具內部燈泡的實際發光位置統一比透鏡位置遠離X軸;③光線反射強烈,對系統產生影響。針對以上產生誤差的原因,運用最小二乘法進行線性擬合以補償系統誤差。擬合方程為:
Ytrue=0.976 3Ymeasure+210.2
(12)
同理,對平行于X軸方向的校正。分別拍攝跑道中線燈放置在Y=1 200 mm、2 000 mm、2 800 mm且平行于X軸的一組照片。經圖像處理后,對系統進行線性擬合以補償系統誤差,擬合方程為:
Xtrue=0.990 0Xmeasure-484.6
(13)
依據式(12)~(13)對系統進行誤差補償,使得嵌入式燈具定位系統更加精確。
當跑道中線燈處于攝像機圖像平面不同位置時的典型圖片如圖6所示,記錄燈具相對于攝像機的實際坐標和經過圖像處理后的測量坐標,并計算它們之間的誤差。

圖6 不同位置的跑道中線燈
定義誤差為測量坐標偏離實際坐標的歐氏距離,計算公式如下:
(14)
其中:E為系統測量誤差;(x,y)為燈具實際位置坐標;(x0,y0)為系統測量所得燈具位置坐標。燈具位置數據如表2所示。

表2 校正后跑道中線燈的系統測試數據
由表2中平均誤差一欄的數據可知,校正后系統平均誤差均為16.3 mm,小于22.4 mm,滿足精度要求。在未經誤差補償之前,有表1數據可得沿Y軸方向的平均誤差為65.7 mm,若考慮X方向誤差則誤差值會更大,校正后系統總誤差大幅度減小。此外,基于視覺對燈具進行定位,對環境要求低適用性強。該系統還能夠實現實時在線定位,定位速度快。
為實現嵌入式助航燈具清洗裝置中燈具定位子系統快速準確定位燈具,并使其具有良好的適用性,設計了一套基于視覺的嵌入式助航燈具定位系統。對嵌入式助航燈具進行自適應閾值處理時,所提出的Otsu改進算法能夠有效克服其標準算法對燈具二值化所得前景圖像區域大的缺點,使得該系統能夠對嵌入式助航燈具透光鏡的定位更準確。該系統基于視覺定位設計,能夠解決現有定位系統定位速度慢、適用性差的問題。該系統的定位精度通過運用雙目定位等方法還有一定的提升空間。
References)
[1] International Civil Aviation Organization. Convention on International civil aviation annex 14 [EB/OL]. [2017- 03- 22]. https://www.icao.int/publications/Documents/7300_9ed.pdf.
[2] 賈立山,王立文.機場助航燈光強動態檢測仿真系統的實現[J].系統仿真學報,2012,24(9):1769-1770.(JIA L S, WANG L W. Realization of simulation system of dynamic detection of airport flight aid light luminous intensity [J]. Journal of System Simulation, 2012, 24(9): 1769-1770.)
[3] 史振林,郭玉彪.目視助航燈光系統的使用[J].江蘇航空,2005(1):28-29.(SHI Z L, GUO Y B. Usage of the visual aeronautical ground lights system [J]. Jiangsu Aviation, 2015(1): 28-29.)
[4] 朱志勝.民用飛機著陸燈與機場助航燈光在飛機夜航中的作用[J].民用機場設計與研究,2014(2):88-91.(ZHU Z S. The function of landing light and airport approach light for civil aircraft during night flight [J]. Civil Aircraft Design & Research, 2014(2): 88-91.)
[5] 高慶吉,徐萍,胡丹丹,等.機場目視助航技術與系統[Z].天津:中國民航大學,2015:135-155.(GAO Q J, XU P, HU D D, et al. The Technology and System of Visual Navigation for Civil Aviation [Z]. Tianjin: Civil Aviation University of China, 2015: 135-155.)
[6] NIU G C, YUAN J, LIU Y X, et al. Design of cleaning system for aviation embedded aeronautical ground lights [C]// Proceedings of the 2014 IEEE International Symposium on Instrumentation & Measurement, Sensor Network and Automation. Piscataway, NJ: IEEE, 2014: 2144-2148.
[7] 劉雪揚,張文斌,尹志宏.電磁傳感器的循跡特性分析[J].傳感器與微系統,2014,33(7):35-37.(LIU X Y, ZHANG W B, YIN Z H. Analysis on tracking characteristics of electromagnetic sensor [J]. Transducer and Microsystem Technologies, 2014, 33(7): 35-37.)
[8] 侯啟真.機場目視助航燈光在線檢測系統關鍵技術研究[D].天津:中國民航大學,2008:15-29.(HOU Q Z. Research on the key technologies of real-time navigation light measuring system [D]. Tianjin: Civil Aviation University of China, 2008: 15-29.)
[9] 牛國臣,徐萍,馮琦.基于里程計和PTZ視覺的移動機器人自定位[J].計算機應用,2011,31(10):2822-2824.(NIU G C, XU P, FENG Q. Autonomous localization of mobile robot based on odometer and PTZ vision [J]. Journal of Computer Applications, 2011, 31(10): 2822-2824.)
[10] 田鵬輝,隋立春,楊耘.靜止背景下運動目標的檢測[J].測繪通報,2012(11):28-30.(TIAN P H, SUI L C, YANG Y. Motion object detection under static background [J]. Bulletin of Surveying and Mapping, 2012(11):28-30.)
[11] KWANG H P, HWAN J C, GHANG D K, et al. Vision based position control of a robot manipulator using wavelet based feature extraction [C]// Proceedings of the 2001 IEEE International Symposium on Industrial Electronics Proceedings. Piscataway, NJ: IEEE, 2001: 237-242.
[12] CHEN S H, SHI Z K. High accuracy position method based on computer vision and error analysis [J]. Proceedings of SPIE-The International Society for Optical Engineering, 2003, 5253: 330-333.
[13] WANG Z J, HUANG X D. Visual positioning of rectangular lead components based on Harris corners and Zernike moments [J]. Journal of Central South University, 2015, 22(7): 2586-2595.
[14] TANOTO A, LI H, RüCKERT U, et al. Scalable and flexible vision-based multi-robot tracking system [C]// Proceedings of the 2012 IEEE Multi-Conference on Systems and Control. Piscataway, NJ: IEEE, 2012: 19-24.
[15] 王鋒,周仁魁,楊小許,等.CCD攝像機圖像中心兩種標定方法的應用研究[J].光子學報,2006,35(2):295-296.(WANG F, ZHOU R K, YANG X X, et al. Applications of two types of calibration method to CCD camera’s image center measurement [J]. Acta Photonica Sinica, 2006, 35(2): 295-296.)
This work is partially supported by Tianjin Research Program of Application Foundation and Advanced Technology (14JCQNJC04400).
NIUGuochen, born in 1981, Ph. D. candidate, associate professor. His research interests include robot navigation and control, intelligent control.
YUANYie, born in 1994, M. S. candidate. Her research interests include flight performance.
GURunping, born in 1971, M. S., associate professor. His research interests include flight performance.