陳玉清 柏文鋒
(1. 廣州地鐵集團有限公司,廣東廣州 510010; 2. 廣州地鐵設計研究院股份有限公司,廣東廣州 510010)
為了確保運營地鐵結構的安全,需沿地鐵線路設置控制保護區,并對控制保護區內的外部風險源進行巡檢,以便及時發現安全隱患[1]。 近年來,國內地鐵行業發展較快,新運營里程不斷增長,使得地鐵保護區巡檢工作量大幅增加。 目前,地鐵保護區的巡檢主要以人工巡視為主,人員投入大,作業效率低。 另外,地鐵沿線的違規作業行為(如鉆探等)具有即發性、不易發現等特點,給地鐵結構安全保護工作帶來困難。 面對當前地鐵保護區日常巡檢工作的技術瓶頸,有必要研究更加實用、高效的巡檢方法。
近年來,無人機技術發展迅速,在各個行業的應用快速增長[2]。 而利用無人機的高空優勢進行線路巡檢也逐漸興起,其應用主要集中在電力行業[3],同時在基站[4]、鐵塔[5]、光纜[6]、高鐵[7]及路橋[8]等檢測中也有相關應用。 隨著智能控制、機器視覺及模式識別等學科的交叉應用,無人機巡檢技術正朝著自動化和智能化的方向發展。 該技術給地鐵保護區的巡檢工作也帶來了機遇。 采用無人機平臺搭載成像傳感器,沿地鐵線路進行影像拍攝,結合人工智能技術對地鐵保護區的風險源進行自動識別,可大量減少巡檢人員,統一質量標準,降低企業成本,提高工作效率,并可滿足全天候的巡檢要求[9]。
圖1 展示了基于無人機的地鐵保護區巡檢主要流程。
(1)無人機選型
對于小區域的巡檢任務及訓練樣本庫的采集,可采用大疆M600 PRO 多旋翼無人機及配套的航攝系統。 多旋翼無人機一般由其所搭載的鋰電池作為動力,具有攜帶方便、操作簡單等優點,但其續航時間一般較短,不能滿足大范圍的巡檢需求。 對于遠距離的線路巡檢任務,可采用成都縱橫CW-007 復合翼無人機,該無人機采用固定翼加多旋翼的組合形式,可實現垂直起飛降落,解決了固定翼無人機起降對場地要求

圖1 基于無人機的地鐵保護區巡檢流程
較高的難題,同時又具有固定翼無人機續航時間長、飛行速度快、作業距離遠等優點。 圖2 展示了巡檢時所選用的飛行平臺,表1 展示了縱橫CW-007 復合翼無人機的主要參數。

圖2 用于地鐵保護區巡檢的無人機飛行平臺

表1 縱橫CW-007 無人機參數
(2)航攝儀選型
在采用縱橫CW-007 復合翼無人機進行遠距離線路巡檢任務時,需要搭配合適的航攝儀,綜合效果、重量及可靠性等因素,選用了索尼A7RII 相機及蔡司Loxia 50 mm f2 鏡頭(見圖3)。 該相機配備35 mm 全畫幅Exmor R CMOS 背照式影像傳感器,有效像素約4 240 萬,能夠自動對焦,并支持連拍及4K 視頻錄制。鏡頭尺寸為66.2 mm,重量為320 g,焦距為50 mm,拍攝距離為0.45 m~+∞。 上述航拍設備的選擇滿足地鐵保護區巡檢任務的需求。

圖3 配合縱橫CW-007 復合翼無人機的航攝儀選型
(3)系統集成
對于遠距離的線路巡檢任務,選定無人機飛行平臺和航攝儀之后,還需進行系統組裝及控制軟件的研發。 根據線路巡檢任務的指標需求,在飛行平臺和航攝儀的基礎上選擇各項模塊、通信系統并進行硬件組裝。 為確保無人機巡檢硬件系統的飛行安全,需開發相應的地面控制軟件。 在飛行過程中,地面控制軟件在指導拍攝影像的同時,能夠顯示并存儲飛行區域的電子地圖、航跡、飛行高度、姿態、航向等參數,并可根據任務的需求對航線路徑進行調整。另一方面,地面控制軟件還可實時監控無人機系統各模塊的工作狀態,當出現異常情況(如模塊損壞、電量不足、測控失效等)時,可按照預先設定的方案進行意外情況處理。
為確保能從無人機采集的影像中快速準確地識別并定位所關注的風險源,,需要對采集的圖像數據進行預處理。 其主要的預處理步驟包括坐標轉換[11]及影像畸變糾正[12]等。
(1)坐標轉換
無人機攜帶的定位系統一般采用GPS 技術(WGS-84 坐標系統),而常規的地鐵保護區圖、地鐵網線路圖等設計成果的坐標通常屬于城市地方坐標系統。 為便于風險源影像的定位以及專題地圖制作,需要進行坐標系統的轉換。 進行WGS-84 坐標系與地方坐標系的轉換一般需要7 個轉換參數(包括3 個平移參數、3 個旋轉參數和1 個尺度參數)。 坐標轉換一般采用布爾莎七參數模型,利用3 個及以上的已知公共點,通過最小二乘法平差計算得到坐標轉換參數。
(2)畸變糾正
無人機所裝備的索尼A7RII 相機為普通數碼相機,其畸變差與用于航空攝影測量的量測相機有所不同。 數碼相機的畸變參數一般有徑向畸變、切向畸變和CCD 或CMOS 面陣內的變形參數等。 為求得相機畸變參數,需要利用一定數量的高精度控制點,建立包含相機畸變參數在內的共線方程,然后采用最小二乘法平差求解。
軌道交通保護控制區內的外部作業風險源包括攪拌樁、挖掘機、履帶吊機、沖孔樁機、三軸攪拌樁機等作業設備。 為了在大量的無人機影像中自動識別包含上述風險源的影像,采用了機器學習的方法[13]。即首先構建樣本數據庫,將無人機影像樣本數據庫分為訓練集和測試集,利用訓練集中風險源的顏色、紋理、形狀、空間等特征,建立外部作業風險源智能識別模型,并通過測試集對模型進行評估。 識別模型能夠對影像進行分割、合并、要素提取以及統計分析等操作,實現包含風險源目標的影像自動識別,并根據影像的定位信息,通過坐標轉換在電子地圖上進行展示預警。
具體的機器學習方法采用的是人工神經網絡算法[14]。 人工神經網絡算法源于對人類大腦工作機理的研究,使用神經網絡來模擬大腦運行過程,其邏輯架構一般分為輸入層、隱藏層和輸出層。 輸入層用于接收數據,隱藏層的作用是對數據進行分解和處理,最終的結果將被整合到輸出層。 每一層包含若干個處理單元,每個處理單元可認為是模擬了一個神經元。 若干個層構成一個網絡,最終形成“神經網絡”[15]。 例如識別影像中的攪拌樁,通過將攪拌樁分解為多個折線進入處理的下一層,每個神經元分別負責處理一條折線,每條折線被繼續分解為兩條直線,每條直線再被分解為為黑白兩個面,一幅復雜的圖像就變成了大量的細節進入神經元,通過神經元進行處理之后再整合,最后得出目標為攪拌樁的結論。
結合項目實際需求,開展了某城市軌道交通保護控制區無人機飛行與巡檢智能識別的試驗。 首先整理了軌道交通保護控制區內的風險源清單(如表2 所示),具體任務即是通過無人機影像對清單內的風險源進行識別。 針對清單中的20 種風險源,利用大疆M600 PRO 多旋翼無人機采集了約850 張影像樣本進行機器學習訓練,建立自動識別模型。

表2 軌道交通保護控制區內風險源識別清單
通過機器學習建立了風險源自動識別模型之后,利用無人機沿某軌道交通線路進行影像采集,本次數據采集的各項航線設計參數如表3 所示。

表3 航線設計參數
影像采集完成以后,經過必要的預處理,將影像輸入到風險源自動識別模型之中,模型自動識別出36 個疑似風險源目標。 對疑似風險源目標進行技術判定,通過分析,其中有28 個風險源識別正確,8 個為誤識別,另有遺漏風險源3 個,試驗結果如表4 所示。

表4 試驗結果
測試案例結果表明,無人機巡檢系統能根據要求進行影像數據的采集,所訓練的識別模型能夠自動識別出絕大部分的風險源目標,但識別算法和模型還存在有待完善的地方:(1) 當前模型訓練樣本數約850 張,采集樣本數量不充分,需進一步提高訓練樣本數,完善識別模型程序;(2)識別結果仍然存在遺漏、錯誤識別和目標重復識別等問題,需進一步完善識別算法,提高識別率;(3)識別模型不穩定,需要改進程序算法,增加識別模型的穩定性。