鄒暢
(遼寧省沈陽市種業發展中心,遼寧 沈陽110034)
微波成像是遙感技術的重要組成部分,可以獲得農作物生長狀態、高度、含水量等定量化的信息,為農作物的病蟲害防治、估產和日常管理提供廣域高效的信息獲取手段。
傳統的微波成像處理主要是通過高性能計算機在離線狀態下計算完成的,需要對飛行平臺的姿態進行精細化的運動補償才能得到良好的成像效果。隨著雷達成像分辨率的不斷提升,目前在X 波段已經達到0.1m 量級的成像能力,且飛行平臺不斷呈小型化和多樣化的發展趨勢,平臺的穩定度和姿態測量能力較差,這些技術上的變化為微波成像處理帶來了極大的挑戰。隨著分辨率的提升需要進行更加精細化的運動補償,而微小型的飛行平臺難以保持一個穩定的姿態或進行精確的姿態測量,這就使得計算成像中的圖像質量發生降級。
為解決這一問題,本文在傳統微波計算成像的基礎上,通過將微波數據調制到激光束上,利用光學聚焦手段配合以AI 芯片對成像質量進行判斷實現微波成像的實時自適應處理。本文的結構如下第2 節就系統架構進行分析,第3 節就AI 芯片的自適應處理進行論述,第4 節給出仿真和試驗結果,第5 節是全文總結。
微波成像的體制是合成孔徑雷達(SyntheticApertureRadar,SAR)體制,SAR 的光學聚焦處理原理與歷史上的SAR 光學處理器相似,將SAR 的回波信號調制到光的波前上,將回波信號轉換為光的波前分布,利用傅立葉變換透鏡完成必要的變換處理,利用變形鏡完成需要的聚焦面型結構,補償掉方位和距離兩方向的聚焦相位差,再利用凸透鏡實現成像結果的聚焦,并利用CCD 相機完成圖像的采集。其原理如下圖中所示。

圖1 光學成像原理
本文實現SAR 的自適應聚焦原理在于采用變形鏡,根據聚焦的效果自適應的調節變形鏡的面型,通過迭代最終實現對SAR 數據的精確聚焦處理。其技術原理如下圖所示。

圖2 基于AI 芯片的自適應處理系統框圖
針對本文的研究目標,首先嘗試開展在焦距固定的條件下,通過自適應的調節目標位置,相當于調節聚焦的二次曲面面向,利用菲涅耳衍射原理仿真計算這一過程。利用這一研究結果初步判斷基于AI 芯片的SAR 自聚焦成像處理的技術可行性。以上過程可以采用簡單的透鏡成像過程加以描述。凸透鏡成像可調整的參數為透鏡的尺寸、像素點的大小、物距、相距、焦距、波長。使用模型對26 張圖片進行處理,產生了416 個樣本。如果直接將圖片輸入進神經網絡,時間復雜度會相當高。使用PCA 算法進行降維后,將原圖像由1600*1600 降維到415 維。在PCA 降維后,使用支持向量機,用16 張圖片進行訓練,10 張圖片用于測試,發現準確率迅速下降,但是調整各種參數后準確率有所提升。為了確定最佳參數,將26 張圖片分成5 組,最后一張用于測試,然后從5 組取三組分別建立model(共10 個model),再用未參與建設模型的圖片測試(取ABC 三組建立模型,用DE 測試,再取ABD 三組,用CE 測試……),最后取結果的平均值。枚舉參數的各種取值后發現,準確程度最高能夠達到93.75%。
對93.75%中判斷錯誤的點進行計數,發現距離較遠時支持向量機的判斷出現了明顯的錯誤。檢查透鏡成像的模型后發現,當放大倍數較大時,1600*1600 的圖像不能近似等效成1600*1600 個點光源。為盡可能模擬實際情況,目前的想法是根據放大倍數對圖像進行按范圍取均值,即若放大10 倍,每個點等同于它周圍半徑為10 的點的平均值,除此之外,圖像單位面積的能量存在差異(比如放大10 倍的圖像會比較亮),但是在模型構造時直接將圖像上所有點的光強投影在0-1 上,這個問題就得以解決。
下圖中給出了利用神經網絡自適應實現二次相位匹配成像的過程。

圖3 二次相位成像驗證試驗原理
在試驗中采用了較為簡單的凸透鏡聚焦試驗模型,其中像距d 和凸透鏡的焦距f 保持不變,目標的物距在支撐向量機的作用下進行自適應的調整,以期獲得良好的聚焦成像效果。下圖給出了在較大距離范圍內實現自動聚焦的過程。

圖4 二次相位成像驗證試驗結果
其中在下面兩幅圖像中系統出現了一次過調的震蕩,但最后穩定在了準確的物距位置上。
本文采用深度學習網絡(VDNN)實現。本項目與目前流行的圖像重建存在一定的差異圖像重建是通過神經網絡直接輸出重建圖像的結果,而在本項目中SAR 圖像的結果是通過光學系統處理得到的,而神經網絡輸出的僅是控制光學系統成像的面型數據。系統的工作模型如下圖中所示:

圖5 系統應用模型
在上述應用模型下,相應的訓練機制可以描述為以下形式

圖6 系統訓練模型
在上圖的訓練模型中,為訓練網絡在復雜飛行軌跡條件下的成像適應能力,通過將回波數據加上一定的擾動模擬飛行平臺的非穩定性波動。回波數據在沒有擾動條件下成像得到的結果作為理想圖像,而訓練的神經網絡系統能夠控制變形鏡的面型實現成像處理,而獲得的結果利用代價函數計算得到偏差,再傳給訓練機制對神經網絡進行訓練。
網絡的結構如下圖所示。

圖7 網絡結構
主要借鑒了VGGNet(Visual Geometry Group Network)的實現形式,具有20 個卷積層,每次具有64 個3×3×64 的濾波器,每個濾波器采用的是ReLU 結構,其形式如下:

其中Y 為輸入,Fn為第n 個卷積層輸出,Wn為權值矩陣,Bn為偏置。
訓練集中的一個訓練樣本涵蓋1000 個以上的距離門,圖像內容包括艦船、島嶼、橋梁等典型目標,場景也選擇為海洋場景和陸地場景等,共形成約3 萬的訓練數據集切片。SAR 的數據均為X 波段雷達數據,分辨率由3 米至0.3 米,數據來源有機載數據和星載數據。
下面給出了聚焦試驗的切片處理結果

圖8 陸地場景自適應聚焦

圖9 艦船目標自適應聚焦
本文研究了一種利用AI 芯片實現光學成像系統自動成像的技術方法,利用仿真數據和實測數據均取得良好效果,可以為后續裝備的研制提供了全新的技術解決方案。