趙宗超, 李東興, 趙蒙娜
(山東理工大學機械工程學院,淄博 255049)
微弱目標跟蹤在雷達檢測、機器視覺、紅外傳感器、醫學等領域發揮著重要作用,由于強背景雜波干擾、低信噪比、背景雜斑、遮擋變形、運動模糊和低分辨率等因素的影響,微弱目標跟蹤在準確度和抗干擾能力方面面臨巨大挑戰[1-2]。卡爾曼濾波、Meanshift和粒子濾波等傳統跟蹤算法在工業領域應用廣泛,但在復雜環境下跟蹤能力差,在強噪聲干擾中不能準確定位微弱目標位置[3-4]。基于相關濾波的跟蹤算法在實時性上具有明顯優勢。Soheil等[5]提出的在線自適應增強迭代法(online adaboost,OAB)使用boosting構建一個強分類器,通過選出最好的響應特征進行目標的實時跟蹤;Henriques等[6]改進的核相關濾波算法(kernel correlation filter,KCF)利用循環矩陣和離散傅立葉變換推導出一種新的核心濾波器,將目標跟蹤任務的計算減少幾個數量級,從而在目標和周圍環境之間展現出強大的判別能力。目前,深度學習成為目標跟蹤研究的熱點[7-8],將學習到的特征直接應用到相關濾波的跟蹤框架里面,可以得到很好的跟蹤結果。文獻[9]選擇堆疊去噪自動編碼器(stack de-noising autoencoder,SDAE)作為深度模型,在大型Tiny數據集上使用無監督學習進行離線訓練,根據不同模型參數進行微調以防止跟蹤漂移;文獻[10]提出了深度前饋神經網絡算法(deep feedforward network,DFN),改進后的深度學習算法訓練網絡使卷積特征輸出表達能力更強;文獻[11]提出一種新的卷積神經網絡和支持向量機融合算法(convolution neural network and support vector machine,CNN-SVM),在ImageNet分類數據集上對進行訓練,將提取目標特征后利用傳統的SVM方法進行跟蹤;文獻[12]、文獻[13]分別提出了通過深度網絡進行穩健跟蹤的卷積網絡跟蹤算法(convolutional networks rracking,CNT)和基于高斯回歸與轉移學習的算法(racking with gaussian processes regression,TGPR),實時更換深度網絡提取的特征向量,能很好地適應跟蹤過程中的目標變化,但在強噪聲干擾和低分辨率的背景環境下不能準確地跟蹤到微弱目標。
為解決上述問題,提出以粒子濾波為框架,基于改進的引導圖像濾波(guided image filter,GIF)[14]和深度去噪自編碼器的目標跟蹤算法。GIF算法通過局部線性模型對目標圖像進行濾波處理,利用引導圖像中的結構并作為保持邊緣平滑的算子執行,保留有價值的模板細節并使不準確的背景模板模糊,有效增強目標圖像;改進深度去噪自編碼器通過無監督特征學習增加訓練樣本,微調網絡使得到的重構數據更接近原始數據,能夠有效表達粒子圖像區域;利用粒子的分類器響應來生成粒子重要性權重,提高對粒子集合的分類精度,得到更精確的目標位置。
算法流程如圖1所示。在離線訓練階段通過GIF算法對目標和背景模板進行區分,為目標追蹤初始化階段提供正負樣本,為SDAE提供正負樣本集。同時將自然圖像進行歸一化處理,用提取的特征向量構建SDAE。

圖1 算法流程Fig.1 Algorithm flow chart
初始化階段,通過正樣本和負樣本模板分別訓練SDAE,利用線性SVM分類器對特征集進行二值分類,根據分類誤差利用反向傳播算法微調網絡。在線跟蹤階段,將預訓練得到的SDAE和SVM分類器應用到粒子濾波框架中,根據粒子濾波算法分布粒子集[15-16],在初始化階段獲取先驗信息,通過SDAE和SVM分類器得到每個粒子的置信度,對每一幀圖像中的目標進行識別和跟蹤。
云層微弱目標跟蹤主要受破碎云、纖維狀的卷云、絮狀云和云層邊緣的干擾,它們具有與昏暗目標相似的頻率特性。采用引導圖像濾波器擴大目標模板與干擾模板之間的差異,能有效保持微弱目標邊緣,增強目標圖像。對引導圖像濾波器算法進行改進,傳統引導圖像濾波器的輸入和輸出存在線性關系,在一個二維窗口內輸出信號用以下公式表示:
qi=akIi+bk
(1)
輸出像素、輸入圖像和兩個像素索引分別用q、I、i和k表示,ak和bk是當窗口中心位于k時該線性函數的系數。改進后的引導圖像濾波器在窗口中心位于像素索引值k時,能夠求得線性函數的系數a和b,對式(1)兩邊同時取一個梯度值,得到q=aI,在引導圖像濾波器中,當輸入圖像I有梯度時,則輸出圖像q也有類似的梯度,通過擬合函數的最優化差值能確定出線性系數為

(2)
式(2)中:ak和bk是在窗口中心位于k時的窗口線性變換系數;Ii和pi是輸入圖像和待濾波圖像;wk是引導濾波器窗口;ε是調節輸出圖像雜訊和濾波器濾波效果的自定義參數。


(3)

(4)


圖2 待測圖像中的6類模板Fig.2 Six types of templates in the image to be tested

圖3 引導圖像及三維曲面圖Fig.3 Guided image and 3D surface map
1.2 改進的深度去噪自編碼器
微弱目標圖像像素點少,用于目標跟蹤的訓練樣本不足會導致訓練欠擬合,采用無監督特征學習的方法訓練深度去噪自編碼器能有效增加訓練樣本。

SDAE編碼過程和解碼過程分別為

(5)
y=f(z)=sf(w′h+b′)
(6)
式中:sg和sf采用sigmoid函數,編碼權重w和偏置b與解碼權重w′和偏置b′共同決定了最優參數θ,通過梯度下降法最小化損失函數可以得到θ,重構誤差的損失函數為

(7)


圖4 濾波前6類模板及三維曲面圖Fig.4 Filtering the first six types of templates and 3D surface maps

圖5 濾波后6類模板及三維曲面圖Fig.5 Filtered six types of templates and three-dimensional surface maps

圖6 SDAE算法流程Fig.6 Flow chart of SDAE algorithm

粒子濾波是以貝葉斯估計和重要性重采樣為核心的跟蹤模型[17]。將訓練得到的深度去噪自編碼器和支持向量機應用到粒子濾波框架中,選取視頻中的第一幀圖像進行目標的人工標定,確定出待檢測的目標區域范圍同時提取目標特征,到視頻的下一幀圖像時,系統根據粒子濾波算法對粒子集進行重新分布,每個粒子的置信度就由前向傳播增量深度分類神經網絡確定[18]。
對粒子置信度進行分析,根據粒子的最大置信度相對于設定閾值的大小,確定目標位置信息是否由置信度最大的粒子決定,同時在粒子濾波框架中完成深度去噪自編碼器網絡參數的微調,使跟蹤結果和周圍的背景信息在框架中進行實時更新。
使用本文算法和OAB、KCF、SDAE、DFN、CNN-SVM、CNT、TGPR等7個主流跟蹤算法在多組具有不同特征的圖片序列上進行測試,通過重疊率overlap rate、AUC和像素誤差pixel error衡量算法的優越性,對比跟蹤算法的參數均使用相應文獻中的默認值。選取3組數據對實驗結果進行分析。序列1共有圖像110幀,像素大小為900×619;序列2共有圖像143幀,像素大小為1 125×810;序列3共有圖像110幀,像素大小為900×619。
8種跟蹤算法在不同圖片序列的跟蹤結果如圖7所示。序列1上,破碎的卷云在潔凈天空背景下存在與微弱目標相似的特征,KCF、CNN-SVM、CNT、TGPR算法不能準確跟蹤目標,除GIF-SDAE算法外,OBA、DFN、SDAE算法在跟蹤過程中均出現目標漂移。序列2上,微弱目標在層云中受相似背景的干擾,所有算法都能完成目標跟蹤,在第80幀,KCF、CNN-SVM、CNT、TGPR算法出現不同程度的漂移。序列3上,目標沿火燒云邊緣運動,受破碎云遮擋、光照、目標形變等因素影響,DFN、KCF、TGPR算法前期跟蹤失敗,在第47幀以后除GIF-SDAE算法外的其他算法均出現目標漂移甚至失敗。實驗結果表明,GIF-SDAE算法在目標遮擋、形變、背景雜斑和光照影響等多種因素的干擾下具有較好的魯棒性和跟蹤準確度。
表1所示為本文算法與其他7種算法在不同圖像序列上跟蹤結果與真實位置的平均重疊率和成功率圖曲線下面積。從表1可以看出,GIF-SDAE算法的重疊率在4種圖像序列的跟蹤過程中全為最優值,AUC值除在序列2為次優其余也全為最優值,由此可見GIF-SDAE算法在復雜環境下微弱目標跟蹤過程中具有較好的跟蹤準確度和魯棒性。

表1 本文算法與其他7種算法在不同圖像序列上進行 目標追蹤的重疊率overlap rate和AUC
注:每個序列首行為Overlap Rate,次行為AUC,加粗的跟蹤結果最好,劃線的跟蹤結果次好。
不同算法在3種圖像序列上的像素誤差如圖8所示,可以看出,GIF-SDAE算法跟蹤的像素誤差明顯小于其他算法,在具有遮擋、光照變化、劇烈運動、相似背景等條件下的圖像序列中均能準確定位目標位置,在微弱目標的跟蹤過程中能更好地適應多種環境,具有較高的精確度和跟蹤穩定性。

圖7 本文算法與其他7種算法在不同序列上的跟蹤結果Fig.7 The tracking results of this algorithm and seven other algorithms on different sequences
提出了一種將引導圖像濾波器和深度去噪自編碼器集成到粒子濾波器框架中的跟蹤算法。該算法使用GIF對目標圖像進行濾波處理,使不準確的背景模板模糊并有效增強目標圖像。通過無監督特征學習訓練改進后的深度去噪自編碼器以克服訓練樣本的不足,使提取的特征集合能有效表達粒子圖像區域,更好地適應跟蹤過程中目標外觀變化。利用粒子分類器響應生成粒子重要性權重,在重新采樣過程中根據權重保留樣本,提高對粒子集合的分類精度,以得到更精確的目標位置。選用本文算法與其他7種主流方法在4組圖片序列上進行跟蹤測試,實驗結果表明,在遮擋、光照變化、劇烈運動、相似背景等復雜環境下,該算法具有更好的精確度和魯棒性,可以有效解決目標漂移和跟蹤丟失的問題。

圖8 本文算法與其他7種算法在不同圖像序列上進行 目標追蹤的像素誤差Fig.8 Pixel errors of GIF-SDAE and seven other algorithms for target tracking on different image sequences
1 萬 俊, 周 宇, 張林讓, 等. 嚴重方位模糊下的合成孔徑雷達微弱運動目標聚焦與參數估計方法[J].西安交通大學學報, 2019, 53(6): 1-8.
Wan Jun, Zhou Yu, Zhang Linrang, et al. A method for weak moving target focusing and parameter estimation of synthetic aperture radars in severe azimuth ambiguity[J]. Journalof Xi’an Jiaotong University, 2019, 53(6): 1-8.
2 宋 強. 雜波干擾下雷達微弱多目標檢測跟蹤方法[J].中國電子科學研究院學報, 2018, 33(5): 601-605.
Song Qiang. Radar weak multiple-target detection and tracking method under clutter interference[J].Journal of China Academy of Electronics and Information Technology. 2018, 33(5): 601-605.
3 Henry F N, Ying W T, Mohammed A A, et al. Deep learning algorithms for human activity recognition using mobile and wearable sensor networks: state of the art and research challenges[J]. Expert Systems With Applications, 2018, 105: 233-261.
4 Dilshad R, Suman C. Particle Gaussian mixture filters-I[J]. Automatica, 2018, 98: 331-340.
5 Soheil S H, Mohsin M J, Simo S. Variational bayesian adaptation of noise covariances in multiple target tracking problems[J]. Automatica, 2018, 68: 131-140.
6 Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transations on. Pattern Anal Mach Intell, 2015, 37(3): 583-596.
7 Qian K, Zhou H X, Qin H L, et al. Guided filter and convolutional network based tracking for infrared dim moving target[J]. Infrared Physics & Technology, 2017, 85: 431-442.
8 程 帥, 孫俊喜, 曹永剛, 等. 增量深度學習目標跟蹤[J]. 光學精密工程, 2015, 23(4): 1161-1170.
Cheng Shuai, Sun Junxi, Cao Yonggang, et al. Incremental deep learning target tracking[J]. Optical Precision Engineering, 2015, 23(4): 1161-1170.
9 Zou G F, Fu G X, Gao M L, et al. Pose varied face recognition based on self learning deep convolutional neural network[J]. Journal of Chinese Computer Systems, 2018, 39(6): 1157-1163.
10 Pang S C, Juan J C, Yu Z Z, et al. Deep learning to frame objects for visual target tracking[J].Engineering Applications of Artificial Intelligence, 2017, 65: 406-420.
11 Hong S, You T, Kwak S, et al. Online tracking by learning discriminative saliency map with convolutional neural network[J]. ICML, 2015: 597-606.
12 Zhang K, Liu Q, Wu Y, et al. Robust visual tracking via convolutional networks without training[J]. IEEE Transtions on Image Processing, 2016, 25(4): 1779-1792.
13 Gao J, Ling H, Hu W, et al. Transfer learning based visual tracking with gaussian processes regression[C]//Proc of the 13th European Conference on Computer Vision: Part III. Zurich: Spring International Publishing, 2014: 188-203.
14 Cao W, Wang H B, Shi J, et al. Enhancement algorithm of finger vein image based on weighted guided filter with edeg detection[J]. Laser & Optoelectronics Progress, 2017, 54 (2): 172-180.
15 李天成, 范紅旗, 孫樹棟, 等. 粒子濾波理論、方法及其在多目標跟蹤中的應用[J].自動化學報, 2015, 41(12): 1981-2002.
Li Tiancheng, Fan Hongqi, Sun Shudong, et al. Particle filtering: Theory, approach, and application for multitarget tracking[J]. Acta Automatica Sinica, 2015, 41(12): 1981-2002.
16 陳 輝, 劉 備, 葉 平, 等. 多目標粒子濾波器重采樣算法的研究[J].自動化與儀器儀表, 2017(1): 3-8.
Chen Hui, Liu Bei, Ye Ping, et al. Research on multi-objective particle filter resampling algorithm [J]. Automation and Instrumentation, 2017(1): 3-8.
17 Christos F, Yannis P, Kevin J N. Denoising autoencoder self-organizing map (DASOM) [J]. Neural Networks, 2018, 105: 112-131.
18 Chen H, Liu B, Ye P. Improved particle filter based on genetic algorithm [J]. Computer Simulation, 2018, 35(7): 221-225.