鄭 紅 劉振強 溫天驍
(北京航空航天大學 自動化科學與電氣工程學院,北京100191)
圖像匹配從場景的兩幅或多幅圖像中確定點對應關系,是計算機視覺的重要內容,在圖像配準三維重構、目標識別以及目標跟蹤等領域有著廣泛應用[1-5].
由于局部不變特征對圖像平移、旋轉、尺度、光照以及一定程度的視點變化具有不變性,基于局部不變特征的匹配方法可以獲得較為精確穩定的圖像匹配效果.文獻[6]對多種局部不變特征算法進行評估比較,發現尺度不變特征變換(SIFT,Scale Invariant Feature Transform)算法[7]在大多數測試中表現出優秀的魯棒性和準確性,可得到正確率較高的匹配結果.
但是由于SIFT只利用了特征點的局部鄰域梯度信息,對整體圖像中的局部相似結構無法有效區分,當圖像中出現重復的局部結構時,極易發生誤匹配現象.針對這種情況,通過極幾何約束估計的方法來去除誤匹配,如 M-Estimators[8],RANSAC(RANdom SAmple Consensus)等方法.但這些方法需要用全體匹配點對進行迭代訓練,其精度受錯誤匹配率的影響較大[9].文獻[10]將全局上下文描述符與SIFT描述符通過加權方式組合在一起形成新的描述符,并通過PCA(Principal Component Analysis)降維后進行匹配.由于需要為每個特征點計算新的高維特征描述符,其過程繁瑣,且PCA降維后描述符性能會有所下降.
為克服局部相似結構等因素導致的錯誤匹配,本文提出一種基于支持描述的SIFT匹配方法,利用SIFT初始匹配結果中具有較高穩定性的匹配特征的分布信息建立支撐特征集,對穩定……