陳曉燕

摘 要 圖像匹配有很多的局部描述子算法,即尋找圖像間的對應點和對應區域。局部特征在很多應用中都有重要的作用,比如創建全景圖、增強現實技術以及計算圖像的三維重建。SIFT特征包括興趣點檢測器和描述子。SIFT描述子具有非常強的穩健性。SIFT特征對應尺度、旋轉和亮度都具有不變性,因此它可以用于可靠匹配。圖像配準時對圖像進行變換,使得變換后的圖像能夠在常見的坐標系中對齊。配準可以是嚴格配準,也可以是非嚴格配準,為了能夠進行圖像對比和更精細的圖像分析,圖像配準是一步非常重要的操作。本文針對SIFT (scale invariant feature transform)算法在圖像配準上的應用進行研究和實現。RANSAC是“Random Sample Consensus”(隨機一致性采樣)的縮寫。該方法是用來找到正確模型來擬合帶有噪聲數據的迭代方法。給定一個模型,例如電機之間的單應性矩陣,RANSAC基本的思想是,數據包含正確的點和噪聲點,合理的模型應該能夠在描述正確數據點的同時摒棄噪聲點。我們經常使用該約束將很多圖像縫補起來,拼成一個大的圖像來創建全景圖像。
【關鍵詞】圖像配準 SIFT特征 隨機一致性采樣
近些年來,隨著科技的不斷飛速發展,圖像拼接技術成為計算機圖像處理、計算機視覺等領域的研究熱點。圖像拼接在虛擬現實、遙感技術和軍事領域都有很多的應用。獲取到的圖像信息量逐步增大,提供了更多有效的數據支撐,不同相機拍攝到的高分辨率圖像間會出現旋轉、平移、光照甚至分辨率大小不同的情況,如何將兩幅圖像快速精確配準,成為目前研究的熱點。
圖像配準技術是將在同一區域但在不同傳感器或不同觀測角度下拍攝的兩幅或多幅圖像,找出其相同或重疊區域,并進行匹配對準的過程。準確的圖像配準也是圖像融合與拼接能夠順利完成的重要先決條件。圖像配準的方法可以分為基于灰度信息的圖像配準方法,基于變換域的圖像配準方法和基于特征的圖像配準方法三大類方法。在基于特征的圖像配準方法中,1999年由Lowe提出并在2004年改進完善的SIFT算法對圖像旋轉、比例縮放、光照變化表現出較強的魯棒性,并能提取出較多的特征點。
本文采用一種改進的SIFT變換,把圖像SIFT算子檢測到的特征點進行SIFT算子描述,通過K-D樹算法進行初步匹配,然后再通過改進的隨機抽取一致性算法( RANSAC)進行精確匹配,提出一種更具有穩健性的二次反向匹配。因為匹配是單向的,即我們將每個特征想另一幅圖像中的所有特征進行匹配,提出改進的反向逆匹配,即從第二幅圖像中的特征向第一幅圖像中的特征匹配,最后我們只保留同時滿足這兩種匹配準則的對應。實驗結果表明本算法在配準圖像時具有快速性及穩健性。
1 經典SIFT算法原理
SIFT算法的尺度空間是,DOG與不同尺度的圖片卷積。
特征點檢測是,先進行非極大抑制,在去除低對比度的點。在通過Hessian矩陣去除邊緣的點。
方向是,在正方形區域內統計梯度的幅值的直方圖,找max對應的方向。可以有多個方向。
特征描述子是,16*16的采樣點畫風為4*4的區域,計算每個區域的采樣點的梯度方向和幅值,統計成8bin直方圖,共4*4*8=128維。
2 RANSAC(隨機一致性采樣)算法原理
在實際的應用中,為了得到僅包含高質量的匹配,我們通常使用RANSAC算法來進行基礎矩陣的估算。
RANSAC算法的目的是從包含異常值的數據集中估算出給定的數學元素。基本原理是隨機地選取一些數據點,并且只用它們來進行估算。選擇的數據點的個數應當是可以用在進行估算的最小數。對于基礎矩陣來說,8個匹配是最小數。一旦從這個隨機地8個匹配中算出基礎矩陣,集合中所有剩下的匹配都會和矩陣對應的極性約束進行測試。我們找到所有滿足該約束的匹配,它們對應的他正非常接近極值線。這些匹配組成了這個基礎矩陣的支持集合。
3 二次反向匹配法去除誤匹配
本文使用一種更具有穩健性的二次反向匹配。因為匹配是單向的,即我們將每個特征想另一幅圖像中的所有特征進行匹配,提出改進的反向逆匹配,即從第二幅圖像中的特征向第一幅圖像中的特征匹配,最后我們只保留同時滿足這兩種匹配準則的對應匹配點。從而保留了優質匹配。初始數據集中優質匹配的數量越大,RANSAC算法給出正確基礎矩陣的概率也越高。所以我們相當于對數據集進行了優化的篩選。從而保證了后期能得到精準度高的圖像特征點匹配。
4 實驗結果
本文對特征點二次雙向匹配算法進行了相關實驗,選取不同的多幅圖像進行了配準測試,較全面地測試了配準功能。下面以圖1、圖2為例進行說明,給出實驗結果及分析。
5 結論
本文使用了一種二次雙向匹配算法與SIFT算法相結合的配準算法,該算法可以去除重要的誤匹配點,提高初始數據中的優質匹配的數量,從而提高了配準的準確率。
參考文獻
[1]Lowe D G.Distinctive image features from scale-invariant key points[J]. International Journal of Computer Vision,2004,60(2):245-270.
[2]Bay H,Tuytelaars T,Gool L V.SURF speeded up robust features[A]. The Nineth European Conference on Computer Vision (ECCV)[C].Graz, Austria;Springer,2006:404-417.
[3]Kordelas G,Daras P.Robust SIFT-based feature matching using Kendall's rank correlation measure[A].Proc. ICIP[C].2009:325-328.
作者單位
華南師范大學 廣東省廣州市 510006