張振寧
(四川大學計算機學院,成都 610065)
近年來,隨著信息技術的飛速發展,數字圖像技術有了很大的進步,而與之關聯密切的計算機視覺技術,也引起人們越來越多的關注。計算機視覺的相關研究成果已經被應用到很多領域,給人們的生活帶來了極大的便利,但這離人們的最終目標還有很大差距,人們對計算機視覺技術的研究任重而道遠。圖像匹配技術作為計算機視覺不可或缺的重要技術之一,對其進行深入的探索與研究,將有助于推進計算機視覺的發展。
圖像匹配主要衡量圖像之間的相似度和一致性,是計算機視覺諸多應用的基礎,例如圖像檢索[1]、圖像拼接[2-4]、圖像配準[5]、三維重建[6-8]等。如上所述的應用領域中都離不開圖像匹配技術,圖像匹配技術是這些技術中一個基礎并且相當重要的過程。以3D打印機為例,3D打印機一般先要生成需要打印物體的模型,然后對生成的模型進行打印。其中模型可用3D Max技術生成,也可以通過拍攝實際物體各個方向的多幀圖像,然后應用這些圖像進行三維表面重建,生成一個實際的三維物體模型。三維表面重建過程包括圖像采集、圖像匹配、攝像機標定和三維位置恢復和顯示。也就是說一般都是先對物體表面的各個方向進行拍攝獲取多幀圖像,然后對多幀圖像進行匹配,進而攝像機參數標定和最后三維位置恢復和顯示。其中在匹配過程中,一旦選擇了不合理的圖像匹配算法或者匹配算法出現問題,就會造成錯誤的位置匹配,從而導致后邊攝像機參數計算錯誤,進而最后重建的三維表面和實際不一致。同樣在機器人定位、車牌識別都離不開匹配,由此可見圖像匹配技術的重要性。針對相同物體在不同條件下的多幅圖像,由于攝像機參數、光照情況、視角變化、模糊程度等均存在差異,使得相同物體的同一區域也會表現出各種不同的形態,而圖像匹配技術就是要在同一原像不同形態的像之間建立對應關系。現如今,已經產生了許多經典的圖像匹配算法。2009年Jean-Michel Morel和Guoshen Yu在SIFT[9]算法的基礎上提出了ASIFT[10]算法。ASIFT算法通過以一定間隔模擬相機拍攝方向的經度角(旋轉角)、緯度角(傾斜角)生成兩組模擬圖像,最后把生成的兩組模擬圖像分別進行SIFT匹配。與之前的仿射不變方法相比,由于模擬了所有可能的仿射形變,ASIFT算法是一種充分的仿射不變方法。
在SIFT的基礎上,2009年Jean-Michel Morel和Guoshen Yu提出了ASIFT算法,相比以前的算法而言,ASIFT算法是唯一的充分的仿射不變算法。
ASIFT提出經度角和維度角的概念,來描述相機的旋轉角和傾斜角。ASIFT算法相比SIFT類算法具有匹配興趣點多,能夠適應非常大的視角改變等優點。
因為一個仿射變換矩陣需要六個參數,通過簡單的模擬這六個參數,然后比較模擬圖像是不可能實現的。一個可供替代的方法是歸一化方法,已經被以往很多論文中通過不同的嘗試過。一個標準的仿射變換有六個參數,由于現有的局部特征算法都能很好地適應平移不變性,我們只給其中四個參數的形式,任意一個仿射變換矩陣可以唯一的表示為:

其中 λ>0,λ代表相機的焦距,Ri是旋轉,?∈[0,π),Ti是傾斜,也就是,一個對角矩陣第一個特征值是t,第二個特征值是1。
圖1顯示了一個仿射相機模型:?和θ=sin-11 t代表觀察的角度,ψ代表相機的旋轉,λ對應放縮。正面拍攝的圖像的參數應為λ=1,t=1,?=ψ=0。

圖1 相機光軸經緯度角
SIFT算法模擬了一個仿射變換矩陣的四個參數,包括相機圍繞光軸的旋轉,相機拍攝時候的焦距,平移和旋轉。ASIFT算法模擬了仿射矩陣的兩個參數,相機與圖像法線的傾斜角θ和旋轉角?。
SIFT算法的主要思想是將模擬和歸一化結合在一起。SIFT描述符歸一化了平移和旋轉并且通過縮放圖像模擬出了所有需要查詢和檢測的圖像。這是由于此,SIFT算法是完全尺度不變的。ASIFT精確的模擬出來所有由相機光軸方向改變所造成形變的圖像,然后通過SIFT算法進行匹配這些模擬圖像。換句話說,ASIFT算法模擬了一個三個參數:相機的傾斜角θ、相機的旋轉角?和焦距λ。盡管相機的傾斜角θ所帶來的形變是不可逆的,但是可以通過在其正交方向來模擬相同數量的傾斜來補償來模擬這一形變。與歸一化方法相比,ASIFT通過這個方法模擬,實現了完全仿射不變。
(1)針對參考圖像和測試圖像,首先對每幀圖像在x方向進行一個標準差為c t2-1模糊.其中Lowe在SIFT論文中建議c=0.8,并證明了在c=0.8情況下只會有一個很小的走樣誤差。對每幀圖像模擬所有因為相機光軸方向改變所造成的形變,生成模擬圖像需要依賴兩個參數:經度角?和緯度角θ。需要同時模擬經度角?和緯度角θ所照成的圖像形變,緯度角θ和斜度t之間的關系為:t=|1 cosθ|(圖像u(x,y)在x方向的發生斜度為t的形變,此時u(x,y)→u(tx,y))。在數字圖像上,經度角?是通過對圖像旋轉?來實現,在某個方向的斜度t是通過在相對方向上進行一個t倍降采樣來實現。
(2)旋轉和傾斜是通過一個有限的且數量很小的經度角和緯度角來進行采樣模擬實現的,采樣步長盡可能的保證模擬圖像可以覆蓋所有不同的?和θ。
(3)對參考圖像和測試圖像生成的一系列模擬圖像,使用SIFT算法提取描述符并進行匹配。
(1)緯度角θ的采樣時要保證其相關的斜度t滿足一個幾何級數序列:1,a,a2,…,an,其中a>1.在ASIFT論文中,Morel指出a=2是一個不錯的選擇,此時ASIFT算法在模擬的準確度和稀疏度上都能取得很好的效果。此時n的取值可以是5或者更大,此時的相對斜度值可以達到32。
(2)經度角?相對于每一個斜度t是一個等比級級數序列:0,b t,…,kb t,其中 ASIFT論文中指出b≈72°是一個不錯的選擇,k是一個滿足kb t<180°的最大整數。
圖2顯示了ASIFT算法匹配的一個直觀圖,其中圖中的正方形A,B是參考圖像和模擬圖像,圖中的平行四邊形表示模擬圖像,他們都是通過SIFT算法進行匹配的。

圖2 ASIFT算法匹配直觀圖[22]
ASIFT采樣范圍:
ASIFT的采樣范圍由實驗決定,經度角的變化范圍由圖1可知為0°到2π。但是從公式1我們知道,在實際中對?進行采樣時,范圍只需要從0°到π就已經可以完全覆蓋所有的仿射變換。
斜度參數t的采樣范圍非常關鍵。ASIFT假設物體表面一個很小的局部范圍可以近似為一個平面結構,在確定斜度參數t時,通過用室內拍攝的圖像集和室外拍攝的圖像集進行多次比較分析來確定。在ASIFT論文中,其給出斜度t的一個實驗得出來的上限為,其對應的最大視角值為θmax=cos-11 tmax=80°。意味著 ASIFT算法可以在=32的相對斜度下匹配兩幅圖像。
采樣步驟:
為了使ASIFT算法對任何發生仿射形變的圖像都具有仿射不變性,其斜度t和旋轉角?必須具有相當高的經度。其采樣間隔的確定過程中需要做各種場景的大量實驗。
在較大的緯度角θ下,較小的增量Δθ能使圖像產生比較大的形變。對斜度t進行幾何級數的采樣可以滿足這一要求。通常來說,采樣比率Δt=tn+1tn應該與經度角?是無關的。Morel在ASIFT論文中指出,斜度t的最佳采樣間隔為
同樣,對于經度角?來說,當θ=cos-11 t增加時,在較大的緯度角θ下,圖像的經度角的一個很小的增量Δ?能夠使圖像發生比較大的形變。在ASIFT論文中,Morel經過大量的實驗得出,Δ?=72°t為一個比較好的選擇,其中t為斜度。
圖3中,按照參數θ=cos-11 t和?進行采樣,黑色點為采樣點,左圖為半球體在沿Y軸方向的透視圖,右圖為半球體在沿Z軸方向的透視圖。

圖3 采樣參數θ=cos-11 t和?,黑色點為采樣點
實驗圖集選用ASIFT圖像集,測試圖像由圖4所示的油畫圖像,在焦距為1倍和10倍條件下,拍攝角度在0°(正面)到80°之間生成兩組圖像。

圖4 用做實驗的圖像
在焦距為1倍和10倍條件下,ASIFT匹配點的量的實驗結果如表1所示:

表1
其中在1倍焦距下的,絕對傾斜θ為65°的實驗效果圖和在10倍焦距下,絕對傾斜為80°的實驗效果圖如圖 5,圖 6。
圖5:1倍焦距下,絕對傾斜65°的實驗效果圖(左圖)為豎直方向匹配效果(右圖)為水平方向匹配效果圖。

圖5
圖6:10倍焦距下,絕對傾斜80°的實驗效果圖(左圖)為豎直方向匹配效果(右圖)為水平方向匹配效果圖。
根據理論描述以及實驗的結果顯示,ASIFT算法是一種完全仿射不變圖像匹配算法。ASIFT算法不但具有旋轉不變性和尺度不變性,對光照強度改變、視角變化也具有一定程度的穩定性,同時由于ASIFT算法通過以一定間隔模擬相機拍攝方向的經度角(旋轉角)、緯度角(傾斜角)生成兩組模擬圖像,最后把生成的兩組模擬圖像分別進行SIFT匹配。與之前的仿射不變方法相比,由于模擬了所有可能的仿射形變,ASIFT算法是一種充分的仿射不變方法。

圖6
參考文獻:
[1]K.Mikolajczyk,C.Schmid.Indexing Based on Scale Invariant Interest Points[C].Proceedings of the IEEE International Conference on Computer Vision,2001,1:525-531.
[2]M.Brown,D.Lowe.Recognising Panoramas[C].In Proceedings of the IEEEInternational Conference on Computer Vision,2003,2:1218-1225.
[3]M.Brown,S.Richard,S.Winder.Multi-Image Matching Using Multi-Scaleoriented Patches[C].In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005,1:510-517.
[4]S.Richard.Image Alignment and Stitching:a Tutorial[J].Foundations and Trends in Computer Graphics and Vision,2006,2:101-104.
[5]J.Kybic.High-Dimional Mutual Information Estimation for Image Registration[C].IEEE 2004 International Conference on Image Processing,2004,3:1779-1782.
[6]N.Snavely,I.Simon and S.M.Seitz.Building Rome in a Day[C].In Proceedings of the IEEE International Conference on Computer Vision,2009,9(29):72-79.
[7]N.Snavely,M.Seitz Steven,S.Richard.Photo Tourism:Exploring Photocollections in 3D[J].ACM Transactions on Graphics,2006,25:835-846.
[8]Y.Furukawa,J.Ponce.Accurate,Dense,and Robust Multi-View Stereopsis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(8):1362-1376.
[9]Lowe D.Distinctive Image Features from Scale-Invariant Keypoints[J].Int.J.Comput.Vis.,2004,60(2):91-110.
[10]J.M.Morel,G.Yu.ASIFT:A New Framework for Fully Affine Invariant Image Comparison[J].SIAM Journal on Imaging Sciences,2009,2(2):438-469.