摘 要: 應(yīng)用Harris角點和SIFT圖像局部特征定量化數(shù)據(jù)描述的互補(bǔ)優(yōu)勢,提出了圖像分塊Harris?SIFT特征匹配方法。將原圖像分割成子圖像塊,根據(jù)子塊的可變閾值檢測多尺度Harris角點,并對其進(jìn)行迭代精化,使其收斂到真值,然后生成定量化的特征矢量。匹配應(yīng)用雙向最近鄰算法并用RANSAC去除誤匹配。通過仿真驗證,這種方法增強(qiáng)了角點提取的魯棒性,提高了匹配速度和精度。
關(guān)鍵詞: 圖像分塊; Harris?SIFT; 迭代精化; 特征匹配
中圖分類號: TN919?34; TP391 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2013)22?0073?03
0 引 言
在圖像局部區(qū)域提取出的特征如邊緣線、角點等稱為局部特征。其對仿射、旋轉(zhuǎn)、光照等變化具有不變性。將局部特征應(yīng)用于圖像配準(zhǔn),具有廣泛的應(yīng)用領(lǐng)域,例如圖像拼接、運(yùn)動目標(biāo)檢測、模式識別等。Harris角點作為當(dāng)前效果最好應(yīng)且應(yīng)用最多的角點[1?2],具有局部特征的若干不變性。利用高斯濾波,Mikolajczyk實現(xiàn)了Harris角點的尺度不變性[3?4]。Lowe于2004年提出完善的SIFT算法[5?6],為了能夠使特征點的匹配測度更準(zhǔn)確,對其進(jìn)行定量化的描述從而生成特征矢量[5?6]。其作為特征點與匹配的橋梁,實現(xiàn)了圖像的精確匹配。本文先將原圖像分割成子圖像塊,利用分塊閾值避免因圖像灰度不均勻造成的角點漏檢;結(jié)合Harris角點和SIFT定量化數(shù)據(jù)描述,獲得穩(wěn)定的特征矢量,保證了特征匹配的速度、精度和魯棒性。仿真驗證,這種特征匹配方法能夠取得很好的仿真效果。
1 角點檢測
1.1 圖像分塊
圖像分塊是本文在角點檢測前的第一步,目的是為改變整幅圖像角點響應(yīng)單一閾值的影響,在各圖像子塊中設(shè)定分塊閾值,使提取的角點分布均勻合理,充分反應(yīng)圖像整體結(jié)構(gòu)[7]??梢赃x擇圖像塊大小固定和塊數(shù)固定的方法對圖像進(jìn)行分塊。采用子塊大小固定的方法,可以按照圖像的灰度紋理分布,合理選擇子塊的大小,保證灰度不同的各子塊根據(jù)不同閾值合理提取角點。但是,這種方法容易造成越界分塊。本文用固定塊數(shù)的方法,去除上述的越界分塊[7]。完成圖像分塊后,每一個子圖像塊都有獨自的灰度分布和紋理。在1.2節(jié)中進(jìn)行角點響應(yīng)閾值選擇時,采用最大響應(yīng)值的比例,這樣[i]子塊的閾值定義為[βRimax]。在每一子圖像塊中有不同閾值,可以檢測出各子塊中特征相對顯著的角點,保證了檢測的角點充分反應(yīng)圖像整體結(jié)構(gòu)。
1.2 角點提取
高斯尺度空間是應(yīng)用不同尺度的高斯濾波器對圖像進(jìn)行濾波,獲得相應(yīng)的尺度高斯圖像[3]。
高斯核[4]:
判斷R在角點鄰域內(nèi)是否為極大值并進(jìn)行篩選,提取Harris位置空間角點[3]。式(4),式(5)中[TR]為角點響應(yīng)閾值,本文用自適應(yīng)閾值[TR=βRmax],[β]為可以設(shè)定的常數(shù),本文仿真取[β=0.2。]在整幅圖像中,[Rmax]固定,而圖像灰度紋理不同,要使提取的角點分布均勻且合理,必須采用變化的閾值。為此,本文首先對圖像進(jìn)行分塊,則第[i]塊圖像閾值為[TiR=βRimax],這樣就可以應(yīng)用子塊的閾值。最后,進(jìn)行拉普拉斯響應(yīng)值[4]計算,判斷Harris位置空間角點:
1.3 迭代精化
數(shù)字化的圖像是作為離散數(shù)據(jù)來處理的,這樣在對響應(yīng)R判斷時[Rmax]可能被拒絕,為使提取的角點收斂到其真值,采用迭代的方法進(jìn)行處理,由上文得到初始點集[(x,σI)],進(jìn)行精化迭代運(yùn)算[4]:
用上式進(jìn)行篩選,拒絕不滿足式(10)的點;最后若[σ(k+1)I≠σ(k)I],并且[σ(k+1)I≠σ(k)I],轉(zhuǎn)到(1)。對于數(shù)字化的圖像來說,在不同的尺度上進(jìn)行檢測,可能會得到不同的角點位置。通過迭代精化運(yùn)算,這些不同的位置將逐漸收斂一致。
2 特征矢量及匹配
2.1 角點定量化描述
為了使生成的特征矢量具有旋轉(zhuǎn)不變性,首先要確定角點主方向和輔助方向[8]。計算角點鄰域的梯度幅值和方向。
根據(jù)幅值統(tǒng)計梯度方向的直方圖。在這個局部區(qū)域內(nèi),距離角點更近的點更能反應(yīng)圖像的結(jié)構(gòu),因此,在直方圖統(tǒng)計時,對其進(jìn)行高斯加權(quán),使角點附近的點的幅值和方向有較大比例,消除仿射造成的角點不穩(wěn)定[8]問題。根據(jù)劃分的區(qū)域和方向范圍,生成128維的特征向量[5?6,8]。根據(jù)區(qū)域的不同用高斯函數(shù)加權(quán)處理,保證角點附近的區(qū)域方向具有更大的比重。為增強(qiáng)特征矢量對光照、仿射等變化適應(yīng)性,對其進(jìn)行歸一化。為增強(qiáng)特征矢量的鑒別性[5?6,8],截斷其中值大于0.2的,重新進(jìn)行歸一化。
2.2 匹配策略
對已有的角點特征矢量,采用雙向匹配策略,以歐式距離作為特征向量的相似性測度,對已生成的兩個角點特征向量進(jìn)行匹配。最后,應(yīng)用RANSAC方法[9?10]去除誤匹配,保證角點特征匹配的精度。
3 實驗結(jié)果與分析
采用256×320實驗圖像,在Intel Core i5,3.1 GHz CPU,4.0 Gb RAM的PC機(jī)上用MATLAB語言程序?qū)崿F(xiàn)本文方法。對分塊閾值在本文方法中對角點檢測的影響進(jìn)行了實驗分析,同時對本文提出的分塊閾值Harris?SIFT與SIFT算法的匹配性能進(jìn)行了仿真比較分析。
3.1 分塊閾值對角點的影響
無分塊閾值的Harris?SIFT算法、本文提出的算法和SIFT算法檢測圖像特征點分別如圖1~圖3所示。
圖1,圖2比較,圖1檢測到的角點較少,分布不均勻,圖2角點均勻合理??梢缘贸觯尤敕謮K閾值,改變了整幅圖像的單一閾值[Rmax],增加子圖像塊閾值[Rimax],使角點檢測更準(zhǔn)確,充分反應(yīng)圖像整體結(jié)構(gòu)。
圖2,3比較,圖2Harris角點均勻合理,充分反應(yīng)圖像結(jié)構(gòu)。圖3特征點隨圖像灰度紋理變化較大,分布不均,且大都不是角點。
3.2 本文算法與SIFT算法性能比較
通過特征匹配和去除誤匹配得到匹配結(jié)果如圖4,比較本文算法與SIFT算法的配準(zhǔn)效果見表1。
由實驗結(jié)果可見,SIFT算法中DOG算子和卷積用時間長。本文算法先檢測多尺度Harris角點,計算量小,提取特征點數(shù)相對較少,減少了描述角點消耗的時間,圖像配準(zhǔn)速度提高了19.2%。加入分塊閾值,使本文提出的角點均勻合理,配準(zhǔn)精度比SIFT算法提高了1.4%。
4 結(jié) 語
經(jīng)過Matlab仿真驗證,分塊閾值改變了圖像角點響應(yīng)單一閾值的影響,使本文算法中的角點檢測在圖像中分布合理,充分反應(yīng)圖像的整體結(jié)構(gòu)。并且本文算法結(jié)合了Harris角點和SIFT對圖像局部結(jié)構(gòu)特征定量化數(shù)據(jù)描述的互補(bǔ)優(yōu)勢,既減少了配準(zhǔn)時間,又提高了配準(zhǔn)的精度。但是本文算法比較SIFT,也沒有解決角點受仿射變化的影響,下一步需要研究Harris角點的仿射不變性。
參考文獻(xiàn)
[1] SCHIMID C, MOHR R, BAUCKHAGE C. Evaluation of interest point detectors [J] International Journal on Computer Vision, 2004, 37(2): 151?172.
[2] HARRIS C, STEPHENS M. A combined corner and edge detector [C]// Proceedings of 4th Alvey Vision Conference. UK: University of Manchester, 1988: 147?151.
[3] MIKOLAJCZYK K. Scale affine invariant interest point detectors [J]. International Journal on Computer Vision, 2004, 60(1): 63?86.
[4] LINDEBERG T. Scale?space theory in computer vision [M]. Stockholm, Sweden: Kluwer Aademic Publishers, 1994.
[5] LOWE D G. Distinctive image features from scale?invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91?110.
[6] LOWE D G. Object recognition from local scale?invariant features [C]// Proceedings of the International Conference on Computer Vision. Kerkyra; ICCV, 1999, 2: 1150?1157.
[7] 張登榮,劉輔兵,俞樂.基于Harris操作數(shù)的遙感影像自適應(yīng)特征提取方法[J].國土資源遙感,2006(2):60?63.
[8] LI Can?lin, MA Li?zhuang. A new framework for feature descriptor based on SIFT [J]. Patter Recognition Letters, 2009, 30(1): 544?557.
[9] YANG Shao?wen, WANG Chieh?Chih, CHANG Chun?hua. RANSAC matching: simultaneous registration and segmentation [C]// 2010 IEEE International Conference on Robotics and Automation. Anchorage, AK: IEEE, 2010: 1905?1912.
[10] 王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國防工業(yè)出版社,2010.