孫增友,段玉帥,李 亞
(東北電力大學(xué) 信息工程學(xué)院,吉林 吉林132012)
基于中心環(huán)繞濾波器檢測(cè)的圖像特征點(diǎn)匹配算法
孫增友,段玉帥*,李 亞
(東北電力大學(xué) 信息工程學(xué)院,吉林 吉林132012)
針對(duì)傳統(tǒng)圖像匹配算法特征點(diǎn)檢測(cè)穩(wěn)定性和準(zhǔn)確性差的問題,提出一種尺度不變性的基于中心環(huán)繞濾波器檢測(cè)(SCFD)的圖像特征點(diǎn)匹配算法。首先,構(gòu)建多尺度空間,利用中心環(huán)繞濾波器檢測(cè)圖像在不同尺度下的特征點(diǎn),采用Harris方法和亞像素插值獲得穩(wěn)定的特征點(diǎn);其次,聯(lián)合快速定向旋轉(zhuǎn)二進(jìn)制穩(wěn)健基元獨(dú)立特征(BRIEF)(ORB)算法確定特征點(diǎn)的主方向,構(gòu)建特征點(diǎn)描述算子;最后,采用漢明距離完成匹配,通過最小平方中值(LMedS)定理和最大似然(ML)估計(jì)剔除誤匹配點(diǎn)。實(shí)驗(yàn)結(jié)果表明,在尺度變化時(shí),所提算法的匹配精度達(dá)到96.6%,是ORB算法的2倍;其運(yùn)行時(shí)間是尺度不變特征變換(SIFT)的19.8%,加速魯棒性特征(SURF)的28.3%。所提算法能夠有效提高特征點(diǎn)檢測(cè)的穩(wěn)定性和準(zhǔn)確性,在視角、尺度縮放、旋轉(zhuǎn)、亮度等變化的情況下具有較好的匹配效果。
特征點(diǎn)匹配;尺度不變性;特征點(diǎn)檢測(cè);快速定向旋轉(zhuǎn)二進(jìn)制穩(wěn)健基元獨(dú)立特征;最小平方中值定理
圖像匹配的任務(wù)是建立兩張圖像中同一場(chǎng)景部分之間的對(duì)應(yīng),這在計(jì)算機(jī)視覺應(yīng)用中是一個(gè)重要的問題,如目標(biāo)檢測(cè)[1]、圖像索引[2]、視覺定位[3]和視覺導(dǎo)航[4]等方面。其中大部分應(yīng)用都受到實(shí)時(shí)性和穩(wěn)定性的限制,尤其是在視覺定位系統(tǒng)中,由于采集的圖像來自于不同的時(shí)間,采集圖像的視角不同,以及受到環(huán)境中光照和噪聲的影響,拍攝圖像的邊緣輪廓會(huì)存在較大的差異,甚至圖像會(huì)十分模糊、噪聲干擾較大。因此設(shè)計(jì)出一種能夠快速提取穩(wěn)定的特征點(diǎn),同時(shí)最大限度提高圖像匹配準(zhǔn)確度和抗干擾能力的算法具有重要意義。
圖像匹配算法可以分為兩類:基于灰度信息的匹配算法和基于特征的圖像匹配算法[5-6]。基于灰度信息的匹配算法通過空間二維滑動(dòng)模板進(jìn)行匹配,運(yùn)算過程簡(jiǎn)單,匹配精度高,但是算法運(yùn)算量大,對(duì)噪聲比較敏感。而基于特征的圖像匹配中常用的圖像特征包括點(diǎn)特征、線特征和邊緣特征,其中圖像特征點(diǎn)的提取過程受到噪聲影響較小,同時(shí)對(duì)于灰度變化、圖像變形和遮擋具有較強(qiáng)的抗干擾能力。經(jīng)典的特征檢測(cè)方法,如Moravec算法[7]和Harris算法[8],它們的特征點(diǎn)檢測(cè)過程只是在單一的尺度上進(jìn)行,容易受到噪聲影響。Lowe[9]提出的尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)算法,利用高斯函數(shù)構(gòu)建尺度空間,對(duì)圖像縮放、旋轉(zhuǎn)、仿射變換保持不變性,但是由于采用了128維的描述算子,計(jì)算量較大,不適合應(yīng)用在對(duì)實(shí)時(shí)性要求較高的圖像匹配中。Ke等[10]利用主元分析法替換SIFT算法中的直方圖,從而達(dá)到對(duì)SIFT描述符進(jìn)行降維的目的,但是影響其特殊性和增加描述算子形成的時(shí)間使得增加的匹配速度性能毀于一旦。Bay等[11]提出了加速魯棒性特征(Speeded Up Robust Features, SURF)描述符,SURF最大的特征在于采用了積分圖像和哈爾特征的概念,縮短了程序的運(yùn)行時(shí)間,但是因?yàn)椴捎?4維的浮點(diǎn)型描述算子,要求大量的存儲(chǔ)空間。Agrawal等[12]提出了中心環(huán)繞極值(Center Surround Extrema, CenSurE)算法,通過設(shè)計(jì)簡(jiǎn)單的雙層濾波器來近似高斯拉普拉斯,提高了計(jì)算效率,但是由于采用的線性濾波器導(dǎo)致濾波器響應(yīng)信號(hào)稀疏,在尺度變化和幾何變化時(shí)特征點(diǎn)穩(wěn)定性差。Rublee等[13]提出了快速定向旋轉(zhuǎn)二進(jìn)制穩(wěn)健基元獨(dú)立特征(Oriented fast and Rotated Binary Robust Independent elementary Features (BRIEF), ORB)算法。ORB算法是加速分割測(cè)試特征(Features from Accelerated Segment Test, FAST)和二進(jìn)制穩(wěn)健基元獨(dú)立特征(BRIEF)描述符的結(jié)合和改進(jìn),具有很高的計(jì)算效率。但是FAST特征點(diǎn)不具備尺度不變性[14],在圖像發(fā)生尺度變化的情況下,該算法的匹配精度會(huì)受到嚴(yán)重的影響。
基于尺度空間提取特征點(diǎn)的思想,本文提出一種尺度不變性的基于中心環(huán)繞濾波器檢測(cè)(Scale-invariant Center surround Filter Detection, SCFD)的圖像特征點(diǎn)匹配算法。該算法提出的特征檢測(cè)子可以有效提高計(jì)算速度和準(zhǔn)確性,同時(shí)具備尺度不變性;其次,聯(lián)合ORB構(gòu)建特征點(diǎn)描述算子;最后通過最小平方中值(LMedS)定理和最大似然(ML)估計(jì)方法對(duì)數(shù)據(jù)進(jìn)一步求精。將本文算法與ORB、SIFT、SURF等算法進(jìn)行性能對(duì)比分析,實(shí)驗(yàn)結(jié)果表明,本文算法能夠有效提高特征點(diǎn)的穩(wěn)定性和匹配精度。
由于圖像中的特征點(diǎn)不易受到環(huán)境中的噪聲影響,在灰度變化、圖像變形和遮擋時(shí)具有較強(qiáng)的抗干擾能力,故基于特征的圖像匹配算法得到廣泛應(yīng)用。而常用的特征點(diǎn)檢測(cè)方法(如Harris、FAST)在特征點(diǎn)檢測(cè)過程中只是在單一的尺度上進(jìn)行,特征點(diǎn)容易受到環(huán)境中光照強(qiáng)度、噪聲、視角改變等的影響。通過構(gòu)建尺度空間模型可以將單尺度信息納入尺度不斷變化的動(dòng)態(tài)分析框架中,更容易獲得圖像本質(zhì)特征。SIFT算法,通過構(gòu)建高斯金字塔并在不同的尺度上查找關(guān)鍵點(diǎn)。但是,由于對(duì)原始圖像不斷進(jìn)行隔點(diǎn)采樣,較高層的特征相對(duì)于原始圖像的精度較低,造成在金字塔的較高層特征點(diǎn)不能被準(zhǔn)確地定位。為了提高特征點(diǎn)的穩(wěn)定性和獲取特征點(diǎn)準(zhǔn)確的位置信息,本文采用穩(wěn)定性和計(jì)算效率更高的中心環(huán)繞雙層濾波器,由于該濾波器在所有的尺度和像素上計(jì)算濾波響應(yīng),所以提取的特征點(diǎn)具有較高精度。
因此,提出一種新的特征點(diǎn)檢測(cè)方法。首先利用中心環(huán)繞雙層濾波器近似高斯拉普拉斯算子構(gòu)建尺度空間,計(jì)算原始圖像中的每個(gè)像素點(diǎn)的中心環(huán)繞哈爾小波響應(yīng)值,采用積分圖像加速運(yùn)算過程[12],然后利用非極大值抑制方法檢測(cè)極值,最后通過Harris和子像素插值獲得更加穩(wěn)定的特征點(diǎn)。
在利用高斯差分函數(shù)近似代替高斯拉普拉斯函數(shù)的啟發(fā)下,本文利用更為簡(jiǎn)單的中心環(huán)繞雙層濾波器近似高斯拉普拉斯算子,從而達(dá)到簡(jiǎn)化計(jì)算的目的。圖1顯示了通用的中心環(huán)繞小波的塊大小n。設(shè)雙層濾波器的內(nèi)核尺寸為(2n+1)×(2n+1),外核尺寸為(4n+1)×(4n+1),設(shè)In是內(nèi)核權(quán)重系數(shù),On是外核權(quán)重系數(shù),因?yàn)橐沟脼V波器DC響應(yīng)為零,權(quán)重系數(shù)應(yīng)滿足下面的等式:
On(4n+1)2=In(2n+1)2
(1)
對(duì)尺度空間進(jìn)行歸一化處理:
In(2n+1)2=In+1(2(n+1)+1)2
(2)

圖1 中心環(huán)繞雙層盒濾波器Fig. 1 Center-surround bi-level boxes filter
將尺度空間劃分為四組,每組由四層組成。為了提高特征點(diǎn)的提取精度,不同于SIFT中下一組是在上一組進(jìn)行降采樣,而是在每一組中采用尺度遞增的中心環(huán)繞濾波器和原始圖像作卷積,可以獲得一系列的響應(yīng)圖。為了進(jìn)一步提高特征點(diǎn)的穩(wěn)定性和匹配的準(zhǔn)確性,通過行子像素插值精確定位特征點(diǎn)位置。在每一組中選擇四層尺度圖像,選擇內(nèi)核大小為3×3的濾波器作為尺度空間的初始層,通過放大濾波器的大小可以減小SIFT算法不斷重復(fù)隔點(diǎn)采樣過程帶來的精度損失。為了確保濾波器的內(nèi)核為奇數(shù),并且能夠檢測(cè)到中心像素的出現(xiàn),雙層濾波器內(nèi)核大小逐層增加2。為了能在3D鄰域內(nèi)確定極值點(diǎn),需要多出兩層,即初始層和頂層只作為比較用而并不包含極值點(diǎn)。濾波器大小的構(gòu)造方法是:每組濾波器大小和步長(zhǎng)依次增加,如第一組濾波尺寸大小分別為3、5、7、9。第二組每層濾波器內(nèi)核依次增加4,內(nèi)核大小依次為5×5、9×9、13×13、17×17,第三組、第四組等以此類推。圖2給出了不同組下各層中心環(huán)繞雙層濾波器內(nèi)核大小。

圖2 雙層盒濾波器內(nèi)核大小Fig. 2 Core size of center-surround bi-level boxes filter in different groups
計(jì)算不同尺度的濾波器在圖像中每個(gè)像素上的響應(yīng)值,濾波器響應(yīng)的幅度給出了特征強(qiáng)度的指示,響應(yīng)越強(qiáng),特征點(diǎn)重復(fù)性越好。通過設(shè)置閾值濾除能量較弱以及錯(cuò)誤定位的特征點(diǎn),然后采用非極大值抑制檢測(cè)尺度空間的極值點(diǎn)作為候選的特征點(diǎn),將經(jīng)過中心環(huán)繞雙層濾波器處理的每個(gè)像素點(diǎn)與二維圖像空間和尺度空間鄰域內(nèi)的26個(gè)點(diǎn)進(jìn)行比較,初步定位特征點(diǎn)。
在邊緣或者線段上容易產(chǎn)生不穩(wěn)定的特征點(diǎn),根據(jù)極值在橫跨邊緣的地方有較大的主曲率,而在垂直邊緣的方向有較小的主曲率的特點(diǎn),采用尺度自適應(yīng)的Harris方法計(jì)算主曲率,剔除不穩(wěn)定點(diǎn)的特征點(diǎn)。獲取特征點(diǎn)濾波器響應(yīng)函數(shù)的二階距矩陣H,主曲率比通過H的跡與行列式比值計(jì)算得到,如式(3)所示:
(3)
其中:Lx和Ly為濾波器響應(yīng)函數(shù)在x和y方向上的偏導(dǎo);主曲率值比閾值設(shè)為10[9]。
離散空間的極值點(diǎn)并不是真正的極值點(diǎn),為了獲得精確的極值點(diǎn)位置,采用基于向量的正交性觀測(cè)來實(shí)現(xiàn)亞像素角點(diǎn)定位[15]。采用子像素插值可以有效提高特征點(diǎn)的穩(wěn)定性,獲得更高的重復(fù)率。檢測(cè)原理如圖3所示。

圖3 亞像素角點(diǎn)檢測(cè)原理圖Fig. 3 Principle diagram of subpixel corner detection
設(shè)p為像素級(jí)角點(diǎn),q為角點(diǎn)的真實(shí)位置。DIpi表示在q的一個(gè)鄰域點(diǎn)pi處的圖像梯度,該梯度向量與pi和q組成的向量正交,ε表示兩者正交程度。兩者正交的程度誤差εi=DIpiT(q-pi)。獲取角點(diǎn)的亞像素位置等價(jià)于求以下函數(shù)的最小值:
f(q)=∑εi2=∑[DIpiT· (q-pi)]2
(4)
通過對(duì)f求偏導(dǎo)可得系統(tǒng)方程如下:
(5)


(6)
亞像素角點(diǎn)定位算法具體步驟如下:
步驟1 初始角點(diǎn)位置和窗口大小,計(jì)算窗口鄰域內(nèi)所有點(diǎn)在圖像坐標(biāo)系下的灰度信息以及位置信息。
步驟2 利用鄰域點(diǎn)在圖像中的位置信息計(jì)算鄰域點(diǎn)的梯度信息。
步驟3 根據(jù)鄰域點(diǎn)的位置和梯度信息通過上面的推導(dǎo)式(6)計(jì)算特征點(diǎn)的準(zhǔn)確位置q。
步驟4 設(shè)定閾值D,通過式(6)計(jì)算出第i次檢測(cè)到的特征點(diǎn)位置qi,并以此為中心計(jì)算相鄰i+1次檢測(cè)到的特征點(diǎn)位置qi+1誤差,當(dāng)兩次計(jì)算得到的特征點(diǎn)誤差滿足|qi-qi+1| 為了確保特征矢量具有旋轉(zhuǎn)不變性,需要為每個(gè)特征點(diǎn)分配一個(gè)主方向。利用灰度質(zhì)心法[13]確定所有特征點(diǎn)的主方向。以特征點(diǎn)為中心、半徑為r做圓,計(jì)算圓形鄰域范圍內(nèi)的灰度質(zhì)心位置。把中心位置和質(zhì)心位置之間的偏移向量定義為該特征點(diǎn)的主方向。定義矩的計(jì)算公式如下: (7) 質(zhì)心位置為: C=(m10/m00,m01/m00) (8) 主方向?yàn)椋?/p> θ=arctan(m01/m10) (9) SIFT和SURF算法由于采用了維數(shù)較多的浮點(diǎn)型數(shù)據(jù)格式的描述符,不但降低了匹配效率,同時(shí)也使得內(nèi)存開銷增大。因此,本文聯(lián)合ORB描述算子,在BRIEF的基礎(chǔ)上加上旋轉(zhuǎn)不變性,作為特征描述方法。 構(gòu)造特征點(diǎn)描述符的具體步驟如下: 步驟1 對(duì)圖像進(jìn)行高斯濾波(方差為2,窗口大小為9×9)。以特征點(diǎn)為中心,選取大小為b×b的鄰域窗口。在鄰域窗口內(nèi)隨機(jī)選取兩個(gè)點(diǎn),通過比較像素點(diǎn)大小并進(jìn)行二進(jìn)制賦值,如下: (10) 其中:p(x)、p(y)分別是隨機(jī)選取的點(diǎn)x=(u1,v1)、y=(u2,v2)的像素值。 步驟2 在鄰域窗口中隨機(jī)選取n對(duì)隨機(jī)點(diǎn),重復(fù)步驟1的二進(jìn)制賦值操作,形成二進(jìn)制串編碼,也就是特征描述子。 (11) 步驟3 確定特征點(diǎn)的主方向。由特征點(diǎn)周圍的2n個(gè)點(diǎn)(xi,yi),i=1,2,…,2n組成一個(gè)矩陣S: (12) 采用鄰域方向θ和對(duì)應(yīng)的旋轉(zhuǎn)矩陣Rθ,構(gòu)建S的校正矩陣Sθ:Sθ=RθS。其中: (13) 式中θ為所要求取的特征點(diǎn)主方向。 步驟4 解決描述子的區(qū)分性。為了減少Steered BRIEF方差的虧損,并減少二進(jìn)制碼串之間的相關(guān)性,使用了一種學(xué)習(xí)的方法來選擇一個(gè)較小的點(diǎn)對(duì)集合。方法如下: 1)建立一個(gè)約3×105的關(guān)鍵點(diǎn)測(cè)試集,關(guān)鍵點(diǎn)數(shù)據(jù)取自PASCAL2006集中的圖像。 binArray=[p1,p2,…,pM];pi∈{0,1} (14) 對(duì)3×105個(gè)關(guān)鍵點(diǎn)提取結(jié)束后,得到一個(gè)3×105×M矩陣。計(jì)算該矩陣的每個(gè)列向量的均值,并按列向量的均值重新排序,形成向量Q。 3)進(jìn)行貪婪搜索。把向量Q中排在第一的測(cè)試集中的列向量放到矢量R中,并從測(cè)試集中移除該列向量;然后把Q中依次排序的測(cè)試與R中測(cè)試求相關(guān),超過設(shè)定閾值則丟棄,反之放到R中;重復(fù)前面的步驟直到R中有256個(gè)測(cè)試,否則升高閾值,重新測(cè)試一次。 由于生成的特征點(diǎn)描述子是一個(gè)256 b的二進(jìn)制編碼。計(jì)算兩個(gè)特征點(diǎn)的最近距離和次近距離,設(shè)定閾值,本文取0.8,采用漢明距離進(jìn)行判決。利用第2章求得的描述子,任取K1、K2兩個(gè)描述子: (15) 對(duì)漢明距離進(jìn)行異或處理得到特征描述子的相似程度D(K1,K2): (16) 當(dāng)兩個(gè)描述子相似度大于閾值時(shí),即大于80%時(shí),判定是相同的特征點(diǎn),這兩個(gè)特征點(diǎn)匹配成功。 圖像采集過程中容易受到光照和噪聲等的影響,從而造成匹配錯(cuò)誤。為了進(jìn)一步提高特征點(diǎn)匹配的精確度,首先采用最小平方中值定理(Least Median Squares theorem, LMedS)方法[16]預(yù)先剔除誤匹配,然后使用最大似然估計(jì)(Maximum Likelihood, ML)可以得到較好的匹配結(jié)果。文獻(xiàn)[17]利用隨機(jī)抽取一致性(RANdom SAmple Consensus, RANSAC)算法剔除圖像中的誤匹配點(diǎn),理論上RANSAC算法可以剔除外點(diǎn)的影響,進(jìn)而得到全局最優(yōu)的參數(shù)估計(jì)。但是,RANSAC算法需要在每次迭代過程中都要分內(nèi)點(diǎn)和外點(diǎn),需要預(yù)先設(shè)定閾值;其次,RANSAC的迭代次數(shù)由運(yùn)行周期決定,無法預(yù)知迭代的次數(shù)。 LMedS克服了RANSAC的兩個(gè)缺點(diǎn)。LMedS從所有記錄的樣本中抽出N個(gè)樣本子集,使用最小二乘法對(duì)每個(gè)子集計(jì)算模型參數(shù)和該模型偏差,LMedS中不需要預(yù)先設(shè)定閾值來區(qū)分內(nèi)點(diǎn)和外點(diǎn)。選取N個(gè)樣本子集中偏差最小的所對(duì)應(yīng)的模型參數(shù)作為最終的模型參數(shù)估計(jì)。LMedS方法可以有效地剔除錯(cuò)誤數(shù)據(jù)并估計(jì)誤差協(xié)方差。 最后采用最大似然估計(jì)方法對(duì)數(shù)據(jù)進(jìn)行進(jìn)一步求精。最大似然估計(jì)通過給定的觀察數(shù)據(jù)來評(píng)估樣本集中相關(guān)概率密度函數(shù)的參數(shù),對(duì)于匹配點(diǎn)具有較好的穩(wěn)定性,在匹配點(diǎn)中可以獲得理想的估計(jì)結(jié)果。 本文提出的匹配算法SCFD的流程如圖4所示。 圖4 SCFD 算法流程Fig. 4 Flow chart of SCFD algorithm 本文實(shí)驗(yàn)平臺(tái)采用Intel Core i5 2450M、CPU2.5 GHz、內(nèi)存4.0 GB的計(jì)算機(jī),操作系統(tǒng)為Windows 7,開發(fā)環(huán)境為Microsoft Visual Studio 2012。 重復(fù)率作為特征檢測(cè)性能的評(píng)價(jià)標(biāo)準(zhǔn)方法,可以用來評(píng)價(jià)特征點(diǎn)的穩(wěn)定性,重復(fù)率越高說明提取的特征點(diǎn)越穩(wěn)定[18]。本文使用Mikolajczyk提供的標(biāo)準(zhǔn)圖像庫(http://www.robots.ox.ac.uk/~vgg/research/affine/)中給定的圖像數(shù)據(jù)集,計(jì)算不同變化下各個(gè)算法的重復(fù)率。重復(fù)率的定義如下: (17) 在圖像視角和尺度變化下對(duì)本文算法和FAST、SURF、SIFT和進(jìn)行了實(shí)驗(yàn)測(cè)評(píng)。圖5為視角和尺度發(fā)生變化時(shí)四種算法的重復(fù)率。從圖5(a)可以看出在視角變化的情況下,本文提出的中心環(huán)繞濾波檢測(cè)特征的重復(fù)率要高于SURF和SIFT。圖5(b)表明在尺度發(fā)生變化時(shí),本文算法的特征重復(fù)率優(yōu)于SURF和FAST,同時(shí)克服了FAST不具有尺度不變性的缺陷。本文算法對(duì)于較大的縮放中心環(huán)繞濾波檢測(cè)特征重復(fù)率比SIFT稍微要差,這主要?dú)w因于中心環(huán)繞濾波器覆蓋的尺度比SIFT要少,因此對(duì)于大規(guī)模變化尺度不變性較SIFT略差。 為了對(duì)本文提出的SCFD算法作出全面的評(píng)估,針對(duì)同一場(chǎng)景在尺度、旋轉(zhuǎn)和光照發(fā)生變化的情況下,將所提算法與ORB、SIFT、SURF算法作對(duì)比實(shí)驗(yàn)。 4.2.1 尺度性能分析 采集室外環(huán)境下一張圖片并對(duì)其進(jìn)行尺度變化,用來驗(yàn)證本文提出的SCFD圖像特征匹配算法是否具備尺度不變性。圖像匹配結(jié)果如圖6所示。從圖6(a)可以看出,當(dāng)圖像發(fā)生縮放時(shí),采用ORB算法可以提取出更多的特征點(diǎn),主要?dú)w因于ORB采用的FAST角點(diǎn)檢測(cè),但是由于算法本身不具備尺度不變性,所以可以明顯看出特征點(diǎn)匹配線段較為雜亂,尤其是圖像中松樹的樹枝部分出現(xiàn)很多錯(cuò)誤匹配。圖6(b)、圖6(c)和圖6(d)分別為SIFT、SURF和本文提出的算法的匹配結(jié)果,從圖中可以看出均無明顯的匹配錯(cuò)誤。圖6(d)為本文算法在尺度變化下的匹配結(jié)果,由于LMedS和最大似然估計(jì)方法剔除一部分誤匹配點(diǎn),使得匹配點(diǎn)減少,但是仍然保持大量的正確匹配對(duì),滿足匹配要求。 圖5 視角和尺度變化下的重復(fù)率曲線Fig. 5 Repeatability curve under change of angle of view and scale 圖6 尺度變化時(shí)不同算法圖像匹配結(jié)果對(duì)比Fig. 6 Comparison of image matching results for different algorithms under scale change 為了進(jìn)一步驗(yàn)證四種算法在尺度變化時(shí)的匹配性能,統(tǒng)計(jì)實(shí)驗(yàn)中的四組數(shù)據(jù),如表1所示。由表1可以看出,在尺度發(fā)生變化的情況下,本文算法匹配精度為96.6%,比ORB提高了49.8個(gè)百分點(diǎn),該算法在匹配性能方面的性能表現(xiàn)表明該算法具備尺度不變性;同時(shí),本文算法的匹配精度比SIFT和SURF分別提高了1.3個(gè)百分點(diǎn)和5個(gè)百分點(diǎn),這主要得益于本文提出的提純算法能夠有效剔除圖像中的不穩(wěn)定的特征點(diǎn),提高了匹配性能。 表1 尺度變化時(shí)不同算法圖像匹配性能對(duì)比Tab. 1 Comparison of image matching performance for different algorithms under scale change 4.2.2 旋轉(zhuǎn)性能分析 圖7給出了在旋轉(zhuǎn)變化條件下的不同算法的圖像匹配對(duì)比結(jié)果。從圖7(a)可以看出ORB算法具有一定的旋轉(zhuǎn)不變性,但是在圖像左上角的松樹的松葉和走廊的輪廓部分會(huì)出現(xiàn)雜亂的特征點(diǎn)匹配線;圖7(c)為SURF算法在旋轉(zhuǎn)變化下的匹配結(jié)果,可以看出在圖像的中間部分和地面部分存在明顯的錯(cuò)誤匹配;圖7(c)和圖7(d)分別為SIFT算法和本文所提算法在旋轉(zhuǎn)變化下的匹配結(jié)果,從圖中可以看出這兩種算法的特征點(diǎn)匹配線段均比較平整,具有較好的匹配效果。 表2給出了在旋轉(zhuǎn)變化條件下統(tǒng)計(jì)的不同算法的匹配數(shù)據(jù)。由表2可知,本文所提算法匹配精度達(dá)到了約98.0%,比ORB算法提高了10.9個(gè)百分點(diǎn),較SURF提高了3.6個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明本文算法在旋轉(zhuǎn)性能上表現(xiàn)出良好的匹配性能。 表2 旋轉(zhuǎn)變化時(shí)不同算法圖像匹配性能對(duì)比Tab. 2 Comparison of image matching performance for different algorithms under rotation change 4.2.3 光照性能分析 采用Mikolajczyk提供的標(biāo)準(zhǔn)圖像庫中的一組圖像集leuven進(jìn)行測(cè)試,圖像大小為900×600,圖像集中有6幅圖片,圖片亮度隨著圖像序號(hào)增加逐漸變暗。圖8顯示了不同程度光照條件下四種算法的特征點(diǎn)匹配精度。 由圖8可以看出,在亮度發(fā)生變化的條件下,本文提出的SCFD算法的匹配精度要高于ORB、SIFT和SURF算法,在光照發(fā)生較大變化的情況下仍能取得較好的匹配效果,表明該算法具有良好的匹配精度和穩(wěn)定性。這主要得益于該算法采用亞像素插值的方法確定特征點(diǎn)的準(zhǔn)確位置,進(jìn)一步增強(qiáng)了特征點(diǎn)的魯棒性,同時(shí)采用的最小平方中值定理結(jié)合最大似然估計(jì)算法和僅采用漢明碼匹配相比,可以有效地剔除外點(diǎn),提高特征點(diǎn)匹配的準(zhǔn)確性。 圖7 旋轉(zhuǎn)變化時(shí)不同算法圖像匹配結(jié)果對(duì)比Fig. 7 Comparison of image matching results for different algorithms under rotation change 圖8 亮度變化時(shí)不同算法圖像匹配結(jié)果對(duì)比Fig. 8 Comparison of image matching results for different algorithms under brightness variation 為了驗(yàn)證本文提出的誤匹配點(diǎn)剔除算法的性能,采用Mikolajczyk提供的標(biāo)準(zhǔn)圖像庫中的圖集,在尺度變化、旋轉(zhuǎn)變化和亮度變化下的條件下,利用該算法對(duì)SIFT、SURF和ORB進(jìn)行提純操作并統(tǒng)計(jì)其匹配精度數(shù)據(jù),結(jié)果如表3所示。 從表3中的實(shí)驗(yàn)結(jié)果可以看出,本文提出的誤匹配點(diǎn)剔除算法可以有效地對(duì)特征點(diǎn)數(shù)據(jù)進(jìn)行提純,提高了算法的匹配精度。 表3誤匹配點(diǎn)剔除時(shí)不同算法匹配精度對(duì)比% Tab. 3 Comparison of matching accuracy for different algorithms under culling false matching points % 算法原匹配精度提純后匹配精度SIFT95.798.5SURF92.396.8ORB74.480.4 為了驗(yàn)證本文所提算法SCFD對(duì)實(shí)時(shí)性的影響,統(tǒng)計(jì)在尺度變化、旋轉(zhuǎn)變化和亮度變化下不種算法的運(yùn)行時(shí)間。總的耗時(shí)分為特征點(diǎn)檢測(cè)描述和匹配兩部分,統(tǒng)計(jì)結(jié)果如表4所示。 表4 不同算法不同條件下運(yùn)行時(shí)間對(duì)比 msTab. 4 Comparison of running time for different algorithms under different conditions ms 由表4可知,本文算法的平均耗時(shí)為706 ms,是SIFT算法的19.8%、SURF算法的28.3%,ORB平均耗時(shí)最少為217 ms。從表4可以看出,本文算法耗時(shí)較SIFT和SURF少,這主要?dú)w因于中心環(huán)繞濾波器檢測(cè)的效率較高;另一方面由于采用了具有方向的二進(jìn)制魯棒性獨(dú)立基本特征作為特征描述符,使算法實(shí)時(shí)性得到提高。同時(shí)因?yàn)椋?)特征點(diǎn)檢測(cè)提取過程在構(gòu)建的多尺度空間上進(jìn)行;2)匹配過程中增加了誤匹配點(diǎn)剔除過程,本文算法耗時(shí)比ORB要多。從上述實(shí)驗(yàn)可以得出,本文算法在尺度變化、旋轉(zhuǎn)變化和亮度變化下具備良好的匹配效果,滿足實(shí)時(shí)性需求。 針對(duì)傳統(tǒng)圖像匹配算法特征點(diǎn)檢測(cè)穩(wěn)定性和準(zhǔn)確性差的問題,本文提出了一種新的基于中心環(huán)繞濾波器檢測(cè)的圖像特征點(diǎn)匹配算法,通過構(gòu)建多尺度空間,利用中心環(huán)繞雙層濾波器檢測(cè)圖像在不同尺度下的特征點(diǎn),使得特征點(diǎn)具備尺度不變性,并通過子像素插值獲得更加穩(wěn)定的特征點(diǎn),然后聯(lián)合ORB算法確定特征點(diǎn)主方向并構(gòu)建特征點(diǎn)描述符,最后采用LMedS和最大似然估計(jì)剔除誤匹配點(diǎn)。通過實(shí)驗(yàn)驗(yàn)證,本文所提算法在尺度、旋轉(zhuǎn)、亮度等變化的情況下均取得理想的匹配效果,具有較高的穩(wěn)定性和匹配精度。該算法在很大程度上提高了實(shí)時(shí)性,但其計(jì)算速度比ORB要慢,下一步的工作重點(diǎn)是進(jìn)一步提高特征點(diǎn)匹配速度。 References) [1] SINHA S N, FRAHM J M, POLLEFEYS M. Feature tracking and matching in video using programmable graphics hardware [J]. Machine Vision and Applications, 2011, 22(1): 207-217. [2] ZHOU W, LI H, HONG R, et al. BSIFT: towards data-independent codebook for large scale image search [J]. IEEE Transactions on Image Processing, 2015, 24(3): 967-979. [3] CUMMINS M, NEWMAN P. Appearance-only SLAM at large scale with FAB-MAP 2.0 [J]. International Journal of Robotics Research, 2011, 30(9): 1100-1123. [4] ALONSO I P, LLORCA D F, GAVILAN M, et al. Accurate global localization using visual odometry and digital maps on urban environments [J]. IEEE Transactions on Intelligent Transportation Systems, 2012, 13(4): 1535-1545. [5] 高晶,吳育峰,吳昆,等.基于角點(diǎn)檢測(cè)的圖像匹配算法[J].儀器儀表學(xué)報(bào),2013,34(8):1717-1725.(GAO J, WU Y F, WU K, et al. Image matching method based on corner detection [J]. Chinese Journal of Scientific Instrument, 2013, 34(8): 1717-1725.) [6] 楊曉敏,吳煒,卿粼波,等.圖像特征點(diǎn)提取及匹配技術(shù)[J].光學(xué)精密工程,2009,17(9):2276-2282.(YANG X M, WU W, QING L B, et al. Image feature extraction and matching technology [J]. Optics and Precision Engineering, 2009, 17(9): 2276-2282.) [7] MORAVEC H P. Rover visual obstacle avoidance [C]// Proceedings of the 1981 7th International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 1981: 785-790. [8] HARRIS C G, STEPHENS M J. A combined corner and edge detector [C]// Proceedings of the 4th Alvey Vision Conference. Manchester, England: [s.n.], 1988: 147-151. [9] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110. [10] KE Y, SUKTHANKAR R. PCA-SIFT: a more distinctive representation for local image descriptors [C]// Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision & Pattern Recognition. Piscataway, NJ: IEEE 2004: 506-513. [11] BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features [C]// Proceedings of the 9th European conference on Computer Vision. Berlin: Springer, 2006: 404-417. [12] AGRAWAL M, KONOLIGE K, BLAS M R. CenSurE: center surround extremas for realtime feature detection and matching [C]// Proceedings of 2008 10th European Conference on Computer Vision, LNCS 5305. Berlin: Springer, 2008: 102-115. [13] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 2564-2571. [14] 白雪冰,車進(jìn),牟曉凱,等.結(jié)合快速魯棒性特征改進(jìn)ORB的特征點(diǎn)匹配算法[J].計(jì)算機(jī)應(yīng)用,2016,36(7):1923-1926.(BAI X B, CHE J, MU X K, et al. Improved feature points matching algorithm based on speed-up robust feature and oriented fast and rotated brief [J]. Journal of Computer Applications, 2016, 36(7): 1923-1926.) [15] 譚曉波.攝像機(jī)標(biāo)定及相關(guān)技術(shù)研究[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2004:30-34.(TAN X B. Study on camera calibration and its correlation technique [D]. Changsha: National University of Defense Technology, 2004: 30-34.) [16] ROUSSEEUW P J. Least median of squares regression [J]. Journal of the American Statistical Association, 1984, 79(388): 871-880. [17] 佘建國(guó),徐仁桐,陳寧.基于ORB和改進(jìn)RANSAC算法的圖像拼接技術(shù)[J].江蘇科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,29(2):164-169.(SHE J G, XU R T, CHEN N. Image stitching technology based on ORB and improved RANSAC algorithm [J]. Journal of Jiangsu University of Science and Technology (Nature Science Edition), 2015, 29(2): 164-169.) [18] MIKOLAJCZYK K, SCHMID C. A performance evaluation of local descriptors [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2005, 27(10): 1615-1630. SUNZengyou, born in 1963, professor. His research interests include signal and image processing, wireless communication. DUANYushuai, born in 1991, M. S. candidate. His research interests include image processing, pattern recognition. LIYa, born in 1992, M. S. candidate. Her research interests include signal and image processing, pattern recognition. Imagefeaturepointmatchingalgorithmbasedoncentersurroundfilterdetection SUN Zengyou, DUAN Yushuai*, LI Ya (SchoolofInformationEngineering,NortheastElectricPowerUniversity,JilinJilin132012,China) Aiming at the problems of poor stability and accuracy of feature point detection in traditional image matching algorithms, a new image feature point matching algorithm based on Scale-invariant Center surround Filter Detection (SCFD) was proposed. Firstly, a multi-scale space was constructed, a center surround filter was used to detect feature points of a image at different scales, Harris method and sub-pixel interpolation were applied to acquire the stable feature points. Secondly, Oriented fast and Rotated Binary Robust Independent Elementary Feature (BRIEF) (ORB) algorithm was combined to confirm the main direction of feature points and construct the description operator of feature points. Finally, Hamming distance was used to complete the matching, Least Median Squares (LMeds) theorem and Maximum Likelihood (ML) estimation were used to eliminate wrong matching points. The experimental results show that, the matching precision of the proposed algorithm is up to 96.6%, which is 2 times of that of the ORB algorithm when the scale changes. The running time of the proposed algorithm is 19.8% of that of Scale Invariant Feature Transform (SIFT) and 28.3% of that of Speed-Up Robust Feature (SURF). The proposed algorithm can effectively improve the stability and accuracy of feature point detection, and has better matching effects under the circumstances of different angle of view, scale scaling, rotation change and brightness variation. feature point matching; scale invariance; feature point detection; Oriented fast and Rotated Binary Robust Independent Elementary Feature (BRIEF) (ORB); Least Median Squares (LMedS) theorem 2017- 06- 05; 2016- 09- 08。 孫增友(1963—),男,吉林吉林人,教授,主要研究方向:信號(hào)與圖像處理、無線通信; 段玉帥(1991—),男,河南商丘人,碩士研究生,主要研究方向:圖像處理、模式識(shí)別; 李亞(1992—) 女,河南鄭州人,碩士研究生,主要研究方向:信號(hào)與圖像處理、模式識(shí)別。 1001- 9081(2017)12- 3547- 07 10.11772/j.issn.1001- 9081.2017.12.3547 (*通信作者電子郵箱sunzengyou@163.com) TP391.4 A2 特征點(diǎn)描述符
2.1 計(jì)算特征點(diǎn)主方向

2.2 特征點(diǎn)描述符生成



3 匹配算法
3.1 特征點(diǎn)匹配

3.2 誤匹配點(diǎn)剔除

4 實(shí)驗(yàn)結(jié)果分析
4.1 特征檢測(cè)重復(fù)率實(shí)驗(yàn)
4.2 算法性能實(shí)驗(yàn)分析






4.3 誤匹配點(diǎn)剔除算法性能分析

4.4 算法運(yùn)行時(shí)間分析

5 結(jié)語