999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融入曲率尺度空間算法的圖像配準(zhǔn)方法

2021-04-07 12:22:08李培華錢名思劉玉莉
激光與紅外 2021年3期
關(guān)鍵詞:特征實驗

章 盛,李培華,錢名思,劉玉莉

(1.中航華東光電有限公司,安徽 蕪湖 241002;2.安徽省現(xiàn)代顯示技術(shù)重點實驗室,安徽 蕪湖 241002;3.國家特種顯示工程技術(shù)研究中心,安徽 蕪湖 241002;4.特種顯示國家工程實驗室,安徽 蕪湖 241002)

1 引 言

圖像配準(zhǔn)普遍應(yīng)用在遙感圖像配準(zhǔn)[1]、醫(yī)學(xué)圖像配準(zhǔn)[2]和全景顯示[3]等領(lǐng)域,其中2006年Herbert Bay等人提出的加速穩(wěn)健特征(Speeded Up Robust Features,SURF)算法[4]是經(jīng)典的圖像配準(zhǔn)算法,其以尺度不變特征變換(Scale Invariant Feature Transform,SIFT)算法[5-6]為基礎(chǔ)對圖像特征的提取和描述進行了優(yōu)化,結(jié)果是在保持了平移、旋轉(zhuǎn)與尺度等變化不變性的前提下提升了執(zhí)行效率。近年來,科研者根據(jù)SURF算法存在實時性問題,提出了將角點提取算法融入傳統(tǒng)SURF算法的想法,互取優(yōu)勢,例如葛盼盼等人于2014年提出的Harris-SURF算法[7],彭勃宇等人于2015年提出的SUSAN-SURF算法[8],張敬麗等人于2016年提出的MIC-SURF算法[9],產(chǎn)葉林等人于2019年提出的FAST-SURF算法[10],四種改進算法最終得到的結(jié)論是在圖像配準(zhǔn)實時性方面得到了改善;同時由于SURF算法具備很好的穩(wěn)健性,許金鑫等人于2017年使用形態(tài)學(xué)邊緣檢測算法對待配準(zhǔn)圖像進行預(yù)處理,然后利用SURF算法進行異源圖像的配準(zhǔn),并將優(yōu)化SURF算法應(yīng)用于電氣設(shè)備圖像的配準(zhǔn),為異源圖像的配準(zhǔn)提供了一種途徑[11];2018年,王民等人利用壓縮感知原理[12]對SURF算法生成的描述子向量進行降維處理,提升了實時性并應(yīng)用于手語關(guān)鍵幀的配準(zhǔn)[13]。

針對實時性要求比較高的應(yīng)用場景,傳統(tǒng)SURF算法表現(xiàn)出其在實時性方面的不足,本文首先針對圖像角點特征提取耗時長的問題,使用曲率尺度空間(Curvature Scale Space,CSS)算法[14]提取圖像角點特征,然后針對圖像角點特征匹配耗時長的問題,使用改進SURF描述子、改進相似性距離算法和隨機采樣一致性((Random Sample Consensus,RANSAC)[15]算法對圖像角點特征描述子的形成和匹配進行改進,最終得到CSS-SPP-SURF算法。

2 CSS-SPP-SURF算法

CSS-SPP-SURF算法按照實現(xiàn)流程分成三個步驟:①圖像角點特征的提?。虎趫D像角點特征描述子向量的生成和降維;③圖像角點特征的匹配。CSS-SPP-SURF算法的實現(xiàn)流程框圖如圖1所示。

2.1 圖像角點特征的提取

Mokhtarian和Suomela團隊于1998年提出的一種基于曲線曲率的圖像角點特征提取算法,即CSS算法,其是在Canny算法[16]的基礎(chǔ)上延伸的算法,該算法提取圖像角點特征分為三步:

圖1 CSS-SPP-SURF算法的實現(xiàn)流程框圖

①采用Canny算法生成邊緣輪廓圖像;②在尺度空間的低尺度上使用局部曲率極大值提取圖像角點特征,并向高尺度跟蹤定位這個圖像角點特征;③與T型角點特征作比較剔除相近的角點特征中一個。曲線的曲率κ的函數(shù)表達式的如式(1)所示:

κ(μ,σ)=

(1)

其中,κ(μ,σ)表示曲線的曲率;Xμ(μ,σ),Xμμ(μ,σ)分別表示X(μ,σ)的一階、二階導(dǎo)數(shù);Yμ(μ,σ),Yμμ(μ,σ)分別表示Y(μ,σ)的一階、二階導(dǎo)數(shù);μ表示弧長參數(shù);σ表示尺度因子。

針對公式(1),X(μ,σ)和Y(μ,σ)的一階、二階導(dǎo)數(shù)的表達式分別如式(2)~(5)所示:

=x(μ)?gμ(μ,σ)

(2)

=x(μ)?gμμ(μ,σ)

(3)

=y(μ)?gμ(μ,σ)

(4)

=y(μ)?gμμ(μ,σ)

(5)

其中,Xμ(μ,σ),Xμμ(μ,σ)分別表示X(μ,σ)的一階、二階導(dǎo)數(shù);Yμ(μ,σ),Yμμ(μ,σ)分別表示Y(μ,σ)的一階、二階導(dǎo)數(shù);x(μ)和y(μ)分別表示曲線上點的橫坐標(biāo)和縱坐標(biāo);g(μ,σ)表示以尺度因子σ為參數(shù)的高斯函數(shù);μ表示弧長參數(shù);σ表示尺度因子;?表示卷積運算;gu(μ,σ),guu(μ,σ)分別表示g(μ,σ)的一階、二階導(dǎo)數(shù)。

2.2 改進SURF描述子

CSS-SPP-SURF算法生成圖像角點特征描述子向量分為兩個階段,階段一是利用Haar小波生成64維圖像角點特征描述子向量,階段二是利用稀疏投影原理將64維圖像角點特征描述子向量降維到24維,仿真實驗中發(fā)現(xiàn)降維到12維,圖像角度特征的匹配速度有一定提升,但匹配效果不太理想,綜合考慮選擇降維到24維。

針對階段一得到64維圖像角點特征描述子向量,假定其為K,首先利用小波變換基矩陣Ψ將64維描述子向量轉(zhuǎn)換為64維稀疏矩陣Y,然后利用稀疏投影矩陣R∈R24×64將64維稀疏矩陣Y轉(zhuǎn)換為24維測量向量K′,最后將得到的24維測量向量K′作為圖像角點特征描述子向量,如式(6)所示:

K′=RY=RΨK

(6)

其中,K′表示24維測量向量;R表示24×64維的稀疏投影矩陣;Y表示64維的稀疏向量;Ψ表示64×64維的小波變換基矩陣;K表示64維的圖像角點特征描述子向量。

2.3 圖像角點特征的匹配

圖像角點特征的匹配分為兩個階段,階段一使用改進的相似性距離算法進行粗匹配;階段二使用RANSAC算法進行精匹配。

階段一假設(shè)對圖像L與圖像R的圖像角點特征進行粗匹配實驗,設(shè)定圖像L的圖像角點特征描述子向量為Ui(x1,x2,x3,…,x22,x23,x24),圖像R的圖像角點特征描述子向量為Vj(y1,y2,y3,…,y22,y23,y24),整個匹配實驗過程分為三個步驟:

步驟1:圖像L到圖像R采用曼哈頓距離進行相似性距離度量,曼哈頓距離定義式如式(7)所示,同時相似性距離的最小值和次最小值的比值滿足公式(8),遍歷圖像L的圖像角點特征集U,得到匹配圖像角點特征集A。

(7)

其中,d(Ui,Vj)表示圖像角點特征之間的相似性距離;xm表示圖像L中圖像角點特征描述子向量的元素;ym表示圖像R中圖像角點特征描述子向量的元素。

(8)

其中,d(Ui,V1j)、d(Ui,V2j)分別表示特征集U中的特征Ui與特征集V中的最近鄰特征V1j、次最近鄰特征V2j的相似性距離;Th1表示閾值,本文設(shè)定Th1的值為0.75。

步驟2:圖像R到圖像L采用歐式距離進行相似性距離度量,歐式距離定義式如式(9)所示,同時相似性距離的最小值和次最小值的比值滿足式(10)所示,遍歷圖像R的圖像角點特征集V,得到匹配圖像角點特征集B。

(9)

其中,d(Vj,Ui)表示圖像角點特征之間的相似性距離;ym表示圖像R中圖像角點特征描述子向量的元素;xm表示圖像L中圖像角點特征描述子向量的元素。

(10)

其中,d(Vj,U1i)、d(Vj,U2i)分別表示特征集V中的特征Vj與特征集U中的最近鄰特征U1i、次最近鄰特征U2i的相似性距離;Th2表示閾值,本文設(shè)定Th2的值為0.75。

步驟3:比較匹配圖像角點特征集A與B,選取完全相同的匹配圖像角點特征組成備用的匹配圖像角點特征集M。

階段二采用RANSAC算法對階段一得到的備用匹配圖像角點特征集M進行進一步提純,得到最終的匹配圖像角點特征集F。

3 仿真實驗

實驗仿真軟件為MATLAB R2014a,實驗仿真硬件為計算機,計算機的中央處理器配置是Intel Core i3-3240 CPU @ 3.40GHz (4 CPUs)、內(nèi)存配置是4096MB RAM、操作系統(tǒng)配置是Windows 7 旗艦版32位。

仿真實驗分為兩個階段,第一階段選用立體匹配庫中的Venus可見光圖像、異源融合庫中的Jeep_in_Smoke紅外圖像和Normal Medical Database庫中的手部CT醫(yī)學(xué)圖像作為仿真實驗一圖像,其中圖2(a) ~ (d)是立體匹配庫中的Venus源、右視、形變和旋轉(zhuǎn)圖像,像素大小為434×383;圖2 (a2) ~ (d2)是異源融合庫中Jeep_in_Smoke紅外源、右視、形變和旋轉(zhuǎn)圖像,像素大小為580×450;圖2 (a3) ~(d3)是Normal Medical Database庫中的手部CT醫(yī)學(xué)源、右視、形變和旋轉(zhuǎn)圖像,像素大小為240×256;以驗證CSS-SPP-SURF算法對不同源圖像的可行性。第二階段選用立體匹配庫中不同規(guī)模的圖像庫作為仿真實驗二圖像,立體匹配庫中每對待配準(zhǔn)圖像僅有源、右視兩張圖像,以驗證CSS-SPP-SURF算法的普遍適應(yīng)性。

圖2 實驗一的待配準(zhǔn)圖像

仿真實驗一使用傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstner-SURF算法、Harris-SURF算法、Trajkovic-SURF算法與CSS-SPP-SURF算法對實驗一圖像進行圖像配準(zhǔn)實驗,實驗步驟分為三步:①圖2(a)分別與圖2(b)~(d)進行圖像配準(zhǔn)實驗;②圖2(a2)分別圖2(b2)~(d2)進行圖像配準(zhǔn)實驗;③圖2(a3)分別與圖2(b3)~(d3)進行圖像配準(zhǔn)實驗,最終得到圖像角點特征的檢測結(jié)果圖如圖3(a)~(r4)所示,圖像角點特征的匹配結(jié)果圖如圖4(a)~(i6)所示。

仿真實驗一為了比較CSS-SPP-SURF算法與傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstner-SURF算法、Harris-SURF算法、Trajkovic-SURF算法之間的效率,選取待配準(zhǔn)圖像的角點特征數(shù)目、角點特征匹配數(shù)目、角點特征正確匹配數(shù)目、圖像配準(zhǔn)準(zhǔn)確率、圖像配準(zhǔn)時間與圖像配準(zhǔn)時間下降率共六個指標(biāo)作為評價依據(jù),其中圖像配準(zhǔn)準(zhǔn)確率和圖像配準(zhǔn)時間下降率的計算公式如式(11)、(12)所示,仿真實驗數(shù)據(jù)對比分析圖如圖5(a)~(f)所示,通過圖5(d)可知,CSS-SPP-SURF算法與傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstner-SURF算法、Harris-SURF算法、Trajkovic-SURF算法相比,在圖像配準(zhǔn)的準(zhǔn)確率方面相當(dāng)。通過圖5(f)可知,CSS-SPP-SURF算法與傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstner-SURF算法、Harris-SURF算法、Trajkovic-SURF算法相比,在圖像配準(zhǔn)的速度方面具有一定的優(yōu)勢。

(11)

(12)

圖3 圖像角點特征的提取結(jié)果圖

其中,圖3(a)~(r)、(a2)~(r2)、(a3)~(r3)、(a4)~(r4)表示使用傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstern-SURF算法、Harris-SURF算法、Trajkovic-SURF算法與CSS-SPP-SURF算法分別對實驗一待配準(zhǔn)圖像中源圖像、右視圖像、形變圖像、旋轉(zhuǎn)圖像的角點特征提取結(jié)果圖。

圖4 圖像角點特征的匹配結(jié)果圖

其中,圖4(a)~(i)、(a2)~(i2)、(a3)~(i3)、(a4)~(i4)、 (a5)~(i5)、(a6)~(i6)分別表示使用傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstern-SURF算法、Harris-SURF算法、Trajkovic-SURF算法與CSS-SPP-SURF算法對實驗一待配準(zhǔn)圖像的角點特征匹配結(jié)果圖。源-右視表示源圖像和右視圖像之間的配準(zhǔn)、源-形變表示源圖像和形變圖像之間的配準(zhǔn)和源-旋轉(zhuǎn)表示源圖像和旋轉(zhuǎn)圖像之間的配準(zhǔn)。

圖5 圖像配準(zhǔn)的對比分析圖

圖5中,V表示Venus可見光圖像;J表示Jeep_in_Smoke紅外圖像;H表示手部CT醫(yī)學(xué)圖像;SIFT表示傳統(tǒng)SIFT算法;SURF表示傳統(tǒng)SURF算法;F-SURF表示Forstern-SURF算法;H-SURF表示Harris-SURF算法;T-SURF表示Trajkovic-SURF算法;CSS-SPP-SURF表示CSS-SPP-SURF算法。其中,圖5(a)~(f)表示使用傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstern-SURF算法、Harris-SURF算法、Trajkovic-SURF算法與CSS- SPP-SURF算法對實驗一圖像的特征提取數(shù)目、特征匹配數(shù)目、正確特征匹配數(shù)目、配準(zhǔn)準(zhǔn)確率、配準(zhǔn)時間和配準(zhǔn)時間下降率的對比分析圖。

仿真實驗二首先從立體匹配庫中分別選擇100、200、300、400對圖像作為四種不同規(guī)模待配準(zhǔn)圖像庫,然后使用傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstern-SURF算法、Harris-SURF算法、Trajkovic-SURF算法與CSS-SPP-SURF算法對四種不同規(guī)模待配準(zhǔn)圖像庫進行配準(zhǔn),并對評價指標(biāo)進行記錄并統(tǒng)計,統(tǒng)計結(jié)果如表1所示,最后對表1的仿真實驗數(shù)據(jù)進行分析得到兩點結(jié)論:①CSS-SPP-SURF算法與傳統(tǒng)SIFT算法、傳統(tǒng)SURF算法、Forstern-SURF算法、Harris-SURF算法、Trajkovic-SURF算法相比,圖像配準(zhǔn)準(zhǔn)確率相當(dāng);②圖像配準(zhǔn)時間分別降低了73.61%、43.27%、44.54%、34.31%與8.05%。

表1 不同規(guī)模圖像集的圖像配準(zhǔn)時間、準(zhǔn)確率比較

表1中,SIFT代表傳統(tǒng)SIFT算法;SURF代表傳統(tǒng)SURF算法;F-SURF代表Forstner-SURF算法;H-SURF代表Harris-SURF算法;T-SURF代表Trajkovic-SURF算法;C-SURF代表CSS-SPP-SURF算法;時間指圖像配準(zhǔn)時間,單位是秒,準(zhǔn)確率指圖像配準(zhǔn)準(zhǔn)確率,單位是%。

4 結(jié) 論

本文提出了CSS-SPP-SURF算法,該算法使用CSS算法、改進SURF描述子、改進相似性距離算法和RANSAC算法對傳統(tǒng)SURF算法進行改進,解決了其圖像特征檢測和匹配耗時長的問題。通過仿真實驗發(fā)現(xiàn)兩點:①CSS-SPP-SURF算法對可見光、紅外與醫(yī)學(xué)圖像同樣有效;②通過對立體匹配庫實驗說明了該算法對于實時性要求比較高的應(yīng)用場景具有普遍有效性。

猜你喜歡
特征實驗
抓住特征巧觀察
記一次有趣的實驗
微型實驗里看“燃燒”
新型冠狀病毒及其流行病學(xué)特征認(rèn)識
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 亚洲性影院| 露脸真实国语乱在线观看| 国产精品无码一区二区桃花视频| 精品视频91| 五月激情婷婷综合| 国产不卡一级毛片视频| 国产天天色| 国产乱子伦视频在线播放| 99re这里只有国产中文精品国产精品| 色综合成人| 午夜老司机永久免费看片| 99久久精品视香蕉蕉| 日韩小视频在线播放| 青草娱乐极品免费视频| 超薄丝袜足j国产在线视频| 国产在线专区| 欧美A级V片在线观看| 日本午夜影院| 免费人成网站在线高清| 国产一级无码不卡视频| 国产主播福利在线观看| 国产精品999在线| 亚洲an第二区国产精品| 欧美人人干| 91毛片网| 国产精品白浆在线播放| 狼友视频一区二区三区| 国产一二视频| 中文字幕无码制服中字| 中文字幕日韩视频欧美一区| 成人国产三级在线播放| 亚洲欧洲天堂色AV| 国产又粗又猛又爽| 精品人妻一区无码视频| 日韩第一页在线| 在线中文字幕网| 国产精品成人不卡在线观看| 亚洲AV人人澡人人双人| 亚洲精品少妇熟女| 狠狠色丁香婷婷| 亚洲欧洲日本在线| 国产在线91在线电影| 亚洲啪啪网| 欧美日韩中文字幕在线| 欧美视频二区| 一本色道久久88综合日韩精品| 丰满人妻一区二区三区视频| 日韩免费毛片| 久久狠狠色噜噜狠狠狠狠97视色 | 午夜小视频在线| 欧美精品v| 色亚洲激情综合精品无码视频| 久久这里只有精品66| vvvv98国产成人综合青青| 四虎精品黑人视频| 日本五区在线不卡精品| 久操中文在线| 久草视频中文| 国产9191精品免费观看| 欧美日韩高清在线| 91视频精品| 欧美亚洲第一页| 小蝌蚪亚洲精品国产| 亚洲精品午夜天堂网页| 国产资源免费观看| 久久婷婷综合色一区二区| 日本精品影院| 国产精品无码作爱| 亚洲男人天堂2020| 97人妻精品专区久久久久| 91精品啪在线观看国产91九色| 日韩专区第一页| 国产精品美女免费视频大全| 狠狠色丁婷婷综合久久| 久久99热66这里只有精品一| 国产极品美女在线播放| 成人免费视频一区| 日韩欧美一区在线观看| 精品无码一区二区三区在线视频| 亚洲第一视频网站| 九九热视频精品在线| 久久久久国产精品嫩草影院|