999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

眼底圖像中利用血管分叉點進行特征匹配的研究

2025-07-20 00:00:00殷若城
電腦知識與技術 2025年18期
關鍵詞:特征提取

摘要:醫學圖像是臨床診斷的關鍵依據,在醫學研究與應用中具有重要價值。眼底圖像是醫學圖像的重要分支,可以通過眼底儀拍攝人體視網膜獲得。然而,受限于眼底相機固有的視場限制,單幅眼底圖像通常僅能捕獲視網膜的部分區域信息。為了獲得完整的眼底信息便于醫師的臨床診斷,需要對拍攝的多幅同一眼球的眼底圖像進行配準。文章研究了經典的SIFT、SURF算法,并針對眼底圖像特性,提出了一種基于血管結構特征的匹配方法,旨在為提升后續眼底圖像配準精度提供理論與方法參考。

關鍵詞:眼底圖像配準;血管分叉點;SURF;特征提取;特征點匹配

中圖分類號:TP3" "文獻標識碼:A

文章編號:1009-3044(2025)18-0102-04

開放科學(資源服務) 標識碼(OSID)

0 引言

信息技術的飛速進步推動了計算機技術在醫療診斷領域的廣泛應用。醫學影像為疾病診斷提供了豐富的科學依據,其處理與分析技術已成為醫學影像學的核心組成部分。眼科醫師通過觀察和分析獲取的眼底醫學影像,進而對與視網膜有關的疾病做出及時有效的臨床診斷。例如高血壓性視網膜病變就是一種典型的醫學病癥實例,其初期表現為眼底血管中的動脈硬化,是高血壓的重要早期指標之一。

為獲取全面的眼底信息,需采用圖像配準技術,將同一視網膜在不同視角下獲取的多幅圖像融合成一幅寬視場圖像,從而實現眼底圖像的自動配準。本文旨在比較經典的SIFT、SURF特征提取算法與一種基于血管分叉點(利用八鄰域分析檢測) 的特征點提取及匹配方法在眼底圖像中的性能。

1 SIFT特征點提取與匹配

1999年,David.Lowe提出了尺度不變特征SIFT算法,在2004年他又對該算法進行了改進[1],該特征提取方法在圖像配準領域應用十分廣泛。其提取的特征點滿足旋轉不變性、縮放不變性和局部不變性,對于亮度、噪聲等影響因素也能保持很強的穩定性,實現原理是在圖像的尺度空間內,通過高斯差分來檢測圖像的極值點,對極值點進行特征描述后,構建特征向量,得到特征點,再從特征點中找到匹配的特征點對用于圖像配準。實現過程可以分為以下四步:

1)圖像尺度空間建立

尺度空間理論是在多尺度方法的基礎上,對一維信號尺度空間進行定義,構建圖像一維的尺度空間。在一維空間的基礎上,對圖像的二維空間進行拓展,通過連續信號[I(x,y)]的高斯卷積,將不同尺度空間內的信號進行差分后形成差分尺度空間,尺度空間高斯差分函數公式如下:

[L(x,y,σ)=G(x,y,σ)I(x,y)] (1)

式(1)中,[?]表示卷積過程,[G(x,y,σ)]為尺度空間高斯核函數,公式如下:

[G(x,y,σ)=12πσ2exp(-x2+y22σ2)] (2)

式(2)中,[σ]為高斯拉普拉斯算子(LOG) 用于檢測該尺度空間的特征尺度。通過高斯差分(DoG) 近似高斯拉普拉斯算子(LoG) ,并在不同尺度上構建高斯金字塔,從而建立DOG尺度空間。

2)SIFT關鍵點檢測

DOG尺度空間中存在著局部極值也可以稱其為斑點,即為檢測到的SIFT關鍵點。通過比較采樣點同一尺度空間和上下相鄰尺度空間的26個(同尺度8個,上下各9個) 鄰域像素點,當采樣點大于所有26個相鄰點時,則判定該采樣點為極值點,即SIFT關鍵點。利用以采樣點為原點的高斯尺度空間核函數[G(x,y,σ)]進行泰勒二次展開式曲面擬合,展開公式如下:

[D(X)=D+?DT?XΔX+12ΔXT?2D?X2ΔX] (3)

X為采樣得到的極值點,對X求導后函數在極值點的導數為0,求得極值點相對于采樣極值點的偏移量[ΔX],公式如下:

[ΔX=-?2D-1?D?x2?D?x] (4)

多次迭代后得到極值點[X],將式(4)代入式(3)后得到泰勒展開公式如下:

[D(X)=D+12?DT?X] (5)

當[D(X)]位于閾值區間[0.01,0.05]內時,判定其為穩定的SIFT關鍵點并保留下來。這樣找到的SIFT關鍵點中包含圖像邊緣處的點,該類極值點難以定位且對噪聲極其敏感,故也需要將其剔除。

3)SIFT特征描述子

SIFT特征描述是通過SIFT關鍵點鄰域內像素梯度特性,確定特征點的主方向。每個極值點[L(x,y)]梯度的模[m(x,y)]與方向幅角[θ(x,y)]表示公式如下:

[m(x,y)=(L(x+1,y)-L(x-1,y))2+(L(x,y+1)-L(x,y-1))2] (6)

[θ(x,y)=tan-1(L(x,y+1)-L(x,y-1))/L(x+1,y)-L(x-1,y)] (7)

通過直方圖對鄰域內極值點的梯度值和幅角值進行統計,確定在直方圖最高峰處為關鍵點的方向。以關鍵點為中心選取16×16的鄰域窗口,并將其劃分為4×4的子區域,每個子區域統計8個方向的梯度,從而形成128維特征向量,對向量進行歸一化后得到SIFT特征描述子。

4)SIFT特征點匹配

在對SIFT關鍵點進行特征描述后,將兩幅圖像上的特征點進行匹配。特征點的匹配,一般采用最近鄰法,并通過最近鄰與次近鄰距離比進行篩選,將滿足條件的點擬定為匹配的SIFT特征點對[2]。對眼底圖像進行SIFT特征提取后,初始匹配結果如圖1所示。

從圖1中可以看出,通過SIFT算法對眼底圖像進行特征點提取匹配后發現,SIFT特征點對于對比度低的眼底圖像匹配得到的特征點對太少,在后續使用匹配的特征點對來計算圖像配準變換模型時,由于用來計算的特征點對數量不足,使得變換模型參數不夠準確,影響最終的配準結果。

2 SURF特征點提取與匹配

2006年,Bay等人[3]針對SIFT特征點在計算速度和效率上無法滿足實時性的這一問題,對SIFT算法進行了改進,提出了快速魯棒特征(SURF) 算法,與SIFT算法相比,SURF算法通過采用積分圖像和盒狀濾波器近似高斯二階導數,實現了尺度不變特征的快速檢測與描述。其具體實現步驟如下:

1)積分圖像

SURF算法將圖像與二階高斯微分模板進行卷積濾波后,對得到的積分圖像進行加減操作。定義源圖像I上任意一點[x',y']處的圖像灰度值為[I(x',y')],將該點處對應的對角線矩形區域內灰度值相加求和,表達公式如下:

[IZ(x,y)=i=0i?x'j=0j?y'I(x',y')] (8)

式(8)中,[IZ(x,y)]為在[(x',y')]點處的積分圖像數值。

2)圖像尺度空間建立

圖像[I]中任意像素點定義為[x,y],在尺度[σ]上的Hessian矩陣[H(x,σ)]表示公式如下:

[H(x,σ)=Lxx(x,σ)Lxy(x,σ)Lxy(x,σ)Lyy(x,σ)] (9)

式(9)中,[Lxx(x,σ)]是二階高斯微分與圖像對應的像素點(x,y)在X方向上的卷積結果,同理求得[Lxy(x,σ)],[Lyy(x,σ)]。

將高斯二階微分圖形模板轉化成9×9的盒子濾波器模板,旋轉該模型發現,當圖像旋轉奇數倍的[π/4]時,檢測到的特征點有較少的重復;當旋轉偶數倍[π/4]時,重復率明顯增高。通過旋轉濾波器方向,對矩形區域中的白色,灰度,黑色區域分別填充1, 0,[-1]。

3)SURF特征描述子

SURF算法通過積分圖像與盒子濾波器進行卷積后構建空間金字塔,使其特征點具有尺度不變特性[4]。將每個特征點分配一個主方向,在4×4的鄰域范圍內尋找x,y兩個方向上的Haar小波響應值,用64維的特征向量來描述特征點。通過降低特征向量維度以及重構尺度空間金字塔的方式,實現了對SIFT算法時間運行復雜度上的優化和改進。

同樣的,對眼底圖像進行SURF特征點的提取和初始匹配,結果如圖2所示。

從圖2中可以看出,SURF算法提取得到的特征點對布局相對集中,無法很好地描述整幅圖像的結構信息,因此在后續使用圖像配準變換模型對圖像進行拼接時,得到的配準結果也會較差。

3 基于血管分叉點的特征提取與匹配

本文中使用的眼底圖像對比度低,而傳統的特征點提取算法難以保證提取到的眼底圖像特征點數量以及準確度。因此根據眼底圖像的特點,從眼底圖像上提取血管樹,在血管中心線上尋找血管分叉點,并通過對分叉點進行SURF特征描述后,實現對眼底圖像特征點的提取,為后續特征點的匹配打下基礎。算法主要步驟如下:

1)血管樹的提取

本文主要通過二值化對眼底圖像進行初始化處理后,進行血管樹的提取。取RGB眼底彩色圖像綠色通道上的灰度圖像進行二值化處理,結合眼底血管特性,血管中心通常是較暗或較亮的條紋,因此梯度方向垂直于血管,因此本論文從空間平面角度出發,將空間平面每15°進行血管劃分,設置血管檢測濾波器,然后將提取的12幅眼底圖像的像素點進行整合,本文具體實現方法如下:

血管邊緣一般為三個像素點,定義一個7×7的模板,將模板依次旋轉15°,共旋轉12次,旋轉的模板與眼底圖像依次進行卷積。對于圖像上任意一點[m],將其模板區域內的像素與定義的模板進行卷積,將模板區域內所有像素點卷積值的總和與設定的閾值進行比較,當該點處的值小于閾值時,則將其認定為血管樹上像素點,否則判定其為背景點。計算公式如下:

[P=i=0Nmi] (10)

式(10)中,N為模板區域內的像素點數,mi為m點處模板區域內每個像素點對應的卷積值。

[b=0" "Plt;V1" "P≥V] (11)

將各個像素點對應的值與設定的閾值V進行對比,b為分割后像素點對應的二值化的值,0為分割出來的血管像素點,1為眼底圖像背景像素點。

對FIRE眼底圖像數據庫中的圖像進行血管樹的提取,各角度下提取效果及最終提取血管樹效果如圖3和圖4所示。

在得到了具有寬度的血管樹之后,利用血管邊緣的梯度、散度信息,將具有方向的梯度矢量轉變為散度標量值,通過將像素點鄰域范圍內的散度值和與閾值進行比較,提取出眼底血管中心線。分別沿著水平和垂直方向對[G(x,y)]圖像內像素點進行梯度化處理,得到兩個方向上的梯度矢量[M,N],對該點處的梯度矢量進行歸一化處理公式如下:

[M'=MM2+N2N'=NM2+N2] (12)

在此基礎上,根據眼底血管的不同方向,將梯度矢量轉化成散度標量,并附加上角度旋轉來獲取不同角度下的血管中心線。公式如下:

[Pi=dM'dxcosθ+dN'dysinθ] (13)

式(13)中,Pi為單個圖像像素點的散度,將其周圍領域內像素點散度相加,該像素點在鄰域內的散度和SG(x,v)計算公式如下:

[SG(x,v)=i=1nPi] (14)

式(14)中,[n]表示鄰域內像素點數。計算得到圖像中所有像素點的散度標量值之后,通過設定的閾值將血管中心線提取出來,公式如下:

[I(x,y)∈0" "if" SG(x,y)≥t1" "if" SG(x,y)lt;t] (15)

式(15)中,t是中心線處設定的閾值,通過多次實驗對比,本文中閾值大小[5]設定為0.8。將散度值大于閾值的像素點確定為血管中心線上的點,再通過數學形態學上的腐蝕、膨脹和去骨刺等操作,將血管中心線圖像上出現的骨刺、邊緣骨骼等去掉,方便后續眼底圖像特征點的尋找。

2)血管分叉點提取

在提取得到血管中心線二值化圖像后,需要提取血管中線上的血管分叉點。

本文采用文獻[5]中的八鄰域模板定義,以P點為中心將其周圍八個像素點確定為連接點,由于血管分叉點分布特征需要滿足其周圍至少具有三個鄰域點,總共會出現[C38]=56種情況,找出16種滿足血管分叉點分布形態的情況,如圖5所示。

文獻[5]中定義的血管分叉點八鄰域模板能夠很好的實現血管分叉點的提取,但其對于分叉點的特征描述,通過角度以及長度信息對分叉點局部特征進行描述,構建了32維的特征向量。在降低特征向量維度的情況下,加快了分叉點特征描述時間,但其對于分叉點局部特征信息描述不夠詳細,使得一些細小血管上的分叉點特征描述不夠完善,造成了分叉特征點的誤匹配以及漏匹配。針對這一問題,本文對其特征點的特征描述進行了改進,通過使用滿足尺度不變特性,且在計算效率上足夠高效的SURF特征描述子對分叉點進行特征描述,得到分叉特征點,再通過歐式距離比較兩組特征向量,得到初始匹配的分叉特征點,如圖6所示。

對初始匹配的血管分叉點通過歐式距離進行提純后,剔除誤匹配點對,得到匹配的分叉特征點,如圖7所示。

從圖7中可以看出,找到的血管分叉特征點遍布眼底圖像的重疊區域,能夠很好地描述整幅眼底圖像的結構特征,匹配的特征點數量足夠多,且保持尺度不變特性,能夠很好地滿足眼底圖像配準過程中的投影變換。

4 總結

從實驗結果來看,經典的SIFT算法對于對比度低的眼底圖像提取到的匹配特征點數量太少,這使得最終的拼接結果較差;SURF算法通過對SIFT算法的改進,由于尺度空間金字塔構建方式的不同,能夠找到較多的特征點對,但從圖2中可以看出,使用SURF算法找到的特征點對過于集中,無法很好地滿足圖像的全局配準,且由于其對特征點的灰度差異值敏感,對于部分對比度過低的眼底圖像,其特征點提取數量也較少,穩定性較差。

本文通過分割眼底圖像血管樹,在血管中心線上通過定義的八鄰域模板找出血管分叉點,并將血管分叉點作為特征匹配點,通過對分叉點進行SURF特征描述,在SURF特征描述子本身滿足尺度不變、旋轉縮放不變特性的同時,提取到的分叉點匹配特征點對數足夠多,從圖7中也可以看出,特征點分布在眼底圖像全局,能夠很好地表示整幅眼底圖像結構,后續可通過匹配的特征點實現同一病患不同角度眼底圖像的配準拼接,從而便于醫師的臨床診斷。但本文在對血管分割準確性的依賴,以及嚴重病變圖像的性能方面,缺乏廣泛的量化評估指標,在后續的實驗中,會繼續探索基于深度學習[6]的分叉點特征檢測器、描述子與其他最新方法進行廣泛的量化比較,從而將本文方法更好地應用于特定的臨床任務。

參考文獻:

[1] LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[2] 寇元超,張蘇楠,古佳堯.改進的SIFT算法在醫學圖像匹配中的應用[J].山西電子技術,2025(2):7-9.

[3] BAY H,TUYTELAARS T,VAN GOOL L.SURF:speeded up robust features[C]//Computer Vision-ECCV 2006.Berlin,Heidelberg:Springer,2006:404-417.

[4] 陳丹華.彩色眼底視網膜圖像配準算法研究[D].桂林:廣西師范大學,2019.

[5] HANG Y L,ZHANG X F,SHAO Y Q,et al.Retinal image registration based on the feature of bifurcation point[C]//2017 10th International Congress on Image and Signal Processing,BioMedical Engineering and Informatics (CISP-BMEI).October 14-16,2017.Shanghai.IEEE,2017:1-6.

[6] 何夏蘭.基于深度學習的視網膜眼底圖像分割與病變分類研究[D].南京:南京林業大學,2024.

【通聯編輯:朱寶貴】

猜你喜歡
特征提取
特征提取和最小二乘支持向量機的水下目標識別
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識別特征提取技術
自動化學報(2017年7期)2017-04-18 13:41:09
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于DSP的直線特征提取算法
基于改進WLD的紋理特征提取方法
計算機工程(2015年4期)2015-07-05 08:28:02
淺析零件圖像的特征提取和識別方法
機電信息(2015年3期)2015-02-27 15:54:46
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 青青青草国产| 丁香五月婷婷激情基地| 亚洲国产理论片在线播放| 区国产精品搜索视频| 国产欧美日韩视频怡春院| 97视频精品全国在线观看| 亚洲va视频| 国产精品无码AV片在线观看播放| 91欧洲国产日韩在线人成| 亚洲人成在线免费观看| 国产色爱av资源综合区| 啊嗯不日本网站| 国产激情在线视频| 国产门事件在线| 日韩色图在线观看| 国产成人欧美| 91激情视频| 亚洲色欲色欲www在线观看| 国产精品制服| 免费在线视频a| 91精品国产一区自在线拍| 五月婷婷导航| 成人欧美日韩| 国产精品手机视频| 亚洲欧美一区二区三区蜜芽| 婷婷综合色| 欧美激情,国产精品| 91系列在线观看| 日韩欧美亚洲国产成人综合| 国产成人三级在线观看视频| 99ri精品视频在线观看播放| 国产黑丝一区| 2021国产在线视频| 精品视频在线一区| 尤物精品国产福利网站| 国产91久久久久久| 狼友视频国产精品首页| 亚洲欧洲日本在线| 在线观看亚洲人成网站| 国产成人欧美| 91成人精品视频| 欧美中日韩在线| 热久久这里是精品6免费观看| 久久无码高潮喷水| 亚洲视频黄| 在线日韩一区二区| 人与鲁专区| 久久中文电影| 亚洲va精品中文字幕| 91丝袜乱伦| 久久久精品国产亚洲AV日韩| 91最新精品视频发布页| 日韩欧美国产中文| 在线精品视频成人网| 亚洲欧美日韩综合二区三区| 青青草一区| 国产激爽爽爽大片在线观看| 啊嗯不日本网站| 啪啪啪亚洲无码| 欧美一级夜夜爽| 午夜精品福利影院| 免费国产一级 片内射老| 日韩免费毛片| 亚洲欧洲自拍拍偷午夜色无码| 免费观看精品视频999| 亚洲日韩精品综合在线一区二区| 国产青青草视频| 日韩av高清无码一区二区三区| www.av男人.com| 一本久道热中字伊人| 国产成人调教在线视频| 麻豆国产在线不卡一区二区| 欧美性猛交xxxx乱大交极品| 欧美激情视频一区二区三区免费| 青青青视频蜜桃一区二区| 激情综合婷婷丁香五月尤物| 国产精品主播| 婷五月综合| 午夜啪啪福利| 国产一级二级三级毛片| 亚洲成人黄色在线观看| 亚洲精品视频在线观看视频|