康文煒,康文穎,康曉濤
(1.吉林大學通信工程學院,長春130022;2.吉林大學第二醫院心血管內科,長春130041)
在對圖像的研究與應用中,往往僅對圖像中某些特定的、具有獨特性質的區域感興趣。為了辨識和分析目標,需要將這些特征區域分割提取出來。圖像分割是圖象分析和處理的基礎,分割結果的好壞對后續的特征提取及目標識別有直接影響。閾值分割是圖像分割的常用方法,其中基于過渡區的提取與分割是近年來提出的一種閾值分割方法,是介于邊界和區域的一種分割方法[1]。文獻[2]首次將有效平均梯度及灰度剪切等過渡區提取技術應用于圖像分割,但其對噪聲敏感。為克服隨機噪聲的影響,文獻[3]對梯度圖像進行加權運算,提出加權梯度算子。文獻[4-5]分別提出兩種特征參數局部熵及局部復雜度,并直接提取圖像的過渡區,兩種方法雖克服了梯度算法對噪聲的敏感性,但仍無法有效抵抗高斯噪聲。本文提出一種基于信息測度的過渡區直接提取方法,利用圖像過渡區內像素灰度分布與目標和背景內灰度分布的差異,能在一定程度上消除椒鹽噪聲和高斯噪聲對過渡區提取的影響,同時也擺脫了算法對灰度剪切值的依賴。理論分析及實驗結果表明,本文算法能有效提取含有混合噪聲圖像中的過渡區,得到準確的分割閾值,提高圖像的分割質量。提高了算法的抗噪性,擺脫了對剪切點Llow和Lhigh的依賴,優于文中其它的過渡區提取方法。
過渡區是圖像中的一類特殊區域,它位于目標和背景之間。使用有效平均梯度及對灰度的剪切[1,6]是典型的基于梯度的過渡區間接提取方法。令f(i,j)為圖像的灰度分布函數,g(i,j)為圖像的梯度,(i,j)∈S,S表示像素空間坐標的整數集合,則有效平均梯度為

式中:TG為梯度總和;TP為梯度不為零的像素個數:

低端和高端灰度剪切變換函數分別定義為

式中:L為剪切值。基于梯度的過渡區提取方法,完全依賴于Llow和Lhigh。對噪聲非常敏感,可能會引起過渡區的偏移甚至無法提取。為了克服上述缺點,構造過渡區提取的新特征參數:局部熵信息測度。
圖像過渡區是介于目標和背景之間的區域,所以它既有邊界的特點,也有區域的特點。
①過渡區分布在目標的周圍,其灰度一般介于目標平均灰度和背景平均灰度之間。
②圖像的過渡區具有區域的特點,所以它具有一定的寬度,而且它的面積不為零。
③過渡區是一幅圖像中包含灰度等級較多的區域。也就是說,過渡區內像素灰度變化頻繁,包含的信息量豐富。
有效提取圖像過渡區的關鍵是特征參數的選取,構造參數時應考慮過渡區的特點,以使構造的參數能充分體現過渡區的上述特點。傳統的特征參數是梯度算子,但梯度算子并不能體現過渡區內像素灰度變化頻繁的特點。可通過圖1所示的例子說明這一點。圖1表示不同的兩個局部鄰域窗口,其中的數字代表像素的灰度值。如果將梯度算子作用于兩個窗口,可以看出,窗口(a)的梯度峰值比窗口(b)的梯度峰值大,但是窗口(b)包含的灰度等級明顯比窗口(a)包含的灰度級別多。因此,梯度值大的區域,灰度的變化不一定頻繁,包含的灰度等級也未必多(見圖1(a))。反之,灰度變化頻繁的區域,其內像素的梯度值未必一定大(見圖1(b))。

圖1 不同鄰域的灰度信息Fig.1 G rayscale variance in different neighborhood
上述分析說明,梯度算子作為特征參數,只能反映過渡區內像素灰度突變的特點,并不能反映灰度頻繁變化的特點。
一幅圖像的灰度范圍為{0,1,…L-1}。整幅圖像的熵定義[4,7]為

式中:pi表示灰度值為i的像素出現的頻率,ni是灰度值為i的像素的數目,N為總像素數。如果定義一個局部鄰域窗口Ωk,則鄰域Ωk的熵為

式(8)定義的局部熵表示局部鄰域內的灰度變化是否頻繁。如果一個鄰域內的灰度級別多,說明它的不確定性大,它的局部熵就大;反之,如果鄰域內的灰度變化少,它的不確定性小,它的局部熵就小。
圖像的信息測度定義在圖像的局部鄰域內,用以度量鄰域內的圖像復雜程度。信息測度可表征邊緣的特性,如果鄰域處于圖像的平滑區域,圖像的灰度基本沒有變化,其信息測度值較小或為零;相反,如果圖像的邊緣處于鄰域內,則鄰域的測度值較大[8]。本文結合過渡區的特點,定義了一種提取過渡區的特征參數——局部熵信息測度,用來表征過渡區內灰度分布的特點。
圖2表示圖像的一個局部鄰域,以R={(m,n)||m-i|≤L,|n-j|≤L}表示,中心為 (i,j),鄰域半徑為L。過點(i,j)與水平方向成θk的直線為lk,lk將鄰域分成兩部分Sk1和Sk2,其中θk∈(0°,180°),(k=1,2,…)。

圖2 鄰域劃分Fig.2 Neighborhood division
則局部熵信息測度定義為

式中:Hmn為以點(m,n)為中心像素的窗口內的局部熵值,可由式(8)計算。
若鄰域內存在過中心點的過渡區,Sk1和Sk2內像素灰度值差異較大,其不確定性大,改變lk的方向,當lk與過渡區方向重合時,Eij取得極大值。若當前點(i,j)處于平滑區域內,中心點(i,j)的鄰域灰度相近,無論怎樣改變lk的方向,都是將同一區域分成兩個部分,因此Eij取值較小。由于Sk1和Sk2中的噪聲分布和噪聲強度在概率上是相同的,噪聲的影響被相互抵消了,所以Eij的抗噪性能較好。
針對局部熵信息測度的上述特點,可以定義一個局部鄰域窗口,把該鄰域內的局部熵信息測度值賦給中心像素(i,j),然后將窗口遍歷整幅圖像,即得到一幅變換后的局部熵信息測度圖像。變換后圖像的過渡區內像素具有較大的局部熵信息測度值,而目標和背景具有較小的測度值。根據要求確定正確的特征值閾值,則過渡區就是由特征值大于該閾值的像素構成。根據過渡區直方圖的峰值或均值可確定最終的分割門限。基于局部熵信息測度的圖像分割步驟如下:
①設定鄰域窗口尺寸及局部熵信息測度閾值;
②計算局部熵信息測度值,提取圖像的過渡區;
③根據提取的過渡區直方圖峰值或灰度均值確定分割閾值;
④根據閾值分割圖像。
在仿真實驗中,圖像過渡區提取的關鍵步驟是鄰域窗口的尺寸選擇[5,8]。如果尺寸過大,就失去了局部的意義,導致局部熵信息測度值趨同;如果窗口選擇過小,計算局部熵信息測度時會出現采樣不足的問題,反映不了鄰域內灰度變化信息。鄰域窗口一般選擇在7×7到15×15之間。
得到局部熵信息測度圖像后,就可設定局部熵信息測度閾值為[9-11]

式中:α∈(0,1)決定提取的過渡區包含像素數的多少,一般取0.6<α<1。
為了檢驗采用本文算法對圖像過渡區提取與分割的有效性,分別選取可見光圖像、光照不均勻的自然圖像進行實驗。為驗證本文算法的抗噪聲性能,分別對加入不同強度的椒鹽噪聲及不同方差的高斯白噪聲的圖像進行過渡區的提取與分割,同時將分割結果與傳統的加權梯度算法及局部復雜度算法進行比較。
以光照不均勻的米粒圖像為例(見圖3)。圖3(a)為原始的無噪聲圖像,圖3(b)~圖3 (d)分別為采用傳統的加權梯度算法、局部復雜度算法及本文算法的分割結果。圖3(b)中存在部分的背景噪聲,圖3(c)中個別米粒沒有完全提取出來,在圖中用方框標出。圖3 (d)的分割結果比較理想。當加入強度D= 0.1的椒鹽噪聲、方差V=0.02的高斯白噪聲時,由圖3(e)可知,加入噪聲使目標與背景的對比度降低了,邊緣比較模糊。由于梯度算法對噪聲敏感,提取的圖像過渡區不準確,造成圖3(f)的分割效果很差。圖3(g)采用局部復雜度算法直接提取圖像的過渡區,避免了梯度對噪聲敏感的缺點,其效果優于梯度法。圖3 (h)為本文算法的分割結果,由于局部熵信息測度充分利用過渡區內像素灰度變化頻繁的特性,因而能準確完整地提取圖像的過渡區,使過渡區較精確分布在目標周圍。加入強度D=0.1的椒鹽噪聲、方差V=0.03的高斯白噪聲時,圖3(j)分割效果很差,圖像的大部分過渡區像素沒有提取出來,只是將圖像中亮度反差較大,即梯度值較大的像素提取出來,造成目標基本提取不出來。圖3(k)存在米粒粘連及變形。圖3(l)說明在噪聲較大的情況下,本文算法仍能較準確地分割目標。圖3(h)和圖3(l)驗證了本文算法優于其它兩種方法。

圖3 自然圖像分割結果對比Fig.3 Comparison of segmentation result on natural images
以可見光飛機圖像為例(見圖4)。圖4 (a)為無噪聲的原始圖像,圖4(b)~圖4(d)分別為采用傳統的加權梯度算法、局部復雜度算法及本文算法的分割結果。三種分割結果基本相同,圖4(d)的分割效果最好。圖4 (e)和圖4(i)為加入不同噪聲的圖像,圖4 (f)~圖4(h)和圖4(j)~圖4(l)分別為相應的分割結果。通過對比分析圖4可知,本文的基于信息測度的方法在加入強度D= 0.1的椒鹽噪聲、方差V=0.03的高斯白噪聲時仍能較好分割目標,分割結果穩定性好,優于其它兩種方法,進一步驗證了本文算法的抗噪聲性能。

圖4 可見光圖像分割結果對比Fig.4 Comparison of segmentation result on visible light images
基于過渡區的提取與分割是近年來發展起來的一種圖像分割新方法,特征參數的選取是有效提取圖像過渡區的關鍵。本文根據過渡區內像素灰度變化頻繁的特點,構造信息測度參數,并以此參數提取圖像的過渡區,進而獲得分割閾值,得到比較理想的分割結果。實驗表明,本文算法擺脫了傳統過渡區提取算法對噪聲敏感和對剪切點Llow和Lhigh的依賴,能準確提取圖像的過渡區,使分割結果得到改善,是一種有效的基于過渡區提取的分割方法。本文方法具有良好的抗噪性能,即使加入椒鹽噪聲和高斯白噪聲的混合噪聲,仍能較好地將目標從圖像中分割出來。
[1]章毓晉.過渡區和圖像分割[J].電子學報,1996,24 (1):12-17.
Zhang Yu-jin.Transition region and image segmentation[J].Acta Electronica Sinica,1996,24(1):12-17.
[2]Zhang Y J,Gerbrands J J.Transition region determination based thresholding[J].Pattern Recognition Lett,1991,12(1):13-23.
[3]梁學軍,樂寧.基于光強加權梯度算子的圖像過渡區算法[J].圖像識別與自動化,2001(1):4-7.
Liang Xue-jun,Le Ning.Transition region algorithm based on weighted gradient operator[J].Image Recognition and Automatization,2001(1):4-7.
[4]Yan C X,Sang N,Zhang T X.Local entropy-based transition region extraction and thresholding[J].Pattern Recognition Letters,2003,24(16):2935-2941.
[5]閆成新,桑農,張天序,等.基于局部復雜度的圖像過渡區提取與分割[J].紅外與毫米波學報,2005,24 (4):312-316.
Yan Cheng-xin,Sang Nong,Zhang Tian-xu,et al.Image transition region extraction and segmentation based on local complexity[J].Journal of Infrared and Millimeter Waves,2005,24(4):312-316.
[6]Kang Wen-wei,Wang Ke,Chen Wan-zhong,et al.Segmentation of coronary arteries based on transition region extraction[C]∥2010 2nd International Asia Conference on Informatics in Control,Automation and Robotics (CAR 2010),2010:333-336.
[7]Kang Wen-wei,Wang Ke,Wang Qing-zhu,et al.Segmentation method based on transition region extraction for coronary angiograms[C]∥The 2009 IEEE International Conference on Mechatronics and Automation (IEEE ICMA 2009),2009:905-909.
[8]王彥春,梁德群,王演.基于圖像模糊熵鄰域非一致性的過渡區提取與分割[J].電子學報,2008,36 (12):2445-2449.
Wang Yan-chun,Liang De-qun,Wang Yan.Transition region extraction and segmentation based on image fuzzy entropy neighborhood unhomogeneity[J].Acta Electronica Sinica,2008,36(12):2445-2449.
[9]康文煒,王珂,張立保,等.基于局部復雜度信息測度的冠脈造影圖像分割[J].光電子激光,2011,22 (6):954-960.
KangWen-wei,Wang Ke,Zhang Li-bao,et al.Segmentation method based on local complexity information measurement for coronary angiograms[J].Journal of Optoelectronics Laser,2011,22(6):954-960.
[10]Cemil K,Francis K H Q.A review of vessel extraction techniques and altorithms[J].ACM Computing Surveys,2004,36(2):81-121.
[11]Cruz A L.Accuracy evaluation of different centerline approximations of blood vessels[C]∥IEEE TCVG Symposium on Visualization,Eurographics Association,2004:1-11.