摘要:為克服現(xiàn)有算法帶來邊緣定位不精確和人工參與太多等缺點,提出了一種新的基于區(qū)域增長的適合醫(yī)學(xué)圖像中ROI的分割算法。該算法先利用改進的Canny邊緣算子進行邊緣粗檢測,再利用給出的灰度和紋理等信息進行區(qū)域增長,最終得到分割圖像。為了更好地進行區(qū)域增長,新算法通過對ROI中像素的灰度和紋理進行分析,給出結(jié)合點向量運算和灰度判斷的增長準則。實驗結(jié)果表明,該方法能對醫(yī)學(xué)圖像中復(fù)雜區(qū)域或畸形區(qū)域進行分割,具有很好的魯棒性與實用性。
關(guān)鍵詞:感興趣區(qū)域;坎尼;醫(yī)學(xué)圖像;區(qū)域增長;向量運算
中圖分類號:TP391.4文獻標志碼:A
文章編號:1001-3695(2008)05-1582-04
圖像分割是進行圖像識別和理解的基礎(chǔ),也是計算機視覺研究中的核心問題和經(jīng)典難題之一,其一直以來得到廣大研究人員的普遍關(guān)注與研究[1]。隨著CT、MRI、激光共焦掃描和超聲波等成像技術(shù)的發(fā)展,醫(yī)學(xué)圖像越來越多地應(yīng)用于醫(yī)生的分析與診斷過程中。對醫(yī)學(xué)圖像文件中ROI進行準確的邊緣提取和區(qū)域分割,是醫(yī)生確切診斷的重要前提。圖像分割就是把圖像分成各具特性的區(qū)域,并提取出感興趣目標的技術(shù)和過程,分割的含義取決于語境,而分割的結(jié)果則更與圖像的復(fù)雜程度和尺度有關(guān)。盡管如今分割方法多種多樣,但是沒有任何一種圖像分割方法能適用于所有圖像。由于各種算法對圖像的處理都帶有一定的針對性和局限性,如何選擇適用于當前圖像特點的算法,費時又費力,只有通過比較才能解決問題。
一般來說,圖像的分割方法可分為兩種:a)基于邊緣檢測方法,如Canny算法[2]。雖然它是一種最優(yōu)的線性邊緣檢測算子,但是用基于邊緣檢測的方法所得到的輪廓線不能保證是封閉的,因此需要進行邊緣跟蹤處理,這將使得邊緣定位不精確。b)基于區(qū)域方法,如金字塔方法[3]。該方法中的區(qū)域一般事先給定,如正方形區(qū)域,但由于物體的輪廓線往往是任意形狀的,這種基于固定區(qū)域形狀的方法,其分割效果依賴于初始形狀,分割效果不好。基于上述不足,使用邊緣與區(qū)域相結(jié)合的方法引起了研究人員的重視。本文介紹了一種基于邊緣和區(qū)域的混合方法,該算法結(jié)合圖像(或ROI)給出的灰度和紋理等信息,先利用改進的Canny邊緣算子進行邊緣粗檢測,再結(jié)合給出的模板與ROI中任意一個像素進行卷積運算,并將值作為點向量的一個元素,最后再結(jié)合點的灰度值進行區(qū)域增長,最終得到分割圖像。實驗結(jié)果表明,該方法識別率高,得到的圖像邊緣清晰,而且能對醫(yī)學(xué)圖像中復(fù)雜區(qū)域或畸形區(qū)域進行分割,具有很好的魯棒性與實用性。
1醫(yī)學(xué)圖像特性分析
CT 、MRI等影像設(shè)備的成像數(shù)據(jù)反映了人體內(nèi)部臟器以及病變部位的特征,不同的組織器官在圖像中各具有明顯的紋理和灰度特征[4]。對同一組織器官而言,其中不同空間位置的子區(qū)域所包含的灰度和紋理信息基本相同,從而使得這些區(qū)域之間的灰度信息及紋理信息的變化比較一致。
1.1灰度分析
在CT或MRI圖像中,對應(yīng)于不同密度的組織器官,如脂肪、軟組織或骨骼,就有不同的CT或MRI值,表現(xiàn)為不同的灰度值。醫(yī)學(xué)灰度分布圖可以清楚地表示不同組織共存的情況。根據(jù)林德貝爾格—勒維中心極限定理,可證明當體素無限多時,該組織灰度分布為正態(tài)分布[5]。灰度值由低到高分別表示空氣、脂肪、軟組織和骨骼,如圖1所示。
圖1表示人體腹部的CT圖像灰度值分布。從圖1可以看出不同密度的組織器官,就有不同的CT值,表現(xiàn)為不同的灰度值。因此本文在進行ROI分割時,充分考慮灰度差異這個因素。
1.2紋理分析
醫(yī)學(xué)圖像中,不同密度的組織器官就有不同的紋理信息,而對同一組織器官而言,其中不同空間位置的子區(qū)域紋理信息基本相同。紋理特征共生矩陣的基本原理是利用紋理在灰度級的空間相關(guān)性,先根據(jù)圖像像素間的方向和距離構(gòu)造一個共生矩陣,再從中提取有意義的統(tǒng)計數(shù)據(jù)作為紋理的特征表示。共生矩陣P可定義為圖像中相距為δ= (Δx,Δy)的兩個灰度像素同時出現(xiàn)的聯(lián)合概率分布如下[4,8]:
其中:S為目標區(qū)域中具有特定空間關(guān)系的像素對的集合;#代表數(shù)量。基于灰度共生矩陣可以定義如二階矩、熵、對比度和均勻性等14個紋理特征向量。為方便計算,本文只采用以下6種特征:極大概率、紋理二階矩、熵、對比度、逆差矩和相關(guān)性進行分析。
圖2(a)~(c)所示的人體腹腔中分別提取三個大小為20×20的子區(qū)域,為便于說明,本文已作放大處理。從6種特征數(shù)據(jù)可知各方向相關(guān)的紋理參數(shù)都有共同趨勢:分割部分的紋理二階矩、熵和逆差矩比周圍組織和空腔高,其原因在于分割區(qū)域表面質(zhì)感粗糙,灰度分布不均勻。可見,上述基于灰度共生矩陣的紋理參數(shù)能夠反映醫(yī)學(xué)圖像中的紋理變化,且在同質(zhì)區(qū)域中,上述參數(shù)的值基本保持穩(wěn)定。因此,可以利用對圖像紋理分析來協(xié)助對感興趣的分割處理。
2圖像平滑與邊緣提取
在進行區(qū)域增長之前,必須先對圖像進行預(yù)處理。這些預(yù)處理包括圖像平滑增強、圖像銳化、邊緣粗提取等。為了減少計算量并使圖片經(jīng)預(yù)處理后得到較好的效果,本文采用改進的Canny邊緣處理方法進行邊緣粗提取。
2.1圖像平滑
本文采用修正的自適應(yīng)圖像中值平滑算法。按照選擇式掩模濾波器的方法在3×3的窗口中選擇四個三角形和兩個十字形掩模。其子掩模窗口的方向、形狀如圖3所示。
本文計算每個掩模的平均灰度并結(jié)合中心像素的灰度組成七個值,選擇中間的作為中心像素的新灰度值。
2.2梯度計算
在梯度計算方面,本文采取兩個一階差分卷積模板,如圖4所示。
2.3非極大值抑制與邊緣粗檢測
僅僅得到全局的梯度并不足以確定邊緣,因此為確定邊緣,必須保留局部梯度最大的點,而抑制非極大值。本文采用與梯度的方向上兩個像素的梯度比較的方法,如果中心像素的梯度值小于沿梯度線的兩個相鄰像素梯度值,則令中心像素的梯度值為3×3的窗口中的中間值。
因為預(yù)處理是邊緣粗檢測,所以這一步本文只設(shè)一個高閾值τ進行處理,將得到的邊緣圖像B[i, j](可能是間斷的邊緣段)作為區(qū)域增長的停止準則。
3區(qū)域增長
基于區(qū)域增長的方法是從種子點集合出發(fā),根據(jù)某一相似規(guī)則將相鄰的像素加入到該種子點集合中去。
3.1紋理向量
為了得到較清晰的紋理信息,本文采用三個5×5 的掩模組成一個集合,如圖5所示。
本文對圖片感興趣區(qū)域中的每一個像素都進行模板(5×5區(qū)域)運算,其目標是為每一個像素建立一個紋理向量,因此本文根據(jù)像素與每個模板(5×5區(qū)域)作運算后的值是大于等于0還是小于0,分別給向量元素值賦予1或0。那么本文可以得到三個這樣的值,分別設(shè)為v1、v2和v3,這樣就可以為每個像素建立紋理向量v=[v1,v2,v3]′。
3.3種子決策
要使用區(qū)域增長的方法分割出ROI圖像,首先要選定起始的搜索單元,也就是要給出種子單元。種子點必須滿足下面三個條件:a)種子點必須與周圍的鄰近點具有高相似性;b)為了得到一個預(yù)期的區(qū)域,一個區(qū)域至少有一個種子點;c)不同區(qū)域的種子必須是離散的。本文同時考慮像素的紋理和灰度來確定種子。首先在由Canny方法檢測出來的邊緣上選取多個點v(i)(i=1,2,…,N;N是點的數(shù)目)組成集合S,利用式(6)計算這些點的重心:
4實驗分析
實驗中所用的硬件環(huán)境:CPU為P(R) 42.8 GHz;內(nèi)存為512 MB;顯卡為128 MB;實驗環(huán)境為Visual Studio 2003。實驗數(shù)據(jù)是由蘇州大學(xué)附屬第一醫(yī)院提供的CT人腦系列斷層圖像,圖像格式符合DICOM 3.0標準。本文采用三張人體CT切片進行實驗。首先對圖片進行Canny邊緣處理,如圖6所示。
在區(qū)域增長這個環(huán)節(jié)中,向各個方向增長的算法時間復(fù)雜度很大,而且也不易實現(xiàn),本文提出的改進算法是:先增長出種子點所在的行(即點的y值不變),然后以這一行為種子區(qū)域,分別向兩邊增長,向兩邊增長時依然是先增長出一條直線(保持x值不變),再以外圍的點為種子點繼續(xù)向兩邊增長,以此循環(huán)下去,直到找不到合適點為止。
4.1實驗1
在一張醫(yī)學(xué)圖像中分割一個區(qū)域,如圖6(a) 所示。為了便于說明,本文將待分割區(qū)域放大顯示。其中方框為4.3節(jié)所選區(qū)域(下同),由此區(qū)域來確定種子點。如果區(qū)域太分散或太復(fù)雜,可以選一個以上的區(qū)域,即一個以上的種子點。
區(qū)域增長示意圖如圖7所示。
從上面的實驗可以看出:只通過Canny邊緣粗檢測時,左下角的模糊區(qū)域的邊緣提取得不太準確,進行區(qū)域增長后,此圖左下角處的模糊邊緣分割得很清楚。
4.2實驗2
在一張醫(yī)學(xué)圖像中分割兩個區(qū)域,如圖8(b)所示。
從上面的實驗可以看出,上面的分割區(qū)和周圍組織的灰度相差很近,下面的分割區(qū)域具有很深的凹陷區(qū),邊緣粗檢測后,得到的邊緣線是間斷的,且在凹陷區(qū)很不清晰。進行區(qū)域增長后,兩塊區(qū)域分割得都很清楚。
4.3實驗3
在一張醫(yī)學(xué)圖像中分割兩個復(fù)雜區(qū)域,如圖9(c)所示。
本算法可以通過改變式(4)中ε的值來改變增長準則,從而達到增長出一些細節(jié)的目的。圖9(a)是增長前的放大示意圖;(b)是當ε=0.3時的增長圖像,此時,感興趣區(qū)域中的部分灰度不一致的地方都被增長;而圖9(c)是當ε=0.5時的增長圖像,此時,可以很清晰地看出感興趣區(qū)域中的灰度有差異的地方并沒有增長。從上面的實驗可以看出,分割區(qū)里有其他組織,隨著增長條件的變化,其他灰度差異不大的組織就可以分割出來了。
綜上所述, 改進后的算法具有更強的抗噪聲能力, 能實現(xiàn)感興趣區(qū)域邊緣的準確定位,而且目標邊緣更加清晰,具有精度高、魯棒性強等優(yōu)點。
5結(jié)束語
對醫(yī)學(xué)圖像數(shù)據(jù)中感興趣區(qū)域進行準確的邊緣提取和區(qū)域分割,是后期對圖像進行分析、理解和處理的重要前提,且分割結(jié)果的好壞直接影響到圖像理解和醫(yī)生診斷工作的進行。本文針對其他現(xiàn)有分割算法的不足,提出一種新的基于區(qū)域增長的適合醫(yī)學(xué)圖像中ROI邊緣提取算法。該算法先利用改進的Canny邊緣算子進行邊緣粗檢測,再利用給出的灰度和紋理等信息進行區(qū)域增長,最終得到分割圖像。實驗結(jié)果表明,新算法的視覺效果和圖像質(zhì)量有了較大的改進,能有效地提高三維重建效果。本文算法能對醫(yī)學(xué)圖像中復(fù)雜區(qū)域或畸形區(qū)域進行分割,且有令人滿意的分割結(jié)果,有較高的實用價值。當然,本文的算法雖然在一定程度上提高了分割的效果與分割速度,但仍存在不足之處,例如當斷層圖像的數(shù)據(jù)有太多的噪聲或Canny提取的輪廓誤差很大時,本算法的分割效果就不是很好了,這些問題將在后期的研究中加以討論與處理。
參考文獻:
[1]彭啟民,賈云得.一種形態(tài)學(xué)彩色圖像多尺度分割算法[J].中國圖象圖形學(xué)報,2006,11(5):635-639.
[2]JORGE R R,EDUARDO B C.Medical image segmentation, volume representation and registration using spheres in the geometric algebra framework[J].Pattern Recognition,2007,40(1):171-188.
[3]ZHOUA Y,STARKEYB J,MANSINHA L.Segmentation of petrographic images by integrating edge detection and region growing[J].Computers Geosciences,2004,30(8):817-831.
[4]羅永興.面向醫(yī)學(xué)應(yīng)用的紋理圖像分割方法研究[D]. 天津:河北工業(yè)大學(xué),2004:23-25.
[5]羅述謙,周果宏.醫(yī)學(xué)圖像處理與分析[M].北京:科學(xué)出版社,2003:93-94.
[6]VIEIRA M,SHIMADA K.Surface mesh segmentation and smooth surface extraction through region growing[J].Computer Aided Geometric Design,2005,22:771-792.
[7]SHIH F Y,CHENG Shou-xian.Automatic seeded region growing for color image segmentation[J].Image and Vision Computing,2005,23:877-886.
[8]王惠明,史萍.圖像紋理特征的提取方法[J]. 中國傳媒大學(xué)學(xué)報:自然科學(xué)版,2006,13(1):49-52.
[9]李丙春,周明全,耿國華,等.多尺度區(qū)域增長的腫瘤區(qū)域分割方法[J]. 計算機工程與應(yīng)用,2006,42(30):218-220.
“本文中所涉及到的圖表、注解、公式等內(nèi)容請以PDF格式閱讀原文”