摘要:以醫學圖像為研究對象,針對任何一類特征都不能很好地表達醫學圖像的缺點以及進一步提高醫學圖像的識別率,提出了一種基于特征級數據融合與決策級數據融合相結合的分類方法。實驗結果表明,采用特征級數據融合,融合后的特征可以較好地表達醫學圖像,且減少了后期分類的計算量;采用決策級數據融合,取得了比單個分類器更高的識別率。
關鍵詞:特征提取; 數據融合; 圖像識別; 醫學圖像
中圖分類號:TP391.41文獻標志碼:A
文章編號:1001-3695(2008)06-1750-03
實現醫學圖像的自動識別是目前計算機和醫學交叉領域研究的熱點。而影響醫學圖像自動識別效果的主要因素有特征提取及識別方法這兩個方面。
從特征提取角度考慮,目前特征提取的方法大體可以分為三大類:顏色特征提取、紋理特征提取和形狀特征提取[1]。這三類方法各有其優缺點:圖像顏色特征提取方便,但缺乏空間分布信息;圖像紋理特征反映的只是圖像的一種局部結構化特征,具體表現為圖像像素點某鄰域內灰度級或顏色的某種變化;圖像形狀特征可以很好地表示圖像的可視化特征,但一般需要經過圖像分割和邊緣提取,得到邊緣和區域后才可以對對象進行基于邊緣或基于區域的形狀特征提取。每一類中又有很多具體的特征提取算法,相應地可以提取圖像的很多特征。然而,任何單一的一種特征或一類特征都不能很好地描述醫學圖像這種特殊的對象。如何將提取的高維特征綜合利用,以便更精確地識別,成為醫學圖像識別的迫切需要[2]。
從識別方法角度考慮,由于神經網絡具有很強的自適應性和學習能力、非線性映射能力、魯棒性和容錯能力,受到了人們越來越多的重視。然而,對于使用高維特征進行圖像識別,傳統的單個分類器難以得到令人滿意的識別率。由于不同分類器得到的識別結果之間往往互補性很強,將多種神經網絡分類器相融合,可以增加識別信息的可用量,減少信息的不確定性,是提高整個系統識別率的有效途徑[3,4]。
1圖像特征數據融合
數據融合可以分為像素級(pixel level)、特征級(feature level)和決策級(decision level)三個層次[5]。像素級融合是最低層次的圖像融合,它以提高圖像質量為目的,將經過高精度圖像配準后的多源影像數據按照一定的融合原則進行像素的合成,生成一幅新的影像。特征級融合是介于像素級融合與決策級融合中間層次的融合,它是對從原始圖像中抽取的一些特征進行融合,形成特征矢量。在特征級上融合后的特征可以更好地檢測目標。決策級融合是最高層次的目標屬性的融合,它是通過目標關聯將同一影像目標進行分組,將各傳感器對該目標的類別信息進行決策融合,直接獲得融合目標類別屬性。
本文結合使用了特征級和決策級數據融合方法,提出的圖像特征數據融合流程如圖1所示。
首先圖像進行預處理;然后分別提取了基于灰度直方圖的顏色特征、基于Gabor小波的紋理特征、基于不變矩的形狀特征;接著標準化后采用主元分析法進行特征級的數據融合。其優點主要體現在三個方面:a)綜合利用了三類特征;b)消除特征間的冗余信息;c)降低了特征空間的維數,大大減少了后期分類識別的計算量。為了進一步提高醫學圖像識別率,優選了三種神經網絡方法(單層感知器神經網絡、BP神經網絡和LVQ神經網絡),將融合后的特征分別作為網絡的輸入進行識別,之后采用多數投票法進行決策級數據融合,以得到最終識別結果。實驗結果表明,使用本文框架是有效利用各類特征,提高醫學圖像識別率的有效途徑。
2特征級數據融合的實現
2.1圖像的特征提取
圖像特征是用于區分圖像內容的最基本屬性,它們可以是原圖中人類視覺可鑒別的自然特征,也可以是通過對圖像測量和處理人為定義的某些參數。本文采用三種典型方法提取的特征分別為:基于直方圖的顏色特征[6]提取了均值、方差、傾斜度、峰態、能量、熵共6維;基于Gabor小波的紋理特征[7]提取時取尺度數S=5、方向數k=6,即提取了60維紋理特征;以及7維基于不變矩的形狀特征[8]。共同構成了73維表征醫學圖像的特征矢量。但是,此時得到的圖像特征向量的維數太高,數據量龐大,特征之間存在著大量的信息冗余。
2.2基于主元分析的特征級數據融合
主元分析(principle component analysis,PCA)法是特征級數據融合常用且有效的方法之一。通過主元分析法,既消除特征間的冗余信息,降低了特征空間的維數,同時又保留了所需要的識別信息。
1933年,Hotelling提出了主成分分析方法。它是一種將多個實測變量轉換為少數幾個不相關的綜合指標的多元統計分析方法,其主要目標是用低維子空間去表示高維空間。由于實測的變量間存在一定的相關關系,有可能用較少數的綜合指標分別綜合存在于各變量中的各類信息,而綜合指標之間彼此不相關,即各指標代表的信息不重疊。綜合指標就被稱為主成分。
b)y1是x1,x2,x3,…,xp的所有線性組合中的方差最大者,y2是與y1不相關的的x1,x2,x3,…,xp所有線性組合中的方差最大者,依此類推,yp是與y1,y2,y3,…,yp-1都不相關的x1,x2,x3,…,xp為所有線性組合中的方差最大者。
如此決定的綜合變量y1,y2,y3,…,yp,分別稱為原來變量的第1個,第2個,…,第p個主成分。根據矩陣代數,將特性向量u1,u2,u3,…,up所對應的非零特征根設為λ1,λ2,…,λp,則可以定義前m個主成分y1,y2,y3,…,ym的累積貢獻率為∑mi=1λi(∑pi=1λi)-1。當m個主元的累積貢獻率超過85%時[9],就認為這m個主元已經能夠代表總體X的主要信息。為了保證較高的識別率,本文累積貢獻率閾值設為99.7%。
3決策級數據融合的實現
3.1圖像的神經網絡識別
在使用何種方法進行識別之前,本文做了大量的實驗工作,實驗發現無監督分類方法如K均值分類方法、FCM分類方法等對醫學圖像全局特征的識別效果不是很理想。在有監督分類方法中,應用很廣泛的是神經網絡方法,其具體的算法也是舉不勝舉。通過比較自組織神經網絡、RBF神經網絡、單層感知器神經網絡、BP神經網絡和學習向量量化(LVQ)神經網絡,最終采用了單層感知器神經網絡[10]、BP神經網絡[11]和學習向量量化(LVQ)神經網絡[12]三種識別技術,分別利用特征級數據融合后的特征進行識別,進而采用多數投票法在決策級實現數據融合,得出最終識別結果。
單層感知器神經網絡和學習向量量化(LVQ)神經網絡的設計比較簡單,可以查閱所標文獻。BP神經網絡的結構設計如下:
a)輸入層節點數為m個神經元,輸入的是x1,x2,…,xm,就對應著經特征級數據融合之后的m維特征矢量。b)單隱層節點數u的設計可通過經驗公式u=m+l+α來確定。其中:l為分類總數;α一般取為1~10之間的常數。
c)按識別類別數確定輸出層節點數,并取BP網絡的激勵函數為非線性的Sigmoid函數。訓練算法采用Levenberg-Marquardt算法(實驗表明LM算法具有較強的穩定性),訓練精度設為e=0.005。
3.2基于多數投票法的決策級數據融合
多數投票法是決策級數據融合的一種簡單有效的方法。它利用單個分類器對給定測試樣本的輸出類別,將該測試樣本劃分到多數分類器具有相同決策的一類,無須作任何訓練。
該方法類似于選舉中的投票過程,可以將整個分類系統看做是一個黑箱子,輸入一類樣本X,然后輸出一分類標號j。用總體判決函數E(X)表示,即E(X)=j。為便于討論,將分類器k的輸出ek(X)用另一種形式表示。定義一個如下的二值特征函數Tk(X):
Tk(X∈Ci)=1ek(X)=i;i∈A0其他值(3)
多種分類器相融合時,如采用多數投票法的融合策略,即整個系統的輸出以大多數分類器的識別結果為準。
E(X)=j如果TE(X∈Ci)=max/i∈∧TE(X∈Ci)≥α×KM+1其他值(4)
大多數分類器選舉結果,即為由0≤α≤1所指定的分類器,參數值根據具體情況決定。若α=1/2,即半數以上分類器認為輸入X為Ci類時,分類系統就將X分類為Ci[13]。
4實驗結果及分析
實驗數據采集于江蘇大學附屬醫院影像診斷科的近2 000個病例4萬余幅腹部CT圖像。經過選擇,確定了1 000幅人體腹部圖像作為本研究的實驗數據。圖像尺寸均為512×512。它們分屬于正常和異常兩類數據。其中,正常數據500幅,異常數據500幅。神經網絡分類時從中選取50幅正常和50幅異常圖像數據用于神經網絡訓練,余下的圖像用于驗證分類效果。實驗目的是能將輸入的肝臟圖像分成正常、異常兩類。對于每一幅圖像,共提取了如上所述的73維特征。圖2所示的一幅正常肝臟圖像和一幅異常肝臟圖像提取的特征值如表1所示。
本文采用MATLAB的princomp函數進行特征級數據融合,通過對各主成分的累積貢獻率的分析表明,主元分析后的27維向量就可以99.718 4%表示分析前的73維向量。表2給出了三種神經網絡和決策級數據融合后的識別率統計結果。從表中可以看到,采用決策級數據融合后取得了更高的識別率。
5結束語
本文提出了一種將特征級數據融合與決策級數據融合相結合進行圖像識別的算法;并做了大量的對比實驗,取得了較好的實驗結果,驗證了所提算法的可行性。該算法具有很強的可擴充性,在具體應用的過程中,可以具體問題具體分析。比如為了提高識別率,可以提取更多特征作為特征級數據融合的輸入;在決策級數據融合中,也可以采用其他有效的分類算法。另一方面,如果能有效地進行分割后提取局部特征用于識別的輸入向量,必將會取得更高的識別率。
參考文獻:
[1]邢曉芬,徐向民,黃曉泓,等.基于內容的醫學圖像分類研究[J].科學技術與工程,2007,7(1):85-88.
[2]陸麗珍,劉仁義,劉南.一種融合顏色和紋理特征的遙感圖像檢索方法[J].中國圖象圖形學報,2004,9(3):328-332.
[3]劉安斐,李弼程,張先飛. 基于數據融合的多特征遙感圖像分類[J]. 數據采集與處理,2006, 21(4):463-467.
[4]洪流,張蔭錫.MATLAB 6.5輔助神經網絡分析與設計[M].北京:電子工業出版社,2003.
[5]HANIF M, ALI U. Optimized visual and thermal image fusion for efficient face recognition[C]//Proc ofthe 9th International Conference on Digital Object Identifier. 2006:1-6.
[6]MUGHAL M N, IKRAM W. Early lung cancer detection by classi-fying chest CT images:a survey[C]//Proc ofthe 8th IEEE Multitopic Conference on International Digital Object Identifier.2004:67-72.
[7]AHMADIAN A,MOSTAFA A,ABOLHASSANT M D, et al.A texture classification method for diffused liver diseases using Gabor wavelets[C]//Proc of the 27th Aunual International Conference on Enginee-ring in Medicine and Biology Society. 2005:1567-1570.
[8]屈景怡,史浩山.特征結合和相關反饋技術在醫學圖像檢索中的應用[J].電路與系統學報,2006,11(5):80-83.
[9]楊建坤,金德聞,王人成,等. 主元分析在研究滑倒時肌電信號中的應用[J].中國康復醫學雜志, 2006,21(1):28-30.
[10]飛思科技產品研發中心. MATLAB 6.5輔助神經網絡分析與設計[M].北京:電子工業出版社,2003.
[11]李穎,王欣威,董慧穎. 基于多神經網絡分類器的軍事目標識別方法研究[J].沈陽理工大學學報,2005,24(4):18-22.
[12]韓立群.人工神經網絡教程[M].北京:北京郵電大學出版社,2006.
[13]楊彥飛,董慧穎.基于神經網絡融合的目標識別技術研究[J].沈陽理工大學學報,2006,25(5):53-57.
注:本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文