姚娜 呂海芳 陳杰
(塔里木大學(xué)信息工程學(xué)院,新疆 阿拉爾 843300)
對(duì)于圖像紋理特征的提取研究主要是基于模型類、統(tǒng)計(jì)類、信號(hào)處理類三大類的方法,各種方法的有效性相差無(wú)幾,查準(zhǔn)率和查全率的乘積的最大值在0.1~0.3 之間波動(dòng),但是在計(jì)算復(fù)雜度、反映圖像信息的全面性、像素之間的依賴性和多分辨特性等角度各有各的優(yōu)勢(shì)與不足,其中多種方法都有計(jì)算量大,計(jì)算復(fù)雜度高的缺點(diǎn)[1]。1999年,Johnson在Eckhorn 貓視覺神經(jīng)元模型的基礎(chǔ)上提出了脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network,PCNN)[2-4]。PCNN 在圖像處理[5]方面得到了廣泛的應(yīng)用,包括圖像融合、去噪、分割、邊緣提取等,近期也用在了圖像特征提取方面[6-7],論文提出將脈沖耦合神經(jīng)網(wǎng)絡(luò)的方法用于漢字圖像的紋理特征的提取中。中華文化中的漢字復(fù)原對(duì)于文化遺產(chǎn)的保護(hù)和傳承有著極其重要的作用,對(duì)于漢字的特征提取重要的是形狀提取和紋理提取,形狀特征的提取相對(duì)簡(jiǎn)單,紋理特征的提取相對(duì)復(fù)雜,但紋理特征的提取是漢字圖像的特征中一個(gè)很重要的特征,所以紋理特征提取是建立圖像數(shù)據(jù)特征庫(kù)并且進(jìn)行復(fù)原的一個(gè)重要前提。論文提出將脈沖耦合神經(jīng)網(wǎng)絡(luò)的方法結(jié)合梯度向量對(duì)漢字圖像進(jìn)行紋理特征提取,計(jì)算復(fù)雜度低,且具有旋轉(zhuǎn)不變性和尺度不變性的優(yōu)點(diǎn)。
2.1 PCNN 模型
脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)是由多個(gè)神經(jīng)元相互連接形成的反饋型網(wǎng)絡(luò),是對(duì)Eckhorn 提出的貓視覺皮層模型的一種擴(kuò)展,其結(jié)構(gòu)組成如圖1所示[8]。

圖1 單個(gè)神經(jīng)元簡(jiǎn)化模型的內(nèi)部結(jié)構(gòu)
其中,構(gòu)成PCNN的每一個(gè)神經(jīng)元主要由接收部分、調(diào)制部分和脈沖產(chǎn)生三部分組成。接收部分由兩部分來(lái)組成,其中一部分用于接收外部信號(hào)的饋入輸入(Feeding Inputs),其運(yùn)算關(guān)系為:

另一部分則用來(lái)接收來(lái)自其它神經(jīng)元的連接輸入(Linking Inputs),其運(yùn)算關(guān)系為:

在公式(1)(2)中,和是連接權(quán)系數(shù)矩陣,表示卷積運(yùn)算,為神經(jīng)元是否點(diǎn)火的信息,和為時(shí)間衰減常量,和為連接和饋入常量,為神經(jīng)元接受的外部激勵(lì)。在調(diào)制部分,饋入輸入和連接輸入經(jīng)過(guò)調(diào)制后產(chǎn)生神經(jīng)元的內(nèi)部活動(dòng),其運(yùn)算關(guān)系為:

公式(3)中為連接調(diào)制常量。神經(jīng)元的脈沖產(chǎn)生是根據(jù)內(nèi)部活動(dòng)的一個(gè)階躍函數(shù)而產(chǎn)生二值輸出,并根據(jù)神經(jīng)元是否點(diǎn)火的狀態(tài)自動(dòng)調(diào)整閾值的大小。在時(shí)間,如果內(nèi)部活動(dòng)比閾值函數(shù)大,脈沖輸出的值為1,稱神經(jīng)元點(diǎn)火;否則取值為0,稱神經(jīng)元未點(diǎn)火。如果神經(jīng)元點(diǎn)火,則閾值根據(jù)下面兩式進(jìn)行自動(dòng)調(diào)整:

其中,為時(shí)間衰減常量,為閾值常量,式(5)為階躍函數(shù)。
2.2 梯度向量
Lee 和Cok 對(duì)圖像梯度向量的研究從二維空間擴(kuò)展到了多維的空間[9]。如果用函數(shù)來(lái)表示一幅二維空間的圖像,那么該圖像的梯度向量為一階導(dǎo)數(shù)。在三維空間的彩色圖像中,假設(shè)彩色圖像的函數(shù)為,則該彩色圖像的梯度向量為:

該方法在文獻(xiàn)[9]中有更詳細(xì)的闡述,論文中待處理的源圖像為RGB 模式的彩色圖像,先將其轉(zhuǎn)換成L*a*b 空間模式的圖像,再用此方法進(jìn)行求解梯度圖像如圖3 所示,圖2 為待處理的源圖像,圖4 為RGB 圖像直接運(yùn)用文獻(xiàn)[9]求出的梯度圖像,由仿真結(jié)果可以看出將RGB 模式的圖像轉(zhuǎn)換成L*a*b 空間模式后對(duì)于噪聲的敏感度降低,更適合人類的視覺,更有利于紋理特征的提取。

圖2 待處理的源圖像

圖3 L*a*b 空間模式下的梯度圖像

圖4 RGB 模式下梯度圖像
3.1 簡(jiǎn)化PCNN 模型的改進(jìn)
PCNN的基本模型在實(shí)際應(yīng)用中過(guò)于復(fù)雜,Gu Xiao dong 等提出了改進(jìn)的簡(jiǎn)化PCNN 模型[8],公式表達(dá)如下:

通過(guò)公式可以看出改進(jìn)模型的特點(diǎn):
3.1.1 L 通道的各個(gè)脈沖輸入線路上的突觸聯(lián)結(jié)權(quán)變成1。
3.1.2 把外部神經(jīng)元的空間累積效果歸一化。
3.1.3 將閾值調(diào)節(jié)器的非線性指數(shù)變化方式變?yōu)榫€性方式。
該模型舍去了通用模型的空間累加特性,保留了其它特性,為圖像處理帶來(lái)了好處。
3.2 漢字紋理特征的提取
論文在此改進(jìn)簡(jiǎn)化模型的基礎(chǔ)上結(jié)合梯度向量對(duì)圖像進(jìn)行特征提取:先將RGB 模式的漢字彩色圖像轉(zhuǎn)換成L*a*b 空間模式的圖像,然后對(duì)圖像求梯度得出梯度圖像,對(duì)該梯度圖像進(jìn)行PCNN 迭代點(diǎn)火,每次迭代后的圖像進(jìn)行概率統(tǒng)計(jì),最后得出一個(gè)向量作為提取的紋理特征。具體的改進(jìn)后的紋理特征提取算法如下:
3.2.1 將RGB 模式轉(zhuǎn)換為L(zhǎng)*a*b 空間模式,漢字圖像灰度化,求梯度圖像;
3.2.2 將梯度圖像歸一化到0 和1 之間;L=U=0,θ=1,F(xiàn)=0;同時(shí),令每個(gè)神經(jīng)元Y=0;令N=20 β=0.2 Δ=0.05;
3.2.3 L=Step(Y ?K);
3.2.4 Y=Step(U- θ),D=Y,U=F*(1+βL);
3.2.5 如果Y=D,到(6);否則,L=Step(Y ?K),返回(4);
3.2.6 如果Y(i,j)=1,B=(i,j)=1,(i=1,…,H;j=1,…W)其中Y(i,j),B(i,j),分別為矩陣Y,B的元素;
3.2.7 θ=θ- Δ,隨著調(diào)整次數(shù)N的增加降低閾值;
3.2.8 如果Y(i,j)=1,θ(i,j)=100.(i=1,…,H;j=1,…W),其中θ(i,j)為矩陣θ的元素。當(dāng)某神經(jīng)元點(diǎn)火后,迅速增加其閾值到一個(gè)足夠大的固定值,使之不再點(diǎn)火;
3.2.9 B=Y,計(jì)算矩陣中值為1的概率P;
3.2.10 N=N-1。如果N ≠0,返回(2);否則,結(jié)束[P1P2……P20]。為20 次迭代后的概率統(tǒng)計(jì)向量。
其中,B 為點(diǎn)火結(jié)果矩陣,N 為循環(huán)次數(shù),L 是連接矩陣,K 為運(yùn)算核矩陣。論文采用8 鄰域聯(lián)接,核矩陣為:

圖5 源圖像的處理結(jié)果

圖6 源圖像大小的0.7 倍處理結(jié)果

圖7 源圖像旋轉(zhuǎn)180°處理結(jié)果

Δ 為閾值調(diào)節(jié)矩陣,與循環(huán)次數(shù)相對(duì)應(yīng),Δ=1/N=0.05。D 為保存中間結(jié)果的臨時(shí)矩陣;為圖像的高度;為圖像的寬度;各個(gè)矩陣的維數(shù)都一致,均為H ×W。概率統(tǒng)計(jì)向量[P1P2……P20]即為提取的紋理特征。
論文所做仿真實(shí)驗(yàn)都是在CPU 為酷睿i5,CPU頻率為2.5GHz的硬件條件下測(cè)得的仿真結(jié)果及數(shù)據(jù)。論文所做的部分紋理特征提取仿真結(jié)果如圖5(d)圖6(d)和圖7(d),源圖像為RGB 模式的圖像如圖2,來(lái)自于微軟Office Word 中宋體文字的截圖,圖5(c)圖6(c)和圖7(c)的分割結(jié)果為20 次迭代中任意一次的分割結(jié)果。圖5(d)為迭代次數(shù)為20,全部迭代次數(shù)的點(diǎn)火像素的概率統(tǒng)計(jì)直方圖,圖6(d)為迭代次數(shù)為20,圖像大小變?yōu)樵磮D像大小的0.7 倍后,全部迭代次數(shù)的點(diǎn)火像素的概率統(tǒng)計(jì)直方圖,圖7(d)為迭代次數(shù)為20,源圖像旋轉(zhuǎn)180°后,全部迭代次數(shù)的點(diǎn)火像素的概率統(tǒng)計(jì)直方圖。通過(guò)理論分析及仿真結(jié)果得出總的分析如下:
4.1 不同的漢字圖像有不同的灰度分布信息,該方法統(tǒng)計(jì)像素為1的概率,實(shí)際上是統(tǒng)計(jì)了漢字圖像的灰度分布信息,即不同的漢字圖像有不同的概率統(tǒng)計(jì)直方圖,所以概率統(tǒng)計(jì)向量可以表示紋理特征的特點(diǎn);
4.2 圖5(d)、圖6(d)和圖7(d)中概率為0的次數(shù)都為15,概率在[0-0.015]之間的次數(shù)都為5次。雖然經(jīng)過(guò)變換大小和旋轉(zhuǎn)角度,有5 次在進(jìn)行PCNN 點(diǎn)火時(shí),每次點(diǎn)火的概率不完全相同,但是在某個(gè)范圍內(nèi)有共同的特點(diǎn),所以在一定的范圍內(nèi)表示出該方法具有旋轉(zhuǎn)不變性和尺度不變性的優(yōu)點(diǎn),只要設(shè)置適當(dāng)?shù)钠ヅ鋽?shù)據(jù)范圍就可以將提取的紋理特征數(shù)據(jù)與數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行匹配,然后進(jìn)一步完成漢字的復(fù)原;
4.3 PCNN 具有并行高速傳播的特點(diǎn),所以該方法運(yùn)行的速度高于普通的數(shù)學(xué)統(tǒng)計(jì)算速度,并且該方法的數(shù)學(xué)計(jì)算量較少,具有計(jì)算復(fù)雜度低的優(yōu)點(diǎn)。
本論文將20 幅漢字圖像進(jìn)行紋理提取的仿真實(shí)驗(yàn)和匹配仿真實(shí)驗(yàn),與常用的gabor 變換算法、灰度共生矩陣和局部二值模式(LBP)方法進(jìn)行運(yùn)行時(shí)間和匹配正確率的比較,如表1 所示。通過(guò)表中數(shù)據(jù)可以看出本文方法在綜合考慮運(yùn)行時(shí)間和匹配正確率的角度與其他三種方法相比具有優(yōu)越性。

表1 運(yùn)行時(shí)間及匹配正確率的比較
論文提出了一種用改進(jìn)的簡(jiǎn)化PCNN 模型結(jié)合梯度向量對(duì)漢字圖像進(jìn)行紋理特征提取的方法。首先將RGB 模式的漢字圖像轉(zhuǎn)換成L*a*b 空間模式的圖像,然后再對(duì)其求梯度向量得到梯度圖像,這樣能夠降低該方法對(duì)于噪聲的敏感度,最后統(tǒng)計(jì)每次迭代點(diǎn)火后像素為1的概率統(tǒng)計(jì)直方圖作為紋理特征。由理論分析及仿真結(jié)果分析可以表明該方法的有效性及優(yōu)越性。如果旋轉(zhuǎn)在180°以內(nèi),大小改變?cè)? 倍以內(nèi),該方法的紋理特征具有旋轉(zhuǎn)不變性和尺度不變性,該方法對(duì)漢字圖像的紋理特征提取提供了新的理論依據(jù),更具體的特征規(guī)律還有待于進(jìn)一步的研究。
[1]劉麗,匡綱要.圖像紋理提取方法綜述[J].中國(guó)圖象圖形學(xué)報(bào),2009,14(4):622-635.
[2]Johnson J L,Padgett M L.PCNN Models and Applications[J].IEEE Transactions on Neural Networks,1999,10(3):480-496.
[3]Kuntimad G,Rangnath H S.Perfect Image Segmentation Using Pulse Coupled Neural Networks[J].IEEE Trans on Neural Network s,1999,10(3):591-598.
[4]Eckhorn R,Reitboeck H J,Arndtetal M.Feature linking viasynch ronization among dist ributed assemblies:Simulation of results from acortex[J].Neural Computation,1990,2(3):293-307.
[5]Lindblad T,Kinser J M.Image Processing Using Pulse-Coupled Neural Networks [M].New York:Springer,2005.
[6]Yang Cheg,Gu Xiaodong.Combining PCNN with color distribution entropy and vector gradient in feature extraction[C].2012 8th International Conference on Natural Computation(ICNC 2012),2012:207-211.
[7]李雙科,吳記群,孫傳慶.一種基于PCNN的指紋特征提取算法[J].自動(dòng)化與儀器儀表,2011,(5):134-137.
[8]Gu Xiaodong,Guo Shide,Yu Daoheng.A New Approach for Automated Image Segmentation Based on Unit-linking PCNN[C].International Conference on Machine Learning and Cybernetics,2002,1(1):175-178.
[9]Hsien-Che Lee,David R.Cok.Detecting Boundaries in a Vector Field[J].IEEE Transactions on Signal Processing,1991,39(5):1181-1194.