999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN的分塊自適應(yīng)彩色圖像邊緣檢測(cè)的研究

2009-01-01 00:00:00姜慶玲劉萬軍

(1.遼寧工程技術(shù)學(xué)院 a. 電子與信息工程學(xué)院; b. 軟件學(xué)院,遼寧 葫蘆島125105; 2.鐵嶺師范高等專科學(xué)校 理工學(xué)院, 遼寧 鐵嶺 112300; 3.北京科技大學(xué) 信息工程學(xué)院, 北京100083)

摘 要:利用細(xì)胞神經(jīng)網(wǎng)絡(luò)(CNN)模型對(duì)彩色圖像邊緣檢測(cè)時(shí),首先要解決彩色空間的選擇以及顏色距離的計(jì)算問題,其次網(wǎng)絡(luò)參數(shù)的選擇也是一個(gè)重要問題。為了達(dá)到在確保邊緣檢測(cè)準(zhǔn)確的同時(shí)有效抑制噪聲的目的,對(duì)整幅圖像進(jìn)行分塊自適應(yīng)檢測(cè),采用熵來度量圖像的各個(gè)子區(qū)域的不同性質(zhì),然后根據(jù)該區(qū)域的性質(zhì)選擇一組合適的網(wǎng)絡(luò)參數(shù),對(duì)提取該區(qū)域圖像邊緣的CNN 模板進(jìn)行了理論分析和魯棒性研究,提出一個(gè)設(shè)計(jì)符合相應(yīng)功能要求的CNN 魯棒性定理,它為設(shè)計(jì)相應(yīng)的 CNN 模板參數(shù)提供了解析判據(jù)。仿真實(shí)驗(yàn)表明,該算法具有較好的健壯性。

關(guān)鍵詞:細(xì)胞神經(jīng)網(wǎng)絡(luò); 邊緣檢測(cè); 熵; 人類視覺系統(tǒng); 魯棒性

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):10013695(2009)03113104

Color edge detection based on CNN’s block adaptive

JIANG Qingling1a,2, LIU Wanjun1b, ZHANG Chuang3

(1.a(chǎn). Shool of Electronics Information Engineering, b.School of Software Engineering, Liaoning Technical University, Huludao Liaoning 125105,China; 2.School of Polytechnic Engineering,Tieling Teachers College,Tieling Liaoning 112300, China; 3.School of Information Engineering, University of Science Technology Beijing, Beijing 100083,China)

Abstract:The researches and applications of image processing based on the CNN have made great progresses. Edge detection is one of the basic preprocessing methods in digital image processing and computer vision. This paper proposed a color edge detection scheme based on CNN templates, and then studied and analyzed robustness CNN templates. First of all to solve the problem of the choice of color space and the problem of the calculation of distance color, followed by the choice of network parameters was also an important issue. In order to achieve accurate edge detection in ensuring the effective suppression of the noise, on the whole image block adaptive testing, used entropy to measure the various images of the different nature of the region, according to the nature of the region chose a suitable network parameters.It presented a theorem for designing the robustness CNN template parameters. Experiment results indicate that the approach has extensive application scope.

Key words:cellular neural network(CNN); edge detection; entropy; human vision system; robustness



在數(shù)字圖像處理中,邊緣代表著圖像的最基本特征,對(duì)邊緣檢測(cè)算法的研究也一直是圖像處理中探討的熱點(diǎn)問題之一。對(duì)灰度圖像經(jīng)典的邊緣檢測(cè)方法[1~4]有Roberts、Prewitt、Kirsch、Laplace、Sobel和Canny算子[3]等。傳統(tǒng)的邊緣檢測(cè)方法都針對(duì)灰度圖像,1988年Chua等人[5,6]提出用CNN來檢測(cè)圖像邊緣。 目前CNN在灰度圖像邊緣檢測(cè)中的應(yīng)用已經(jīng)比較成熟,現(xiàn)有的一些CNN彩色圖像邊緣檢測(cè)方法中,有大部分是灰度圖像邊緣檢測(cè)的推廣,即首先基于某一彩色分量紅(R)、綠(G)或藍(lán)(B)的圖像進(jìn)行灰度圖像邊緣檢測(cè);然后再將每一獨(dú)立分量的邊緣圖聯(lián)合形成彩色圖像的邊緣。這些方法忽略了人眼對(duì)顏色的視覺感知,沒有考慮各顏色分量之間的聯(lián)系,往往得不到好的邊緣檢測(cè)效果。為了能夠較好地對(duì)彩色圖像進(jìn)行邊緣檢測(cè),首先要選擇一個(gè)合適的彩色空間,并在該空間中計(jì)算出顏色距離;其次采用CNN來進(jìn)行圖像處理的關(guān)鍵是找到合適的網(wǎng)絡(luò)參數(shù),如何根據(jù)圖像不同區(qū)域的不同情況選擇合適的網(wǎng)絡(luò)參數(shù),將直接決定邊緣檢測(cè)的效果。因此,需要提出一種方法來實(shí)現(xiàn)分塊自適應(yīng)邊緣檢測(cè)。

本文結(jié)合人類視覺系統(tǒng)(human vision system, HVS)的特點(diǎn),把顏色看做一個(gè)矢量,分別計(jì)算兩個(gè)顏色的亮度距離和色度距離,然后將這兩個(gè)距離的加權(quán)平均值作為最終的顏色距離。為了使檢測(cè)結(jié)果能夠在去除噪聲的同時(shí)保證邊緣定位的準(zhǔn)確性,通過對(duì)熵的計(jì)算來實(shí)現(xiàn)分塊自適應(yīng)邊緣檢測(cè),用各個(gè)子區(qū)域的熵值判定該區(qū)域?qū)儆谶吘墔^(qū)域、平滑區(qū)域還是復(fù)合區(qū)域,進(jìn)而確定合適的網(wǎng)絡(luò)參數(shù),提出了一種基于CNN模板的分塊自適應(yīng)彩色圖像邊緣檢測(cè)算法,并編制了基于MATLAB 7.0平臺(tái)的程序。將該算法與傳統(tǒng)的幾種方法的仿真結(jié)果進(jìn)行比較,證明該方法能較好地描述原圖像和加入噪聲圖像的邊緣特征,其邊緣檢測(cè)結(jié)果與人眼的感知更加吻合,處理效果較好。

1 細(xì)胞神經(jīng)網(wǎng)絡(luò)(CNN)

細(xì)胞神經(jīng)網(wǎng)絡(luò)是一具有實(shí)時(shí)信號(hào)處理能力的大規(guī)模非線性模擬電路。它從誕生后就被人們廣泛研究,如今已經(jīng)在信號(hào)和圖像處理等領(lǐng)域獲得了成功應(yīng)用。

CNN的數(shù)學(xué)描述如下:

一個(gè)標(biāo)準(zhǔn)的M×N的CNN由M×N個(gè)細(xì)胞排列在M行N列的長(zhǎng)方形矩陣中,第i行第j列的細(xì)胞用C (i, j)表示(i=1,2,…,M; j=1,2,…,N)。每個(gè)細(xì)胞以各自為中心,與一個(gè)半徑為r的鄰域中的細(xì)胞相連,細(xì)胞鄰域可表示為

Sr(i,j)={C(k,l)|max1≤k≤M,1≤l≤M{|k-i|,|l-j|}≤r}(1)

標(biāo)準(zhǔn)CNN的狀態(tài)方程為

xij=-xij+Ci+k,j+l∈Sr(i,j)ak,l(i,j,t)yi+k,j+l+

Ci+k,j+l∈Sr(i,j)bk,l(i,j,t)ui+k,j+l+zi,j(i,j,t)=(2)

-xij+ rk=-rrl=-r ak,lyi+k,j+l+rk=-rrl=-rbk,lui+k,j+l+zi;

標(biāo)準(zhǔn)CNN的輸出方程為

yi,j=f(xi,j)=1/2(|xi,j-1|-|xi,j+1|)

i=1,2,…,M;j=1,2,…,N(3)

其中:xi,j、yi,j、ui,j、zi,j為標(biāo)量,均為實(shí)數(shù),分別稱為細(xì)胞的狀態(tài)、輸出、輸入和閾值。其中:參數(shù)r稱為影響球半徑;ak,l和bk,l分別稱做A模板(反饋算子)和B模板(輸入突觸算子)。

2 HVS的彩色空間距離計(jì)算

在彩色空間中,RGB彩色空間的表達(dá)最容易得到,但是RGB彩色空間并不能很好地模擬人類對(duì)顏色的視覺感知,人們很難將某RGB值與某一確定的顏色直觀地對(duì)應(yīng)起來。近幾年來,基于HVS的應(yīng)用出現(xiàn)在眾多研究領(lǐng)域。為了能夠較好地對(duì)彩色圖像進(jìn)行邊緣檢測(cè),結(jié)合人類視覺系統(tǒng) [7~10]的特點(diǎn),把顏色看做一個(gè)矢量,通過模擬人類視覺系統(tǒng)將顏色的亮度信息和色度信息分開來作不同處理, 并賦予不同的權(quán)重,然后量化顏色之間的差異。它的顏色差分計(jì)算由顏色距離計(jì)算、權(quán)重計(jì)算和距離合成三個(gè)部分組成。

2.1 顏色距離計(jì)算[11]

1)亮度距離計(jì)算

對(duì)任意一個(gè)RGB顏色C(R,G,B),亮度計(jì)算公式為

Ic=0.144R+0.588G+0.298B(4)根據(jù)公式可計(jì)算出顏色A、B的亮度值IA和IB,定義這兩個(gè)顏色的亮度距離為

Δl=|IA-IB|=|IA,B|(5)

Δl的取值為[0,255]。

2) 色度距離計(jì)算

為了確定任意兩個(gè)顏色向量A和B的色度距離,在RGB顏色空間中,由三個(gè)點(diǎn)r(1,0,0)、g(0,1,0)和b(0,0,1)所定義的平面s為一個(gè)等邊三角形,稱為RGB顏色空間的單位平面s。由于任意一個(gè)顏色向量在單位平面s上都有一個(gè)投影點(diǎn),對(duì)于顏色向量A和B,假設(shè)它們?cè)趩挝黄矫鎠上的投影點(diǎn)分別為a和b,則a和b的距離d=|ab|,并且根據(jù)投影點(diǎn)落在單位平面s上的不同位置,可以確定不同的顏色相似參數(shù)η。 由于d的取值為 [0,2],需要?dú)w一化為[0,255]區(qū)間內(nèi)的值,則色度距離為

Δc=min(d×η×255/2,255)(6)

Δc的取值為[0,255]。其中:d為量化后的單位平面s上兩點(diǎn)a、b的距離。顏色相似參數(shù)η的確定,通過單位平面的幾何中心o把該平面分成六個(gè)全等的直角三角形s1~s6。由于人眼對(duì)顏色的感知主要是由該顏色RGB分量的最大分量決定,如果最大分量為藍(lán)色,那么該顏色就被人眼感知為偏向藍(lán)色。根據(jù)兩點(diǎn)a、b所在不同區(qū)域,設(shè)定顏色相似參數(shù)η如下:

a)當(dāng)η=1時(shí),a、b在最大分量相同的區(qū)域,即在s1和s2,s3和s4,s5和s6區(qū)域內(nèi)部;

b)當(dāng)η=2時(shí),a、b在最大分量和最小分量相反的區(qū)域,即在s1和s4,s2和s5,s3和s6區(qū)域內(nèi)部;

c)當(dāng)η=3時(shí),其余情況。

2.2 權(quán)重計(jì)算[11]

計(jì)算較大灰度值與較小灰度值的比值rl時(shí),為了防止出現(xiàn)異常情況,當(dāng)顏色的灰度小于5時(shí),把它們?cè)O(shè)定為5,有1≤rl≤255/5。根據(jù)rl和Δc可計(jì)算亮度距離的權(quán)重為

wl=fl×Δc1/m(7)

色度距離的權(quán)重為

wl=(1-fl)×Δc1/m(8)

其中:權(quán)重函數(shù)fl為

fl=((rl-1)/50)1/n(9)

它的定義域?yàn)閇1,255/5],值域?yàn)閇0,1],并且m,n越大,函數(shù)圖形越陡峭。在計(jì)算權(quán)重時(shí),取m=3,n=10。

2.3 距離合成[11]

將計(jì)算出的亮度距離和色度距離的加權(quán)平均值作為顏色距離

SA,B=(wl×Δl+wc×Δc)/(wl+wc)(10)

當(dāng)兩個(gè)顏色的灰度值較小時(shí),式(10)計(jì)算出來的SA,B誤差很大,因此極不可靠。事實(shí)上,此時(shí)的顏色差DA,B趨向于0。為了解決這個(gè)問題,本文在SA,B前面乘上一個(gè)窗口函數(shù)fwin。窗口函數(shù)一般情況下取值為1,當(dāng)顏色的亮度值小于一個(gè)閾值時(shí),窗口函數(shù)值迅速趨向于0。在實(shí)現(xiàn)中,可取閾值為20,即當(dāng)兩個(gè)顏色亮度值的平均值小于20時(shí),fwin的值迅速趨向0。

由以上步驟可知,最后的顏色差分值為

DA,B=fwin×SA,B(11)

DA,B的取值為[0,255]。

3 熵的計(jì)算

3.1 圖像信息熵的定義及性質(zhì)

從本質(zhì)上講, 圖像是二維離散隨機(jī)數(shù)字信號(hào)。根據(jù)信息論, 離散數(shù)字信號(hào)的信息量可以用信息熵表示[12]。對(duì)于離散信息源X=[x1,x2,…,xi,…,xq]其概率空間P=[p1,p2,…,pi,…,pq]。其中:pi為事件xi出現(xiàn)的概率。信息源的熵,即包含的平均信息量定義為

H(X)=-K qi=1Pi ln Pi(12)

式(12)給出了信息源總體特征的一個(gè)量,通過信息熵可以判定信源包含的信息量大小。對(duì)于彩色圖像F(x,y;λ),在HVS 顏色空間中,這三個(gè)獨(dú)立信息源對(duì)應(yīng)的信息熵可分別為

HH(XH)=-KH qi=1PHi ln PHi,HV(XV)=-KV qi=1PVi ln PVi (13)

HS(XS)=-KS qi=1PSi ln PSi 

其中:系數(shù)KH、KV、KS 代表H、V、S 各個(gè)信息源對(duì)圖像整體信息量的貢獻(xiàn), 且KH+KV+KS=1;PHi、PSi、PVi分別為在H、V、S各自空間中值為的像素出現(xiàn)的概率, 且

Pl,i=numFl,i(x,y;λ)/(N×M) (14)

其中:l=H,V,S;N和M分別代表圖像行列值;numFl,i(x,y;λ)表示在l通道下, 像素值為i的圖像像素的個(gè)數(shù)。

定義圖像的整體熵為

H=HH+HV+HS(15)

它可以反映圖像所包含信息量的大小,從而可以定量地進(jìn)行圖像層次的分析。

3.2 圖像單元片區(qū)劃分[13]

對(duì)1 幀N×M的彩色圖像F(x,y;λ), 以n×m大小的子窗口對(duì)圖像進(jìn)行單元區(qū)的劃分, 形成單元區(qū)集sub G,設(shè)第i、j個(gè)片區(qū)為Sij , 且單元區(qū)劃分后的圖像大小為N′×M′, 則片區(qū)劃分后

sub G=S11S12… S1M′-1S1M′

S21S22… S2M′-1S2M′



Sl1Sl2Slk SlM′-1SlM′

 

SN′1SN′2… SN′M′-1SN′M′(16)

其中:N′=N/n;M′=M/m,且滿足

{Sl,k(i,j)=F(xi,yj)|i=0,1,2,…,n-1;j=0,1,2,…,m-1}

xi=n(l-1)+i; l=1,2,…,N′; yj=m(k-1)+j; k=1,2,…,M′

其中:xi∈[0,N];yi∈[0,M];Sl,k(i,j)表示第(l,k)個(gè)片區(qū)內(nèi)相對(duì)坐標(biāo)為(i,j)的像素顏色值;F(xi,yi)表示原圖像上坐標(biāo)為(xi,yj)的像素顏色值。

3.3 圖像單元信息熵[13]

下面對(duì)圖像進(jìn)行片區(qū)分割。對(duì)于一幅512×512圖像,取圖像單元窗大小為32×32, 即m = 32, n= 32 此時(shí)圖像單元的信息熵為

Hl:32×32(Xl)=-KlPlilnPli(17)

其中:Pli為在32×32單元窗口中l(wèi)通道下值i(i∈[0,255]) 出現(xiàn)的概率,Pli=numi/(32×32);numi為在32×32單元窗口中某一通道下具有值為i的像素點(diǎn)總數(shù)。由此可見, 當(dāng)32×32 單元中的值相同時(shí), 熵值最小, 且為0, 而當(dāng)32×32單元中的值均不相同時(shí),熵值最大,從而得到:

Hl:32×32;min=-Kl×1 024/(32×32 ) ln [1 024(32×32)]=0(18)

Hl:32×32;max=-Kl×1 024 /(32×32 ) ln [1 024/(32×32)]=10Kl

其中:l=H,V,S。結(jié)合式(17)(18), 得到在某一通道下第i個(gè)單元窗口的單元熵的可視化表征:

Eli=|Hl;32×32,i)/(Hl;32×32,i;max-Hl;32×32,i;min)(255-0)|l=H,V,S(19)

若式(19) 分母為0, 則令Eli=0,因此, 原圖像在H、V、S某一通道下的熵圖像可以表示為

El=(Ei,j)N ′×M ′(20)

其中:(Ei,j)N ′×M ′為N′行M ′列的單元熵圖像矩陣。

4 CNN的彩色圖像邊緣檢測(cè)算法

定義CNN模板Ⅰ如下:

這里a>1,bk,l定義為如下的非線性函數(shù)bk,l(Δu)。其中Δu=fwin[(wl(ui,jL-ui+k,j+lL)+wc(ui,jC-ui+k,j+lC))/(wl+wc)]。

bk,l=c if|Δu|>g

-1otherwise(21)

4.1 大范圍功能

給定一個(gè)靜態(tài)RGB圖像P;輸入U(xiǎn)(t)=P ;初始狀態(tài)X(0)=O;邊界條件為循環(huán)邊界條件;輸出Y(t)Y(∞)邊緣圖像。

4.2 局部規(guī)則

ui,j(0)→yi,j(∞)

a)任意黑色→黑色(相鄰像素點(diǎn)中至少有三個(gè)像素滿足|Δu|>g);

b)任意白色→白色(相鄰像素點(diǎn)中至多有兩個(gè)像素滿足|Δu|>g)。

4.3 定理

在滿足上述CNN模板的大范圍功能及局部規(guī)則的條件下,并且其中的參數(shù)滿足下述條件:

a>1(22)

z+3c>5(23)

z+2c<6(24)

則該CNN模板可以實(shí)現(xiàn)彩色圖像邊緣檢測(cè)的功能。

4.4 證明

CNN的狀態(tài)—輸出方程為

x#8226;ij=-xij+ayi,j+wi,j

=g(xij)+wi,j=hi,j(xij,wi,j)(25)

wi,j=z+ 1k=-11 l=-1bk,l(ui+k,j+l)(26)

可以解出:

yi,j(∞)=1wi,j>a-1xi,j(0)∈(-∞,∞)

11-a≤wi,j≤a-1 xi,j(0)>-(a-1)/wi,j

-(a-1)/wi,j 1-a≤wi,j≤a-1 xi,j(0)=-(a-1)/wi,j

-1 1-a≤wi,j≤a-1 xi,j(0)>-(a-1)/wi,j

-1 wi,j<1-axi,j(0)∈(-∞,∞)

(27)

設(shè)ps為滿足|Δu|≤g條件的相鄰像素的個(gè)數(shù);

設(shè)pd為滿足|Δu|>g條件的相鄰像素的個(gè)數(shù)。

wi,j=z-ps+cpd=z-(8-pd)+cpd=z-8+(1+c)pd(28)

a)如果像素點(diǎn)ui,j有至少三個(gè)相鄰的點(diǎn)滿足條件|Δu|>g,那么wi,j=z-8+(1+c)pd≥z-8+3(1+c),

則在xi,j(0)=0的初始條件下,當(dāng)且僅當(dāng)z-8+3(1+c)>0z+3c>5成立時(shí),yi,j(∞)=1。

滿足局部規(guī)則a),則得到式(23)。

b)如果像素點(diǎn)ui,j有至多兩個(gè)相鄰的點(diǎn)滿足條件|Δu|>g,那么wi,j=z-8+(1+c)pd≤z-8+(1+c)2,則在xi,j(0)=0的初始條件下,當(dāng)且僅當(dāng)z-8+2(1+c)<0z+2c<6成立時(shí),yi,j(∞)=-1。

滿足局部規(guī)則b),則得到式(24)。

證明完畢。

如在標(biāo)準(zhǔn)CNN模板Ⅰ中取參數(shù)a=2,c=2,z=1,g=0.1 ,可得到模板Ⅱ:

5 分塊自適應(yīng)彩色圖像邊緣檢測(cè)算法

前面討論得到的CNN模板,它對(duì)彩色圖像邊緣檢測(cè)的效果明顯優(yōu)于傳統(tǒng)方法。但在該方法中,仍然沒有考慮圖像不同區(qū)域性質(zhì)的不同,對(duì)一幅圖像采用一組網(wǎng)絡(luò)參數(shù),因而圖像在含有噪聲的情況下,若選用較小的g值檢測(cè)出的邊緣中噪聲引起的虛假邊緣較多;若通過增大g值來消除噪聲引起的虛假邊緣,圖像中的一些弱小邊緣也會(huì)一同被除去,雖然對(duì)噪聲有較強(qiáng)的抑制作用,但只能反映出圖像的大的輪廓邊緣。

鑒于以上不足,為了達(dá)到在確保邊緣準(zhǔn)確的同時(shí),最大可能地去除由于噪聲以及圖像不均勻產(chǎn)生的偽邊緣點(diǎn),采用熵來度量圖像的各個(gè)子區(qū)域?qū)儆谶吘墔^(qū)域、平滑區(qū)域還是復(fù)合區(qū)域,進(jìn)而確定一組合適的網(wǎng)絡(luò)參數(shù)。對(duì)于平滑區(qū)域采用比較大的g值,能夠有效抑制噪聲對(duì)邊緣檢測(cè)的影響;對(duì)于邊緣較多的區(qū)域,采用比較小的g值,主要是為了得到比較精細(xì)的邊緣。

本文提出對(duì)整幅圖像進(jìn)行分塊自適應(yīng)檢測(cè),根據(jù)圖像單元信息熵進(jìn)行分塊,從而達(dá)到分塊自適應(yīng)的目的。

綜上所述,本文算法如下:

a)將待分析的N×M彩色圖像分成大小為n×m的若干子區(qū)域。

b)根據(jù)得出的公式,計(jì)算圖像各子區(qū)域的單元信息熵,并用熵值來判斷該區(qū)域的性質(zhì),即該區(qū)域是平滑區(qū)、邊緣區(qū)還是屬于介于兩者之間的復(fù)合區(qū)。

c)根據(jù)各子區(qū)域的性質(zhì),采用合適的g值。具體情況為:

(a)若該子區(qū)域?yàn)槠交瑓^(qū)域,參數(shù)g取值為0.2。

(b)若該子區(qū)域?yàn)閺?fù)合區(qū)域,參數(shù)g取值為0.15。

(c)若該子區(qū)域?yàn)檫吘墔^(qū)域,參數(shù)g取值為0.1。

d)將常數(shù)g變成 N×M 的矩陣G,將G代入得到的CNN模板中,得到新的CNN模板。新模板可以實(shí)現(xiàn)自適應(yīng)地檢測(cè)彩色圖像的邊緣。

6 實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證本文算法效果,采用了三幅大小為512×512并且具有明顯差異的分析圖片,在MATLAB 7.0中進(jìn)行仿真實(shí)驗(yàn)。實(shí)驗(yàn)顯示:新方法較好地描述了原圖像的邊緣特征。其邊緣結(jié)果與人眼的感知更加吻合,如圖1中Lena圖像的臉部區(qū)域。另外,在圖像含有豐富細(xì)節(jié)或微小變化的區(qū)域,新方法也取得了優(yōu)于其他算子的結(jié)果,如圖1所示。

為了檢驗(yàn)該方法對(duì)于噪聲圖像的有效性,本文使用含有不同種類的噪聲圖像對(duì)新方法進(jìn)行了測(cè)試,其中對(duì)加入椒鹽噪聲圖像的對(duì)比結(jié)果如圖2所示。實(shí)驗(yàn)顯示:即使對(duì)于含噪聲的圖像,本文算法仍然可以提取出很多重要的邊緣,達(dá)到了在去除噪聲的同時(shí)保證了邊緣檢測(cè)的準(zhǔn)確性。

7 結(jié)束語

本文提出了一種基于CNN的分塊自適應(yīng)彩色圖像邊緣檢測(cè)算法。在保持了CNN模型主要結(jié)構(gòu)的同時(shí),結(jié)合HVS的特點(diǎn),對(duì)整幅圖像進(jìn)行分塊自適應(yīng)檢測(cè),采用熵來度量圖像各個(gè)子區(qū)域的不同性質(zhì),然后根據(jù)該區(qū)域的性質(zhì)選擇一組合適的網(wǎng)絡(luò)參數(shù),對(duì)提取該區(qū)域圖像邊緣的CNN 模板進(jìn)行了理論分析和魯棒性研究。新方法的主要優(yōu)點(diǎn)在于,在確保邊緣檢測(cè)準(zhǔn)確的同時(shí),去除由于噪聲以及圖像灰度不均勻產(chǎn)生的偽邊緣點(diǎn)。仿真實(shí)驗(yàn)表明本文算法在對(duì)受噪聲污染較嚴(yán)重的圖像進(jìn)行邊緣檢測(cè)時(shí),檢測(cè)結(jié)果明顯優(yōu)于目前現(xiàn)有邊緣檢測(cè)方法。CNN方法最突出的優(yōu)點(diǎn)是它能高速并行計(jì)算,且處理速度與圖像大小無關(guān),還便于硬件實(shí)現(xiàn),這使得它在圖像實(shí)時(shí)處理方面具有廣泛的應(yīng)用前景。

參考文獻(xiàn):

[1]CASTLEMAN K R.Digital image processing [M]. 北京:清華大學(xué)出版社, 2002.

[2]SONKA M, HLAVAC V, BOYLE R.Image processing,analysis,and machine vision [M].2nd ed.Boston:Thomson Brooks/Cole,1998.

[3]ROGERS D F. Procedural elements for computer graphics [M]. New York: McGraw Hill Education,1984.

[4]CANNY J. A computational approach to edge detection [J].IEEE Trans on Pattern Analysis and Machine Intelligence,1986, 8(6): 679698.

[5]CHUA L O,YANG L.Cellular neural networks:theory [J].IEEE Trans on Circuits Syst,1988,35(10):12571272.

[6]CHUA L O, YANG L.Cellular neural networks:application [J].IEEE Trans on Circuits Syst,1988,35(10):12731290.

[7]DALY S. A visual model for optimizing the design of image processing algorithms [C]// Proc of IEEE International Conference on Image Processing.Austin,Texas:[s.n.],1994:1620.

[8]ZEKI S.A vision of the brain [M].Oxford:Blackwell Scientific Publications,1993.

[9]WANDELL B.Foundations of vision [M].1st ed.Sunderland:Sinauer Associates Inc,1995.

[10]KAISER P,BOYNTON R.Human color vision [M].Washington DC:Optical Society of America,1996.

[11]林生佑,石教英.基于HVS的彩色圖像邊緣檢測(cè)算子[J].中國(guó)圖象圖形學(xué)報(bào),2005,10(1):4347.

[12]岡薩雷斯.數(shù)字圖像處理[M].北京:電子工業(yè)出版社,2003:224246.

[13]凌建國(guó),劉小軍,徐心和,等.基于熵的變分辨率彩色圖像分割[J]. 上海交通大學(xué)學(xué)報(bào),2005,39(12):5154.

[14]CHAO C H, DHAWAN A P. Edge detection using a Hopfield neural network [J].Optical Engineering,1994, 33:37393747.

主站蜘蛛池模板: yjizz国产在线视频网| 久久精品亚洲专区| av色爱 天堂网| 精品伊人久久久香线蕉| 免费一极毛片| 欧美激情一区二区三区成人| 国产一级无码不卡视频| 欧美色视频在线| 亚洲侵犯无码网址在线观看| jizz亚洲高清在线观看| 亚洲精品在线观看91| 国产主播福利在线观看| 国产日韩精品欧美一区喷| 91丝袜在线观看| 五月婷婷丁香综合| 97青草最新免费精品视频| 国产精品尤物在线| 欧美精品亚洲精品日韩专区va| 欧美啪啪精品| 毛片卡一卡二| 亚洲综合九九| 伊人无码视屏| 99视频在线免费| 国产亚洲精品无码专| 高清久久精品亚洲日韩Av| 亚洲中久无码永久在线观看软件| 亚洲日韩精品伊甸| 98超碰在线观看| 毛片手机在线看| 日韩亚洲综合在线| 精品久久人人爽人人玩人人妻| 亚洲有无码中文网| 欧洲一区二区三区无码| 欧美一区福利| 国产在线视频自拍| 丁香六月综合网| 国产拍在线| 91精品啪在线观看国产60岁 | 四虎国产成人免费观看| 操国产美女| 国产欧美综合在线观看第七页| 国产特级毛片aaaaaaa高清| 亚洲福利网址| 成人午夜久久| 夜夜高潮夜夜爽国产伦精品| 日本不卡免费高清视频| 欧美成人手机在线视频| 欧美精品导航| 日韩AV手机在线观看蜜芽| 国产亚洲男人的天堂在线观看 | 国产成人精品第一区二区| 久久91精品牛牛| 无码AV高清毛片中国一级毛片| 国产精品第一区在线观看| 日本亚洲最大的色成网站www| 强奷白丝美女在线观看 | 国产打屁股免费区网站| 国产在线精彩视频二区| 成人精品免费视频| 美女亚洲一区| 中文字幕 日韩 欧美| 国产午夜无码片在线观看网站 | 久久99热66这里只有精品一| 青青网在线国产| 四虎国产在线观看| 午夜激情福利视频| 国产成人成人一区二区| 国产尹人香蕉综合在线电影| 亚洲精品第一页不卡| 精品撒尿视频一区二区三区| 免费久久一级欧美特大黄| 亚洲日韩第九十九页| 激情六月丁香婷婷四房播| 99热国产这里只有精品9九| 国产h视频免费观看| 中文无码精品A∨在线观看不卡| 五月天婷婷网亚洲综合在线| 欧美a级在线| 婷婷开心中文字幕| 在线观看亚洲国产| 精品国产成人高清在线| 99国产在线视频|