999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于區(qū)域特性的Curvelet變換圖像融合算法

2015-04-12 00:00:00王坤臣孫權(quán)森
現(xiàn)代電子技術(shù) 2015年2期

摘 "要: 為克服小波變換在二維或更高維度空間分析中的缺陷,提高圖像融合質(zhì)量,提出基于二代Curvelet變換的圖像融合改進算法。引入可以有效分析圖像中的曲線奇異性,能更加合理處理圖像邊緣信息的Curvelet變換對圖像進行分解,對圖像分解后的低頻部分采用自適應(yīng)閾值的區(qū)域方差高斯加權(quán)融合方法,增加圖像像素之間的關(guān)聯(lián),并有效保留細節(jié)和邊緣。對高頻部分采用區(qū)域能量融合方法來降低噪聲,增強圖像的細節(jié)。采用該算法對多組不同圖像進行融合實驗,并用信息熵、交叉熵、相關(guān)系數(shù)、空間頻率等對融合圖像進行客觀評價。實驗結(jié)果表明,該算法優(yōu)于傳統(tǒng)的融合規(guī)則和算法,能在保持更好清晰度的同時獲得更豐富的圖像內(nèi)容。

關(guān)鍵詞: 圖像融合; Curvelet變換; 自適應(yīng)閾值; 區(qū)域特性; 區(qū)域頻率

中圖分類號: TN919?34; TP391 " " " " " " " " 文獻標(biāo)識碼: A " " " " " " " " " " "文章編號: 1004?373X(2015)02?0077?06

Image fusion algorithm with Curvelet transform based on regional feature

WANG Kun?chen, SUN Quan?sen

(Department of Computer Science and Engineering, Nanjing University of Science amp; Technology, Nanjing, 210094, China)

Abstract: In order to overcome the weakness of wavelet transform in 2D or higher dimensional spatial analysis and improve quality of image fusion, a modified image fusion algorithm based on Curvelet transform is proposed. Curvelet transform which can effectively analyze singularity of a curve and rationally process edge information in an image is introduced to decompose images. An adaptive threshold regional variance and Gaussian?weighted fusion algorithm is used in low?frequency region to enhance the correlation between pixels in an image and preserve its details and edges effectively. The regional energy fusion method is applied in high?frequency region to reduce noise and enhance the details of the image. Many fusion experiments of different images were carried out with the algorithm. The fusion results were evaluated by information entropy, cross entropy, correlation coefficient and space frequency. The experiment results indicate that the proposed algorithm is more outstanding than the conventional fusion rules and methods, and can obtain better resolution and more rich image content.

Keywords: image fusion; Curvelet transform; adaptive threshold; regional feature; regional frequency

0 "引 "言

近些年來,多傳感器圖像融合理論研究日漸深入,應(yīng)用領(lǐng)域也日益廣泛,在醫(yī)學(xué)[1]、機器視覺、環(huán)境保護和遙感[2]等領(lǐng)域都取得了比較廣泛的關(guān)注和應(yīng)用。圖像融合是指將配準(zhǔn)后的圖像采用一定的方法融合在一起的技術(shù),由于待融合的多幅圖像之間具有信息的冗余性和互補性,所以融合過程需要在降低冗余信息影響的同時盡量提取互補信息。

早期的圖像融合嘗試均是在空間域上實現(xiàn)的,運用的主要算法有加權(quán)平均法、主成分分析法、Brovery變換融合算法。隨后,陳武、曹喆等人將小波變換應(yīng)用到圖像融合領(lǐng)域,提出基于小波系數(shù)方向的子帶系數(shù)選擇策略[3?4]。小波分析兼具多分辨率和時頻局部化特性,成為圖像融合的重要技術(shù)手段。多尺度分析工具[5?6]不斷的發(fā)展,本文將真正意義上的二維信號分析工具Curvelet引入圖像融合,根據(jù)圖像的特點,提出一種基于區(qū)域自適應(yīng)特性的Curvelet域融合算法,對Curvelet分解后的低頻和高頻子帶進行融合操作,在低、高頻子帶采用不同的融合規(guī)則。實驗表明,本文算法優(yōu)于傳統(tǒng)的圖像融合算法。

1 "Curvelet變換

1999年,Candes和Donoho等人在Ridgelet變換的基礎(chǔ)上提出了連續(xù)曲波(Curvelet一代)變換,然而其變換過程數(shù)學(xué)實現(xiàn)較為復(fù)雜。于是Candes等人在2002年提出第二代Curvelet變換,并于2005年提出兩種基于第二代Curvelet變換理論的快速離散實現(xiàn)方法[7]。二代Curvelet較第一代變換更加簡單,冗余度更低,運算更為迅速,實現(xiàn)也更加方便。與傳統(tǒng)小波變換相比,Curvelet變換更適于刻畫圖像的幾何特征,如曲線、直線等,采用“楔形基”來逼近[C2](二階連續(xù)可微)的奇異點,充分考慮奇異點的幾何形狀,并具有任意角度的方向性(各向異性),更適合對圖像的處理與應(yīng)用,此外,Curvelet變換對圖像的幾何特征(曲線、直線)具有更好的系數(shù)表達能力,采用少數(shù)較大的Curvelet變換系數(shù)進行表示,克服了小波變換傳播重要特征到多個尺度上的缺陷,變換后能量更加集中,更利于跟蹤和分析圖像中的重要特征[8]。

Curvelet變換有兩種不同的實現(xiàn)算法,這兩種方法的主要區(qū)別在于不同尺度和方向下空間網(wǎng)格的選擇方法不同。下面簡單介紹兩種方法[9]:

(1) USFFT算法

對[f[t1,t2]∈L2(R2)]做二維FFT變換得到Fourier采樣序列[F[n1,n2]],其中[-n2≤n1,n2lt;n2];

針對頻域中不同尺度和方向參數(shù)[(j,l)],對[F[n1,n2]]進行插值得到[F[n1,n2-n1tanθ1]],其中[(n1,n2)∈Pj];

將[F[n1,n2-n1tanθ1]]與擬合窗口[Uj(width=length2]相乘之后得到如下結(jié)果,即[Fj,l[n1,n2]=][F[n1,n2-n1tanθ1]Uj(n1,n2)];

對序列[Fj,l[n1,n2]]做二維FFT逆變換,得到Curvelet系數(shù)[CD(j,l,k)]。

(2) Wrapping算法

對[f[t1,t2]∈L2(R2)]做二維FFT變換得到Fourier采樣序列[F[n1,n2]],其中[-n2≤n1,n2lt;n2];

針對頻域中不同尺度和方向參數(shù)[(j,l)],用擬合窗[Uj(width=length2)]乘以[F[n1,n2-n1tanθ1]];

圍繞原點Wrap局部化F,[Fj,l[n1,n2]=][WUj,lF[n1,n2]];

對序列[Fj,l[n1,n2]]做二維FFT逆變換,得到Curvelet系數(shù)[CD(j,l,k)]。

對比以上兩種方法,都是先通過FFT變換到頻域,再在頻域中進行局部化,然后對局部化后的結(jié)果做二維FFT逆變換得到離散Curvelet變換系數(shù)。

2 "基于區(qū)域特性的Curvelet圖像融合算法

2.1 "圖像融合流程

基于Curvelet變換的圖像融合的實現(xiàn)流程如圖1所示。算法的實現(xiàn)步驟表述如下:

(1) Curvelet分解。將配準(zhǔn)好的源圖像A和B進行Curvelet變換,得到相應(yīng)的Curvelet系數(shù)集合。分解尺度和方向為默認值。分解后得到的矩陣C為一個胞矩陣,其中[Cjl]就表示是一個二維矩陣,代表尺度[j]、方向[l]上的所有系數(shù),高尺度對應(yīng)高頻系數(shù)。

(2) 圖像融合。對于分解后的低頻子帶和所有高頻子帶,使用基于區(qū)域特性的融合規(guī)則進行判別和融合處理,得到各尺度上融合后的Curvelet系數(shù)。

(3) Curvelet重構(gòu)。重構(gòu)是分解的逆過程,對融合后的Curvelet系數(shù)進行Curvelet逆變換,得到重構(gòu)的融合圖像,該圖像包含原有多幅圖像中的信息。

lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t1.tifgt;

圖1 基于Curvelet的圖像融合流程圖

2.2 "融合規(guī)則研究

融合規(guī)則是圖像融合算法的核心,其對最終的融合效果有著決定性作用。分解后的低頻和高頻子帶具有不同的物理信息,低頻子帶表征圖像的近似部分,而高頻子帶表征圖像的細節(jié)部分。通常對于多分辨率融合,在高頻和低頻上采用不同的融合規(guī)則。總的來說,現(xiàn)有的融合規(guī)則可分為兩大類:基于像素的融合規(guī)則和基于區(qū)域的融合規(guī)則。

2.2.1 "融合規(guī)則分類

(1) 基于像素的融合規(guī)則

Burt最早提出基于像素選取的融合規(guī)則,基于像素點絕對值最大來選取最終的融合像素值。Petrovic等人提出考慮分解層內(nèi)各子帶圖像相關(guān)性的像素選取融合規(guī)則。近幾年,融合規(guī)則層出不窮,陳武等人針對小波處理圖像邊緣的不足,根據(jù)人類視覺系統(tǒng)對局部對比度敏感的特性,采用了基于區(qū)域?qū)Ρ榷鹊南袼剡x取融合規(guī)則。基于像素的融合規(guī)則具有實現(xiàn)簡單、融合速度快的優(yōu)點,但其僅僅以單個像素作為融合對象,并未考慮圖像像素間的相關(guān)性,因此融合效果較差,適用場合也非常有限。

(2) 基于區(qū)域的融合規(guī)則

考慮到圖像像素之間的相關(guān)性,Burt等人提出基于區(qū)域特性選擇的加權(quán)平均融合規(guī)則,將系數(shù)值的融合選擇與其所在的局部區(qū)域聯(lián)系起來。Qingping Li等人則利用區(qū)域頻率劃分區(qū)域進行融合實驗[10]。Curvelet提出后,玄立超等人提出了基于Curvelet變換的區(qū)域能量高頻融合策略[11]。基于區(qū)域的融合規(guī)則就是將某位置鄰域的能量、梯度、方差等特征作為一種測度來指導(dǎo)該位置處的系數(shù)選取,鄰域大小可以是3×3、5×5等。由于基于窗口區(qū)域的融合規(guī)則考慮了圖像相鄰像素間的相關(guān)性,因此減少了融合像素的錯誤選取,從而提高了融合效果。

結(jié)合現(xiàn)有融合規(guī)則的優(yōu)點和不足,本文提出以下融合規(guī)則對高、低頻分別處理。對低頻采用基于區(qū)域方差顯著性的加權(quán)融合規(guī)則,充分考慮到鄰域像素間的關(guān)聯(lián)性,并有效保留細節(jié)和邊緣。高頻采用區(qū)域能量匹配融合規(guī)則,抑制噪聲的同時能更好反映圖像區(qū)域特征。

2.2.2 "低頻子帶融合規(guī)則

低頻子帶是包含了原圖像的主體信息,決定了圖像的大致輪廓。這里采取基于區(qū)域方差顯著性的加權(quán)融合規(guī)則對低頻系數(shù)進行處理,并將匹配度與自適應(yīng)閾值比較來確定融合策略。實現(xiàn)過程如下:

(1) 計算區(qū)域方差顯著性

[G(X,p)=q?Qw(q)C(X,q)-u(X,p)2] " " " "(1)

式中:[G(X,p)]為以點[p]為中心的局部區(qū)域[Q]的區(qū)域方差顯著性;[w(q)]為權(quán)值,權(quán)值通過行和列的高斯分布加權(quán)相加得到;[C(X,q)]為區(qū)域[Q]形成的矩陣;[u(X,p)]為圖像X的低頻系數(shù)矩陣內(nèi)區(qū)域[Q]的平均值。

計算區(qū)域方差匹配度:[M(p)=2?q?Qw(q)C(A,q)-u(A,p)C(B,q)-u(B,p)G(A,p)+G(B,p)] "(2)

式中:[M(p)]表示圖像A和B低頻系數(shù)在[p]點的局部區(qū)域方差匹配度,數(shù)值在0~1之間變化,其值越小表明兩幅圖像低頻系數(shù)在[p]點的相關(guān)程度越低。

融合策略的確定。設(shè)T為匹配度閾值,不同于傳統(tǒng)的經(jīng)驗選取[8?9],此處[T]為自適應(yīng)閾值,其定義為:

[T=2G(A,p)?G(B,p)G(A,p)2+G(B,p)2] " " "(3)

式中:[G(A,p)]和[G(B,p)]分別為源圖像A,B區(qū)域方差顯著性。當(dāng)[M(p)lt;T]時,采用選擇融合策略:

[C(F,p)=C(A,p),G(A,p)≥G(B,p)C(B,p),G(A,p)lt;G(B,p)] " (4)

當(dāng)[M(p)≥T]時,采用加權(quán)平均融合策略:

[C(F,p)=WmaxC(A,p)+WminC(B,p),G(A,p)≥G(B,p)WminC(A,p)+WmaxC(B,p),G(A,p)lt;G(B,p)] (5)

其中,

[Wmin=0.5-0.51-M(p)1-T] " " "(6)

[Wmax=1-Wmin] " " " " "(7)

式中:[C(A,p)],[C(B,p)]分別為圖像A,B的低頻系數(shù)在[p]點的值。

該策略是基于鄰域像素間的關(guān)聯(lián)性,并且是基于區(qū)域方差,可以有效地保留細節(jié)和邊緣,因此采用該策略得到的融合圖像將比較清晰,細節(jié)比較豐富。

2.2.3 "高頻子帶融合規(guī)則

不同尺度及方向下的高頻系數(shù)矩陣,其中包含了圖像的細節(jié)特征,由于人眼對于單個像素的灰度取值并不敏感,圖像清晰度是由區(qū)域內(nèi)像素共同體現(xiàn)的。因此傳統(tǒng)的基于絕對值取大的高頻融合規(guī)則是比較片面,忽略了像素之間的關(guān)聯(lián)性,并且忽略了圖像之間的相關(guān)性。所以這里引入基于局部能量匹配的融合規(guī)則,可以有效抑制噪聲,并且能更好地反映圖像的區(qū)域特征。實現(xiàn)過程如下:

(1) 計算區(qū)域能量顯著性

[Ej,l(m,n)=q?QCj,l(i,j)2] " " " "(8)

式中,[Ej,l(m,n)]表示尺度[j]和方向[l]下高頻系數(shù)的局部區(qū)域能量;[Q]為以點[P(m,n)]為中心選取的局部區(qū)域。

(2) 計算區(qū)域能量匹配度。[Mj,l(m,n)]的取值為0~1,取值越小表明相關(guān)程度越低。

[Mj,l(m,n)=2q?QCAj,l(i,j)CBj,l(i,j)EAj,l(m,n)+EBj,l(m,n)] " "(9)

(3) 融合策略的選取

設(shè)[T1]為能量匹配度閾值,一般取0.5~1,這里根據(jù)經(jīng)驗取0.85。當(dāng)[Mj,l(k1,k2)lt;T]時,采用選擇融合策略:

[CFj,l(m,n)=CAj,l(m,n),EAj,l≥EBj,lCBj,l(m,n),EAj,llt;EBj,l] " " " (10)

當(dāng)[Mj,l(k1,k2)≥T]時,采用加權(quán)融合策略:

[CFj,l(m,n)=WmaxCAj,l(m,n)+WminCBj,l(m,n),EAj,l≥EBj,lWminCAj,l(m,n)+WmaxCBj,l(m,n),EAj,llt;EBj,l] (11)

其中,

[Wmin=0.5-0.51-Mj,l(m,n)1-T1] " " " (12)

[Wmax=1-Wmin] " " " " " "(13)

該策略基于區(qū)域空間能量,可以有效保留圖像的邊緣信息,能得到細節(jié)比較出眾的融合圖像。

3 "圖像融合效果評價指標(biāo)

對于不同融合目的的圖像,需要采用不同的評價標(biāo)準(zhǔn),從而對融合結(jié)果進行客觀正確的評價[12]。例如,提高信息量時,對于融合圖像的信息量是否增加,可以根據(jù)互信息、交叉熵、熵和標(biāo)準(zhǔn)差等指標(biāo)來評價;提高圖像清晰度時,往往是要求在保持原有信息不丟失的情況下,增強圖像的細節(jié)信息和紋理特征,評價這種目的的融合時可選用平均梯度、空間頻率等指標(biāo)來評價。需要注意的是,客觀評價法離不開主觀評價,因此應(yīng)該將兩者結(jié)合起來進行綜合評價。主觀評價主要是由人眼來觀察區(qū)分結(jié)果的好壞,但人眼分辨力有限,所以需要引入客觀評價指標(biāo)。用來評價融合結(jié)果的客觀指標(biāo)[13]如下:

(1) 信息熵

信息熵可以從概率分布的角度來衡量圖像的豐富程度,圖像信息熵越大,表明圖像所包含的信息量越大。熵值的大小可以反映圖像對細節(jié)的表達能力。其定義如下:

[H=-l=0L-1p(l)log2(p(l))] " " " " (14)

式中:[H]代表信息熵;[p(l)]表示圖像中像素灰度級為[l]的出現(xiàn)概率,即所有灰度為[l]的像素點數(shù)[N1]與圖像中所有像素點數(shù)[N]之比。

(2) 交叉熵

交叉熵用來反映兩幅圖像的信息差異。通過對融合圖像和源圖像交叉熵的計算,就可以得到兩幅圖像所包含信息量的差異。一般來說,交叉熵越小,表明融合圖像從源圖像中提取的信息越多,信息差異越小。其定義如下:

[CE(A,F(xiàn))=l=0L-1PA(l)log2PA(l)PF(l)] " " (15)

式中[PA(l)]和[PF(l)]分別為源圖像A和融合圖像F的灰度級概率分布。通常把兩幅源圖像分別和融合圖像的交叉熵的的均方根定義為均方根交叉熵[RCE]。即:

[RCE=CE2(A,F(xiàn))+CE2(B,F(xiàn))2] " " (16)

通過[RCE]可以表示融合圖像F和圖像A、B之間的聯(lián)合差異。一般情況下均方根交叉熵越小,融合圖像繼承的信息量越多,信息差異越小,融合效果也就越好。

(4) 相關(guān)系數(shù)

圖像的相關(guān)系數(shù)反應(yīng)了兩幅圖像的相關(guān)度。相關(guān)系數(shù)越大,其融合效果越好。

其定義如下:

[Corr(Ia,Ib)=i,j(Iai,j-eIa)(Ibi,j-eIb)i,j(Iai,j-eIa)2(Ibi,j-eIb)2] "(17)

式中:[Iai,j],[Ibi,j]為兩幅圖像在[(i,j)]點的灰度值;[eIa]和[eIb]為兩幅圖像的均值。把兩幅源圖像分別和融合圖像的相關(guān)系數(shù)的均方根定義為均方根相關(guān)系數(shù)[RC],即:

[RC=Corr(Ia,If)2+Corr(Ib,If)22] " (18)

一般來說,均方根相關(guān)系數(shù)越大,融合圖像從源圖像中獲得的信息量越多,融合效果也就越好。

(5) 空間頻率

空間頻率可以反映出融合圖像的細節(jié)表達能力,所以通常作為度量圖像清晰度的指標(biāo)。空間頻率定義為:

[SF=RF2+CF2] " " " "(19)

式中:[RF]和[CF]分別為行頻和列頻,[f(i,j)]為[(i,j)]處的灰度值。

[RF=1mni=1mj=2nf(i,j)-f(i,j-1)2] (20)

[CF=1mni=2mj=1nf(i,j)-f(i-1,j)2] (21)

一般來講,空間頻率越大,圖像的層次越多,融合圖像就越清晰。

4 "實驗結(jié)果對比分析

選用兩組不同領(lǐng)域圖像作為源圖像進行融合實驗,第一組是醫(yī)學(xué)圖像,大小為256×256;第二組是多聚焦圖像,大小為256×256。第三組是多波段圖像,大小為512×512。實驗中高、低頻子塊大小定義為3*3,分別采用基于低頻加權(quán)平均、高頻絕對值最大的離散小波變換(方法1)、基于低頻加權(quán)平均和高頻區(qū)域頻率的離散小波變換(方法2)、基于文獻[11]的Curvelet變換(方法3)、基于本文算法實現(xiàn)。

4.1 "醫(yī)學(xué)圖像融合結(jié)果分析

醫(yī)學(xué)圖像融合結(jié)果分析如圖2,表1所示。

表1 "醫(yī)學(xué)圖像融合的指標(biāo)評價結(jié)果

圖2和表1分析如下:

(1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:

主觀上看,基于小波變換的融合圖像(c)(d)明顯在邊緣的處理上不夠清晰,會發(fā)現(xiàn)有方塊效應(yīng),使得融合圖像沒有任何意義;而基于二代Curvelet變換的融合圖像(e)(f)就很好的保留了圖像的邊緣信息,融合圖像更加自然。

lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t2.tifgt;

圖2 醫(yī)學(xué)圖像的融合結(jié)果圖

(2) 傳統(tǒng)的融合算法和本文融合方法的比較:

表1中,醫(yī)學(xué)圖像融合是為了獲得更多信息,將圖3(f)與(c)、(d)、(e)對比來看,(f)均方根交叉熵更小,即本文融合算法融合結(jié)果從源圖像繼承了更多信息。整體來看,本文算法融合結(jié)果也比其他融合結(jié)果更加清晰。綜上所述,醫(yī)學(xué)圖像的融合實驗中,基于Curvelet變換的本文算法優(yōu)于傳統(tǒng)Curvelet、小波變換的融合算法。

4.2 "多聚焦圖像融合結(jié)果分析

多聚焦圖像融合結(jié)果分析如圖3,表2所示。

lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t3.tifgt;

圖3 多聚焦圖像的融合結(jié)果圖

圖3和表2分析如下:

(1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:

主觀來看,基于小波變換的融合圖像(c)、(d)在小鐘表的邊緣有虛影,使得融合圖像比較模糊,邊緣處理不夠細致。而基于Curvelet變換的圖像就沒有這一缺點。

(2) 融合方法之間的對比:

表2中,基于Curvelet變換的融合圖像包含有更豐富的信息,并且與源圖像相關(guān)性更高。對比交叉熵和相關(guān)系數(shù)可以看出,本文融合算法比文獻[11]融合算法從源圖像中繼承更多的信息的同時保留了更高的相關(guān)性。

綜上所述,多聚焦圖像融合實驗中,本文對于高、低頻的融合規(guī)則比傳統(tǒng)融合規(guī)則可獲得更好的融合效果。

表2 多聚焦圖像融合的指標(biāo)評價結(jié)果

4.3 "多波段遙感圖像融合結(jié)果分析

多波段遙感圖像融合結(jié)果分析如圖4,表3所示。

lt;E:\王芳\現(xiàn)代電子技術(shù)201502\Image\42t4.tifgt;

圖4 多波段遙感圖像的融合結(jié)果

表3 多波段遙感圖像融合的指標(biāo)評價結(jié)果

圖4和表3分析如下:

(1) 基于小波變換的融合算法,基于二代Curvelet變換的融合算法的比較:主觀來看,基于Curvelet變化的融合圖像(f)(g)相對基于小波變換的融合圖像(d)、(f)來說,圖像對比度更大,邊緣細節(jié)更清晰。

(2) 融合方法之間的比較:表3中,從信息熵、交叉熵、相關(guān)性來看,本文融合方法都優(yōu)于傳統(tǒng)融合算法,從源圖像中繼承了更多的信息,但圖像頻率略有降低。

綜上所述,多波段遙感圖像的融合實驗中,基于Curvelet變換的融合算法優(yōu)于小波變換融合算法,本文算法中的高、低頻系數(shù)基于區(qū)域系數(shù)相關(guān)性法也比傳統(tǒng)的模值取大取平均方法更適用于多波段圖像的融合。

總體來說,基于二代Curvelet變換的本文融合算法在不同領(lǐng)域的圖像融合中效果比較理想。

5 "結(jié) "語

本文分析了傳統(tǒng)小波變換在邊緣處理上的不足,使用了多分辨率分析中具有多尺度多方向性的二代Curvelet變換,同時提出針對高、低頻系數(shù)的融合規(guī)則,并對不同領(lǐng)域的圖像做了大量的融合實驗。實驗結(jié)果表明,本文融合算法能較好的保持圖像目標(biāo)信息,同時邊緣也比較清晰。但是,該算法也存在不足,Curvelet變化在圖像的細節(jié)特征方面有天然的弱勢;故結(jié)合多種小波[1]、基于區(qū)域分割[14]或借助其他技術(shù)[15]使得融合圖像在保留目標(biāo)信息的同時具有更好的細節(jié)特征和邊緣輪廓是未來圖像融合的研究重點。

參考文獻

[1] JOSEPH Joby, BARHATTE Alka. Medical image fusion based on wavelet transform and fast curvelet transform [J]. International Journal of Engineering Development and Research, 2014, 2(1): 284?288.

[2] 張鵬輝.紅外、微光/可見光圖像融合算法研究[D].南京:南京理工大學(xué),2013.

[3] 陳武,靳海兵,吳政,等.基于方向?qū)?shù)的多光譜圖像快速融合新算法[J].計算機仿真,2009,26(10):257?260.

[4] 曹喆.一種區(qū)域特性的小波圖像融合新算法[J].計算機工程與應(yīng)用,2011,47(26):213?215.

[5] 楊揚.基于多尺度分析的圖像融合算法研究[D].長春:中國科學(xué)院大學(xué),2013.

[6] LI Hua?feng, CHAI Yi, LI Zhao?fei. Multi?focus image fusion based on nonsubsampled contourlet transform and focused regions detection [J]. Optik?International Journal for Light and Electron Optics, 2013, 124(1): 40?51.

[7] CANDES Emmanuel, DEMANET Laurent, DONOHO David, et al. Fast discrete Curvelet transforms [J]. Society for Industrial and Applied Mathematics, 2006, 5(3): 861?899.

[8] 冀曉濤.基于Curvelet變換的紅外與可見光圖像融合研究[D].西安:西安電子科技大學(xué),2012.

[9] 孫巖.基于多分辨率分析的多傳感器圖像融合算法研究[D].哈爾濱:哈爾濱工程大學(xué),2012.

[10] LI Qing?ping, DU Jun?ping, SONG Fu?zhao, et al. Region?based multi?focus image fusion using the local spatial frequency [C]// 2013 25th Control and Decision Conference. Guiyang, China: CCDC, 2013: 3792?3796.

[11] 玄立超.一種新的基于Curvelet變換的遙感圖像融合算法[J].計算機技術(shù)與發(fā)展,2009,19(5):119?122.

[12] 韓瑜,蔡云澤,曾清.圖像融合的客觀質(zhì)量評估[J].指揮控制與仿真,2013,35(4):1?6.

[13] 李俊山,楊威,張雄美.紅外圖像處理、分析與融合[M].北京:科學(xué)出版社,2009.

[14] 李華鋒.多聚焦圖像像素級融合方法研究[D].重慶:重慶大學(xué),2012.

[15] 潘瑜.基于統(tǒng)計相關(guān)分析和視覺特性的圖像信息融合方法及其應(yīng)用研究[D].南京:南京理工大學(xué),2012.

主站蜘蛛池模板: 精品人妻无码中字系列| 亚洲色图欧美| 国产成人禁片在线观看| 日韩无码真实干出血视频| 欧美精品成人一区二区在线观看| 四虎AV麻豆| 青青久视频| 日韩一级二级三级| 国产在线自在拍91精品黑人| 中国毛片网| 无码aⅴ精品一区二区三区| 欧美a级完整在线观看| 熟妇人妻无乱码中文字幕真矢织江 | 国产成人8x视频一区二区| 国产一区二区免费播放| 2020国产在线视精品在| 亚洲成综合人影院在院播放| 亚洲一区精品视频在线| 99视频精品在线观看| 国产不卡网| 亚洲中文在线视频| 国产精品.com| 麻豆精品在线| 69综合网| 国产一级毛片网站| 欧美乱妇高清无乱码免费| 在线观看免费国产| 国产噜噜噜视频在线观看 | 人人91人人澡人人妻人人爽 | 亚洲精品无码人妻无码| 免费在线观看av| 免费在线国产一区二区三区精品 | 日本不卡在线播放| 1级黄色毛片| 久久久精品国产SM调教网站| 鲁鲁鲁爽爽爽在线视频观看| 国产理论一区| 成人午夜视频在线| 日本欧美成人免费| 亚洲一区第一页| 国产女人爽到高潮的免费视频| 手机成人午夜在线视频| 精品三级在线| 午夜a级毛片| 免费毛片视频| 午夜啪啪福利| 成人蜜桃网| 久久免费看片| 欧美成人综合在线| 久久久久国产一区二区| 国产成人亚洲精品色欲AV| 国产乱码精品一区二区三区中文| 国产黄视频网站| 国产尤物视频网址导航| 无码日韩视频| 色哟哟国产精品| 欧美精品v日韩精品v国产精品| 中国一级毛片免费观看| 久久这里只精品国产99热8| 欧美日韩免费在线视频| 亚洲第一区精品日韩在线播放| 97视频在线观看免费视频| 青青热久免费精品视频6| 久久99国产乱子伦精品免| 成人午夜久久| 免费A级毛片无码免费视频| 99久久精品国产自免费| 女人18一级毛片免费观看| 欧美日本在线播放| 亚洲 欧美 日韩综合一区| 久久久久久午夜精品| 在线精品自拍| 欧美日本视频在线观看| 综1合AV在线播放| 久久久久亚洲AV成人网站软件| 亚洲综合激情另类专区| 色噜噜狠狠狠综合曰曰曰| 久久久久中文字幕精品视频| 在线观看国产黄色| 69av免费视频| 欧美精品另类| 成人午夜亚洲影视在线观看|