999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

NSST與改進SCM模型相結(jié)合的多聚焦圖像融合算法

2021-05-31 08:19:48魏輝琪劉增力
電視技術(shù) 2021年4期
關(guān)鍵詞:融合模型

魏輝琪,劉增力

(昆明理工大學(xué) 信息工程與自動化學(xué)院,云南 昆明 650500)

0 引 言

在平時的聚焦鏡頭中,由于聚焦受到了限制,因此拍攝的圖像呈現(xiàn)一部分聚焦一部分非聚焦,不利于肉眼觀察和機器計算識別。將兩幅聚焦圖像信息融合起來,可以解決此類問題。對兩張或者多張聚焦圖像進行融合后的圖像稱為多聚焦融合圖像。融合后的圖像無論是在主觀觀察還是客觀指標(biāo)方面都有很大的改進。多聚焦圖像融合在民用、軍用以及醫(yī)學(xué)領(lǐng)域有廣泛的應(yīng)用。

圖像融合主要分為基于像素層面、特征層面及決策層面的融合3類。圖像融合算法主要有基于空間域和基于變換域兩類融合算法。空間域算法包括加權(quán)平均法和主成分分析法。變換域的算法也多種多樣,近幾年多尺度變換被越來越多地運用了起來,主 要 有 Curvelet[1]、Contourlet[2-3]、NSCT、Shearlet及NSST等算法。其中,NSST避免了下采樣,在處理圖像時可以更多地保留圖像信息。丁齋生等人運用脈沖發(fā)放皮層模型,在醫(yī)學(xué)圖像的融合中得到了質(zhì)量較高的圖像。然而,傳統(tǒng)的脈沖發(fā)放皮層模型在計算時存在邊緣信息保留不完整的缺點。本文提出的自適應(yīng)方法可以很好地和脈沖發(fā)放皮層模型相結(jié)合,提高運算速率,保障融合質(zhì)量。

1 相關(guān)概念

1.1 圖像預(yù)處理

在處理圖像之前,需要對圖片信息進行預(yù)處理,讀取相關(guān)數(shù)據(jù)。先采用cvtColor函數(shù)對圖像進行一系列灰度處理[4],再進行形態(tài)學(xué)去噪。進行形態(tài)學(xué)處理的目的是對圖像進行噪聲濾除,對圖像進行數(shù)據(jù)簡化,在不改變輸入圖像基本信息的情況下,去除與目標(biāo)圖形沒有關(guān)系的地方,達到去噪的效果。具體處理操作包括腐蝕、膨脹、開運算及閉運算等。圖像預(yù)處理是圖像融合的第一步也是至關(guān)重要的一步。去噪后的圖像能為后續(xù)融合步驟提供更為清晰的圖像數(shù)據(jù),提高最終融合的圖像質(zhì)量。預(yù)處理后的源圖像分別定義為源圖像A和源圖像B。

1.2 共享相似性和自適應(yīng)區(qū)域

首先圖像被分割成多個重疊的方形板塊,搜索相似的板塊。給定一個以像素r為中心的參考板塊Pr∈Rm×m和區(qū)域W(r)∈Rm×m,任何與Pr相似的候選板塊Pq∈Rm×m定義為:

式中:ηq表示降序排列區(qū)域的所有板塊,這個板塊的集合表示為LW(r)=(Pq1,Pq2,…,Pqk)。LWA(r)和LWB(r)共享的相似模塊為:

式中:是融合中自適應(yīng)區(qū)域之一;WA(r)和WB(r)分別表示源圖像A和源圖像B的相同區(qū)域。

1.3 改進脈沖發(fā)放皮層模型

白鑫[6]等人利用IHS變換和自適應(yīng)區(qū)域特征來對圖像進行融合。SCM的一個神經(jīng)元由接收區(qū)、調(diào)制區(qū)、脈沖發(fā)放器3部分組成,它的表達式為:

式(3)~式(7)中:n表示迭代次數(shù);(i,j)下標(biāo)表示神經(jīng)元的標(biāo)號;Fij是(i,j)神經(jīng)元在第n次迭代時的反饋輸入信號;Sij表示外部輸入刺激信號;Lij(n)是連接輸入;VL是震級標(biāo)度項;Uij(n)表示神經(jīng)元內(nèi)部活動;Wijkl表示神經(jīng)元連接權(quán)重矩陣;Ykl表示神經(jīng)元的輸出信號;Eij(n)表示動態(tài)閾值;h表示閾值放大系數(shù);Yij(n)表示神經(jīng)元在第n次迭代時的輸出信號;f和g是內(nèi)部活動和動態(tài)閾值的信號衰減系數(shù)。

最終融合圖像的效果和迭代次數(shù)n有著緊密聯(lián)系。利用與源圖像大小相同的時間矩陣模型記錄神經(jīng)元的點火信息。時間矩陣表達式如式(8)所示。

式中,T是時間矩陣。在通過第1次迭代后,SCM中的神經(jīng)元未被激活時,神經(jīng)元能量是0,即Uij和Yij都是0,不發(fā)放脈沖。進行第1次迭代后,內(nèi)部活動項的值為Sij。往后,每增加1次迭代次數(shù),就會增大內(nèi)部活動項能量。當(dāng)內(nèi)部活動能量大于動態(tài)閾值時,即Uij(n)>Eij(n),發(fā)放脈沖,輸出點火狀態(tài)。

1.4 自適應(yīng)區(qū)域和改進脈沖發(fā)放皮層模型圖像融合

A和B表示的是兩張已匹配好的圖像,融合后的圖像則用F表示。

把源圖像A和B做非下采樣剪切波變換分解,分為3個步驟:

(1)采用非下采樣金字塔分解將圖像分解為低通圖像和帶通圖像;

(2)對帶通圖像進行方向局部化,獲得不同方向的子帶;

(3)對每一個子帶進行傅里葉逆變換,獲得非下采樣剪切波系數(shù)。

一般情況下,非下采樣剪切波分解后會得到表示尺度和方向的系數(shù)Ckl(r)。經(jīng)過以上分解,得到兩個系數(shù),分別為CAkl(r)和CBkl(r)。在這個系數(shù)中,l和k分別表示分解的尺度和方向。當(dāng)l為0時表示低頻系數(shù),當(dāng)l大于0時表示高頻系數(shù)。

之后,計算像素r處的邊緣能量:

式中:Ckl(r)表示NSST分解后的系數(shù);l和k分別表示分解的尺度和方向;r表示像素,r=(i,j);

1.4.1 低頻系數(shù)融合

低頻圖像由非下采樣剪切波對兩幅源圖像A和B分解得到,分別用表示。本文用邊緣能量衡量每個自適應(yīng)區(qū)域。在一個自適應(yīng)區(qū)域內(nèi),如果的邊緣能量比大,那么在的自適應(yīng)區(qū)域內(nèi),γ∈中的所有像素都將獲得一票,即:

式中:νA(γ)為計數(shù)器,用作位置在(γ)處的表示。最后使用加權(quán)法構(gòu)成像素:

1.4.2 高頻系數(shù)融合

和表示源圖像A和B經(jīng)過非下采樣剪切波分解后的高頻系數(shù)。所用的融合方法為邊緣能量與脈沖發(fā)放皮層模型相結(jié)合的方法。融合圖像的高頻系數(shù)用來表示。選擇邊緣能量作為脈沖發(fā)放皮層模型的外部刺激:

式中:ω(r)是加權(quán)因子;D是以像素r為中心的領(lǐng)域窗口。

利用脈沖同步選擇融合圖像的高頻系數(shù)。計算各個高頻系數(shù)的總點火時間在N次迭代后,便可確定高頻系數(shù),見式(13)。

最后,根據(jù)所得的低頻系數(shù)和高頻系數(shù),通過非下采樣剪切波逆變換便可獲得重建融合圖像F。整個過程的流程圖如圖1所示。

圖1 圖像融合流程圖

2 實驗結(jié)果分析

從主觀和客觀兩個方面,將本文算法與其它3種方法進行比較。3種方法分別為基于非下采樣輪廓波與脈沖耦合神經(jīng)網(wǎng)絡(luò)結(jié)合的融合算法(NSCTPCNN)[9]、基于脈沖發(fā)放皮層模型與清晰度相結(jié)合的融合算法(SCM-SF)[10]以及基于非下采樣輪廓波與改進的脈沖耦合神經(jīng)網(wǎng)絡(luò)結(jié)合的融合算法(NSCT-IPCNN)[11]。實驗結(jié)果評價中的客觀指標(biāo)選用邊緣信息保留量QAB/F和互信息(MI)[12]。

邊緣信息保留量是評價融合后圖像邊緣信息量的重要指標(biāo),該值越大,融合效果越好。具體定義為:

式中:M和N是圖像尺寸;QAF(n,m),QBF(n,m)分別是融合圖像相對于原始圖像A和B的邊緣保持值;ωA(n,m),ωB(n,m)是邊緣強度的函數(shù);QAB/F∈[0,1]表示融合圖像相對于原始圖像A,B的總體數(shù)據(jù)保留。

互信息是衡量融合后圖像保留源圖像信息量的重要指標(biāo),該值越大,融合效果越好。具體定義為:

式中,IAF、IBF表示源圖像A、B與融合后圖像F之間保留下的信息值大小。

圖2是本文用來做圖像融合的測試圖像對。采用本文算法所得到的融合圖像和差分圖像如圖3所示,其中,圖3(a)、圖3(d)、圖3(g)、圖3(j)為本文算法得到的融合圖像。

采用不同融合算法對圖2的圖像對做圖像融合,客觀評價結(jié)果如表1所示。從表1可以看出,本文提出的基于非下采樣剪切波域的自適應(yīng)區(qū)域和脈沖發(fā)放皮層模型相結(jié)合的圖像融合算法無論是在信息量還是運行時間方面,相較于其他3種算法,都有較大的改善。

圖2 測試圖像對

圖3 本文算法的融合圖像和差分圖

表1 不同融合算法的客觀評價結(jié)果

3 結(jié) 語

本文算法把邊緣能量和自適應(yīng)區(qū)域相結(jié)合,融合非下采樣剪切波分解后的低頻系數(shù),用于頻域中的低頻系數(shù);高頻系數(shù)融合采用了邊緣能量點火的脈沖發(fā)放皮層模型。可以看出,無論是主觀視覺上還是客觀指標(biāo)上,融合后的圖像質(zhì)量都得到了提高。

作為多源圖像融合的重要領(lǐng)域,多聚焦圖像融合具有重要研究意義以及無可替代的價值。目前多聚焦圖像融合及相關(guān)技術(shù)已經(jīng)取得了一定的發(fā)現(xiàn)。此外,在動態(tài)環(huán)境和強噪聲環(huán)境中的融合算法研究也亟待加強。

猜你喜歡
融合模型
一半模型
一次函數(shù)“四融合”
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
重要模型『一線三等角』
寬窄融合便攜箱IPFS500
《融合》
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产性精品| 中文字幕在线日本| 国产91小视频| 热热久久狠狠偷偷色男同| 国产在线视频福利资源站| 国产凹凸视频在线观看 | 国产激情影院| 九色91在线视频| 熟妇丰满人妻| 色综合色国产热无码一| 欧美精品在线看| 亚洲视频二| 亚洲日韩AV无码一区二区三区人| 国产成人夜色91| 欧美一级99在线观看国产| 制服丝袜国产精品| 日本国产一区在线观看| 亚洲午夜国产精品无卡| 欧美五月婷婷| 中文字幕欧美成人免费| 久久综合九九亚洲一区| 亚洲一区二区三区国产精华液| 久久精品一品道久久精品| 精品国产网| 国产二级毛片| 精品国产自在现线看久久| 丰满少妇αⅴ无码区| 久久99热66这里只有精品一 | 国产精品女在线观看| 国产区在线观看视频| 欧美精品v| 欧美午夜在线观看| 国产成人三级在线观看视频| 免费毛片全部不收费的| 午夜性刺激在线观看免费| 亚洲va在线∨a天堂va欧美va| 91系列在线观看| 99久久精品免费看国产电影| 亚洲第一区在线| 亚洲综合激情另类专区| 91青青草视频| 国产成人h在线观看网站站| 91精品网站| 国产高清精品在线91| 制服无码网站| 国产永久无码观看在线| 91精品视频网站| 欧美成人午夜视频| 国产一级二级在线观看| 97超爽成人免费视频在线播放| 国产免费羞羞视频| 国产91av在线| 天天婬欲婬香婬色婬视频播放| 波多野结衣无码中文字幕在线观看一区二区 | 美女裸体18禁网站| 国产另类视频| 婷婷丁香色| 2021精品国产自在现线看| 无码国产偷倩在线播放老年人| 亚洲综合色区在线播放2019| 国产在线视频导航| 亚洲国产看片基地久久1024| 欧美伊人色综合久久天天| 91小视频在线播放| 91免费在线看| 日韩亚洲高清一区二区| 欧美综合区自拍亚洲综合绿色 | 日韩无码精品人妻| 91久久夜色精品| 国产国产人成免费视频77777| 国产幂在线无码精品| 中文字幕资源站| 狠狠色成人综合首页| 久草视频中文| 一区二区无码在线视频| 日韩不卡高清视频| 国产欧美在线| 色欲色欲久久综合网| 亚洲手机在线| 伊人久久婷婷| 欧美日韩国产在线人| 日韩精品无码一级毛片免费|