999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度特征提取的紅外與可見光圖像融合

2023-11-13 07:53:38汪雷丹劉曉亮李坤煌
軟件工程 2023年11期
關鍵詞:細節融合信息

張 薇, 汪雷丹, 劉曉亮, 李坤煌

(1.廣東粵港供水有限公司, 廣東 深圳 518021;2.深圳高度創新技術有限公司, 廣東 深圳 518000)

0 引言(Introduction)

水利工程建設旨在加強水資源保護,為人們的安全用水和社會的可持續發展提供保障。東江-深圳供水工程(簡稱“東深供水工程”)是黨中央為解決香港地區同胞飲水困難而興建的跨流域大型調水工程。在工程建設過程中,需要管理的設備多、涉及范圍廣,為保證工程的順利實施,需要對這些設備進行安全監管。隨著無人機領域的訊速發展,配備無人機自動巡檢系統的無人機飛行器可自動進行巡查工作,通過配套的AI(人工智能)項目,可以實現圖像的目標識別,如識別水面懸浮物等,但是無人機拍攝的照片會受到環境等因素的干擾,影響對目標物的準確識別。圖像融合是圖像處理和計算機視覺應用中的一項重要技術,已在目標識別、視頻監督和圖像增強等方面有較好的應用[1-3]。本文提出基于深度特征提取的紅外與可見光圖像融合算法。首先,引入滾動引導濾波對源紅外與可見光圖像進行多級分解,以提取更多的細節邊緣信息。其次,針對基礎層引入PCANet網絡進行特征提取,指導基礎層融合;針對細節層采用拉普拉斯濾波、高斯濾波和引導濾波指導細節層融合。最后,將融合之后的基礎層與細節層疊加重構,得到最后的融合結果。該算法模型具有較好的泛化性,通過遷移學習可應用于水利工程無人機自動巡檢系統的安全監測。

1 相關研究(Related research)

通過圖像融合,同一場景的不同模態圖像可以合并為單一的融合圖像。融合后的圖像可以提供更全面的場景信息,更有利于人類和機器的感知。基于多尺度變換(Multi-Scale Transformation,MST)的融合算法是目前最主要的紅外與可見光圖像融合算法[4]。比較常見的該類型算法有基于曲波變換(Curvelet Transform,CVT)算法[5]、基于雙樹復小波變換(Dual-Tree Complex Wavelet Transform, DTCWT)算法[6]、基于Tetrolet變換算法[7]及基于非下采樣輪廓波變換(Non-Sampled Contourlet Transform,NSCT)算法[8]等。由于上述算法都是利用預先定義的基函數提取圖像特征,所以對源圖像的細節紋理信息等重要特征的提取效果不好,并且MST算法是將源圖像投影到頻率域,增大了計算復雜性。JIAN等[9]將滾動引導濾波器(Rolling Guided Filtering,RGF)[10]用于圖像融合,充分利用該濾波器平滑小尺度結構和大尺度結構邊緣恢復特性分解源圖像,很好地保留了源圖像細節邊緣信息。基于深度神經網絡(Deep Neural Network,DNN)的算法在紅外與可見光圖像融合方面具有很強的特征提取能力。ZHOU等[11]使用預訓練網絡VGG-19提取源圖像的特征信息,從而使得融合圖像保留更多的細節特征和結構信息。MA等[12]將生成式對抗網絡(Generative Adversarial Network,GAN)用于紅外與可見光圖像融合,用生成網絡生成融合圖像,而對抗網絡使融合圖像具有更多的細節信息。CHAN[13]等提出一種更簡單、高效的深度學習網絡——PCANet,該網絡在圖像處理方面具有很好的特征信息提取性能[14]。

2 分解方法(Decomposition method)

RGF同時具有尺度感知和邊緣保護的特性,并且其迭代收斂速度比較快,用其對源圖像進行分解,能夠有效保留目標的細節邊緣信息[10]。該濾波器包括兩個主要步驟:平滑小尺度結構和大尺度結構邊緣恢復。

第一步使用高斯濾波器獲取原始引導圖像,可以有效去除源圖像I中的小尺度結構,源圖像I在中心像素a處的高斯濾波可表示如下:

其中:a和b分別表示中心像素和相鄰像素,N表示中心像素a處相鄰像素b的集合。根據尺度空間理論,結構尺度參數σs可以定義為高斯核的最小標準偏差,G表示原始引導圖像。

第二步使用聯合雙邊濾波器進行迭代式邊緣恢復,該濾波器具有計算高效和邊緣保留較好等特性。這一步是一個迭代過程,恢復的圖像Jt被迭代更新,初始圖像J1是高斯平滑的圖像G。第t次迭代可表示如下:

(2)

迭代操作在保留大尺度結構邊緣的同時,能很好地平滑不相關的細節。滾動引導濾波操作可定義如下:

U=RGF(I,σs,σr)

(3)

其中:RGF(·)表示滾動引導濾波函數,通過改變參數σs和σr,可以對源圖像進行平滑處理,實現一系列不同尺度的分層,U是滾動濾波器的輸出圖像,I是輸入圖像。

本文引入RGF將源紅外與可見光圖像分別分解為基礎層和多個細節層,與其他多尺度分解方法相比,該方法能夠最大限度地利用源圖像中的相關細節信息。假設有兩張已經預配準源紅外與可見光圖像,其表示為Ik,k∈{1,2}。對于每一張源圖像Ik,基礎層可表示如下:

(4)

(5)

(a)源紅外圖像

(b)基礎層

(c)細節層

(d)源可見光圖像

(e)基礎層

(f)細節層

3 融合規則(Fusion rule)

3.1 基于PCANet特征提取的基礎層融合

基礎層中還殘余有用的低頻信息,卷積神經網絡能夠有效提取圖像中的信息,但考慮到卷積神經網絡訓練時間較長、調參比較復雜等,CHAN等[13]提出了一種簡單、高效的能夠適應不同任務和數據的深度學習網絡PCANet。該網絡采用主成分分析的方法學習多級濾波器組,不需要調節復雜參數和解決復雜數值優化問題,因此其網絡結構簡單且性能高效。PCANet框架圖如圖2所示。

圖2 PCANet框架圖Fig.2 PCANet framework chart

對于每張M×N大小的輸入圖像,PCANet通過一個K1×K2大小的滑動窗口(一般選取窗口大小為3、5、7個像素的正方形)獲取輸入圖像的局部特征,并將獲取的這些塊組合在一起,即xi,1,xi,2,…,xi,MN∈K1K2,其中xi,j是輸入圖像Ii里面的第j個向量塊。將獲取的每個塊減去其平均值,實現去均值操作,處理之后得到其中是輸入圖像Ii中的第j個去均值塊。將全部輸入源圖像(K表示輸入源圖像數量)執行同樣的處理,并將得到的結果放在一起,即

(6)

假設第i層使用濾波器個數為Si,則第一層濾波器個數為S1。根據主成分分析法,可得最小重構誤差:

(7)

其中:U表示X通過第一層濾波器S1特征值所對應的特征向量組合而成的特征矩陣,IS1表示S1×S1大小的單位矩陣。由此可得PCA濾波器如下:

(8)

圖3 PCANet處理過程Fig.3 Processing procedures of PCANet

3.2 基于顯著圖引導濾波的細節層融合

圖像融合需要將兩幅源圖像中具有視覺意義的信息整合到一副圖像中,可以通過給源圖像的細節層分配適當的權重(不重要信息的像素分配低權重,重要信息的像素分配高權重)實現。人類視覺系統識別圖像的細節層信息比其基礎層敏感,本文采用基于顯著圖的權值圖融合細節層。如圖4所示,將拉普拉斯濾波應用于每張源圖像,以獲得高通圖像Hk:

圖4 GF處理結果Fig.4 GF processing results

Hk=Ik×L

(9)

其中:L是一個大小為3×3拉普拉斯濾波;Hk絕對值的局部平均值,用于構建顯著圖Sk:

Sk=|Hk|×grg,σg

(10)

其中:g是大小為(2rg+1)(2σg+1)的高斯低通濾波,參數rg和σg設置為5。

顯著圖可以很好地提供源圖像中的細節信息。接下來,比較顯著圖以確定權值圖,如公式(11)所示:

(11)

假設引導濾波的輸出圖像V是引導圖像G在以像素p為中心的局部窗口wp中的線性變換模型,即

Vq=apGq+bp,?q∈wp

(12)

其中:在窗口wp內,線性系數ap和bp都是常數,并且可以通過最小化輸出圖像V和輸入圖像I之間的平方差進行估計:

(13)

其中,ε表示正則化參數。利用線性回歸[16]求解公式(13),得到線性系數ap和bp的結果如下:

(14)

(15)

因此,為了讓對應的權重圖具有與源圖像相似的平滑度和銳化度(圖4),以源圖像Ik作為引導圖像,對每個權值圖Pk進行引導濾波處理,即

(16)

3.3 融合結果重構

最終目標是在主觀視覺和客觀效果上對融合結果進行改進。考慮到不同類型的層包含不同的特征信息,在重構階段,針對基礎層和細節層分別進行。

(17)

(18)

將融合的基礎層和細節層疊加,得到最終的融合結果:

F=Fb+Fd

(19)

4 融合算法總體框架(The overall framework of the fusion algorithm)

融合算法框架圖如圖5所示。假設紅外與可見光圖像已經預配準,本文主要針對兩張待融合源紅外與可見光圖像,并且當采用多張源圖像時,融合算法的策略類似。本文所提融合算法的具體步驟如下。

圖5 融合算法框架圖 Fig.5 The framework diagram of the proposed image fusion algorithm

(4)將融合的細節層與基礎層進行疊加,獲取最終的融合圖像為F。

5 實驗結果(Experimental results)

本文采用的實驗平臺為AMD(R) Ryzen(R)5 3500X Geforce RTX 2070 SUPER 8 GB卡、16 GB 3200 MHz內存,在Windows 10專業版的64位操作系統上用MATLAB2020a進行仿真實驗。實驗測試數據通過無人機調度平臺采集數據集和在TNO數據集[17]上選擇的三組典型紅外與可見光圖像,即Nato_Camp、Bristol_Queen′s_Road和UN_Camp。

圖6為第一組已經預配準Nato_Camp紅外與可見光融合對比結果。圖6(a)和圖6(b)分別表示第一組測試源圖像。圖6(c)至6(h)分別表示不同紅外與可見光融合的結果。可以看出,DTCWT的融合方法整體對比度較差,目標物邊緣比較模糊,融合質量很差;LatLRR的融合方法中植物細節顯示較差,目標物周圍存在偽影;NSCT_SR的融合方法可以很好地突出目標物,但圖中植物的像素與源紅外圖像像素差異較大,表明該融合方法過多地將可見光信息引入融合圖像,使得視覺效果變差;VGG-19、ResNet50和本文所提方法的融合結果相對較好,并且采用本文提出的方法時圖中的房屋和人物邊緣信息保持較好、對比度較高且紋理細節較為清晰。

圖7為第二組已經預配準Bristol_Queen′s_Road紅外與可見光融合對比結果。圖7(a)和圖7(b)分別表示第二組測試源圖像。圖7(c)至圖7(h)分別表示不同紅外與可見光融合方法的結果。可以看出,上述融合方法基本能夠保留圖像中的目標人物和房屋邊緣結構信息,但采用本文所提方法的圖中框內的人物和房屋窗戶細節信息上保留較完整,清晰度較高,具有很好的可視性。

圖8為第三組已經預配準UN_Camp紅外與可見光融合對比結果。圖8(a)和圖8(b)分別表示第三組測試源圖像。圖8(c)至圖8(h)分別表示不同紅外與可見光融合方法的結果。可以看出,DTCWT的融合方法整體比較泛白,圖中框內的天空處缺失紅外圖像的細節信息,屋頂邊緣結構信息缺失;LatLRR的融合方法圖中框內的目標細節信息缺失,從而導致顯示不夠清晰,對比度較差;NSCT_SR的融合方法圖中框內的天空發生了變形,并且引入過多的偽影,清晰度非常差;VGG-19和ResNet50的融合方法在結構信息上保持完整,噪聲較少,但對比度較低;本文所提的融合方法可以很好地整合來自源圖像的互補信息,有效保留大部分來自源圖像的結構和細節信息,清晰度和對比度較高。

(a)源紅外圖像

(b)源可見光圖像

(d)LatLRR

(f)VGG-19

(g)ResNet50

(h)本文方法

(a)源紅外圖像

(b)源可見光圖像

(c)DTCWT

(d)LatLRR

(e)NSCT_SR

(f)VGG-19

(g)ResNet50

(h)本文方法

(a)源紅外圖像

(b)源可見光圖像

(c)DTCWT

(d)LatLRR

(e)NSCT_SR

(f)VGG-19

(g)ResNet50

為了對實驗結果進行定量評價,本文采用互信息(Mutual Information,MI)[19]、差異相關和(Sum of Correlations of Differences,SCD)[20]、信息熵(Entropy,EN)[21]、多尺度結構相似度測量(Multiscale Structural Similarity Measure,MS-SSIM)[22]和標準差(Standard Deviation,SD)[23]等經典評價指標對實驗結果進行分析。其中,MI主要通過比較融合圖像與源圖像之間的相關程度表示融合圖像包含源圖像的目標信息量,而且MI越大,表明融合結果包含目標信息量越多,其融合效果就越好;EN主要是基于信息論的角度評價融合圖像所包含源圖像的信息量,EN越大,則表明信息量越多,融合效果越好,但該指標值會受到噪聲的影響,融合圖像中的噪聲越多,該值也會越大;SCD主要是通過差異相關性之和評價融合結果,同樣SCD的值越大,表明融合的效果越好;MS-SSIM主要通過衡量結構信息評價融合結果,其值越大,表明融合圖像效果越好,圖像結構越接近源圖像;SD主要用來衡量融合結果對比度效果,SD的值越大,表明融合結果對比度高和視覺更好。本文選取三組對比實驗,客觀評價結果如表1所示。

由表1可知,與其他五種方法相比,本文提出的方法在評價指標EN、MI、MS-SSIM、SCD和SD都表現出不同程度的領先優勢,尤其評價指標SD和SCD領先較多,表明本文方法的融合結果具有高對比度,融合圖像信息與源圖像具有很強的相關性,證明本文所提算法具有有效性。

6 結論(Conclusion)

本文提出一種將深度特征提取與滾動引導濾波結合的多模態圖像融合算法,可用于無人機自動巡檢系統。通過開展實驗,與目前主流的紅外與可見光圖像融合算法進行對比,本文所提方法在突出源圖像目標物體和保留完整的邊緣細節方面具有很好優勢。實驗結果表明,本文所提方法在信息熵、互信息、多尺度結構相似度測量、標準差和差異相關和等客觀評價指標上具有明顯的領先優勢,主觀評價具有較好的可視性,有利于后續開展目標識別和探測等任務。下一階段的研究重點將放在分解層數的自適應選擇上,為減少噪聲、偽影和保留更多的有效細節信息,制定更加有效的融合規則。

猜你喜歡
細節融合信息
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
以細節取勝 Cambridge Audio AXR100/ FOCAL ARIA 906
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
留心細節處處美——《收集東·收集西》
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
細節取勝
Coco薇(2016年10期)2016-11-29 19:59:58
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
圣誕節的四個細節
主站蜘蛛池模板: 日本久久网站| 日韩中文精品亚洲第三区| 精品国产中文一级毛片在线看| 欧美在线视频不卡第一页| 狠狠综合久久久久综| 在线国产91| 国产亚洲精品自在线| 超碰精品无码一区二区| 亚洲女同欧美在线| 亚州AV秘 一区二区三区 | 亚洲国产精品日韩av专区| 免费精品一区二区h| 伊人色天堂| 亚洲第一成年人网站| 丁香婷婷激情综合激情| 国产精品亚洲а∨天堂免下载| 91午夜福利在线观看精品| 国产精品入口麻豆| 热re99久久精品国99热| 日本人妻一区二区三区不卡影院| 91青青视频| 欧美午夜理伦三级在线观看| 亚洲男人在线天堂| 国产一级毛片在线| 在线观看91香蕉国产免费| 成人国产免费| h网站在线播放| 日日碰狠狠添天天爽| 国产精品第一区| 国内自拍久第一页| 欧美日本二区| 日本国产精品| 国产无码在线调教| a毛片免费在线观看| 四虎综合网| 国产成人无码播放| 国产麻豆永久视频| 伊伊人成亚洲综合人网7777 | 国产一级二级在线观看| 亚洲欧美天堂网| 精品人妻AV区| 日本精品影院| 亚洲欧美极品| 自慰网址在线观看| 亚洲性色永久网址| 午夜爽爽视频| 高清国产va日韩亚洲免费午夜电影| 亚洲三级电影在线播放| 亚洲无线国产观看| 亚洲高清中文字幕在线看不卡| 亚洲第一黄片大全| 国产精品视频999| 一区二区自拍| 国产迷奸在线看| 亚洲色图欧美在线| 手机精品视频在线观看免费| 日本三级欧美三级| 国产流白浆视频| 国产高颜值露脸在线观看| 99re视频在线| 欧美一区二区精品久久久| 国产精品密蕾丝视频| 日韩一级二级三级| 欧美色视频日本| 五月天婷婷网亚洲综合在线| 免费在线成人网| 日韩小视频在线播放| 国产一区二区福利| 成人无码一区二区三区视频在线观看| 亚洲综合婷婷激情| 国产毛片不卡| 午夜福利在线观看成人| 中国国产高清免费AV片| 亚洲永久色| 在线99视频| 亚洲va欧美va国产综合下载| 亚洲视频免| 中文字幕免费播放| 国产精品19p| 国产成年女人特黄特色毛片免 | 久久精品中文无码资源站| 国产成人精品三级|