999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多曝光融合與超分辨率的單圖像陰影去除*

2023-08-22 03:47:06張新怡端木春江
計算機時代 2023年8期
關鍵詞:特征融合方法

張新怡,端木春江

(浙江師范大學物理與電子信息工程學院,浙江 金華 321004)

0 引言

現今計算機視覺領域的基本任務如檢測、識別、分類、分割等,已經在一定條件下達到了較高的準確率。然而,現有技術大多只能在特定條件下進行圖像處理,例如常有指定的光照、背景和目標姿態等要求。其中,陰影對圖像的進一步處理造成較嚴重的阻礙。通常的解決辦法是在數據采集的源頭上避免陰影的產生。然而在真實世界中,背景信息的龐雜導致各種不可避免的陰影,這非常考驗各類算法的魯棒性。圖像陰影去除,對各類計算機視覺任務的預處理階段有幫助,有一定的研究價值和現實意義。

1 相關工作

隨著深度學習的發展,基于深度學習的圖像去陰影研究以其無需手動標記的全自動特性逐漸展現出較強的優勢。Qu等人提出Deshadow-Net[1]網絡模型,該方法不需要對陰影進行預測,而是直接去除比傳統方法有性能上的提升。Wang等人提出的ST-CGAN[2]網絡模型聯合進行陰影檢測和陰影去除。ST-CGAN之后,涌現出了一批利用生成對抗網絡(GAN)進行陰影去除的網絡模型,具有代表性的如Hu 等人提出的Mask-ShadowGAN[3]模型。除此之外,Hu 等人提出DSC[4]方法,利用方向感知上下文來改進陰影檢測及去除;Le 等人提出SP+M-Net[5]模型,從陰影分解的角度提出了新的陰影去除方法;Fu[6]等人提出從圖像融合角度提出新的陰影去除的方法。

2 基于多曝光融合與超分辨率的耦合反饋網絡

2.1 網絡模型

去陰影網絡總體由兩部分構成,多重曝光網絡與多曝光融合與超分辨率耦合反饋網絡,其兩部分構成關系如圖1所示。

圖1 網絡模型

圖1 中,網絡輸入為陰影圖像與其對應的掩膜圖像。這樣成對的陰影-掩膜圖像作為網絡的共同輸入,首先送入多重曝光網絡,對陰影圖像做多次過曝光處理,輸出生成多幅過曝光圖像,曝光后圖像的陰影區域與原圖像的非陰影區域有相同的顏色以及亮度,此后其共同作為下一模塊的輸入。此時的問題轉化成如何把陰影圖像的非陰影區域與多重過曝光圖像的陰影區域結合成統一模式,本文提出多曝光融合與超分辨率耦合反饋網絡SR-MEF-net,利用圖像融合的方式對多重曝光圖像進行融合,同時用超分辨率方法,降低融合過程中圖像的退化程度。

2.2 SR-MEF-net

本文提出一種多曝光融合級聯超分辯率模塊的耦合反饋的神經網絡,旨在充分利用圖像融合以及超分辨率之間的交互與協作,以一對陰影與其對應的掩膜圖像生成一幅高分辨率的去陰影圖像。其模塊化網絡結構如圖2所示。

圖2 SR-MEF-net網絡結構

提取的初級特征送入超分辨率模塊(SRB),提取圖像的更多高級特征Gi,為后續的融合模塊提供支持。此時圖像高級特征為初始高級特征

此時取高分辨率特征直接送入重建模塊(R),能夠得到對應的超分辨率殘差,并與低分辨率圖像的上采樣進行加和,即可生成原低分辨率陰影圖像的超分辨率重建圖像ISR。

G和的目的在于,提供互補信息用來提高融合性能。然而經過單個MCFB 不能令圖像之間的特征充分得到反饋而收集到足夠的融合信息,所以在模型種設置T 個MCFB,每個MCFB 的輸出是具有更高融合特征的,此時的得到充分的反饋信息:

經過T個MCFB輸出充分融合后的融合高分辨率特征。融合高分辨率特征送入重建模塊(R),得到對應的融合超分辨率殘差圖像,并與LR 圖像的上采樣級聯,即可生成對應具有融合特征的超分辨率圖像:

為具有融合特征的高分辨率圖像。得到N 個具有高度融合特征的超分辨率圖像后,進行加權融合后,得到最終的陰影去除圖像Iout:

ωi為各自對應的權重,Iout為最終輸出的陰影去除后的超分辨率重建圖像。

2.3 損失函數

陰影去除網絡的損失函數由三部分構成:①在多重曝光網絡中,生成一系列多重過曝光圖像Ii與地面真實圖像Ifree之間的損失,以均方誤差作為損失函數。②在SR-MEF-net 中,地面真實圖像Ifree與其未經融合的超分辨率重建圖像ISR與之間的損失,以平均結構差異指數度量作為損失函數。③在SR-MEF-net 中,地面真實圖像Ifree與經過SR-MEF-net 曝光融合過后的超分辨率重建去陰影圖像Iout之間的損失,以L1 損失作為損失函數。

由于網絡是端到端訓練的,三種損失配以各自的權重,其和為本陰影去除網絡的總損失函數。通過最小化損失函數實現對網絡的訓練。

3 實驗結果與分析

與其他去陰影研究保持一致,采用RMSE 作為評價陰影去除網絡性能的指標,包括陰影區域,非陰影區域以及整體圖像的RMSE。采用峰值信噪比PSNR和結構相似度SSIM 作為評價SR 性能的指標。對于公開去陰影模型,選取DSC[4]、Fu et.al[6]、SP+M+D-net[5];對于超分辨率重建模型,選取EDSR[7]、RCAN[8]、SRFBN[9]進行對照。表1、表2為ISTD+數據集上放大因子為×2時,描述超分辨率性能和去陰影性能的數據指標。

表1 ISTD+數據集上放大因子為×2時,描述超分辨率性能的指標

表2 ISTD+數據集上放大因子為×2時,描述去陰影性能的指標RMSE

可以發現,本文模型較其他方法有一定的性能提升,在SR 表現上,本文方法比次優方法PSNR 提高了2.333dB,SSIM 提高了0.0318。在陰影去除表現上,本文方法比次優方法RMSE-Shadow 降低了8.0730,RSME-Non降低了4.041,RMSE-All降低了5.3393。

圖3 為ISTD+數據集上放大因子為×2 時不同方法的陰影去除超分辨率重建圖像。可以觀察到,本文方法能夠在有效去除陰影的同時,最大程度地保持圖像質量。其他方法或不能完全去除陰影,或在陰影去除過程中產生了不理想的模糊和噪聲。

圖3 放大因子為×2視覺對比

4 總結與展望

本文提出一種基于圖像融合與圖像超分辨率重建相結合的方法用于圖像陰影去除。通過LR 多重過曝光圖像作為網絡輸入,以耦合反饋的方法將多重圖像進行融合生成無陰影圖像,同時能有效減少圖像失真,最終輸出無陰影的超分辨重建圖像。在公共數據集上得到驗證,并證明優于部分方法。受計算資源的限制,本文訓練集較小,在今后的工作中,可以選用更大的數據集,提高泛化能力。

猜你喜歡
特征融合方法
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产免费羞羞视频| 国产99精品久久| 亚洲国产清纯| 成人在线亚洲| 亚洲成aⅴ人在线观看| 欧美精品一二三区| 露脸国产精品自产在线播| 播五月综合| 国产无码制服丝袜| 国产午夜一级淫片| 五月婷婷综合色| 国产在线无码一区二区三区| 国产一区二区三区在线观看视频| 国产又粗又猛又爽视频| 黄网站欧美内射| 又黄又湿又爽的视频| 国产主播一区二区三区| 红杏AV在线无码| 久久精品66| 国产91精品久久| 欧美伦理一区| 亚洲午夜综合网| 四虎精品黑人视频| 免费无码一区二区| 免费在线成人网| 超碰免费91| 4虎影视国产在线观看精品| 国产91九色在线播放| 国产视频你懂得| 久久久久久久97| 国产欧美在线观看精品一区污| 波多野结衣一区二区三区AV| 国产精品九九视频| 亚洲Av激情网五月天| 18禁黄无遮挡网站| 亚洲精品国产精品乱码不卞 | 一级毛片免费观看久| 日本午夜三级| 中文字幕亚洲另类天堂| 国产日韩精品欧美一区喷| 亚洲无码电影| 特黄日韩免费一区二区三区| 在线色国产| 欧美一级特黄aaaaaa在线看片| 无码电影在线观看| 欧美高清日韩| 美女一级免费毛片| 福利在线免费视频| 国产在线自乱拍播放| 国产视频大全| 麻豆国产在线不卡一区二区| 美女内射视频WWW网站午夜 | 9啪在线视频| 国产一二三区在线| 亚洲国产亚综合在线区| AV不卡国产在线观看| 亚洲国产成熟视频在线多多 | 国产一在线观看| 波多野结衣视频网站| 国产微拍一区二区三区四区| 国产欧美另类| 国产91透明丝袜美腿在线| 午夜视频免费一区二区在线看| 亚洲啪啪网| 国产成人亚洲无码淙合青草| 亚洲免费三区| 一本大道香蕉高清久久| jizz在线免费播放| 无码国内精品人妻少妇蜜桃视频| 国产无码性爱一区二区三区| 日本一区高清| 国产丰满成熟女性性满足视频| 91久久夜色精品国产网站| 麻豆精品在线| 无码 在线 在线| 国产欧美日韩另类精彩视频| 国产精品视频公开费视频| 亚洲精品色AV无码看| 欧美a在线视频| 久久这里只精品国产99热8| 久久国产亚洲欧美日韩精品| 精品久久久久无码|