999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網(wǎng)絡的圖像修復算法

2020-08-31 06:13:40王可新
智能計算機與應用 2020年4期
關(guān)鍵詞:區(qū)域方法模型

王可新, 王 力

(貴州大學 大數(shù)據(jù)與信息工程學院, 貴陽550000)

0 引 言

隨著人工智能技術(shù)的快速發(fā)展,圖像作為攜帶信息的主要載體之一,其作用不言而喻。 然而現(xiàn)實生活中,時常會出現(xiàn)圖像不完整的現(xiàn)象,比如年代久遠造成文物破損、圖像傳遞過程中隱藏內(nèi)容等,都會導致一定程度的圖像中所攜帶的信息丟失,因此如何對這些受損進行圖像修復成為計算機視覺中的一個重要問題。

在計算機的圖形學中,圖像的修復有3 種方法:一種是傳統(tǒng)的基于結(jié)構(gòu)的方法,這種方法可以合成比較合理的靜態(tài)紋理特征,但僅適用于受損區(qū)域較小的圖像;第二種是基于紋理合成的圖像修復,此方法可以從圖像中其他完整區(qū)域選擇與缺失區(qū)域紋理相同的樣本塊。 但當涉及語義圖像損失時,此方法在缺失區(qū)域的細節(jié)方面恢復的很差,因此需要1 個額外的部件提供合理的想象力,比如來自機器的幻覺,即第三種方法,基于深度學習的圖像修復。

本文提出的圖像修復算法則是基于深度學習生成對抗網(wǎng)絡[1]。 與以往圖像修復算法不同,該算法包含2 個判別器網(wǎng)絡模型,即全局判別器和局部判別器。 模型的網(wǎng)絡結(jié)構(gòu)都是采用卷積神經(jīng)網(wǎng)絡來實現(xiàn)。

1 相關(guān)工作

以前已經(jīng)提出過多種用于圖像修復的方法,傳統(tǒng)的基于結(jié)構(gòu)的圖像修復方法采用擴散原理,將可見區(qū)域的信息傳播到缺失區(qū)域。 其主要采用高階偏微分方程模型算法(PDE 算法)。 PDE 算法又命名為BSCB 修補模型,模型原理是沿著等照度線方向擴散到待修復區(qū)域,但未顧及圖像的細節(jié)部分,修復效果較差[2]。 隨后出現(xiàn)了全變分模型(TV 模型),然而只對填充小的破損區(qū)域或者去除雜散的噪聲是有用的。

與基于結(jié)構(gòu)的方法相比,紋理合成的方法可以修 復 大 一 些 的 破 損 區(qū) 域[4-6]。 比 如 典 型 的PatchMatch 方法,此方法在圖像的可用部分搜索類似的紋理結(jié)構(gòu),其高質(zhì)量和高效率迅速成為當時最成功的修復方法[7]。 但是這種方法假設可以在其他地方找到修復區(qū)域的紋理,這種假設并不是一直會成立,如果缺失區(qū)域很大,則很難修復。

用來進行圖像修復的第一種深度學習方法Context Encoder,使用編碼器-解碼器結(jié)構(gòu)[8]。 編碼器將缺失區(qū)域的圖像映射到低維度特征空間,解碼器用它來構(gòu)造輸出圖像。 但是該方法存在修復邊緣處不連續(xù)的問題,修補痕跡明顯,視覺效果較差。 上述方法采用監(jiān)督學習的方式,2014 年GAN 由Ian Goodfellow 首次提出,GAN 采用的是一種無監(jiān)督的學習方式訓練。 針對Context Encoder 的問題,Iizuka等人使用兩個判別器使得缺失區(qū)域和整張圖像在視覺上合理化,本文則是基于Iizuka 等人的基礎上采用感知損失和MSE 損失函數(shù)相結(jié)合的方法訓練生成對抗網(wǎng)絡。

2 網(wǎng)絡結(jié)構(gòu)

2.1 生成對抗網(wǎng)絡

網(wǎng)絡主體采用生成對抗網(wǎng)絡(GAN),GAN 的產(chǎn)生其中心思想為“二人零和博弈”[9],與其他普通網(wǎng)絡不同,生成對抗網(wǎng)絡由兩個模型組成,一個是用來生成數(shù)據(jù)的生成模型G,另一個是用來判別生成樣本真假性的判別模型D。 如圖1 所示生成模型G 以1 個隨機噪聲作為輸入,將其生成1 張偽造的樣本,判別器模型D 以真實樣本或者偽造樣本作為輸入,預測該樣本是真實的還是偽造的。 生成網(wǎng)絡的目的是能夠欺騙判別器網(wǎng)絡,因此隨著逐步的迭代訓練,生成網(wǎng)絡生成越來越逼真的樣本像,甚至可以達到以假亂真的效果,以至于判別器無法判斷其真?zhèn)涡裕辉谶@個過程中,判別器也在不斷的提高自己辨別真?zhèn)蔚哪芰Γ沟蒙善髂軌蛏筛诱鎸嵉臉颖尽?/p>

圖1 GAN 模型Fig.1 GANmodel

2.2 生成器

生成器采用Iizuka 等提出的網(wǎng)絡結(jié)構(gòu)模型,網(wǎng)絡模型采用典型的編碼器-解碼器結(jié)構(gòu)。 編碼器采用帶掩碼的圖像作為輸入,通過下采樣進行圖像的特征提取,解碼器通過這些特征恢復為原始的分辨率,生成圖像中掩碼部分的內(nèi)容[10]。 在圖像修復任務中,通常想要了解更多的圖像中潛在的特征,因此網(wǎng)絡模型中間采用了擴張卷積,擴張卷積在基礎的卷積核上加入間隔,在不損失特征圖尺寸的情況下增大了感受野,從而獲取圖像中更多的信息。 總的來說,生成器包括六次下采樣的編碼器,接著是三次擴張卷積和將圖像上采樣到原始尺寸的解碼器。 生成器的整體組成如圖2 所示。 應當注意的是,網(wǎng)絡結(jié)構(gòu)中并未使用池化層,而是將卷積步幅設置為2,將待修復圖像的大小縮小為原來的一半,生成器網(wǎng)絡模型僅僅降低了兩次分辨率,使用大小為原始大小四分之一的卷積,其目的是為了降低最終圖像的紋理模糊程度。 此外,隨著卷積網(wǎng)絡層數(shù)的加深,數(shù)據(jù)的波動浮動較大,會大大的降低網(wǎng)絡訓練的速度。因此,本文除了網(wǎng)絡的最后一層不使用批量歸一化處理,其余所有層都使用批量歸一化處理[11];同時除最后一層卷積使用Tanh 函數(shù)外,其余所有層都使用Relu 激活函數(shù)。

圖2 生成器模型Fig.2 Generator model

2.3 判別器

通過對生成器使用損失函數(shù)訓練后,生成器對缺失區(qū)域進行補全。 但是補全的效果并不能保證與真實圖像保持一致。 為了圖像生成的更加真實合理,在本文中引入全局判別器和局部判別器來鑒定圖像是真實圖像還是生成器修復的圖像。 判別器的主要作用是通過與生成器不斷的對抗訓練,最終能夠更準確的識別真假圖像。 同樣地,判別器也由一系列卷積層組成,如圖3 所示。

圖3 判別器模型Fig.3 Discriminator model

全局判別器的輸入為完整的整幅圖像,網(wǎng)絡由5 個卷積層和1 個全連接層組成。 全局判別器從整體上判斷生成的圖像是否真實合理,即整幅圖像的上下文信息是否一致。 局部判別器的輸入為整幅圖像的一半,網(wǎng)絡由4 個卷積層和1 個全連接層組成,局部判別器只檢測以補全區(qū)域為中心的部分,用來判斷局部修復的紋理特征是否合理。 局部判別器與全局判別器相同,除網(wǎng)絡最后一層外,所有層都使用批量歸一化處理。 同時,兩個判別器除了最后一層使用sigmoid 激活函數(shù),其余卷積層都是使用relu 激活函數(shù)。 最后,將兩個判別器最后輸出的向量連接到一起,得到1 個2048 維的向量,向量最后使用sigmoid 激活函數(shù),生成0 ~1 之間的數(shù)值,這個數(shù)值的大小決定了輸入圖像為真實圖像的概率。

3 損失函數(shù)

通過縮小修復圖像與真實圖像之間的距離來達到修復缺失圖像的目的,因此本文采用感知損失[12-13]與MSE 損失相結(jié)合的方式來訓練生成器模型。 其次,使用GAN 損失聯(lián)合更新判別器和生成器模型,使得生成的圖像更加真實。

GAN 損失采用生成對抗網(wǎng)絡的對抗訓練策略,其本質(zhì)是求最大最小的優(yōu)化問題。 這體現(xiàn)了生成器不斷優(yōu)化自己,生成更加真實的圖像欺騙判別器,判別器也不斷更新優(yōu)化,使得能夠正確的區(qū)分真?zhèn)螆D像。 GAN 損失的表達式(1):

其中,Pdata(x) 為真實數(shù)據(jù)x 的分布, Pz(z) 為噪聲變量z 的分布,G(z) 為生成器的輸出。

生成器的損失函數(shù)包含兩個部分,MSE 損失函數(shù)表示為(2):

其中,X 為待修復的圖像M 時輸入的掩碼,×為像素的乘積。

感知損失函數(shù),使用預訓練的VGG19 的relu 激活層輸出的特征圖。 在本文實驗中,特征圖選擇relu1-1,relu2-1,relu3-1 三層的輸出。 感知損失定義為(3):

CjHjWj表示第j 層特征圖的大小,?j是預訓練網(wǎng)絡第j 層的特征圖。

綜合上述GAN 損失函數(shù)和生成器損失函數(shù)可得(4):

其中,α,β 為訓練時的權(quán)重。

4 實驗

4.1 實驗平臺及內(nèi)容

本實驗基于windows 操作系統(tǒng)的tensorflow 框架下運行,python 為編程語言。 實驗設備CPU:Inter i7-8700,GPU:RTX2070S-8G,內(nèi)存:16G。

實驗的數(shù)據(jù)集為celebA 人臉數(shù)據(jù)集,原始數(shù)據(jù)集大小為178×218,在模型訓練時將圖片縮為128×128 的圖像,全局判別器的輸入為128×128,而局部判別器的輸入大小為修復區(qū)域為中心的64×64。 實驗選取數(shù)據(jù)集的100 000 張圖像,其中80 000 張用來模型的訓練,20 000 張用來模型的測試。 在訓練過程中,生成器的網(wǎng)絡迭代20 000 次,判別器網(wǎng)絡迭代10 000 次,生成器和判別器聯(lián)合迭代70 000 次。

4.2 實驗過程

本文的訓練分成3 個階段。 首先,利用感知損失和MSE 對生成器進行訓練,使之生成大致的修復圖片;其次,固定生成器,根據(jù)上一階段訓練的生成器對判別器進行訓練,利用GAN 損失對判別器迭代更新;最后,對生成器和判別器一起訓練,直至訓練結(jié)束。 后續(xù)采用泊松圖像混合對圖像進行處理。

4.3 評估標準

實驗結(jié)果的評估標準由定性分析和定量分析兩部分組成,將本文的實驗結(jié)果與自動編碼器、DCGAN以及Context Encoder 這3 種不同的方法進行比較。在定性分析中,3 種對比方法中的視覺圖像效果引用文獻[15]中的效果圖。 為了直觀的比較,本文把最后的修復效果圖裁剪為相同的人臉位置。 各個方法的修復圖如圖4(從左至右分別為待修復圖、自動編碼器、DCGAN、Context Encoder、本文、原圖)所示。

圖4 對比圖Fig.4 Comparison picture

由圖4 可知,自動編碼器方法的效果最差,這是因為自動編碼器只由生成器模型生成,無法將損失降到最小,修復區(qū)域出現(xiàn)了結(jié)構(gòu)扭曲現(xiàn)象;對比自動編碼器,DCCGAN 方法的圖像修復效果從內(nèi)容上保持了一致性,但是圖像的局部細節(jié)修復的效果較差;Context Encoder 方法在內(nèi)容和局部細節(jié)上都表現(xiàn)較好,但邊緣連接區(qū)域修復痕跡明顯,缺乏視覺連通性。 本文方法與Context Encoder 方法相比,修復效果與原始圖像更加相似,邊緣修復痕跡也比較淡。

定量分析使用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)兩個指標來衡量圖像的修復效果。 PSNR是常用的判斷圖像質(zhì)量的評價指標,雖然有時會出現(xiàn)數(shù)值結(jié)果與人的主觀感受不一致的情況,但仍然可以作為一個有效的評判標準。 其主要比較圖像對應像素之間的差別,PSNR 數(shù)值越大,表明失真越小。 另一個主要的評價標準SSIM,從亮度、對比度和結(jié)構(gòu)3 個方面來衡量,用均值作為亮度的估計,標準差作為對比度的估計,協(xié)方差作為結(jié)構(gòu)相似程度的度量。 得到的數(shù)值大小體現(xiàn)了兩幅圖像的相似程度,數(shù)值越大,代表兩幅圖像差距越小,修復的效果越好。 計算的結(jié)果如表1、表2 所示。

表1 不同圖像補全方法的PSNR 值Tab.1 The PSNR of different image completion methods dB

表2 不同圖像補全方法的SSIM 值Tab.2 The SSIM of different image completion methods

5 結(jié)束語

基于生成對抗網(wǎng)絡模型對圖像進行修復,生成器采用編碼器-解碼器結(jié)構(gòu),判別器全局判別器和局部判別器,用來保證整體修復的一致性和局部信息細節(jié)的合理性。 訓練過程使用基于VGG 預訓練特征圖的感知損失與MSE 相結(jié)合訓練生成模型,修復效果與自動編碼器、DCGAN 以及Context Encoder方法進行比較。 根據(jù)定量分析和定性分析可知,本文方法實現(xiàn)了較好的修復效果。 然而模型的修復效果非常依賴訓練集,對于除人臉修復的其他圖像修復,則需要重新訓練數(shù)據(jù)集,對于建筑物及風景的修復則需要進一步的研究與訓練。

猜你喜歡
區(qū)域方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
關(guān)于四色猜想
分區(qū)域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區(qū)域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 91视频国产高清| 国产美女无遮挡免费视频网站| 免费观看国产小粉嫩喷水| 欧美中文一区| 真实国产精品vr专区| 国产亚洲精品资源在线26u| 久久网欧美| 亚洲欧美日本国产综合在线| 国产精品人莉莉成在线播放| 中文国产成人精品久久| 久操线在视频在线观看| 天堂在线视频精品| 国产区人妖精品人妖精品视频| 日韩中文欧美| 久久久久久久蜜桃| 久青草免费视频| 欧美精品在线看| a毛片在线播放| 青草免费在线观看| h视频在线播放| 熟妇无码人妻| 欧美成人h精品网站| 亚洲V日韩V无码一区二区| 久草美女视频| 国产精品一线天| 亚洲娇小与黑人巨大交| 日韩A∨精品日韩精品无码| 97成人在线观看| 欧美成人精品在线| 色婷婷狠狠干| 日韩少妇激情一区二区| 亚洲成人福利网站| 伊人婷婷色香五月综合缴缴情 | 国产高清在线丝袜精品一区| 欧美国产日韩一区二区三区精品影视| 五月激情婷婷综合| 亚洲成人高清无码| 国产幂在线无码精品| 亚洲中文无码h在线观看| 国产成人乱无码视频| 亚洲成人播放| 久久久久中文字幕精品视频| 二级毛片免费观看全程| 尤物国产在线| AV不卡国产在线观看| 色窝窝免费一区二区三区| 全裸无码专区| 亚洲欧洲综合| 伊人久久青草青青综合| 久久男人视频| 91偷拍一区| 欧美精品一二三区| 99国产精品免费观看视频| 一级爱做片免费观看久久| 亚卅精品无码久久毛片乌克兰 | 日本精品影院| 麻豆精品在线视频| 亚洲欧美精品日韩欧美| 香蕉久久国产超碰青草| 欧美精品v日韩精品v国产精品| 青青草国产精品久久久久| 久久综合亚洲色一区二区三区| 日韩少妇激情一区二区| 大香网伊人久久综合网2020| 女人毛片a级大学毛片免费| 国产亚洲男人的天堂在线观看| 欧美国产视频| 91青青在线视频| 国产免费一级精品视频| 国产精品第一区| 美女免费精品高清毛片在线视| 欧美日韩福利| 欧美日韩v| 极品私人尤物在线精品首页| 91视频日本| 精品久久久久久久久久久| 女高中生自慰污污网站| 亚洲精品第一在线观看视频| 亚洲欧洲美色一区二区三区| 妇女自拍偷自拍亚洲精品| 成人年鲁鲁在线观看视频| 亚洲性色永久网址|