999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網(wǎng)絡(luò)的分級聯(lián)合圖像補全方法

2020-01-19 01:20:34冀儉儉
圖學(xué)學(xué)報 2019年6期
關(guān)鍵詞:區(qū)域方法

冀儉儉,楊 剛

(北京林業(yè)大學(xué)信息學(xué)院,北京 100083)

圖像補全技術(shù)旨在合成圖像中缺失或損壞的區(qū)域,是低級視覺中的基本問題。由于該技術(shù)具有廣泛的應(yīng)用,因此也是計算機視覺和圖形圖像領(lǐng)域的一個活躍的研究課題。圖像補全技術(shù)可用于補全被遮擋的圖像區(qū)域或修復(fù)受損的照片。此外,還可以用于調(diào)整圖像中對象的位置或者刪除不期望存在的物體。各種應(yīng)用都需要合成圖像具有精細的紋理和結(jié)構(gòu)信息,但是由于自然圖像的復(fù)雜性和該問題的固有模糊性,使得圖像補全技術(shù)仍然是一項具有挑戰(zhàn)性的任務(wù)。圖像補全任務(wù)面臨的難題是以視覺上合理的方式填補圖像中的空白。

目前,已經(jīng)有很多方法被提出用于圖像補全,主要包括基于數(shù)字修補[1-2]、基于樣本[3-6]和基于深度學(xué)習[7-9]的圖像補全3個方面。基于擴散的圖像補全是第一個數(shù)字修補方法[10],該方法通過將來自于已知區(qū)域的圖像信息擴散到像素級的缺失區(qū)域來填充缺失的像素。基于擴散的圖像補全方法基本上都基于變分方法和偏微分方程(partial differential equation,PDE)理論[11-13]。PDE算法是迭代算法,由KR?HENBüHL和KOLTUN等[12]提出,其重要目標是將圖像的梯度方向和灰度值都傳播到要填充的區(qū)域內(nèi)部,并解決圖像處理中對高階偏微分方程的需求。如果缺失區(qū)域很小,PDE算法將產(chǎn)生良好結(jié)果。但是當缺失的區(qū)域很大時,該算法則需要很長時間,并且不會產(chǎn)生好的結(jié)果,而是產(chǎn)生一些模糊的區(qū)域,使得填充區(qū)域變得不自然。基于數(shù)字修補的另外一個較為常見的補全方法是以數(shù)據(jù)驅(qū)動的方式進行圖像補全[14],該方法假設(shè)圖像中相似的內(nèi)容具有相同的上下文信息,通過從外部數(shù)據(jù)庫中尋找匹配度較高的圖像塊進行圖像補全。其在查找與示例圖像具有足夠的視覺相似性的圖像塊時非常有效,但當外部數(shù)據(jù)庫中缺乏相關(guān)圖像時,該方法就會受到很大的限制。此外,這種方法在運行時間和存儲空間上也具有一定的缺陷。

相較于基于數(shù)據(jù)驅(qū)動的補全方法,基于樣本的補全方法可以進行更復(fù)雜的圖像填充,可以填充自然圖像中較大面積的缺失區(qū)域。基于樣本的圖像補全方法最初被用于紋理合成[15-16],其中紋理塊從源圖像中采樣并粘貼到目標圖像中,隨后被擴展到通過基于能量優(yōu)化的圖形分割和紋理生成[17-18]的圖像拼接[19]中。在圖像補全的應(yīng)用中,該方法得到了一些改進[20-21],例如最佳補丁搜索。特別是,WEXLER等[22]和SIMAKOV等[23]提出了一種基于全局優(yōu)化的方法,可以獲得更一致的填充。這些技術(shù)后來經(jīng)過隨機塊搜索算法(PatchMatch)[24]進行加速,并允許對圖像進行實時的高級圖像編輯。但是,基于樣本的補全方法只有在缺失區(qū)域由簡單的結(jié)構(gòu)和紋理構(gòu)成時才能很好地工作。

基于數(shù)據(jù)驅(qū)動和樣本的補全方法在合成面積較小或具有相似性結(jié)構(gòu)紋理的圖像時具有較好的結(jié)果,但是圖像具有復(fù)雜的紋理和結(jié)構(gòu)信息時,補全效果很不理想。近幾年,深度學(xué)習的發(fā)展在圖像修復(fù)方面也展現(xiàn)出了突出的成果。深度學(xué)習能夠在保留語義和情境細節(jié)的基礎(chǔ)上填充自然圖像中大量缺失區(qū)域,同時能夠更加有效地捕獲圖像的高級特征,從而推進了基本的圖像處理任務(wù),如對象移除等的發(fā)展。PHATAK等[25]結(jié)合L2損失和對抗損失訓(xùn)練了一個編碼器-解碼器卷積神經(jīng)網(wǎng)絡(luò)(上下文編碼器),直接預(yù)測丟失的圖像區(qū)域,能夠預(yù)測合理的圖像結(jié)構(gòu),并且只需要一次正向傳播,速度非常快。雖然結(jié)果令人鼓舞,但該方法的修復(fù)結(jié)果有時缺乏精細的紋理細節(jié),從而在缺失區(qū)域的邊界周圍產(chǎn)生可見的偽影。此外,該方法也不適用于處理高分辨率的圖像,對抗網(wǎng)絡(luò)需要根據(jù)生成圖像和真實圖像像素之間的損失反向調(diào)整網(wǎng)絡(luò)參數(shù),網(wǎng)絡(luò)難以收斂。針對以上方法的不足,文獻[8]提出了用編碼器-解碼器卷積神經(jīng)網(wǎng)絡(luò)作為全局內(nèi)容約束,同時利用缺失區(qū)域與已知區(qū)域之間的局部神經(jīng)塊的相似性作為紋理約束,兩者結(jié)合進行圖像補全。文獻[8]將高分辨率圖像分為若干步進行補全,增加了紋理信息的真實性,但是難以保證補全圖像的全局一致性。IIZUKA等[26]提出了全局和局部一致性圖像補全方法,通過使用經(jīng)過訓(xùn)練的全局和局部上下文判別器來區(qū)分真實圖像和補全圖像。全局判別器查看整個圖像以評估整個圖像是否一致,而局部判別器僅查看以補全區(qū)域為中心的小區(qū)域,以確保生成的圖像塊的局部一致性。但是當缺失區(qū)域面積較大或位于圖像邊緣位置時,由于上下文信息的缺失和生成對抗網(wǎng)絡(luò)結(jié)構(gòu)的不穩(wěn)定性,補全結(jié)果會有空白和偽彩色區(qū)域生成。

文獻[26]提出的全局和局部一致性圖像補全方法補全大面積和邊緣缺失區(qū)域的不足問題和 GAN本身難以訓(xùn)練的問題,本文提出了針對于大面積和邊緣缺失區(qū)域的分級聯(lián)合圖像補全方法,并對文獻[26]方法中的網(wǎng)絡(luò)結(jié)構(gòu)做了改進。

1 方法

1.1 全局和局部一致性圖像補全方法

文獻[26]采用了全局和局部一致性的方法對圖像進行補全,即首先在原圖上隨機生成缺失區(qū)域,并生成對應(yīng)的二值圖像(0表示完整區(qū)域,1表示缺失區(qū)域)。將原圖和對應(yīng)的二值圖像輸入到補全網(wǎng)絡(luò)中,利用原圖中缺失區(qū)域和生成圖像中補全區(qū)域的均方誤差損失(mean-squared loss,MSE Loss)對補全網(wǎng)絡(luò)進行訓(xùn)練;然后固定補全網(wǎng)絡(luò),分別將生成圖像和生成圖像中以補全區(qū)域為中心的區(qū)域輸入到全局判別器和局部判別器中,并利用對抗損失對2個網(wǎng)絡(luò)進行訓(xùn)練;最后將對抗損失和均方誤差損失聯(lián)合起來一起訓(xùn)練3個網(wǎng)絡(luò)。文獻[26]方法較已有的圖像補全方法效果更好,但依然存在問題:①當缺失區(qū)域面積較大時,最終的補全結(jié)果較為模糊;②當缺失區(qū)域位于邊緣區(qū)域時,由于上下文信息的缺失和補全網(wǎng)絡(luò)與判別器訓(xùn)練速度的不一致性,導(dǎo)致補全的結(jié)果會出現(xiàn)模糊及色彩失真的問題。本文針對這2個問題做出了改進。

此外,文獻[26]方法中采用的網(wǎng)絡(luò)結(jié)構(gòu)為原始生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)模型。原始 GAN最明顯的一個不足是訓(xùn)練過程難以收斂且具有很大的不穩(wěn)定性。原因在于:①不同于一般的深度學(xué)習問題具有明確的目標函數(shù),通過梯度下降法進行訓(xùn)練,GAN的訓(xùn)練是一個尋找納什均衡點的過程。生成器和判別器在訓(xùn)練過程中任意一方的誤差的下降可能導(dǎo)致另一方的誤差上升,GAN很難達到相對均衡的狀態(tài),總是在生成樣本的各種模式之間振蕩,最常見的是GAN將不同的樣本輸入映射到相同的生成樣本上,即重復(fù)生成相同的數(shù)據(jù),該現(xiàn)象也被稱為模式坍塌(model collapse)。②由于一般判別器的迭代速度高于生成器,兩者的迭代速度不一致問題會導(dǎo)致GAN模型的不穩(wěn)定性問題,難以得到最優(yōu)模型。③反向傳播過程中容易出現(xiàn)梯度消失等現(xiàn)象,導(dǎo)致模型訓(xùn)練較為困難。針對于GAN的缺點,研究者在GAN基本模型的基礎(chǔ)上衍化出一系列新的模型,如條件生成對抗網(wǎng)絡(luò)(conditional GAN,cGAN)[27]、深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional GAN,DCGAN)[28]、基于散度的生成對抗網(wǎng)絡(luò)(Wasserstein GAN,WGAN)[29]等。其中,WGAN的主要貢獻是提高了原始GAN網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練的穩(wěn)定性。生成問題可近似理解為回歸問題,原始GAN網(wǎng)絡(luò)結(jié)構(gòu)中判別器的最后一層使用的是sigmoid激活函數(shù),將生成問題近似為0-1二分類問題,容易造成生成器和判別器難以達到平衡狀態(tài),引起模式坍塌及難以收斂等問題,WGAN通過將判別器的最后一層sigmoid函數(shù)去掉,提高了網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性。

結(jié)合WGAN的方法,本文在文獻[26]方法的基礎(chǔ)上對圖像補全方法和網(wǎng)絡(luò)結(jié)構(gòu) 2個方面做了改進:①通過將補全區(qū)域的中心區(qū)域作為本文添加的局部判別器 2的輸入,使訓(xùn)練過程在中心區(qū)域和真實圖像相應(yīng)區(qū)域的損失函數(shù)上反向傳播,合成結(jié)果更加真實;②文獻[26]方法中網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練存在不穩(wěn)定、難以收斂等問題,本文通過“加寬”網(wǎng)絡(luò),即添加了局部判別器 2,并將原始網(wǎng)絡(luò)結(jié)構(gòu)中判別器的最后一層sigmoid激活函數(shù)去掉,將每一個relu層替換為BN層和leaky_relu層的結(jié)合,避免了梯度消失、模式坍塌及網(wǎng)絡(luò)難以收斂等問題,使得網(wǎng)絡(luò)結(jié)構(gòu)更加穩(wěn)定,從而補全效果更加真實、清晰。

1.2 分級聯(lián)合圖像補全

在文獻[26]方法的基礎(chǔ)上,本文首先在原圖orig上隨機生成具有任意形狀的空白區(qū)域,作為輸入圖像x,并生成輸入圖像對應(yīng)的Mask二值圖像(圖1)。訓(xùn)練過程中首先利用補全區(qū)域c與原圖orig中對應(yīng)區(qū)域之間的均方誤差損失L(orig,Mc)(式(1))訓(xùn)練補全網(wǎng)絡(luò),經(jīng)過反復(fù)迭代之后得到補全網(wǎng)絡(luò)的初步補全圖像;然后從初步補全圖像中裁剪出一個以補全區(qū)域為中心的圖像塊d,并將其與生成的整張圖像分別輸入到局部判別器和全局判別器中,以對抗損失Lodvd(式(2))同時訓(xùn)練2個網(wǎng)絡(luò)。初步補全結(jié)果中保留了圖像的結(jié)構(gòu)信息,全局網(wǎng)絡(luò)判別器用以保證圖像的全局一致性,局部網(wǎng)絡(luò)判別器用于保持補全區(qū)域與其他區(qū)域的局部一致性。

其中,Mc為輸入的二進制Mask圖像;Md為二進制圖像中以缺失區(qū)域為中心的局部區(qū)域d。

但是,當缺失區(qū)域面積較大或位于圖像邊緣位置時,由于上下文信息的缺失和訓(xùn)練的不穩(wěn)定性,以上3個網(wǎng)絡(luò)得到的補全結(jié)果會出現(xiàn)失真、偽彩色等現(xiàn)象。因此,本文還生成了位于補全區(qū)域中心位置的圖像塊d′,如圖1(b)所示。其中,x為輸入圖像;d為輸入圖像中以缺失區(qū)域為中心的圖像塊;c為缺失區(qū)域;d′為位于缺失區(qū)域中心且大小為缺失區(qū)域面積1/4大小的圖像塊。

圖1 圖像區(qū)域劃分示意圖

通過將d′輸入到局部判別器網(wǎng)絡(luò)2中并計算其與真實圖像對應(yīng)區(qū)域的對抗損失Ladvd′,與全局判別器和局部判別器一起訓(xùn)練反向調(diào)整網(wǎng)絡(luò)參數(shù),使得最終補全的紋理信息更加具有真實性,且保持了與周圍區(qū)域的局部一致性,即

最后,以聯(lián)合損失L訓(xùn)練整個網(wǎng)絡(luò)結(jié)構(gòu),即

其中,α為對抗損失所占的比重的系數(shù)。

本文基于生成對抗網(wǎng)絡(luò)的分級聯(lián)合圖像補全方法流程圖如圖2所示。

圖2 分級聯(lián)合圖像補全流程圖

1.3 網(wǎng)絡(luò)結(jié)構(gòu)

本文方法采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。包括補全網(wǎng)絡(luò)(completion network)、全局判別器(globally discriminator)、局部判別器(locally discriminator)和局部判別器2(locally discriminator 2)4個網(wǎng)絡(luò)。其中,補全網(wǎng)絡(luò)用于生成缺失區(qū)域的內(nèi)容,全局判別器查看整個生成圖像與原圖之間的真實性,以評估整個圖像是否一致;而局部判別器僅查看以補全區(qū)域為中心的小區(qū)域,以確保生成的圖像塊的局部一致性。本文方法添加的局部網(wǎng)絡(luò)判別器2,用于判定缺失區(qū)域的中心區(qū)域的生成圖像與原圖相應(yīng)區(qū)域的圖像內(nèi)容的真實性,并平衡補全網(wǎng)絡(luò)和判別器的迭代速度,使得生成圖像中補全區(qū)域的邊緣更加真實自然。

圖3 網(wǎng)絡(luò)結(jié)構(gòu)圖

補全網(wǎng)絡(luò)的輸入是含有缺失區(qū)域的整張圖像和對應(yīng)的二進制通道圖片(0代表完整區(qū)域,1代表缺失區(qū)域),輸出為補全區(qū)域和輸入圖像中的完整區(qū)域組合成的圖像;然后將整張生成圖像輸入到全局判別器中,判斷生成內(nèi)容的真實性,并保持圖像的全局一致性;局部判別器的輸入為生成圖像中以補全區(qū)域為中心的局部區(qū)域,用于保持生成區(qū)域與其他區(qū)域的局部一致性。本文添加的局部判別器2的輸入為生成圖像中補全區(qū)域的中心區(qū)域,用于判定大面積缺失區(qū)域的中心區(qū)域生成內(nèi)容的真實性和邊緣區(qū)域與其他區(qū)域的局部一致性。

其中,補全網(wǎng)絡(luò)采用的是編碼器-解碼器結(jié)構(gòu),包含 10個卷積層、4個空洞卷積層、2個反卷積層和1個輸出層。除了第1個卷積層使用5×5的卷積核之外,其余所有的卷積層和空洞卷積層均使用3×3的卷積核,反卷積層使用4×4的卷積核。文獻[26]方法中補全網(wǎng)絡(luò)中除最后一層外,其余每個卷積層后面都有一個relu層。由于relu激活函數(shù)會忽略掉負值的作用,將輸入為負值的神經(jīng)元的梯度置為0,造成“神經(jīng)元死亡”的現(xiàn)象。針對relu的缺陷,本文將relu層替換為BN層和leaky_relu層的結(jié)合。網(wǎng)絡(luò)反向傳播過程是通過對網(wǎng)絡(luò)前向傳播過程中得到的實際輸出與期望輸出之間的誤差求偏導(dǎo),進而調(diào)整每一層網(wǎng)絡(luò)的參數(shù)進行的。當網(wǎng)絡(luò)層數(shù)較深,反向傳播靠近輸入層時,偏導(dǎo)數(shù)趨近于零,容易陷入局部最優(yōu)。批歸一化操作使得網(wǎng)絡(luò)訓(xùn)練過程中每一層的輸入保持相同的分布,避免了以上問題。leaky_relu解決了relu激活函數(shù)中當輸入為負值時,輸出為 0的現(xiàn)象,避免了梯度消失等問題。

本文方法的網(wǎng)絡(luò)結(jié)構(gòu)中包含 3個上下文判別器:全局判別器、局部判別器和局部判別器2。其中,局部判別器是本文在文獻[26]方法的基礎(chǔ)上增加的網(wǎng)絡(luò)。

原始網(wǎng)絡(luò)結(jié)構(gòu)中判別器的訓(xùn)練速度比生成器快得多,導(dǎo)致判別器可以輕易的分辨出哪張是自然圖像,哪張是生成圖像,但是反向傳播時傳遞給補全網(wǎng)絡(luò)的梯度只能使其生成奇怪的紋路,由此容易產(chǎn)生色彩失真問題。本文通過“加寬”網(wǎng)絡(luò)結(jié)構(gòu),即多加一個局部判別器,可以平衡兩者的訓(xùn)練速度,使生成的紋理更加真實,不會生成偽彩色。此外,文獻[26]方法中判別器的最后一層采用的是sigmoid激活函數(shù),得到一個在[0,1]區(qū)間內(nèi)的連續(xù)值,以表示圖像來自真實樣本的概率。由于sigmoid函數(shù)將圖像生成問題近似為一個二分類問題,容易造成梯度消失、模式坍塌、生成器和判別器難以達到平衡狀態(tài)等問題,本文借鑒了WGAN的方法思想,將原始網(wǎng)絡(luò)結(jié)構(gòu)中判別器最后一層的sigmoid激活函數(shù)移除,使得網(wǎng)絡(luò)訓(xùn)練更加穩(wěn)定,更加容易收斂,生成器和判別器可以很好地對抗并且達到平衡狀態(tài),從而生成結(jié)果更加真實、清晰。

2 實驗

2.1 實驗數(shù)據(jù)

本文實驗中用到的數(shù)據(jù)集是從百度和谷歌等瀏覽器下載的草地相關(guān)圖片。實驗中將圖片的大小初始化 324×324,將“大面積缺失區(qū)域”定義為長和寬均為原圖的1/2的空白區(qū)域。此外,為了增加模型的泛化能力,本文在訓(xùn)練過程中,將缺失區(qū)域的大小隨機設(shè)置為100×100~128×128大小。訓(xùn)練過程中還生成了輸入圖片(帶有缺失區(qū)域的圖片)的二值圖像Mask(0代表完整區(qū)域,1代表要補全的區(qū)域)。本文將數(shù)據(jù)集分為訓(xùn)練集和測試集2部分,其中訓(xùn)練集1 000張,用于訓(xùn)練模型以得到最優(yōu)的網(wǎng)絡(luò)參數(shù);測試集120張,用于檢驗?zāi)P偷姆夯芰Γ饬磕P偷难a全能力,對模型性能進行評價。本文的訓(xùn)練集僅采用了1 000張圖片,數(shù)量并不多,但對于草地這種具有局部相似性的紋理而言,已可以獲得較好的實驗結(jié)果,能夠體現(xiàn)本文方法的優(yōu)勢了。

2.2 實驗策略

根據(jù)實驗設(shè)備 GPU的性能和輸入圖片的大小,本實驗將batch_size的大小設(shè)為16,以便更加合理地利用訓(xùn)練空間和時間。訓(xùn)練過程首先將補全網(wǎng)絡(luò)迭代訓(xùn)練Tc次,然后單獨訓(xùn)練3個判別器網(wǎng)絡(luò)Td次,最后將整個網(wǎng)絡(luò)一起迭代訓(xùn)練Ttrain次直至網(wǎng)絡(luò)穩(wěn)定。補全網(wǎng)絡(luò)的輸入是一張 324×324大小的含有缺失區(qū)域的圖片和對應(yīng)的Mask圖片;全局判別器的輸入為補全網(wǎng)絡(luò)初步生成 256×256大小的圖片,保持了合成結(jié)果的全局一致性;局部判別器的輸入為補全網(wǎng)絡(luò)初步合成結(jié)果中心128×128的區(qū)域,保持了缺失區(qū)域與上下文的局部一致性;局部判別器 2的輸入為初步合成結(jié)果中位于缺失區(qū)域中心的 64×64的區(qū)域;最后將補全網(wǎng)絡(luò)和判別器一起迭代訓(xùn)練。實驗發(fā)現(xiàn),當補全網(wǎng)絡(luò)的迭代次數(shù)為 6 000,判別器的迭代次數(shù)為1 500,最后網(wǎng)絡(luò)整體訓(xùn)練次數(shù)達到20 000次時網(wǎng)絡(luò)可以較好的收斂,補全效果更加真實。當網(wǎng)絡(luò)的迭代次數(shù)過少時,最終的補全結(jié)果出現(xiàn)失真、模糊和空白現(xiàn)象;當網(wǎng)絡(luò)迭代次數(shù)過多時,容易出現(xiàn)過擬合,從而影響補全效果。

實驗參數(shù)見表1。

表1 實驗參數(shù)

2.3 實驗環(huán)境

實驗環(huán)境見表2。

表2 實驗環(huán)境

2.4 實驗結(jié)果與分析

為了方便對實驗結(jié)果進行對比,本文對文獻[26]方法在同樣的參數(shù)設(shè)置下進行了實驗,實驗結(jié)果如圖4所示。

圖4 本文方法與文獻[26]方法結(jié)果對比

結(jié)果表明,當缺失區(qū)域面積很大(本文中長和寬均超過50%)或位于圖像的邊界時,文獻[26]方法的補全結(jié)果是模糊的,且有偽彩色生成。圖中圖像1~3輸入圖像的大小是256×256像素,其中缺失區(qū)域為位于圖像中心 128×128大小的區(qū)域,即為輸入圖像的 1/4大小。從圖中可以看到文獻[26]方法的補全結(jié)果會出現(xiàn)模糊、失真等現(xiàn)象,尤其是缺失區(qū)域邊界差異較為明顯。由于本文采取了分級聯(lián)合補全的方法,既考慮了合成結(jié)果全局與局部一致性,同時,通過添加初步補全結(jié)果中缺失區(qū)域的中心區(qū)域作為輸入的局部判別器2進行對抗訓(xùn)練,保證了補全結(jié)果紋理信息的真實性,因此本文的結(jié)果更為清晰、真實;圖中圖像4的輸入圖像包含多個缺失區(qū)域,其中缺失區(qū)域隨機分布于圖像的不同位置。由于缺乏上下文信息,文獻[26]方法的補全結(jié)果會出現(xiàn)很明顯的空白區(qū)域。

當缺失區(qū)域面積較大且位于圖像邊緣位置時,如圖4中圖像5~8,文獻[26]方法的補全結(jié)果中除了含有大面積空白外還出現(xiàn)了偽彩色。這是由于生成對抗網(wǎng)絡(luò)中判別器的迭代速度大于生成器的迭代速度,從而導(dǎo)致了訓(xùn)練的不穩(wěn)定。benwne統(tǒng)計了文獻[26]方法中判別器和生成器每迭代100次的平均運行時間(圖),其中,Tc_per100為生成器每迭代100次的運行時間(s);Td_per100為判別器每迭代 100次的運行時間(s)。從圖中可以看出判別器每迭代100次的時間約為0.327 s,生成器每迭代100次平均約為0.645 s,即判別器每次迭代的運行時間約是生成器的 50%,導(dǎo)致判別器可以輕易地分辨出哪張是自然圖像,哪張是生成圖像,但是反向傳播時傳遞給補全網(wǎng)絡(luò)的梯度只能使其生成奇怪的紋路,由此容易產(chǎn)生色彩失真問題。而本文方法添加了局部判別器2,相當于“加寬”了網(wǎng)絡(luò),平衡了生成器和判別器的訓(xùn)練速度。此外,本文還通過將每個卷積層后面的 relu層替換為BN層和leaky_relu層的結(jié)合,并去掉判別器最后一層的sigmoid激活函數(shù),避免了網(wǎng)絡(luò)訓(xùn)練過程中的梯度消失和模式坍塌等問題,使得網(wǎng)絡(luò)訓(xùn)練更加穩(wěn)定。實驗表明,本文網(wǎng)絡(luò)的運行速度和文獻[26]方法網(wǎng)絡(luò)的運行速度差別僅為10%。本文的網(wǎng)絡(luò)訓(xùn)練更加容易收斂,克服了文獻[26]方法中生成偽彩色的缺陷,使得結(jié)果更加真實。在圖的圖像5,7,8中,本文合成結(jié)果雖然較文獻[26]方法更優(yōu),但由于上下文信息缺失面積很大,且處于邊緣位置,仍出現(xiàn)了部分空白區(qū)域。問題尚需進一步研究克服。

圖5 生成器和判別器每迭代100次的運行時間圖

除了對圖像質(zhì)量進行主觀視覺評價方法以外,本文還使用了 MSE Loss和結(jié)構(gòu)化相似性(structural similarity,SSIM)等客觀評估方法對生成結(jié)果和原圖orig之間的相似性進行量化評價。其中,MSE Loss用來比較圖像之間的絕對誤差,即圖像像素之間的差距;SSIM用來評估圖像像素之間的依賴性,即人眼對圖像的接受程度。MSE Loss越小、SSIM越大,代表2張圖像越相似。表3為文獻[26]方法和本文方法在圖4中測試圖像的生成結(jié)果與原圖orig的比較結(jié)果。

表3 圖4中本文方法與文獻[26]方法的MSE和SSIM值

當缺失面積較大時,文獻[26]方法的MSE Loss值比本文方法高 20%~40%,表明缺失區(qū)域面積較大時,本文方法更能保證圖像紋理信息的真實性,見表3中的圖像1~3;當缺失區(qū)域位于圖像邊緣位置時,文獻[26]方法的補全結(jié)果和原圖之間的MSE Loss值和 SSIM 值均與本文補全結(jié)果有較大的差距,表明本文方法相較于文獻[26]方法在圖像上下文信息和全局、局部一致性方面均與原圖更加相似,見表3中圖像4~8。

圖(a)為文獻[26]方法采用的網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過程中各個損失的運行圖,即網(wǎng)絡(luò)結(jié)構(gòu)中卷積層采用relu激活函數(shù),判別器的最后一層通過sigmoid激活函數(shù)進行二分類判斷;圖6(b)為本文方法采用的網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過程中各個損失的運行圖。本文方法對網(wǎng)絡(luò)結(jié)構(gòu)做出的改進包括:用 BN層和leak_relu層結(jié)合的方式替代relu層,并且去掉原始判別器結(jié)構(gòu)中最后一層的sigmoid激活函數(shù),以及添加了局部判別器2“加寬”網(wǎng)絡(luò)。

圖6 文獻[26]與本文方法網(wǎng)絡(luò)結(jié)構(gòu)的Loss曲線圖

由圖6可以看出,文獻[26]方法的網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練過程中容易出現(xiàn)梯度消失現(xiàn)象,訓(xùn)練過程很不穩(wěn)定。本文方法采用的網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練過程則相對穩(wěn)定,且生成損失下降時,對抗損失呈上升趨勢,二者始終保持對抗狀態(tài),直至達到平衡。

除了針對具有重復(fù)性紋理的圖像進行補全外,本文還對具有一定結(jié)構(gòu)特征的鐵絲網(wǎng)的照片進行了驗證,如圖7所示。

此外,為了驗證本文方法的泛化能力,從Places2數(shù)據(jù)集中隨機抽取了15 000張圖片進行訓(xùn)練,測試結(jié)果如圖8所示。

由圖8可以看出,文獻[26]方法生成的圖片的補全區(qū)域很模糊,且邊界區(qū)域較為明顯,不能很好地保持圖像的真實性和一致性。本文方法由于對網(wǎng)絡(luò)結(jié)構(gòu)做出了改進,使得網(wǎng)絡(luò)在訓(xùn)練過程中避免了梯度消失、減小了生成器和判別器迭代速度的不一致性,對具有較強結(jié)構(gòu)性的圖案也可以具有更好的補全效果。能夠生成更加清晰、真實的圖片,且保持圖像的全局和局部一致性。

圖7 鐵絲網(wǎng)圖片補全結(jié)果對比

圖8 Places2數(shù)據(jù)集圖片補全結(jié)果對比

3 結(jié)束語

本文提出一種分級聯(lián)合圖像補全方法,將圖像分為以缺失區(qū)域為中心的區(qū)域和缺失區(qū)域中心的區(qū)域,添加了局部判別器2對圖像進行補全,并對文獻[26]方法中使用的GAN模型結(jié)構(gòu)進行了改進。本文的方法克服了文獻[26]方法訓(xùn)練過程中大面積缺失區(qū)域的補全結(jié)果較為模糊、失真的問題,又使得網(wǎng)絡(luò)迭代過程中補全網(wǎng)絡(luò)和判別器的迭代速度更加一致,網(wǎng)絡(luò)訓(xùn)練更加穩(wěn)定,從而避免了偽彩色的生成,使得補全的結(jié)果更加真實清晰。

但是,本文的方法仍然存在局限性:①當大面積缺失區(qū)域位于圖像邊界時,補全結(jié)果仍然具有較小的空白區(qū)域。這是由于缺少上下文信息所致。是否可以在圖像庫中匹配出合適的上下文信息將是一個有趣的探討方向;②本文方法主要針對有重復(fù)性紋理結(jié)構(gòu)的圖形補全,當圖像具有非規(guī)則結(jié)構(gòu)時,由于訓(xùn)練過程中難以捕獲紋理的細節(jié)特征本文方法將無法適用,還有待進一步研究解決。

本文方法可應(yīng)用于圖像修復(fù),當圖像具有大面積的缺損或磨痕時,可以使得修復(fù)后的圖像更加逼真;此外,當用戶希望去除電子圖像中的某目標物體時,擦除該目標物體后,可以實現(xiàn)根據(jù)周圍信息對擦除區(qū)域進行補全。由于在具體的應(yīng)用中只需要用到本文網(wǎng)絡(luò)結(jié)構(gòu)中的補全網(wǎng)絡(luò),結(jié)構(gòu)相對輕型,所以本文方法還可以應(yīng)用于視頻操作等場景中,且克服了已有圖像補全技術(shù)的弊端,具有較好的應(yīng)用前景。

猜你喜歡
區(qū)域方法
永久基本農(nóng)田集中區(qū)域“禁廢”
分割區(qū)域
學(xué)習方法
關(guān)于四色猜想
分區(qū)域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
基于嚴重區(qū)域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 日本不卡在线| 久久超级碰| 亚洲精品va| yjizz视频最新网站在线| 亚洲AⅤ无码国产精品| 麻豆精品在线播放| 高清国产在线| 99在线视频免费| 露脸国产精品自产在线播| 99r在线精品视频在线播放| 高清大学生毛片一级| 亚洲精品天堂在线观看| 免费a级毛片视频| 91香蕉视频下载网站| 97无码免费人妻超级碰碰碰| 国产伦精品一区二区三区视频优播 | 成年人福利视频| 国产好痛疼轻点好爽的视频| 国产chinese男男gay视频网| a级毛片在线免费| 久久免费观看视频| 国产美女精品一区二区| 日韩精品一区二区三区免费在线观看| 58av国产精品| 国产精品三级专区| 97青青青国产在线播放| 国产制服丝袜无码视频| 3D动漫精品啪啪一区二区下载| 老司机久久99久久精品播放| 国产成人毛片| 国产亚洲精| 国产香蕉一区二区在线网站| 视频二区亚洲精品| 欧美丝袜高跟鞋一区二区| 国产成人精品亚洲77美色| 国产男人的天堂| 欧美午夜精品| 老色鬼久久亚洲AV综合| 四虎免费视频网站| 国产香蕉在线| 欧美色99| 亚洲人网站| 国产精品一区二区国产主播| 91丝袜美腿高跟国产极品老师| 永久天堂网Av| 亚洲天堂.com| 亚洲日韩AV无码一区二区三区人 | 在线无码九区| 午夜视频日本| 免费无码又爽又黄又刺激网站 | 色欲国产一区二区日韩欧美| 精品第一国产综合精品Aⅴ| 在线不卡免费视频| 亚洲国产成人自拍| 国产熟女一级毛片| 日韩欧美中文字幕一本| 精品欧美日韩国产日漫一区不卡| 国产一级妓女av网站| 欧美一区二区三区香蕉视| 一区二区无码在线视频| 欧美精品黑人粗大| 午夜限制老子影院888| 日韩毛片免费| 国产91小视频| 欧美伦理一区| 亚洲美女高潮久久久久久久| 亚洲AV无码乱码在线观看裸奔| 欧美一区二区啪啪| 91亚洲影院| 国产欧美日韩另类| 日韩在线网址| 久久综合色视频| 亚洲欧美日韩视频一区| 日本高清免费一本在线观看| 国产精品污视频| 四虎国产精品永久一区| 亚洲成人免费在线| 久久久久亚洲av成人网人人软件| 在线免费亚洲无码视频| 乱人伦99久久| 日本人真淫视频一区二区三区| 国产在线欧美|