999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

DenseNet生成對抗網(wǎng)絡(luò)低照度圖像增強(qiáng)方法

2022-04-21 05:21:14王照乾孔韋韋滕金保田喬鑫
計算機(jī)工程與應(yīng)用 2022年8期
關(guān)鍵詞:效果方法模型

王照乾,孔韋韋,滕金保,田喬鑫

1.西安郵電大學(xué),西安 710121

2.陜西省網(wǎng)絡(luò)數(shù)據(jù)分析與智能處理重點(diǎn)實(shí)驗(yàn)室,西安 710121

在圖像采集過程中,所在場景的光照條件往往是影響圖像質(zhì)量的重要因素之一,在現(xiàn)代社會生產(chǎn)生活中,人們采集圖像變得更為方便和快捷,由于光照條件不足產(chǎn)生的低照度圖像識別度不高,導(dǎo)致缺乏可用性,并對后續(xù)的圖像處理、目標(biāo)識別、語義分割等任務(wù)造成了困難。

早期對低照度圖像增強(qiáng)的主流方法如Pizer等[1]提出的基于直方圖增強(qiáng)法(histogram equalization,HE),該方法通過調(diào)整圖像直方圖分布達(dá)到增強(qiáng)圖像亮度和對比度的目的,具有簡單快速的優(yōu)點(diǎn),但存在圖像失真等問題。隨后,Land[2]提出了Retinex理論:人類眼睛視覺感受到的亮度和對色彩的感知與周圍環(huán)境光照強(qiáng)度無關(guān),而是由物體自身實(shí)際反射率來決定。依據(jù)此理論出現(xiàn)了單尺度Retinex(single scale R,SSR)方法[3]和多尺度Retinex(multi-scale Retinex with color restoration,MSRCR)[4]方法來對低照度圖像增強(qiáng),此類方法雖然達(dá)到了對低照度圖像增強(qiáng)的目的,但依舊存在顏色失真、邊緣模糊等現(xiàn)實(shí)問題。

另外,還有一些基于Retinex理論的傳統(tǒng)方法,如Fu等[5]提出的一種基于融合的低照度圖像增強(qiáng)方法;Guo等[6]提出的基于照度區(qū)域估計的方法;Ying等[7]提出的基于融合的方法;Ren等[8]提出的結(jié)合圖像去噪的低照度圖像增強(qiáng)方法,這些方法雖然一定程度上達(dá)到了增強(qiáng)圖像照度的效果,但同樣存在顏色失真和紋理模糊等問題,無法獲得高質(zhì)量的圖像。

目前,深度學(xué)習(xí)技術(shù)迅速發(fā)展,并且在計算機(jī)視覺方面有著廣泛的應(yīng)用和優(yōu)良的效果,深度學(xué)習(xí)模型可以利用大量數(shù)據(jù)來完成對深度模型的訓(xùn)練,比如輸入大量不同照度的圖像,利用自動編碼器或卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,從而達(dá)到對低照度圖像增強(qiáng)的效果。其中,Lore等[9]首次提出一種利用自動編碼器實(shí)現(xiàn)低照度圖像增強(qiáng)的方法,由于該模型采用的是處理圖像降噪任務(wù)的深度編碼器改進(jìn)后的模型,計算能力有限,所以該模型一般只適用于處理小尺寸的圖像。隨后,Tao等[10]利用卷積神經(jīng)網(wǎng)絡(luò)(convlutional neural network,CNN)和殘差學(xué)習(xí)對Lore的方法進(jìn)行改進(jìn),取得了不錯的效果。此外,Li等[11]提出的LightenNet運(yùn)用四層卷積CNN模型對圖像照度進(jìn)行增強(qiáng);馬紅強(qiáng)等[12]也采用CNN模型對低照度圖像進(jìn)行增強(qiáng),但其特色在于對圖像的RGB到HIS進(jìn)行顏色空間轉(zhuǎn)換,更有助于達(dá)到增強(qiáng)圖像照度的目的。總體看來現(xiàn)有的深度學(xué)習(xí)模型在一定程度上彌補(bǔ)了傳統(tǒng)方法存在的缺點(diǎn)和不足,但也存在著較大的提升空間。

隨著生成對抗網(wǎng)絡(luò)(GAN)[13]的提出,研究人員將GAN應(yīng)用到了計算機(jī)視覺領(lǐng)域,并取得了較好的效果[14]。為了提升對低照度圖像增強(qiáng)的處理效果并得到高質(zhì)量的圖像,本文利用對抗網(wǎng)絡(luò)訓(xùn)練特點(diǎn)和學(xué)習(xí)能力,提出了一種基于DenseNet[15]生成對抗網(wǎng)絡(luò)的低照度圖像增強(qiáng)方法。此方法運(yùn)用DenseNet作為框架搭建生成器網(wǎng)絡(luò),其優(yōu)勢在于具有非常好的抗過擬合性能,尤其適合于訓(xùn)練數(shù)據(jù)相對匱乏的任務(wù),另外本文使用PatchGAN作為判別器來監(jiān)督生成器網(wǎng)絡(luò),提升生成器生成高質(zhì)量圖像的能力。

1 相關(guān)理論

1.1 生成對抗網(wǎng)絡(luò)

生成對抗網(wǎng)絡(luò)(GAN)是由生成器網(wǎng)絡(luò)G和判別器網(wǎng)絡(luò)D二者相互博弈組成。生成器的任務(wù)是把輸入的噪聲數(shù)據(jù)經(jīng)過生成網(wǎng)絡(luò)得到生成數(shù)據(jù),判別器的任務(wù)是負(fù)責(zé)辨別真實(shí)的數(shù)據(jù)和生成的數(shù)據(jù),生成器不斷更新網(wǎng)絡(luò)權(quán)值以生成更加接近真實(shí)數(shù)據(jù)的生成數(shù)據(jù),從而使判別器無法判別生成數(shù)據(jù)的真假。判別器同時也在不斷更新網(wǎng)絡(luò)權(quán)值以達(dá)到最精準(zhǔn)的判別效果。生成器與判別器二者間不斷博弈對抗,最終達(dá)到一個動態(tài)平衡的狀態(tài),此時生成器的生成效果最佳。這里給出GAN的數(shù)學(xué)模型:

其中,V表示生成器D和判別器G的最終優(yōu)化目標(biāo),E表示數(shù)學(xué)期望,x~Pdata(x)表示數(shù)據(jù)來源于真實(shí)數(shù)據(jù),z~PZ(Z)表示z為服從(一般為高斯分布)的隨機(jī)噪聲,G(z)表示隨機(jī)噪聲z通過生成器G得到的生成數(shù)據(jù),D(x)和D(G(z))表示判別器對真實(shí)數(shù)據(jù)和生成數(shù)據(jù)進(jìn)行判別。

1.2 DenseNet理論

目前,計算機(jī)視覺領(lǐng)域采用CNN已成為主流方法,例如GoogleNet、VGGNet、Inception等模型,而殘差網(wǎng)絡(luò)(RestNet)[16]的出現(xiàn)更是把CNN帶到了一個新的高度,構(gòu)建RestNet模型的核心是通過建立前一層和后一層間的“短路連接”(shortcuts,skip connection),這種結(jié)構(gòu)的優(yōu)勢在于加速了訓(xùn)練過程中梯度的反向傳播,從而可以滿足更深的CNN網(wǎng)絡(luò)訓(xùn)練。DenseNet的思路與RestNet基本一致,其二者的結(jié)構(gòu)區(qū)別如圖1所示。

圖1 殘差網(wǎng)絡(luò)與稠密連接網(wǎng)絡(luò)Fig.1 RestNet and DenseNet

在RestNet中,A層與B層之間加入了一個高速通道——“短路連接”,A層的輸入可以跳過B層,和B層輸出做一次加法,這樣做的優(yōu)勢在于:梯度在反向傳播時,最上層的梯度可以直接跳過中間層B,傳至最下層A,從而避免最下層A的梯度過小。

然而,在DenseNet中,A層輸出和B層輸出并非相加,而是在通道維度上連接,這樣做的目的是使A層輸出直接和B層后面所有層連接在了一起,其優(yōu)勢在于特征重用以及方便梯度傳遞,可以讓DenseNet在參數(shù)、樣本和計算成本更少的任務(wù)中獲得比RestNet更具有優(yōu)勢的性能。

1.3 PatchGAN理論

通常情況下,GAN模型的判別器網(wǎng)絡(luò)是一個二分類判別器,判別器對輸入的數(shù)據(jù)做判別,判斷是真實(shí)數(shù)據(jù)還是生成數(shù)據(jù)。PatchGAN又稱馬爾科夫判別器,與傳統(tǒng)判別器的輸出結(jié)果有所不同,PatchGAN最后輸出一個N×N的矩陣,然后通過計算矩陣的均值作為判斷真假的輸出,這和原始的二分類判別器輸出一個代表真或假的矢量有著根本區(qū)別。其中,輸出矩陣的每一個輸出是模型對應(yīng)原圖像中的一個感受野,對應(yīng)原圖像的一部分區(qū)域。

2 本文方法

本文所提出的基于DenseNet生成對抗網(wǎng)絡(luò),避免了采用傳統(tǒng)CNN模型作為生成對抗網(wǎng)絡(luò)的框架,而是結(jié)合優(yōu)勢更加明顯的DenseNet作為框架來搭建生成器網(wǎng)絡(luò),有效地解決了梯度消失等問題,具有參數(shù)量和計算量小、抗過擬合、泛化能力更強(qiáng)等優(yōu)勢,并且使用PatchGAN作為判別器代替?zhèn)鹘y(tǒng)的二分類判別器,使得訓(xùn)練的模型更加注重圖像細(xì)節(jié),提高了圖像質(zhì)量,加快了網(wǎng)絡(luò)收斂速度。本文方法的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

圖2 DenseNet生成對抗網(wǎng)絡(luò)低照度圖像增強(qiáng)模型Fig.2 Low illumination image enhancement model based on DenseNet GAN

2.1 生成器網(wǎng)絡(luò)結(jié)構(gòu)

本文以DenseNet為框架搭建生成器網(wǎng)絡(luò),建立低照度圖像與真實(shí)的正常照度圖像間的映射關(guān)系,利用反向傳播來訓(xùn)練生成器網(wǎng)絡(luò)獲得最優(yōu)的權(quán)重值,從而讓生成器對低照度圖像的增強(qiáng)效果達(dá)到最佳。本文生成器的網(wǎng)絡(luò)結(jié)構(gòu)和該網(wǎng)絡(luò)中的DenseNet結(jié)構(gòu)如圖3、圖4所示。

圖3 本文的生成器網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Generator network structure of this paper

圖4 生成器網(wǎng)絡(luò)中的DenseNet Fig.4 DenseNet in generator network

(1)上采樣層,由4個4×4大小的卷積核組成,對輸入圖像進(jìn)行特征提取,卷積核個數(shù)分別為1 024,512,256,128,每層間經(jīng)過卷積后采用BatchNorm對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,使用ReLu作為激活函數(shù),對輸入數(shù)據(jù)進(jìn)行上采樣傳入DenseNet。上采樣特征提取公式為:

其中,X代表輸入的低照度圖像,GLi代表第L層輸出的第i組特征圖,“*”代表卷積操作,GLi代表第L層的第i組卷積核,i=1,2,3,4。

(2)在設(shè)計DenseNet結(jié)構(gòu)時,根據(jù)本任務(wù)小樣本空間的特點(diǎn),為了防止層數(shù)過深,導(dǎo)致參數(shù)量過多產(chǎn)生過擬合,本文設(shè)計的DenseNet為四層,Layer1,Layer2,Layer3均采用5×5卷積核,通道個數(shù)為128,每層之間經(jīng)過卷積后采用BatchNorm對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,使用ReLu作為激活函數(shù),最后一層Layer4采用5×5卷積核,通道個數(shù)為3,經(jīng)過卷積后使用Tanh作為激活函數(shù),整個DenseNet中有3個concatenation用來將不同尺寸的特征圖調(diào)整為統(tǒng)一的通道數(shù)進(jìn)行連接。

(3)DenseNet的映射函數(shù)為:

其中,[]表示將第X0層到XL-1層的所有輸出的特征圖按通道數(shù)大小組合在一起,HL表示使用BatchNorm+Relu+conv進(jìn)行非線性變化。

2.2 判別器網(wǎng)絡(luò)結(jié)構(gòu)

本文在設(shè)計判別器網(wǎng)絡(luò)時參考Isola等[14]提出的PatchGAN判別器來替換傳統(tǒng)的二分類判別器,該判別器輸出N×N矩陣,經(jīng)過矩陣均值計算來判斷該圖像是真實(shí)圖像或生成圖像。相比傳統(tǒng)的二分類判別器,使用PatchGAN判別器的優(yōu)勢在于其輸出是一個矩陣,最終結(jié)果為矩陣均值,充分考慮到了圖像不同區(qū)域的影響,從而提升了圖像質(zhì)量,更加注重了圖像細(xì)節(jié);此外,對小尺寸圖像塊的計算大大加快了網(wǎng)絡(luò)的收斂速度。本文設(shè)計了4層全卷積層的CNN模型,除最后一層卷積層外,其余3層每層之間經(jīng)過卷積后使用BatchNorm對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,并采用LeakReLu作為激活函數(shù),其具體結(jié)構(gòu)如圖5所示。

圖5 本文的判別器網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Network structure of discriminator in this paper

2.3 損失函數(shù)

本文生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)訓(xùn)練過程中均使用均方誤差損失函數(shù)(mean square error,MSE)。對于生成器網(wǎng)絡(luò),MSE用于計算生成照度增強(qiáng)后的圖像與正常照度圖像之間的誤差。MSE對于判別器網(wǎng)絡(luò),目的是計算經(jīng)判別器網(wǎng)絡(luò)處理后的圖像與正常照度圖像之間的損失,MSE值越小,說明生成器生成的照度增強(qiáng)后的圖像越接近真實(shí)圖像。反之,與真實(shí)圖像差距越大。生成器和判別器的損失函數(shù)計算公式分別為:

其中,LG代表生成器網(wǎng)絡(luò)的損失,L D代表判別器網(wǎng)絡(luò)的損失,N代表訓(xùn)練樣本數(shù)目,Y i代表第i組真實(shí)的正常照度圖像值,Ti代表生成器生成的第i組輸出,Bi代表判別器的第i組輸出。

3 實(shí)驗(yàn)與結(jié)果分析

為了驗(yàn)證本文方法的有效性,本章分別從實(shí)驗(yàn)數(shù)據(jù)集、實(shí)驗(yàn)設(shè)置以及結(jié)果分析等方面進(jìn)行了論述。仿真實(shí)驗(yàn)首先將低照度圖像傳入生成器網(wǎng)絡(luò),生成照度增強(qiáng)的圖像,然后將生成器生成的圖像和正常照度的圖像傳入PatchGAN判別器,并計算損失值,同時對生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)進(jìn)行權(quán)重優(yōu)化,最后訓(xùn)練模型達(dá)到穩(wěn)定狀態(tài),得到較好的照度增強(qiáng)效果。

為了客觀評價本文方法對低照度圖像的增強(qiáng)性能,將選取的低照度圖像數(shù)據(jù)集應(yīng)用于本文方法和幾種現(xiàn)有的主流方法,同時對它們在照度增強(qiáng)方面的處理效果進(jìn)行對比。選取的現(xiàn)有主流方法有:HE[1]、基于相機(jī)模型的Ying[7]、Ma[12]、MSRCR[4]、Guo[6]、Lore[9]、Li[11],采用的客觀評價指標(biāo)有峰值信噪比(peak signal-to-noise ratio,PSNR)、結(jié)構(gòu)相似度(structural similarity,SSIM)、處理時間等三項(xiàng)指標(biāo)。

3.1 實(shí)驗(yàn)數(shù)據(jù)

本文實(shí)驗(yàn)采用的圖像數(shù)據(jù)集由Cai等[17]提供的多曝光度圖像數(shù)據(jù)集,利用調(diào)整相機(jī)的曝光值調(diào)節(jié)拍攝的曝光度,從而采集不同照度的圖像,其中包含589個精心挑選的高分辨率多曝光序列和4 413幅圖像,數(shù)據(jù)集中每一張低照度圖像都有與其對應(yīng)的真實(shí)的正常照度圖像,場景包含了室內(nèi)外、人像、物品等。本文實(shí)驗(yàn)從中選取580幅圖像作為訓(xùn)練集,以及60幅圖像作為測試集。同時,為了增加訓(xùn)練圖像的多樣性,隨機(jī)對圖像進(jìn)行水平或豎直方向的翻轉(zhuǎn)。

3.2 實(shí)驗(yàn)設(shè)置

本文實(shí)驗(yàn)使用Tensorflow深度學(xué)習(xí)開源框架,采用CPU配置為Intel Core i5-10300H,GPU配置為NVIDIA GeForce GTX 1660ti,在Win10+16 GB內(nèi)存的PC平臺上對本文方法模型進(jìn)行訓(xùn)練。訓(xùn)練期間學(xué)習(xí)率為固定參數(shù)0.000 2,迭代次數(shù)為6 000,batch-size為64,優(yōu)化器選用Adam優(yōu)化器,設(shè)置動量參數(shù)一階矩估計的指數(shù)衰減率為0.5,設(shè)置二階矩估計的指數(shù)衰減率為0.999。

3.3 主觀評價

為了直觀地展示本文方法對低照度圖像增強(qiáng)的效果,本實(shí)驗(yàn)從真實(shí)數(shù)據(jù)集中選取三幅低照度圖像,使用本文方法和其他方法對低照度圖像亮度進(jìn)行增強(qiáng),不同方法的增強(qiáng)效果如圖6~圖8所示。

在圖6~圖8中,經(jīng)過不同方法的增強(qiáng)處理后,從視覺效果方面可以直觀看出,經(jīng)HE、MSRCR處理后,圖像雖然能夠達(dá)到改善照度的目的,但處理后的圖像出現(xiàn)了色彩偏差、顏色失真的問題。特別是MSRCR在面對復(fù)雜場景圖像時,處理效果整體偏暗。

圖6 不同方法對低照度圖像scenery的增強(qiáng)效果對比Fig.6 Contrast of different methods for scene enhancement of low illumination image

經(jīng)Guo方法和Ying方法處理后的圖像在色彩還原方面要明顯優(yōu)于前兩種方法,其中Guo方法雖然對圖像整體處理效果不錯,但對比正常照度圖片,Guo方法增強(qiáng)后的圖像飽和度較高,圖像整體效果不夠自然,且在細(xì)節(jié)恢復(fù)上存在差距。與本文方法相比較,Ying方法增強(qiáng)后的圖像,從視覺效果方面看圖像色溫偏白色,并且對圖像中偏暗的區(qū)域亮度增強(qiáng)效果欠佳。

圖7 不同方法對低照度圖像child的增強(qiáng)效果對比Fig.7 Contrast of different methods for child enhancement of low illumination image

基于融合的Lore方法,雖然對低照度圖像在照度上達(dá)到了一定的增強(qiáng)效果,但與真實(shí)圖像相比在亮度恢復(fù)方面還是與本文方法存在一定差距。經(jīng)Ma方法增強(qiáng)后的圖像,與本文方法最大的差距是在圖像紋理方面,Ma方法增強(qiáng)結(jié)果較為模糊。基于CNN的Li方法模型過于單一簡單化,所以對圖像的亮度增強(qiáng)能力有限,增強(qiáng)后的圖像亮度偏低。

而本文方法的增強(qiáng)效果在視覺直觀方面,不僅使照度增強(qiáng)后的圖像在亮度方面與正常照度的圖像亮度非常接近,而且較好地做到了對圖像細(xì)節(jié)信息的保留和色彩還原,增強(qiáng)后的圖像更加自然,視覺效果更好。

3.4 客觀評價

除了直觀展示對低照度圖像增強(qiáng)的效果外,為了能進(jìn)一步說明本文方法對低照度圖像增強(qiáng)效果的優(yōu)勢,實(shí)驗(yàn)同時計算和記錄了各種方法的PSNR、SSIM、處理時間三項(xiàng)指標(biāo)值對實(shí)驗(yàn)中的方法進(jìn)行定量評價。

PSNR[18]是一種衡量圖像失真或噪聲水平的客觀標(biāo)準(zhǔn)指標(biāo),PSNR值越小說明兩幅圖像之間越趨于劣化,圖像照度增強(qiáng)效果也越差,反之PSNR值越大說明圖像受噪聲影響較小,失真也越小,圖像照度增強(qiáng)效果也越好,計算公式為:

其中,Y代表正常照度圖像,X代表低照度圖像。

SSIM[19]是一種衡量兩幅圖相似度的指標(biāo),也是常用的圖像質(zhì)量評價標(biāo)準(zhǔn),SSIM值的范圍從0到1,其值越接近1說明兩幅圖像越是接近,失真越小,圖像照度增強(qiáng)效果質(zhì)量越好,計算公式為:

實(shí)驗(yàn)最后,不同方法對圖6~圖8照度增強(qiáng)效果的客觀評價指標(biāo)對比結(jié)果如表1所示,其中MSRCR方法一味追求圖像亮度增強(qiáng)效果,而犧牲了模型的準(zhǔn)確性,所以其PSNR值和SSIM值均較低。而Ma方法中加入了對圖像RGB到HIS的顏色空間轉(zhuǎn)換,所以其PSNR值和SSIM值表現(xiàn)較好。

表1 不同處理結(jié)果的客觀對比Table 1 Objective comparison of different treatment results

從表1中可以明顯看出,本文方法模型在PSNR值和SSIM值這兩項(xiàng)指標(biāo)方面,都要優(yōu)于其他方法,這也表明本文的基于DenseNet生成對抗網(wǎng)絡(luò)模型在低照度圖像增強(qiáng)任務(wù)中具有較明顯的優(yōu)勢。

3.5 計算效率

除了從主觀視覺效果和客觀指標(biāo)兩方面對幾種方法的增強(qiáng)效果進(jìn)行比較外,每種方法的運(yùn)行時間,也是衡量一個方法模型計算效率的一項(xiàng)重要指標(biāo),運(yùn)行時間越短說明模型的算法復(fù)雜度越小。實(shí)驗(yàn)選取圖6~圖8用來測試幾種方法的處理時間并進(jìn)行比較,每種方法分別對每幅圖像運(yùn)行三次,并記錄三次運(yùn)行時間,取平均值作為最終結(jié)果,實(shí)驗(yàn)結(jié)果如表2所示。需要說明的是,所有方法均采用在同一PC平臺上進(jìn)行運(yùn)算,其中本文方法和Li、Ma使用PYTHON語言編寫,基于GPU進(jìn)行運(yùn)算。MSRCR使用MATLAB語言編寫,基于CPU進(jìn)行運(yùn)算。HE、Guo、Ying、Lore使用PYTHON語言編寫,基于CPU進(jìn)行運(yùn)算。

表2 不同方法的運(yùn)行時間Table 2 Running time of different methods s

從表2中不難看出,本文方法和Li、Ma三種借助GPU運(yùn)行的方法,其處理時間要快于其他基于CPU運(yùn)行的方法。本文方法模型的運(yùn)行時間在所有方法中處于次優(yōu),需要指出的是,由于Li的模型結(jié)構(gòu)較為簡單,且借助GPU進(jìn)行運(yùn)算,所以在第三項(xiàng)指標(biāo)處理時間上要優(yōu)于本文方法。最終綜合表1、表2三項(xiàng)指標(biāo)的對比結(jié)果不難得出結(jié)論,本文所提出的基于DenseNet生成對抗網(wǎng)絡(luò)對低照度圖像增強(qiáng)的方法,相比其他現(xiàn)有的主流方法在客觀評價方面有著較為突出的優(yōu)勢。

4 結(jié)語

為了解決低照度圖像亮度增強(qiáng)的問題,本文提出了一種基于DenseNet生成對抗網(wǎng)絡(luò)的低照度圖像增強(qiáng)方法,方法改進(jìn)了傳統(tǒng)的以CNN作為生成器網(wǎng)絡(luò)的結(jié)構(gòu),采用DenseNet作為框架搭建生成器網(wǎng)絡(luò),方便信息量快速傳遞,解決了因網(wǎng)絡(luò)層數(shù)過深導(dǎo)致的梯度消失等問題。同時,改進(jìn)了傳統(tǒng)對抗網(wǎng)絡(luò)采用二分類判別器作為判別網(wǎng)絡(luò),而是選用PatchGAN作為判別器網(wǎng)絡(luò),不僅可以加速訓(xùn)練網(wǎng)絡(luò),還能提升生成網(wǎng)絡(luò)對低照度圖像的增強(qiáng)效果。最后通過實(shí)驗(yàn),直觀地比較了本文方法與其他經(jīng)典主流方法對低照度圖像的增強(qiáng)效果,并且通過對PSNR、SSIM、處理時間三項(xiàng)評價指標(biāo)的客觀比較和分析,最終證明了本文所提出的方法對低照度圖像具有更佳的增強(qiáng)能力。如何進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),降低模型算法復(fù)雜度將成為下一步的工作重點(diǎn)。

猜你喜歡
效果方法模型
一半模型
按摩效果確有理論依據(jù)
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
迅速制造慢門虛化效果
抓住“瞬間性”效果
中華詩詞(2018年11期)2018-03-26 06:41:34
3D打印中的模型分割與打包
模擬百種唇妝效果
Coco薇(2016年8期)2016-10-09 02:11:50
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 久久国产精品娇妻素人| 国产簧片免费在线播放| 国产午夜人做人免费视频中文| 久草网视频在线| 国产福利在线观看精品| 国产玖玖视频| 国产特级毛片aaaaaaa高清| 亚洲制服丝袜第一页| 亚洲欧洲日韩综合色天使| 无码免费视频| 国产美女91视频| 亚洲国产综合精品一区| 一区二区三区四区日韩| 欧美精品黑人粗大| 欧美国产成人在线| 老色鬼欧美精品| 伊人久久大香线蕉综合影视| 国产真实自在自线免费精品| 日韩AV无码一区| 啊嗯不日本网站| 美美女高清毛片视频免费观看| 三级欧美在线| 国产精品视频猛进猛出| 伊人福利视频| 亚洲精品老司机| 91精品专区国产盗摄| 国产成人综合日韩精品无码首页| 97国内精品久久久久不卡| 国产亚洲美日韩AV中文字幕无码成人| 人人看人人鲁狠狠高清| 97精品国产高清久久久久蜜芽| 亚洲精品第一页不卡| 久久精品丝袜| 香蕉eeww99国产在线观看| 99成人在线观看| 亚洲精品日产精品乱码不卡| 欧美日韩国产综合视频在线观看| 国产视频a| 无码免费视频| 国产香蕉在线视频| 国产欧美中文字幕| 亚洲精品另类| 欧美成人亚洲综合精品欧美激情| 日韩欧美视频第一区在线观看| 久久精品无码一区二区国产区| 国产一区二区精品福利| 亚洲区一区| 欧美成人手机在线观看网址| 黄色网站不卡无码| 亚洲国产精品人久久电影| 久久婷婷五月综合色一区二区| 人妻21p大胆| 国产理论精品| 亚洲美女一区| 99这里只有精品在线| 亚洲精品波多野结衣| 无码福利视频| 伊人丁香五月天久久综合 | 国产在线精品人成导航| 国产成人你懂的在线观看| 天天操天天噜| 亚洲性影院| 在线人成精品免费视频| 日本一区二区三区精品AⅤ| 亚洲成人精品久久| 国产精品原创不卡在线| 国产精品欧美亚洲韩国日本不卡| 一级毛片在线免费看| 国产亚洲欧美在线专区| 成人自拍视频在线观看| 欧美综合成人| 中文字幕人妻无码系列第三区| 亚洲精品无码成人片在线观看 | 亚洲欧美在线看片AI| 好紧太爽了视频免费无码| 无码区日韩专区免费系列| 91高清在线视频| 伊人天堂网| 高清不卡一区二区三区香蕉| 婷婷六月在线| 国产美女主播一级成人毛片| 亚洲中文字幕av无码区|