999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成對抗網(wǎng)絡(luò)的單圖像超分辨率重建方法*

2020-09-13 13:53:48彭晏飛杜婷婷訾玲玲
計算機(jī)與生活 2020年9期
關(guān)鍵詞:方法

彭晏飛,高 藝,杜婷婷,桑 雨,訾玲玲

遼寧工程技術(shù)大學(xué)電子與信息工程學(xué)院,遼寧葫蘆島 125105

1 引言

圖像超分辨率問題,特別是單圖像超分辨率,近年來受到越來越多的關(guān)注,已成為一個研究的熱點問題。單圖像超分辨率是一個病態(tài)的求逆問題,目標(biāo)是從一幅低分辨率的圖像中恢復(fù)出具有更多紋理細(xì)節(jié)和高頻信息的高分辨率圖像,在衛(wèi)星成像[1]、監(jiān)控設(shè)備[2]、遙感影像[3]、醫(yī)學(xué)成像[4]等許多現(xiàn)實領(lǐng)域中都有廣泛的應(yīng)用。

圖像超分辨率重建主要有:基于插值的[5]、基于重建的[6]和基于學(xué)習(xí)的[7]三種方法。基于插值的超分辨率方法實現(xiàn)簡單,重建速度快,但同時也存在依賴自然圖像的先驗知識,使重建圖像細(xì)節(jié)較差的缺點。基于重建的超分辨率根據(jù)已有的退化模型,通過提取低分辨率圖像中的關(guān)鍵信息,并結(jié)合對未知的超分辨率圖像的先驗知識來約束超分辨率圖像的生成。由于所獲得的先驗知識有限,因此如果遇到復(fù)雜的圖像所重建出的圖像性能也有限?;趯W(xué)習(xí)的超分辨率利用大量的訓(xùn)練數(shù)據(jù),通過訓(xùn)練建立低分辨率與高分辨率的映射關(guān)系,根據(jù)學(xué)習(xí)到的先驗信息從低分辨率圖像中重建出高分辨率圖像。相比其他方法,基于學(xué)習(xí)的方法可以利用學(xué)習(xí)到的先驗知識來預(yù)估對應(yīng)的高分辨率圖像,重建圖像質(zhì)量高,目前已成為主流的重建方法。

近年來,隨著深度學(xué)習(xí)在計算機(jī)視覺的成功應(yīng)用,深度神經(jīng)網(wǎng)絡(luò)受到了廣泛關(guān)注,其影響力也已擴(kuò)展到圖像超分辨率領(lǐng)域,使用基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率,其質(zhì)量大大改善。Dong等人[7]首先提出了一種基于3層卷積神經(jīng)網(wǎng)絡(luò)的超分辨率方法(super-resolution convolutional neural network,SRCNN),成功將深度學(xué)習(xí)引入到超分辨率領(lǐng)域,該網(wǎng)絡(luò)結(jié)構(gòu)簡單,易于實現(xiàn),但仍然存在由于感受野小、泛化能力差、卷積層數(shù)少而導(dǎo)致的重建性能差的問題。Shi等人[8]提出增加亞像素卷積層來減少計算開銷,提高圖像的重建效率。Kim等人[9]加深網(wǎng)絡(luò)結(jié)構(gòu)到20層,提高了感受野,并通過殘差學(xué)習(xí)來提高訓(xùn)練的收斂速度。Lim等人[10]去掉了殘差塊中不必要的批規(guī)范化層(batch normalization,BN),使模型更加緊湊,提高了圖像的重建質(zhì)量。Lai等人[11]提出的深層拉普拉斯金字塔網(wǎng)絡(luò)(LapSRN)將L2損失函數(shù)換為Charbonnier損失函數(shù),通過級聯(lián)學(xué)習(xí)逐步上采樣,逐步輸出殘差結(jié)果,一步步得到重建圖像。Haris等人[12]提出一種不斷進(jìn)行上采樣和下采樣的網(wǎng)絡(luò)(deep backprojection networks,DBPN),通過為每個階段建立錯誤反饋機(jī)制來指導(dǎo)重建。以上方法多數(shù)以MSE(mean squared error)為目標(biāo)函數(shù),雖然生成圖像有著較高的PSNR(peak signal-to-noise ratio),但生成質(zhì)量卻缺少高頻信息和紋理細(xì)節(jié),且感知效果不盡如人意。

隨著生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)[13]的提出,大家開始嘗試?yán)蒙蓪咕W(wǎng)絡(luò)處理各種計算機(jī)視覺任務(wù)。2017年,Ledig等人[14]首次將生成對抗網(wǎng)絡(luò)用于圖像超分辨率重建(superresolution generative adversarial networks,SRGAN),提升了生成圖像的視覺效果。2018年,Wang等人[15]去除掉生成器中所有的BN層,并提出用殘差密集塊代替原始基礎(chǔ)塊來訓(xùn)練一個非常深的網(wǎng)絡(luò),進(jìn)一步提升了視覺質(zhì)量。受其啟發(fā),本文在SRGAN模型的基礎(chǔ)上,使用支持向量機(jī)(support vector machine,SVM)中的hinge損失作為目標(biāo)函數(shù),在生成網(wǎng)絡(luò)中使用更加穩(wěn)定、抗噪性更強(qiáng)的Charbonnier損失函數(shù)來代替L2損失,改善使用L2損失函數(shù)會使重建圖像在普通區(qū)域產(chǎn)生斑點偽影的問題。同時去掉了殘差塊和判別器中會使特征歸一化的BN層,并在生成器和判別器中使用譜歸一化(spectral normalization,SN)來減少計算開銷,穩(wěn)定模型訓(xùn)練。在激活函數(shù)的選擇上,本文在判別器中使用了復(fù)雜度更小、對噪聲魯棒性更好的指數(shù)線性單元(exponential linear units,ELU)激活函數(shù)代替LeakyReLU激活函數(shù),通過以上方法進(jìn)一步提升圖像的視覺效果,使其更接近人類的視覺感知。

2 生成對抗網(wǎng)絡(luò)

受二人零和博弈的啟發(fā),2014年,Ian Goodfellow提出生成對抗網(wǎng)絡(luò)[14]的概念,其由兩個神經(jīng)網(wǎng)絡(luò)相互競爭的特殊對抗過程組成,具體結(jié)構(gòu)如圖1所示。生成網(wǎng)絡(luò)G(z)捕捉真實樣本數(shù)據(jù)的潛在分布,并生成新的樣本數(shù)據(jù),判別網(wǎng)絡(luò)D(x)是一個二分類器,試圖區(qū)分真實數(shù)據(jù)與生成網(wǎng)絡(luò)創(chuàng)造出來的假數(shù)據(jù),即判別輸入是真實數(shù)據(jù)還是生成的樣本。判別網(wǎng)絡(luò)會生成一個在[0,1]范圍內(nèi)的標(biāo)量,代表數(shù)據(jù)是真實數(shù)據(jù)的概率。生成對抗網(wǎng)絡(luò)的訓(xùn)練實際是一個極小極大博弈的過程,優(yōu)化目標(biāo)是達(dá)到納什平衡,即生成器生成的樣本與真實樣本無差別,判別器無法準(zhǔn)確判斷生成的數(shù)據(jù)與真實數(shù)據(jù),此時判別器認(rèn)為生成器輸出的結(jié)果是真實數(shù)據(jù)的概率為0.5。生成器與判別器的對抗過程如式(1)所示:

其中,V(D,G)表示GAN優(yōu)化的目標(biāo)函數(shù),E(·)表示數(shù)學(xué)期望,x表示從真實的數(shù)據(jù)分布pdata(x)中獲取的數(shù)據(jù),D(x)表示真實數(shù)據(jù)經(jīng)由判別器判別為真的概率,z為隨機(jī)噪聲信號,生成器G(z)從概率分布P(z)中接收輸入z,并把它輸入到判別器網(wǎng)絡(luò)D(x)。

Fig.1 Structure diagram of GAN圖1 GAN結(jié)構(gòu)圖

判別器部分如式(2)所示:

其中,固定生成器,對于真實樣本x,即公式的前一項,希望得到的結(jié)果D(x)越大越好,因為得到真樣本的結(jié)果越接近1越好。對于假樣本,希望得到的結(jié)果D(G(z))越小越好,也就是1-D(G(z))的結(jié)果越大越好,因為它的標(biāo)簽是0。

生成器部分如式(3)所示:

在其優(yōu)化過程中,沒有真樣本,希望假樣本的標(biāo)簽為1,D(G(z))的結(jié)果越大越好,即1-D(G(z))的結(jié)果越小越好。

3 本文方法

本文以SRGAN為基礎(chǔ),首先遷移了SVM中的hinge損失作為目標(biāo)函數(shù),又在原有的感知損失中加入了更加穩(wěn)定、抗噪性更強(qiáng)的Charbonnier損失函數(shù)和TV正則項,最后去除了會使圖像特征歸一化且會使網(wǎng)絡(luò)參數(shù)大量增加的BN層,并在生成器和判別器中同時加入SN來穩(wěn)定GAN的訓(xùn)練。

3.1 目標(biāo)函數(shù)

Hinge損失作為SVM中著名的目標(biāo)函數(shù),常用于二分類問題,在SAGAN[16]和BigGAN[17]中均有應(yīng)用。SVM優(yōu)化的目標(biāo)是最大化兩個類之間的邊界,這意味著判別器的更新也可以很容易地與SVM的更新相結(jié)合,因為判別器更新的目標(biāo)也可以被認(rèn)為是最大化兩個類之間的邊界。這里摒棄了原始GAN的目標(biāo)函數(shù),在判別器中使用hinge損失,利用支持向量機(jī)分離超平面。SVM代價函數(shù)值不依賴于邊界外的特征向量,完全由支持向量決定。為更新判別器參數(shù),只需將支持向量推向邊緣邊界。同時,生成器更新嘗試將偽特征向量向分離超平面的法向量方向移動,以便將它們分類為真特征向量。然后,通過交替極小化實現(xiàn)判別器與生成器之間的對抗性訓(xùn)練,最終模型的目標(biāo)函數(shù)如式(4)、式(5)所示:

3.2 感知損失

同SRGAN不同,本文在感知損失中加入了Charbonnier損失函數(shù)和TV正則項。

為保證生成器構(gòu)建圖像低頻部分的正確性,引入了Charbonnier損失。如表1所示,現(xiàn)今基于卷積神經(jīng)網(wǎng)絡(luò)的SR方法大多以L2損失優(yōu)化網(wǎng)絡(luò)。L2損失可以直接優(yōu)化PSNR值,但不可避免地會產(chǎn)生模糊的預(yù)測。由于L2損失未能捕捉到潛在的HR patch的多模式分布,即同樣的LR patch可能有很多對應(yīng)的HR patch,重構(gòu)的圖像往往過于平滑,無法接近人類對自然圖像的視覺感知。與L1損失相比,L2損失雖可以更好地重建圖像高頻信息,卻在普通區(qū)域留下偽影。而L1損失雖然能以更清晰的邊緣重建為代價函數(shù)去除斑點和偽影,卻花費更多的重建時間。相比之下,本文使用一個魯棒的Charbonnier損失函數(shù)代替L2損失來優(yōu)化深度網(wǎng)絡(luò)處理異常值,提高重構(gòu)精度,不僅訓(xùn)練時間更少,重建結(jié)果的PSNR值也更高。Charbonnier損失函數(shù)的數(shù)學(xué)表示如式(6)所示:

其中,α為超參數(shù),y表示HR圖像,G(x)表示SR圖像,為Charbonnier損失函數(shù)的懲罰項,σ為常數(shù)項,這里取值為σ=10-8。

Table 1 Comparison of loss function表1 損失函數(shù)對比

與SRGAN相同,本文使用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)的Relu激活層來重定義內(nèi)容損失,這里使用的是16層VGG網(wǎng)絡(luò),如式(7)所示:

其中,φi,j表示VGG16網(wǎng)絡(luò)中第i個最大池化層之前的第j個卷積(激活后)得到的特征映射。Wi,j和Hi,j描述了在VGG網(wǎng)絡(luò)中各個特征映射的大小,β為超參數(shù)。

對抗損失同SRGAN一樣,如式(8)所示:

其中,G(x)為重建圖像;D(G(x))為重建圖像的概率;γ為超參數(shù)。

為保持圖像的平滑性,消除圖像重建過程中可能帶來的偽影,同時保持圖像邊緣和細(xì)節(jié)的清晰,本文在損失函數(shù)中加入了TV正則項,如式(9)所示,其中δ為超參數(shù)。

綜上,本文改進(jìn)的感知損失如式(10)所示:

3.3 網(wǎng)絡(luò)模型

Miyato等人[18]首先提出將譜歸一化應(yīng)用于判別器網(wǎng)絡(luò)來穩(wěn)定GAN的訓(xùn)練,通過限制每層的譜范數(shù)來約束判別器的Lipschitz常數(shù),與其他歸一化技術(shù)相比,譜歸一化不需要額外的超參數(shù)調(diào)整(將所有加權(quán)層的光譜范數(shù)設(shè)置為1)。此外,計算成本也相對較小。這里,在生成器和判別器中均加入了譜歸一化。

在生成網(wǎng)絡(luò)的設(shè)計上,使用5個相同結(jié)構(gòu)的殘差塊,每個殘差塊包含兩個卷積層,每層由64個3×3大小的卷積核構(gòu)成,并使用參數(shù)化修正線性單元(PRelu)作為激活函數(shù),原始SRGAN中殘差塊中含有BN層,由于批處理的歸一化層會將圖像的特征歸一化,降低網(wǎng)絡(luò)的靈活性,這里去除了BN層,簡化了網(wǎng)絡(luò)結(jié)構(gòu)。之后采用2個亞像素卷積層來對圖像進(jìn)行上采樣,具體結(jié)構(gòu)如圖2所示。

同樣,去除判別網(wǎng)絡(luò)中的BN層。判別器網(wǎng)絡(luò)結(jié)構(gòu)采用8組卷積層+ELU激活函數(shù)的形式,每組卷積核大小均為3×3,深度依次為64、64、128、128、256、256、512、512。如圖3所示,經(jīng)過8層卷積加1層平均池化后,最后通過全連接層Dense將圖像數(shù)據(jù)的維度壓平。

模型整體訓(xùn)練細(xì)節(jié)流程圖如圖4所示。

Fig.2 Structure of generator network圖2 生成器網(wǎng)絡(luò)結(jié)構(gòu)

Fig.3 Structure of discriminator network圖3 判別器網(wǎng)絡(luò)結(jié)構(gòu)

Fig.4 Training details flow chart圖4 訓(xùn)練細(xì)節(jié)流程圖

4 實驗結(jié)果與分析

4.1 實驗設(shè)置及過程

本文實驗硬件設(shè)備為Intel?CoreTMi7-9750H@2.60 GHz處理器,16 GB運(yùn)行內(nèi)存,NVIDIA GeForce GTX 1660Ti(6 GB)顯卡。相關(guān)設(shè)計軟件有Anaconda3-4.3.14-Windows-x86_64,cuda_10.0.132,PyCharm。

實驗使用的數(shù)據(jù)集為近年來新提出的一組高質(zhì)量(2K分辨率)的圖像數(shù)據(jù)集DIV2K[19],其包含800張訓(xùn)練圖像,100張驗證圖像,100張測試圖像。但由于測試圖像還未發(fā)布,這里采用基準(zhǔn)數(shù)據(jù)集Set5[20]、Set14[21]來進(jìn)行測試。訓(xùn)練時,將訓(xùn)練集圖像雙三次下采樣4倍作為網(wǎng)絡(luò)的輸入LR圖像。

由于實驗設(shè)備限制,圖像被裁剪為88×88大小,batch_size設(shè)置為16,epochs設(shè)置為100,生成器和判別器均使用Adam優(yōu)化器,文中涉及的超參數(shù)分別為α=10-4,β=10-3,γ=6×10-3,δ=2×10-6。訓(xùn)練時嘗試將判別器的卷積核大小設(shè)置為5×5,雖然測試的圖像效果有所增強(qiáng),但是訓(xùn)練參數(shù)也增加了將近3倍,增加了計算成本,權(quán)衡考慮,實驗仍使用3×3的卷積核。

本文使用的評價指標(biāo)為圖像超分辨率領(lǐng)域常用的峰值信噪比(peak signal to noise ratio,PSNR)和結(jié)構(gòu)相似性(structural similarity index measure,SSIM),如式(11)、式(12)所示。PSNR的值越大,說明圖像失真越??;SSIM的值越大,說明SR圖像與原圖像結(jié)構(gòu)越相似。

其中,W、H、C分別表示圖像的寬、長和通道數(shù),xˉ表示SR圖像,x表示原始圖像。

其中,μX、μY分別表示圖像X和Y的均值,σX、σY分別表示圖像X和Y的方差,σXY表示圖像X和Y的協(xié)方差,C1、C2為常數(shù)。

同時,本文對不同方法在測試集上的運(yùn)行時間進(jìn)行比較。由于同一方法每次的測試時間不同,這里取前5次測試時間的平均值來進(jìn)行比較。

4.2 結(jié)果與分析

實驗在數(shù)據(jù)集Set5和Set14上測試本文模型,在與Bicubic、ESPCN等經(jīng)典圖像超分辨率方法比較的同時,也與SRGAN及最新的ESRGAN進(jìn)行了比較。為了使測試結(jié)果更加公平,實驗在所有測試方法中均使用DIV2K數(shù)據(jù)集進(jìn)行訓(xùn)練,因此對比方法的實驗結(jié)果與原論文數(shù)據(jù)有所出入。表2、表3、表4分別為各超分辨率重建方法的測試時間、PSNR和SSIM值的對比。

Table 2 Comparison of testing time for each super-resolution reconstruction method表2 各超分辨率重建方法測試時間對比 s

Table 3 Comparison of PSNR for each super-resolution reconstruction method表3 各超分辨率重建方法PSNR 對比 dB

Table 4 Comparison of SSIM values for each superresolution reconstruction method表4 各超分辨率重建方法SSIM值對比

通過表2發(fā)現(xiàn),ESPCN的測試時間要快很多,可能是由于基于卷積神經(jīng)網(wǎng)絡(luò)的方法要比基于生成對抗網(wǎng)絡(luò)的方法要快;在生成對抗網(wǎng)絡(luò)的基礎(chǔ)上,本文方法要比SRGAN快1 s左右,在Set5上比ESRGAN慢1 s左右,而在Set14上要快很多,說明了本文方法的優(yōu)越性。從表3、表4可以看出,在4倍放大尺度因子下,相比基于插值的方法,基于學(xué)習(xí)的超分辨率重建方法在PSNR和SSIM值上有著顯著的優(yōu)勢,這是因為深度學(xué)習(xí)對外部樣本具有良好的學(xué)習(xí)能力,充分融合了學(xué)習(xí)樣本的有效信息。在基于學(xué)習(xí)的方法中,相比SRGAN,本文方法的PSNR和SSIM值均有大幅提高;相比ESRGAN,除了Set5上的PSNR值,本文方法的其他值均高于ESRGAN,說明本文的網(wǎng)絡(luò)模型是有效的;但是與ESPCN相比,本文模型提高得并不明顯,PSNR值大約提高了0.2 dB,SSIM值大約提高了0.02。表中取得的結(jié)果雖有一定進(jìn)展但似乎不盡如人意。實驗又在Set5和Set14測試集中選取“baby”“butterfly”“zebra”“woman”“l(fā)enna”等圖像來展示上述各方法的可視化效果,如圖5~圖9所示。從截取區(qū)域可以看出,bicubic重建的圖像嚴(yán)重模糊,重建效果最差。ESPCN重建的圖像比Bicubic重建的圖像更加清晰,但是出現(xiàn)較多偽影,SRGAN、ESRGAN與本文方法重建的圖像主觀上比前兩種更好,但是本文重建圖像與ESRGAN重建圖像的視覺效果要優(yōu)于SRGAN。本文方法與ESRGAN的重建效果相似但本文方法幾乎在全部圖像上擁有更高的PSNR和SSIM值。從圖中可以看出,本文方法重建的圖像在所有方法中PSNR和SSIM值幾乎都是更高的,只在“baby”和“l(fā)enna”圖像中略低于ESPCN,在“butterfly”圖像中略低于ESRGAN,但是本文方法重建的圖像具有較好的視覺效果,再次證明了更高的PSNR值不一定有更好的感知效果。

Fig.5 Reconstruction comparison graph of image“baby”in Set5 test set圖5 Set5測試集中圖像“baby”重建對比圖

Fig.6 Reconstruction comparison graph of image“butterfly”in Set14 test set圖6 Set14測試集中圖像“butterfly”重建對比圖

Fig.7 Reconstruction comparison graph of image“zebra”in Set14 test set圖7 Set14測試集中圖像“zebra”重建對比圖

Fig.8 Reconstruction comparison graph of image“woman”in Set14 test set圖8 Set14測試集中圖像“woman”重建對比圖

Fig.9 Reconstruction comparison graph of image“l(fā)enna”in Set14 test set圖9 Set14測試集中圖像“l(fā)enna”重建對比圖

5 結(jié)束語

為了使超分辨率重建圖像在大尺度因子下也能有更多的高頻信息和紋理細(xì)節(jié),提高超分辨率重建圖像的視覺效果,本文在SRGAN的基礎(chǔ)上,提出了一種生成對抗網(wǎng)絡(luò)的單圖像超分辨率重建方法。該方法使用hinge損失作為目標(biāo)函數(shù),引入Charbonnier損失代替L2損失函數(shù),去掉了殘差塊和判別器中不必要的BN層,并在生成器和判別器中使用譜歸一化來穩(wěn)定模型訓(xùn)練。本文使用DIV2K數(shù)據(jù)集進(jìn)行實驗,使用PSNR、SSIM和測試時間作為圖像超分辨率重建的客觀評價指標(biāo),并在實驗中證明了與其他方法相比,本文方法重建的圖像具有較好的視覺效果、較高的PSNR及SSIM值和較快的測試時間,證明了本文方法的有效性。未來的研究工作將主要放在如何減少訓(xùn)練參數(shù),減小網(wǎng)絡(luò)結(jié)構(gòu)同時獲得更好的重建質(zhì)量上。

猜你喜歡
方法
中醫(yī)特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數(shù)學(xué)教學(xué)改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學(xué)習(xí)方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 亚洲国产精品不卡在线| 精品欧美一区二区三区在线| 国产va在线观看免费| 亚洲一欧洲中文字幕在线| 55夜色66夜色国产精品视频| 国产成人区在线观看视频| 日韩无码视频专区| 国产成人1024精品| 国产精品尹人在线观看| 鲁鲁鲁爽爽爽在线视频观看| 香蕉蕉亚亚洲aav综合| 亚洲欧美日韩中文字幕一区二区三区| 高潮毛片免费观看| 在线观看精品国产入口| 国产午夜在线观看视频| 国产99精品久久| 在线永久免费观看的毛片| 久久96热在精品国产高清| 日韩精品欧美国产在线| 成人字幕网视频在线观看| 中文字幕免费视频| 亚洲一区二区三区在线视频| 欧美一区二区自偷自拍视频| 国产在线精品99一区不卡| 国产自无码视频在线观看| 青青操国产视频| 最新国产网站| 中文字幕久久波多野结衣| 久久99国产综合精品1| 色噜噜综合网| 国产精品久久自在自线观看| 国产91熟女高潮一区二区| 国产高清免费午夜在线视频| 久久国产亚洲偷自| 美女无遮挡免费视频网站| 波多野一区| 久久久亚洲色| 伊人久久大线影院首页| 在线观看免费国产| 青草精品视频| 欧美成人a∨视频免费观看| 国产免费高清无需播放器| 国产三级视频网站| 国内99精品激情视频精品| 亚洲欧美激情小说另类| 凹凸国产熟女精品视频| 91精品国产自产在线观看| 久久亚洲黄色视频| 手机看片1024久久精品你懂的| 91久久国产成人免费观看| 欧美亚洲国产精品久久蜜芽| 72种姿势欧美久久久大黄蕉| 又猛又黄又爽无遮挡的视频网站| 2024av在线无码中文最新| 国产日韩欧美在线播放| 四虎永久免费地址| av在线人妻熟妇| 国产精品区视频中文字幕| 欧美亚洲第一页| 在线国产毛片| 国产精品30p| 在线国产你懂的| 麻豆精品在线播放| 丰满的熟女一区二区三区l| 亚洲品质国产精品无码| 国产黄色免费看| 亚洲国产日韩欧美在线| 99九九成人免费视频精品| 麻豆精选在线| 毛片一级在线| 国产美女免费网站| 日本免费a视频| 国产成人综合日韩精品无码首页| 欧美天堂久久| 欧美色亚洲| 亚洲国产91人成在线| 91久久国产热精品免费| 久久视精品| 国产一区二区网站| 免费人欧美成又黄又爽的视频| 五月激情婷婷综合| 免费毛片全部不收费的|