999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)在圖像處理領(lǐng)域中的應(yīng)用綜述

2018-09-10 03:06:54殷琪林王金偉
高教學(xué)刊 2018年9期
關(guān)鍵詞:深度學(xué)習(xí)

殷琪林 王金偉

摘 要:隨著大數(shù)據(jù)時(shí)代的到來,一系列深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)已在圖像處理領(lǐng)域展現(xiàn)出巨大的優(yōu)勢(shì),為了能夠及時(shí)跟蹤深度學(xué)習(xí)在圖像領(lǐng)域的最新發(fā)展,文章針對(duì)深度學(xué)習(xí)在圖像處理領(lǐng)域的相關(guān)研究進(jìn)行綜述。首先介紹深度學(xué)習(xí)的背景和卷積神經(jīng)網(wǎng)絡(luò)的知識(shí),旨在從本質(zhì)上理解深度學(xué)習(xí)應(yīng)用在圖像領(lǐng)域的基本模型架構(gòu)及其優(yōu)化方法;其次主要在圖像識(shí)別、取證、檢測(cè)三個(gè)方向上,具體論述深度學(xué)習(xí)在圖像領(lǐng)域多個(gè)方向上的演變與發(fā)展,其目的在于了解深度學(xué)習(xí)對(duì)具體圖像處理問題的最新研究并掌握多種模型或技術(shù);最后指出深度學(xué)習(xí)在圖像領(lǐng)域存在的問題以及對(duì)未來的展望。

關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);算法模型;圖像處理

中圖分類號(hào):G640 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2096-000X(2018)09-0072-03

Abstract: With the development of the era of big data, a series of deep learning network structures have shown great advantages in the field of image processing. In order to track the latest development of deep learning of imaging, this paper summarizes the related research in the field of image processing. Firstly, the background of deep learning and the knowledge of convolutional neural networks are introduced to fundamentally understand the basic model architecture and optimization methods of deep learning applied in the image domain. Secondly, the evolution and development of deep learning in multiple directions are discussed from recognition, forensics, and detection to understand the latest research of deep learning on concrete image processing problems and grasp various models or technologies. Finally, the problems faced in the future are analyzed.

Keywords: deep learning; convolutional neural network; algorithm model; image processing

一、概述

在當(dāng)今飛速發(fā)展的信息時(shí)代,數(shù)字圖像作為一種常見且有效的信息載體已滲透到社會(huì)生活的每一個(gè)角落,致使我們對(duì)圖像處理的需求也日益增長。與此同時(shí)身處于大數(shù)據(jù)時(shí)代,數(shù)字圖像產(chǎn)生的速度和規(guī)模也是非常驚人的,所以針對(duì)圖像信息處理任務(wù)也相應(yīng)地被要求具有高效率,高性能和智能化的特點(diǎn)。

特征表達(dá)是圖像處理的關(guān)鍵,傳統(tǒng)的特征設(shè)計(jì)需要人工完成,但這種方式過程復(fù)雜并對(duì)設(shè)計(jì)者的技術(shù)有很高的要求,所以自動(dòng)化特征設(shè)計(jì)成了高效圖像處理的迫切需求。

深度學(xué)習(xí)是新興的機(jī)器學(xué)習(xí)研究領(lǐng)域,旨在研究如何從數(shù)據(jù)中自動(dòng)地提取多層次特征表示,其核心思想是通過數(shù)據(jù)驅(qū)動(dòng)的方式,采用一系列的非線性變換,從原始數(shù)據(jù)中提取多層次多角度特征,從而使獲得的特征具有更強(qiáng)的泛化能力和表達(dá)能力,這恰好滿足高效圖像處理的需求。為滿足圖像處理問題的各類需求,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)理論不斷取得突破,本文結(jié)合深度學(xué)習(xí)基本原理,對(duì)其在圖像處理領(lǐng)域的算法,模型甚至方法的演化和創(chuàng)新進(jìn)行重點(diǎn)論述。

二、深度學(xué)習(xí)

(一)深度學(xué)習(xí)的背景

神經(jīng)網(wǎng)絡(luò)在二十世紀(jì)五十年代被提出,然而礙于當(dāng)時(shí)網(wǎng)絡(luò)訓(xùn)練算法理論欠缺、訓(xùn)練樣本不足和電腦的計(jì)算能力不佳,神經(jīng)網(wǎng)絡(luò)發(fā)展遇到瓶頸。隨著云計(jì)算、大數(shù)據(jù)時(shí)代的到來,計(jì)算能力的大幅提高可緩解訓(xùn)練的低效性,訓(xùn)練數(shù)據(jù)的大幅增加則可降低過擬合的風(fēng)險(xiǎn),再結(jié)合無監(jiān)督逐層訓(xùn)練策略和早已提出的BP算法,使得訓(xùn)練很深層的神經(jīng)網(wǎng)絡(luò)變得可能,因此深度學(xué)習(xí)這個(gè)概念開始被人們廣泛關(guān)注。

典型的深度學(xué)習(xí)模型就是很深層的神經(jīng)網(wǎng)絡(luò)。多隱層堆疊,每一層都對(duì)上一層的輸出進(jìn)行處理,從而把最初始的輸入與輸出目標(biāo)之間不太密切的聯(lián)系,轉(zhuǎn)化為更為密切的表示,使得原來僅基于最后一層輸出映射難以完成的任務(wù)變?yōu)榭赡埽@種學(xué)習(xí)模式也可理解為自動(dòng)的“特征學(xué)習(xí)”。

(二)卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)

圖像識(shí)別是深度學(xué)習(xí)最早嘗試的領(lǐng)域,其中卷積神經(jīng)網(wǎng)絡(luò)發(fā)揮了巨大的作用。

一般卷積神經(jīng)網(wǎng)絡(luò)由卷積層,池化層,全連接層這三種類型的層堆疊組成,每個(gè)層都有其獨(dú)有的特點(diǎn)和作用:

1. 卷積層:提取特征,輸入特征圖X與K個(gè)二位濾波器進(jìn)行卷積運(yùn)算輸出K個(gè)二維特征圖。采用卷積運(yùn)算有兩點(diǎn)好處:(1)卷積操作可以提取相鄰像素之間的局部關(guān)系;(2)卷積操作對(duì)圖像上的平移、旋轉(zhuǎn)和尺度等變換具有一定的魯棒性。

2. 池化層:處理卷積層輸出的結(jié)果,對(duì)輸入的特征圖進(jìn)行壓縮,一方面使特征圖變小,簡(jiǎn)化網(wǎng)絡(luò)計(jì)算復(fù)雜度;另一方面精簡(jiǎn)特征圖,提取主要特征,降低特征表達(dá)維度的同時(shí),也對(duì)平移和扭曲等較小形變具有魯棒性。

3. 全連接層:連接所有特征,將輸出值送給分類器。

(三)基于神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法

隨著神經(jīng)網(wǎng)絡(luò)模型層數(shù)越來越深,訓(xùn)練數(shù)據(jù)集越來越大,模型結(jié)構(gòu)越來越復(fù)雜,網(wǎng)絡(luò)訓(xùn)練往往會(huì)遇到過擬合、梯度消失或爆炸等問題。本節(jié)介紹幾種優(yōu)化神經(jīng)網(wǎng)絡(luò)的方法:

1. Dropout:Hinton等人提出了“Dropout”優(yōu)化技術(shù),旨在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對(duì)神經(jīng)網(wǎng)絡(luò)單元按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),所以在使用隨機(jī)梯度下降方法訓(xùn)練網(wǎng)絡(luò)時(shí),每一個(gè)小批量數(shù)據(jù)都在訓(xùn)練不同的網(wǎng)絡(luò)。Dropout方法破壞了節(jié)點(diǎn)之間的相關(guān)性,使得網(wǎng)絡(luò)能學(xué)到更有泛化性的特征,有效防止過擬合。

2. 批量標(biāo)準(zhǔn)化:BN算法由Google在2015年提出,用來訓(xùn)練深層次神經(jīng)網(wǎng)絡(luò)。BN算法可以用來規(guī)范化某些層或者所有層的輸入,從而固定每一層輸入信號(hào)的均值與方差,有效防止梯度爆炸或消失問題。

三、深度學(xué)習(xí)在圖像領(lǐng)域的應(yīng)用

(一)圖像識(shí)別

深度學(xué)習(xí)技術(shù)最先是被應(yīng)用到圖像識(shí)別方向,并取得了引人矚目的效果。Alex等人[1]提出的AlexNet網(wǎng)絡(luò)是第一個(gè)用于圖像識(shí)別的深層卷積神經(jīng)網(wǎng)絡(luò),后續(xù)一系列圖像識(shí)別方面的深度學(xué)習(xí)發(fā)展都是以此為基礎(chǔ),相比于傳統(tǒng)的CNN結(jié)構(gòu),AlexNet網(wǎng)絡(luò)變得更深更寬,該網(wǎng)絡(luò)由5個(gè)卷積層和3個(gè)全連接層依次疊加組成。AlexNet網(wǎng)絡(luò)確立了深度學(xué)習(xí)(深度卷積網(wǎng)絡(luò))在圖像識(shí)別的統(tǒng)治地位,也定義了深度學(xué)習(xí)模型在圖像處理領(lǐng)域的一般性主體架構(gòu)——前饋卷積神經(jīng)網(wǎng)絡(luò):卷積層與池化層多樣化相互堆疊作為特征提取器,隨后連接多層全連接層,作為分類器,信息流方向固定而單一。接下來本文將從深度學(xué)習(xí)在圖像識(shí)別方向的主體架構(gòu)的局部修改和主體變化兩方面論述深度學(xué)習(xí)的發(fā)展。

1. 網(wǎng)絡(luò)結(jié)構(gòu)的局部修改

VGGNet網(wǎng)絡(luò)[2]是AlexNet網(wǎng)絡(luò)更深更寬的演變。相比于AlexNet網(wǎng)絡(luò),VGGNet網(wǎng)絡(luò)局部采用更多的小型卷積核串聯(lián)疊加替換一個(gè)大型的卷積核。這樣做不僅取得同樣的卷積效果,還添加了更多的非線性操作,使得網(wǎng)絡(luò)能提取到更加豐富的特征,同時(shí)參數(shù)量還減少了。VGGNet網(wǎng)絡(luò)證明了網(wǎng)絡(luò)層次越深提取的特征越豐富圖像識(shí)別效果越好。

NIN網(wǎng)絡(luò)則在卷積核上做了改變,將單一的線性卷積核換成多層感知機(jī)(MLP)。CNN高層特征其實(shí)是低層特征通過多種運(yùn)算的組合,多非線性運(yùn)算的組合能使高層特征更具泛化性。由于MLP卷積核的存在,NIN網(wǎng)絡(luò)的一次卷積操作相當(dāng)于多個(gè)卷積層操作的結(jié)果,所以NIN網(wǎng)絡(luò)能以較少的層數(shù)達(dá)到更深網(wǎng)絡(luò)的圖像識(shí)別效果。

Google Inception Net網(wǎng)絡(luò),被稱為Inception V1網(wǎng)絡(luò)。它借鑒NIN網(wǎng)絡(luò)的思想改變了卷積層,新的卷積層也被稱作Inception Module。卷積層被分成了四條并行的卷積操作線路,上層的特征輸入經(jīng)過四條線路操作后通過一個(gè)聚合操作合并作為輸出輸入到下一層。Module中大量使用1*1的卷積操作不僅可以跨通道組織信息,提高網(wǎng)絡(luò)的表達(dá)能力,還可以對(duì)輸出通道進(jìn)行升維和降維,簡(jiǎn)化計(jì)算過程。Inception V1網(wǎng)絡(luò)在獲得豐富特征信息的同時(shí),也增強(qiáng)了對(duì)不同輸入尺度的適應(yīng)性。

以上所提及的用于圖像識(shí)別的深度學(xué)習(xí)模型盡管為了獲得更好的特征表達(dá)能力,增加了網(wǎng)絡(luò)深度或者復(fù)雜了卷積層的操作,但這些都是一些局部結(jié)構(gòu)的改變,網(wǎng)絡(luò)的主體架構(gòu)——前饋卷積神經(jīng)網(wǎng)絡(luò)未變,特征圖的流向仍是單一的,一層接著一層,這必然導(dǎo)致隨著網(wǎng)絡(luò)深度的增加靠近輸出的深層網(wǎng)絡(luò)難以充分獲取淺層網(wǎng)絡(luò)的特征圖,圖像識(shí)別準(zhǔn)確率趨于平穩(wěn)后會(huì)出現(xiàn)Degradation[3]現(xiàn)象,反向傳播時(shí)淺層網(wǎng)絡(luò)收不到深層網(wǎng)絡(luò)傳來的梯度,網(wǎng)絡(luò)模型難以訓(xùn)練,這些問題都影響了更深的深度學(xué)習(xí)模型發(fā)展。

2. 網(wǎng)絡(luò)結(jié)構(gòu)的主體變化

為了解決上一節(jié)的問題,He等人[3]提出了ResNet網(wǎng)絡(luò)模型,借鑒了Highway Networks通過門閥控制信息流的思想,改變了特征信息的流向,第L層的輸出不再單一的影響L+1的輸出還影響L+2層的輸出,所以每?jī)蓪涌梢越M成一個(gè)殘差學(xué)習(xí)塊,殘差塊變相的改變了學(xué)習(xí)目標(biāo)。整個(gè)ResNet網(wǎng)絡(luò)由多個(gè)殘差塊堆疊,中間再夾雜著池化層組成,訓(xùn)練過程中只需學(xué)習(xí)輸入和輸出的差別,保護(hù)了信息完整性,簡(jiǎn)化了學(xué)習(xí)目標(biāo)和難度。

ResNet網(wǎng)絡(luò)的思想對(duì)圖像識(shí)別領(lǐng)域的深度學(xué)習(xí)技術(shù)影響深遠(yuǎn),具有很強(qiáng)的推廣性。DenseNet網(wǎng)絡(luò)[4]就是這種思想的發(fā)展與增強(qiáng),類似于殘差塊,DenseNet網(wǎng)絡(luò)有稠密塊。每一層的輸出都是之后所有層的輸入,并且數(shù)據(jù)聚合采用的是拼接而非ResNet中的相加,保證每一組輸入特征圖維度一致,這種方法更加促進(jìn)了網(wǎng)絡(luò)中信息的交流。DenseNet網(wǎng)絡(luò)緩解了梯度消失問題,加強(qiáng)了特征傳播,極大的減少了參數(shù)量。

上述兩種圖像識(shí)別的深度學(xué)習(xí)模型都改變了特征信息流的傳輸方向,可跨層次傳輸,不再是單一的前饋卷積神經(jīng)網(wǎng)絡(luò),使得圖像識(shí)別準(zhǔn)確率相比于前饋卷積神經(jīng)網(wǎng)絡(luò)越來越好,這也符合人類思維判定的方式,結(jié)合多方面多層次的概括信息比單方面詳細(xì)信息能更好的識(shí)別一個(gè)物體。

(二)圖像取證

圖像的完整周期包含三個(gè)部分:圖像獲取、圖像編碼、圖像編輯。圖像取證的出發(fā)點(diǎn)是通過提取圖像在上述三周期中留下的固有痕跡(指紋特性)來分析和理解圖像的操作歷史。

1. 深度學(xué)習(xí)的簡(jiǎn)單遷移

目前深度學(xué)習(xí)在圖像取證方向研究還很少。Baroffio等人直接將圖像識(shí)別方向的深度學(xué)習(xí)模型應(yīng)用到相機(jī)源取證問題中,因?yàn)閳D像在獲取過程中由不同相機(jī)拍攝都會(huì)留下相應(yīng)相機(jī)的指紋特性,所以他們采用類AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的簡(jiǎn)單深度學(xué)習(xí)模型來提取相機(jī)的指紋特性并加以分類,取得了94%以上的相機(jī)模式分類的準(zhǔn)確率。

2. 網(wǎng)絡(luò)輸入

圖像取證不同于圖像識(shí)別的地方在于識(shí)別是區(qū)分圖像內(nèi)容里的差異,肉眼可以察覺到,而取證則是區(qū)分圖像中以微弱信號(hào)存在的操作指紋,類間形態(tài)的差異微乎其微,所以對(duì)于圖像取證問題一般的深度學(xué)習(xí)模型不能勝任。因此Chen等人[5]對(duì)深度學(xué)習(xí)模型做出了一些改變,在類AlexNet網(wǎng)絡(luò)結(jié)構(gòu)前添加了一個(gè)預(yù)處理層,放大了取證想要的指紋特征。相比沒有預(yù)處理層,實(shí)驗(yàn)結(jié)果準(zhǔn)確率提升了7.22%。圖像取證的性質(zhì)必然決定了網(wǎng)絡(luò)輸入的改變,只有放大了想要提取的指紋特征,深度學(xué)習(xí)模型才能更好地充當(dāng)一個(gè)特征提取和分類器。

3. 適應(yīng)取證的結(jié)構(gòu)

針對(duì)一般取證問題,圖像的預(yù)處理顯然是必不可少的,但額外添加一個(gè)預(yù)處理層又顯累贅,所以Ni等人[6]提出了一種針對(duì)隱寫分析取證的深度學(xué)習(xí)模型,將預(yù)處理整合進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)中。Ni等人用30個(gè)空間富模型濾波器初始化第一層卷積核,使得第一層卷積操作兼顧預(yù)處理功能。僅管取證問題不同于識(shí)別問題,但學(xué)習(xí)模型由繁到簡(jiǎn)是個(gè)必然的趨勢(shì),相比于圖像識(shí)別,深度學(xué)習(xí)在圖像取證上的研究才剛剛開始,越來越多適應(yīng)取證的深度學(xué)習(xí)模型結(jié)構(gòu)將會(huì)被提出,簡(jiǎn)化圖像取證的流程。

(三)圖像檢測(cè)

圖像檢測(cè)相比于圖像識(shí)別,不僅要識(shí)別出圖片中的物體,還要定位物體處于圖片中什么位置。

1. 多模塊堆疊

RCNN模型[7]是利用深度學(xué)習(xí)進(jìn)行圖像檢測(cè)的第一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)模型,和圖像取證一樣,在研究的初期,單純的深度學(xué)習(xí)模型并不能實(shí)現(xiàn)檢測(cè)的目的。RCNN模型由四個(gè)模塊組成:(1)用Selective Search算法使每張圖像生成1K~2K個(gè)候選區(qū)域;(2)對(duì)每個(gè)候選區(qū)域,使用深度學(xué)習(xí)技術(shù)提取特征;(3)將特征送入每一類的SVM分類器,判別是否屬于該類;(4)使用線性回歸器精細(xì)修正候選框位置。從中可以看出深度學(xué)習(xí)模塊只起到了特征提取器的作用,這也是一開始各個(gè)領(lǐng)域應(yīng)用深度學(xué)習(xí)的出發(fā)點(diǎn),雖然是簡(jiǎn)單的運(yùn)用,但仍然在目標(biāo)檢測(cè)競(jìng)賽上取得突破性進(jìn)展。

2. 模塊合并

緊接著RCNN模型,Girshick相繼提出了fast RCNN模型和faster RCNN模型。后續(xù)模型充分運(yùn)用了深度學(xué)習(xí)知識(shí),將所有模塊逐步整合進(jìn)深度學(xué)習(xí)模型中,原本各自單獨(dú)的模型整合到一體后可以在網(wǎng)絡(luò)訓(xùn)練時(shí)相互約束,共同最小化整個(gè)網(wǎng)絡(luò)的損失函數(shù),推動(dòng)整個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)朝更好的方向發(fā)展。

四、存在的問題與研究展望

深度學(xué)習(xí)在圖像領(lǐng)域主要以卷積神經(jīng)網(wǎng)絡(luò)研究為主,但卷積運(yùn)算注定整個(gè)網(wǎng)絡(luò)將會(huì)有很大的計(jì)算量,導(dǎo)致網(wǎng)絡(luò)訓(xùn)練花費(fèi)時(shí)間非常長,改變卷積運(yùn)算形式簡(jiǎn)化計(jì)算復(fù)雜度也將會(huì)成為一大發(fā)展方向。圖像領(lǐng)域的研究大部分局限于灰度圖像,很少涉及彩色圖像,而四元數(shù)在普通的彩色圖像處理領(lǐng)域已取得顯著地效果,將四元數(shù)和深度學(xué)習(xí)知識(shí)結(jié)合起來想必一定能提取到更加豐富的彩色圖像特征,在彩色圖像處理領(lǐng)域取得意想不到的效果,這也是我們團(tuán)隊(duì)一直致力奮斗研究的方向。

參考文獻(xiàn):

[1]A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems 25, pages 1106-1114, 2012.

[2]Karen Simonyan, Andrew Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition. CoRR abs:1409.1556, 2014.

[3]He, Kaiming, et al. Deep residual learning for image recognition. Proceedings of the IEEE conference on computer vision and pattern recognition,2016.

[4]Huang G, Liu Z, Weinberger K Q, et al. Densely connected convolutional networks. arXiv preprint arXiv:1608.06993, 2016.

[5]Chen J, Kang X, Liu Y, et al. Median Filtering Forensics Based on Convolutional Neural Networks. Signal Processing Letters IEEE, 2015

[6]Ye J, Ni J, Yi Y. Deep learning hierarchical representations for image steganalysis. IEEE Transactions on Information Forensics and Security, 2017, 12(11): 2545-2557.

[7]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 97se亚洲| 亚洲日本www| 国产欧美精品一区aⅴ影院| 天堂av综合网| 成人va亚洲va欧美天堂| 99re在线免费视频| 草草影院国产第一页| 欧美国产综合色视频| 亚洲免费毛片| www.精品国产| 国产黑丝一区| 巨熟乳波霸若妻中文观看免费 | 超碰aⅴ人人做人人爽欧美| 中文字幕有乳无码| 欧美天堂在线| 91探花在线观看国产最新| 国产一区二区三区精品欧美日韩| 亚洲男人的天堂在线| 午夜人性色福利无码视频在线观看| 2021最新国产精品网站| 国产欧美视频综合二区| www.亚洲国产| 亚洲欧美不卡| 欧美在线综合视频| 日韩久草视频| 国产爽妇精品| 久久久黄色片| 欲色天天综合网| 激情五月婷婷综合网| 91视频青青草| 国产玖玖视频| 伊人91视频| 欧美中文一区| 中文字幕在线欧美| 亚洲日韩久久综合中文字幕| 91在线无码精品秘九色APP| 亚洲成AV人手机在线观看网站| 亚洲精品动漫在线观看| 91视频区| 日本一区二区三区精品视频| 欧美日韩中文国产| 亚洲国产精品久久久久秋霞影院| 最新亚洲人成网站在线观看| 四虎永久在线视频| 色婷婷亚洲综合五月| 无码AV高清毛片中国一级毛片| 国产理论精品| 色哟哟色院91精品网站| 久久人午夜亚洲精品无码区| 99久视频| 久久天天躁狠狠躁夜夜躁| 好紧好深好大乳无码中文字幕| 无码网站免费观看| 国产成人综合亚洲网址| 成人综合久久综合| 在线观看热码亚洲av每日更新| 中文字幕无码制服中字| 天天综合天天综合| 久久精品最新免费国产成人| 欧美一级视频免费| 亚洲国模精品一区| 超薄丝袜足j国产在线视频| 色欲不卡无码一区二区| 久久综合五月| 不卡无码h在线观看| 国产黑丝视频在线观看| 一级不卡毛片| 激情乱人伦| а∨天堂一区中文字幕| 精品视频第一页| 国产无人区一区二区三区 | 色视频久久| 狠狠做深爱婷婷久久一区| 日本精品影院| 澳门av无码| 免费可以看的无遮挡av无码 | 亚洲娇小与黑人巨大交| 日韩精品资源| 97免费在线观看视频| 成人欧美日韩| 免费av一区二区三区在线| 国产丝袜啪啪|