999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN的SAR圖像目標(biāo)和場(chǎng)景分類(lèi)算法

2019-01-07 07:26:08
關(guān)鍵詞:分類(lèi)特征

, , , ,

(長(zhǎng)沙理工大學(xué)電氣與信息工程學(xué)院, 湖南長(zhǎng)沙 410114)

0 引言

合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)是一種基于飛機(jī)、衛(wèi)星、宇宙飛船等多種平臺(tái)的主動(dòng)式對(duì)地觀測(cè)系統(tǒng),能全天時(shí)、全天候?qū)Φ孛孢M(jìn)行觀測(cè)。隨著SAR系統(tǒng)與成像技術(shù)的不斷進(jìn)步與完善,大量的SAR圖像需要處理,因此從眾多基于復(fù)雜場(chǎng)景的圖像中獲取特征信息并應(yīng)用于目標(biāo)檢測(cè)、目標(biāo)分類(lèi)和識(shí)別、場(chǎng)景分類(lèi)等問(wèn)題成為了SAR圖像解譯領(lǐng)域的研究趨勢(shì)。傳統(tǒng)的SAR圖像場(chǎng)景分類(lèi)關(guān)鍵環(huán)節(jié)是為圖像建立一種有效的表示,使得這種表示既能穩(wěn)定地獲取反映場(chǎng)景類(lèi)別的結(jié)構(gòu)信息,又能抑制紋理等細(xì)節(jié)上的不顯著差異[1]。SIFT[2]和GIST[3]是兩種比較常見(jiàn)的圖像描述特征,對(duì)平移、縮放及遮擋等情況具有穩(wěn)定的辨別能力。以上針對(duì)SAR圖像的目標(biāo)和場(chǎng)景分類(lèi)的研究均基于人為設(shè)計(jì)的特征描述,對(duì)提取的特征在分類(lèi)問(wèn)題上的穩(wěn)定性要求較高,并且由于這些特征通常都是單一的基于目標(biāo)的底層或中層視覺(jué)特征,因此針對(duì)大的數(shù)據(jù)集往往無(wú)法獲得充分表征數(shù)據(jù)的本質(zhì)屬性,導(dǎo)致分類(lèi)性能較差。

深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,通過(guò)一種深層神經(jīng)網(wǎng)絡(luò)逐層提取數(shù)據(jù)的底層到高層特征,獲取數(shù)據(jù)的分布式特征表示。近年來(lái),深度學(xué)習(xí)模型在圖像識(shí)別與分類(lèi)領(lǐng)域展現(xiàn)出了強(qiáng)大的學(xué)習(xí)能力,在Image Net數(shù)據(jù)集上一種深度神經(jīng)網(wǎng)絡(luò)將錯(cuò)誤率從之前的26%降到了15%[4]。隨后許多學(xué)者在不同的應(yīng)用背景下提出了多種深度學(xué)習(xí)模型如棧式消噪自動(dòng)編碼機(jī)[5]、深度置信網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)等。卷積神經(jīng)網(wǎng)絡(luò)作為一種基于局部感受野視覺(jué)原理的深度學(xué)習(xí)框架,圖像可直接作為網(wǎng)絡(luò)的輸入,是一種端到端的網(wǎng)絡(luò)模型。目前卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域取得了廣泛的應(yīng)用,如人臉識(shí)別[6]、行為識(shí)別[7]、醫(yī)學(xué)圖像識(shí)別[8]等。

針對(duì)SAR圖像目標(biāo)和場(chǎng)景分類(lèi)問(wèn)題,本文提出一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)算法。首先針對(duì)訓(xùn)練樣本較少問(wèn)題,采用數(shù)據(jù)增強(qiáng)的方法從已有數(shù)據(jù)中產(chǎn)生一批新的數(shù)據(jù);然后利用卷積層局部感受野和權(quán)值共享的特點(diǎn)減少網(wǎng)絡(luò)參數(shù),并引入ReLU非線性激活函數(shù)加速網(wǎng)絡(luò)的收斂;針對(duì)高層卷積層參數(shù)過(guò)多的問(wèn)題,采用了一種多尺度模塊替代卷積層;輸出層采用卷積和全局均值池化的組合替代全連接層。實(shí)驗(yàn)結(jié)果表明,該算法具有較好的分類(lèi)效果。

1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是人工神經(jīng)網(wǎng)絡(luò)中的一種監(jiān)督學(xué)習(xí)網(wǎng)絡(luò),目前已成為當(dāng)前語(yǔ)音分析和圖像識(shí)別與分類(lèi)領(lǐng)域的研究熱點(diǎn)。CNN的權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類(lèi)似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。卷積網(wǎng)絡(luò)是為識(shí)別二維形狀而特殊設(shè)計(jì)的一個(gè)多層感知器,這種網(wǎng)絡(luò)結(jié)構(gòu)對(duì)平移、比例縮放、傾斜等圖像變形具有高度不變性。在CNN中,圖像的一小部分即局部感受野作為層級(jí)網(wǎng)絡(luò)結(jié)構(gòu)的底層輸入,每層通過(guò)一個(gè)數(shù)字濾波器去獲得觀測(cè)數(shù)據(jù)最顯著的特征,特征信息再依次傳輸?shù)礁叩膶印>矸e神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)示意圖如圖1所示。

2 改進(jìn)的基于CNN的SAR圖像分類(lèi)算法

2.1 數(shù)據(jù)增強(qiáng)

卷積神經(jīng)網(wǎng)絡(luò)作為一種由數(shù)據(jù)驅(qū)動(dòng)的監(jiān)督式學(xué)習(xí)網(wǎng)絡(luò),通常需要大量的數(shù)據(jù)作為支撐,才能獲得較好的分類(lèi)效果。針對(duì)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中因數(shù)據(jù)量較小引起的過(guò)擬合問(wèn)題,在訓(xùn)練樣本準(zhǔn)備階段,采用數(shù)據(jù)增強(qiáng)(Data Augmentation)的方法通過(guò)平移、翻轉(zhuǎn)、加噪聲等方法從已有數(shù)據(jù)中產(chǎn)生出一批新的數(shù)據(jù),人工增加了訓(xùn)練樣本的大小。

2.2 改進(jìn)的CNN網(wǎng)絡(luò)結(jié)構(gòu)

2.2.1 卷積層

在卷積層,基于局部感受野的人體視覺(jué)原理,將輸入圖像或上一層的特征圖與該層的卷積濾波器進(jìn)行卷積加偏置,通過(guò)一個(gè)非線性激活函數(shù)輸出卷積層的輸出特征圖(feature map):

(1)

fc=f(y)

(2)

式中,xl-1為上一層輸出的特征圖,k為卷積核,b為偏置,“*”為卷積計(jì)算,f()為非線性激活函數(shù),fc為卷積層的輸出特征圖。選擇ReLU函數(shù)作為卷積層的非線性激活函數(shù)。常用的非線性激活函數(shù)如sigmoid和tanh由于其正負(fù)飽和區(qū)的梯度都接近于0,會(huì)出現(xiàn)梯度彌散[9]問(wèn)題,而ReLU函數(shù)在對(duì)應(yīng)輸入大于0的部分梯度為常數(shù),因此有效地避免了梯度彌散的出現(xiàn)[10]。

2.2.2 池化層

在卷積神經(jīng)網(wǎng)絡(luò)中,由于圖像直接作為網(wǎng)絡(luò)的輸入且卷積濾波器會(huì)輸出大量的特征圖,為了減少待處理數(shù)據(jù)的數(shù)量,需要對(duì)網(wǎng)絡(luò)中產(chǎn)生的特征圖進(jìn)行降維。在池化層,對(duì)卷積層的輸出特征圖進(jìn)行下采樣,實(shí)現(xiàn)數(shù)據(jù)的降維。均值和最大值是目前常用的兩種池化方式。本算法采用最大值池化作為下采樣方式,輸出池化區(qū)域中的最大值:

Rl=max(Rl-1)

(3)

式中,Rl-1表示上一層的輸出特征圖中對(duì)應(yīng)的一個(gè)池化區(qū)域,Rl表示該池化區(qū)域的最大值下采樣輸出。

2.2.3 多尺度卷積模塊

卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域已經(jīng)展現(xiàn)了其強(qiáng)大的學(xué)習(xí)能力,目前提高卷積神經(jīng)網(wǎng)絡(luò)性能最直接的方法就是增加網(wǎng)絡(luò)的深度,以提升網(wǎng)絡(luò)對(duì)數(shù)據(jù)的表征能力。但網(wǎng)絡(luò)深度的增加意味著參數(shù)的增加,這使得擴(kuò)大后的網(wǎng)絡(luò)易出現(xiàn)過(guò)擬合的問(wèn)題。針對(duì)這一問(wèn)題,在參數(shù)較多的高層卷積層,采用一種多尺度卷積模塊(Inception)[11]替代高層卷積層,在保證網(wǎng)絡(luò)深度的同時(shí),減少了網(wǎng)絡(luò)參數(shù)數(shù)量。多尺度卷積模塊示意圖如圖2所示。

該模塊包含3種尺度的卷積和池化操作,其中3×3的卷積和3×3的最大值池化在模塊中作為過(guò)濾器實(shí)現(xiàn)數(shù)據(jù)特征提取,1×1的卷積主要起到特征圖降維的效果。通過(guò)多尺度卷積模塊的引入,增加了網(wǎng)絡(luò)的深度和寬度,同時(shí)相比于傳統(tǒng)卷積層單一尺度的卷積操作,多尺度模塊的輸出特征圖包含了更豐富的特征信息。

2.2.4 卷積和全局均值池化

傳統(tǒng)的CNN通過(guò)全連接層整合特征圖信息輸出分類(lèi)結(jié)果,而CNN中大部分訓(xùn)練參數(shù)集中于全連接層,過(guò)多的網(wǎng)絡(luò)參數(shù)往往帶來(lái)訓(xùn)練收斂效果差和過(guò)擬合的問(wèn)題。在本文算法中,采用卷積層和全局均值池化(Global Average Pooling,GAP)的組合作為CNN的輸出層,卷積層輸出為個(gè)數(shù)為N的特征圖(分別對(duì)應(yīng)樣本的N個(gè)類(lèi)別),然后通過(guò)一個(gè)全局均值池化將這N個(gè)特征圖降維成1×1的尺寸,最后采用Softmax進(jìn)行歸一化,輸出對(duì)應(yīng)類(lèi)別的概率。由于卷積是一種局部連接的神經(jīng)元輸出,相比較與全連接層,這種組合能有效地減少網(wǎng)絡(luò)的參數(shù)。Softmax回歸模型是logistic回歸模型在多分類(lèi)問(wèn)題上的推廣,對(duì)于給定的輸入x,Softmax的回歸模型定義如下:

(4)

式中,zk表示第k個(gè)神經(jīng)元的輸出,wT和b分別表示權(quán)重和偏置。由式(4)可以看出,Softmax回歸模型把神經(jīng)元的輸出映射到0~1之間,同時(shí)起到了歸一化的作用。該算法中誤差函數(shù)定義為交叉熵誤差函數(shù):

E=-∑kyklnzk

(5)

式中,zk表示神經(jīng)元實(shí)際輸出,yk表示對(duì)應(yīng)于第k類(lèi)的真實(shí)值,取值為0或1。

2.3 算法流程

圖3為改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別算法流程圖。具體步驟如下:

1) SAR圖像數(shù)據(jù)集通過(guò)數(shù)據(jù)增強(qiáng)處理,得到的擴(kuò)充訓(xùn)練樣本作為卷積神經(jīng)網(wǎng)絡(luò)的輸入;

2) 根據(jù)高斯分布隨機(jī)初始化方法,對(duì)卷積層和全連接層的權(quán)重和偏置進(jìn)行初始化;

3) 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練:

① 根據(jù)式(1)、式(2)計(jì)算卷積,采用ReLU函數(shù)對(duì)卷積結(jié)果進(jìn)行非線性,得到卷積層的特征圖;

② 根據(jù)式(3)對(duì)上一層的特征圖進(jìn)行最大值下采樣,輸出池化層的特征圖;

③ 將經(jīng)卷積和池化操作提取到的特征圖輸入到多尺度卷積模塊,得到該層的特征圖輸出;

④ 將先前層提取到的特征圖通過(guò)卷積和全局均值池化,輸出對(duì)應(yīng)各類(lèi)的特征圖,最后利用Softmax回歸模型輸出對(duì)應(yīng)類(lèi)別概率,根據(jù)式(4)得到識(shí)別結(jié)果;

⑤ 根據(jù)式(5)計(jì)算網(wǎng)絡(luò)權(quán)值和偏置的梯度,采用梯度下降法進(jìn)行誤差反向傳播,從而調(diào)整網(wǎng)絡(luò)參數(shù)。

3 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證算法的有效性,分別采用美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)支持的MSTAR公開(kāi)數(shù)據(jù)集和陜西渭南地區(qū)的高分辨率SAR圖像進(jìn)行目標(biāo)和場(chǎng)景分類(lèi)實(shí)驗(yàn)。實(shí)驗(yàn)基于caffe深度學(xué)習(xí)框架構(gòu)造卷積神經(jīng)網(wǎng)絡(luò),具體環(huán)境為:i7-6700(3.4 GHz,四核),16 GB內(nèi)存,卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程采用GPU加速。

3.1 MSTAR 10類(lèi)目標(biāo)識(shí)別結(jié)果與分析

3.1.1 卷積神經(jīng)網(wǎng)絡(luò)框架配置與數(shù)據(jù)分布

針對(duì)MSTAR數(shù)據(jù)集,構(gòu)建一個(gè)包含5個(gè)卷積層、5個(gè)池化層和1個(gè)多尺度卷積模塊的卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)框架配置如表1所示。將數(shù)據(jù)增強(qiáng)后的MSTAR數(shù)據(jù)集訓(xùn)練樣本直接作為網(wǎng)絡(luò)的輸入,最終輸出層輸出一個(gè)N維的向量,對(duì)應(yīng)于N個(gè)類(lèi)別的概率。

表1 CNN框架配置

MSTAR數(shù)據(jù)集是通過(guò)高分辨率的聚束式合成孔徑雷達(dá)采集到的靜止車(chē)輛的SAR切片圖像,包括多類(lèi)目標(biāo)SAR圖像數(shù)據(jù)。實(shí)驗(yàn)中,訓(xùn)練樣本為17°方位角的SAR圖像數(shù)據(jù),測(cè)試樣本為15°方位角的SAR圖像數(shù)據(jù)。在10類(lèi)目標(biāo)識(shí)別實(shí)驗(yàn)中,實(shí)驗(yàn)數(shù)據(jù)包括BMP2,BTR70,T72,2S1,BRDM2,ZSU234,BTR60,D7,T62,ZIL131十類(lèi)目標(biāo)數(shù)據(jù)。采用數(shù)據(jù)增強(qiáng)對(duì)訓(xùn)練樣本進(jìn)行擴(kuò)充,通過(guò)像素平移的方法使得每類(lèi)訓(xùn)練數(shù)據(jù)在原有基礎(chǔ)上擴(kuò)充了5倍,10類(lèi)目標(biāo)測(cè)試與訓(xùn)練數(shù)據(jù)分布如表2所示。

表2 10類(lèi)目標(biāo)測(cè)試與訓(xùn)練數(shù)據(jù)分布

采用批量隨機(jī)梯度下降法(Mini-Batch Stochastic Gradient Descent,MSGD)訓(xùn)練網(wǎng)絡(luò),batchsize設(shè)置為25,學(xué)習(xí)率設(shè)置為0.001,訓(xùn)練迭代60 000次,10類(lèi)目標(biāo)的最終分類(lèi)結(jié)果如表3所示。

表3 10類(lèi)目標(biāo)分類(lèi)結(jié)果

3.1.2 不同框架對(duì)比

為了更好地評(píng)測(cè)本文算法提出的框架的性能,構(gòu)建一個(gè)與本文算法框架具有相同網(wǎng)絡(luò)層數(shù)的CNN框架進(jìn)行對(duì)比。在網(wǎng)絡(luò)的前4個(gè)卷積層,對(duì)比框架與本文算法框架具有相同的卷積核尺寸和數(shù)量;為了對(duì)比不同結(jié)構(gòu)作為網(wǎng)絡(luò)輸出層的效果,對(duì)比框架的輸出層設(shè)置為全連接層。兩個(gè)CNN框架具體參數(shù)如表4所示,其中CNN-1為本文算法的框架,CNN-2為對(duì)比框架,加粗?jǐn)?shù)字指網(wǎng)絡(luò)中的訓(xùn)練參數(shù)。

表4 網(wǎng)絡(luò)框架參數(shù)對(duì)比

由表4可以計(jì)算出CNN-1網(wǎng)絡(luò)訓(xùn)練參數(shù)為 4 930,CNN-2網(wǎng)絡(luò)訓(xùn)練參數(shù)為35 900,CNN-1相比較于CNN-2參數(shù)減少了86%。兩個(gè)CNN框架均基于caffe平臺(tái)構(gòu)建,訓(xùn)練樣本為MSTAR的10類(lèi)數(shù)據(jù),訓(xùn)練過(guò)程最大迭代次數(shù)為60 000次,訓(xùn)練和測(cè)試的訓(xùn)練誤差和測(cè)試正確率曲線如圖4和圖5所示。

由訓(xùn)練誤差曲線可以看出,兩個(gè)CNN框架在訓(xùn)練迭代15 000次后誤差已基本達(dá)到收斂,其中CNN-1收斂速度較慢,可能的原因是多尺度模塊的引入,導(dǎo)致梯度在反向傳播時(shí)計(jì)算量增加。由測(cè)試正確率曲線可以看出,在迭代約24 000次后,CNN-1的測(cè)試正確率已超過(guò)CNN-2,且正確率大小整體趨于穩(wěn)定。

3.2 高分辨率SAR圖像場(chǎng)景分類(lèi)

實(shí)驗(yàn)采用陜西渭南地區(qū)的機(jī)載高分辨率SAR圖像(分辨率為1 m)進(jìn)行場(chǎng)景分類(lèi),通過(guò)Photoshop工具對(duì)尺寸為7 420×10 788的原始高分辨率SAR圖像截取出667張包含3類(lèi)SAR圖像場(chǎng)景的局部SAR圖像,尺寸為500×500,以8∶2的比例分配給卷積神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練及測(cè)試樣本。3類(lèi)(農(nóng)田、城鎮(zhèn)、高架橋)SAR局部場(chǎng)景圖像如圖6所示。

針對(duì)高分辨率SAR圖像場(chǎng)景分類(lèi)問(wèn)題,構(gòu)建一個(gè)卷積神經(jīng)網(wǎng)絡(luò)如表5所示。訓(xùn)練樣本準(zhǔn)備階段,首先采用最大值下采樣池化對(duì)尺寸為500×500的局部SAR圖像進(jìn)行降維;然后通過(guò)數(shù)據(jù)增強(qiáng)的方法,將圖像分別旋轉(zhuǎn)4個(gè)角度,使得訓(xùn)練樣本的數(shù)量擴(kuò)充為原來(lái)的4倍。

表5 CNN框架配置

采用批量隨機(jī)梯度下降法訓(xùn)練網(wǎng)絡(luò),batchsize設(shè)置為27,學(xué)習(xí)率設(shè)置為0.001,訓(xùn)練迭代50 000次,3類(lèi)SAR場(chǎng)景的最終測(cè)試分類(lèi)結(jié)果如表6所示。由表6所示可以得出本文算法在3類(lèi)SAR圖像場(chǎng)景分類(lèi)上取得了較好的分類(lèi)精度。

表6 場(chǎng)景分類(lèi)結(jié)果

4 結(jié)束語(yǔ)

本文針對(duì)SAR圖像目標(biāo)和場(chǎng)景分類(lèi)問(wèn)題,提出了一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像分類(lèi)算法。針對(duì)數(shù)據(jù)集訓(xùn)練樣本較少的問(wèn)題,采用數(shù)據(jù)增強(qiáng)的方法人工地增加訓(xùn)練樣本的大小;為了解決卷積神經(jīng)網(wǎng)絡(luò)中因網(wǎng)絡(luò)參數(shù)過(guò)多導(dǎo)致的過(guò)擬合問(wèn)題,采用一種多尺度卷積模塊替代高層卷積層,在輸出層采用卷積和全局均值池化的組合替代全連接層。分別對(duì)MSTAR數(shù)據(jù)集和陜西渭南地區(qū)的高分辨率SAR圖像進(jìn)行目標(biāo)和場(chǎng)景分類(lèi)實(shí)驗(yàn),本文算法針對(duì)MSTAR 10類(lèi)目標(biāo)和高分辨率SAR圖像3類(lèi)場(chǎng)景的分類(lèi)正確率分別達(dá)到了98.89%和91.85%;通過(guò)構(gòu)建相同深度的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明,本文算法有效地解決了網(wǎng)絡(luò)的過(guò)擬合問(wèn)題。

猜你喜歡
分類(lèi)特征
抓住特征巧觀察
分類(lèi)算一算
垃圾分類(lèi)的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
分類(lèi)討論求坐標(biāo)
數(shù)據(jù)分析中的分類(lèi)討論
教你一招:數(shù)的分類(lèi)
抓住特征巧觀察
主站蜘蛛池模板: 久久美女精品国产精品亚洲| 狠狠ⅴ日韩v欧美v天堂| 免费在线播放毛片| 伊人丁香五月天久久综合 | 国产老女人精品免费视频| 国产经典三级在线| 国内精品久久人妻无码大片高| 综合网久久| 久久6免费视频| 高清无码不卡视频| 久久精品人人做人人爽电影蜜月| 国产高潮流白浆视频| 日韩精品视频久久| 99热这里只有精品免费国产| 亚洲小视频网站| 欧美黄网站免费观看| 色婷婷色丁香| www.99精品视频在线播放| 99re在线视频观看| 91小视频在线观看免费版高清| 国产亚洲精| 亚洲一区二区三区国产精品| 一级在线毛片| 1级黄色毛片| 伊人天堂网| 在线免费观看AV| 国产精品网曝门免费视频| 久久久久亚洲Av片无码观看| 久久频这里精品99香蕉久网址| 99人妻碰碰碰久久久久禁片| 日韩在线视频网站| 精品亚洲欧美中文字幕在线看| 日本影院一区| 四虎国产精品永久一区| 精品免费在线视频| 亚洲一区二区三区在线视频| a亚洲视频| 中文字幕 91| 国产伦片中文免费观看| 久久99精品久久久大学生| 成人亚洲视频| 最新痴汉在线无码AV| 亚洲高清无码精品| 成人在线第一页| 无码aaa视频| 2021天堂在线亚洲精品专区 | 中文字幕在线永久在线视频2020| 永久毛片在线播| 国产玖玖视频| 亚洲欧美成人综合| 免费无遮挡AV| 风韵丰满熟妇啪啪区老熟熟女| 国产精品分类视频分类一区| 欧美一级爱操视频| 天天综合网站| 美女国产在线| 久久久波多野结衣av一区二区| 欧美午夜在线播放| 国产毛片高清一级国语 | 亚洲综合专区| 国产不卡国语在线| 91精品国产丝袜| 国产剧情伊人| 国产综合在线观看视频| 亚洲性视频网站| 欧美精品亚洲精品日韩专区| 99这里只有精品免费视频| 亚洲色偷偷偷鲁综合| 国产精选小视频在线观看| 九九热这里只有国产精品| 亚洲中文精品人人永久免费| 一本大道视频精品人妻| 亚洲国产av无码综合原创国产| 欧美成人免费一区在线播放| 欧美国产综合色视频| 日韩不卡高清视频| 国内精品免费| 日韩欧美91| 香蕉视频在线观看www| 国产一区二区三区在线观看免费| 欧美日韩福利| 国产午夜看片|