999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于導向重構(gòu)與降噪稀疏自編碼器的合成孔徑雷達目標識別

2020-11-24 09:30:36王健秦春霞楊珂任萍
兵工學報 2020年9期

王健,秦春霞,楊珂,任萍

(1.西北工業(yè)大學 電子與信息學院,陜西 西安 710129;2.西北工業(yè)大學 第365研究所,陜西 西安 710065)

0 引言

近年來,隨著深度學習技術(shù)在合成孔徑雷達(SAR)目標識別中的應用研究,針對SAR圖像目標識別中影響精度特征提取和分類器設計兩個關(guān)鍵因素,國內(nèi)外學者提出了許多SAR目標識別算法。馮秋晨等[1]將卷積神經(jīng)網(wǎng)絡(CNN)和多尺度特征提取模塊應用于SAR圖像的變體目標識別。Chen等[2]將CNN全連接方式替換為稀疏連接形式,采用Dropout策略減少卷積層參數(shù)并進行了特征提取。徐少平等[3]基于深度置信網(wǎng)絡(DBN)訓練隨機脈沖噪聲檢測(RVIN檢測器)預測模型,將特征矢量映射為噪聲類型標簽。Deng等[4]將歐氏距離限制與自編碼器(AE)相結(jié)合,增加了樣本異類間距,減小了類內(nèi)間距。Kang等[5]采用貪婪分層訓練對稀疏自編碼器(SAE)進行預訓練并用Softmax分類器完成了目標分類。丁軍等[6]基于同類數(shù)據(jù)的類內(nèi)間距較小和異類數(shù)據(jù)類間距較大的思想,在受限玻爾茲曼機(RBM)中引入相似性約束,并在RBM學習過程中加入了判決信息。崔宗勇[7]在對數(shù)最大似然目標函數(shù)的基礎上加入L0.5范數(shù)正則化約束,得到更為稀疏的特征表示。徐靜[8]基于平移不變Shearlet變換的SAR圖像目標識別,對低頻和高頻子帶特征的多尺度分析、加權(quán)融合處理和稀疏表示模型進行了分類。Yu等[9]采用多流型低秩近似(MLA)進行SAR特征提取,將局部稀疏表示(LSR)作為分類判決輸出。楊龍等[10]采用基于像素對像素生成式對抗網(wǎng)絡(GAN)的數(shù)據(jù)增廣技術(shù)和改進單次多盒檢測器的SAR艦船檢測算法進行SAR目標識別。Song等[11]采用算子SAR圖像目標識別的梯度方向直方圖算子(SAR-HOG)進行SAR特征提取,分別采用監(jiān)督判決字典學習和稀疏表示(SDDLSR)、支持向量機(SVM)、最近鄰分類器(KNN)、稀疏表示分類(SRC)和標簽一致的核奇異值分解(LCK-SVD)作為分類器輸出。上述算法能夠?qū)藴虱h(huán)境中的SAR目標達到較理想的識別率,但其泛化能力較弱,計算復雜度也比較高,無法滿足實時快速的SAR目標識別[12]。

針對上述問題,本文提出一種基于導向重構(gòu)與降噪稀疏自編碼器(DSAE)的SAR目標分類算法。首先,利用導向重構(gòu)算法對SAR圖像進行兩尺度融合預處理,生成一維圖像矢量并作歸一化處理,降低圖像輸出特征的維度并提高預處理的速度;然后,采用減少DSAE隱層神經(jīng)元方式對圖像進行低維特征抽取和識別,有效降低算法的復雜度;最后,采用Softmax分類器進行分類處理。實驗測試結(jié)果表明,本文算法不僅可以提高目標識別性能以及泛化能力,而且能夠降低AE的隱層神經(jīng)元數(shù)量和計算復雜度,網(wǎng)絡結(jié)構(gòu)也得到改進和優(yōu)化。

1 基于導向濾波器的SAR圖像重構(gòu)算法

對于目標識別,通過對源圖像進行重構(gòu)預處理,可突出異類目標圖像之間的差異性。本文采用基于導向濾波(GF)器特征映射圖對圖像進行兩尺度圖像重構(gòu)[13]。GF是基于線性邊緣保持濾波算法,對圖像的處理不依賴于濾波核的大小,從而避免在濾波過程中產(chǎn)生振鈴效應。基于GF器的SAR圖像重構(gòu)算法以局部的線性模型為基礎,將GF作為引導圖像,輸出圖像不僅保留了輸入圖像的大部分特征,而且可最大程度地提取引導圖像的紋理特征。相對于現(xiàn)有的一些算法,導向重構(gòu)算法能夠更好地保留SAR圖像像素的空間連續(xù)性特征。本文SAR目標分類的識別算法利用源圖像做導向重構(gòu)的最終目標,是為了重點突出不同種類SAR樣本特征的差異性,GF器進行兩尺度重構(gòu)的核心部分在于構(gòu)造SAR樣本特征的權(quán)值映射。

首先,對源圖像In(n為源圖像個數(shù))做拉普拉斯濾波處理,將處理后的高頻圖像取絕對值,并作局部平均特征映射圖Sn:

Sn=|In×L|×gr,σ,

(1)

式中:L為3×3階拉普拉斯濾波器;gr,σ為標準差為σ的(2r+1)×(2r+1)階高斯低通濾波器,r和σ均設置為5[6].通過Sn可以有效表征圖像高頻細節(jié)分量的顯著性水平,Sn的權(quán)重圖Pn如下:

(2)

(3)

(4)

2 基于DSAE的低維特征抽取和正則化分類輸出

AE是一種無監(jiān)督的學習網(wǎng)絡,用低維的特征失量對原始圖像進行重構(gòu),可極大地減少特征之間的冗余信息。AE在提取低維特征的過程中增加稀疏約束就構(gòu)成稀疏AE.當標記的樣本數(shù)量比較小時,無監(jiān)督稀疏AE可以防止過擬合,有效提高網(wǎng)絡的非線性映射能力。

2.1 基于DSAE的低維特征抽取

H=sf(WX+Bh),

(5)

Y=g(H)=sg(WTH+By),

(6)

式中:sf為編碼器的非線性激活Sigmoid函數(shù);W為權(quán)值矩陣,W的維度為dh×dx;Bh為偏置向量,Bh∈Rdh;g(H)為解碼器非線性映射;sg為解碼器的激活函數(shù);By為解碼器的偏置向量,By∈Rdx.

由于編碼器具有很強的非線性映射和重構(gòu)表征能力,在訓練AE參數(shù)W、Bh和By的過程中,伴隨網(wǎng)絡深度和神經(jīng)元數(shù)量的增加,DSAE對SAR樣本的低維度表征能力越優(yōu),同時也加重了網(wǎng)絡的過擬合,影響了訓練網(wǎng)絡的速度和SAR樣本的分類性能。Dropout算法[16]是解決過擬合問題的一種高效方法,將DSAE與Dropout相結(jié)合,網(wǎng)絡的泛化性能有所改善,能夠降低算法的復雜度。為此,采用正則化Dropout降噪自編碼器(DAE)改善網(wǎng)絡泛化性能,輸入層、隱層和輸出層神經(jīng)元的映射關(guān)系如下:

rl,j~Be(P),

(7)

(8)

(9)

Yl+1,i=f(Zl+1,i),

(10)

為了保證隱層神經(jīng)元提取SAR樣本具有魯棒性的低維特征,改進算法的泛化能力,引入DAE.首先在訓練樣本中添加不同程度的隨機噪聲,然后誘導AE去學習如何減少噪聲對原始樣本的影響,并最大限度地降低訓練樣本數(shù)據(jù)與測試樣本數(shù)據(jù)的差異性,從而實現(xiàn)更加魯棒的輸出特征表示。由于DAE在訓練過程中就盡可能去降低噪聲的干擾,DAE的泛化能力比一般編碼器要強。具體實現(xiàn)步驟為:先以一定概率分布(一般取二項分布)對樣本元素隨機置0,并通過損失函數(shù)不斷迭代更新權(quán)值、計算AE輸出,再與原始SAR圖像數(shù)據(jù)做誤差迭代。其中,DAE隱層的輸出就是編碼器的低維特征,通過(11)式計算最小代價函數(shù),解碼器就能夠無失真地從編碼器的低維特征重建出SAR樣本。AE的誤差函數(shù)可以由下式表示:

(11)

式中:JAE(θ)為樣本重建誤差函數(shù),θ∈{W,Bh,By}為自編碼器學習權(quán)重與偏置等參數(shù);L(x,y)為損失函數(shù),x、y為輸入數(shù)據(jù)和重構(gòu)數(shù)據(jù);g(f(x))為懲罰函數(shù)。AE的學習過程就是在生成重構(gòu)的解碼器損失函數(shù)L(x,y)中采用懲罰函數(shù)g(f(x)),使得g(f(x))和x的差異最小化。由此可知,AE的目的就是找到一組最優(yōu)的參數(shù)θ,以滿足輸入樣本與提取的低維特征之間重建的誤差最小。

2.2 基于正則化Softmax的分類輸出

Softmax分類器是一種滿足多項式分布的基于監(jiān)督學習的判別模型,是一種將解決二分類問題的Logistic回歸分類模型推廣到多分類問題的形式。對于訓練集,{(x1,y1),…,(xn,yn),…,(xN,yN)},xn表示當訓練集經(jīng)過DSAE后所提取的一個維度為dx的一維特征矢量,yn為數(shù)據(jù)的標簽值,yn∈{1,2,…,q},q為樣本的種類(q取值為3或者10)。假設輸出函數(shù)hW(x)為

(12)

(13)

損失函數(shù)J(W)的第1項為存在冗余的權(quán)重參數(shù),1{·}為取指函數(shù),對于式中大括號取值,當式中值為真時該函數(shù)的值為1,相反情況下則為0;第2項為正則化約束的參數(shù)懲罰項,λ為參數(shù)懲罰項系數(shù)。參數(shù)yn為n維,模型參數(shù)Wnm為q×(M+1)維。最初設計的損失函數(shù)J(W)只有第1項,不滿足求解最優(yōu)參數(shù)條件的凸函數(shù)條件,通過添加第2項懲罰項,損失函數(shù)J(W)就變?yōu)閲栏裢购瘮?shù),即在分類器權(quán)重系數(shù)中加入正則化約束可求解最優(yōu)化的解,這里設定λ=10-4.通過梯度下降法對正則化Softmax的損失函數(shù)J(W)進行求導,可得到目標輸出函數(shù)。

3 基于GF重構(gòu)與DSAE的SAR目標識別算法

為了能夠識別出SAR圖像中的目標,設計一種能夠從輸入圖像中捕獲或增強這些細微差別的算法,以進一步提高目標的識別精度。本文算法原理如圖1所示。首先,利用導向重構(gòu)算法對SAR圖像做預處理,這種預處理不僅可以降低輸出特征的維度,而且與Shearlet變換的降噪方法相比,預處理的速度更快,識別性能更優(yōu);然后,對重構(gòu)SAR圖像的中心進行裁剪固定大小圖像,構(gòu)成訓練集中的一維矢量樣本,再用DSAE對圖像進行低維特征提取;最后,用正則化Softmax分類器對SAR目標進行分類處理。

圖1 基于導向重構(gòu)與DSAE的SAR目標識別算法Fig.1 SAR target recognition algorithm based on guided filter reconstruction and denoising sparse autoencoder

利用GF重構(gòu)與DSAE算法對SAR目標進行識別,當網(wǎng)絡訓練參數(shù)對訓練數(shù)據(jù)過度擬合時會降低測試集擬合能力和識別性能,造成網(wǎng)絡泛化性能差。因此需要解決由有限的SAR數(shù)據(jù)集引起的模型訓練過擬合問題。在研究導向重構(gòu)與DSAE訓練的過程中,采用Dropout操作消除和弱化隱層神經(jīng)元之間的聯(lián)合適應性,可以實現(xiàn)更好的泛化能力。本文通過實驗驗證,當在Softmax層之前添加Dropout層并設置Dropout為0.5時,可以丟棄一部分神經(jīng)元,這種方式可以在訓練階段提高模型泛化能力。

4 仿真實驗與結(jié)果分析

為驗證本文算法的性能,采用MSTAR數(shù)據(jù)集中的3類樣本庫,為便于比較本文算法和參考文獻[3,5-8,11]的相關(guān)算法識別性能,訓練集和測試集分別采用俯仰角分別為17°和15°的數(shù)據(jù)。3類目標包括BMP-2步兵戰(zhàn)車(包含型號SN-9563、SN-9566和SN-C21)、T-72坦克(包含型號SN-132、SN-812和SN-S7)、BTR-70裝甲運輸車(包含型號SN-C71)等7個樣本,分別如表1和表2所示。測試環(huán)境為Intel(R) Core(TM) i5-3230M CPU@2.6 GHz,內(nèi)存為4 GB,采用MATLAB R2016a軟件編程。

表1 3類SAR目標訓練集和測試集樣本數(shù)據(jù)Tab.1 Dataset description of three types of SAR targets

表2 待識別的3類目標光學圖像和SAR圖像Tab.2 SAR images and their corresponding optical images of three types of targets

4.1 Dropout參數(shù)設置對識別率影響

為解決過擬合問題,本文算法不采用修改代價函數(shù)方式解決,而是采用Dropout操作,隨機將隱層神經(jīng)元節(jié)點以一定比例數(shù)目使之失效。利用本操作可隨機刪除一些隱層節(jié)點,使之不參與整個運算過程來減少對網(wǎng)絡間各參數(shù)的依賴性,以達到更稀疏的表達網(wǎng)絡學習目的,從而減少神經(jīng)元之間的過度擬合。為測試實驗網(wǎng)絡神經(jīng)元按照一定比例失效對識別率的影響,設置Dropout為不同參數(shù)時的測試結(jié)果如表3所示。測試的導向重構(gòu)與DSAE算法其他參數(shù)設置步驟為:先將128×128 SAR圖像中心裁剪為32×32大小圖像塊,再矢量化為1×1 024一維矢量,最后采用本文導向重構(gòu)與DSAE算法循環(huán)訓練并測試3類目標的識別率。由表3可以看出,Dropout神經(jīng)元失效比例從0開始逐漸增大,網(wǎng)絡識別率逐漸提高,當Dropout失效比例為0.5時識別率最高,隨后開始下降。這種利用在網(wǎng)絡隱層中采用Dropout的處理方式,有效減少了神經(jīng)元之間復雜的共適性,因此可提高網(wǎng)絡模型泛化性。

表3 Dropout參數(shù)設置對3類目標識別率的影響Tab.3 Target recognition rates at different dropout ratios

4.2 重構(gòu)預處理方法對識別率影響

首先利用GF重構(gòu)算法對128×128圖像做重構(gòu)預處理,其次將預處理后SAR圖像中心裁剪固定32×32或者64×64大小兩種圖像塊,然后分別矢量化成1×1 024或者1×4 096兩種一維矢量,以構(gòu)成訓練集樣本,最后分別采用Shearlet[8]和本文算法進行測試,塊大小為12,循環(huán)次數(shù)為15次,Dropout值為0.5,噪聲系數(shù)為0.

3類目標識別率如表4所示。當隱層神經(jīng)元數(shù)量相同時,采用Softmax分類器的Initial-DSAE-Softmax算法相較采用Sigmoid分類器的Initial-DSAE-Sigmoid算法進行特征提取和識別率較高;而Initial-DSAE-Softmax算法要達到與本文算法接近的性能,需要增加隱層神經(jīng)元的數(shù)量;同時,Shearlet-DSAE-Softmax算法采用Shearlet變換對訓練集進行降噪處理和多尺度重構(gòu)[8],比Initial-DSAE-Softmax算法性能更好;相較包含復雜的非下采樣金字塔分解與Shearlet變換濾波器組操作的Shearlet-DSAE-Softmax算法,本文利用導向重構(gòu)預處理算法,算法復雜度低,目標識別率更高,速度更快,算法識別性能更優(yōu)。

表4 相同網(wǎng)絡結(jié)構(gòu)不同重構(gòu)預處理方法的3類目標識別率Tab.4 Target recognition rates of different reconstruction preprocessing methods for the same network structure

為測試兩種預處理方法對于識別性能影響,分別選擇SN-9563、SN-C71和SN-132,3類目標兩種預處理混淆矩陣(即誤差矩陣)。由圖2可見,對于圖中4種網(wǎng)絡結(jié)構(gòu),將BTR-70誤判為BMP-2的概率(分別為0.015 4,0.025 6,0.041 0,0.035 9)大于誤判為T-72的概率(分別為0,0.015 3,0.005 1,0.015 3),T-72誤判為BMP-2的概率(分別為0.015 4,0.015 4,0.056 4,0.051 3)大于誤判為BTR-70的概率(分別為0,0,0,0.005 1)。表明BTR-70與T-72兩類目標之間的類間相似程度小,BMP-2與BTR-70之間、BMP-2與T-72之間的類間相似性大。同時,采用導向重構(gòu)預處理的GF-SAE-Softmax網(wǎng)絡結(jié)構(gòu),其將BTR-70誤判為BMP-2的概率以及將T-72誤判為BMP-2的概率要小于Initial-Sigmoid和Initial-Softmax的網(wǎng)絡結(jié)構(gòu)。由此可見,通過導向重構(gòu)預處理可提高BMP-2與BTR-70之間、BMP-2與T-72兩類目標之間的類間差異性,進一步提高了3類SAR目標的識別性能。

圖2 兩種預處理方法對應BMP-2步兵戰(zhàn)車、BMP-70裝甲運輸車、T-72坦克3類目標的混淆矩陣Fig.2 Confusion matrixes of three types of targets for two types of preprocessing methods

4.3 降噪和非DSAE結(jié)構(gòu)對識別率的影響

為測試在相同導向重構(gòu)預處理方法下采用SAE和DSAE兩種網(wǎng)絡結(jié)構(gòu)對識別性能的影響,設置循環(huán)次數(shù)為15次、Dropout值為0.5、學習率變化因子為0.96等參數(shù)不變,改變DSAE各層的神經(jīng)元數(shù)量。測試結(jié)果如表5所示。由表5可見,未采用DSAE(噪聲系統(tǒng)為0),輸入神經(jīng)元為1 024網(wǎng)絡識別性能最優(yōu);采用DSAE(噪聲系統(tǒng)為0.3),輸入神經(jīng)元為1 024網(wǎng)絡的識別、魯棒性特征提取和泛化能力都得到進一步提高。

表5 相同預處理方法不同網(wǎng)絡結(jié)構(gòu)的3類目標識別性能Tab.5 Three types of target recognition performances of different network structures with the same preprocessing methods

4.4 導向重構(gòu)DSAE的相關(guān)參數(shù)對識別率的影響

利用導向重構(gòu)算法對SAR圖像做重構(gòu)預處理,采用DSAE提取SAR圖像的低維魯棒性特征并用Softmax分類器對SAR目標分類處理,分別進行以下3種實驗測試:1)循環(huán)次數(shù)1次,學習率變化因子為0.96,通過隱層網(wǎng)絡節(jié)點的Dropout設置為0.5時丟棄上層的神經(jīng)元,在訓練階段提高模型泛化能力,網(wǎng)絡結(jié)構(gòu)塊不同的3類目標識別率如表6所示;2)保持網(wǎng)絡結(jié)構(gòu)不變,當網(wǎng)絡輸入層為4 096時,塊大小設置為24,Dropout設置為0,網(wǎng)絡參數(shù)不同的最優(yōu)識別率如表7所示;3)保持相關(guān)測試參數(shù)不變,數(shù)據(jù)缺損下算法魯棒性如表8所示。

表6 網(wǎng)絡結(jié)構(gòu)塊不同的3類目標識別率Tab.6 Three types of target recognition rates for different network structure blocks

表7 參數(shù)不同的3類目標識別率Tab.7 Three different types of target recognition rates

由表6和表7可見,當噪聲系數(shù)及網(wǎng)絡結(jié)構(gòu)相同時,雖然DSAE和權(quán)值固定前饋神經(jīng)網(wǎng)絡的學習率不同,但其識別性能相同。由表8可見,當噪聲系數(shù)由0增加到0.35時數(shù)據(jù)缺損,與原SAR數(shù)據(jù)樣本相比,通過對輸入的訓練樣本部分置0處理,相當于對樣本加入了不同程度的缺損,不僅能夠讓噪聲對結(jié)果的影響大大降低,而且缺損數(shù)據(jù)在一定程度上減少了訓練集與測試樣本的差異,算法的識別性能也從96.25%增加到97.96%,識別性能逐漸得到提高;當噪聲系數(shù)進一步增加到0.40時,識別性能并不滿足單調(diào)遞增性,網(wǎng)絡識別性能達到一個穩(wěn)定點。

表8 數(shù)據(jù)缺損下算法的魯棒性Tab.8 Robustness of algorithm for data defect

4.5 本文算法擴展環(huán)境中魯棒性識別率

為進一步測試本文算法魯棒性,采用15°俯仰角下的擴展目標為訓練集,俯仰角為30°或者45°為測試集,分別測試俯仰角和配置參數(shù)變化的識別性能,結(jié)果如表9所示。由表9可見,測試樣本為30°時,文獻[11]中的SAR-HOG算子與本文算法比文獻[8]中的MLA-LSR效果更好;本文采用Softmax分類器輸出,比文獻[11]采用SVM、KNN、SRC、LCK-SVD輸出分類性能更優(yōu);本文算法比文獻[11]中的SDDLSR算法魯棒性稍差,但是本文算法訓練速度更快、識別效率更高。隨著測試樣本俯仰角從30°增加至45°,算法識別率有所降低,但本文算法仍比其他算法性能更優(yōu)。

表9 俯仰角和配置等參數(shù)變化的正確識別率Tab.9 Correct recognition rates of parameter changes of depression angle and configuration

為進一步測試網(wǎng)絡性能,分別測試擴展環(huán)境下網(wǎng)絡結(jié)構(gòu)、配置、俯仰角等參數(shù)的識別性能,結(jié)果如表10所示。由表10可以看出,對于俯仰角為17°的測試樣本,網(wǎng)絡結(jié)構(gòu)為4 096-98的識別性能最優(yōu);當俯仰角為15°的測試樣本,網(wǎng)絡結(jié)構(gòu)為1 024-98時的識別性能最優(yōu)。表11描述了本文算法在最優(yōu)網(wǎng)絡結(jié)構(gòu)以及最優(yōu)參數(shù)下俯仰角和配置發(fā)生變換時的識別性能。通過計算,本文算法在30°俯仰角的識別率達到93.05%,在45°俯仰角的識別率達到76.018%.

表10 網(wǎng)絡結(jié)構(gòu)參數(shù)變化的識別性能Tab.10 Recognition rates of network structure parameter changes

表11 俯仰角和配置變換的正確識別率Tab.11 Recognition rates of depression angle and configuration transformation %

4.6 本文算法識別性能比較

為進一步測試本文算法性能,分別與相關(guān)文獻識別性能進行比較。由表12可見,文獻[3]相似性與歐氏約束能夠提高樣本特征的可分性;文獻[5]無監(jiān)督和貪婪的分層訓練方法訓練SAE,可提高目標分類輸出;文獻[6]在RBM中引入相似性約束并加入判決信息,識別率較低且性能不夠穩(wěn)定;文獻[7]在對數(shù)最大似然目標函數(shù)基礎上加入L0.5范數(shù)正則化約束,特征的稀疏表示得到提高;本文采用導向重構(gòu)算法,算法在網(wǎng)絡隱層數(shù)大幅度減少基礎上網(wǎng)絡收斂的速度得到加快,本文基于導向重構(gòu)與DSAE算法識別性能分別比文獻[3]、文獻[5-7]分別提高3.99%、0.281%、5.42%和2.65%.

表12 不同文獻算法與本文算法的識別性能比較Tab.12 Comparison of recognition rates of different algorithms

5 結(jié)論

本文針對現(xiàn)有SAR目標識別算法泛化能力差和算法復雜度高等問題,提出一種基于導向重構(gòu)與DSAE的SAR目標分類方法。首先,對SAR圖像樣本采用導向重構(gòu)進行兩尺度融合預處理,生成一維圖像矢量并作歸一化處理,與Shearlet降噪方法相比較,本文算法預處理的速度明顯更快,可以提高算法的識別性能;然后,采用減少DAE隱層神經(jīng)元方式對圖像進行低維特征抽取和識別,并采用Softmax分類器進行分類,以達到有效降低算法的復雜度目的。實驗測試結(jié)果證明,將導向重構(gòu)算法與DSAE結(jié)合起來,可以大幅度減少DSAE隱層的神經(jīng)元的數(shù)目,提高目標的識別性能以及泛化能力,大幅度降低算法的復雜度。

主站蜘蛛池模板: 全裸无码专区| 99激情网| 欧美啪啪一区| 国产视频你懂得| 国产成人AV综合久久| 国模在线视频一区二区三区| 国产18在线播放| 国产理论最新国产精品视频| 日韩无码视频播放| av在线无码浏览| 国产成人高精品免费视频| 国产手机在线观看| 看你懂的巨臀中文字幕一区二区| 人妻中文字幕无码久久一区| av在线无码浏览| 青青草原国产| 国产成人综合日韩精品无码首页 | 亚洲一区网站| 免费激情网址| 日韩欧美亚洲国产成人综合| 日韩色图区| 欧美一区二区精品久久久| 国产成人h在线观看网站站| 国产熟女一级毛片| 国产一二视频| 欧美午夜性视频| 在线不卡免费视频| 99ri精品视频在线观看播放| 亚洲三级色| 欧美日韩第二页| 激情国产精品一区| 国产成人久久综合777777麻豆| 免费不卡视频| 亚洲水蜜桃久久综合网站| 一区二区三区高清视频国产女人| 欧美啪啪网| 亚洲毛片在线看| 精品成人一区二区三区电影 | 青青国产视频| 欧美日韩免费| 国产欧美日韩综合一区在线播放| 中文字幕2区| 不卡的在线视频免费观看| 亚洲视频在线青青| 青青青国产精品国产精品美女| 欧美日韩国产成人高清视频| 18禁不卡免费网站| 99热这里只有成人精品国产| 欧美精品v日韩精品v国产精品| 国产成人综合久久精品尤物| 国产中文一区a级毛片视频| 色精品视频| 久久精品视频亚洲| 97成人在线观看| 久久国产拍爱| 毛片三级在线观看| 在线播放国产一区| 免费视频在线2021入口| 欧美成人午夜视频免看| 国产精品永久在线| 永久免费AⅤ无码网站在线观看| 亚洲黄色激情网站| 91视频首页| 国产综合精品日本亚洲777| 欧美成在线视频| 午夜性爽视频男人的天堂| 国产精品13页| 国产精品第一区| 国模私拍一区二区| 久久国产精品麻豆系列| 91精品伊人久久大香线蕉| 欧美精品1区| 国产午夜看片| 色香蕉影院| 国产青榴视频在线观看网站| 丁香婷婷在线视频| 狠狠做深爱婷婷久久一区| 久久久久无码精品国产免费| 不卡无码h在线观看| 青青草一区| 中文字幕无线码一区| 国产一区二区丝袜高跟鞋|