999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的水聲目標識別算法

2022-01-10 08:29:06薛靈芝曾向陽楊爽
兵工學報 2021年11期
關鍵詞:模型

薛靈芝,曾向陽,楊爽

(西北工業大學 航海學院,陜西 西安 710072)

0 引言

水聲目標識別是水聲探測領域的關鍵技術,近年來,隨著人工智能的進一步發展,研究人員開始嘗試將深度學習方法應用于水聲目標識別。基于深度學習的目標識別方法可將傳統的特征提取與分類識別相結合,實現特征自動提取與自適應學習,完成從輸入信號到輸出類別的一體化處理。

Park等[1]和Zhang等[2]利用卷積神經網絡(CNN)對水聲目標進行分類識別,其中CNN網絡的輸入樣本為時頻信號的圖像信息,沒有直接使用時頻信息。江偉華等[3]針對非合作水聲信道,提出一種基于人工神經網絡的水聲信號調制分類器,Zeng等[4]利用多任務貝葉斯稀疏學習算法提取水聲目標特征,實現目標類型識別,實驗過程采用多陣列任務學習,對于水聲的采集方法要求太高。王強等[5]對于不同的深度學習網絡,直接輸入水聲的時域信息,對比CNN與深度置信網絡(DBN)對水聲數據的分類識別能力,并分析CNN的濾波器結構與原始水聲信號之間的關系。文獻[6]提出基于CNN的水聲小樣本識別方法,利用不同的輸入特征驗證方法的識別性能,網絡結構簡單,對于不同的輸入樣本,需要進一步驗證網絡的泛化能力。Huang等[7]和Sheng等[8]針對水聲目標噪聲數據的特點,改進深度學習中的DBN,提升水聲目標識別率,DBN可以利用概率模型學習原始數據的另外一種表征,盡可能保留原始數據中的概率分布特征,但在概率模型比較單一的樣本下無法避免冗余特征帶來的計算量增加。Xie等[9]提出基于玻爾茲曼機的水聲目標識別方法,并利用實驗數據對比,證實識別率由于DBN,Yang等[10]在深度自編碼(DAE)網絡的基礎上加入深度長短時記憶網絡,對海洋背景噪聲、客船、貨船3類水聲目標進行識別,得到了較好的效果,但該方法在小樣本訓練集條件下識別性能還需要進一步驗證。Chen等[11]對比5種典型的機器學習方法在水聲目標識別中的識別效果,并分析了網絡模型的特性。這些工作均表明了深度學習可以應用于水聲目標識別。

生成對抗網絡(GAN)模型是一種基于生成模塊與對抗模塊的深度學習網絡模型,通過兩個模塊之間的極小極大博弈(Minimax Game)實現對模型的優化,在模型達到納什均衡[12]時,生成器能夠很好地學習到真實數據樣本的潛在分布,從而使得判別器無法精準地判定樣本的真假性。GAN對于生成式模型具有重要的意義,相對于DBN,GAN只用到了反向傳播(BP)算法而不需要復雜的馬爾可夫鏈。相比于DAE網絡的優化目標是對數似然的下界而不是似然度本身,GAN是直接從數據的分布距離去進行優化,因此理論上如果判別器訓練良好,生成器可以完美地學習到真實數據的分布,即GAN的訓練是漸進一致的,而DAE是有偏差的,從而導致在生成的實例質量上DAE比GAN低。

Jin等[13]和Gao等[14]將水聲信號的LOFAR譜輸入GAN模型中實現目標識別,得到了較好識別效果,但實驗中使用了龐大數量的樣本進行訓練,這對于很多實際水聲識別應用而言實現較困難。本文提出的GAN模型首先預訓練生成模塊和對抗模塊,然后對帶標簽樣本進行監督訓練來優化整個網絡的參數,以便在小樣本訓練集中得到較好的識別效果。

本文首先介紹所提出的GAN模型,利用可視化方法對GAN模型的分類效果進行分析,并與DBN模型和DAE網絡模型進行比較;然后用實測水聲數據驗證GAN模型在目標識別中的效果,并與DBN、DAE等方法進行對比分析。

1 生成對抗網絡模型

經典的生成對抗網絡模型基于博弈思想,包含生成模型與判別模型兩部分,生成模型與判別模型可以由深度神經網絡構成。隨機噪聲z經由生成模型變換得到與真實樣本相同長度的序列z′,再交由判別模型去判定樣本的真假性。判別模型最終輸出一個介于(0,1)之間的數:當判定輸入樣本為真時,模型輸出接近1的值;判定輸入樣本為假時,模型輸出接近0的值。網絡優化兩個目標:1)判別模型對于樣本的真假性盡量判斷準確;2)生成模型盡量生成足以造成判別模型判斷失誤的假樣本。因此GAN模型的目標函數定義為

Ez~pz(z)[lg(1-D(G(z)))],

(1)

式中:V(D,G)表示生成對抗網絡模型函數;D、G表示判別模型和生成模型;Ex~pd(x)表示真實數據經過判別器以后取對數的期望值,x~pd(x)表示x服從真實數據分布;D(x)表示判別模型的輸出;Ez~pz(z)表示隨機數據經過生成器、判別器以后取對數的期望值,z~pz(z)表示z服從隨機生成的樣本分布,本文方法中z服從高斯分布;G(z)表示生成模型的輸出。下面將該目標函數拆成兩項,分別討論判別模型與生成模型的優化問題。

對判別模型D進行優化時,固定生成模型G的參數。當樣本來源于真實樣本集時,判別模型D(x)需盡量接近于1;當樣本來源于生成模型生成的假樣本集時,判別模型D(G(z))需盡量接近于0,即1-D(G(z))接近于1,故判別模型目標函數為

Ez~pz(z)[lg(1-D(G(z)))].

(2)

對生成模型G進行優化時,固定判別模型D的參數。生成模型的目標函數只有一個,判別模型D在判定生成樣本z′的真假性時,使其輸出為真,即D(G(z))趨近于1,1-D(G(z))趨近于0.故生成模型目標函數為

(3)

GAN能夠學習原始真實樣本集的分布,無論數據分布的復雜性多高,理論上只要GAN訓練得足夠好,便可以學習。利用GAN的生成對抗特性,在經典GAN上做出改進,使其不僅能夠判別樣本的真偽,還能夠對樣本的類別進行判斷。

用于識別的GAN模型由兩部分組成,生成模型和判別模型。隨機噪聲z進入生成模型中,生成一組與輸入相同大小的序列,該序列與真實的有標簽樣本、真實的無標簽樣本分別作為判別模型的輸入,判別模型輸出3組不同的結果,具有C類的真實樣本,在判別模型的輸出中可以表示為C+1類。完整模型如圖1所示。

圖1 GAN識別模型

模型的目標函數推導如下。

對于判別模型D,目標函數包含兩個部分:

1)對于有標簽真實數據的監督學習損失Ls,

Ls=-Ex,y~pd(x,y)lg(pm(y|x,y∈{1,…,C})),

(4)

式中:Ex,y~pd(x,y)表示有標簽的真實數據經過判別器以后取對數的期望值,(x,y)~pd(x,y)表示數據(x,y)來源于真實樣本;pm(y|x,y∈{1,…,C})表示真實樣本屬于對應標簽的概率。

2)對于無標簽真實數據和生成樣本的無監督損失Lu,

Lu=-Ex~pd(x)lg(1-pm(y=C+1|x))-

Ez~pz(z)lg(pm(y=C+1|z)),

(5)

式中:pm(y=C+1|x)表示無標簽樣本屬于C+1類的概率;Ez~pz(z)表示隨機數據經過生成器、判別器以后取對數的期望值,z~pz(z)表示樣本來源于生成模型。將生成樣本的標簽定為C+1,對于無標記真實樣本,只需計算樣本不屬于第C+1類的概率,即1-pm(y=C+1|x);對于生成樣本,需計算樣本屬于C+1類的概率,即pm(y=C+1|x)。

監督目標函數和無監督目標函數結合起來,得到判別模型目標函數為

LD=Ls+Lu=

-Ex,y~pd(x,y)lg(pm(y|x,y∈{1,…,C}))-

Ex~pd(x,y)lg(1-pm(y=C+1|x))-

Ez~pz(z)lg(pm(y=C+1|z)).

(6)

無監督與有監督訓練的訓練過程均在判別器模塊,對于生成模型G,目標函數與經典GAN相同,即

LG=Ex~pz(z)(lg(1-D(G(z))))=

Ex~pz(z)(lg(1-pm(y=C+1|z))).

(7)

訓練中使用交叉熵作為損失函數,利用梯度下降算法優化交叉熵,由于交叉熵使用Sigmoid函數,在訓練過程中容易引起梯度消失現象,為了避免梯度消失現象[15],將目標函數做如下改進:

(8)

(9)

2 基于實測水聲數據的實驗驗證

實驗過程基于3類實測水聲數據,每類標簽上有相同的樣本數量,每一類數據包含15個水聲片段,每一個水聲片段時長約10 s左右。實驗中,DBN模型、DAE模型與GAN模型均輸入分幀以后的水聲時域信號,分幀的幀長為10 ms,幀間重疊5 ms.數據集包含1 785個樣本數據,其中300個無標簽樣本數據,1 485個有標簽樣本數據。有標簽樣本數據為3類水聲數據,每一類495個樣本,分別從每一類水聲數據中隨機選取一段相同長度的數據,其頻譜圖如表1所示。由表1可知:第1類水聲數據的能量集中在0~100 Hz和300~1 000 Hz;第2類水聲數據的能量集中在500 Hz左右;第3類水聲數據的能量比較分散,在0~100 Hz與1 000 Hz附近的頻段上都有較強的能量分布。

表1 輸入水聲數據的頻譜圖

2.1 可視化分析實驗

用于識別的GAN模型包含生成模塊和判別模塊。生成模塊由卷積層與全連接層組成,對卷積層的16個濾波器進行隨機初始化,濾波器大小為1×32,步長為1,濾波器可以反映不同的水聲結構特征。生成模塊由3個卷積層組成,濾波器個數分別為64個、128個、800個,3層網絡的濾波器大小均為1×4,步長為4.判別模型由單層卷積神經網絡構成,濾波器個數為16,大小為1×4,步長為4.訓練采用循環訓練方法,每一次循環隨機選取1 485個樣本中的600個樣本作為訓練集,其余為測試集,每次迭代過程中每個樣本點只有一次被劃入訓練集或測試集的機會,對生成對抗模型進行訓練,訓練的學習率為0.001,根據多次訓練的經驗,訓練迭代終止條件為誤差值的差小于0.000 4.訓練過程分為兩部分:第1部分用真實的有標簽數據與無標簽樣本訓練判別模型,將無標簽數據標記為C+1類;第2部分訓練生成模型,生成器生成數據的分布接近分類器中的C類時輸出為0,否則輸出為1.訓練循環1 000次,訓練集與測試集的誤差曲線如圖2所示。由圖3可知,誤差在小范圍內有抖動,大范圍內呈現下降趨勢。GAN模型可以認為是一種非參數的產生式建模方法,如果鑒別器訓練良好,則生成器可以對數據的聯合分布進行建模,生成器數據與無標簽樣本數據的分布相似。

圖2 誤差曲線

圖3 GAN網絡層輸出的t-SNE特征可視化圖形

GAN模型是以判別模型的輸出作為分類的特征向量,由于判別模型只有一層輸出,所以判別模型只有一層的輸出特征,如圖3(a)所示,圖中t-SNE表示t分布隨機領域嵌入算法。為了在三維圖中的不同視角下觀察分類結果,實驗中多角度、多方向旋轉圖3(a),選擇其中的3幅圖形,如圖3(b)、圖3(c)、圖3(d)所示。由圖3可知,GAN模型能很好地分離出不同類型的特征數據。

DAE網絡模型采用分層訓練的方式進行預訓練,訓練的學習率取0.1,模型的參數采用隨機初始化。網絡由4個全連接層組成,每一個全連接層做一次有監督訓練,將上一個全連接層的特征提取單元作為下一個全連接層的輸入。每一個全連接層單獨訓練以后,對整個網絡進行微調,微調時將網絡最后一層分類結果與原始樣本的標簽求交叉熵作為BP算法的優化依據,對整個網絡的參數進行優化。其中,第1層網絡的輸入節點為199,第2層網絡的輸入節點為150,第3層網絡的輸入為100,第4層網絡的輸入節點為80,輸出節點為樣本類別數3.

圖4展示了與圖3(a)在相同視角下每一個全連接層提取的特征經過t-SNE降維以后的結果以及第4個全連接層微調后的特征經過t-SNE降維以后的結果。圖4給出了DAE模型各個全連接層的輸出特征,展示了每一層對不同水聲結構特征的提取效果,最后經過微調以后的特征可以很好地分離出3類不同特征。

圖4 DAE網絡層輸出的t-SNE特征可視化圖形

DBN網絡模型由輸入層和3個隱含層和輸出層組成,其中輸入節點為199,3個隱含層節點數分別為100、50和20,輸出層節點數為樣本類別數3.每相鄰兩層組成受限玻爾茲曼機(RBM)網絡,首先分別對3個RBM網絡進行訓練,由于RBM的每一層網絡單獨訓練時采用無監督學習方法,最后應用BP算法對整個網絡進行微調,微調的過程將網絡最后一層分類結果與原始樣本的標簽求交叉熵作為BP算法的優化依據,對整個網絡的參數進行優化。圖6分別給出了DBN中每層網絡經t-SNE降維后的結果。由于RBM網絡是一種無監督的能量概率模型,t-SNE的輸出圖形描述了t分布于距離之間的非線性映射,3類水聲數據在通過概率模型訓練以后會出現在一條線上。圖5(b)、圖5(c)、圖5(d)的逐步變化表示在訓練的過程中,相同類型的點在逐步聚集。

對比圖3、圖4、圖5可知:GAN模型對不同類型的樣本聚合度優于DAE模型與DBN模型;DAE模型與DBN模型微調后的輸出,不同類型之間均有交叉點,DBN模型的交叉點最多。

圖5 DBN網絡層輸出的t-SEN特征可視化圖形

為了說明3類方法的有效性,對原始數據數據做t-SNE可視化分析,圖6所示為不同視角下3類輸入數據應用t-SNE降維后的效果圖。由圖6可知,原始數據的可分性較差,應用深度學習算法對數據特征進行有效提取后,數據的可分性有了明顯提高。

圖6 原始數據的 t-SNE特征可視化圖形

2.2 識別率對比實驗

進一步用GAN模型對3類實測水聲數據進行識別,識別率為識別正確的幀數除以總幀數。選取895個隨機樣本作為訓練集,其余樣本做測試,所有實驗均重復5次,然后取平均值。GAN模型、DBN模型、DAE模型以及MFCC+softmax分類方法的識別結果如表2所示。

由表2可知,基于深度學習的識別效果優于傳統MFCC+softmax方法,其中,GAN識別率高于DBN與DAE網絡訓練的結果。就識別率而言,本文提出的GAN方法明顯優于現有的方法。

表2 識別結果

2.3 不同訓練樣本數量的識別率對比實驗

為了進一步分析小樣本條件下的識別性能,分別取895、600、300個樣本作為訓練集,對GAN、DBN、DAE模型進行訓練,識別實驗結果如表3所示。

由表3中結果可知,當訓練樣本減少時,DAE網絡與DBN識別率隨著樣本數下降而減小,而GAN的識別率相對較高且比較穩定。在樣本數為600時,GAN的識別率達到最優,這表明GAN在小樣本范圍內存在一個最優樣本數匹配,因此,更適合小樣本數據的訓練與識別。

表3 不同樣本數量的識別結果

2.4 模型泛化能力對比實驗

實際水聲目標識別中,數據集失配是常態,已擁有的數據與待測試的數據在分布上往往是不同的,能否在數據失配情況下獲得較好的識別效果是衡量網絡模型對水聲數據泛化能力的重要指標。本實驗分別分析GAN模型與DAE網絡模型、DBN模型在數據集失配下的識別能力。實驗分為兩組:第1組僅對訓練集加入不同信噪比的噪聲,研究在訓練數據質量較差(帶噪樣本)情況下訓練網絡模型,并對質量較好的測試數據(干凈樣本)的識別能力;第2組僅對測試集加入不同信噪比的噪聲,研究在訓練集數據較為純粹的情況(干凈樣本)下訓練網絡模型,模型是否能夠針對含噪聲量較大的數據(帶噪樣本)具有很強的識別能力。

本文實驗研究了分別對訓練數據與測試數據加噪聲,信噪比范圍在-20~20 dB時GAN、DAE網絡以及DBN的識別能力。圖7描述了用不同信噪比的訓練數據分別訓練3種網絡模型,測試每種網絡模型對不加噪聲測試數據的識別能力。圖8描述了用不加噪聲的訓練數據分別訓練3種網絡模型,測試網絡模型對不同信噪比下的測試數據的識別能力。

圖7 訓練集加噪聲的識別結果對比圖

圖8 測試集加噪聲的識別結果對比圖

由圖7和圖8可以看出:

1)3種網絡的識別率均隨著訓練集信噪比的增加而增大,在信噪比范圍內,GAN的識別率始終高于DAE網絡與DBN,并且在信噪比-10~20 dB范圍內,識別率的變化相比于DBN和DAE也更加平穩。

2)對訓練數據加入不同的信噪比時,GAN在信噪比為20 dB時便與不加噪聲時的結果相當,而DAE網絡與DBN在實驗范圍內未能達到與無噪聲時相當的結果,這表明GAN在提取特征時能夠自適應的優化特征提取模型參數,從而能夠在信噪比較高時,達到與無噪聲時識別正確率相當的結果。

3)對測試數據加噪聲時(見圖8),3種網絡的識別率均隨著訓練集信噪比的增加而增大,其中GAN的識別率在整個信噪比范圍內顯著高于其他兩個網絡。測試集信噪比低于0 dB時,DAE網絡與DBN的識別率迅速下降,且在信噪比低于-5 dB時,識別率下降到33%左右,隨著信噪比的進一步減小識別率沒有明顯的變化;而GAN的識別率隨著測試集信噪比的減小平穩下降。圖8表明GAN可以在干凈的樣本中學習到樣本的內在特征,從而在遇到加入低信噪比的樣本時,依然可以識別樣本的類型,網絡的泛化能力較好。

3 結論

本文提出一種基于GAN的水聲目標識別方法,在實測數據驗證實驗中將其與另外兩種深度學習方法進行了比較。所得主要結論如下:

1)本文方法從可視化的分類效果,小樣本的識別率以及系統在數據失配條件下的魯棒性均優于另外兩種識別方法。

2)實驗結果表明GAN網絡對水聲目標信號的分類識別更為有效。

考慮GAN的生成網絡與對抗網絡是由卷積網絡組成,卷積層數量與每一層卷積核的選取都會影響GAN的識別率,因此,后續還將進一步研究在不同實測數據集中,網絡參數對識別率的影響。

參考文獻(References)

[1] PARK J,JUNG D J.Identifying tonal frequencies in a lofargram with convolutional neural networks[C]∥Proceedings of the 2019 19th International Conference on Control,Automation and Systems.Jeju,Korea: IEEE,2019:338-341.

[2] ZHANG J M,DING Y Y.Underwater target recognition based on spectrum learning with convolutional neural network[C]∥Proceedings of the IEEE 5th Information Technology and Mechatronics Engineering Conference.Chongqing,China: IEEE,2020:1520-1523.

[3] 江偉華,童峰,王彬,等.采用主分量分析的非合作水聲通信信號調制識別[J].兵工學報,2016,37(9):1670-1676.

JIANG W H,TONG F,WANG B,et al.Modulation recognization method for non-operation underwater acoustic communication signals using principal component analysis[J].Acta Armamentarii,2016,37(9):1670-1676.(in Chinese)

[4] ZENG X Y,LU C Y,LI Y.A multi-task sparse feature learning method for underwater acoustic target recognition based on two uniform linear hydrophone arrays[C]∥Proceedings of INTER-NOISE and NOISE-CON Congress and Conference Proceedings.Seoul,Korea:IEEE,2020:4404-4411.

[5] 王強,曾向陽.深度學習方法及其在水下目標識別中的應用[J].聲學技術,2015,34(2): 138-140.

WANG Q,ZENG X Y.Deep learning methods and their applications in underwater targets recognition[J].Technical Acoustics,2015,34(2):138-140.(in Chinese)

[6] LIS C,JIN X,YAO S B,YANG S Y.Underwater small target recognition based on convolutional neural network[C]∥Proceedings of Global Oceans 2020: Singapore-U.S.Gulf Coast.Biloxi,MS,US:IEEE,2020.

[7] HUANG S Z,XU H S,XIA X Z.Active deep belief networks for ship recognition based on BvSB[J].Optik,2016,127(24):11688-11697.

[8] SHENG S,YANG H H,SHENG M P.Compression of a deep competitive network based on mutual information for underwater acoustic targets recognition[J].Entropy,2018,20(4):243-256.

[9] XIE J W,CHEN J,ZHANG J.DBM-based underwater acoustic source recognition[C]∥Proceedings of 2018 IEEE International Conference on Communication Systems.Chengdu,China: IEEE,2018: 366-371.

[10] YANG H H,XU G H,YI S Z,et al.A new cooperative deep learning method for underwater acoustic target recognition[C]∥Proceedings of OCEANS 2019.Marseille,France: IEEE,2019.

[11] CHEN Y C,XU X N.The research of underwater target recognition method based on deep learning[C]∥Proceedings of 2017 IEEE International Conference on Signal Processing,Communications and Computing.Xiamen,China:IEEE,2017.

[12] DEUTSCH Y.A polynomial-time method to compute all nash equilibria solutions of a general two-person inspection game[J].European Journal of Operational Research,2021,288(3):1036-1052.

[13] JIN G G,LIU F,WU H,et al.Deep learning-based framework for expansion,recognition and classification of underwater acoustic signal[J].Journal of Experimental & Theoretical Artificial Intelligence,2020,32(2):205-218.

[14] GAO Y J,CHEN Y C,WANG F Y,et al.Recognition method for underwater acoustic target based on DCGAN and DenseNet[C]∥Proceedings of the IEEE 5th International Conference on Image,Vision and Computing.Beijing,China:IEEE,2020:215-221.

[15] PASCUAL1 S,BONAFONTE1 A,SERRJ.SEGAN: speech enhancement generative adversarial network[C]∥Proceedings of the 18th Annual Conference of the International Speech Communication Association.Stockholm,Sweden: International Speech Communication Association,2017:3642-3646.

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 九九热视频在线免费观看| 国产在线91在线电影| 久久成人免费| 欧美色综合久久| 中文成人无码国产亚洲| 午夜激情婷婷| 视频一本大道香蕉久在线播放| 亚洲欧美精品一中文字幕| 亚洲精品在线观看91| 毛片免费高清免费| 色欲国产一区二区日韩欧美| 国产va免费精品观看| 亚洲成人一区在线| 久久国产精品电影| 国产网友愉拍精品| 久久黄色小视频| 国产AV无码专区亚洲A∨毛片| 国产成人精品18| 91精品网站| 国产美女视频黄a视频全免费网站| 日韩精品亚洲人旧成在线| 精品国产成人高清在线| 全午夜免费一级毛片| 国产欧美日韩另类| 国产一在线| 视频国产精品丝袜第一页| 日韩精品亚洲一区中文字幕| 极品国产一区二区三区| 夜色爽爽影院18禁妓女影院| 99热这里只有精品2| 亚洲日韩精品无码专区97| 久久中文字幕2021精品| 亚洲中文字幕手机在线第一页| 一本久道久综合久久鬼色| 丝袜亚洲综合| 一级毛片免费观看久| av午夜福利一片免费看| 极品尤物av美乳在线观看| 波多野结衣AV无码久久一区| 亚洲小视频网站| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 国产精品吹潮在线观看中文| 97成人在线视频| 亚洲综合久久一本伊一区| 亚洲熟女中文字幕男人总站| 毛片久久久| 国产成人精品亚洲77美色| 欧美激情福利| 超清无码熟妇人妻AV在线绿巨人| 97av视频在线观看| 91av国产在线| 亚洲精品男人天堂| 91丝袜美腿高跟国产极品老师| 国产一级二级三级毛片| 国产精品冒白浆免费视频| AV老司机AV天堂| 国产亚洲精品97在线观看| 午夜啪啪网| 97国内精品久久久久不卡| 狠狠色噜噜狠狠狠狠奇米777| 欧美精品亚洲精品日韩专区| 国产精品一线天| 日韩精品一区二区三区中文无码| 成年片色大黄全免费网站久久| 在线欧美日韩| 欧美高清日韩| 91欧洲国产日韩在线人成| 自偷自拍三级全三级视频| 色综合成人| 精品人妻无码区在线视频| 国产成人综合亚洲欧洲色就色| 日韩精品成人在线| 91色爱欧美精品www| 精品国产电影久久九九| 国产成人8x视频一区二区| 亚洲成在人线av品善网好看| 毛片久久久| 国产办公室秘书无码精品| 国产女人18水真多毛片18精品| 久久久久久久97| 成人在线亚洲| 久久精品国产在热久久2019|