999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

2025-02-08 00:00:00許雪姚文強李晨郭業(yè)才
現(xiàn)代電子技術(shù) 2025年3期

摘" 要: 針對神經(jīng)網(wǎng)絡(luò)提取的信號特征不足導致信號識別率下降的問題,提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法。該算法先對輸入信號進行混合數(shù)據(jù)增強,生成更多維度的樣本以便網(wǎng)絡(luò)更好地提取信號特征;再將處理后的樣本信號輸入雙通道網(wǎng)絡(luò)(CNN and BiLSTM Parallel),并行提取信號的空間特征和時間特征;最后將提取到的特征輸入到門控注意力網(wǎng)絡(luò)中,自適應(yīng)地調(diào)整特征權(quán)重,減少網(wǎng)絡(luò)復雜度。實驗表明,文中提出的算法最高分類準確率為92.3%,優(yōu)于對比的其他網(wǎng)絡(luò)模型。

關(guān)鍵詞: 自動調(diào)制識別; 雙通道網(wǎng)絡(luò); 長短時記憶網(wǎng)絡(luò); 門控注意力網(wǎng)絡(luò); 空間特征; 時間特征

中圖分類號: TN911.3?34; TP183" " " " " " " " 文獻標識碼: A" " " " " " " " " " " "文章編號: 1004?373X(2025)03?0069?07

Modulation signal classification and recognition algorithm

based on gated attention network

XU Xue1, YAO Wenqiang2, LI Chen1, GUO Yecai1

(1. Wuxi University, Wuxi 214105, China; 2. Jiangsu Electronic Information Product Quality Supervision and Inspection Institute, Wuxi 214072, China)

Abstract: The signal features extracted by neural network are insufficient, which leads to the decline of signal recognition rate, so this paper proposes a modulation signal classification and recognition algorithm based on gated attention network. In this algorithm, the input signal is subjected to mixed data augmentation to generate samples with more dimensions, so that the network can extract satisfactory signal features. And then, the processed sample signal is input into a dual?channel network (CNN and BiLSTM parallel) to extract the spatial and temporal features of the signal in parallel. Finally, the extracted features are input into the gated attention network to adjust feature weights adaptively and reduce network complexity. The experiment shows that the highest classification accuracy of the proposed algorithm is 92.3%, which is better than that of the other comparison network models in this article.

Keywords: automatic modulation recognition; dual?channel network; LSTM network; gated attention network; spatial feature; temporal feature

0" 引" 言

自動調(diào)制分類(AMC)作為一項關(guān)鍵技術(shù),在民用和軍事領(lǐng)域發(fā)揮著重要作用[1],其核心任務(wù)是在接收信號調(diào)制類型未知的情況下,自動對信號進行分類。傳統(tǒng)調(diào)制方式識別主要包括基于最大似然(LB)和基于特征提取(FB)[2?3]。LB方法通常使用概率模型和假設(shè)檢測理論,利用決策準則對接收信號進行分類[4];FB方法提取接收信號的特征[5],并利用分類器進行識別分類[6?7]。AMC學者一直專注于降低算法復雜度,提高信號特征的提取效率,并尋找更多更有效的先驗條件來提高識別率[8?9]。

近年來,基于深度學習[10?11]的調(diào)制類型識別方法取得了優(yōu)越的效果。相對于傳統(tǒng)調(diào)制方式識別算法需要人工設(shè)計專家特征提取信號的特征,深度學習能夠自動提取信號的全部特征,從而避免了對信號的繁瑣預處理步驟[12]。文獻[13]提出自編碼器模型對信號調(diào)制分類,但實驗使用的卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)簡單,提取的信號特征有限,導致識別精度較低;文獻[14]提出一種循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(RNN),該網(wǎng)絡(luò)可以關(guān)注信號樣本前后的時間特征信息,補全了CNN在提取信號特征時的不足;文獻[15]使用更深層的深度神經(jīng)網(wǎng)絡(luò)(DNN)來識別調(diào)制信號的類型,這些網(wǎng)絡(luò)模型通常具有更多層的隱藏層和更多的神經(jīng)元,因此能在訓練數(shù)據(jù)集中提取更多的信號特征,獲得更高的分類準確率,但同時增加了算法的復雜度。

為解決此類問題,本文提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,混合數(shù)據(jù)增強模塊對輸入信號進行時域數(shù)據(jù)增強和自擾動數(shù)據(jù)增強,該模塊將輸入信號進行時域變換和自擾動操作,以此增加樣本信號的數(shù)量,有利于神經(jīng)網(wǎng)絡(luò)提取信號的特征;將處理后的樣本輸入到雙通道網(wǎng)絡(luò)中進行特征提取,第一通道的CNN提取信號的空間特征,第二通道的BiLSTM網(wǎng)絡(luò)提取信號的時間特征;最后將提取的特征輸入到門控注意力網(wǎng)絡(luò)中進行分類計算,對提取的大量特征進行權(quán)重賦值,門控機制將無用的特征丟棄,大大減小了算法的復雜度。

1" 調(diào)制信號模型

調(diào)制信號主要分為模擬調(diào)制和數(shù)字調(diào)制兩類,模擬調(diào)制是將原始信息直接調(diào)制到載波信號上,而數(shù)字調(diào)制則是通過將數(shù)字信號轉(zhuǎn)換為模擬信號后再進行調(diào)制或直接調(diào)制數(shù)字信號[16]。在無線通信系統(tǒng)中,發(fā)射器負責將信息轉(zhuǎn)換為模擬調(diào)制信號或數(shù)字調(diào)制信號進行發(fā)送,如圖1所示,信道是信息傳輸?shù)慕橘|(zhì),而接收器則接收和解碼信號。接收到的信號表示如下:

[r(t)=-∞∞s(τ)?h(t-τ)dτ+n(t)] (1)

式中:[r(t)]為接收到的調(diào)制信號;[s(τ)]為發(fā)送的調(diào)制信號;[h(t)]表示信道的沖激響應(yīng);[n(t)]為噪聲信號。本文使用加性噪聲來研究復雜信道下的調(diào)制算法。

2" 基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號識別算法由輸入模塊、混合數(shù)據(jù)增強模塊(Mixed Data Augmentation, MDA)、雙通道網(wǎng)絡(luò)(CBNet)和門控注意力網(wǎng)絡(luò)(Gate Attention, GAtt)組成,算法整體架構(gòu)如圖2所示。

2.1" 混合數(shù)據(jù)增強算法

輸入神經(jīng)網(wǎng)絡(luò)的信號往往都是單一相位的調(diào)制信號,為了使神經(jīng)網(wǎng)絡(luò)更好地提取信號特征,本文提出了一種混合數(shù)據(jù)增強算法(MDA)。對原始數(shù)據(jù)進行時域增強和頻域增強,其中時域增強通過對信號進行時移操作以改變信號在時間軸上的位置,使網(wǎng)絡(luò)能夠?qū)W習到不同時間偏移下的特征;自擾動數(shù)據(jù)增強通過對輸入信號進行各種形式的擾動或變換,從而產(chǎn)生更多樣化、更具代表性的訓練樣本。混合數(shù)據(jù)增強模型如圖3所示。

2.1.1" 時域數(shù)據(jù)增強

時域移位操作通過在信號的時間序列上進行平移來實現(xiàn)。對于離散時間信號[x(n)],時域移位操作可以表示為[x(n-Δn)],其中[Δn]為采樣點的偏移量。以下是時域數(shù)據(jù)增強的具體步驟:

1) 創(chuàng)建一個新的信號[y(n)],其長度與[x(n)]相同;

2) 將[x(n)]的值從[n=0]到[n=N-1]復制到[y(n+k)];

3) 如果[kgt;0],則在[y(n)]的開始處填充[k]個零;如果[klt;0],則在[y(n)]的末尾處填充[-k]個零。

通過上述步驟,即可實現(xiàn)將信號[x(n)]向右移動[k]個采樣點的操作,從而進行時域移位。

2.1.2" 自擾動數(shù)據(jù)增強

自擾動進行數(shù)據(jù)增強是指隨機裁剪數(shù)據(jù)的一部分,將其拼接回剩余數(shù)據(jù)的過程[17]。假設(shè)進行自擾動增強的數(shù)據(jù)表示為[X],裁剪后剩余的數(shù)據(jù)表示為[Xc],裁剪后的剩余數(shù)據(jù)長度表示為[Xc],從原始數(shù)據(jù)中取出的隨機片段表示為[x]。自擾動增強數(shù)據(jù)可表示為:

[XOP=Xc[0?p]+x+Xcp:Xc] (2)

式中:[XOP]為自擾動數(shù)據(jù)增強算法的輸出;[p]為[Xc]的一個隨機位置。

自擾動算法涉及裁剪序列的部分內(nèi)容,將其添加到隨機位置,以擴展數(shù)據(jù)集并豐富特征。該算法提高了模型的泛化性能,即在訓練集之外的數(shù)據(jù)上表現(xiàn)良好的能力,增強數(shù)據(jù)的多樣性,減少過擬合的風險,而且不會引入額外的信息。

2.2" 雙通道網(wǎng)絡(luò)

2.2.1" 雙向長短時記憶網(wǎng)絡(luò)

盡管LSTM網(wǎng)絡(luò)能夠較好地提取信號的時間特征,但當前時間點的單元狀態(tài)只能通過上一個時間點的信息來更新。雙向長短時記憶網(wǎng)絡(luò)(BiLSTM)能夠同時從前向和后向分析輸入信號,提取更全面的時間特征[18?19]。其中,BiLSTM網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

在圖4中,網(wǎng)絡(luò)各層可用公式表示為:

[ht=f(W(1)xt+V(1)ht-1+b(1))] (3)

[ht=f(W(2)xt+V(2)ht+1+b(2))] (4)

[ht=ht⊕ht] (5)

[yt=g(Uht+c)] (6)

2.2.2" 雙通道網(wǎng)絡(luò)架構(gòu)

本文提出的雙通道網(wǎng)絡(luò)架構(gòu)如圖5所示。第一通道由CNN層和Flatten層組成,其中第一個CNN層包括256個2×3的卷積核,第二個CNN層包含256個1×3的卷積核;第二通道是由BiLSTM層組成,其中兩個BiLSTM層均包含128個單元。

2.3" 門控注意力網(wǎng)絡(luò)

注意力網(wǎng)絡(luò)是一種在機器學習和人工智能領(lǐng)域中常用的技術(shù)。注意力網(wǎng)絡(luò)能夠模仿人類注意力的行為,使模型在處理輸入數(shù)據(jù)時專注于重要的部分,忽略不相關(guān)或不重要的信息[20]。針對本文數(shù)據(jù)增強算法可能導致提取的特征爆炸式增長的問題,提出基于門控機制的注意力網(wǎng)絡(luò)。GAtt網(wǎng)絡(luò)能夠利用門控機制對輸入的特征進行篩選,排除無關(guān)特征的干擾,減少注意力網(wǎng)絡(luò)的復雜度,GAtt網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

由圖6可知,本文提出的門控注意力網(wǎng)絡(luò)由輸入層、門控層、注意力層和輸出層組成,其工作流程如下。

1) 計算門控參數(shù)[gt]。首先根據(jù)輸入的信號特征計算門控參數(shù),使用Sigmoid函數(shù)輸出一個[0,1]之間的值,其公式表示為:

[gt=σ(Wg?ht+bg)] (7)

式中:[Wg]和[bg]為門控層參數(shù);[σ()]為Sigmoid函數(shù)。

2) 計算注意力權(quán)重。信號特征值輸入到注意力層中,進行注意力權(quán)重的計算,可表示為:

[eti=ReLU(We?ht+Ue?xi+be)] (8)

[Ati=exp(eti) i=1Texp(eti)] (9)

式中:[We]、[Ue]、[be]表示注意力機制參數(shù);[Ati]表示注意力輸出權(quán)重。

3) 結(jié)合門控參數(shù)和注意力權(quán)重更新[ht]。將自門控參數(shù)[gt]與注意力權(quán)重[Ati]結(jié)合,以動態(tài)地調(diào)整隱藏狀態(tài)[ht],其公式為:

[ht=gt?ht+(1-gt)?i=1TAti?xi] (10)

式中[ht]表示更新后的狀態(tài)。

3" 實驗結(jié)果與討論

本實驗采用RML2016.10a數(shù)據(jù)集[21],圖7展示了部分信號的I/Q波形。

該數(shù)據(jù)集通過復雜信道后由GUN Radio生成,其數(shù)據(jù)集的采樣速率為200 kHz,最大采樣率偏移為50 Hz。并且每個信號都由128個采樣點組成,每個信號包含8個符號。整個數(shù)據(jù)集中共有220 000個信號,這些信號在信噪比范圍從-20~18 dB之間變化,提供了多樣的信號環(huán)境,可以用于評估不同噪聲條件下的通信系統(tǒng)性能[22]。

本實驗將RML2016.10a數(shù)據(jù)集中的信號樣本分成兩部分:70%的樣本用作訓練集,30%的樣本則用作測試集。

3.1" 網(wǎng)絡(luò)的性能分析與對比實驗

為驗證混合數(shù)據(jù)增強算法和門控注意力網(wǎng)絡(luò)對最終分類識別結(jié)果的影響,本文實驗分別進行MDA+CBNet+GAtt、MDA+CBNet、CBNet處理,其分類準確率如圖8所示。

通過圖8可以看出,使用CBNet網(wǎng)絡(luò)進行調(diào)制信號識別的識別準確率為85.7%。加入混合數(shù)據(jù)增強算法(MDA)后,網(wǎng)絡(luò)可以提取的信號特征變多,網(wǎng)絡(luò)的識別準確率提升了2.5%,為88.2%。繼續(xù)加入門控注意力網(wǎng)絡(luò)(GAtt)后,提取的信號特征被賦予權(quán)重,網(wǎng)絡(luò)的識別準確率比MDA+CBNet提升了4.1%,為92.3%。

本文將CBNet與CNN[13]、CNN?LSTM[23]、ResNet[24]、DenseNet[15]和KNN[25]進行對比實驗,信號識別準確率如圖9所示。

通過圖9可知,CBNet的信號識別準確率最高,為85.7%。與其他網(wǎng)絡(luò)模型對比,KNN識別準確率最低為69%;CNN網(wǎng)絡(luò)能夠通過提取信號特征來識別信號類型,信號的識別準確率有所提高,為72.9%;ResNet、DenseNet網(wǎng)絡(luò)模型擁有更深層的網(wǎng)絡(luò)和更多的參數(shù),因此對樣本信號有更好的識別率,分別為81.0%和80.1%;CNN?LSTM網(wǎng)絡(luò)模型使用CNN和LSTM提取信號的空間特征和時間特征,此類特征符合調(diào)制信號的特性,因此識別率較高,為82.2%。

3.2" 網(wǎng)絡(luò)模型混淆矩陣分析

為研究不同網(wǎng)絡(luò)模塊對各個調(diào)制類型的分類識別率,SNR=-10 dB時CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖10所示。

從圖10可以看出,在SNR=-10 dB時,四種網(wǎng)絡(luò)模型對各類調(diào)制信號的分類準確率都較低,調(diào)制信號的混淆現(xiàn)象嚴重。但相比于圖10b)~圖10d),CBNet的混淆矩陣的對角線更加清晰,因此識別準確率更好。

當SNR=10 dB時,CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖11所示。

由圖11可知,在SNR=10 dB時,各類網(wǎng)絡(luò)模型均能識別出絕大部分的調(diào)制信號類型。與對比算法相比,CBNet網(wǎng)絡(luò)模型對各類信號的識別率更好,因此總的識別準確率更高。

最后實驗得出了在SNR=18 dB高信噪比下,本文網(wǎng)絡(luò)模型的混淆矩陣如圖12所示。

由圖12看出,本文提出的CBNet對大部分的調(diào)制信號都有很好的識別率。但是,單純使用神經(jīng)網(wǎng)絡(luò)提取QAM16和QAM64的信號特征不足以清晰地分辨出兩類調(diào)制信號,因此兩類調(diào)制信號的識別率略低。

4" 結(jié)" 語

本文提出了基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,該算法通過混合數(shù)據(jù)增強擴充樣本信號,解決了神經(jīng)網(wǎng)絡(luò)提取信號特征不足的問題;提出雙通道神經(jīng)網(wǎng)絡(luò),解決傳統(tǒng)網(wǎng)絡(luò)難以充分提取樣本信號的時間特征和空間特征的問題;最后提出門控注意力網(wǎng)絡(luò),解決了因信號樣本增加可能導致提取特征暴增的問題。實驗表明,本文提出的算法能夠明顯提高信號的識別準確率。未來工作方向在于提高QAM16信號和QAM64信號的識別準確率。

注:本文通訊作者為許雪。

參考文獻

[1] YANG Y W, GAO F F, MA X L, et al. Deep learning?based channel estimation for doubly selective fading channels [J]. IEEE access, 2019, 7: 36579?36589.

[2] LI L Q, XIE L H, HUANG Z P, et al. A deep learning based method for blind recognition of LDPC codes [C]// Information Communication Technologies Conference. [S.l.: s.n.], 2021: 112?116.

[3] SHEN B X, WU H Y, HUANG C. Blind recognition of channel codes via deep learning [C]// IEEE Global Conference on Signal and Information Processing. New York: IEEE, 2019: 1?5.

[4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5998?6008.

[5] KONG W, YANG Q, JIAO X, et al. A transformer?based CTDNN structure for automatic modulation recognition [C]// Proceedings of 2021 7th International Conference on Computer and Communications. [S.l.: s.n.], 2021: 159?163.

[6] CAI J J, GAN F M, CAO X H, et al. Signal modulation classification based on the transformer network [J]. IEEE transactions on cognitive communications and networking, 2022, 8(3): 1348?1357.

[7] LUAN S Y, GAO Y R, CHEN W, et al. Automatic modulation classification: Decision tree based on error entropy and global?local feature?coupling network under mixed noise and fading channels [J]. IEEE wireless communications letters, 2022, 11(8): 1703?1707.

[8] ZHENG Q H, ZHAO P H, WANG H J, et al. Fine?grained modulation classification using multi?scale radio transformer with dual?channel representation [J]. IEEE communications letters, 2022, 26(6): 1298?1302.

[9] WEST N E, O′SHEA T J. Deep architectures for modulation recognition [C]// 2017 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN). New York: IEEE, 2017: 1?6.

[10] 張嘉文.基于深度學習的數(shù)字信號調(diào)制識別技術(shù)的研究[D].成都:電子科技大學,2022.

[11] 郭業(yè)才,王慶偉.基于截斷遷移與并行殘差網(wǎng)絡(luò)的調(diào)制識別算法[J].系統(tǒng)仿真學報,2022,34(9):2009?2018.

[12] 李瑞佳.面向復雜結(jié)構(gòu)數(shù)據(jù)的聚類算法研究[D].成都:電子科技大學,2022.

[13] O′SHEA T J, HOYDIS J. An introduction to deep learning for the physical layer [J]. IEEE transactions on cognitive communications and networking, 2017, 3(4): 563?575.

[14] MEI F, CHEN H, LEI Y K. Blind recognition of forward error correction codes based on a depth distribution algorithm [J]. Symmetry, 2021, 13(6): 1?24.

[15] HONG D H, ZHANG Z L, XU X D. Automatic modulation classification using recurrent neural networks [C]// 2017 3rd IEEE International Conference on Computer and Communications (ICCC). New York: IEEE, 2017: 695?700.

[16] SHEN B X, HUANG C, XU W J, et al. Blind channel codes recognition via deep learning [J]. IEEE journal on selected areas in communications, 2021, 39(8): 2421?2433.

[17] LI S D, ZHOU J, HUANG Z P, et al. Recognition of error correcting codes based on CNN with block mechanism and embedding [J]. Digital signal processing, 2021, 111: 1?8.

[18] SURIYA M, SUMITHRA M G. Overview of spectrum sharing and dynamic spectrum allocation schemes in cognitive radio networks [C]// 2022 8th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2022: 934?937.

[19] KERECHANIN Y, BOBROV P. EEG denoising using wavelet packet decomposition and independent component analysis [C]// Fourth International Conference Neurotechnologies and Neurointerfaces (CNN). New York: IEEE, 2022: 68?70.

[20] KUMAR Y, SHEORAN M, JAJOO G, et al. Automatic modulation classification based on constellation density using deep learning [J]. IEEE communications letters, 2020, 24(6): 1275?1278.

[21] O′SHEA T J, WEST N. Radio machine learning dataset generation with GNU radio [C]// Proceedings of the GNU Radio Conference. [S.l.: s.n.], 2016: 69?74.

[22] 郭業(yè)才,姚文強.基于信噪比分類網(wǎng)絡(luò)的調(diào)制信號分類識別算法[J].電子與信息學報,2022,44(10):3507?3515.

[23] YAO T Y, CHAI Y, WANG S, et al. Radio signal automatic modulation classification based on deep learning and expert features [C]// 2020 IEEE 4th Information Technology, Networking, Electronic and Automation Control Conference (ITNEC). New York: IEEE, 2020: 1225?1230.

[24] WEI Z X, JU Y, SONG M. A method of underwater acoustic signal classification based on deep neural network [C]// 2018 5th International Conference on Information Science and Control Engineering (ICISCE). New York: IEEE, 2018: 46?50.

[25] ZHU Z C, ASLAM M W, NANDI A K. Genetic algorithm optimized distribution sampling test for M?QAM modulation classification [J]. Signal processing, 2014, 94: 264?277.

主站蜘蛛池模板: 亚洲高清在线天堂精品| 亚洲国产精品日韩欧美一区| 亚洲中字无码AV电影在线观看| 久久公开视频| 国产成人高清亚洲一区久久| 91久久性奴调教国产免费| 在线99视频| 国产在线一区视频| 呦女精品网站| 亚洲成aⅴ人在线观看| 中国国语毛片免费观看视频| 天天干伊人| 亚洲中文字幕日产无码2021| 午夜啪啪网| 亚洲一区国色天香| 狼友av永久网站免费观看| 日本一区高清| 欧美在线国产| 国产拍在线| 免费一级无码在线网站| 亚洲成人一区二区三区| 亚洲无码高清一区| 2018日日摸夜夜添狠狠躁| 亚洲日韩第九十九页| 亚洲av无码专区久久蜜芽| 制服丝袜一区| 国产成人一区免费观看| 老司机精品久久| 成人av手机在线观看| 久久人妻xunleige无码| 午夜免费小视频| 夜夜爽免费视频| 激情影院内射美女| 亚洲综合网在线观看| 久久国产毛片| 老熟妇喷水一区二区三区| 国产精品观看视频免费完整版| 国产高清自拍视频| 九九视频免费在线观看| 一级片一区| 亚洲不卡影院| 精品国产黑色丝袜高跟鞋| 欧洲一区二区三区无码| 亚洲免费三区| 囯产av无码片毛片一级| 国产偷国产偷在线高清| 天天做天天爱天天爽综合区| 男人的天堂久久精品激情| 日韩东京热无码人妻| 超级碰免费视频91| 99热这里只有成人精品国产| 亚洲视频一区| 国产真实乱了在线播放| 久久黄色视频影| 波多野结衣一区二区三区四区视频| 性69交片免费看| 精品五夜婷香蕉国产线看观看| 日本黄色不卡视频| 色悠久久久| 18黑白丝水手服自慰喷水网站| 久久综合伊人 六十路| 免费看一级毛片波多结衣| 国产尹人香蕉综合在线电影 | 黄片一区二区三区| 欧美成人影院亚洲综合图| 亚洲三级色| 凹凸精品免费精品视频| 视频二区国产精品职场同事| 72种姿势欧美久久久大黄蕉| 国产鲁鲁视频在线观看| 亚洲精品少妇熟女| 久久永久视频| 国产一线在线| 日韩亚洲综合在线| 亚洲嫩模喷白浆| 中文一级毛片| 91一级片| 久久精品国产在热久久2019| 成色7777精品在线| 在线免费亚洲无码视频| 亚洲一区二区三区国产精华液| 久久6免费视频|