999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

樣本不平衡下的空中群組意圖識別方法

2022-11-19 06:53:32馬鈺棠張杰勇閆云飛
系統工程與電子技術 2022年12期
關鍵詞:特征模型

馬鈺棠, 孫 鵬, 張杰勇, 王 鵬, 閆云飛, 趙 亮

(空軍工程大學信息與導航學院, 陜西 西安 710077)

0 引 言

二戰以來,隨著軍事信息化的推進和科學技術的發展,以預警機為核心樞紐的信息化作戰體系逐漸成型。空中作戰形式也從單一作戰單元間的對抗轉變為飛行群組間的對抗,空中群組的作戰行動是影響戰場態勢的關鍵。然而,戰場環境也隨之復雜化,指揮員很難依靠經驗實時準確地判斷出對方群組的真實意圖。因此,需要一種智能化的方法來快速準確地識別對方群組的意圖,以輔助指揮員做出決策。

對于識別戰場目標意圖問題,傳統的方法主要有模板匹配[1-2]、專家系統[3-4]、灰色關聯[5-6]、貝葉斯網絡[7-9]等,總體思路是先根據領域專家的先驗知識構建知識規則庫或貝葉斯網絡,然后通過目標的狀態特征進行意圖識別,但傳統方法過度依賴于先驗知識,不適用于復雜多變的戰場環境。而隨著人工智能的發展和深度學習的應用,機器能更快速處理大量復雜的數據。近年來,神經網絡方法[10-13]被證明能夠有效提升目標意圖識別準確率,文獻[10]提出了一種基于棧式自編碼器(stacked autoencoder,SAE)的目標戰術意圖識別模型,通過無監督學習方法訓練模型參數,將多個時刻的目標狀態信息和戰場環境作為輸入,來識別目標意圖。文獻[11]針對神經網絡模型收斂速度慢、易陷入局部最優的問題,在深度神經網絡(deep neural networks,DNN)模型中引入ReLU激活函數和Adam優化算法,提高了模型的識別率。文獻[12]提出了一種基于模糊神經網絡的目標意圖識別模型,利用目標屬性和意圖訓練網絡得到模糊隸屬度和輸出函數,以此識別意圖。但以上方法在時間特征學習和知識表征方面仍存在不足。文獻[13]為深層次提取目標的時序特征信息,利用全景卷積長短期記憶(long short term memory, LSTM)網絡深度挖掘能力,提高了模型意圖識別的準確率。但是,其僅使用歷史時刻信息對當前做出推斷,無法有效利用未來時刻的信息。

以上研究都是在訓練數據集中各個類別的樣本數量相對平衡的情況下進行的,多數類樣本和少數類樣本的數量相差不大[14]。然而在軍事指控領域中,真實戰場數據往往存在著樣本間的不平衡,比如對方佯攻的樣本通常比攻擊的多。樣本集的不平衡會導致模型很難從少數類樣本中提取到有用的信息,使模型的訓練過擬合,識別結果偏向樣本量較多的一方。目前,對于不平衡樣本情況下的目標意圖識別的研究還較少,所以針對不平衡樣本下的空中群組意圖識別的研究具有實際意義。

目前,解決樣本不平衡問題方法大致可分為3類:欠采樣[15]、過采樣[16]和混合方法[17-19]。在這3種方法中,由于欠采樣會減少多數類樣本的數量,導致重要信息丟失,混合方法中也存在同樣的問題,因此過采樣的使用頻率更高。文獻[20]通過比較受試者工作特性曲線(receiver operating characteristic curve, ROC)下的面積(area under the curve of ROC,AUC),證明了過采樣方法比欠采樣表現更好,其中合成少數過采樣技術(synthetic minority oversampling technique,SMOTE)被認為是處理不平衡問題較好的數據預處理方法[21]。基本思想是通過在相鄰少數類樣本間進行插值來平衡原始訓練數據,增加少數類樣本的數量,提高了分類器的性能[22]。但是對于較復雜的樣本集,SMOTE通過簡單增加少數類樣本但無法體現少數類特征信息,所以很難得到較好的結果[23-24]。

基于以上分析,為解決空中群組樣本不平衡以及大多數意圖識別模型準確率不高、訓練效率低等問題,本文提出了一種面向無序分類變量和連續變量的自適應邊界SMOTE (adaptive borderline-SMOTE-nominal continuous, ABSMOTE-NC)算法,研究了基于注意力機制的雙向門控循環單元(bidirectional gated recurrent unit based on attention mechanism, BiGRU-Attention)網絡的意圖識別模型[25-27]。首先,對于不平衡的樣本采用ABSMOTE-NC的方法對少數類樣本進行擴充;其次,將擴充后的數據集輸入到BiGRU層,綜合前后時刻信息提取特征;然后,輸入到注意力層,對多維特征進行深層次提取,提高對關鍵特征的關注度;最后,通過softmax函數層輸出判斷的意圖。將本文方法與多種方法進行對比,以準確率、精確率、召回率、AUC、F1-score及其算數平均marco-F1值作為評估指標,證明本文提出的方法能有效提升空中群組意圖識別的效果。

1 空中群組意圖識別問題

空中群組意圖識別是在實時動態、對抗的戰場環境中,通過傳感器采集到的空中群組的狀態信息,依靠軍事領域知識進行分析識別其意圖的過程[28]。對方群組的作戰意圖通常表現在作戰行動上,而機群在執行作戰任務過程中會在目標速度、加速度、機動類型、雷達信號等狀態特征上呈現出一定的規律,由此可以通過各種傳感器獲得的狀態數據識別出對方的意圖。

在真實戰場中,由于雙方都有豐富的軍事經驗,對方機群可能會采取一些欺騙性的行動以隱藏真實意圖,因此僅通過單一時刻的群組狀態識別其意圖會影響識別結果的準確性[11]。但群組級作戰行動是一個時序的過程,對方群組為達到其戰術意圖通常需要完成一系列作戰行動,根據連續時刻的目標狀態識別比單一時刻具有更高的可靠性。本文通過空中群組特征數據集訓練BiGRU-Attention網絡,使網絡能利用群組的時序特征狀態識別出群組意圖。完整的群組意圖識別流程如圖1所示。

圖1 空中群組意圖識別流程

在識別空中群組的意圖過程中,首先將帶有標簽的戰場歷史數據庫經過數據預處理后進行劃分訓練集和測試集,在不平衡的訓練集中用ABSMOTE-NC擴充少數類樣本,再用擴充后的數據集訓練BiGRU-Attention網絡。在實際的戰場環境中,通過各類傳感器采集時序性的目標特征向量,經預處理后輸入到訓練好的模型中就能識別出對方意圖。

1.1 群組意圖空間描述

意圖空間的選取與作戰形式、地點、規模等因素密切相關,在不同的戰場背景下通常有不同的作戰意圖。對方群組會根據目標的重要程度選擇不同的作戰意圖,同時也會隨戰場情況實時調整行動意圖。因此,需要根據實際作戰背景選取意圖空間。本文針對空中群組目標,依據領域專家經驗,選取的意圖空間為{攻擊、佯攻、撤退、偵察、監視、電子干擾}。

1.2 群組意圖識別特征描述

空中群組的意圖通常與其作戰任務有關,而群組為執行特定的作戰任務,通常會受限于飛機性能和任務需要,在某些特征信息上表現出來。比如偵察群組為了躲避地面雷達探測,往往根據戰場情況針對性選擇飛行高度;攻擊意圖的群組也會根據武器掛載情況適時調整飛行速度。因此,將空中群組的飛行速度、飛行加速度、高度、距離、雷達反射面積等作為其意圖識別的特征,而且群組的意圖與目標雷達狀態也有關。例如,執行轟炸任務的飛機只在轟炸時開啟對空或對海雷達。

群組在作戰行動中通常需要一系列戰術機動動作,因此群組的機動類型也與其意圖有關。本文以空中群組為研究對象,實現高機動的難度較大,所以本文選取11種基本操縱動作作為群組的機動類型,具體為{勻速前飛、加速前飛、減速前飛、左轉、右轉、爬升、左爬升、右爬升、俯沖、左俯沖、右俯沖}[29]。

綜上,本文對于空中群組意圖識別問題建立的特征空間為{飛行速度、飛行加速度、高度、距離、航向角、方位角、雷達反射面積、機動類型、干擾狀態、對空雷達狀態、對海雷達狀態}。將特征空間分為數值型和非數值型,如圖2所示。

圖2 群組意圖識別的特征空間

2 樣本數據處理

2.1 少數類樣本集擴充

由于戰場中戰術安排的需要,不同意圖的戰術群組在數量上存在較大差異,因此真實戰場的樣本存在不平衡性,而利用不平衡的樣本訓練時會導致模型對少數類樣本的識別準確率較低。為了模型能更準確識別各個意圖,本文首先對少數類樣本不足的情況進行新樣本合成。

邊界SMOTE針對少數類樣本邊界合成新樣本,但對于樣本邊界而言,也存在分類難易問題,且樣本合成數量也難以確定,無法處理非數值型數據。因此,本文提出ABSMOTE-NC擴充少數類樣本集。在原方法的基礎上引入自適應的思想以確定邊界樣本合成數量,根據樣本間交叉程度以及多數類樣本數量確定需要合成的少數類樣本數目。

假設少數類樣本集為P={p1,p2,…,ppnum}(pnum為少數類樣本數),多數類共有S類,且第s類樣本數目為Ms。ABSMOTE-NC算法具體步驟如下。

步驟 1對P中每個pi計算其在訓練集中的m近鄰,將m近鄰中屬于多數類樣本的個數定義為m′,若pi的m近鄰中m/2≤m′

(1)

步驟 3計算比率ri并正則化;

(2)

(3)

(4)

步驟 6對于樣本中的非數值型的特征值,選擇K近鄰中出現頻率最高的值作為pnew的值。

2.2 數據降維及處理

空中群組為了實現某一作戰意圖,在作戰行動中各架飛機狀態特征大多保持相同或相似。但將所有特征數據都作為神經網絡輸入會影響網絡收斂效率,增加模型訓練時間和存儲空間。因此,先將群組中m架飛機的n維特征向量降維,再輸入到模型中。

假設單個群組中有m架飛機,其中單機的n維特征向量為vi=[vi1,vi2,…,vin],i=1,2,…,m。對vin中數值型數據求平均值,對非數值型數據取m架飛機中出現頻率最高的值,當m架飛機出現頻率相等時,選擇對己方威脅程度大的特征值,以提高己方警惕性。

數據歸一化能夠消除量綱的影響,使數據處于同一數量級,同時能提高模型收斂效率和精度。本文對速度、加速度、高度、距離、航向角、方位角、雷達反射面積共7種數值型數據進行歸一化處理。對于第k種數值型特征數據Nk={nk1,nk2,…,nkj,…,nkl},k=1,2,…,7;l為數據總數。將第j個原始數據值nkj映射到區間為[0,1]的范圍內,結果為

(5)

式中:minNk為第k種特征數據Nk的最小值;maxNk為第k種特征數據Nk的最大值。

對于目標機動類型、干擾狀態、對空雷達狀態、對海雷達狀態共4種非數值型分類數據,神經網絡無法直接處理,所以需要將其數值化處理,轉變到[0,1]區間內。對于第r種非數值型數據Br={br1,br2,…,brh,…,brw}(r=1,2,3,4);w為分類空間的大小。將第h個分類數值brh映射到區間為[0,1]的范圍內,結果為

(6)

2.3 意圖編碼

本文以空中群組作為研究對象,將意圖空間定義為{攻擊、佯攻、撤退、偵察、監視、電子干擾}6種。由于群組的作戰意圖為分類數據,不能直接被神經網絡接收,因此需要將意圖空間中的6種模式進行編碼,與{0,1,2,3,4,5}標簽值相對應。將編碼后的標簽值輸入到模型中訓練,得到的模型運用到實際戰場中時,通過輸出的標簽值與意圖空間的對應關系,就可以得到識別出的群組意圖。

3 基于BiGRU-Attention的空中群組意圖識別模型

為提高意圖識別模型對歷史時刻和未來時刻狀態信息的利用率,在門控循環單元(gated recurrent unit, GRU)基礎上引入雙向循環機制,同時利用注意力機制為各個深層信息分配權重,以提高模型捕捉更具區分度特征的能力。BiGRU-Attention模型結構如圖3所示,模型共分為3部分,群組特征向量輸入層、隱含層和輸出層。其中,隱含層由BiGRU層、注意力層和全連接層組成[30]。

3.1 輸入層

群組特征向量輸入層主要是對不平衡的群組特征數據集進行數據預處理,使原始數據轉換成隱含層能夠處理的序列向量。首先讀取空中群組特征數據集并進行數據清洗,對群組的特征向量進行降維及歸一化處理,而后將處理后的數據隨機初始化,按8∶2劃分為訓練集和測試集,最后對訓練集中的少數類樣本采用ABSMOTE-NC方法擴充少數類樣本集。

3.2 隱含層

3.2.1 BiGRU層

圖4 GRU的循環單元結構

GRU的更新方式如下:

rt=σ(Wr[ht-1,xt]+br)

(7)

zt=σ(Wz[ht-1,xt]+bz)

(8)

(9)

(10)

式中:Wr、Wz、W和br、bz、bh為各部分相應的權重系數矩陣和偏置向量;*為哈達瑪積。

由于單向的GRU只能提取當前時刻之前的信息,無法學習之后的信息與當前時刻的關系。為了從空中群組的時序特征中提取深層次的信息,引入雙向循環機制,使BiGRU網絡在意圖識別上獲得更高的準確率。其按時間展開的模型如圖5所示。

圖5 BiGRU結構

(11)

(12)

(13)

3.2.2 注意力層

為使網絡能更關注空中群組特征中的關鍵信息,提高識別準確率,本文在BiGRU層后引入注意力機制。將BiGRU層輸出的每個隱藏層狀態作為注意力層的輸入,注意力打分函數采用加性模型,得到注意力分布,最后用加權平均的方式進行匯總,得到注意力值作為輸出的狀態向量。注意力機制的模型結構如圖6所示。

圖6 注意力機制模型結構

計算公式如下:

st=tanh(Wtyt+bt)

(14)

(15)

(16)

式中:st是注意力打分函數,表示t時刻隱含層狀態的信息量;αt表示各個隱含層狀態的權重;Wt和bt分別是權重向量和偏置向量;Y是注意力層最終的輸出向量。

3.3 輸出層

輸出層通過softmax函數將注意力機制的輸出轉變成分類的概率,從而對群組特征數據進行意圖識別。具體公式為

ck=softmax(WcY+bc)

(17)

式中:Wc和bc為需要訓練的網絡參數;ck為輸出的意圖標簽。

4 仿真實驗分析

4.1 實驗環境及參數設置

實驗以某空域群組為研究目標,實驗數據從某作戰仿真平臺獲得。通過多次運行仿真系統,得到多種意圖下的空中群組樣本,從中選取8 000個空中群組意圖樣本,每個樣本中包含一個群組(每個群組包含2~5架飛機)連續12幀的狀態信息(每幀信息包括方位角、航向角、飛行速度、飛行加速度等11維特征數據)。由于樣本集數據量過大,先由領域專家依據經驗知識編寫群組意圖識別的相關規則,再通過計算機對樣本集進行分類,最后由領域專家為識別出的意圖與認知經驗存在歧義的樣本進行修訂。為了模擬樣本間的不平衡,選取的樣本集中各意圖占比為偵察意圖50.00%、電子干擾意圖25.18%、佯攻意圖12.91%、撤退意圖8.26%、監視意圖2.48%、攻擊意圖1.18%。樣本規模為8 000,其中偵察意圖與攻擊意圖樣本數之比超過40。

本實驗采用Python語言,學習框架為Keras,運行環境為Pycharm2021軟件、Win10系統、RTX2060顯卡、16 GB內存。模型評估指標選用機器學習常用的精確率、召回率、F1-score(模型精確率和召回率的調和平均)及其算數平均macro-F1。由于本文針對的是不平衡樣本下的意圖識別問題,而且更關注少數類的攻擊、監視意圖的樣本,因此將ROC下方的面積AUC也作為評估指標。ROC曲線是以假正例率(意圖識別錯誤的負樣本數占實際的負樣本數的比例)為坐標橫軸、以真正例率(意圖識別正確的正樣本數占實際的正樣本數的比例)為坐標縱軸繪制的曲線。AUC取值在[0,1],AUC值越大,說明模型的分類效果越好。實驗中需要設置并調整超參數,因此根據模型的macro-F1和AUC值,經過多次運行迭代,設置實驗超參數如表1所示。

表1 模型主要參數

4.2 仿真實驗分析

4.2.1 ABSMOTE-NC效果評估

(1) 方法合理性驗證實驗

為保證ABSMOTE-NC生成樣本的合理性,需驗證合成樣本和原始樣本的相似性。對原始樣本集中訓練集和測試集分別使用ABSMOTE-NC擴充少數類樣本,利用擴充后的訓練集訓練模型,將訓練后的模型對擴充測試集中原始少數類樣本和合成的少數類樣本進行識別,具體結果如表2所示。

表2 原始樣本和合成樣本比較

由表2可以看出模型對于原始樣本和合成樣本的識別準確率相近,說明合成樣本與原始樣本的相似性較高,驗證了ABSMOTE-NC方法的合理性。

(2) 識別結果對比

將空中群組樣本集劃分訓練集后直接輸入模型訓練,訓練完成后對測試集樣本進行測試,得到結果表明模型的準確率達到97.94%。但通過分析表3中的各意圖間的混淆矩陣,可以看出模型對佯攻、偵察意圖等多數類樣本的識別率達到了100%,但對于攻擊和監視意圖樣本的召回率較低,分別為60%和32.5%。經分析,撤退和電子干擾意圖的樣本特征對比較明顯,和樣本比例關系不大;而對于特征狀態相似的意圖,攻擊與佯攻、偵察與監視的樣本不均衡使模型在訓練過程中對少數類樣本欠擬合,從而導致模型不能準確識別意圖間的邊界。

表3 原始樣本的意圖識別混淆矩陣

然而,在真實戰場中攻擊和監視的群組對己方重要程度通常更大,因此為了使模型能更合理地確定少數類意圖的邊界,使用第2.1節中ABSMOTE-NC的方法對訓練集中的少數類樣本進行擴充,再對模型進行訓練,得到的意圖識別混淆矩陣如表4所示。由表可知,模型對攻擊和監視意圖的樣本的召回率有了明顯的提升,分別達到了86.67%和77.5%。

表4 擴充樣本后的意圖識別混淆矩陣

(3) 與其他過采樣算法對比

為了能更準確分辨模型的分類效果,除了使用準確率外,還引入macro-F1、AUC作為評估指標,以驗證ABSMOTE-NC的優越性。將其與Random Oversampling、Borderline-SMOTE-NC、面向無序分類變量和連續變量的SMOTE-最近鄰規則(SMOTE-nominal continuous-edited nearest neighbor, SMOTENC-ENN)、SMOTE-NC過采樣算法進行比較,具體結果如圖7所示。

圖7 不同過采樣算法的評估指標對比

由圖7可知,通過過采樣算法,ABSMOTE-NC在macro-F1和AUC值均有明顯提升,分類效果有所改善。雖然SMOTENC-ENN和SMOTE-NC在準確率上不如原始數據,分析后應是合成新樣本后意圖邊界靠近少數類中心而導致多數類樣本識別率降低,但總體的分類效果還是優于原始數據。本文中ABSMOTE-NC方法得到的macro-F1和AUC值分別達到了0.931 7和0.981 4,相比原始模型分別提高了7.33%和8.61%,說明模型能較準確地劃分邊界區域,證明了算法的有效性和優越性。

4.2.2 BiGRU-Attention模型對比分析

(1) 與DNN、SAE、LSTM模型對比

為驗證本文模型的優越性,將本文BiGRU-Attention模型與文獻[10]中基于SAE的目標戰術意圖識別模型、文獻[11]中基于DNN的作戰意圖識別模型、文獻[29]中LSTM+Adam空戰意圖識別模型進行對比實驗。設置模型參數如表5所示,在對少數類樣本集擴充后再利用各模型進行意圖識別,實驗結果如圖8所示。

表5 模型參數設置

圖8 模型的評估指標對比

由圖8可知本文中BiGRU-Attention模型在macro-F1和AUC兩個評估指標上明顯高于其余模型,在意圖識別上有更好的分類效果,驗證了模型的優越性。

(2) 消融實驗

第4.2.1節實驗證明了相比LSTM、SAE、DNN等網絡,BiGRU-Attention的分類效果更優越,但這些網絡不屬于同一類型且參數設置也不盡相同,導致實驗缺乏一定的說服力。因此,將本文BiGRU-Attention模型與GRU、BiGRU、GRU-Attention模型進行消融實驗,實驗結果如圖9、圖10和表6所示。

圖9 模型準確率變化

圖10 消融實驗模型評估指標對比

表6 消融實驗各模型評估指標值

由圖9可知,本文所提BiGRU-Attention模型在訓練過程中準確率始終優于GRU、BiGRU、GRU-Attention 3種模型,能夠有效提升意圖識別效果,而BiGRU、GRU-Attention在訓練中準確率均高于GRU模型,經分析后認為是模型中的雙向循環機制和注意力機制能有效提升訓練效果與學習效率。

由表6可以看出,由于攻擊和監視意圖的樣本數較少,合成樣本不能完全代替真實樣本,且攻擊與佯攻、監視與偵察的特征相似度又較高,導致攻擊和監視意圖樣本的識別率不高。而BiGRU-Attention模型在大部分樣本的精確率、召回率、F1-score上均高于其余3種模型,證明了本文模型能有效提升意圖識別效果。由圖10可知,本文模型與其他模型相比,在macro-F1和AUC值上都有明顯的優勢,也驗證了模型在意圖識別效果上的優越性。

5 結 論

本文針對空中群組的真實樣本不平衡而導致模型識別效果不佳的問題,提出了先擴充樣本集訓練后識別的方法。該方法先采用ABSMOTE-NC對訓練集中少數類樣本集進行擴充,增加樣本空間中少數類意圖的邊界樣本,再利用BiGRU-Attention模型對樣本信息進行深層次特征提取,以提升模型意圖識別的效果。最終通過仿真實驗表明ABSMOTE-NC方法能有效提升樣本不平衡情況下的空中群組意圖識別效果,且BiGRU-Attention模型在意圖識別上有更高的識別率。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 亚洲高清中文字幕| 亚洲精品无码高潮喷水A| 日本亚洲欧美在线| 久草视频中文| 国产乱肥老妇精品视频| 国产日韩精品一区在线不卡| 动漫精品中文字幕无码| 久久久波多野结衣av一区二区| 91精品国产自产在线老师啪l| 波多野结衣一区二区三区四区| 久久香蕉国产线看观看亚洲片| 久久精品人妻中文系列| 免费看美女毛片| 免费99精品国产自在现线| 国产精品私拍99pans大尺度| 看av免费毛片手机播放| 91一级片| 亚洲无线国产观看| 免费一级毛片在线播放傲雪网| 54pao国产成人免费视频 | 亚洲精品色AV无码看| 久久国产精品77777| 日韩欧美中文字幕在线精品| 青草精品视频| 特级做a爰片毛片免费69| 美女扒开下面流白浆在线试听| 天堂亚洲网| 久久这里只有精品2| 亚洲无码视频图片| 久久午夜夜伦鲁鲁片不卡 | 亚洲国产成人超福利久久精品| 午夜性爽视频男人的天堂| V一区无码内射国产| 视频二区欧美| 亚洲精品无码av中文字幕| 四虎永久在线视频| 亚洲资源站av无码网址| 免费福利视频网站| 成人在线观看一区| 国产成人高清在线精品| 最新国产你懂的在线网址| 亚洲国产精品国自产拍A| 国产黑丝视频在线观看| 久久婷婷五月综合97色| 这里只有精品在线播放| 国产亚洲精久久久久久无码AV| 免费人成在线观看视频色| 免费在线视频a| 国产Av无码精品色午夜| 国产成人精品三级| 午夜国产大片免费观看| 欧美人人干| 57pao国产成视频免费播放| 中文字幕1区2区| 亚洲欧美日韩另类在线一| 色九九视频| 亚洲国产成人在线| 91青青草视频| 九九香蕉视频| 久久性视频| 在线免费观看AV| 欧美日韩北条麻妃一区二区| 91在线无码精品秘九色APP | 亚洲精品桃花岛av在线| 波多野结衣无码AV在线| 久久精品国产精品一区二区| 亚洲人成网址| 国产美女无遮挡免费视频| 欧美成人综合在线| 伊人查蕉在线观看国产精品| 久久情精品国产品免费| Aⅴ无码专区在线观看| 亚洲色欲色欲www在线观看| 国产99在线观看| 2021精品国产自在现线看| 夜精品a一区二区三区| 久久精品中文字幕少妇| 国内精品久久人妻无码大片高| 国产超碰在线观看| 欧美性色综合网| 高清精品美女在线播放| 亚洲码一区二区三区|