999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的兵棋演習數(shù)據(jù)特征提取方法研究

2016-10-31 05:26:24鄭書奎吳琳賀筱媛
指揮與控制學報 2016年3期
關鍵詞:特征提取深度方法

鄭書奎 吳琳 賀筱媛

現(xiàn)代戰(zhàn)爭的時空特性發(fā)生重大變化,多維戰(zhàn)場空間融為一體,戰(zhàn)略、戰(zhàn)役、戰(zhàn)術行動界限趨于模糊,時間要素不斷升值,戰(zhàn)爭進入發(fā)現(xiàn)即摧毀的“秒殺”時代.模擬現(xiàn)代戰(zhàn)爭的大型計算機兵棋演習呈現(xiàn)出復雜性、時變性、快速性等特點,這給指揮員帶來極大的認知困難,嚴重時會產生戰(zhàn)爭炫目[1],單純依靠人來分析理解戰(zhàn)場態(tài)勢已難以跟上戰(zhàn)爭節(jié)奏.戰(zhàn)場態(tài)勢是指揮員指揮作戰(zhàn)、定下決心的主要依據(jù),分析清楚、理解透徹戰(zhàn)場態(tài)勢是實施各類作戰(zhàn)行動的主要前提。因此,亟需探索一種新的方法快速準確地實現(xiàn)兵棋演習戰(zhàn)場態(tài)勢的分析理解.機器學習有望成為解決這一問題的新方向,運用機器學習方法對兵棋演習數(shù)據(jù)進行智能化分析處理,迅速、自主、高效地理清戰(zhàn)場形勢,可提升對兵棋演習戰(zhàn)場態(tài)勢的感知、分析和理解能力.為此,美軍先后啟動了DEFT、PPAML等多項研究計劃,投入大量的人力和物力研究機器學習分析方法.而數(shù)據(jù)特征是機器學習分析處理的原材料,機器學習算法的效能直接受輸入數(shù)據(jù)特征的質量影響,有效提取兵棋演習數(shù)據(jù)的特征成為運用機器學習方法分析戰(zhàn)場態(tài)勢面臨的首要問題.因兵棋演習數(shù)據(jù)具有體量巨大、種類繁多、格式各異、結構復雜、維度極高、時刻變化等特點,傳統(tǒng)特征提取方法難以發(fā)揮理想效果.近年來飛速發(fā)展的深度學習方法提供了新的思路,該方法在無監(jiān)督的情況下,通過多層神經(jīng)網(wǎng)絡的層層學習,在保持信息不丟失的情況下,可以自主抽取隱含在戰(zhàn)場態(tài)勢信息中的顯著特征,并在新的特征空間實現(xiàn)對大數(shù)據(jù)的緊致表達,從而可以達到數(shù)據(jù)特征提取的目的,在面對戰(zhàn)爭偶然性、不確定性、時變性等復雜問題方面具有巨大的優(yōu)勢和潛力.

1 深度學習概述

深度學習研究起源于人工神經(jīng)網(wǎng)絡,是人工智能研究的一個新方向,屬于機器學習中的特征學習領域.它通過組合多層簡單非線性模塊實現(xiàn)輸入與輸出的復雜非線性關系表達、原始輸入到高層特征的逐層抽取,以及高維稀疏空間到低維特征空間的特征映射.

1.1 人工神經(jīng)網(wǎng)絡

人工神經(jīng)網(wǎng)絡是由簡單處理單元組合而成的大規(guī)模并行分布式處理器,基本處理單位是神經(jīng)元,包括突觸權值、偏置、加法器和激活函數(shù)4個基本元素,神經(jīng)元結構參見圖1.

圖1 神經(jīng)元模型

當信號輸入到神經(jīng)元的第k個突觸上時,輸入數(shù)據(jù)xk被乘以突出權值ωk,然后被輸入到加法器中,對輸入數(shù)據(jù)的加權值進行求和,再加上外部偏置b得到數(shù)據(jù)Pxkωk+b.為了限制輸出振幅和實現(xiàn)非線性功能,最后要將數(shù)據(jù)代入激活函數(shù)f(x),得到輸出值:

將單一神經(jīng)元組合成網(wǎng)絡就形成了人工神經(jīng)網(wǎng)絡,典型的網(wǎng)絡結構見圖2.

圖2 一種典型的神經(jīng)網(wǎng)絡結構

設第l層的第k個神經(jīng)元的輸出為則

其中,J為訓練目標,L為損失函數(shù).常用的損失函數(shù)均方誤差(Mean squared error,MSE)和交叉熵(Cross-Entropy,CE).

從而,神經(jīng)網(wǎng)絡的訓練轉化為一個求極值的問題.通過計算可得出參數(shù)更新矩陣,從而得出網(wǎng)絡參數(shù)ω和b.

1.2 深度學習模型

深度學習結構是深度神經(jīng)網(wǎng)絡,它由多層非線性網(wǎng)絡堆棧而成的深度神經(jīng)網(wǎng)絡,包括一個輸入層、一個輸出層和至少一個隱含層,高層輸入來自于低層輸出,構建成輸入到輸出的函數(shù)形式,節(jié)點間的權重參數(shù)相當于表征函數(shù)關系的系數(shù),圖3所示為典型的深度神經(jīng)網(wǎng)絡.

圖3 典型的深度學習模型

由于梯度不穩(wěn)定、難以擺脫標簽數(shù)據(jù)以及容易陷入局部極值的原因,導致深度神經(jīng)網(wǎng)絡難以訓練[2].直到Hinton、Bengio等人的不斷探索研究,提出了先進行逐層貪婪無監(jiān)督預訓練,再進行有監(jiān)督調優(yōu)訓練的方法,才大幅提高了深度學習模型的訓練效果,使深度學習的應用取得成功[3?7].

1.3 深度學習在數(shù)據(jù)特征提取上優(yōu)勢

深度學習通過多層提取和多次迭代后,能夠得到更好特佂值,對于復雜結構、極高維度、強相關性的數(shù)據(jù)具有更強的表達能力,具有自主性、非線性、客觀性特性,對噪聲和冗余信息有很好的魯棒性,無監(jiān)督學習方式擺脫了數(shù)據(jù)標簽化要求,自學習、自適應、泛化能力更強,具有良好的可擴展性和規(guī)范性.

2 面向兵棋演習數(shù)據(jù)特征提取的深度學習模型設計

深度學習是理論上的“黑箱”,難以通過數(shù)學方法計算參數(shù)、描述原理,也沒有完全固定的程序和方法構建深度神經(jīng)網(wǎng)絡、設計訓練算法,尤其是兵棋演習數(shù)據(jù)和提取要求具有特殊性,模型設計需要在具體實驗中不斷探索和完善.

2.1 模型的建立

深度神經(jīng)網(wǎng)絡有多種結構,每種結構都有不同的特點和功能,適用于不同的需求和應用.自編碼器能夠對輸入數(shù)據(jù)進行編碼和解碼,實現(xiàn)數(shù)據(jù)的壓縮和重構,通過最小化重構誤差來最優(yōu)化壓縮性能,且不依賴于數(shù)據(jù)標簽,在兵棋演習數(shù)據(jù)這類海量數(shù)據(jù)特征提取方面具有顯著優(yōu)勢.在自編碼器的基礎上增加約束條件,可以實現(xiàn)擴展功能.

2.1.1 自編碼器

自編碼器是一個具有三層神經(jīng)網(wǎng)絡的無監(jiān)督算法,能夠實現(xiàn)編碼和解碼功能,網(wǎng)絡結構如圖4所示.

圖4 自編碼器網(wǎng)絡結構

自編碼器的運行過程是輸入數(shù)據(jù)先從輸入層到隱含層進行編碼,再從隱含層到輸出層進行解碼,如圖5所示.

圖5 自編碼器運行過程

重構數(shù)據(jù)可用特征數(shù)據(jù)線性表示:

其中,表示重構數(shù)據(jù).

2.1.2 降噪自編碼器

2008年,Vincent提出了降噪自編碼器[8],通過加入按照一定概率分布的噪聲,對自編碼器的輸入數(shù)據(jù)造成一定程度的破壞,使輸入數(shù)據(jù)x按設定的破壞率映射變換為x0,用x0對自編碼器進行不斷訓練,使其能夠重構還原出原始數(shù)據(jù)x,其網(wǎng)絡結構如圖6所示:

當降噪自編碼將含噪數(shù)據(jù)x0重構還原出原始數(shù)據(jù)x時,就消除了部分或全部輸入噪聲,從而實現(xiàn)了降噪功能,改善了數(shù)據(jù)污染,減小了訓練數(shù)據(jù)與測試數(shù)據(jù)的差別.在降噪過程中,自編碼器要學習到輸入數(shù)據(jù)更為魯棒的表達,從而使學習到的特征魯棒性更強,提高了自編碼器的泛化能力.

圖6 降噪自編碼器結構

2.1.3 稀疏自編碼器

在神經(jīng)網(wǎng)絡中加入稀疏性限制,構建的稀疏自編碼器同時擁有稀疏性限制產生的良好表達能力和神經(jīng)網(wǎng)絡具有的自主性、非線性、客觀性、良好魯棒性等特性,理論上具有更好的特征轉換能力,更適合于復雜數(shù)據(jù)的特征提取或特征提取,圖7所示為稀疏自編碼的一般結構.

圖7 稀疏自編碼器結構圖

2.1.4 棧式自編碼網(wǎng)絡

為了使自編碼器擁有多層神經(jīng)網(wǎng)絡的優(yōu)良性能,要對若干個自編碼器進行棧化堆疊,形成棧式自編碼網(wǎng)絡,前一個自編碼器的輸出作為后一個自編碼器的輸入.棧式自編碼網(wǎng)絡結構見圖8所示、運行過程如圖9所示.

圖8 棧式自編碼深度神經(jīng)網(wǎng)絡結構

圖9 棧式自編碼網(wǎng)絡運行過程

2.1.5 網(wǎng)絡結構設計

本文選擇棧式稀疏降噪自編碼網(wǎng)絡作為兵棋演習數(shù)據(jù)特征提取的深度學習模型.一般而言,更多的網(wǎng)絡層數(shù)能夠得到更抽象的特征和更本質的描述,如果網(wǎng)絡層數(shù)過多,會加大網(wǎng)絡訓練和計算的難度,導致網(wǎng)絡的過擬合.導致網(wǎng)絡的過擬合.Vincent P、Larochelle H、Bengio Y、Lajoie I等多人的研究報告[8?9]指出,一般將隱含層設為三層可取得良好效果.網(wǎng)絡每層的節(jié)點數(shù)與數(shù)據(jù)的維度直接相關,輸入層節(jié)點數(shù)應與輸入數(shù)據(jù)維度相同,輸出層節(jié)點數(shù)代表了輸出數(shù)據(jù)的維度,隱含層每層的節(jié)點數(shù)要根據(jù)特征提取效果調整設定.第一層隱含層節(jié)點數(shù)大于輸入層節(jié)點數(shù)可獲得更好的特征提取效果,原因是當隱含層神經(jīng)元個數(shù)大于輸入層神經(jīng)元個數(shù)時,可實現(xiàn)特征檢測功能,能夠提取過完備特征.第二、三層隱含層節(jié)點數(shù)可按逐層遞減設置.輸出層節(jié)點數(shù)要通過計算原始數(shù)據(jù)集的本征維度確定,激活函數(shù)選擇常用的sigmoid函數(shù),具體層數(shù)和每層神經(jīng)元數(shù)將在實驗中根據(jù)結果多次調試后最終確定.此時,可基本確定網(wǎng)絡結果,如圖10所示.

2.2 模型的訓練

在前人研究的基礎上,本文針對兵棋演習數(shù)據(jù)特征提取這一應用背景對訓練方法進行了調整優(yōu)化,提高了模型的訓練效率和性能.

2.2.1 預訓練

預訓練采取逐層貪婪無監(jiān)督方法,它每次只訓練一層網(wǎng)絡而其他層參數(shù)保持不變;它不追求整體最優(yōu)結果,而選擇次優(yōu)結果;它使用無標簽數(shù)據(jù)進行無監(jiān)督訓練;它只是預先訓練,得出權重的初始值.

具體步驟:

1)輸入無標簽原始數(shù)據(jù).

2)運用逐層貪婪無監(jiān)督學習算法對網(wǎng)絡權值進行初始化,流程參見圖11.

其中l(wèi)+1層編碼數(shù)據(jù)為:

解碼數(shù)據(jù)為:

優(yōu)化目標函數(shù)為:

固定其他層參數(shù)不變,運用隨機梯度下降算法對l+1層參數(shù)ωl+1、bl+1進行調優(yōu).

權重系數(shù)為:

通過預訓練,最后得出權重系數(shù)矩陣[W2,W3,···,WL?1]完成對網(wǎng)絡的預訓練,再對WL進行隨機初始化,實現(xiàn)整個網(wǎng)絡參數(shù)的初始化.

2.2.2 調優(yōu)訓練

調優(yōu)訓練是利用少量標簽數(shù)據(jù)進行有監(jiān)督訓練,同時對整個網(wǎng)絡的訓練誤差進行優(yōu)化,目的是對整個網(wǎng)絡的權重進行微調,使網(wǎng)絡具有更精確的特征提取能力.

圖11 逐層貪婪無監(jiān)督預訓練流程

具體步驟:

1)輸入標簽化數(shù)據(jù)對(x(i),y(i)).

2)運用隨機梯度下降算法對網(wǎng)絡權值進行優(yōu)化,流程參見圖12.

圖12 隨機梯度下降運算流程

其中迭代公式為:

其中每層輸出為:

輸出層誤差為:

誤差反向傳播時每層誤差為:

圖13 反向傳播運算流程

2.3 模型的檢驗

結果檢驗類似于選取準則函數(shù),在選定準則函數(shù)后,尋找最優(yōu)特征提取結果就變成了求泛函數(shù)極值問題,選取準則函數(shù)是特征提取算法的關鍵.分類計算是最佳的準則函數(shù),計算原始高維數(shù)據(jù)經(jīng)過特征提取后得到的低維數(shù)據(jù)的分類正確率,分類正確率的高低代表了特征提取方法的性能,本文選用Softmax分類器.網(wǎng)絡預訓練結束后,將Softmax分類器與深度神經(jīng)網(wǎng)絡進行級聯(lián),構成全局網(wǎng)絡結構,使數(shù)據(jù)特征作為分類器的輸入,使用標簽數(shù)據(jù)采用有監(jiān)督方式同時訓練深度神經(jīng)網(wǎng)絡和分類器,使分類結果更為精確。訓練完成后,輸入測試數(shù)據(jù),得到基于測試數(shù)據(jù)特征的分類正確率,正確率越高代表特征質量越高,方法效果越好.

圖14 數(shù)據(jù)集處理和使用過程

表2 兩個輸入數(shù)據(jù)集描述

3 實驗與結果分析

實驗平臺計算機CPU為Inten Xeon E5-2687 W,內存為64GB,硬盤2TB.算法采用python語言及開源程序包編寫程序的具體代碼.實驗室搭建分布式機器學習平臺,使用Mllib作為工程化的基礎庫,跑在Spark上,基于Spark有很多神經(jīng)網(wǎng)絡和深度學習的庫,還支持Python client.

表3 模型參數(shù)

3.1 實驗數(shù)據(jù)集

實驗數(shù)據(jù)集來源于國防大學戰(zhàn)役兵棋演習系統(tǒng),是人在回路的作戰(zhàn)模擬數(shù)據(jù),是和平時期最貼近于現(xiàn)代戰(zhàn)爭的計算機推演數(shù)據(jù).首先對分類存儲于不同數(shù)據(jù)庫中的數(shù)據(jù)進行集成,然后選取靜態(tài)和動態(tài)兩類兵棋演習數(shù)據(jù),分別標稱數(shù)據(jù)集一和數(shù)據(jù)集2,并針對性構建兩個實驗模型,應用于數(shù)據(jù)集1的模型稱為模型1,應用于數(shù)據(jù)集2的模型稱為模型2.輸入數(shù)據(jù)集具體情況見表2所示,數(shù)據(jù)集的處理和使用過程見圖14.

3.2 基于深度學習的實驗

按照前文設計的方法,對預處理后的兵棋演習數(shù)據(jù)集行進行特征提取,通過特征計算分類精度,檢驗特征提取方法的性能.

3.2.1 參數(shù)設定

深度神經(jīng)網(wǎng)絡的參數(shù)設定有些靠計算得出,有些靠實驗調試,有些靠經(jīng)驗和操作上的藝術.本文針對課題的特殊性,采取理論分析、數(shù)學計算、實驗對比調試等方法設定參數(shù),科學地選取出最優(yōu)參數(shù)組合.權值、偏置、輸入維度等參數(shù)通過理論分析和數(shù)據(jù)計算得出,隱含層節(jié)點數(shù)、噪聲等級、稀疏限制參數(shù)在實驗中根據(jù)結果優(yōu)化得出,具體參數(shù)見表3.

3.2.2 實驗步驟

1)預訓練

將無標簽的兵棋演習訓練數(shù)據(jù)集輸入到輸入層、隱含層1、重構層1組成的第一個稀疏降噪自編碼器中,訓練出隱含層1的權重參數(shù),并計算出隱含層1的輸出;將隱含層1的輸出作為隱含層1、隱含層2、重構層2組成的第二個稀疏降噪自編碼器的輸入,訓練出隱含層2的權重參數(shù),并計算出隱含層2的輸出;同樣方法計算出隱含層3、輸出層的權重參數(shù)和輸出數(shù)據(jù);將輸出層數(shù)據(jù)作為Softmax分類器的輸入,使用兵棋演習數(shù)據(jù)標簽訓練出分類器的參數(shù),如圖15所示.

2)網(wǎng)絡連接

預訓練結束后,將輸入層、隱含層1、隱含層2、隱含層3、輸出層和分類器進行連接,構成一個棧式稀疏降噪自編碼網(wǎng)絡與Softmax分類器的級聯(lián)結構,如圖16所示.

3)微調訓練

使用帶標簽的兵棋演習訓練數(shù)據(jù)集對級聯(lián)的Stacked Sparse Denoising AE-Softmax網(wǎng)絡進行整體訓練,計算整個網(wǎng)絡的損失函數(shù)和對每個參數(shù)的偏導函數(shù),用誤差反向傳播和隨機梯度下降法求出損失函數(shù)為最小值時的參數(shù),這些參數(shù)即為整個級聯(lián)網(wǎng)絡的最終參數(shù),如圖17所示.

圖15 預訓練過程

圖16 網(wǎng)絡連接

4)網(wǎng)絡測試

將帶標簽的兵棋演習數(shù)據(jù)集輸入到級聯(lián)網(wǎng)絡中,經(jīng)過層層特征提取,最后將輸出層的數(shù)據(jù)特征作為分類器的輸入進行分類識別,并與數(shù)據(jù)標簽進行對比,計算得出分類誤差,即為網(wǎng)絡的測試結果,如圖18所示.

圖17 微調訓練過程

圖18 網(wǎng)絡測試

3.3 基于其他方法的對比試驗

為了比較驗證深度學習方法處理兵棋演習數(shù)據(jù)特征提取問題的能力,將采取3類、8種不同方法進行對比實驗,如圖19所示.

圖19 對比實驗方法

表4 基于不同方法的特征分類誤差對比表

3.4 實驗結果

運用3大類、9種方法分別對兩個兵棋演習數(shù)據(jù)集進行特征提取實驗,為確保實驗環(huán)境、條件、標準相同,所有實驗均在同一平臺上進行,選取相同的參數(shù),設置相同特征提取維度,都使用Softmax分類器進行測試,分成相同的類別,重復相同的實驗次數(shù),最終計算所有實驗結果的平均值.對所有方法的測試精度和運行時間兩個指標進行記錄,代表方法的特征提取精度和速度,作為衡量特征提取方法性能的主要參數(shù).實驗使用2個數(shù)據(jù)集、運用9種方法,共得到900組結果,取平均值后得出18組結果,結果見表4.

通過實驗結果可得出,對于兵棋演習數(shù)據(jù)的特征提取,淺層神經(jīng)網(wǎng)絡與傳統(tǒng)方法的性能相近,但淺層神經(jīng)網(wǎng)絡的速度更快;稀疏性限制條件和噪聲干擾對神經(jīng)網(wǎng)絡的魯棒性、分類精度提升有顯著作用,相比之下噪聲干擾的作用更大,同時加入稀疏性限制條件和噪聲干擾能夠取得更好效果;相比于淺層神經(jīng)網(wǎng)絡,深層神經(jīng)網(wǎng)絡取得了更好的分類結果,加入稀疏性限制和噪聲干擾的深層神經(jīng)網(wǎng)絡分類精度得到大幅提升,接近于99%,也證明深度學習方法適用于兵棋演習數(shù)據(jù)特征提取.雖然深層網(wǎng)絡的運算時間較淺層網(wǎng)絡和傳統(tǒng)方法明顯更長,但隨著計算機技術的發(fā)展,CPU、GPU性能的不斷提升,這一問題必將得到解決.

4 結論

隨著現(xiàn)代戰(zhàn)爭的不斷發(fā)展,作戰(zhàn)樣式將呈現(xiàn)出快速化、多樣性、復雜化等特點,依靠人工智能的方法來分析戰(zhàn)爭、理解戰(zhàn)爭、預測戰(zhàn)爭已成為大勢所趨,必將對未來戰(zhàn)爭的勝負發(fā)揮重要影響.由于機器學習需要好的數(shù)據(jù)特征才能真正發(fā)揮作用,因此,數(shù)據(jù)特征提取是運用機器學習方法分析戰(zhàn)場態(tài)勢首先要解決的問題.基于棧式稀疏降噪自編碼網(wǎng)絡的特征提取是一種強大的非線性特征提取方法,它的表達能力、泛化能力、對噪聲和冗余信息的魯棒性更強,具有更好的自主性、非線性、客觀性、可擴展性、規(guī)范性特性,并擺脫了海量數(shù)據(jù)標簽化的要求,是一種戰(zhàn)場態(tài)勢數(shù)據(jù)特征提取的理想方法,較傳統(tǒng)方法和淺層神經(jīng)網(wǎng)絡方法具有較大優(yōu)勢.當然,單獨運用某一種方法可能無法取得最佳效果,需要綜合使用兩種或幾種特征提取方法.可以預見的是,基于深度學習的特征提取方法與其他特征提取方法相互配合使用必將產生更好的特征提取效果.

猜你喜歡
特征提取深度方法
深度理解一元一次方程
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
深度觀察
深度觀察
深度觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于MED和循環(huán)域解調的多故障特征提取
主站蜘蛛池模板: 日本免费一级视频| 精品免费在线视频| 最新国产网站| 久久综合九九亚洲一区| 成年A级毛片| 国产伦片中文免费观看| 免费高清a毛片| 国产精品专区第1页| 欧美三级视频网站| 亚洲天堂首页| 中文字幕久久精品波多野结| 婷婷亚洲最大| 97超碰精品成人国产| 日本一本正道综合久久dvd| 精品无码一区二区三区在线视频| 特级毛片免费视频| 亚洲日韩第九十九页| 91精品综合| 欧美黄网在线| 黄色在线不卡| 久久久久免费看成人影片| 无码高清专区| 白浆视频在线观看| 色噜噜中文网| 亚洲精品自拍区在线观看| 免费国产好深啊好涨好硬视频| 国产综合无码一区二区色蜜蜜| 亚洲天堂成人在线观看| 国产资源免费观看| 日本亚洲成高清一区二区三区| 成人综合网址| 色男人的天堂久久综合| h视频在线播放| 亚洲天堂网站在线| 在线视频精品一区| 国产成人免费手机在线观看视频 | 国产成人免费手机在线观看视频 | 日本午夜精品一本在线观看| 噜噜噜综合亚洲| 国产精品亚洲欧美日韩久久| 亚洲色无码专线精品观看| 91探花国产综合在线精品| 亚洲欧美成人影院| 欧美性天天| 久久久久青草线综合超碰| 午夜国产不卡在线观看视频| 一区二区三区四区日韩| 精品色综合| AV在线麻免费观看网站| 播五月综合| 亚洲中文字幕在线观看| 香蕉久人久人青草青草| 久久精品国产精品一区二区| 日本欧美中文字幕精品亚洲| 国产人免费人成免费视频| 在线免费无码视频| 亚洲天堂网站在线| 亚洲欧美另类视频| 欧美成a人片在线观看| 欧美激情综合| 538国产视频| 精品国产网| 亚洲高清无在码在线无弹窗| 精品视频一区二区观看| 国产精品专区第1页| 老司机精品99在线播放| 成人av专区精品无码国产| 国产白浆在线| 免费aa毛片| 亚洲swag精品自拍一区| 久久亚洲国产视频| 久久免费精品琪琪| 国产另类乱子伦精品免费女| 无码又爽又刺激的高潮视频| 国产精品 欧美激情 在线播放 | 潮喷在线无码白浆| 亚洲最大综合网| 亚洲精品无码av中文字幕| 露脸一二三区国语对白| 啦啦啦网站在线观看a毛片| 99精品福利视频| 亚洲精品国产成人7777|