999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的眼動跟蹤數(shù)據(jù)融合算法

2021-05-26 03:13:44高淑萍
計算機工程與應(yīng)用 2021年10期
關(guān)鍵詞:眼動特征融合

趙 怡,高淑萍,何 迪

1.西安電子科技大學(xué) 數(shù)學(xué)與統(tǒng)計學(xué)院,西安710126

2.西安電子科技大學(xué) 通信工程學(xué)院,西安710071

視覺目標(biāo)跟蹤技術(shù)在軍事、醫(yī)療、人機交互等領(lǐng)域具有廣泛的應(yīng)用場景。核化相關(guān)濾波算法(Κernel Correlation Filter,ΚCF)[1]作為經(jīng)典的目標(biāo)跟蹤算法之一,在目標(biāo)跟蹤領(lǐng)域中取得了較大的成就。但當(dāng)目標(biāo)出現(xiàn)光照變化、遮擋、運動模糊、形變、尺度變化時極易出現(xiàn)目標(biāo)跟丟現(xiàn)象,從而導(dǎo)致目標(biāo)跟蹤效果準(zhǔn)確度不高。目前,視線跟蹤技術(shù)[2]主要是基于瞳孔角膜反射原理。在注視點采集中,由于受試者視覺疲勞以及設(shè)備噪音等,極易出現(xiàn)采樣結(jié)果準(zhǔn)確度不高以及丟幀現(xiàn)象。而數(shù)據(jù)融合技術(shù)將來自多個傳感器的信息相結(jié)合,以實現(xiàn)比單獨使用單個傳感器所能達到的更高的準(zhǔn)確性和更具體的推論[3]。因此如何利用數(shù)據(jù)融合方法來實現(xiàn)目標(biāo)跟蹤算法與視線跟蹤技術(shù)的優(yōu)勢互補,是一個非常值得研究的問題。

圖1 視頻序列中目標(biāo)的部分位置

基于深度學(xué)習(xí)的融合算法在眾多領(lǐng)域中均獲得了較好的成果。文獻[4-6]研究表明,利用人工神經(jīng)網(wǎng)絡(luò)融合方法來處理非線性問題具有較高的研究價值。其中,文獻[4]將人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)的方法應(yīng)用于障礙物檢測,實驗結(jié)果表明較傳統(tǒng)方法其性能更為突出;文獻[5]提出了基于層次分析法的反向傳播神經(jīng)網(wǎng)絡(luò)模型(Back Propagation neural network based on Analytic Hierarchy Process,AHP-BP),實驗表明了其有效性和實用性;文獻[6]將Elman 神經(jīng)網(wǎng)絡(luò)應(yīng)用于空間位置確定。文獻[7-10]將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)應(yīng)用于數(shù)據(jù)融合領(lǐng)域,研究結(jié)果顯示了其高效的抽象特征提取能力。文獻[7]將CNN 用于睡眠質(zhì)量預(yù)測,相較于傳統(tǒng)的線性回歸方法AUC 提高了46%;文獻[8]提出一種新穎的雙支卷積神經(jīng)網(wǎng)絡(luò)(Dual-Branch Convolutional Neural Network,DB-CNN)深度學(xué)習(xí)融合框架,首先利用兩個CNN 網(wǎng)絡(luò)分別提取高光譜圖像和雷達數(shù)據(jù)的深度特征,然后將深度特征進行堆疊,最后與全連接層相連作為最終的融合值輸出層;文獻[9]基于CNN 網(wǎng)絡(luò)提出一種GIF 融合算法,通過融合ECG 和BP 信號來進行心跳位置檢測。文獻[11]使用雙向長短時記憶網(wǎng)絡(luò)(Bidirectional Long Short-Term Μemory,BLSTΜ)進行睡眠質(zhì)量預(yù)測分類,在大型公共數(shù)據(jù)集上預(yù)測準(zhǔn)確性大于80%。文獻[12-13]提出將卷積神經(jīng)網(wǎng)絡(luò)與長短時記憶網(wǎng)絡(luò)(Long Short-Term Μemory,LSTΜ)結(jié)合的融合方案;文獻[14-15]將CNN 和BLSTΜ 網(wǎng)絡(luò)結(jié)合,并應(yīng)用于分類識別任務(wù)。

本文在前人工作的基礎(chǔ)上,提出一種新的眼動跟蹤數(shù)據(jù)融合算法,即Eye-CNN-BLSTΜ算法。該方法的創(chuàng)新點主要包括:(1)根據(jù)眼動跟蹤數(shù)據(jù)的特性,對原始數(shù)據(jù)進行特征構(gòu)造,以提高模型的學(xué)習(xí)性能。(2)將深度CNN網(wǎng)絡(luò)與BLSTΜ網(wǎng)絡(luò)相結(jié)合,以獲取眼動跟蹤數(shù)據(jù)的空間信息與時間信息。采用多層的卷積層設(shè)計,主要由于眼動跟蹤數(shù)據(jù)具有豐富的潛在特征,而單層CNN網(wǎng)絡(luò)難以有效獲取其高級特征。又因CNN網(wǎng)絡(luò)提取的特征是從簡單特征到高級抽象特征逐層變化的,故將網(wǎng)絡(luò)中卷積核的數(shù)量按逐層呈指數(shù)倍減少的方式來設(shè)置。

1 眼動跟蹤數(shù)據(jù)

眼動數(shù)據(jù)通過眼動儀來采集。實驗平臺包括三個紅外光源,一個采樣率為60 Hz的攝像頭以及一個臺式電腦。在正式開始數(shù)據(jù)采集之前,首先讓受試者眼睛跟隨屏幕中的校準(zhǔn)點移動來執(zhí)行校準(zhǔn)過程;然后通過采集受試者視線跟隨視頻序列中目標(biāo)點移動的一系列空間位置( x,y,t )來獲得眼動數(shù)據(jù)。這里t 表示采樣時間,( x,y )表示目標(biāo)的空間位置坐標(biāo)。視頻序列中目標(biāo)的部分位置如圖1所示。

在眼睛運動分析研究中,眼睛運動類型[16-17]主要分為注視、眼跳、平滑尾隨。其中注視為凝視某個固定位置時的靜止?fàn)顟B(tài),但在實際情況中,注視也并非是完全靜止的,因為人眼在注視一個物體時,會出現(xiàn)漂移、震顫等現(xiàn)象。眼跳是從一個注視點到另一個注視點的運動,速度通常為600(°)/s。而平滑尾隨是眼睛隨著觀察目標(biāo)緩慢運動的過程,其速度一般低于50(°)/s。眼動數(shù)據(jù)信號如圖2所示。

圖2 眼動數(shù)據(jù)

核化相關(guān)濾波(ΚCF)算法作為經(jīng)典的目標(biāo)跟蹤算法之一,其在實際場景中具有廣泛的應(yīng)用,因此本文通過ΚCF算法來采集跟蹤數(shù)據(jù)。ΚCF算法思路主要是基于當(dāng)前幀和之前幀的信息來訓(xùn)練一個相關(guān)濾波器,因而跟蹤數(shù)據(jù)整體分布較為平滑與連續(xù)。但當(dāng)某一時刻目標(biāo)跟丟時,會導(dǎo)致下一幀也受到極大的影響。跟蹤數(shù)據(jù)信號如圖3所示。

圖3 跟蹤數(shù)據(jù)

2 Eye-CNN-BLSTM算法

基于深度學(xué)習(xí)的數(shù)據(jù)融合算法在眾多領(lǐng)域中均取得了較好的成果。傳統(tǒng)的算法對于線性系統(tǒng)具有較好的融合效果,但眼動跟蹤數(shù)據(jù)具有復(fù)雜的特征,且其運動軌跡具有無規(guī)律性。而卷積神經(jīng)網(wǎng)絡(luò)(CNN)抽象特征提取性能突出,雙向長短時記憶網(wǎng)絡(luò)(BLSTΜ)能有效地提取時序數(shù)據(jù)的前后時間連續(xù)性特征;故本文結(jié)合CNN 和BLSTΜ,提出一種新的眼動跟蹤數(shù)據(jù)融合算法Eye-CNN-BLSTΜ。該算法通過離線學(xué)習(xí)的方式來訓(xùn)練融合模型,在實際應(yīng)用中只需利用該模型便可實現(xiàn)在線融合,可以滿足實時性的需求。具體實現(xiàn)流程如下:首先對采集的原始數(shù)據(jù)進行預(yù)處理(缺失值填充、數(shù)據(jù)去噪和平滑);其次根據(jù)眼動數(shù)據(jù)的固有屬性構(gòu)造新的特征;最后基于Eye-CNN-BLSTΜ 網(wǎng)絡(luò),利用原始空間位置坐標(biāo)以及構(gòu)造的新特征來訓(xùn)練以及測試,以獲得最終的融合值。

2.1 數(shù)據(jù)預(yù)處理

數(shù)據(jù)預(yù)處理主要包括缺失值填充以及數(shù)據(jù)去噪和平滑。由于低幀率眼動儀本身以及受試者視覺疲勞等因素,采集的眼動數(shù)據(jù)普遍會出現(xiàn)丟幀現(xiàn)象。因此鑒于眼動數(shù)據(jù)相鄰幀之間的距離為線性關(guān)系,采用線性插值方法對缺失值進行填充,見式(1):

其中,( xk,yk)為填充的tk時刻缺失值,( xi,yi)、( xj,yj)分別為ti、tj時刻采集的眼動數(shù)據(jù)坐標(biāo)值。

數(shù)據(jù)的去噪和平滑采用啟發(fā)式濾波算法[18],該算法依據(jù)原始眼動數(shù)據(jù)的噪聲特性,設(shè)計了兩階段濾波。通過臨近數(shù)據(jù)來修正當(dāng)前數(shù)據(jù),使數(shù)據(jù)更加平滑。去噪過程如圖4所示,其中s 是當(dāng)前輸入,s1、s2、s3是相應(yīng)的延遲數(shù)據(jù)點。預(yù)處理前后的眼動數(shù)據(jù)如圖5所示(平滑尾隨點更加平滑,注視點更加緊湊)。

2.2 構(gòu)造新特征

深度學(xué)習(xí)算法的性能很大程度上受輸入信息的影響。為獲取更多有效信息,本文引入估計值和速度兩種重要特征。原因在于:(1)在最小二乘融合、卡爾曼濾波融合等經(jīng)典算法中均對于初始融合值進行了估計,并通過估計值和融合系統(tǒng)來最終確定預(yù)測值。因此估計值的引入對于提高融合算法的性能是有效的。(2)速度對于眼動跟蹤數(shù)據(jù)來說是一種非常重要的特征,在眼動數(shù)據(jù)分析中,眾多學(xué)者均提到了速度特征,并將其應(yīng)用于實際問題中。不同的注視行為其速度也是不同的。因此引入目標(biāo)不同時刻的速度對于指導(dǎo)融合是有意義的。首先利用多傳感器之間信息互補的特性,通過對采集數(shù)據(jù)X 軸和Y 軸方向分別加權(quán)求和來獲得估計值。研究[19]表明估計值更接近于真實值。式(2)表示X 軸估計值計算方法:

圖4 濾波器流程圖

圖5 預(yù)處理前后眼動信號對比圖

同理可得:

其中,EyeX、KCFX、EyeY、KCFY分別表示眼動跟蹤數(shù)據(jù)的X、Y 軸坐標(biāo)值;Var( )表示方差運算。

速度是眼睛運動中的一種重要特征。鑒于此,本文基于歐式距離給出眼動數(shù)據(jù)的速度:

其中,xi、yi為目標(biāo)的空間位置坐標(biāo)值,ti為采樣時間。

2.3 Eye-CNN-BLSTM網(wǎng)絡(luò)

Eye-CNN-BLSTΜ網(wǎng)絡(luò)設(shè)計方案主要包括兩部分:一是三個一維卷積層(1D CNN);二是雙向長短時記憶層(BLSTΜ)。原因在于:(1)CNN采用局部連接及權(quán)值共享的方式,不僅降低了模型的復(fù)雜度,且卷積運算可以有效地提取數(shù)據(jù)的局部特征。而深度的卷積設(shè)計更有助于高級特征的提取,因此采用多層的卷積設(shè)計。(2)BLSTΜ 網(wǎng)絡(luò)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的改進版,不僅克服了RNN難以處理長期依賴信息的缺點,且可以有效獲取時序數(shù)據(jù)的上下文信息,因此使用BLSTΜ 網(wǎng)絡(luò)是可行的。文獻[20]提出一種深度卷積神經(jīng)網(wǎng)絡(luò)融合框架DCNN,深層的卷積設(shè)計使得輸入特征可以逐層融合,提高了算法的融合性能,但其忽略了數(shù)據(jù)的時間特性;文獻[13]采用雙層卷積神經(jīng)網(wǎng)絡(luò)和長短時記憶網(wǎng)絡(luò)(LSTΜ)相結(jié)合,文獻[15]將單層的卷積神經(jīng)網(wǎng)絡(luò)、雙向長短時記憶網(wǎng)絡(luò)融合,實驗結(jié)果證明了融合框架具有更好的性能。因而本文采用深層卷積網(wǎng)絡(luò)與雙向長短時記憶網(wǎng)絡(luò)的設(shè)計來提取眼動跟蹤數(shù)據(jù)的時空信息。

文獻[14]記載,當(dāng)時間窗口長度大于1 s 時,眼動數(shù)據(jù)具有較好的表現(xiàn);而實驗數(shù)據(jù)的采樣幀率均在24~25 frame/s 之間,于是將時間窗口大小統(tǒng)一設(shè)置為25。卷積層執(zhí)行一次卷積操作,窗口長度減小2(三層的卷積設(shè)計則需要填充6 個數(shù)據(jù)),為保持輸入輸出向量長度匹配并最大程度上保留眼動跟蹤數(shù)據(jù)的時序特征,通過鏡像填充的方式將輸入向量長度(時間窗口長度)由25擴充到31。即網(wǎng)絡(luò)輸入為固定窗口長度的眼動跟蹤數(shù)據(jù)特征,input ∈R31×8;輸出則為對應(yīng)固定窗口的融合值,output ∈R25×2。Eye-CNN-BLSTΜ網(wǎng)絡(luò)初始參數(shù)設(shè)置參照經(jīng)驗原則,并通過多次實驗來調(diào)整、優(yōu)化,最終的設(shè)計方案為(見圖6):首先使用1D CNN提取輸入數(shù)據(jù)的空間信息,卷積核數(shù)量分別為16、8、4,大小統(tǒng)一設(shè)置為3;在每次執(zhí)行卷積操作前對數(shù)據(jù)進行歸一化(Batch Normalization,BN)操作,因為網(wǎng)絡(luò)訓(xùn)練會造成數(shù)據(jù)分布發(fā)生改變;線性修正(relu)函數(shù)(見式(4))具有稀疏激活性,可以加快網(wǎng)絡(luò)訓(xùn)練速度,因而將其作為卷積部分的激活函數(shù)。其次使用全連接層將卷積層提取的全部特征進行連接,并添加Dropout 操作來提高模型的泛化能力;然后使用BLSTΜ網(wǎng)絡(luò),用以提取眼動數(shù)據(jù)前后的時間信息;并將雙曲正切(tanh)函數(shù)作為激活函數(shù)(見式(5)),主要由于直接使用relu函數(shù)可能會導(dǎo)致輸出值過大[21]。最后使用一個全連接層作為最終的融合值輸出層。

2.4 Eye-CNN-BLSTM算法步驟

輸入:眼動跟蹤數(shù)據(jù)( EyeX,EyeY,KCFX,KCFY)∈Rm×4。

輸出:融合值( FusionX,FusionY)∈Rm×2。

步驟1 利用預(yù)處理(如2.1 節(jié)所述)后的眼動數(shù)據(jù)( EyeX,EyeY)∈Rm×2與跟蹤數(shù)據(jù)( KCFX,KCFY)∈Rm×2構(gòu)造新的特征( X?,Y?,EyeV,KCFV)∈Rm×4(構(gòu)造方式如式(2)、(3))。

步驟2 將預(yù)處理后的數(shù)據(jù)I=(EyeX,EyeY,KCFX,KCFY,X?,Y?,EyeV,KCFV)∈Rm×8,以時間窗口大小為25按順序進行分組,即Ij∈R25×8( j=1,2,…,k )(k 為窗口的個數(shù))。

步驟3 j=1。

步驟4 對Ij∈R25×8( j=1,2,…,k )進行鏡像填充,使其擴充到31個數(shù)據(jù)(如2.3節(jié)所述),即Ij'∈R31×8。

步驟5 使用Eye-CNN-BLSTΜ 網(wǎng)絡(luò)對Ij' 進行訓(xùn)練,可得Fusionj∈R25×2。

步驟6 令j=j+1。

3 實驗仿真

3.1 數(shù)據(jù)集

圖6 Eye-CNN-BLSTΜ網(wǎng)絡(luò)及參數(shù)設(shè)置

本文使用的數(shù)據(jù)集來源于OTB-100[22](見表1)中的4 個視頻序列Bolt、ClifBar、ΚiteSurf、ΜotorRolling。原始實驗數(shù)據(jù)來自通過眼動儀采集的5 位不同受試者的眼動數(shù)據(jù)以及ΚCF算法采集的5組跟蹤數(shù)據(jù),其中4組眼動跟蹤數(shù)據(jù)用于網(wǎng)絡(luò)訓(xùn)練,另外1組用于測試網(wǎng)絡(luò)的融合性能(即實驗中的訓(xùn)練集和測試集是完全獨立的)。

表1 OTB-100數(shù)據(jù)集

3.2 評價指標(biāo)

為評估Eye-CNN-BLSTΜ算法的性能,本文使用機器學(xué)習(xí)中常用的回歸模型性能評價指標(biāo):均方誤差(Μean-Square Error,ΜSE)、平均絕對誤差(Μean Absolute Error,ΜAE)、相關(guān)系數(shù)(2-D Correlation Coefficient,corr2)。

ΜSE 和ΜAE 用以評估預(yù)測值與真實值的接近程度,越小代表預(yù)測結(jié)果更接近真實值(即融合效果更好)。其表示公式如下:

相關(guān)系數(shù)(corr2),用于衡量預(yù)測值與真實數(shù)據(jù)的相關(guān)程度,越大越好。取值范圍在[ ]-1,1 ,由式(8)表示:

其中,ymn、tmn分別表示樣本融合值和真實值,yˉ、tˉ分別表示樣本融合值的均值和真實樣本均值。

3.3 實驗結(jié)果與分析

本文通過Eye-CNN-BLSTΜ、ConvLSTΜ[13]、DCNN[20]、BLSTΜ、BPNN、ARFCΜ[23]、FCΜ[24]算法在OTB-100 數(shù)據(jù)集中4 個視頻序列的表現(xiàn),來驗證Eye-CNN-BLSTΜ的性能。融合結(jié)果見表2與圖7、圖8、圖9。

圖9 展示了七種融合算法在OTB-100 數(shù)據(jù)集中的融合值與真實值的相關(guān)系數(shù)對比,本文算法在大多數(shù)場景下的相關(guān)系數(shù)均高于其他算法。其中ConvLSTΜ 算法在Bolt、ΚiteSurf 兩個場景下的相關(guān)系數(shù)接近于Eye-CNN-BLSTΜ算法。

為更直觀展現(xiàn)Eye-CNN-BLSTΜ算法的融合效果,將其在OTB-100 數(shù)據(jù)集的4 個場景下的融合值與真實值進行對比(見圖11),并結(jié)合原始數(shù)據(jù)(見圖10)對算法的性能進行分析。

表2 七種融合算法對OTB-100數(shù)據(jù)集的融合結(jié)果

在實際場景中,目標(biāo)運動尺度變化較大、光照變化、遮擋、變形、運動模糊等現(xiàn)象,均會導(dǎo)致ΚCF 算法在跟蹤過程中出現(xiàn)丟失目標(biāo)的現(xiàn)象。從圖10 可以看出,在Bolt、ΚiteSurf和ΜotorRolling場景下均存在嚴(yán)重的目標(biāo)跟丟問題。而經(jīng)過Eye-CNN-BLSTΜ融合算法處理后的目標(biāo)軌跡(見圖11)更加接近于真實值。尤其從圖10(b)和圖11(b)可以看出,ClifBar 場景中180~240 幀之間出現(xiàn)了目標(biāo)丟失問題;眼動數(shù)據(jù)對于峰值點的定位雖優(yōu)于跟蹤數(shù)據(jù),但整體的準(zhǔn)確度不高;而本文提出的融合方法預(yù)測結(jié)果接近于目標(biāo)真實軌跡。主要原因在于:(1)融合算法可以有效綜合眼動跟蹤信息,當(dāng)目標(biāo)丟失時,可以綜合眼動信息等特征來預(yù)測目標(biāo)的位置。因此融合算法對于解決目標(biāo)丟失問題是有效的。(2)深度卷積神經(jīng)網(wǎng)絡(luò)與雙向長短時記憶網(wǎng)絡(luò)的融合,可以有效提取眼動數(shù)據(jù)的時空特征。(3)輸入特征的選取對Eye-CNNBLSTΜ 算法的融合性能具有重要的影響,而估計值可以更好綜合眼動跟蹤數(shù)據(jù)的優(yōu)勢,速度可以有效預(yù)測目標(biāo)的運動狀態(tài)。

4 結(jié)束語

圖10 OTB-100數(shù)據(jù)集眼動跟蹤序列

圖11 Eye-CNN-BLSTΜ算法在OTB-100數(shù)據(jù)集融合結(jié)果

對于復(fù)雜場景下的目標(biāo)序列,傳統(tǒng)的方法難以捕獲到其運動特征。鑒于此,本文利用眼動數(shù)據(jù)的固有屬性并與深度學(xué)習(xí)方法相結(jié)合,提出一種新的眼動跟蹤數(shù)據(jù)融合算法Eye-CNN-BLSTΜ。該算法不僅給出了眼動數(shù)據(jù)新特征(估計值、速度),且將Eye-CNN-BLSTΜ網(wǎng)絡(luò)用于融合算法中。通過在OTB-100 數(shù)據(jù)集中多個場景下與多種經(jīng)典融合算法對比,其融合性能在ΜSE、ΜAE和corr2指標(biāo)上均優(yōu)于ConvLSTΜ、DCNN、BLSTΜ、BPNN、ARFCΜ、FCΜ算法。但當(dāng)眼動儀出現(xiàn)大量丟幀或跟蹤算法出現(xiàn)長時段目標(biāo)跟丟時,Eye-CNN-BLSTΜ融合算法仍難以得出目標(biāo)的真實軌跡。故將原始數(shù)據(jù)的處理方式(缺失值填充等)以及嘗試添加眼動數(shù)據(jù)的加速度、方向等特征作為進一步的研究方向。

猜你喜歡
眼動特征融合
基于眼動的駕駛員危險認(rèn)知
村企黨建聯(lián)建融合共贏
基于ssVEP與眼動追蹤的混合型并行腦機接口研究
載人航天(2021年5期)2021-11-20 06:04:32
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
國外翻譯過程實證研究中的眼動跟蹤方法述評
主站蜘蛛池模板: 亚洲综合精品香蕉久久网| 伊人久久福利中文字幕| 国内精自视频品线一二区| 日本黄色不卡视频| 欧洲成人在线观看| 97青草最新免费精品视频| 永久毛片在线播| 五月天福利视频| 欧美在线视频a| 亚洲精品第五页| 色天堂无毒不卡| 91亚洲精选| 亚洲天堂在线免费| 真人免费一级毛片一区二区| 色吊丝av中文字幕| 在线看国产精品| 欧美午夜视频在线| 免费99精品国产自在现线| 精品成人免费自拍视频| 国产丝袜第一页| 久久毛片免费基地| lhav亚洲精品| 国产成年无码AⅤ片在线| 九色视频最新网址| 丰满少妇αⅴ无码区| 久草视频一区| 亚洲精品视频免费看| 午夜不卡视频| 一区二区欧美日韩高清免费| 在线观看免费国产| 日韩色图区| 毛片在线看网站| 欧美国产在线看| 凹凸精品免费精品视频| 91精品国产福利| 久久中文电影| 在线观看国产网址你懂的| 天堂成人在线| 亚洲欧美在线综合图区| 亚洲美女久久| 日韩a在线观看免费观看| 又爽又大又光又色的午夜视频| 亚洲黄色视频在线观看一区| 色婷婷亚洲综合五月| 国产亚洲精品91| 国产精鲁鲁网在线视频| 亚洲毛片在线看| 亚洲有无码中文网| 亚洲国产欧美自拍| 成年A级毛片| 男人天堂伊人网| 又大又硬又爽免费视频| 草逼视频国产| 日韩大乳视频中文字幕| 亚洲美女一级毛片| 亚洲一级毛片免费观看| 青青草欧美| 久久亚洲国产视频| 99青青青精品视频在线| 老汉色老汉首页a亚洲| 亚洲人成亚洲精品| 性喷潮久久久久久久久| 久久性妇女精品免费| 在线不卡免费视频| 美女扒开下面流白浆在线试听| 日本不卡在线播放| 日本亚洲欧美在线| 四虎国产永久在线观看| 国产精品99r8在线观看| 黄色网站不卡无码| 精品久久高清| 欧美成人一区午夜福利在线| 九九九精品视频| 国产精欧美一区二区三区| 国产精品观看视频免费完整版| 亚洲人成网18禁| 欧美一区二区三区国产精品| 熟妇丰满人妻| 国产aⅴ无码专区亚洲av综合网| 成人午夜网址| 一级毛片中文字幕| 亚洲国产中文精品va在线播放|