999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于BP 神經網絡的聲源定位研究

2021-04-23 05:50:24佘霖琳趙祎彤李嘉雪宋雲龍
軟件導刊 2021年4期
關鍵詞:實驗

佘霖琳,孫 紅,趙祎彤,李嘉雪,宋雲龍

(上海理工大學光電信息與計算機工程學院,上海 200093)

0 引言

21 世紀以來,人工智能的興起使得基于語音、文字、圖像等模式識別的人機交互成為研究熱點。要實現機器與機器以及人與機器之間的交流互動,能夠精確定位發出聲源的人或機器位置是極其重要的[1-2]。目前,聲源定位在視頻會議、助聽器、智能降噪[3]、車載電話、鳴笛抓拍等領域有著廣闊的應用前景。

傳統聲源定位算法大體可分3 類:基于到達時延估計(Time Difference of Arrival,TDOA)的聲源定位算法[4]、基于最大輸出功率的可控波束形成聲源定位算法[5]、基于高分辨率譜估計的聲源定位算法[6]。其中,第一類算法根據聲源信號到達不同位置麥克風的時間差確定聲源位置;第二類算法利用波束形成技術,但需基于背景噪聲和聲源信號先驗知識,因此限制了算法應用;第三類算法來源于高分辨率譜估計技術,其定位性能好,但計算復雜度高,難以達到應用場景要求的實時性。在3 類方法中,TDOA 算法因其計算復雜度與硬件實現成本較低而受到較多關注。其發展主要分為兩個階段:第一階段為傳統的時延估計方法,以相關分析、相位譜、參數估計為基礎,以數據收集作為手段進行聲源定位,其中應用最廣泛的為孫洋等[7]提出的基于相關分析的廣義互相關函數法(Generialized Cross-Correlation,GCC)和Haykin[8]提出的基于自適應濾波器的最小均方自適應濾波法(Least Mean Square,LMS)。但GCC 算法需要對信號和噪聲譜估計其加權函數,從而增加了算法復雜度。LMS 算法穩定性較差,若迭代步長過大,會出現不收斂的情況;若迭代步長過小,則會導致不平穩信號還未實現尋優便又引入新的誤差。第二階段出現了機器學習聲源定位方法,目前應用較多的為焦琛等[9]提出的基于相位加權廣義互相關函數的卷積神經網絡算法(Convolutional Neural Networks,CNN)。

使用機器學習算法相較于傳統算法能避免繁重的計算、具有較高準確度,并且可通過改變少量參數以適應更多不同的復雜應用場景。但對于如何選取其算法模型參數,目前尚無明確的理論研究,大多通過反復實驗、參考類似經驗得到。本文運用機器學習中的BP 神經網絡算法對聲源定位進行研究,探討適合本研究場景的最佳模型參數,以期為聲源定位技術的深入發展及應用提供參考[10]。

1 BP 算法基礎理論與相關技術

1.1 BP 神經網絡簡介

BP(Back Propagation)神經網絡是一種有監督的神經網絡學習算法,其利用誤差的反向傳播原理,改變傳統網絡結構,引入新的分層與邏輯。學習過程由正向傳播和反向傳播兩部分組成,在正向傳播過程中,輸入模式從輸入層經過隱含層神經元處理后傳向輸出層,每一層神經元狀態只影響下一層神經元狀態。如果在輸出層得不到期望的輸出,則轉入反向傳播,此時誤差信號從輸出層向輸入層傳播,并沿途調整各層間連接權值和閾值。該過程反復交替進行,直至網絡的全局誤差趨向給定的極小值。在反復訓練過程中,其采用梯度下降法使得權值沿著誤差函數的負梯度方向改變,并收斂于最小點。BP 算法主要步驟如下:

(1)正向傳播過程。在輸入層中,單元i的輸出值oi等于其輸入值xi的加權和:

輸出值為:

式中,f若為sigmod函數,則:

在輸出層中,因為輸出層單元的作用函數為線性,故輸出值為輸入值的加權和。對于第k 個輸出單元,輸出值yk為:

(2)反向傳播過程。首先定義誤差函數Ep為:

BP 學習算法采用梯度下降法調整權值,每次調整量為:

式中,η 為學習率,0<η<1,由此式可得到權值修正量公式。對于輸出層與隱含層之間的權值v:

其中,有:

對于隱含層與輸入層之間的權值w:

1.2 BP 神經網絡神經元個數與隱藏層層數選擇

在神經網絡中,單層神經網絡只用于表示線性分離函數[11],而當數據非線性分離時需要增加隱藏層[12]。對于簡單的數據集,通常包含1~2 個隱藏層的神經網絡即可得到最優結果。而對于涉及時間序列或計算機視覺等內容的復雜數據集,則需要額外增加隱藏層層數。

當沒有隱藏層時,僅能表示線性可分函數或決策;當隱藏層數為1 時,可以擬合任何包含從一個有限空間到另一個有限空間的連續映射函數;當隱藏層數為2 時,搭配適當的激活函數可表示任意精度的任意決策邊界,并且可擬合任意精度的任何平滑映射;當隱藏層數>2 時,多出來的隱藏層可學習更為復雜的描述。

層數越深,理論上擬合函數的能力增強,效果越好,但實際上更深的層數可能帶來過擬合問題,同時也會增加訓練難度,使模型難以收斂。因此,在使用BP 神經網絡時,較可取的方法是參照已有的表現優異的模型。而當缺少可參考模型時,從一或兩個隱藏層開始嘗試不失為探究最佳層數較為合適的方法。

在確定隱藏層的神經元個數方面,若神經元太少將導致欠擬合[13],網絡不能有效地學習,需要大量增加訓練次數,并且嚴重影響訓練精度;而神經元過多可能導致過擬合,訓練集中包含的有限信息量不足以訓練隱藏層中的所有神經元。即使訓練數據包含的信息量足夠,隱藏層中過多的神經元也會增加訓練時間,導致難以達到預期效果。顯然,選擇一個合適的隱藏層神經元數量是至關重要的。

在確定神經元個數方面,首先應該考慮此前提:隱含層節點數必須小于N-1(N 是訓練樣本數),否則網絡模型的系統誤差與訓練樣本的特性無關而趨于0,即建立的網絡模型缺乏泛化能力,也無任何使用價值。而除此之外,當前并沒有一種科學的確定神經元個數的方法,最佳數量需要通過不斷的實驗獲得。

對于如何確定神經元數量和隱藏層層數,本研究通過不斷實驗的方法,從1 個神經元、1 層隱藏層開始遞增,如果欠擬合則增加層數和神經元,如果過擬合則減小層數和神經元。

1.3 BP 神經網絡的不足與反向傳播函數選取

在BP 神經網絡的標準算法中,其反向傳播過程是基于梯度下降法,通過調整權值和閾值使輸出期望值與神經網絡實際輸出值的均方誤差梯度趨于最小而實現的。雖然標準訓練算法下的BP 網絡得到了廣泛應用,但其自身也存在一些不足,主要包括以下4 個方面:

(1)由于學習速率是固定的,因此網絡收斂速度慢,訓練需要較長時間。如果問題復雜,BP 算法需要的訓練時間可能會非常長,無法滿足應用要求。針對這一點,可采用變化的學習速率或自適應學習速率加以改進,如利用學習速率自適應的BP 算法。

(2)BP 算法可使權值收斂到某個值,但并不保證其為誤差平面的全局最小值,這是因為采用梯度下降法可能會產生一個局部最小值。對于該問題可采用附加動量法來解決,如動量因子BP 算法[14]。

(3)對于網絡隱含層層數與神經單元個數選擇尚無理論上的指導,一般是根據經驗或者反復實驗確定。因此,網絡模型各項參數的可移植性差,并且網絡往往存在很大的冗余性,在一定程度上增加了網絡的學習負擔。

(4)網絡學習和記憶具有不穩定性,在增加了學習樣本的情況下,訓練好的神經網絡需要從頭開始重新訓練,對于以前的權值和閾值并無記憶。

由于BP 標準算法有很多不足,因此在不同的實際應用情況下,需要將其與改進的BP 算法函數相結合。考慮到本研究模型屬于中型網絡,以下介紹適合中型網絡的改進算法及其相應特點:①traingdx:帶有動量項的自適應學習算法,訓練速度較快;②trainrp:彈性BP 算法,收斂速度快,占用內存小;③traincgf:Fletcher-Reeves 共軛梯度法[15],是對存儲量要求最小的共軛梯度法;④trainscg:歸一化共軛梯度法,唯一一種不需要線性搜索的共軛梯度法;⑤trainlm:Levenberg-Marquardt 算法,是介于牛頓法與梯度下降法之間的一種非線性優化方法,對于過參數化問題不敏感,能有效處理冗余參數問題,大大減小了代價函數陷入局部極小值的機會[16]。

2 采樣原理與仿真模型

在建立神經網絡之前,需要先設計出采樣模型,獲得輸入數據與輸出數據的形式,再設計神經網絡。采樣模型如圖1 所示(彩圖掃OSID 碼可見,下同)。

Fig.1 Sampling model圖1 采樣模型

如圖1 所示,把地面劃分為n 個小區域后,每一次測試時分別在某一個小區域的中心坐標處用發聲裝置發聲。4個麥克風兩兩一組,形成AB、BC、CD 3 組,分別記錄3 組內兩個麥克風收到聲音的時間差,具體如下:

由此可得到n 組對應的數據,分別為3 組時間差以及一對二維坐標值,其中xi為橫坐標值,yi為縱坐標值,則第i組數據為:

本研究將聲源定位場景簡化為在一個占地面積為100m2的房間里對聲源進行水平面上二維坐標定位的模型。假設房間是一個標準的長方體,房間長為10m,寬為10m,高為5m。在麥克風陣列位置選取方面,選定4 個麥克風的位置分別為A(4.9,4.9,1.0)、B(4.9,5.1,1.0)、C(5.1,5.1,1.0)、D(5.0,5.0,2.0),使其在空間構成一個四面體[17]。

對于神經網絡輸入、輸出數據的獲取,本研究根據基于時延的聲源定位基本原理,由聲源位置坐標計算各組麥克風接收來自同一聲源聲音的時間差作為測試集的輸入數據,將聲源實際位置坐標作為輸出數據,之后利用BP 神經網絡進行訓練、驗證、測試后,則可得到用于聲源定位的模型。

在分析比較神經網絡隱藏層神經元個數、隱藏層層數對算法精確性影響的實驗中,訓練集、驗證集都采用400 個數據量,測試集采用50 個數據量。而在比較不同數據量下不同算法精確性的實驗中,訓練集、驗證集采用的數據量從400 開始遞增,測試集仍采用50 個數據量。

3 實驗與結果分析

為了專注探究算法的精確性,排除環境干擾,在一個100 m2房間里實現對聲源的二維空間定位,本研究借助MATLAB 進行仿真實驗[18]。運用其中的rand 函數隨機生成點坐標數據集用于神經網絡的訓練、驗證與測試。由于數據集是隨機生成的,為了保證實驗結果的有效性,本研究對同一參數下的神經網絡都進行了50 次測試,最后取50次結果的平均值作為對比分析的實驗數據。運用構建神經網絡的函數,通過設置隱藏層神經元個數、隱藏層層數以及反向傳播函數對應的函數參數,構建本研究所需的不同結構的BP 神經網絡。

對比、分析3 類因素對聲源定位精確性的影響后,將得到適合構建此模型的最佳網絡模型,并且得出一定條件下該算法能達到的最佳定位效果。考慮到本研究要解決的是回歸預測問題,故選取R 值(Regression)、MSE(Mean Squared Error)作為算法精確性評價標準。

3.1 仿真函數與參數設置

(1)mapminmax[19]。[Y,PS]=mapminmax(X,YMIN,YMAX),將歸一化的信息保存到結構體PS 中,自定義MIN、MAX 的范圍。

Y=mapminmax(‘apply’,X,PS),用已知的歸一化規則PS 歸一化其他信息。

X=mapminmax(‘reverse’,Y,PS),用于反歸一化。

(2)newff。net=newff(P,T,[S1S2…S(N-l)],{TF1 TF2…TFNl},BTF,BLF,PF,IPF,OPF,DDF),用于創建前向型神經網絡。

(3)train。[net,tr,Y,E,Pf,Af]=train(net,P,T,Pi,Ai),用于訓練神經網絡。

(4)sim[20]。[Y,Pf,Af,E,perf]=sim(net,P,Pi,Ai,T),用于模擬預測,Y 即最終預測的輸出。

本研究在使用‘newfff’函數構建神經網絡時,設置隱含層輸出函數為‘tansig’,輸出層輸出函數為‘purelin’,設置訓練參數依次為:Leaning_rate(學習率)=0.1、初始max_epoch(最大迭代次數)=5 000、初始goal(目標誤差)=4e-6、max_fail(最大失敗次數)=10 000。其中,最大迭代次數與目標誤差需要根據每次具體實驗效果加以調整,以確保在神經網絡達到相對穩定的狀態下記錄實驗數據。

3.2 神經網絡神經元個數對算法精確性的影響

本實驗采用LM(LevenBerg-Marquardt)[21]反向傳播函數下、隱藏層層數為1 的BP 神經網絡[22]對神經網絡的神經元個數進行探究。

對于神經元個數選擇,本實驗從1 開始進行測試。通過實驗發現,當神經元個數取1~4 時,所需迭代次數遠大于最大迭代次數的初始值(5 000),嘗試調整目標誤差,使其增大至4e-3,之后得到網絡穩定時的最終MSE 與R 值結果;當神經元個數取5~6 時,出現達到最大迭代次數而結果曲線未達到穩定狀態的情況,故嘗試將最大迭代次數設置為8 000;當神經元個數取7~9 時,在實驗初始設置的參數值下,已可獲得網絡的穩定狀態;當神經元個數取10 及以上時,達到原目標誤差后曲線未趨于平穩,故將目標誤差設置為4e-9。由實驗結果可得,當神經元個數增加到10 之后,數據結果的穩定性較差且越來越差,故本實驗對神經元個數的研究止于49。實驗所得不同神經元個數下的MSE 值與R 值變化情況如圖2、圖3 所示。

Fig.2 Change of MSE value of the different numbers of neurons圖2 不同神經元個數下的MSE值變化情況

Fig.3 Change of R value of the different numbers of neurons圖3 不同神經元個數下的R 值變化情況

分析圖2、圖3 可知,隨著神經元個數的增加,MSE 值整體呈遞減趨勢,R 值呈遞增趨勢。為了得到更準確的實驗結果,本實驗進行局部探測,選取實驗結果較佳的神經元個數為5~9 時的BP 神經網絡進行研究,如圖4、圖5 所示。

Fig.4 Change of MSE value of the different numbers of neurons from 5 to 9圖4 5~9 個神經元個數下的MSE 值變化情況

Fig.5 Change of R value of the different numbers of neurons from 5 to 9圖5 5~9 個神經元個數下的R 值變化情況

由圖可知,神經元個數為7 時的BP 神經網絡在整體趨勢中表現最好,接下來依次是個數為8、9、6、5 的BP 神經網絡。相對于后4 種BP 神經網絡,神經元個數為7 的BP 神經網絡均方差MSE 值最小,R 值最大,網絡收斂速度更快,網絡穩定性更強。故得到當隱藏層神經元個數取7 時,BP 神經網絡算法的預測結果最佳,該神經網絡結構[23]如圖6 所示,并且為得到較理想的實驗效果,以下實驗中神經元個數都取7 進行研究。

3.3 神經網絡隱藏層層數對算法精確性的影響

本實驗采用LM 反向傳播函數下神經元個數為7 的BP神經網絡對神經網絡的隱藏層層數進行探究。

每層隱藏層都取7 個神經元,從1 開始遞增隱藏層層數進行實驗。對于1~2 層神經網絡,在未達到最大迭代次數時,此神經網絡誤差即可減小到初始目標誤差以下,而后觀察MSE 隨迭代次數遞增的變化曲線可知,MSE 穩定在e-9 數量級。通過增加隱藏層重復上述操作,實驗發現,當隱藏層為3~13 層時,達到原目標誤差后曲線未趨于穩定,有繼續下降趨勢,表明精確性有望繼續提高,故實驗需要減小目標誤差,直到得到每一種隱藏層層數下網絡模型的最小穩定誤差。而當層數取13 以上時,相對應的穩定最小誤差已無法達到原先設定的目標誤差,且相差甚遠,則增大目標誤差后繼續觀察。鑒于當隱藏層為13~16 層時,在相同參數下每次測試的數據變化過大,且平均誤差過大,表明其實際應用價值較低,因此不再遞增層數繼續實驗。

Fig.6 Neural network structure圖6 神經網絡結構

取1~16 層數據進行研究分析,1~16 層隱藏層層數下BP 神經網絡誤差MSE 值如圖7 所示,對應的R 值如圖8 所示。觀察兩圖可以看出,13~16 層下神經網絡誤差較大,1~12 層下誤差較小;1~11 層下神經網絡擬合度較好,R 值都為1,12~16 層下R 值小于1,且層數達到14 層以上時,R 值急劇下降。由此可得出結論:BP 神經網絡隱藏層層數的遞增與算法性能的提升并不呈正相關。

Fig.7 Change of MSE value of the different numbers of hidden layers圖7 不同隱藏層層數下的MSE值變化情況

Fig.8 Change of R value of the different numbers of hidden layers圖8 不同隱藏層層數下的R 值變化情況

此外,實驗發現,層數分別取13~16 層時的神經網絡每次測試得到的MSE 值數量級變化范圍為e-3~e-8。由此可得,雖然此最小誤差與1~12 層時的誤差同級,但平均誤差過大,此時的網絡穩定性差、有過擬合傾向,并且13 層以上的神經網絡訓練時間過長,應用價值較低。

為了進一步探究1~12 層范圍內的最佳層數,本實驗對圖7 中1~12 層的MSE 值數據單獨進行繪制。觀察得到1 層下的MSE 值數量級為e-6,遠大于2~12 層下的MSE 值數量級。為了更直觀、清晰地分析最佳層數,取2~12 層數據,得到如圖9 所示的曲線圖。由圖可以得出,當隱藏層取3、4、8、9 層時,該神經網絡達到最佳預測精度。由于8、9 層神經網絡訓練時間長于3、4 層,可見當隱藏層取3、4 時,該BP 神經網絡預測結果達到最佳。為得到較理想的實驗效果,以下實驗中隱藏層層數都取3 進行研究。

Fig.9 Change of MSE value of the different numbers of hidden layers from 2 to 12圖9 2~12 不同隱藏層層數下的MSE 值變化情況

3.4 不同反向傳播算法在不同數據量下的精確性對比

本實驗采用神經元個數為7、隱藏層層數為3 的BP 神經網絡對反向傳播算法進行探究。分別針對不同數據量,選擇不同的反向傳播算法對神經網絡進行訓練,旨在探究不同算法在不同數據量下的適應性與精確性,并驗證基于LM 算法的BP 神經網絡適用于本研究采用的中型網絡聲源定位模型。

對于反向傳播函數[24],本實驗選用trainlm(LevenBerg-Marquard 算法)、trainbr(貝葉斯正則化算法)、trainrp(彈性BP 算法)、trainscg(歸一化共軛梯度法)以及traincgf(Fletcher-Reeves 共軛梯度法)。

通過實驗發現,對于trainlm 算法,當數據量取400~2 800 時,在初始最大迭代次數(5 000)、目標誤差(4e-6)下,網絡未達到穩定狀態。調整目標誤差為4e-7 時,觀察MSE 隨迭代次數遞增的變化曲線可知,MSE 值穩定在1e-6數量級。通過增加數據量,發現該算法訓練達到最大迭代次數后,其MSE 值在1e-4 數量級。調整最大迭代次數為8 000 后,實驗發現該網絡訓練過程緩慢,且出現過擬合現象,則適度增大目標誤差、減少迭代次數。考慮到繼續增加數據量后算法訓練時間過長,且誤差并未降低,故本實驗對數據量的討論止于4 000。對于其他4 種算法,采取與上述相同的思路進行實驗,得到不同算法在不同數據量下的MSE 值與R 值變化情況如圖10、圖11 所示。

分析圖10、圖11 可知,總體來看,在采用的5 種算法中,trainlm 算法的MSE 值最低,R 值最高。其中,trainbr 算法訓練結果與trainlm 算法較為接近,但由50 次采用相同參數和數據量的測試結果可得,trainbr 算法的誤差波動較大,沒有trainlm 算法穩定。而其余3 種算法trainrp、trainscg、traincgf 與前兩種算法相比,均方誤差均高出兩個數量級,且R 值都偏小。

Fig.10 Change of MSE value of different algorithms under different data volumes圖10 不同算法在不同數據量下的MSE 值變化情況

Fig.11 Change of R value of different algorithms under different data volumes圖11 不同算法在不同數據量下的R 值變化情況

此外,通過實驗發現,隨著數據量的增加,trainlm 算法和trainbr 算法的MSE 值與R 值在數據量約大于2 800 時有輕微振蕩,MSE 值趨于增大,R 值趨于減小。同時,trainrp算法和trainscg 算法的MSE 值趨于減小,R 值趨于增大。由此得出,trainlm 算法和trainbr 算法更適合處理數據量較小的數據集,而其余3 種算法更適合處理數據量較大的數據集。

本仿真實驗構建的神經網絡輸入數據數量為3,輸出數據數量為2,神經元數量為7,隱藏層層數為3,該神經網絡屬于中型網絡。由此可得,trainrp、trainscg 算法明顯不適用于本實驗的神經網絡,而較適用于大型網絡。traincgf 算法的預測效果相比這兩者有所提高,但也未達到較高的精確度。相比之下,trainlm、trainbr 算法更適合于本實驗的神經網絡,且適合處理數據量較小的數據集。通過進一步比較,trainlm 算法相比trainbr 算法速度更快且精確度更高,對中型網絡而言是速度最快的一種訓練算法,在訓練時間和訓練精度上都較適合本研究。

4 結語

在本研究中,使用BP 神經網絡進行聲源定位的準確度已可達到較高水平,R 值可達到1,MSE 值在e-11 數量級下,位置誤差在毫米范圍內。含有3 個隱藏層、每層含7 個神經元、反向傳播函數取LM 的神經網絡是目前適用于此聲源定位場景的最佳網絡模型。然而,占用內存過大是LM算法的缺點,并且若要進一步提高算法精度、提升魯棒性,仍有以下幾方面值得作進一步改進和深入研究:

(1)本研究是在MATLAB 環境下進行的仿真實驗,若在實際情況下進行實驗,麥克風所接受到的聲音信號除聲源信號外,還包括四周墻壁的反射信號、環境的噪音信號等。在這種情況下,對聲源位置的預測將受多方因素干擾,如何結合去噪算法[25]提取主要聲源特征、建立模型以及維持原聲源定位算法的有效性需要作進一步研究。

(2)在當前模型下,LM 為較適合的反向傳播函數,而若在更寬闊的場景以及更復雜的大型網絡模型情況下,結合降噪算法,可考慮對反向傳播函數進行靈活變換,在每一層隱藏層中選取不同的反向傳播函數,將有望提高不同模型下算法的精確性與穩定性。

(3)本研究驗證了LM 算法對中型網絡的適用性與有效性。在大型網絡下,LM 算法可考慮通過設置其內部mem-reduc 參數為大于1 的整數,以將Jacobian 矩陣[26]分為多個子矩陣。而為了降低其占用的內存,該方法中的系統開銷與Jacobian 各子矩陣的關系有待進一步探究。

猜你喜歡
實驗
我做了一項小實驗
記住“三個字”,寫好小實驗
我做了一項小實驗
我做了一項小實驗
記一次有趣的實驗
有趣的實驗
小主人報(2022年4期)2022-08-09 08:52:06
微型實驗里看“燃燒”
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 国产a网站| 欧洲熟妇精品视频| 亚洲日韩精品无码专区97| 欧美日韩精品综合在线一区| 伊人成人在线视频| 国产爽妇精品| 本亚洲精品网站| 国产欧美亚洲精品第3页在线| 国产成人一区二区| 欧美69视频在线| 欧美一区二区精品久久久| 亚洲视频欧美不卡| 尤物特级无码毛片免费| 高清不卡一区二区三区香蕉| 在线精品亚洲国产| 午夜福利亚洲精品| a毛片免费在线观看| 精品久久综合1区2区3区激情| 亚洲欧美成aⅴ人在线观看| 欧美劲爆第一页| 欧美精品啪啪| 国产成熟女人性满足视频| www.国产福利| 麻豆精品在线视频| 国产高清国内精品福利| 亚洲婷婷在线视频| 亚洲综合专区| 亚洲国产91人成在线| 国产午夜无码专区喷水| 国产精品免费p区| 色色中文字幕| 91综合色区亚洲熟妇p| 国产欧美日韩资源在线观看| 国产精品99久久久久久董美香| 日本道综合一本久久久88| 日韩精品高清自在线| 亚洲无码视频图片| 日日拍夜夜嗷嗷叫国产| 国产拍揄自揄精品视频网站| 国产亚洲精品自在久久不卡| 99re在线视频观看| 呦视频在线一区二区三区| 国产一级小视频| 亚洲欧美一区二区三区图片| 国产综合日韩另类一区二区| 国产靠逼视频| 国产成人一区| 中文字幕欧美日韩| 农村乱人伦一区二区| 欧美啪啪一区| 亚洲中文字幕在线观看| 不卡无码h在线观看| 久青草免费视频| 乱色熟女综合一区二区| 久久人体视频| 华人在线亚洲欧美精品| 亚洲欧美另类专区| 91香蕉视频下载网站| 亚洲二区视频| 尤物午夜福利视频| 在线观看无码a∨| 国产精品成人一区二区| 国产拍在线| 欧美天堂久久| 亚洲a免费| 在线播放国产一区| 国产精品毛片在线直播完整版 | 亚洲无码37.| 四虎成人在线视频| 91色爱欧美精品www| 亚洲视频欧美不卡| 午夜福利视频一区| 国产原创第一页在线观看| 亚洲成A人V欧美综合天堂| 精品无码一区二区三区电影| 国产精品真实对白精彩久久| 浮力影院国产第一页| 91精品国产自产在线老师啪l| 中文字幕欧美日韩| 国产男人的天堂| 9啪在线视频| 日本一区二区三区精品国产|