999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高斯混合-隱馬爾可夫模型的駕駛意圖識別

2025-06-27 00:00:00沈瑜劉廣輝馬翱鵬許佳嚴源
汽車技術 2025年5期
關鍵詞:模型

主題詞:自動駕駛 駕駛意圖識別高斯混合模型隱馬爾可夫模型Frenet坐標系中圖分類號:U463.6 文獻標志碼:A DOI:10.19620/j.cnki.1000-3703.20231201

Driving Intention Recognition Based on Gaussian Mixture-Hidden MarkovModel

Shen Yu122,Liu Guanghui2,Ma Xuanpeng1,XuJiawen2,Yan Yuan2 (1.School of Information Engineering,Gansu Minzu Normal University,Hezuo 747ooo;2.Schoolof Electronicand Information Engineering,Lanzhou Jiaotong University,Lanzhou )

【Abstract】To achieve accurate recognition of vehicle driving intentions in highway scenarios,this paper proposes a drivingintentionrecognitionmodelthatcombinesdualreferencelinesintheFrenetcoordinatewith GausianMixture Models (GMMs)andHidden Markov Models (HMMs).Themodel selectsdrivingdata fromdiferentreference linesintheFrenet coordinatebasedonvehiclepositionasobservedvariables.By integratingtheobservationprobabilitiesoutputbytheGMMat previousand subsequent time steps withthe HMM,the model identifies the vehicles’driving intentionat thecurrentmoment. Theefectivenessof themodelisvalidatedusingtheUS-101datasetfrom NGSIM.Theresultsshow that thedual-referenceline GMM-HMM model achieves recognition accuracies of 93.33% for lane keeping and 92.24% for lane changing,indicating excellent recognition performance.

Key Words:Autonomous driving,Driving intention recognition,Gaussan Mixture Model (GMM),HiddenMarkovModel (HMM),Frenetcoordinate

【引用格式】沈瑜,劉廣輝,馬翱鵬,等.基于高斯混合-隱馬爾可夫模型的駕駛意圖識別[J].汽車技術,2025(5):22-28SHENY,LIUGH,MAXP,etal.Driving IntentionRecognitionBasedonGausian Mixture-HiddenMarkovModel[J].Automobile Technology,2025(5):22-28.

1前言

道路交通事故原因分析表明,約四分之一的安全事故源于駕駛意圖傳達不明確[1。因此,準確識別駕駛意圖,提高車輛行駛安全性,已成為當前自動駕駛技術領域關注的焦點。

目前,駕駛意圖識別方法主要分為基于規則(Rule-Based)和基于深度學習的方法。基于規則的識別方法將駕駛經驗轉化為知識,并將提取出相應規則,應用于駕駛意圖識別2]。Bouchard等3]基于雙層規則理論,根據設計規則和環境狀態感知識別駕駛意圖,模型在可解釋性和安全性方面表現良好,但受限于規則引擎的固有缺陷,泛化能力不足。Bhattacharyya等提出了基于規則與數據驅動協同識別駕駛意圖的方法,結合車輛行駛參數,通過規則確定基本駕駛意圖,同時優化參數以匹配真實駕駛行為。該方法提升了駕駛意圖識別的可解釋性和真實性,但在實時性和泛化性方面仍有改進空間。基于規則的方法適用于簡單交通場景,其效率和可靠性較高,但因面對復雜或未知場景的覆蓋率較低,識別的準確性與適應性存在一定局限性[5]。

基于深度學習的方法已成為主流的駕駛意圖識別方法,Zyner基于遞歸神經網絡(RecursiveNeuralNetwork,RNN)預測方法,從激光雷達的跟蹤系統中獲取數據,用于變道行為的駕駛意圖識別。Fang等[7]基于深度神經網絡(DeepNeuralNetworks,DNN)的駕駛意圖識別模型,融合自標車輛與周圍車輛的交互信息、道路信息和車輛狀態,識別混合交通流中的駕駛意圖,并通過NGSIM(NextGenerationSimulation)數據集驗證提出方法的有效性。張新鋒等提出了融合注意力機制和殘差卷積的雙向長短時記憶(Bi-directionalLongShort-TermMemory,Bi-LSTM)識別模型,該模型在特征自動提取和時序依賴建模中優勢顯著,但其魯棒性較低。Liu等提出基于隱馬爾可夫模型(HiddenMarkovModel,HMM)的車輛駕駛意圖識別方法,并使用自建天橋環境數據訓練和測試駕駛意圖識別模型。趙建東等結合卷積神經網絡(ConvolutionalNeuralNetworks,CNN)和門控循環單元(GatedRecurrentUnit,GRU),并利用注意力機制構建變道意圖識別模型,綜合考慮了車輛行駛中的時序特征和空間特征。基于深度學習方法能夠提升模型識別的準確率,但缺乏可解釋性和擴展性,對于數據波動無法及時處理,性能會有所下降。

因此,本文采用雙參考線高斯混合-隱馬爾可夫模型(GMM-HMM)模型,通過Frenet坐標系下兩條參考線的動態切換,更精確地捕捉車輛在不同車道位置下的駕駛意圖特征。利用高斯混合(GaussianMixtureModel,GMM)模型對駕駛行為空間分布的多模態特性,結合HMM的時間序列分析能力,提升變道意圖的早期識別率。同時,通過引入雙參考線機制,在保持強可解釋性的基礎上,增強模型對不同道路場景的泛化性。

2數據處理

2.1NGSIM數據集

本文基于NGSIM數據集的多維度駕駛行為特征,構建駕駛意圖識別數據集。該數據集由目標路段頂部的高性能攝像機拍攝,提取車輛水平坐標、垂直坐標、速度、加速度等特征,采樣頻率為 10Hz 。選擇高速公路場景下的US-101路段,道路拓撲結構如圖1所示。其中,1\~5號車道為道路主要車道,6號車道為集散車道,7號、8號車道分別為匝道的入口和出口。

圖1US-101道路拓撲結構

2.2數據預處理

由于NGSIM數據集由多個攝像機拍攝視頻獲取車輛軌跡信息,在數據拼接、融合過程中容易出現較大誤差,因而需要對數據進行預處理。數據集中部分特征參數說明如表1所示。

表1NGSIM數據集參數

駕駛意圖樣本數據提取與處理過程如下:

a.篩選數據:本文暫不考慮存在強制性變道的第6\~8號車道,僅考慮1\~5號車道的數據。在US-101場景中主要包括3種類型車輛,分別為摩托車、大型車輛和中小型汽車,其中,汽車占比為 96.1% 。鑒于不同車型的駕駛習慣差距較大,剔除大型車輛和摩托車數據,僅保留汽車類樣本數據,并進行平滑處理。

b.平滑數據:由于原始數據存在誤差和噪聲,需對訓練數據進行平滑處理,本文采用對稱指數移動平均(symmetricExponentialMovingAverage,sEMA)濾波算法對原始數據的橫向位置Y、速度 σv 進行處理。以數據集中一個車輛軌跡為例,平滑處理結果如圖2所示。

圖2車輛數據平滑結果

2.3Frenet坐標系下特征提取

Frenet坐標系以車道左、右邊緣線為參考線 r(s) 通過將車輛位置向參考線投影,定義投影距離和沿參考線累積弧長,將車輛笛卡爾坐標轉換為Frenet坐標。假設在笛卡爾坐標系中,車輛位置為 N(x,y) ,從點 N 向參考線 r(s) 投影,投影點為 M ,則投影點 M 到點 N 的距離為車輛相對于參考線的橫向位移l,從參考線的起始點 F 到投影點 M 的曲線距離為車輛相對于參考線的縱向位移d。在Frenet坐標系下,使用橫向位移和縱向位移描述車輛位置 (l,d) 。兩坐標系的映射關系為r(s),(x,y)(l,d)由于車輛的行駛軌跡無法與參考線完全重合,需要利用參考線描述車輛的運動狀態。本文以車道的左、右邊緣線為參考線,根據車輛位置選擇所需的參考線。當車輛位于車道左側時,選擇車道左邊緣線為參考線,車輛的運動狀態為 lLeft,vl,Left,dLeft,vd,Left] 其中, 分別為參考方向的縱向位移和垂直參考方向的橫向位移,(204號 vl,left?vd,Left 分別為車輛縱向和橫向速度。同理,當車輛位于車道右側時,選擇車道右邊緣線為參考線,如圖3所示,車輛運動狀態為 [lRight 車輛運動狀態可作為觀測變量計算駕駛意圖觀測概率。

圖3Frenet坐標系下車輛狀態

將NGSIM數據集中車輛駕駛意圖分為車道保持、左變道和右變道3類。其中,車道保持為車輛在行駛過程中未跨越車道邊緣線,車輛變道為橫跨車道邊緣線兩側的連續過程。為了確定各類駕駛意圖的樣本數量,通過Vehicle_ID獲取車輛行駛數據,并根據行駛數據中Lane_ID的變化確定變道時刻。從變道時刻的Frame_ID向前回溯縱向位移 lLeft 和縱向速度 vl,Left ,如果連續3幀數據的 lLeft 遞減且 vl,Left≠0 ,則下一幀數據作為左變道的起始幀 Fstart ,從變道時刻Frame_ID向后回溯 lLeft 、vl,Left ;如果連續3幀數據的 lLeft 不變,則下一幀數據作為左變道終止幀 Fend 。位于 [Fstart,Fend] 的數據為左變道過程的樣本,同理可標注右變道樣本,剩余數據則標注為車道保持樣本。

結合駕駛意圖的提取情況,由于大多數車輛在行駛過程中未發生變道行為,所以車道保持樣本數量相對較多。篩除6\~8號車道數據后,結合道路行駛方向,右變道樣本數量較少。最終,本文樣本共6154組,其中,車道保持、左變道和右變道的樣本數量分別為5344組、559組和256組。

3高斯混合-隱馬爾可夫模型構建

高斯混合模型具有較好的計算特性,通過GMM擬合車輛橫向位置、橫向速度等連續觀測變量,計算駕駛意圖的概率分布,可作為HMM的輸入。而駕駛行為具有連續時序性,隱馬爾可夫模型通過狀態轉移概率與歷史觀測序列的動態關聯,可有效建模并識別駕駛意圖的概率分布[12]。因此,本文使用GMM-HMM駕駛意圖識別模型,其結構如圖4所示。

圖4GMM-HMM模型框架

3.1高斯混合模型

當樣本數據 為多維數據時,多變量高斯分布的概率密度函數為:

式中: 為 D 維列向量 ,μ,Σ 分別為樣本的均值矩陣和協方差矩陣。

高斯混合模型是由多個單高斯模型組合而成的概率模型[13],各模型均符合單高斯分布,因此,高斯混合模型可表示為:

式中: K 為混合模型中單高斯模型的數量, αk 為第 k 個單高斯模型的權重, 為第 k 個單高斯分布 分別為第 k 個單高斯模型中觀測變量數據的均值和協方差矩陣。

3.2 隱馬爾可夫模型

隱馬爾可夫模型由狀態變量 s 和觀測變量 σo 構成。狀態序列 ,狀態變量的值域為駕駛意圖的有限集合,即 為狀態變量的數量;觀測序列 ,其中, T 為總時間幀數,取決于時間窗的長度;狀態轉移矩陣為 ,其中, aij 為 χt 時刻車輛駕駛意圖 qi 在 (t+1) 時刻轉移至 qj 的概率;發射概率矩陣為 ,其中, 為當駕駛意圖處于 qj 時,觀測到駕駛行為 vk 的概率;初始狀態概率矩陣為 ,且滿足 。因此,HMM模型由矩陣 π,A 和 B 構成,即 λ=[π,A,B]

考慮到駕駛意圖無法通過直接觀測,本文將駕駛意圖作為HMM的隱藏狀態變量,通過觀測變量獲取的車輛運動狀態數據,反映駕駛員的駕駛行為特征,區分不同駕駛意圖。本文在Frenet坐標系下,將車道左、右邊緣線作為參考線,描述車輛運動狀態。以車道左邊緣線為參考線時,選取車輛的 lLeft 和 vl,Left 作為觀測變量;以車道右邊緣線為參考線時,選取(20 lRight 和 vl,Right 作為觀測變量。因此,觀測變量可表示為

各時刻車輛隱藏狀態變量為3種駕駛意圖的概率分布,不同時刻的隱藏狀態變量間可相互轉移。 aii 為任一狀態保持不變的概率, aij 為任兩個狀態相互轉移的概率,則車輛駕駛意圖狀態轉移矩陣為:

通過GMM擬合車輛位置、速度等連續變量的概率分布,作為駕駛意圖識別HMM的觀測概率。則高斯混合模型輸出觀測值的概率為:

式中: 為二維高斯分布概率密度函數, αjk 為第j個高斯分布的權重系數 ?,μjkjk 分別為第j個高斯分布的數據均值矩陣和協方差矩陣。

3.3 GMM-HMM模型

3.3.1 參數學習

結合高斯混合模型,GMM-HMM模型可表示為λ=[π,A,α,μ,Σ] 已知駕駛行為序列 求解 使 P(O|λ) 最大。由于狀態變量序列未知,可采用 算法[3進行參數估計。

首先,定義 Q 函數為:

對 Q 函數展開可得:

以參數 π 為例,推導求解過程得到:

采用拉格朗日乘子法計算極值:

,將 γ 代人偏導公式,得到:

P(O|λ(t)) 和 可通過前向變量 αt(s) 表示,參數 A,B 求解過程同樣符合上述原理。

3.3.2 參數訓練

模型參數學習具體步驟如下:

a.初始化一組參數 λ=[π,A,α,μ,Σ], 狀態轉移矩陣 A 可根據經驗進行初始化, π,A,α,μ, Σ 根據數據分布特征進行初始化

b.確定模型訓練所需的樣本數據,即觀測變量序列o 。使用Holdout驗證方法,隨機選擇總樣本的 70% 作為訓練樣本。

c.編寫MATLAB程序,初始化參數后,根據Baum一Welch算法進行參數學習。

d.輸出訓練結果。

根據上述方法,得到模型的訓練結果為4個二維單高斯模型,GMM-HMM模型參數為:

式中: / 分別為以車道左邊緣線為參考線,駕駛意圖為左變道特征的均值和協方差矩陣;μ(:,:,2) 和 Σ(:,:,1,2) 分別為以車道右邊緣線為參考線,駕駛意圖為右變道特征的均值和協方差矩陣: :μ(:,:,3) / 分別為以車道兩側(左側和右側)邊緣線為參考線,駕駛意圖為車道保持特征的均值和協方差矩陣。

GMM-HMM模型輸出觀測概率如圖5所示。其中,左側2個橢圓表示以車道左邊緣線為參考線的觀測變量分布特征;右側2個橢圓表示以車道右邊緣線為參考線的觀測變量分布特征;橢圓的長、短半軸表示對應方向觀測變量的標準差;橢圓的中心位置表示每個單高斯分布的觀測變量均值。

圖5GMM-HMM模型輸出觀測概率結果

4駕駛意圖識別

單獨時刻駕駛車輛觀測值無法體現駕駛意圖,可通過連續駕駛動作進行推理,根據過去連續T時間段內的駕駛動作,識別當前時刻車輛的駕駛意圖。本文使用滑動時間窗,時間窗長度為T,如圖6所示。駕駛意圖識別問題可描述為:已知GMM-HMM參數 λ=[π,A,α,μ,Σ] 滑動時間窗內的駕駛動作序列為 求解 T 時段內最有可能的狀態序列 ,使P(O,S*|λ) 最大。通過維特比(Viterbi)算法[4遞推求解最優的狀態序列 S* ,從而確定車輛的駕駛意圖。

圖6滑動時間窗示意

使用總樣本的 30% 數據進行模型驗證,即車道保持樣本、左變道樣本和右變道樣本分別為1604組、168組和77組。以車道右邊緣線為Frenet坐標系的參考線,左、右變道識別過程分別如圖7、圖8所示。

(c)意圖識別結果圖7左變道識別過程

以車道右邊緣線為Frenet坐標系的參考線為例,由圖7可知,第4s時車輛橫向位移發生改變,逐漸靠近左車道邊緣線,同時,車道保持意圖識別概率下降,左變道意圖概率上升,可通過比較意圖概率確定最終識別結果。當左變道概率大于車道保持概率時,識別結果將從車道保持轉換成左變道。當2.5s后完成左變道時,車輛距離車道右邊緣線的橫向位移為0。

本文將精確率 (Precision)P 、召回率 (Recall)R 、F1 分數和準確率(Accuracy) )A 作為模型性能評價指標。相關公式為:

式中: TP 為正確識別目標駕駛意圖的數量, FP 為將非目標意圖誤判為目標意圖的數量, TN 為正確識別非目標意圖的數量, FN 為未能識別目標駕駛意圖的數量。

(c)意圖識別結果圖8右變道識別過程

為了進一步驗證本文模型的有效性,將本文模型與RuleBased、DNN等雙參考線模型及單參考線模型GMM-HMM*進行對比,結果如表2所示。

由表2可知,相比單參考線,雙參考線通過提供更全面的橫向位置信息,增強了GMM-HMM模型對車輛動態的感知,同時捕捉車輛與兩側車道的相對偏移量及變化趨勢:車道保持時,兩側偏移量穩定;變道時,一側偏移持續減小而另一側增大,形成明顯特征差異。多維觀測數據提高了模型對車輛橫向運動的敏感性。相較于使用單參考線的GMM-HMM*模型,本文模型由于使用雙參考線,車道保持準確率和變道準確率分別提高2.19百分點和3.07百分點,識別準確率均高于其他雙參考線模型,且在精確度、召回率和F1分數評價指標上優于其他模型。因此,所提出的雙參考線GMM-HMM模型在識別實際駕駛員的駕駛意圖中更具優勢。

表2模型對比結果

5結束語

本文提出的雙參考線GMM-HMM模型充分考慮了車輛行駛過程中時間的連續性,能夠根據觀測變量準確識別駕駛意圖。該模型可應用于智能駕駛領域,通過識別危險換道行為,優化自主換道過程,提前預警可能的危險情況,對提高駕駛主動安全性、改善車輛的智能決策和交互能力有重要意義。

由于試驗樣本數量有限,且僅考慮車輛變道和車道保持的相關信息,后續將綜合考慮道路環境、周圍車輛等因素對意圖識別的影響。同時,探究復雜道路(如交叉路口、坡道等)條件下,超車、轉向等駕駛意圖識別。

參考文獻

[1]WANGZC,FENGQ,LUO M,etal.EfficientFSS-Based PrivateStatisticsforTrafficMonitoring[C]//2O24IEEE23rd International Conference on Trust,Security and Privacy in Computing and Communications (TrustCom). Sanya, China: IEEE,2024:1361-1370.

[2] KHELFA B,BAI, TORDEUX A. PredictingHighway LaneChanging Maneuvers:A Benchmark Analysis of Machine and Ensemble Learning Algorithms[J]. Physica A: Statistical Mechanics and its Applications,2023,612.

[3]BOUCHARDF,SEDWARDSS,CZARNECKI K.A RuleBased:Behaviour Planner for Autonomous Driving[C]// International Joint Conference on Rules and Reasoning. Berlin,Germany:Springer,2022:263-279.

[4]BHATTACHARYYA R,JUNGS,KRUSEL A,etal.A Hybrid Rule-Based and Data-Driven Approach to Driver Modeling Through Particle Filtering[J].IEEE Transactions on Intelligent Transportation Systems,2022, 23(8): 13055- 13068.

[5]方華珍,劉立,顧青,等.自動駕駛車輛換道意圖識別研究 現狀[J].工程科學學報,2024,46(10):1845-1855. FANGH Z,LIU L,GUQ,et al.Research Status of LaneChanging Intention Recognition for Autonomous Vehicles[J]. Chinese Journal of Engineering,2024,46(10):1845-1855.

[6]ZYNERA,WORRALLS,NEBOTE.ARecurrentNeural Network Solution for Predicting Driver Intentionat UnsignalizedIntersections[J].IEEERobotics and AutomationLetters,2018,3(3):1759-1764.

[7]FANG H Z,LIU L,GU Q,et al.Driving Intention Recognition of Human Drivers in Mixed Traffic Flow[C]// 2022 IEEE 25th International Conference on Intelligent Transportation Systems (ITSC). Macau, China:IEEE,2022: 153-157.

[8]張新鋒,王萬寶,柳歡,等.高速動態交通場景下自動駕駛 車輛換道意圖識別模型研究[J].汽車技術,2023(4):8-15. ZHANGXF,WANAGWB,LIUH,etal.ResearchonLane Change Intention Recognition Model of Automated Vehicle inHigh-Speed Dynamic Traffic Scenario[J]. Automobile Technology,2023(4): 8-15.

[9] LIU SW, ZHENG K, ZHAO L,et al.A Driving Intention Prediction Method Based on Hidden Markov Model for Autonomous Driving[J]. Computer Communications,2020, 157: 143-149.

[10]趙建東,趙志敏,屈云超,等.軌跡數據驅動的車輛換 道意圖識別研究[J].交通運輸系統工程與信息,2022, 22(4): 63-71. ZHAO JD,ZHAO Z M,QU YC,et al.Vehicle Lane Change Intention Recognition Driven by Trajectory Data[J]. Journal of Transportation Systems Engineeringand Information Technology,2022,22(4): 63-71.

[11] DO JY,HAN K,CHOI S B.Lane Change-Intention Inferenceand Trajectory Prediction of Surrounding Vehicles onHighways[J]. IEEE Transactions on Intelligent Vehicles, 2023,8(7):3813-3825.

[12]FANGJW,WANGF,XUEJR,etal.BehavioralIntention Prediction in Driving Scenes:A Survey[J].IEEE Transactions on Inteligent Transportation Systems,2024, 25(8): 8334-8355.

[13] LUO Y Q, ZHANG JY,WANG SF,et al.A Driving IntentionPredictionMethodforMixed Traffic Scenarios[C]// 2022 IEEE 7th International Conference on Intelligent Transportation Engineering (ICITE).Beijing, China: IEEE,2022.

[14]LV Y Z,WEI C. Multi-Objective Optimal Decision Making forAutonomous Driving Based on Multi-Modal Predicted Trajectories[Cl// International Conference on Mechatronic Engineering and Artificial Intelligence (MEAI 2023). Shenyang, China: AIP Publishing,2024.

(責任編輯瑞秋)

修改稿收到日期為2025年1月26日。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美69视频在线| 国产麻豆va精品视频| 四虎影视库国产精品一区| 国内精品久久久久鸭| 久久久久久国产精品mv| 亚洲 日韩 激情 无码 中出| 亚洲色图另类| 成年A级毛片| 亚洲日本韩在线观看| 亚洲视频影院| 国产精品免费p区| 欧美日韩一区二区在线播放 | 女人18毛片水真多国产| 免费人成黄页在线观看国产| 国产一区免费在线观看| 国产视频一二三区| 91在线中文| 呦视频在线一区二区三区| 青青久视频| 国产精品爽爽va在线无码观看| 欧美精品导航| 尤物国产在线| 91九色视频网| 91色爱欧美精品www| 国产精品人莉莉成在线播放| 国产午夜不卡| 999国产精品| 国产精品第一区在线观看| 欧美中出一区二区| 日韩国产亚洲一区二区在线观看| 亚洲综合片| 国产精品私拍99pans大尺度| 国产无码精品在线| 成人午夜精品一级毛片| 成人国产精品一级毛片天堂| 国产激爽爽爽大片在线观看| 国产精品视频猛进猛出| 99热这里只有成人精品国产| 成人一级黄色毛片| 一本久道久久综合多人| 91精品专区国产盗摄| 另类欧美日韩| 亚洲高清中文字幕| 亚洲免费黄色网| 18禁黄无遮挡免费动漫网站 | 人妻精品全国免费视频| 人妻一区二区三区无码精品一区| 欧美激情视频一区二区三区免费| 欧美精品1区2区| 91小视频在线观看免费版高清| 成人毛片在线播放| 日韩天堂网| 99视频免费观看| 国产永久无码观看在线| 国产精品自在拍首页视频8| 中国一级特黄大片在线观看| 国产乱人乱偷精品视频a人人澡| 麻豆国产精品一二三在线观看| 亚洲六月丁香六月婷婷蜜芽| 全部免费毛片免费播放 | 欧美福利在线播放| 午夜福利免费视频| 99青青青精品视频在线| 性做久久久久久久免费看| 尤物亚洲最大AV无码网站| 亚洲第一成人在线| 中文字幕永久在线观看| 亚洲精品无码人妻无码| 亚洲日本中文字幕乱码中文| 国产精品爽爽va在线无码观看| 精品1区2区3区| 亚洲天堂免费| 久久精品66| 国产草草影院18成年视频| 亚洲欧洲综合| 久久永久精品免费视频| 国产精品毛片一区视频播| 一级毛片高清| 欧美成人一级| 夜夜拍夜夜爽| 91福利片| 无码中文字幕乱码免费2|