999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM-DDPG的車速預測對增程式汽車能量管理研究

2025-06-25 00:00:00唐建星楊超岳志剛羅佳鑫于恒彬孫國陽
專用汽車 2025年5期
關鍵詞:控制策略模型

中圖分類號:U461 收稿日期:2025-02-12 DOI: 10.19999/j.cnki.1004-0226.2025.05.001

Study on Speed Prediction for Energy Management of Add-on Vehicles Based on LSTM-DDPG

Tang Jianxing Yang Chao Yue Zhigang Luo Jiaxin Yu Hengbin Sun Guoyang Automotive Technology Co.,Ltd.,Beijing 10260o,China

Abstract:Inordertoenhancetheenergy management eficiencyofanad-onelectricvehicle(EREV),thepaperfirstlyuses a longshort-term memory(LSTM)neuralnetwork topredictthevehiclesped.Basedonthispredictionresult,thepowerdemandrequiredatfuture momentsisfurthercalculatedandcombinedwiththepowerdemandatthecurent moment,andthesedataare fedto getherintothedeepdeterministicplicygadient (DDPG)intellgence.Tisintellgentbodyisesponsibleforeneratingctrolcommands,andsubsequentlysimulationexperimentsareconductedtoverifytheeal-tieresponsivenessoftheproposedcontrolstrategy. TheexperimentalresultsshowthattheLSTM-DDPGenergymanagement strategyproposed inthisstudyreduces theequivalent fuel consumption by 0.613kg , 0.350kg ,and 0.607kg ,respectively,compared with the DDPG strategy only,the deep Q-network(DQN) strategy,andtheconventionalpower-folowingcontrolstrategyundertheworldheavycommercialvehicletransientcycling(WTVC) operating conditions. In addition, the difference in equivalent fuel consumption is only 0.128kg when compared to the dynamic programming (DP)control strategy,which showsthe advantagesand high eficiencyof this strategy interms ofenergy saving.

Key words: Incremental electric vehicles;Long andshor-term memory neural networks;Deepreinforcement learing;Energy management

1前言

增程式電動汽車(EREV)作為一種新能源汽車技術,正受到越來越多的關注。EREV通過車載輔助發電系統(增程器)提供電能,以延長電動汽車的續駛里程,有效緩解純電動汽車的\"里程焦慮\"問題[1]。隨著技術的進步和市場的拓展,EREV的純電續航能力已能夠達到 150km 以上,滿電滿油的綜合續航能力可達 1000km 左右。

政策的支持是推動EREV發展的重要因素。我國將新能源汽車產業視為國家戰略,密集出臺了多項相關政策和發展規劃,以實現碳達峰、碳中和的目標2]。此外,智能網聯技術的發展為EREV的能量管理策略帶來了革命性的突破,通過車-車(V2V)通信和車-基礎設施(V2I)通信,車輛可以交換、共享數據,以及優化能量管理。

在技術層面,EREV的能量管理策略(EMS)是關鍵技術之一。例如,基于優化功率跟隨控制的E-REV能量管理策略,通過灰狼優化算法對增程器啟停功率閾值參數進行優化,減少了發動機頻繁啟停現象,提升了整車的燃油經濟性[3]。此外,氫燃料電池EREV技術也在快速發展,如榮威iMAX8氫燃料增程式混合動力MPV,該車型搭載了捷氫科技的小功率燃料電池系統,實現了零碳排放和高能量轉化效率。

基于長短時記憶(LSTM)因其在時間序列預測方面的優勢被廣泛用于車速預測,而深度確定性策略梯度(DDPG)智能體則利用這些預測數據來計算需求功率,并輸出相應的控制量以優化能量管理。這種策略不僅提高了能量使用的效率,還通過仿真實驗驗證了它在世界重型商用車輛瞬態循環(WTVC)工況下的實時響應能力。

動態規劃(DP)作為一種傳統的能量管理策略,因其能夠提供全局最優解而在研究中占有一席之地。然而,隨著系統規模的擴大,DP方法面臨著較大的計算量和存儲需求,即“維數災”問題。為了解決這一問題,自適應動態規劃(ADP)方法應運而生,它通過使用函數近似結構來近似解決漢密爾頓-雅可比-貝爾曼(HJB)方程,從而有效處理非線性系統的優化控制問題[4]。

在現有研究中,盡管已經應用了多種深度學習算法,但未能充分發揮車速預測和強化學習兩者的優勢。基于此,本文提出了一種結合車速預測和模型預測控制(MPC)強化學習的方法來進行能量管理;構建了增程式電動汽車動力系統模型和LSTM的車速預測模型,并創建了車速預測訓練集。利用LSTM方法進行車速預測,并與支持向量回歸(SVR)方法進行了比較分析,為了確保足夠的探索性,在DDPG算法中引入了一個離策略學習算法,該算法從一個探索性的行為策略中學習確定性目標策略。通過使用確定性策略梯度,DDPG算法能夠在高維動作空間中顯著優于其隨機對應物,并且在計算上與先前的方法相當,每次更新的計算成本與動作維度和策略參數的數量成線性關系。

2增程式電動汽車工作原理及動力系統建模

2.1工作原理

本文研究對象是某款增程式電動汽車,其核心動力系統由發動機、永磁同步ISG電機、動力電池和驅動電機組成(圖1)。ISG電機具有雙重角色,既可以作為發電機將發動機的機械能轉換為電能,也可以作為電動機直接驅動車輪。發動機與ISG電機的轉子剛性連接,共同構成增程器,為車輛提供額外的電能或機械能。動力電池不僅為驅動電機供電,還能在制動過程中回收能量,同時存儲ISG電機產生的多余電能[5]。根據增程器是否工作,車輛可以切換至純電模式或增程發電模式,以適應不同的行駛需求。傳動系統則將驅動電機的動力傳遞至驅動輪,確保車輛的高效行駛。這種設計優化了能源使用效率,提高了電動汽車的續航能力和靈

活性[6]。

本文對增程式電動車進行了前向仿真建模。通過對車輛運行狀態的分析,得到車輛運行狀態的實時數據,并根據實際行駛速度,對油門、剎車踏板的開度進行歸一化處理,并將這些數據輸入到整車控制系統中。基于整車的狀態及組件的限制,整車控制器根據能量管理的要求,將整車的目標功率分配到增程器和電池上。首先,將增程器的目標功率分解成速度和轉矩兩個命令,并將其分別傳遞到發動機控制器和ISG電機控制器[7]。由增程器與動力電池構成的能源系統為驅動電動機供電,通過整車控制器的轉矩管理策略來控制電動機的輸出轉矩,并結合汽車的動力學特性,計算出模擬速度。利用MATLAB/Simulink仿真軟件對路譜信息和駕駛員模型進行了仿真。在此基礎上,對整車控制器中的轉矩管理策略進行了簡化,轉矩管理策略通過接收駕駛員踏板的開度信號,然后把它與當前車速下的驅動電機的最大驅/制動轉矩相乘,就可以獲得驅動電機的目標轉矩,并把目標轉矩與當前轉速相乘,從而算出整車的需要功率,并以此來作為能量管理策略的輸入信號[8]。圖2為增程式電動汽車仿真計算信號流圖。

圖1增程式電動汽車結構拓撲圖
圖2增程式電動汽車仿真計算信號流圖

2.2動力系統建模

2.2.1車輛縱向動力學模型

整車模型以車輛的運動阻力為研究對象,由整車動力學的基本理論出發,得出車輛在行駛過程中所受的阻力總和,公式如下:

式中, G 為施加在車輛上的重量 ;f 為滾動阻力系數; α 為路面坡度; GD 為空氣阻力系數; A 為迎風面積; u 為速

度;8為轉動質量轉換系數; m 為車身質量; 為運行加速度。

2.2.2發動機與發電機

建立發動機數值模型所需的臺架試驗數據主要包括發動機萬有特性數據,如圖3所示。燃油消耗率BSFC由發動機轉速和扭矩查萬有特性MAP得到,公式如下:

圖3發動機與發電機模型

2.2.3動力電池模型

本文所研究的增程式電動汽車中,電池系統通過逆變器與驅動電機和發電機相互連接,以實現能量的有效轉換和傳遞。在構建電池模型時,本文采用了一種簡化的等效電路方法,該方法將電池系統模擬為一個理想電壓源與一個串聯電阻的組合。這種模型能夠捕捉電池的基本電氣特性,包括它在不同荷電狀態下的開路電壓(Open-CircuitVoltage,OCV)特性。

具體來說,電池的端電壓 U 與其荷電狀態(SOC)和流經電池的電流 I 有關,而電池內阻 R 則影響電流通過電池時的電壓降[9]。圖4展示了電池的開路電壓 Uvoc 與荷電狀態 Ssoc 之間的關系,這有助于理解電池在不同充放電狀態下的性能表現。通過這種模型,可以更準確地預測電池在實際運行中的電壓響應和能量消耗,為電動汽車的能量管理和控制系統設計提供理論依據。

圖4動力電池模型

在 χt 時間內,功率電池電流及荷電狀態的計算公式如下:

2.2.4驅動電機模型

該驅動電機也是一種準靜止模式,它與電機的速度n?m 扭矩 T?m 相關,其效率 的查表函數如下:

在本文所研究的增程式電動汽車的車輛模型中,4個電機均采用了統一的模型進行描述和分析。每個電機的性能特性通過其性能圖(MAP圖)來表示,如圖5所示。這種性能圖詳細描述了電機在不同工作點的效率和輸出功率,是評估和優化電機性能的重要工具。通過統一模型,可以對整個車輛的動力系統進行綜合分析,從而更好地理解和預測車輛在不同駕駛條件下的動態響應和能量消耗。

圖5單個驅動電機MAP圖

3車速預測

本文采用了LSTM神經網絡來實現對增程式電動汽車未來車速的預測。研究的第一步是確定LSTM網絡的超參數設置和預測車速所需的時間范圍。在這些參數確定后,使用歷史車速數據作為訓練集來訓練LSTM網絡。

訓練過程中,LSTM網絡學習如何根據當前和過去的車速數據來預測下一時刻的車速。一旦模型的預測精度達到預定的標準,該車速預測模型將被保存并進一步使用。接下來,將車速預測模型集成到能量管理系統中,以實現更精確的能量需求預測。

具體來說,控制策略會根據LSTM網絡預測的未來車速,計算出在預測時間范圍內所需的功率。這些預測值將與當前時刻的實際需求功率一起,作為狀態輸入,用于訓練DDPG智能體。DDPG智能體的目標是學習一個最優策略,以實現車輛的能量管理,從而在保證動力需求的同時,提高能源利用效率。

整個車速預測和DDPG能量管理的流程,包括模型訓練、預測和智能體訓練等步驟,均在圖6中進行了詳細展示。通過這種集成方法,可以更有效地預測和響應車輛的動態需求,優化增程式電動汽車的能量流。

3.1基于LSTM的車速預測

在圖7中,將歷史時間域上的車輛速度作為輸入,利用周期預測法求出在預測時間域上的車輛速度,這里, Nh 是歷史時間步長。由于模型在訓練時既要考慮各種特性,又要考慮噪聲因素的影響,因此對訓練用例具有良好性能,但對測試用例卻存在表現欠佳、過度擬合等問題。引入隨機去激活(Dropout)層,使得網絡在保證泛化能力的同時避免過度學習。為了保證神經網絡有適當的概率 p ,采用一種基于遺傳算法的試驗方法來確定各種可能的可能性,最后將 p=0.4 確定為0。在遺傳算法的求解期間,適應函數的改變過程如圖5所示,公式如下:

式中, ΨtΨt 和 α 分別為當前拋棄概率下的速度預測時間和它們的權重; erms 為預測速度的均方根差; P(?) 為適應函數。

3.2車速預測結果及性能對比

在本研究中,使用MATLAB/Simulink軟件平臺構建了增程式電動汽車的整車模型,并在配備Inteli7-12700H處理器 (2.3GHz) 和16GB內存的計算機上進行了車速預測的仿真實驗。選定了LSTM網絡的超參數后,對網絡進行了1000次迭代的訓練,以優化車速預測的性能。

圖7LSTM車速預測過程示意
圖8適應度函數變化過程

5.5各代最優值各代平均值mWmm

為了評估LSTM網絡的預測效果,將WTVC作為仿真的工況條件。同時,將LSTM的預測結果與支持向量回歸(SupportVectorRegression,SVR)方法進行了對比。兩種方法均使用過去30s的車速數據作為輸入,預測未來5s內的車速。

在預測時域為5s的情況下,LSTM網絡的均方根誤差(RootMeanSquareError,RMSE)達到了 3.15km/h 而SVR方法(設置懲罰系數 ∣c∣ 為0.76,核函數寬度 g 為0.6的RMSE為 4.25km/h 。通過圖9展示的訓練過程中的均方根誤差和損失變化,可以看到在最初的50次迭代中,誤差和損失有顯著下降,之后逐漸趨于穩定。最終,LSTM網絡在訓練完成后的均方根誤差降至0.29km/h 以下,損失降至0.04,均滿足所設定的精度要求。

由上表明,LSTM網絡在車速預測任務上具有較高的準確度和穩定性;相較于SVR方法,LSTM提供了更優的預測性能。

圖10是通過兩種預測方法對車輛速度分布預測結果的比較,可以看到,相同的預測算法具有更少的預測時間和更高的準確性,與支持向量回歸法相比,LSTM的預測結果更加貼近實際數據,具有更好的預測性能。盡管預測時間越短,預測的準確性越高,但是如果時間間隔太短,則會影響到車輛速度的預報效果,從而使車輛速度預報的時間范圍變得沒有意義。

網絡中設置隱含層節點數為10,迭代次數為100,利用試驗獲得的170000組數據對車速預測模型進行訓練。隨著預測時域的增長,預測誤差逐漸增大,但是預測時域過短,在實際行駛過程中,由于各種因素導致延遲,將無法達到預期的控制效果。此外隨著歷史數據使用數量的增多,預測誤差的大小呈現先降低后增大的變化特點,在歷史車速數據為7s時預測誤差最小,所以要獲得最優的預測誤差,需要選擇合適的歷史數據量。圖11表示不同預測時域下最優預測結果曲線。

圖9訓練過程中的損失與均方根誤差變化情況
圖10不同預測方法車速預測熱圖

該結果表明,當前預測車速與實際車速之間具有良好的擬合性,但是預測周期的增加會使預測精度出現較大的偏差。由于后續基于模型預測的能量管理策略的優化性能受到預測水平和預測精度的綜合,根據相關研究人員的研究,發現4s的預測水平可以兼顧速度預測精度和計算成本,達到了較好的優化效果。為此,文中采用4s的預測層。從局部放大的細節可以看出,預測層內的預測速度平滑且接近實際速度,預測效果較好。

4基于車速預測的深度強化學習能量管理

4.1深度確定性策略梯度算法

深度強化學習是一種馬爾可夫決策(MDP),它通過狀態集合 Sν 行動集合A、狀態轉移概率矩陣 P 、獎賞函數 R 、折扣系數 組成了五元集合, 。在增強學習模型中,行為與狀態轉換均是隨機的,對于狀態 s ,策略 π(a|s) 將輸出行為 Ψa ,狀態轉變的概率分布用 P(s|s) 表示,這里 s 是轉變后的狀態。在每個時間點上,環境都會隨著狀態的改變而生成收益 R 。為評估當前行動的優勢,引進了折現收益率 Gt,R 和 Gt 都是隨機變量,需要用 Gt 的期望值來評估當前行為 at 和狀態 st 的優劣。對于 Gt 的期望值,可以獲得一個值函數 Qπ ,對于 Qπ ,可以獲得一個狀態值函數 Vπ(st) (2號

DDPG是一種基于兩層神經網絡的演員-批評家(Actor-Critic)算法。該方法利用批評性(Critic)網絡對由Actor網絡產生的行為進行評價,從而對策略進行修正。與傳統的Actor-Critic算法不同,DDPG中的Actor網絡不是按照行為的概率分布來生成行為,而是直接輸出具有最大 Q 值的行為。

4.2基于車速預測的DDPG能量管理

圖11不同預測時域下最優預測結果曲線

在DDPG能量管理算法中,每個迭代智能體都會從該模型中提取一些經驗來進行培訓,本文的經驗池容量是 1000 。DDPG利用值網路來估算目前的行動品質,并透過策略網路來產生行動。與深度 Q- 網絡(DQN)方法相似,DDPG也有一個目的網絡,以防止過高或過低估計。在 χt 時刻,策略網絡基于狀態 st 和行為 at ,轉換為狀態 st+1 ,價值網絡基于狀態 st 和行為 at 來計算價值Q(st+1,at+1,w) ,這里 w 是當前網絡的權重,目標戰略網絡基于狀態 st+1 對下一時間的行動 at+1 進行預測,并且不執行,目的值網絡基于 st+1 和 at+1 來計算 at+1 的值 和時間序列差分目標( ,其表達式如下:

式中, rt 為 χt 時刻的回報; w- 為目標網絡的權重。

5仿真結果對比

5.1迭代訓練過程

深度強化學習的核心目標是最大化累積獎勵。在評估DDPG算法的訓練效果時,關鍵指標是 Q 值,要考查該指標是否能夠持續增長并最終穩定在一個接近最大值的水平。在本文提出的LSTM-DDPG能量管理策略中,LSTM車速預測網絡構建為一個5層的回歸模型,而DDPG的價值網絡由6層狀態層、2層動作層和5層共享層組成,動作網絡則是一個10層的反向傳播神經網絡,負責生成控制動作。兩個網絡都采用了RMSProp優化算法進行訓練。圖12展示了DDPG和LSTM-DDPG能量管理策略的訓練過程。

圖12不同強化學習能量管理策略迭代過程

經過訓練,DDPG算法在最后一次迭代中得到的獎勵值為-10847,而LSTM-DDPG策略在同一迭代中的獎勵值為-6109.1。LSTM-DDPG策略通過將預測時域內的需求功率信息提供給智能體,使得智能體能夠在訓練過程中進行更有效的規劃,從而使訓練結果逐漸穩定并優化。相比之下,DDPG算法僅考慮當前時刻的需求功率,缺乏在時間維度上的規劃能力,這可能是其最終獎勵值較低的原因。

總的來說,LSTM-DDPG策略通過引入車速預測,增強了智能體對環境變化的適應性和規劃能力,從而在能量管理任務中取得了更好的性能表現。

5.2仿真結果

圖13的觀察結果揭示了不同控制策略在WTVC工況下對SOC和燃料消耗量的影響。所有控制方案的起始SOC均設定為0.3,如圖 13a 所示。在與DDPG和DQN控制策略的比較中,本文提出的LSTM-DDPG控制策略展現出與設定值0.3非常接近的SOC值,整體波動較小,而DDPG和DQN的偏差較大,這表明增程器在這兩種策略下承擔了較多的工作負荷。這兩種算法雖然都通過發電機產生電力,但在功率分配上仍有改進空間。

DP控制策略在SOC變化的穩定性以及等效燃油消耗量方面均表現出色,這得益于它作為全局優化算法的本質,能夠計算出理論上的最優解,并常作為其他控制策略性能評估的基準。

相較于其他控制策略,本文提出的LSTM-DDPG控制策略在等效燃油消耗量上的表現緊隨DP之后,顯示出優異的節能效果。同時,SOC的穩定性也得到了保障,這對于延長電池壽命和優化整車性能至關重要。這些結果表明LSTM-DDPG策略能夠非常接近理論上的最優解,同時維持電池狀態的穩定,對于提升電池使用效率和整車性能具有顯著的促進作用。

圖13不同控制策略下SOC與燃油消耗量的變化情況

6結語

本文提出了一種融合LSTM神經網絡與DDPG算法的LSTM-DDPG能量管理策略,用于增程式電動汽車。該策略通過精確的車速預測,優化了能量分配和增程器的功率輸出,顯著提升了能量使用效率。

仿真結果表明,LSTM-DDPG能量管理策略在WT-VC工況下相較于傳統DDPG、DQN策略和功率跟隨控制策略,實現了燃油消耗量的顯著減少,分別降低了 。與動態規劃策略相比,等效燃油消耗量的差距僅為 0.128kg ,驗證了所提策略的高效性和接近最優解的性能。

本研究不僅為增程式電動汽車的能量管理提供了一種有效的控制策略,還通過維持電池SOC的穩定,為延長電池壽命提供了支持。未來的工作將進一步優化算法性能,提高預測精度,探索該策略在不同工況和更多車型中的應用潛力,以期達到更高的能效和更優的駕駛性能。

參考文獻:

[1]張光洲,梅琳.基于A-ECMS的增程式電動汽車能量管理策略設計及應用[J].安慶師范大學學報(自然科學版),2024,30(2):47-51.

[2]鐘勇,邱煌樂,李方舟,等.基于模糊控制的增程式電動汽車能量管理控制研究[J].車用發動機,2024(2):68-74+82.

[3]楊淇,鞏少鵬,李渝麗.增程式電動汽車能量管理優化控制策略研究[J].汽車測試報告,2023(23):155-157.

[4]常雪嵩,賈絮影,齊曉慧,等.增程式電動汽車控制策略及能量回收技術分析[J].現代車用動力,2023(4):16-19.

[5]孫云祥,王貴勇,王偉超,等.運用改進蜉算法的增程式電動汽車能量管理策略研究[J/OL].機械科學與技術,1-10[2024-08-14].

[6]趙靖華,張雨彤,曹派,等.壓縮天然氣發動機增程式電動汽車能量管理優化[J].吉林大學學報(工學版),2024,54(3):600-609.

[7]張微奇,王超,曹力,等.基于能量管理的增程式電動汽車控制策略研究[J].內燃機與配件,2022(20):117-120.

[8]陳勇,魏長銀,李曉宇,等.融合工況識別的增程式電動汽車模糊能量管理策略研究[J].汽車工程,2022,44(4):514-524+600

[9]白書杰,魏長銀,陳勇,等.GA-BP工況識別的增程式電動汽車能量管理策略優化[J].機械科學與技術,2022,41(7):1112-1120.

作者簡介:

唐建星,男,1998年生,助理工程師,研究方向為新能源車輛能量管理。

猜你喜歡
控制策略模型
一半模型
考慮虛擬慣性的VSC-MTDC改進下垂控制策略
能源工程(2020年6期)2021-01-26 00:55:22
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
工程造價控制策略
山東冶金(2019年3期)2019-07-10 00:54:04
現代企業會計的內部控制策略探討
消費導刊(2018年10期)2018-08-20 02:57:02
3D打印中的模型分割與打包
容錯逆變器直接轉矩控制策略
基于Z源逆變器的STATCOM/BESS控制策略研究
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 一级毛片免费不卡在线| 九色最新网址| 欧美精品二区| 日韩欧美国产成人| 国产一级在线观看www色 | 亚洲国产无码有码| 欧美日韩国产成人高清视频| 久久无码av一区二区三区| 国产一级裸网站| 国产成人精品视频一区二区电影| 国产高清在线精品一区二区三区 | 久久国产高潮流白浆免费观看| 国产精品久线在线观看| 国产精品爽爽va在线无码观看| 人妖无码第一页| 国产嫩草在线观看| 亚洲美女久久| 91免费精品国偷自产在线在线| 日韩欧美视频第一区在线观看| 999精品免费视频| 欧美另类图片视频无弹跳第一页| 亚洲国产亚综合在线区| www成人国产在线观看网站| 999福利激情视频| 欧美日韩中文国产| AV不卡无码免费一区二区三区| 国产无遮挡裸体免费视频| 九色在线观看视频| 久久一级电影| 日韩在线网址| 欧美中文字幕在线播放| 亚洲成人精品| 亚洲中文字幕无码爆乳| 韩国v欧美v亚洲v日本v| 国产毛片片精品天天看视频| 欧美亚洲国产视频| 色偷偷综合网| 国产精品美女免费视频大全| 无码中文AⅤ在线观看| 亚洲天堂视频网站| 亚洲一级毛片免费看| 特级毛片8级毛片免费观看| 亚洲日韩精品综合在线一区二区| 精品国产免费人成在线观看| 精品国产三级在线观看| 97se亚洲综合| 亚洲色图欧美一区| 国产中文一区a级毛片视频| jizz在线观看| 91探花国产综合在线精品| 亚欧美国产综合| 欧美一区二区精品久久久| 99精品视频九九精品| 亚洲中文精品久久久久久不卡| 欧美成人手机在线视频| 无码粉嫩虎白一线天在线观看| 特级aaaaaaaaa毛片免费视频| 国产免费网址| 亚洲国产精品日韩欧美一区| 日本免费福利视频| 日韩av资源在线| 国产精品开放后亚洲| 免费一级毛片完整版在线看| 欧美日韩中文国产| 精品视频在线一区| 日韩精品毛片| 毛片在线区| 91国内外精品自在线播放| 亚洲欧美h| 成人蜜桃网| 亚洲欧美成aⅴ人在线观看 | 色噜噜综合网| 日韩麻豆小视频| 久热精品免费| 色播五月婷婷| 中文字幕在线看| 亚洲天堂视频网| 午夜高清国产拍精品| 极品国产在线| 国产中文一区a级毛片视频| 国产无码高清视频不卡| 亚洲国产无码有码|