999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進光線追蹤算法的自動駕駛模擬路試系統

2022-11-25 07:26:40張博為
計算機工程與設計 2022年11期
關鍵詞:引擎系統

張博為,崔 鵬

(貴州財經大學 信息學院,貴州 貴陽 550025)

0 引 言

隨著自動駕駛汽車落地的加快,傳統的實地路試已經逐漸不能滿足自動駕駛汽車對各種極端情景重現的需求,于是針對模擬自動駕駛汽車路試情景的自動駕駛仿真技術便愈發受到重視[1]。在業界的實踐中,算法在仿真系統中運行的時間已經超過了在路試上花費的時間。

近年來越來越多的自動駕駛模擬路試平臺出現[2,3],這些平臺主要分為兩類,一類是基于現有的三維仿真軟件進行開發。例如基于Carsim開發的自動駕駛相關軟件,對車輛動力學的模擬較好,但是由于內置渲染器和平臺的限制,只能針對于自動駕駛相關的車輛動力學方面進行仿真,而不能將仿真拓展到自動駕駛的全流程。Zofka等[4]基于GAZEBO平臺實現了一套帶有較為完善車輛操縱與動力學模型的自動駕駛仿真平臺,在此基礎上實現了基于深度圖的仿真場景像素級標注的數據支持,雖然該平臺實現了對車載攝像頭的仿真,但是由于GAZEBO平臺渲染效果的缺陷,輸出的仿真攝像頭的數據與真實數據的特征空間差異過大,不能很好測試自動駕駛模型的性能。另外一類是基于游戲引擎進行開發[5-9],這類仿真平臺能夠模擬如暴雨、暴雪、行人橫穿馬路等復雜多變條件下的場景,更多地覆蓋現實生活中較少出現以及過于危險的情景。目前,大多數主流自動駕駛模擬路試系統都基于游戲引擎進行開發。例如,Alexey等[8]提出了一套基于UnrealEngine4(UE4)的自動駕駛仿真系統CARLA,提供了對模擬環境進行控制的Python接口,使用UE4對仿真進行時對場景中的人物和車輛進行控制,但是上述框架將自動駕駛相關算法限制在本機運行,限制了算法仿真的效率,并且不支持將測試算法部署到邊緣計算平臺。聞龍[9]提出了一種云端推理的模擬路試系統架構,采用了本地數據采集+云端推理的模式,結合高效的圖像壓縮的方式將本地采集到的仿真器數據傳輸到云端以節省帶寬,但是不能很好地模擬當前自動駕駛的實際應用情況。

相較于僅搭載攝像頭的方案,搭載激光雷達的方案抗干擾能力強,在對高精度地圖的構建上具有顯著優勢。在對激光雷達的仿真上,現有多數仿真系統采用游戲物理引擎,通過物理引擎提供的場景查詢方法,來達到獲取仿真點云的目的,近年來也有一些研究通過對已有的點云進行處理,并結合已有三維模型來產生點云。CARLA等框架[4,8]采用游戲引擎所提供的射線檢測算法,這套算法通過實時平臺的物理引擎,從指定點出發,對指定方向的場景物體進行求交。但是要求場景中的模型采用最高精度的碰撞模型,加重了物理引擎的計算量,并且光線的求交與查詢是運行在實時平臺的主線程上的,增加了光線的數量會造成實時平臺的幀率下降,影響模擬傳感器的效果。柴國貝等[10]提出了一種基于三維模型頂點的激光雷達仿真方法,利用了GPU的頂點著色管線獲得了較大的性能提升。但是三維模型的頂點在世界坐標系中并不一定按照激光雷達的掃描方式進行排列,需要對頂點點云進行過濾操作,所以不能很好地模擬車載激光雷達輸出點云的特性。Fang等[11]提出了基于掃描場景的激光雷達仿真方法,在預處理階段,對真實世界點云使用PointNet++[12]等點云分類模型剔除前景物體(如行人、汽車等),再將可能的動態物體的三維模型處理成點云表示添加進場景。Manivasagam等[13]改進了前景車輛的生成方法,采用真實的車輛掃描點云。以上方法可以通過已有數據集進行端到端的點云模擬,但不易對非前景物體進行更改,并且無法使用同一套數據對激光雷達之外的傳感器進行仿真。另外,隨著自動駕駛相關算法復雜性的日漸提高,使得自動駕駛汽車本身硬件的重要性逐漸凸顯,自動駕駛汽車由于續航、空間等本身的限制,只能搭載低功耗的車載計算平臺,而車載計算平臺算力低的特點也就決定了自動駕駛的仿真系統不能像傳統人工智能應用一樣盲目地堆高算力。

針對以上的問題,本文提出了一套分布式的部署框架,將仿真環境、激光雷達仿真器、算法容器平臺按照處理數據的不同抽象成節點。其中環境仿真基于UE4引擎,能夠提供逼真的環境仿真效果,算法容器平臺可以選擇部署到高性能服務器上進行監督學習,或是部署到邊緣計算平臺上進行在實車條件下的算法測試。本文的貢獻主要有兩點:提出了一套易于部署的,對邊緣節點友好的自動駕駛模擬路試系統;實現了基于光線追蹤算法的激光雷達模擬,利用GPU的高度并行性,提升了車載激光雷達仿真的效率。本文提出的自動駕駛模擬路試系統驗證了自動駕駛仿真架構異構部署和光線追蹤算法模擬車載激光雷達的可行性,為后續相關工作提供了經驗。

1 系統架構

如圖1所示,本文所提出的模擬路試系統系統主要分為4個部分:①世界構建與自動駕駛相關傳感器信息采集;②激光雷達仿真;③數據分發;④算法容器。

圖1 模擬路試系統架構

本系統的部署方式為多機分布式部署,算法容器與左側3個模塊之間通過局域網連接,以上4個模塊共同組成一個訓練節點。整個仿真系統的流程如圖2所示。

圖2 模擬路試系統流程

1.1 世界構建與傳感器信息采集

為了架構的靈活性和仿真傳感器的真實性,本模擬路試系統采用了當前應用較為廣泛的開源游戲引擎UE4作為仿真引擎。UE4能提供時較為真實渲染質量,并且其自帶的動畫、行為樹等模塊也能使構建仿真環境的過程更為簡單和快速。

本系統通過封裝自動駕駛汽車的控制操作和仿真傳感器(攝像頭、慣性測量單元等)的數據流,通過網絡與分離部署的算法容器建立雙向數據交換。當環境仿真引擎和算法容器分離部署時,將采集到的傳感器數據封裝成數據流發送到算法容器中,再由算法容器返回指令給仿真引擎操縱仿真環境中的車輛。整個仿真引擎是依賴于UE4的PIE(play in editor)模式運行的,這樣使得每次對仿真場景的修改都可以在下一次仿真中直接看到效果。

模擬路試平臺生成數據幀具有一定的時間間隔,假設T1為環境仿真引擎渲染一幀的時間,T2為單向網絡延遲時間,T3為算法容器處理一幀傳感器數據需要的時間,ti為一類仿真傳感器采集數據的時間,i為傳感器編號,則對仿真傳感器采集數據時間T4如式(1),系統總延遲T如式(2)

T4=max(t1,t2,t3,…,tn)

(1)

T=T1+2T2+T3+T4

(2)

1.2 激光雷達仿真

多數的自動駕駛仿真系統對激光雷達的模擬都是通過使用仿真引擎自帶的物理引擎進行射線檢測從而得到單束激光目標點的位置,由于場景的查詢多是串行執行的,當每幀點云數目過多時,會使得產生一幀點云數據的時間過長,使得式(1)中T4過大,最終增大整個系統的響應延遲。對此本文方法選擇將激光雷達仿真從仿真引擎中獨立出來,并使用光線追蹤算法在GPU上進行并行計算,使得激光雷達仿真部分不阻塞仿真引擎的渲染流程,提高了效率,并且改進了以往光線追蹤算法中耗時最高的光線生成算法以及著色算法,以滿足對激光雷達仿真實時性的要求。激光雷達仿真模塊接收仿真引擎傳遞的傳感器位置,輸出一幀點云。

1.3 算法容器

算法容器中提供了針對所有傳感器數據的數據訪問的Python接口,用于自定義模型的數據獲取,也提供了針對常用目標檢測算法以及車道線識別算法的封裝(如Yolo v3、Faster RCNN),方便快速搭建系統。算法容器針對仿真環境中的車輛控制提供了方向盤角度、油門百分比、檔位等車輛駕駛行為的封裝。同時,分布式的部署方式使得算法容器可以靈活地部署在高性能服務器或是邊緣計算平臺上。

1.4 數據分發

分布式部署依賴于高性能仿真平臺進行數據分發。而在單機部署的情況下,使用共享內存在各個模塊之間進行數據傳輸,以達到最佳的性能。在分布式部署的情況下,需要傳輸的數據主要有點云數據、多路攝像頭數據、車輛信息數據,以及算法容器傳回的指令。數據交換采用谷歌GRPC框架,其中多路視頻流的傳輸采用編碼、傳輸、解碼的方式以節省帶寬。數據分發模塊采用工作隊列將發送接收線程與工作線程解耦,工作線程以固定的時間間隔工作。數據的流向如圖3所示。

圖3 仿真器數據流向

2 改進光線追蹤算法

光線追蹤算法[14]是一種易于在并行處理器上實現的算法。在實際的應用中,每一個像素都可以并行運行這一算法。本文提出的改進光線追蹤算法運用了現代GPU的光線追蹤渲染管線來進行場景的求交查詢以及通過命中材質的物理屬性進行回波強度的計算,得到最終的激光雷達仿真器輸出。

目前廣泛采用的光線追蹤算法使用基于GPU的渲染流水線[15],主流的路徑追蹤流水線可以用5個著色器來表示:①光線生成著色器,用于定義一束光線的初始狀態,并且開始進行場景遍歷;②交叉著色器,用于定義與非三角形基元(如球面、體素,以及曲面細分)相交的規則,決定了物體的形狀,與具體的圖元的碰撞檢測是采用遍歷BVH(bounding box hierarchy)樹[15]來進行的;③未命中著色器,用于定義一束射線在沒有與任何幾何體相交的情況下如何著色;④最近交點著色器,用于定義射線的交點如何著色,也可以在這個著色器中產生新的射線(用于反射等),形成一個遞歸調用;⑤任何交點著色器,用于定義射線是否要忽略這個交點,繼續遍歷場景求交。后3種著色器用于控制每條射線的行為。

2.1 光線生成算法改進

在通常情況下,光線生成著色器都是對窗口大小內的所有像素進行生成操作,但是對于仿真激光雷達來說,視口內的大多數發射光線都是激光雷達所不需要的,所以本文使用了一種改進的光線生成算法,相較于原來的光線生成算法,本文的方法規定了光線的生成規則,使得實際發射的光線的數量、位置與實際的激光雷達相同,同時優化了Close-Hit Shader的執行過程,去掉了著色器中對命中點不必要的采樣,將Close-Hit Shader中的指令數量降低為原來的30%。本文采用的光線生成算法如圖4所示,其中θ為發射的兩條光線間的夾角,P1、P2為像素坐標系上兩點,P′1、P′2為射線OP1、OP2在世界坐標系中與三維模型的交點。

圖4 改進光線生成算法

像素坐標系到世界坐標系的轉換如式(3)和式(4),其中R為相機旋轉矩陣,T為相機在世界坐標系中的位置

[XC,YC,ZC]=ZK-1[x,y,1]T

(3)

(4)

在模擬仿真雷達時,還需要考慮仿真激光雷達的參數,例如在對多線束機械式激光雷達進行模擬時,就需要考慮角分辨、垂直FOV等參數。改進光線生成算法默認啟動矩陣的最上方一行像素和最下方一行像素作為仿真激光雷達的最上方線束和最下方線束,再對滿足條件的線束執行初始化和射線檢測,并判斷與場景是否有交點,算法的偽碼如下:

算法1:改進光線生成算法

輸入:像素坐標,相機參數,仿真激光雷達參數

輸出:生成的光線

(1)根據式(3)、 式(4)計算u,v對應的世界坐標P

(2)IF(P滿足線束間夾角andP滿足角分辨率條件)

(3)dr=P-PCamera

(4)Ray←InitializeRay(dr,PCamera)

(5) WHILE !Ray.HitTriangle() and !Ray.IsMaxLength()

(6)Ray.Update(s)//s為射線每次的步長

(7) END WHILE

(8) IFRay.ValidHit()//射線與場景中的三角形有有效交點

(9)CloseHitShader(Ray)

(10) END IF

(11) END IF

2.2 Closest-Hit 著色器改進

為了改善傳統激光雷達仿真軟件采用的采用基于距離衰減的回波強度的計算公式,本文引入了文獻[10]提出的回波強度計算方法,其能較好模擬激光雷達回波強度的特性,本文將之應用于 Closest-Hit著色器。與原本的Closest-Hit著色器相比,本文的改進主要體現在以下4點:①去除了間接光照的計算以降低計算量;②對場景中的透明材質進行過濾,忽略透明物體的反射;③在完成命中點BRDF計算之后采用式(5)計算當前的輻亮度;④在一幀結束后使用CUDA編寫的并行歸約算法計算當前幀輻亮度范圍,用于之后的分析。其中BRDF選用了常用的Cook-Torrance BRDF函數[16]

(5)

(6)

其中,a為仿真場景大氣散射系數,R為激光雷達到命中點的距離,Pt為發射功率,fr(x,ωi,ωo) 為BRDF函數,ηt,ηr分別為發射和接受光學系統的透過率,Lrange為系統的輻亮度范圍。Cook-Torrance BRDF定義如式(7)

(7)

其中,D(h) 為法線分布函數,用于描述微觀法線方向的分布情況,粗糙表面法線分布相對均勻,光滑表面法線分布相對集中;F(v,h) 為菲涅爾函數,用以描述在不同入射光角度下反射光線所占的比率;G(l,v)是微平面幾何函數,用以描述微平面間的自遮擋關系,粗糙平面表面上的微平面有可能擋住其它的微平面從而減少表面所反射的光線;n為宏觀平面法線方向;h為微平面法線方向;l為入射光方向;v為觀察方向。對于Close-Hit著色器,首先對光線命中點材質進行采樣,得到粗糙度等渲染相關的信息,再計算BRDF值,最后使用式(5)與式(6)計算回波強度并返回到主機端,算法使用CUDA進行并行計算,算法偽碼如下:

算法2:改進Close-Hit著色器算法

輸入:物體材質參數Mat,滿足條件的光線列表ValidRayList,系統輻亮度范圍Lrange

輸出:回波強度值Intensity

(1)FORRay←ValidRayList.Begin() toValidRayList.End()

(2)HitMat←SampleMaterial(Ray,Mat) //獲取光線命中點處法線,粗糙度等渲染相關信息

(3)S←BRDF(HitMat,Ray)

(4)根據式(6)使用HitMat與S計算Lr

(5)根據式(5)使用Lr與Lrange計算Intensity

(6)Intensity寫入回傳緩存

(7)END FOR

(8)回傳緩存復制到主機端,執行并行歸約算法得到當前幀輻亮度范圍

3 實驗與結果分析

根據本文提出的自動駕駛仿真器的特性,提出了3組實驗來測試整個系統的性能,包括每秒激光雷達最大點云數、仿真平臺的數據速率、邊緣設備對生成的視頻數據進行預測的性能。在實驗中發現CARLA與Airsim實現激光雷達仿真的方法基本一致,故在這里選擇效果更好的CARLA進行比較。

框架整體分成4個模塊進行實現。在世界構建與傳感器信息采集模塊中,仿真環境生成采用C++語言結合UE4引擎的GamePlay框架進行實現,彩色攝像頭、深度攝像頭通過引擎的渲染相關緩存進行獲取,IMU數據通過采集場景中的車輛相關姿態角經計算后得到。為了支持多路視頻的同時編解碼,采用基于GPU的VPF框架進行編解碼操作。激光雷達仿真模塊使用基于CUDA實現的改進光線追蹤算法。數據分發模塊使用Python實現了一個基于GRPC框架的模塊間通信與交換系統。算法容器模塊中,使用Python封裝車輛操作的邏輯,在沒有NVIDIA GPU的節點上采用ffmpg解碼視頻,在其它節點上使用VPF進行解碼。仿真平臺的實際運行效果如圖5所示。

圖5 模擬環境運行效果

實驗環境采用AMD 3900X、RTX 2070、32 GB內存的運算設備,操作系統為Windows 10 2004版本,使用的UE4版本為4.25,CARLA版本為0.9.10,Pytorch版本為1.6.0,測試實驗配置的參數見表1。

本文的主要實驗如下:實驗1:將本文的激光雷達仿真方法與CARLA以及典型激光雷達產生的最大點云數量進行對比。實驗2:將本文的仿真環境的數據速率與CARLA

表1 系統參數

以及直接渲染的數據速率進行對比。實驗3:將本文的模擬路試系統輸出的數據在目前的主流檢測算法上進行測試。

3.1 仿真激光雷達性能測試

為了驗證仿真系統產生點云的效率,本文對比了自動駕駛模擬平臺CARLA使用PhysX物理引擎進行場景求交運算產生點云的方法。每秒生成的最大點云數量的計算方法如式(8)

P=AveragePoints×AverageFPS

(8)

(9)

其中,AveragePoints是平均每幀產生的點云數量,AverageFrameTime是每幀平均的幀時間。

本文實驗了在16線、32線、64線、128線下的每秒最大點云產生數量,這里的每秒最大點云輸出數量定義為:在且掃描線數固定的情況下,橫向分辨率設置為激光雷達仿真器的最小值。對于本文方法,通過忽略角分辨率條件使得滿足垂直分辨率的每一行像素都發射光線,以達到每秒最大點云輸出數量。對于CARLA,在固定射線通道數的情況下,不斷加大每秒預期輸出點云數量,直到最后的實際輸出點云數量不再變化,以達到每秒最大點云輸出數量。通過對每秒最大點云輸出數量的測試能夠得到仿真激光雷達的性能上限。圖6的實驗結果表明,本文方法相比CARLA在每幀最大輸出點云的指標上,在模擬激光雷達線數為128時達到了7倍的最大點云數量。驗證改進的光線追蹤算法在模擬自動駕駛使用的多線束掃描式激光雷達上相比于基于物理引擎的射線求交方式有著顯著的優勢。

圖6 每秒最大點云數量的對比

3.2 數據速率測試

為了驗證整個仿真系統在運行時的數據速率,在開啟三路攝像頭和激光雷達模擬的情況下,將整套系統部署在同一個節點上,以此對比本文方法和CARLA在每秒最大點云數量下的數據速率。同時也對UE4引擎直接渲染場景的幀率進行了對比測試。圖7、圖8的實驗結果表明,本文提出的自動駕駛模擬路試的仿真部分相較于傳統依賴于游戲引擎流水線的架構擁有巨大的優勢,提高了40%的幀速率。表2的數據表明,對比CARLA,本文提出的架構也可以有效減少在開啟模擬激光雷達的情況下仿真環境的卡頓。通過分析,發現CARLA采集除激光雷達外的其它傳感器的時間只占幀時間中很少的一部分,一幀中大多數的時間都用在激光雷達仿真模塊與UE4物理引擎的交互中,而使用物理引擎進行射線查詢生成點云的方式,因為其與UE4引擎主循環的強耦合,阻塞了渲染線程,導致了性能的大幅度下降。本文提出的方法,利用了GPU并行計算能力強的特點,加快了點云的生成速度,并且數據的生成不依賴于游戲引擎。

圖7 仿真激光雷達幀率

圖8 UE4引擎幀率

表2 幀時間超過0.5 s數量統計

3.3 典型模型運行測試

為了驗證本文提出的架構在運行典型深度學習模型時的效率和準確率,測試采用模型官方發布的COCO數據集上訓練的預訓練模型進行,輸入的數據集為從本文的模擬環境中采集的3段1280*720 30 FPS帶語義信息(行人與車輛)的模擬路試畫面,分別測試了在YOLO-V3和YOLO-V5以及RetinaNet上的效率。測試采用配置為i5 1035G4 CPU (244.9 GFLOPS),8 GB內存的邊緣計算設備,運行示例如圖9所示。表3的結果表明,各個模型在算法容器中運行的效率符合預期,生成的數據能夠較好地評價算法的性能。AP50指的是重疊度(IoU)閾值為0.5時的平均精度(AP)測量值,IoU以及AP的計算公式如下

(10)

(11)

(12)

(13)

其中,Rdi與Rgi分別為預測目標框和真實目標框,TP表示預測與實際均為正樣本的目標數目,FP表示實際為負樣本預測為正樣本的目標數目,FN表示實際為正樣本但預測為負樣本的目標數目。AP表示準確率-召回率曲線下的面積precisionmax(i) 表示該點對應的最大準確率。AP越高,模型的檢測效果越好。

圖9 實時檢測結果

表3 各個模型在算法容器中的運行性能

4 結束語

當前自動駕駛模擬路試框架中存在的對激光雷達模擬效果不佳、無法分離部署自動駕駛仿真器和自動駕駛相關算法等問題,本文提出了一種改進的自動駕駛模擬路試系統。為了提高對車載激光雷達進行模擬的效率,本系統提出了一種運行在GPU上的改進路徑追蹤算法,該算法改進了傳統光線追蹤算法的渲染方程和Cook-Torrance BRDF函數,實現了性能提升并且能更好地模擬車載激光雷達的實際運行狀況。算法提高了平均4.5倍的每秒最大點云數量,模擬時的卡頓概率降低為其它框架的1/9。本系統采用的分布式部署的架構能夠較好地評估各個算法的性能,同時降低自動駕駛算法與模擬環境搶占算力的可能。下一步考慮將改進光線追蹤算法應用到采用高精度掃描模型的自動駕駛仿真場景中,并且優化和隱藏現有平臺的數據傳輸開銷,以達到更加高效的模擬。

猜你喜歡
引擎系統
以學促干 挺膺擔當 激活砥礪前行的紅色引擎
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
基于PowerPC+FPGA顯示系統
半沸制皂系統(下)
三生 三大引擎齊發力
藍谷: “涉藍”新引擎
商周刊(2017年22期)2017-11-09 05:08:31
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
無形的引擎
河南電力(2015年5期)2015-06-08 06:01:46
主站蜘蛛池模板: 欧美日韩一区二区在线免费观看 | 无码一区中文字幕| 国产高清精品在线91| 国产免费羞羞视频| 国产91丝袜在线播放动漫 | 成年女人a毛片免费视频| 一区二区三区国产| 国产在线精彩视频论坛| 毛片基地美国正在播放亚洲| 国产精选自拍| 亚洲系列无码专区偷窥无码| 91久久精品国产| 国产jizz| 米奇精品一区二区三区| 亚洲国产成人久久精品软件| 欧美高清日韩| 亚洲国产综合第一精品小说| 永久免费无码日韩视频| 亚洲精品麻豆| 久久亚洲黄色视频| AV无码无在线观看免费| 中文字幕va| 欧美福利在线观看| 亚洲精品无码av中文字幕| 亚洲成人一区二区| 91免费国产高清观看| 国产综合另类小说色区色噜噜| 99视频国产精品| 狠狠v日韩v欧美v| 久久综合九色综合97婷婷| 亚洲a级在线观看| 亚洲成人动漫在线| 亚洲无码视频一区二区三区| 色播五月婷婷| 国产91丝袜| 99r在线精品视频在线播放 | 日本国产一区在线观看| 九九九久久国产精品| 女人爽到高潮免费视频大全| A级毛片无码久久精品免费| 国产内射一区亚洲| 亚洲精品爱草草视频在线| 成年片色大黄全免费网站久久| 毛片网站观看| 亚洲福利视频网址| 国产成人a在线观看视频| 日韩欧美中文字幕在线韩免费| 久久久久人妻一区精品色奶水| 无码啪啪精品天堂浪潮av| 九九线精品视频在线观看| 一本色道久久88| 狠狠色成人综合首页| 国产美女在线观看| 久久这里只有精品66| 午夜性爽视频男人的天堂| 男女精品视频| 国产亚洲精品91| 日本精品一在线观看视频| 日韩不卡高清视频| 亚洲国产系列| 国产精品成人一区二区不卡| 日韩高清欧美| 免费va国产在线观看| 国产精品免费久久久久影院无码| 好久久免费视频高清| 国产丰满大乳无码免费播放| 天天做天天爱夜夜爽毛片毛片| 久久综合婷婷| 999福利激情视频 | 午夜福利免费视频| 在线免费亚洲无码视频| 伊人成人在线视频| 亚洲无线视频| 国产又大又粗又猛又爽的视频| 亚洲成年网站在线观看| 91免费在线看| 亚洲日本中文字幕天堂网| 欧美a在线视频| 激情综合激情| 日韩视频免费| 最新精品国偷自产在线| 久久精品只有这里有|