999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的基于冗余點過濾的3D目標檢測方法

2020-09-29 06:56:18宋一凡宗立波劉立波
計算機應用 2020年9期
關鍵詞:特征檢測

宋一凡,張 鵬,宗立波,馬 波,劉立波

(寧夏大學信息工程學院,銀川 750021)

0 引言

近年來,自動駕駛獲得了學術界內外的廣泛關注,眾多學者投入到這一具有挑戰性的任務當中。在自動駕駛中,3D 目標檢測在其中發揮至關重要的作用,3D 目標檢測的性能表現直接影響自動駕駛的可靠性。3D 目標檢測需要在三維空間中標注出待檢測目標的3D 邊界框,這比2D 目標檢測更具有挑戰性,因為要考慮到目標的方向、空間位置、遮擋等空間因素[1]。深度學習在2D 目標檢測中已經取得了令人矚目的進展[2-6],如何將深度學習應用到3D 目標檢測中成為了研究人員關注的中心。

很多學者將2D 目標檢測框架擴展為3D 目標檢測框架,由此出現了一大批基于圖像的3D 目標檢測算法。Gupta 等[7]將區域卷積網(Region with CNN feature,R-CNN)擴展后在RGB-D 圖像中進行目標檢測;Chen 等[8]提出的Mono3D 在單目圖像中估計3D 邊界框;3D 目標建議(3D Object Proposal,3DOP)[9]在立體圖形中重構深度信息,并提出能量函數,通過最小化能量函數生成3D 候選區,組后通過R-CNN 對目標進行分類。目前,激光雷達已經成為了自動駕駛車輛的必備組件,因此越來越多的方法開始對激光雷達獲取的點云進行處理。激光雷達獲取的點云是一種3D數據,提供比圖像更精確的深度信息,利用點云能夠獲取更精確的目標位置和物體邊界,但是點云是一種不規則數據,并且具有高度稀疏性,因此不能直接用于傳統的卷積神經網絡進行特征提取。一些處理點云的方法是將點云轉換為標準格式,全卷積車輛檢測器(Vehicle detection from 3D lidar using Fully Convolutional Network,VeloFCN)[10]將點云投影到前視圖,形成2D 圖,再使用傳統卷積網絡進行處理;Vote3Deep[11]、3D 全卷積網絡(3D Fully Convolutional Network,3DFCN)[12]、投票決策在線點云檢測器[13]將點云轉換為體素格,并對體素格進行手工編碼。對點云數據進行轉換,不能充分利用點云的3D 特性,最近,Qi等[14]提出了PointNet,直接利用點云進行目標識別和分割,改進后的PontNet++[15]增強了局部特征識別,在對點云進行直接處理的工作中,這兩種方法非常具有啟發性,為3D 數據的處理提供了一種全新的思路。基于圖像的目標檢測能夠抽取非常豐富細致的紋理細節和高級語義信息,基于點云的目標檢測能夠精確地定位,基于兩種方式結合的方法,會獲得更準確的檢測效果。多視角3D 檢測網絡(Multi-View 3D object detection network,MV3D)[16]同時使用RGB和點云進行目標檢測,并且使用3D 區域生成網絡(Region Proposal Network,RPN)生成3D 目標候選區域,并被認為是最早將RPN 方法用于自動駕駛方面的方法。

以上提到的算法,大部分都聚焦于點云的手工特征表達,人為地將點云轉換為2D 結構,比如投影到鳥瞰圖(Bird’s Eye View,BEV)平面或者前視圖平面。如此做法雖然能夠使用成熟的2D CNN 對點云數據進行特征提取,但是會損失部分點云數據的三維精度。針對這一問題,VoxelNet 模型[17]移除了人工特征工程,將點云的特征抽取和目標邊界框預測同意在一個單獨網絡完成,是第一個端對端訓練的通用3D目標檢測深度網絡。但是VoxelNet 使用完整的點云數據作為輸入,增加了計算負擔、耗費更多的計算資源在背景點云數據上,而且只包含幾何信息的點云對目標的識別粒度較低,在較復雜的場景中容易出現誤檢測和漏檢測。

本文在VoxelNet 的基礎上進行改進,加入了視錐體候選區,首先使用2D 目標檢測器在RGB 圖像中得到的感興趣目標的2D 邊界框;之后根據點云雷達坐標與RGB 前視圖像像素坐標的一一對應關系,將點云坐標映射至RGB 前視圖中,提取出2D邊界框內部區域的點云數據,過濾目標之外的冗余點;之后通過對精煉過的點云區域進行端對端的特征學習,對目標進行空間定位。改進算法大幅降低了點云數據處理數量,減少了對背景點的計算量。改進算法在KITTI 數據集[18]上訓練并測試,結果和VoxelNet 相比,在簡單、中等和困難模式下,鳥瞰圖檢測精度分別提高了3、10、11個百分點,3D檢測精度分別提高了7、11、10個百分點。

1 相關工作

卷積神經網絡一般要求輸入數據符合某種標準模式,而點云數據是一種不規則格式數據。為了將點云數據作為深度網絡的輸入,大部分研究者都是將點云數據轉換為標準的數據格式,但是這種方法會造成精度缺失。Qi 等[14]提出了PointNet,無需對點云進行規則化處理,使用深度網絡直接處理不規則的三維點云數據,在點云的分類和實例分割任務中取得了良好的效果。后來,Qi 等[15]在PointNet 的基礎上提出了PointNet++,利用分層結構處理局部特征,彌補了PointNet只考慮全局特征而忽略局部特征的缺陷,在對復雜場景中和表面紋理豐富的目標進行分類時能取得更好的效果。

PointNet/PointNet++在點云分類和目標實例分割中表現出色,但是在3D 目標檢測中并不適用。為了提高PointNet/PointNet++的工作效率并能夠解決目標空間定位問題,Qi等[19]提出了Frustum PointNets,引入了基于RGB 圖像的2D 檢測,通過2D 檢測結果在空間中提取視錐體,之后使用PointNet/PointNet++分割目標實例,最后使用一個非模態邊界框預測模型預測3D 邊界框,使PointNet/PointNet++能夠進行3D目標檢測任務。

為了在高度稀疏的點云數據中使用CNN、RPN 這類在2D檢測中取得不錯成績的網絡結構,大部分研究者都是先將點云數據進行手工特征表示,將3D 數據轉換成2D 表示,比如投射為鳥瞰圖視角或前視圖,這樣雖然可以更好地兼容2D 方法,但是損失了3D 信息。Zhou 等[17]提出了VoxelNet,一種端對端訓練的深度網絡,無需對點云數據進行手工特征表示和轉換,直接對點云進行體素化并編碼,使用3D CNN 進行特征提取,和邊界框預測都在一個階段中進行。

Chen 等[16]提出的MV3D 網絡,以激光雷達點云和相機RGB圖像作為輸入,將點云投影至鳥瞰圖和前視圖,使用卷積網絡在RGB 圖像、點云鳥瞰圖和點云前視圖中提取特征圖,使用RPN 在鳥瞰圖中得到候選區;之后將候選區映射至點云正視圖和RGB 圖像中,與3 個位面上的特征圖形成各自位面的感興趣區域;最后,通過基于區域的融合網絡將3 個感興趣區域融合,得到最終的檢測結果。

Song 等[20]提了一種3D 卷積網絡Deep Sliding Shapes,以RGB-D中的物體場景為輸入,輸出目標的3D邊界框。此方法中,作者使用3D 區域生成網絡(3D RPN)和聯合目標識別網絡(joint Object Recogniton Network,ORN)共同進行目標檢測。3D RPN 以深度圖為輸入,生成所有目標的3D 候選區。對于每個3D 候選區,將深度圖輸入ORN 中的3D CNN,提取目標的幾何特征;將RGB圖輸入ORN 中的2D CNN,提取圖像特征。最后將幾何特征和圖像特征結合,用Softmax 分類器對候選區目標進行分類,以回歸的方式預測3D邊界框。

駱健等[21]基于稀疏自編碼(Sparse AutoEncoder,SAE)和循環神經網絡(Recurrent Neural Network,RNN)提出了多模態稀疏自編碼循環神經網絡(Multi-modal Sparse Auto-Encoder and Recursive Neural Network,MSAE-RNN)模型,從RGB-D圖像中的RGB圖像、深度圖以及由RGB圖像和深度圖生成的灰度圖和3D 曲面法線圖分別抽取初級特征,并使用RNN 從初級特征提煉更加抽象的高級特征,最后將4 種特征融合為RGB-D 圖像的最終特征,使用SVM 分類器進行目標識別。MSAE-RNN在RGB-D圖像中的識別率達到了90.7%。

王旭嬌等[22]在PointNet 模型中插入了一個K最近鄰圖層,在點云空間中構建K近鄰圖,利用圖結構獲取點云中點的局部信息,彌補了PointNet 忽略每個點局部信息的缺陷,有效地提高了整體點云分類的準確率,在ModelNet40 上準確率達到93.2%,比PointNet高4.0%。

2 本文算法

VoxelNet是一個通用的3D目標檢測網絡,在一個單一階段的端對端學習網絡中同時完成特征提取和目標邊界框預測,并且不需要對三維點云進行特征工程方面的處理,在基于點云的3D目標檢測中取得了突破性的進展。然而,點云也存在一定的局限性:首先,點云數據量很大,通常一幀點云數據包含大約100 000個點,而目標點只占其中的一小部分;其次,點云數據只包含幾何信息,目標與背景的識別粒度低。這導致VoxelNet會進行大量冗余計算,而且受到背景點的干擾,會出現誤檢測和漏檢測。受到Frustum PointNets的啟發,本文在VoxelNet網絡模型的基礎上,加入了視錐體提取網絡,同時利用RGB圖像豐富的語義信息和點云精確的深度信息,提升VoxelNet網絡模型的計算效率,并減少誤檢測率和樓檢測率,提高目標檢測精度。

平面圖像的信息空間要遠遠小于立體空間,而且和激光雷達獲取的點云數據相比,相機拍攝的RGB圖形具有更加豐富的紋理細節和高級語義信息,因此基于RGB圖像的2D目標檢測在目標識別上的表現仍優于3D目標檢測,在目標的分類上更為精準。本文提出的算法首先通過2D檢測器在RGB圖像中檢測出目標的2D邊界框,并將此2D邊界框升維至空間視錐體,將視錐體之外的冗余點云移除,只保留視錐體內的點云,形成目標的3D搜索空間——視錐體候選區,如圖1所示。在獲取視錐體候選區后,使用VoxelNet僅對視錐體候選區內的點云進行處理,在精煉過的空間中進行3D目標檢測,生成3D邊界框。本文算法有效地減少了VoxelNet的搜索空間,提升了效率,有效地消除了在背景空間中生成3D邊界框的誤檢測事件。

圖1 視錐體候選區Fig.1 View frustum candidate region

2.1 視錐體候選區提取

首先利用2D 檢測器在RGB 圖像中獲取目標的2D 邊界框,并提取2D 邊界框坐上角點的坐標(Xmin,Ymin)和右下角點的坐標(Xmax,Ymax)。之后根據已知的激光雷達坐標與相機坐標的對應關系,計算點云映射至相機平面的投影矩陣。激光雷達獲取的點云使用激光雷達坐標系描述,每個點的空間位置使用空間坐標系(x,y,z)表示,與之相應的相機獲取的RGB圖像坐標為平面坐標(x,y),根據圖2(a)所示KITTI 數據集規定的雷達坐標系和相機坐標系的方向規定,RGB 圖像坐標和點云雷達坐標關系如圖2(b)所示。

圖2 圖像坐標和雷達坐標關系Fig.2 Relationship between image coordinates and radar coordinates

激光雷達坐標系定義:相機平面幾何中心為坐標原點,水平向左為y軸,豎直向上為z軸,平面向前法線為x軸。圖像坐標系定義:圖像左上為坐標原點,水平向右為x軸,數值向下為y軸。

點云中的每一個點,在相機前視圖的RGB 圖像中都有唯一的對應位置,因此RGB 圖像和相應的點云之間有一個已知的映射關系,根據這個映射關系可以得知每一個點投影在RGB 圖像中的位置,如圖3。點云坐標投影至RGB 圖像坐標的計算公式如下:

其中:x為雷達坐標系下的點云坐標;y為點云投影至RGB 圖像中的平面位置坐標;P_rect是攝像機的投影矩陣,將矯正后的相機坐標投影至相機圖像平面;R_rect是相機的矯正旋轉矩陣,用于矯正相機;Tr_velo_to_cam是雷達坐標到相機的外參矩陣,用于將點云的雷達坐標投影至相機坐標系。

通過式(1)計算得到點云在RGB圖像中的投影坐標P(u,v)后,與之前得到的目標2D 邊界框角點坐標比較,計算出一個目標點矩陣T:

在得到目標點矩陣T后,計算視錐體候選區點云矩陣F:

其中:x是點云雷達坐標;yx是x所投影到RGB 圖像上的坐標。最后,保留視錐體候選區點云矩陣F,得到只含有目標物體點云的視錐體空間,移除其他所有點云,完成冗余點的過濾。經過視錐體候選區提取后的點云空間大幅縮小,背景點和其余無關點被充分過濾,目標點云所占比重充分增加,原本每個場景的點云數據包含大約100 000個點,在經過視錐體候選區提取后,每個場景的點縮減到了至多1 000個左右,在目標數量較少的情況下,甚至達到100 個點以內,而且所包含的點基本都屬于目標點,這樣可以減少背景點云的干擾,提高檢測精度,并且減少了對大量無效點的編碼計算,提高了有效計算率。

圖3 點云投影至RGB圖像Fig.3 Point cloud projecting to RGB image

2.2 視錐體合并

在一個場景中,有時會有多個目標,甚至會出現目標重疊的現象。在Frustum PointNets 中,視錐體的提取以目標為單位,在多目標場景中,會生成和目標數量相同的多個視錐體,而且在由目標重疊時,不同的視錐體會包含相同的點云區域,這樣不僅會使數據量增加,還會對相同的點進行重復計算。其次,Frustum PointNets 提取的視錐體點云是映射至矯正坐標系下的點,沒有保留點云原始的空間結構,不能使用VoxelNet進行端對端處理。因此本文改進了視錐體提取方法,根據點云和前視圖的坐標映射關系,直接提取視錐體中雷達坐標系下的點,之后把不同目標的點以矩陣的形式堆疊在一起,將相同的點合并,形成同一場景下的視錐體集合點云數據。

本文改進后的視錐體提取方法與Frustum PointNets 相比:1)保留了點云的原始空間特征,視錐體點云是原始點云的子集,無需改變點云的操作方式;2)將多個目標的視錐體點云融合在一個點云空間中,不會增加數據量;3)視錐體合并后,去除重復的點,避免了對相同點的重復計算。

2.3 體素劃分編碼

視錐體候選區生成完畢之后,將視錐體點云進行體素劃分。體素格大小按照y、z、x軸方向設置為0.2 m、0.4 m、0.2 m,完整點云場景設置為寬80 m,高4 m,縱深70.4 m,此范圍之外不考慮,因此整個點云場景按照y、z、x軸被劃分為400、10、352 個體素格,每個體素格都包含一定數量的點,或者為空。由于使用了視錐體候選區生成網絡,本文方法很大程度減少了點云搜索空間,體素劃分之后,大部分的體素格為空,而且非空體素中的點大部分都是目標點,因此大大減少了對無用點的處理。只選取非空體素格進行編碼處理,把非空體素格抽取出來,在其中隨機抽取固定數量的點向量化,再將同一個體素中的點的特征向量用全連接層聚合成為表達體素特征的向量。此時,整個點云空間被編碼成為一個體素特征向量空間,使用3D 卷積網絡對體素特征向量進行卷積操作,聚合體素特征信息,增強體素特征的表達,形成體素特征圖。之后,使用區域生成網絡(RPN)以體素特征圖為輸入,生成目標3D 邊界框。RPN 由3 個全卷積層和3 個反卷積層構成,在反卷積操作之后,得到一個高分辨率的特征圖,之后使用兩個卷積網絡得到最終的檢測結果,生成3D邊界框。本文算法網絡結構如圖4所示。

圖4 本文算法網絡結構Fig.4 Network structure of the proposed algorithm

3 實驗結果與分析

本文方法在KITTI 目標檢測基準上進行訓練和測試。KITTI 數據集是一套面向自動駕駛的公開數據集,提供了7 481 個訓練場景和7 518 個測試場景。每個場景都包含一個RGB 前視圖、配準的點云數據和標簽。由于測試集沒有提供標簽,所以本實驗將訓練數據重新劃分為訓練集和測試集。按照KITTI 的評價設置,本實驗將在簡單、中等和困難3 個難度場景下進行,分別測試3D 平均精度(3D Average Precision,3D AP)、鳥瞰圖平均精度(Bird’s Eye View,BEV)和平均方向相似度(Average Orientation Similarity,AOS),并且和Mono3D、3DOP、VeloFCN、MV3D還有基準VoxelNet進行對比。

3.1 實驗設置

訓練數據5 000,測試數據2 481,訓練epoch 設置為160,batch 設 置 為2。CPU 規 格Intel xeon E5-2620,顯 卡Nvidia Quadro P5000,內存64 GB。依據KITTI 的官方標準,BEV、3D AP的交并比(Intersection over Union,IoU)閾值設置為0.7。

3.2 算法性能和檢測結果對比

同樣訓練160回合,VoxelNet與本文方法的訓練曲線如圖5 所示。本文方法在訓練時收斂性更好,且在所有困難度場景中3D AP和BEV AP性能更好。

VoxelNet 和本文算法在測試集上分別測試BEV AP、3D AP和AOS,測試結果如圖6所示。

將本文方法的BEV AP、3D AP 與選取的基準算法進行對比。

BEV 檢測結果對比見表1。本文方法在3 個難度等級都優于所選基準算法,和VoxelNet 相比,使用相同的RPN,也獲得了不小的精度提升,簡單、中等、困難3 個等級的檢測精度分別提升了3.12、10.29、11 個百分點,表明本文提出算法所引入的視錐體候選區生成對檢測結果有很大的提升作用,尤其在困難模式中效果提升顯著。

圖5 VoxelNet與本文算法的性能對比Fig.5 Performance comparison of VoxelNet and the proposed algorithm

圖6 VoxelNet和本文算法檢測結果Fig.6 Testing results of VoxelNet and the proposed algorithm

表1 BEV檢測結果Tab.1 BEV detection results

3D AP 檢測結果對比見表2。BEV 只檢測平面上的位置準確率,3D AP 需要在3D 空間中檢測到準確的3D 位置,因此更具有挑戰性。本文方法在三個難度等級的3D AP 均超越MV3D 以外的基準算法,在簡單和困難下略低于MV3D。和VoxelNet相比,每個難度下都有大幅提升。

表2 3D AP檢測結果Tab.2 3D AP detection results

3.3 檢測結果分析

視錐體候選區生成網絡通過RGB 圖像上的目標平面位置在點云空間中抽取高價值區域,縮小了3D 目標搜索空間,和完整點云空間相比,點數量縮小到了原有點數量的1/10 到1/100。完整點云空間和視錐體生成網絡提取的視錐體候選區點云如圖7所示,部分場景的點云數據完整點數量和過濾后的數量對比見表3。由表3可知,視錐體候選區過濾掉了大量的多余點,不僅有助于提高檢測精度,降低誤檢率,還能明顯減少計算量,提高計算效率。在訓練過程中,本文方法處理一幀數據平均時間為0.78 s,VoxelNet則需要1.12 s。

圖7 完整點云和視錐體候選區點云圖對比Fig.7 Comparison between full point cloud and frustum candidate region point cloud

表3 點云數量對比Tab.3 Number comparison of point cloud

在測試集上測試后,將測試結果可視化,Ground Truth和檢測結果見圖8 中實例。鳥瞰圖檢測結果如圖8所示,使用VoxelNet 的檢測結果在部分場景中產生了大量的誤檢和漏檢(圖8(a)),本文方法有效地解決了這些問題(圖8(b))。這是因為點云數據只有深度信息,不包含語義信息和紋理信息,基于點云的檢測算法無法通過高級語義信息和紋理信息對正負樣本進行區分,當負樣本點的空間分布類似正樣本點的分布時,非常容易產生誤檢測。此外,VoxelNet 對整個點云進行處理,而點云中大部分的點是非目標區域,這就造成了正負樣本不平衡的問題,在訓練調整權重時,被大量的負樣本影響,又產生了漏檢現象。本文提出的方法,引入RGB圖像檢測,通過語義信息在RGB前視圖中檢測出感興趣目標,再根據2D檢測結果在點云空間中抽取視錐體候選區,不僅縮小了搜索空間,還有效地過濾了負樣本區域的點,只保留目標所在區域點云,解決了誤檢測的問題;同時,還解決了正負樣本不平衡的問題,減少了目標漏檢。在3D檢測中結果中,本文方法所預測的3D邊界框與Ground Truth也獲得了更高的重合度,如圖9所示。

圖8 VoxelNet與本文算法的鳥瞰圖檢測結果Fig.8 BEV detection results of VoxelNet and the proposed algorithms

圖9 VoxelNet和本文方法的3D檢測結果Fig.9 3D testing results of VoxelNet and the proposed algorithm

4 結語

本文提出了一種基于冗余點過濾的3D目標檢測算法,考慮到點云數據只包含幾何信息,在目標識別準確率上仍低于基于RGB圖像的2D檢測,在VoxelNet模型的基礎上加入了視錐體候選區,通過2D 檢測器在RGB 前視圖中鎖定目標平面位置,并將2D位置升維至點云空間中的視錐體,得到包含目標點云區域的視錐體候選區,過濾冗余背景點云,縮小點云搜索空間。該算法模型減少了對多余背景點云的計算,提高了點云處理效率,并且通過高價值區域的選定,減小了誤檢率和漏檢率。本文在KITTI數據集上的實驗證明,通過縮小點云空間可以有效提升檢測精度和工作效率,在簡單、中等、困難3種模式下的評價精確率分別為67.92%、59.98%、53.95%,優于VoxelNet模型。另外,本文提出的視錐體候選區提取網絡具有通用性,不會改變點云的原有屬性和結構,理論上可以應用于任何以點云作為輸入的檢測框架。然而,使用視錐體候選區的檢測方法有一點不足,如果2D 檢測器在RGB 圖像中發生漏檢,該區域點云會直接被忽略,直接影響最終的3D 檢測結果。另外,3D檢測的平均精度和檢測速度和成熟的2D檢測器仍有不小的差距。提高視錐體候選區的生成質量和進一步提高3D目標檢測的平均精度和檢測速度,將是下一步研究的重點。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 欧美yw精品日本国产精品| 在线视频亚洲色图| 欧美性猛交一区二区三区| 久久精品中文无码资源站| julia中文字幕久久亚洲| 国产成人精品综合| 亚欧乱色视频网站大全| 伊人激情综合| 亚洲VA中文字幕| 91网址在线播放| 欧美日韩导航| 久久天天躁狠狠躁夜夜躁| 亚欧成人无码AV在线播放| 欧美福利在线观看| 99ri精品视频在线观看播放| 1024你懂的国产精品| 亚洲国产成人超福利久久精品| 亚洲系列中文字幕一区二区| 动漫精品啪啪一区二区三区| 亚洲天堂免费| 中文精品久久久久国产网址| 在线视频一区二区三区不卡| www成人国产在线观看网站| 国产h视频在线观看视频| 国产哺乳奶水91在线播放| 不卡午夜视频| 在线无码av一区二区三区| 国产精品网拍在线| 国产打屁股免费区网站| 狠狠五月天中文字幕| 久久综合九九亚洲一区| 日韩色图在线观看| 色偷偷一区| 99久久国产综合精品2020| 亚洲欧美精品一中文字幕| 国产二级毛片| 91久久夜色精品国产网站| 色婷婷成人| 免费A∨中文乱码专区| 青草国产在线视频| 国产高颜值露脸在线观看| 成人在线天堂| 亚洲成人福利网站| 国产精品护士| 欧美国产视频| 国产成a人片在线播放| 欧美性猛交xxxx乱大交极品| 欧美国产另类| 亚洲日韩国产精品无码专区| 亚洲精品桃花岛av在线| 国产免费福利网站| 国产高清毛片| 一级毛片免费高清视频| 成人在线观看一区| 国产91精品最新在线播放| 五月天综合婷婷| 无码一区中文字幕| h视频在线播放| 亚洲欧美极品| 国产伦精品一区二区三区视频优播 | 一本大道无码高清| 日本午夜视频在线观看| 亚洲国产看片基地久久1024 | 久久久无码人妻精品无码| 韩国福利一区| 国产精品久久久久久久久久久久| 欧美黄网站免费观看| 久久综合色播五月男人的天堂| 午夜视频www| 精品1区2区3区| 亚洲精品卡2卡3卡4卡5卡区| 欧美日韩北条麻妃一区二区| 波多野吉衣一区二区三区av| 精品欧美视频| 青青草国产一区二区三区| 免费国产高清精品一区在线| 亚洲高清在线播放| 色噜噜狠狠狠综合曰曰曰| 成人一级免费视频| 中国一级特黄大片在线观看| 久久久久国色AV免费观看性色| 成人福利在线免费观看|