999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向視頻結(jié)構(gòu)化的細(xì)粒度車輛檢測分類模型*

2021-11-04 05:49:56金立生胡耀光蔣曉蓓郭柏蒼王武宏
汽車工程 2021年10期
關(guān)鍵詞:分類檢測模型

石 健,成 前,金立生,胡耀光,蔣曉蓓,郭柏蒼,王武宏

(1.北京理工大學(xué)機(jī)械與車輛學(xué)院,北京100081;2.燕山大學(xué)車輛與能源學(xué)院,秦皇島066004)

前言

目前實(shí)現(xiàn)無人駕駛的技術(shù)方案可分為兩種,一種是偏向個體的自主式無人駕駛,另一種是強(qiáng)調(diào)協(xié)同的網(wǎng)聯(lián)式無人駕駛[1]。兩種方案都以環(huán)境感知模塊作為基礎(chǔ),為后續(xù)的規(guī)劃決策提供支撐。從現(xiàn)有研究和已落地的成果來看,基于雷達(dá)的感知技術(shù)已日益成熟[2],但由于其存在著對目標(biāo)實(shí)例感知較差的缺點(diǎn),無法對復(fù)雜交通場景進(jìn)行有效識別,因此,基于攝像頭的感知技術(shù)是實(shí)現(xiàn)場景理解的關(guān)鍵。當(dāng)前基于攝像頭的感知主要圍繞著深度學(xué)習(xí)所展開,其面向交通參與者的多類任務(wù)(分類,檢測,跟蹤,分割等)極大地提升了對復(fù)雜交通場景的識別效率。

在無人駕駛環(huán)境感知模塊中,車輛檢測分類是基礎(chǔ)而重要的工作。國內(nèi)外對于交通場景下的車輛識別進(jìn)行了眾多研究。可以簡要總結(jié)為:從檢測視角劃分,面向自主式無人駕駛的自車視角(ego view)和面向網(wǎng)聯(lián)式無人駕駛的鳥瞰路側(cè)視角(topdown view);從檢測算法劃分,改進(jìn)單階段或兩階段檢測算法以提升檢測精度與速度,融合其他信息(如點(diǎn)云信息,深度信息等)的檢測算法以提升檢測效果。

文獻(xiàn)[3]中提出一種改進(jìn)SSD(single shot multi?box detector)算法,引入Inception?like block代替原始SSD中額外特征層來處理多尺度車輛檢測,從而增強(qiáng)對小型車輛的檢測,在鳥瞰視角下得到了較好的檢測效果。文獻(xiàn)[4]中提出一種改進(jìn)YOLOv3算法,通過使用MobileNetV2替換Darknet?53作為特征提取的骨干網(wǎng)絡(luò),實(shí)現(xiàn)了模型輕量化,對自車視角下的3類車輛進(jìn)行了有效檢測。文獻(xiàn)[5]中針對兩階段檢測算法Faster?RCNN中候選區(qū)域生成網(wǎng)絡(luò)(RPN)模塊在進(jìn)行目標(biāo)檢測時對目標(biāo)特征提取不夠充分的問題,提出一種基于改進(jìn)RPN的Faster?RCNN網(wǎng)絡(luò)SAR圖像車輛目標(biāo)檢測方法,與傳統(tǒng)RPN相比,其準(zhǔn)確率更高,泛化性能更強(qiáng)。文獻(xiàn)[6]中提取前車局部二值特征、Haar?like特征和方向梯度直方圖特征的融合特征作為支持向量機(jī)分類器輸入,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行級聯(lián)檢測,獲得了較好的車輛檢測效果。文獻(xiàn)[7]中提出一種“多層網(wǎng)格法”用來確定LSTM的超參數(shù),并利用基于改進(jìn)長短時記憶神經(jīng)網(wǎng)絡(luò)自適應(yīng)增強(qiáng)算法(LSTM?AdaBoost)的多天氣車輛分類方法,在多種復(fù)雜天氣下對車輛進(jìn)行了有效的檢測與分類。文獻(xiàn)[8]中設(shè)計了一種單目深度估計方法,將RGB信息轉(zhuǎn)化為深度模態(tài)信息,利用RGB圖像和深度圖像作為輸入,進(jìn)行級聯(lián)檢測,提高了車輛檢測性能。文獻(xiàn)[9]中在雷達(dá)點(diǎn)云的基礎(chǔ)上,提出了一種新的以視覺信息為導(dǎo)向的生成器(pro?posal generator),利用PointNet++學(xué)習(xí)點(diǎn)云的局部特征,并改進(jìn)了交并比(IoU)預(yù)測分支附加到網(wǎng)絡(luò)中,使得三維車輛檢測的效果得到較大提升。

針對上述文獻(xiàn)可以發(fā)現(xiàn)以下3點(diǎn)問題:第1,多數(shù)研究都圍繞檢測和分類算法開展,對算法工程化應(yīng)用未作詳細(xì)探討,且由于算法研究與實(shí)際需求場景存在的差異性較大,使得當(dāng)前的算法工程化難以落地;第2,由于深度學(xué)習(xí)模型易受數(shù)據(jù)維度和數(shù)據(jù)量制約,因此多數(shù)研究都以公開數(shù)據(jù)集中的粗粒度標(biāo)簽為基礎(chǔ),進(jìn)行后續(xù)算法的調(diào)優(yōu)和驗證,但在細(xì)粒度車輛分類上的研究不夠深入(細(xì)粒度的車輛分類是指大類下的子類識別,例如,一般只將車輛粗粒度的分為小型汽車、卡車和公交車,不會在小型汽車中細(xì)粒度的劃分出轎車和SUV等),這使得復(fù)雜交通環(huán)境下的場景理解難以深入;第3,一般研究只在算法和模型上給出了理論上的論證,但從環(huán)境感知模塊的整體技術(shù)結(jié)構(gòu)方案上都未作說明,尤其是在后續(xù)輸出如何與決策規(guī)劃等模塊的耦合聯(lián)動上未作明確闡述。

基于以上分析,本文中從面向網(wǎng)聯(lián)式無人駕駛的視角出發(fā),提出使用視頻結(jié)構(gòu)化算法作為路側(cè)端感知策略,通過對應(yīng)用環(huán)境進(jìn)行拆解,對視頻結(jié)構(gòu)化框架進(jìn)行設(shè)計,并在此基礎(chǔ)上,提出適用于本文視頻結(jié)構(gòu)化算法的細(xì)粒度車輛檢測分類模型。對輕量化的細(xì)粒度車輛檢測分類具有較強(qiáng)的研究價值,對無人駕駛環(huán)境感知技術(shù)方案的設(shè)計和實(shí)現(xiàn)具有一定的工程意義。

1 視頻結(jié)構(gòu)化算法設(shè)計

1.1 視頻結(jié)構(gòu)化算法與邏輯

視頻結(jié)構(gòu)化算法多用于安防與智能監(jiān)控[10-11]領(lǐng)域,其核心思想是對視頻圖像中關(guān)注的人、車、非機(jī)動車等目標(biāo)提供更深層次的結(jié)構(gòu)化解析,如出現(xiàn)在視頻中人的樣貌、衣著,車輛的類型、顏色等。而在當(dāng)前的無人駕駛環(huán)境感知任務(wù)中,實(shí)現(xiàn)復(fù)雜交通環(huán)境的場景理解是關(guān)鍵且必要的。因此,視頻結(jié)構(gòu)化從任務(wù)實(shí)現(xiàn)的角度是適用的,并且在保證視頻結(jié)構(gòu)化穩(wěn)定準(zhǔn)確輸出的前提下,可以利用輸出結(jié)果,為后續(xù)決策控制模塊提供支撐。在面向網(wǎng)聯(lián)式的無人駕駛環(huán)境感知的技術(shù)方案中,對于路側(cè)端設(shè)備有著較高的計算需求,且與設(shè)計成本存在著較難平衡的關(guān)系。綜上,如何定義適用于網(wǎng)聯(lián)式無人駕駛的視頻結(jié)構(gòu)化場景并設(shè)計各算法模型在視頻結(jié)構(gòu)化之間的邏輯,是視頻結(jié)構(gòu)化算法在工程實(shí)現(xiàn)中亟需解決的難題。

1.2 面向路側(cè)端的視頻結(jié)構(gòu)化框架設(shè)計

視頻結(jié)構(gòu)化的基礎(chǔ)是通過訓(xùn)練得到精度高,速度快,泛化性好,魯棒性強(qiáng)的輕量化深度學(xué)習(xí)模型,而其難點(diǎn)在于以下兩點(diǎn)。

首先,通常來說,單階段檢測算法和兩階段檢測算法在檢測速度和檢測精度上難以平衡。單階段檢測算法在檢測速度上有優(yōu)勢,但在檢測精度上差于兩階段檢測算法。

其次,深度學(xué)習(xí)受數(shù)據(jù)集數(shù)量和質(zhì)量的影響很大,手工標(biāo)注數(shù)據(jù)的成本過高,而當(dāng)前基于弱監(jiān)督和半監(jiān)督標(biāo)注的標(biāo)注精度還有待提高[12]。

視頻結(jié)構(gòu)化通過調(diào)用整合不同深度學(xué)習(xí)模型,可以較好地解決過度依賴數(shù)據(jù)標(biāo)注的問題,但其帶來的新挑戰(zhàn)是:(1)多深度學(xué)習(xí)模型的堆疊使得輕量化模型的任務(wù)更加緊迫;(2)由于計算資源的限制,各模型間的邏輯關(guān)系需要通過硬件平臺連續(xù)組織調(diào)試,使得模型工程化的要求更加嚴(yán)苛。

視頻結(jié)構(gòu)化作為一個系統(tǒng)性輸出,其對計算資源的分配和要求是十分嚴(yán)苛的,需要考慮的不僅包含模型的訓(xùn)練和優(yōu)化,更需要考慮模型的移植和加速,因此不同硬件平臺下的處理能力(如FLOPS)和編譯工具(如NCNN/MNN)都是需要考慮的重要內(nèi)容。

本文中設(shè)計了一種面向路側(cè)端的視頻結(jié)構(gòu)化框架。具體的框架結(jié)構(gòu)如圖1所示。

圖1 面向路側(cè)端的視頻結(jié)構(gòu)化框架

通過訓(xùn)練不同深度學(xué)習(xí)模型來突破數(shù)據(jù)集限制(例如,標(biāo)注限制,數(shù)據(jù)量限制等),通過組合多深度學(xué)習(xí)模型來豐富細(xì)粒度信息,通過設(shè)計算法策略來穩(wěn)定輸出有效內(nèi)容。利用深度學(xué)習(xí)模型層,結(jié)構(gòu)化層與計算資源的交互、申請與分配使得結(jié)構(gòu)化輸出更加合理穩(wěn)定,實(shí)現(xiàn)復(fù)雜交通場景的有效理解。

2 細(xì)粒度車輛檢測分類模型

車輛檢測分類是實(shí)現(xiàn)復(fù)雜交通場景理解的基礎(chǔ),探究適用于視頻結(jié)構(gòu)化的輕量化細(xì)粒度車輛檢測分類模型具有理論研究意義和實(shí)際應(yīng)用價值。現(xiàn)階段,常用的輕量化模型方法是使用輕量級的網(wǎng)絡(luò)代替單階段和兩階段檢測算法中較重的網(wǎng)絡(luò)作為特征提取的骨干網(wǎng)絡(luò)(例如,用MobileNets或ShuffleNet代替YOLO系列中的Darknet網(wǎng)絡(luò))。但經(jīng)過實(shí)際的工程化模型測試,類似于MobileNetV2代替Darknet-53得到的改進(jìn)模型,由于其中含有大量的1×1和3×3卷積,頻繁申請交換內(nèi)存,使得網(wǎng)絡(luò)前向推理速度不能達(dá)到符合預(yù)期的在視頻結(jié)構(gòu)化中應(yīng)用的速度。因此,本文中使用“檢測+分類”的思想,利用YO?LOv4[13]作為基礎(chǔ)檢測算法,并使用剪枝策略對所得模型進(jìn)行壓縮處理,使用ResNet18作為分類網(wǎng)絡(luò)的骨干網(wǎng)絡(luò),最后將兩模型級聯(lián)得到細(xì)粒度的車輛檢測分類模型。

2.1 基于剪枝優(yōu)化YOLOv4的車輛檢測模型

YOLO系列[14-16]算法是主流的單階段檢測算法。YOLOv4在算法理論上集成了很多優(yōu)秀的思想,且進(jìn)行了大量實(shí)驗論證,因此是目前最新、效果最好的版本。其較YOLOv3的主要改進(jìn)在于,在使用YOLOv3頭部的基礎(chǔ)上,使用CSPDarknet?53(網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示)替換了Darknet?53作為骨干網(wǎng)絡(luò),并利用SPP模塊增加了感受野,在數(shù)據(jù)增強(qiáng)和激活函數(shù)等處理方式上都進(jìn)行了調(diào)整。

圖2 CSPDarknet?53網(wǎng)絡(luò)結(jié)構(gòu)

剪枝作為模型壓縮的重要手段之一,可以分為結(jié)構(gòu)剪枝和非結(jié)構(gòu)剪枝,由于非結(jié)構(gòu)化剪枝需要定制化軟硬件的支持,因此,本文中采取結(jié)構(gòu)化的手動剪枝策略[17-20]。

通道剪枝是目前常用的剪枝策略,本文中通過調(diào)整通道稀疏性來實(shí)現(xiàn)靈活性和易操作性的平衡。由于通道剪枝需要修減與通道所關(guān)聯(lián)的所有輸入與相關(guān)連接。因此,無法對預(yù)訓(xùn)練模型進(jìn)行權(quán)重剪裁。針對此問題,在每一個通道上都引入了一個乘以通道輸出的尺度因子γ,通過對網(wǎng)絡(luò)權(quán)重和γ的聯(lián)合訓(xùn)練,對γ進(jìn)行稀疏正則化處理。而后利用γ進(jìn)行通道剪枝,并微調(diào)剪枝后的網(wǎng)絡(luò)。γ的引入公式為

式中:(x,y)為訓(xùn)練數(shù)據(jù)標(biāo)簽的輸入與輸出;W為訓(xùn)練的權(quán)重,可認(rèn)為整體為常規(guī)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的損失函數(shù);g(γ)為稀疏函數(shù);λ為平衡因子。

具體的優(yōu)化流程可表示為圖3。

圖3 通道剪枝流程

通道剪枝的本質(zhì)是刪除“不重要”通道上所有的輸入與輸出連接,因此,可以通過通道剪枝獲得一個較窄的網(wǎng)絡(luò),由此進(jìn)行模型的輕量化。可以將γ作為中間變量,且由于其與網(wǎng)絡(luò)權(quán)重共同優(yōu)化,網(wǎng)絡(luò)可以識別出“不重要”的通道,去除這些通道不會對泛化性能產(chǎn)生很大的影響,如圖4所示。

圖4 網(wǎng)絡(luò)剪枝示意

批處理歸一化(batch normalization,BN)[21]被看作是目前的標(biāo)準(zhǔn)方法來實(shí)現(xiàn)快速收斂和獲得更好的泛化性能。利用BN層使用小批次(mini-batch)數(shù)據(jù)將內(nèi)部激活函數(shù)正則化,設(shè)zin和zout為一個BN層的輸入與輸出,B為當(dāng)前的小批次的Batch,那么BN層可表示為

式中:μB和σB是在B下的輸入激活的平均值和標(biāo)準(zhǔn)差;γ和β是可被訓(xùn)練的尺度和變換參數(shù),這兩個參數(shù)在理論上提供了將正則化激活函數(shù)線性轉(zhuǎn)換回任何尺度上的可能性。一般來說,BN層都會被放在卷積層的后面,因此,本文中直接在BN層使用γ因子用于剪裁通道,從而實(shí)現(xiàn)通道剪枝。在網(wǎng)絡(luò)剪枝優(yōu)化以后,重新對網(wǎng)絡(luò)進(jìn)行微調(diào)。得到基于剪枝優(yōu)化的YOLOv4車輛檢測模型。

2.2 細(xì)粒度車輛分類模型

對于視頻結(jié)構(gòu)化來說,細(xì)粒度屬性是實(shí)現(xiàn)結(jié)構(gòu)化輸出的關(guān)鍵內(nèi)容。本文中在考慮車輛相關(guān)信息的基礎(chǔ)上,將車輛種類(type)分為16類,車輛顏色(color)分為12種,具體屬性如表1和表2所示。本文中通過細(xì)粒度的車輛類型和顏色組合基本可以覆蓋當(dāng)前交通場景下所需理解的所有車輛。

表1 細(xì)粒度車輛類型

表2 細(xì)粒度車輛顏色

在車輛分類模型中,采用ResNet18作為特征提取的骨干網(wǎng)絡(luò)[22],其網(wǎng)絡(luò)結(jié)構(gòu)示意如圖5所示。

圖5 ResNet18網(wǎng)絡(luò)結(jié)構(gòu)示意圖

圖像分類經(jīng)常使用的損失函數(shù)是Softmax損失(Softmax loss),可表示為

式中:LS為Softmax loss;Wx+b為全連接輸出;log為xi屬于類別yi的概率;m表示mini?batch的大小。

使用Softmax loss分類時可能會導(dǎo)致類別的界限不清晰,因此,本文在使用Softmax loss的基礎(chǔ)上,加入了Center loss[23],可表示為

式中:LC表示Center loss;cyi表示第yi個類別的特征中心;xi表示全連接層之前的特征;m表示mini?batch的大小。從實(shí)際意義上來說,Center loss是希望一個Batch中的每個樣本的特征離特征中心距離的平方和越小越好,即類內(nèi)距離要越小越好。本文最終損失函數(shù)可表示為

2.3 檢測分類級聯(lián)模型

在得到剪枝優(yōu)化的車輛檢測模型和細(xì)粒度的車輛分類模型以后,對兩模型進(jìn)行了級聯(lián),具體的級聯(lián)策略為:視頻流推流進(jìn)網(wǎng)絡(luò)后,利用檢測模型的檢測框(bounding box),作為分類模型的輸入,最終的標(biāo)簽輸出組成為“檢測框+類型+顏色”。

3 實(shí)驗

3.1 實(shí)驗設(shè)備與環(huán)境

訓(xùn)練設(shè)備與環(huán)境主要包括:Intel(R)Xeon(R)Gold 6129@2.30GHz CPU,NVIDIA GeForce RTX 2080Ti*4 GPU,Ubuntu18.04,Pytorch1.7,Darknet,Tensorflow1.13。

由于希望在實(shí)際工程下進(jìn)行模型驗證,因此在海思平臺下進(jìn)行了模型移植,主要的設(shè)備與環(huán)境包括:海思Hi3516DV300模組套件,Caffe1.0。

3.2 實(shí)驗數(shù)據(jù)

實(shí)驗使用了BDD100K[24]數(shù)據(jù)集、VERI-Wild[25]數(shù)據(jù)集和自采標(biāo)注的數(shù)據(jù)集。由于BDD100K數(shù)據(jù)集中的圖像數(shù)據(jù)是面向自車視角,因此使用其作為YOLOv4原始網(wǎng)絡(luò)模型的預(yù)訓(xùn)練數(shù)據(jù)集,得到的網(wǎng)絡(luò)模型及權(quán)重經(jīng)通道剪枝后,使用鳥瞰視角的自采標(biāo)注數(shù)據(jù)集進(jìn)行微調(diào)。重新對VERI-Wild數(shù)據(jù)集進(jìn)行了圖像分類和整理,并在其中添加了自采標(biāo)注的數(shù)據(jù)集,在圖像類別數(shù)量不平衡的問題上,使用了數(shù)據(jù)增強(qiáng)。重構(gòu)的數(shù)據(jù)集如表3和圖6所示。

表3 重構(gòu)VERI-Wild數(shù)據(jù)集

3.3 實(shí)驗結(jié)果與分析

選取不同角度的路側(cè)端視頻對級聯(lián)模型進(jìn)行了可視化,選取的部分車輛檢測分類效果如圖7所示。

圖7 不同視角下車輛檢測分類效果

針對YOLOv4車輛檢測模型,其和經(jīng)通道剪枝優(yōu)化的YOLOv4車輛檢測模型(微調(diào)后)的模型體積、前向推理時間(輸入1920×1080)和測試集mAP如表4所示。為平衡模型體積和mAP,本文中在多版本剪枝優(yōu)化模型中,選取了mAP下降0.006,模型體積減小約60%的YOLOv4-Pruned模型。

表4 車輛檢測模型指標(biāo)

針對細(xì)粒度車輛分類模型,模型體積、前向推理時間(輸入416×416)、分類準(zhǔn)確率(類型、顏色均正確)如表5所示。

表5 細(xì)粒度車輛分類模型指標(biāo)

針對細(xì)粒度的車輛檢測分類級聯(lián)模型,模型體積、FPS(輸入1920×1080),和在測試集上的mAP如表6所示。

表6 細(xì)粒度車輛檢測分類級聯(lián)模型指標(biāo)

在海思平臺Hi3516DV300(算力為1.0Tops)上進(jìn)行了模型的移植與測試,由于海思僅支持Caffe模型,因此,將多框架模型轉(zhuǎn)化統(tǒng)一為Caffe模型,具體為:Darknet模型轉(zhuǎn)為Caffe模型,Pytorch模型先轉(zhuǎn)為ONNX模型,后將ONNX模型轉(zhuǎn)為Caffe模型,在海思平臺上進(jìn)行了模型移植,針對細(xì)粒度的車輛檢測分類級聯(lián)模型,模型體積、FPS(輸入1920×1080)和在測試集上的mAP如表7所示。

表7 海思平臺細(xì)粒度車輛檢測分類級聯(lián)模型指標(biāo)

從以上各表對比可以看出,經(jīng)剪枝優(yōu)化后的檢測模型與細(xì)粒度的車輛分類模型級聯(lián)后,在1920×1080輸入,NVIDIA GeForce RTX 2080Ti下,可在微小精度損失的情況下,F(xiàn)PS達(dá)到23,在海思平臺下,F(xiàn)PS達(dá)到13。需要說明的是,海思平臺下的模型未經(jīng)量化。

4 結(jié)論

本文中分析當(dāng)前無人駕駛環(huán)境感知技術(shù)面臨的難題,提出了一種面向視頻結(jié)構(gòu)化的解決方案,其可以概括為:通過合理分配計算資源,優(yōu)化多深度學(xué)習(xí)模型,制定深度學(xué)習(xí)模型間交互邏輯,合理結(jié)構(gòu)化輸出圖像,以涵蓋豐富信息,實(shí)現(xiàn)復(fù)雜交通場景理解。

根據(jù)所提出的視頻結(jié)構(gòu)化算法框架,設(shè)計了一種適用于視頻結(jié)構(gòu)化算法的細(xì)粒度車輛檢測分類模型。針對檢測模型,通過對YOLOv4進(jìn)行通道剪枝,使得模型體積減小約60%,前向推理時間減少約40%。提供了16種類型、12種顏色的細(xì)粒度車輛分類模型,基本可以覆蓋目前交通場景下常見的所有車輛。級聯(lián)檢測分類模型在GPU下的測試可達(dá)到23 FPS,且本文進(jìn)行了工程上的模型移植驗證,在海思平臺Hi3516DV300上,未經(jīng)量化的模型可以在不掉精度的前提下穩(wěn)定在13 FPS。Hi3516DV300的算力有限,在實(shí)驗中僅作工程化演示,后續(xù)實(shí)際應(yīng)用需在大算力平臺下進(jìn)行,如NVIDIA Jetson Xavier NX等。

后續(xù)可在本文提供的多路側(cè)端設(shè)備視頻結(jié)構(gòu)化輸出下,圍繞車輛重識別(用于身份合并)和多車交互決策與規(guī)劃等內(nèi)容進(jìn)行研究。

猜你喜歡
分類檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
主站蜘蛛池模板: 她的性爱视频| 亚洲无码高清一区| 免费看a毛片| 免费看一级毛片波多结衣| 日本91视频| 国产成a人片在线播放| 色AV色 综合网站| 99ri精品视频在线观看播放| 高清久久精品亚洲日韩Av| 全午夜免费一级毛片| 在线观看欧美国产| 日韩无码白| 婷婷色狠狠干| 18禁影院亚洲专区| 久久亚洲天堂| 国产精品一区在线麻豆| 波多野结衣视频网站| 激情爆乳一区二区| 国产精品成人一区二区不卡 | 国产精品久久久久久搜索| 中文字幕伦视频| 国产va在线观看| 久久窝窝国产精品午夜看片| 一本大道无码高清| 久996视频精品免费观看| 一区二区三区四区在线| 中文字幕人妻无码系列第三区| 亚洲一区网站| 欧洲日本亚洲中文字幕| 亚洲区视频在线观看| 手机在线免费毛片| 中文字幕一区二区人妻电影| 亚洲成a人片77777在线播放 | 精品成人一区二区| 久99久热只有精品国产15| 鲁鲁鲁爽爽爽在线视频观看| 亚洲爱婷婷色69堂| 日本精品视频| 亚洲综合一区国产精品| 精品福利网| 亚洲无码高清视频在线观看| 亚洲天堂.com| 亚洲第一在线播放| 不卡无码h在线观看| 欧美特黄一免在线观看| 亚洲天堂网2014| 欧美另类视频一区二区三区| 国产亚洲视频免费播放| 日韩精品亚洲一区中文字幕| 亚洲品质国产精品无码| 久久特级毛片| 99热这里只有成人精品国产| 亚洲视频一区| 日韩美一区二区| 男人天堂亚洲天堂| av在线5g无码天天| 5555国产在线观看| 久久人与动人物A级毛片| 亚洲资源在线视频| 喷潮白浆直流在线播放| 亚洲区欧美区| 亚洲欧美一区二区三区蜜芽| 日韩精品高清自在线| 国产白浆在线| 精品午夜国产福利观看| 久久国产乱子| 国产精品尤物在线| 在线观看无码av免费不卡网站| 中文字幕啪啪| 毛片网站在线看| 国产91小视频在线观看| 欧美伦理一区| 99久久免费精品特色大片| 亚洲第一天堂无码专区| 自拍亚洲欧美精品| 欧美日韩福利| 国产精品亚洲片在线va| 秋霞国产在线| 色AV色 综合网站| 99激情网| 91福利片| 久久影院一区二区h|