999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)YOLOv3的手勢(shì)識(shí)別算法

2021-01-26 05:50:48睢丙東張湃王曉君

睢丙東 張湃 王曉君

摘 要:為了解決YOLOv3算法在手勢(shì)識(shí)別中存在識(shí)別精度低及易受光照條件影響的問(wèn)題,提出了一種改進(jìn)的YOLOv3手勢(shì)識(shí)別算法。首先,在原來(lái)3個(gè)檢測(cè)尺度上新增加1個(gè)更小的檢測(cè)尺度,提高對(duì)小目標(biāo)的檢測(cè)能力;其次,以DIoU代替原來(lái)的均方差損失函數(shù)作為坐標(biāo)誤差損失函數(shù),用改進(jìn)后的Focal損失函數(shù)作為邊界框置信度損失函數(shù),目標(biāo)分類損失函數(shù)以交叉熵作為損失函數(shù)。結(jié)果表明,將改進(jìn)的YOLOv3手勢(shì)識(shí)別算法用于手勢(shì)檢測(cè)中,mAP指標(biāo)達(dá)到90.38%,較改進(jìn)前提升了6.62%,F(xiàn)PS也提升了近2倍。采用改進(jìn)的YOLOv3方法訓(xùn)練得到的新模型,識(shí)別手勢(shì)精度更高,檢測(cè)速度更快,整體識(shí)別效率大幅提升,平衡了簡(jiǎn)單樣本和困難樣本的損失權(quán)重,有效提高了模型的訓(xùn)練質(zhì)量和泛化能力。

關(guān)鍵詞:計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò);YOLOv3;目標(biāo)檢測(cè);手勢(shì)識(shí)別;DIoU;Focal損失函數(shù)

中圖分類號(hào):TP391.9?文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1008-1542(2021)01-0022-08

YOLOv3是一種多目標(biāo)檢測(cè)算法[1],具有識(shí)別速度快、準(zhǔn)確率高等優(yōu)點(diǎn),廣泛用于目標(biāo)檢測(cè)中[2]。手作為信息表達(dá)的重要組成部分,近年來(lái)成為人們研究的重點(diǎn)[3]。隨著人工智能技術(shù)的發(fā)展,越來(lái)越多的學(xué)者利用神經(jīng)網(wǎng)絡(luò)進(jìn)行手勢(shì)識(shí)別[4]。其中YOLOv3以其出色的檢測(cè)性能,被應(yīng)用在手勢(shì)檢測(cè)領(lǐng)域。例如:羅小權(quán)等[5]采用改進(jìn)的K-means聚類算法,提高了YOLOv3對(duì)火災(zāi)的檢測(cè)能力;陳俊松等[6]利用改進(jìn)的YOLOv3特征融合方法,實(shí)現(xiàn)了對(duì)筷子毛刺的檢測(cè);張強(qiáng)[7]提出了基于YOLOv3的實(shí)時(shí)人手檢測(cè)方法,通過(guò)改進(jìn)anchor參數(shù),快速檢測(cè)出測(cè)試者擺出的手勢(shì);毛騰飛等[8]通過(guò)改進(jìn)的YOLOv3檢測(cè)尺度,實(shí)現(xiàn)了對(duì)人手功能的實(shí)時(shí)檢測(cè)。

本文提出一種基于改進(jìn)YOLOv3的手勢(shì)識(shí)別算法,通過(guò)增加YOLOv3的檢測(cè)尺度、改進(jìn)位置損失函數(shù)和邊界框置信度損失函數(shù),得到檢測(cè)效果更好的算法,以解決手勢(shì)識(shí)別的相關(guān)問(wèn)題。

1?YOLOv3算法介紹

1.1?YOLOv3模型

YOLOv3由卷積層(convolution layers)、批標(biāo)準(zhǔn)化層(batch normalization, BN)、激活層(leaky relu)組成[9],引入殘差塊結(jié)構(gòu),在很大程度上提升了網(wǎng)絡(luò)訓(xùn)練速度和效率[10]。YOLOv3主體網(wǎng)絡(luò)為darknet-53,相比于ResNet-152和ResNet-101,具有更出色的特征提取能力。采用該神經(jīng)網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行特征提取,利用特征金字塔(feature pyramid networks,F(xiàn)PN)進(jìn)行融合[11],采用步長(zhǎng)為2的卷積進(jìn)行降采樣,分別在32,16,8倍降采樣處檢測(cè)目標(biāo)。

FPN架構(gòu)如圖1所示。將圖像輸入到網(wǎng)絡(luò)模型后進(jìn)行卷積操作,為了使Layer4和Layer2具有相同的尺度,對(duì)Layer2降低維度,接著對(duì)Layer4進(jìn)行上采樣操作,然后將這2層的特征進(jìn)行融合[12]。將融合后的結(jié)果輸入到Layer5中,這樣就會(huì)獲得一條更具表達(dá)力的語(yǔ)義信息。YOLOv3網(wǎng)絡(luò)按照FPN架構(gòu)融合了淺層和深層的特征信息[13],可以獲得更多圖片特征,檢測(cè)效果更好。

運(yùn)用該模型檢測(cè)手勢(shì)時(shí),首先將手勢(shì)圖像按13×13,26×26,52×52網(wǎng)格大小進(jìn)行劃分,每個(gè)網(wǎng)格分配3個(gè)候選框,然后計(jì)算候選框與真值框的重合程度及置信度大小,最后對(duì)比候選框的得分值,分值最高的候選框即為模型預(yù)測(cè)手勢(shì)結(jié)果。

1.2?損失函數(shù)

YOLOv3算法的損失函數(shù)[14]由3部分組成:均方差(mean square error, MSE)損失函數(shù)作為坐標(biāo)誤差損失函數(shù),交叉熵?fù)p失函數(shù)作為置信度和類別的損失函數(shù),損失函數(shù)如式(1)所示:

2?改進(jìn)的YOLOv3算法

2.1?增加模型檢測(cè)尺度

針對(duì)人手大小不一會(huì)導(dǎo)致檢測(cè)效果不佳的問(wèn)題,在原來(lái)3個(gè)檢測(cè)尺度基礎(chǔ)上,結(jié)合FPN思想增加至4個(gè)檢測(cè)尺度,以此提高小目標(biāo)人手的檢測(cè)能力。改進(jìn)后的YOLOv3檢測(cè)尺度分別為13×13,26×26,52×52,104×104。

改進(jìn)后的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,圖2中粗體標(biāo)注的為104×104檢測(cè)尺度。在YOLOv3網(wǎng)絡(luò)中通過(guò)多卷積操作后,將52×52的特征層上采樣操作變換成104×104,使之與上一層具有相同的特征尺寸,然后將該層與104×104特征層進(jìn)行融合,得到一個(gè)表達(dá)能力更強(qiáng)的語(yǔ)義信息。

改進(jìn)后的YOLOv3網(wǎng)絡(luò)有4個(gè)檢測(cè)尺度,每個(gè)檢測(cè)尺度均融合了低層細(xì)節(jié)信息和深層語(yǔ)義信息,同時(shí)可以進(jìn)行單獨(dú)預(yù)測(cè),因此改進(jìn)后的檢測(cè)網(wǎng)絡(luò)具有更為出色的檢測(cè)能力。

2.2?改進(jìn)損失函數(shù)

在目標(biāo)檢測(cè)中常用IoU(intersection over union)衡量預(yù)測(cè)框和真實(shí)框的重合程度[16]。一般認(rèn)為,該值越大,兩框的重合程度越好,算法檢測(cè)精度越高,反之則越差[17]。

經(jīng)大量實(shí)驗(yàn)發(fā)現(xiàn),以均方誤差作為坐標(biāo)誤差損失函數(shù)存在以下缺點(diǎn):一是IoU越大,并不一定代表預(yù)測(cè)框與真值框重合程度越好,通過(guò)圖3可以看出IoU相同時(shí),2個(gè)框的重合程度并不一樣;二是損失函數(shù)沒(méi)有將檢測(cè)目標(biāo)和錨框之間的中心距離、重疊率及尺度考慮進(jìn)去。

2.2.1?改進(jìn)坐標(biāo)誤差損失函數(shù)

針對(duì)以上不足,本文采用DIoU作為坐標(biāo)誤差損失函數(shù)[18],DIoU將預(yù)測(cè)框和真值框之間的距離、重疊率以及尺度均加以考慮。DIoU計(jì)算過(guò)程如下:

式中:R1,R2分別代表預(yù)測(cè)框中心和真值框中心;L為R1和R2間的歐氏距離;c,Ag,Ap,I分別代表預(yù)測(cè)框和真值框的最小閉包區(qū)域的對(duì)角線距離、真值框的面積、預(yù)測(cè)框的面積及重疊面積。

DIoU損失的計(jì)算如式(4)所示:

DIoU作為損失函數(shù),一是可以直接最小化預(yù)測(cè)框和真值框之間的歸一化距離,使收斂速度更快;二是當(dāng)預(yù)測(cè)框與真值框不重疊時(shí),仍然可以為預(yù)測(cè)框提供移動(dòng)方向;三是2個(gè)框在水平和垂直方向上時(shí),DIoU回歸速度非常快;四是在非極大值抑制評(píng)估中,DIoU可以代替IoU,使NMS得到更加合理及有效的結(jié)果。

2.2.2?改進(jìn)置信度損失函數(shù)

為了解決樣本不平衡問(wèn)題,LIN等[19]提出了Focal損失函數(shù)。為進(jìn)一步提高YOLOv3的檢測(cè)精度,本文采用改進(jìn)的Focal損失函數(shù)作為置信度損失函數(shù)。Focal損失函數(shù)能夠在模型訓(xùn)練過(guò)程中通過(guò)增大困難樣本權(quán)重的方法,有效解決樣本不平衡問(wèn)題[20],使訓(xùn)練模型具有更佳的檢測(cè)效果。Focal損失函數(shù)如式(5)所示:

式中:γ為聚焦參數(shù),是一個(gè)大于0的超參數(shù);αt為平衡參數(shù),也是一個(gè)超參數(shù),用來(lái)控制正負(fù)樣本對(duì)總損失的權(quán)重,平衡多類別樣本數(shù)量;pt為標(biāo)簽預(yù)測(cè)概率。

式(5)中αt和γ這2個(gè)參數(shù)一般由人為規(guī)定,但是如果設(shè)定的數(shù)值不貼合數(shù)據(jù)集,訓(xùn)練效果反而不好[21]。針對(duì)這一問(wèn)題,本文根據(jù)數(shù)據(jù)集確定該參數(shù),確定過(guò)程如下。

1) 確定平衡參數(shù)αt

本文樣本有5個(gè)類別,為了對(duì)困難樣本加大損失函數(shù)權(quán)重,同時(shí)減小容易樣本的損失權(quán)重,根據(jù)各類樣本數(shù)量來(lái)縮放分類損失大小。計(jì)算思路為權(quán)重設(shè)定的目標(biāo)要使任意2個(gè)類別樣本數(shù)量和這2個(gè)類別的權(quán)重成反比,如式(6)所示:

式中:N為樣本類別總數(shù);mi為第i類樣本數(shù)量;第i類的平衡參數(shù)αi等于類別權(quán)重值的大小。這樣平衡參數(shù)能夠較好地均衡樣本數(shù)量大小對(duì)應(yīng)的損失值。

2) 確定聚焦參數(shù)γ

通過(guò)大量實(shí)驗(yàn)發(fā)現(xiàn),在模型訓(xùn)練初期,使用Focal損失函數(shù)的模型訓(xùn)練精度低于使用交叉熵?fù)p失函數(shù)時(shí)的精度[19]。為此本文采用每N輪訓(xùn)練后調(diào)整1次γ值的方法,調(diào)整方式如式(7)所示:

綜上所述,本文以DIoU代替原來(lái)的均方差損失函數(shù)作為坐標(biāo)誤差損失函數(shù),用改進(jìn)后的Focal損失函數(shù)作為邊界框置信度損失函數(shù),目標(biāo)分類損失函數(shù)以交叉熵作為損失函數(shù)。因此,YOLOv3損失函數(shù)如式(8)所示:

式中CE表示交叉熵?fù)p失函數(shù)。DIoU損失作為目標(biāo)框坐標(biāo)回歸損失,將預(yù)測(cè)框和真值框之間的距離、重疊率以及尺度均考慮進(jìn)去,在很大程度上提高了目標(biāo)框回歸速度。在邊界框置信度交叉熵?fù)p失函數(shù)的基礎(chǔ)上加入焦點(diǎn)損失函數(shù),顯著平衡了簡(jiǎn)單樣本和困難樣本的損失權(quán)重,有效提高了模型的訓(xùn)練質(zhì)量和泛化能力。

3?實(shí)驗(yàn)及結(jié)果

3.1?數(shù)據(jù)集

為了使數(shù)據(jù)集更加豐富,本文在盡可能多的自然場(chǎng)景下采集手勢(shì)圖像,手勢(shì)1到手勢(shì)5各自采集500張圖片,采用Labelimg工具標(biāo)記手勢(shì)目標(biāo)制作數(shù)據(jù)集[23]。為了充分利用樣本圖片,對(duì)圖片進(jìn)行30°,60°,90°,180°,270°旋轉(zhuǎn)、垂直和水平翻轉(zhuǎn),并以0.4,0.6,0.8的因子縮小圖片[24]。對(duì)圖片隨機(jī)增強(qiáng)亮度,增強(qiáng)范圍為0.1~2,并對(duì)樣本圖片適當(dāng)增加椒鹽噪聲,對(duì)樣本數(shù)據(jù)增強(qiáng)后獲得14 500張訓(xùn)練圖片。

3.2?實(shí)驗(yàn)平臺(tái)與評(píng)價(jià)指標(biāo)

采用CPU為英特爾i7-7700HQ、英偉達(dá)GTX1060顯卡訓(xùn)練模型,交互語(yǔ)言為python3.6,使用CUDA9.0和CUDNN7.4加速訓(xùn)練過(guò)程。在訓(xùn)練網(wǎng)絡(luò)模型階段,使用的部分參數(shù)batch size為16,圖片大小為416×416,迭代輪數(shù)20 000,IoU閾值為0.5。

目標(biāo)檢測(cè)中常用以下指標(biāo)衡量模型訓(xùn)練效果:Precision(查準(zhǔn)率)、Recall(召回率)、AP(平均精度)和mAP(平均精度均值)[25],如式(9)—式(12)所示:

式中:TP(ture positive)表示分類器正確預(yù)測(cè)的正樣本;FN(false negative)表示分類器錯(cuò)誤預(yù)測(cè)的負(fù)樣本;FP(false positive)表示分類器錯(cuò)誤預(yù)測(cè)的正樣本;n為采樣P-R對(duì),k為樣本類別數(shù)(本文為5)。

3.3?結(jié)果分析

采用改進(jìn)后的YOLOv3算法與傳統(tǒng)YOLOv3,SSD300,F(xiàn)aster R-CNN經(jīng)典多尺度目標(biāo)檢測(cè)算法[26]對(duì)每個(gè)類別AP值進(jìn)行對(duì)比,結(jié)果如表1所示。同時(shí),對(duì)比各算法的幀率(frames per second,F(xiàn)PS)、mAP和達(dá)到Loss閾值的迭代次數(shù),結(jié)果如表2所示,各算法檢測(cè)手勢(shì)效果如圖4所示。

由表1和表2分析可知,改進(jìn)后的YOLOv3算法mAP能夠達(dá)到90.38%,相對(duì)于傳統(tǒng)YOLOv3,SSD300,F(xiàn)aster R-CNN分別提高了6.62%,11.18%和0.28%,并且每個(gè)類別的檢測(cè)精度均大于傳統(tǒng)YOLOv3和SSD300算法。從檢測(cè)速度上分析,改進(jìn)后的YOLOv3算法FPS比改進(jìn)前提升近2倍,但和SSD300相比還有不少差距。分析迭代次數(shù)可知,改進(jìn)后的算法在訓(xùn)練時(shí)損失函數(shù)收斂速度更快。

從圖4可以看出,改進(jìn)后的算法在檢測(cè)效果和檢測(cè)精度上表現(xiàn)更加出色,因?yàn)槭謩?shì)1和手勢(shì)2可能存在遮擋問(wèn)題,導(dǎo)致個(gè)別誤檢,但是整體識(shí)別效率有了大幅度提升,模型具有較高的泛化能力和魯棒性。

4?結(jié)?語(yǔ)

1)本文針對(duì)手勢(shì)檢測(cè)中存在精度和速度無(wú)法兼顧的問(wèn)題,以YOLOv3為檢測(cè)框架,在原來(lái)檢測(cè)尺度上增加一個(gè)檢測(cè)尺度,提高小目標(biāo)的檢測(cè)能力。采用DIoU作為坐標(biāo)誤差損失函數(shù),并用改進(jìn)后的Focal損失函數(shù)代替交叉熵?fù)p失函數(shù)作為邊界框置信度損失函數(shù)。

2)實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)的YOLOv3模型在檢測(cè)精度上有了明顯提升,并且檢測(cè)速度幾乎相同,能夠有效識(shí)別檢測(cè)者的手勢(shì)。但是增加一個(gè)檢測(cè)尺度后,模型的訓(xùn)練速度會(huì)變慢,并且當(dāng)真值框和目標(biāo)框距離過(guò)遠(yuǎn)時(shí),DIoU無(wú)法為候選框提供移動(dòng)方向。因此,未來(lái)將深入探究如何在增加檢測(cè)尺度時(shí)不減慢模型的訓(xùn)練速度,同時(shí)嘗試采用CIoU代替DIoU作為損失函數(shù)。

參考文獻(xiàn)/Reference:

[1]?LIU Jun, WANG Xuewei. Early recognition of tomato gray leaf spot disease based on MobileNetv2-YOLOv3 model[J]. Plant Methods,2020, 16(11):612-231.

[2]?YU Yuan, REN Jinsheng, ZHANG Qi, et al. Research on tire marking point completeness evaluation based on K-means clustering image segmentation[J]. Sensor, 2020, 20(17):4687-4697.

[3]?WILLIAMS E H,LAURA B, DOWNING P E,et al. Examining the value of body gestures in social reward contexts[J]. Neurolmage,2020, 222:117276-117286.

[4]?HU Wei, ZHU Quanxin. Moment exponential stability of stochastic delay systems with delayed impulse effects at random times and applications in the stabilisation of stochastic neural networks[J].International Journal of Control, 2020, 93(10):2505-2515.

[5]?羅小權(quán),潘善亮.改進(jìn)YOLOv3的火災(zāi)檢測(cè)方法[J].計(jì)算機(jī)工程與應(yīng)用2020,56(17):187-196.

LUO Xiaoquan, PAN Shanliang. Improved YOLOv3 fire detection method[J].Computer Engineering and Applications, 2020, 56(17):187-196.

[6]?陳俊松,何自芬,張印輝.改進(jìn)YOLOv3算法的筷子毛刺缺陷檢測(cè)方法[J].食品與機(jī)械,2020,36(3):133-138.

CHEN Junsong,HE Zifen,ZHANG Yinhui.Defect detection method of chopsticksbased on improved YOLOv3 algorithm[J].Food & Machinery,2020,36(3):133-138.

[7]?張強(qiáng). 基于改進(jìn)YOLOv3的手勢(shì)識(shí)別方法研究[D].合肥:合肥工業(yè)大學(xué),2019.

ZHANG Qiang.Hand Gesture Recognition Approach Research Basedon Improved YOLOv3[D].Hefei:Hefei University of Technology,2019.

[8]?毛騰飛,趙曙光.基于改進(jìn)YOLOv3的實(shí)時(shí)人手檢測(cè)算法[J].現(xiàn)代計(jì)算機(jī),2020(5):57-60.

MAO Tengfei,ZHAO Shuguang.Real-time hand detection algorithm based on improved YOLOv3[J].Modern Computer,2020(5):57-60.

[9]?WILLIAMS A S, ORTEGA F R. Understanding multimodal user gesture and speech behavior for object manipulation in augmented reality using elicitation[J]. IEEE Transactions on Visualization and Computer Graphics, 2020,doi:10.1109/TVCG.2020.3023566.

[10]THOMSEN J L D, MARTY A P, SHIN W, et al. Barriers and aids to routine neuromuscular monitoring and consistent reversal practice:A qualitative study[J]. Acta Anaesthesiologica Scandinaviva, 2020, 64(8):1089-1099.

[11]LI Qiaoliang, LI Shiyu, LIU Xinyu, et al. FecalNet: Automated detection of visible components in human feces using deep learning[J]. Medical Physics, 2020, 47(9):4212-4222.

[12]LI Qiaoliang, YU Zhigang, QI Tao, et al. Inspection of visible components in urine based on deep learning[J]. Medical Physics, 2020, 47(7):2937-2949.

[13]NURI E O, KAPLAN G, ERDEM F, et al. Tree extraction from multi-scale UAV images using mask R-CNN with FPN[J]. Remote Sensing Letters, 2020, 11(9):847-856.

[14]LUO Ze, YU Huiling, ZHANG Yizhuo. Pine cone detection using boundary equilibrium generative adversarial networks and improved YOLOv3 model[J]. Sensors, 2020, 20(16):doi:10.3390/s20164430.

[15]ZHANG Xiaoguo, GAO Ye, WANG Huiqing, et al. Improve YOLOv3 using dilated spatial pyramid module for multi-scale object detection[J].International Journal of Advanced Robotic Systems, 2020, 17(4):doi:10.1177/1729881420936062.

[16]KUZNETSOVA A, MALEVA T, VLADIMIR S. Using YOLOv3 algorithm with pre-?and post-processing for apple detection in fruit-harvesting robot[J]. Agronomy, 2020, 10(7):doi:10.3390/agronomy10071016.

[17]HAN Fenglei, YAO Jingzheng, ZHU Haitao, et al. Underwater image processing and object detection based on deep CNN method[J]. Journal of Sensors, 2020,doi:10.1155/2020/6707328.

[18]WU Xiongwei, SAGOO D, ZHANG Daoxin, et al. Single-shot bidirectional pyramid networks for high-quality object detection[J]. Neurocomputing, 2020, 401:1-9.

[19] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision. [S.l.]:[s.n.]:2017.2980-2988.

[20]AGHDASSI A, TRAN Q T, BULLA T, et al. Focal pancreatic lesions in autoimmune pancreatitis and weight loss[J].Gut, 2020,doi:10.1136/gutjnl-2020-321987.

[21]LI Dongdong, WEN Gongjian, KUAI Yangliu, et al. Robust visual tracking with channel attention and focal loss[J]. Neurocomputing, 2020, 401:295-307.

[22]PERSSON D, HEYDARI G, EDVINSSON C, et al. Depth-resolved FTIR focal plane array (FPA) spectroscopic imaging of the loss of melamine functionality of polyester melamine coating after accelerated and natural weathering[J]. Polymer Testing, 2020, doi:10.1016/j.polymertesting.2020.106500.

[23]YAO Shangjie, CHEN Yaowu, TIAN Xiang, et al. An improved algorithm for detecting pneumonia based on YOLOv3[J]. Applied Sciences, 2020, 10(5):doi:10.3390/app10051818.

[24]GERLACH S, CHRISTOPH F, HOFMANN T, et al. Multicriterial CNN based beam generation for robotic radiosurgery of the prostate[J].Current Directions in Biomedical Engineering, 2020, 6(1):doi:10.1515/cdbme-2020-0030.

[25]LI Min, ZHANG Zhijie, LEI Liping, et al. Agricultural greenhouses detection in high-resolution satellite images based on convolutional neural networks: Comparison of faster R-CNN, YOLOv3 and SSD[J]. Sensors, 2018, 10:131-152.

[26]王慧. 基于改進(jìn)Faster R-CNN的安全帽檢測(cè)及身份識(shí)別[D]. 西安:西安科技大學(xué), 2020.

WANG Hui. Safety Helmet Detection and Identification Based on Improved Faster R-CNN[D]. Xi′an: Xi′an University of Science and Technology, 2020.

主站蜘蛛池模板: 无码人中文字幕| 亚洲色大成网站www国产| 99久久亚洲综合精品TS| 亚洲第一页在线观看| 国产91视频免费| 日日拍夜夜嗷嗷叫国产| 夜夜高潮夜夜爽国产伦精品| 久久亚洲国产一区二区| 国产精品久久久久鬼色| 国产激情无码一区二区免费| 国产18页| 无码精油按摩潮喷在线播放| 中文国产成人久久精品小说| 久久婷婷综合色一区二区| 国产在线精品人成导航| 91精品专区国产盗摄| 亚洲欧洲日产国产无码AV| 亚洲a免费| 亚洲一级毛片免费观看| 天天操精品| 国产成人精品免费av| 亚洲一级毛片在线播放| 国产97视频在线| 国产在线小视频| 日日碰狠狠添天天爽| 国产视频a| 久久久精品久久久久三级| 久久久久人妻精品一区三寸蜜桃| 高清色本在线www| 亚洲欧美一区二区三区图片| 一区二区影院| 精品免费在线视频| 毛片久久网站小视频| 一级做a爰片久久毛片毛片| 日本a∨在线观看| www.狠狠| 精品人妻系列无码专区久久| 91无码视频在线观看| 日韩av无码DVD| 青青草91视频| 欧美h在线观看| 波多野结衣视频一区二区| 亚洲乱强伦| 国产a网站| 午夜视频免费试看| 日韩毛片在线播放| 国产午夜无码片在线观看网站| 天天操天天噜| 青草免费在线观看| 日韩欧美在线观看| 国产欧美视频综合二区| 国产精品男人的天堂| 日本一区高清| 久久综合激情网| 亚洲人成网站在线播放2019| 国产精品太粉嫩高中在线观看| 日本午夜精品一本在线观看| 成人午夜免费观看| 国产日韩欧美成人| 免费A级毛片无码免费视频| 国产日韩欧美成人| 国内精品手机在线观看视频| 亚洲欧美在线综合图区| 五月激激激综合网色播免费| 99尹人香蕉国产免费天天拍| 欧美一区精品| 一本大道香蕉中文日本不卡高清二区 | 亚洲日本一本dvd高清| 视频一本大道香蕉久在线播放 | 婷婷激情亚洲| 五月天综合网亚洲综合天堂网| 亚洲中文字幕23页在线| 九色91在线视频| 色综合中文综合网| 欧美精品另类| 亚洲一区二区三区麻豆| 欧美精品另类| 亚洲视频在线网| 四虎国产精品永久一区| 亚洲精品国产日韩无码AV永久免费网| 国产打屁股免费区网站| 免费可以看的无遮挡av无码|