999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

計(jì)算機(jī)視覺(jué)研究綜述

2018-12-26 03:32:16張曉亮梁星馳
移動(dòng)信息 2018年10期
關(guān)鍵詞:特征模型

張曉亮 梁星馳

?

計(jì)算機(jī)視覺(jué)研究綜述

張曉亮 梁星馳

中國(guó)人民解放軍32140部隊(duì),河北 石家莊 050000

研究綜述了計(jì)算機(jī)視覺(jué)中分類(lèi)與回歸、目標(biāo)跟蹤、圖像分割、圖像超分辨率、風(fēng)格轉(zhuǎn)移、著色、行為識(shí)別、姿勢(shì)預(yù)估和關(guān)鍵點(diǎn)監(jiān)測(cè)等重要算法的原理和架構(gòu)。

計(jì)算機(jī)視覺(jué);神經(jīng)網(wǎng)絡(luò)

1 分類(lèi)與回歸

從ILSVRC 2017發(fā)布的分類(lèi)與回歸問(wèn)題的結(jié)果(圖1)可以看出,在分類(lèi)與回歸問(wèn)題上的錯(cuò)誤率又有了較大幅度下降。分析原因主要是網(wǎng)絡(luò)的加深和對(duì)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化。以往對(duì)網(wǎng)絡(luò)優(yōu)化,多從空間維度上進(jìn)行。例如Inside-Outside考慮了空間中的上下文信息,還有將Attention機(jī)制引入空間維度。ResNet[1]很好地解決了隨著網(wǎng)絡(luò)深度的增加帶來(lái)的梯度消失問(wèn)題,將網(wǎng)絡(luò)深度發(fā)展到152層。Inception[2]結(jié)構(gòu)中嵌入了多尺度信息,聚合多種不同感受野上的特征來(lái)獲得性能增益,目前已經(jīng)發(fā)展到inceptionV4并由于ResNet融合。DenseNet[3]比ResNet更進(jìn)一步,對(duì)前面每層都加了Shortcut,使得Feature map可以重復(fù)利用。每一層Feature被用到時(shí),都可以被看作做了新的Normalization,即便去掉BN層,深層DenseNet也可以保證較好的收斂率[4]。

圖1

今年的分類(lèi)冠軍是國(guó)內(nèi)自動(dòng)駕駛公司Momenta研發(fā)團(tuán)隊(duì)(WMW)提出的SEnet架構(gòu)。與從空間角度提升網(wǎng)絡(luò)性能有所不同,SEnet的核心思想是從特征通道的角度出發(fā),為特征通道引入權(quán)重,通過(guò)學(xué)習(xí)權(quán)重參數(shù)來(lái)提升重要特征通道的地位。

SEnet架構(gòu)如圖2所示。在Squeeze步,將每個(gè)特征通道變成一個(gè)實(shí)數(shù)。這個(gè)實(shí)數(shù)某種程度上具有全局感受野,使得靠近輸入的層也可以獲得全局信息,這一點(diǎn)在很多任務(wù)中都是非常有用的。Excitation步是一個(gè)類(lèi)似于循環(huán)神經(jīng)網(wǎng)絡(luò)中門(mén)的機(jī)制,通過(guò)參數(shù)w來(lái)為每個(gè)特征通道生成權(quán)重。最后是Reweight操作,我們將Excitation輸出的權(quán)重看作特征選擇后的每個(gè)特征通道的重要性,然后通過(guò)乘法逐通道加權(quán)到先前的特征上,完成在通道維度上的對(duì)原始特征的重標(biāo)定。目前只見(jiàn)到相關(guān)介紹,還未見(jiàn)到成稿的論文發(fā)表。

圖2

2 目標(biāo)檢測(cè)

圖3

隨著自動(dòng)駕駛、智能監(jiān)控、人臉識(shí)別等大量有價(jià)值的應(yīng)用逐步落地,快速、精準(zhǔn)的目標(biāo)檢測(cè)系統(tǒng)市場(chǎng)也日益蓬勃,模型不斷創(chuàng)新。Faster R-CNN、R-FCN、YOLO、SSD等是目前應(yīng)用較廣的模型。Faster R-CNN[5]的架構(gòu)如圖3所示,主要?jiǎng)?chuàng)新是用RPN網(wǎng)絡(luò)代傳統(tǒng)的“選擇搜索”算法,使速度大幅提升,如圖3所示,在最后卷即得到特征圖上使用一個(gè)3×3的窗口滑動(dòng),并將其映射到一個(gè)更低的維度上,(如256維),在k個(gè)固定比例的anchor box生成多個(gè)可能的區(qū)域并輸出分?jǐn)?shù)和坐標(biāo)。

分類(lèi)需要特征具有平移不變性,而檢測(cè)具有一定的平移敏感性。Faster R-CNN在ROI pooling前都是卷積,是具備平移不變性的,在ResNet的91層后插入ROI pooling,后面的網(wǎng)絡(luò)結(jié)構(gòu)就不再具備平移不變性了,而R-FCN[6]架構(gòu)如圖4所示,在ResNet的第101層插入ROI pooling,并去掉后面的average pooling層和全連接層,構(gòu)成了一個(gè)完整的全卷積網(wǎng)絡(luò),提升了響應(yīng)速度。其創(chuàng)新點(diǎn)在于ROI pooling中引入位置敏感分?jǐn)?shù)圖,直接進(jìn)行分類(lèi)和定位,省去了Faster R-CNN中每個(gè)Proposal圖像單獨(dú)計(jì)算的計(jì)算量。Faster R-CNN和R-FCN以及以前的其他變化的模型都是基于Region Proposal的,雖幾經(jīng)優(yōu)化,在精度上達(dá)到最高,但無(wú)法做到實(shí)時(shí),而SSD和YOLO兄弟都是基于回歸思想的檢驗(yàn)算法,精度不及Faster R-CNN,但是速度快(45?FPS/155?FPS)。YOLO V1[7]利用全連接層數(shù)據(jù)直接回歸邊框坐標(biāo)和分類(lèi)概率,YOLO V2[8]不再讓類(lèi)別的預(yù)測(cè)與每個(gè)cell(空間位置)綁定一起,而是讓全部放到anchor box中,提高了召回率(從81%到88%),準(zhǔn)確率略有下降(從69.5%到69.2%),文獻(xiàn)[8]中還提出使用WordTree,把多個(gè)數(shù)據(jù)集整合在一起,分類(lèi)數(shù)據(jù)集和通過(guò)實(shí)驗(yàn)過(guò)這個(gè)算法,識(shí)別速度特別快,能做到實(shí)時(shí),檢測(cè)數(shù)據(jù)集聯(lián)合訓(xùn)練的機(jī)制,可檢測(cè)9􀀀000 多種物體,缺陷就是準(zhǔn)確率還有待提高,特別是小目標(biāo)的識(shí)別效果不好。

圖4

圖5

ILSVRC2017的目標(biāo)檢測(cè)冠軍是BDAT團(tuán)隊(duì),該團(tuán)隊(duì)包括來(lái)自南京信息工程大學(xué)和倫敦帝國(guó)理工學(xué)院的人員,目前尚未見(jiàn)到相關(guān)論文發(fā)表。

3 目標(biāo)跟蹤

圖6

在OpenCV 3.2集成了六種目標(biāo)跟蹤API,可以很方便地調(diào)用。其中BOOSTING、MIL、KCF、TLD和MEDIANFLOW都是基于傳統(tǒng)算法的,GOTURN是基于深度學(xué)習(xí)的。通過(guò)實(shí)驗(yàn),CV里集成的算法普遍存在對(duì)快速移動(dòng)物體跟蹤失效的問(wèn)題。雖然目前深度學(xué)習(xí)算法與傳統(tǒng)算法的距離沒(méi)有拉開(kāi),相信后續(xù)還會(huì)有突破,這里只介紹基于深度學(xué)習(xí)的算法。GOTURN[9]是發(fā)表在ECCV 2016的一篇文章,也是第一個(gè)檢測(cè)速度速度達(dá)到100?FPS的方法。

算法框架如圖5所示,將上一幀的目標(biāo)和當(dāng)前幀的搜索區(qū)域同時(shí)經(jīng)過(guò)CNN的卷積層,然后將卷積層的輸出通過(guò)全連接層,用于回歸當(dāng)前幀目標(biāo)的位置,文獻(xiàn)作者發(fā)現(xiàn)前后幀的變化因子符合拉普拉斯分布,因此在訓(xùn)練中加入了這個(gè)先驗(yàn)知識(shí),對(duì)數(shù)據(jù)進(jìn)行了推廣,整個(gè)訓(xùn)練過(guò)程是Offline的。在使用時(shí)只需要進(jìn)行前饋運(yùn)算,因此速度特別快。

SiameseFC[10]算法也是一個(gè)能做到實(shí)時(shí)的深度學(xué)習(xí)算法。如圖6所示,算法本身是比較搜索區(qū)域與目標(biāo)模板的相似度,最后得到搜索區(qū)域的score map。其實(shí)從原理上來(lái)說(shuō),這種方法和相關(guān)性濾波的方法很相似。

圖7

4 圖像分割

圖像分割技術(shù)是自動(dòng)駕駛的基礎(chǔ),具有商用價(jià)值。在這一領(lǐng)域貢獻(xiàn)較大的是Facebook的人工智能研究中心(FAIR),該團(tuán)隊(duì)2015年開(kāi)始研究DeepMask,生成粗糙的mask作為分割的初始形式。2016年,推出SharpMask[11],它改進(jìn)了DeepMask提供的“蒙板”,糾正了細(xì)節(jié)的損失,改善了語(yǔ)義分割,除此之外MultiPathNet能標(biāo)識(shí)每個(gè)掩碼描繪的對(duì)象。

特別值得一提的是,今年何愷明又研究出一種新的架構(gòu)Mask R-CNN[12],即一種基于像素級(jí)別的分割算法。

為便于理解,對(duì)Mask R-CNN原文圖示進(jìn)行了簡(jiǎn)單的修改,如圖7所示,其主要思路是在Faster-RCNN的基礎(chǔ)上進(jìn)行拓展,將ROI Pooling層替換成ROI Align,使用雙線(xiàn)性?xún)?nèi)插法,解決了像素對(duì)齊問(wèn)題,并添加了mask層用于輸出二進(jìn)制掩碼來(lái)說(shuō)明給定像素是否為對(duì)象的一部分。通過(guò)我們的實(shí)驗(yàn)master R-CNN確實(shí)產(chǎn)生了非常精妙的分割效果,但對(duì)于某些樣本的邊緣分割,還存在像素分配錯(cuò)誤的情況,尤其是對(duì)照低照度下成像的樣本更明顯。

5 圖像超分辨率、風(fēng)格轉(zhuǎn)移、著色

大多數(shù)現(xiàn)有的SR算法將不同縮放因子的超分辨率問(wèn)題作為獨(dú)立的問(wèn)題,需要各自進(jìn)行訓(xùn)練,來(lái)處理各種scale。VDSR[13]可以在單個(gè)網(wǎng)絡(luò)中同時(shí)處理多個(gè)scale的超分辨率,但需要雙三次插值圖像作為輸入,消耗更多計(jì)算時(shí)間和存儲(chǔ)空間。SRResNet[14]成功地解決了計(jì)算時(shí)間和內(nèi)存的問(wèn)題,并且有很好的性能,但它只是采用ResNet原始架構(gòu)。ResNet目的是解決高級(jí)視覺(jué)問(wèn)題。如果不對(duì)其修改直接應(yīng)用于超分辨率這類(lèi)低級(jí)視覺(jué)問(wèn)題,那么就達(dá)不到最佳效果。微軟的CNTK里提供了VDSR、DRNN、SRGA和SRResNet四種API,通過(guò)我們的實(shí)驗(yàn)確實(shí)能達(dá)到文獻(xiàn)中描述的效果。

EDSR[15]是NTIRE 2017超分辨率挑戰(zhàn)賽上獲得冠軍的方案。其架構(gòu)如圖8所示,去掉了ResNet中BN層,減少了計(jì)算和存儲(chǔ)消耗。相同的計(jì)算資源下,EDSR就可以堆疊更多層或者使每層提取更多的特征。EDSR在訓(xùn)練時(shí)先訓(xùn)練低倍數(shù)上的采樣模型,接著用得到的參數(shù)初始化高倍數(shù)上的采樣模型,減少了高倍數(shù)上采樣模型的訓(xùn)練時(shí)間,訓(xùn)練結(jié)果也更好。這個(gè)模型我們也試驗(yàn)過(guò)。與微軟API里的SRGAN和SRResNet模型相比確實(shí)有差別,但肉眼很難區(qū)別得特別清楚,也可能是我們選擇自己生活照為樣本的原因。

Prisma在手機(jī)里的應(yīng)用讓更多人了解圖像風(fēng)格轉(zhuǎn)換。文獻(xiàn)[16]第一個(gè)將神經(jīng)網(wǎng)絡(luò)用在風(fēng)格轉(zhuǎn)換上,基于神經(jīng)網(wǎng)絡(luò)的風(fēng)格轉(zhuǎn)換算法得到更多的發(fā)展。在文獻(xiàn)[17]中將風(fēng)格轉(zhuǎn)換應(yīng)用到了視頻上,畫(huà)面風(fēng)格轉(zhuǎn)換,還是很完美的。文獻(xiàn)[18]實(shí)現(xiàn)了基于像素級(jí)別的風(fēng)格轉(zhuǎn)換。

舊照片著色是很有趣的,文獻(xiàn)[19]利用CNN作為前饋通道,訓(xùn)練了100萬(wàn)張彩色圖像。在“彩色化圖靈測(cè)試”評(píng)估中騙過(guò)32%的人類(lèi),高于以前的方法,正如文中所講任何著色問(wèn)題都具有數(shù)據(jù)集偏差問(wèn)題。不是所有照片都能呈現(xiàn)完美效果。文獻(xiàn)[20]利用低級(jí)和語(yǔ)義表示,訓(xùn)練模型預(yù)測(cè)每像素顏色直方圖。該中間輸出可用于自動(dòng)生成顏色圖像,或在圖像形成之前進(jìn)一步處理。文獻(xiàn)[21]提出了一種新穎的技術(shù)來(lái)自動(dòng)著色灰度圖像結(jié)合了全局先驗(yàn)和局部圖像特征,與基于CNN的大多數(shù)現(xiàn)有方法不同,該架構(gòu)可以處理任何分辨率的圖像。

文獻(xiàn)[21]的框架如圖9所示,由四個(gè)主要部分組成:一個(gè)低級(jí)特征網(wǎng)絡(luò),一個(gè)中級(jí)特征網(wǎng)絡(luò),一個(gè)全局特征網(wǎng)絡(luò)和一個(gè)著色網(wǎng)絡(luò)。這些組件都是緊密耦合的,并以端到端的方式進(jìn)行訓(xùn)練。模型的輸出是與亮度融合形成輸出圖像的色度。

圖8

圖9

6 行為識(shí)別、姿勢(shì)預(yù)估和關(guān)鍵點(diǎn)監(jiān)測(cè)

文獻(xiàn)[22]利用人類(lèi)行為的時(shí)空結(jié)構(gòu),即特定的移動(dòng)和持續(xù)時(shí)間,使用CNN變體正確識(shí)別動(dòng)作。為了克服CNN長(zhǎng)期行為建模的缺陷,作者提出了一種具有長(zhǎng)時(shí)間卷積(LTC-CNN)的神經(jīng)網(wǎng)絡(luò)來(lái)提高動(dòng)作識(shí)別的準(zhǔn)確性。文獻(xiàn)[23]用于視頻動(dòng)作識(shí)別的時(shí)空殘差網(wǎng)絡(luò)將雙流CNN的變體應(yīng)用于動(dòng)作識(shí)別任務(wù),該任務(wù)結(jié)合了來(lái)自傳統(tǒng)CNN方法和ResNet的技術(shù)。文獻(xiàn)[24]是CVPR 2017的論文,也是MSCOCO關(guān)鍵點(diǎn)檢測(cè)冠軍。使用Bottom-Up的方法,先去看一張圖有哪些人體部位(Key Point),接著再想辦法把這些部位正確的按照每個(gè)人的位置連起來(lái)算Pose。如圖10所示,輸入一幅圖像,經(jīng)過(guò)卷積網(wǎng)絡(luò)(VGG19)提出特征,得到一組特征圖,然后分成兩個(gè)岔路分別使用CNN網(wǎng)絡(luò)提取Part Confidence Maps和Part Affinity Fields,得到這兩個(gè)信息后,使用圖論中的Bipartite Matching將同一個(gè)人的關(guān)節(jié)點(diǎn)連接起來(lái),得到最終的結(jié)果。

圖10

7 卷積網(wǎng)絡(luò)結(jié)構(gòu)

卷積網(wǎng)絡(luò)結(jié)構(gòu)是基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)基礎(chǔ),從圖11中可以看出2012年AlexNet網(wǎng)絡(luò)取得歷史性突破以來(lái)得到很大發(fā)展。

圖11

我們都知道深層CNN存在梯度消失問(wèn)題。ResNet通過(guò)“skip connection”。結(jié)構(gòu)一定程度上促進(jìn)了數(shù)據(jù)在層間的流通,但接近輸出的網(wǎng)絡(luò)層并沒(méi)有充分獲得網(wǎng)絡(luò)前面的特征圖。DenseNet[3]在前向傳播基礎(chǔ)上,網(wǎng)絡(luò)每一層都能接受它前面所有層的特征圖,并且數(shù)據(jù)聚合采用的是拼接,而非ResNet中的相加。網(wǎng)絡(luò)模型如圖12所示。

圖12

這種連接方式有一個(gè)很大的優(yōu)點(diǎn):前向傳播時(shí)深層網(wǎng)絡(luò)能獲得淺層的信息,而反向傳播時(shí),淺層網(wǎng)絡(luò)能獲得深層的梯度信息。這樣最大限度促進(jìn)了數(shù)據(jù)在網(wǎng)絡(luò)間的流動(dòng)。另外,這種結(jié)構(gòu)存在著大量的特征復(fù)用,因此只需要很少的參數(shù),就可以達(dá)到state-of-the-art的效果,主要是體現(xiàn)在特征圖的通道數(shù)上,相比VGG、ResNet的幾百個(gè)通道,DenseNet可能只需要12、24個(gè)左右。

[1]He km,Zhang XY,Ren SQ,Sun J.Deep Residual Learning for Image Recognition[C]. 2016 CVPR,2016:770-778.

[2]SZEGEDY C,Liu W,Jia YQ,SERMANET P,REED S,ANGUELOV D,ERHAN D,VANHOUCKE V,RABINOVICH A.Going Deeper with Convolutions[C]. 2015 CVPR,2015:1-9.

[3]Huang G,Liu Z,VAN DER MAATEN L,Kilian Q,WEINBERGER KQ. Densely Connected Convolutional Networks[C]. 2017 CVPR,2017:2261-2269

[4]Li H,li W,Yang O,Wang X. Multi-Bias Non-linear Activation in Deep Neural Networks[C]. arXiv: 1604.00676.

[5]Ren XQ,He km,GIRSHICK,ROSS. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal networks[C]. IEEE TRANSATIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,2017,39:1137-1149.

[6]Li Y,He K,Sun J,Dai J.R-FCN:Object Detection via Region-based Fully Convolutional Networks[C]. ADV NEURAL INFORM PR,2016:379-387.

[7]REDMON J,DIVVALA S,GIRSHICK R,F(xiàn)ARHADI A.You Only Look Once:Unified,Real-Time Object Detection[C]. 2016 CVPR,2016:779-788.

[8]REDMON J,F(xiàn)ARHADI A.YOLO9000:Better,F(xiàn)aster, Stronger[C]. 2017 CVPR,2017:6517-6525.

[9]HELD D,THRUN S,SAVARESE S. Learning to Track at 100 FPS with Deep Regression Networks[C]. COMPUTER VISION-ECCV 2016,2016,9905:749-765.

[10]Bertinetto L,Valmadre J,Henriques JF. Fully-Convolutional Siamese Networks for Object Tracking[C]. COMPUTER VISION-ECCV 2016,2016,9914:850-865.

[11]PINHEIRO PO,LIN TY,COLLOBERT R,DOLLAR P. Learning to Refine Object Segments[C]. COMPUTER VISION-ECCV 2016,2016,9905:75-91.

[12]HE km,GKIOXARI G,DOLLAR P.Mask R-CNN[C]. 2017 ICCV,2017:2980-2988.

[13]KIM J,LEE JK,LEE km.Accurate Image Super-Resolution Using Very Deep Convolutional Networks[C]. 2016 CVPR,2016:1646-1654.

[14]LEDIG C,THEIS L,HUSZAR F,CABALLERO J, CUNNINGHAM A,ACOSTA A,AITKEN A,TEJANI A,TOTZ J,Wang ZH,Shi WZ. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network[C]. 2017 CVPR,2017:105-114.

[15]LIM B,SON S,KIM H,NAH S,LEE K. Enhanced Deep Residual Networks for Single Image Super-Resolution[C]. 2017 CVPR,2017:1132-1140.

[16]GATYS L,ECKER A,BETHGE M.A Neural Algorithm of Artistic Style[M]. CoRR abs,2015.

[17]RUDER M,DOSOVITSKIY A,BROX T.Artistic style transfer for videos[C]. GCPR 2016,2016,9796: 26-36.

[18]Liao J,Yao Y,Yuan L,Hua G,Kang SB. Visual Attribute Transfer through Deep Image Analogy[C]. ACM TRANSACTIONS ON GRAPHICS,2017,36.

[19]Zhang R,LSOLA P,ALEXEI A,EFROS A A. Colorful Image Colorization[C]. ECCV 2016,2016,9907: 649-666.

[20]LARSSON G,MAIRE M,SHAKHNAROVICH G.Learn Representations for Automatic Colorization[C]. ECCV 2016,2016,9908:577-593.

[21]LIZUKA S,SIMO-SERRA E,ISHIKAWA H. Let there be Color!:Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification[C]. ACM Transactions on Graphics,2016,35(4).

[22]VAROL G,LAPTEV I,SCHMID C. Long-term Temporal Convolutions for Action Recognition[C]. IEEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE:2018,40(6):1510-1517.

[23]FEICHTENHOFER C,PINZ A,RICHARD P,WILDES RP. Spatiotemporal Multiplier Networks for Video Action Recognition[C]. 2017 CVPR,2017:7445-7454.

[24]Cao Z,SIMON T,Wei S,SHEIKH Y. Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields[C]. 2017 CVPR,2017:1302-1310.

A Survey of Computer Vision Research

Zhang Xiaoliang Liang Xingchi

32140 Troop of People’s Liberation Army of China, Hebei Shijiazhuang 050000

The paper reviews the principles and architecture of important algorithms such as classification and regression, target tracking, image segmentation, image super-resolution, style shifting, coloring, behavior recognition, pose estimation and key point monitoring in computer vision.

computer vision; neural network

TP391.4

A

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線(xiàn)三等角』
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 欧美精品综合视频一区二区| 国产精品亚洲а∨天堂免下载| 亚洲天堂久久新| 狠狠色婷婷丁香综合久久韩国 | 操国产美女| 1769国产精品视频免费观看| 亚洲国产成人麻豆精品| 22sihu国产精品视频影视资讯| 国产成人精品男人的天堂下载| 国产精品亚洲αv天堂无码| 五月天综合网亚洲综合天堂网| 97视频在线精品国自产拍| 午夜日本永久乱码免费播放片| 国产成人8x视频一区二区| 国产精品一区在线观看你懂的| 欧日韩在线不卡视频| 亚洲精品va| 国产日本欧美在线观看| 漂亮人妻被中出中文字幕久久| 国产男女免费视频| 亚洲精品免费网站| 人妻丰满熟妇αv无码| 美女黄网十八禁免费看| 亚洲一区二区三区国产精华液| 日韩美一区二区| 四虎精品国产永久在线观看| 97国产精品视频人人做人人爱| 黄色污网站在线观看| 伦伦影院精品一区| 亚洲一区二区日韩欧美gif| 青草视频在线观看国产| 白浆免费视频国产精品视频| 久久久久国产精品熟女影院| swag国产精品| 成人午夜福利视频| 亚洲精品手机在线| 91视频首页| 国产97公开成人免费视频| 国产中文一区二区苍井空| 波多野结衣在线一区二区| 久久久波多野结衣av一区二区| 国产精品深爱在线| 人妻21p大胆| 欧美日本在线一区二区三区| 久久a毛片| 中文无码精品a∨在线观看| 一边摸一边做爽的视频17国产| 精品三级网站| 久久久久青草大香线综合精品| 狠狠久久综合伊人不卡| 国产真实乱子伦视频播放| 国产精品免费露脸视频| 这里只有精品在线| 国产人前露出系列视频| 很黄的网站在线观看| 国产成人精品免费av| 国产迷奸在线看| 色135综合网| 日韩人妻无码制服丝袜视频| 久久黄色一级视频| 狼友视频一区二区三区| 色天天综合| 日本不卡免费高清视频| 97国产精品视频自在拍| 国产一区在线视频观看| 99久久99这里只有免费的精品| 欧美在线一级片| 91免费国产高清观看| 国产亚洲精品91| 少妇精品久久久一区二区三区| 国产人碰人摸人爱免费视频| 欧美色综合网站| 欧美精品啪啪| 国产a网站| 久热中文字幕在线| 久久精品国产91久久综合麻豆自制| 日韩天堂视频| 精品亚洲麻豆1区2区3区| 久热中文字幕在线| 国产综合在线观看视频| 成人久久18免费网站| 天天色综合4|