999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于全卷積網(wǎng)絡(luò)的高分辨遙感影像目標(biāo)檢測(cè)

2018-02-28 02:53:25徐逸之姚曉婧
測(cè)繪通報(bào) 2018年1期
關(guān)鍵詞:區(qū)域檢測(cè)

徐逸之,姚曉婧,李 祥,周 楠,胡 媛

(1. 中國(guó)科學(xué)院遙感與數(shù)字地球研究所,北京100094; 2. 中國(guó)科學(xué)院大學(xué),北京100049; 3. 蘇州中科天啟遙感科技有限公司,江蘇 蘇州 215163)

高分辨率遙感影像的目標(biāo)分類與識(shí)別是遙感影像智能化信息提取中的關(guān)鍵技術(shù),是精確制導(dǎo)、武器防御、海情監(jiān)控等軍事目標(biāo)識(shí)別系統(tǒng)的關(guān)鍵,也是提升減災(zāi)應(yīng)急、交通監(jiān)管、漁業(yè)海事等民用系統(tǒng)智能化水平的核心技術(shù)[1]。隨著傳感器技術(shù)的飛速發(fā)展,遙感影像的空間分辨率不斷提高。高空間分辨率遙感影像不僅降低了中低分辨率遙感影像中存在的混合像元問(wèn)題,更提供了豐富的空間信息、幾何結(jié)構(gòu)和紋理信息,這為遙感影像上目標(biāo)的檢測(cè)提供了可能,因此研究基于高分辨率遙感影像的目標(biāo)檢測(cè)識(shí)別算法成為當(dāng)前的迫切需求。傳統(tǒng)遙感影像目標(biāo)檢測(cè)算法多使用人工構(gòu)造的淺層次特征,如HOG特征[2]、SIFT特征[3-4]等,識(shí)別效果嚴(yán)重依賴于專家知識(shí)及特征構(gòu)造中的有效性,很難充分挖掘影像中深層特征。在目標(biāo)檢測(cè)的精度和效率方面,難以滿足大范圍自動(dòng)化應(yīng)用的需求,同時(shí)對(duì)于災(zāi)害應(yīng)急等實(shí)時(shí)性要求較高的工程應(yīng)用任務(wù)也十分局限。

近年來(lái),深度學(xué)習(xí)算法在圖像分類、自然語(yǔ)言處理、降維、目標(biāo)檢測(cè)、運(yùn)動(dòng)建模、人工智能等領(lǐng)域取得前所未有的成果[5-11]。深度學(xué)習(xí)一般需大量的訓(xùn)練樣本才容易提取其特征,這與遙感圖像大數(shù)據(jù)的特性不謀而合。深度學(xué)習(xí)在遙感中的應(yīng)用引起廣泛重視,并在場(chǎng)景分類[12]、高光譜圖像分類[13-14]等方面取得顯著性成效。目標(biāo)檢測(cè)方面,Chen Xueyun[15-16]使用深度置信網(wǎng)絡(luò)和深度卷積網(wǎng)絡(luò)進(jìn)行了飛機(jī)和車輛的檢測(cè);Diao Wenhui[17]提出了一種基于稀疏深度置信網(wǎng)絡(luò)遙感影像目標(biāo)檢測(cè)方法,并在QuickBird影像上進(jìn)行了飛機(jī)檢測(cè)試驗(yàn),達(dá)到了88.9%的準(zhǔn)確率,每張圖檢測(cè)時(shí)間為6.3 s;Han Junwei等[18]提出了一種基于深度玻爾茲曼機(jī)的遙感影像目標(biāo)檢測(cè)方法,并在3個(gè)光學(xué)遙感影像數(shù)據(jù)集上進(jìn)行了試驗(yàn),證明了方法的有效性;高常鑫[19]使用棧式自編碼器來(lái)提取高分辨率遙感影像中目標(biāo)語(yǔ)義表征及上下文約束表征,以實(shí)現(xiàn)高精度目標(biāo)檢測(cè)。然而,這些方法都聚焦在使用深度學(xué)習(xí)算法來(lái)進(jìn)行特征提取,然后使用提取的特征構(gòu)造分類器。檢測(cè)流程中并沒(méi)有給出目標(biāo)搜索的算法,而是需要使用掃描窗口來(lái)逐一判讀目標(biāo)位置,因而效率較低。Faster R-CNN算法首次提出使用區(qū)域建議網(wǎng)絡(luò)(regional proposal network,RPN)來(lái)提取候選區(qū)域,將候選區(qū)域提取與分類統(tǒng)一到同一框架,實(shí)現(xiàn)了端到端的目標(biāo)檢測(cè)過(guò)程,檢測(cè)精度和效率都得到了大幅提高。王萬(wàn)國(guó)等[20]使用Faster R-CNN算法開(kāi)展了無(wú)人機(jī)巡檢圖像電力小部件識(shí)別研究,達(dá)到每張近80 ms的識(shí)別速度和92.7%的準(zhǔn)確率。但是,F(xiàn)aster R-CNN算法由于使用了RoI池化層,各個(gè)RoI計(jì)算不共享,因此檢測(cè)速度依然較慢,無(wú)法達(dá)到實(shí)時(shí)性任務(wù)的需求。

全卷積網(wǎng)絡(luò)(fully convolutional networks)為目標(biāo)檢測(cè)提供了一種新的高效檢測(cè)框架,諸如殘差網(wǎng)絡(luò)(ResNet)[21]和GoogLeNets[22]等先進(jìn)的圖像分類網(wǎng)絡(luò)均為全卷積網(wǎng)絡(luò)。類似地,可在物體檢測(cè)中用全卷積網(wǎng)絡(luò)。然而,現(xiàn)有研究表明,直接使用全卷積網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)效果遠(yuǎn)差于該網(wǎng)絡(luò)的分類效果。主要原因在于物體分類要求平移不變性越大越好,因而平移不變性較好的全卷積結(jié)構(gòu)更受青睞,而物體檢測(cè)需要一些平移變化的定位表示。為了解決這一問(wèn)題,R-FCN(regional-fully convolutional networks)[23]算法采用專門的卷積層構(gòu)建位置敏感分?jǐn)?shù)圖,每個(gè)空間敏感分?jǐn)?shù)圖編碼感興趣區(qū)域的相對(duì)空間位置信息。該方法在ImageNet挑戰(zhàn)賽、COCO目標(biāo)檢測(cè)任務(wù)中取得了較好的效果。

本文研究基于全卷積網(wǎng)絡(luò)的R-FCN算法在高分辨遙感影像目標(biāo)檢測(cè)中的應(yīng)用,并以飛機(jī)識(shí)別為例,比較Fast R-CNN[24]、Faster R-CNN[25]和R-FCN 3種算法的檢測(cè)精度和效率。

1 基于R-FCN的目標(biāo)檢測(cè)

1.1 整體框架

類似于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),本文采用計(jì)算機(jī)視覺(jué)領(lǐng)域流行的目標(biāo)檢測(cè)策略,包括區(qū)域建議和區(qū)域分類兩步。用Faster R-CNN中的區(qū)域建議網(wǎng)絡(luò)(RPN)提取候選區(qū)域,該RPN為全卷積網(wǎng)絡(luò)。效仿Faster R-CNN,共享RPN和R-FCN的特征。R-FCN用來(lái)對(duì)RPN提取的感興趣區(qū)域分類。整體技術(shù)流程如圖1所示。

圖1 基于RFCN的飛機(jī)檢測(cè)流程

R-FCN在與RPN共享的卷積層后多加1個(gè)卷積層,該卷積層在整幅圖像上為每類生成k2個(gè)位置敏感分?jǐn)?shù)圖,有C類物體外加1個(gè)背景,因此有k2(C+1)個(gè)通道的輸出層。k2個(gè)分?jǐn)?shù)圖對(duì)應(yīng)描述位置的空間網(wǎng)格。如k×k=3×3,則9個(gè)分?jǐn)?shù)圖編碼單個(gè)物體類。

R-FCN最后用位置敏感RoI池化層,給每個(gè)RoI 1個(gè)分?jǐn)?shù)。與Faster R-CNN的RoI池化方式不同,這里使用選擇性池化。選擇性池化圖解:看上圖的淺藍(lán)色響應(yīng)圖像(top-left),摳出淺藍(lán)色方塊RoI,池化淺藍(lán)色方塊RoI得到淺藍(lán)色小方塊分?jǐn)?shù);其他顏色的響應(yīng)圖像同理。對(duì)所有顏色的小方塊投票(或池化)得到各個(gè)類別的響應(yīng)結(jié)果,也即C+1個(gè)類別得分,最后使用Softmax分類器進(jìn)行分類。如圖2所示。

圖2 R-FCN網(wǎng)絡(luò)結(jié)構(gòu)

1.2 區(qū)域建議網(wǎng)絡(luò)

RPN網(wǎng)絡(luò)的輸入為一個(gè)卷積特征圖,使用一個(gè)k×k滑動(dòng)窗口(本文使用3×3)掃描整個(gè)特征圖,得到一個(gè)256-d的特征圖,然后使用大小為1×1的卷積核對(duì)其進(jìn)行卷積運(yùn)算,得到一個(gè)2k(類別)通道的分?jǐn)?shù)圖和一個(gè)4k(邊界框)通道的分?jǐn)?shù)圖。試驗(yàn)中采用3種不同尺寸(128、256、512)和3種不同比例(1∶1、1∶2、2∶1)組合成的9種基準(zhǔn)小窗口對(duì)包含目標(biāo)的窗口位置進(jìn)行預(yù)測(cè),使區(qū)域提議更準(zhǔn)確。

1.3 位置敏感分?jǐn)?shù)圖

式中,rc(i,j)為第c類第(i,j)個(gè)桶的池化響應(yīng);zi,j,c為k2(C+1)個(gè)分?jǐn)?shù)圖中的輸出;(x0,y0)為RoI的左上角坐標(biāo);n為桶里的像素總數(shù);θ為網(wǎng)絡(luò)的參數(shù)。

1.4 網(wǎng)絡(luò)訓(xùn)練

每個(gè)RoI的損失函數(shù)為交叉熵?fù)p失與邊界框回歸損失的加權(quán)和

L(s,tx,y,w,h)=Lcls(Sc*)+λ[c*>0]Lreg(t,t*)

式中,c*是RoI的真實(shí)類別標(biāo)簽,c*=0說(shuō)明RoI為背景。當(dāng)RPN產(chǎn)生的區(qū)域建議當(dāng)RoI與真實(shí)邊框的IoU(RoI與真實(shí)邊框交集的面積占它們并集面積的比例)超過(guò)0.5時(shí),標(biāo)定為正樣本,否則為負(fù)樣本。Lcls使用Softmax損失函數(shù),Lreg使用SmoothL1損失函數(shù),計(jì)算方式參照文獻(xiàn)[26],同樣設(shè)置λ為1。

此外,在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,使用在線難例挖掘(OHEM)[28]。在線難例挖掘是一種Hard Negative Mining的方式,用于啟發(fā)式地選擇出模型難以正確分類的樣本,從而使訓(xùn)練過(guò)程更為高效。假設(shè)每個(gè)圖像前向產(chǎn)生N個(gè)區(qū)域建議,計(jì)算所有建議的損失。按損失排序所有RoIs,選擇損失最高的B個(gè)RoIs,反向傳播過(guò)程只使用選擇的難樣本。

2 試 驗(yàn)

2.1 試驗(yàn)數(shù)據(jù)

從谷歌地圖上選取了100張包含飛機(jī)的圖片,原始圖像大小近似為600×600像素,并人工標(biāo)注其中飛機(jī)樣本外邊框,如圖3所示。使用其中50%圖片樣本進(jìn)行訓(xùn)練和驗(yàn)證,剩余50%的圖片樣本用于測(cè)試。本次試驗(yàn)中,用準(zhǔn)確率和召回率來(lái)評(píng)判識(shí)別的準(zhǔn)確性,其中召回率為正確識(shí)別飛機(jī)數(shù)量除以測(cè)試圖像中飛機(jī)總數(shù)量,準(zhǔn)確率為正確識(shí)別飛機(jī)數(shù)量除以模型識(shí)別出來(lái)飛機(jī)數(shù)量。

2.2 試驗(yàn)設(shè)置

本文R-FCN方法中RPN網(wǎng)絡(luò)和檢測(cè)網(wǎng)絡(luò)使用ResNet-50/ResNet-101來(lái)構(gòu)建。ResNet-50(101)使用50(101)個(gè)卷積層,后接1個(gè)平均池化層和1個(gè)全連接層。刪除平均池層和全連接層,只使用卷積層來(lái)計(jì)算特征圖。使用ImageNet數(shù)據(jù)集對(duì)ResNet-51(101)網(wǎng)絡(luò)進(jìn)行了預(yù)訓(xùn)練。ResNet-51中的最后一個(gè)卷積塊是2048-d,附加一個(gè)隨機(jī)初始化的1024-d的1×1卷積層,放在k2(C+1)通道卷積層之前,用于減小尺寸。

圖3 飛機(jī)樣本

在訓(xùn)練過(guò)程中,設(shè)置初始學(xué)習(xí)速率為0.001,每迭代2000次降低為原來(lái)的0.1倍,學(xué)習(xí)動(dòng)量為0.9,正則化項(xiàng)系數(shù)為0.001 6,批處理大小為64。本文采用端到端(end-to-end)的方式來(lái)訓(xùn)練RPN網(wǎng)絡(luò)和R-FCN網(wǎng)絡(luò)。

本文所有試驗(yàn)均在同一臺(tái)服務(wù)器上完成,采用GPU編程實(shí)現(xiàn)。試驗(yàn)中使用GTX TITAN X顯卡(12 GB顯存),基于Caffe框架實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)模型。

3 結(jié)果與討論

首先,本文試驗(yàn)了不同參數(shù)設(shè)置對(duì)平均準(zhǔn)確率均值(mAP)的影響。根據(jù)R-FCN論文結(jié)論可知,輸入影像的尺寸、最大迭代次數(shù)及是否使用OHEM對(duì)檢測(cè)精度有較大的影響,因此筆者進(jìn)行了多組對(duì)比試驗(yàn)確定最優(yōu)參數(shù)配置。表1展示了不同試驗(yàn)設(shè)置情況下的檢測(cè)精度。從表1可知,不同參數(shù)配置下,R-FCN算法精度變化不明顯,均在90%左右浮動(dòng);使用OHEM能提高R-FCN算法精度;增大輸入影像尺寸和最大迭代次數(shù),R-FCN檢測(cè)精度并沒(méi)有提高,反而可能會(huì)降低。

表1 不同參數(shù)配置下R-FCN在測(cè)試集上mAP對(duì)比 (%)

然后,本文使用更深的ResNet-101構(gòu)建R-FCN網(wǎng)絡(luò),參數(shù)調(diào)優(yōu)過(guò)程同上,檢測(cè)精度見(jiàn)表1。從表1可知,使用更深的網(wǎng)絡(luò)結(jié)構(gòu),檢測(cè)精度幾乎不變,導(dǎo)致這一現(xiàn)象的原因可能是網(wǎng)絡(luò)太深造成了過(guò)擬合現(xiàn)象。使用以上確定的最優(yōu)參數(shù)配置,隨機(jī)從測(cè)試樣本中挑選了5張圖片進(jìn)行測(cè)試,測(cè)試效果如圖4所示。從圖中可以看出,R-FCN方法能夠有效地識(shí)別各種尺寸、背景、光照條件下的飛機(jī)無(wú)錯(cuò)檢和漏檢的情況。在檢測(cè)IoU閾值設(shè)定為0.5的情況下,召回率達(dá)到98.6%,對(duì)應(yīng)的準(zhǔn)確率為99.3%。

最后,筆者比較了R-FCN、Faster R-CNN、Fast R-CNN這3種方法在測(cè)試集上的識(shí)別精度和速度,見(jiàn)表2。需要說(shuō)明的是,F(xiàn)ast R-CNN算法使用Selective Search生成候選區(qū)域,而Faster R-CNN和R-FCN算法使用區(qū)域建議網(wǎng)絡(luò)生成候選區(qū)域。為了使試驗(yàn)結(jié)果具有可比性,保持3種方法使用的候選區(qū)域數(shù)量一致,都是300個(gè)。

圖4 基于R-FCN的飛機(jī)識(shí)別效果

從表2可以看出:①Fast R-CNN方法由于使用傳統(tǒng)Selective Search方式確定候選區(qū)域,而過(guò)程采用CPU運(yùn)算,因而速度遠(yuǎn)低于另外兩種基于GPU運(yùn)算的方法;②Faster R-CNN+ZF/VGG16由于網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單(5層,16層),檢測(cè)速度較快,但精度較低,出現(xiàn)了較多錯(cuò)檢和漏檢的情況;③使用ResNet-50(101)網(wǎng)絡(luò)結(jié)構(gòu)的Faster R-CNN算法,檢測(cè)精度得到了提高,但由于Faster R-CNN中RoI池化計(jì)算不共享,因而速度比同樣網(wǎng)絡(luò)結(jié)構(gòu)的R-FCN方法慢;④R-FCN方法采用全卷積網(wǎng)絡(luò)結(jié)構(gòu),RoI池化層共享計(jì)算,檢測(cè)精度高、速度快。綜合考慮,R-FCN方法目標(biāo)檢測(cè)效果優(yōu)于Faster R-CNN,遠(yuǎn)優(yōu)于Fast R-CNN方法。

4 結(jié) 語(yǔ)

本文探討了基于全卷積網(wǎng)絡(luò)的R-FCN算法在高分辨遙感影像目標(biāo)檢測(cè)中的有效性,并分析了不同參數(shù)和網(wǎng)絡(luò)結(jié)構(gòu)對(duì)R-FCN檢測(cè)效果的影響,對(duì)比分析了Fast R-CNN算法、Faster R-CNN算法和R-FCN算法在飛機(jī)識(shí)別中的效果。結(jié)果表明,R-FCN方法比Fast R-CNN算法和Faster R-CNN識(shí)別精度更高,速度更快,識(shí)別準(zhǔn)確率達(dá)99.3%,識(shí)別速度達(dá)到每張180 ms,基本滿足高分辨遙感影像處理自動(dòng)化實(shí)時(shí)處理需求。

[1] 劉揚(yáng),付征葉,鄭逢斌.高分辨率遙感影像目標(biāo)分類與識(shí)別研究進(jìn)展[J].地球信息科學(xué)學(xué)報(bào),2015,17(9):1080-1091.

[2] DALAL N,TRIGGS B.Histograms of Oriented Gradients for Human Detection[C]∥Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR’05).[S.l.]:IEEE,2005.

[3] LOWE D G.Object Recognition from Local Scale-invariant Features[C]∥Proceedings of the 7th IEEE International Conference on Computer Vision.Kerkyra:IEEE,1999.

[4] LOWE D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[5] HINTON G E,SALAKHUTDINOV R R.Reducing the Dimensionality of Data with Neural Networks[J].Science,2006,313(5786):504-507.

[6] COLLOBERT R,WESTON J.A Unified Architecture for Natural Language Processing:Deep Neural Networks with Multitask Learning[C]∥Proceedings of the 25th International Conference on Machine Learning.Helsinki:ACM,2008.

[7] BENGIO Y.Learning Deep Architectures for AI[J].Foundations and Trends in Machine Learning,2009,2(1):1-127.

[8] MOHAMED A,SAINATH T N,DAHL G,et al.Deep Belief Networks Using Discriminative Features for Phone Recognition[C]∥IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP).Pragve:IEEE,2011.

[9] CHAN T,JIA K,GAO S,et al.PCANet: A Simple Deep Learning Baseline for Image Classification?[J].IEEE Transactions on Image Processing,2015,24(12):5017-5032.

[10] KAVUKCUOGLU K,RANZATO M,LECUN Y.Fast Inference in Sparse Coding Algorithms with Applications to Object Recognition[C]∥Proceedings of OPT 2008.[S.l.]:[s.n.],2008.

[11] SILVER D,HUANG A,MADDISON C J,et al.Mastering the Game of Go with Deep Neural Networks and Tree Search[J].Nature,2016,529(7587):484-489.

[12] ZHANG F,DU B,ZHANG L.Scene Classification via a Gradient Boosting Random Convolutional Network Framework[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(3):1793-1802.

[13] HU W,HUANG Y,WEI L,et al.Deep Convolutional Neural Networks for Hyperspectral Image Classification[J].Journal of Sensors,2015(2015):1-12.

[14] MA X,GENG J,WANG H.Hyperspectral Image Classification via Contextual Deep Learning[J].EURASIP Journal on Image and Video Processing,2015.https:∥doi.org/10.1186/s13640-015-0071-8.

[15] CHEN X,XIANG S,LIU C,et al.Aircraft Detection by Deep Belief Nets[C]∥2013 2nd IAPR Asian Conference on Pattern Recognition(ACPR 2013).Naha:IEEE,2013:54-58.

[16] CHEN X,XIANG S,LIU C,et al.Vehicle Detection in Satellite Images by Hybrid Deep Convolutional Neural Networks[J].IEEE Geoscience and Remote Sensing Letters,2014,11(10):1797-1801.

[17] DIAO W,SUN X,DOU F,et al.Object Recognition in Remote Sensing Images Using Sparse Deep Belief Networks[J].Remote Sensing Letters,2015,6(10):745-754.

[18] HAN J,ZHANG D,CHENG G,et al.Object Detection in Optical Remote Sensing Images Based on Weakly Supervised Learning and High-level Feature Learning[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(6):3325-3337.

[19] 高常鑫,桑農(nóng).基于深度學(xué)習(xí)的高分辨率遙感影像目標(biāo)檢測(cè)[J].測(cè)繪通報(bào),2014(S1):108-111.

[20] 王萬(wàn)國(guó),田兵,劉越,等.基于RCNN的無(wú)人機(jī)巡檢圖像電力小部件識(shí)別研究[J].地球信息科學(xué)學(xué)報(bào),2017,19(2):256-263.

[21] HE K,ZHANG X,REN S,et al.Deep Residual Learning for Image Recognition[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016.

[22] SZEGEDY C,LIU W,JIA Y,et al.Going Deeper with Convolutions[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Boston:IEEE,2015.

[23] DAI J,LI Y,HE K,et al.R-FCN: Object Detection via Region-based Fully Convolutional Networks[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016.

[24] GIRSHICK R.Fast r-cnn[C]∥Proceedings of the IEEE International Conference on Computer Vision.[S.l.]:IEEE,2005.

[25] REN S,HE K,GIRSHICK R,et al.Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[26] SHRIVASTAVA A,GUPTA A,GIRSHICK R.Training Region-based Object Detectors with Online Hard Example Mining[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016.

猜你喜歡
區(qū)域檢測(cè)
永久基本農(nóng)田集中區(qū)域“禁廢”
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
分割區(qū)域
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
主站蜘蛛池模板: 欧美精品亚洲精品日韩专区va| 丝袜美女被出水视频一区| 亚洲天堂视频在线播放| 在线观看亚洲国产| 久久影院一区二区h| 自拍偷拍欧美日韩| 欧美成人日韩| 无码AV高清毛片中国一级毛片| 国产亚洲欧美在线人成aaaa| 99这里精品| 婷婷五月在线| 国产精品性| 国产一级在线观看www色 | 日韩中文精品亚洲第三区| 99久久无色码中文字幕| 久久久久久午夜精品| 国产在线小视频| 天堂成人在线| 欧美国产日韩一区二区三区精品影视 | 国产欧美日韩另类| 亚洲性日韩精品一区二区| 夜夜拍夜夜爽| 国产成年女人特黄特色毛片免| 亚洲无码精品在线播放| 精品视频在线观看你懂的一区| 波多野结衣无码视频在线观看| www.91中文字幕| 婷婷五月在线| 国模极品一区二区三区| 丝袜亚洲综合| 国产美女人喷水在线观看| 国产成人综合久久精品尤物| 欧美成人a∨视频免费观看| 国产91在线免费视频| 88国产经典欧美一区二区三区| 欧美成人精品高清在线下载| 无码啪啪精品天堂浪潮av| 久久精品国产亚洲麻豆| 成人国产一区二区三区| 欧美精品1区2区| 不卡国产视频第一页| 亚洲高清免费在线观看| 伊人久久婷婷| 欧美一区中文字幕| 最新国产你懂的在线网址| 国产成人精品高清不卡在线| 免费va国产在线观看| 午夜a视频| 精品综合久久久久久97超人该| 亚洲床戏一区| 91偷拍一区| 国产原创自拍不卡第一页| 精品国产成人a在线观看| 久久久噜噜噜久久中文字幕色伊伊 | 亚洲中文字幕97久久精品少妇| a级毛片免费播放| 亚洲男人的天堂久久精品| 在线不卡免费视频| 精品1区2区3区| 国内精品手机在线观看视频| 国产精品福利社| 国产福利影院在线观看| 欧美激情二区三区| 久久久久国色AV免费观看性色| 视频国产精品丝袜第一页| 久久精品亚洲中文字幕乱码| 欧美不卡视频一区发布| 国产亚洲欧美在线人成aaaa| 日本在线免费网站| a亚洲视频| 成人在线观看一区| 国产清纯在线一区二区WWW| 天堂在线www网亚洲| 日韩欧美国产成人| 日本精品影院| 欧美伊人色综合久久天天| 亚洲欧美不卡| 亚洲伊人电影| 性69交片免费看| 中文字幕1区2区| 狠狠亚洲五月天| 精品人妻一区二区三区蜜桃AⅤ|