999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv3算法的船舶雙目視覺檢測與定位方法

2021-04-30 19:59:27張嘯塵趙建森王勝正張敏程成
上海海事大學(xué)學(xué)報 2021年1期
關(guān)鍵詞:船舶特征檢測

張嘯塵 趙建森 王勝正 張敏 程成

摘要:

為快速、準確地檢測船舶目標,提出一種基于YOLOv3算法的船舶雙目視覺檢測與定位方法。

在特征學(xué)習(xí)時針對樣本中不同船舶長寬比例,重新聚類樣本中心錨點框,增強對船舶檢測的準確性;利用SURF算法進行特征匹配,并引入雙目測距算法,實現(xiàn)目標的測距與定位。實驗結(jié)果表明,該方法在每秒傳輸圖片30幀的情況下,平均檢測精度達到94%,在1 n mile內(nèi)的目標平均定位誤差為11 m左右,與現(xiàn)有檢測算法相比,具有更好的實時性、準確性。該方法對智能船舶視覺感知信息與雷達、AIS信息的融合,以及避碰輔助決策具有非常重要的作用。

關(guān)鍵詞:

智能船舶; 目標檢測; 雙目測距; 輔助決策

中圖分類號:? U675.79; TP242.6+2

文獻標志碼:? A

收稿日期: 2020-04-09

修回日期: 2020-08-10

基金項目:

國家自然科學(xué)基金(51709167,61701299);國家重點研發(fā)計劃(2019YFB1600605);上海市科技創(chuàng)新行動計劃社會發(fā)展領(lǐng)域項目(18DZ1206101);大學(xué)生創(chuàng)新創(chuàng)業(yè)項目(S20190105, S20190117)

作者簡介:

張嘯塵(1995—),男,江蘇蘇州人,碩士研究生,研究方向為船舶智能導(dǎo)航、計算機視覺,(E-mail)247101485@qq.com;

趙建森(1983—),男,黑龍江牡丹江人,副教授,博士,研究方向為智能通信、微波和天線,(E-mail)7230981@163.com;

王勝正(1976—),男,湖南雙峰人,教授,博士,研究方向為航海仿真、智能船舶導(dǎo)航、大數(shù)據(jù)、機器學(xué)習(xí),(E-mail)szwang@shmtu.edu.cn

Binocular vision detection and positioning method for

ships based on YOLOv3 algorithm

ZHANG Xiaochen, ZHAO Jiansen, WANG Shengzheng,

ZHANG Min, CHENG Cheng

(Merchant Marine College, Shanghai Maritime University, Shanghai 201306, China)

Abstract:

In order to detect target ships quickly and accurately, a binocular vision detection and positioning method for ships based on YOLOv3 algorithm is proposed.? During feature learning, the center anchor frames of the samples are re-clustered for the different ship length-width ratios in the samples to enhance the accuracy of ship detection; the feature matching is carried out by the SURF algorithm, and the binocular ranging algorithm is introduced to achieve target ranging and positioning. The experimental results show that, under the condition of 30 frames per second, the average detection accuracy of this method is 94%, and the average positioning error of the targets within 1 n mile is about 11 m. Compared with the existing detection algorithms, it is of better real-time performance and accuracy. It plays a very important role in the information fusion from the visual perception, radars and AIS, as well as collision avoidance auxiliary decision for intelligent ships.

Key words:

intelligent ship; target detection; binocular ranging; auxiliary decision

0 引 言

中國船級社2015年發(fā)布的《智能船舶規(guī)范》中提到,智能船舶需利用傳感器、通信、互聯(lián)網(wǎng)等技術(shù)手段自主感知和分析船舶周邊環(huán)境的信息和數(shù)據(jù),以保證自身安全、自主航行。由此可見,信息感知技術(shù)在智能船舶領(lǐng)域是一項非常關(guān)鍵的技術(shù)。目前比較成熟的兩種感知手段是船舶自動識別系統(tǒng)(automatic identification system,AIS)和雷達。雖然這兩種感知手段使用范圍較廣,但是AIS信息存在主觀錯誤和延遲,雷達存在檢測盲區(qū),因此多信息源信息融合成為港口監(jiān)測和智能船舶自主航行迫切需求的新技術(shù)。大部分沿海、內(nèi)陸水域以及智能化船舶上已經(jīng)配備視頻監(jiān)控裝置,但是船舶位置和航行態(tài)勢仍需依靠人工判斷。隨著計算機視覺智能感知技術(shù)的發(fā)展,船舶目標智能識別和跟蹤成為該領(lǐng)域新的研究熱點。

1.1.4 輸出層

對特征融合層輸出的3個尺度特征圖進行分類和位置回歸。本文將原始圖片縮放到416×416的大小,然后根據(jù)特征圖大小分別劃分為13×13、26×26、52×52的等大的單元格,每個單元格用3個錨點框預(yù)測3個邊框。YOLOv3網(wǎng)絡(luò)在3個特征圖中分別通過(4+1+c)k個大小為c的卷積核進行卷積預(yù)測,k為預(yù)設(shè)邊框的數(shù)量

(本文k取3),c為預(yù)測目標的類別數(shù)量(本文c取2),其中4k個參數(shù)負責(zé)預(yù)測目標邊框的偏移量,k個參數(shù)負責(zé)預(yù)測目標邊框內(nèi)包含目標的概率,ck個參數(shù)負責(zé)預(yù)測這k個預(yù)設(shè)邊框?qū)?yīng)c個目標類別的概率,最后進行融合得到結(jié)果。

1.2 損失函數(shù)

用第i個網(wǎng)格的第j個錨點框進行預(yù)測時,與輸出層計算對象對應(yīng),需要對這個錨點框產(chǎn)生的邊框進行中心坐標誤差、寬高誤差、置信度誤差和分類誤差的計算。因此,本文檢測方法損失函數(shù)為

Lij=λPij+Cij+Dij(1)

式中:Lij為第i個網(wǎng)格的第j個錨點框預(yù)測的總損失;Pij為第i個網(wǎng)格的第j個錨點框預(yù)測得到的邊框坐標損失;λ為邊框坐標損失的權(quán)值,由于定位誤差對整個模型的影響較大,該值一般較大,本文λ取值為5;Cij為第i個網(wǎng)格的第j個錨點框預(yù)測置信度損失;Dij為第i個網(wǎng)格的第j個錨點框預(yù)測分類損失。

2 船舶定位原理

2.1 雙目視覺原理

圖像處理、立體視覺經(jīng)常涉及世界坐標系、相機坐標系、像素坐標系和圖像坐標系。利用坐標系相互轉(zhuǎn)換實現(xiàn)測距的雙目視覺原理見圖3。

圖3中:Ow-XwYwZw為世界坐標系,描述相機在世界中的位置;Ol-XlYlZl和Or-XrYrZr分別為左、右相機的相機坐標系,坐標原點為相機的光心;ol-ulvl和or-urvr分別為左、右相機的像素坐標系,坐標原點位于圖像左上角;o1-x1y1和o2-x2y2分

別為左、右相機的圖像坐標系,坐標原點位于圖像中心;

P(Xw,Yw,Zw)為世界坐標系中的一

點,即現(xiàn)實中的目標點;P1、P2為點P分別在左、右相機中的像點,這兩個像點在圖像坐標系中的坐標分別為(x1,y1)、(x2,y2),在像素坐標系中的坐標分別為(u1,v1)、(u2,v2);B為左、右相機基線之間的距離;fx和fy分別為左、右相機的焦距。

像素坐標系與世界坐標系的轉(zhuǎn)換關(guān)系如下:

式中:Zc為點P在相機坐標系中Z方向的坐標值,一般地,假設(shè)世界坐標系與相機坐標系重合,即Zc=Zw;(u,v)為點P在像素坐標系中的坐標;K為相機內(nèi)參數(shù)矩陣;R為世界坐標系到相機坐標系的旋轉(zhuǎn)矩陣;T為世界坐標系到相機坐標系的平移矩陣。

當K、R、T已知時,由點在世界坐標系中的坐標很容易求得其在像素坐標系中的坐標,而從像素坐標系中的坐標求世界坐標系中的坐標存在Zc未知的情況,因此通過引入雙目視覺消去Zc的影響。

一般地,假設(shè)世界坐標系與左相機的相機坐標系重合,即Zl=Zw,右相機與左相機的姿態(tài)相同,僅在世界坐標系Xw軸正方向移動距離B,則左、右相機坐標投影關(guān)系如下:

式中:Kl、Kr

分別為左、右相機內(nèi)參數(shù)矩陣;

Rl、Rr

分別為世界坐標系到左、右相機的相機坐標系的旋轉(zhuǎn)矩陣;

Tl、Tr

分別為世界坐標系到左、右相機的相機坐標系的平移矩陣。

式中的u1-u2就是通常所說的視差。

2.2 特征點檢測與匹配算法

尺度不變特征變換(scale-invariant feature transform, SIFT)算法和SURF算法是當今主流的匹配算法,這兩種算法的實現(xiàn)步驟是一致的,見圖4。這兩種算法僅在尺度空間、特征點檢測、方向和特征描述子的選擇上存在一定差異。

在尺度空間建立方面,SIFT算法使用高斯差分(difference of Gaussian, DOG)與不同尺度的圖片卷積建立空間,而SURF算法使用不同尺度的箱式過濾器(box filters)與原圖片卷積。在特征點檢測方面,SIFT算法先進行非極大抑制,再去除低對比度的點,最后通過Hessian矩陣去除邊緣的點;而SURF算法相反,先利用Hessian矩陣確定候選點,然后進行非極大抑制。在方向方面,SIFT算法在正方形區(qū)域內(nèi)統(tǒng)計梯度幅值的直方圖,找最大值對應(yīng)的方向;而SURF算法在圓形區(qū)域內(nèi)計算各個扇形范圍內(nèi)x、y方向的haar小波響應(yīng),找模最大的扇形方向。在特征描述子方面,SIFT算法將16×16的采樣點劃分為4×4的區(qū)域,統(tǒng)計成直方圖,一共128維;SURF算法將20×20的區(qū)域劃分為4×4的區(qū)域,計算haar小波響應(yīng),一共64維。

SIFT算法與SURF算法在性能上存在差異:SIFT算法在尺度和旋轉(zhuǎn)變換的情況下匹配效果更好;SURF算法在亮度變化的情況下匹配效果更好,在模糊方面也優(yōu)于SIFT算法,運算速度是SIFT算法的3倍。

3 船舶檢測與定位

3.1 船舶檢測優(yōu)化

YOLOv3網(wǎng)絡(luò)基于錨點框預(yù)測邊框,合適的錨點框能讓預(yù)測框與真實的邊框更加接近。YOLOv3網(wǎng)絡(luò)原始的錨點框是基于VOC和COCO數(shù)據(jù)集進行聚類得到的,數(shù)量為9。結(jié)合船舶所在的空間環(huán)境和本文拍攝場景,本文采用K均值聚類的方法對訓(xùn)練集的邊框進行聚類,得到更加合適的錨點框,使模型快速收斂并對船舶進行更好的檢測,聚類方法中距離公式如下:

D=1-b∩cb∪c(7)

其中:b為標注框;c為聚類中心框;D為距離。標注框與聚類中心框的形狀越相近,交并比越大,D越小,因此通過計算能獲取最小距離對應(yīng)的最佳錨點框。

本文在所有船舶樣本(即所有的標注框b)中隨機指定9個聚類中心(即聚類中心框c

;考慮不同類型船舶的長寬比有明顯差別,每種船舶至少選取一個聚類中心)形成9個集群

;用式(7)計算每個樣本與9個聚類中心的距離D,將樣本劃分到與其距離最小的集群中,并將每個聚類中心更新為當前集群的均值;重復(fù)以上步驟直至聚類中心變化很小,得到9個最佳聚類中心。

3.2 船舶定位優(yōu)化

視差值直接影響測距效果,但在背景復(fù)雜,船舶在視圖中占比小、特征不明顯的情況下,用傳統(tǒng)的BM算法、SGBM算法都不能得到有效的視差圖。SIFT算法通常在搜索正確的特征時更加準確,但更加耗時。SURF算法特征描述子大部分基于強度差值,計算更快捷。考慮船舶定位所需的實時性,本

文先利用SURF算法對左、右視圖進行特征點匹配,然后在此基礎(chǔ)上使用YOLOv3網(wǎng)絡(luò)檢測到的船舶邊框?qū)μ卣鼽c對進行約束篩選,從而快速、準確地獲得有效視差并進行距離計算和定位。測距定位流程見圖5。

3.2.1 SURF算法匹配特征點

首先使用SURF算法對輸入的左、右相機圖像進行特征點提取和匹配,見圖6。

從圖6可見,存在大量的錯誤匹配點和無用匹配點(大樓匹配點)。因此,本文提出特征點對匹配閾值條件:

式中:v1和vr分別為特征點對在左、右視圖中的縱坐標值(由于兩張視圖在SURF算法匹配前進行過立體矯正,有效匹配的特征點對的縱坐標值應(yīng)基本相同);N為在左視圖中檢測到的目標邊框數(shù);M為在右視圖中檢測到的目標邊框數(shù);用I1j判斷左視圖特征點是否落在左視圖第j個邊框中,是則為1,否則為0;用Irk判斷右視圖特征點是否落在右視圖第k個邊框中,是則為1,否則為0;T為閾值,可根據(jù)立體矯正效果設(shè)置,本文將其設(shè)置為10像素(本文拍攝的圖片的分辨率為960×480)。

3.2.2 特征點對條件約束

在圖6的基礎(chǔ)上,用式(8)進行條件約束,見圖7。在獲得同一目標的多組特征點對和多個視差值后,對視差值進行均值計算,提取最優(yōu)視差值,最后通過式(5)和(6)計算船舶位置。

4 實驗與結(jié)果分析

4.1 雙目攝像機船舶視頻源

上海港國際客運中心碼頭東起高陽路,西至虹口港,北沿東大名路,南到黃浦江,岸線全長近1 200 m,是上海市水運重大交通樞紐之一,可同時停泊3艘7萬噸級的豪華郵輪。因此,對上海港國際客運中心碼頭船舶進行檢測與定位具有一定的實際意義。

本研究共使用15 000幀在上海港國際客運中心碼頭拍攝的圖片作為初始數(shù)據(jù)集,利用旋轉(zhuǎn)變換、加入高斯噪聲等數(shù)據(jù)增強的方式擴大圖像數(shù)據(jù),增強YOLO模型神經(jīng)網(wǎng)絡(luò)的泛化能力。隨后將擴大的圖像數(shù)據(jù)的分辨率校正為416×416大小,并按

7∶3的比例分為訓(xùn)練集和測試集,其中訓(xùn)練集包含21 000幀圖片,測試集包含9 000幀圖片。

本研究采用Windows 10操作系統(tǒng),16 GB RAM,CPU I7-9750H主頻為2.6 GHz,GPU為RTX 2070,實驗平臺為Visual Studio 2017及Python 3.6.5。

4.2 實驗結(jié)果分析

為驗證檢測的有效性,對數(shù)據(jù)集進行訓(xùn)練,訓(xùn)練200次后,平均損失函數(shù)值下降到1以下并趨于穩(wěn)定,表明該算法在訓(xùn)練過程中具有很好的收斂性。

通過精確率-召回率曲線評估本文檢測方法的性能,對100幀圖片進行評估。假設(shè)測試圖中實際有船舶A艘,通過本文檢測方法檢測到的船舶有B艘,其中檢測到的的確是船舶的有C艘,則精確率P=C/B,召回率R=C/A。

根據(jù)圖8可知,在精確率為95%的條件下召回率能達到85%,而當召回率達到92%時精確率依然可以達到85%。

本文采用SURF算法得到特征點對,結(jié)合多目標檢測得到的船舶邊框處理特征點對,確定船舶最佳視差,通過計算得到船舶位置信息,效果見圖9。

為實現(xiàn)測距定位效果可視化,對測試圖中的船舶位置進行二維平面還原。多幀圖片的二維還原圖見圖10,其中:坐標為(0,0)的點與圖3中的Ol重合;Z軸與圖3中Zl軸重合;X軸與圖3中Xl軸重合。從圖10可知,本文算法預(yù)測位置與激光測距儀測量位置基本重合。

4.3 性能評估

4.3.1 多目標檢測性能評估

本文在YOLOv3網(wǎng)絡(luò)訓(xùn)練過程中采用K均值聚類的方法對訓(xùn)練集的邊框重新進行聚類,得到更加合適的錨點框。分別對原錨點框和新錨點框進行訓(xùn)練得到兩個模型,再用這兩個模型對500幀圖片進行檢測并計算精度。結(jié)果表明,原錨點框訓(xùn)練得到的模型的檢測精度為89%,新錨點框訓(xùn)練得到的模型的檢測精度為94%。

4.3.2 測距性能評估

用(XV,ZV)和(XL,ZL)分別表示采用本文方法測得的船舶位置坐標和采用激光測距儀測得的船舶位置坐標,則單一船舶定位誤差可表示為

E=(XV-XL)2+(ZV-ZL)2(9)

本文對500幀圖片上的3 000艘船進行定位誤差計算,部分船坐標值及其定位誤差值見表1。最后求得最大誤差為16 m,平均誤差為11 m。

考慮距離遠近對定位誤差的影響,每100 m計算一次平均誤差值,目標距離與本文方法定位誤差關(guān)系曲線見圖11。由圖11可見,定位誤差隨距離增大而增大。

大量實驗表明,本文方法能實現(xiàn)對播放速度為30幀/s的視頻中目標的高精度自動檢測和10次/s的目標位置信息更新。在現(xiàn)今有人值守的船端,船員能夠通過視覺傳感器實時獲悉周邊有無他船、他船種類和他船位置信息。

5 結(jié)束語

本文提出的基于YOLOv3算法的船舶檢測與定位方法對播放速度為30幀/s的視頻中目標的平均檢測精度達94%,目標在1 n mile內(nèi)的平均定位誤差為11 m左右。本文方法對智能船舶視覺感知信息與雷達、船舶自動識別系統(tǒng)(AIS)信息的融合,以及避碰輔助決策具有非常重要的作用。本研究僅利用激光測距儀對定位方法進行評估,且并未考慮船舶大小和船舶定位點(定位點為船首或桅桿)。后續(xù)將測算船舶大小,確定船舶定位點,并且融合雷達、AIS等海上交通數(shù)據(jù),對定位方法進行進一步評估。

參考文獻:

[1]蔣晶晶, 安博文. 低空航拍視頻中基于Vibe算法的船舶檢測方法[J]. 微型機與應(yīng)用, 2017, 36(10): 44-47. DOI: 10.19358/j.issn.1674-7720.2017.10.013.

[2]李雙雙. 內(nèi)河視頻監(jiān)控中運動船舶檢測算法研究[D]. 大連: 大連海事大學(xué), 2018.

[3]GIRSHICKR, DONAHUE J, DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2014: 580-587. DOI: 10.1109/CVPR.2014.81.

[4]GIRSHICKR. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision. IEEE, 2015: 1440-1448. DOI: 10.1109/ICCV.2015.169.

[5]RENShaoqing, HE Kaiming, GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149. DOI: 10.1109/TPAMI.2016.2577031.

[6]LIUWei, ANGUELOV D, ERHAN D,et al. SSD: single shot multi-box detector[C]//European Conference on Computer Vision 2016, Lecture Notes in Computer Science. Springer, 2016, 9905: 21-37. DOI: 10.1007/978-3-319-46448-0_2 vol 9905.

[7]SHAOZhenfeng, WANG Linggang, WANG Zhongyuan,et al. Saliency-aware convolution neural network for ship detection in surveillance video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(3): 781-794. DOI: 10.1109/TCSVT.2019.2897980.

[8]SHAOZhenfeng, WU Wenjing, WANG Zhongyuan,et al. SeaShips: a large-scale precisely annotated dataset for ship detection[J]. IEEE Transactions on Multimedia, 2018, 20(10): 2593-2604. DOI: 10.1109/TMM.2018.2865686.

[9]HUANGZhijian, SUI Bowen, WEN Jiayi,et al. An intelligent ship image/video detection and classification method with improved regressive deep convolutional neural network[J]. Complexity, 2020(1): 1-11. DOI: 10.1155/2020/1520872.

[10]劉博, 王勝正, 趙建森, 等. 基于Darknet網(wǎng)絡(luò)和YOLOv3算法的船舶跟蹤識別[J]. 計算機應(yīng)用, 2019, 39(6): 1663-1668. DOI: 10.11772/j.issn.1001-9081.2018102190.

[11]REDMONJ, DIVVALA S, GIRSHICK R,et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016: 779-788. DOI: 10.1109/CVPR.2016.91.

[12]張帆, 王欣, 孫增玉. 基于雙目視覺+激光測距融合的空間目標位姿測量方法研究[C]//第二屆中國空天安全會議. 中國指揮與控制學(xué)會空天安全平行系統(tǒng)專業(yè)委員會, 2017: 109-116.

[13]YANGM S, SINAGA K P. A feature-reduction multi-viewK-means clustering algorithm[J]. IEEE Access, 2019, 7: 114472-114486. DOI: 10.1109/ACCESS.2019.2934179.

[14]CHENWei, CAO Qian. Feature points extraction and matching based on improved SURF algorithm[C]//2018 IEEE International Conference on Mechatronics and Automation (ICMA). IEEE, 2018: 1194-1198. DOI: 10.1109/ICMA.2018.8484336.

[15]FANGQiang, ZHUO Li, HU Xiaochen,et al. Fine-grained vehicle recognition using hierarchical fine-tuning strategy for urban surveillance videos[C]//2016 International Conference on Progress in Informatics and Computing (PIC). IEEE, 2016: 233-236. DOI: 10.1109/PIC.2016.7949501.

(編輯 賈裙平)

猜你喜歡
船舶特征檢測
計算流體力學(xué)在船舶操縱運動仿真中的應(yīng)用
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《船舶》2022 年度征訂啟事
船舶(2021年4期)2021-09-07 17:32:22
船舶!請加速
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 国产黄在线免费观看| 亚洲婷婷丁香| 国产无码网站在线观看| 国产欧美日韩另类| 亚洲精品国偷自产在线91正片| 国产欧美另类| 久久综合一个色综合网| 久久情精品国产品免费| 伊人色综合久久天天| 亚洲v日韩v欧美在线观看| AV无码一区二区三区四区| 激情综合激情| 国产成人精品一区二区三区| 综合天天色| 好紧太爽了视频免费无码| 色九九视频| 亚洲天堂精品视频| 亚洲视频欧美不卡| 国产真实二区一区在线亚洲 | 99re这里只有国产中文精品国产精品| 三区在线视频| 日韩不卡高清视频| 尤物精品视频一区二区三区| 欧美精品啪啪| 超薄丝袜足j国产在线视频| 亚洲美女视频一区| 久久青草视频| 91青草视频| 久久国产热| 国产午夜无码专区喷水| 亚洲日韩精品无码专区97| 久久国产亚洲偷自| 国产精品大白天新婚身材| 欧美日韩国产高清一区二区三区| 免费人成又黄又爽的视频网站| 91无码视频在线观看| 麻豆精品视频在线原创| 青草国产在线视频| 国产精品手机在线播放| 免费在线国产一区二区三区精品| 91色综合综合热五月激情| 欧美久久网| 高清色本在线www| 色香蕉影院| 中文字幕免费视频| 国产精品人人做人人爽人人添| 制服无码网站| 97视频精品全国免费观看| 国产办公室秘书无码精品| 热这里只有精品国产热门精品| 亚洲美女一区| 18禁不卡免费网站| 亚洲精品在线影院| 亚洲男人天堂2020| 乱人伦99久久| 扒开粉嫩的小缝隙喷白浆视频| 欲色天天综合网| 国产好痛疼轻点好爽的视频| 国产精品大白天新婚身材| 国产在线观看成人91| 精品無碼一區在線觀看 | 精品久久久久成人码免费动漫| 青青久久91| 在线国产三级| 美女高潮全身流白浆福利区| 欧美亚洲国产一区| 91在线播放国产| 国产高清在线丝袜精品一区| 人妻精品久久无码区| 国产9191精品免费观看| 色香蕉影院| 久久综合丝袜日本网| 四虎永久免费地址在线网站| 欧美一区中文字幕| 女人天堂av免费| 中文字幕久久亚洲一区| 欧美成人综合在线| 欧美人与动牲交a欧美精品| 熟女成人国产精品视频| 青草视频久久| 国产成人精彩在线视频50| 精品综合久久久久久97超人该 |