999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于FastestDet的多目標(biāo)靶定位方法

2024-09-21 00:00:00易磊易雅雯
現(xiàn)代電子技術(shù) 2024年16期
關(guān)鍵詞:檢測方法

摘" 要: 為解決無人機在自動多目標(biāo)靶定位領(lǐng)域計算資源有限、實時性要求高、定位準(zhǔn)確率有限等問題,提出一種基于FastestDet的多目標(biāo)靶定位方法。首先,通過輕量級目標(biāo)檢測算法(FastestDet算法)實現(xiàn)目標(biāo)靶檢測;其次,對所獲得的目標(biāo)靶圖像進行透視變換,并截取僅含目標(biāo)靶的透視變換圖像;再對圖像進行去噪、灰度化等處理,通過輪廓檢測獲得目標(biāo)靶心圓輪廓后,計算透視變換后的靶心坐標(biāo);最后,通過逆變換計算原采集圖像實際目標(biāo)靶心坐標(biāo)。實驗結(jié)果表明:所提方法采用的目標(biāo)檢測算法網(wǎng)絡(luò)參數(shù)最小,單張圖像處理時間最短,占用計算資源少,實時性高,識別準(zhǔn)確率達到90.4%,目標(biāo)靶識別準(zhǔn)確率較高;與其他方法相比,該方法的綜合定位誤差最大可降低92.09%,定位準(zhǔn)確率高,可行性強。

關(guān)鍵詞: 無人機; 目標(biāo)靶定位; FastestDet算法; 目標(biāo)檢測; 透視變換; 輪廓檢測

中圖分類號: TN820.4?34; TP271+.5" " " " " " " " " "文獻標(biāo)識碼: A" " " " " " " " 文章編號: 1004?373X(2024)16?0097?06

Method of multi?target precision positioning based on FastestDet

YI Lei, YI Yawen

(School of Electrical amp; Electronic Engineering, Huazhong University of Science and Technology, Wuhan 430074, China)

Abstract: In order to solve the problems of limited computing resources, high real?time requirements, and limited positioning accuracy of UAVs in the field of automatic multi?target precision positioning, a multi?target precision positioning method based on FastestDet is proposed. The target detection is realized by means of the lightweight target detection algorithm?(FastestDet algorithm). The perspective transformation is conducted on the obtained target image and the perspective transformation image containing only the target image is captured. The denoising, grayscale processing, etc. are performed on the image to obtain the target center circle contour by means of the contour detection, and calculate the target center coordinates after perspective transformation. The actual target center coordinates of the original captured image are calculated by means of the inverse transformation. The experimental results show that the target detection algorithm used by the proposed method has the smallest network parameter, the shortest single image processing time, less computing resources, high real?time performance, and a recognition accuracy of 90.4%. The target recognition accuracy is relatively high. In comparison with other methods, this method can reduce the maximum error of comprehensive positioning by 92.09%, and has high positioning accuracy and strong feasibility.

Keywords: unmanned aerial vehicles; target precision positioning; FastestDet algorithm; target detection; perspective transformation; contour detection

0" 引" 言

無人機具有快速響應(yīng)以及精確打擊等優(yōu)點,在軍事等領(lǐng)域的相關(guān)技術(shù)已成為研究熱點。其中,靶標(biāo)識別技術(shù)是軍事訓(xùn)練中一種必不可少的技術(shù),可以通過其進行打靶訓(xùn)練、監(jiān)控邊境安全、搜尋救援目標(biāo)等任務(wù),為人類提供更安全、高效的服務(wù)。目前,靶標(biāo)識別技術(shù)領(lǐng)域已有大量研究。

當(dāng)前研究主要包括基于激波技術(shù)[1?3]、紅外熱成像技術(shù)[4?5]以及計算機視覺技術(shù)[6?8]的靶標(biāo)識別。其中,激波技術(shù)與紅外熱成像技術(shù)較為復(fù)雜,常用于夜間或天氣條件惡劣的情況,且成本較高;計算機視覺技術(shù)通過使用計算機算法,如圖像處理、機器學(xué)習(xí)等獲取特定信息來實現(xiàn)靶標(biāo)的識別,具有成本低、高效、實時性強等特點,是當(dāng)前的研究熱點。文獻[9]中使用樹莓派結(jié)合圖像識別技術(shù)實現(xiàn)智能靶標(biāo)識別,獲得了較為精確的靶標(biāo)識別效果,但是傳統(tǒng)圖像處理方法無法實時跟蹤靶標(biāo)。基于此,文獻[10]中設(shè)計一個基于YOLOv5n的目標(biāo)檢測算法,實現(xiàn)了靶面目標(biāo)檢測及跟蹤,進而實現(xiàn)了具有自動追蹤靶標(biāo)功能的精確靶標(biāo)識別;同時其采用改進霍夫圓檢測方法來確定靶環(huán),獲得了較為準(zhǔn)確的靶環(huán)。但是該方法對噪聲較為敏感,且實際圖像中靶標(biāo)形狀常常不為規(guī)則圓形。上述文獻研究對象均為固定單目標(biāo)靶,未考慮實際運用中存在多種目標(biāo)靶的情況,以及在無人機行進過程中環(huán)境復(fù)雜導(dǎo)致定位難度較大的問題。

針對無人機硬件處理單元資源緊缺的問題,以及其對實時性的高要求,本文提出一種基于FastestDet的多目標(biāo)靶定位方法。首先,通過輕量級目標(biāo)檢測算法(FastestDet算法)實現(xiàn)目標(biāo)靶檢測;獲得目標(biāo)靶坐標(biāo)后對其進行透視變換,并截取僅含目標(biāo)靶的透視變換圖像;進而對圖像進行去噪、灰度化等處理和輪廓檢測,獲得滿足條件的目標(biāo)靶心圓輪廓,計算透視變換后的靶心坐標(biāo);最終,通過逆變換計算在原圖像中的實際靶心坐標(biāo)。該多目標(biāo)靶定位算法實現(xiàn)了對靶心坐標(biāo)的精準(zhǔn)求解,在節(jié)省資源的同時提升了定位效率,具有高效性、實時性及較好的魯棒性。

1" 多目標(biāo)靶定位技術(shù)

1.1" FastestDet算法

常見的目標(biāo)檢測算法如YOLO系列 [11]算法檢測精度高,但是網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,模型參數(shù)量大,占用大量計算資源;且運行時間長,難以滿足復(fù)雜環(huán)境中的無人機運行實時性要求。基于上述問題,本文引入FastestDet輕量級目標(biāo)檢測算法[12],實現(xiàn)對目標(biāo)靶的識別。該算法針對無人機通常使用的計算資源緊缺的ARM平臺進行設(shè)計,在有效降低網(wǎng)絡(luò)參數(shù)大小與運行時間的同時,保證了較高的目標(biāo)靶檢測精度。

FastestDet算法對原YOLO網(wǎng)絡(luò)進行優(yōu)化,模型結(jié)構(gòu)如圖1所示。

具體而言,F(xiàn)astestDet算法采用5×5分組卷積并行網(wǎng)絡(luò)結(jié)構(gòu),融合不同感受野特征,通過單輕量化檢測頭自適應(yīng)地對不同尺寸物體進行檢測。同時,該算法采用無錨算法,直接回歸目標(biāo)的位置與尺寸,有利于簡化模型處理。除此之外,該算法采用跨網(wǎng)格多候選目標(biāo)的方法,將圖像中心點所在網(wǎng)格當(dāng)作候選目標(biāo)的同時計入相鄰三個網(wǎng)格,從而增加正樣本候選框數(shù)量。在模型訓(xùn)練過程中,該算法采用動態(tài)正負(fù)樣本分配方法,具有自適應(yīng)動態(tài)效果。為了降低數(shù)據(jù)增強復(fù)雜度,保證模型輕量級特性,其也可以采用簡單的數(shù)據(jù)增強方法,如隨機平移與縮放等。

針對本文的多目標(biāo)靶檢測,F(xiàn)astestDet使用分組并行的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)提取目標(biāo)靶數(shù)據(jù)集中各樣本特征,并據(jù)此使用分類方法支持向量機(Support Vector Machine, SVM)分類不同靶標(biāo)。關(guān)鍵計算公式如下。

卷積層運算公式為:

[Yij=m=0P-1n=0Q-1k=1K-1X(iL+m),(jL+n),k?Am,n,k+B] (1)

式中:[Yij]表示輸出特征圖坐標(biāo)為(i,j)的像素值;K表示輸入特征圖的通道數(shù);P與Q表示卷積核的高與寬;[X(iL+m),(jL+n),k]為輸入特征圖處于((iL+m),(jL+n))坐標(biāo)的第k個通道對應(yīng)的像素值;L代表卷積步長;[Am,n,k]為坐標(biāo)為(m,n)的第k個通道對應(yīng)的像素值;B表示偏置值。

支持向量機對不同靶標(biāo)進行分類的公式為:

[f(a)=sgni=1NωiλiM(a,ai)+bias] (2)

式中:[f(a)]表示輸入目標(biāo)靶圖像樣本a的預(yù)測標(biāo)簽;[ωi]表示拉格朗日乘子;[λi]表示支持向量乘子;[M(a,ai)]表示核函數(shù)運算;bias為偏置值。

1.2" 透視變換

本文所采集圖像中的目標(biāo)靶非正投影,難以直接識別靶心坐標(biāo),因此引入透視變換對采集圖像中的目標(biāo)靶圖像進行校正,以獲得目標(biāo)靶正投影圖像,便于后續(xù)處理。透視變換[13]基本原理如圖2所示。

對目標(biāo)靶圖像變換的步驟如下。

確定變換前后的4個對應(yīng)點:選擇變換前采集圖像中通過目標(biāo)檢測所得目標(biāo)靶所處位置框4個頂點[(x1,y1)]、[(x2,y2)]、[(x3,y3)]、[(x4,y4)],期望變換平面中的4個頂點[(x′1,y′1)]、[(x′2,y′2)]、[(x′3,y′3)]、[(x′4,y′4)]。

假設(shè)透視變換矩陣為M,則M可表示為:

[M=a11a12a13a21a22a23a31a32a33] (3)

M計算公式為:

[x′1=a11x1+a21y1+a31a13x1+a23y1+1y′1=a12x1+a22y1+a32a13x1+a23y1+1," "x′2=a11x2+a21y2+a31a13x2+a23y2+1y′2=a12x2+a22y2+a32a13x2+a23y2+1x′3=a11x3+a21y3+a31a13x3+a23y3+1y′3=a12x3+a22y3+a32a13x3+a23y3+1," "x′4=a11x4+a21y4+a31a13x4+a23y4+1y′4=a12x4+a22y4+a32a13x4+a23y4+1] (4)

式中:[a33]為1;其余8個變量為未知變量。

計算透視變換后像素點坐標(biāo):假設(shè)原始圖像像素坐標(biāo)為(u,v,w),變換后對應(yīng)像素點坐標(biāo)為(x,y,z)。透視變換公式為:

[xyz=uvw?M=uvw?a11a12a13a21a22a23a31a32a33] (5)

1.3" 輪廓檢測

經(jīng)過透視變換后的目標(biāo)靶圖像噪點較多,同時檢測實時性要求高,因此本文引入輪廓檢測技術(shù),保證精確提取目標(biāo)輪廓的同時縮短運行時間。輪廓檢測主要步驟如下。

首先,載入目標(biāo)靶圖像并進行高斯濾波與灰度化后,使用THRESH_BINARY方法進行二值化處理:

[dst(x,y)=maxval," "src(x,y)gt;thresh0," " " " " " " otherwise] (6)

式中:[dst(x,y)]為二值化后圖像像素點坐標(biāo);[src(x,y)]為原圖像像素點坐標(biāo);maxval為二值化最大閾值;thresh為二值化最小閾值。

其次,基于上述二值化圖像,使用RETR_CCOMP算法多層次分割二值化圖像,快速檢測其中外部及內(nèi)部空洞輪廓。最終,根據(jù)特定面積條件篩選輪廓,并據(jù)此提取目標(biāo)靶中心最內(nèi)環(huán)輪廓。

[100lt;arealt;6 000100lt;center_xlt;30030lt;center_ylt;360N′=1] (7)

式中:area為封閉輪廓所圍的面積;center_x為目標(biāo)靶心橫坐標(biāo);center_y為目標(biāo)靶心縱坐標(biāo);[N′]為目標(biāo)輪廓個數(shù)。

2" 基于FastestDet的多目標(biāo)靶定位方法

針對無人機運行環(huán)境復(fù)雜導(dǎo)致目標(biāo)靶識別困難、實際環(huán)境中目標(biāo)靶類型多樣、硬件平臺常使用樹莓派等計算資源有限的ARM平臺,以及無人機實時性要求較高的問題,本文提出一種基于FastestDet的多目標(biāo)靶定位方法,該方法的具體實現(xiàn)步驟如下。

1) 采集圖像并利用輕量級目標(biāo)檢測算法(FastestDet)來確定目標(biāo)靶種類,定位目標(biāo)靶所在方位,依據(jù)初步定位方位在原采集圖像中框出目標(biāo)靶。

2) 將原圖像中目標(biāo)靶透視變換成大小為400×400的校正圖像,并截取該校正目標(biāo)靶圖像。

3) 對校正圖像進行高斯濾波、灰度化、二值化等傳統(tǒng)圖像處理,此時二值化處理根據(jù)所識別的目標(biāo)靶種類自適應(yīng)設(shè)置二值化閾值。

4) 對二值化圖像進行輪廓檢測,根據(jù)特定條件提取目標(biāo)靶內(nèi)環(huán)輪廓,進而求解變換后的目標(biāo)靶心坐標(biāo)。

5) 根據(jù)透視變換矩陣對初步求解靶心坐標(biāo)進行逆變換,最終獲取原采集圖像中的目標(biāo)靶靶心坐標(biāo)。

本文方法整體流程如圖3所示。

3" 實驗與結(jié)果分析

3.1" 實驗平臺

目前在靶標(biāo)識別領(lǐng)域并無合適公開數(shù)據(jù)集,因此本實驗通過實地采集構(gòu)建靶標(biāo)數(shù)據(jù)集,包括紅色、綠色、紫色三種靶標(biāo)各80張圖像,共240張圖像。使用軟件Labelimg對該數(shù)據(jù)集打標(biāo)簽,每一張圖像對應(yīng)生成一個標(biāo)簽坐標(biāo)文件。整理上述圖像與對應(yīng)坐標(biāo)文件,構(gòu)成實際實驗中使用的數(shù)據(jù)集。該數(shù)據(jù)集按訓(xùn)練集∶驗證集∶測試集=8∶1∶1進行劃分。

本實驗使用英特爾 i7?8850H CPU 和NVIDIA Quadro P1000 GPU進行模型訓(xùn)練,并使用CUDA11.2對GPU加速。目標(biāo)靶定位硬件平臺為樹莓派4B ARM Cortex?A72 1.5 GHz CPU。模型訓(xùn)練所用軟件平臺為基于Python 3.9的PyTorch框架。軟件平臺主要安裝庫及版本信息如表1所示。

3.2" 模型參數(shù)設(shè)置

本實驗中FastestDet模型參數(shù)設(shè)置如表2所示。

3.3" 評價指標(biāo)

在評價目標(biāo)檢測模型時,評價指標(biāo)為多個類別平均精度均值(mAP)[14]、運行時間與參數(shù)大小。mAP的公式為:

[mAP=1Ni=1NAPi] (8)

式中:N表示分類類別數(shù)量;AP表示某個目標(biāo)類別的平均精度。

在進行靶心坐標(biāo)定位時,評價指標(biāo)為水平定位誤差(Horizontal Position Error, HPE)、垂直定位誤差(Vertical Position Error, VPE)以及綜合定位誤差(Position Error, PE),計算公式如下:

[HPE=xm-xa] (9)

[VPE=ym-ya] (10)

[PE=HPE2+VPE2] (11)

式中:[xm]為測量水平坐標(biāo)值;[xa]為實際水平坐標(biāo)值;[ym]為測量垂直坐標(biāo)值;[ya]為實際垂直坐標(biāo)值。

3.4" 實驗結(jié)果分析

3.4.1" 目標(biāo)檢測算法分析

實驗使用FastestDet模型對訓(xùn)練集進行訓(xùn)練,訓(xùn)練過程的損失曲線如圖4所示。由圖4可知,當(dāng)?shù)螖?shù)達到200時模型開始收斂,收斂速度較快,且收斂誤差較小,表明FastestDet模型效果良好。

為了驗證FastestDet模型的優(yōu)越性,將FastestDet模型與其他相關(guān)目標(biāo)檢測模型進行對比,對比結(jié)果如表3所示。

為了直觀展示不同模型對比效果,并以各評價指標(biāo)的最大值為基值對各值歸一化,繪制如圖5a)所示雷達圖;為了突出FastestDet與YOLO?fastestv1.1與YOLO?fastestv2的對比,單獨繪制如圖5b)所示雷達圖。

由表3與圖5可得,與YOLOv5s與YOLOv6n相比,本文所使用的FastestDet算法雖然mAP存在一定程度降低,但仍保持較高水平,同時其運行時間與參數(shù)大小都有顯著降低。具體而言,與YOLOv5s相比,F(xiàn)astestDet運行時間降低94.2%,參數(shù)大小降低96.7%;與YOLOv6n相比,運行時間降低79.3%,參數(shù)大小降低94.4%,適用于本文無人機所用計算機資源有限的硬件平臺。與YOLO?fastest系列輕量級目標(biāo)檢測算法相比,F(xiàn)astestDet算法運行時間與參數(shù)大小均有所降低,與YOLO?fastestv1.1相比,分別降低15.9%與31.4%,同時mAP提高了7.4%;與YOLO?fastestv2相比,分別降低6.0%和4.0%,同時mAP提高了3.3%。上述對比表明本文所采用的FastestDet算法有效提高了目標(biāo)靶檢測實時性、輕量性以及準(zhǔn)確性,相較其他目標(biāo)檢測算法具有一定優(yōu)越性。

3.4.2" 多目標(biāo)靶定位方法分析

通過目標(biāo)檢測算法獲取目標(biāo)靶方位后,對圖像進行透視變換并截取。以測試集中的3幅不同種類目標(biāo)靶圖像為例,進行透視變換后的圖像如圖6所示。

高斯濾波、灰度化與二值化處理結(jié)果如圖7所示。

對圖像進行輪廓檢測的結(jié)果如圖8所示。

最終,得到透視變換的靶心坐標(biāo)后對其進行逆變換,可獲得原采集圖像中的靶心坐標(biāo),結(jié)果如圖9所示。

為了證明本文所提方法的有效性與優(yōu)越性,嚴(yán)格控制變量,保證目標(biāo)檢測算法FastestDet參數(shù)一致,使用測試集進行實驗,并對比三種不同方法對目標(biāo)靶靶心定位的效果,如表4所示。

為了直觀展示不同方法的對比結(jié)果,繪制直方圖,如圖10所示。

由表4和圖10可得,本文提出的FastestDet結(jié)合輪廓檢測方法與直接使用FastestDet相比,靶心定位誤差顯著降低,水平誤差(HPE)降低93.06%,垂直定位誤差(VPE)降低77.67%,綜合定位誤差(PE)降低92.09%;與FastestDet結(jié)合霍夫圓檢測方法相比,水平誤差(HPE)均保持較低水平,垂直定位誤差(VPE)降低76.33%,綜合定位誤差(PE)降低53.63%。綜上所述,本文提出的多目標(biāo)靶定位方法定位準(zhǔn)確率高,具有一定的優(yōu)越性。

4" 結(jié)" 論

針對無人機目標(biāo)靶定位領(lǐng)域硬件平臺計算資源有限、實時性要求高、準(zhǔn)確率要求高等問題,本文提出一種基于FastestDet的多目標(biāo)靶定位方法,主要結(jié)論如下。

1) 基于輕量級目標(biāo)檢測算法(FastestDet),與其他目標(biāo)檢測算法相比,在保證高準(zhǔn)確率的情況下,網(wǎng)絡(luò)參數(shù)大小和單張圖像處理時間均有所降低,有效解決了硬件平臺計算資源有限的問題,同時保證了多目標(biāo)靶檢測的高實時性。

2) FastestDet結(jié)合輪廓檢測方法定位目標(biāo)靶心的綜合定位誤差與僅使用FastestDet相比降低92.09%,與FastestDet結(jié)合霍夫圓檢測方法相比降低53.63%,有效降低了定位誤差,提升了定位精度。

本文提出的多目標(biāo)靶定位方法實時性較高,且占用計算資源小,有效保證了模型的輕量性,但是其檢測與定位的準(zhǔn)確率仍有待提升。后續(xù)工作將致力于在保證前述優(yōu)點的同時優(yōu)化目標(biāo)檢測模型結(jié)構(gòu)與結(jié)合方法,進一步提升目標(biāo)靶檢測與定位的準(zhǔn)確率。

注:本文通訊作者為易磊。

參考文獻

[1] 彭曉云,索雪松,閆世杰.激波傳感器T型排列的智能檢測報靶系統(tǒng)[J].自動化技術(shù)與應(yīng)用,2023,42(10):10?14.

[2] 徐靖倫.一種基于激波定位的自動報靶系統(tǒng)研制[D].青島:青島科技大學(xué),2022.

[3] 曹冬月.基于彈丸激波的仿人形立體靶標(biāo)自動報靶系統(tǒng)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2021.

[4] 王浩,王勁松,高奔,等.基于近紅外圖像的自動報靶方法研究[J].長春理工大學(xué)學(xué)報(自然科學(xué)版),2023,46(2):55?62.

[5] 王奇,劉廣文,王勁松.一種基于紅外圖像的彈孔識別方法[J].長春理工大學(xué)學(xué)報(自然科學(xué)版),2020,43(6):89?94.

[6] 張泉斌.基于機器視覺的自動報靶系統(tǒng)設(shè)計與關(guān)鍵技術(shù)研究[D].蘭州:蘭州大學(xué),2020.

[7] 林木泉,陳逸凡,林千龍.基于opencv的激光打靶自動報靶系統(tǒng)設(shè)計[J].信息技術(shù)與信息化,2021(10):7?9.

[8] 李釗.基于三維機器視覺的自動報靶系統(tǒng)[D].濟南:山東大學(xué),2023.

[9] 王會月.圖像識別技術(shù)在智能報靶中的應(yīng)用與研究[D].保定:華北電力大學(xué),2020.

[10] 韓恒.基于目標(biāo)檢測的智能報靶系統(tǒng)研究與實現(xiàn)[D].揚州:揚州大學(xué),2023.

[11] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real?time object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2016: 779?788.

[12] MA X. FastestDet: Ultra lightweight anchor?free real?time object detection algorithm [EB/OL]. [2023?07?19]. https://github.com/superbayes/FastestDet.

[13] 山毓俊.基于透視變換標(biāo)定法的證書分揀機器人空間識別與定位系統(tǒng)設(shè)計[J].中國檢驗檢測,2023,31(6):45?47.

[14] GONG L, HUANG X, CHEN J, et al. Multiscale leapfrog structure: an efficient object detector architecture designed for unmanned aerial vehicles [J]. Engineering applications of artificial intelligence, 2024, 127(1): 107270.

猜你喜歡
檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
學(xué)習(xí)方法
小波變換在PCB缺陷檢測中的應(yīng)用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 韩国福利一区| 国产又爽又黄无遮挡免费观看 | 国内精品久久久久鸭| 强奷白丝美女在线观看| 国产高清又黄又嫩的免费视频网站| 国产成人欧美| 欧美成人二区| 2021国产精品自产拍在线| 婷婷综合在线观看丁香| 日韩无码视频播放| 国产精品免费露脸视频| 亚洲美女一级毛片| 色综合a怡红院怡红院首页| 性色在线视频精品| 国产精品男人的天堂| 欧美日韩国产精品综合| 免费aa毛片| 久久无码高潮喷水| 伊人成人在线| 91区国产福利在线观看午夜 | 国产真实乱人视频| 成人av手机在线观看| 亚洲第一网站男人都懂| 亚洲大尺码专区影院| 亚洲第一极品精品无码| 亚洲美女高潮久久久久久久| 九色视频线上播放| 欧美日韩精品一区二区视频| 在线观看国产精品日本不卡网| 伊人精品成人久久综合| 亚洲乱强伦| 六月婷婷激情综合| 久久精品人人做人人综合试看| 久青草国产高清在线视频| 高清大学生毛片一级| 无码中文字幕精品推荐| 2021精品国产自在现线看| 国产成人永久免费视频| 欧美成人区| 国产在线97| 久久香蕉国产线看观看式| 视频一区视频二区日韩专区| 美女被躁出白浆视频播放| 一本久道热中字伊人| 精品无码国产自产野外拍在线| 红杏AV在线无码| 国产成a人片在线播放| 国产精品三级专区| 亚洲av中文无码乱人伦在线r| 日韩无码黄色| 精品精品国产高清A毛片| 四虎永久免费地址| 欧美精品高清| 国产婬乱a一级毛片多女| 一级高清毛片免费a级高清毛片| 动漫精品中文字幕无码| 亚洲综合狠狠| 亚洲Av综合日韩精品久久久| 久久久久亚洲Av片无码观看| 免费xxxxx在线观看网站| 亚洲精品在线影院| 久久国产精品影院| 久久精品国产在热久久2019| 国产导航在线| 欧美成人国产| 中文一级毛片| 看看一级毛片| 午夜高清国产拍精品| 精品国产一区91在线| 国产高清无码第一十页在线观看| 狼友av永久网站免费观看| 亚洲第一视频区| 国产精品成人观看视频国产| 茄子视频毛片免费观看| 伊人久久大香线蕉成人综合网| 久久国产乱子| 久久综合九色综合97网| 青青草原国产免费av观看| 亚洲无码精彩视频在线观看| 99久久精品美女高潮喷水| 国产激情国语对白普通话| 亚洲免费播放|