999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種室內移動機器人自主避讓行人控制方法

2020-09-03 08:38:34于佳圓張凱博
小型微型計算機系統 2020年8期
關鍵詞:深度檢測方法

于佳圓,張 雷,張凱博

(北京建筑大學 電氣與信息工程學院,北京 100044)E-mail:yujiayuan1010@163.com

1 引 言

隨著計算機性能的不斷提高以及深度學習,人工智能等技術的快速蓬勃發展,機器人開始進入家庭,為人類提供各種各樣的服務.為了使機器人能夠在家居環境中與人類自然共居、和諧共處,機器人需要以人類可接受的方式運行和工作,特別是要避免與人類的沖突和碰撞.保證人的絕對安全是服務機器人進入人類生活空間,并能得到廣泛應用的基本前提[1-3].

Christian Vogel等[4]將投影儀放置在機器人工作區域上方,在機器人周圍形成光柵,光柵的某一區域產生變化就認為有人進入該區域,機器人對人進行避讓,保證人機安全,但機器人移動過程中可能會出現其他物體遮擋光柵,導致該方法魯棒性較低.Weiquan Ye等[5]利用安裝在機器人本體上的OptiTrack相機和Kinect相機實現人體捕捉和追蹤,但目前OptiTrack相機造價高昂,機器人成本過高,不利于推廣.Mengmeng Wang等[6]利用單目相機和超聲波傳感器實現實時機器人三維人體跟蹤和避讓系統,但由于單目相機安裝在機器人的前部,其他方向會存在視覺盲區.

總的來說,目前大多數移動機器人僅依賴自身傳感器來實現人體檢測和避讓,但在實際應用中,這會導致機器人存在一部分檢測盲區,為了解決這個問題,通常人們會在檢測盲區加裝傳感器,但這無疑會增加機器人的生產成本.而且在多數情況下,同一空間中會存在多個機器人,在這種情況下,將傳感器安裝在空間中而不是機器人身上可以大大降低總體成本,是更加合理的選擇[7].

針對現存方法存在的諸多不足,本文研究智能空間中,基于全局視覺的機器人自主避讓控制系統,通過全局視覺對人和機器人進行檢測、定位和追蹤.提出基于深度圖像和人體骨骼模型的人體檢測方法和改進KCF算法的人體追蹤方法,以及一種基于顏色標記特征的機器人檢測和定位方法.系統通過設置合適的人機安全距離[8,9],并根據檢測到的人機相對位置和運動軌跡,實時控制機器人的運動,以實現機器人對人的避讓.

2 機器人避讓控制系統

本文提出的機器人自主避讓控制系統結構如圖1所示.該系統主要由視覺檢測系統(包括深度相機Kinect和PC機)、室內全方位移動機器人、服務器和無線網絡構成.

圖1 人機避讓控制系統示意圖

視覺檢測系統通過Kinect相機實時采集環境圖像,對人體和機器人的位置進行實時三維定位和軌跡追蹤.根據人體和機器人的相對位置以及二者的運動狀態,視覺檢測系統得出相應的機器人避讓控制策略,并通過無線網將控制策略數據傳輸給服務器.服務器接收這些數據并利用無線網絡將控制指令實時發送給機器人,同時將數據存儲到數據庫中.機器人收到指令并執行相應的運動,從而實現對人的避讓.

3 人體檢測與定位

人體檢測對于圖像和視頻的語義理解,視頻監控,輔助駕駛系統等有重要的研究意義和應用價值.近年來,圖像和視頻中的人體檢測是計算機視覺和機器學習領域的熱門研究話題.目前對于圖像和視頻中的人體檢測,主要有三種方法[10]:基于DPM算法的方法主要通過對人體輪廓進行建模,根據輪廓特征對人體進行檢測;基于統計學習的方法通過提取特征訓練分類器模型,特征主要有 Hear特征[11]、HOG特征[12,13]等;基于深度學習的方法通過訓練深度神經網絡(如CNN)實現人體檢測.

由于人機共居環境的復雜性和多變性,目前還沒有一種可普遍適用的成熟算法能夠完全解決這種環境下的人體檢測和定位問題.上述方法都是基于2D的圖像和視頻進行人體檢測,不能對人體位置進行三維空間中的定位.近幾年,飛行時間相機(Time-of-Flight cameras)和其他深度傳感器的出現為推動該領域的發展創造了新的機遇[14,15].本文使用的深度相機為Microsoft Kinect v2,Kinect SDK中包含了一種使用大量標記數據訓練的骨骼估計模型,可以進行實時骨骼追蹤.因此,本文提出一種基于全局視覺的方法實現人體檢測和定位,

為了提高系統的實時性,減少圖像處理過程中的計算量,首先對深度圖像進行預處理,深度圖像中的每個像素都包含自身的深度信息,將深度小于一定的閾值的像素視為感興趣區域(ROI),即可能存在人體的區域,將這些像素提取出來.然后采用關節點模型與得到的可能包含人體的區域進行匹配,獲取圖像中人體各個關節點的位置.具體過程如下:

首先,提取包含人體對象的深度數據幀,對于深度圖像中的指定像素x,計算它的特征:

(1)

得到人體關節點的位置信息后,需要通過坐標變換將其映射到彩色圖像中,為了確定深度相機和彩色相機之間的關系,將深度相機的相機中心設置為原點.

CDepth=KDepth[RDepth|tDepth]=KDepth[I|0]

(2)

其中I是單位矩陣,0是空向量,KDepth是深度相機的校準矩陣,彩色相機的校準矩陣為KRGB,彩色相機相對于深度相機產生的旋轉為RRGB,產生的變換為tRGB.

CRGB=KRGB[RRGB|tRGB]

(3)

深度圖像中坐標為xh的點x,可以通過原點投影為世界坐標系中的一條直線L.

(4)

通過深度圖像中點x的ix值,可以得到該點在直線上的相應位置.

(5)

然后,就可以將世界坐標系中坐標為Xh的點X,投影到彩色攝像機上.

xRGB=CRGBXh

(6)

通過上述坐標變換,可以得到深度圖中檢測出的人體在彩色圖中的對應位置.如圖2所示,圖2(a)為原始彩色圖像,圖2(b)為原始深度圖像,圖2(c)為將關節點映射到彩色圖像中的結果,圖2(d)為最終的人體檢測結果.

圖2 人體檢測結果

已知人體關節點的位置和深度信息,就可以得到人體在三維空間內的位置.由于人體在運動過程中,其脊柱中心點的位置變化幅度較小,所以以脊柱中心點為人體代表點,把該點在環境中的位置記為人體在環境中的位置.

4 人體目標追蹤

通過上述方法檢測和定位到人體目標后,接下來需要對不斷運動的人體目標進行實時追蹤.傳統的目標追蹤方法,如光流法、meanshift算法、粒子濾波算法等已經比較成熟,在很多領域都獲得了廣泛的應用.但由于人機共居環境比較復雜,環境中的人體運動狀態是隨機的,并且很難預測,上述方法的追蹤效果將會受到很大影響.近年來,深度學習在計算機視覺領域的成功,使得用于視覺跟蹤的深層架構成為一種趨勢.但是,這些基于深度學習的跟蹤器具有相同的缺陷,即實時性能差且具有高復雜性[16,17],不適用于本文的應用場景.

KCF 核相關濾波算法是由Henriques等人在2014年所提出[18],是對2012年提出的CSK核循環結構檢測跟蹤算法[19]的改進,使用多通道的梯度方向直方圖(HOG)特征代替原來的單通道灰度特征,并利用核嶺回歸,使得計算復雜度大大降低,大幅提升了相關濾波跟蹤的準確度.KCF算法相比于傳統目標跟蹤算法,擁有更高的準確性,相比于深度學習方法,擁有更高的實時性,本文基于KCF算法對運動人體目標進行實時追蹤.

4.1 KCF算法原理

典型的相關濾波過程如圖3所示,首先,在輸入視頻第t幀中的目標位置Pt周圍進行采樣和特征提取,訓練一個可以計算響應的分類器.然后,在第t+1幀,在前一幀的目標位置Pt周圍進行采樣,用訓練好的分類器計算每個樣本的響應.最后,將響應最大的樣本位置作為當前幀(第t+1幀)的目標位置Pt+1.

圖3 相關濾波原理

1)核相關濾波

通常,相關濾波器w的目的是找到一個函數f(z)=wTz,使得在相同大小的高斯函數標簽y上的具有M×N個像素點的圖像塊z上采樣樣本的平方誤差最小,即:

(7)

其中,i∈{0,1,…,M-1}×{0,1,…,N-1},λ是一個非負正則化參數.由于訓練不僅需要正例,還需要負例,因此相關濾波器通常采用循環移位的方法來近似采樣窗口的位移.

使用核方法,可以將非線性回歸轉換為線性回歸,目標函數可以寫成w=∑iαiφ(xi),這樣所需優化的變量就從w變成了α.將目標函數替換為核函數,得到了新的訓練函數.

(8)

其中,k(z,xi)表示訓練樣本xi與測試樣本z之間的核函數,文獻[20]給出了嶺回歸的核化版本的解決方案:α=(K+λI)-1y,由于矩陣K和矩陣I都是循環矩陣,得益于循環矩陣的特性,可以通過離散傅里葉變換(DFT)將其對角化.

(9)

其中,F和F-1分別表示離散傅里葉變換以及它的逆變換.

在視頻的第一幀中對分類器進行訓練之后,通過計算如下的響應,在下一幀中對相同大小的圖像塊z進行位置估計.

f(z)=F-1(F(a)⊙F(k(z,x)))

(10)

其中,⊙表示元素乘積,選擇使得f(z)獲得最大值的位置作為當前幀的目標位置.

2)循環矩陣

為了提取更多的訓練樣本,克服傳統隨機采樣存在的采樣重復等缺點,KCF算法使用循環矩陣對圖像進行密集采樣,循環矩陣C(x)如式(11)所示:

(11)

可以看出,循環矩陣中的每一行元素都是由上一行元素向右平移一位得到,這樣可以保證每個循環矩陣都可以對角化,且進過傅里葉變換后都是對角矩陣,矩陣C(x)的傅里葉變化矩陣F為:

(12)

可以看出F是一個對稱酉矩陣,則循環矩陣C(x)可對角化表示為:

(13)

對比傳統的隨機采樣,利用循環矩陣進行密集采樣可以提取更多的訓練樣本,能夠提取目標的全部信息,這對目標跟蹤過程的實現是至關重要的.

3)目標檢測與分類器更新

在KCF目標追蹤的過程中,首先讀取視頻的第一幀圖像,圖像中包含所需追蹤的目標位置,用密集采樣的方法提取目標以及背景的HOG特征,將其作為初始樣本對分類器進行初始化.然后讀取下一幀圖像,從上一幀圖像中的目標位置提取圖像塊,單個候選圖像塊z應的分類器響應為:

(14)

其中,ai為分類器在第i幀的參數,xi為第i幀的目標模板,將候選圖像塊z與上一幀更新的目標模板xi-1進行循環移位,生成循環矩陣,得到:

Kz=C(kxi-1z)

(15)

其中,kxi-1z為候選圖像塊z與目標模板xi-1的核相關,得到z循環移位后的輸出為:

f(z)=(Kz)Ta

(16)

找到使式(16)取得最大響應值的位置,即得到當前幀的目標位置x′.

y=F-1(F(kxi-1z)F(a))

(17)

最后,將檢測到當前幀的目標位置做循環移位,對分類器和目標模板進行更新:

xi=(1-β)xi-1+x′ai=(1-β)ai-1+ax′

(18)

其中β是更新系數,xi-1為上一幀的目標模板,ai-1為上一幀的分類器的系數.通過對分類器系數和目標模板的不斷更新,實現視頻序列的實時目標追蹤.

4.2 KCF算法的改進

KCF算法的一個明顯優勢是在保證追蹤精度和準確性的同時,能達到很快的追蹤速度,但當運動目標被完全遮擋時,會導致追蹤目標丟失,無法繼續追蹤.為了彌補KCF算法在目標被遮擋情況下會導致追蹤失敗的不足,本文將檢測模塊加入到目標追蹤的過程中,當追蹤目標丟失時,啟動檢測模塊,以保證及時重新找到目標并繼續追蹤,流程如圖4所示.

圖4 改進KCF算法流程圖

檢測模塊濾波器Rd的訓練模板選擇,對于目標丟失時重新檢測的成功與否至關重要,如果僅用初始幀來訓練濾波器,在追蹤過程中,隨著目標的外觀不斷發生改變,濾波器的性能將不斷降低.因此,本文設計一個能量函數對每一幀進行評估,當目標出現遮擋時,能量函數的值會減小.而當目標外觀出現改變時,能量函數的值會增大.將能量函數與相關響應綜合考慮,來評判每一幀的質量.在追蹤過程中,我們可以將目標被遮擋的幀忽略掉,不更新追蹤模塊的濾波器Rt,避免由于遮擋導致的漂移.同時,不斷用質量更高的幀對檢測模塊的濾波器Rd進行持續更新,提高檢測模塊的魯棒性.

具體過程如下,對于給定的一幀圖像,跟蹤濾波器Rt和檢測濾波器Rt的相關響應最大值分別為:

βt=max(ft(z))

(19)

βd=max(fd(z))

(20)

設定閾值Tγ,如果追蹤模塊和檢測模塊的濾波器相關響應均大于該閾值,即βt>Tγ&&βd>Tγ,那么我們認為該幀圖像質量達到要求,用公式(18)更新檢測濾波器Rd,通過對幀的能量評估更新追蹤濾波器,能量函數定義為:

E=2R+G

(21)

其中R表示檢測濾波器Rd的相關響應,G表示R的梯度.應用該能量函數,可以使得追蹤目標有遮擋的幀得到低能量值,如果當前幀的能量值E大于設定閾值Tη,即E>Tη,用公式(18)更新追蹤濾波器.

通過上述方法的改進,追蹤濾波器更新時會忽略掉大部分存在目標遮擋的幀.但當出現目標運動過快等情況時,還是會導致追蹤失敗,此時就需要啟動檢測模塊.在追蹤過程中,當檢測濾波器的相關響應值βd小于設定閾值Ts時,我們認為此時發生跟蹤丟失,立即啟動檢測模塊.由于連續兩幀中,目標的位置以及外觀形態不會出現非常大的變化,因此,為了節約計算成本,不在整張圖片上對目標進行重新檢測,而是使用追蹤丟失前一幀的分類器,對目標位置周圍的8個圖像塊進行滑動窗口搜索,直到重新檢測到目標.

5 機器人檢測及其避讓控制策略

5.1 機器人檢測與定位

與人體檢測過程中人體運動不確定性強的特征不同,一般情況下,人機共居環境中機器人的運動狀態是經過人為設定的,是可控的,而且機器人的數量是一定的,因此機器人在圖像中的狀態相對穩定.本文同樣采用基于全局視覺的方法對機器人進行檢測和定位.由于基于顏色特征的檢測方法對于目標位置變化的影響有較強的適應性,且對形變、噪聲等影響具有很好的魯棒性.因此,本文采用基于目標顏色特征的方法對機器人進行檢測和定位.

首先,利用全局相機Kinect采集的RGB圖像進行機器人檢測.RGB顏色空間由紅(Red)、綠(Green)、藍(Blue)三原色組成,具有簡單直觀、處理方便等優點,目前被廣泛應用于圖像處理領域.但是RGB顏色空間很容易受到光照的影響,導致圖像顏色失真,檢測失敗.由于人機共居的光照是不斷變化的,在RGB空間中無法對顏色特征進行準確檢測,因此有必要進行顏色空間的轉換.

將RGB顏色空間轉換到HSV顏色空間進行處理,因為HSV顏色空間對于光照變化和陰影的影響具有很好的魯棒性,適用于基于顏色進行目標檢測的任務,

接下來,設置合適的顏色閾值,對圖像進行顏色分割.保留圖像中符合顏色閾值的像素點,并將所有不符合的像素點都去除,得到包含顏色標記的位置信息的二值圖像,如圖5所示.圖5(a)為原始圖像,圖5(b)為經過顏色分割后得到的二值圖像,對二值圖像進行形態學變換,消除干擾像素點,只保留目標區域,最終結果如圖5(c)所示.

圖5 顏色分割結果

檢測到機器人在彩色圖像中的位置后,需要得到深度信息,從而實現機器人的定位.對經過顏色分割后的二值圖像進行邊緣檢測,邊緣檢測的核心是采用編碼的方式確定圖像中存在的邊界.找到邊界后,繪制矩形框來表示檢測到的機器人,將矩形框中心的像素坐標記為(xrec,yrec).利用Kinect彩色圖像坐標和深度圖像坐標的轉換方法,將該像素坐標轉換到深度空間中,得到對應深度圖像上的深度信息,從而得到機器人在空間中的三維坐標(x,y,z).

5.2 機器人自主避讓控制策略

得到人和機器人在環境中的實時位置后,接下來要判斷機器人此時是否應該對人進行避讓,如何避讓.如圖6所示,視覺檢測系統檢測到人體和機器人(圖6(a)),并得到了位置信息,圖6(b)為空間內人和機器人的位置圖,人機距離可由兩點之間的距離公式計算得到.

圖6 視覺系統的檢測和定位結果

設定符合人類心理需求的,合適的人機安全距離,對于保證人機共居環境中人的安全性和舒適度是非常必要的[20].在工業生產中,為了防止正在運行的設備、表面尖銳的生產工具等危險物品對人體健康及生命安全造成傷害,規定兩者之間必須保持一定的安全距離.而在人機共居環境中,人機安全距離的設定更應該考慮人的心理需求.本文根據機器人與人的位置、距離、各自的運動狀態來設定當前的安全距離,當二者間距離小于安全距離時,向機器人發送相應的避讓指令,實現實時準確的避讓控制.

6 實驗與結果分析

為了驗證本文設計的機器人自主避讓控制系統,通過實驗對其中采用的方法和整個系統的有效性,實時性和準確性進行驗證.

6.1 人體檢測和追蹤實驗

由于人機共居環境中,人體的運動具有隨機性,不同時刻的人體正面平面與攝像頭平面之間的角度是不同的,如正面,背面,側面等不斷變化,這會給人體檢測和定位造成很大影響.為了驗證本文提出的人體檢測和定位方法的有效性,在實驗室環境中,設計如下實驗:空間中的人體按照“口”字型軌跡持續運動,這樣全局攝像頭就可以捕捉到人體的不同側面.實驗結果如圖7所示,上面的四張圖片為人體檢測結果,下面對應的四張圖片為對應的位置軌跡.可以看出,無論人體與攝像頭的角度如何變化,檢測系統都能對人體進行準確檢測和定位,驗證了人體檢測和定位方法的有效性.

圖7 人體檢測和定位實驗結果

在同一場景下,將本文提出的人體檢測方法與基于HOG特征的方法、高斯背景建模法、以及基于Haar-like特征方法這三種人體檢測方法進行檢測時間的對比,記錄每種方法處理每一幀圖像所需的時間.實驗結果如圖8所示,從左到右依次為高斯背景建模法、基于Haar-like特征方法、基于HOG特征的方法以及本文提出的方法進行人體檢測時,單幀所消耗的時間.

圖8 檢測方法對比實驗結果

由實驗結果可以看出,本文提出的人體檢測方法每幀消耗的時間均少于其他幾種算法,這是由于基于Kinect深度圖像的人體骨骼提取實時性較高,且在人體運動緩慢或靜止狀態也能快速檢測.

為了驗證本文提出的人體追蹤方法的實時性和準確性,在實驗室環境中,設計如下實驗:環境中有兩個人體目標,一人靜止不動,另一個人在后方不斷走動,實驗對后面的人進行實時追蹤,視覺系統的追蹤實驗結果如圖9所示,為了便于觀察實驗結果,整個過程將前面的人用矩形框框選出來.可以看到,在圖9(a)中,前面的人對后面的人有部分遮擋,依然可以成功追蹤.在圖9(b)中,前面的人完全遮擋住后面的人,追蹤目標丟失.在圖9(c)中,后面的人重新出現,追蹤方法及時找到丟失的追蹤目標,并繼續追蹤,證明了追蹤方法的有效性.

圖9 人體追蹤實驗結果

將本文提出的人體追蹤方法與Camshift算法、MIL算法以及CSRT算法進行實時性和準確性對比,實驗結果如圖10所示,其中從左到右依次為Camshift算法、本文算法、MIL算法以及CSRT算法進行人體追蹤時,單幀消耗的時間.

圖10 追蹤算法消耗時間對比

追蹤算法的成功率對比如表1所示,由實驗結果可以看出,本文提出的改進KCF算法以及Camshift算法在目標追蹤過程中消耗的時間較少,且改進KCF的方法在保證高實時性的同時,可以實現最高的追蹤成功率.這是由于傳統的KCF算法實時性很高,改進的方法僅在目標出現遮擋時啟動檢測模塊,可以在追蹤目標被遮擋的情況下快速進行重新檢測,找到丟失目標,同時保證整個系統的高實時性.

表1 追蹤算法準確度對比

6.2 機器人檢測和追蹤實驗

在實驗室環境中,控制移動機器人按照“口”字型軌跡運動,視覺系統對機器人進行實時檢測和定位.實驗結果如圖11所示,上面的四張圖為機器人的檢測結果,下面四張圖為相應的位置軌跡.可以看出,無論機器人對相機的朝向如何變化,視覺系統都能實時準確檢測和定位,驗證了本文提出的機器人檢測與定位方法的有效性.

圖11 機器人檢測和定位實驗結果

6.3 機器人避讓控制實驗

為了測試整個避讓控制系統的性能,設計如下實驗:機器人和人同時在室內環境中,設置人機安全距離為0.5米,在不同光照條件:白天的自然光照和夜晚的燈光照明,人體朝向全局相機的不同角度:正面朝向、左側面朝向、右側面朝向和背面朝向這八種情況下進行機器人避讓控制實驗.

圖12所示為夜晚燈光照明條件下,人體右側朝向全局相機的實驗場景以及人機距離的變化.可以看到,當人機距離小于一定值時,機器人開始運動,人機距離增大.這是因為系統檢測到人機距離小于安全距離,向機器人發出向右避讓的指令,機器人收到指令后向右移動.

圖12 機器人避讓實驗

每種情況下進行十次實驗,記錄機器人避讓的平均反應時間,即檢測人機距離為0.5米的時刻與機器人執行避讓指令的時間差,實驗結果如表2所示.

表2 機器人避讓控制實驗結果

由實驗結果可以看出,無論光照以及人體對于全局相機的朝向如何變化,機器人均能在檢測到人機距離達到設定值后的300ms內,執行避讓指令,實現對人的避讓.實驗結果驗證了整個機器人避讓控制系統的實時性和有效性.

7 結 語

本文構建了一套完整的基于全局視覺的機器人避讓控制系統,提出高實時性高準確性的人體檢測與定位方法和改進KCF的人體追蹤方法,以及一種基于顏色特征的室內全方位移動機器人檢測和定位方法,實現了人機共居環境中,機器人對人的自主避讓控制.經過一系列的實驗,驗證了整個系統的準確性和實時性.

猜你喜歡
深度檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 国产三级a| 国产精品30p| 久久一色本道亚洲| 在线欧美一区| 亚洲热线99精品视频| 青青青草国产| 国产粉嫩粉嫩的18在线播放91| 国产欧美日韩综合一区在线播放| 成人午夜精品一级毛片| 色综合久久无码网| 在线观看欧美精品二区| 国产人人射| 四虎成人精品在永久免费| 中国一级毛片免费观看| 日本一区高清| 免费一级无码在线网站| 国产人在线成免费视频| 亚洲综合久久成人AV| 玩两个丰满老熟女久久网| 国产av一码二码三码无码| 国产成人三级| 人妻中文久热无码丝袜| 国产麻豆福利av在线播放 | 欧美日韩免费观看| 黄片一区二区三区| 亚洲中文无码h在线观看| 97亚洲色综久久精品| 日本91视频| 女人18毛片一级毛片在线 | JIZZ亚洲国产| 成人小视频在线观看免费| 99激情网| 日韩欧美国产另类| 欧美在线三级| 国产精品漂亮美女在线观看| 91久久性奴调教国产免费| 国产亚洲视频免费播放| 国产人人射| 成人免费午间影院在线观看| 在线免费a视频| 国产精品免费p区| 欧洲欧美人成免费全部视频| 国产成人精品免费视频大全五级| 欧美精品啪啪一区二区三区| 亚洲精品爱草草视频在线| 国产精品无码AⅤ在线观看播放| 久无码久无码av无码| 精品国产香蕉在线播出| 黄色免费在线网址| 992tv国产人成在线观看| 亚洲欧州色色免费AV| 九九热这里只有国产精品| 国产亚洲美日韩AV中文字幕无码成人 | 麻豆精品视频在线原创| 91精品啪在线观看国产| 亚洲视频三级| 国产精品露脸视频| 亚洲精品第五页| 99福利视频导航| 国产又爽又黄无遮挡免费观看| 亚洲成人在线免费| 毛片一区二区在线看| 一区二区三区国产精品视频| 日韩欧美中文在线| 成年av福利永久免费观看| 亚洲天堂视频在线播放| 日韩天堂网| 丁香综合在线| 青青草原国产av福利网站| 熟妇丰满人妻| 久久久久久尹人网香蕉| 在线观看精品自拍视频| 亚洲品质国产精品无码| 亚洲中文字幕在线观看| 一级片一区| 国产成人av一区二区三区| 91黄色在线观看| 久久久亚洲色| 又大又硬又爽免费视频| 爱色欧美亚洲综合图区| 久久精品国产精品青草app| 午夜视频免费一区二区在线看|