999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

免錨檢測的行人多目標跟蹤算法

2022-05-19 13:28:26單兆晨黃丹丹耿振野
計算機工程與應用 2022年10期
關鍵詞:特征檢測模型

單兆晨,黃丹丹,耿振野,劉 智,2

1.長春理工大學 電子信息工程學院,長春 130022 2.空間光電技術國家地方聯合工程研究中心,長春 130022

多目標跟蹤(multiple object tracking,MOT)是計算機視覺領域的重要研究課題之一。根據圖像幀處理模式的不同,多目標跟蹤分為在線和離線跟蹤兩種方式,其中在線跟蹤方法具有更好的實時性和應用價值,成為目前研究的主要方向[1-2]。然而,由于在線跟蹤無法參考后續圖像幀信息來獲得當前幀跟蹤的最優解,跟蹤目標被遮擋后重新識別會出現嚴重的目標丟失以及軌跡跟蹤異常問題,導致跟蹤準確性出現瓶頸。如何提升跟蹤算法的抗遮擋能力同時兼顧在線跟蹤的實時性,成為當前多目標跟蹤研究的難題。

近年來,諸多學者在多目標跟蹤問題上采用的是基于檢測(tracking-by-detection)的策略。Bewley等[3]提出了一種簡單且實時的多目標跟蹤(simple online and realtime tracking,SORT)算法,引入線性速度模型對目標進行軌跡預測,度量檢測框和跟蹤框的交并比(intersectionover-union,IOU)距離,最后通過匈牙利算法完成數據關聯,算法對多目標的跟蹤速度較快,但是相似性度量方法單一,跟蹤結果中目標ID的變換次數多,跟蹤準確性差。Wojke等[4]針對SORT存在的缺陷提出了DeepSort算法,引入離線訓練的行人重識別(person re-identification,ReID)模型[5]來提取深度表觀特征,跟蹤魯棒性顯著提升,但串聯兩個深度學習模型使得計算量急劇增加,算法的實時性較差。

當前一階段和兩階段的檢測器均采用基于錨框的方法,從預設錨點框回歸目標檢測框,在檢測時針對遮擋目標會出現錨框鋪設重疊的問題[6-7]。此外,當對象移速較快時,將ReID特征直接嵌入基于錨框的檢測方法會產生錨框偏移,使得表觀特征提取產生較大偏差,從而導致跟蹤失敗。

為了提升跟蹤性能并解決錨框檢測不適合ReID特征提取的問題,本文的主要工作有三方面:(1)設計免錨目標檢測模型,并在模型中嵌入ReID表觀特征輸出,構建了特征共享的一段式網絡,解決了使用深度表觀特征需要額外串聯網絡從而導致實時性差的問題。(2)針對行人密集跟蹤場景中因遮擋導致身份頻繁切換的問題,提出通過加權多特征融合的方法構造相似性度量矩陣用于檢測與跟蹤的數據關聯,采用更全面的度量函數提升算法跟蹤魯棒性。(3)提出軌跡狀態更新算法,確保跟蹤穩定的軌跡優先更新的前提下,同時提升存活期內消失軌跡的關聯準確性。

1 跟蹤算法整體框架

本文的多目標跟蹤算法采用在線跟蹤的圖像幀處理方式,按照功能劃分可將算法視為兩階段的結構。其一是負責目標檢測定位以及對象ReID表觀特征提取的檢測模塊,網絡并行輸出目標定位信息和對應的表觀特征。定位的同時將行人目標進行編號,用以區分跟蹤目標和辨識新出現對象。其二是負責目標軌跡預測與數據關聯的模塊,首先利用卡爾曼濾波建立線性運動模型預測目標軌跡,然后加權融合HSV顏色直方圖、深度表觀特征和運動特征建立代價函數用于度量檢測與軌跡的相似性,最后在數據關聯階段對軌跡狀態做迭代更新。具體框架如圖1所示。

圖1 算法框架結構Fig.1 Algorithm framework structure

2 免錨框模型

2.1 免錨網絡架構設計

基于免錨的檢測模型專注于物體關鍵點的出現位置,本文采用的是預測目標中心點的方法,通過回歸原圖像中心點在熱力圖上的高斯核映射來檢測和定位行人目標。基于熱力圖形式提取目標中心點的方法需要網絡輸出的特征圖具有較大空間分辨率,目的是為了映射時中心點不會出現較大尺度偏移,同時保證在特征圖上進行逐像素的預測。通過對比分析,本文改進Stacked Hourglass Networks[8-10]中基于全卷積的架構搭建主干網絡進行特征提取。改進的網絡中利用多層特征聚合的方式融合淺層和深層特征。相較于特征金字塔網絡(feature pyramid networks,FPN)增加了語義特征聚合能力。FPN中僅在分辨率和尺度方向進行特征融合,只能夠聚合空間信息。本文網絡統一了語義和空間的信息融合,模型能更好地捕獲目標內容和位置。如圖2所示,橙色方框內部采用密集樹連接的方式在通道方向實現淺層和深層特征融合,以學習跨越更多特征層的豐富組合,此結構能提高模型的語義特征聚合能力。紅色箭頭代表鄰近尺度特征層的連接,從淺到深逐步加強空間聚合上的表現。

圖2 免錨檢測模型整體結構Fig.2 Whole structure of anchor-free detection model

網絡輸入采用512×512分辨率圖像。設I∈R512×512×3為輸入圖像,其中R代表網絡下采樣尺度,為了輸出高分辨率的特征圖設置R為4。圖像經卷積和殘差網絡下采樣預處理后輸入主干網絡。主干網絡結構的實現是一個遞歸調用的過程,當R>1時遞歸調用本身,遞歸結構如圖3所示。

圖3 主干網絡結構Fig.3 Backbone network structure

2.2 模型輸出及損失函數設計

模型輸出端有兩個分支,如圖4所示。檢測端輸出三個預測頭,分別為中心點熱力圖(heatmap)、中心點偏移(center offset)和檢測框寬高(box size),ReID端輸出一個預測頭,即對象的深度表觀特征。

圖4 模型輸出端Fig.4 Model output terminal

2.2.1 Heatmap分支

預測中心點的熱力圖,即Y∈[0,1]128×128×C,C代表中心點類型數目,根據不同數據集類型適當調整。將標簽轉化為熱力圖形式以便計算損失,設中心點標注為P=(x1,x2),經下采樣計算得低分辨率坐標P d=(x1/4,x2/4),通過高斯核函數(1)將標注的中心點分散至熱力圖Y∈[0,1]128×128×C上:

式中,σ是目標尺度自適應標準差。如果產生相同類別高斯分布重合的情況,則選取重疊分布最大值。

本文網絡結構類似于一階段的檢測方法,存在正負樣本和難易樣本比例失衡的問題。因此在交叉熵損失函數基礎上進行改進,增加參數用于平衡失衡樣本,通過降低大量簡單負樣本在訓練中所占權重,增強困難樣本挖掘能力。損失函數定義為像素級邏輯回歸焦點損失形式:

式中,參數β用于減少負樣本權重占比,參數α用于控制易分類樣本權重,N為圖像中心點個數,是熱圖估計。

2.2.2 Center offset和Box size分支

為提高中心點定位精度,訓練引入center offset,即對于目標檢測框寬高的回歸則引入box size,即損失函數采用L1損失:

式中,C、B分別為中心點坐標與框寬高的真實值為對應的網絡預測值。

2.2.3 ReID分支

ReID端是為了提取出可以區分類內對象不同身份的表觀特征。通過在主干網絡尾部應用卷積提取128維的表觀特征圖R?e∈R128×128×128,則對象在點(x,y)處對應的特征向量為R?e∈R128。由于是基于預測中心點提取出的表觀特征,相比于基于錨框檢測提取表觀特征的JDE[11]方法,一是降低了目標被多個錨框覆蓋所導致的網絡模糊性,二是減小了錨框與目標中心沒有重合而導致的特征提取偏差。本文將其視為分類任務,在訓練集中具有相同身份的目標看作同一類別,定義其損失函數為:

式中,L(k)為第k個目標身份的期望概率分布,p(k)為第k個目標身份的實際概率分布。

3 軌跡跟蹤預測

對于當前幀中由免錨檢測器輸出的所有目標,需要估計下一幀的運動狀態。多數情況下,行人的運動軌跡在2D視頻圖像中呈現線性狀態,非線性程度較低,因此可以采用恒速模型對目標運動建模,無需進行非線性擴展。

本文基于卡爾曼濾波算法融合數學模型預測框和檢測框找到最優估計,完成對檢測目標的預測與更新。目標的狀態變量矩陣定義為x=(x,y,w,h,v x,v y,v w,v h),其中x、y代表目標中心點坐標,v x、v y是與之相對應的在圖像坐標系上運動速度分量,w、h代表目標檢測框的寬度和高度,用vw、v h表示在圖像中相應的變化率。設t時刻為目標的卡爾曼濾波初始狀態,需要將其各個速度分量均初始化為0,即t時刻由檢測模型定位出的目標a的狀態變量為x(a)t=(xt,y t,wt,h t,0,0,0,0),t+1時刻的觀測值表示為z(a)t+1=(xt+1,yt+1,wt+1,ht+1),則該目標的先驗狀態估計與觀測方程可用如下兩個公式表示:

式(5)為目標運動狀態預測方程,式中F為狀態轉移矩陣,表示如何從t時刻狀態x t推測出t+1時刻狀態x t+1,v是系統過程噪聲;式(6)中H為觀測矩陣,z為觀測值,w為觀測噪聲,u、w是獨立噪聲序列,服從正態分布。

在后驗估計中需對狀態進行更新,式(7)為預測不確定性傳遞方程:

最后更新誤差協方差矩陣P用于下一次迭代。

4 關聯特征度量與設計

多目標跟蹤要保證檢測對象與跟蹤對象完成最佳匹配,需針對目標進行完整的特征描述。多目標跟蹤場景下因目標受遮擋導致跟蹤間斷,進而產生目標身份切換率高的問題,鑒于單一的運動特征度量無法應對遮擋后重識別任務,有必要在此基礎上融合其他相關特征用于關聯度量。HSV顏色特征作為行人目標最直觀的外觀描述,具有穩定性好,對目標尺度、方向不敏感等特點,因此本文對目標提取256維的HSV顏色直方圖特征用于表示色彩信息。對于一些相似目標很難用顏色度量差異性,考慮到經訓練的ReID模型可以對目標的表觀抽取出具有區分度的深度信息,相似目標能夠在深度語義特征層面表現出差異,且特征受環境光影響較小,具有較高的魯棒性,因此本文在檢測模型中并行加入ReID分支,輸出檢測目標的128維特征向量用于表示深度表觀信息。

綜上分析,本文充分考慮目標的運動信息、色彩信息和ReID深度表觀信息,融合多種特征用于檢測與跟蹤軌跡的相似度估計。

4.1 HSV顏色特征度量

HSV對應色調(H)、飽和度(S)、亮度(V),是根據圖像顏色的直觀特征所構建的一種顏色空間,相較于RGB顏色描述,更能反映目標的真實顏色信息。本文利用HSV顏色特征直方圖來描述檢測與跟蹤軌跡的色彩信息。顏色特征用fcolor描述,代表的是256維的直方圖特征向量,采用卡方距離度量顏色相似性:

式中,fcolor(i)、fcolor(j)分別代表目標i和軌跡j的顏色特征。

4.2 表觀特征度量

ReID應用源自于跨攝像頭跟蹤領域,目的在于確認不同位置的攝像頭在不同時刻拍攝到的目標是否為同一人。具體可描述為存在給定身份的目標圖像序列Q={Q1,Q2,…,Qn},根據ReID模型提取的表觀特征,度量在不同攝像頭場景下檢索出的圖像幀G={G1,G2,…,G n}與Q的相似性,進行目標的重識別確認。

針對跟蹤軌跡的每個特征,計算它們與當前幀N個檢測對象表觀特征之間的余弦距離,再取最小值作為該軌跡與檢測結果之間的計算值,得出余弦代價矩陣:

4.3 加權多特征融合

對于M個跟蹤軌跡與N個檢測結果,多特征融合的相似性度量具體實現過程為:

首先基于表觀特征計算出余弦代價矩陣costcos(M×N),進行運動信息約束,即位置度量,采用馬氏距離評估卡爾曼濾波預測狀態和檢測狀態的匹配程度:

再將余弦代價矩陣中不滿足卡方距離、馬氏距離以及余弦距離閾值條件的設置為無窮大,用于增大差異性;最后得出融合HSV、表觀和運動特征的代價矩陣costmerge(M×N),采用KM二分圖匹配算法進行軌跡與檢測數據關聯。

由于行人多目標跟蹤應用場景復雜且目標各異,為了增強算法的多場景適應能力,多特征融合需根據具體場景分析特征重要性再做具體適配。因此本文采用加權距離代價函數評估特征相似性:

式中,λ為超參數,用于調整相應度量距離的權重配比(λ1+λ2+λ3=1),針對不同多目標跟蹤場景做適當調整。

具體的加權思路為:針對公共區域監控場景,行人較多且人群中個體作為同類對象軌跡會交錯穿插,遮擋又重現,增加度量矩陣中表觀特征以及顏色特征的權重有利于分化目標,顯著降低目標身份丟失概率;而對于自動駕駛以及無人機等相機存在多維度運動的場景,目標的運動軌跡不確定性較高,會造成觀測目標馬氏距離無法匹配的情況,此時需要降低運動特征度量權重,以免因相對運動造成相似度估計誤差。

經多次實驗對比分析,得出幾種常見跟蹤場景中最優權重配比如表1所示。

表1 特征權重最優配比Table 1 Optimal proportion of feature weights

5 跟蹤狀態更新

經KM二分圖匹配算法計算后,軌跡會產生兩種狀態:未確認狀態和確認狀態。其中確認狀態包括未匹配軌跡和匹配軌跡。對于檢測只有兩種狀態:已匹配的檢測和未匹配的檢測。其中未匹配的檢測目標會被初始化為未確認狀態軌跡。

為了降低匹配偶然性,防止與檢測器誤檢關聯,本文設定匹配門限值Hi ts=2幀(幀數過大會影響實時性),即經過KM算法完成連續兩幀匹配才允許轉化為確認軌跡。

由于目標被遮擋或檢測器漏檢等原因,處于確認狀態的軌跡會出現未匹配軌跡。針對這種情況,本文對確認狀態軌跡設置存活期Age和連續丟失幀數計數Count。其中Age=100(值過大會緩存過多的垃圾軌跡)表示連續丟失幀數上限,當0≤Count≤Age時,軌跡有效。在匹配過程中,進行Count+1次迭代關聯,優先對丟失幀數少的軌跡進行匹配,同時保證在存活期內丟失軌跡的有效性。經此處理后,本文算法可以重新找回被遮擋的目標,顯著降低被遮擋后重新識別發生身份變換的次數。

更新算法的具體實現過程如下:

(1)設定連續丟失幀數變量Count=0,存活期常量Age=100。

(2)t時刻由免錨檢測器輸出n個檢測目標并編號為d∈{0,1,…,n},d中包含未匹配的檢測目標和前一幀已匹配的檢測目標。

(3)t時刻由卡爾曼濾波預測m條軌跡并編號為k∈{0,1,…,m},每一條軌跡都有一個Count變量記錄軌跡連續丟失幀數,k中包含Count小于Age次未匹配的軌跡和已匹配的軌跡。

(4)將d與k利用加權多特征融合算法進行相似性度量,輸出的代價矩陣cost(M×N)利用KM算法進行Count+1次迭代匹配關聯。此過程從Count=0的軌跡開始迭代至Count最大值,即優先對穩定跟蹤的軌跡進行關聯。

(5)經迭代關聯后未匹配的軌跡Count值加1,匹配的軌跡Count置為0,未匹配的檢測目標初始化為未確認軌跡,Count大于Age的軌跡刪除。

至此完成一幀中所有軌跡的狀態更新,算法迭代過程如圖5所示。

圖5 跟蹤狀態的迭代更新過程Fig.5 Iterative update process of tracking status

6 實驗結果與分析

6.1 實驗細節

實驗所使用的硬件平臺為配置Intel i7-9700k處理器,16 GB內存,搭載GTX 2080ti GPU的深度學習工作站,操作系統為Ubuntu 18.04.1,采用TensorFlow2.0實現深度學習模型訓練與測試。

本文算法為聯合檢測與跟蹤的深度神經網絡模型,不僅要輸出檢測目標的定位信息,還要提取出相應對象的ReID表觀特征,屬于多任務網絡模型架構,因此實驗中采用階段式訓練方法,組合多個數據集針對兩種不同的任務需求訓練模型。首先,在COCO2017數據集上進行檢測任務的預訓練,用于初始化主干網絡模型參數;然后,將預訓練模型在INRIA[12]行人檢測數據集上進行微調,數據集提供靜態行人標注信息;最后,利用PKU-Reid[13]、PRW[14]和CUHK03[15]數據集的行人身份標注訓練模型的ReID特征提取分支,三個數據集提供了涵蓋各種復雜場景下的多攝像頭行人監控數據。模型采用Adam優化器訓練50個epoch,batch size設置為8,初始學習率設置為1E-4,在第40個epoch更改學習率為1E-6。

6.2 模型檢測性能評估

在目標檢測領域,國際上通常采用平均精確率(average precision,AP)作為評價指標評估模型的檢測性能。本文在COCO測試集上進行檢測性能的評估,具體評價指標含義由表2給出。選取當前目標檢測主流算法進行對比實驗,結果如表3所示,最優結果由粗體標出。

表2 檢測評價指標及其含義Table 2 Test evaluation index and its meaning

表3 不同檢測算法在COCO測試集上的測試結果Table 3 Test results of different detection algorithms on COCO dataset

從表3結果可以看出,本文算法在檢測速度和精度方面明顯優于其他算法。主要是因為采用免錨機制的網絡結構在大尺度特征圖上進行中心點預測,無需錨點框和非極大值抑制等復雜操作。而基于錨框的兩階段檢測算法Faster RCNN由于網絡中存在階段性的篩選結構,區域候選網絡(region proposal network,RPN),導致推斷耗時較長,檢測速度只有9 frame/s,不能滿足實時檢測需求。相較于兩階段的檢測方法,基于錨框單階段的YOLO3和RetinaNet設計更加注重實時性。特別是RetinaNet利用Focal Loss有效控制了正負樣本差距,使得檢測精度顯著提升。但單階段和兩階段的檢測算法由于錨框的限制,無法進行像素級預測,基于錨框檢測器針對小目標漏檢率較高,導致APS較低。總的來說,本文算法采用全卷積方式輸出的特征圖分辨率高,可以兼顧大小目標,對不同像素面積的目標均有較高的檢測精度。

6.3 多目標跟蹤測試

本文采用MOT Challenge[19]標準對多目標跟蹤性能進行評估,在MOT17多目標跟蹤數據集上對算法性能進行綜合測試。

MOT17測試集中共有7個標注序列,如圖6所示,序列2、4、9為相機固定的街道行人場景,其中序列2環境光較陰暗,序列5、10、11、13為相機移動場景,視場內的對象與相機存在相對運動。

圖6 MOT17場景示例Fig.6 Sample scenario for MOT17

為了充分評估本文算法的有效性,分別對7個序列進行跟蹤測試,跟蹤評價指標及含義由表4給出,跟蹤結果如表5所示。

表4 多目標跟蹤評價指標及含義Table 4 Multi-object tracking evaluation index and its meaning

表5 本文算法在MOT17數據集上的跟蹤結果Table 5 Tracking results of algorithm in this paper on MOT17 dataset

從表5結果中可以看出,本文算法的綜合性能較高,具有較高的準確率。視頻序列場景復雜度不同,跟蹤性能也會有所差異。由于序列2場景光線較弱,檢測器存在漏檢,MOTA指標最低(MOTA=50.9%)且有最高的身份切換次數(IDS=124)。而序列4相機固定且場景內目標運動穩定,MOTA值最高達到78.2%。特別是在序列13中存在遠景目標,目標較小,使得表觀特征描述有限,當遠景目標出現遮擋時跟蹤效果會降低,造成跟蹤準確率降低。

為了進一步衡量本文算法的有效性,將本文提出的算法與近年比較優秀的多目標跟蹤算法在MOT17上進行性能對比測試,結果如表6所示。

表6 不同跟蹤算法在MOT17數據集上的跟蹤結果Table 6 Tracking results of different tracking algorithms on MOT17 dataset

從表6中可知,SORT算法跟蹤速度最快,但該算法僅采用IOU距離作為數據關聯階段的度量標準,沒有對遮擋問題進行針對性處理,使得跟蹤準確性極差。Deep-Sort算法串聯了ReID表觀特征提取模型,使用了更可靠的度量標準,MOTA值得到明顯提升,但檢測和ReID兩個深度學習模型嚴重拖慢了跟蹤速率,FPS僅為8.1 frame/s。JDE算法合并了YOLOv3檢測模型和表觀模型,跟蹤速度相對于DeepSort提升了約10 frame/s,但受到錨框限制,對快速移動目標提取的表觀特征無法對齊造成錯誤匹配,跟蹤準確性不如DeepSort。綜合對比來看,本文基于免錨中心點檢測的多目標跟蹤算法充分考慮了運動特征、顏色特征和表觀特征,對不同跟蹤場景采用合適的特征融合配比,在MOT17上的綜合性能評價指標超過近年來經典算法,并且兼顧了跟蹤的實時性與準確性。

對本文算法在不同場景的魯棒性進行驗證,將跟蹤結果可視化分析。圖7、圖8所示分別為本文算法和SORT算法在MOT2015-AVG-TownCentre序列上的部分跟蹤結果,該視頻數據為行人監控視角,行人交叉遮擋嚴重,本文在此場景采用式(14)的融合特征配比為3∶3∶4。

如圖7、圖8對比所示,在第57幀存在兩個相向而行的目標(圖7(a)中編號14和12,圖8(a)中編號6和25),在第73幀發生重疊遮擋,在經過17幀的遮擋后兩對象分離。在第90幀可以看出,SORT算法未能在跟蹤對象丟失后完成重識別,造成25號關聯錯誤,并將原跟蹤對象6號錯誤設為新軌跡58號。而本文算法針對此遮擋場景有較好的處理效果,對象被遮擋后重現能夠正確關聯并更新軌跡,具有可靠的跟蹤效果。

圖7 本文算法在AVG-TownCentre上的跟蹤結果Fig.7 Tracking results of algorithm in this paper on AVG-TownCentre

圖8 SORT算法在AVG-TownCentre上的跟蹤結果Fig.8 Tracking results of SORT algorithm on AVG-TownCentre

進一步在MOT17-10序列存在相機移動場景上測試跟蹤性能,本文算法和JDE算法測試結果分別由圖9和圖10給出,本文在此場景采用式(14)的融合特征配比為4∶4∶2。

圖9 本文算法在MOT17-10上的跟蹤結果Fig.9 Tracking results of algorithm in this paper on MOT17-10

通過圖9和圖10的對比可以看出,此場景下JDE算法無法對頻繁遮擋的目標連續跟蹤。圖10(a)第1幀對象2,在跟蹤過程中經歷了3次身份切換,跟蹤魯棒性較差。而本文的加權特征融合的處理方法能夠較好地應對相機和對象存在相對移動的情形,圖9(a)第1幀對象2在639幀的跟蹤過程中同樣經歷3次遮擋,依然能夠穩定維持其身份編號,實現長時間穩定跟蹤。

圖10 JDE算法在MOT17-10上的跟蹤結果Fig.10 Tracking results of JDE algorithm on MOT17-10

7 結束語

本文采用免錨框的方法設計了基于中心點熱圖的檢測模型,并行輸出行人目標定位信息與ReID特征,構建了聯合檢測與跟蹤的一段式網絡,較好地解決了錨框導致的ReID特征偏移的問題。針對遮擋問題提出了多特征融合的關聯度量方法和軌跡更新算法,有效解決了行人目標被長時間遮擋出現軌跡丟失的情況。同時為了應對不同跟蹤場景對特征進行加權處理,提升了算法的魯棒性和多場景適應能力。實驗結果表明,本文的多目標跟蹤算法在不同測試集上跟蹤精度較高,且具有實時推斷能力。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 无码区日韩专区免费系列| 国内黄色精品| 欧美一级高清片欧美国产欧美| 麻豆精品久久久久久久99蜜桃| 国产一区二区福利| 国产精品蜜臀| 久久综合色天堂av| WWW丫丫国产成人精品| 亚洲精品国产首次亮相| 超碰色了色| 午夜日韩久久影院| 欧美专区日韩专区| 国产一级在线观看www色| 欧美日韩亚洲综合在线观看| 欧美综合中文字幕久久| av在线无码浏览| 色成人亚洲| 欧美a在线看| 国产青青草视频| 亚洲色偷偷偷鲁综合| 99草精品视频| 国产精品成人观看视频国产 | 亚洲一区毛片| 免费无遮挡AV| 91福利国产成人精品导航| 久草国产在线观看| 国产免费网址| 重口调教一区二区视频| 国产理论一区| 亚洲 欧美 中文 AⅤ在线视频| 亚洲毛片在线看| 91视频精品| 亚洲一区二区三区麻豆| 久久国产热| 国产欧美一区二区三区视频在线观看| 乱人伦99久久| 久久大香香蕉国产免费网站| 国产精品一区二区在线播放| 一本久道久久综合多人| 国产jizz| 九色综合伊人久久富二代| 制服丝袜在线视频香蕉| 亚亚洲乱码一二三四区| 永久免费无码日韩视频| 日韩国产黄色网站| 亚洲一区二区三区香蕉| 免费A∨中文乱码专区| 日韩精品一区二区深田咏美 | 免费亚洲成人| 四虎永久在线视频| 亚洲国产日韩在线成人蜜芽| 青青操国产| 亚洲精品欧美日韩在线| 久久96热在精品国产高清| 一级毛片免费不卡在线| 国产成人欧美| 亚洲不卡影院| 欧美中文字幕在线播放| 九九久久精品免费观看| 精品国产www| www.国产福利| 青草视频网站在线观看| 久久精品国产精品国产一区| 99九九成人免费视频精品| 亚洲高清日韩heyzo| 91精品国产无线乱码在线| 亚洲区视频在线观看| 99爱视频精品免视看| 国产在线小视频| 国产精品白浆在线播放| 亚洲av成人无码网站在线观看| 国产黄在线免费观看| 91啪在线| 99re在线视频观看| 波多野吉衣一区二区三区av| 亚洲香蕉在线| 四虎永久免费地址在线网站| 国产丝袜一区二区三区视频免下载| 日本高清有码人妻| 欧美成人看片一区二区三区| 欧美天堂在线| 美女国内精品自产拍在线播放 |