999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度特征融合與注意力機制的人群計數算法

2022-03-16 00:10:12劉東華魏賓王國棟
青島大學學報(自然科學版) 2022年1期

劉東華 魏賓 王國棟

摘要:針對特征提取過程中缺乏對人群區域的針對性,不同大小人頭目標不能同時檢測以及特征融合時多尺度特征信息丟失問題,提出多尺度注意力模塊,增強特征對高密度人群區域的關注。采用多尺度空洞卷積,結合提出的多通道特征融合模塊,提取更完善的多尺度特征,提高對不同尺寸人頭計數能力;利用密度圖回歸模塊,融合多尺度特征,減少了多尺度信息的損耗。實驗結果表明,本算法的計數結果更精確穩定。

關鍵詞:圖像處理;卷積神經網絡;特征融合;注意力機制

中圖分類號:STP291???????? 文獻標志碼:A

近年來,城市化進程不斷推進,城市人口日益增多,各種公共場所人群聚集現象更加頻繁,這使得高密度人群情況下的安全問題亟待解決。為減少意外事故,需要對聚集的人數進行估計。此外,人群計數還可以遷移到其他計數任務,如細胞計數、魚群計數等。隨著深度學習的快速發展,提出了很多卷積神經網絡(Convolutional neural network)[1-6],并應用于人群計數。當前人群計數面臨的主要問題為人頭尺寸的多變性、復雜背景干擾以及透視失真。針對透視失真問題。有如下解決方法,如利用自適應空洞卷積和自糾正監督網絡,解決透視失真造成的尺度變化問題,糾正點標注位置[7];采用多分支金字塔網絡,提取上下文多尺度特征向量[8];將透視分析方法與計數網絡相結合,挖掘透視信息,促進計數網絡進行場景分析[9];將金字塔池模塊進行特征聚合,修復池化層導致的像素失真[10];利用反透視網絡,顯式地評估透視失真,均勻地扭曲輸入圖像校正畸變[11]。這些算法雖然在一定程度上解決了透視失真問題,但其效果提升并不明顯,且極大增加了網絡復雜度。針對人頭尺寸變化,學者們嘗試使用多通道或者多任務的卷積神經網絡提取多尺度特征。Zhang等[12]采用三列不同大小卷積核的卷積神經網絡提取不同尺度的特征。Liu等[13]設計了一個由兩部分組成的網絡:檢測網絡(DNet)和編解碼網絡(ENet)。DNet在圖像中檢測清晰的人,并覆蓋這些人所在區域,ENet評估剩余區域的密度圖。Shi等[14]使用了四個通道的組合提取特征,Zhang等[15]利用多個通道提取不同角度的特征圖。這些網絡雖然注意到多尺度特征的提取,但其獲取多尺度特征信息時,僅采用多通道的結構,多尺度信息提取不完全,且特征融合時,采用簡單的相加或串聯操作,導致多尺度信息損耗。前期研究中,針對透視失真、尺度變化問題,提出了不同的解決方法,雖不同程度提高了計數精確度,仍存在一定缺陷。一方面,僅在網絡中嵌入多列卷積結構,將多列卷積提取的特征相加或合并,提取的多尺度特征不完善,無法獲取到足夠的多尺度特征信息,不能有效檢測不同大小目標。另一方面,數據集背景復雜,且有時背景信息與頭部區域特征相似,導致誤判。為此,本文采用多尺度空洞卷積網絡,提出多列特征融合模塊(MsFF),在特征提取時將多尺度特征信息相互融合,促進特征信息的互補和完善;提出密度圖回歸模塊,采用逐步融合策略,減少有用特征信息消損;提出多尺度注意力機制,減小復雜背景對計數任務的影響,增強對目標的激活響應。

1 算法分析

1.1 基于檢測與基于回歸的算法

人群計數算法有兩類:基于檢測的算法和基于回歸的算法。其中,基于檢測的方法是早期研究的重點,主要思想是使用滑動檢測窗遍歷整個圖像,定位和統計滑動窗口中的人數[16]。檢測器主要通過支持向量機(Support vector machine)、隨機森林、Boosting等方法訓練得到,提取低層特征,如哈爾小波(Haar wavelet)[17]或方向梯度直方圖(Histogram of oriented gradient)[18]檢測行人。由于圖像中人的互相遮擋和模糊,檢測整體行人具有很大的挑戰性。后續研究通過檢測身體的一部分定位目標,如肩膀和頭部,與檢測整體相比,只檢測部分人體的方法取得更高的精度。這種基于檢測的方法在稀疏人群圖像上表現良好,然而,隨著人群密度增加,人與人之間的相互遮擋越來越嚴重,給檢測精度帶來巨大挑戰。因此,基于檢測的方法不適用于高密度人群場景。而基于回歸的算法是通過學習特征得到人數的映射,完成人群計數任務。該類算法一般由特征提取和回歸模型兩部分構成:提取低層特征,如邊緣特征、紋理特征等;利用線性回歸或嶺回歸等回歸模型得到特征與人數的映射關系。這種使用可學習的參數估計人數的方法明顯優于檢測方法。

針對檢測方法無法充分檢測的問題,Zhang等[12]提出基于密度圖回歸的算法。密度圖回歸是指根據圖像中人頭的坐標,估計人頭的大小并得到人頭區域,進而使用高斯核模糊該人頭區域得到區域內可能是人頭的概率,每個人頭模糊后概率總和為1,區域內概率總和即為該區域內的人數。假設人頭部的中心在像素xi

(a)??????????????? (b)

圖1 原始圖像及對應的密度圖

(a)原始圖像;(b)密度圖

處,使用δ函數δx-xi表示。一張有N個人頭標注的人群圖像可表示為

H(x)=∑Ni=1δx-xi (1)

對于高人群密度的數據集,如ShanghaiTech數據集的A部分和UCF_CC_50數據集,用幾何自適應高斯核模糊處理每個頭部注釋,生成密度圖

F(x)=∑Ni=1δx-xi*Gσix(2)

其中,Gσi是幾何自適應高斯核,σi=βi,i表示人頭xi與其最近的3個頭部注釋點之間距離的平均值, 在本文中,β設為0.3。對于人群稀疏的ShanghaiTech數據集的B部分,本文使用固定標準差15的高斯核成密度圖。原始圖像及對應的密度圖如圖1所示。

1.2 注意力機制

注意力機制是人類視覺系統的特有機制,人類大腦在處理獲取的視覺信號時,會篩選出最值得關注的信息,過濾部分無用信息。計算機視覺模仿人的視覺特性,將注意力機制應用到深度學習中,為特征分配重要權重,促使特征提取過程傾向于注意有用信息,忽略冗余和噪聲。在人群計數任務中,錯綜復雜的背景會被誤認為人頭,影響計數結果的準確性,這是因為在編碼過程中,部分背景特征可能與人頭相似,回歸模型解碼時,將部分背景判斷為人。因此,引入多尺度注意力機制,在前期特征編碼時,有效區分背景和人群并兼顧多尺度特征的提取,減少錯誤計數。

2 算法實現

2.1 總體結構

本文算法的具體步驟為:圖像首先進入主干網絡提取淺層特征,主干網絡由VGG16前10層和多尺度注意力模塊構成,VGG16具有優秀的特征提取能力且結構簡單,僅由3×3卷積層(conv)和最大池化層(Max Pooling Layer)構成,VGG16使用3×3串聯卷積,參數比單獨使用大卷積核少。同時,比單個卷積層包含更多非線性變換。VGG16提取的特征接著輸送到多尺度注意力模塊中,提取全局注意力和局部注意力權重,與輸入特征融合。主干網絡的輸出是輸入圖像的1/8,因為VGG16前10層中包括3個最大池化層。

圖2(a)多列特征融合模塊以主干網絡輸出的淺層特征為輸入,使用空洞率分別為1,2,3的3列空洞卷積提取多尺度特征,并在特征提取后將不同尺度特征相互融合,彼此完善、互補特征信息。提取到的多尺度特征圖{M1,M2,M3},被輸入到圖2(b)密度圖回歸模塊,進行兩步融合,回歸輸出預測密度圖。

(a)多列特征融合網絡;(b)密度圖回歸模塊

圖3 MSA模塊結構

2.2 多尺度注意力機制

VGG16前10層提取的特征圖不包含注意力信息,不能有效區分前景和背景,為防止背景對計數精度的干擾,引入多尺度注意力機制,并命名為MSA。MSA模塊提取兩種尺度的注意力權重:局部注意力權重和全局注意力權重,具體結構如圖3所示。

MSA模塊有3個分支,上分支提取全局注意力,首先使用全局平均池化處理輸入特征,得到一個C×1×1的向量(C為輸入特征通道數),然后使用1×1卷積加權,加權后的向量使用ReLU激活函數激活后再用 1×1卷積加權,輸出全局注意力向量;中間分支提取局部注意力,其輸出是一個與輸入特征尺寸相同的特征圖。將輸入特征用1×1卷積加權后,經ReLU激活函數激活特征,再用1×1卷積加權,得到最終輸出。全局注意力和局部注意力相加后,經Sigmoid激活函數激活,與殘差分支相加。多尺度注意力機制可有效強化不同尺寸的頭部區域特征,抑制背景區域特征。

2.3 多尺度特征融合網絡

傳統算法中,只通過一個多列卷積神經網絡提取多尺度特征,然后將不同列的特征串聯,這種方式所提取的多尺度特征不夠完善。為解決這一問題,本文設計了多尺度特征融合網絡,并命名為MsFF,核心思想是基于每一列獨立的特征提取過程,實現特征信息互通共享,3個獨立的通道,分別使用空洞率為1,2,3的空洞卷積提取特征。空洞卷積首次提出于圖像分割領域,在語義切分上取得很好的效果,得到廣泛應用。空洞卷積的引入可以在不增加參數量的情況下,有效增加感受野,靈活地聚合多尺度信息,同時保持相同的分辨率。空洞率為r的空洞卷積的感受野尺寸為k+(k-1)(r-1)。例如,空洞率為3的3×3空洞卷積的感受野為49。普通3×3卷積的感受野僅為9。不同空洞率的卷積有不同大小的感受野,可以感知不同尺寸的目標,每一階段特征提取后,每一列利用其他列的特征信息完善自身提取的特征。

1)多尺度特征融合網絡以主干網絡提取的淺層特征為輸入,進行三階段特征融合。第一階段,分別使用空洞率為1,2,3的3×3空洞卷積處理輸入特征,得到特征圖{F1,F2,F3},將一,二通道(空洞率為1和2的通道)的特征相互融合,融合后的特征圖與第三通道的特征繼續用空洞卷積處理,得到特征圖{Q1,Q2,Q3}

Qi=conv_iF1+convF2+convcatF1,F2,i=1conv_iF2+convF1+convcatF1,F2,i=2conv_iF3,i=3(3)

其中,conv_i代表空洞率為i的3×3空洞卷積,conv表示1×1的普通卷積操作,cat是串聯操作。

2)第二階段為三個通道特征的相互融合,輸入特征為{Q1,Q2,Q3},輸出特征圖是{D1,D2,D3}

Di=conv_i∑j≠iconvQj+convcatQ1,Q2,Q3,i=1,2,3(4)

3)第三階段重復了第二階段的所有操作。將特征相互融合后,各個通道的特征都得到完善,包含的多尺度特征信息更豐富。

2.4 密度圖回歸

密度圖回歸模塊的提出旨在減少密度圖回歸過程中多尺度特征的丟失。如圖2(b)所示,多尺度特征融合網絡有3個輸出{M1,M2,M3}。分別將M1,M2和M2,M3串聯(concatenation),然后使用1×1卷積和3×3卷積將通道數減少到1,得到初步密度圖d1和d2。最后,使用3×3卷積將d1加權處理,并融合到d2中,最終生成的密度圖包含了所有列的多尺度特征

d=α1γ1catM2,M3+ωα2γ2catM1,M2(5)

其中,d為最終預測密度圖,cat是串聯操作,{w,α1,α2,γ1,γ2}為卷積學習的參數。

2.5 損失函數

為了度量真值密度圖與該方法生成的密度圖之間的相似性,本文使用歐氏距離作為損失函數。歐氏距離能有效衡量真值圖與預測密度圖的差距,監督參數往縮小差距方向學習[5,12]。損失函數

Lθ=12N∑Ni=1GiIi;θ-Pi22(6)

其中,θ是卷積神經網絡學習的參數,N是訓練圖像的總數,Gi(Ii,θ)和Pi分別代表第i張訓練圖像的真實密度圖和預測密度圖,Ii表示第i張訓練圖像。

3 實驗結果與分析

3.1 數據集

ShanghaiTech數據集包括1 198張圖像,共330 165個頭部標注點,頭部標注的數量是最大的數據集[12]。ShanghaiTech數據集分為A、B兩部分。A部分是互聯網上收集的高密度人群圖像,共有241 677個頭部注釋,單張圖像中頭部注釋的數量范圍從33到3 139,圖像的分辨率不固定,A部分共有482張圖像,其中300張用于訓練,182張用于測試。B部分取自上海街道的監控攝像頭,人群密度低。每幅圖像的分辨率為768×1 024。B部分共有716張圖像,其中400張用于訓練,316張用于測試。

UCF_CC_50數據集[19]共包含50張圖像,每張圖像平均有1 280個頭部注釋。由于該數據集中圖像數量相對較少,且人群密度高,具有很大挑戰性。此數據集共有63 705個頭部標注。每張圖像中頭部標注數量范圍為94到4 543。UCF_CC_50數據集的50幅圖像均為互聯網上的公共圖像,具有不同的場景和密度,以及不同角度的扭曲。圖像中的場景包括抗議、馬拉松、體育場、音樂會和朝圣。在UCF_CC_50數據集上訓練和測試時,本文將數據集分成10組,進行5次交叉驗證,計算5次測試的平均MAE和MSE評價本算法。

3.2 實驗參數

實驗使用NVIDIA Tesla K80顯卡,在Pytorch框架上訓練網絡參數,采用隨機梯度下降(SGD)優化算法優化參數[20]。網絡輸出的密度圖的大小是輸入的1/8,因為網絡中使用的預訓練VGG16包括3個最大池化層。為增強數據集,將訓練集的圖像復制為原始圖像的4倍,將圖像順序洗牌,作為新訓練集。在訓練過程中,從訓練集的原始圖像中隨機選取1/4的裁剪圖像塊,按一定幾率翻轉處理作為網絡輸入。經過反復實驗,翻轉的概率設為0.2。這種數據增強方法可以保證每次訓練的數據不同,有效防止過擬合。

3.3 評估指標

用平均絕對誤差(MAE)和均方誤差(MSE)評測算法的計數能力

MAE=1M∑Mi=1Ri-RGTi(7)

MSE= 1M∑Mi=1Ri-RGTi2(8)

其中,M表示測試集中圖像總數,Ri和RGTi分別表示第i張圖像的預測人數和真實人數。MAE和MSE的值越低,算法的性能越好。

3.4 對比實驗

為證明算法的有效性,在ShanghaiTech數據集和UCF_CC_50數據集上進行充分實驗,結果見表1。

本方法在ShanghaiTech的A部分的MAE和MSE分別達到63.8和99.3,均優于其他對比算法,與深度卷積神經網絡(D-ConvNet)相比,MAE降低了12.1%;在B部分中,本文的MAE和MSE分別為8.5和14.4。這是因為本文提出的算法引入多尺度注意力機制抑制了背景信息的影響,同時設計多尺度特征融合網絡,提取了更豐富的多尺度特征信息。在UCF_CC_50數據集上,平均絕對誤差和均方誤差分別為207.1和273.3,遠遠領先其他對比算法,相比于檢測評估網絡(DENet),本算法的平均絕對誤差降低了34.8,均方誤差降低了72.1。這表明本算法在不同數據集上具有良好的泛化能力,部分預測結果如圖4所示。

3.5 消融實驗

為了測試不同主干網絡對實驗效果的影響,本文分別使用幾何組網絡(VGG)的前13層,殘差網絡(ResNet),谷歌網絡(GoogLeNet)替換算法主干網絡中VGG前10層,在上海科技數據集的A部分上測試;為驗證多尺度注意力機制(MSA)和多尺度特征融合模塊(MsFF)的有效性,分別將網絡中的多尺度注意力機制和多尺度特征融合模塊刪除,對比實驗結果見表2。可以看出,以VGG前10層作為主干網絡效果最好,在此基礎上去掉MSA和MsFF模塊,效果均下降。

4 結論

本文提出一種新的基于密度圖回歸的卷積神經網絡解決人群計數問題,引入多尺度注意力機制,學習特征圖不同區域的重要程度;采用多尺度空洞卷積網絡和多列交叉特征融合提取多尺度特征,獲取包含完整的多尺度信息的特征。融合后的多尺度特征對尺度變化具有良好魯棒性;設計了密度圖回歸模塊,防止多尺度信息弱化,充分解決了圖像中相互遮擋和尺寸多樣性問題。實驗結果表明,該方法生成的密度圖較對比算法更為精確,充分證明了本算法的魯棒性。但本算法無法有效解決透視失真問題,在下一步的研究中,將設計高效的失真處理模塊,消除圖像透視造成的畸變。

參考文獻

[1]SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]// IEEE Conference on Computer Vision and Pattern Recognition, Boston, 2015: 1-9.

[2]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[DB/OL]. [2021-04-29]. https://arxiv.org/abs/1409.1556.

[3]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 2016: 770-778.

[4]ZHU X Z, HU H, LIN S, et al. Deformable ConvNets V2: More deformable better results[C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, 2019: 9308-9316.

[5]陳磊,王國棟.用于人群密度估計的多級融合卷積神經網絡[J].青島大學學報(自然科學版),2020,33(4):31-36.

[6]鞠成國,王國棟.用于人體實例分割的卷積神經網絡[J].青島大學學報(自然科學版),2021,34(1):34-39.

[7]BAI S, HE Z Q, QIAO Y, et al. Adaptive dilated network with self-correction supervision for counting[C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, 2020: 4593-4602.

[8]YANG Y F, LI G R, WU Z, et al. Weakly-supervised crowd counting learns from sorting rather than locations[C]// European Conference on Computer Vision, Online, 2020: 1-17.

[9]YANG Y F, LI G R, DU D W, et al. Embedding perspective analysis into multi-column convolutional neural network for crowd counting[J]. IEEE Transactions on Image Processing, 2020, 30: 1395-1407.

[10] WANG Z, XIAO Z H, XIE K, et al. In Defense of single-column networks for crowd counting[DB/OL]. [2021-04-10]. https://arxiv.org/abs/1808.06133.

[11] YANG Y F, LI G R, WU Z, et al. Reverse perspective network for perspective-aware object counting[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition, Electr Network, 2020: 4373-4382.

[12] ZHANG Y Y, ZHOU D S,? CHEN S Q, et al. Single-image crowd counting via multi-column convolutional neural network[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition, Seatlle, 2016: 589-597.

[13] LIU L, JIANG W, JIA W J, et al. Denet: A universal network for counting crowd with varying densities and scales[J]. IEEE Transactions on Multimedia, 2021, 23: 1060-1068.

[14] SHI M J, YANG Z H, XU C, et al. Revisiting perspective information for efficient crowd counting[C]// 32nd IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 2019: 7271-7280.

[15] ZHANG Q, CHAN A B. Wide-area crowd counting via ground-plane density maps and multi-view fusion CNNs[C]// 32nd IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 2019: 8289-8298.

[16] 王亮亮,王國棟,趙毅,等.基于車窗特征的快速車輛檢測算法[J].青島大學學報(自然科學版),2019,32(3):1-7.

[17] VIOLA P, JONES M J. Robust real-time face detection[J]. International Journal of Computer Vision, 2004, 57(2): 137-154.

[18] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//Conference on Computer Vision and Pattern Recognition, San Diego, 2005: 886-893.

[19] IDREES H, SALEEMI I, SEIBERT C, et al. Multi-source multi-scale counting in extremely dense crowd images[C]// 26th IEEE Conference on Computer Vision and Pattern Recognition, Portland, 2013: 2547-2554.

[20] PASZKE A, GROSS S, MASSA F, et al. Pytorch: An imperative style, high-performance deep learning library[C]//33 rd Conference on Neural Information Processing Systems,Vancouver,2019.

[21] SAM D B, SURYA S, BABU R V. Switching convolutional neural network for crowd counting[C]// 30th IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 2017: 4031-4039.

[22] SINDAGI V A, PATEL V M. Generating high-quality crowd density maps using contextual pyramid CNNs[C]// 16th IEEE International Conference on Computer Vision, Venice, 2017: 1879-1888.

[23] SAM D B, SAJJAN N N, BABU R V, et al. Divide and grow: Capturing huge diversity in crowd images with incrementally growing CNN[C]// 31st IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 2018: 3618-3626.

[24] LI Y H, ZHANG X F, CHEN D M. Csrnet: Dilated convolutional neural networks for understanding the highly congested scenes[C]// 31st IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, 2018: 1091-1100.

[25] RANJAN V, LE H, HOAI M. Iterative crowd counting[C]// 15th Proceedings of the European Conference on Computer Vision (ECCV), Munich, 2018: 270-285.

[26] ZHANG L, SHI Z L, CHENG M M, et al. Nonlinear regression via deep negative correlation learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(3): 982-998.

[27] LIU Y T, SHI M J, ZHAO Q J, et al. Point in, box out: Beyond counting persons in crowds[C]// 32nd IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, 2019: 6462-6471.

[28] DING X H, HE F J, LIN Z R, et al. Crowd density estimation using fusion of multi-layer features[J]. IEEE Transactions on Intelligent Transportation Systems, 2020,99(8): 4776-4787.

[29] 杜培德,嚴華.基于多尺度空間注意力特征融合的人群計數網絡[J].計算機應用,2021,41(2) :537-543.

Crowd Counting Algorithm Based on Multi Scale Feature

Fusion and Attention Mechanism

LIU Dong-huaa, WEI Binb, WANG Guo-donga

(a. College of Computer Science and Technology, b. Key Laboratory of Digital Medicine and

Computer Aid, Affiliated Hospital, Qingdao University, Qingdao 266071, China)

Abstract:

Due to the lack of pertinence to the crowd area in the process of feature extraction, human heads of different sizes cannot be detected at the same time. And multi-scale feature information is lost during feature fusion. A multi-scale attention module was proposed to enhance the attention of features to high-density crowd areas. Multi-scale dilated convolution was used to extract more perfect multi-scale features and improve the counting ability of heads of different sizes by combining with the proposed multi-channel feature fusion module. Density map regression module was proposed to gradually integrate multi-scale features and reduce the loss of multi-scale information.? Experimental results show that the counting results of this algorithm are more accurate and stable.

Keywords:

image processing; convolutional neural network; feature fusion; attention mechanism

收稿日期:2021-05-11

基金項目:

山東省自然科學基金(批準號:ZR2019MF050)資助。

通信作者:王國棟,男,博士,副教授,主要研究方向為變分圖像科學、人臉識別、三維重建和醫學圖像處理和分析等。E-mail:doctorwgd@gmail.com

1837501186290

主站蜘蛛池模板: 91免费观看视频| 激情亚洲天堂| 日韩午夜伦| 亚洲国产欧美国产综合久久 | 国产全黄a一级毛片| 99热国产这里只有精品9九| 99热这里只有精品在线观看| 国产福利一区视频| 欧美日韩高清在线| 久久精品66| 激情视频综合网| 国产尤物jk自慰制服喷水| 超碰精品无码一区二区| 999福利激情视频| 亚洲天堂网2014| 欧美三级自拍| 欧美日韩国产在线观看一区二区三区| 欧美天堂在线| 日本色综合网| 午夜国产在线观看| 国产91熟女高潮一区二区| 国产免费黄| 欧美亚洲欧美| 91小视频在线播放| 无码一区18禁| 91九色国产porny| 国产视频只有无码精品| 国产一级在线播放| 九九热视频精品在线| h网址在线观看| 亚洲AV免费一区二区三区| 国产91丝袜在线播放动漫| 亚洲IV视频免费在线光看| 在线观看国产黄色| yjizz视频最新网站在线| 国产精品乱偷免费视频| 欧美一区精品| 在线观看国产精品第一区免费| 欧美色视频网站| 制服丝袜国产精品| 欧美三级自拍| 亚洲啪啪网| 国产欧美日韩精品综合在线| 国产免费看久久久| 国产手机在线观看| 呦女精品网站| 国产成人精品免费视频大全五级| 国产成人精品综合| 手机精品视频在线观看免费| 欧美日韩亚洲综合在线观看| 五月丁香伊人啪啪手机免费观看| 一区二区三区四区精品视频 | 99久久精品无码专区免费| 91精品最新国内在线播放| 国产又粗又猛又爽视频| 毛片免费在线视频| 日日噜噜夜夜狠狠视频| 免费久久一级欧美特大黄| 88av在线| 片在线无码观看| 久久性妇女精品免费| 国产欧美中文字幕| 国产91特黄特色A级毛片| 在线免费观看a视频| 国产十八禁在线观看免费| 免费看的一级毛片| 亚洲无码不卡网| 中字无码精油按摩中出视频| 日韩毛片免费| 91原创视频在线| AV在线麻免费观看网站| 国产97色在线| 日韩第九页| 中国精品久久| 播五月综合| 国产在线拍偷自揄拍精品| 99在线免费播放| 日韩国产精品无码一区二区三区 | 亚洲一本大道在线| 国产夜色视频| 九九视频在线免费观看| 无码中文字幕精品推荐|