999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

全卷積目標檢測的改進算法

2022-09-06 11:08:50廖永為張桂鵬楊振國劉文印
計算機工程與應用 2022年17期
關鍵詞:特征檢測方法

廖永為,張桂鵬,楊振國,劉文印,2

1.廣東工業大學 計算機學院,廣州 510006

2.鵬城實驗室 網絡空間安全研究中心,廣東 深圳 518000

目標檢測[1-3]的目的是在數字圖像中檢測出特定類別(如人、動物或汽車等)的實例,這是計算機視覺中一項基本且具有挑戰性的任務。近年來基于深度學習方法在目標檢測中變得非常流行,它可以分為兩類,即單階段(one-stage)目標檢測[1],例如Yolo[1]、SSD[4]、Retina-Net[5]、FCOS[6]、RepPoints[7]等,以及兩階段(two-stage)目標檢測[1-2],例如Faster R-CNN[8-9]、R-FCN[9-10]、Cascade RCNN[11]等。單階段目標檢測方法通常被認為在通過主干網絡提取特征信息之后輸出分類和回歸的結果(bounding box,邊界框),包括基于錨點(anchor-based)的方法,如SSD[1-3]、RetinaNet[5]、Cascade RetinaNet[2]等;以及基于無錨點(anchor-free)的方法,如DenseBox[1-2]、Yolo[1-2]、CornerNet[12]、FCOS[6]、RepPoints[7]等。在這些檢測器中,基于錨點的方法會生成密集錨點框來增加對象的召回率,這會產生冗余框,并且需要設置大量的超參數,如檢測框的比例、檢測框的長寬比和交并比(IoU)閾值。無錨點方法避免了使用大量錨點而導致的復雜計算,減少了超參數的設計,進一步實現了目標檢測的實時性和高精度。在無錨點的單階段目標檢測算法中,基于關鍵點(key point)的方法需要預測多個關鍵點,如CornerNet[12]、CenterNet[2]等,這將導致復雜的計算。而像素級預測方法利用真值(ground-truth)邊界框中所有的點來預測邊界框,如FCOS[6]、RepPoints[6]等,并且可以與基于錨點的檢測器擁有相同的召回率。無論是基于關鍵點的方法還是像素級預測方法,本質上都是密集預測的方法。龐大的解空間會產生過多的負樣本,將會導致高召回率而低準確率。

隨著深度學習技術的發展,目標檢測算法的實現可由三個部分組成,即主干網絡(backbone)、頸部網絡(neck)和檢測頭(head)。主干網絡通常使用卷積神經網絡[13]用于提取特征信息,如VGG[13-14]、ResNet[14]、EfficientNet[15]等。頸部網絡用于收集主干網絡中不同階段的特征信息,如FPN[16]、ASFF[16]、RFB[16]、SPP[17]等。檢測頭用于輸出檢測目標的位置和類別信息,可分為單次檢測頭如RPNHead[8]、RetinaHead[5]、DoubleHead[2]和級聯檢測頭(cascade detection)[11]等。就頸部網絡而言,特征金字塔網絡(FPN)結構簡單,能提取多尺度特征來更好地學習特征表示的有效框架。因此,FPN及其變體使用最為廣泛,如BFPN[16]、BiFPN[16]、AugFPN[16]、iFPN[17]等。然而,目前基于FPN的方法大多由于直接融合多尺度特征表示而丟失語義信息。檢測頭一般由檢測網絡、感興趣區域的定義(region of interests,RoI)和損失函數(loss function)組成。在單階段的目標檢測方法中,基于錨點的方法使用Faster R-CNN[8-9]的檢測頭作為其檢測頭網絡,而無錨點的方法是基于關鍵點或逐點預測設計的。特別是,FCOS[5]的逐點預測引入了中心點分支來抑制低質量的預測邊界框,從而提高了檢測器的性能。此外,Cascade R-CNN[11,18]中級聯檢測的方法可以通過細化(refine)邊界框而提高檢測性能。

因此,為了減少多尺度特征融合過程中語義信息的丟失,提出了增強的特征金字塔網絡(SFPN)來融合來自特征映射的局部和全局感受野中的空間和通道信息,以學習更好的特征表示。為了更好地利用分類和回歸的特征表示,設計了級聯檢測頭(CasHead)來提高邊界框回歸的置信度。此外,針對上述提出的模型ConFCOS,對損失函數進行了優化,用來加速模型訓練和提高模型性能。

1 目標檢測算法的改進方法

1.1 頸部網絡的改進算法

在頸部網絡中,特征金字塔(FPN[14])網絡通過將強語義的高層特征傳低層特征中,在由卷積網絡形成的主干網絡提取的特征層上構建特征金字塔網絡。FPN 已成為目標檢測器提取多尺度特征的有效而重要的結構。具體來講,FPN 引入了一種自上而下的方法,將高分辨率的低級語義特征和低分辨率的高級語義特征相結合,用于檢測不同尺度的目標。通過改進具有強語義的多尺度特征,目標檢測的性能得到了顯著提高,如BFPN[16]、BiFPN[16]、AugFPN[16]、CE-FPN[17]、iFPN[17]等。然而,目前基于FPN的方法大多因直接融合多尺度特征表示而丟失語義信息。此外,由于網絡結構的限制,基于FPN 的方法不能充分利用不同大小的感受野。特別是FPN 中的自底向上路徑只是在不同層上堆疊特征信息以擴大感受野,不鼓勵特征信息的傳遞,而對應于不同感受野的特征映射只是通過自頂向下路徑中的元素相加進行合并。然而,不同感受野所捕獲的語義信息在相互傳遞中特征表示能力不強,限制了模型的性能。因此,提出了增強的特征金字塔網絡(SFPN)來融合空間和通道信息,使來自特征圖(feature map)的不同感受野能學習更好的特征表示。

1.2 檢測頭的改進算法

關于檢測頭,在使用Hourglass[12]作為主干網絡的關鍵點檢測方法中,CornerNet[12]使用關鍵點的左上角和右下角來檢測邊界框。ExtremeNet[19]使用關鍵點估計網絡來檢測對象最上面、最左邊、最下面、最右邊和一個中心點的四個極值點。CenterNet[20]使用左上角、右下角和中心點的三個關鍵點來檢測邊界框,這豐富了左上角和右下角收集的信息,并在中心區域提供了更多可識別的信息。在使用ResNet[13]作為主干的無錨點檢測方法中,FSAF[21]提出的FSAF 模塊是在線特征選擇,應用于多層無錨點檢測分支的訓練,該分支連接到特征金字塔的每一層。通過修改損失函數來釋放錨點,以避免手動指定錨點,這樣可以學習與對象匹配的錨點。在基于ReintaNet[5]的FoveaBox[22]方法中,不同尺度的目標被分配到不同的特征層,直接對像素進行分類和回歸。FCOS[6]引入中心點(center-ness)分支來抑制低質量的預測邊界盒,從而提高檢測器的性能。FCOS v2[23]將中心度分支從分類分支移動到回歸分支以進行預測。而且FCOS改進版,如NAS-FCOS[24]等,它們都使用單探測頭。此外,檢測頭的檢測網絡可分為:單次檢測,如Faster R-CNN[8]、SSD[2]、RetinaNet[5]、FCOS[6]等;級聯檢測利用特征共享形成多級輸出,如Cascade R-CNN[12]、ConRetina-Net[1]、Cascade RetinaNet[2]等。因此,為了提高回歸的可信度,提出了用于全卷積目標檢測算法的級聯檢測頭(CasHead)。

1.3 損失函數的改進方法

關于損失函數,RetinaNet[5]提出了FocalLoss[5]用于分類,L1 Loss[4]用于邊界框回歸,FoclaLoss解決了數據樣本不均衡問題。在Free-Anchor[2]算法中使用Smooth L1 Loss[3]替換了L1 Loss,可以使預測值和真值差別大的時候,梯度值較小,模型會較穩定,不容易產生梯度爆炸。而在FCOS[6]中使用IoU Loss[2]考慮檢測框和目標框重疊面積。在ATSS[2]中,使用GIoULoss[2]替換了IoU Loss[2],性能提高了0.4 個百分點,解決邊界框不重合時的問題。因此在FCOS v2[23]也使用了GIoULoss[25]。另外,DIoULoss[25]考慮邊界框中心距離的信息,CIoULoss[25]考慮邊界框寬高比的尺度信息。考慮到邊界框中有效框的比例和會產生大量負樣本,在CIoULoss[25]增加了懲罰項加速收斂提高了回歸精度。

2 ConFCOS

2.1 ConFCOS模型設計

對于無錨點目標檢測算法的改進,一方面,可以通過各種方式進一步改進檢測頭重復輸出。另一方面,可使用FPN來緩解高一致性的影響。因此,基于FCOS v2[23],提出了無錨點目標檢測一致性優化算法,稱為ConFCOS,如圖1 所示。對于目標探測器的組成部分,使用了ResNet[13]作為主干網絡,SFPN作為頸部網絡,CasHead作為檢測頭。

圖1 ConFCOS目標檢測框架Fig.1 Structure of ConFCOS

如圖1 所示,自下而上的組件是ResNet 體系結構,用于生成多比例尺特征地圖。SFPN采用自上向下的橫向連接結構生成目標識別的最終特征圖。檢測頭CasHead 通過兩個平行卷積層在特征圖的每個網格點上進行分類和定位。另外,對于損失函數,分別采用FocalLoss[5]和CrossEntropy[13]作為分類和中心點分支的損失函數,對CIoULoss[25]進行了優化避免了大量的誤檢。

2.2 SFPN模型設計

對于頸部網絡,FPN已被證明是多尺度特征融合的有效方法,它引入了自頂向下的通道從多尺度圖像中提取特征,生成多尺度特征表示,并且各個層次的特征映射都具有很強的語義信息。然而,基于FPN的方法通常直接對各層語言進行融合,導致融合過程中語義信息的丟失和信息的衰減。因此,提出了增強特征金字塔網絡(SFPN)來融合局部和全局感受野的空間和通道信息特征,以改進特征表示,如圖2。

圖2 SFPN模型結構Fig.2 Structure of SFPN

如圖2所示,按照FPN相同的設置,生成一個4級特征金字塔。將主干的輸出表示為{C2,C3,C4,C5},其輸入圖像的stride設為{8,16,32,64},通道數分別為{256、512、1 024、2 048}。{F2,F3,F4,F5}是在全局上下文塊之后具有相同通道數為256 的特征圖。特征金字塔{P2,P3,P4,P5}由具有擴張卷積模塊的SFPN中的自上而下路徑生成。特別是,由于這些特征之間的語義差距很大,在不同的尺度下沒有考慮到,因此加入了注意力機制[26]。GCB[27]是一個上下文建模模塊,它將所有位置的特征聚合在一起,形成一個全局上下文特征,以便對長距離依賴關系進行有效建模。在BiFPN 的跳躍連接的基礎上,為了增強特征融合,使用擴展卷積模塊DCM[28]。其中DCM 引入了空洞卷積(dilated convolution)[28],通過增加感受野來增強特征識別能力。

SFPN使用四個尺度從主干網絡提取的特征中采樣信息。在自頂向下的路徑中,SFPN 集成了后一層的上采樣特征和GCB 的全局特征,從主干網絡中提取。在自底向上的路徑中,SFPN 將當前層的采樣特征與3×3卷積、前一層的下采樣特征和具有不同感受野的特征信息進行融合。因此,SFPN的公式定義如下:

其中,表示第j層的輸出,表示第i層的輸入,表示最終輸出。conv表示一般3×3 卷積。dcm表示擴展卷積模塊。uspl表示上采樣操作,dspl表示下采樣操作。

2.3 CasHead設計

級聯檢測首次由Cascade R-CNN[11,18]提出,它采用級聯回歸作為重采樣機制,逐步增加IoU 值,使前一階段的重采樣方案能夠適應下一階段的高閾值。對于單階段目標檢測,ConRetinaNet[2]在訓練過程中利用改進的錨點,采用一致性優化來預測邊界框來提高質量。Cascade RedtinaNet采用級聯檢測的思想來減少分類和定位的偏差。受此啟發,設計了一種用于無錨點目標檢測的級聯檢測頭CasHead,它可以獲取高質量的邊界框,并有效地學習到高質量的邊界框分布。

如圖3所示,C表示分類,B表示回歸,CN表示中心度,D 表示可變形卷積。CasHead 采用級聯檢測的方法來提高檢測器的性能,通過細化邊界框可以得到高質量的邊界框。與FCOS相同,CasHead包含兩個子網,即分類子網絡和邊框回歸子網絡,該子網絡使用逐點預測盒,并引入中心點分支以抑制低質量預測邊界框。其中,分類子網絡用于輸出預測分類的置信度,邊框回歸子網絡用于預測中心點與四邊之間的距離,中心點分支(center-ness)用于過濾低質量檢測點。

圖3 CasHead模型結構Fig.3 Structure of CasHead

從SFPN 輸出特征xi的預測分類分數和回歸偏置量,CasHead 采用相同的xi兩次。首先,使用3×3 卷積來回歸xi的偏置量。其次,將經過1×1卷積變換的偏置量與經過3×3可變形卷積的特征相結合,從而輸出最終的回歸偏置量。換句話說,基于xi的學習從原來的位置到細化的偏置量。CasHead 的最終回歸偏置量的公式如下:

其中,F表示具有不同核的卷積,Ri,j表示第i個輸出回歸偏移量,def表示3×3 可變形卷積。應注意,細化的偏置量是為了改進檢測點表示。

2.4 損失函數設計

在FCOS[6]中使用IoU Loss[6]考慮檢測框和目標框重疊面積。FCOS v2[23]使用了GIoULoss[25],它使用外接矩形的方法不僅可以反應重疊區域的面積,還可以計算非重疊區域的比例,因此GIOU Loss損失函數能更好地反應真實框(ground-truth)和預測框的重合程度和遠近距離。DIoU Loss[25]增加了懲罰項是基于中心點的距離和對角線距離的比值,避免了像GIoULoss 在兩框距離較遠時,產生較大的邊界框,損失值較大難以優化。為了使回歸在與目標框有重疊甚至包含時更準確、更快,CIoU Loss[25]同時考慮了重疊面積、中心點距離、長寬比3 個因素。為了加快模型的收斂速度,在CIoU Loss 增加一個懲罰項,它用于剔除掉得分過低的邊界框,減少訓練模型時的計算量和時間,公式如下:

其中,IOU是產生的候選框與原標記框的交疊率,b和bgt表示預測框與原標記框的中心點,ρ()表示歐式距離,c表示預測框與原標記框的最小外接矩陣的對角線距離。α表示平衡(trade-off)參數,v表示寬高比一致性參數。k表示懲罰項參數,與CasHead級聯檢測中的IoU值相關。

3 實驗結果與分析

3.1 數據集與性能評價指標

對于目標檢測,將在主流的MS COCO 2017[1-2]基準數據集上評估模型的性能,該數據集有80 個目標分類,訓練集中約118 000 張圖像,驗證數據集中約5 000張圖像(通常稱為minival集)。所有模型都在訓練集上進行訓練,并在驗證集上進行評估。使用標準的COCO評價指標[1-2]來評估目標檢測的性能,包括AP、AP50、AP75以及APS、APM、APL。

3.2 實驗設置

在訓練時,使用mmdetection[1-2,29]框架進行實驗。權重衰減為0.000 1,每次訓練4幅圖像,所有模型均使用2個GPU進行訓練。ConFCOS的默認訓練為36個周期,初始學習率設置為2.5×10-5,在第27個周期和第33個周期時分別除以10。主干使用ImageNet[xx]上預先訓練的權重進行初始化。除非特別指定,否則輸入圖像的大小將調整為{800×1 333}。

推理過程遵循FCOSv2[23],除非特別指定,否則采用單尺度測試方法,圖像大小與單尺度訓練中的圖像大小相同。根據FCOS v2[23],選擇Px,y>0.05 的位置作為正樣本,并獲得預測的邊界框。根據Cascade R-CNN[11,30]將級聯檢測IoU設置為0.5和0.6。

3.3 ConFCOS與主流目標檢測算法的比較

表1 總結了提出的ConFCOS 和最先進的單階段目標檢測方法之間的性能比較。從中可以看出:(1)Con-FCOS 的性能比基于錨點的檢測器M2Det提高了0.9 個百分點,比最近的無錨點單階段檢測器FCOS v2 提高了1.6 個百分點。這是因為SFPN 可以在特征地圖上融合空間和通道信息,并且CasHead通過細化邊界框提高分類和回歸的置信度。(2)對于多尺寸對象的檢測,Con-FCOS 可以獲得最佳性能,原因在于ConFCOS 可SFPN中的全局上下文塊獲得豐富的特征信息,并在CasHead中實現細化的邊界框。

表1 ConFCOS與主流的單階段目標檢測方法的比較Table 1 ConFCOS vs.state-of-the-art one-stage detectors%

3.4 SFPN性能分析

基于RetinaNet和FCOS,比較了不同的基于FPN的方法,以驗證SFPN的有效性。其中BiFPN表示BiFPNB0[15]。所有模型均使用ResNet-50作為主干網絡進行訓練。表2總結了這些目標檢測方法的性能,從中可以觀察到:(1)SFPN 通常優于現有的基于FPN 的方法,因為SFPN可以融合具有不同感受域的空間和通道信息的特征,以提高特征表示能力。特別是在跳躍連接[15]中增加了DCM 模塊,它利用不同感受野的空洞卷積來捕獲到更加豐富的全局特征信息。而且在上采樣過程中使用了GCB模塊替代1×1卷積,它將所有位置的特征聚合在一起,形成一個全局上下文特征,以便對長距離依賴關系進行有效建模。(2)SFPN 在不同的對象檢測器(如RetinaNet 和FCOS)上優于現有的基于FPN 的方法,這表明SFPN 具有泛化能力,能夠融合從主干網絡中提取的更豐富的語義信息。(3)對于小目標的檢測,SFPN 的性能有了明顯的提高。這是因為在SFPN中引入了全局上下文塊,可以增強特征表示,減少特征融合中信息的衰減。(4)對于大目標的檢測,SFPN 的性能優于基于FPN的方法。因為引入了空洞卷積模塊DCM[28],它使用了不同的感受野空洞卷積核,其中采樣率rate={1,3,5}。當以不同采樣率的3×3卷積核應用在特征映射上時,當采樣率為1 時其實就是普通的3×3 卷積,當采樣率為3和5 時,使用了采樣率大的卷積核具有較大的感受野,可以捕獲到全局上文信息,這對提取圖片中的特征信息非常有效。(5)在AP50上的性能不如CE-FPN,可能是因為CE-FPN在更好地利用高級語義特征。

表2 與主流的FPN方法的比較Table 2 Comparison with popular FPN-based methods %

3.5 CasHead性能分析

在表3 中,比較了各種多個目標檢測方法來驗證CasHead 的有效性。所有模型均使用ResNet-101 和FPN進行訓練。從中可以看出CasHead優于FCOS的單次檢測方法,原因在于CasHead可以獲得高質量的邊界框,并能有效地學習合理的邊界框分布。FCOS 忽視了不同級聯階段中的特征一致性,因為它是通過全卷積的方式從原始位置上提取特征。CasHead 采用級聯檢測的方法來提高檢測器的性能,通過細化邊界框可以得到高質量的邊界框。在訓練過程中以級聯的方式,逐步提高后續階段IoU的閾值,有助于解決不一致的問題。

表3 CasHead性能評估Table 3 Evaluating performance of CasHead %

表4比較了COCO數據集上第二階段設置不同IoU閾值下的檢測性能。從表中可以看出,簡單地添加一個具有相同IoU 設置的新階段不會提高檢測精度。對于IoU閾值為0.5的ConFCOS,AP保持不變。原因主要在于抽樣方法沒有變。當閾值在第二階段增加到0.6 時,觀察到AP從43.2%提升到44.6%。另外,在第二階段嘗試更高的IoU 閾值0.7,但AP 略有下降。可能是IoU 閾值越高,訓練樣本的質量越高,而數量越少。

表4 不同IoU的檢測性能Table 4 Detection performances of different IoU thresholds

通過表1和表4可以觀察到,使用SFPN可使FCOS的mAP 提升1.7 個百分點,使用CasHead 使FCOS 的mAP提升1.4個百分點,但同時使用SFPN和CasHead的ConFCOS比FCOS只提升了1.6個百分點,這可能是因為SFPN 的性能主要貢獻是能提取豐富的全局特征信息,而這對于CasHead中提高檢測的邊界框質量作用有限。

3.6 損失函數性能分析

評估了目標檢測方法的召回率來驗證損失函數,對RetinaNet、FCOS 和ConFCOS 召回率曲線進行比較,圖4 顯示了在IOU 閾值分別為0.50、0.75 和0.90 的召回率曲線,從中可以觀察到:(1)ConFCOS 的性能優于基于錨點的RetinaNet 和無錨點FCOS,這是因為CasHead 可以通過細化邊界框來實現高質量的邊界框。(2)值得注意的是,通過更嚴格的IoU閾值,ConFCOS比RetinaNet和FCOS有更大的改進,這表明ConFCOS有更好的邊界框回歸,可以更加準確地檢測對象。原因是ConFCOS利用新的損失函數來進行訓練。

圖4 RetinaNet、FCOS和ConFCOS召回率曲線Fig.4 Precision of recall curves on RetinaNet,FCOS and ConFCOS

在表5 中,對ConFCOS 中的懲罰項k值進行了評估,訓練時間在RTX Ti 2080 GPU上采集,主干網絡采用ResNet-101。從表中可以觀察到:(1)隨著懲罰項值的降低,訓練時使用的邊界框數量越少,訓練速度會越來越快。(2)當k=0.7 時性能最好,表明剔除一些冗余的邊界框后性能獲得提升,速度也有所提高。

表5 k 值性能評估Table 3 Evaluating performance of k

3.7 圖例展示

圖5展示了SFPN運行過程中的C5~P5的可視化過程,從中可以看出,經過SFPN后取得的特征信息更加豐富,因為在其中具有不同感受野的擴展卷積模塊,而且它與當前層的特征與3×3卷積特征、上一層的下采樣特征進行了特征融合。

圖5 SFPN中圖例展示Fig.5 Visualization of SFPN

4 結束語

本文基于無錨點的單階段檢測算法FCOS 提出了一致性優化的全卷積單階段目標檢測算法(ConFCOS),單階段目標檢測算法可以使用三個部分來實現,即主干網絡、頸部網絡和檢測頭。針對頸部網絡,設計了一個增強的特征金字塔網絡(SFPN),它在特征圖上融合不同感受野的空間和通道信息。針對檢測頭,構造了一個級聯檢測頭(CasHead)來檢測目標,采用對檢測中的邊界框進行細化來提高分類和回歸的置信度。此外,針對提出的模型ConFCOS 的損失函數進行了優化,能獲取到高召回率,加速模型訓練和提高模型性能。在基準模型和數據集上進行的綜合實驗結果表明,ConFCOS 優于最先進的方法。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 制服丝袜在线视频香蕉| 色天天综合| 中文字幕一区二区视频| 99久久精品免费看国产电影| 福利一区在线| 三级视频中文字幕| 2020最新国产精品视频| 亚洲国产在一区二区三区| 亚洲欧美日韩中文字幕一区二区三区 | 狠狠躁天天躁夜夜躁婷婷| 久久成人免费| 日本一区二区三区精品国产| 91亚瑟视频| 波多野结衣亚洲一区| 99精品免费欧美成人小视频 | 欧美日韩中文字幕在线| 91久久偷偷做嫩草影院电| 成年女人18毛片毛片免费| 天堂网国产| 成人福利在线看| 免费无码网站| 国产91在线|日本| 国产午夜一级毛片| 久久视精品| 天天躁夜夜躁狠狠躁图片| 在线观看的黄网| 好紧太爽了视频免费无码| 精品无码国产一区二区三区AV| 欧美性久久久久| 日韩免费视频播播| 国产欧美精品专区一区二区| 欧美精品色视频| av大片在线无码免费| 91久久国产成人免费观看| 久草视频福利在线观看| 日本在线视频免费| 国产午夜精品鲁丝片| 国产免费精彩视频| 国产精品美女网站| 在线免费不卡视频| 国产SUV精品一区二区| 国产主播在线观看| 欧美一级大片在线观看| 久久人体视频| 久久久久九九精品影院 | 国产精品视频猛进猛出| 喷潮白浆直流在线播放| 免费人欧美成又黄又爽的视频| 青青青国产免费线在| 日本午夜视频在线观看| 欧美日韩导航| 国产精品大尺度尺度视频| 亚洲第一区精品日韩在线播放| 欧美α片免费观看| 免费视频在线2021入口| 欧美成人午夜视频免看| 亚洲无码高清一区| 日韩高清成人| 国产精品 欧美激情 在线播放 | 秋霞国产在线| 午夜免费小视频| 欧洲高清无码在线| 99精品国产自在现线观看| 毛片一区二区在线看| 毛片基地视频| 91精品伊人久久大香线蕉| 国产欧美专区在线观看| 国产精品第一区在线观看| 一级毛片在线直接观看| 伦精品一区二区三区视频| 亚洲一级毛片在线观播放| 狠狠色丁香婷婷| 992Tv视频国产精品| 国产精品女熟高潮视频| 欧洲在线免费视频| 欧洲欧美人成免费全部视频| 一级不卡毛片| 国产清纯在线一区二区WWW| 亚洲无码日韩一区| 免费国产一级 片内射老| 午夜电影在线观看国产1区| 久久精品91麻豆|