999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv4-tiny網絡的狹小空間目標檢測方法

2022-05-19 13:30:24王長清賀坤宇
計算機工程與應用 2022年10期
關鍵詞:特征融合實驗

王長清,賀坤宇,蔣 帥

河南師范大學 電子與電氣工程學院,河南 新鄉 453007

狹小空間目標檢測是計算機視覺的特殊應用任務之一,在禁入目標管控識別[1]、人流量智能統計[2]、異常行為檢測[3]等方面具有廣泛的應用價值。狹小空間是受到光線、角度和內部結構等因素影響較小的單一背景場景,其難點在于面臨多目標之間相互遮擋和攝像頭取景不完整等因素影響時,傳統輕量級算法的檢測結果存在大量漏檢和虛檢,因此實現狹小空間遮擋目標輕量級檢測算法具有重要的研究意義。

傳統目標檢測依賴人工特征提取,并通過支持向量機(support vector machine,SVM)[4]等分類器完成檢測任務[5],其識別過程較為復雜且主觀性強,對遮擋顯著區域不敏感,在檢測精度與速度均衡性和魯棒性方面表現較差?,F階段,隨著卷積神經網絡(convolutional neural network,CNN)[6]的不斷發展,端對端的思路被應用到目標檢測算法中,其中典型算法有SSD[7]和YOLO系列[8-9]等。這類算法將分類過程與回歸網絡合并為一個階段進行,在檢測精度與速度的均衡性方面有著明顯的提升,適合部署在移動端進行狹小空間目標檢測。王新國等[10]提出一種融合ECA注意力機制的YOLOv4-tiny網絡,在狹小空間行人檢測數據集中準確率達到84.12%。李海濱等[11]將候選框融合網絡PRN(partial residual network)融入YOLOv4-tiny頸部位置,完成對狹小空間的四種粉塵檢測,準確率達到81.27%。華志超等[12]提出一種YOLO網絡與HOG特征結合的檢測方法,將狹小電梯場景中禁入目標的正確識別率提高至89.02%。王琳等[13]針對狹小場景中行人檢測,提出一種引入金字塔池化模型的YOLO_PPM網絡,能夠充分融合上下文語義信息,檢測精度明顯提升。

現有的基于YOLOv4-tiny網絡的算法在狹小空間中取得良好的檢測性能,但也存在以下不足:(1)骨干網絡過于輕量化,特征圖在逐層傳遞過程中輪廓演化不足,無法在訓練過程中有效地學習更多的遮擋目標特征。(2)頸部傳統特征融合網絡FPN(feature pyramid network)[14]過于簡單,不同尺度特征圖間融合效率低下,易丟失邊緣細節信息。(3)傳統IoU-NMS算法在后處理階段具有局限性,易將重疊預測框誤刪,導致漏檢。

針對存在的問題,以狹小場景中電梯轎廂、公共汽車車廂、客機機艙為主要研究場景,基于YOLOv4-tiny算法[15]提出一種自適應NMS的多尺度檢測算法(YOLO adaptive-NMS based multi-scale feature fusion,YOLOAMF)。首先,通過骨干網絡引入大尺度特征圖優化策略(large-scale optimization strategy),形成更加細粒化的三種尺度有效特征層,增加模型對遮擋目標顯著區域的關注度,學習更多遮擋細節特征,并引入改進的金字塔池化模型,聚合上下文信息擴增感受野;其次,頸部網絡設計內嵌空間注意力的雙路金字塔特征融合網絡(coordinate attention based double feature pyramid network,CA-DFPN),在原始FPN結構上增加自下而上和跳躍連接兩條融合通道,提升不同尺度間特征圖利用率,減少邊緣信息丟失問題;最后,在后處理階段提出將預測框中心因子融入自適應NMS的判別方法,減少傳統IoU-NMS算法對重疊目標框的誤刪,提高網絡對遮擋目標的判別性。實驗結果表明,YOLO-AMF算法面對狹小空間遮擋目標時檢測精度與速度的均衡性優于常用輕量級算法,滿足應用需求。

1 YOLO-AMF算法

基于YOLOv4-tiny算法,本文提出如圖1所示的YOLO-AMF網絡模型,由骨干網絡、特征融合網絡、檢測頭網絡三部分組成,輸入端為3通道RGB圖像。首先通過改進的骨干網絡中P3、P4、P5層將特征圖尺度擴增為76×76、38×38、19×19進行關鍵信息提?。蝗缓髮?個不同尺度的特征圖輸入雙路金字塔特征融合網絡進行低、高層語義信息的特征融合,再將含有豐富語義信息的特征圖輸入檢測頭網絡;最終通過改進的自適應NMS算法進行后處理階段,其中密度估計模塊(density subnet)[16]能夠使訓練模型感知場景密集程度,并融入預測框中心距離因子,自適應調整閾值對多余錨框進行篩選,得到目標預測框。

圖1 YOLO-AMF網絡結構圖Fig.1 YOLO-AMF network structure diagram

1.1 改進的骨干網絡

改進后的CSPDarknet53-tiny骨干網絡如圖2所示,由CBL卷積層(convolutional)、CSP Block、最大池化層、CSP_PPM池化金字塔四部分構成,原始網絡的輸出層是32倍和16倍下采樣的兩個比例尺寸特征圖(P4、P5),感受野是作用于輸入圖像上的區域,網絡越深感受野越大,低分辨率的深層特征圖擁有更大的感受野檢測大、中目標,高分辨率淺層特征圖的感受野較小,邊緣信息豐富,更適用于檢測遮擋目標。

圖2 改進的骨干網絡Fig.2 Improved backbone network

針對遮擋目標具有顯著區域較小的特點,原始網絡只有P4、P5通道進行加強特征提取,易丟失大量邊緣細節信息。改進的骨干網絡中引入大尺度特征圖優化策略和改進的金字塔池化模塊,使網絡捕捉更加細致的圖像信息,通過提升輸入圖像分辨率,將輸出特征尺寸由13×13、26×26改變為19×19、38×38。而相對輸入圖像為8倍下采樣的第二個CSPNet結構[17]中包含更多遮擋細節特征,因此添加P3(76×76)細粒化檢測分支,加強對淺層網絡的學習能力,減少訓練過程中淺層信息丟失。

針對特征提取過程中網絡不斷加深,導致實際網絡感受野總有一定偏差,使網絡無法有效融合全局特征,丟失特征信息問題,將CSPNet結構思想引入到金字塔池化模型(pyramid pooling module,PPM)[18],構成如圖3所示的CSP_PPM池化網絡,并加入骨干網絡末端。采用聚合策略將1×1、2×2、3×3、6×6四種不同尺度的平均池化窗口作用于傳入的高級語義信息,實現將豐富的高層次信息向低層次特征的映射,利用1×1卷積將池化后的4個特征圖進行通道壓縮,通過3×3卷積層的特征整合和跳躍連接通道,與未經過池化的特征圖進行級聯融合。最后將聚合各個區域有效上下文信息的特征圖傳入骨干網絡的瓶頸層,網絡加深的同時聚合淺層細節信息與高層語義信息,增強弱小遮擋目標的表征能力且不會帶來性能損失。

圖3 CSP_PPM結構Fig.3 CSP_PPM structure

1.2 改進的多尺度融合網絡及自適應NMS算法

原始YOLOv4-tiny使用傳統金字塔FPN結構為特征融合網絡,該結構僅通過一條自上而下的融合路徑進行高、底層特征信息的融合,會出現冗余信息過多,傳遞過程中易丟失淺層邊緣信息的問題。

針對上述問題,提出如圖4所示的雙路金字塔特征融合網絡CA-DFPN結構。在傳統FPN結構基礎上,引入兩個融合節點,構建自上而下、自下而上和加入空間注意力的跳躍連接三條特征融合通道,并引入深度可分離卷積(depthwise separable convolution,DS Conv)[19]為下采樣,改進模型在不增加額外計算量的同時擁有更有效的P3、P4、P5不同尺度間特征融合效果,融合后特征圖包含更加豐富的底層細節信息與高級語義信息。

圖4 CA-DFPN結構圖Fig.4 CA-DFPN structure diagram

為防止遮擋目標信息在下采樣過程中被噪聲淹沒導致特征信息的丟失,同時保證輕量化,采用3×3深度可分離卷積層代替普通3×3卷積層作為下采樣。兩種卷積層結構如圖5所示,假設利用普通3×3卷積層將大小為H×W、維度為x的特征圖像提取為維度y,計算量為9×x×y×H×W;深度可分離卷積將提取特征過程分解為深度卷積和逐點卷積,先使用C個3×3×1卷積核依次對H×W×C的圖像進行單通道特征提取,再通過N個1×1×C卷積核對經過深度卷積的圖像進行通道堆疊,計算量為9×x×H×W+x×y×H×W,計算量只有普通卷積層的1/9。通過批量歸一化(batch normalization,BN)和LeakyReLU激活函數有效解決因DS Conv加深網絡帶來的梯度消失與爆炸現象。

圖5 標準卷積層和深度可分離卷積層Fig.5 Standard convolutional layer and depth separable convolutional layer

針對檢測過程中對遮擋目標顯著區域注意力不足問題,將CA(coordinate attention)空間注意力機制[20]加入特征融合網絡,在通道注意力基礎上兼顧其位置關系,考慮跨緯度交互的重要性,使得網絡模型對感興趣目標的位置更加敏感和精準。注意力網絡提取顯著特征過程如圖6所示。分別對特征圖的水平、垂直方向進行全局平均池化,得到兩個方向的聚合特征,通過級聯融合和1×1卷積變換函數F進行特征變換;然后兩個1×1卷積通過F h和F w變換函數,將整合在一起的特征圖分解為兩個通道數相等的特征圖,通過sigmoid激活函數輸出張量;最終經過特征整合得到顯著性注意區域y c。

圖6 CA注意力機制結構圖Fig.6 CA attention mechanism structure diagram

其中,f表示特征圖的中間映射,β表示非線性激活函數,z h、zw是垂直和水平上的位置信息;g h和g w表示經過sigmoid輸出的兩個通道數相同的特征圖;xc表示跳躍連接上的特征信息。

原始YOLOv4-tiny網絡后處理階段采用傳統IoUNMS算法,通過設置固定NMS閾值,對冗余錨框采用嚴格過濾方法,在遮擋嚴重的場景中因為不同目標框重疊面積(IoU)過大,易被視為同一目標,而將真實預測框去除,導致模型漏檢。

針對后處理階段存在問題,提出融合預測框中心距離因子的自適應NMS算法,并代替傳統IoU-NMS。在回歸網絡最后一層引入密度估算分支,該結構由1×1、3×3卷積核與sigmoid激活函數組成,用來學習預測框中目標區域的密度,從而通過反饋的密度值自適應地調整NMS閾值大小,減少在遮擋場景因NMS閾值不匹配而導致的漏檢。每個區域所映射的目標密集程度如式(4),首先計算真實框(ground true)M i與周圍真實框M j的最大IoU值,以此表示該區域密度d i。真實框之間IoU值越大表示該區域密集程度大,此時將使用較大NMS閾值處理冗余錨框。動態閾值定義如式(5)所示:

其中,d x表示置信度最高候選框周圍的密集程度,當密度得分高于所預先設置的閾值Nt時,則使用更高的N x閾值進行監督預測,否則使用預先設定的閾值。

經過動態NMS閾值的改進,模型能夠自適應地判別復雜場景與稀疏場景,但傳統IoU-NMS算法依賴固定的IoU值判斷目標框之間的重疊情況具有一定的局限性。例如當目標框之間重疊面積相同時(IoU相等)或沒有相交時(IoU=0),無法區分目標框之間相交姿態,此時傳統IoU-NMS失效,于是引入目標框中心距離因子,計算如式(6),使目標間發生重疊時得到目標框此時的位置情況,預測框回歸得更加準確,進一步降低漏檢情況。DIoU-NMS可視化如圖7所示。

圖7 DIoU-NMS示意圖Fig.7 Schematic diagram of DIoU-NMS

2 數據集和實驗環境

2.1 實驗環境

實驗平臺為Win10操作系統,CPU為Intel?CoreTMi5-7500 CPU@3.40 GHz,GPU為NVIDA GeForce RTX 2080TI,使用Pytorch1.6.0框架。

2.2 數據集制作

為實現輕量級狹小空間遮擋目標識別算法,共設置PASCAL VOC07+12公開數據集(包含訓練集16 551張圖片,測試集4 952張圖片)和自制數據集兩組數據集。

其中自制數據集共20 291張圖片,由11 296張電梯轎廂和8 995張公共汽車車廂、客機機艙與自然場景的真實圖片組成,包含四種不同場景,訓練集和驗證集按照7∶3劃分,其中70%的圖片具有目標相互遮擋或攝像頭取景不完整的特點,能夠有效防止訓練中因狹小空間背景過于單一造成過擬合現象,并提升模型在通用狹小場景的泛化能力。數據集定義人(person)、電動車(electric-bicycle)、自行車(bicycle)三種檢測類別,并設置嬰兒車(baby carriage)、手推車(trolley)、家具(furniture)、貨物(goods)、寵物(pet)等負樣本提升模型魯棒性。每張圖片的標注面積與圖片面積按照一定比例利用LabelImg軟件標注,且圖片長寬不超過3∶1,使得Kmeans++聚類算法可以計算出更加匹配的先驗框(anchors box)尺寸,使預測框更加貼合目標。數據集所含樣本見表1所示。

表1 數據集所含類別數量Table 1 Number of classes in dataset

由于狹小空間的大小具有不確定性,且攝像頭取景高度變化很大,導致目標在圖像中的占比大小具有差異性,使模型對不同尺寸目標的自適應能力下降,故在預處理階段采用Mosaic數據增強[21]對數據集通過隨機縮放、隨機裁剪、隨機分布的方式隨機選取4張圖片進行拼接,使訓練集中大、中、小目標更加均勻,故數據集得到更多遮擋和不完整目標樣本,模型訓練更加魯棒。數據增強后的部分數據集如圖8所示。

圖8 部分數據集Fig.8 Part of dataset

3 實驗結果與分析

自制數據集以7∶3隨機劃分訓練集與測試集,并設置多組消融實驗,以驗證每個改進策略對模型的效果,進而得到最優模型。同時為進一步驗證算法性能方面的說服力,在PASCAL VOC07+12公開數據集上設置與目前最常用的幾種輕量級算法的對比實驗,通過比較評估參數平均檢測精度(mAP)和檢測速度(FPS)來對比算法的有效性。

3.1 評估參數

在評估過程中,目標是否被網絡正確分類表示為T(true)或者F(false),目標本身是正類或負類表示為P(positive)或者N(negative)。TP為被正確檢測的正類總數。TN表示被正確檢測的負類總數。FP表示被誤檢的正類總數。FN表示被誤檢的負類總數。

其中,精確率(precision)表示網絡檢測的所有目標中為正類個數的比例,召回率(recall)表示網絡檢測的所有正類占數據集所有正類的比例。對于最終的評估結果,AP代表某一類別的綜合評價,AP值越高代表單一類別精度越高。mAP是對整個網絡水準的評估,C表示數據集所包含類類別數,c表示單個類別。

3.2 模型訓練

實驗均在以下參數設置中進行,輸入圖片為608×608;epoch為300輪;batch_size前70輪為128,后230輪為32,;learning_rate學習率前70輪為1E-3,后230輪為1E-4;momentum為隨機梯度下降(stochastic gradient descent,SGD),根據梯度下降的程度對初始學習率進行動量減少,以達到更好的收斂結果,設置為0.9。訓練過程Loss曲線如圖9所示。

圖9 訓練損失曲線Fig.9 Training loss curve

隨著epoch不斷增加,Loss損失值在不斷降低,訓練進行到70輪后損失曲線趨于穩定,沒有產生欠、過擬合現象,原始YOLOv4-tiny算法與改進算法的Loss值收斂于2.3和1.9左右,證明模型的識別精度在不斷提高,YOLO-AMF算法各項超參數設置合理。

3.3 消融實驗

消融實驗是以YOLOv4-tiny為基準結合不同創新策略,在包含四種場景的自制數據集下進行訓練和性能評估,在保證實時性的前提下,提高算法的識別精度。不同算法模型測試結果見表2所示。

表2 消融實驗Table 2 Ablation experiment

表2對每項改進策略的有效性進行分析,從實驗2~6可以看出每項改進模塊均對模型有著不同程度的貢獻。其中實驗4引入CA-DFPN結構對網絡貢獻最大,mAP提高1.61個百分點。初始YOLOv4-tiny(實驗1)的mAP值為94.23%,采用大尺度特征圖優化策略后(實驗2)的mAP值為94.72%,召回率提升1.30個百分點,表明引入該優化策略使模型加強對淺層細節信息的提取,使遮擋目標的訓練更加深入;實驗7在實驗2的基礎上在骨干網絡瓶頸區加入CSP_PPM池化金字塔,mAP值和召回率比實驗1提升1.03個百分點和2.37個百分點,可以看出CSP_PPM結構在擴大感受野的同時降低網絡過深帶來的感受野偏差,從而提高對特征圖輪廓信息的表達效果;實驗8在實驗7的基礎上引入雙路金字塔特征融合網絡,mAP值和召回率達到了96.33%和91.93%,相比于實驗1提高了2.10個百分點和4.21個百分點,表明不同尺度間淺層細節信息和高級語義信息有著更優的融合效果,使特征圖有更豐富的語義信息,從而提升對遮擋目標的檢測??紤]到傳統IoU-NMS算法的局限性,固定閾值法易將嚴重遮擋的目標刪除,實驗5引入動態NMS閾值法,mAP值和召回率均有提升,但僅根據傳統IoU值判斷相互重疊預測框位置,易導致回歸過程中產生誤差,故實驗5、實驗9檢測效果提升不明顯;實驗10在實驗9的自適應NMS算法中引入目標框中心位置影響因子,使預測框回歸更加準確,mAP值和召回率比實驗9高0.69個百分點和1.69個百分點,比實驗1高3.06個百分點和6.17個百分點,進一步減少對遮擋重疊目標的漏檢、虛檢,且FPS保持87.9左右,表明模型仍有較高的檢測速度,滿足移動端實時檢測。

圖10展示了原始YOLOv4-tiny與消融實驗中最優模型YOLO-AMF在真實電梯轎廂場景的檢測效果對比。可以看出改進后的算法在面對目標較多且目標之間相互遮擋的情況下,能夠有效地將原始算法所漏檢的嚴重遮擋目標與圖像取景不完整目標識別出來,明顯提升對遮擋目標的檢測能力,而且對目標重疊產生的大量冗余信息也有較好的消除作用,使預測框更加貼合目標,減少虛檢現象。在第4張圖中目標被非目標物體嚴重遮擋時也有較好的檢測效果,進一步證明算法的魯棒性較優。

圖10 電梯轎廂場景測試對比Fig.10 Comparison of elevator car scene detection

為進一步驗證最優模型YOLO-AMF在其他狹小場景中的檢測能力,建立包含公共汽車車廂與客機機艙兩個場景的測試集,如圖11展示YOLOv4-tiny模型與YOLO-AMF模型在其他真實狹小場景的測試實驗結果。前兩行圖片為飛機客艙場景,其中多數目標被座椅、口罩等非目標物體所遮擋,導致YOLOv4-tiny模型出現大量漏檢現象,而改進后的模型能夠快速分辨真實目標與非目標物體,減少漏檢;后兩行圖片為公共汽車車廂場景,其中目標與目標之間的遮擋較為嚴重,導致YOLOv4-tiny模型產生虛檢、漏檢現象,而YOLO-AMF后處理階段的動態NMS閾值能夠降低目標框嚴重重疊被誤刪的情況,減少虛檢、漏檢現象。通過其他狹小場景測試實驗可知,YOLO-AMF模型在不同狹小場景中均有著良好的泛化能力。

圖11 其他狹小場景測試對比Fig.11 Comparison of other narrow scene detection

以上實驗表明,對于實際的狹小空間目標檢測而言,YOLO-AMF算法各項改進策略是有效的,能夠檢測到原算法的漏檢、虛檢目標且提高檢測的精準度,同時具備輕量級算法檢測速度快的特點,更高效地完成通用狹小場景遮擋目標檢測任務。

3.4 PASCAL VOC數據集對比實驗

為進一步驗證算法的有效性,將YOLO-AMF算法與目前使用率最高的幾類經典算法Faster RCNN、YOLOv4、MobileNet-SSD、YOLOv3-tiny、YOLOv4-tiny,在PASCAL VOC07+12公開數據集進行對比實驗,實驗結果見表3所示。

表3 對比實驗Table 3 Comparative experiment

從表2可以看出,大型網絡算法的優勢在于檢測精度高,例如使用Resnet50為主干網絡的Faster RCNN二階段算法和YOLOv4一階段典型算法,平均檢測精度分別達到了81.16%和89.03%,但模型體積過大,分別為522.9 MB和244.7 MB,導致難以部署到算力有限的移動端。改進后的YOLO-AMF與大型網絡Faster RCNN在平均精度上相比也毫不遜色,僅落后0.39個百分點,模型體積只有其1/20。輕量級網絡的優勢在于檢測速度和精度較為均衡,能夠在移動端進行實時檢測,但面對復雜場景時的檢測效果較差,YOLO-AMF相比于MobileNet-SSD、YOLOv3-tiny和YOLOv4-tiny三種最常用的輕量化網絡在mAP上分別提高了10.09個百分點、9.34個百分點和2.84個百分點,有著更高的檢測精度,且符合實時檢測的標準。YOLO-AMF與YOLOv4-tiny在PASCAL VOC數據集上mAP曲線對比圖如圖12所示。可以看出從各個類別的不同尺度目標上mAP均有明顯提升,例如在小目標較多的pottedplant、boat、bird類別上分別提高了7個百分點、4個百分點、3個百分點,說明改進后的算法在面對遮擋目標和小目標較多的場景時有著更優秀的檢測效果,進一步驗證了改進后算法的有效性。

圖12 YOLOv4-tiny和YOLO-AMF的mAP曲線對比Fig.12 Comparison of mAP curves of YOLOv4-tiny and YOLO-AMF

4 結束語

本文針對YOLOv4-tiny算法在狹小場景中遮擋目標檢測方面的不足,基于YOLOV4-tiny算法,提出YOLOAMF算法,共進行三種可行的改進:(1)在骨干網絡提出大尺度特征圖優化策略和引入聚合策略的金字塔池化網絡,使模型學習更多遮擋目標信息;(2)在特征融合網絡提出輕型雙路金字塔特征融合網絡CA-DFPN結構,提高不同尺度間特征圖的融合效率,增加豐富的邊緣細節信息;(3)在后處理階段提出動態NMS閾值結合目標中心位置信息的方法,使模型能夠根據場景的復雜情況自動調整NMS閾值,防止對真實預測框的過濾,進一步提高檢測精度。

實驗表明,YOLO-AMF算法在PASCAL VOC07+12數據集和自建數據集中的mAP值分別提高2.84個百分點和3.06個百分點,達到80.77%和97.29%,且FPS保持在87.9,能夠快速準確地檢測出遮擋目標,為狹小空間目標檢測的實際應用提供一種高效的檢測方法。雖然算法精度有很大提升,但受限于主干網絡的輕量化,在通用場景目標檢測時,小目標檢測精度仍低于大型網絡,下一步將繼續優化主干網絡,擴充數據集,以適應通用場景的小目標檢測。

猜你喜歡
特征融合實驗
記一次有趣的實驗
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 国产网友愉拍精品视频| 国产精品第一区在线观看| 国产三级a| 99精品视频在线观看免费播放| 99re热精品视频中文字幕不卡| 国产主播在线观看| 久久亚洲欧美综合| 欧美精品在线观看视频| 高清不卡毛片| 亚洲第一黄片大全| 国产成人精品一区二区秒拍1o| 91人妻日韩人妻无码专区精品| 日韩精品久久久久久久电影蜜臀| 国模极品一区二区三区| 亚洲精品日产AⅤ| 国产成人精品一区二区三区| 丁香五月激情图片| 国产v欧美v日韩v综合精品| 色噜噜久久| 她的性爱视频| 99热这里只有精品免费| 免费观看国产小粉嫩喷水| 四虎精品黑人视频| 亚洲精品国产自在现线最新| 国产精品成人AⅤ在线一二三四| 日本不卡在线播放| 婷婷色一二三区波多野衣 | 狠狠v日韩v欧美v| 在线观看亚洲国产| 99久久国产综合精品2023| 亚洲乱强伦| 日韩国产精品无码一区二区三区| 亚洲一区二区无码视频| 欧美午夜视频| 国产欧美视频综合二区| 91久久国产综合精品| 免费中文字幕一级毛片| 亚洲视频影院| 国产va免费精品| 欧美专区在线观看| 国产一区免费在线观看| 国产精品视频999| 精品国产91爱| 免费看av在线网站网址| 黄色网址免费在线| 国产精品专区第一页在线观看| 国产嫖妓91东北老熟女久久一| 人与鲁专区| 日本高清成本人视频一区| 精品国产成人av免费| 亚洲系列中文字幕一区二区| 99er精品视频| 好吊妞欧美视频免费| 精品精品国产高清A毛片| 久久久久国产精品免费免费不卡| 噜噜噜久久| 亚洲美女AV免费一区| 欧美在线视频不卡第一页| 无码一区中文字幕| 九色在线视频导航91| 亚洲成aⅴ人在线观看| 麻豆精品在线播放| 国产成熟女人性满足视频| 国产在线拍偷自揄拍精品| 国产人成在线观看| 天天综合色天天综合网| 国产18在线播放| 在线视频精品一区| 中文字幕第1页在线播| 亚洲综合片| 午夜毛片免费观看视频 | 午夜在线不卡| 中文字幕免费在线视频| 黄色网在线| 自拍中文字幕| 国产永久在线视频| 国产精品大尺度尺度视频| 日本在线亚洲| 中字无码av在线电影| 久久综合丝袜长腿丝袜| 国产一区二区三区在线观看视频 | 国内丰满少妇猛烈精品播|