999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv8的PCB焊點語義分割方法

2024-08-23 00:00:00盧子冊劉小芳王德偉
無線電工程 2024年7期

摘 要:針對具有相似灰度值的印制電路板(Printed Circuit Board,PCB) 焊點在檢測分割過程中的誤檢和漏檢問題,提出改進YOLOv8 的PCB 焊錫語義分割模型。在主干網(wǎng)絡(luò)引入坐標(biāo)注意力(Coordinate Attention,CA) 機制,準(zhǔn)確定位焊點空間位置,提升模型捕捉焊點空間信息能力;使用雙向特征金字塔網(wǎng)絡(luò)(Bi-directional Feature Pyramid Network,BiFPN)替換路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet) 特征金字塔,更好地捕捉目標(biāo)的邊界信息,并在原有基礎(chǔ)上增加一個分割層。引入EIoU 損失函數(shù),提供更精細的評估結(jié)果并提高泛化能力。通過對比實驗得出,所提算法的平均像素精度(mean Pixel Accuracy,mPA) 達到90. 37% ,平均交并比(mean Intersection over Union,mIoU) 達到83. 76% ,每秒推理圖片張數(shù)(Frames Per Second,FPS) 達到43,實現(xiàn)了PCB 板更精準(zhǔn)的焊點分割。

關(guān)鍵詞:YOLOv8;語義分割;坐標(biāo)注意力機制;雙向特征金字塔網(wǎng)絡(luò);EIoU 損失函數(shù)

中圖分類號:TP751. 1 文獻標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

文章編號:1003-3106(2024)07-1614-08

0 引言

印制電路板(Printed Circuit Board,PCB)是通過自動化設(shè)備將電子元件焊接到PCB 上制作而成。制作過程中,由于設(shè)計錯誤、制造問題或材料損壞等會導(dǎo)致焊錫短路或開路,影響產(chǎn)品正常使用。所以對PCB 產(chǎn)品質(zhì)量檢測的技術(shù)實現(xiàn)一直是主要的討論話題之一。早些年的實現(xiàn)通常依賴傳統(tǒng)的檢測技術(shù)和算法,例如OpenCV、halcon 和早期機器學(xué)習(xí)技術(shù)。張俊賢[1]設(shè)計了基于傳統(tǒng)算法的PCBA 焊錫檢測系統(tǒng),利用MARK 孔使用模版匹配進行定位和仿射變換實現(xiàn)焊錫圖像自動獲取。雷崢鳴[2]提出基于機器視覺的PCB 焊錫缺陷檢測系統(tǒng),改進傳統(tǒng)的霍夫圓變換,實現(xiàn)精準(zhǔn)的圖像圓檢測和定位。但是近些年傳統(tǒng)的檢測技術(shù)逐漸不能滿足新型產(chǎn)品的檢測需求。

隨著神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的興起,語義分割技術(shù)逐漸在工業(yè)領(lǐng)域得到應(yīng)用,它對圖像的每個像素進行分類,實現(xiàn)像素級的精細預(yù)測。語義分割技術(shù)發(fā)展分為2 個階段:傳統(tǒng)語義分割算法和基于深度學(xué)習(xí)的語義分割[3]算法。傳統(tǒng)語義分割算法中,常見方法包括閾值分割、邊緣檢測和區(qū)域法等?;谏疃葘W(xué)習(xí)的語義分割算法中,包括全卷積網(wǎng)絡(luò)(Fully ConvolutionalNetwork,FCN)、U-Net、PSPNet 和Deeplab 系列等經(jīng)典網(wǎng)絡(luò)。FCN[4]是深度學(xué)習(xí)算法進軍語義分割領(lǐng)域的開山之作,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Net-work,CNN)模型(如AlexNet、VGGNet 等)中全連接層替換為全卷積層,構(gòu)建像素級的語義分割網(wǎng)絡(luò)。這一創(chuàng)新使得FCN 實現(xiàn)從像素到像素的準(zhǔn)確語義分割。PSPNet[5]針對FCN 在語義分割領(lǐng)域的問題進行改進,引入空間金字塔模塊,能夠提取圖像的上下文信息和多尺度信息,使得分割層能夠獲得更加豐富的全局上下文信息。這一改進有效降低了FCN 中圖像類別誤分割的概率。U-Net[6]也是基于FCN 架構(gòu)的改進,采用Encoder 和Decoder 的U 型結(jié)構(gòu)以及skip-connection,在醫(yī)學(xué)領(lǐng)域的圖像處理問題中廣泛應(yīng)用。DeepLab 系列[7-10]是谷歌團隊開發(fā)的基于CNN 的語義分割模型。

毛萬菁等[11]運用改進的U-Net 語義分割模型,對草莓在不同病害情況下進行精準(zhǔn)分割。在編碼器部分引入CNN-Transformer 混合結(jié)構(gòu),并在解碼器中采用雙路上采樣模塊,并以hard-swish 激活函數(shù)取代ReLU 激活函數(shù)。使得模型在像素精度上達到92.56% ,平均交并比(mean Intersection over Union,mIoU)達到84. 97% ,超越了許多分割模型。在自動駕駛領(lǐng)域,楊奎河等[12]提出了一種深度學(xué)習(xí)模型,架構(gòu)優(yōu)化基于YOLOSeg 算法,MobileNetv3 作為特征提取網(wǎng)絡(luò),并引入路徑聚合網(wǎng)絡(luò)(Path Aggregation Net-work,PANet)融合各種尺度的特征圖。相較于過去的RefineNet,該模型在分割速度每秒推理圖片張數(shù)(Frames Per Second,FPS)上提升了35,同時交并比(In-tersection over Union,IoU)平均提高幅度達到4. 9% 。

自FCN 以來,深度學(xué)習(xí)在語義分割領(lǐng)域取得巨大進步,YOLO 系列模型以其端到端的快速和輕量性能力更是在工業(yè)領(lǐng)域得到廣泛應(yīng)用。尤其是YOLOv5 模型,取得了引人矚目的成就[13-16]。

1 YOLOv8 算法

目前YOLO 系列的SOTA 模型是ultralytics 公司于2023 年發(fā)布的YOLOv8。按照模型寬度和深度不同分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x 五個版本。本文改進的是YOLOv8n 模型。

YOLOv8 的Backbone 采用CSPDarknet 結(jié)構(gòu),它是Darknet 的一種改進,引入CSP 改善網(wǎng)絡(luò)結(jié)構(gòu)。CSPDarknet 把特征圖分為兩部分,一部分進行卷積操作,另一部分進行跳躍連接,在保持網(wǎng)絡(luò)深度的同時減少參數(shù)量和計算量,提高網(wǎng)絡(luò)效率。Neck 部分采用特征金字塔PANet[17],通過自頂向下路徑結(jié)合和自底向上特征傳播進行多尺度融合。損失函數(shù)采用了CIoU[18]。YOLOv8 的網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。

2 改進YOLOv8 算法

改進YOLOv8 算法主要有以下3 點:① 在Back-bone 的最后2 步分別添加坐標(biāo)注意力(Coordinate At-tention,CA)機制模塊[19],用于捕獲圖像的全局空間信息;② 在Neck 中用雙向特征金字塔網(wǎng)絡(luò)(Bi-direc-tional Feature Pyramid Network,BiFPN)[20]替換PANet進行特征融合,并在原有基礎(chǔ)上增加一個分割層;③ 采用EIoU 損失函數(shù)替換CIoU 用于優(yōu)化模型。圖2 是本文改進的YOLOv8 網(wǎng)絡(luò)結(jié)構(gòu)。

2. 1 CA 注意力機制

為了準(zhǔn)確提取焊點的位置空間信息,本文在主干網(wǎng)絡(luò)的C2f 和SPPF 之間引入CA 機制,更好地提取特征空間位置信息,達到精準(zhǔn)分割。CA 的實現(xiàn)過程如圖3 所示。

CA 的操作過程分為空間信息嵌入和空間注意力生成兩部分,CA 模塊前半部分是空間信息嵌入,輸入為x,分別沿水平和豎直方向?qū)斎胩卣鲌D計算一維平均池化進行全局信息提取,得到高度和寬度方向的2 個特征圖:

CA 模塊的后半部分是空間注意力生成,連接由前半部分輸出具有全局感受野的2 個特征圖并通過1×1 卷積操作將維度變成原來的C / r,批量歸一化后將得到的特征圖F1 經(jīng)過Sigmoid 函數(shù)得到形如1×(W+H)×C / r 的特征圖。

f = δ(F1([zh ,zw ])), (3)

式中:f∈CC / r ×(w+h)表示空間信息的水平和垂直中間特征圖,r 表示下采樣率,δ 表示非線性激活函數(shù)。

將f 分成2 個張量f h ∈CC / r×H 和f w ∈CC / r×W ,f h和f w 再分別通過1×1 卷積得到和輸入x 相同的通道數(shù)。

gh = σ(Fh(f h )), (4)

gw = σ(Fw(f w ))。(5)

最后把空間信息加權(quán)進行融合,輸出如下:

yc(i,j) = xc(i,j)× ghc(i)× gwc(j)。(6)

捕捉位置信息和通道信息,CA 相較于其他輕量級注意力機制表現(xiàn)出更出色的效果。

2. 2 BiFPN 和分割層

本文用BiFPN 替換YOLOv8 的PANet 特征金字塔,二者網(wǎng)絡(luò)結(jié)構(gòu)對比如圖4 所示。

和PANet 單一的自頂向下和自底向上進行特征融合不同,BiFPN 靈活地去掉只有一條輸入邊的點,因為輸入單一,對旨在融合不同特征的網(wǎng)絡(luò)貢獻很小。BiFPN 在處于同一層的輸入節(jié)點和輸出節(jié)點之間額外添加一條邊,以在不增加成本情況下融合更多特征信息。和PANet 只有一個雙向路徑不同,BiFPN 將雙向路徑當(dāng)做一個特征網(wǎng)絡(luò)層,重復(fù)使用多次以實現(xiàn)更高層次特征融合,并通過NAS 技術(shù)計算使用次數(shù)。

YOLOv8 本身有3 個分割層,本文在原有基礎(chǔ)上額外添加1 個分割層。通過添加額外的分割層,語義分割網(wǎng)絡(luò)可以進行更深層次的特征提取和語義表示,有助于提高分割網(wǎng)絡(luò)對圖像中細微特征和邊界的感知能力。多個分割層也可以引入更多的上下文信息,幫助網(wǎng)絡(luò)更好地理解圖像中的語義關(guān)系和全局結(jié)構(gòu)。

2. 3 EIoU 損失函數(shù)

神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,損失函數(shù)用來度量模型預(yù)測值與實際值之間的差異并做出相應(yīng)處理,優(yōu)秀的損失函數(shù)可以優(yōu)化模型性能和訓(xùn)練效果。EIoU損失函數(shù)[21]計算如下:

式中:Cw 和Ch 表示覆蓋2 個錨框的最小包圍框的寬度和高度,b 和bgt 表示預(yù)測框和目標(biāo)框的中心點,ρ 表示歐幾里得距離,C 表示覆蓋2 個框的最小包圍框的對角線長度。

EIoU 引入平滑系數(shù),在IoU 接近閾值邊界時,匹配度得分更加平滑,避免IoU 波動導(dǎo)致誤判,能更好地適應(yīng)不同大小目標(biāo)的評估,提高對小尺寸物體的檢測性能。因此本文采用EIoU 損失函數(shù),獲得更具有精度和魯棒性的模型。

3 實驗分析

3. 1 實驗環(huán)境

實驗使用的服務(wù)器配置和虛擬環(huán)境配置如表1所示。

3. 2 數(shù)據(jù)集的采集

數(shù)據(jù)集來自PCB 板的實際生產(chǎn)現(xiàn)場,使用XRay 設(shè)備進行采集。每張圖片的像素分辨率是1 537 pixel×1 537 pixel,共收集3 647 張產(chǎn)品圖片。從中選取具有代表性的500 張圖片用于模型訓(xùn)練。通過使用Python 模塊進行隨機劃分,將數(shù)據(jù)集分為訓(xùn)練集350 張、驗證集100 張和測試集50 張。為了確保算法的實際應(yīng)用性,訓(xùn)練集和驗證集中不包含相同的產(chǎn)品圖片。

3. 3 評價指標(biāo)

語義分割常用評價指標(biāo)有F1-score 和宏平均(macro_average)、平均像素精度(mean Pixel Accura-cy,mPA)、mIoU 等[22]。焊錫的語義分割背景單一且類別不多,宏平均值并不作為本文模型評價重點,重點選mPA 和mIoU 作為本文模型評價指標(biāo)。

像素精度(Pixel Accuracy,PA)表示語義分割過程中正確分割像素個數(shù)占所有像素數(shù)的比值。PA的計算如下:

式中:t 表示推理一張圖片需要的時間,單位ms。

3. 4 實驗與結(jié)果分析

本文通過對比實驗,評估改進的YOLOv8n 算法與U-Net、YOLOSeg 和YOLOv8n 在分割性能方面的表現(xiàn)。本次實驗選擇0. 01 作為初始學(xué)習(xí)速率,批量樣本數(shù)設(shè)為4,并進行150 次迭代(epoch)。在模型訓(xùn)練過程中,使用在COCO 數(shù)據(jù)集上經(jīng)過預(yù)訓(xùn)練的模型,并通過遷移學(xué)習(xí)優(yōu)化。

訓(xùn)練集用于模型的參數(shù)優(yōu)化,訓(xùn)練過程中通過輸入的數(shù)據(jù)和對應(yīng)的標(biāo)簽計算損失函數(shù)計算二者的差異,以最小化損失函數(shù)為目的進行參數(shù)優(yōu)化。訓(xùn)練集的損失曲線體現(xiàn)模型收斂速度和魯棒性。本文改進算法引入不同模塊與U-Net、YOLOSeg 和YOLOv8n 的訓(xùn)練集的損失函數(shù)對比如圖5 所示。

驗證集用于epoch 結(jié)束后性能評估和參數(shù)調(diào)優(yōu),防止過擬合。參數(shù)調(diào)優(yōu)主要是超參數(shù),通過選擇最佳的超參數(shù)值從而提高泛化能力等性能。其驗證集的損失函數(shù)對比如圖6 所示。

通過YOLOv8n + CA 和YOLOv8n + EIoU 與YOLOv8n 損失曲線對比得出,算法引入CA 機制后對損失曲線的收斂程度有所促進,但是效果并不明顯。YOLOv8n 算法改用EIoU 損失函數(shù),在訓(xùn)練過程收斂更快,總損失的降低也更加明顯。

通過YOLOv8n + CA 和YOLOv8n + EIoU 與YOLOv8n+CA+EIoU 損失曲線對比得出,同時引入CA 機制和EIoU 損失函數(shù),對損失曲線的收斂程度是疊加的,模型訓(xùn)練的效果更好。

通過本文算法與YOLOv8n+CA+EIoU 損失曲線對比得出,引入CA 機制和EIoU 損失函數(shù)后,使用BiFPN 或者PANet,對損失曲線的起到的優(yōu)化效果相差不大。得出用BiFPN 替換PANet 并不會惡化損失曲線的收斂。但是BiFPN 會提高邊緣信息的提取能力和模型的泛化能力。

表2 為不同算法和YOLOv8n 引入不同模塊的檢測精度對比,可以看出,YOLOv8n 的檢測精度高于UNet 和YOLOSeg 模型。YOLOv8n + CA 和YOLOv8n+ EIoU 對精度有一定程度提高,而且YOLOv8n + CA + EIoU 達到了更高的精度。YOLOv8n+CA+EIoU+BiFPN+分割層與YOLOv8n+CA+EIoU 相比,mPA 和mIoU 有所提升但增幅效果不顯著,甚至FPS 降低2。但是由圖7 的焊點分割泛化能力對比結(jié)果來看,YOLOv8n + CA +EIoU+BiFPN+分割層的泛化能力最好,綜合考慮選擇YOLOv8n + CA + EIoU + BiFPN + 分割層的模型。

由圖7 可以看出,圖7(b)和圖7(c)在焊點區(qū)域和背景區(qū)域像素值相近時存在個別像素分類錯誤,即對焊點像素存在分割遺漏,模型的魯棒性不佳。圖7(e)和圖7(f)對于3 個或更多焊點存在橋接時的分割效果存在橋接遺漏問題。圖7 (b)、圖7(c)和圖7 (d)對于焊點邊緣分割效果均存在“一刀切”現(xiàn)象,即對于焊點細節(jié)分割魯棒性和表征能力較差。

針對以上模型存在的不足,本文基于YOLOv8n模型加入CA 機制,從而解決個別像素分類錯誤的問題。使用BiFPN 和增加分割層,解決3 個或更多焊點存在橋接時的橋接遺漏問題,其對于焊點邊緣信息分割更加準(zhǔn)確并有更好泛化能力。采用CA 機制和EIoU 損失函數(shù),從而避免IoU 波動導(dǎo)致誤判,提高模型精度。如表2 所示相應(yīng)的mPA、mIoU 和FPS等參數(shù)均得到提升。本文算法相較于U-Net、YOLOSeg 和YOLO8n 而言,mPA 提高7. 2% 、10. 48%和2. 96% ,mIoU 提高5. 82% 、10. 48% 和5. 42% ,FPS 提高9、12 和6。通過使用相同數(shù)據(jù)集進行對比實驗,證明了本文算法分割效果最好。

4 結(jié)束語

針對本文所收集的產(chǎn)品,進行了焊錫語義分割實驗?;冢伲希蹋希觯福?的模型,本文通過在Backbone中引入CA 機制,提取各個焊點的全局位置信息,從而實現(xiàn)對焊點的精準(zhǔn)分割。另外,通過采用EIoU 損失函數(shù),提高模型的精度,增強其魯棒性。最后使用BiFPN 金字塔增強邊緣信息的提取能力并提高模型泛化能力。通過與幾個經(jīng)典的語義分割模型進行對比實驗得出結(jié)論,本文改進算法的mPA 達到90. 37% 、mIoU 達到83. 76% 、FPS 達到43。實驗結(jié)果表明,本文算法優(yōu)于目前主流的語義分割模型U-Net、YOLOSeg 和YOLOv8n,但是檢測速度并沒有優(yōu)勢,在未來研究中可以對模型進一步改進。如使用深度可分離卷積減少模型參數(shù)量或者使用輕量型的骨干網(wǎng)絡(luò)等。

參考文獻

[1] 張俊賢. 基于機器視覺的PCBA 焊錫缺陷檢測系統(tǒng)研究[D]. 杭州:浙江大學(xué),2021.

[2] 雷崢鳴. 基于機器視覺的PCB 焊錫缺陷檢測[D]. 廣州:廣東工業(yè)大學(xué),2021.

[3] 楊潔潔,楊頂. 基于深度學(xué)習(xí)的語義分割綜述[J]. 長江信息通信,2022,35(2):69-72.

[4] SHELHAMER E,LONG J,DARRELL T. Fully ConvolutionalNetworks for Semantic Segmentation[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence,2017,39(4):640-651.

[5] ZHAO H S,SHI J P,QI X J,et al. Pyramid Scene ParsingNetwork[C]∥2017 IEEE Conference on Computer Visionand Pattern Recognition (CVPR). Honolulu:IEEE,2017:6230-6239.

[6] RONNEBERGER O,FISCHER P,BROX T. UNet:Convolutional Networks for Biomedical Image Segmentation[C]∥ Medical Image Computing and ComputerassistedIntervention. Munich:Springer,2015:234-241.

[7] CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Semantic Image Segmentation with Deep Convolutional Netsand Fully Connected CRFS [EB / OL]. (2014 - 12 - 22)[2023-09-02]. https:∥arxiv. org / abs / 1412. 7062.

[8] CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:Semantic Image Segmentation with Deep ConvolutionalNets,Atrous Convolution,and Fully Connected CRFs[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(4):834-848.

[9] CHEN L C,PAPANDREOU G,SCHROFF F,et al. Rethinking Atrous Convolution for Semantic Image Segmentation[EB / OL]. (2017-01-17)[2023-09-02]. https:∥arxiv.org / abs / 1706. 05587.

[10] CHEN L C,ZHU Y K,PAPANDREOU G,et al. EncoderDecoder with Atrous Separable Convolution for Semantic ImageSegmentation[C]∥Proceedings of the European Conferenceon Computer Vision (ECCV ). Munich:Springer,2018:833-851.

[11] 毛萬菁,阮炬全,劉朔. 基于注意力機制的改進UNet草莓病害語義分割[J]. 計算機系統(tǒng)應(yīng)用,2023,32(6):251-259.

[12] 楊奎河,張宇. 交通場景下基于YOLOv5 的目標(biāo)檢測與分割算法[J]. 長江信息通信,2023,36(4):48-50.

[13] 李孟浩,袁三男. 基于改進YOLOv5s 的交通標(biāo)識檢測算法[J]. 南京信息工程大學(xué)學(xué)報(自然科版),2024,16(1):11-19.

[14] 曾耀,高法欽. 基于改進YOLOv5 的電子元件表面缺陷檢測算法[J]. 浙江大學(xué)學(xué)報(工學(xué)版),2023,57(3):455-465.

[15] 杜少聰,張紅鋼,王小敏. 基于改進YOLOv5 的鋼軌表面缺陷檢測[J]. 北京交通大學(xué)學(xué)報,2023,47 (2):129-136.

[16] 段必沖,馬明濤. 基于改進YOLOv5 算法的口罩檢測研究[J]. 計算機工程與應(yīng)用,2023,59(16):223-231.

[17] LIU S L,QI L,QIN H F,et al. Path Aggregation Networkfor Instance Segmentation[C]∥2018 IEEE / CVF Conference on Computer Vision and Pattern Recognition. SaltLake City:IEEE,2018:8759-8768.

[18] ZHENG Z H,WANG P,LIU W,et al. DistanceIoU Loss:Faster and Better Learning for Bounding Box Regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.

[19] HOU Q B,ZHOU D Q,FENG J S. Coordinate Attention forEfficient Mobile Network Design[C]∥Proceedings of theIEEE / CVF Conference on Computer Vision and PatternRecognition. Nashville:IEEE,2021:13708-13717.

[20] TAN M X,PANG R M,LE Q V. EfficientDet:Scalableand Efficient Object Detection [C]∥ 2020 IEEE / CVFConference on Computer Vision and Pattern Recognition(CVPR). Seattle:IEEE,2020:10778-10787.

[21] ZHANG Y F,REN W Q,ZHANG Z,et al. Focal and Efficient IOU Loss for Aaccurate Bounding Box Regression[J]. Neurocomputing,2022,506:146-157.

[22] 于營,王春平,付強,等. 語義分割評價指標(biāo)和評價方法綜述[J]. 計算機工程與應(yīng)用,2023,59(6):57-69.

作者簡介

盧子冊 男,(1997—),碩士研究生。主要研究方向:計算機視覺、圖像處理和語義分割。

劉小芳 女,(1969—),博士,教授。主要研究方向:智能信息處理、模式識別和數(shù)據(jù)挖掘等。

王德偉 男,(1998—),碩士研究生。主要研究方向:圖像處理。

主站蜘蛛池模板: 精品一区二区三区四区五区| 国产白浆在线| 亚洲人成亚洲精品| jijzzizz老师出水喷水喷出| 国产特级毛片aaaaaaa高清| 99精品视频九九精品| 欧美国产视频| 精品无码国产自产野外拍在线| 精品夜恋影院亚洲欧洲| 国产乱子伦无码精品小说| 亚洲av无码牛牛影视在线二区| 91麻豆精品视频| 国产欧美日韩专区发布| 国产精品自拍露脸视频| 亚洲成网777777国产精品| 高清乱码精品福利在线视频| 小蝌蚪亚洲精品国产| 在线播放91| 欧洲极品无码一区二区三区| 精品少妇三级亚洲| 国产欧美性爱网| 欧美激情网址| 美女黄网十八禁免费看| 青草视频网站在线观看| 麻豆精选在线| 精品国产美女福到在线不卡f| 久久激情影院| 亚洲国产欧美国产综合久久 | 亚洲无码熟妇人妻AV在线| 97精品久久久大香线焦| 九九热视频精品在线| 欧美性天天| 58av国产精品| 在线欧美日韩| 青草精品视频| 国产v精品成人免费视频71pao| 真人高潮娇喘嗯啊在线观看| 国产免费一级精品视频| 福利一区在线| 老司国产精品视频| 18禁影院亚洲专区| AV网站中文| 国产日韩欧美黄色片免费观看| 日韩第九页| 欧美精品另类| 在线看国产精品| 欧美日韩91| 国产91高跟丝袜| 激情无码视频在线看| 超薄丝袜足j国产在线视频| 91国内外精品自在线播放| 成人在线观看不卡| 久久青草视频| 国产福利一区二区在线观看| 国产一区成人| 中文字幕第1页在线播| 欧美在线综合视频| 一本一道波多野结衣一区二区| 成人夜夜嗨| 91啦中文字幕| 青青青草国产| 在线免费看片a| 国产呦视频免费视频在线观看| 91小视频在线播放| 99青青青精品视频在线| 国产二级毛片| 欧美亚洲激情| 色婷婷狠狠干| 99免费在线观看视频| 精品国产电影久久九九| 日本精品一在线观看视频| 午夜丁香婷婷| 国产女人爽到高潮的免费视频| 青青草原国产av福利网站| 波多野结衣一区二区三区四区 | 亚洲无码日韩一区| 久久婷婷五月综合97色| 一区二区三区精品视频在线观看| 精品国产一区91在线| 在线播放精品一区二区啪视频| 在线精品亚洲一区二区古装| 日韩午夜福利在线观看|