999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv8的女褲結(jié)構(gòu)特征識別方法

2025-07-25 00:00:00李夢陳敏之
浙江理工大學(xué)學(xué)報 2025年7期
關(guān)鍵詞:結(jié)構(gòu)特征樣板款式

關(guān)鍵詞:女褲結(jié)構(gòu)特征;YOLOv8;女褲制版;款式圖識別;相似款式圖匹配中圖分類號:TS941.71 文獻標(biāo)志碼:A 文章編號:1673-3851(2025)07-0507-08引用格式:,.基于YOLOv8的女褲結(jié)構(gòu)特征識別方法[J].學(xué)報(自然科學(xué)),2025,53(4) :507-514.Reference Format: LI Meng, CHEN Minzhi.A structural feature recognition method of women's pantsbased onYOLOv8[J]. Journal of Zhejiang Sci-Tech University,2025,53(4) :507-514.

Abstract: To facilitate the matching of clothing style sketches and the swift generation of template maps,so as to improve the pattern-making efficiency of apparel enterprises,a YOLOv8-based method for identifying structural features of women's pants was proposed. This method matches similar style sketches by recognizing the structural features of women's pants. According to patern-making rules for women's pants,a clasification system for structural features was established, encompassing six key modules: silhouette,waist structure, hip structure,crotch structure, placket,and pockets,which were further subdivided into 23 categories.These structural features were then encoded according to the classification system to obtain category labels. Taking mannequin-based style sketches as the research object, samples of women's pants were drawn. By formulating and unifying sample annotation rules,a dataset suitable for structural feature recognition was created. The enhanced dataset of style sketches was recognized using YOLOv8,and the model was applied to match similar style sketches and rapidly generate pattern drawings. The results indicate that this method can effectively classify the structural features of women's pants,with an overall classification accuracy of 97.8% and a mean average precision of 99.0% . It provides an effective approach for the recognition and application of garment structural features.

Key words: structural characteristics of women' s pants; YOLOv8;women's pants plate making pattern recognition; similar style sketch matching

0 引言

傳統(tǒng)的服裝制版需要制版師人工分析款式圖信息并繪制樣板圖,容易受主觀判斷的影響,造成款式特征誤判、款式圖到樣板圖的轉(zhuǎn)換差異大以及生產(chǎn)效率低等問題[1]。依據(jù)款式圖與樣板圖之間的對應(yīng)關(guān)系,利用服裝款式圖的全局與局部特征對款式圖進行識別,能實現(xiàn)款式圖的自動分類以及相似款式的檢索,完成樣板的自動轉(zhuǎn)化,從而提高服裝企業(yè)的生產(chǎn)效率。

近年來,利用深度學(xué)習(xí)技術(shù)進行服裝圖像的特征提取和識別分類等相關(guān)研究得到了廣泛關(guān)注針對服裝局部特征風(fēng)格難以識別的問題,Yue等[3]提出一種基于服裝圖像和設(shè)計問題圖的聯(lián)合組成的卷積神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)了不同款式的服裝風(fēng)格的識別。吳歡等4]采用CaffeNet卷積神經(jīng)網(wǎng)絡(luò)模型解決了廓形相似、類別相同的女褲款式圖難以識別的問題,提高了服裝廓形的識別準(zhǔn)確率。江慧等[5]通過構(gòu)建服裝款式的風(fēng)格特征模型,實現(xiàn)了服裝風(fēng)格的款式相似度計算。目前對款式圖的識別側(cè)重于色彩、紋理與風(fēng)格等[6-7全局特征的分類,而服裝樣板如褲子還需要考慮省道、門襟等細部特征。

針對上述問題,本文提出了一種基于YOLOv8的女褲結(jié)構(gòu)特征識別方法。該方法將相似款式圖的匹配轉(zhuǎn)化為對款式圖中結(jié)構(gòu)特征的識別。參照女褲制版知識,選定款式圖中需要識別的結(jié)構(gòu)特征共有23個,并設(shè)計類別標(biāo)簽,為構(gòu)建數(shù)據(jù)集提供依據(jù);通過繪制人臺式款式圖和制定標(biāo)注規(guī)則,構(gòu)建了女褲數(shù)據(jù)集;選擇YOLOv8作為識別實驗的模型,實現(xiàn)了女褲結(jié)構(gòu)特征的準(zhǔn)確識別;最后將模型輸出的結(jié)構(gòu)特征類別標(biāo)簽,與數(shù)據(jù)庫中類別標(biāo)簽對應(yīng)的款式圖進行匹配,檢索出相似款式圖,并依據(jù)款式圖與樣板圖的對應(yīng)關(guān)系,調(diào)用并修改樣板圖得到目標(biāo)樣板,實現(xiàn)樣板的快速生成。由于該模型能夠快速定位和識別圖像中的細節(jié)特征,因而能提高服裝結(jié)構(gòu)特征識別技術(shù)在服裝檢索系統(tǒng)中的應(yīng)用價值。

1女褲款式圖結(jié)構(gòu)特征

1. 1 結(jié)構(gòu)特征分類

本文以女褲人臺式款式圖為研究對象,其結(jié)構(gòu)特征主要描述制版規(guī)則的款式信息,不考慮服裝面料材質(zhì)、色彩和花邊等具有裝飾性的細節(jié)。參考女褲制版方法[8],繪制基礎(chǔ)框架,再繪制局部細節(jié)的模式,總結(jié)出對款式圖需要識別的結(jié)構(gòu)特征,包括褲長、廓形、腰部結(jié)構(gòu)、臀部結(jié)構(gòu)、襠部結(jié)構(gòu)和內(nèi)部細節(jié)等6個模塊,具體的分類體系如圖1所示。本文統(tǒng)一將長褲作為研究對象,故不對褲長進行分類。廓形可歸納為直筒褲、錐形褲、闊腿褲、喇叭褲、緊身褲和蘿下褲;腰部結(jié)構(gòu)的設(shè)計通常是腰位的變化和腰下造型設(shè)計,其中腰位分為高腰、中腰和低腰3類,褲裝腰部的省道和褶裯只是工藝的不同,故腰下造型可分為省道(褶裯)、較多褶櫚、無褶裯。臀部結(jié)構(gòu)按照臀圍松量大小分為合體臀、較寬松臀、寬松臀;襠部結(jié)構(gòu)主要考慮襠部位置,可分為常規(guī)襠位、低襠位;內(nèi)部細節(jié)設(shè)計有門襟和口袋(腰部口袋),門襟包括有門襟和無門襟,口袋分為貼袋、挖袋和插袋和無袋等4類。經(jīng)過15名專家評定所設(shè)計的分類體系涵蓋了現(xiàn)有的大部分女褲款式。

圖1女褲結(jié)構(gòu)特征分類體系

1. 2 標(biāo)簽設(shè)計

對款式圖中的特征進行標(biāo)簽設(shè)計是將繁雜信息簡單化表達,有利于更好地歸納款式結(jié)構(gòu)特征以及構(gòu)建款式圖數(shù)據(jù)集。依據(jù)女褲結(jié)構(gòu)特征識別體系,本文共設(shè)計了7類標(biāo)簽,每類標(biāo)簽又包含了不同類別,編碼結(jié)果如表1所示。將每個類別按照字母與數(shù)字組合的方式進行編碼,以便于后續(xù)樣本標(biāo)注和數(shù)據(jù)整理。

表1女褲結(jié)構(gòu)特征編碼

2 識別實驗

2.1 模型選擇與搭建

本文采用YOLOv8作為女褲結(jié)構(gòu)特征識別的模型。該模型僅進行一次前向傳播就可以同時實現(xiàn)標(biāo)定框的位置預(yù)測和類別預(yù)測,常用于目標(biāo)檢測、實例分割和關(guān)鍵點檢測等任務(wù)。與FasterR-CNN、SSD、低版本YOLO相比,YOLOv8具有更高的檢測精度、更快的檢測速度、更輕量化以及更廣泛的應(yīng)用場景等優(yōu)點[9]。同時,YOLOv8適用于背景信息簡單的黑白人臺式款式圖的深度學(xué)習(xí),能夠快速識別圖像中的底層特征和細節(jié)特征。

YOLOv8結(jié)構(gòu)主要由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和檢測頭(Head)等4個模塊組成[10]。用于女褲結(jié)構(gòu)特征識別的YOLOv8結(jié)構(gòu)如圖2所示。其中主干網(wǎng)絡(luò)的初始端由兩個 3× 3的卷積核的Conv模塊提取款式圖的初步特征,C2f擴大網(wǎng)絡(luò)感受野并增強網(wǎng)絡(luò)深度,SPPF模塊使用快速的空間金字塔池化操作,以提取更全面的特征信息并減少冗余的計算;Neck模塊采用上采樣、下采樣調(diào)整圖像尺寸和Concat操作,以實現(xiàn)不同尺度的特征信息融合,并將結(jié)果輸人Head網(wǎng)絡(luò);Head部分的3個檢測頭,負責(zé)檢測大、中、小尺寸的目標(biāo)特征,并采用2個任務(wù)分支對圖像進行分類和回歸預(yù)測,輸出圖像的類別信息和標(biāo)定框的位置信息。

2.2 數(shù)據(jù)集構(gòu)建

圖2 YOLOv8結(jié)構(gòu)圖

2.2.1 數(shù)據(jù)集準(zhǔn)備

為了準(zhǔn)確地判別女褲的廓形和臀圍松量,本文選用“人臺式\"款式圖[11作為研究對象,它能直觀地反映女褲的著裝效果以及服裝與人臺間的關(guān)系。按照160/66A標(biāo)準(zhǔn)女體下裝人臺的尺寸和關(guān)鍵圍度數(shù)據(jù),將人臺進行等比例縮小實現(xiàn)二維平面轉(zhuǎn)化,減少多余線條對款式圖特征提取時的干擾。收集服裝企業(yè)和相關(guān)網(wǎng)站的女褲款式圖,參照這些圖像和分類體系,利用CoreldrawX8繪圖軟件在二維人臺底圖上繪制2500余張女褲款式圖,獲得了款式多樣的女褲數(shù)據(jù)集。其中每種廓形的款式圖各416張,其余特征數(shù)量最少為402張,數(shù)量最多為1378張。采用數(shù)據(jù)增強處理數(shù)據(jù),擴充數(shù)據(jù)集,并通過數(shù)據(jù)調(diào)節(jié)改善數(shù)據(jù)集中同一特征不同類別分布不均問題,提高模型泛化能力。數(shù)據(jù)增強包括圖像的明暗變化、隨機旋轉(zhuǎn)、垂直翻轉(zhuǎn)、加入椒鹽噪聲和高斯模糊等,圖像增強后的效果如圖3所示。增強后的數(shù)據(jù)集有款式圖18016張,不同類別的結(jié)構(gòu)特征數(shù)量分布相對平衡。

圖3數(shù)據(jù)增強示例

2.2.2 數(shù)據(jù)集的標(biāo)注

依據(jù)女褲結(jié)構(gòu)特征的類別標(biāo)簽,運用Labelimg對數(shù)據(jù)集進行標(biāo)注,并采用txt文檔記錄結(jié)構(gòu)特征的標(biāo)注框類型及二維坐標(biāo)信息。女褲款式圖中省道口袋等特征相對直觀,而臀圍松量大小和廓形不能直觀地判斷,需要參考腰下褶裯和臀部至大腿中部的輪廓線內(nèi)凹外展的程度進行判斷。款式圖標(biāo)注示例如圖4所示。為了規(guī)范和統(tǒng)一數(shù)據(jù)集,本文制定了標(biāo)注規(guī)則,具體如下。

圖4款式圖標(biāo)注示例

a)對于口袋和腰下造型等左右對稱的特征,標(biāo)注時不區(qū)分左右,僅標(biāo)注一邊;同時為了標(biāo)注界面清晰,腰下造型僅標(biāo)注左邊,腰部口袋僅標(biāo)注右邊。

b)腰位以人臺腰圍線為參照進行類別判斷,腰位的標(biāo)注需包含褲子的腰部和人臺的腰圍線。

c)臀部結(jié)構(gòu)以褲裝與人體臀圍線和大腿之間的距離為判斷依據(jù),標(biāo)注時需包含部分褲子和人臺的側(cè)輪廓。d)襠位的判斷以人臺襠部和褲子的內(nèi)側(cè)縫線的交點為參照,標(biāo)注時需將兩者進行整體標(biāo)注。e)有門襟時需要標(biāo)注門襟的整體結(jié)構(gòu),無門襟時以前中線為參照按門襟一般所在位置標(biāo)注。

2.3 YOLOv8實驗

2.3.1 環(huán)境與參數(shù)設(shè)置

本文的實驗硬件環(huán)境為Windows11系統(tǒng),GPU為NvidiaRTX4060,硬盤512GBSSD,并以Pytorch為框架,Cuda為訓(xùn)練環(huán)境。模型訓(xùn)練過程的具體參數(shù)值如表2所示,YOLOv8輸入的女褲款式圖經(jīng)過輸入端的縮放、裁剪、歸一化等預(yù)處理操作后圖像分辨率為 640×640 像素,共訓(xùn)練200 個epoch。

表2訓(xùn)練參數(shù)

2.3.2 模型訓(xùn)練

將數(shù)據(jù)集按照8:2的比例進行劃分,其中訓(xùn)練集14413張,驗證集3603張。訓(xùn)練集用來確定模型的學(xué)習(xí)參數(shù),驗證集主要用來測試和評估模型性能。模型從訓(xùn)練集中隨機選取參加訓(xùn)練的圖像,并輸入卷積層提取特征,通過移動感受野對圖像不斷進行卷積和最大池化,再經(jīng)過特征融合后獲得不同語義的特征圖,最后由全連接層輸出結(jié)構(gòu)特征的類別標(biāo)簽和標(biāo)定框位置。YOLOv8采用BCE二元交叉熵作為分類損失函數(shù),如式(1)所示,通過比較模型輸出的概率值和真實的標(biāo)簽值來評估模型的表現(xiàn)。回歸損失采用CIOULoss十DFL結(jié)合計算邊框回歸,該損失函數(shù)以交叉熵的形式讓網(wǎng)絡(luò)更快地聚焦到目標(biāo)位置,具體如式(2)—(3)所示:

其中: L 表示模型的分類損失, N 為樣本數(shù)量, xi 為模型的預(yù)測概率, yi 為真實的標(biāo)簽值。

(1-f2)log(s(1-zij))]

其中: b 為邊界框的數(shù)量, J 為離散區(qū)間數(shù)量, f 為真實與預(yù)測邊界框的差值, s 為 sigmoid 函數(shù), z 為預(yù)測邊界框的位置分布; IoU 為真實框與預(yù)測框的交并比, d 為兩個邊界框中心點的歐氏距離, c 為邊界框?qū)蔷€的長度, w 和 υ 分別為與長寬比相關(guān)的權(quán)重和度量。

2.3.3 模型應(yīng)用

本文通過YOLOv8女褲結(jié)構(gòu)特征識別實驗,完成相似款式圖的檢索以及樣板的快速生成,具體方法如圖5所示。將女褲人臺式款式圖作為結(jié)構(gòu)特征識別網(wǎng)絡(luò)模型的輸入,識別輸出為結(jié)構(gòu)特征編碼,即類別標(biāo)簽。結(jié)構(gòu)特征編碼通過匹配模型,與數(shù)據(jù)庫中款式圖對應(yīng)的結(jié)構(gòu)特征編碼進行匹配,快速檢索出具有相同結(jié)構(gòu)特征的款式圖,完成相似款式圖的匹配;數(shù)據(jù)庫中的女褲款式圖與結(jié)構(gòu)圖是對應(yīng)的數(shù)據(jù),通過匹配的款式圖,調(diào)用并修改對應(yīng)的樣板圖,得到目標(biāo)樣板。

圖5女褲結(jié)構(gòu)特征識別網(wǎng)絡(luò)模型應(yīng)用示例

2. 4 結(jié)果分析

為驗證YOLOv8模型在女褲結(jié)構(gòu)特征識別分類任務(wù)中的整體準(zhǔn)確率,對訓(xùn)練好的模型進行多指標(biāo)的評估。圖6為模型訓(xùn)練時的損失函數(shù)曲線圖,從圖中可知隨著訓(xùn)練輪數(shù)增加模型的定位、分類損失數(shù)值越小,模型識別效果越好。圖7為模型訓(xùn)練的平均精度均值(mAP)曲線,當(dāng)模型的IoU設(shè)置為0.5,訓(xùn)練次數(shù)達到100時,所有結(jié)構(gòu)特征的mAP曲線在 99% 附近趨于穩(wěn)定,得到mAP值為99.0% ,且在訓(xùn)練過程中沒有過擬合或欠擬合現(xiàn)象。

將驗證集在訓(xùn)練好的模型中進行測試,采用混淆矩陣、精確率(Precision)、召回率(Recall)和 F1 值作為YOLOv8模型評估指標(biāo),其中 F1 是精確率和召回率的調(diào)和平均數(shù)。精確率、召回率和 F1 數(shù)值越接近1,證明模型的識別效果越好[12]。圖8為驗證集測試后得到的混淆矩陣,混淆矩陣的行和列分別表示模型預(yù)測的類別和實際的類別,對角線表示正確識別的樣本數(shù)量,顏色越深則該類別預(yù)測正確的數(shù)量越多。從圖8中可以看出:可視化的混淆矩陣不僅能計算所有類別預(yù)測的正確數(shù)量和錯誤數(shù)量,還能反映各類別的數(shù)量差異情況;如,喇叭褲A4的總數(shù)量為600,其中預(yù)測的正確數(shù)量為586,錯誤數(shù)量為14,并且廓形的各個類別的總數(shù)量分布相對均衡,均在610范圍浮動。

圖6模型損失函數(shù)曲線圖
圖7模型 mAP@0.5 曲線圖

模型在女褲結(jié)構(gòu)特征中的檢測準(zhǔn)確率對比如圖9所示。從圖9中可知:模型識別準(zhǔn)確率最高為99.5% ,最低為 77.9% ;其中廓形、腰位的準(zhǔn)確率最高均在 94.0% 以上,而腰下造型和臀部結(jié)構(gòu)的準(zhǔn)確率較低分別為 83.2%.79.6% ,其他特征則居中。從數(shù)據(jù)集中各特征的分布數(shù)量發(fā)現(xiàn),數(shù)據(jù)集多少并不是影響類別識別準(zhǔn)確率的主要原因。在女褲結(jié)構(gòu)特征識別過程中,腰部省道或褶櫚有一部分會被褲子口袋遮擋,造成圖像識別困難;臀圍松量需要依據(jù)與人體臀部以及大腿中部的偏移程度來衡量,人臺底圖的存在會對臀部結(jié)構(gòu)的識別形成干擾。側(cè)縫口袋遮擋了部分臀圍線,同樣也降低了圖像識別的準(zhǔn)確率。通過驗證集計算出模型的總體精確率為97.8% ,召回率為 98.3% , F1 值為0.98,表明模型不僅適用于外輪廓的識別,還具備對內(nèi)部細節(jié)特征良好的識別能力。部分遮擋的特征信息影響了模型的特征識別準(zhǔn)確率。

圖8驗證集測試后得到的混淆矩陣
圖9 不同特征類別準(zhǔn)確率

采用YOLOv8對女褲結(jié)構(gòu)特征識別的結(jié)果如表3所示,從表中可以看出,模型對各個特征的識別準(zhǔn)確率較高,其中廓形的識別準(zhǔn)確率最高。通過YOLOv8的深度學(xué)習(xí)方法可以實現(xiàn)對女褲結(jié)構(gòu)特征的準(zhǔn)確識別。

3結(jié)論

本文提出了一種基于YOLOv8的服裝結(jié)構(gòu)特征識別方法,并將女褲款式圖的匹配轉(zhuǎn)化為對結(jié)構(gòu)特征的識別,實現(xiàn)相似款式圖的匹配和樣板的快速生成。主要結(jié)論如下:

a)結(jié)合制版師繪制樣板圖的方法建立女褲結(jié)構(gòu)特征分類體系,并對這些結(jié)構(gòu)特征設(shè)計分類標(biāo)簽,提高了數(shù)據(jù)讀取和分類效率。

b)利用人臺為底圖建立女褲人臺式款式圖樣本庫,通過數(shù)據(jù)增強方法擴充數(shù)據(jù)集,提高了模型的泛化能力;基于YOLOv8的深度學(xué)習(xí)方法對數(shù)據(jù)集展開訓(xùn)練,采用混淆矩陣對驗證集的測試結(jié)果進行可視化,訓(xùn)練后模型的總體精確率為 97.8% , mAP 值達到 99.0% ,其中廓形識別精度最高,表明模型能夠自動實現(xiàn)對服裝款式結(jié)構(gòu)特征的識別和分類。

本文提出的女褲結(jié)構(gòu)特征識別方法在服裝款式圖檢索和服裝制版系統(tǒng)中有一定的應(yīng)用前景,但針對款式圖被遮擋、信息不全等問題,模型的識別準(zhǔn)確率還有待提高。后續(xù)研究將進一步提高模型對較復(fù)雜的圖像的識別能力,如考慮增加分割線,對女褲結(jié)構(gòu)特征進行更細致的分類,進而拓展其在服裝款式圖檢索系統(tǒng)中的應(yīng)用。

參考文獻:

[1]李濤,杜磊,黃振華,等.服裝款式圖識別與樣板轉(zhuǎn)換技術(shù)研究進展[J].紡織學(xué)報,2020,41(8):145-151.

[2]陳巧紅,陳翊,孫麒,等.服裝圖像分類技術(shù)綜述[J].學(xué)報(自然科學(xué)版),2019,41(5):631-64.

[3] Yue X D, Zhang C,F(xiàn)ujita H,et al. Clothing fashion stylerecognition with design issue graph[J]. Appl Intell,2o21,51(6):3548-3560.

[4]吳歡,丁笑君,李秦曼,等.采用卷積神經(jīng)網(wǎng)絡(luò)CaffeNet模型的女褲廓形分類[J].紡織學(xué)報,2019,40(4):117-121.

[5]江慧,馬彪.基于服裝風(fēng)格的款式相似度算法[J].紡織學(xué)報,2021,42(11):129-136.

[6]劉蓉,謝紅.基于改進的AlexNet網(wǎng)絡(luò)的服裝廓形識別[J].北京服裝學(xué)院學(xué)報(自然科學(xué)版),20,43(3):64-69.

[7]夏明,宋婧,姜朝陽,等.基于連衣裙結(jié)構(gòu)特征匹配的款式識別技術(shù)[J].紡織學(xué)報,2020,41(7):141-146.

[8]張文斌.服裝結(jié)構(gòu)設(shè)計[M].北京:中國紡織出版社,2006:70-74.

[9]李海源,黃俊.基于YOLOv8的無人機紅外航拍目標(biāo)檢測方法[J/OL]. 激光雜志:1-9(2024-07-14)[2024-11-11]. http://kns.cnki. net/kcms/detail/50.1085. TN. 20240710.200.006.html.

[10]張恩召,李磊,汪建華,等.基于改進YOLOv8的船板焊縫質(zhì)量檢測方法[J].陜西科技大學(xué)學(xué)報,2024,42(6):172-179.

[11]周幸子.連衣裙款式圖的識別和樣板的自動生成研究[D].上海:東華大學(xué),2021:5-7.

[12]范博淦,王淑青,陳開元.基于改進YOLOv8的航拍無人機小目標(biāo)檢測模型[J/OL].計算機應(yīng)用.(2024-10-17)[2024-11-02].https://link.cnki. net/urlid/51.1307.tp. 20241017.1040. 004.

(責(zé)任編輯:張會巍)

猜你喜歡
結(jié)構(gòu)特征樣板款式
“衣”和“裳”是不是一回事? 它們有什么區(qū)別?
用均值不等式求函數(shù)最值的幾種方法探究
紅皮鞋
民辦高校樣板黨支部示范引領(lǐng)作用研究
現(xiàn)代漢語框式結(jié)構(gòu)“×滿滿”探析
基于Revit明細表的機電設(shè)備材料清單研究
高校學(xué)生樣板黨支部培育路徑探析
基于服裝點云的高精度袖窿分割線自動識別方法
他是嵇康的后人
樂器(2025年6期)2025-07-20 00:00:00
主站蜘蛛池模板: 综合网天天| 影音先锋亚洲无码| 久久久久亚洲AV成人人电影软件| 国产精品七七在线播放| 黄色在线网| 天天色天天综合| 国产成人精品在线| 欧美天堂久久| 精品国产一二三区| 中文字幕亚洲专区第19页| 亚洲乱码视频| 亚洲国产成人久久精品软件| 黄片一区二区三区| 8090午夜无码专区| 国产欧美成人不卡视频| 幺女国产一级毛片| 91青青草视频| 国产欧美精品专区一区二区| 国产一区二区三区精品久久呦| 亚洲精品大秀视频| 亚洲日韩欧美在线观看| 日本一区二区三区精品国产| 91亚瑟视频| 91国内外精品自在线播放| 漂亮人妻被中出中文字幕久久| 精品视频第一页| 午夜精品久久久久久久无码软件| 国产日韩欧美视频| 国产成年女人特黄特色毛片免| 欧美成人午夜影院| 亚洲欧美成人在线视频| 国产在线无码av完整版在线观看| 欧洲极品无码一区二区三区| 国产伦片中文免费观看| 国产区91| 在线国产欧美| 国产色网站| 欧美成人精品在线| 91精品aⅴ无码中文字字幕蜜桃| 国产精品理论片| 中文字幕 欧美日韩| 极品尤物av美乳在线观看| 国产97区一区二区三区无码| 国产99久久亚洲综合精品西瓜tv| 国产真实二区一区在线亚洲| 国产尹人香蕉综合在线电影 | 亚洲婷婷丁香| 在线免费观看a视频| 91色在线观看| 波多野结衣视频一区二区| 国产亚洲精品无码专| 亚洲天堂2014| 国产小视频在线高清播放| 久久亚洲AⅤ无码精品午夜麻豆| 最新亚洲人成网站在线观看| 无码福利视频| 亚洲精品午夜无码电影网| 久久情精品国产品免费| 国产原创自拍不卡第一页| 国产无码制服丝袜| 伊人久久大香线蕉影院| 国产日产欧美精品| 亚洲天堂免费观看| 欧美另类精品一区二区三区| 国内熟女少妇一线天| 在线观看免费国产| 国产Av无码精品色午夜| 日韩毛片免费观看| 国产一区三区二区中文在线| 99精品这里只有精品高清视频| 欧美成人午夜视频免看| 亚洲视频三级| 亚洲区视频在线观看| 国内自拍久第一页| 999国产精品永久免费视频精品久久| 精品亚洲国产成人AV| 色综合综合网| 欧美三级视频在线播放| 亚洲高清免费在线观看| 中文字幕欧美日韩| 色婷婷亚洲综合五月| 国产国拍精品视频免费看|