999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

參數(shù)化人體模型下基于密集卷積網(wǎng)絡(luò)的三維服裝設(shè)計關(guān)鍵技術(shù)研究

2025-07-30 00:00:00胡冰汪世奎
武漢紡織大學(xué)學(xué)報 2025年3期
關(guān)鍵詞:密集集上服裝設(shè)計

中圖分類號:TS941.2 文獻標(biāo)志碼:A 文章編號:2095-414X(2025)03-0027-06

0引言

隨著計算機技術(shù)的飛速發(fā)展,特別是三維建模、虛擬現(xiàn)實和增強現(xiàn)實技術(shù)的日益成熟,三維服裝設(shè)計領(lǐng)域正經(jīng)歷著前所未有的變革。傳統(tǒng)的二維服裝設(shè)計方法已難以滿足現(xiàn)代消費者對服裝個性化、合體性及虛擬試穿體驗的高要求。因此,基于參數(shù)化人體模型的三維服裝設(shè)計技術(shù)應(yīng)運而生,成為當(dāng)前研究的熱點之二[-2]。信玉峰等針對立體裁剪紙樣設(shè)計存在的效率低下、學(xué)習(xí)周期長的問題,提出了三維服裝智能設(shè)計技術(shù)。該技術(shù)融合機器學(xué)習(xí)、計算機圖形學(xué)及輔助設(shè)計技術(shù),實現(xiàn)了設(shè)計過程的自動化,為服裝、鞋類、箱包等柔性產(chǎn)品的智能設(shè)計提供了強有力的技術(shù)支持3]。VechevV等人致力于優(yōu)化服裝增強材料,提出了自動設(shè)計動覺服裝圖案的方法,該方法通過深人探索連續(xù)設(shè)計范圍,并精確捕捉布料與身體之間的動態(tài)互動影響,實現(xiàn)了設(shè)計的顯著優(yōu)化,使得能量密度的性能得以提升2至3倍4。但此類方法雖能提高效率,卻可能增加系統(tǒng)的復(fù)雜性及學(xué)習(xí)應(yīng)用的成本。參數(shù)化人體模型作為三維服裝設(shè)計的基石,能夠精確捕捉人體特征和行為,為設(shè)計、模擬、展示提供有力支持,相比于傳統(tǒng)掃描或手工測量的方法,它更精確、靈活,可個性化地調(diào)整設(shè)計,提升服裝合體性和舒適度5-。密集卷積網(wǎng)絡(luò)(Denseconvolutionalnetwork,DenseNet)是一種深度學(xué)習(xí)模型,它通過密集連接的方式,將每一層的輸入直接連接到后面所有層的輸入,能夠更好地利用淺層特征信息,提高網(wǎng)絡(luò)的性能,有助于生成更逼真、更符合設(shè)計要求的三維服裝模型。在這樣的背景下,研究創(chuàng)新性地采用密集卷積網(wǎng)絡(luò)和人體體型參數(shù)方法,構(gòu)建一套高效、精準(zhǔn)的三維服裝設(shè)計,以期為設(shè)計更貼合人體體型的服裝提供技術(shù)支持。

1基于密集卷積網(wǎng)絡(luò)的三維服裝設(shè)計方法

1.1基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法

研究提出了一種服裝設(shè)計算法,旨在增加設(shè)計的服裝與人體的貼合度并提升設(shè)計效率,該算法通過利用DenseNet提取服裝的基本樣式與細節(jié)信息。DenseNet作為一種創(chuàng)新的卷積神經(jīng)網(wǎng)絡(luò)框架,其獨特性體現(xiàn)在將各層輸出在深度方向上進行精細的拼接,并將拼接后的結(jié)果用作下一層的輸入。這種設(shè)計策略不僅大幅度減少了模型的參數(shù)數(shù)量,還顯著提升了特征和損失信息的傳遞效率,同時有效地減輕了梯度消失的問題。在DenseNet這個廣受歡迎的模型中,其核心特征提取部分由4個精心設(shè)計的密集塊和3個過渡層構(gòu)成。

在對服裝設(shè)計中,使用DenseNet架構(gòu),為了避免卷積操作后圖像特征維度過高可能導(dǎo)致的過擬合問題,通常會在卷積層后緊接著執(zhí)行池化操作。池化不僅有助于減小圖像的尺寸,還能進一步精煉特征信息。它主要分為平均池化和最大值池化兩種類型,這兩種方法各有其獨特之處,可以根據(jù)具體的應(yīng)用需求和場景進行靈活選擇。在處理設(shè)計的服裝圖像時,卷積神經(jīng)網(wǎng)絡(luò)會依次通過卷積層、池化層,并最終通過全連接層來輸出特征值。在對服裝設(shè)計的訓(xùn)練過程中,最小化損失函數(shù)是核心目標(biāo),它作為評估模型預(yù)測結(jié)果與真實結(jié)果之間差距的指標(biāo),直接指導(dǎo)著網(wǎng)絡(luò)參數(shù)的優(yōu)化調(diào)整。訓(xùn)練網(wǎng)絡(luò)參數(shù)時,通過損失函數(shù)最小為目標(biāo),損失函數(shù)如式(1所示。

式(1)中, L(?) 代表損失函數(shù), r 代表輸入, N 為類別數(shù), ?Pi 代表理想輸出, 為網(wǎng)絡(luò)輸出。對于參數(shù)過多時,卷積神經(jīng)網(wǎng)絡(luò)會出現(xiàn)過擬合和梯度消失的現(xiàn)象,為了防止不良現(xiàn)象的發(fā)生,密集連接卷積網(wǎng)絡(luò)通過對每個塊中進行密集跳躍連接,4個密集塊的密集連接網(wǎng)絡(luò),公式如式(2)。

xl=Ll([x0,x1,…,xl-1])

式(2)中, x 代表輸出, l 代表卷積的層數(shù)。在每個密集塊內(nèi)部,除了執(zhí)行常規(guī)的前向卷積操作外,還有一個顯著的特點:每個單元的輸人不僅包含其自身的信息,還與該塊內(nèi)后續(xù)其他單元的輸出緊密相連。這些連接通過各單元的卷積操作進行整合,從而形成了密集的跳躍連接。這種設(shè)計確保了每個輸出特征都能與其他特征相連接,實現(xiàn)了特征的高效復(fù)用。這不僅大幅減少了網(wǎng)絡(luò)參數(shù)的數(shù)量,還顯著提升了網(wǎng)絡(luò)的訓(xùn)練效率。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)相比,DenseNet的這種密集連接結(jié)構(gòu)在識別性能上展現(xiàn)出了更為優(yōu)越的表現(xiàn)。由4個密集塊組成的DenseNet結(jié)構(gòu)如圖1。

如圖1,該密集卷積網(wǎng)絡(luò)架構(gòu)精心設(shè)計了4個密集塊,旨在通過高效的特征復(fù)用和參數(shù)減少來提升網(wǎng)絡(luò)性能。在每個密集塊之后,都巧妙地設(shè)置了卷積層和池化層,以進一步提煉和降維特征。與前三個密集塊有所不同,最后一個密集塊后不僅包含了池化層,還特別添加了一個線性層,進一步實現(xiàn)特征的線性變換。

圖1密集卷積網(wǎng)絡(luò)結(jié)構(gòu)

1.2融合動態(tài)人體參數(shù)的服裝生成算法

研究使用了密集卷積網(wǎng)絡(luò)進行服裝特征的提取,而在服裝設(shè)計過程中,還需融合人體動態(tài)參數(shù)以實現(xiàn)個性化定制。為了使服裝設(shè)計的成本最小化,研究提出了一種算法,該算法能夠整合服裝規(guī)格、人體尺寸以及姿態(tài)信息,設(shè)計出滿足客戶要求的三維動態(tài)服裝模型。通過比較模型和人體的尺寸,得到比較準(zhǔn)確的人體參數(shù)。為了獲得更為準(zhǔn)確的人體參數(shù),研究比較用戶的身體尺寸數(shù)據(jù)和模型的尺寸數(shù)據(jù),兩者的偏差如式(3)所示。

式(3)中, Cj 代表用戶身體尺寸數(shù)據(jù)和模型尺寸的差值。 w 表示身體部分尺寸數(shù)據(jù)的影響權(quán)重值, j 代表模型與身體尺寸最小差值的編號。采集人體數(shù)據(jù)前,需要進行相機標(biāo)定,計算相機坐標(biāo)系下的坐標(biāo)系轉(zhuǎn)化關(guān)系,如式(4)。

式(4)中, Dc 代表深度值, f 代表焦距, R 代表旋轉(zhuǎn)矩陣, M 代表平移矩陣。研究使用骨架提取算法獲得人體模型的參數(shù),采集人體關(guān)節(jié)點的信息,四元數(shù)需要的參數(shù)少,效率更高,因此,用四元數(shù)方式表示這些點的旋轉(zhuǎn)信息,如式(5)所示。

S=w+x×e+y×h+z×k

式(5)中, s 代表四元數(shù), w 代表四元數(shù)的標(biāo)量部分, x,y,z 分別代表四元數(shù)的三個向量部分, e,h 、k 代表三個虛數(shù)單位。根據(jù)要變換的模型點與其所屬部位節(jié)點的三個父關(guān)節(jié)點和其一個子節(jié)點歐氏距離,由歐氏距離大小構(gòu)造了對應(yīng)關(guān)節(jié)點的影響權(quán)重。對于所有影響該模型點的歐氏距離之和,計算其權(quán)重的公式如式(6)。

式(6中, Wi 代表與之對應(yīng)的關(guān)節(jié)點影響權(quán)重, o 為影響該模型點的歐氏距離之和, Oi 代表模型點到關(guān)節(jié)點的歐氏距離。利用所獲取的關(guān)節(jié)點參數(shù),能夠推算出各個關(guān)節(jié)點的具體位置,進而基于不同的姿態(tài)骨架信息,分析并得出人體每一塊骨骼的運動狀態(tài)。為了實現(xiàn)姿態(tài)的統(tǒng)一,將不同幀中展現(xiàn)的各種姿態(tài)信息轉(zhuǎn)換至一個標(biāo)準(zhǔn)姿態(tài)下。在此過程中,依據(jù)關(guān)節(jié)點的信息,計算出將當(dāng)前模型中的點轉(zhuǎn)換至全局模型點所需要的旋轉(zhuǎn)矩陣以及相應(yīng)的平移向量,如式(7)。

式(7)中, n 代表節(jié)點的序號, s 代表四元數(shù), Πg 代表全局模型, c 代表當(dāng)前模型。每個點在變換之后點的坐標(biāo)位置,可以通過公式計算得出,如式(8)。

式(8)中, 代表變換后的點云坐標(biāo), yi 代表關(guān)節(jié)點的位置向量, X 代表節(jié)點平移向量。研究通過比較用戶的身體尺寸數(shù)據(jù)和模型的尺寸數(shù)據(jù),以確保服裝設(shè)計的精準(zhǔn)度與貼合性。在進行人體與服裝頂點之間的復(fù)雜計算過程中,使用歐式距離獲得人體各關(guān)節(jié)點信息,使用骨架提取算法、四元數(shù)獲得人體模型的參數(shù),對當(dāng)前模型和全局模型進行轉(zhuǎn)換,結(jié)合這些參數(shù)信息實現(xiàn)服裝設(shè)計。

2基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法效果分析

2.1基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法性能分析

為了測試研究方法的性能和應(yīng)用效果,對研究方法進行實驗。研究使用VisualDTU數(shù)據(jù)集對研究方法進行訓(xùn)練和測試,該數(shù)據(jù)集包含3000組樣本。數(shù)據(jù)集的60%.20%.20% 作為訓(xùn)練集、驗證集、測試集,對訓(xùn)練集數(shù)據(jù)進行400次迭代。實驗配置及參數(shù)設(shè)置如表1所示。

表1實驗配置及參數(shù)設(shè)置
圖2訓(xùn)練集和測試集上的誤差比較

為了對研究所提方法的性能進行分析,將該方法簡稱為CDB-CN。研究使用主成分分析(PrincipalComponentAnalysis,PCA)[和PGM三維人體試衣系統(tǒng)(PGM3DBodyFitting System,PGM)[1]與CDB-CN進行對比。對上述3種模型進行訓(xùn)練和測試,比較CDB-CN在不同解碼器參數(shù)下,訓(xùn)練集和測試集上的誤差,結(jié)果如圖2所示(見上頁)。

圖2(a)為CDB-CN在不同解碼器參數(shù)下的誤差,圖2(b為在有殘差層的解碼器參數(shù)下CDB-CN模型的誤差,圖2(c)為在無殘差層的解碼器參數(shù)下CDB-CN模型的誤差。由圖2可知,隨著解碼器參數(shù)增加,模型在訓(xùn)練集和測試集上的誤差均增大,解碼器參數(shù)為15時,模型在訓(xùn)練集和測試集上的誤差分別為 3.46mm 和 3.50mm ,模型在測試集上的誤差大于在訓(xùn)練集上的誤差。在解碼器參數(shù)為35時,有殘差層的模型在訓(xùn)練集和測試集上的誤差分別為 3.57mm 和 3.60mm ,無殘差層的模型在訓(xùn)練集和測試集上的誤差分別為3.61mm 和 3.65mm 。說明在有殘差層的情況下誤差小于無殘差層時。因此,研究采用有殘差層的解碼器,在參數(shù)為15時進行接下來的實驗。使用幾何距離誤差和拉普拉斯誤差比較3種模型的準(zhǔn)確性,實驗結(jié)果如圖3。

由圖3可見,隨著迭代次數(shù)的不斷增加,不同方法所產(chǎn)生的幾何距離誤差以及拉普拉斯誤差均呈現(xiàn)出逐漸下降的趨勢,并且在迭代次數(shù)達到240次之后,這些誤差值開始趨于穩(wěn)定狀態(tài)。圖3(a)展示了在訓(xùn)練集上幾何距離誤差的對比情況。當(dāng)?shù)螖?shù)達到400次時,研究提出的方法所得到的幾何距離誤差降低至3.70mm ,相比之下,PCA和PGM的幾何距離誤差分別為 4.20mm 和 4.00mm ,均高于研究方法。圖3(b)描繪了訓(xùn)練集上拉普拉斯誤差的對比情況。在迭代320次時,研究方法的拉普拉斯誤差為 3.50mm ,而PCA和PGM的拉普拉斯誤差則分別為 4.20mm 和 3.80mm ,同樣高于研究方法。說明研究方法在準(zhǔn)確率方面具有顯著優(yōu)勢,能夠為設(shè)計出更加合身、舒適的服裝提供更為精準(zhǔn)、高質(zhì)量的數(shù)據(jù)支持。

2.2基于密集卷積網(wǎng)絡(luò)的服裝設(shè)計方法應(yīng)用分析

為了評價研究所提方法的應(yīng)用效果,對1800組樣本進行檢測,身體測量部位箱形圖異常值檢測如圖4所示。

由圖4可見,不同部位的異常值有所不同。圖4(a)顯示,對肩部的異常值檢測中,頸圍的異常值數(shù)量為25次左右,而左右肩斜度異常值數(shù)量在40次以上。圖4(b)顯示,對腿部的異常值檢測中,腰圍的異常值數(shù)量為23次左右,臀圍的異常值數(shù)量為39次左右。頸圍和腰圍的異常值數(shù)量較少,左右肩斜度的異常值數(shù)量較多,可能由于左右肩斜度測量值變化幅度小,導(dǎo)致定位不準(zhǔn)確和異常值增多。說明研究方法在頸圍、腰圍等變化幅度大的部位,測量準(zhǔn)確性較高。對使用研究方法定位的人體各部位相關(guān)變量進行統(tǒng)計,結(jié)果如表2所示。

圖3不同模型在訓(xùn)練集上的誤差比較
圖4身體測量部位箱形圖異常值檢測
表2各部位相關(guān)變量基本統(tǒng)計量信息表

由表2可知,不同身體部位測量值的統(tǒng)計量其標(biāo)準(zhǔn)差落在了一個相對寬泛的范圍,即 1.3~5.8cm/° 區(qū)間,其中臀圍與褲腿的標(biāo)準(zhǔn)差數(shù)值較為突出,分別達到了 4.5cm 和 3.3cm ,相較于其他部位顯示出更大的離散程度,頸圍和右肩斜度的標(biāo)準(zhǔn)差均為 1.3cm/° ,各部位的平均數(shù)和中位數(shù)呈現(xiàn)出較為接近的趨勢,臀圍的平均數(shù)和中位數(shù)之間存在 0.7cm 的差距。說明研究方法在設(shè)計服裝時,對于臀圍和褲腿部位的精確定位尚存在一定的不足,未來需針對這些部位進行更為精細化的調(diào)整與優(yōu)化。

3結(jié)論

研究設(shè)計了一種基于密集卷積網(wǎng)絡(luò)的三維服裝設(shè)計方法,其核心目標(biāo)在于顯著提升設(shè)計效率,同時確保設(shè)計出的服裝能夠緊密貼合人體參數(shù)。該方法使用DenseNet架構(gòu),在每個密集塊之后添加了卷積層和池化層,使用歐式距離獲得人體各關(guān)節(jié)點信息,使用骨架提取算法、四元數(shù)獲得人體模型的參數(shù)。在解碼器參數(shù)設(shè)定為35時,有殘差層的模型在訓(xùn)練集和測試集上的誤差分別為 3.57mm 和 3.60mm ,在迭代次數(shù)為400時,研究方法的幾何距離誤差為 3.70mm ,低于對比算法;在身體各部位變量統(tǒng)計中,臀圍、褲腿的標(biāo)準(zhǔn)差分別為 4.5cm 和 3.3cm ,較其他部位的標(biāo)準(zhǔn)差大。說明研究方法在服裝設(shè)計中具有較高的準(zhǔn)確率,且設(shè)計的服裝貼合度較好,研究能夠為服裝設(shè)計提供一定技術(shù)支撐。研究在評測中發(fā)現(xiàn),對于褲腿、左右肩斜度等精細部位的測量結(jié)果仍有提升空間,后續(xù)將致力于納入更多精細部位,以進一步強化對細節(jié)設(shè)計的精準(zhǔn)把控。

參考文獻:

[1]BeemJ,HannahI,HosoiAE.Parameterizedshapeadaptivematerials for sportswear[J].International journal of clothingscience and technology,2023,35(5):685-697.

[2]吳亮.虛擬現(xiàn)實技術(shù)在服裝設(shè)計中的應(yīng)用研究[J].紡織報告,2022,41(8):72-74.

[3]信玉峰.三維服裝立體裁剪紙樣智能設(shè)計技術(shù)研究[J].南昌師范學(xué)院學(xué)報,2022,43(6):52-56.

[4]VechevV,ZarateJ,ThomaszewskiB,HilligesO.Computa-tional Design of Kinesthetic Garments[J]. 2022.41(2):535-546.

[5]Mo Z,Wang Q,Shi B S W.Pointhuman: Reconstructingclothed human from point cloud of parametric model[J.Com-putingand informatics,2023,42(2):457-479.

[6]農(nóng)旭安,尤文勝.簡析三維服裝參數(shù)化造型技術(shù)[J].西部皮革,2023,45(21):31-33.

[7]王道累,張正剛,張世恒,等.基于密集連接網(wǎng)絡(luò)的航拍絕緣子旋轉(zhuǎn)目標(biāo)精準(zhǔn)定位方法[J].電力系統(tǒng)保護與控制,2024,52(1):35-43.

[8]齊美彬,程佩琳,靳學(xué)明,等.基于密集連接卷積網(wǎng)絡(luò)的雷達輻射源信號分選[J].雷達科學(xué)與技術(shù),2022,20(6):635-642.

[9]鄭義桀,羅健欣,陳衛(wèi)衛(wèi),等.基于Unity3D三維多視角虛擬數(shù)據(jù)集構(gòu)建[J].計算機技術(shù)與發(fā)展,2023,33(5):173-179.

[10]YanH,ZhangH,ShiJ,etal.Toward intelligentfashion de-sign:A texture and shape disentangled generative adversari-al network[J]. ACM Transactions on Multimedia Computing,Communications and Applications,2023,19(3): 1-23.

[11]余偉朝,馬巧梅,申連雄.基于PGM的三維人體試衣系統(tǒng)設(shè)計[J].紡織報告,2022,41(11):47-50.

Abstract:Garmentdsigalgorithhasbecomeanindispensablekeytoolinmodenclothingdsign,hichgreatlypromotesdesigo vationanddevelopmentInodertimproetheeiencyadacuracyofsign,atredimensioalfasondesignmetodssdied anddesigned.Iepro,tedenseconvoutioaltwrkadteumanodyodeinforatioarecombinedtoaturetheypots of thehumanbodyshapetodesignafitinggarment.Inthedetectionoflgoutliers,thenumberofwaistoutliersisabout23times.When thenumber of iterationsis32o,theLaplace error of the research method is 3.50mm ,whichislower thanthatof thecomparisonalgorithm. Theresultsshowtattemehodasaigaccuracyincohingdesignadthedsigedclotinghaseterectontheastdoter parts with a relatively large range.Research can provide technical support for designing beter fiting clothes.

ywords: parametric human model; denseconvolutionalnetwork;three-dimensionalclothingdesign;clothinggenerationalgorithm

(責(zé)任編輯:李強)

猜你喜歡
密集集上服裝設(shè)計
《海藍語境》服裝設(shè)計
《青紋謠》服裝設(shè)計
人員密集場所消防安全隱患及解決對策探討
消防界(2025年4期)2025-08-18 00:00:00
基于位置掩碼引導(dǎo)的換裝行人重識別模型
基于多層特征融合與增強的對比圖聚類
面向說話人日志的多原型驅(qū)動圖神經(jīng)網(wǎng)絡(luò)方法
面向視覺-語言模型的遞進互提示學(xué)習(xí)
淺論現(xiàn)代戲曲服裝設(shè)計的主要特征
劇影月報(2025年2期)2025-07-30 00:00:00
色彩美學(xué)在服裝設(shè)計中的應(yīng)用探究
主站蜘蛛池模板: 亚洲精品动漫| 伊人久久福利中文字幕| 久久这里只有精品2| 中文字幕在线欧美| 免费看a毛片| 欧洲亚洲欧美国产日本高清| 久久久91人妻无码精品蜜桃HD| 久久亚洲精少妇毛片午夜无码| 欧美福利在线观看| 精品久久久久无码| 伊在人亞洲香蕉精品區| 黄色网页在线播放| 欧美一级视频免费| 风韵丰满熟妇啪啪区老熟熟女| 午夜福利在线观看成人| 第九色区aⅴ天堂久久香| 成人日韩精品| 日韩av电影一区二区三区四区| 国产鲁鲁视频在线观看| 2022国产91精品久久久久久| 欧美成人手机在线观看网址| 超碰免费91| 91亚洲免费视频| 国产在线日本| 天堂av高清一区二区三区| 四虎国产精品永久一区| 天天摸天天操免费播放小视频| 欧美一区福利| 国产真实乱子伦精品视手机观看| 国产成人精品一区二区不卡| 天堂在线www网亚洲| 欧洲一区二区三区无码| 在线无码九区| 亚洲日韩国产精品综合在线观看| 国产福利小视频高清在线观看| 丝袜亚洲综合| 一本大道在线一本久道| 中字无码av在线电影| 青青草原国产| 日韩精品高清自在线| 色婷婷成人| 丁香婷婷久久| 亚洲中文字幕久久精品无码一区 | 制服丝袜在线视频香蕉| 亚洲一区二区三区香蕉| 亚洲成人播放| 国产在线一二三区| 天天摸夜夜操| 欧美成人手机在线视频| 亚洲黄色激情网站| 国产日韩欧美一区二区三区在线| 国产成人精品18| 老司机久久精品视频| 久久国产V一级毛多内射| 国产精品天干天干在线观看| 99精品福利视频| 亚洲性一区| 一级黄色片网| 免费无码又爽又刺激高| 亚洲人视频在线观看| 一级毛片基地| 国产在线观看一区精品| 91午夜福利在线观看| 亚洲无码高清视频在线观看| 欧美人在线一区二区三区| 中日韩欧亚无码视频| 精品国产Ⅴ无码大片在线观看81| 日韩国产精品无码一区二区三区 | 久久久久久久久亚洲精品| 91探花在线观看国产最新| 久久精品午夜视频| 91年精品国产福利线观看久久| 亚洲香蕉久久| 老司国产精品视频91| 久久久久久久久18禁秘| 一级毛片免费播放视频| 久久亚洲国产视频| 亚洲中文字幕97久久精品少妇| 久久久噜噜噜| 欧美精品v欧洲精品| 少妇精品在线| 狠狠色成人综合首页|