999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的紗筒智能更換方法

2025-03-24 00:00:00陳芙蓉張周強李成崔芳斌
現代紡織技術 2025年3期
關鍵詞:機器視覺

摘 要:為實現纖維紗筒的智能更換,以碳纖維紗筒為例提出了一種基于機器視覺檢測和機械臂協同操作的自動換筒方法。首先,利用工業相機采集紗筒圖像,經過預處理后,結合優化的霍夫圓檢測算法,精確定位紗筒的位置。其次,通過多層感知器改進手眼標定算法,準確獲取相機與機械臂之間的轉換關系。最后,借助機械臂完成纖維紗筒的更換操作。結果顯示:改進的霍夫圓檢測算法能夠更準確地定位紗筒位置;與隨機森林和K近鄰算法相比,多層感知器在X/Y/Z三軸上表現出最佳的精確度,均方差誤差控制在1.77 mm2以內。該方法在機器視覺與機械臂協同作業中所展示的精確性和有效性,可為智能更換系統的實際應用提供重要的技術支持。

關鍵詞:機器視覺;多層感知器;霍夫圓檢測;自動換筒;手眼標定

中圖分類號:TS103.7

文獻標志碼:A

文章編號:1009-265X(2025)03-0033-09

收稿日期:2024-06-23 網絡出版日期:2024-08-26

基金項目:國家自然科學基金青年項目(61701384);陜西省教育廳重點科學研究計劃項目(20JS051);陜西省自然科學基礎研究計劃項目(2023JCYB288)

作者簡介:陳芙蓉(1996—),女,四川綿陽人,碩士研究生,主要從事機器視覺方面的研究

通信作者:張周強,E-mail:zhangzhouqiang208@126.com

紡織工業作為中國制造業的重要組成部分,對經濟發展起到了重要的推動作用[1。在紡織生產過程中,紗筒的更換是不可避免的關鍵環節。目前,多數紡織企業仍采用人工換筒的方式,然而這種方式不僅存在安全風險,還伴隨著高勞動強度。近年來,隨著“機器換人”和智能制造政策的推進,制造業的自動化水平顯著提升。企業愈發傾向于采用自動化生產設備,以提高生產效率并降低成本2-3。在這一背景下,基于機器視覺的智能紗筒更換技術逐漸引起了廣泛關注。

碳纖維及其復合材料憑借其優異的性能,廣泛應用于航空航天、風力發電、船舶等先進領域,因此高性能碳纖維的紡織裝備的研發顯得尤為重要[4。本文以碳纖維紗筒為例,探索實現自動更換紗筒的方法。目前,在技術上實現自動更換紗筒仍然是一個難題。由于紗架與紗筒的形態結構特性,機器人或機械手在取下空紗筒和放上新紗筒等工序時面臨著相當復雜的挑戰。此外,對于碳纖維紗筒的研究相對較少,更多的研究集中在紡織行業的其他類型上5。在紗筒識別處理方面,Shi等6采用圓形卷積核確定紗筒中心,透視變換和擬合實現紗筒直徑估算,進而實現余紗量檢測。史偉民等7提出深度學習與傳統圖像處理相結合的定位方法,利用改進的Yolov5模型框定紗筒口位置,再通過預處理、分割和最小二乘法擬合完成紗筒口定位。整個設計的想法很新穎但結構過于復雜,適用性不強。在機器人定位研究中,機器人手眼標定和逆運動學求解一直是視覺伺服領域的核心問題。Tu等[8采用單目相機和霍夫圓檢測算法,測距紗桿端面圓形標記物,實現了紗架坐標定位,但未提供機械臂運動測試情況。張洪等9研究的整經機筒子架自動換筒機器人利用AGV小車進行定位換筒,提供了實驗方案,但未提供實驗設備和測試情況。

本文在傳統的紗架裝置和紡織業更換紗筒等現有研究基礎上,立足于實際需求,以碳纖維紗筒更換為例,從系統總體設計、實驗室平臺搭建、圖像處理、機器學習以及實驗測試等多個方面展開對纖維紗筒的自動換筒研究,以期推動紡織行業朝著更加智能、高效的方向發展,為纖維產業的升級提供技術支持。

1 系統總體設計

在實驗室環境中,本文采用縮比模型的研究方法來模擬和代表工廠實際情況。設計的碳纖維紗筒更換系統主要分為兩個部分:硬件部分和軟件部分。硬件部分包括圖像采集模塊、紗架裝置模塊、上位機模塊以及機械臂控制模塊。圖像采集模塊主要由COMS相機、光學鏡頭和D65標準光源組成。軟件部分負責對圖像中的目標物進行識別,使用多層感知器(Multilayer Perceptron,MLP)進行手眼標定并控制機械臂進行抓取。圖1展示了基于視覺引導的機械臂更換碳纖維紗筒平臺的示意圖。

本系統采用了MER-031型工業數字相機,具備640×480的分辨率和860 fps的高幀率。同時選擇了焦距為2.8 mm、光圈范圍從F2.8至F22的LM8XC型號鏡頭。這些參數確保系統能夠在動態環境下實現高精度的圖像采集能力。在實驗中,選取長100 mm、外徑36 mm、內徑30 mm的圓柱筒,采集的效果如圖2所示。

2 紗筒識別與定位算法

本文采用優化的霍夫圓檢測與MLP算法相結合的方法來實現紗筒的自動更換,整個研究重點在兩部分:一是基于圖像處理完成紗筒的識別任務;二是根據具體的機械臂完成目標的定位任務。

2.1 優化的霍夫圓檢測算法

OpenCV中的圓檢測基于霍夫梯度法,其檢測原理是:假設圖像上的每個像素點可能是一個潛在的圓上的一部分,通過分析這些點的模向量的交點來確定潛在的圓心[10。式(1)為二維函數f(x,y)的梯度計算:

(1)

圓上邊緣點的梯度方向指向圓心(a,b),如圖3所示。

根據這些圓心的支持程度(即邊緣非零像素的數量),可以確定圓的半徑r。

r=(x-a)2+(y-b)2(2)

然而,圓檢測會導致多個潛在的圓心坐標,因此最終的圓定位需要結合半徑檢測才能完成。在霍夫圓檢測算法中,需要手動設定梯度線相交點累加器閾值S、最小半徑閾值Rmin、最大半徑閾值Rmax以及半徑閾值T。這些參數會影響最終檢測結果的穩定性和準確性。特別是圖像中存在同心圓的情況下,算法可能會選擇其中一個圓并且偏向于保留最大的圓[10

針對上述問題,本文在霍夫圓檢測的基礎上進行了改進,引入了LM算法和單目測距原理來限制紗筒的半徑范圍,并且增加了同心圓檢測機制,從而實現了更精確的紗筒定位。這些改進彌補了原算法在計算量大、對硬件資源要求高以及難以有效檢測同心圓等方面的缺點。優化后的霍夫圓檢測算法的主要流程如圖4所示。

整個圖像處理算法的具體步驟如下:

a)對原始圖像進行預處理(包括圖像灰度化和高斯濾波)。

b)利用Levenberg-Marquardt(LM)優化算法,獲取相機到物體的距離D。

LM優化算法是一種常用的優化算法,適用于在三維測量中進行簡單曲線或曲面的擬合[11。在初始值足夠接近的情況下,LM算法具有快速而準確的收斂性。其迭代公式描述如式(3)所示:

x(k+1)=x(k)-ak(JTkJk+uI)-1JTkFk(3)

式中:x(k)為當前迭代點,I為單位矩陣,u為阻尼系數,Jk為雅可比矩陣,ak為迭代步長,Fk為殘差向量。將棋盤格圖像放置與紗筒同一平面并進行拍照,獲取棋盤格上三維空間點在相機圖像中的對應投影點,計算出相機的姿態,從而獲取相機到物體的距離D。

c)獲取限制半徑R1

得到目標紗筒筒口到相機的距離D,根據小孔成像原理可得筒口外徑在圖像上的像素數,公式如式(4)所示:

D=R2fμR1(4)

式中:R2為已知的紗筒口外徑限制尺寸,mm;D為筒口到相機的距離,mm;f為相機焦距,mm;R1為獲取的限制半徑,像素;μ為相機像元尺寸,mm/像素。

d)調用cv2.houghcircles()函數檢測圓心坐標和對應的半徑。

e)根據圓筒內外徑差,設置內圓限制半徑r1,r2

f)篩選滿足要求的半徑,計算同心圓圓心距離D1

D1=(xi-xj2+(yi-yj2(5)

式中:(xi,yi),(xj,yj)為檢測到的圓心點坐標,D1為圓心之間的歐式距離。

g)判斷是否為同心圓,輸出滿足條件的圓心和半徑(x,y,r)。

針對具體的研究對象,采用的紗筒是具有壁厚3 mm的一個圓柱體,通過相機拍攝后在圖像上表示為一組同心圓,整個算法的檢測結果如圖5所示。

2.2 MLP神經網絡

準確抓取紗筒的關鍵在于獲取紗筒圓心在相機坐標系下的位置,并將其轉換到機械臂坐標系下。為實現這一目標,本文采用MLP神經網絡實現手眼標定。MLP神經網絡是一種前饋神經網絡,其特征是包含至少一層隱藏層,神經元之間單向連接。模型具有出色的非線性匹配和泛化能力,能夠有效地描述機械臂與相機之間復雜的空間變換[12-13。其結構如圖6所示。

輸入層輸入數據,通過隱含層進行處理。數據經過一系列的非線性變換,最終產生數據經輸出層輸出。在網絡的訓練過程中,每個樣本都包含明確的輸入量和期望的輸出量。為了優化網絡的性能,模型通過不斷調整網絡的權值和閾值,使得網絡的實際輸出與期望輸出之間的偏差沿著梯度下降的方向逐漸減小,直至實際輸出與期望輸出之間的差異在預定的可接受范圍內[14。設輸出層有m個神經元,MLP網絡的實際輸出是Y,期望輸出是Y′,損失函數ε為:

ε=12∑mj=1(Yj-Y′j)2(6)

每個權重的修正值為:

Δwij=-η?ε?wij=-η?ε?fj?fj?wij(7)

式中:Δwij為輸入單元i到j個隱含層的權重;η為學習速率;fj為中間第j個隱含層的傳輸函數。一般現在用的激活函數是ReLU,公式如式(8)所示:

(8)

圖像中靶標的坐標(x,y,z)及其對應機械臂的姿態(α,β,θ) 作為網絡的輸入,靶標在機械臂坐標系下的相應位置(rx,ry,rz)作為輸出,建立MLP神經網絡模型。本文設計的MLP神經網絡共包含5層:輸入層、輸出層及3層全連接層。輸入層負責接收外部輸入數據,并將其傳遞到后續的全連接層進行處理。前兩個全連接層后都加入了ReLU激活函數,以增加模型的非線性度。第3個全連接層直接連接到輸出層,輸出層的節點數量根據具體的機械臂抓取任務設置為3個。

3 實驗測試與分析

本文硬件設備的選擇如下:相機采用MER-031型工業數字相機,鏡頭為TEC-M55 MPW型55 mm鏡頭;補光燈選用2LINS180-W型線性光源;機械臂使用Mycobot280 M5。整個實驗的軟件部分采用VS Code編譯環境,基于Windows操作系統,利用OpenCV視覺庫和Python語言進行代碼編寫和實現。系統實物圖如圖7所示。

3.1 圖像處理算法檢測

采用程序生成一系列隨機分布的圓和同心圓的圖片,并使用修改過的算法進行驗證,整個結果如圖8所示。在生成的圖片中,已知生成圓的半徑和圓心坐標,通過與檢測結果的比對,客觀地評估檢測算法的準確性。

圖8(a)—(d)展示的是經過軟件算法隨機生成的一系列圓,包括單圓,同心圓以及兩圓位置的不同。圖8(e)—(h)展示的實驗結果可以發現本算法可以檢測到同心圓。檢測到的坐標與生成時的圓心數據對比驗證整個算法可以準確判斷同心圓,檢測結果如表1所示。

為了提高機器視覺系統在復雜環境中的魯棒性,對紗筒圖像進行了數據增強處理。具體而言,針對環境光線和背景噪聲的敏感性,本文對采集到的原圖像添加了高斯噪聲,并進行了亮度調整。以原圖為基準,亮度調整參數值分別設置為50、20和-50。通過這些數據增強操作,本文驗證了系統在不同條件下的檢測性能。表2顯示了部分增強圖像及其對應的檢測結果。

由表2的檢測結果可以看出,增加噪聲和調整亮度對圓心的檢測結果沒有顯著影響。優化后的霍夫圓檢測算法在不同的噪聲和亮度條件下,仍然能夠準確地檢測出圓心。這表明,使用優化后的霍夫圓檢測算法檢測經過數據增強后圖像仍然具有較強的魯棒性和可靠性,能夠在復雜環境下保持較高的檢測精度。

3.2 MLP模型標定結果分析

建立MLP神經網絡的第一步是進行數據采集。首先在標定靶貼上靶標,使機械臂末端運動到指定靶標,然后相機拍攝靶標圖片,處理后得到靶標在相機坐標系下的坐標,與機械臂坐標系下的坐標組成一組對應坐標。重復此過程得到65組坐標值,作為網絡學習樣本。為降低實驗數據的隨機誤差,各實驗樣本組盡量選取線性無關的點。表3是手眼標定部分樣本數據的示例表。

將全部采集的數據輸入到建立的MLP神經網絡模型進行訓練,選擇均方差誤差(即預測值與真實值之差的平方和的平均值)作為損失函數。圖9展示的是MLP預測結果的詳細數據。

圖9(a)—(c)展示了X/Y/Z三個軸上預測值與真實值之間的差異。總體來看,手眼標定的結果非常理想。同時,本算法也與隨機森林模型、K近鄰算法做對比,采用均方差(MSE)作為評價指標,公式如式(9)所示:

MSE=1m∑mi(yi-f(xi))2(9)

式中:m為樣本數量,yi是實際值,f(xi)是模型預測值。MSE為預測結果的誤差大小,值越小表明模型的預測精度越高。

在相同的數據集上進行訓練后,得到的結果如下:MLP的均方誤差為1.77 mm2,隨機森林模型的均方誤差為14.24 mm2,而K近鄰算法的均方誤差為26.02 mm2。通過實驗數據發現MLP的均方誤差值最小,這表明MLP模型的預測效果非常好。

圖10(a)—(c)分別顯示了MLP、隨機森林算法和K近鄰算法的預測結果與真實值在X、Y、Z三個軸上的誤差。MLP在X軸上的預測誤差基本都保持在0.5 mm左右;Y軸和Z軸的誤差也基本沒有超過4 mm。對比發現,MLP預測最為穩定,且誤差值最小。需要注意的是,機械臂在運動過程中會存在一定的誤差,但即使在這種情況下,模型依然能夠實現如此高精度的標定,這進一步證明了多層感知器在手眼標定任務中的有效性和可靠性。

4 結論與展望

本文為了解決碳纖維自動化生產線中換筒機器人在更換紗筒時定位和精準抓取空筒的問題,提出了一種結合優化的霍夫圓檢測和MLP神經網絡的智能更換紗筒方法。經過搭建實物模型與實驗驗證,得到以下結論:

a)優化后的霍夫圓檢測算法與霍夫圓相比,引入了同心圓判斷機制,能夠更精確地識別圖像中的同心圓。

b)優化后的霍夫圓檢測算法在不同的噪聲和亮度條件下,仍然能夠準確地檢測出紗筒外圓,并準確定位其坐標,具有較強的魯棒性和可靠性,能夠在復雜環境下保持較高的檢測精度。

c)建立MLP神經網絡完成了手眼標定,使得在X/Y/Z三個軸上的誤差控制在實驗允許的范圍內(超過4 mm)。

本文方法基本滿足了換筒機器人空筒定位的需求,為工廠中的相同類型紗筒的自動換筒技術提供了有益的參考。目前,系統尚未包括紗筒換紗功能,未來的工作將集中于完善機械臂的換紗操作。

參考文獻:

[1]游佳泉.筒紗換運復合機器人作業效率提升方法研究[D]. 上海:東華大學,2023.

YOU Jiaquan. Research on the Method of Improving the Operation Efficiency of Cylinder Yarn Changing and Transporting Compound Robot[D]. Shanghai:Donghua University,2023.

[2]蔣高明,高哲,高梓越.針織智能制造研究進展[J]. 紡織學報,2017,38(10):177-183.

JIANG Gaoming, GAO Zhe, GAO Ziyue. Research advance of knitting intelligent manufacturing[J]. Journal of Textile Research,2017,38(10):177-183.

[3]胡旭東,沈春婭,彭來湖,等.針織裝備的智能制造及互聯互通標準驗證[J]. 紡織學報,2017,38(10):172-176.

HU Xudong, SHEN Chunya, PENG Laihu, et al. Intelligent manufacturing and standard about interoperability verification of knitting machine[J]. Journal of Textile Research,2017,38(10):172-176.

[4]胡雙虎.碳纖維多層織機織邊機構優化設計及工藝研究[D]. 天津:天津工業大學,2014.

HU Shuanghu. Optimal Design and Process Research of Weaving Edge Mechanism of Carbon Fiber Multilayer Loom [D]. Tianjin:Tianjin Polytechnic University,2014.

[5]屠佳佳,孫磊,毛慧敏,等.圓緯機紗架自動換筒技術[J]. 紡織學報,2022,43(7):178-185.

TU Jiajia, SUN Lei, MAO Huimin, et al. Automatic bobbin changing technology for circular weft knitting machines[J]. Journal of Textile Research,2022,43(7):178-185.

[6]SHI Z, SHI W, WANG J. The detection of thread Roll's margin based on computer vision[J]. Sensors,2021,21(19):6331.

[7]史偉民,韓思捷,屠佳佳,等.基于機器視覺的空紗筒口定位方法[J]. 紡織學報,2023,44(11):105-112.

SHI Weimin, HAN Sijie, TU Jiajia, et al. Empty yarn bobbin positioning method based on machine vision[J]. Journal of Textile Research,2023,44(11):105-112.

[8]TU J, HAN S, SUN L, et al. The method of creel positioning based on monocular vision[J]. Sensors,2022,22(17):6657.

[9]張洪,魏毅,陳瑞,等.整經機筒子架自動換筒機器人系統研發[J]. 上海紡織科技,2020,48(6):10-13.

ZHANG Hong, WEI Yi, CHEN Rui, et al. Research and development of automatic barrel changing robot system for warping machine's barrel frame[J]. Shanghai Textile Sci-ence amp; Technology,2020,48(6):10-13.

[10]李小磊.基于數字圖像處理的高速公路能見度檢測系統設計[D]. 杭州:杭州電子科技大學,2019.

LI Xiaolei. Design of Expressway Visibility Detection System Based on Digital Image Processing[D]. Hang-zhou:Hangzhou Dianzi University,2019.

[11]鄧建南,王晗,姚洪輝,等.基于修正Levenberg-Marquardt算法的非球面面形誤差校正[J]. 光學學報,2022,42(5):0512004.

DENG Jiannan, WANG Han, YAO Honghui, et al. Aspheric surface shape error correction based on modified levenberg-marquardt algorithm[J]. Acta Optica Sinica,2022,42(5):0512004.

[12]李光,章曉峰,楊加超,等.基于殘差BP神經網絡的6自由度機器人視覺標定[J]. 農業機械學報,2021,52(4):366-374.

LI Guang, ZHANG Xiaofeng, YANG Jiachao, et al. Vision calibration of six degree of freedom robot based on residual BP neural network[J]. Transactions of the Chinese Society for Agricultural Machinery,2021,52(4):366-374.

[13]ZOU Y, MA W, TANG Q, et al. A high-precision method evaluating color quality of Sichuan Dark Tea based on colorimeter combined with multi-layer perceptron[J]. Journal of Food Process Engineering,

2020,43(8):e13444.

[14]丁雷鳴,徐海明,呂品,等.基于遺傳BP神經網絡的雙目相機手眼標定研究[J]. 合肥工業大學學報(自然科學版),2020,43(9):1159-1163.

DING Leiming, XU Haiming, Lü Pin, et al. Research on hand-eye calibration method based on genetic BP neural network for binocular camera[J]. Journal of Hefei University of Technology (Natural Science),2020,43(9):1159-1163.

An automatic replacement method of yarn bobbin based on machine vision

CHEN Furong, ZHANG Zhouqiang, LI Cheng, CUI Fangbin

(School of Mechanical and Electrical Engineering, Xi'an Polytechnic University, Xi'an 710613, China)

Abstract: In textile production, the replacement of bobbins is an unavoidable key process. Currently, most textile enterprises still employ manual bobbin replacement methods, which poses safety risks and is labor-intensive. The carbon fiber, known as the \"black gold\" of the 21st century, is a new type of fiber material with a carbon content exceeding 90%. Because of its light weight, high strength, and corrosion resistance, the carbon fiber has been widely used in various fields. In recent years, the government has been actively promoting the development of the carbon fiber industry. Both the \"13th Five-Year Plan\" and the \"14th Five-Year Plan\" have explicitly called for the strengthening of research and application of high-performance fibers and composite materials like carbon fibers. In carbon fiber weaving and production, the replacement of carbon fiber bobbins is a critical step. This paper explores methods to achieve automatic bobbin replacement, using carbon fiber bobbin replacement as a case study. To achieve the intelligent replacement of carbon fiber yarn bobbins, this paper proposes an automatic bobbin-changing method based on machine vision detection and robotic arm collaborative operation, and establishes a corresponding intelligent bobbin-changing system. The system is mainly divided into hardware and software parts. The hardware part includes an image acquisition module, a yarn rack device module, an upper computer module, and a robotic arm control module. The software part is responsible for recognizing the target object in the image and controlling the robotic arm. This paper mimics the yarn rack design of an actual factory and designs a yarn rack device suitable for laboratory settings. First, the image acquisition module is responsible for capturing and saving images; then, the upper computer module integrates the software programs of the entire system, which are used to monitor and determine the status of the yarn bobbin and transmit information to the robotic arm; finally, the robotic arm control module receives signals from the upper computer and completes the bobbin replacement according to the planned path. The image processing part of the system is based on an optimized Hough circle detection algorithm, incorporating the LM algorithm and monocular distance measurement principles to limit the radius range of the yarn bobbin, and adding a concentric circle detection mechanism to achieve more accurate bobbin positioning. In addition, a multi-layer perceptron(MLP)model is used to complete hand-eye calibration, determining the relationship between the image coordinates and the robotic arm base coordinates, thus obtaining the precise position of the robotic arm's end.

In the experimental tests, this paper addresses the sensitivity to ambient light and background noise by adding Gaussian noise to the captured raw images and adjusting the brightness (with parameter values of -50, 20, and 50). Through these data augmentation operations, it is verified that the optimized Hough circle detection algorithm possesses strong robustness and reliability, maintaining high detection accuracy in complex environments. Compared with the Random Forest and K-nearest Neighbor algorithms, MLP shows the best accuracy on the X/Y/Z axes, with mean square error controlled within 1.77 mm2. The results indicate that this study achieves high precision and effectiveness in the collaborative work of machine vision and robotic arms, providing important technical support for the practical application of intelligent replacement systems.

Keywords:machine vision; multilayer perceptron; Hough circle detection; automatic bobbin replacement; hand-eye calibration

猜你喜歡
機器視覺
基于芯片點膠系統的視覺檢測技術研究
軟件導刊(2016年11期)2016-12-22 21:52:17
全自動模擬目標搜救系統的設計與實現
基于機器視覺的自動澆注機控制系統的研究
科技視界(2016年26期)2016-12-17 17:31:58
機器視覺技術的發展及其應用
科技視界(2016年25期)2016-11-25 19:53:52
視覺拉線檢測器的設計與實現
科技視界(2016年25期)2016-11-25 09:27:34
大場景三維激光掃描儀在研究生實踐教學培養中的應用
科教導刊(2016年25期)2016-11-15 17:53:37
基于機器視覺的工件鋸片缺陷檢測系統設計
軟件工程(2016年8期)2016-10-25 15:55:22
基于機器視覺技術的動態“白帶”常規檢測系統的開發
科技視界(2016年20期)2016-09-29 11:11:40
對激光切割機的改進
科技視界(2016年6期)2016-07-12 09:12:40
人工智能在高校圖書館的預期
科技視界(2016年15期)2016-06-30 19:03:30
主站蜘蛛池模板: 99久久国产综合精品2020| 欧美午夜理伦三级在线观看| 在线观看无码av五月花| 国内自拍久第一页| 91 九色视频丝袜| 日本人妻丰满熟妇区| 日韩国产无码一区| 欧美一区二区三区不卡免费| 麻豆国产精品| 国产成人乱无码视频| 免费无遮挡AV| 在线观看国产一区二区三区99| 日韩经典精品无码一区二区| 中文国产成人精品久久| 波多野结衣无码AV在线| 国产资源免费观看| 无码精品国产dvd在线观看9久| 草逼视频国产| 91香蕉国产亚洲一二三区| 欧美日韩成人在线观看| 青青青草国产| 99久久精品国产精品亚洲 | 91精品国产一区| 最新精品久久精品| 午夜精品国产自在| 精品久久777| 精品在线免费播放| 久久久久亚洲精品成人网 | 国产一区二区色淫影院| 国产一区二区三区在线精品专区 | 色妺妺在线视频喷水| 第九色区aⅴ天堂久久香| 九九视频免费在线观看| 亚洲三级影院| 国产三区二区| 伊人久久精品无码麻豆精品| 4虎影视国产在线观看精品| 精品三级网站| 精品自窥自偷在线看| 精品国产成人国产在线| 综合成人国产| 四虎成人精品在永久免费| 91久久天天躁狠狠躁夜夜| 五月婷婷激情四射| 97国产精品视频人人做人人爱| 国产成人三级| 狠狠色丁婷婷综合久久| 免费播放毛片| 天天操精品| 国产精品999在线| 國產尤物AV尤物在線觀看| 在线不卡免费视频| 91福利在线观看视频| 国产亚洲精品在天天在线麻豆 | 福利一区在线| 72种姿势欧美久久久大黄蕉| 亚洲欧美另类久久久精品播放的| 日韩人妻少妇一区二区| 亚洲色图另类| 日本精品视频| 国产一级片网址| 欧洲欧美人成免费全部视频| 91尤物国产尤物福利在线| 亚洲第七页| 国禁国产you女视频网站| 99999久久久久久亚洲| 少妇精品网站| 一本一道波多野结衣一区二区 | 亚洲高清日韩heyzo| 国产精品偷伦视频免费观看国产| 无码专区第一页| 精品中文字幕一区在线| 真实国产乱子伦高清| 99久久精品久久久久久婷婷| 中文字幕无码制服中字| 91视频区| 国产精品福利尤物youwu| 日本不卡视频在线| 欧美激情二区三区| AV天堂资源福利在线观看| 亚洲美女操| 国产亚洲精品无码专|