999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

KoiU?Net:基于多特征增強融合的紡錘形魚類圖像分割方法

2024-09-14 00:00:00朱珈緣孟娟杜海馬媛媛曹靜雯
現代電子技術 2024年9期
關鍵詞:深度學習

摘" 要: 針對紡錘形魚類圖像分割任務中存在的邊緣不清、特征模糊等問題,提出一種基于多特征增強融合的紡錘形魚類圖像分割網絡KoiU?Net。該網絡在經典的U?Net模型基礎上,設計了多尺度特征交叉感知模塊和多尺度特征融合模塊來增強對紡錘形魚類特征的處理能力,以應對紡錘形魚類圖像分割中存在的邊緣模糊、特征復雜的問題。同時,設計了多尺度上采樣模塊以提取更精細的特征信息。在紡錘形魚類圖像數據集上的實驗表明,相較于原始U?Net等其他分割網絡,KoiU?Net取得了平均98.63%的分割精度的顯著提升。各設計模塊的有效性也通過消融實驗得以驗證,尤其是多尺度特征交叉感知模塊對提升分割性能具有關鍵作用。該研究為進一步實現紡錘形魚類生長狀態監測提供了有效的技術支撐,為該領域的進一步發展奠定了基礎。

關鍵詞: 深度學習; 圖像分割; 分割精度; 紡錘形魚; U?Net; 多尺度特征融合

中圖分類號: TN911.73?34; TP391.4"""""""""""""""""" 文獻標識碼: A""""""""""""""" 文章編號: 1004?373X(2024)09?0053?06

0" 引" 言

國務院新聞辦公室2023年10月發布的《中國的遠洋漁業發展》白皮書顯示,中國是世界水產養殖產量最高的國家,全球的水產養殖產品約40%來自中國[1]。據《2022年中國漁業統計年鑒》統計,我國淡水養殖魚類產量2 640.28萬噸,其中草魚、鰱魚和鳙魚是三種產量最大的魚[2],這三種魚均屬于紡錘形魚類。

監測紡錘形魚類體長是養殖的重要環節,良好的圖像分割效果對深入剖析魚類特征至關重要。傳統的圖像分割方法主要依賴于圖像的顏色、紋理等基本特征進行分割,例如文獻[3]改進了K?means聚類算法用于魚類圖像分割行為分析,文獻[4]則基于邊緣拐角和骨架形狀對重疊的魚類圖像進行分割。然而,在復雜背景下這些方法存在局限性,分割結果往往無效。隨著近幾年信息技術的快速發展[5?8],深度學習方法在圖像分割中得到廣泛應用,文獻[9]提出了基于目標檢測和邊緣支持的魚類圖像分割方法,首先通過目標檢測獲取完整的魚類輪廓信息,然后使用Canny邊緣支持的分割網絡進行處理,有效解決了養殖條件下魚類圖像分割精度較低的問題。文獻[10]提出了改進的輕量版SOLOv2實例分割網絡框架,有效地提高了模型的分割能力。然而,在養殖條件下,由于水下圖像模糊、魚的體型較大和相互遮擋情況較多,運用深度學習方法進行圖像分割仍然面臨著錯檢、漏檢的問題,分割精度有待進一步提高。因此,如何進一步提高在養殖條件下的魚類圖像分割精度仍然是一個重要的研究方向。

本文針對基于深度學習的網絡模型在養殖環境下紡錘形魚類分割任務中遇到的邊緣不清、特征模糊等問題[11],提出一種基于多特征增強融合的紡錘形魚分割網絡KoiU?Net。該網絡利用多尺度特征交叉感知模塊和多尺度特征融合模塊對經典的U?Net模型[12]進行改進,并在上采樣階段設計了多路上采樣方法進行上采樣操作,以提升模型性能和精度。本文所提出的方法有很高的應用價值,可以有效解決養殖環境下紡錘形魚類分割任務中遇到的問題,同時對于圖像分割領域的研究也有一定的參考意義。

1" KoiU?Net網絡整體架構

本文對U?Net網絡的下采樣、上采樣和跳層連接部分進行改進,提出基于多特征增強融合的紡錘形魚分割網絡KoiU?Net。KoiU?Net基于U?Net的工作方式[13],提出了多尺度特征交叉感知模塊(Multiscale Feature Cross Perceptron,MFCP)和多尺度特征融合模塊(Multiscale Feature Fusion, MFF)來處理下采樣過程產生的多尺度特征,KoiU?Net相比于U?Net標準的架構增強了對特征的處理能力。同時,KoiU?Net在上采樣階段,使用新設計的多尺度上采樣模塊(Multiscale Upsampling, MU)方式替換普通的反卷積等上采樣操作,進而逐步完善最終的分割結果。

KoiU?Net網絡的整體架構如圖1所示,整體可被分為下采樣、跳層連接和上采樣三個部分。下采樣負責提取特征圖,上采樣負責將特征圖恢復成最終的掩碼,跳層連接負責上下采樣中的特征連接。跳層連接部分,KoiU?Net設計了多尺度特征交叉感知模塊來改善標準的連接,通過感知操作抑制無用特征,增強紡錘形魚類特征的傳遞,并在最終尾部的連接上設計了多尺度特征融合模塊,再經過空洞空間金字塔池化模塊ASPP[14]將所有下采樣階段的特征級聯,再Concat到最后的輸出層中,提高分割精讀。KoiU?Net網絡使用ASPP可以更有效地提取全局信息,加強特征的流動。

2" KoiU?Net網絡的實現

2.1" 多尺度特征交叉感知模塊MFCP

MFCP模塊處理機制如圖2所示。MFCP是一種用于改善跳層連接傳遞的特征信息的模塊,其主要目的是通過利用各級特征之間的關系來強化特征的表達,從而提高模型的性能。MFCP通過多頭特征注意力的處理來實現特征的交叉感知。

MFCP接收來自從不同深度的網絡層或不同卷積層中得到的不同尺度的特征。為了增強特征表達,MFCP模塊會將每兩個不同尺度的特征進行交叉感知處理。MFCP采用多頭特征注意力的方式,能夠捕捉輸入特征之間的關系,并使得每個特征都能夠受益于其他特征的信息。通過對輸入特征進行加權求和,得到經過交叉感知后的特征表示。經過多頭特征注意力處理后,MFCP將得到新的特征表示作為輸出。這些特征表示已經受益于不同尺度特征之間的交叉感知,從而增強了特征的表達能力。

2.2" 多尺度特征融合模塊MFF

MFF模塊處理機制如圖3所示。MFF用來完成對高層語義信息的多尺度特征信息提取。輸入的特征首先使用1×1的卷積生成三路特征,第一路、第二路被用來計算像素相關性,使用高斯方法進行計算。

[ei=gauss(x1?x2)i=1Ngauss(x1?x2)] (1)

[Out=i=1N(ei)+xi] (2)

高斯加權的目的是根據像素之間的空間距離來調整它們在相關性計算中的貢獻,從而更好地捕捉特征之間的關聯性,而后與未經處理的原始特征結合,通過四層相同的結構,輸出最終的特征圖。

整個MFF模塊的目標是充分利用不同尺度的特征信息,并且通過相關性計算來捕捉特征之間的關聯性,從而增強模型的表達能力和泛化性能。

2.3" 多尺度上采樣模塊MU

MU模塊處理機制如圖4所示。MU是為了克服傳統的簡單反卷積上采樣的問題而提出的一種改進模塊。MU通過一種類似于編解碼架構的兩個神經網絡處理特征圖,從而能夠更好地利用特征信息并自適應地強調重要特征,最終將處理后的特征圖結合在一起進行上采樣,得到最終的輸出。

MU接收輸入的特征圖,這些特征圖通常是從低層網絡或者其他模塊中得到的。首先,輸入特征經過一個1×1的卷積操作,生成三個不同的特征圖,即三路特征。將生成的三路特征分別輸入到編碼網絡中進行處理,捕捉特征的高級表示,解碼網絡負責將編碼網絡的輸出進行逆向操作,對特征進行解碼和恢復,從而實現特征的重建。融合后的特征圖經過上采樣操作,使用反卷積將特征圖的空間尺寸放大到與原始輸入相同的大小。

2.4" 損失函數

本文的損失函數采用融合SoftIoU和二值交叉熵的方式。二值交叉熵損失函數(BCE)通常用于二分類問題,它度量了模型預測與真實標簽之間的差異。對于像素級別的分割任務,可以將每個像素點看作一個獨立的二分類問題,用于衡量像素點的分類效果。

IoU(Intersection over Union)常用于衡量目標檢測或分割任務中預測邊界框或分割掩碼與真實邊界框或分割掩碼之間的重疊程度。它計算預測區域與真實區域的交集面積與并集面積之比。對于像素級別的分割任務,SoftIoU是IoU的一個變體,它使用軟性估計將像素的分類輸出轉化為一種模糊的分割掩碼且考慮了預測的不確定性。這樣可以減少標簽噪聲或邊界不清晰等問題對模型訓練的影響,使得模型具有更好的魯棒性。

[L=λLBCE+(1-λ)LIoU] (3)

[LBCE(y,y)=-1Ni=1N[yilog(yi)+(1-yi)log(1-yi)]] (4)

[LIoU(y,y)=1-i=1N(2yiyi+ε)/(yi+yi+ε)N] (5)

式中:[N]是樣本數;[yi]是第[i]個樣本的真實標簽,取值為0或1;[yi]是第[i]個樣本的預測值,取值范圍為[0,1];[ε]是一個小正數,用于避免除數為零的情況。

融合損失函數可以提高對罕見類別和邊界區域的關注度,使得模型更全面地覆蓋各個類別。SoftIoU損失函數允許模型對于紡錘形魚邊界區域進行模糊預測,從而提高了模型對于紡錘形魚邊界不清晰區域的分割效果,同時它考慮了預測的不確定性,使得模型在不確定的區域更加魯棒,減少了標簽噪聲的影響。通過結合二值交叉熵和SoftIoU損失函數,可以使模型在像素級別的分割任務中更加魯棒和準確,從而提高目標檢測或語義分割等任務的性能。

3" 實驗結果與分析

3.1" 實驗總體情況介紹

實驗環境使用的操作系統為Windows 10專業版,深度學習框架為PyTorch 1.12.1,硬件配置中CPU為11th Gen Intel[?] CoreTM i9?11900@2.50 GHz,運行內存為32.0 GB;GPU為NVIDIA GeForce RTX 3080。本文使用的數據集為A Large?Scale Dataset for Fish Segmentation and Classification。該數據集包含從土耳其伊茲密爾一家超市收集的9種不同的海鮮類型,數據集包括鍍金頭鯛、紅鯛、鱸魚、紅鯔魚、竹莢魚、黑海鯡魚、條紋紅鯔魚、鱒魚、蝦等海鮮圖像樣本。本文選取數據集內的紡錘形魚類作為樣本進行訓練,并將樣本分為3個部分:75%用于訓練;12.5%用于驗證;12.5%用于測試,使用五折交叉驗證,隨機劃分5次進行訓練和驗證。數據集樣本示例如圖5所示。

3.2" 評價指標

為了更好地評估網絡對紡錘形魚類的分割效果,采用以下評估指標:PA(Pixel Accuracy)代表像素準確率,即標注正確的像素占像素總數的百分比;mIoU(Mean Intersection over Union)代表平均交并比,即正例的交并比與反例的交并比的平均值;Dice系數是一種用來評估兩個樣本相似性的度量函數,取值在0~1之間,值越大表明越相似。TP=[pii]表示真正例,即分割預測為正例,標注也為正例的像素;FP=[pji]表示假正例,表示將其他類[j]預測為正確類[i];FN=[pij]表示假負例,即分割預測為反例,標注是正例的像素;TN=[pjj]表示真反類,即分割預測為反例,標注也為反例的像素。PA和mIoU的計算式如式(6)、式(7)所示。

[PA=TP+TNTP+TN+FP+FN] (6)

[mIoU=1k+1 i=0kpijj=0kpij+j=0kpji-pii] (7)

Dice系數的定義如式(8)所示:

[Dice=2X?YX+Y] (8)

式中:[X]和[Y]分別表示[X]和[Y]的元素個數;[X?Y]表示[X]和[Y]交集元素的個數。

3.3" 實驗結果分析

3.3.1" 訓練過程分析

訓練過程中學習率和損失的變化情況如圖6、圖7所示,在訓練過程中學習率下降較快,表明模型具有較快的收斂速度。

在驗證集上的情況如圖8所示。其與訓練過程中loss的變化相符合,在后期的訓練過程中始終保持在0.94左右,說明了其優秀的表現,能準確分割出背景和魚身。

3.3.2" 測試集分割結果

在測試集上經過五折交叉驗證的結果如表1所示。由表1可知,KoiU?Net在劃分的不同批次的測試集都有著較為穩定的表現,說明KoiU?Net在多種紡錘形魚的分割任務上魯棒性較強,且平均準確率達到了98.63%。

3.3.3" 可視化分析

為了深入探究KoiU?Net的效果,本節進行了可視化分析。由圖9可知,KoiU?Net對于紡錘形魚類圖像分割的邊緣處理的較好,能準確去除背景區域。

圖10為復雜背景下網絡對紡錘形魚類的分割效果。由圖10可知,KoiU?Net對于紡錘形魚類圖像分割的泛化能力較好,能準確分割出紡錘形魚類區域。

3.4" 消融實驗

3.4.1" 模型消融實驗

為驗證KoiU?Net網絡模型對模型性能提升的有效性,本節將對KoiU?Net網絡模型中的各個模塊進行消融探究,以驗證不同模塊對本文方法帶來的影響。結果如表2所示,表中的各項參數含義如下:

Base:基線模型,采用ResNet101編碼器和普通的上采樣模塊,并使用ASPP將編碼器的特征圖連接至最后的輸出層;MU:采用新設計的MU多尺度上采樣模塊;MFF:使用新設計的MFF連接編碼器的最后一層;MFCP:使用新設計的MFCP連接編解碼器。

由表2分析可知,各個改進方法對網絡性能都有一定的提升效果,MFCP是性能提升的主要來源,相較于其他設置下,加入MFCP的對照組提升較大,PA、Dice和mIoU分別提高4.28%、6.92%和8.23%。加入了所有改進模塊后,PA、Dice和mIoU分別提高9.26%、14.76%和13.33%。整體性能相較于典型U?Net提升了近10%,實驗結果充分證明了KoiU?Net網絡模型的有效性和先進性。

3.4.2" 融合損失函數消融實驗

本小節分別采用BCE、IoU和融合損失函數訓練KoiU?Net網絡模型,Base與3.4.1節的含義相同,KoiU?Net代表3.4.1節中的Base+MU+MFF+MFCP,實驗結果如表3所示。

在Base模型和KoiU?Net網絡模型上的消融實驗都充分證明了融合損失函數能夠幫助KoiU?Net網絡模型學習到更充分的特征表示,性能提升也較為明顯。

3.5" 對比實驗

為了評估KoiU?Net網絡在不同方法中的優越性,本節選取常用的語義分割模型和KoiU?Net網絡模型進行對比,通過在測試集上的分割效果對比,表明KoiU?Net網絡模型和不同深度學習方法之間的差異性。對比實驗指標見表4。

由表3、表4可知,KoiU?Net網絡的各項指標對比其他網絡均有5%~10%左右的提升。性能的提升往往伴隨著較大的時間代價,例如表現較好的U?Net++,其推理時間達到了35.84 ms;表現次優的TransU?Net采用Transformer架構作為編碼器,其推理時間達到了39.95 ms;實驗數據表明,相比于其他圖像分割的架構,KoiU?Net更適用于紡錘形魚類的分割,在紡錘形魚類圖像分割性能上更具優勢。實驗結果驗證了KoiU?Net能夠更精準地分割出魚身,同時在各項性能上表現均較好,其推理時間為29.50 ms,本文方法不失為一種優秀的分割方法。

4" 結" 語

本文針對紡錘形魚類圖像分割任務中存在的邊緣不清、特征模糊的難點,提出一種全新的分割網絡KoiU?Net。該網絡在U?Net模型基礎上,設計了多尺度特征交叉感知模塊MFCP、多尺度特征融合模塊MFF以及多尺度上采樣模塊MU,以增強模型對復雜紡錘形魚類特征的表達和利用能力,提升紡錘形魚類圖像分割的精度。在數據集上的大量實驗表明,KoiU?Net相較于U?Net、PSPNet等其他分割模型,取得了平均準確率為98.63%的分割精度。同時,設計的模塊經過消融實驗也證明了其效果,尤其是多尺度特征交叉感知模塊MFCP對分割性能提升作用最大。與其他分割網絡相比,KoiU?Net在取得更精準分割的同時,推理時間上的代價也較小。本研究表明,KoiU?Net網絡結構能夠有效地輔助紡錘形魚類的生長狀態測量,為水產養殖過程中魚類生長監測提供了可靠的技術手段,也為其他類似的生物體分割任務提供了借鑒。總體而言,KoiU?Net是一種針對紡錘形魚類分割任務設計的高效網絡結構,其在該領域應用中展現出的卓越性能表明其具備廣闊的工程應用前景。

注:本文通訊作者為孟娟。

參考文獻

[1] 中華人民共和國國務院新聞辦公室.中國的遠洋漁業發展[N].人民日報,2023?10?25(014).

[2] 農業農村部漁業漁政管理局.2022中國漁業統計年鑒[M].北京:中國農業出版社,2022.

[3] 王帥,劉世晶,唐榮,等.基于改進K?means聚類算法的金魚陰影去除及圖像分割方法[J].漁業現代化,2019,46(2):54?60.

[4] ZHOU C, LIN K, XU D M, et al. Method for segmentation of overlapping fish images in aquaculture [J]. International journal of agricultural and biological engineering, 2019, 12(6): 135?142.

[5] JIAO L, ZHANG R, LIU F, et al. New generation deep learning for video object detection: A survey [J]. IEEE transactions on neural networks and learning systems, 2022, 33(8): 3195?3215.

[6] VILLON S, MOUILLOT D, CHAUMONT M, et al. A deep learning method for accurate and fast identification of coral reef fishes in underwater images [J]. Ecological informatics, 2018, 48: 238?244.

[7] WANG J, LIU X P. Medical image recognition and segmentation of pathological slices of gastric cancer based on Deeplab v3+ neural network [J]. Computer methods and programs in biomedicine, 2021, 207: 106210.

[8] CAO Z, SIMON T, WEI S E, et al. Realtime multi?person 2D pose estimation using part affinity fields [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 7291?7299.

[9] 覃學標,黃冬梅,宋巍,等.基于目標檢測及邊緣支持的魚類圖像分割方法[J].農業機械學報,2023,54(1):280?286.

[10] 何佳琦,周思藝,唐曉萌,等.基于改進的輕量版SOLOv2紅鰭東方鲀實例分割方法[J].華中農業大學學報,2023,42(3):71?79.

[11] 范偉亞.基于深度學習的海洋魚類圖像識別與應用[D].重慶:重慶師范大學,2019.

[12] BACCOUCH W, OUESLATI S, SOLAIMAN B, et al. A comparative study of CNN and U?Net performance for automatic segmentation of medical images: Application to cardiac MRI [J]. Procedia computer science, 2023, 219: 1089?1096.

[13] AGHALARI M, AGHAGOLZADEH A, EZOJI M. Brain tumor image segmentation via asymmetric/symmetric UNet based on two?pathway?residual blocks [J]. Biomedical signal processing and control, 2021, 69: 102841.

[14] CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder?decoder with atrous separable convolution for semantic image segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 801?818.

KoiU?Net: A fusiform fish image segmentation method

based on multi?feature enhancement fusion

ZHU Jiayuan1, MENG Juan1, DU Hai2, MA Yuanyuan1, CAO Jingwen1

(1. College of Information Engineering, Dalian Ocean University, Dalian 116023, China;

2. State Key Laboratory of Coastal and Offshore Engineering, Dalian University of Technology, Dalian 116024, China)

Abstract: In view of the blurred edges and vague features in the fusiform fish image segmentation task, a multi?feature enhancement and fusion based fusiform fish image segmentation network KoiU?Net is proposed. On the basis of the classical U?Net model, a multi?scale feature cross perception module and a multi?scale feature fusion module are designed to enhance the processing capability of fusiform fish features, so as to cope with the problems of blurred edges and complex features in the segmentation of fusiform fish image. The multi?scale upsampling module is designed to extract finer feature information. Experiments on the fusiform fish image dataset show that the KoiU?Net achieves significant improvement in segmentation accuracy, averaging 98.63%, in comparison with the other segmentation networks such as the original U?Net. The effectiveness of each design module is also verified by ablation experiments, and the multi?scale feature cross perception module plays a key role in improving the segmentation performance. This study provides effective technical support for further implementation of fusiform fish growth state monitoring and lays the foundation for the further development in this field.

Keywords: deep learning; image segmentation; segmentation accuracy; fusiform fish; U?Net; multi?scale feature fusion

DOI:10.16652/j.issn.1004?373x.2024.09.010

引用格式:朱珈緣,孟娟,杜海,等.KoiU?Net:基于多特征增強融合的紡錘形魚類圖像分割方法[J].現代電子技術,2024,47(9):53?58.

收稿日期:2023?11?24" """""""""修回日期:2023?12?18

朱珈緣,等:KoiU?Net:基于多特征增強融合的紡錘形魚類圖像分割方法

朱珈緣,等:KoiU?Net:基于多特征增強融合的紡錘形魚類圖像分割方法

作者簡介:朱珈緣(1997—),女,遼寧康平人,碩士研究生,主要研究方向為計算機視覺、圖像分割。

孟" 娟(1981—),女,山東龍口人,博士,副教授,主要研究方向為信息處理。

杜" 海(1980—),男,河北石家莊人,博士,高級工程師,主要研究方向為海洋工程中的非接觸式測量技術。

馬媛媛(1997—),女,寧夏賀蘭人,碩士研究生,主要研究方向為計算機視覺。

曹靜雯(1998—),女,福建福州人,碩士研究生,主要研究方向為模型壓縮。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: av免费在线观看美女叉开腿| 黄色网页在线观看| 久久国产亚洲偷自| 亚洲色图在线观看| 国产精品亚欧美一区二区三区| 国产簧片免费在线播放| 美女免费黄网站| 成人免费视频一区二区三区| www.99精品视频在线播放| 国产福利小视频在线播放观看| 亚洲日韩第九十九页| 久久综合丝袜长腿丝袜| 亚洲国产中文在线二区三区免| 色亚洲激情综合精品无码视频 | 国产9191精品免费观看| 特级aaaaaaaaa毛片免费视频| 啦啦啦网站在线观看a毛片| jizz国产在线| 久久天天躁夜夜躁狠狠| 麻豆精品在线视频| 夜夜拍夜夜爽| 中文字幕第1页在线播| 亚洲无码高清一区二区| 日本欧美视频在线观看| 四虎永久在线精品影院| 国产91导航| 久久国产香蕉| 欧美激情综合| 欧美成人h精品网站| 在线免费看片a| 免费国产黄线在线观看| 青青草原偷拍视频| 亚洲经典在线中文字幕| 中文字幕1区2区| 91视频国产高清| 国产人成网线在线播放va| 日本道综合一本久久久88| 99久久精品无码专区免费| 欧美成人精品高清在线下载| 精品91在线| 日日拍夜夜嗷嗷叫国产| 国产麻豆va精品视频| 日韩免费视频播播| 国产产在线精品亚洲aavv| 婷婷激情亚洲| 一区二区无码在线视频| 国产成人久视频免费| 亚洲人成在线精品| 伊人狠狠丁香婷婷综合色| 狠狠综合久久久久综| 国产手机在线ΑⅤ片无码观看| 日韩国产高清无码| 日本手机在线视频| 久久成人18免费| 欧美日韩一区二区三| 亚洲无码免费黄色网址| 国产精鲁鲁网在线视频| 欧美成人午夜视频| 性色生活片在线观看| 好吊色妇女免费视频免费| 久久免费看片| 美女裸体18禁网站| 久久国产精品国产自线拍| 欧美日韩亚洲综合在线观看| 欧美在线国产| 亚洲码一区二区三区| 国产女人18毛片水真多1| 午夜日b视频| 亚洲高清日韩heyzo| 亚洲无码熟妇人妻AV在线| 国产一级毛片网站| 尤物视频一区| 久久国产拍爱| 亚洲天天更新| 婷婷综合缴情亚洲五月伊| 国产美女在线观看| 国产在线视频二区| 热伊人99re久久精品最新地| 无码又爽又刺激的高潮视频| 欧美成人aⅴ| 亚洲中文精品久久久久久不卡| 2022精品国偷自产免费观看|