999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

圖卷積網絡在圖像去噪中的應用研究

2025-07-20 00:00:00舒永輝
電腦知識與技術 2025年17期
關鍵詞:深度學習

摘要:圖像去噪是圖像處理領域的重要研究方向,旨在從受噪聲污染的圖像中恢復出盡可能接近原始圖像的版本。該技術被廣泛應用于醫學成像、遙感圖像處理、計算機視覺等領域。近年來,圖卷積神經網絡 (GCN) 因其處理非歐幾里得數據的優勢,在圖像去噪領域展現出巨大潛力。文章綜述了近年來基于圖卷積的圖像去噪方法的最新進展,分析了各種方法的優缺點,并展望了未來的發展方向。

關鍵詞:圖像去噪;圖卷積神經網絡;非歐幾里得數據;深度學習

中圖分類號:TP311" " " 文獻標識碼:A

文章編號:1009-3044(2025)17-0025-04

開放科學(資源服務) 標識碼(OSID)

0 引言

圖像去噪是圖像處理領域的一個fundamental problem,廣泛應用于醫學成像[1]、遙感圖像處理[2]、計算機視覺[3]等領域。傳統的圖像去噪方法包括濾波方法、變換域方法和統計建模方法。然而,這些方法在處理復雜噪聲時常常表現不佳。隨著深度學習技術的興起,基于卷積神經網絡(Convolutional Neural Networks, CNN) 的去噪方法取得了顯著進展,CNN 通過卷積核對中心像素及其鄰域進行加權運算,以提取圖像的空間特征。然而,CNN 受限于圖像像素的網格狀結構化組織形式,存在數據排列問題、缺乏平移不變性以及難以處理復雜拓撲結構等局限性,尤其在處理非歐幾里得數據時表現不佳。

非歐幾里得結構數據是排列不整齊的,如圖和流形結構等,而傳統神經網絡結構,如MLP、CNN和RNN都只能處理歐幾里得結構數據。圖卷積神經網絡[4]Graph Convolutional Networks, GCN) 作為一種能夠直接處理圖結構數據的深度學習模型,提供了一種新的解決圖像去噪問題的思路。雖然GCN和CNN都是聚合鄰域信息的方法,但不同于CNN中的卷積計算針對固定的網格結構,GCN使用卷積能夠處理更一般性的非結構化圖形數據,通過將圖像像素表示為圖結構數據,GCN能夠更好地捕捉圖像中的局部和全局特征,從而提高去噪效果。GCN 為處理圖形數據開辟了新的途徑,并被廣泛應用于社交網絡分析、圖像處理等領域。

本文旨在系統綜述基于 GCN 的圖像去噪方法,探討其研究現狀及未來發展方向。文章首先回顧圖像去噪的基本概念和傳統方法,然后介紹 GCN 的基本原理,接著詳細討論幾種典型的基于 GCN 的圖像去噪方法,最后總結這些方法的優缺點,并展望未來研究方向。

1 圖像去噪的基本概念和傳統方法

1.1 圖像去噪的基本概念

圖像去噪旨在從受噪聲污染的圖像中恢復原始圖像。噪聲通常由傳感器噪聲、傳輸誤差、壓縮失真等多種因素引起,常見的噪聲模型包括高斯噪聲、椒鹽噪聲、泊松噪聲等。

1.2 傳統圖像去噪方法

濾波方法是圖像去噪的經典方法之一,包括均值濾波、中值濾波和高斯濾波等。均值濾波通過取周圍像素的平均值來平滑圖像,但容易導致圖像模糊。中值濾波采用像素領域的中值進行替換,能夠有效去除椒鹽噪聲。高斯濾波利用高斯函數進行加權平均,能夠較好地平衡去噪和保持圖像細節。

變換域方法通過將圖像從空間域轉換到頻率域進行處理,如小波變換和傅里葉變換。小波變換能夠在多尺度上進行分析,適用于處理多種類型的噪聲。傅里葉變換則通過頻域濾波去除高頻噪聲,但對復雜噪聲的去除效果有限。

統計建模方法利用圖像的統計特性進行建模和去噪,如非局部均值(Non-Local Means, NLM) 和貝葉斯估計方法。NLM通過計算圖像塊之間的相似度進行加權平均,能夠較好地保留圖像細節。貝葉斯估計方法則通過最大后驗概率估計進行去噪,但計算復雜度較高。

2 圖卷積神經網絡的基本原理

現實世界中存在大量非歐幾里得數據,例如社交網絡、交通網絡、化學分子結構等,這些數據因為不規則結構和距離度量的不適用以及圖的復雜性,難以用傳統神經網絡進行處理。為了滿足處理此類拓撲結構的需求,人們開發了一種稱為圖卷積神經網絡(GCN) 的新型算法。

圖卷積神經網絡包括基于譜域GCN和基于空間域GCN。

2.1 基于譜域的圖卷積神經網絡

譜域圖卷積:將圖信號經過傅里葉變換到譜頻域中,在譜頻域中,利用卷積定理對譜域中的信號進行乘法運算,最后使用逆傅里葉變換將信號轉換回原始域以實現卷積目的。

基于譜域的圖卷積是基于空間域圖卷積的一種特例。這種方法遵循圖論和卷積定理,將數據轉換到譜域進行處理,然后返回到原始域。該方法避免了由于圖數據不滿足平移不變性而造成的卷積定義困難。譜域圖卷積也適用于不同的圖拓撲和尺度,使其對于復雜或動態的圖結構特別有用。基于譜域法的圖卷積神經網絡假設圖是無向的,歸一化圖拉普拉斯矩陣是無向圖的數學表示,譜域圖卷積公式為:

[Χ?Ggθ=UgθUΤΧ]" " " " " "(1)

其中,[X]是輸入信號,[*G]是圖卷積操作,[g]是定義的濾波器(卷積核信號) ,[g∈RN],U是歸一化圖拉普拉斯矩陣的特征向量矩陣。

基于譜域的譜模型是圖數據處理的理論基礎,其在理論上明確的定義了圖卷積,作為最早期的卷積網絡,其在處理關于圖的非歐式結構數據任務中取得了優異表現。理論上,通過設計新的圖信號濾波器(如Cayleynets)可以建立新的卷積神經網絡。但由于計算成本和效率,圖結構固定導致的通用性和靈活性等問題,使得基于空間域的圖卷積神經網絡模型更受歡迎。

2.2 基于空間域的圖卷積神經網絡

空間域圖卷積[5]:直接在空間中基于節點間的空間關系定義卷積運算,不依賴于圖論或卷積定理,具有更大的靈活性。

基于空間域的圖卷積操作與傳統的卷積操作相似,該空間方法提供了直觀的定義,并且可以輕松應用于各種圖形結構,而無需進行譜域變換。在進行鄰居節點采樣和消息計算時,通過定義聚合操作和組合操作,分別實現將各節點及自身鄰居節點的信息聚合,以及將聚合的信息組合并生成新的節點信息。

圖卷積思想是聚合每個節點的鄰居節點信息并更新節點信息,最簡單的聚合方式是直接將圖的特征矩陣(X) 和圖的拓撲結構信息(鄰接矩陣E) 之間做乘積運算。節點信息聚合具體流程如圖1所示。

為了解決圖1鄰接矩陣中不計算節點本身的特征,以及直接通過求和進行聚合將會導致計算時梯度爆炸或消失的問題,我們通過添加單位對角矩陣I到鄰接矩陣E,并通過取加權平均值來聚合相鄰節點的特征。GCN的基本公式如下:

[Ηl+1=σD-12ΑD-12ΗlWl]" " " (2)

其中,[Hl]是第l層的節點特征矩陣,A是圖的鄰接矩陣,D是度矩陣,[Wl]是第l層的權重矩陣,[σ]是激活函數。

空間方法就是直接在空間域中定義卷積,面臨的問題是,由于每個節點的鄰居大小不一樣,所以不可能定義一個大小相同的鄰域。因此參數共享的實現面臨較大的困難,但思路還是這樣,卷積仍然是加權平均上相鄰節點中的一個節點,所以后續的許多方法都旨在解決參數共享的問題。

3 基于圖卷積的圖像去噪方法

圖像去噪是圖像復原領域的一項重要任務,旨在從退化的圖像中恢復高質量的清晰圖像。圖卷積網絡(GCN) 作為一種特殊類型的神經網絡,可以對圖結構數據進行卷積運算,擅長從非歐幾里得幾何結構數據中提取特征。由于圖像可以被概念化地構建圖結構數據,將圖像像素或圖像塊表示為圖的節點,節點之間的連接關系由圖像像素之間的相似性決定,因此GCN可以直接應用于各種圖像任務。在圖像去噪領域,GCN能夠保留圖像中的長程依賴關系和其局部結構,這種強大的圖數據處理能力使得GCN在圖像恢復領域表現優異。

圖卷積網絡(GCN) 在圖像去噪領域顯示出巨大潛力,并被廣泛應用于各個領域。張等[6]提出一種基于GCNS的標簽去噪方法和新型自適應聚合GCN(AdarGCN) 模型,可以有效提高圖像去噪任務效果。然而,該方法受限于較高的計算復雜性,在自適應聚合過程中需要消耗大量資源來處理大規模圖像。漢等[7]提出基于自監督圖去噪的圖嵌入算法,增強了圖神經網絡的魯棒性。江等[8]提出了一種圖注意力機制去噪方法,稱為 GAiA-Net。在該方法中,圖注意力機制用于生成像素級注意力并將其引導至距離不同的節點以生成最終的注意力圖。然而,捕獲像素級和結構級特征所需的迭代變換和學習過程可能會導致更長的訓練時間和更高的計算需求。付等[9]人提出了一種結合 GCN 和 CNN 的方法來建模像素和通道之間的全局關系。陳等[10]人利用 GAN 學習噪聲分布并構造數據,然后利用圖卷積學習低劑量CT圖像的非局部自相似信息,結果顯示能夠取得更好的去噪效果。

3.1 典型方法

典型的圖卷積網絡方法的異同主要在于如何定義圖上鄰域節點的信息傳遞與聚合機制。以下是幾種典型的圖卷積網絡方法以及其核心思想。

3.1.1 基于像素領域的圖卷積

基于像素領域的圖卷積通常應用于具有明確空間結構的圖數據,如圖像。每個像素可以被看作是一個節點,節點之間的關系可以通過像素的鄰接關系來定義。這種方法的核心思想是利用節點的局部鄰域進行信息聚合,類似于傳統卷積操作中通過卷積核提取局部特征。

核心思想:定義鄰域,通過像素的鄰接關系(如歐幾里得距離) 來構建鄰接矩陣,定義像素之間的連通性。聚合操作,每個節點通過其鄰域節點的信息來更新特征值。通常采用加權平均的方式,將鄰域節點的特征加權聚合,以此來更新節點特征。傳播規則,鄰域信息的傳播規則可以通過卷積核或權重矩陣學習得出。通過像素點間的鄰域關系構建圖結構,適合于傳統圖像處理問題,但圖節點繁多、計算復雜度高。

在圖像處理場景下,基于像素領域的圖卷積網絡可以看作是對圖像數據的圖結構化建模,借助鄰域關系,提取像素之間的關聯特征。

3.1.2 基于像素塊的圖卷積

與基于像素的卷積不同,基于像素塊的圖卷積處理更大的圖結構單元,如“超像素”或塊級的區域。這種方法通過對局部像素塊進行特征提取,再在這些塊級別上構建圖結構。每個像素塊作為圖中的節點,節點之間的邊通過塊與塊之間的關系來定義。

核心思想:節點表示,將圖像劃分為多個不重疊或重疊的像素塊,每個像素塊作為一個節點,節點的特征是該塊的特征向量(如顏色、紋理、位置等) 。鄰接矩陣,通過定義塊之間的相似度(如顏色相似性、位置相鄰性等) 構建鄰接矩陣。信息傳遞,在塊級別上執行圖卷積操作,聚合塊之間的信息,實現跨像素塊的特征學習。利用圖像的超像素或局部區域來構建圖結構,在局部捕獲高級特征。

這種方法的好處是通過簡化圖結構,減少計算復雜度,并且在局部區域捕捉更高層次的特征。

3.1.3 結合注意力機制的圖卷積

注意力機制在深度學習中表現出色,能夠有效地選擇性關注關鍵的信息。在圖卷積網絡中,注意力機制通過對不同鄰居節點賦予不同的權重,動態調整信息的聚合方式,從而提高模型的表達能力。

核心思想:自適應加權,圖卷積網絡中的每個節點在聚合鄰居信息時,不是簡單地平均其鄰居節點的特征,而是通過一個注意力機制為不同鄰居分配權重。這種權重可以是通過節點之間的相似性計算得出,或者通過神經網絡模塊學習得到。動態聚合,不同于傳統的靜態卷積核,注意力機制允許模型根據節點和鄰居的特征動態調整信息的聚合方式。比如 Graph Attention Network(GAT) 就通過自注意力機制為每對節點之間的邊分配不同的權重。 強化重要鄰居,注意力機制使得模型能夠自適應地強調重要的鄰居信息,從而更好地捕捉圖結構中的關鍵特征。通過自適應調整鄰居節點的權重,實現動態信息聚合,提升模型的表達能力。

結合注意力機制的圖卷積網絡在處理復雜圖結構(如社交網絡、自然語言處理中的依存結構) 時非常有效,能夠提高模型對局部重要性的關注,從而增強性能。

3.1.4 GCN與其他方法相結合

圖卷積網絡在一些應用中常常與其他神經網絡方法相結合,提升其在特定任務上的表現。例如,將GCN對全局上下文信息和非局部自相似信息的建模能力與CNN的局部空間信息提取能力或GAN的噪聲分布學習能力相結合,充分發揮各自模型的優勢,從而實現更準確、有效的圖像去噪任務。

1) 圖卷積與卷積神經網絡(CNN) 的結合

卷積神經網絡(CNN) 具有良好的局部空間特征提取能力,尤其在圖像處理任務中表現優異。將GCN與CNN結合,能夠同時利用CNN的空間特征提取能力和GCN的圖結構信息傳遞能力。

結合方式:圖像到圖結構的轉換,首先用CNN提取圖像的局部空間特征,再將這些局部特征構建成圖結構,每個像素塊或區域作為圖的節點。之后,使用圖卷積網絡對這些節點特征進行處理,進一步提取全局特征。

CNN負責提取低級別的局部空間特征,GCN負責基于圖的拓撲結構進行信息傳播和全局特征提取。這種結合方式在圖像恢復、圖像分割、目標檢測等任務中取得了顯著效果。

2) 圖卷積與生成對抗網絡(GAN) 的結合

生成對抗網絡(GAN) 擅長學習數據的分布,并生成逼真的樣本。圖卷積網絡可以與GAN結合,在圖結構數據上進行生成建模或噪聲分布學習。

結合方式:圖生成,在圖結構數據上,圖卷積網絡可以作為GAN的生成器,學習圖的分布,生成具有相似拓撲結構的新圖。生成器可以基于GCN構建,學習圖結構中的節點和邊的分布。圖噪聲學習,GCN也可以用于GAN的判別器,檢測圖結構數據中的生成樣本與真實樣本的差異,進一步提升生成器的表現。

這種結合在圖像去噪、圖數據生成(如分子生成、社交網絡生成) 以及圖數據中的噪聲學習等任務中表現良好。

3.2 GCN模型的訓練

GCN的訓練和傳統神經網絡類似,因為輸入數據為圖結構數據,所以有以下一些特別因素。

GCN通常從隨機或節點嵌入開始,這些嵌入表示初始節點。在模型參數訓練中,每層GCN的節點根據聚合函數從其鄰居節點聚合信息以更新節點嵌入,通過基于梯度的優化方法(如反向傳播) 來計算損失函數和學習更新模型參數。

GCN使用半監督學習能提高模型有效性,模型訓練時,圖中有一小部分節點被標記,GCN使用標記和未標記的節點進行模型預測。未標記的節點通過圖傳播的信息可以提高模型的泛化能力。

輸入的圖較小或者GCN模型過于復雜的情況下會導致GCN過擬合,通常可以使用正則化方法來防止模型過擬合,例如加入Dropout層和加入正則化項。通過結合注意力機制可以對相鄰節點進行加權,更便于學習關注重要的相鄰節點,這也是一種隱式正則化。

在圖像去噪任務中,使用圖卷積網絡(GCN) 模型評估去噪效果時,常用的評價指標包括峰值信噪比(PSNR) 、結構相似性(SSIM) 和均方根誤差(RMSE) 。PSNR:用于衡量圖像的信噪比,數值越大表示去噪效果越好。SSIM:用于衡量圖像的結構相似性,數值越接近1表示去噪圖像與原始圖像越接近。RMSE:用于衡量去噪圖像與原始圖像之間的像素級誤差,數值越小表示去噪效果越好。這些指標可以量化去噪后的圖像與原始圖像之間的差異,幫助從不同的角度評估模型的去噪性能,通常結合使用能夠更全面地評估圖像去噪的性能。

4 研究挑戰及未來發展方向

4.1 研究挑戰

基于圖卷積的圖像去噪方法能夠有效處理圖像中的非歐幾里得結構,較傳統方法具有更好的去噪效果。同時,GCN能夠自適應地學習圖像特征,提高了去噪的魯棒性和靈活性,使得GCN在圖像去噪領域具有廣闊的前景,但它們在應用過程中仍面臨一些挑戰。

圖結構的構建:GCN是處理圖數據結構的模型網絡,將網格結構圖像定義和構建成有效的圖結構數據是挑戰性任務,以確保基于圖像構建后的圖結構能夠準確反映原圖像內容和退化模式。

計算復雜度:圖像通常具有較大的尺寸,尤其對于高分辨率圖像,將大規模、高分辨率的圖像構建定義成圖時會產生大量的節點和連接邊,如何降低GCN模型訓練的計算復雜度是一項挑戰。

增強特征提取能力:雖然GCN相比CNN能夠有效圖結構數據,但與CNN等傳統神經網絡的圖像處理方法相比較,其在處理像素級細節特征和捕捉復雜紋路的能力相對欠缺。因此,如何增強GCN的特征提取能力存在挑戰。

4.2 未來發展方向

優化計算復雜度:未來研究可以通過算法優化、模型壓縮等技術,降低基于GCN的圖像去噪方法的計算復雜度,提高其在實際應用中的可行性,包括解決移動設備和邊緣設備算力低下的圖像處理任務。

提高模型泛化能力:在實際圖像去噪應用中,圖像噪聲種類繁多、差別巨大,這就要求GCN模型具有良好的泛化能力以適應不同的噪聲圖像以及圖像類型,對GCN模型的設計和訓練提出挑戰。

結合其他深度學習方法。將GCN與其他深度學習方法結合,如卷積神經網絡(CNN) 、生成對抗網絡(GAN) 、變分自編碼器(VAE) 等,可以進一步提高去噪效果,拓展其應用范圍。

應用于多種圖像處理任務。未來可以將基于GCN的去噪方法擴展應用于其他圖像處理任務,如圖像超分辨率、圖像修復等,實現圖像處理領域的全方位提升。

5 總結與展望

基于圖卷積的圖像去噪方法作為一種新興的去噪技術,展現了強大的潛力。本文綜述了該領域的研究現狀和應用于圖像去噪任務的GCN模型的基本框架。介紹了目前圖像去噪領域使用的主要GCN主要方法,歸納分析了它們的動機和理論基礎,以及GCN模型訓練時與其他傳統神經網絡的異同。最后,探討了GCN在圖像去噪領域的研究挑戰以及未來的發展方向。

盡管目前基于GCN的圖像去噪方法仍存在一些挑戰,但其擅長處理復雜噪聲和非歐幾里得結構數據,GCN 能夠有效地處理圖像中的像素關系和區域連接,極大地幫助恢復圖像中的結構細節和紋理特征。圖像去噪與恢復任務的目標圖像往往存在噪聲種類多、圖像背景雜,且同時需要處理降噪、提高分辨率、去模糊等多個任務。如何優化模型使得增強模型的泛化能力和適應性,降低模型的計算復雜度都是研究學者們亟須解決的問題。隨著計算能力的提升和算法的優化,基于GCN的圖像去噪方法將在圖像處理領域發揮更加重要的作用。

參考文獻:

[1] 張雨,徐旭,肖奕,等.基于深度學習重建算法在腰椎MRI中的降噪應用研究[J].中國醫療設備,2021,36(10):19-23.

[2] 王小兵.融合提升小波閾值與多方向邊緣檢測的礦區遙感圖像去噪[J].國土資源遙感,2020,32(4):46-52.

[3] 趙杰,馬玉嬌,劉帥奇.結合視覺顯著性的圖像去噪優化算法[J].計算機科學,2018,45(2):312-317.

[4] KIPF T N,WELLING M.Semi-supervised classification with graph convolutional networks[EB/OL].[2024-10-20].https://arxiv.org/abs/1609.02907v4.

[5] HAMILTON W L,YING R,LESKOVEC J.Inductive representation learning on large graphs[EB/OL].[2024-10-20].https://arxiv.org/abs/1706.02216v4.

[6] ZHANG J H,ZHANG M L,LU Z W,et al.AdarGCN:adaptive aggregation GCN for few-shot learning[C]//2021 IEEE Winter Conference on Applications of Computer Vision (WACV).January 3-8,2021.Waikoloa,HI,USA.IEEE,2021:3481-3490.

[7] HAN W.Robust graph embedding via self-supervised graph denoising[C]//2022 19th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP).December 16-18,2022.Chengdu,China.IEEE,2022:1-4.

[8] JIANG B,LU Y,CHEN X S,et al.Graph attention in attention network for image denoising[J].IEEE Transactions on Systems,Man,and Cybernetics:Systems,2023,53(11):7077-7088.

[9] FU X Y,QI Q,ZHA Z J,et al.Successive graph convolutional network for image de-raining[J].International Journal of Computer Vision,2021,129(5):1691-1711.

[10] CHEN K C,PU X R,REN Y Z,et al.Low-dose CT image blind denoising with graph convolutional networks[M]//Neural Information Processing.Cham:Springer International Publishing,2020:423-435.

【通聯編輯:光文玲】

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 成人亚洲视频| 日本一区高清| 天天综合网亚洲网站| 伊人久久大线影院首页| 欧美视频二区| 香蕉网久久| 国产精品无码AV片在线观看播放| 欧美性天天| 久久人人爽人人爽人人片aV东京热| 亚洲电影天堂在线国语对白| 国产成人a在线观看视频| 女人18毛片一级毛片在线 | 久久免费视频6| 成年人午夜免费视频| 亚洲午夜综合网| 国产免费羞羞视频| 99精品视频在线观看免费播放| 色婷婷电影网| 国产门事件在线| 日韩黄色精品| 亚洲制服中文字幕一区二区| 国产成人精品一区二区秒拍1o| 香蕉久人久人青草青草| 日韩欧美在线观看| 色综合网址| 国产白丝av| 97免费在线观看视频| 2019年国产精品自拍不卡| 欧美在线中文字幕| 国产精品自在在线午夜| 97se亚洲综合| 国产情精品嫩草影院88av| 午夜小视频在线| 无码人妻热线精品视频| 亚洲激情99| 动漫精品啪啪一区二区三区| 国产v精品成人免费视频71pao| 亚洲精品第五页| 又黄又湿又爽的视频| 五月婷婷伊人网| av一区二区人妻无码| 国产精品亚洲一区二区三区在线观看| 国产色爱av资源综合区| 国产一区亚洲一区| 九九免费观看全部免费视频| www.99在线观看| 亚洲性日韩精品一区二区| 婷婷五月在线| 亚洲有码在线播放| 欧美三级自拍| 国产成人精品免费视频大全五级| 国产一级无码不卡视频| 午夜一级做a爰片久久毛片| 国产精品一区二区在线播放| 亚洲AⅤ永久无码精品毛片| 国产一国产一有一级毛片视频| AV老司机AV天堂| 97在线观看视频免费| 国产成人综合久久精品尤物| 美女被躁出白浆视频播放| 国产肉感大码AV无码| 婷婷色在线视频| 国产精品人成在线播放| 久久亚洲日本不卡一区二区| 亚洲无码精彩视频在线观看| 成人欧美在线观看| 青青国产成人免费精品视频| 国产精品xxx| 91美女视频在线观看| 精品欧美视频| 高清欧美性猛交XXXX黑人猛交| 亚洲精品桃花岛av在线| 超碰aⅴ人人做人人爽欧美 | 激情六月丁香婷婷| 一本二本三本不卡无码| 亚洲an第二区国产精品| 日韩福利视频导航| 激情亚洲天堂| 午夜日b视频| 色丁丁毛片在线观看| 免费一级无码在线网站| 国产网友愉拍精品|