999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于主題模型的膠囊內鏡圖像序列篩查

2022-11-24 07:19:24農桂仙胡懷飛劉海華
中國生物醫學工程學報 2022年4期
關鍵詞:單詞分類特征

農桂仙 潘 寧 陸 恒 胡懷飛 劉海華*

1(中南民族大學生物醫學工程學院,武漢 430074)

2(醫學信息分析及腫瘤診療重點實驗室,武漢 430074)

3(東部戰區總醫院消化內科, 南京 210002)

引言

消化道疾病,特別是下消化道疾病,由于早期癥狀不明顯,且缺乏普適的檢測手段,對公眾健康造成極大威脅。無線膠囊內窺鏡(wireless capsule endoscopy, WCE)的出現,為腸道疾病可視化診斷提供了有力的工具[1-3]。由于利用WCE 檢測會產生大量的圖像(每病例約5 ~8 萬幅),因此,為了提高疾病診斷效率,很多學者提出基于人工智能的計算機輔助診斷方法[4-8]。而這些建議的方法大多忽視了圖像序列中氣泡和雜質等干擾圖像對疾病診斷的影響。據統計,每例WCE 圖像中,氣泡和雜質等干擾圖像約占總量的25%[9],而具有組織異常病變的圖像僅占5%左右[10],這給基于人工智能的疾病診斷帶來極大困擾。因此,開展對WCE 圖像序列中干擾性圖像(氣泡和雜質圖像,其它圖像稱為正常圖像)自動篩查方法的研究,有利于提高臨床上計算機輔助診斷的性能和效率。

針對干擾性圖像篩查,已有學者提出了一些方法[9,11-15]。如,Shipra 等[11]提出在HSV 顏色空間下,利用Canny 算法和分水嶺算法對圖像進行分割,并以邊緣像素總數與最終的區域像素總數的比例確定該區域是否為氣泡。這些方法主要根據氣泡的顏色和紋理特征,通過設置相關閾值,對圖像中的氣泡進行分割和檢測。這種基于傳統特征的氣泡圖像檢測方法通常不穩定且普適性較差,誤檢和漏檢的可能性較大。另外,對于WCE 雜質圖像的自動檢測方法目前很少有報道。因此提出了基于深度學習的WCE 特征提取,并結合主題模型,對氣泡和雜質圖像自動篩查的方法。

WCE 圖像序列中氣泡和雜質等干擾圖像,主要是指在圖像中氣泡和雜質占據圖像較大面積的圖像(見圖1),其語義信息非常明顯。因此,通過語義分析獲取氣泡和雜質圖像語義特征,從而實現對氣泡和雜質圖像自動篩查。目前,語義分析方法被大量用于自然圖像分類中[16-20]。其中,主題模型是一種用于語義分析的工具[21],目前最常用的主題模型有基于貝葉斯估計的pLSA[22]和LDA[23]。基于此,一些學者將主題模型應用于WCE 圖像序列的分割[24-25],以獲取膠囊內鏡圖像序列中不同部位的關鍵幀。此外,Yuan 等[26]基于顏色和紋理描述符,通過pLSA 模型對WCE 圖像中的多種異常進行分類。然而,基于人工設計的傳統特征描述算子往往不能有效描述WCE 圖像。為此,提出通過卷積自編碼的方法獲取圖像特征,并利用pLSA 模型對WCE 圖像序列中氣泡和雜質等干擾圖像篩查的方法。

圖1 膠囊內鏡序列圖像。(a)氣泡圖像;(b)雜質圖像Fig.1 Wireless capsule endoscopy sequence images.(a)Bubble images; (b)Impurity images

1 材料和方法

本研究提出一種基于主題模型的WCE 圖像語義分析算法,從而篩查WCE 圖像序列中的氣泡和雜質圖像。該算法主要分為3 個部分:視覺單詞構建、詞頻統計和主題分析,如圖2 所示。首先,視覺單詞的構建。在訓練集的每幅圖像中隨機提取一定數量的圖像塊(patch),通過卷積自編碼器提取圖像塊特征,利用K-Means 算法對圖像塊特征進行聚類,從而構建視覺單詞。其次,詞頻統計。從測試集中每幅圖像有規律地獲取圖像塊,并提取圖像塊特征,然后根據圖像塊的特征,判斷其與視覺單詞的距離,以最小距離將圖像塊特征劃入某一類視覺單詞中,從而得到測試集的各幅圖像中的視覺單詞分布。最后,利用主題模型(pLSA/LDA),對測試集的詞匯分布數據進行擬合,獲得每幅圖像中各個主題的概率分布,以圖像中最高概率主題對圖像進行分類,從而篩查WCE 圖像序列中的氣泡和雜質圖像。

圖2 膠囊內鏡圖像場景分析算法Fig.2 The scene analysis algorithm of capsule endoscopy images

1.1 特征提取

卷積自編碼器的結構和傳統自編碼器相似[27-28],包括一個編碼器和一個解碼器。對于輸入x,傳統自編碼器可以通過編碼函數f(x) 得到編碼數據h,解碼器通過解碼函數g(h) 將編碼數據h重構輸出y。而卷積自編碼器是采用卷積層代替傳統自編碼器的全連接層,即將權重矩陣與輸入、輸出的內積變成了卷積操作,其編碼和解碼的函數表達式分別由式(1)和式(2)定義,有

式中,σe和σd分別表示為編碼器和解碼器的激活函數;We和Wd為權重矩陣;b1和b2為偏置項; *為卷積操作。根據任務和所需要達到的目標,卷積自編碼器會自動學習訓練樣本的特征,將WCE 圖像塊實現在低維空間上的特征表達,其結構如圖3所示。圖中卷積自編碼器網絡由一個編碼器和一個解碼器組成,為非完全對稱的結構,其編碼器和解碼器中的卷積層數量、通道數存在差異。編碼器第一層采用一層標準3×3 卷積,輸入為3 通道的RGB 圖像,輸出通道為64。然后,借鑒VGG16 的結構,構建2+3+3 的卷積模塊(2、3 表示該模塊的卷積層數量),每個模塊后接一個下采樣操作,將特征圖尺寸減半。編碼器總共包含3 次下采樣操作,最終將圖像塊尺寸壓縮到原始圖像塊的1/23。最后,使用一層卷積將通道數壓縮為16。

圖3 卷積自編碼器網絡Fig.3 Convolutional auto-encoder networks

為了提高網絡編碼部分的能力,編碼部分采用復雜結構,但解碼部分采用簡單結構,即在每個相同的特征圖尺寸下的模塊結構均只包括卷積層、激活層和上采樣層,經過3 層上采樣將壓縮圖像重構輸出到原始圖像塊大小。卷積自編碼器在訓練過程中,完全對稱結構主要實現從數據輸入到輸出的重構,主要關注編碼能力和解碼能力。而在此主要關注網絡的編碼能力,復雜的編碼結構可以學習到圖像更深層次的特征,通過簡單的解碼結構有助于編碼部分生成更具有代表性和魯棒性的特征。

在訓練階段,將膠囊內鏡圖像塊輸入圖3 的卷積自編碼網絡中,目標函數采用L1(平均絕對誤差)損失,有

式中,Xi、Yi分別表示網絡的第i個圖像塊輸入和輸出。‖·‖1表示L1范數。網絡訓練時采用Adam優化器[29],其中一階矩和二階矩指數衰減率設置為β1=0.9,β2=0.999,數值穩定常數ε=10-8。

為了后續構建視覺單詞,將編碼器提取的圖像特征進行矢量化。假設編碼器獲取的特征圖尺寸為W ×H ×c,這里W和H為壓縮后的圖像塊大小,c為通道數。將這些特征圖展平,形成長度為W × H×c的一維特征矢量,用于下一步的構建視覺單詞和詞頻統計。

1.2 視覺單詞構建和詞頻統計

由于所獲取的圖像塊的特征不能直接作為視覺詞匯使用,因此需要根據圖像塊特征矢量之間的相似度,將相似的圖像塊特征進行聚類,從而用有限類的特征表達一定的視覺含義,即構建視覺單詞。設包含了雜質、氣泡和正常圖像在特征空間的樣本特征集為X ={x1,x2,x3,…,xn},利用K-Means聚類算法[30],將樣本劃分為C1,C2,…,Cm, 共m類。為了簡單起見,將每類Cj在特征空間中的均值矢量作為視覺單詞wj,有

式中,Nj為Cj中特征矢量xi的個數。因此,在圖像特征空間中構造了由m視覺單詞組成的字典。

視覺單詞模型主要用于構建表達這類圖像所需的詞匯。而對于這類圖像的每張需要測試的圖像而言,就需要分析其包含不同視覺單詞的情況,其分析步驟如圖2(b)所示。首先從測試圖像分割大小相同的圖像塊(尺寸與上述視覺單詞構建的塊大小一致),然后由卷積自編碼網絡獲取圖像塊的特征矢量。設每幅測試圖像提取的圖像塊特征矢量為y1,y2,…,yp,其中p為圖像塊數量,且為常數。然后,計算每個特征矢量yi與每個視覺單詞之間的距離,即計算wj與yi的歐式距離EDij,有

在此基礎上,根據距離最近原則標注不同特征矢量隸屬于不同的視覺單詞,即

為此,可獲得每幅圖像d中圖像塊特征所屬不同視覺單詞wj的分布情況,即詞頻統計矢量v∈Rm,其中每個元素為圖像d中視覺單詞wj出現的頻數n(d,wj) 。設圖像測試集由l幅圖像構成,即D ={d1,d2,d3,…,dl},則所有測試圖像詞頻統計情況構成混合矩陣Λ ={v1,v2,…,vl}∈Rl×m,其中該矩陣每列就是每幅圖像詞頻矢量v, 矩陣中每個元素Λij =n(di,wj) 為圖像di中出現wj的頻數。

1.3 主題分析

根據圖像視覺詞匯分布矩陣,采用pLSA 主題分析模型檢測WCE 序列中氣泡和雜質圖像。假設膠囊內鏡圖像的語義對應于模型中的潛在變量z∈Z{z1,z2,…,zk},為不可觀測變量;所給的WCE 序列圖像d∈D{d1,d2,…,dl} 對應模型中的文檔,文檔中所包含的詞匯對應于所構建的視覺單詞w∈W{w1,w2,…,wm},D和W為可觀測變量。通過構建視覺單詞和詞頻統計(詳見1.2 節),將測試集表達為元素為Λij =n(di,wj) 的矩陣。由此,可以通過圖像和單詞的聯合概率分布對圖像主題混合概率p(di |zk) 和各個場景主題下的視覺單詞分布p(wj |zk) 進行擬合估計,pLSA 的聯合概率分布為

式中,p(z) 為先驗值,通常將其設置為p(z)=1/k,可以使用期望最大(expectation-maximization, EM)算法對模型參數進行估計[21]。

首先,計算期望步驟,即E步,計算潛在變量的后驗概率p(zk |di,wj),需要初始化模型參數p(di |zk) 和p(wj |zk),并計算期望函數L的值。其中,后驗概率計算公式為

然后,最大化步驟,即M步,通過最大化期望函數L來更新后驗概率p(di |zk) 和p(wj |zk),參數更新結果的好壞在一定程度上依賴于參數初始化,L函數為

研究中給定圖像的主題數k,通過圖像-視覺單詞的混合矩陣擬合出圖像主題概率p(di |zk),以最高主題概率對WCE 圖像進行分類。

1.4 實驗設計

1.4.1 數據來源

所使用的WCE 圖像來源于南京東部戰區總醫院的消化道內科,且圖像數據集中的氣泡圖像、雜質圖像由臨床經驗豐富的醫生進行注解。該圖像數據集由10 000幅240 像素×240 像素的圖像組成,且來自于20 例不同患者的WCE 圖像序列,其中氣泡圖像,雜質圖像和正常圖像分別為3 340、3 330、3 330 幅。在實驗過程中,將數據集中的各類圖像按照1 ∶1的比例分為訓練集和測試集,且根據交叉驗證的方法評估所提出方案的篩查效果。

1.4.2 評價指標

為了從數據集中篩查雜質和氣泡兩類圖像,主要使用準確率( Acc)、誤檢率( Mis)、查準率( Pre)和召回率( Rec) 來評價所用方法的性能,即:

式中,TP 表示正樣本被正確識別為正樣本數, TN表示負樣本被正確識別為負樣本數, FP 表示負樣本錯誤識別為正樣本數, FN 表示正樣本被錯誤識別為負樣本數。

2 結果

2.1 參數選擇

在所提出的篩選方法中涉及到多個參數,如圖像塊尺寸、視覺詞匯(單詞)數以及主題數3 個參數等,這些參數設置會影響最終的分類結果。為此,依據WCE 圖像的紋理特點,通過實驗分析來選擇合適的相關參數值。需要注意的是,在實驗分析某個參數時,其它參數保持不變。

1)圖像塊大小:由于氣泡和雜質圖像語義上非常明顯,結合所采用的卷積自編碼器的特點,因此圖像塊尺寸選取稍大且為8 的倍數,如: 24×24,32×32,40×40,48×48,56×56。實驗采用卷積自編碼器提取特征,在pLSA 模型上進行分類,視覺單詞數和主題數分別為35 和12,實驗結果如圖4 所示。從圖4 中可以看到,當圖像塊尺寸增大時,pLSA 取得的分類性能越好,但當圖像塊尺寸大于40×40 時,分類性能呈下降趨勢。其中,圖像塊尺寸為56×56 時,模型分類結果略小于圖像塊尺寸為40×40 的結果,而圖像塊尺寸越大,計算量越大。因此,在后續的實驗中,圖像塊尺寸固定為40×40。

圖4 不同圖像塊尺寸的實驗結果Fig.4 The results of different image patch sizes

2)視覺詞匯數和主題數:采用卷積自編碼器和傳統的特征提取方法,分別在不同視覺詞匯數以及不同主題數的條件下進行實驗,其中,傳統的特征提取方法包含LBP、HOG、SIFT 以及HSV 顏色空間,實驗結果如圖5 和圖6 所示。圖5 為主題數為12的情況下,pLSA 模型在不同視覺單詞數下的氣泡圖像、雜質圖像和正常圖像的分類結果。從圖中可以看出,卷積自編碼器(C-AE)的特征提取方法在不同的視覺單詞數下所獲得的分類性能最優,且在單詞數為35 時分類準確率( Acc)最高。

圖5 不同視覺詞匯大小對分類準確率的影響(pLSA 模型)Fig.5 The effect of different visual vocabulary sizes on classification accuracy(pLSA)

針對不同的主題模型:pLSA 和LDA,固定視覺單詞數為35,選擇最佳的主題數。從圖6 可以看出,當兩者主題數分別為12 和18 時,分類準確率最高,當兩者的主題數分別大于12 和18 時,準確率呈小幅度下降趨勢。根據上述實驗,將視覺單詞數設置為35,pLSA 模型和LDA 模型的主題數分別設置為12 和18。

圖6 不同模型中,不同主題數對分類準確率的影響。(a)pLSA 主題模型;(b)LDA 主題模型Fig.6 The effect of different number of topics on classification accuracy. (a) pLSA; (b) LDA

2.2 實驗結果

采用2.1 節的參數設置,即視覺單詞數為35,pLSA 主題數為12,LDA 主題數為18,對數據集進行10 次隨機劃分,進行氣泡和雜質圖像的篩查實驗與分析,實驗結果取10 次劃分的均值。

首先,針對不同特征提取方法,即HSV、HOG、LBP、灰度SIFT 和卷積自編碼器,對分類結果的影響進行實驗,結果如表1 所示。從表1 可以看出,無論是pLSA 還是LDA 模型,卷積自編碼器特征提取方法較傳統特征提取方法所取得干擾圖像篩查性能高,即較高準確率、較高的查準率和較低誤檢率。雖然HOG 特征提取方法,特別是RGBHOG 也能獲取比較好的查準率和誤檢率,但如表2 所示,卷積自編碼器的召回率( Rec)更高。

表1 pLSA 和LDA 中不同特征提取方法的分類結果(%)Tab.1 The results of different feature extraction methods in pLSA and LDA (%)

表2 C-AE 和RGBHOG 的召回率(%)對比Tab. 2 The comparison results ( Rec/% ) of C-AE and RGBHOG

其次,針對不同主題模型的性能也進行了實驗評估。將pLSA、LDA 與傳統的截斷奇異值分解(TSVD)進行對比,在相同特征提取方式(C-AE)和實驗參數設置(視覺單詞數為35,主題數為12)的情況下,實驗結果如表3 所示。從表中可以觀察到,相較于傳統TSVD 分析方法,pLSA 和LDA 更適用于圖像語義分析。而在這兩個主題模型中,當處于pLSA 最佳主題數時,LDA 的準確率僅次于pLSA。為了進一步討論這兩個模型的性能,在相同實驗參數設置下,將主題數設置為LDA 的最佳主題數,即18,分別進行實驗,實驗結果如表4 所示,由表4 可見,在LDA 模型取得最好分類效果的主題數下,pLSA 模型取得了較好的分類性能。由此可見,pLSA 模型更適用于的分類任務。

表3 不同主題模型的分類結果Tab.3 The results of different topic models

表4 pLSA 和LDA 的分類結果Tab.4 The results of pLSA and LDA

3 討論

針對WCE 圖像過多,影響疾病診斷效率,大多方法只是針對疾病進行區域檢測,如文獻[7]和[8],這些方法忽略了干擾圖像對疾病檢測的干擾。當氣泡和雜質占圖像四分之一以上時,會對疾病診斷造成很大干擾。參考Sivic 等[16]提出將主題模型用于WCE 圖像語義分析,利用圖像語義篩查WCE 圖像中的干擾數據。在文獻[16]中,以自然場景圖像的尺度不變換特征構建視覺單詞,由于膠囊內鏡場景復雜,傳統特征不穩定,可能會導致視覺單詞無法充分表達圖像內容,影響圖像語義分析。因此,采用卷積自編碼器提取WCE 圖像塊特征來構建視覺詞匯,通過主題模型獲取圖像語義概率,根據語義概率分布來篩查WCE 圖像的干擾數據。大量實驗證明,通過非對稱卷積自編碼和主題模型對膠囊內鏡圖像語義進行分析,能有效篩查出膠囊內鏡干擾數據,且獲得比傳統特征更好的分類性能。

在建議的氣泡和雜質圖像檢測方法中,視覺單詞是語義特征的集合,通過這些視覺單詞可實現對圖像內容的表達,從而使主題模型易于分析出圖像語義。由此可見視覺單詞的構建直接影響分類結果。然而,影響視覺單詞構建的因素很多,主要包括兩個方面:圖像塊尺寸和圖像塊特征。從圖像塊尺寸角度來看,塊尺寸過小,則局部特征表達不充分;反之,塊尺寸過大,局部特征抽象,細節不明顯,依然會造成局部特征表達不充分,影響視覺單詞構建的質量,從而影響分類性能。這一點可以從圖4的實驗結果中看出。在3 個評價指標上,分類性能隨著圖像塊尺寸的增加整體呈現先上升后下降的趨勢,且當塊尺寸為40×40 時,分類性能最優。

從圖像塊特征角度來看,穩定、魯棒的特征能構建具有代表性的視覺單詞。因此,特征提取方式尤為重要。在特征提取方式的選取上,如表1 的實驗結果所示,相較于HSV、GrayHOG、RGBHOG、LBP、GraySIFT 等傳統特征提取方法,通過卷積自編碼器網絡提取的特征獲得更好的分類效果和穩定的分類性能,在pLSA 模型上,其準確率和查準率分別最大可提升2.5 倍和1.8 倍、誤檢率最小可降低11.5 倍(較于GraySIFT)。而在自然圖像場景語義分類任務中取得較好結果的SIFT 特征在本研究中效果不理想,反之,HOG 特征在研究中體現出了具有競爭力的分類性能,但準確率較低,漏檢較多。其原因可能是卷積自編碼器通過深度學習方式獲得的特征更具普適性,有利于視覺單詞構建。HOG方式雖然可以獲得豐富的圖像特征,但同時也包含了不必要的信息,導致構建出的視覺單詞不足以表達圖像語義信息。

不同的主題模型也影響分類結果。針對pLSA[22]、LDA[23]和TSVD 等3 種主題模型,在3 種指標,即準確率、查準率、誤檢率上,pLSA 均獲得最優的性能表現,特別是其誤檢率低2 ~4 倍(相較于LDA 和TSVD)。篩查氣泡和雜質時,相較于LDA模型,pLSA 模型取得較高的精度和較低的誤檢率,分別為96.87%、5.63%。然而,在分類過程中,分類結果會隨著詞匯數產生較大波動性。可能的原因是:其一,在構建視覺單詞時,Kmeans 聚類算法實際應用中屬于半監督算法,需要人為指定聚類個數,帶有一定的主觀性;其二,主題模型的分析結果也依賴于模型參數初始化。后續的研究中將重點構建穩定準確的視覺單詞模型以及解決主題模型初始化問題,以提高膠囊內鏡冗余數據篩查準確率,降低詞匯大小對分類結果的影響。

4 結論

針對WCE 序列中干擾圖像比較多,語義明顯以及傳統篩選方法普適性較差的問題,提出基于主題模型的WCE 圖像語義分析方法,用于干擾圖像篩查。該方法首先通過卷積自編碼器獲取WCE 圖像局部特征,然后利用K-means 聚類算法對局部特征矢量進行聚類,從而構建視覺單詞,并以此獲取圖像的詞頻矩陣,最后通過主題模型對詞頻矩陣進行主題分析,獲取圖像的語義分類。研究結果表明,該方法能有效篩查WCE 干擾圖像,且通過卷積自編碼器可以更有效地獲取WCE 圖像局部特征,提高圖像篩查性能。在后續的研究中,將結合深度學習和語義分析的方法,從而進一步提升算法篩查性能。

猜你喜歡
單詞分類特征
分類算一算
單詞連一連
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
看圖填單詞
教你一招:數的分類
抓住特征巧觀察
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 美女潮喷出白浆在线观看视频| 大香网伊人久久综合网2020| 成人午夜免费视频| 午夜福利网址| 97国产精品视频自在拍| 91在线视频福利| 免费看的一级毛片| 国产精品v欧美| 久草国产在线观看| 91精品国产91久久久久久三级| 久草视频福利在线观看| 国产精品亚洲片在线va| 亚洲综合日韩精品| 一边摸一边做爽的视频17国产| 国产人免费人成免费视频| 久久久久无码精品国产免费| 亚洲无码高清一区二区| 精品无码人妻一区二区| 先锋资源久久| 国模极品一区二区三区| 色综合a怡红院怡红院首页| 国产在线精品网址你懂的| 天堂中文在线资源| 成年人免费国产视频| 3p叠罗汉国产精品久久| 无码免费的亚洲视频| 青青热久免费精品视频6| 日本一区二区不卡视频| 国产女同自拍视频| 国产精品女主播| 99热6这里只有精品| 国产成人喷潮在线观看| 日本三区视频| 亚洲人人视频| 3D动漫精品啪啪一区二区下载| 日本道中文字幕久久一区| 熟妇人妻无乱码中文字幕真矢织江| 亚洲第一网站男人都懂| 三区在线视频| 98精品全国免费观看视频| 中文国产成人精品久久| 在线观看欧美国产| 91亚洲视频下载| 2020国产精品视频| 亚洲妓女综合网995久久 | 国产亚洲欧美在线中文bt天堂| 成色7777精品在线| 久久精品波多野结衣| 在线国产综合一区二区三区| 欧美视频二区| 国产精品大白天新婚身材| 91人妻日韩人妻无码专区精品| a毛片基地免费大全| 9丨情侣偷在线精品国产| 亚洲精品日产AⅤ| 无码aaa视频| 欧美一级在线| 视频一区视频二区日韩专区| 亚洲一区黄色| 91在线丝袜| 精品无码国产自产野外拍在线| 尤物成AV人片在线观看| 自偷自拍三级全三级视频 | av一区二区无码在线| 四虎永久免费地址| 国产日韩久久久久无码精品| 亚洲乱码精品久久久久..| 国产剧情无码视频在线观看| 人妻丰满熟妇αv无码| 国产小视频免费观看| 亚洲成aⅴ人在线观看| 亚洲国产天堂久久综合226114| 综合人妻久久一区二区精品 | 亚洲精品老司机| 国产色图在线观看| 精品欧美一区二区三区在线| 国产嫖妓91东北老熟女久久一| 亚洲欧洲一区二区三区| 国产精品男人的天堂| 91青青视频| 亚洲男人天堂2018| 国产精品伦视频观看免费|