999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于反卷積神經(jīng)網(wǎng)絡(luò)的腦脊液圖像快速識(shí)別模型

2016-08-05 08:04:39黃文明冷金強(qiáng)鄧珍榮徐雙雙雷茜茜
關(guān)鍵詞:特征模型

黃文明 冷金強(qiáng) 鄧珍榮 徐雙雙 雷茜茜

(桂林電子科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 廣西 桂林 541004)

?

基于反卷積神經(jīng)網(wǎng)絡(luò)的腦脊液圖像快速識(shí)別模型

黃文明冷金強(qiáng)*鄧珍榮徐雙雙雷茜茜

(桂林電子科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院廣西 桂林 541004)

摘要提出一種基于反卷積神經(jīng)網(wǎng)絡(luò)的腦脊液CSF(Cerebrospinal Fluid)圖像快速識(shí)別模型。該模型使用無監(jiān)督學(xué)習(xí)方法從底層邊緣特征到高層對(duì)象部分連接對(duì)整個(gè)圖像進(jìn)行圖片特征表述。此外,對(duì)不變性、多層模型中層與層如何直接訓(xùn)練等基本問題設(shè)計(jì)了一系列方法,如引入開關(guān)變量,計(jì)算每一幅圖片試用的濾波器,并允許對(duì)每一層的圖片單獨(dú)訓(xùn)練,都提高了學(xué)習(xí)的魯棒性。實(shí)驗(yàn)結(jié)果表明,該模型大大改進(jìn)了腦脊液細(xì)胞圖像識(shí)別的準(zhǔn)確率,同時(shí)提高了訓(xùn)練效率。

關(guān)鍵詞反卷積神經(jīng)網(wǎng)絡(luò)特征提取腦脊液圖像識(shí)別分類線性支持向量機(jī)

0引言

檢查腦脊液CSF,在臨床上有助于中樞神經(jīng)神經(jīng)系統(tǒng)及全身相關(guān)疾病的診斷。傳統(tǒng)腦脊液細(xì)胞液檢驗(yàn)分三個(gè)步驟:第一,使用腦脊液細(xì)胞玻離儀收集腦脊液細(xì)胞;第二,在顯微鏡下染色;第三,根據(jù)細(xì)胞大小以及細(xì)胞核的顏色、形狀、紋理、細(xì)胞漿內(nèi)所含顆粒的大小及顏色等來觀察腦脊液中細(xì)胞形狀和成分的變化[1]。脊液細(xì)胞的數(shù)量少,種類多,變化大,形態(tài)各異,在整個(gè)用人工目測(cè)的過程,難免會(huì)存在很大的誤差。而且長(zhǎng)期在顯微鏡下觀察會(huì)對(duì)檢測(cè)人員的身體造成一定的傷害[1,2]。

除此之外,大部分細(xì)胞自動(dòng)化識(shí)別系統(tǒng)還不能滿足對(duì)腦脊液的自動(dòng)分析需求,而自動(dòng)化分析系統(tǒng)的重點(diǎn)在于對(duì)腦脊液細(xì)胞圖像的準(zhǔn)確識(shí)別,為此反卷積神經(jīng)網(wǎng)絡(luò)模型為探索更準(zhǔn)確、更可靠的腦脊液圖像自動(dòng)化識(shí)別技術(shù)有及其重要的應(yīng)用意義,也是國(guó)內(nèi)外廣大學(xué)者的研究熱點(diǎn),同時(shí)也是醫(yī)學(xué)檢驗(yàn)者與醫(yī)學(xué)工程領(lǐng)域急需等待解決的重要問題。

1相關(guān)工作

圖像特征是對(duì)圖像的本質(zhì)的表示,對(duì)圖像分析和理解具有重要意義。圖像識(shí)別的關(guān)鍵步驟是有良好的特征表達(dá),而且系統(tǒng)主要的計(jì)算和測(cè)試工作都耗在尋找良好的特征表達(dá)。以前這塊大多都是人工完成的。截止現(xiàn)在,靠人工提取特征,也出現(xiàn)了不少好的特征提取算法(好的特征應(yīng)具有不變性和可區(qū)分性):例如Sift的出現(xiàn),是局部圖像特征描述子研究領(lǐng)域里的一項(xiàng)里程碑[3]。Sift特征具有尺度旋轉(zhuǎn)不變性,同時(shí)對(duì)視角和光照也有很強(qiáng)的魯棒性,使得很多問題都可以得到解決。但它也不是萬能的,比如Sift算法在圖像匹配中對(duì)圖像紋理較少的就很難匹配。因此人們自然希望采用自動(dòng)學(xué)習(xí)機(jī)制來完成特征提取。無監(jiān)督學(xué)習(xí)主要是模擬人類的學(xué)習(xí)行為,其在提取特征算法中取得了很大的發(fā)展,在計(jì)算機(jī)視覺領(lǐng)域應(yīng)用非常廣泛。

同時(shí),神經(jīng)網(wǎng)絡(luò)自從被LeCun引入后,在手寫字識(shí)別分類和臉部識(shí)別已經(jīng)發(fā)展成了非常好的成效。在過去幾年里,很多關(guān)于神經(jīng)網(wǎng)絡(luò)的文獻(xiàn)都證明了它在圖片分類的優(yōu)點(diǎn)。盡管優(yōu)點(diǎn)很多,但在完成這些模型時(shí)仍然有很多限制。它們只是單純地提取圖像表示的符號(hào),即各種形式的連通圖像元集,如輪廓,區(qū)域等。這些符號(hào)通常只能體現(xiàn)圖像內(nèi)容的某些重要信息,不能很好地把層次性的特征表現(xiàn)出來。

2本文模型

卷積神經(jīng)網(wǎng)絡(luò)是一種自底向上的方法,該方法將輸入信號(hào)通過卷積、采樣、非線性變換分解到多層稀疏信息[4]。但反卷積網(wǎng)絡(luò)模型的每層信息是自頂向下的,通過濾波器學(xué)習(xí)得到的卷積特征組合來尋求輸入信號(hào),與反卷積神經(jīng)網(wǎng)絡(luò)的有監(jiān)督學(xué)習(xí)方法不同,本文模型是無監(jiān)督學(xué)習(xí)。Predictive Sparse Decomposition (PSD)[5]和Deep Belief Networks(DBN)[6]手動(dòng)的對(duì)不同層稀疏特征圖之間進(jìn)行連接,增加了特征提取的復(fù)雜度。相比之下,本文模型是全層之間進(jìn)行連接,更好地簡(jiǎn)化了它的復(fù)雜結(jié)構(gòu)。

模型是通過卷積和max-pooling操作進(jìn)行層次迭代,分解一張圖片成多層次性的特征map。每一反卷積層都是使得重構(gòu)誤差最小,通過訓(xùn)練圖片產(chǎn)生一組完備的圖像表示。

通過這種無監(jiān)督訓(xùn)練,可以獲得整個(gè)腦脊液細(xì)胞的從底層邊緣邊緣特征到高層的物體鏈接特征。再將得到的特征輸入到SVM進(jìn)行胞腦脊液細(xì)胞的分類,得到腦脊液細(xì)胞識(shí)別的準(zhǔn)確率。

2.1單層反卷積神經(jīng)網(wǎng)絡(luò)

反卷積神經(jīng)網(wǎng)絡(luò)模型是通過卷積稀疏編碼和max-pooling操作進(jìn)行層次迭代,每一張圖片分解成多層卷積層。

損失函數(shù)的表達(dá)式為:

(1)

(1) 卷積:不像現(xiàn)存的一些方法[8,9]卷積稀疏編碼層盡力直接減少輸入圖片的重構(gòu)誤差,而不是直接使得每一層輸出的誤差最小。

(2)

濾波器f是對(duì)所有圖片可用。 如果k1>1那么這個(gè)模型是完備的,式(1)中的正則項(xiàng)是為了保證方程有唯一解。這個(gè)理論是為了發(fā)現(xiàn)一個(gè)凸優(yōu)的zl和找到一個(gè)最相近的方法估計(jì)fl。為了標(biāo)記簡(jiǎn)單,將第一層卷積核求和操作放在一個(gè)卷積矩陣Fl和2Dmap zk,1卷積后的放在向量zl。其中:

(3)

如果是一個(gè)Nr×Nc大小的圖像,且濾波器的尺寸是H×H,則其隱含特征圖的大小是(Nr+H-1)×(Nc+H-1)。

(2) pooling:在Pooling操作適用于特征mapz,產(chǎn)生pooledmap p和轉(zhuǎn)變開關(guān)s(記錄圖片極值標(biāo)志)。得到了pooled maps和轉(zhuǎn)換開關(guān),我們能夠完成unpooling操作US(在特征圖合適的位置插入零)。

每一個(gè)反卷積層的頂部,在特征圖maps完成一個(gè)max-pooling操作。

圖1是一層可視化模型。每一層由一卷積層和max-pooling層。反卷積層是一種卷積稀疏編碼,輸入的圖片y分解成特征圖z1和學(xué)習(xí)的濾波器fl做卷積操作和求和重構(gòu)圖片y,使重構(gòu)的誤差最小,得到最好的特征。濾波器根據(jù)c個(gè)通道,重構(gòu)不同通道的圖片。max-pooling層讓特征圖做pooling操作,使得pooled map在數(shù)量和規(guī)模上都減小了。每一個(gè)pooling操作的極大值位置都被開關(guān)s記錄著。第二卷積層跟第一層概念上是一樣的。

事實(shí)上,每一層都有很多特征圖。這允許層以上的特征圖捕捉比當(dāng)前層結(jié)構(gòu)在一個(gè)更大的規(guī)模。pooling操作是在空間和領(lǐng)域map是3D的,在每一個(gè)特征mapz都要記錄極大值的屬性和位置。pooled map存儲(chǔ)屬性,開關(guān)存儲(chǔ)位置。

這個(gè)模型在feature maps上用了兩種pooling操作。第一種:把開關(guān)當(dāng)作輸出:[p,s]=P(Z)。第二,把開關(guān)當(dāng)作輸入,把z的元素復(fù)制到p中。如果不變,那它就是一個(gè)線性操作。可以寫作p=PSz這里的PS是二進(jìn)制選擇矩陣,由開關(guān)s設(shè)置。

2.2多層反卷積神經(jīng)網(wǎng)絡(luò)

對(duì)于更高層模型的框架式一樣的,但是特征mapkl是不一樣的。在每一層我們通過下面濾波器和轉(zhuǎn)變開關(guān)來重構(gòu)輸入。我們定于重構(gòu)操作Rl,用l層的特征map交替做卷積和unpooling操作。

(4)

(5)

梯度步驟:這涉及到式(1)的重構(gòu)項(xiàng)的梯度gl代替zl:

(6)

zl=zl-λlβlgl

(7)

這里的βl參數(shù)的設(shè)置可以控制梯度的大小。

收縮步驟:跟梯度步驟一樣,對(duì)每一個(gè)元素進(jìn)行收縮操作,然后把zl中小的元素規(guī)劃為零,因此可以增加它的稀疏性。

zl=max(|zl|-βl,0)sign(zl)

(8)

pooling/unpooling:通過pooling操作更新當(dāng)前層的開關(guān)sl[pl,sl]=p(zl)緊接著就是unpooling操作zl=Uslpl這完成了兩大功能:

(1) 當(dāng)我們?cè)陧敳吭黾訉拥臅r(shí)候,確保通過pooling重構(gòu)當(dāng)前的輸入圖片。

(2) 更新的開關(guān)可以反映改后的特征map的值。如果這些理論定了,這些開關(guān)也會(huì)定,然后就是準(zhǔn)備訓(xùn)練上面的層。因此,整個(gè)過程的一個(gè)目的是設(shè)置當(dāng)前層的優(yōu)化開關(guān)。

單個(gè)ISTAISTA迭代包括:梯度,收縮,pooling三個(gè)步驟。在這個(gè)過程中,對(duì)每張圖片的每層進(jìn)行10次ISTA迭代。

重構(gòu)和投影操作時(shí)間快,僅包括卷積,求和,pooling和unpooling操作,這些操作都可以實(shí)現(xiàn)并行化。可以更高效地縮短運(yùn)行時(shí)間。

如果梯度步驟是線性的,就可以不用這個(gè)模型。如果是非線性的就可以分為兩種情況:1) 通過式(8)來減少他的稀疏性。2) 在重構(gòu)Rl通過迭代pooling和unpooling操作來設(shè)置開關(guān)s。

偽代碼:

1需要的參數(shù)訓(xùn)練層數(shù)L,迭代次數(shù)E,正則權(quán)重

2for L=1:Ldo

%%循環(huán)層數(shù)

4for epoch=1:E

%%迭代的次數(shù)

5for t=1:T do

%%ISTA 迭代

end for

13通過方程(13)更新濾波器

14特征z輸入SVM到進(jìn)行分類

15end for

end for

16輸出:濾波器f,特征map z,開關(guān)s

3訓(xùn)練過程

3.1推理特征圖

(9)

(10)

(11)

其中:

(12)

3.2更新濾波器

(13)

其中Z為同F(xiàn)相似的卷積矩陣[10]。

4實(shí)驗(yàn)和討論

實(shí)驗(yàn)對(duì)象:?jiǎn)渭?xì)胞圖像樣本分類測(cè)試,樣本如圖2所示,其中訓(xùn)練樣本集為:230張淋巴細(xì)胞樣本,220張單核細(xì)胞樣本,230張嗜中性粒細(xì)胞樣本,117張紅細(xì)胞樣本。測(cè)試樣本集為:60張淋巴細(xì)胞樣本,60張單核細(xì)胞樣本,60張嗜中性粒細(xì)胞樣本,60張紅細(xì)胞樣本。

圖2 四類單細(xì)胞樣本

實(shí)驗(yàn)環(huán)境:64位Windows 8.1操作系統(tǒng)、intel i5主頻3.30 GHz四核、內(nèi)存8.00 GB、Matlab R2013a。

圖3為樣品紅細(xì)胞中一個(gè)細(xì)胞訓(xùn)練后得到的濾波器,從上往下依次為第一層濾波器(7×7),第二層濾波器(27×27),第三層濾波器(87×87)。

圖3 紅細(xì)胞訓(xùn)練三層濾波器

依次為淋巴細(xì)胞、紅細(xì)胞、單核細(xì)胞、嗜中性粒細(xì)胞通過反卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練后得到的三層特征map(各取其中一張).底層是四類腦脊液細(xì)胞,第二行四類細(xì)胞通過模型訓(xùn)練后的第一層特征圖。每一列表示每一類細(xì)胞一個(gè)樣本對(duì)應(yīng)的特征圖。如圖4所示。

實(shí)驗(yàn)對(duì)比:在以下三種不同模型下分別對(duì)不同種類腦脊液細(xì)胞進(jìn)行實(shí)驗(yàn),得到的實(shí)驗(yàn)結(jié)果。

(1) Sc -LSVM[2]模型:稀疏編碼和線性SVM結(jié)合,對(duì)輸入圖片進(jìn)行分塊,把圖片訓(xùn)練成基與系數(shù)的形式。

(2) CNN-LSVM[11]模型:卷積神經(jīng)網(wǎng)絡(luò)和SVM,其中學(xué)習(xí)率為1,迭代次數(shù)為400次。

(3) 本文模型:對(duì)整張圖片直接進(jìn)行運(yùn)算,每層通過縮小重構(gòu)誤差提取最優(yōu)的特征圖,并且在pooling操作時(shí)采用開關(guān)記錄,然后經(jīng)過LSVM進(jìn)行分類器訓(xùn)練和預(yù)測(cè)。

表1 兩類樣本預(yù)測(cè)平均結(jié)果

表2 三類樣本預(yù)測(cè)平均結(jié)果

表3 四類樣本預(yù)測(cè)平均結(jié)果

表1、表2和表3的結(jié)果表明,隨著類別的增加,腦脊液細(xì)胞識(shí)別的準(zhǔn)確率在降低。但是單張識(shí)別耗時(shí)相差不大的情況下,基于引入了開關(guān)變量的反卷積神經(jīng)網(wǎng)絡(luò)的模型比基于稀疏編碼模型和卷積神經(jīng)網(wǎng)絡(luò)識(shí)別準(zhǔn)確率要高。考慮單核細(xì)胞和淋巴細(xì)胞的形態(tài)特征極為相近,舍棄這兩類細(xì)胞,表1中的結(jié)果證明了對(duì)特征差異較大的二類樣本,基于反卷積神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確率足夠高。把相似的兩類細(xì)胞進(jìn)行訓(xùn)練,表2和表3實(shí)驗(yàn)結(jié)果表明,稀疏編碼分類效果不理想。而反卷積神經(jīng)網(wǎng)絡(luò)模型仍然比較其它兩個(gè)模型效果要好。

5結(jié)語

根據(jù)提取的特征進(jìn)行圖片分類是對(duì)圖像表述和分析理解的一種重要方法。本文以腦脊液細(xì)胞為研究背景,提出了快速識(shí)別CSF圖片的四類細(xì)胞模型,為了更好更快得到中高層的圖像特征,提出以反卷積神經(jīng)網(wǎng)絡(luò)為模型,緊緊圍繞稀疏化圖像特征提取[11,12],舍棄了傳統(tǒng)基于分割的特征提取方法,無監(jiān)督訓(xùn)練提取腦脊液細(xì)胞圖像的多層次[13]的圖像特征。借助LSVM分類器進(jìn)行腦脊液細(xì)胞分類。實(shí)驗(yàn)結(jié)果表明,該模型識(shí)別速度較快,準(zhǔn)確率較高,因此在實(shí)際臨床診斷上具有一定的參考價(jià)值。

反卷積神經(jīng)網(wǎng)絡(luò)算法的相關(guān)參數(shù)對(duì)實(shí)驗(yàn)結(jié)果影響很大,然而手工調(diào)整往往需要多次嘗試才能達(dá)到理想結(jié)果,因此之后也將考慮如何自適應(yīng)的調(diào)整參數(shù),以提高實(shí)驗(yàn)效率。

參考文獻(xiàn)

[1] 何俊瑛,孔繁森,郭力.臨床腦脊液細(xì)胞學(xué)診斷[M].石家莊:河北科學(xué)技術(shù)出版社,2007:16-20.

[2] 黃文明,蔡文正,鄧珍榮.基于稀疏編碼的腦脊液圖像快速識(shí)別模型[J].計(jì)算機(jī)應(yīng)用,2014,34(7):2040-2043.

[3] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International journal of computer vision,2004,60(2):91-110.

[4] Lee H,Battle A,Rainaa R,et al.Efficient sparse coding algorithms[C]//Advances in neural information processing systems,2006:801-808.

[5] Zeiler M D,Taylor G W,Fergus R.Adaptive deconvolutional networks for mid and high level feature learning[C]//Computer Vision (ICCV),2011 IEEE International- Conference on.IEEE,2011:2018-2025.

[6] Hinton G,Osindero S,The Y W.A fast learning algorithm for deep belief nets[J].Neural computation,2006,18(7):1527-1554.

[7] Fidler S,Boben M,Leonardis A.Similaritybased cross-layered hierarchical repressentation for object categoryzation[C]//Computer Vision and Patter Recognition,2008.CVPR 2008.IEEE Conference on.IEEE,2008:1-8.

[8] Yang J,Yu K,Gong Y,et al.Linearspatial pyramid matching using sparse coding for image classification[C]//Computer Vision and Pattern Recognition,2009.CVPR 2009.IEEE Conference on. IEEE,2009:1794-1801.

[9] Wang J,Yang J,Yu K,et al.Locality- constrained linear coding for image classification[C]//Computer Vision and Pattern Recognition (CVPR),2010 IEEE Conference on. IEEE,2010:3360-3367.

[10] Zeiler M D,Krishnan D,Taylor G W,et al.Deconvolutional networks[C]//Computer Vision and Pattern Recognition(CVPR),2010 IEEE Conference on.IEEE,2010:2528-2535.

[11] Ciresan D,Meier U,SchmidhuberJ.Multicolumn deep neural networks for image classification[C]//Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE,2012:3642-3649.

[12] Kai Yu.CVPR12 Tutorial on Deep Learning: Sparse coding.

[13] Deng J,Dong W,Socher R,et al.Imagenet:A Large-scale hierarchical image database[C]//Computer Vision and Pattern Recognition,2009.

收稿日期:2014-12-17。廣西自然科學(xué)基金項(xiàng)目(2013GXNSFAA 019350)。黃文明,教授,主研領(lǐng)域:網(wǎng)格計(jì)算,圖形圖像處理,軟件工程,信息安全。冷金強(qiáng),碩士生。鄧珍榮,副教授。徐雙雙,碩士生。雷茜茜,碩士生。

中圖分類號(hào)TP391.41

文獻(xiàn)標(biāo)識(shí)碼A

DOI:10.3969/j.issn.1000-386x.2016.07.052

FAST CSF IMAGES RECOGNITION MODEL BASED ON DECONVOLUTIONAL NEURAL NETWORK

Huang WenmingLeng Jinqiang*Deng ZhenrongXu ShuangshuangLei Qianqian

(SchoolofComputerScienceandEngineering,GuilinUniversityofElectronicTechnology,Guilin541004,Guangxi,China)

AbstractIn this paper, we put forward a way that is based on deconvolution neural network for fast recognition of cerebrospinal fluid (CSF) image model. The model uses an unsupervised learning method to represent the features of picture in terms of whole image from the bottom edge features to the connection of high-level object parts. In addition, we design a series of approaches for the basic issues including the invariance and the way of training directly between layers in multi-model, etc., such as introducing the switch variables and computing the trial filters for every image, and allow the single training of the pictures on every layer, these have all improved the robustness of learning. Experimental results show that, the proposed model greatly improves the accuracy of CSF cell images recognition while raises the training efficiency.

KeywordsDeconvolution neural networkFeature extractionCerebrospinal fluidImage recognitionClassified linear support vector machine

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 亚洲无码在线午夜电影| 亚洲欧洲日本在线| 国产午夜无码片在线观看网站| 中文字幕 91| 91极品美女高潮叫床在线观看| 伊人五月丁香综合AⅤ| 亚洲成年人片| 国产青榴视频| 最新国产在线| 亚洲女人在线| 色综合久久无码网| 成人一级黄色毛片| 91精品aⅴ无码中文字字幕蜜桃| 中文字幕伦视频| 欧美一区二区三区欧美日韩亚洲| 国产精品专区第1页| 欧洲日本亚洲中文字幕| 无码专区第一页| 亚洲国产日韩一区| 又黄又湿又爽的视频| 1769国产精品视频免费观看| 亚洲成A人V欧美综合| 亚洲国产av无码综合原创国产| 久热这里只有精品6| 国产精品任我爽爆在线播放6080| 2020亚洲精品无码| 亚洲第一中文字幕| 尤物国产在线| 尤物特级无码毛片免费| 日本不卡在线播放| 伊人无码视屏| 麻豆AV网站免费进入| 找国产毛片看| 亚洲欧洲日韩国产综合在线二区| 国产免费福利网站| 一级一级特黄女人精品毛片| 中文字幕有乳无码| 国产高清又黄又嫩的免费视频网站| 国产农村1级毛片| 九九九国产| 国产精品网拍在线| 国内毛片视频| 国产一区二区丝袜高跟鞋| 永久免费av网站可以直接看的| 久久久噜噜噜久久中文字幕色伊伊| 国产sm重味一区二区三区| 国产精品一区二区无码免费看片| 99色亚洲国产精品11p| 国产精品大白天新婚身材| 久久久久久久久亚洲精品| 日本三级欧美三级| 最新痴汉在线无码AV| 精品国产一二三区| 最新国产精品第1页| 一级福利视频| 青青网在线国产| 操美女免费网站| 久久免费成人| 欧美日韩国产系列在线观看| 亚洲国产AV无码综合原创| 欧美成人精品欧美一级乱黄| 久久九九热视频| 精品91自产拍在线| 无码免费视频| 欧美日韩北条麻妃一区二区| 国产一区二区色淫影院| 91国内在线观看| 日韩小视频在线观看| 色婷婷电影网| 一级一级特黄女人精品毛片| 久久精品亚洲中文字幕乱码| 456亚洲人成高清在线| 精品成人一区二区三区电影| 亚洲精品无码抽插日韩| 日本一区二区三区精品视频| 国产女人18水真多毛片18精品| 一级一毛片a级毛片| 国产麻豆aⅴ精品无码| 国产大片黄在线观看| 精品国产Ⅴ无码大片在线观看81| 国产成人AV大片大片在线播放 | 国产精鲁鲁网在线视频|