999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的文獻自動分類研究

2018-03-12 19:24:38郭利敏
圖書與情報 2017年6期
關鍵詞:深度學習人工智能

摘 要: 人工智能技術的蓬勃發展,驅動著文獻自動分類由基于規則的分類向基于機器學習的方向發展。文章在對深度學習概述的基礎上,將卷積神經網絡引入到了文獻自動分類,構建了基于題名、關鍵詞的多層次卷積神經網絡模型,使之能夠根據文獻的題名和關鍵詞自動給出中圖分類號。通過在TensorFlow平臺上的深度學習模型,利用《全國報刊索引》約170萬條記錄進行模型訓練,并對7000多篇待加工的文獻做中圖法分類預測,其在生產情況下一級分類準確率為75.39%,四級準確率為57.61%。當置信度為0.9時,一級正確率為43.98%,錯誤率為1.96%,四級正確率為25.66%,四級錯誤率為5.11%。證明該模型有著較低的錯誤率,可為《全國報刊索引》分類流程的半自動化提供幫助,解決存在的編目人員緊缺、加工質量和效率下降等問題。

關鍵詞: 人工智能;智能圖書館;深度學習;卷積神經網絡;TensorFlow;自動分類

中圖分類號TP18;G254.11 文獻標識碼:A DOI:10.11968/tsyqb.1003-6938.2017119

Abstract With the rapid development of artificial intelligence, the automatic classification of literature is changing from the rule-based to the machine learning. After an outline of deep learning, the paper introduced convolution neural network into the automatic classification, constructing a multi-level model based on the title and the key words and thus CLC is given automatically. Through the deep learning model in TensorFlow, about 1700000 records of National Newspaper Index were used to make model train. More than 7000literature were processed with the model and the result is: under the production condition, the accuracy of the first classification is 75.39%; the accuracy of the fourth classification is 57.61. When the confidence is 0.9, the correct rate of the first classification is 43.98%, error rate is 1.96%; correct rate of the fourth classification is 25.66%, the error rate is 5.11%.This shows that the model can be used to help realize the semi-automatic in the classification of National Newspaper Index and other problems.

Key words artificial intelligence; smart library; deep learning; convolution neural network; TensorFlow; automatic classification

1 引言:圖書館與文獻自動分類

文獻的標引編目加工是圖書館重要的業務工作之一,其工作量大,專業性強,又是需要多人協作的綜合性工作,有自己的特點和規律,主要采用手工分類的方式。在知識爆炸的時代,需要對數量龐大、內容復雜、形式多樣的文獻進行準確的歸類、標引,對工作人員的要求很高;另一方面,由于編目外包和圖書館學專業教育的轉型,資深標引編目人員日趨減少,信息加工質量和效率都呈下降趨勢。

20世紀50、60年代在H .P .Luhn、Maron等人的推動下,圖書館界一直在探索文獻自動分類的方法。國內相關研究起始于上世紀80年代初[1]。近年來隨著人工智能技術的蓬勃發展,文獻自動分類由基于規則的分類轉向基于機器學習的分類,旨在提高文獻的分準率。

1.1 基于規則的分類方法

基于規則的分類方法主要包括基于詞典發的分類方法,即構建主題詞與分類號的對照關系表,掃描并找出文章所包含的主題詞進而計算文獻的類歸屬性;基于專家系統的自動分類方法,即構建專家系統結合推理機實現文獻分類[1]。此類方法的一方面構建分類主題詞表,但由于在知識爆炸的當下,各學科發展迅猛文獻內容、形式多樣使得詞表的編制滯后于科學的發展,使得其對于包含新詞的文獻無法分類;另一方面經常需要人工依學科發展的情況不斷調整分類規則。

1.2 基于機器學習的分類方法

文獻分類過程實質是編目人員依據文獻題名、關鍵詞和摘要結合其對中圖分類法的理解賦予一個中圖分類號的過程(少數情況下需要通讀全文)。換言之,即是編目人員通過培訓學習中圖分類法構建相應的分類體系,利用培訓學習的成果對文獻進行加工,并在實踐中不斷完善自己的分類體系。把上述過程泛化,利用已編目的文獻構建題名、關鍵詞和摘要的知識庫,提取相應的特征數據進行學習,這便是基于機器學習的分類方法。

基于機器學習的分類方法其基本過程主要包括:構建語料庫、文本建模、特征選擇、特征擴展、選擇并實現分類算法五個環節。常用的方法有樸素貝葉斯法、KNN、決策樹法、中心向量法、支持向量機以及近兩年興起的人工神經網絡的分類方法等。基于神經網絡的分類方法雖在小規訓練集上與其他傳統的機器學習分類方法不相上下,但隨著數據集和網絡規模的增大,其性能遠超于傳統的機器學習方法,能夠更好處理海量數據(見圖1)。endprint

本文嘗試將卷積神經網絡引入到文獻自動分類研究中,構建基于題名、關鍵詞的多層次卷積神經網絡網絡模型,使之能夠根據文獻的題名和關鍵詞自動給出中圖分類號,以解決編目人員緊缺,加工質量和效率下降的問題,并在實際生產環境下證明該模型的準確性和合理性。

2 深度學習與TensorFlow

隨著第三次人工智能浪潮的興起,機器學習作為一種數據挖掘的方法被廣泛應用于垃圾郵件檢測、定向客戶的產品推薦、商品預測等領域。近年來,受益于計算機在通用計算領域計算性能的持續提升和海量數據的便捷獲取,深度學習作為一種特殊的機器學習范式在圖像識別、語音識別、機器翻譯、文本分類等領域獲得巨大成功,憑借從輸入數據中判斷“哪些是特征值”,無需人工干預的能力,其在醫療診斷、藝術創作、醫療診斷、自動駕駛等更加復雜的領域也有突破性的進展,并已開始應用于實際工作中。

2.1 深度神經網絡

深度學習神經網絡是人工神經網絡的擴展,人工神經網絡是基于模擬大腦皮層的神經網絡結構和功能而提出的計算模型(見圖2),人工神經元細胞可根據輸入信號pi的刺激觸發輸出a,大量的人工神經元細胞依一定的規則(即權重wi)連接在一起形成一個大規模并行計算網絡,即人工神經網絡。

相較于其他機器學習方法,深度學習在模擬人腦神經元間的連接、對外界刺激的感知和傳導的同時,采用讓各層預先學習的方式,建立對觀察數據(或稱訓練數據、輸入)和標簽(或稱輸出)之間的聯合分布。學習從淺層順次開始,上一層學習得出的數據會作為下一層的輸入數據,由淺層的初級特征逐步學習到深層的高級特征。如在學習什么是狗時,第一層是一個輪廓、下一層是眼、鼻子的形狀,在下一層是臉上的其他細節。以此類推,是一個從全局到局部再到細節特征的學習過程,每一層都在分段學習,學習過程中的錯誤也可以在每一層得到相應處理,這使得其具有自我學習和解決問題的能力,該模型最早由多倫多大學的Hitton教授于2006年提出——一種名為深度置信網絡(Deep Belief Net,DBN)[9],在2012年的ImageNet圖像識別大賽中以低于第二名10%的錯誤率而嶄露頭角[10],之后LeCun、Mikolov等人則提出卷積神經網絡和循環神經網絡,對深度學習進行優化和擴展。

2.2 深度學習框架

為了更好、更方便高效使用機器學習算法,通常需要一定的軟件平臺支持,如Caffe、Theano、Torch、CNTK、Tensorflow等。

Tensorflow是谷歌于2015推出的一種供機器學習所使用的利用數據流圖進行計算的庫套件,遵循Apache2.0協議。相對于其他幾個神經網計算框架而言,Tensorflow屬于其中的后起之秀,它支持多種機器學習常用的開發語言(如C++、Python、Cuda),支持幾乎所有類型的深度學習算法的開發(如 CNN、RNN、LSTM 等),能在多種硬件環境(CPU、GPU、TPU手機、云)下很好地利用各自的長處和特點運行,并能夠進行網絡分布式學習。由于其具有眾多優點,如計算速度快、部署容易、靈活性強、可擴展等,有學者在github上發布了關于Caffe,Theano、Torch、CNTK、Tensorflow性能比較的文章,從網絡模型能力、接口、模型部署、性能,架構和跨平臺方面對其進行比較分析并做相應評分(滿分為5分)[11](見表1),比較可見,Tensorflow無論是單項還是綜合評分都比較高。

Google是TensorFlow 的最大用戶和推動者,在谷歌的強力推廣下,很多高校、科研機構和第三公司已開始使用Tensorflow,例如谷歌利用該平臺對其自動翻譯服務進行了系統升級,翻譯質量比過去有明顯提升;在谷歌郵件系統中,用sequence-to-sequence[12]模型來自動建立文本摘要,并對郵件語境預測可能的回復;對視網膜影像數據進行訓練,已能成功預測影像是否有糖尿病引起的視網膜病變[13];在AutoDraw[14]中開發“預測”功能,可以根據標題和用戶畫出的部分元素推測并繼續完成一幅繪畫作品; Google Now則通過適當的數據反饋(RNN,反饋神經網絡)來理解音頻信號,進而實現語音識別、語音搜索、語音情感分析等[15]。這些科研應用也給深度學習在其他行業中的應用提供了參照。

3 基于卷積神經網絡的《全國報刊索引》文獻分類模型

《全國報刊索引》近4年歷史數據約為170萬條,包含題名、關鍵詞、分類號、摘要、作者、出版社、全文等文獻信息。一方面由于文獻題名與內容有著較高的符合率[1] ,且題名是一個有限長度、結構緊湊、能夠表達獨立意思的短句,這使得卷積神經網絡可以用于文獻的分類;另一方面從摘要中提取正確關鍵詞存在一定困難,所以本文選取題名+關鍵詞作為網絡模型訓練的訓練集,文獻對應的中圖法分類號作為網絡模型的輸出。

3.1 文獻分類系統模型設計

基于深度學習的報刊索引文本分類基本思想是將已分好類的文獻題名和關鍵詞經切詞后構成二維詞向量作為神經網絡的輸入,分類號作為輸出,通過多層神經網絡訓練后,對新的文獻分類進行預測。本文所用數據中,中圖分類法一級類目38個、四級類目9668個,為了降低訓練成本,本文模型采用粗、細分類的分層分類結構(見圖3),先大類分類,隨后在大類分類的基礎上將其進行四級分類;預測也是如此。

分類系統采用模型預訓練和模型預測組成。其中,預訓練是通過對現有文獻分類的結果搭建深層神經網絡的深度學習模型并進行數據訓練,包括數據預處理和機器學習兩部分;模型預測則是對未知文獻進行分類結果預測(見圖4)。

3.2 數據預處理

由于神經網絡的準確率對于受訓練數據影響較大,故數據預處理是整個系統的第一步也是最為關鍵的一步,包含分詞、詞向量轉換以及輸出標簽的獨立熱編碼(one-hot code)。endprint

3.2.1 分詞

分詞則是將自然語言轉換為一組詞語的表達,與英文依空格切詞不同,中文分詞分為句子切分,對輸入的中文文檔進行預處理,得到單個中文短句的集合;原子切分,對輸入的中文短句進行原子切分,并根據所得的原子系列建立初始的切分詞圖;堆砌詞語,基于原子系列,從不同視角分別進行中文詞語識別,并將各自的堆砌結果添加到切分圖;分詞優選,基于上一階段的堆砌路徑和各路徑的概率,計算得出最可能的堆砌路徑,作為最后的分詞結果,并輸出最終結果,四個步驟。本文采取的做法如下:首先對所有文獻的關鍵詞做詞頻統計,并構建分詞用主題詞表;基于前綴詞典實現高效的詞圖掃描,結合主題詞表生成句子中漢字所有可能成詞情況所構成的有向無環圖;其次運用動態規劃算法查找最大概率路徑, 并找出基于詞頻的最大切分組合;對于未登錄詞,采用隱馬爾可夫模型(Hidden Markov Model,HMM)[24]模型做漢字成詞處理。

3.2.2 詞向量

正如前文所提到的,深度學習實質是數值計算,所以需要詞向量轉換將自然語言轉換成可計算的數學表達,即將一個詞轉換成一定空間向量下的概率表達即p=(w(t)│(w(t-n+1),…,w(t-1)),其中w(t)為句子中第t個詞在文本中的向量表達。word vector則表示由該文獻題名和關鍵詞組成的詞向量組(見圖5)。

其中,label表示文獻所對應的分類號采用獨立熱編碼形式,將分類號映射為N維空間向量(N為總分類個數),當某一個維度上的值為1,其它位為0時表示該表示其所對應的分類號,即label=((1 0 … 0 0));詞向量wv=(wv11 wv12 … wv1j … wv1m)表示該文獻的中一個詞。

詞向量分為靜態(static)和非靜態(non-static)方式兩種,靜態方式采用預訓練的詞向量,訓練過程不更新詞向量,在數據量不大的情況下使用靜態方式可以得到不錯的效果;非靜態方式則是在訓練過程中更新詞向量,訓練過程中調整詞向量,能加速收斂。詞向量訓練模型有很多如skip-gram、CBOW[20-22]、C&W[23]模型等,本文采用靜態方式,使用skip-gram模型,結合文獻的題名、關鍵詞和摘要的分詞結果作為詞向量的訓練集,構建靜態詞向量。

3.3 卷積神經網絡分類模型的分析與設計

通過Yoon kim的研究表明,有限長度、結構緊湊、能夠表達獨立意思的句子可以使用卷積神經網絡進行分類[18,25,26],在其研究的基礎上,本文提出將文獻的題名、關鍵詞作為訓練集,并搭建多層卷積神經網絡用于文獻分類的訓練和預測。

卷積神經網絡(convolutional neural network, CNN)[27]顧名思義,將卷積濾波與神經網絡兩個思想結合起來與普通神經網絡的區別在于,卷積神經網絡包含了一個由卷積層和子采樣層構成的特征抽取器。在卷積神經網絡的卷積層中,一個神經元只與部分鄰層神經元連接。在CNN的一個卷積層中,通常包含若干個特征平面(feature maps),每個特征平面由一些矩形排列的的神經元組成,同一特征平面的神經元共享權值,這里共享的權值就是卷積核。卷積核一般以隨機小數矩陣的形式初始化,在網絡的訓練過程中卷積核將學習得到合理的權值。共享權值(卷積核)帶來的直接好處是減少網絡各層之間的連接,同時又降低了過擬合的風險。子采樣也叫做池化(pooling),通常有均值子采樣(average pooling)和最大值子采樣(max pooling)兩種形式。子采樣可以看作一種特殊的卷積過程。卷積和子采樣大大簡化了模型復雜度,減少了模型的參數。為此,我們可以得知卷積神經網絡的基本結構(見圖6),其由三部分構成。第一部分是輸入層;第二部分由n個卷積層和池化層的組合組成;第三部分由一個全連結的多層感知分類器構成。

在作者文獻自動分類的神經網絡結構中(見圖7),輸入層為20*20詞向量,隱含層由卷積核為2*20和3個2*1的卷基層堆疊而成,輸出層為全連接層,結合softmax激活函數將提取的文本特征輸出為各個分類上的概率分布。

3.4 實驗結果與分析

實驗所用數據為上海圖書館《全國報刊索引》2013-2016(或2014-2017年,作者確定年份)年170萬余條題錄將上述模型于TensorFlow平臺上進行訓練和調試,其中訓練集為153萬條,訓練用驗證集為17萬條。模型訓練集的準確率收斂于67%,訓練用驗證集的準確率收斂于69%左右(見圖8、9)。

在生產環境中,模型預測結果的正確與否是以人工分類結果為參照標準。對未知的7144條待加工數據做分級分類預測,并與人工分類結果做比較,測試后得知,一級準確率為75.39%,四級準確率為57.61%(見表2)。

正如前文所提到神經網絡的結果輸出是為一個分類上的概率表達,當設輸出閾值(置信度)為0.9時,雖模型一級正確率為43.98%,一級錯誤率為1.96%,四級輸出正確率為25.66%,錯誤率為5.11%(見表3)。這表明對于測試集而言其預測結果在閾值為0.9時的輸出結果有著較低的錯誤率,即擁有較高的可信度。

3.4.1 訓練集對準確率的影響

受期刊收錄稿件偏好影響,本文所使用的數據存在很大的不均衡性(見表4),大量的數據集中在D、F、G、R四個大類上,最少的Z大類只有20個訓練樣本,由于神經網絡的訓練集不均衡性[28-31]導致模型預測準確率在一定層度下會有所下降,通過訓練集均衡以獲得最佳結果;對于一些極度不均衡的數據,如T、Z大類,四年內總計數據不足100條的類目,無法做樣本均衡,則可將其標統一注為“未知”類目,當預為“未知”類目時,直接交由人工處理。

3.4.2 分詞對準確率的影響

由于中文分詞的特殊性,使得分詞的分準率受詞表影響較大,如“上海圖書館”一詞,在沒有相應的主題詞表時會被切割為“上海/圖書館”,使得其在句中的意思是有所改變,影響訓練時的特征提取,進而影響預測的準確性。由于并無主題詞表,故對170萬分文獻中出現的關鍵詞做詞頻統計,為分詞提供主題詞表。經不完全測試,在有無詞表的情況下,準確率相差約2%。endprint

3.4.3 驗證數據對結果的影響

由于驗證數據采用實際生產環境中的數據作為測試集,其數據集合并不覆蓋所有的分類項目,且存在數據不均衡問題,使得測試結果不具有統計學,但反映了其在實際生產環境下的使用情況,證明基于卷積神網絡的文獻自動分類在實際工作中的可行性。

4 展望

谷歌的最新研究成果表明,將計算機視覺和語言模型通過CNN與RNN網絡疊加進行合并訓練,所得到的系統可以自動生成一定長度的文字文本[19]等。這些研究成果非常適合應用于圖書館內部業務的智能化上,如圖書館藏資源的自動分類、自動摘要、主題提取、文章聚類、圖片自動標引、圖像識別、業務預測和分析等。

本文在對深度學習的研究基礎上提出了基于深度學習的文獻自動分類模型,將文獻分類問題轉化為基于神經網絡的自動學習和預測的問題。通過對《全國報刊索引》170萬條數據的模型訓練以及7000多篇待加工的文獻預測,證明此方法是可行的,且有較高的置信度,分詞、詞表、模型訓練完全依賴于歷史數據但本文僅細分至四級類目,隨著分類的逐步深入,題名與關鍵詞并不能很好的體現出文獻之間的差異。摘要是體現文獻細微差別的重要切入點,在接下來的研究中,將會研究如何從摘要中提文獻信息,以提升分類準確率和細分程度。

參考文獻:

[1] 成穎,史九林.自動分類研究現狀與展望[J].情報學報,1999,18(1):20-26.

[2] 李湘東,阮濤,劉康.基于維基百科的多種類型文獻自動分類研究[J/OL].[2017-10-17].http://kns.cnki.net/kcms/detail/11.2856.G2.20171017.1501.012.html.

[3] 張野,楊建林.基于KNN和SVM的中文文本自動分類研究[J].情報科學,2011,29(9):1313-1317.

[4] Wei L,Wei B,Wang B,et al.Text Classification Using Support Vector Machine with Mixture of Kernel[J].Journal of Software Engineering and Applications,2012,5(12):55-58.

[5] Hebb Donald.The Organization of Behavior a neuropsychological theory[M].New York:John Wiley,1949:100-136.

[6] Liu M Q.Discrete-time delayed standard neural.Network and its application[J].Sci China,2006,49(2):137-154.

[7] 王昊,嚴明,蘇新寧.基于機器學習的中文書目自動分類研究[J].中國圖書館學報,2010,36(6):28-39.

[8] 葉鵬.基于機器學習的中文期刊論文自動分類研究[D].南京:南京大學,2013.

[9] Hinton G E,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neural computation,2006,18(7):1527-1554.

[10] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C].International Conference on Neural Information Processing Systems.Curran Associates Inc,2012:1097-1105.

[11] Evaluation of Deep Learning Toolkits[EB/OL].[2017-10-17].https://github.com/zer0n/deepframeworks/blob/master/README.md.

[12] Ilya Sutskever,Oriol Vinyals,Quoc V.Le.Sequence to sequence learning with neural networks[C].Advances in Neural Information Processing Systems 2014:3104-3112.

[13] google developers blog[EB/OL].[2017-10-17].https://developers.googleblog.com/2017/02/announcing-tensorflow-10.html.

[14] Auto Draw[EB/OL].[2017-10-17].https://www.autodraw.com/.

[15] Alex Graves,Abdel-rahman Mohamed,Geoffrey Hinton. Speech recognition with deep recurrent neural networks[C].International Conference on Acoustics,Speech and Signal Processing,2013:6645-6649.

[16] Maron M E.On Relevance,Probabilistic Indexing and Information Retrieval[J].Journal of the Acm,1960,7(3):216-244.endprint

[17] 劉佳賓,陳超,邵正榮,等.基于機器學習的科技文摘關鍵詞自動提取方法[J].計算機工程與應用,2007(14):170-172.

[18] Yoon Kim.Convolutional Neural Networks for Sentence Classification[C].Empirical Methods in Natural Language Processing(EMNLP),2014:1746-1751.

[19] A Picture is Worth Thousand Coherent[EB/OL].[2017-10-17].https://research.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html.

[20] Tomas Mikolov,Kai Chen,Greg Corrado,et al.Efficient Estimation of Word Representations in Vector Space[J].arXiv preprint,2013: arXiv:1301.3781.

[21] Tomas Mikolov,Ilya Sutskever,Kai Chen,et al.Distributed Representations of Words and Phrases and their Compositionality[C].Advances in Neural Information Processing Systems,2013:3111-3119.

[22] Yoav Goldberg,Omer Levy.word2vec Explained: deriving Mikolov et al.'s negative-sampling word-embedding method[J].arXiv preprint,2014:arXiv:1402.3722.

[23] Collobert R,Weston J.A unified architecture for natural language processing:deep neural networks with multitask learning[C].International Conference.DBLP,2008:160-167.

[24] Kevin P.Murphy,Mark A.Paskin.Linear Time Inference in Hierarchical HMMs[C].Proceedings of Neural Information Processing Systems,2001:833-840.

[25] Nal Kalchbrenner,Edward Grefenstette,Phil Blunsom.A convolutional neural network for modelling sentences[J].arXiv preprint.2014: arXiv:1404.2188.

[26] Ying Wen,Weinan Zhang,Rui Luo,et al.Learning text representation using recurrent convolutional neural network with highway layers[J].arXiv preprint,2016: arXiv:1606.06905.

[27] LeCun,Yann.LeNet-5,convolutional neural networks[EB/OL].[2017-10-17].http://yann.lecun.com/exdb/lenet/.

[28] Paulina Hensman,David Masko.The impact of imbalanced training data for convolutional neural networks[EB/OL].[2017-10-17].https://www.kth.se/social/files/588617ebf2765401cfcc478c/PHensmanDMasko_dkand15.pdf.

[29] Palodeto V,Terenzi H,Marques J L B.Training neural networks for protein secondary structure prediction: the effects of imbalanced data set[C].Intelligent Computing,International Conference on Emerging Intelligent Computing Technology and Applications.Springer-Verlag,2009:258-265.

[30] Chandonia J M,Karplus M.The importance of larger data sets for protein secondary structure prediction with neural networks.[J].Protein Science,2010,5(4):768-774.

[31] Pulgar F J,Rivera A J,Charte F,et al.On the Impact of Imbalanced Data in?Convolutional Neural Networks Performance[C].International Conference on Hybrid Artificial Intelligence Systems.Springer,Cham,2017:220-232.

作者簡介:郭利敏,男,上海圖書館系統網絡部工程師。endprint

猜你喜歡
深度學習人工智能
我校新增“人工智能”本科專業
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網絡的人臉年齡分析算法與實現
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 伊人久久大香线蕉影院| 欧美日韩国产在线观看一区二区三区 | 女人av社区男人的天堂| jizz在线观看| 999精品视频在线| 毛片在线看网站| 亚洲国产日韩一区| 国产精品亚洲五月天高清| 欧美性猛交xxxx乱大交极品| 五月婷婷伊人网| 国产免费网址| 国产精品亚洲αv天堂无码| 国产aaaaa一级毛片| 2021国产在线视频| 国产免费羞羞视频| 亚洲第一国产综合| 在线无码私拍| 91国内视频在线观看| 国产黑丝视频在线观看| 中文字幕在线观| 热这里只有精品国产热门精品| 国产欧美日韩91| 久久国产香蕉| 久久精品视频一| 性色在线视频精品| 欧美精品一区在线看| 波多野结衣国产精品| 中文字幕 欧美日韩| 天天摸夜夜操| 亚洲av无码成人专区| 午夜久久影院| 午夜欧美理论2019理论| 日韩 欧美 国产 精品 综合| 国产无码精品在线播放| 国产91特黄特色A级毛片| 国产精品亚洲αv天堂无码| 国产精品香蕉在线| 免费无码一区二区| 欧美日韩国产在线人成app| 亚卅精品无码久久毛片乌克兰| 日韩精品无码一级毛片免费| 国产日韩久久久久无码精品| 久久一级电影| 久久精品亚洲专区| 久久精品人妻中文系列| 四虎亚洲国产成人久久精品| 亚洲精品国产日韩无码AV永久免费网 | 亚洲精品在线观看91| 久久香蕉国产线看精品| 日韩欧美在线观看| 国产精品手机视频| 最新无码专区超级碰碰碰| 激情综合激情| 视频一区视频二区日韩专区 | 免费久久一级欧美特大黄| 亚洲国产综合精品一区| 香蕉蕉亚亚洲aav综合| 视频二区亚洲精品| 国产主播一区二区三区| 大陆精大陆国产国语精品1024| 亚洲精品成人7777在线观看| 色老二精品视频在线观看| 亚洲国产天堂久久综合| 亚洲视频免| 伊人久久精品无码麻豆精品| 91精品小视频| 国产97色在线| 国产门事件在线| 日本亚洲成高清一区二区三区| 在线高清亚洲精品二区| 国产精品视频白浆免费视频| 欧美国产日本高清不卡| 全色黄大色大片免费久久老太| 日韩AV无码免费一二三区| 国产乱子伦视频三区| 午夜精品国产自在| 老汉色老汉首页a亚洲| 九九热免费在线视频| 国产福利不卡视频| 亚洲中文字幕久久精品无码一区 | 香蕉伊思人视频| 国产黄色爱视频|