999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

新浪微博數(shù)據(jù)爬取研究

2017-01-21 22:11:09陳智梁娟謝兵傅籬
物聯(lián)網(wǎng)技術(shù) 2016年12期

陳智++梁娟++謝兵++傅籬

摘 要:新浪微博的快速發(fā)展促進了基于微博數(shù)據(jù)的研究發(fā)展,如何獲取微博數(shù)據(jù)是開展相關(guān)研究的首要問題。文中就分析爬取新浪微博數(shù)據(jù)的方法,提出了一種基于Python的語言,直接設(shè)置已登錄用戶Cookie信息,模擬瀏覽器訪問的新浪微博數(shù)據(jù)爬取方案,解決了不使用新浪微博開放平臺API爬取微博數(shù)據(jù)的主要問題,所實現(xiàn)的爬蟲程序編程簡單、性能穩(wěn)定,能有效獲取微博數(shù)據(jù)。

關(guān)鍵詞:新浪微博;數(shù)據(jù)爬取;微博爬蟲;Python

中圖分類號:TP391;TP311 文獻標(biāo)識碼:A 文章編號:2095-1302(2016)12-00-04

0 引 言

隨著互聯(lián)網(wǎng)的不斷普及,人們越來越多地參與到互聯(lián)網(wǎng)的社交活動中,微博作為典型的互聯(lián)網(wǎng)社交活動,得到了迅速發(fā)展。新浪微博是國內(nèi)出現(xiàn)最早,也是規(guī)模最大的微博社區(qū),新浪微博數(shù)據(jù)中心發(fā)布的“2015微博用戶發(fā)展報告”指出:“截止2015年9月,微博月活躍人數(shù)已達到2.22億,較2014年同期相比增長33%;日活躍用戶達到1億,較去年同期增長30%。隨著微博平臺功能的不斷完善,微博用戶群逐漸穩(wěn)定并保持持續(xù)增長。”[1]

微博用戶群的增長使得基于微博數(shù)據(jù)的社交網(wǎng)絡(luò)分析[2]、用戶行為分析[3, 4]和網(wǎng)絡(luò)數(shù)據(jù)挖掘[5]等相關(guān)研究越來越受到人們的重視,而如何從微博爬取感興趣的數(shù)據(jù)則成為研究者要解決的首要問題。本文分析微博數(shù)據(jù)的爬取方式,提出一種基于Python模擬瀏覽器登錄的微博數(shù)據(jù)爬取方案,并討論針對微博反爬機制的相關(guān)處理。

1 微博數(shù)據(jù)的爬取方式

微博數(shù)據(jù)的爬取通常有兩種方式,一種是調(diào)用新浪微博開放平臺提供的微博開放接口,另一種是開發(fā)爬蟲程序,模擬微博登錄,分析獲得的HTML頁面,提取所需信息。

1.1 調(diào)用微博開放接口

新浪微博開放平臺[6]提供了二十余類接口,覆蓋了微博內(nèi)容、評論、用戶及關(guān)系的各種操作,理論上該方法是最直接、方便的方式。但新版的微博開放接口存在一些限制,對于小型研究團隊或個人而言不是很方便,突出表現(xiàn)在以下幾點:

(1)微博開放接口使用Oauth2.0認證授權(quán),如果希望得到另外一個用戶的個人信息和微博內(nèi)容,則必須由該用戶授權(quán);

(2)微博開放接口存在訪問頻次限制,對于測試用戶的每個應(yīng)用,每小時最多只能訪問150次;

(3)很多研究所需要的數(shù)據(jù)只能通過高級接口才能訪問,需要專門申請和付費。

正是因為這些限制的存在,自己設(shè)計開發(fā)網(wǎng)絡(luò)爬蟲程序獲取微博數(shù)據(jù)就成了必不可少的備選或替代方案。

1.2 開發(fā)微博爬蟲程序

設(shè)計開發(fā)微博爬蟲程序需要分析新浪微博的特點、明確爬取數(shù)據(jù)的目的及用途,選擇合理的開發(fā)語言,保證高效、穩(wěn)定地獲取微博數(shù)據(jù)。

1.2.1 新浪微博的特點

與一般網(wǎng)站相比,新浪微博具有以下特點:

(1)新浪微博面向登錄用戶,在訪問微博數(shù)據(jù)前,用戶必須先登錄;

(2)微博博文的顯示采用了延遲加載機制,一次只顯示一個微博頁面的部分博文,當(dāng)用戶瀏覽博文滾動到底部時,才繼續(xù)加載當(dāng)頁的其他博文;

(3)新浪微博有較完備的反爬蟲機制,一旦微博服務(wù)器認定爬蟲程序,就會拒絕訪問。

基于新浪微博的上述特點,在設(shè)計微博爬蟲時,需要對以上特點進行針對性處理。

1.2.2 開發(fā)語言選擇

從快速獲取微博數(shù)據(jù)的角度看,Python是開發(fā)微博爬蟲的首選語言,其具有如下特點:

(1)Python是一種解釋型高級語言,具有文字簡約、容易學(xué)習(xí)、開發(fā)速度快等特點;

(2)Python具有較豐富的庫及第三方庫,在開發(fā)爬蟲方面比其他語言方便。考慮新浪微博在一段時間后就會微調(diào)其數(shù)據(jù)格式,因此使用Python開發(fā)微博爬蟲程序具有較高的易維護性。

2 微博爬蟲的實現(xiàn)

2.1 微博爬蟲的框架結(jié)構(gòu)

本文討論的微博爬蟲程序包括爬蟲調(diào)度器、URL管理器、頁面加載器、HTML解析器和數(shù)據(jù)輸出器五個功能模塊,其框架結(jié)構(gòu)如圖1所示。

圖1 微博爬蟲的框架結(jié)構(gòu)

2.1.1 爬蟲調(diào)度器

爬蟲調(diào)度器是爬蟲的控制程序,主要負責(zé)協(xié)調(diào)和調(diào)度微博爬蟲的各個模塊,其核心功能包括以下幾項:

(1)實現(xiàn)爬取微博數(shù)據(jù)的流程;

(2)控制其他模塊的執(zhí)行;

(3)模擬瀏覽器登錄,為頁面請求添加Headers信息;

(4)控制微博訪問頻率,避免反爬蟲機制拒絕訪問。

2.1.2 URL管理器

微博爬蟲采用廣度優(yōu)先遍歷策略提取需要的數(shù)據(jù),URL管理器需維護已經(jīng)爬取的URL列表和等待爬取的URL列表。在得到新URL之后,首先檢查已經(jīng)爬取的URL列表,如果該URL不在列表中,則將其添加到等待爬取的URL列表。

2.1.3 頁面加載器

頁面加載器根據(jù)爬蟲調(diào)度器提供的Headers信息以及URL管理器提供的URL,向微博服務(wù)器發(fā)出請求,獲得所請求的HTML頁面。為了避免爬取過于頻繁,導(dǎo)致微博服務(wù)器無法及時響應(yīng),或被服務(wù)器反爬蟲機制拒絕訪問,頁面加載器采用定時機制限制加載頁面的頻率。

2.1.4 HTML解析器

HTML解析器對頁面加載器提供的HTML頁面進行解析,獲取需要的數(shù)據(jù)。如某位微博用戶發(fā)表的博文內(nèi)容、轉(zhuǎn)發(fā)數(shù)、點贊數(shù)、評論數(shù)等。同時HTML解析器會根據(jù)需要將新得到的URL反饋給爬蟲調(diào)度器。

2.1.5 數(shù)據(jù)輸出器

數(shù)據(jù)輸出器輸出HTML解析器解析后的數(shù)據(jù)。輸出的數(shù)據(jù)采用JSON格式,其格式與使用新浪微博開放平臺API獲取的數(shù)據(jù)格式基本一致,保證不同爬取方式得到的數(shù)據(jù)能夠被統(tǒng)一分析和處理。

2.2 模擬瀏覽器登錄

要訪問微博數(shù)據(jù),必須要先登錄。可以用爬蟲程序模擬微博用戶登錄[7, 8]。爬蟲程序首先向微博用戶服務(wù)器發(fā)送登錄請求,然后接收服務(wù)器返回的密鑰,再結(jié)合用戶名、密碼、服務(wù)器返回的密鑰生成驗證信息,登錄服務(wù)器。只要保持與服務(wù)器的Session會話,就可以從服務(wù)器獲取微博數(shù)據(jù),從而進一步分析。

這種做法實現(xiàn)比較復(fù)雜,并且需要了解服務(wù)器驗證信息的細節(jié)。因此采用另一種相對簡單的做法,即本文微博爬蟲的做法。首先在瀏覽器中登錄微博,然后使用瀏覽器提供的開發(fā)者工具查看請求頁面的請求頭信息。例如使用Firefox登錄微博后,利用Firefox提供的開發(fā)者工具可以看到如圖2所示的請求頭信息。

從圖2可以看出,“Referer”的內(nèi)容是訪問微博的URL,其中“<用戶Uid>”是當(dāng)前用戶在微博的唯一標(biāo)識id;“Connection”的值為“keep-alive”,標(biāo)識Cookie永不過期;“Cookie”的內(nèi)容是成功連接微博服務(wù)器后保存在本地的Cookie,利用它可以簡單、快速地訪問新浪微博。首先需復(fù)制“<連接需要的Cookie>”的內(nèi)容,然后在Python中定義headers對象,設(shè)置Cookie和Connection,最后在每次訪問微博頁面時,都將headers作為參數(shù)添加到Request對象中,得到微博頁面。這樣在Cookie的有效期內(nèi)就可以直接訪問微博,并提取自己需要的數(shù)據(jù)。采用這種做法,只需以下代碼就可以實現(xiàn)微博的登錄并簡單獲取頁面數(shù)據(jù):

headers = {'Cookie': ‘<連接需要的Cookie>,Connnection:keep-alive}

url = u'http://weibo.com/u/<用戶Uid>/home?wvr=5&lf=reg'

request = urllib.request.Request(url, headers=headers)

rsponse = urllib.request.urlopen(request)

page = response.read()

2.3 微博頁面解析

爬蟲程序成功登錄到微博,獲取微博頁面后,就可以對得到的HTML腳本進行解析,提取需要的數(shù)據(jù)。一條博文的數(shù)據(jù)主要包括發(fā)表博文的用戶昵稱、用戶Uid、主頁鏈接、博文內(nèi)容、發(fā)表時間、轉(zhuǎn)發(fā)數(shù)、評論數(shù)、點贊數(shù)等。除此以外,轉(zhuǎn)發(fā)其他用戶的微博是非常常見的現(xiàn)象,因此在提取博文數(shù)據(jù)時,也需要考慮被轉(zhuǎn)發(fā)的微博用戶的相關(guān)數(shù)據(jù)信息。

進一步分析微博頁面可以發(fā)現(xiàn),每一條博文均是以

開始,內(nèi)部以
標(biāo)簽形成樹結(jié)構(gòu),其主結(jié)構(gòu)如表1所列。

一條博文

博文的具體內(nèi)容

發(fā)博文用戶的昵稱、Uid、主頁鏈接

博文的發(fā)表時間

博文內(nèi)容

被轉(zhuǎn)發(fā)的博文信息

博文的轉(zhuǎn)發(fā)數(shù)、評論數(shù)、點贊數(shù)

但博文的數(shù)據(jù)表示并不統(tǒng)一。發(fā)博文用戶的昵稱、Uid、主頁鏈接以屬性形式存放于標(biāo)簽中,博文的發(fā)表時間以屬性形式存放于標(biāo)簽中;博文內(nèi)容直接以HTML文本形式存在

標(biāo)簽內(nèi),博文的轉(zhuǎn)發(fā)數(shù)、評論數(shù)、點贊數(shù),存放于
的結(jié)構(gòu)中,具體數(shù)值以HTML文本形式存放在標(biāo)簽內(nèi)。另外,博文的轉(zhuǎn)發(fā)數(shù)、評論數(shù)、點贊數(shù)與被轉(zhuǎn)發(fā)博文的轉(zhuǎn)發(fā)數(shù)、評論數(shù)、點贊數(shù)在結(jié)構(gòu)上也有一定的區(qū)別。

正是因為存在這些差異,簡單使用標(biāo)簽過濾很難有效取得需要的數(shù)據(jù)。為了方便微博數(shù)據(jù)的提取,本文使用lxml作為微博頁面解析的工具。lxml是一個用于HTML/XML解析,并建立DOM的第三方Python庫,它可以迅速、靈活地處理XML格式的文檔,支持XPath和 XSLT,并且包含了ElementTree、html5lib、BeautfulSoup等庫。

HTML解析器使用lxml,可以使用以下語句快速解析所獲取的微博頁面,建立節(jié)點化的DOM結(jié)構(gòu):

import lxml.html.soupparser as soupparser

import lxml.etree as etree

dom = soupparser.fromstring(html)

etree.tostring(dom)

此時只要根據(jù)分析到的微博頁面結(jié)構(gòu),逐一訪問DOM中的相關(guān)節(jié)點,就可以獲得所需要的微博數(shù)據(jù)。

2.4 延遲加載的處理

新浪微博頁面在刷新時,采用了Ajax的延遲加載(Lazy Load)技術(shù),一開始不會把一頁的所有博文都加載顯示出來,而是只加載顯示其中的15條博文,當(dāng)滾動條滾動到頁面底部時,自動加載另外15條博文。所以一個完整的微博頁面需要滾動加載2次才能獲得全部45條博文。

資訊博覽
物聯(lián)網(wǎng)產(chǎn)業(yè)(2016年11月)
陜西物聯(lián)網(wǎng)產(chǎn)業(yè)聯(lián)盟出席2017“物聯(lián)中國”年度盛典啟動儀式
秦鷺話物聯(lián),合作共發(fā)展
五種技術(shù)趨勢重塑制造業(yè)
2016智能家居產(chǎn)業(yè)年度解析:安全仍是最大難題
斑點貓:以安全為核心,定義物聯(lián)網(wǎng)智能指紋鎖
綠茵舞者
天使的守護
智能藥箱
陜西物聯(lián)網(wǎng)產(chǎn)業(yè)聯(lián)盟(ASII)
學(xué)術(shù)研究
基于ZigBee的人體健康數(shù)據(jù)采集系統(tǒng)的設(shè)計
氣壓高度計的測量誤差分析及修正方法
基于ZigBee養(yǎng)老院室內(nèi)外定位系統(tǒng)的實現(xiàn)
動態(tài)心電心阻抗監(jiān)測系統(tǒng)的研究
基于ZigBee+云服務(wù)器的橋梁基質(zhì)穩(wěn)定性監(jiān)測系統(tǒng)
基于ODAC的權(quán)限管理機制
MDCF壓接式微矩形型電連接器的研制
老齡化社區(qū)智能服務(wù)平臺及其數(shù)據(jù)分析
仿微信掃碼登錄系統(tǒng)的實現(xiàn)與改進
監(jiān)獄安全防范綜合管理系統(tǒng)效能評估指標(biāo)體系分析
一種基于微信平臺的智能家居系統(tǒng)
一種應(yīng)用于低功耗植入式醫(yī)療芯片的無線能量管理單元
基于云計算的智能充電樁管理系統(tǒng)的研究
B/S架構(gòu)下的學(xué)生信息管理系統(tǒng)的設(shè)計
基于物聯(lián)網(wǎng)的小區(qū)天氣反饋調(diào)節(jié)智能窗戶系統(tǒng)設(shè)計
新浪微博數(shù)據(jù)爬取研究
基于物聯(lián)網(wǎng)的晉陜豫黃河金三角地區(qū)智慧旅游研究
淺談基于物聯(lián)網(wǎng)技術(shù)的能源管理系統(tǒng)
基于ZigBee技術(shù)的智能家居系統(tǒng)設(shè)計
基于物聯(lián)網(wǎng)的智能檢測飛行器設(shè)計
基于渦旋諧振環(huán)的人工磁導(dǎo)體的設(shè)計與應(yīng)用
智能穿戴設(shè)備監(jiān)測數(shù)據(jù)的分析及研究
基于視頻的帶電作業(yè)中組合間隙的智能檢測
快遞物品遠程自動接收系統(tǒng)設(shè)計與開發(fā)
基于Netty+WebSocket的社區(qū)增值服務(wù)平臺的推送設(shè)計
有刷式航空直流電機裝配試驗中的關(guān)鍵工藝分析
語音業(yè)務(wù)多系統(tǒng)融合技術(shù)研究與實現(xiàn)
基于改進演化算法的自適應(yīng)醫(yī)學(xué)圖像多模態(tài)校準
基于WiFi和移動終端的智能照明控制系統(tǒng)設(shè)計
軍工企業(yè)集中式信息化平臺方案研究
一種基于微信的智能燈光控制系統(tǒng)的設(shè)計
去除印制板三防涂覆材料的工藝研究
基于開源平臺Arduino的大學(xué)創(chuàng)客實踐探索
高職課程信息化教學(xué)設(shè)計實踐與研究
大數(shù)據(jù)背景下高職計算機網(wǎng)絡(luò)專業(yè)課程體系改革研究
移動教育App的研究現(xiàn)狀分析

公司地址: 北京市西城區(qū)德外大街83號德勝國際中心B-11

客服熱線:400-656-5456??客服專線:010-56265043??電子郵箱:longyuankf@126.com

電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證:京icp證060024號

Dragonsource.com Inc. All Rights Reserved

icp

一種處理辦法是多次發(fā)送模擬HTTP請求的GET方法,構(gòu)建響應(yīng)的URL,完成整頁加載[8];另一種處理辦法是使用selenium模擬瀏覽器滾動條操作,在Ajax加載后再獲取頁面數(shù)據(jù),這種方法的參考代碼如下:

from selenium import webdriver

from selenium.common.exceptions import TimeoutException

from selenium.webdriver.common.action_chains import ActionChains

driver = webdriver.Firefox()

driver.set_page_load_timeout(30)

def scroll(driver):

driver.execute_script("""

( function () {

var y = document.body.scrollTop;

var step = 100;

window.scroll(0, y);

function f() {

if (y < document.body.scrollHeight) {

y += step;

window.scroll(0, y);

setTimeout(f, 50);

} else {

window.scroll(0, y);

document.title += "scroll-done";

}

}

setTimeout(f, 1000);

""")

3 反爬蟲機制及對策

如果爬蟲爬取過“猛”,就會為微博服務(wù)器帶來不小的壓力。新浪微博有比較完備的反爬蟲機制,用以識別和拒絕爬蟲訪問。雖然新浪官方并沒有提供具體的反爬蟲機制說明,但是通過分析常用的反爬蟲策略[9],可以發(fā)現(xiàn)主要的爬蟲識別方法有以下幾種:

(1)通過識別爬蟲的User-Agent信息來拒絕爬蟲;

(2)通過網(wǎng)站流量統(tǒng)計系統(tǒng)和日志分析來識別爬蟲;

(3)通過實時反爬蟲防火墻過濾爬蟲。

為了避免微博反爬蟲機制拒絕訪問,本文的微博爬蟲采取了偽裝User-Agent與降低請求訪問頻率來反爬蟲對策。

3.1 偽裝User-Agent

User-Agent用于描述發(fā)出HTTP請求的終端信息。瀏覽器及經(jīng)過企業(yè)授權(quán)的知名爬蟲如百度爬蟲等都有固定的User-Agent信息,本文討論的微博爬蟲偽裝瀏覽器通過微博登錄來爬取特定數(shù)據(jù)。在請求頭headers中,采用交替?zhèn)窝bUser-Agent的方法來避免爬蟲User-Agent的識別和訪問流量統(tǒng)計異常。

例如以下四個User-Agent信息,分別從使用Windows Edge、Firefox、Chrome和360瀏覽器訪問微博時的請求頭中提取。

Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586

Mozilla/5.0 (Windows NT 10.0; rv:47.0) Gecko/20100101 Firefox/47.0"

Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.94 Safari/537.36

Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36

在Python中定義headers對象時,交替隨機選擇其中的一條添加到headers對象中,將爬蟲的HTTP請求偽裝成某個瀏覽器的訪問。

3.2 降低請求訪問頻率

如果爬蟲程序爬取過于頻繁,則會降低微博服務(wù)器的響應(yīng)效率,影響一般用戶的正常使用。反爬蟲防火墻往往會根據(jù)請求的訪問頻率來判斷客戶端是一般用戶的人工操作還是爬蟲程序的自動運行。因此適當(dāng)降低爬蟲程序的請求訪問頻率既可以避免連接超時錯誤的發(fā)生,還可有效應(yīng)對反爬蟲機制。

4 結(jié) 語

綜上,本文實現(xiàn)的微博爬蟲能夠有效爬取新浪微博數(shù)據(jù),實現(xiàn)簡單、性能穩(wěn)定,并能較好的避免反爬蟲機制的檢測。其具有如下主要特點:

(1)直接獲取已登錄用戶的Cookie,避免了模擬登錄的繁瑣;

(2)基于lxml解析微博數(shù)據(jù),簡化了數(shù)據(jù)篩選的操作;

(3)使用selenium模擬滾動條滾動,解決了Ajax延遲加載頁面的問題;

(4)使用偽裝User-Agnet以及延遲訪問來避免反爬蟲機制的過濾。

但該設(shè)計的主要缺陷是沒有使用多線程導(dǎo)致爬取效率不高,不適用于海量數(shù)據(jù)爬取,用戶可根據(jù)需要進行適當(dāng)改動。

參考文獻

[1]新浪微博數(shù)據(jù)中心.2015微博用戶發(fā)展報告[R].2015.

[2]曹玖新,吳江林,石偉,等.新浪微博網(wǎng)信息傳播分析與預(yù)測[J].計算機學(xué)報,2014(4):779-790.

[3]葉勇豪,許燕,朱一杰,等.網(wǎng)民對“人禍”事件的道德情緒特點——基于微博大數(shù)據(jù)研究[J].心理學(xué)報,2016,48(3):290-304.

[4]王晰巍,邢云菲,趙丹,等.基于社會網(wǎng)絡(luò)分析的移動環(huán)境下網(wǎng)絡(luò)輿情信息傳播研究——以新浪微博“霧霾”話題為例[J].圖書情報工作,2015,59(7):14-22.

[5]丁兆云,賈焰,周斌.微博數(shù)據(jù)挖掘研究綜述[J].計算機研究與發(fā)展,2014,51(4):691-706.

[6]微博開放平臺API文檔[EB/OL].http://open.weibo.com/

[7]周中華,張惠然,謝江.基于Python的新浪微博數(shù)據(jù)爬蟲[J].計算機應(yīng)用,2014,34(11):3131-3134.

[8]吳劍蘭.基于Python的新浪微博爬蟲研究[J].無線互聯(lián)科技,2015(6):94-96.

[9]鄒科文,李達,鄧婷敏,等.網(wǎng)絡(luò)爬蟲針對“反爬”網(wǎng)站的爬取策略研究[J].電腦知識與技術(shù),2016,12(7):61-63.

主站蜘蛛池模板: 国产三级视频网站| 久久国产精品电影| 国产亚洲精品自在久久不卡 | 激情影院内射美女| 97超爽成人免费视频在线播放| 欧美中出一区二区| 久久综合色天堂av| 久久精品国产精品一区二区| 亚洲国产精品国自产拍A| 高清不卡毛片| 日韩a级片视频| 一级毛片在线播放免费观看| 久久毛片基地| 男人的天堂久久精品激情| 国产精品成人一区二区| 97人妻精品专区久久久久| …亚洲 欧洲 另类 春色| 国产在线观看91精品亚瑟| 日本高清免费不卡视频| 亚洲精品在线观看91| 欧美不卡在线视频| 中文字幕乱妇无码AV在线| 亚洲自偷自拍另类小说| 片在线无码观看| 欧美激情视频一区二区三区免费| 欧美精品色视频| 日本精品αv中文字幕| 国产亚洲精品无码专| 国产性爱网站| 国产欧美视频一区二区三区| 日韩精品毛片| 亚洲天堂网在线视频| 青青青国产视频手机| 国产午夜精品鲁丝片| 国产大片黄在线观看| 国产探花在线视频| 伊人久久婷婷五月综合97色| 亚洲国产中文精品va在线播放| 美臀人妻中出中文字幕在线| 全部免费特黄特色大片视频| 丰满人妻一区二区三区视频| 国产精品一区二区在线播放| 亚洲成人精品久久| 91久久精品日日躁夜夜躁欧美| 丝袜无码一区二区三区| 国产区在线观看视频| 成人免费视频一区二区三区| 国产97视频在线| 2020精品极品国产色在线观看| 亚洲AV色香蕉一区二区| 国产成人调教在线视频| 香蕉国产精品视频| 欧美日韩精品在线播放| 久久人搡人人玩人妻精品一| 久草视频中文| 亚洲一区二区成人| 亚洲成人77777| 欧美日韩v| 国产成人乱码一区二区三区在线| 国产理论一区| 亚洲欧美国产高清va在线播放| 国产精品30p| 蜜臀AVWWW国产天堂| 亚洲最大福利网站| 日本免费a视频| 不卡无码网| 91精品国产一区| 丝袜久久剧情精品国产| 国产迷奸在线看| 无码高潮喷水在线观看| 日韩精品专区免费无码aⅴ | 亚洲天堂视频在线观看免费| 久久婷婷国产综合尤物精品| 专干老肥熟女视频网站| 国产波多野结衣中文在线播放| 亚洲欧美日韩中文字幕在线一区| 国产丝袜丝视频在线观看| 久久伊人操| 久久成人免费| 亚洲永久精品ww47国产| 国产免费a级片| 欧美一区二区啪啪|