999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法推薦的風險分析與我國的規制路徑

2023-01-08 01:40:10劉佳
中阿科技論壇(中英文) 2022年7期
關鍵詞:用戶信息

劉佳

(東北財經大學,遼寧 大連 116025)

隨著互聯網、大數據、人工智能等技術的應用和發展,數字信息得以在全球范圍內廣泛傳播。面對海量的數據信息,以算法推薦為中心的處理技術應運而生。算法推薦在我們日常生活中隨處可見,已涵蓋新聞資訊、電子商務、工作學習、游戲娛樂等多方面。算法推薦作為過濾與分發的重要機制,能夠根據用戶的個人特征和特定需求過濾無效信息并提供有效的數據信息服務,給人們的生產生活帶來諸多便利的同時也加劇了例如數據安全、利益受損、歧視偏見等諸多問題。北京大學互聯網研究發展中心聯合360集團發布的《中國大安全感知報告(2021)》顯示,70%的用戶擔心個人喜好和興趣等隱私問題被算法“算計”,60%的用戶擔心信息在數字環境中有泄露的風險,50%的用戶在算法束縛下想要逃離網絡、遠離手機。針對上述問題,我國在既有法律法規的基礎上出臺了《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦管理規定》)。《算法推薦管理規定》的公布對于中國算法治理體系的建構具有重要意義,在全球范圍內也將發揮示范引領作用。但是《算法推薦管理規定》剛剛公布施行,在實踐層面上尚處于起步階段,因此有必要在明確算法推薦風險的前提下,在《算法推薦管理規定》的基礎上分析我國算法推薦的規制路徑,從而進一步完善我國算法推薦規制體系。

1 算法推薦的風險分析

1.1 強制獲取:侵犯用戶權益

數據信息的收集是強制獲取的基本體現。用戶在首次使用軟件前都要填寫基本信息來注冊個人賬號,包括用戶的姓名、性別、手機號碼等內容,大多還會開通通訊錄、地理位置、相機等訪問權限。雖然算法推薦服務提供者(以下簡稱“服務提供者”)自身制定了多項條款政策以獲取用戶信息的知情同意,但通常都是以服務協議等方式展示在界面最底部以供用戶勾選,大多數用戶并不會仔細閱讀協議。即便點開閱讀也有可能因為協議中規范性、專業性的詞匯和術語而難以準確理解,在發現問題時也不能與服務提供者進行有效的溝通,在一定程度上限制了用戶的權利。用戶為了獲得相應的服務不得不選擇同意,否則就會被強制退出應用。服務提供者與用戶之間的信息權利不對等,導致服務提供者不僅沒有履行提示告知的義務,也侵犯了用戶享有的平等權。

數據信息的處理是強制獲取的進一步延伸。服務提供者在掌握用戶的數據信息后,通過用戶在后續使用軟件過程中對其訪問記錄、瀏覽內容、購買商品等數據進行實時監控,準確抓取用戶的個人特征,經過分析、整合,描繪出特定專屬的“用戶畫像”,以便后續進行相關內容的定向推送。當某些服務提供者收集并儲存了大量的用戶信息后,在經濟利益的驅動下將數據信息整合,導致用戶的隱私信息泄露事件時有發生,增加了用戶隱私權受威脅和侵犯的概率[1]。還有其他第三方主體(如廣告經營商等),基于與服務提供者達成的私下協議獲取到了“用戶畫像”,通過用戶當前的瀏覽界面實施廣告引導從而跳轉到其他相應界面的行為,無疑也在一定程度上侵犯了用戶的合法權益。數據信息的長期存續會使得強制獲取行為一直持續,可想而知風險也會不斷加劇。

1.2 隱性偏見:違背社會公平

算法推薦的隱性偏見主要包含兩個方面,即研發中的偏見和運行中的偏見。一方面,算法推薦技術并非獨立憑空產生,由人研發的技術必然包含其固有的主觀意識和個人傾向。在當前經濟模式轉型升級、市場競爭日益激烈的情況下,服務提供者更偏向利用算法推薦技術的研發優化給自己創造經濟效益。即便研發者主觀上盡力保證公平公正,但受制于專業背景、知識儲備、價值觀念等方面因素的影響,也會不可避免地約束算法推薦技術的研發。同時在研發過程中需要對數據信息進行篩選分析,數據信息的選擇范圍、時效性、隨機性、準確性等都可能會造成數據信息輸入時的偏差,往往更加傾向于社會中的“多數群體”和“主流信息”,從而在輸出結果時導致算法偏見現象的加劇[2]。另一方面,本就帶有偏見的算法推薦技術在偽中立技術的籠罩下,偏見現象會更加嚴重。算法推薦的運行過程實際上是一個動態的過程,通過對數據信息進行有選擇的處理分析,在與網絡環境的交互延伸下形成了新的偏見。第一,價格偏見,常見于消費領域。在當前算法推薦模式下,服務提供者針對不同群體制定不同的價格。例如,對老顧客適用較高價格,對新顧客適用較低價格的“大數據殺熟”。如此一來,不僅會侵犯用戶的公平交易權,還會破壞其他市場主體的自主經營權。運用算法推薦的服務提供者會排擠其他市場主體,限制行業正當競爭,使其失去競爭優勢的同時,也會造成市場失靈和秩序紊亂等問題[3]。第二,性別偏見,常見于勞動領域。例如,谷歌在推送高收入的招聘信息廣告時,同等條件下女性用戶收到該類推送信息的次數明顯低于男性用戶[4]。又如,亞馬遜的招聘算法系統更傾向于男性簡歷,導致女性求職成功率偏低,經修改發現作用不太顯著后便放棄了該招聘系統。第三,種族偏見。哈佛大學的一項調研顯示,出租房屋網站上,非黑人房東的房租平均每晚為144美元,而黑人房東的房租為每晚107美元[5]。這在價格偏見的基礎上進一步形成了種族偏見。此外,還有對其他弱勢群體的偏見等。綜上,算法推薦對數據信息收集、分析、處理的異化導致了對不同群體的區別對待,不僅不利于人們平等權等基本權益的實現,還可能會造成經濟差異分化、資源分配不均等更深層次的社會問題。

1.3 自主決策:喪失個體本位

算法推薦具有自主性的特性,自主決策意味著算法推薦將逐漸擺脫有形控制,對個人和社會都產生了潛在的威脅。社會關系的產生以主體達成合意為基礎,建立在各主體之間的真實意思表示之上,但是在算法推薦的自主決策情況下這一環節已然被忽略[6]。長時間的自動推薦和自主決策正潛移默化地影響用戶,由主動搜尋信息逐漸變為被動接收信息,由絕對的選擇自由到相對的限制自由,使用戶日益依賴算法推薦,逐漸讓渡自我選擇的能力和權利,喪失作為社會成員該有的主體性和獨立性。同時,精準化、個性化的推薦使數據信息范圍窄化,容易發生“信息繭房”效應。用戶長時間處在自己所熟悉的領域,逐漸遠離多元化的豐富世界,最后陷入自我隔離的境地。受算法推薦的影響,在不斷接納和認同自己的過程中成為了算法所定義的人[7]。雖然服務提供者是根據用戶的個人喜好過濾其不感興趣的內容,提供自認為有針對性的數據信息,但這僅代表著用戶的當前喜好或部分喜好,并不意味著在將來很長一段時間內都是如此。且對于用戶而言,想知道的信息不等同于需要知道的信息[8]。試想,如果用戶偶爾搜索了低俗淺顯的信息,由于算法推薦缺乏道德觀和倫理觀,在忽視內容真實性和優劣性的情況下就會持續推送相關信息,易將用戶置于低價值的信息過載處境之中,這對于個人價值觀的塑造,甚至對整個社會的價值取向和觀念意識都會產生誤導。

2 我國算法推薦的規制路徑

2.1 安全綜合監管

為推進互聯網信息服務算法的綜合治理和促進其健康發展,2021年9月17日,國家互聯網信息辦公室等九部門發布《關于加強互聯網信息服務算法綜合治理的指導意見》,提出“利用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局”。2021年12月31日,國家互聯網信息辦公室、中華人民共和國工業和信息化部、中華人民共和國公安部、國家市場監督管理總局聯合發布了《算法推薦管理規定》。《算法推薦管理規定》的出臺為算法安全綜合治理提供了有力的保障,形成了多元協同的治理機制。第一,強調政府層面的治理監管職責。網信部門作為算法推薦服務的治理監管主體之一,突出了其重要地位。梳理我國先前頒布的有關法律文件,不難發現我國網絡服務的治理監管主體正由分散走向集中。先前治理監管主體的分散導致了職能交叉,權責不一情況的發生[9]。如今厘清了權力邊界,明確了以網信部門作為統籌協調的主體,電信、公安、市場監管等其他有關部門依照各自職權相互協調配合的機制對整個算法治理格局發揮著至關重要的作用。第二,落實服務提供者的安全主體責任。服務提供者在享有相關數據權益的同時也負有安全保障責任,兩者是不可分割的。因此應當及時建立健全相關管理制度和技術措施,配備專業人員和技術支撐。第三,倡導社會各界的共同治理模式。一方面,鼓勵行業組織加強行業自律,規范行業行為,并自覺接受社會各界監督。另一方面,鼓勵社會公眾通過申訴、投訴、舉報等方式進行監督,積極行使權利,為安全治理提供有力保障,以此形成多元共治的良好局面。此外,《算法推薦管理規定》還建立起了科學的監管體系,形成了全方位的安全監管機制。《算法推薦管理規定》確立了監管部門應對服務提供者實施分級分類的安全管理制度,明確了服務提供者應履行的算法備案手續,落實了相應主體的算法安全評估、算法監督檢查等具體工作。同時《算法推薦管理規定》建立起了算法問責體系,針對服務提供者不同程度的違規行為給予相應的懲罰,使其承擔相應的法律責任。相比《互聯網信息服務算法推薦管理規定(征求意見稿)》(以下簡稱“征求意見稿”),《算法推薦管理規定》對違規處罰力度進行了一定程度的加強。

2.2 用戶權益保障

聚焦侵犯用戶權益的亂象,《算法推薦管理規定》旨在保障用戶個人權益和用戶群體權益相結合。就個人權益而言,一是要保障用戶的知情權。服務提供者應當告知用戶有關算法推薦服務的基本情況,主動增強規則的透明度和可解釋性。這樣做不僅能夠促進算法推薦服務的公開透明,讓其在陽光下運行,也在一定程度上能緩解服務提供者和用戶之間信息不對等現象的發生。二是要保障用戶的選擇權。用戶有權自主選擇是否使用算法推薦服務,如用戶選擇拒絕使用,則服務提供者需立即停止提供服務。在保障用戶群體權益方面,針對老年人群體,考慮到其年齡、識別能力、網絡使用程度等情況,便依法開展了規避電信詐騙的系列服務;針對消費者群體,應避免依據個人喜好、交易習慣、生活水平等特征進行差別待遇,實施價格偏見、“大數據殺熟”等不合理的算法推薦和算法決策,以保護消費者的公平交易權;針對勞動者群體,可以建立諸如訂單分配、工作時間等真正有益的相關決策,以切實保護勞動者的合法權益。2021年,美團相繼公布了外賣配送“預估送達時間”和“訂單分配”的算法規則,有效兼顧了用戶、商家和騎手三方的利益。

2.3 社會生態服務

一項技術要得以長期廣泛應用,就必須受倫理、價值、法律等多方面的約束。算法推薦的背后實質上是一系列冰冷的、機械的數據,其工具屬性不能凌駕于人類理性之上,如果不對其施加正確引導,很難為社會帶來利益福祉。2017年,美國計算機協會發布了《算法治理倫理原則》;2019年,歐盟委員會發布了《人工智能道德準則》[10];2022年3月,中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》。由此可見,倫理規范和道德約束對算法推薦領域之重要。如今在我國出臺《算法推薦管理規定》的背景下,使算法推薦服務符合當今社會的意識形態和價值導向,這個過程就是向上向善的生態治理過程。針對算法推薦引發的社會治理亂象,諸如片面追求流量,推送惡性廣告彈窗,違法傳播不良虛假信息等情況,《算法推薦管理規定》做出了正面的回應,明確服務提供者應尊重社會公德倫理,堅持主流價值導向,促進算法向上向善。在拒絕提供傳播不良虛假信息、反對實施惡意價值導向、設置違法失德的算法模型的基本條件下,還要積極履行主動作為義務。加強界面的生態管理,促進正能量的傳播,通過人工干預和用戶自主選擇的協同方式,呈現符合主流價值導向的信息。尤其針對未成年人群體,要切實履行未成年人網絡保護義務,不得提供誘導其沉迷游戲等不良嗜好的算法推薦服務,努力保障未成年人的身心健康發展。目前國內多家網絡平臺已采取了行動,例如,抖音開通了青少年模式以實現推薦適齡內容、管理使用時長、合理使用應用等功能,還開通了親子平臺,家長可綁定子女的賬號進行遠程管理,在此樹立了良好的典范。

3 我國算法推薦的規制路徑優化

3.1 本體:規范與解釋

3.1.1 細化具體階段規范

在《算法推薦管理規定》已經明確對服務提供者進行分級分類管理的情況下,要進一步細化對算法推薦技術本體的具體階段規范。在算法推薦技術的研發階段,可以通過植入自動防御代碼、建立安全防火墻、實時監測系統等措施加強科技創新,從源頭上為算法推薦技術提供安全保障。例如,IBM首創了數據隱私護照技術,該技術能夠保證本地數據不被泄漏,即使數據離開本地存儲平臺也可以進行有效保護。用戶可以制定數據規則,在必要情況下還可以通過該技術行使撤銷數據訪問權,該技術為算法的數據基礎建設增添了強大動力①。在數據信息收集階段,服務提供者可以根據數據信息的重要程度在進行前置性評估的基礎上設置不同的技術要求。對于一般數據信息,例如用戶主動公開的個人簡介,其敏感性、可識別性較低,可以在算法推薦技術中設置概括的收集程序和用戶授權標準。對于特殊數據信息,例如身份證信息、人臉指紋識別,其敏感性、可識別性較高,應當在算法推薦技術中設置嚴格的收集程序和用戶授權標準,從而保障用戶個人數據信息的收集安全。在算法推薦技術的運行階段,服務提供者可以建立安全的數據信息存儲平臺,嚴格限制數據信息存儲平臺的訪問主體、訪問目的、訪問權限,自動形成并保存好相應的訪問記錄。但是要盡量滿足用戶對個人數據信息實施的訪問、修改、刪除等行為,以便能夠及時發現個人數據信息安全存在的潛在風險。

3.1.2 推進算法解釋機制

加強算法推薦服務的公開透明,其根本目的是讓用戶知悉并理解,獲取對算法推薦服務的信任。《算法推薦管理規定》在一定程度上保障了用戶的合法知情權,但是即便將其公開也存在著因專業問題而導致的局限性,因此可以在公開的基礎上落實算法解釋工作,其必要性體現在如下方面:第一,算法推薦技術的研發過程中必然涉及商業機密等不宜公開的內容,此時算法解釋便可以緩解算法公開與知識產權制度之間的矛盾[11]。第二,代碼程序的專業復雜等問題使得非專業人員難以真正理解算法推薦的運行機制,即便公開作用也相當有限,進行備案公開后如果不及時更新后果依舊如此。此時通俗易懂的算法解釋便可以使公眾真正做到知悉并理解。第三,畢竟服務提供者作為單方主體可以進行有選擇、有限度的公開,規避某些負面影響,加上缺乏公眾的參與機制導致公開的單向化、片面化[12]。此時對于用戶提出的請求進行解釋,可以促使公眾相信和提高算法推薦技術及服務自身的可信度。由征求意見稿中的“算法推薦服務提供者應當綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響、引發爭議糾紛”,最后變更為《算法推薦管理規定》中的“鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛”,在嚴格責任意義上進行了一定的限縮,那么在現有規定基礎上應繼續具體推進算法解釋機制。一是確定解釋主體。根據算法推薦服務具體應用場景的不同,以及算法推薦技術的研發者和服務提供者是否為同一主體,來確定承擔解釋義務的主體。二是確定解釋范圍。解釋范圍不僅要包括算法推薦的程序解釋,還要包括相關決策解釋、信息解釋、理念解釋等。三是確定解釋方式。服務提供者應當采取用戶須知等電子協議的必要方式進行覆蓋整體范圍的初步解釋。同時針對用戶在使用算法推薦服務過程中提出的個別性、合理性請求進行單獨解釋,而無須將范圍擴大到社會公眾[13]。

3.2 法律:賦權與救濟

3.2.1 充分賦予用戶權利

針對用戶個人而言,在《算法推薦管理規定》已經明確用戶享有知情權、選擇權、投訴權等權利的基礎上,加上上述內容中的算法解釋請求權以外,可以進一步參考歐盟《通用數據保護條例》中的規定,對用戶賦權以平衡算法推薦權力帶來的影響。一是訪問權。用戶在提供數據信息時有權確認自己的信息是否正在被不當處理,并有權在符合適當性、必要性的前置條件下進行訪問。二是修改權。在用戶進行訪問發現內容有誤后,可以要求服務提供者對數據信息進行相應的調整修改。三是刪除權。當用戶依法撤回同意許可或永久退出應用后,服務提供者便不再享有數據信息處理的權限,不應留存備案而應當徹底刪除。四是限制處理權。當用戶對服務提供者侵犯個人信息等行為進行投訴時,可以不要求其必須履行刪除等措施,而是予以限制不再處理個人信息。針對特定群體而言,在《算法推薦管理規定》已經明確包含未成年人、老年人、消費者、勞動者在內的特定群體以外,還要注重其他特定群體的權益,例如基于民族、種族、膚色、宗教信仰、身體健康等因素的差異而形成的特定群體。

3.2.2 拓寬法律救濟途徑

算法推薦具有專業性和不透明性的特征,這大大加劇了服務提供者和用戶之間信息不對等現象的發生。如若出現算法推薦的侵權事件,將會加大用戶個人取證的難度,從而引起后續的舉證難、訴訟效率低下、權益難以得到有效保護等一系列問題,長此以往即便用戶權益遭受損害也會怠于行使權利提起訴訟[14]。此外,算法推薦的侵權現象往往不是針對特定個體,而是可能面臨著一對多的情形,即受到利益損害的主體不限于社會中的少數人,已經延伸到了公共領域范圍內。因此,對于算法推薦服務中有損于公共利益的事件,可以拓寬法律救濟途徑,將其納入公益訴訟領域范圍,由相關行業組織、社會團體或國家公權力機關行使訴訟權利。參考《美國算法問責法案(2022)》第九章(b)(1)節的規定:“如果一個州的總檢察長有理由相信,該州居民的利益已經或正在受到違反本法案或根據本法案頒布的法規行為的威脅或不利影響,該州總檢察長可以作為原告,代表州居民向美國適當的地區法院提起民事訴訟,以獲得適當的救濟。”②這樣可以緩解個人訴訟中所面臨的諸多困境,在一定程度上防止公共利益損失的擴大。

3.3 社會:監管與倫理

3.3.1 設立第三方機構

加強監管是防范風險的必然要求,《算法推薦管理規定》中已經明確要加強服務提供者的內部監管和行業監管。但兩者依然是在算法推薦的整體領域范圍內,且涵蓋的絕大部分都是算法從業人員[15],人員組成、調整范圍、價值選擇等方面都具有一定的局限性。此時應該設立中立的第三方機構如算法審查委員會來進行評估監管等工作。從人員組成方面來看,第三方機構除了包括既有的算法從業人員,還可以吸納例如安保、法律、科學、倫理等有關領域的專家學者、從業人員和社會公眾在內的多種主體。從調整范圍方面來看,社會公眾更能以使用者或普通人的角度來發現算法推薦服務在實際生活中所引發的主要問題。相關領域內的人員能夠不再單單局限于算法推薦領域內,轉而多角度、寬領域、深層次地對算法推薦服務的安全性、必要性、合法性等方面進行評估監管、聚焦問題,進而提出相應的對策。從價值選擇方面看,第三方機構更具有中立性,不會有意偏袒任何一方,有利于保證過程和結果的公平公正。服務提供者、行業整體應與第三方機構通力合作,制定相應評估監管事項、標準、流程、頻次等具體規定,還可以采取定期視察、不定期檢查等措施。當第三方機構在發現算法推薦技術本身或運行過程中出現的包括但不限于安全、倫理、價值偏離在內的相關問題時,應及時向服務提供者反映并提出糾正意見,在其按期完成整改后再次進行評估檢查,對不予整改或多次整改不合格的將給予重點預警或拉入行業黑名單,以此形成互補有效的多向交流機制。

3.3.2 引導社會向上向善

服務提供者作為社會的重要主體,承擔著多重角色。不僅是市場經濟的經營者,更是社會價值的引領者。因此,服務提供者在追求商業經濟利益的同時,要兼顧社會公共利益的實現,樹立責任觀、大局觀,積極承擔社會責任,發揮算法推薦服務的正向作用。例如,今日頭條平臺的“頭條尋人”公益項目利用算法推薦中的地域維度,以地理位置彈窗的方式將走失者信息精準地定向推送給走失地點附近的用戶。截至2022年1月,該項目已累計幫助18 000個家庭團圓。此外還有“感光計劃”“無名患者尋親”“山貨上頭條”等多個項目,助推了我國社會公益事業的高效發展。除了服務提供者,社會公眾在使用算法推薦服務時也要遵守有關規定,遵循社會公序良俗,提高網絡安全意識和自我保護意識。樹立正確的價值觀,堅持主流意識導向,在充分發揮個人自身價值的基礎上形成正向的鏈條效應、網格效應、區域效應。只有人人內化于心,外化于行,才能推動算法推薦服務向上向善的生態治理,實現全社會對算法科技與倫理相結合的美好愿景。

4 結語

技術創新和制度變革往往相伴而生,相向而行。我國數字經濟業態正處于高速發展階段,算法推薦治理問題已成為重中之重。《算法推薦管理規定》的發布使我們能夠有章可循,是對我國算法推薦治理體系難題的有效回應。在當前算法推薦前景與風險并行的情況下,我們應筑牢安全意識,強化底線思維,以《算法推薦管理規定》為法律依據,將制度規范與自我約束相結合、經濟利益和公共利益相兼顧、科學技術與價值倫理相貫通。通過本體、法律、社會的多重路徑進行規制優化,助推算法推薦領域的可持續發展。

注釋:

①參見鄭凱:《IBM新一代主機z15:清掉企業全面上云的絆腳石》,載微信公眾號“科技正能量”,2019年11月1日。

②參見吳建昊:《美國算法問責法案(2022)》,載微信公眾號“網絡法理論與實務前沿”,2022年2月20日。

猜你喜歡
用戶信息
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
Camera360:拍出5億用戶
創業家(2015年10期)2015-02-27 07:55:08
100萬用戶
創業家(2015年10期)2015-02-27 07:54:39
如何獲取一億海外用戶
創業家(2015年5期)2015-02-27 07:53:25
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 一区二区三区在线不卡免费| 2021国产在线视频| 一区二区影院| 伊人精品成人久久综合| 天堂va亚洲va欧美va国产| 国产一区二区三区日韩精品| 欧美一区日韩一区中文字幕页| 国产成人a毛片在线| 久久国产精品夜色| 精品自窥自偷在线看| 最新国产网站| 中文字幕亚洲第一| 国产精品女人呻吟在线观看| 一级毛片在线免费视频| 99偷拍视频精品一区二区| 欧美成人第一页| 亚洲国语自产一区第二页| 欧美日韩国产在线观看一区二区三区 | 国产丝袜啪啪| 国产区在线观看视频| 亚洲精品第一页不卡| 久久久久人妻一区精品色奶水| 国产人人乐人人爱| a毛片在线免费观看| 亚洲国产综合第一精品小说| 国产亚洲日韩av在线| 国产高清不卡| 乱人伦视频中文字幕在线| 亚洲精品国产综合99久久夜夜嗨| 国产超碰一区二区三区| 精品国产美女福到在线直播| 亚洲人成人伊人成综合网无码| 日韩天堂网| 一区二区影院| 欧美色图久久| 国产99视频精品免费视频7| 国产成人精品男人的天堂| h视频在线观看网站| 国产专区综合另类日韩一区| 青青国产视频| 国产美女无遮挡免费视频| 中文字幕亚洲第一| a亚洲天堂| 福利一区三区| 亚洲第一av网站| 欧美一区二区丝袜高跟鞋| 国产精品久久久久婷婷五月| 国产美女免费| 国产精品视屏| 国产一级裸网站| 精品国产99久久| 91免费在线看| 免费人成视网站在线不卡| 日本不卡在线播放| 超碰91免费人妻| 乱人伦中文视频在线观看免费| 爱做久久久久久| 国产成人毛片| 亚洲最大看欧美片网站地址| 国产成人狂喷潮在线观看2345| 日韩成人在线网站| 欧美成人一级| 在线视频一区二区三区不卡| 亚洲人成日本在线观看| 亚洲天堂2014| 亚洲啪啪网| 好吊日免费视频| 成人在线亚洲| 婷婷伊人久久| 91精品国产综合久久不国产大片| 国产福利免费观看| 又大又硬又爽免费视频| 欧美日韩在线第一页| 成年女人a毛片免费视频| 日韩精品一区二区三区视频免费看| 99热在线只有精品| 毛片免费在线| 婷婷亚洲天堂| 中文字幕1区2区| 久久久久久久久18禁秘| 91毛片网| 国产在线无码一区二区三区|