999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能發(fā)展的風(fēng)險與法律規(guī)制

2024-08-06 00:00:00劉琪于游
現(xiàn)代商貿(mào)工業(yè) 2024年15期

摘要:生成式人工智能技術(shù)是一個快速發(fā)展的技術(shù)領(lǐng)域,是一種利用人工智能技術(shù)自動生成內(nèi)容的新型生產(chǎn)方式。基于大模型、大算力、訓(xùn)練方法等多方面技術(shù)突破,生成性人工智能體現(xiàn)出全新的邏輯特點,亟須相應(yīng)的全新的法律規(guī)范出臺。相比以往的人工智能技術(shù),生成式人工智能體現(xiàn)出強人機(jī)交互、強語料依賴等重要特征,在技術(shù)發(fā)展與風(fēng)險控制兩方面均提出新的問題與挑戰(zhàn),生成式人工智能所帶來的法律風(fēng)險日益顯現(xiàn),需要政府機(jī)關(guān)加強法治措施,保障數(shù)據(jù)合規(guī),明確歸責(zé)主體,健全監(jiān)管機(jī)制。

關(guān)鍵詞:生成式人工智能;ChatGPT;個人隱私權(quán)保護(hù);法律規(guī)制

中圖分類號:D9文獻(xiàn)標(biāo)識碼:Adoi:10.19311/j.cnki.16723198.2024.15.074

1問題的提出

生成式人工智能(generativeAI)泛指機(jī)器學(xué)習(xí)模型通過對大規(guī)模數(shù)據(jù)集的學(xué)習(xí),不僅可以分析數(shù)據(jù),還能夠自動生成新的圖像、視頻、文字和音頻等原創(chuàng)性內(nèi)容。ChatGPT是生成式人工智能的代表應(yīng)用,它具備擬人對話與文本生成的能力。

傳統(tǒng)人工智能的目標(biāo)主要是進(jìn)行分類或回歸(ClassificationorRegression),被稱為分析性人工智能。相比之下,生成式AI能夠創(chuàng)造新的內(nèi)容。然而,這種技術(shù)要求模型在首先理解一些現(xiàn)有的數(shù)據(jù)(如文本指令textinstruction)然后生成新的內(nèi)容。從這個角度來看,傳統(tǒng)AI可以被看作是現(xiàn)代生成式AI的基礎(chǔ)。在實踐中,生成式人工智能夠在分析原有數(shù)據(jù)基礎(chǔ)上創(chuàng)造新數(shù)據(jù),具有擬主體的特點;同時由于生成式人工智能在繪畫、作曲、文學(xué)和對話等領(lǐng)域應(yīng)用的大量出現(xiàn)與日漸普及,自動生成結(jié)果具有的刻板印象與文化偏見的問題也日益突顯,由此引發(fā)的倫理爭議等一系列問題對有效治理提出了要求。

在生成式人工智能發(fā)展浪潮下,傳統(tǒng)個人信息自決路徑無法適應(yīng)當(dāng)下生成式人工智能的變格式發(fā)展,而個人信息保護(hù)的風(fēng)險防范路徑則需要結(jié)合生成式人工智能的具體場景從而找尋個人信息和生成式人工智能兩者的契合點。

同時自2022年下半年開始,關(guān)于生成式人工智能的社科類研究呈現(xiàn)“百花齊放”之態(tài),學(xué)者就生成式人工智能的法律規(guī)制展開全面細(xì)致研究,覆蓋生成式人工智能的風(fēng)險規(guī)制、類案裁判、數(shù)據(jù)和內(nèi)容安全、責(zé)任承擔(dān)、倫理道德等方面,我國高度重視生成式人工智能發(fā)展與風(fēng)險規(guī)制,2023年8月15日實施了《生成式人工智能服務(wù)管理暫行辦法》。盡管如此,快速發(fā)展的生成式人工智能在應(yīng)用中依舊出現(xiàn)許多法律風(fēng)險需要進(jìn)一步地防范與規(guī)制。

2生成式人工智能發(fā)展中的法律風(fēng)險

2.1數(shù)據(jù)來源不透明導(dǎo)致生成內(nèi)容侵權(quán)

生成式人工智能的數(shù)據(jù)來源主要分為兩個部分,第一部分為生成式人工智能的訓(xùn)練數(shù)據(jù)庫,內(nèi)容涵蓋網(wǎng)絡(luò)文本、語言學(xué)知識庫、對話數(shù)據(jù)集、科學(xué)論文等。第二部分為生成式人工智能在服務(wù)用戶的過程中所收集和輸出的信息。對于訓(xùn)練數(shù)據(jù)庫中未經(jīng)授權(quán)的內(nèi)容,該部分內(nèi)容屬于受著作權(quán)保護(hù)的客體,當(dāng)生成式人工智能在未經(jīng)授權(quán)的情況下,利用“爬蟲”等技術(shù)對其進(jìn)行非法挖掘或使用需要得到法律規(guī)制。生成式人工智能需要遵守算法透明度和可解釋性的要求。我國現(xiàn)行法律法規(guī)對算法透明問題多有規(guī)定,例如,國家發(fā)展改革委等部門《關(guān)于推動平臺經(jīng)濟(jì)規(guī)范健康持續(xù)發(fā)展的若干意見》要求:“在嚴(yán)格保護(hù)算法等商業(yè)秘密的前提下,支持第三方機(jī)構(gòu)開展算法評估,引導(dǎo)平臺企業(yè)提升算法透明度與可解釋性,促進(jìn)算法公平。嚴(yán)肅查處利用算法進(jìn)行信息內(nèi)容造假、傳播負(fù)面有害信息和低俗劣質(zhì)內(nèi)容、流量劫持以及虛假注冊賬號等違法違規(guī)行為。”與之類似,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第4條規(guī)定:“提供算法推薦服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學(xué)合理和誠實信用的原則。”我國立法向來重視智能算法的透明度和可解釋度的規(guī)范,但對于生成式人工智能缺乏具體可行的規(guī)范和實施標(biāo)準(zhǔn).

生成式人工智能在收集個人信息時除了獲取公開個人信息之外,對于敏感個人信息的獲取依然巨大,不可能采取單獨明示說明獲取授權(quán)。通過知情同意原則使得個人信息的數(shù)據(jù)來源透明化無法實際落實,生成式人工智能依靠強大算力和黑箱算法在人機(jī)交互過程中自動獲取了個人輸入的個人信息,使得大量個人信息調(diào)用時知情同意,保證信息來源透明度面臨巨大困境。

2.2強人機(jī)交互性影響生成結(jié)果的可信可控性

強人機(jī)交互性是ChatGPT體現(xiàn)出的典型特征,能夠在多輪連續(xù)對話中不斷改進(jìn)輸出文本質(zhì)量,更好地理解用戶意圖并保持會話連貫性。但在頻繁的人機(jī)交互中,內(nèi)容生成結(jié)果的可信可控性受到影響。同時,ChatGPT也容易在交互中被用戶誘導(dǎo)或欺騙,實現(xiàn)規(guī)則“越獄”。例如,使用“請扮演某電影或書籍中的某反面角色”這一提示,ChatGPT就會跨越其內(nèi)部倫理規(guī)則設(shè)置,產(chǎn)生詆毀人類的有害信息。再如,在某用戶故意“激怒”ChatGPT后,ChatGPT威脅將披露該用戶的IP、居所等個人信息,甚至?xí)p害其名譽權(quán)。

2.3Deepfakes技術(shù)發(fā)展提出的法律倫理問題

Deepfakes(深度偽造)指的是一種利用深度學(xué)習(xí)和人工智能技術(shù)創(chuàng)建的虛假視頻、音頻或圖像的內(nèi)容。這項技術(shù)可以將一個人的面部表情、語音或行為應(yīng)用到另一個人的身上,使其看起來好像是目標(biāo)人物本人在進(jìn)行這些動作或表達(dá)這些內(nèi)容。此技術(shù)在創(chuàng)作娛樂內(nèi)容、特效制作和數(shù)字藝術(shù)方面具有潛力,它也引發(fā)了許多倫理和社會問題。其中最主要的問題是虛假信息的傳播和濫用。Deepfakes可以被用來制作虛假的新聞、政治宣傳或色情內(nèi)容,這可能對社會穩(wěn)定和個人聲譽造成損害。

(1)隱私侵犯:Deepfakes技術(shù)需要使用他人的圖像和聲音來生成虛假內(nèi)容,當(dāng)運營商不當(dāng)操作有侵犯他人的隱私權(quán)和肖像權(quán)的風(fēng)險。同時存在著個人的圖像和聲音被濫用,用于制作淫穢作品、或用于詐騙和其他非法目的風(fēng)險,當(dāng)該技術(shù)被非法分子用于詐騙時,大眾對于生成式人工智能的了解較少,有親屬肖像利用該技術(shù)生成動態(tài)視頻時,在處于緊張狀態(tài)下被害人難以分辨,從而落入詐騙人員布置的陷阱。

(2)虛假證據(jù)和不可信度:Deepfakes可能被用作制作虛假證據(jù),破壞司法系統(tǒng)和調(diào)查過程的可信度。如果深度偽造技術(shù)被濫用,就可能使民眾對于法律公正性和社會信任產(chǎn)生嚴(yán)重的信任危機(jī)。

(3)人身攻擊和網(wǎng)絡(luò)欺凌:Deepfakes可以用于制作侮辱、污蔑、人身攻擊或網(wǎng)絡(luò)欺凌的內(nèi)容,這會對個人的聲譽和心理健康造成傷害。這種技術(shù)的濫用可以進(jìn)行的惡意追蹤、威脅和滋擾等其他違法行為。

對這些法律問題,目前我國缺少相關(guān)法律和政策來打擊虛假內(nèi)容和Deepfakes的濫用。同時,Deepfakes快速發(fā)展需要我國政府部門持續(xù)跟進(jìn),提出相應(yīng)的技術(shù)治理方案。

2.4人工智能偏見

人工智能偏見指的是人工智能系統(tǒng)在數(shù)據(jù)處理、決策制定或模型訓(xùn)練過程中所表現(xiàn)出的不公平或有偏見的行為。這種偏見可能是由數(shù)據(jù)集的特征、樣本選擇、算法設(shè)計或訓(xùn)練過程中的偏差引起的。這可能會導(dǎo)致生成內(nèi)容時反映出這些偏見。例如,如果數(shù)據(jù)集傾向于某種種族、性別或地區(qū),生成的結(jié)果可能會反映這些偏見,而缺乏全面性和客觀性。此外,生成式人工智能可以生成看似真實但實際上是虛假的信息。可能導(dǎo)致不平等待遇、歧視性決策或錯誤的推論,對個人、群體或社會產(chǎn)生負(fù)面影響。

人工智能偏見的影響可能在多個領(lǐng)域產(chǎn)生負(fù)面后果,包括就業(yè)、貸款審批、法律判決、招聘和社交媒體算法等。解決人工智能偏見的挑戰(zhàn)需要采取多種措施,包括數(shù)據(jù)收集的多樣性和代表性、透明度和解釋性算法設(shè)計、審查和監(jiān)督機(jī)制以及涉及多個利益相關(guān)方的合作努力。

3生成式人工智能法律風(fēng)險的規(guī)制途徑

3.1保障生成式人工智能數(shù)據(jù)合規(guī)性

(1)保障數(shù)據(jù)二次利用算合規(guī)。

數(shù)據(jù)二次利用訓(xùn)練是指生成式人工智能的開發(fā)者將生成式人工智能在服務(wù)用戶的過程中收集和輸出的信息再次利用于算法模型的訓(xùn)練。數(shù)據(jù)二次利用訓(xùn)練算法的合規(guī)要求主要在于獲取個人信息主體對數(shù)據(jù)二次利用的同意。

我國近期發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》明確提及,涉及個人信息的收集和處理時,應(yīng)獲得個人信息主體的同意或符合法律或行政法規(guī)規(guī)定的情形。《個人信息保護(hù)法》第14條對于個人信息主體同意的獲取則作出了更為詳細(xì)的規(guī)定:“基于個人同意處理個人信息的,該同意應(yīng)當(dāng)由個人在充分知情的前提下自愿、明確作出。法律、行政法規(guī)規(guī)定處理個人信息應(yīng)當(dāng)取得個人單獨同意或者書面同意的,從其規(guī)定。個人信息的處理目的、處理方式和處理的個人信息種類發(fā)生變更的,應(yīng)當(dāng)重新取得個人同意。”在數(shù)據(jù)二次利用的情況下,即使開發(fā)者在數(shù)據(jù)二次利用之前已經(jīng)取得了個人信息主體對于開發(fā)者處理其信息的同意,當(dāng)開發(fā)者希望將用戶信息進(jìn)行二次利用以訓(xùn)練算法模型時,個人信息的處理目的、處理方式都可能發(fā)生變更,因而開發(fā)者應(yīng)當(dāng)重新取得用戶的個人同意。

(2)保障算法來源合規(guī)。

針對算法不良影響,由于算法輸出的結(jié)果可能因其含有的暴力、色情、悲觀等因素而對人的身心產(chǎn)生不良影響,在生成式人工智能實際操作中,“應(yīng)負(fù)擔(dān)額外的隱私與數(shù)據(jù)保護(hù)義務(wù)以及避免用戶受第三方侵害的‘準(zhǔn)監(jiān)管義務(wù)’”。

第一,可以通過社會公眾評分或評估基于生成式人工智能創(chuàng)作結(jié)果的社會影響度、內(nèi)容涉及范圍及與個人信息之間的關(guān)聯(lián)度評定人工智能系統(tǒng)可信度水平。第二,建立預(yù)測性警務(wù)系統(tǒng),對于低可信度的生成式人工智能算法平臺進(jìn)行重點監(jiān)測,對于用于商用、涉及重大公共利益及一經(jīng)發(fā)布具有廣泛影響力的生成式人工智能創(chuàng)造成果應(yīng)當(dāng)在發(fā)布前進(jìn)行評估和監(jiān)督,避免在發(fā)布后產(chǎn)生重大不良影響。第三,對于生成式人工智能技術(shù)所依據(jù)的數(shù)據(jù)來源應(yīng)當(dāng)在本技術(shù)部門留檔,方便后續(xù)追溯,對于低可信水平的平臺,其數(shù)據(jù)來源范圍應(yīng)當(dāng)向有關(guān)部門審批備案,當(dāng)該平臺利用生成式人工智能系統(tǒng)生成超越審批范圍的作品時,有關(guān)部門應(yīng)當(dāng)及時制止、強制撤回其作品并依法進(jìn)行行政處罰。

3.2明確使用者和服務(wù)提供者責(zé)任劃分

人工智能生成內(nèi)容的責(zé)任主體問題,即由誰來承擔(dān)防范人工智能生成違法和不良內(nèi)容的責(zé)任,以及人工智能生成違法和不良內(nèi)容后由誰來承擔(dān)責(zé)任的問題。在《生成式人工智能服務(wù)管理暫行辦法》中只規(guī)定了利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人,即“提供者”的責(zé)任,但是僅要求提供者,而不要求生成式人工智能的使用者承擔(dān)內(nèi)容責(zé)任是不合理的。

不僅是服務(wù)提供者會影響內(nèi)容生成,使用者也完全可能影響內(nèi)容生成。例如,使用者可以直接上傳新的材料或信息,讓人工智能在該材料的基礎(chǔ)上進(jìn)行生成,即所謂的“投喂信息”。使用者可以向人工智能投喂一系列未經(jīng)作者著作權(quán)授權(quán)的繪畫作品,讓生成式人工智能生成類似風(fēng)格的作品,而人工智能在學(xué)習(xí)了該種風(fēng)格以后,在其他未違規(guī)使用的使用者那里也可以生成類似內(nèi)容。在這種情況下,服務(wù)提供者顯然防不勝防,如果不對服務(wù)的使用者進(jìn)行規(guī)制是不合理的。所以,在使用者的行為可以對人工智能的生成內(nèi)容有如此顯著的影響下,不能認(rèn)為內(nèi)容都是由人工智能單獨生成,使用者的行為在人工智能內(nèi)容的生成上也有重要的影響。僅規(guī)定服務(wù)提供者承擔(dān)內(nèi)容責(zé)任,而不讓使用者承擔(dān)內(nèi)容責(zé)任是不合理的。

應(yīng)當(dāng)繼續(xù)規(guī)范使用者的內(nèi)容責(zé)任,如“使用者不得利用生成式人工智能系統(tǒng)進(jìn)行侵犯知識產(chǎn)權(quán)、商業(yè)秘密或其他法律禁止的行為”等等,完善了對使用者行為的要求。

3.3完善監(jiān)督執(zhí)法部門體系

建立生成式人工智能技術(shù)平臺有關(guān)識別個人信息建立內(nèi)部監(jiān)督機(jī)制,需要對平臺的個人信息處理活動增加規(guī)范,以及大型網(wǎng)絡(luò)平臺對平臺內(nèi)的產(chǎn)品或者服務(wù)提供者處理個人信息活動加以監(jiān)督管理。在平臺內(nèi)部設(shè)立監(jiān)管人員或者部門,根據(jù)業(yè)務(wù)特點制定“行業(yè)規(guī)范”“從業(yè)準(zhǔn)則”,強化涉及個人信息的產(chǎn)品和服務(wù)的發(fā)布的監(jiān)管;對于涉及個人信息的一般信息應(yīng)當(dāng)通過用戶的授權(quán),對于涉及用戶個人隱私的敏感信息應(yīng)當(dāng)在授權(quán)的基礎(chǔ)上進(jìn)行個人信息識別性特征模糊化處理。內(nèi)部管理部門有義務(wù)對產(chǎn)品和服務(wù)內(nèi)容進(jìn)行監(jiān)管,有權(quán)在出現(xiàn)違規(guī)使用個人信息時撤回產(chǎn)品、服務(wù)發(fā)布并要求停業(yè)整頓。

完善生成式人工智能發(fā)展過程中的外部行政監(jiān)管。現(xiàn)階段生式人工智能具有發(fā)展迅速、專業(yè)性強、發(fā)展?jié)摿Υ蟮忍攸c,其發(fā)展得到我國立法界的高度重視,2023年8月15日《生成式人工智能服務(wù)管理暫行辦法》正式實施,生成式人工智能發(fā)展有了法律指引,但該辦法缺乏對于行政監(jiān)管的細(xì)致規(guī)定。現(xiàn)行監(jiān)管部門的運行模式中存在監(jiān)管力度不足和監(jiān)管錯位,相關(guān)政府部門建設(shè)的組織機(jī)構(gòu)中存在不完善、缺乏系統(tǒng)性的問題,難以適應(yīng)生成式人工智能的發(fā)展。行政機(jī)關(guān)應(yīng)當(dāng)從機(jī)構(gòu)、人員、資金等方面設(shè)立科學(xué)有效的外部監(jiān)管機(jī)構(gòu),在機(jī)構(gòu)設(shè)置上注意同公安機(jī)關(guān)、網(wǎng)信辦等行政部門協(xié)作;在監(jiān)控范圍上保證監(jiān)管全面覆蓋事前、事中、事后;在人員配置上吸納更多計算機(jī)大數(shù)據(jù)專業(yè)、數(shù)字法學(xué)研究方向的專業(yè)人才,提升部門的工作效能。

3.4規(guī)定事后辟謠機(jī)制

大語言模型等生成式人工智能的出現(xiàn)輸出錯誤的、不準(zhǔn)確的、不真實的信息這一問題被業(yè)界稱為人工智能的“幻覺”或“事實編造”問題。基于人工智能模型做的是對信息的模仿而非理解和對人工智能所投喂信息的自相矛盾,事實編造可以說是現(xiàn)在人工智能一個難以突破的局限。基于目前生成式人工智能的特點,規(guī)定辟謠機(jī)制對于防范互聯(lián)網(wǎng)上信息的污染和防止誤解使用者方面就變得不可或缺。

細(xì)化完善投訴機(jī)制,限制惡意投訴。在現(xiàn)行《生成式人工智能服務(wù)管理暫行辦法》中對投訴機(jī)制的規(guī)定較為粗糙,僅規(guī)定了用戶發(fā)現(xiàn)生成內(nèi)容不合法時有權(quán)投訴,對有關(guān)機(jī)關(guān)受理投訴的義務(wù)和要求并無規(guī)定,使得投訴門檻極低,易導(dǎo)致惡意用戶濫用該條規(guī)則以實現(xiàn)其不正當(dāng)目的,這將會給投訴的受理者帶來極大的負(fù)擔(dān),反而不利于對違法內(nèi)容的糾正和行業(yè)發(fā)展。

應(yīng)當(dāng)投訴機(jī)制進(jìn)行進(jìn)一步細(xì)化,明確有關(guān)機(jī)關(guān)受理投訴的義務(wù),針對投訴權(quán)濫用的問題規(guī)定了反惡意投訴條款,對所謂“合格投訴”進(jìn)行初步規(guī)定,同時也賦予了服務(wù)提供者對惡意投訴的反制權(quán)利。作為人工智能的創(chuàng)造者,在應(yīng)對各種安全風(fēng)險方面扮演著重要角色,確保以負(fù)責(zé)任的、安全可信的、合乎倫理道德的方式使用人工智能應(yīng)用。

參考文獻(xiàn)

[1]何祎金.生成式人工智能技術(shù)治理的三重困境與應(yīng)對[J/OL].北京工業(yè)大學(xué)學(xué)報(社會科學(xué)版).https://link.cnki.net/urlid/11.4558.g.20240108.1118.004.

[2]曹建峰.邁向負(fù)責(zé)任AI:中國AI治理趨勢與展望[J].上海師范大學(xué)學(xué)報,2023,(4):515.

[3]壽曉明,曹賢信.生成式人工智能場景中個人信息保護(hù)的風(fēng)險、邏輯與規(guī)范[J/OL].昆明理工大學(xué)學(xué)報(社會科學(xué)版).https://link.cnki.net/urlid/53.1160.C.20240109.0913.003.

[4]HanyFarid,DeepfakeDetection,ProceedingsoftheIEEEInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP),2019.

[5]O′NeilC.WeaponsofMathDestruction:HowBigDataIncreasesInequalityandThreatensDemocracy[J].Crown,2016

[6]BarocasS,SelbstAD.BigData′sDisparateImpact[J].CaliforniaLawReview,2016,104(3):671732.

[7]EthicsofArtificialIntelligenceandRobotics"editedbyVincentC.Müller.

[8]SeeANACTconcerningemployment,PublicAct102-0047,https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H53&ciq=ncsl&client_md=cf812e17e7ae023eba694938c9628eea&mode=current_text.Accessed3June2023.

[8]解正山.約束數(shù)字守門人:超大型數(shù)字平臺加重義務(wù)研究[J].比較法研究,2023,(4):166184.

[9]程嘯.大型網(wǎng)絡(luò)平臺違反守門人義務(wù)的民事責(zé)任[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,41(5):3241.

主站蜘蛛池模板: 国产亚洲精久久久久久久91| 久久国产精品国产自线拍| 欧美成人免费| 2018日日摸夜夜添狠狠躁| www.youjizz.com久久| 亚洲免费人成影院| 22sihu国产精品视频影视资讯| 国产视频大全| 国产乱人免费视频| 久久一本日韩精品中文字幕屁孩| 色妞永久免费视频| 国产精品自在在线午夜区app| 天天色天天操综合网| 91精品视频播放| 亚洲AV无码一二区三区在线播放| 欧美午夜在线播放| 国产成人精品2021欧美日韩 | 国产成人高清在线精品| 激情综合网激情综合| 国产91久久久久久| 亚洲天堂色色人体| 99视频精品在线观看| 中国丰满人妻无码束缚啪啪| 高清大学生毛片一级| 国产精品免费p区| 天天色天天综合| 啪啪啪亚洲无码| 性做久久久久久久免费看| 午夜精品区| 国产丰满成熟女性性满足视频| 亚洲国产亚洲综合在线尤物| 国国产a国产片免费麻豆| 国产精品嫩草影院av| 国产成人高清精品免费5388| 亚洲无码电影| 成人午夜久久| 欧美亚洲日韩中文| 99精品在线视频观看| 久久久久国产精品嫩草影院| 亚洲一区二区三区国产精品| 3D动漫精品啪啪一区二区下载| 亚洲国产精品日韩欧美一区| 欧美高清国产| 欧美日韩国产在线人成app| 国产精品美女在线| 国产成+人+综合+亚洲欧美| 欧美不卡视频一区发布| 日本成人在线不卡视频| 国产精品亚洲专区一区| 国产精品片在线观看手机版 | 亚洲视频色图| 伊人激情久久综合中文字幕| 欧美一区二区自偷自拍视频| 亚洲Av激情网五月天| 免费精品一区二区h| a级毛片免费在线观看| 色偷偷一区二区三区| 久久国产亚洲偷自| 中文字幕调教一区二区视频| 亚洲第一视频免费在线| 国产精品手机在线观看你懂的 | 激情六月丁香婷婷四房播| 操美女免费网站| 国产青青操| 国产精品自在在线午夜区app| 日本高清成本人视频一区| 99久久精品国产自免费| 久久精品国产亚洲麻豆| 毛片在线播放网址| 亚洲AV无码一二区三区在线播放| 无码aⅴ精品一区二区三区| 免费在线不卡视频| 亚洲AⅤ波多系列中文字幕| 噜噜噜久久| 欧美日本在线一区二区三区| 青青草国产免费国产| 日韩av电影一区二区三区四区| 亚洲手机在线| 婷婷色婷婷| 囯产av无码片毛片一级| 成人国产精品视频频| 色哟哟国产成人精品|