999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

AIGC視域下科學數據開放共享風險及對策

2024-09-25 00:00:00朱蘭蘭高玉婷霍婕
檔案管理 2024年4期

關鍵詞:人工智能;科學數據;WSR方法論;物理;事理;人理;開放共享;風險共治

人工智能生成內容(Artificial I ntelligenceGenerated Content,AIGC)是指利用深度學習和人工智能技術生成內容的一種方法,其基本原理是利用機器學習和深度學習等人工智能技術,通過對大量的訓練數據進行學習,使模型能夠理解和模仿現有的內容樣式、結構和特征,從而生成新的內容。[1]隨著AI技術的迅速發展,AIGC憑借其快速的反應能力、生動的內容輸出、豐富的應用場景,在社會和生活方面發揮著越來越重要的作用??茖W數據作為國家重要戰略資源,不僅是科研創新的堅實支撐,還是政府政策制定和科學決策的重要依據。大數據時代下,面對日益增長的科學數據,開放共享已成為科學研究的必然訴求??茖W數據開放共享的實質是多元主體聚焦科學數據資源,以數據用戶的需求為出發點,通過多種途徑消除數據擁有者與數據用戶之間的隔閡,進而推動數據資源的順暢流通、廣泛傳播和高效利用。大數據時代背景下,國家高度重視數據開放共享工作。2018年,國務院印發《科學數據管理辦法》,首次明確指出要促進科學數據開放共享,并提出了“分級管理、安全可控、充分利用”的原則[2];2019年,科技部和有關部門在前期工作的基礎上,組建了20個國家科學數據中心,推動了科學數據的開放共享。

近年來,科學數據開放共享的問題逐漸成為學術界的研究熱點,眾多學者從不同角度對其進行了深入探討,主要包括數據共享障礙、共享策略、共享政策及數據治理等研究。例如,江慧慧等[3]從技術、人員、管理、法律政策等方面分析了科學數據共享的障礙因素;劉開強等[4]基于生態系統視角,提出科學數據開放共享的優化策略。儲節旺等[5]提出“顯隱”視角下的科學數據共享策略機制研究框架;溫珂等[6]系統梳理了我國科學數據開放共享政策的發展歷程,針對存在的問題,進一步完善了科學數據開放共享政策體系;盛小平等[7]構建了科學數據開放共享數據安全治理模型。

綜上所述,科學數據開放共享的現有研究已取得了一定進展,許多學者都對其相關方面進行了系統梳理與研究分析,但對AIGC技術在科學數據開放共享中的應用研究較少。

在AIGC視域下,科研成果雖能更廣泛地被公眾了解和利用,但同時更加開源的數據獲取和生成能力或許會產生損害研究者知識產權、降低研究成果質量等問題。因此,本文運用WSR方法論,從“物理”“事理”“人理”三個維度構建理論分析框架,探討AIGC視域下科學數據開放共享的風險因素和解決路徑,以期為AIGC視域下科學數據的開放共享工作提供針對性的參考。

1 WSR理論與科學數據開放共享風險

1.1 WSR方法論。“物理—事理—人理”方法論(Wuli-Shili-Renli System Approach,WSR)依賴于現有的科學技術知識,并融合社會科學、行為科學等多個學科的理論與實踐,以實現對復雜系統的有效管理和優化,是一種系統方法論。在處理復雜問題的過程中,WSR系統方法論綜合考慮物理、事理、人理三個維度,從事實、事物之間的聯系以及人在事物發展過程中所起的作用三個方面展開分析。[8]WSR方法論目前已被廣泛應用到企業管理、安全管理、城市治理等諸多領域,并取得了一系列的研究成果。AIGC視域下科學數據的開放共享涉及多階段、多影響因素以及多元主體,具有鮮明的系統性和復雜性特征,而WSR作為一種系統方法論,對于解決其風險因素具有較強的適用性。

1.2 AIGC視域下科學數據開放共享風險的WSR分析框架。數據、算力、算法是AIGC的三大核心要素。數據是驅動AIGC發展的核心資源。AI技術的快速進步依賴于豐富的大數據資源,通過使用更大規模、更為完備的數據集進行訓練,是提升人工智能性能的主要路徑。算法是AIGC的核心驅動力,涵蓋了自然語言處理、多模態信息融合以及人機交互等關鍵技術,大語言模型是其中最具代表性的算法。算力是AIGC運行的重要保障,人工智能面對數據海量化、算法復雜化、場景多樣化等特點,要求必須有強大的算力作為支撐。[9]AIGC擁有強大的信息整合、自然語言處理以及深度學習等能力,能夠從科學數據資源中挖掘提煉細顆粒度的知識單位,并對知識單位進行整理加工,形成規范有序的知識網絡,但同時也給科學數據開放共享帶來了不可避免的風險。AIGC視域下科學數據開放共享的風險與防控是一項復雜的系統工程,包括前端的風險識別、過程中的應對策略和后端的動態反饋,而WSR系統方法論注重從客觀物質及其規律、聯系出發,強調管理和組織方法的重要地位,并深入考慮人在系統中的核心地位,能利用綜合與集成、系統與分解的思想有效解決復雜層次的問題,為開放數據和開放獲取大環境下科學數據風險防控提供切實可行的方法和思路。

因此,筆者基于WSR方法論,結合AIGC核心要素,從物理、事理、人理三個維度構建了AIGC視域下科學數據開放共享風險的理論分析框架(如圖1)。

1.2.1 物理維度分析。物理維度側重于遵循物質世界的固有法則,著重分析客觀存在的條件以及事物所具備的功能特性[10]。從物理維度分析AIGC視域下科學數據開放共享的風險因素,主要是指科學數據獲取、存儲、管理和應用等方面存在的技術風險。AIGC具有模態多元性、資源豐富性、實時交互性等特點,其高效運作離不開強大的算力支持。其中,硬件算力發揮著舉足輕重的作用,其實質是依托CPU、內存、顯卡等計算基礎設施帶來的解題能力,芯片制程、設備架構、內存容量等都能對算力產生影響。算力是AIGC擁有強大的信息處理能力和內容創作能力的關鍵因素,其技術優勢為科學數據開放共享提供了高效、便捷的服務。然而AIGC技術還處于發展與應用的初期,存在數據分散、算法不優、算力薄弱等技術性問題,可能損害數據的真實性、安全性及可用性,導致產權不清、技術依賴等風險。

1.2.2 事理維度分析。事理維度著重于遵循行事流程和道理,強調邏輯分析和管理效率。從事理維度分析AIGC視域下科學數據開放共享的風險因素,主要涉及法律規范與行業治理等政策制度風險。從現實層面看,政府在推進科學數據開放共享時,不僅遭遇技術上的阻礙,管理層面亦面臨諸多挑戰。AIGC技術賦能科學數據開放共享的過程中,大多流于表面的工具應用,缺乏政策指導和制度框架的建設。因此,難以實現真正的數據共享機制。有研究指出,在政府開放數據生態系統可持續發展過程中,法律政策對其影響最大[11]。開放數據政策僅作為相關法規中的部分內容,且在AIGC視域下的科學數據開放共享政策尚不完善。

1.2.3 人理維度分析。人理維度主要關注組織協作中的原則和理念,強調人文分析。從人理維度分析AIGC視域下科學數據開放共享的風險因素,以對“人類倫理”影響的角度為切入點,分析科學數據開放共享過程中的道德規范問題,主要涉及隱私泄露、算法偏見和信任危機導致的社會不公與道德失衡現象??茖W數據開放共享活動是基于公共利益這一道德準則進行的,其核心在于追求公平與正義的實現。但目前因AIGC在數據清洗和過濾處理方面存在漏洞,導致偏見信息、虛假信息、有毒信息的產生,從而造成社會歧視、信任危機等風險。此外,還存在各主體間為謀取經濟利益和聲譽利益,存在抄襲、侵占他人成果等不當行為,嚴重背離和侵犯了公平正義原則。

2 風險識別

本文基于AIGC在科學數據開放共享中已有的科研成果,聚焦AIGC在數據獲取方面的應用,從“物理”“事理”“人理”三維度探討AIGC應用于科學數據開放共享的風險因素。2.1 W——物理維度。基于WSR分析框架,AIGC視域下科學數據開放共享在物理維度的風險因素主要側重于技術層面,表現為數據安全風險、產權不清風險和技術依賴風險等。2.1.1 數據安全風險。AIGC技術因其使用不當、管控不力及自身問題等,應用到科學數據開放共享時,加速了數據安全風險,如數據篡改、數據泄露、數據濫用、數據污染等,損害了科學數據的真實性、安全性和可用性。

第一,真實性。由于數據源的質量、算法模型存在局限性,可能會產出虛假信息,誤導大眾認知。AIGC的核心是基于數據預訓練產生的大規模語言模型,由于缺乏對預訓練材料深層語義的精準把握,模型在構建更廣泛的理論框架或吸納新的反事實證據以驗證材料真實性方面顯得力不從心。同時,預訓練數據集規模龐大,對其進行全面的數據審計比較困難,因而可能生成虛假信息,對數據的真實性、客觀性、準確性提出了較大的挑戰。

第二,安全性。一方面,在科學數據開放共享中,AIGC需通過互聯網等網絡通信手段來實現數據共享,可能存在網絡攻擊等安全威脅。另一方面,經過對感知、理解、反饋等任務的深入學習和訓練,AIGC模型展現出卓越的邏輯推理和計算能力。若有人惡意使用該系統,可能會導致個人身份信息被非法獲取、生物識別技術(例如面部識別)失效等更嚴重的安全風險。[12]此外,AIGC視域下科學數據共享不受限,這種自由的數據挖掘過程可能有意或無意觸及關乎國家安全的重要數據集,如國家核心數據、政務數據乃至軍事情報等敏感信息。目前的AIGC領域對于此類數據的獲取尚無明確的法規約束,這無疑增加了數據泄露的風險,對國家安全和發展造成潛在威脅。

第三,可用性。AIGC視域下的科學數據具有多模態性,涵蓋文本、圖片、音像等形式,不同的科學數據可能涉及不同的數據格式和標準,但目前我國還未建立有針對性的數據標準和規范,仍存在數據格式不統一、數據標準不規范、數據軟件不兼容等問題,導致數據利用困難。

2.1.2 產權不清風險。AIGC技術能夠迅速生成知識,然而也不可避免地會伴隨著知識產權方面的爭議與挑戰。

首先,在科學數據開放共享的基礎上,AIGC模型的構建依賴于大量數據的訓練,這些訓練數據可能廣泛來源于互聯網、著作、期刊論文等多個渠道。但在模型的訓練過程中,可能會有意或無意地使用到未經授權的科學數據作為訓練語料,導致侵犯科學數據產權行為的發生。

其次,AIGC所生成的知識或作品在創作權歸屬方面引發了諸多討論。在這一知識生產過程中,涉及眾多利益相關者,如AI算法的開發者、科學數據的擁有者以及利用AIGC技術創造知識的用戶等。如何公平合理地分配知識產權,確保各方權益得到有效保障,值得進一步探討和思考。

2.1.3 技術依賴風險。AIGC技術優勢為科學數據開放共享提供高效、便捷服務的同時,也在一定程度上強化了技術依賴。人工智能算法理性會排斥人的情感及價值思考,導致人類不斷陷入人工智能技術所編織的“信息繭房”,減損主體思維和行動自主性,使人逐步淪為“技術附庸”。

2.2 S——事理維度?;赪SR分析框架,在事理維度上,AIGC視域下科學數據開放共享的風險體現在管理層面的挑戰,主要包括制度規范風險和管理機制風險。

2.2.1 制度規范風險??茖W數據開放共享需要考慮數據的合法性和可用性,在AIGC環境下,政府制定的數據獲取政策在保護公民隱私和促進數據利用之間,仍存在一些不足。

一是信息界定范圍不清。目前國內出臺的相關政策對個人敏感信息的范圍劃分不夠明確,有些新型個人信息隱私保護規定不夠完善。

二是數據權利歸屬不明。在中國現行的科學數據開放共享政策中,有關數據所有權的規定通常缺乏具體性,內容分散且表述抽象,沒有為數據所有者在數據開放和共享過程中的權利歸屬提供清晰的界定。這不僅關系到數據主體的切身利益,也對數據安全和保護構成潛在威脅。

三是可操作性較弱。盡管我國已出臺了一些法律法規來保障科學數據在開放共享時的隱私與安全,但大部分規定較為籠統,缺乏具體、可操作的執行標準和要求,使得在實際操作中難以有效執行和監管。

2.2.2 管理機制風險。管理風險主要體現在行業治理方面,缺乏清晰的責任問責機制。人工智能生成內容的責任歸屬問題,主要包括兩個方面:一是應明確由誰負責防范人工智能生成違法與不良內容;二是當人工智能生成違法或不良內容時,需明確由哪一方來承擔相應責任。如《生成式人工智能服務管理暫行辦法》規定僅由服務提供者承擔全部的內容提供者責任,并未對用戶責任進行劃分。

在大語言模型和神經網絡的加持下,人工智能生成內容存在較大的不確定性因素,且用戶可以不受限制地隨意使用和加工數據,容易滋生數據竊取、數據濫用、數據侵權等風險。此外,由于缺乏明晰的問責制度,若要保證數據來源的可靠性,則需服務提供者對所有數據以及生成內容的真實性進行逐一審核,將產生極大的運營成本,不利于為產業的健康發展營造良好的制度環境。[13]

2.3 R——人理維度?;赪SR分析框架,AIGC視域下科學數據開放共享在人理維度的風險體現在倫理道德層面,主要包括隱私泄露、算法偏見及信任危機等風險。

2.3.1 隱私泄露風險。AIGC作為新時代的大語言模型,在賦予我們處理海量數據能力的同時,也因其信息抽取對象的泛化而加劇了個人數據泄露的風險??茖W數據開放共享與個人數據保護存在一定程度上的沖突。為了推動數據的開放共享,我們需將包含個人信息的科學數據存儲在開放的數據知識庫中,使用戶可以自由獲取、挖掘、復制、傳播和利用這些數據,包括醫療數據、社會調查數據等。然而,這種做法明顯違背了個人數據保護的原則,容易引發數據隱私泄露的問題。且AIGC具備實時記錄個人姓名、性別、電話、位置等信息的能力,通過數據整理和智能算法,便可深入分析并推測出個人的偏好等隱私信息。然而,這種強大的信息處理能力同時也加劇了個人隱私泄露的風險。[14,15]

2.3.2 算法偏見風險。AIGC本質上是運用龐大的數據集進行訓練,以實現機器學習的AI技術,這些數據中不可避免地充斥著海量的未經篩選的內容信息,其中可能隱藏著偏見或歧視因素,可能會導致輸出結果產生偏差,生成大量虛假信息,滋生意識形態風險。如果模型開發者的價值觀存在對歷史、文化或種族的扭曲偏見,與主流價值觀背道而馳,那么在使用AIGC模型進行科研時,這些偏見可能以不易察覺的方式滲透進科研結果中,進而誤導公眾認知。隨著國內和國際形勢的復雜變化,以及東西方意識形態之間的博弈,AIGC等互聯網服務可能被不同的行為體,包括國家和非國家行為體所操縱,被用作意識形態傳播的工具。[16]

2.3.3 信任危機風險。對事物的評估依賴信息來源的可信度,如此人們便不可避免地依賴超過他們直接感知范圍之外的可靠知識,這本質上就是一種知識系統。[17]AIGC所展現的強智能性,使得公眾傾向于相信其所提供答案的準確性,但其應用也會使社會信任面臨危機。AIGC的算法較為復雜和缺乏透明度,用戶難以理解其決策結果的依據,必然會引起懷疑,進而影響其對數據使用的信任度。

3 風險共治

本文運用WSR模型,構建了AIGC視域下科學數據開放共享的風險識別的理論分析框架,在此基礎上,筆者從技術治理、主體協同、倫理遵循三個方面提出其解決路徑,為科學數據開放共享提供較為安全的生態環境。

3.1 加強技術治理,優化大語言模型推理能力。相關主體對AIGC的技術治理應重點關注數據安全和算法安全,主要措施包括建立完備的數據保護機制、強化數據清洗和過濾處理、優化大語言模型推理能力等。

首先,建立保護機制。在數據安全與隱私保護方面,一方面采用適當的加密技術,確保數據在傳輸過程中的安全,防止在數據傳輸階段發生的竊取或篡改;另一方面,安全的數據存儲方法也是防止數據被非法訪問或泄露的重要手段。除了技術保護,定期進行的數據安全審計以及對數據訪問權限的精細管理都是數據保護機制的重要組成部分。

其次,強化數據清洗。AIGC以機器學習為核心技術,數據質量對其順利運行至關重要。為了減少由于不準確或有偏差的數據所導致的預測錯誤或編碼偏差,一個有效的策略是在數據預處理階段進行底層數據標注和數據清洗過濾處理,以識別并排除虛假信息、有毒信息等,提高數據可信度。

最后,優化大語言模型推理能力。作為AIGC的研發主體,技術供應方應以更高的行業標準要求自己,尊重知識產權,不斷完善技術方案,提高模型訓練數據的質量。技術開發者應選擇結構合適、泛化能力強的模型,采用收斂快、不易過擬合的算法,對模型關鍵部件如Attention等進行調參,選擇合適的超參數,接著多次訓練多個模型組合,形成模型集成,以提高其穩定性,并持續使用新數據微調模型,使之適應環境變化。

技術開發者應利用開放的數據對機器進行預訓練,通過不斷迭代開發資源細粒度更高的模型,優化大語言模型推理能力,盡可能減少偏見性、虛假性、錯誤性內容,在進一步釋放科學數據活力的同時嚴格保障科學數據的安全,守好科學數據開放的物理防線。另外,依托我國豐富的紅色文化資源,技術供應方也應培養中國立場,積極自主開發具有中國特色的語言模型,將大量中華特色文化包含在內,同時吸收優秀外來文化,讓中國自主的AIGC模型以更開放包容的姿態,成為中外文化友好交流的載體。

3.2 主體協同共治,健全風險監管問責體系。AIGC視域下科學數據開放共享的參與主體涉及范圍較廣,大到國家政府,小到數據用戶,因此應通過多元主體協同共治,健全風險監管問責體系,規范市場秩序,促進數據共享。

從政府角度出發,國家等立法部門應加快AIGC相關法律法規的出臺。新技術的不斷涌現和快速迭代導致現行法律法規在科技發展面前存在一定程度的滯后性。AIGC的快速應用給科學數據開放共享帶來了新的風險與挑戰,如針對錯誤信息風險,政府相關機構應加強對AIGC技術應用的監管力度,并積極構建認證機構或標準體系,以保障AIGC產出內容的真實性和可靠性,防止虛假信息的擴散。針對隱私泄露風險,應制定完善的隱私保護法律法規,并對AIGC技術在數據使用、共享和存儲等環節實施嚴格的管理和監督,以確保個人隱私得到充分保護[18]。同時,針對知識產權風險,政府需明確與AIGC技術相關的知識產權歸屬,并采取保護措施,同時要嚴厲打擊侵權行為,以保障技術創新者的合法權益不受侵害。為科技創新營造良好的法治環境。政府還可廣泛聯系群眾,通過與各子機構合作明晰AIGC在科學數據開放中面臨的各種風險場景,盡可能預防可能產生的風險,避免其造成更大的社會危害。

從相關單位的角度出發,高校等科研機構不僅是數據生產者,更是科學數據保護的第一道屏障,因此在界定科學數據開放權限時,相關單位工作者應進行前瞻性、全角度的思考,確保重要信息不上網,嚴格保護國家秘密??蒲匈Y助機構要通過資金支持來保證科學數據的質量,并建立完善的評價體系,保障科學數據開放共享的推進以及數據的質量。行業協會應制定行業規范,構建監管機制,做好科學數據共享的監督者。

從服務提供者和使用者的角度出發,應樹立責任問責意識,明晰責任問責制度。一方面,服務提供者應積極履行對違法內容的過濾職責,對深度合成的內容進行明確的標識,同時對用戶進行必要的身份認證、風險提示以及內容審核;另一方面,當用戶故意使用人工智能生成違法內容或違反相關使用規定時,服務提供者應采取有效的阻止措施,此時可免于承擔相應責任。然而,若服務提供者未能履行這些義務,則可能面臨與服務使用者共同承擔責任的風險。責任問責制度的確立能夠強化各方責任意識,形成健康安全的內容生態。

3.3 遵循科技倫理,建立文化安全防御機制。首先,作為生成式人工智能的使用者,用戶在享受數據服務的同時也被賦予了數據辨別的義務。在AIGC大環境中,用戶應提升自己的信息素養,培養批判性思維,強化甄別虛假信息的能力;積極合法行使監管權限,對查詢結果抱以理性的態度,重在參考,輕于使用。在使用過程中發現錯誤信息時,應積極向相關部門報錯,不傳謠不造謠,不聽之任之,避免造成更嚴重的社會輿論影響[19]。此外,用戶還應遵循倫理原則和法律法規,確保數據的使用和處理不歧視任何個體或群體,不受種族、性別、年齡等因素的影響,不會侵犯隱私權和知識產權等基本權利。例如,醫療數據的使用需要符合倫理審查的要求,保護患者的隱私和權益。[20,21]

其次,在內外部文化安全威脅的背景下,相關主體應探索建立一個以國家為主導、多元主體參與治理的文化安全防御機制[22],構建安全指標體系,明確監測程序,實時、動態地監測和評估AIGC平臺及其內容信息,精準識別和控制潛在的風險。針對AIGC中觸及意識形態安全、違反社會倫理、引發民族和宗教矛盾以及侵犯個人權益等文化安全問題,應實施分層次、分類別的管理策略。

最后,作為AIGC技術的使用者,不應該成為技術的奴隸,要始終葆有“主人翁意識”,將現代技術作為實現我們目標的工具,始終讓“人工智慧”走在“人工智能”的前列,以人的意識帶動人工智能高質量發展。

4 結語

本文基于WSR理論分析框架,探討了AIGC視域下科學數據開放共享的風險與策略。筆者認為,在AIGC視域下,加強科學數據的開放共享、推進科學數據的綜合利用既是大數據時代科學數據工作面臨的重要機遇,同時也帶來了諸多挑戰,如滋生了數據泄露、數據濫用、數據歧視、版權爭議等風險。因此,要持續加強AIGC視域下科學數據開放共享的管理,從強化技術治理、主體協同共治、遵循科技倫理等方面多管齊下,提高AIGC視域下科學數據共享質量,進一步加強科學數據共享能力建設,為提升我國科技創新水平、服務國民經濟社會發展提供強有力的支撐。

主站蜘蛛池模板: 毛片手机在线看| 男人天堂亚洲天堂| 国产欧美视频在线观看| 四虎影视国产精品| 久久美女精品| 国产色图在线观看| 伊人婷婷色香五月综合缴缴情| 亚洲欧美不卡中文字幕| 亚洲国产综合精品中文第一| 国产区精品高清在线观看| 免费无码AV片在线观看中文| 亚洲日本中文字幕乱码中文| 久久黄色影院| 日本www在线视频| 国产高颜值露脸在线观看| 亚洲熟女偷拍| 青青草原国产精品啪啪视频| 久久青青草原亚洲av无码| 九色91在线视频| 国产免费好大好硬视频| 免费在线不卡视频| 青青操国产| 98精品全国免费观看视频| 亚洲精品少妇熟女| 毛片久久网站小视频| 久久综合九色综合97婷婷| 色视频久久| 久久a毛片| 亚洲国产精品日韩av专区| 国产一级在线观看www色| 久久婷婷综合色一区二区| 一级毛片a女人刺激视频免费| 偷拍久久网| 毛片网站免费在线观看| 97免费在线观看视频| 黄片在线永久| 激情亚洲天堂| 中文字幕乱码中文乱码51精品| 成年人久久黄色网站| 中文字幕乱妇无码AV在线| 无码视频国产精品一区二区| 欧美va亚洲va香蕉在线| 国产人成网线在线播放va| 3D动漫精品啪啪一区二区下载| 国产主播一区二区三区| 素人激情视频福利| 久草国产在线观看| 国产精品无码久久久久久| 国产自在自线午夜精品视频| 97一区二区在线播放| 欧美午夜精品| 亚洲欧美不卡视频| 99久久精品免费视频| 久久久久无码精品| 国产精品自在拍首页视频8| 亚洲一区二区三区在线视频| 午夜三级在线| 日本爱爱精品一区二区| 欧美亚洲国产精品第一页| 99国产精品国产高清一区二区| 亚洲精品中文字幕无乱码| 在线免费亚洲无码视频| 久久精品中文无码资源站| 91无码人妻精品一区| 亚洲中文字幕国产av| 波多野结衣一二三| 亚洲一区网站| 亚洲一区二区日韩欧美gif| 久久99国产乱子伦精品免| 五月婷婷丁香综合| 免费中文字幕在在线不卡| 深爱婷婷激情网| 国内自拍久第一页| 国产美女丝袜高潮| 99精品免费在线| 88av在线播放| 大香伊人久久| 久久国产精品麻豆系列| 亚洲成a人在线观看| 亚洲永久视频| 中文天堂在线视频| 97在线视频免费观看|