999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能中信用數據法律保護的邏輯與進路

2025-03-25 00:00:00劉浩
科技與法律 2025年2期

摘 "要:生成式人工智能場域下,信用數據法律保護是實現數字法治的關鍵一環。信用數據應以“用于識別判斷企業和個人信用狀況”作為核心判斷標準,其具有實現直接效益、承擔金融信貸以及維系社會信用的特有屬性。就信用數據的流程性風險而言,其存在生成式人工智能的違法爬取與算法濫用風險;就信用數據的內生性風險而言,其存在生成式人工智能的回溯流轉與深度偽造風險。信用數據的宏觀治理應當重申目的限制原則的約束、確保利益衡量原理的運用以及實現多元治理理念的貫徹。信用數據的具體保障進路應當圍繞事前監督的管理舉措、事中監管的審查機制以及事后救濟的責任分配展開,凸顯生成式人工智能場域下信用數據法律治理的效率性、安全性以及公平性。

關鍵詞:生成式人工智能;信用數據;風險治理;法律保障

中圖分類號:D 923 " " 文獻標志碼:A " " " 文章編號:2096-9783(2025)02?0103?11

自OpenAI推出自然語言處理工具ChatGPT、文生視頻工具Sora以來,以該類工具為代表的生成式人工智能(Generative Artificial Intelligence,以下簡稱GAI)實現了人機交互領域革命式的飛躍。當下,GAI在諸多領域的亮眼成就為人造科學與工程、生物學、醫學等基礎學科的融合發展鋪平了道路,其將減少真實人工產品和虛擬人工產品之間的差異,實現虛擬世界和物理世界中人類經驗和行為的交叉融合[1]。毋庸置疑,GAI的交互性、自主性以及創新性深刻地影響和改變了既有的人際生活關系、社會利益分配,成為推動數字經濟高質量發展、實現國家治理現代化的又一著力點。例如,2024年法國數據團隊基于公共服務實用信息訓練研發了模塊化GAI“Albert”,其旨在提升行政手續的效率而滿足行政機關提供公共服務的不同場景需要[2]。然而,GAI特有的傾向性預訓練語言模型、周期性數據處理流程、“黑箱式”算法邏輯規則等纏附諸多未知的風險,如美國一名律師借助ChatGPT搜集類案資料呈交法官,該機器人明確表示生成的案例信息“千真萬確”并且附帶了相關信息的出處,但法院最后證實,原告方所提交資料的判決結果和引語等全部是子虛烏有[3]。

既有研究尚未針對性地關注GAI中信用數據的風險治理和法律保護問題,但這是十分特殊且必要的。因為在完整的GAI運行過程中,信息抑或數據1成為構筑GAI應用的核心,是預訓練、算法決策、結果輸出三個階段的重要參數,是在不同神經網絡架構下開展機器學習、深度學習的“養料”。從金融風險來看,由AI生成的小作文欺騙性與迷惑性極強,低門檻、影響大的謠言出現抑或反轉讓以“信息+信心”為核心的股市市場交易秩序混亂、動搖投資者信心[4],造成資本市場嚴重的信用毀損。鑒于此,本文將GAI場域下信用數據作為研究對象并具體展開如下探討:分析信用數據有別于傳統數據的規范定位,探析GAI中信用數據潛在的法律風險,辨析GAI中實現信用數據審慎治理的宏觀邏輯,最后縷析GAI中信用數據法律保障的全流程進路。

一、生成式人工智能中信用數據的規范定位

信用與信用數據的關系在于:信用數據是傳統觀念上的信用在GAI場域下物理化的電磁記錄,而信用是信用數據的保護法益,二者分屬保護對象、保護目的范疇。信用數據的內涵和屬性決定了GAI場域中信用數據的保護范圍,有必要優先探尋其相應的規范定位。

(一)信用數據的基本內涵

從信用的發展歷程來看,信用數據的出現拓寬了法律對信用的保護場景。在鄉土社會的差序格局中,社會關系是逐漸從一個一個人推出去的,社會范圍是私人聯系的增加而構成的網絡[5],此時信用只有在私人聯系的“熟人”社會關系中發生意義,其調整的社會規范主要是道德而無需法律過多介入。在受到大數據、人工智能深遠影響的當前社會格局下,信用以數據為載體,在“陌生”社會關系中淡化了人格屬性而導向了財產屬性一側,法律規范便強化了保護的正當性根基。從鄉土社會到人工智能社會的轉型,信用也相應地發生了時代性的變遷:即交易者從基于人身血緣的信任、契約合同的信任逐漸轉化為對信息(數據)的真實性和有效性的信任,數據信用成為人與數據之間形成的一種單向信任的生產關系和社會關系[6]。比如,就有效性保護而言,在網絡交易平臺惡意刷競爭店鋪的銷量和信譽導致店鋪被平臺以虛假交易事由搜索降權,此種“反向刷單炒信”行為被司法實踐認定為破壞生產經營罪2,其大幅擴充了信用的法秩序保護場景。

從既有規范對信用信息基本內涵的框定來看,其主要包含“技術信用、經濟信用以及社會信用”三種類型。第一種,國標《信用基本術語》(GB/T 22117-2018)2.22將“信用信息”規定為:個人或組織在社會與經濟活動中產生的與信用有關的記錄,以及與評價其信用價值相關的各類信息。其聚焦國家技術標準領域,對信用信息采取了“信用或信用價值”的“相關性”判斷標準,其因界定范圍過于寬泛而屬于廣義層面的信用信息。第二種,2022年《社會信用體系建設法(向社會公開征求意見稿)》(以下簡稱《信用建設法》)第二條將其規定為:可用以識別具有完全民事行為能力的自然人、法人和非法人組織身份和信用狀況的信息。其圍繞社會信用體系建設的領域,對信用信息采取了“身份與信用狀況”的“可識別性”判斷標準。相較于第一種而言,第二種類型中的“可識別性”比前述“相關性”標準的識別范圍更窄,因而屬于中義層面的定義。第三種,2022年《征信業務管理辦法》(以下簡稱《征信辦法》)第三條將其規定為:依法采集,為金融等活動提供服務,用于識別判斷企業和個人信用狀況的基本信息、借貸信息、其他相關信息,以及基于前述信息形成的分析評價信息。其關注經濟信用的領域而采用了“合法性、目的性以及信用狀況的識別性”判斷標準,屬于狹義層面的界定。三種信用數據并非既有規范的內容沖突,而是從關涉業務場景進行的分類,因而難以按照某一時點規范的效力層級確定信用信息的統一內涵。實際上,信用大數據時代已不存在嚴格意義上的信用信息而無法通過列舉識別,無論是征信還是社會信用立法領域,為實現立法的安定性和周延性,應將“用于識別判斷企業和個人信用狀況”的信用目的作為判斷“信用信息”的核心標準[7]。唯有對信用信息基本內涵的識別標準達成共識,探討GAI中信用數據潛在的法律風險才有章可循。

(二)信用數據的特有屬性

《中華人民共和國民法典》第一千零二十四條第二款將信用作為名譽權保護內容之一,名譽權與信用的法律保護問題在名譽數據與信用數據的保護問題上存在競合關系。鑒于此,有必要對名譽數據與信用數據的規范屬性加以甄別。

第一,信用數據具有實現直接效益的功能,是信用主體提升市場競爭地位的關鍵要素。除了文首利用GAI生成與信用有關的虛假小作文造成股價損失外,信用與收益的直接性關聯還體現在互聯網電商領域。因為在電子商務領域,刷單炒信直接損害的是電子商務信用評價機制,刷單者偽造信用指標侵犯了消費者的知情權、造成了不公平競爭以及平臺運營者的巨大經濟損失[8]。類似的數據造假借助GAI迭代技術會變得愈發簡單和門檻極低,但其皆未必與民事主體的道德、能力、聲望,以及身體狀態等有關而關涉名譽權。

第二,信用數據具備承擔金融信貸的功能,是促進社會征信業務健康發展的核心要素。在征信領域,信用數據一般包含信息主體的借貸、擔保、欠稅、消費、生產經營等,在取得信息主體書面同意下,還得以涵蓋個人的收入、存款、有價證券、商業保險等。信用數據得以揭示金融市場信用風險、減少信息不對稱對市場效率的影響,授信方得以衡量貸款風險、減少交易成本、提高信貸決策效率;被授信方能夠降低實物抵押擔保負擔、提升融資力度;監管者可以提高金融體系的穩定性、穩定國家金融秩序以及優化營商環境[9]。盡管信用數據范圍十分廣泛,但《征信業管理條例》(以下簡稱《征信條例》)第十四條明確禁止征信機構采集有關個人宗教信仰、基因、指紋、血型、疾病等個人信息,然而實踐中的名譽侵權卻多與前述被禁止采集的數據存在密切關聯。

第三,信用數據具有維系社會信用的功能,是建立健全社會信用體系建設的基礎要素。《信用建設法》將社會信用體系區分為政務誠信、商務誠信、社會誠信、司法公信四大類,其皆離不開對信用數據的合理收集以及安全保障;依據其第五十八條,信息數據可界定包含基礎信用信息(用以識別信用信息主體身份和記載基本情況的信息)、能夠反映信用信息主體信用的信息(如行政許可、法院判決以及榮譽表彰等)兩類。于是,信用數據包含除了“個人信息”以外的其他數據,而關涉名譽權的數據則以“已識別”或者“可識別”為限,否則行為難以符合名譽貶損對象要件中的“他人性”要素。

二、生成式人工智能中信用數據的法律風險

眾所周知,GAI引發新一輪技術革命的同時也引起了各國對數據風險的擔憂,比如2023年意大利數據保護局(DPA)“一刀切式”地禁止使用ChatGPT,并限制OpenAI處理本國用戶信息,而歐盟則于2024年公布《人工智能法案》(以下簡稱AI Act)展現了對新技術的謹慎態度。GAI模式運行的流程性與信用數據的流動性決定了數據安全風險的泛在性,要探索GAI場域中信用數據的法律保護邏輯與進路,應結合GAI的“數據訓練、算法決策、結果輸出”運行階段展開風險分析。

(一)信用數據的流程性風險:生成式人工智能的違法爬取與算法濫用

其一,GAI的數據訓練階段存在對信用數據的違法爬取而引發安全性風險。第一,在數據訓練的輸出階段,驗證數據集預訓練依賴于GAI對原生性信用數據的正向式、主動地爬取而纏附危險。以ChatGPT為代表的GAI在預訓練階段需要大量的數據支撐,當其被投喂數據時能夠及時將社會所有個體的姓名、性別、電話、居住地址、出行軌跡、消費記錄、診療檔案等相關信息予以儲存記錄,此時僅需借助簡單的機器算法便可輕而易舉地推測出特定個體的個人偏好、財務狀況、信用評級等隱私信息,加劇了信息泄露和被濫用的潛在風險[10]。例如,2023年谷歌就曾被指控違法竊取數百萬用戶的數據來訓練AI,Clarkson律所起訴谷歌“一直在秘密竊取數億美國人在互聯網上創造和分享的一切”,并利用這些數據來訓練其AI產品(如Chatbot Bard),起訴書還稱谷歌在構建其產品時“幾乎占用了我們的整個數字足跡”,包括“創意和文案作品”[11]。第二,在數據訓練的輸入階段,GAI同樣能夠反向式、被動地借助系統模型將使用者輸入的文字、圖像、音頻等內容以數據形式違規留存。例如,2024年11月OpenAI隱私政策的第4條明確規定了“個人數據的保留”,即平臺保留用戶個人數據的時長取決于多種因素,其判斷取決于處理數據的目的、數量、性質、敏感性以及未經授權使用或披露造成的潛在風險等,但僅在某些情形下取決于用戶的個人設置,其平臺自主性決定程序極高而可能侵害GAI信用數據服務使用者的知情權、決定權以及刪除權等。尤其是在以WarrenQ-Chat為代表的AI金融垂直平臺中,信用主體數據處理的正當程序、合理期限等要素至關重要,其與信用主體的利益具有直接性關聯而安全保護必要性顯著增強。

其二,GAI的算法決策階段從自發到自覺的數據處理模式容易造成算法濫用而招致失秩性風險。第一,在GAI算法模型的自主研發中,研發者在預訓練階段就已經通過循環式人工標注的打分模型優化改進了原算法決策模型,將生成的信用數據內容以符合研發者、使用者同行人領域的偏好標準,抑或外行人領域的平行評價呈現,該算法對信用數據的形成邏輯固有地內含了某種歧視性和壟斷性風險。就歧視性風險而言,比如編程算法以一定的基準預先設立抓取的特定路徑而帶有明顯的個人偏見色彩;就實效性的征信數據而言,如若個人征信系統包含個人信息的數據庫更新頻次不足而導致數據不準確,則算法對數據分析的結果與個人真實的信用評價便不匹配,進而影響個人的貸款成功率等[12],其屬算法濫用造成信用主體的不當“畫像”、評分評級以及技術偏見,明顯造成以信用數據為核心的征信體系、社會信用建設體系的秩序性混亂。在風險社會中,風險對立分配的邏輯在于:此種分配不僅取決于一個人的絕對財富水平,還取決于一個人相對于他人的財富水平;尤其是在此種風險對立下并非每個人都能從危險加劇情境中擁有“私人逃生路線”,于是個人相較于他人財富水平的對比關系決定了是否會被分配諸多風險[13]。此種基于財富差異形成的風險分配邏輯,在GAI領域體現在算法設計的風險配置上:即在GAI三方法律關系下,算法研發者、服務提供者多以資力雄厚的網絡數據平臺、高新科技公司以及相關的金融信用公司為主,信用數據服務使用者可能因為未資本性實質參與算法的設計階段而明顯處于弱勢地位。于是,GAI中算法濫用(尤其是當前服務研發者與提供者多以混同存在)能夠形成?經營者過度集中而限制市場競爭,進而通過限制信用數據流通制造市場的規模性壟斷。比如,除去電子商務領域通過搜索引擎算法設計操縱店鋪主體信用的自然搜索結果、等級排序而侵害數據信用的真實有效外,部分企業基于算法使用形成的價格政策可能會因違反市場規則而嚴重侵害國民對市場信用的信賴。比如,在金融高頻交易領域,代表性的例子就是2014年美國的雅典娜資本調查事件,該資本編譯了一種算法用于實施非常經典但迄今為止難以想象的金融操作,即利用算法作為一種市場收盤標記策略,允許在收盤前的幾秒鐘進行大規模市場交易以影響最后的交易價格[14],通過算法濫用破壞信用數據的秩序價值內核。第二,GAI算法決策除了研發者的自主設計外同時包含了AI的自覺性部分,其形塑了“算法黑箱”生成信用數據機制的不可知性與可解釋性危機。在算法安全風險形成的機制中,人為性是安全風險的前因,人是一切安全風險的起點,“人的意志”經由開發訓練貫徹至“算法黑箱”的形成維護中,又以決策和行為的形式擊穿開發、應用乃至監管的場景層而抵達“風險側”[15]。針對此種周期性與往復式的算法決策修改、對非專業人士代碼技術解讀壁壘的考量,GAI研發者與提供者實際上難以向被決策方說明算法生成信用數據的數理邏輯。于是,GAI算法技術的門檻性導致信用數據存在不可解釋性的困難。同時,算法的應公開性與商業秘密的受保護性存在底層規范邏輯的沖突,于是GAI算法理解的非透明性造就了信用數據輸出的不可知性。

(二)信用數據的內生性風險:生成式人工智能的回溯流轉與深度偽造

其一,信用數據在GAI的結果輸出階段存在跨境的流動性風險。第一,該跨境流動性風險表現為對數據安全評估的違規風險。前已述及,信息數據包含識別性的基礎信用信息、反映主體信用的信息兩類。從事實上來看,其毫無疑問與個人信息存在重合。從規范上來看,《中華人民共和國數據出境安全評估辦法》(以下簡稱《評估辦法》)第二條明確規定,數據處理者在我國境內收集和產生的重要數據和個人信息的安全評估適用本辦法。《促進和規范數據跨境流動規定》(以下簡稱《流動規定》)第七條規定,作為境內關鍵信息基礎設施運營者的數據處理者向境外提供個人信息、重要數據(運營者以外的數據處理者向境外提供重要數據或者達到一定標準的個人、敏感個人信息)需要申報數據出境安全評估。《信用建設法》第六十四條亦規定,信用信息的處理應當在境內進行。然而,國內用戶在使用以ChatGPT為代表的域外GAI應用時,相關信息卻是傳輸至該服務提供者的境外數據處理中心,再經由AI應用反饋回復服務使用者;是否需要針對個人信息的收集、存儲履行具體的事前告知同意便存在難題,而且其存在事實上的數據出境行為[16]。因為,在使用者與GAI應用如此回溯交互之余,提供者已然完成域內信用數據的境外流轉以及留存,因而當然地違反前述強制性規范中的安全評估義務。第二,該跨境流動性風險體現為對國家安全以及社會公共利益的風險。從規范上來看,《評估辦法》第十九條和《中華人民共和國網絡數據安全管理條例》(以下簡稱《網安條例》)第六十二條將“重要數據”定義為:一旦遭到篡改、破壞、泄露或者非法獲取、非法利用等,可能危害國家安全、經濟運行、社會穩定、公共健康和安全等的數據。2021年《網絡安全標準實踐指南——網絡數據分類分級指引》(以下簡稱網安指南》)2.2則對“重要數據”又作出如下限制性規定:原則上不包含國家秘密、個人信息以及企業內部管理信息,但當個人信息達到“規模性”或者基于海量個人信息加工形成衍生數據而關涉國家安全、公共利益時不受此限。于是,識別性的基礎信用信息(即個人信息)和重要數據并非水火不容的概念,二者在前述謂之“規模性、關涉性”下存在包容的余地。從事實上來看,當前絕大多數的GAI應用除了支持自然語言文本、聲音、圖像以及函數調用等方式互動外,尚且配有數據實證分析、金融統計分析輸入的特色功能模塊,其為大規模、海量的信用數據跨境流動提供了可能。于是,信用數據的違規跨境流動不僅可能危及個人信用法益,而且極有可能危及國家安全、社會公共利益的超個人法益。也正是基于上述原因,中國支付清算協會就曾發布《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》,避免企業員工因使用此類智能化工具導致跨境數據泄露的風險出現。

其二,信用數據于GAI的結果輸出階段呈現數據失真性風險。在利用GAI深度合成領域,此種失真性風險體現在“深度偽造”(Deepfake)問題上。從技術上來看,深度偽造技術在誘發網絡攻擊方面帶來了毀滅性挑戰,該技術能夠創建生成虛假視頻、虛假圖像以及克隆語音信息,網絡釣魚者可以生成幾乎完美而足以代表各種大公司(主要是商業銀行)股東的語音復制品,說服員工和公眾泄露他們的登錄憑證,從而導致網絡攻擊[17]。例如,香港就曾發生詐騙分子利用AI的深度偽造技術從國外視聽網站YouTube上下載視頻,模仿跨國公司高層人員的聲音并制作AI“多人換臉”視頻,通過營造多人線上參與公司內部視頻會議的假象成功欺騙公司職員轉賬2億港元[18]。2023年《互聯網信息服務深度合成管理規定》第十四條規定,深度合成服務提供者和技術支持者在提供人臉、人聲等生物識別信息編輯功能時,應當提示該技術服務使用者依法告知被編輯的個人,并取得其單獨同意。然而,從實踐上來看,深度合成服務的提供者不僅可能難以取得個人的單獨授權同意,而且完全可能是根本不具備取得授權的規范意識。比如,在“林某肖像權糾紛案”中,原告是坐擁25.4萬粉絲的某短視頻博主,被告是運營“AI視頻換臉”微信小程序的某科技公司,法院查明被告未經同意便使用AI視頻換臉技術侵犯了原告肖像權3,本案難謂被告不存在取得原告單獨授權同意的機會。

三、生成式人工智能中信用數據的宏觀治理邏輯

雖然GAI的不當利用會造成信用數據的諸多風險,但毋庸置疑,其具有技術中立、技術向善的一面,有必要對GAI中信用數據宏觀的治理邏輯先予探討。

(一)重申目的限制原則的約束

一般認為,處理數據應當符合目的主義的原則源于《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第六條規定,其與最小必要原則存在親和性。同時,該法第十七、十九條又規定了個人信息處理目的的合理告知、保存期限的目的性限制等標準。此處,目的限制原則與GAI的技術邏輯存在緊張沖突關系。因為,從數據訓練階段來看,就OpenAI而言,其官網General FAQ部分就“何種類型的信息被用來訓練ChatGPT?”指出,GAI以及其他服務是使用互聯網上公開的信息、與第三方合作的信息、用戶或人力訓練師和研究人員提供和產出信息三類。而正如前文所述,OpenAI對用戶所提供的信息數據保留了極高的自主決定權,信用數據可能被反復性、無限次地用于模型訓練,于是目的原則的限制自然落空。從算法決策、結果輸出階段來看,對數據處理目的限制原則的偏離主要源自GAI的數據挖掘。即個人數據在被收集的時候需要被詳細說明且不得超越既定的目的限制,數據挖掘屬于數據收集過程中典型的二次目的;但由于數據挖掘的探索性本質,確定何種合理的模式實際上是不可能的,因而數據挖掘的目的具有不確定性而難以被目的性限制[19]。正是源自前述兩方面目的限制原則的適用窘境,有學者認為:在GAI模型訓練下,目的性限制原則陷入了循環論證的悖論;而在人機互動對話的場景下,該原則亦難以明確劃定個人數據的行為邊界,因為大模型與GAI所嵌入應用進行服務和數據的交互可能是實現服務所必要的[20]。

然而,目的性限制原則在人工智能領域中處理數據的“遇冷”并不意味著應當排除此原則的適用;相反,目的性限制原則在GAI的信用數據處理中具有重要指導作用而理應被強調和重申。理由包括如下幾個方面:第一,從既有處理信用數據的規范條文來看,《民法典》第一千零三十五條(明示處理信息的目的)、《個人信息保護法》第六條、《征信辦法》第十二、十五條(分別規定針對個人和企業采集信用信息的目的限制)以及意見稿《信用建設法》第六十條(處理信用信息與目的的直接性相關)等皆規定了數據處理的目的性限制抑或直接性關聯。第二,從信用數據的識別標準來看,“用于識別判斷企業和個人信用狀況”是判斷何為信用數據的核心標準,其同時也構成對GAI中信用數據處理的目的性限制。例如,在GAI的數據訓練、算法決策、結果輸出三個階段,其處理的信用數據范圍并不涵攝個人宗教信仰、基因、指紋、血型、疾病和病史信息等,其不僅是因為前述《征信條例》第十四條的禁止性規范的形式要求,更重要的實質原因在于此類數據與具體個人信用狀況并無直接性關聯,對其應當進行數據處理的場景性脫離。第三,從目的性限制原則與相關數據處理指導原則的關系角度來看,本原則處于個人數據保護法中的“基石”地位,如若削弱乃至放棄該原則,那么建立在本原則基礎之上而彼此關聯的最小必要性、透明、質量原則等皆會難以適用[21]。

(二)確保利益衡量原理的運用

利益衡量原理是個人數據處理領域的指導性原則,信用數據靜態控制與動態利用關系的對立實際上是對信用數據主體權益與GAI研發者、服務提供者利益沖突的反映。在人工智能場景下處理信用數據應當堅持利益衡量原理的運用,其正當性類型具體包含法益侵害闕如和保護優越法益原理兩種。第一,法益侵害闕如原理的適用尊重信用數據主體的自主性。即GAI服務的研發者與使用者已經遵循公開、透明原則合理地履行了信用數據的告知義務,明示了信用數據采集的方式、范圍以及可能存在的風險,詳細說明了數據的收集、存儲、使用、加工、傳輸、提供、公開、刪除等具體處理規則,GAI服務給予用戶信息選擇權。比如為防止終端用戶信息的泄露,訊飛公司生產的翻譯機專門設計了離線翻譯版本,用戶在離線狀態下使用該產品并不會將信息上傳至網絡空間;法律可以對AI制造者進行規制,即凡是能實現離線使用的產品,制造者應當保障終端用戶的信息選擇權而設計該替代性程序[22]。當GAI服務平臺遵守了《個人信息保護法》第十六條“處理者不得以個人不同意處理其個人信息或者撤回同意為由,拒絕提供產品或者服務;處理個人信息屬于提供產品或者服務所必需的除外”的規定為用戶提供了替代性方案、基礎性服務的情形下,使用者單獨同意選擇某種服務時,依據同意阻卻之法理,GAI服務平臺無需對信用數據風險承擔責任。第二,保護優越法益原理的適用強調人工智能平臺的決定權。即實施相關信用數據處理行為積極創設或者消極保護的利益明顯優越于對數據處理所創設的風險時,信用主體理應忍受必要的風險。從私法來看,《民法典》一千零三十六條第三款規定了為維護公共利益或自然人合法權益合理實施信息處理無須承擔民事責任。從專法來看,《個人信息保護法》第十三條第四至六項規定了應對突發公共衛生事件或緊急情況下人身財產安全、公共利益新聞報道與輿論監督、個人自行公開或合法公開的情形下無須取得個人同意。從域外來看,除了歐盟GDPR第6條(f)規定了“合法利益”事由外,英國信息專員辦公室(ICO)在《人工智能和數據保護指南》中同樣指出,數據處理者可以基于合法利益處理個人數據以開發和持續使用AI,但是處理者必須承擔額外責任以保護個人權益,證明數據處理的必要性和相稱性[23]。因此,在通用性、實時性AI廣泛普及之下,信用數據的處理自應確保利益衡量原理的適用,并以此構建GAI中的信用數據應用模塊。

(三)實現多元治理理念的貫徹

互聯網時代的重要特點是去中心化,國家與社會、政府與市民、國家機構與非國家機構之間的關系轉變為扁平化、去中心化的新模式,不同主體之間相互依賴、科層較少而漸趨于網絡體系的綜合治理[24]。因此,GAI場域下信用數據的治理既不能強調監管機關的過度“家長主義式”監管,也不能完全依賴于平臺“自由主義式”自治。因為,高度化的監管模式在周延保障信用數據安全的同時也會導致數據流通的低效和GAI應用模塊發展的受阻,而完全的平臺自治在全面實現數據賦能的同時也可能誘發信用主體的權益風險和GAI的失范危機。實際上,人工智能領域信用數據法律保護問題是技術與規范如何統籌協調的問題,其問題的本質在于如何妥當調和法律規范穩定性、適應性間的對立統一關系。應當認為,GAI場域下信用數據的治理需要堅持多元化的思維理念,尤其是注重將“內部管理型規制”引入人工智能領域。所謂“內部管理型規制”,是指為實現人工智能技術創新與風險防控的同頻共振,主張以內部管理為源頭治理而以最小成本遏制風險,在內部管理無效時訴諸外部規制,其呈現“平臺自律、政府治理、法律規制”的三種邏輯順位關系[25]。具體而言,平臺自治是目標,GAI研發者與服務提供者以及關聯的行業自律是實現GAI技術創新、AI場景應用優化的最前端,平臺內部風險的識別、介入以及制度性保障是信用數據安全保護的第一道屏障。行政監管是主體,多元治理并非淡化行政主體的主導地位,而是強調GAI研發者、服務提供者與行政監管主體的協商溝通,對GAI中信用數據流通實現有形的政府引導與無形的市場調節。法律規制是基礎,旨在將GAI中信用數據的流程性、內生性風險劃歸至損害賠償抑或制裁預防中實現規制,其處于治理的末端。總之,應將內部管理型的多元治理模式納入信用數據的治理,培育AI技術新發展的同時細化信用數據在AI場景中的治理規則,防范信用數據全流程性風險。

四、生成式人工智能中信用數據的具體保障進路

基于前述宏觀治理邏輯的指引,GAI中信用數據的具體保障進路可以圍繞事前監督、事中監管以及事后救濟三個層面展開具體探討。

(一)信用數據的事前監督保護:著力構建以效率為導向的管理舉措

事前監督能夠大幅降低GAI中信用數據治理的成本投入,在規避信用數據風險的同時實現經濟效益的穩定產出,應以效率為導向積極構建以下三種具體的管理舉措。

其一,強化推進GAI市場評估和信用數據保護顧問的雙維舉措。就GAI的市場評估準入而言,歐盟AI Act第6條以“是否對自然人的健康、安全或基本權利造成顯著損害風險”為標準,對AI系統有高風險、非高風險之分,當高風險人工智能系統作為產品的安全部件抑或本身屬于產品時,其必須接受第三方合格性評估,并根據附件所列的歐盟統一立法將該產品投放市場或投入服務。而我國《生成式人工智能服務管理暫行辦法 》(以下簡稱《暫行辦法》)第十七條僅聚焦于提供輿論屬性、社會動員能力的GAI服務領域,規定了AI應當按照國家有關規定開展安全評估。對比發現,歐盟對GAI的市場準入制度采取的是風險性標準,而我國采取的則是領域性標準。域外對GAI市場準入的范圍明顯寬于我國,未來我國人工智能領域可以借鑒該風險高低標準,將動態的市場準入和安全評估推行至對自然人、法人信用侵犯的信用數據治理領域,于事前端防范信用數據的違法爬取以及跨境流動風險。同時,除了《暫行辦法》第八條規定服務提供者應當對數據標注人員進行培訓、監督以及指導外,可以借鑒德國《聯邦數據保護法》第4f條第1款所規定的“個人數據保護顧問”制度,將其獨立作為阻擋層的制度保護實現GAI中信用數據治理的平臺自律。個人數據保護顧問作為公共機構和私法主體書面任命的常設主體能夠直接閱讀算法而比一般人和行政官員更容易發現問題,其本身作為企業員工所形成的信任關系不僅能夠保護企業內部的商業秘密,而且也使得外部的行政部門保持適當的謙抑性[26],契合內部管理型制度原理。

其二,積極落實GAI提供信用數據服務平臺的數字守門人義務。雖然數字平臺在本世紀初開始涌現,但直到最近它們都一直相對較少地受到監管限制,盡管監管機構一直在奮力跟上技術迭代以及迅速演化的商業環境,但強大的網絡效應、數據使用的高回報、低邊際成本、低分銷成本等都使處在核心的數字平臺市場易于傾斜[27]。為避免GAI服務平臺經營者集中、形成數據孤島效應以及將數據流通風險不當地轉嫁至服務使用者身上,有必要落實和強化GAI中服務提供平臺的代理式監管義務。歐盟2022年公布的《數字市場法案》(Digital Markets Act,以下簡稱DMA)確立了“守門人”(Gatekeeper)地位,明確規定禁止守門人使用第三方的終端用戶個人數據以及將不同主體提供的數據進行合并等義務,確保了數字領域市場中“業務用戶、終端用戶以及提供核心平臺服務提供者”三者間的競爭性、公平性以及穩定性關系。歐盟并非針對所有數據服務提供者皆加擔此種義務,而是對守門人規定了“指定條件、狀況審查、名單更新、義務更新”等限制性條件,比如就指定條件而言,DMA第3條規定了成為被指定“守門人”需要具備的條件要素:對內部市場有重大影響、提供核心平臺服務(比如在線中介服務、在線搜索引擎、云計算服務等)而成為業務用戶接觸終端用戶的重要門戶以及在業務中(包含在不久的將來)享有穩固和持久的地位。我國GAI信用數據治理領域可以借鑒此種守門人制度,將部分提供核心平臺服務的網絡數據平臺、金融信用公司等確立為信用數據領域的數字守門人,區分提供GAI信用數據服務存儲、查詢、公開、刪除等功能的業務用戶以及實際查詢使用的終端用戶,并針對數字守門人進行兩端信用數據訪問、數據移植以及數據互通制定相應的技術標準。

其三,溝通探索GAI提供信用數據服務平臺的監管沙盒新舉措。監管沙盒(Regulatory sandbox)是指,監管者與運營者齊聚一堂,后者開展新興產品、技術、服務方面的安全風險實驗,前者則學習和理解相關技術的特征機制而獲取法規起草的專業知識,是一種相對孤立的、循環的學習和實驗環境,根據實驗目的不同而有監管或政策沙盒、創新沙盒、軟件開發沙盒和數據沙盒四類。[28]從域外來看,歐盟AI Act不僅明確將AI沙盒視為應當支持的創新舉措,而且于第58條明確規定歐盟委員會應以法案形式確定AI沙盒的建立、開發、實施、運行以及監督方式,該法案以規定監管沙盒的參與資格、沙盒計劃以及退出機制等為共同原則。從域內來看,我國《暫行辦法》第十六條規定,生成式人工智能服務的監管主體包含了網信辦、發展改革委、工業和信息化部、公安部等,各個主管部門依據GAI技術特點、行業應用去完善和創新發展相適應的科學監管方式。因此,我國將監管沙盒作為GAI中信用數據治理的創新舉措具有前置規范層面的依據,有助于實現AI平臺自治的審慎治理目標。當然,聚焦于GAI提供信用數據領域,運營平臺所應溝通協商的監管主體除前述第16條規定的部門外,還應尤為重視向中國人民銀行提交監管沙盒入駐申請,由其對運營者信用數據的技術制度、安全管理、系統開發、風險防范進行齊備性、合規性以及可操作性審核,以此保障信用數據的高效率、低風險流通。

(二)信用數據的事中監管保護:積極健全以安全為價值的審查機制

對算法的事中監管是GAI中信用數據治理的主體部分以及重心所在,應當在數據治理的全生命周期中以安全為價值有序推動如下兩種審查機制。

其一,切實履行形式實質并重的平臺算法審查機制。第一,GAI信用數據服務提供者與終端用戶所簽訂的用戶使用協議、行業自律標準等“軟法”成為判斷算法透明、算法可知、算法精準的直接性依據,其屬于平臺算法形式審查機制的對象。比如在由GAI提供信用風險評估服務而訂立用戶使用協議時,為避免算法運營商以故弄玄虛的話術搪塞算法披露或歧視,應當樹立以效果為導向的算法披露理念而確保非專業人士能夠知悉該智能預測的邏輯與過程,其包括但不限于公開算法設計方式、數學模型及源代碼、如何使用預測變量評估信用這一目標變量、算法優劣等[29]。又如,我國金融領域的行業標準《人工智能算法金融應用評價規范》(JR/T 0221—2021)于5.1部分指出,金融行業應用AI算法安全性評價主要是從目標函數安全性、算法攻擊防范能力、算法依賴庫安全性、算法可追溯性、算法內控等方面提出了基本要求、評價方法與判定準則等。此類“軟法”除應符合前述相應的技術設計目的需要外,還應嵌入倫理規范、行業習慣以及廣義上的公序良俗、誠實信用等目的理性檢驗要素,其共同構成形式審查機制的基礎標準而對算法偏見、算法歧視問題予以初篩。第二,應當訴諸高位階規范擴大GAI場域下信用數據主體享有的算法解釋權范圍,通過對該解釋權的法定化建構平臺算法的實質審查機制。我國既有規范對信用數據服務提供者加擔算法解釋義務依然是條件式、鼓勵性以及局域性的,比如《暫行辦法》第十九條規定僅在配合主管部門監督檢查的場景下GAI提供者才應按要求對算法機制予以說明;又如,《互聯網信息服務算法推薦管理規定》第十二條規定鼓勵算法推薦服務提供者優化檢索、排序、選擇、推送等規則的透明度和可解釋性;再如,最高法《關于規范和加強人工智能司法應用的意見》第六條規定,保障AI系統中的司法數據采集管理模式、法律語義認知過程等各個環節能夠以可解釋、可測試、可驗證的方式接受相關責任主體的審查、評估和備案。然而,在包含自動化決策合同場景下,自動化決策者與相對人之間的民事主體關系已然從平等關系過渡為權力支配關系,創制算法解釋權的目的便旨在調整平衡前述地位關系,為相對方提供額外制度救濟以實現實質平等[30]。此種算法解釋權的內容涵攝信用數據處理行為、利弊結果、因果關系與責任歸屬、安全保障等,將其法定化能夠將算法“權力—支配”關系調整為算法“權利—義務”關系,其為判斷研發者、提供者成立不作為犯罪的作為義務來源、過失犯中注意義務的違反等提供規范指引。

其二,嚴格執行信用數據分類分級的安全審查機制。GAI場域下信用數據全鏈式處理包含了注釋、標注、清洗、脫敏、更新、充實和聚合等步驟,而前述“技術信用、經濟信用以及社會信用”的三種類型僅僅是信用數據內涵層面的大類劃分,其無法與數據處理的審查程序、違法后果相勾連,有必要探索新的審查識別機制。2021年《數據安全法》第二十一條規定“國家建立數據分類分級保護制度”并強調對“重要數據、核心數據”的安全保護,其確立了數據分類分級的基本原則而自然得以作為信用數據的審查識別機制存在。同時,2021年《網安指南》4.2按照《數據安全法》第二十一條規定進一步拓展了該數據分類分級框架,依據“遭到篡改、破壞、泄露或者非法獲取、非法利用,對國家安全、公共利益或者個人、組織合法權益造成的危害程度”,將數據從低到高分成“一般數據、重要數據、核心數據”。然而,2022年《中共中央 國務院關于構建數據基礎制度更好發揮數據要素作用的意見》(以下簡稱《數據二十條》)“第二部分第(三)項”對數據產權的分類分級確權授權是圍繞“公共數據、企業數據、個人數據”三種建立的。此時,存在依照“等級不同”和“主體不同”劃分的兩套數據分類分級標準而理應確定契合GAI場域下信用數據治理的區分標準。毋庸諱言,應當采取依照“等級不同”區分的標準而將信用數據相應地劃分為“一般信用數據、重要信用數據、核心信用數據”三類,以此開展信用數據的安全審查和識別保護機制。理由在于,第一,從效力等級上看,“等級不同”的分類標準有利于保證信用數據治理的穩定性。《數據二十條》作為政策性規范,其效力較低而富于變動性;相反,《數據安全法》作為專門性法律具有高位階、穩定性,能夠實現GAI場域下信用數據治理的連貫性。第二,從既有規范中看,《評估辦法》和《流動規定》的第二條在數據跨境安全和自由流動方面、《網安條例》第四章在網絡數據處理和數據安全方面皆明確使用了“重要數據”概念。因此,采取依照“等級不同”區分的標準有利于實現域內信用數據安全保護、域外信用數據跨境流動治理的銜接性。

(三)信用數據的事后救濟保護:注重實現以公平為目標的責任分配

事后救濟是GAI中信用數據治理的末端與最后保護的屏障,應當以公平為目標通過賠價(補償、賠償)和非難(報應、懲罰)實現風險結果的合理劃歸。

其一,作為GAI中信用數據損害責任分配的前提問題,應當堅持人工智能責任主體(能力)否定論。在前置法領域,責任的本質是應答,即行為人對自己行為的自我答責而以自由意志和自我決定為前提,AI因為不具有前述意志與決定而無法對自己行為予以應答,其只對人類輸入的指令有算法反應,對于自身所造成的侵權或損害責任不具有認識而勿論反應一說[31]。在刑法領域,非難的前提系以辨認和控制能力組成的責任能力為基礎,其性質可分為“犯罪能力說”與“刑罰適應能力說”[32],AI明顯既不具備有責行為能力、意思能力,抑或犯罪能力,同時也不可能享有被科處刑罰的資格。有鑒于此,GAI場域下信用數據的風險治理問題不應聚焦于人工智能本身的能否答責性問題上,探究信用數據的現實化危險應當如何實現結果歸屬公平性、責任承擔終局性的歸責機制問題成為邏輯之使然。

其二,應當注重GAI場域下信用數據處理現實化危險結果中的結果歸屬與責任承擔判斷。在典型的GAI提供信用數據服務領域,存在GAI研發者、服務提供者以及終端用戶使用者三方主體,對于侵害用戶信用數據的法益侵害后果并非斷然歸屬于研發者抑或提供者,其主要包括如下類型。第一,僅由研發者對損害結果負責的情形。比如在GAI信用數據服務研發階段采用了監管沙盒模式,研發者通過隱瞞處理信用數據的算法缺陷、算法漏洞或者偽造沙盒計劃、研發報告等欺詐手段通過了沙盒監管主體的監管抑或風險測評而實現GAI投入運行,此時提供者提供信用數據服務所造成的用戶損害結果應當單獨歸屬于研發者本身,其類似于間接正犯的構造(即研發者利用了無責任能力提供者的行為),而應當將被利用者行為造成的結果歸屬于利用者本身。第二,僅由提供者對損害結果負責的情形。信用數據事實上存在類似于前述依照“等級不同”區分的“一般信用數據、重要信用數據、核心信用數據”的劃分,提供者對經由分類分級的信用數據處理存在注意義務(安全保障義務)的程度高低問題。如果因為服務提供者未盡到合理的注意義務而錯誤設置算法導致運行失誤,那么其應當承擔刑事責任;如若平臺在設計伊始便合理設置算法邏輯、預測安全風險、將數據的保護需求嵌入算法以及合理展開全流程合規監管,那么算法生成錯誤結論就超出了平臺的期待可能性[33]。第三,僅由使用者對損害結果自我答責的情形。當提供者已明確告知使用者信用數據服務的禁止性條款,使用者依然利用信息系統漏洞、基于不法使用目的抑或通過刪除、干擾以及修改等方式破壞GAI系統功能進而導致信用數據泄露的,其因介入了明顯異常的被害人自身行為因素而切斷服務提供者、研發者對損害結果的因果力。

五、結語

伴隨著大數據、云計算、人工智能等高新技術的快速發展,傳統存在于“熟人間”的倫理信用、道德信用以及自然信用轉變為了“社會中”的技術信用、法律信用以及經濟信用。通過數據這一有形載體,具有社會經濟價值的信用開始具備識別性、無限復制性、非消耗性的新表現形式。眾所周知,GAI具有顯著放大信用數據效益與引發信用數據風險的優劣秉性,因而GAI場域下信用數據的法律治理既應注重AI技術迭代更新與異化風險的問題,同時也應當關注信用數據區別于名譽數據、隱私數據等數據的特有屬性。當前,GAI正由“人—人”交互的現實空間朝著“人—機”交互的虛擬空間迅速發展,信用數據治理的邏輯與進路需要進行相應地動態調整,通過規范與技術的融合實現科技向善而止于“智”善的遠景目標。

參考文獻:

[1] JOVANOVIC M. Generative artificial intelligence: trends and prospects[J]. Computer, 2022, 55(10): 107?112.

[2] 人工智能:你知道Albert嗎?[EB/OL]. (2024-05-22)[2024-11-01]. https: //www. info. gouv. fr/actualite/ia-connaissez-vous-albert.

[3] 武樂之.讓ChatGPT協助辦案 美國資深律師被坑[EB/OL]. (2023-05-29)[2024-12-01]. https: //m. gmw. cn/2023-05/29/content_1303388480. htm.

[4] 李華林. 依法治理股市AI“小作文”[N]. 經濟日報, 2024-06-20(007).

[5] 費孝通. 鄉土中國[M]. 北京: 生活·讀書·新知三聯書店, 2013: 34.

[6] 高艷東, 李瑩. 數據信用的刑法保護——以“流量黑灰產”為例[J]. 浙江大學學報(人文社會科學版), 2020, 50(3): 63?78.

[7] 王苑. 信用大數據背景下信用的私法保護[J]. 中國法律評論, 2023(1): 68?78.

[8] 王華偉. 刷單炒信的刑法適用與解釋理念[J]. 中國刑事法雜志, 2018(6): 95?111.

[9] 李曉安. 論信用的法權性質與權利歸屬[J]. 法學論壇, 2020, 35(2): 50?61.

[10] 龍柯宇. 生成式人工智能應用失范的法律規制研究——以ChatGPT和社交機器人為視角[J]. 東方法學, 2023(4): 44?55.

[11] CNN官網.谷歌被指控竊取數百萬用戶的數據來訓練其人工智能工具[EB/OL].(2023-07-12)[2024-12-01]. https: //edition. cnn. com/2023/07/11/tech/google-ai-lawsuit/index. html.

[12] 吳椒軍, 郭婉兒. 人工智能時代算法黑箱的法治化治理[J]. 科技與法律(中英文), 2021(1): 19?28.

[13] DEAN C. Risk society and the distribution of bads: theorizing class in the risk society[J]. The British Journal of Sociology, 2013, 64(1): 44?62.

[14] MARTY F. Algorithmes de prix, intelligence artificielle et équilibres collusifs[J]. Revue Internationale de Droit économique, 2017(2): 83?116.

[15] 陳嘉鑫,李寶誠.風險社會理論視域下生成式人工智能安全風險檢視與應對[EB/OL].(2024?11?5)[2024-12-31]. http: //kns. cnki. net/kcms/detail/61. 1167. G3. 2024 1105. 1028. 010. html.

[16] 畢文軒. 生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J]. 比較法研究, 2023(3): 155?172.

[17] DASH B, SHARMA P. Are ChatGPT and deepfake algorithms endangering the cybersecurity industry? a review[J]. International Journal of Engineering and Applied Sciences, 2023, 1(1): 1?5.

[18] 王展.被騙2億港元!男子參加多人視頻會議只有自己是真人[EB/OL]. (2024-03-04)[2024-12-01]. https: //sft. henan. gov. cn/2024/03?04/2956493. html.

[19] HAN J W, KAMBER M. Data mining: concepts and techniques[M]. Amsterdam: Elsevier, 2006: 679.

[20] 尹玉涵,李劍.生成式人工智能的個人信息保護問題及其規制[EB/OL].(2024-09-12)[2024-12-01]. https: //doi. org/10. 15886/j. cnki. hnus. 202310. 0241.

[21] 武騰. 人工智能時代個人數據保護的困境與出路[J] . 現代法學, 2024, 46(4): 116?130.

[22] 祝高峰. 論人工智能領域個人信息安全法律保護[J]. 重慶大學學報(社會科學版), 2020, 26(4): 150?160.

[23] 張濤. 生成式人工智能訓練數據集的法律風險與包容審慎規制[J]. 比較法研究, 2024(4): 86?103.

[24] 黃細江. 人工智能技術下的個人信息保護:邁向合作的多元治理[J]. 中國科技論壇, 2022(3): 140?147.

[25] 童云峰. 生成式人工智能技術風險的內部管理型規制[J] . 科學學研究, 2024, 42(10): 2038?2046.

[26] 林洹民. 自動決策算法的法律規制: 以數據活動顧問為核心的二元監管路徑[J]. 法律科學(西北政法大學學報), 2019, 37(3): 43?53.

[27] WITT A C. The digital markets act-regulating the wild west[J]. Common Market Law Review, 2023(60): 625?666.

[28] BOURA M. The digital regulatory framework through EU AI Act: The regulatory sandboxes' approach[J]. Athens Journal of Law, 2024, 10(3): 385?398.

[29] 賀譯葶. 人工智能在信用監管中應用的法律風險及其應對[J]. 甘肅社會科學, 2022(4): 142?150.

[30] 張凌寒. 商業自動化決策的算法解釋權研究[J]. 法律科學(西北政法大學學報), 2018, 36(3): 65?74.

[31] 劉艷紅. 人工智能的可解釋性與AI的法律責任問題研究[J]. 法制與社會發展, 2022, 28(1): 78?91.

[32] 張明楷. 刑法學[M]. 北京: 法律出版社,2021: 396?397.

[33] 陳禹衡. 生成式人工智能中個人信息保護的全流程合規體系構建[J]. 華東政法大學學報, 2024, 27(2): 37?51.

Logic and Approach of Legal Protection of Credit Data

in Generative Artificial Intelligence

Liu Hao

(School of Law, Tsinghua University, Beijing 100084, China)

Abstract: In the field of Generative Artificial Intelligence, legal protection of credit data is a crucial link in realizing digital rule of law. Credit data should take \"used for identifying and judging the credit status of enterprises and individuals\" as the core criterion. It has unique attributes such as realizing direct benefits, undertaking financial credit, and maintaining social credit. In terms of process risks of credit data, there are risks of illegal crawling and algorithm abuse by Generative Artificial Intelligence. Regarding endogenous risks of credit data, there are risks of retrospective circulation and deep forgery by Generative Artificial Intelligence. Macro governance of credit data should reaffirm the constraints of the principle of purpose limitation, ensure the application of the principle of interest measurement, and realize the implementation of the concept of multi-governance. The specific guarantee approach for credit data should revolve around management measures of pre-event supervision, review mechanisms of in-event supervision, and responsibility allocation of post-event relief, highlighting the efficiency, security, and fairness of legal governance of credit data in the field of Generative Artificial Intelligence.

Keywords: GAI; credit data; risk management; legal protection

主站蜘蛛池模板: 欧美一区二区三区国产精品| 亚洲成人精品在线| 伊人色在线视频| 精品久久久久久中文字幕女| 高清国产在线| 精品国产网站| 91极品美女高潮叫床在线观看| 国产成人综合日韩精品无码不卡| 成人福利在线看| 亚洲无码视频喷水| 亚洲无线视频| 亚洲欧洲自拍拍偷午夜色无码| 老司国产精品视频91| 欧美视频二区| 欧美日韩国产成人高清视频| 人人91人人澡人人妻人人爽| 久久国产乱子| 中文字幕在线欧美| 日韩欧美亚洲国产成人综合| 国产精品专区第一页在线观看| 伊人久久综在合线亚洲91| 色婷婷狠狠干| 国产第八页| 国产欧美高清| 国产精品密蕾丝视频| 精品无码日韩国产不卡av| 亚洲成AV人手机在线观看网站| 无码AV日韩一二三区| 欧美国产视频| 亚洲香蕉在线| 欧美激情二区三区| 日本在线视频免费| 九九精品在线观看| 亚洲精品va| 亚洲人成在线免费观看| 成人亚洲国产| 99在线视频免费| 99国产精品免费观看视频| 在线观看亚洲人成网站| 国产成本人片免费a∨短片| 在线日本国产成人免费的| 91激情视频| 亚洲中文字幕无码爆乳| 三级欧美在线| 日韩精品无码免费专网站| 欧美精品二区| 亚洲视频四区| 欧美不卡二区| 一本色道久久88亚洲综合| 国产三级国产精品国产普男人| 久草美女视频| 香蕉久久国产超碰青草| 国产欧美日韩视频怡春院| 欧美成人精品在线| jizz国产视频| 不卡无码网| 日韩视频免费| av无码久久精品| 亚洲另类国产欧美一区二区| 精品午夜国产福利观看| 美女扒开下面流白浆在线试听| 欧美中文字幕一区| 婷婷综合亚洲| 免费毛片全部不收费的| 毛片视频网址| 色妞永久免费视频| 666精品国产精品亚洲| 高清不卡一区二区三区香蕉| 国产麻豆精品久久一二三| 欧美另类图片视频无弹跳第一页| 日韩免费毛片视频| 国语少妇高潮| 中文国产成人精品久久| 国产精品2| 午夜综合网| 99国产精品一区二区| 在线免费a视频| 久久久久久久97| 久久青草免费91线频观看不卡| 婷婷伊人久久| 视频一区亚洲| 亚洲人成人无码www|