999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的法律定位與分層治理

2023-10-25 12:05:23張凌寒
現代法學 2023年4期

張凌寒

摘要:生成式人工智能改變了數字社會的生產架構,向既有的技術治理體系提出挑戰。一是生成式人工智能呈現“基礎模型—專業模型—服務應用” 的分層業態,無法在現有的“技術支持者—服務提供者—內容生產者” 監管框架中找到適配的法律定位;二是其傳播模式和技術指標使得原有規制工具難以適用。生成式人工智能治理應符合其功能業態的技術邏輯,也應基于其在數字社會生產的地位,重新認識和調整生成式人工智能的法律定位,將模型作為新型的法律治理對象。生成式人工智能的基礎模型因可接入千行百業而具有通用性,因同時提供信息內容與機器所需合成數據而具有強大賦能性,是人工智能時代的新型數字基礎設施。應構建“ 基礎模型—專業模型—服務應用” 的分層治理體系,在不同的層次適配不同的規制思路與工具。在基礎模型層以發展為導向,將其作為數字社會新型基礎設施設置法律制度;在專業模型層以審慎包容為理念,進行分級分類并設置合理避風港規則;在服務應用層實施敏捷治理,建立合理容錯制度。由此,我國得以從單一場景的算法治理發展為適應不同治理目標的復合型系統性治理。

關鍵詞:生成式人工智能;分層治理;數字基礎設施;模型規制

中圖分類號:DF03 文獻標志碼:A DOI:10.3969/ j. issn.1001-2397.2023.04.09

一、問題的提出

從美國人工智能公司OpenAI 推出的爆款應用ChatGPT 到其迭代產品GPT-4 上線問世,僅僅間隔4 個月時間。相比ChatGPT,GPT-4 實現了幾個方面的飛躍式提升:識圖能力得到強化,文字輸入限制提升,回答準確性顯著提高,能夠生成歌詞、創意文本,并實現不同風格切換。一時之間,各大互聯網公司紛紛在2023 年3 月內發布研發成果:著名人工智能繪畫工具Midjourney 升級至Midjourney V5;谷歌開放大語言模型 PaLM 的 API,同時發布了幫助開發者快速構建生成式 AI 應用的工具 MakerSuite;Adobe 全新創意生成式人工智能Firefly 亮相;百度發布文心一言,等等。大模型驅動的生成式人工智能以前所未有的態勢闖入了社會生活的方方面面,不僅推動人工智能技術進入新的時代,也可以預見其將在基礎科學研究、學術出版、醫藥研發、教育等多個領域帶來深刻影響。

預訓練大模型加速了人工智能技術的迭代發展,以ChatGPT 為代表的生成式人工智能并非曇花一現。其對社會的深遠影響可體現在以下三個層面:第一,在知識生產層面,科研方法不再受困于自由度過高引起的“維度災難”,深度學習可以承載海量計算,科研范式將從效率比較低的“作坊模式”轉向“平臺模式”;第二,在人機關系層面,信息內容傳播方式從平臺加算法的推薦信息流傳播,到一對一智慧問答傳播,實現了認知層面的人機對齊;第三,在產業發展層面,ChatGPT 類生成式人工智能大模型的主要功能在于為產業賦能,其可以接入多個垂直行業應用提高生產效率。

生成式人工智能表現雖然驚艷,但帶來的風險與法律挑戰同樣令人擔憂。其知識產權侵權、生成虛假信息問題受到廣泛關注,同時,它在訓練過程中需要被“投喂”海量數據的來源問題、它所生產的內容中潛在的歧視問題,給數據安全、算法安全、網絡謠言、數據主權、國家安全等方面帶來潛在風險。生成式人工智能的發展超出各國監管預期,因此尚未與各國法律中對個人信息處理者、數據處理者與算法服務提供者的相關義務協調銜接。正是考慮到生成式人工智能給社會治理等各方面帶來的挑戰,各國政府不約而同做出了相應的立法與監管動作。意大利宣布從3 月31 日起禁止使用ChatGPT,同時對其隱私安全問題立案調查。德國、法國、愛爾蘭等國也效仿意大利的做法,加強對生成式人工智能的監管。4 月11 日,美國商務部下屬機構也發布“人工智能問責政策”征求意見稿,就是否需要對ChatGPT 等人工智能工具監管征求意見。同日,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(下文簡稱《辦法(征求意見稿)》),擬規范生成式人工智能的發展。2023 年7 月10 日,《生成式人工智能服務管理暫行辦法》公布。

當前,生成式人工智能的治理仍是多方聚焦共商的重要話題。一是我國的網絡治理與算法監管一直以來以服務提供者作為抓手,要求其承擔主體責任并履行一系列網絡、數據、算法的安全運行義務,但生成式人工智能以預訓練大模型作為技術基座,原有以服務提供者為抓手的監管框架無法直接將義務施加于生成式人工智能技術提供者。二是目前對于生成式人工智能服務的定位無法確定,顯然《互聯網信息服務深度合成管理規定》(下文簡稱《深度合成管理規定》)對技術支持者僅將其作為服務提供者的輔助者,范圍過于狹窄,無法應對居于技術運行關鍵地位的生成式人工智能技術提供者。三是原有的算法治理框架諸多具體制度均以解決企業和監管部門的信息不對稱為目標,算法備案、算法透明、算法解釋等均以企業向監管部門披露信息為目的。但生成式人工智能的預訓練大模型海量的訓練數據和數以千億的參數設置顯然進一步加劇了監管工具的適用難度。甚至可以說,在面對生成式人工智能時,社會公眾、監管部門,甚至開發企業本身都共同面對著未知領域。

此次生成式人工智能的監管思路,相比于深度合成的監管確實體現出監管邏輯更新和制度體系迭代的新趨勢。但也需要指出,《辦法(征求意見稿)》仍采取算法和深度合成的評估、標注等監管工具,其規制的主要對象仍是信息內容服務。然而,生成式人工智能的功能遠不止提供信息內容服務,智慧問答只是其諸多功能中的一個。生成式人工智能可以作為“技術基座”賦能金融、醫療、自動駕駛等多個領域。在產業分層中,生成式人工智能首先通過海量數據使得生成式人工智能底層大模型“見多識廣”,具有強大能力;其次通過“術業有專攻”的專業優化訓練,讓其適配不同行業和場景;再次可以向C 端用戶直接提供服務應用。未來將為千行百業賦能,成為人工智能時代的數字基礎設施。

本文主要討論生成式人工智能如何在法律體系中定位以及監管框架構建。生成式人工智能的技術躍遷正在推進產業變革,現有監管體系亦面臨挑戰,制度應如何回應? 技術與社會制度的關系正在超越線性的決定論,制度可影響技術發展的進程但無法控制其進化的路徑。本文的討論突破了機械決定論和傳統線性思維方式,強調技術與制度的交互作用。生成式人工智能正在改變數字社會生產結構與社會關系。制度應面對技術發展,合理定位并與技術形成良性互動。

二、生成式人工智能改變網絡治理底層架構帶來法律定位困難與監管挑戰

我國網絡法律制度框架基本搭建完成,一直以來的網絡治理不約而同以網絡服務提供者作為關鍵主體,因此平臺責任一直是技術治理的核心議題。相對而言,技術支持者由于并不與用戶直接發生互動因而并非規制的重點。我國的人工智能治理體系中,對技術支持者的要求一般為遵循人工智能倫理的軟性要求,硬性要求僅在《深度合成管理規定》有所規定,即參照服務提供者承擔一定的合規義務。此外,為了解決監管部門與技術企業信息不對稱的問題,我國的監管工具箱包括算法備案、算法檢查、算法解釋說明等。這個規制體系適應平臺聚合用戶生產內容并通過算法進行信息推送的數字生產邏輯,但在人工智能生成內容時代則存在一系列制度上的不適應之處。

(一)現有監管框架的“技術支持者—服務提供者—內容生產者”體系及其邏輯

數據、算法、平臺都是人工智能治理的具體對象。近十年間,我國圍繞平臺經濟的興起建立起現有的網絡法律制度框架。平臺作為服務提供者是網絡法律規則的核心規制對象,平臺責任也成為數字經濟治理的核心議題。后續隨著技術應用的發展,我國的網絡治理框架向前延伸至“技術支持者”。為了內容監管的需要,也將“內容生產者”納入了網絡治理體系,形成了依照“技術支持者—服務提供者—內容生產者”三類主體分別設置法律責任,以服務提供者為核心抓手的規制體系。

網絡服務提供者(平臺)是匯聚用戶生產的信息內容和調動生產資源要素的社會生產組織者。服務提供者的責任內容逐漸豐富的過程,也是平臺逐步在數字社會生產中組織更多社會資源、加強數字基礎設施建設與增強對生產要素控制力的過程。服務提供者不斷整合信息基礎服務(如身份認證、物流)、交易流程、信用評價、內容推薦,并把勞動力(如騎手)、實體資源(如網約車、飯店)等生產性資源鏈接到網絡上,改變了工業經濟生產方式,形成了依托服務提供者調動生產資源、匹配多方需求的網絡,通過海量用戶吸引更多的服務鏈接到平臺上形成網絡效應。因此,網絡服務提供者的法律義務在近年來急劇擴張,國家從個人信息保護義務、數據安全、算法安全、信息內容安全等多個方面均提出了壓實主體責任的主張。

具體到信息內容領域,我國逐步形成了以服務提供者為核心,向前延伸至技術支持者,同時擴展到內容生產者的治理鏈條。《網絡信息內容生態治理規定》規定了內容生產者的范圍,即制作、復制、發布網絡信息內容的組織或者個人。技術支持者進入規制范圍則源自《深度合成管理規定》,主要是指為服務提供者提供技術支持,如提供具有編輯生物識別等特定信息功能的模型、模板等工具的技術者。信息內容安全的治理體系依照從內容生產(內容生產者)、傳播過程(服務提供者)和用戶接收終端(用戶)流程構建。內容生產環節包括在權威信息源通過發放互聯網新聞牌照進行控制,在用戶信息源通過賬戶賬號管理避免機器人、水軍、僵尸賬號等問題,并要求以上內容生產者承擔遵守內容安全底線的義務;在傳播過程中壓實服務提供者的平臺主體責任,要求平臺作為服務提供者建立包括過濾、辟謠、提示、標記、應急、刪除等機制的安全管理體系,并同時管理算法控制推薦信息流。對技術支持者的要求始于《深度合成管理規定》,因其模板等技術支持可以影響內容生成。

服務提供者始終是算法和人工智能監管的重點,對技術開發層的技術支持者則多為倫理要求,少有直接規制。人工智能技術有待解決的風險包括信任風險、公平風險、失控風險、社會風險、責任風險,對應的治理需求則是實現人工智能的透明度、公平性、可控性、包容性和可問責性。一般認為,我國人工智能治理中對于算法系統設計使用的公開透明、算法結果的公正、相應問責機制的建立等制度基本由現有算法監管體系實現。這些制度的最終落腳點仍落在服務提供者身上。

綜上所述,我國的網絡治理體系以服務提供者(平臺)作為核心抓手是基于其數字社會生產組織者的地位。在信息內容領域更是明確了“技術支持者—服務提供者—內容生產者”的監管框架,規制對象一般為服務提供者和內容生產者,技術支持者僅由于對信息內容的影響剛剛被納入監管范圍。

( 二)生成式人工智能的分層業態突破主體界分引發法律定位困難

生成式人工智能整個產業呈現明顯的分層,區別于原有的“技術支持者—服務提供者—內容生產者”相對涇渭分明的法律主體界分,從底層的基礎模型開始即可對終端的服務應用層內容生產產生直接影響。生成式人工智能整體呈現將技術支持、服務提供與內容生產“三位一體”融合的技術形態,打破了現有的網絡治理法律制度對數字社會生產方式在結構方面的底層設定。

生成式人工智能的業態可分為三個層次,分別為“基礎模型—專業模型—服務應用”。第一層為基礎模型層。可以將基礎模型層理解為操作系統,世界范圍內可能存在少量具有競爭關系的通用性基礎模型,以及若干在特定行業高價值專業化的基礎模型。但由于訓練開發成本驚人,因此只能由少數知名企業與機構提供。超千億參數的大模型研發,并不僅僅是算法問題,而是囊括了底層龐大算力、網絡、大數據、機器學習等諸多領域的復雜系統性工程,需要有超大規模人工智能基礎設施的支撐。生成式人工智能大模型與云計算相互依賴,在云服務基礎上疊加模型即服務的業態,可為專業模型層提供人工智能基礎服務,也可直接為客戶端用戶提供服務。

第二層為專業模型層。在基礎模型的技術支持下,企業可通過深度學習平臺等進行適應專業垂直細分領域和場景的個性化定制。作為下游垂直細分領域的開發者,可以在基礎模型的基礎上簡化開發工作,并以專業模型為基礎開發服務應用。與開發昂貴的基礎模型不同,產品模型是在基礎模型基礎上進行專業領域知識與專業數據的優化訓練。這是因為直接將基礎模型應用于專業領域存在可信性不足的問題,也會由于缺乏專業知識導致表現不佳,如專門為生物制藥提供服務的產品模型,專門構建融合了領域知識的大模型分子圖預訓練模型,應用于藥物設計、靶點發現等生物制藥領域,并將其作為生物制藥模型的核心基礎。這類專業模型可被用于金融、就業、生物醫藥、教育等領域,根據垂直細分場景需求專門訓練或定制。

第三層為服務應用層。該層兼具技術與內容生產者角色,如應用于搜索引擎、智能問答、音視頻生成,直接為客戶端用戶提供服務。當基礎模型直接提供客戶端的智慧問答時,就成為了服務應用層,如ChatGPT 即基礎模型直接為用戶提供智慧問答服務。

技術躍遷突破了現有法律制度的底層設定。“技術支持者—服務提供者—內容生產者”的法律主體界分已經隨著技術的發展被逐漸消解。先是近年來技術中立原則被立法和判例屢次否認,服務提供者和內容生產者的角色界限已經不再明晰。生成式人工智能的大模型進一步將三者功能實質上融為一體,既可以模型即服務的形式為企業提供技術服務,又可以通過智慧問答的方式直接提供對用戶的內容生成,法律主體的界限在技術實際運行中已經模糊。

互聯網發展初期的技術結構,也就是專業生產內容時代確立的“網絡服務提供者”與“內容生產者”的二元結構已經隨著技術發展被逐漸消解。在用戶生成內容時代,平臺是“服務提供者”,用戶取代專業媒體成為海量的活躍于平臺的“內容生產者”。平臺通過算法控制用戶生成內容的信息流,既是信源又是信道,成為“基于算法”的信息發布者。① 平臺(服務提供者)基于推薦算法對信息流的控制,使其一定程度上具有了內容生產者的性質,經過了較長的理論探討和司法判例才在司法判例中得到承認。

生成式人工智能的底層通用能力直接打破了網絡治理領域一直以來的網絡服務提供者與信息內容生產者的二元藩籬,更是進一步將“技術支持者”的功能與上述二者相融合。例如,ChatGPT 可以被接入智能客服場景,當用戶與智能客服發生對話時,其提供的內容既直接與基礎模型的預訓練數據與參數有關,也與專業模型的優化垂直領域訓練數據直接相關。有學者從劃分標準、規則適用、理論體系等方面論證了生成式人工智能服務提供者在形式上符合網絡內容服務提供者的定義,但在實質意義上不宜將其認定為網絡內容服務提供者。與此同時,在模型即服務的業態下,無論是通過API 接口介入基礎模型并保持在線的形式,還是提供開源基礎模型服務的形式,其在現有監管框架內又同時符合“技術支持者”和“服務提供者”角色。

如果說用戶生成內容時代,法律可以通過提高平臺基于算法的注意義務來進行法律角色與責任規則的調適,那么,在人工智能生成內容時代,三分的法律主體認定規則是否有存在必要都成了問題。生成式人工智能使得數字社會生產方式的結構已經發生變化,以原有的主體為核心的治理模式無法應對技術的發展。

(三)生成式人工智能的傳播模式與技術指標難以適用原有監管工具

生成式人工智能的技術躍遷,已經形成了底層技術基座與產業技術鏈條,訓練數據與參數指數級增長,打破了現有的網絡治理法律制度對數字社會生產方式在信息傳播方式方面的底層設定。這使得圍繞信息不對稱建立起來的透明度監管工具箱面臨著困難,信息內容傳播中的責任認定和責任分配也面臨著挑戰。

產業模式和技術參數指標決定了透明度的監管工具箱的適用困難。生成式人工智能的預訓練大模型類似于其在海量數據的自監督學習階段完成“基礎”教育,然后再由垂直產業企業根據自身需要進行專門性訓練和參數微調,類似于“專業”教育。過去算法監管針對的是分散化的模型研發模式,現在的預訓練大模型具有通用性和泛化性,帶來了標準化的人工智能研發范式。在共享參數、多個主體在不同環節分別訓練的情況下,信息披露變得愈加艱難。從技術指標上看,大模型參數規模逐步提升至千億、萬億,數據特征高維、模態格式多樣的趨勢也逐漸明顯,計算復雜度會隨之呈指數增加,這意味著人工智能的可解釋性更差。除了數據和參數的指數級增長,生成式人工智能可從給定數據中直接估計一個分布并生成新數據,可發現同類數據本身的相似度但非復制,給自動化決策結果的解釋說明帶來了更多困難。

生成式人工智能改變了網絡信息傳播方式,這使得信息內容安全方面的責任認定和責任分配規則面臨挑戰。生成式人工智能生成的內容更加個性化、定制化,投放方式更為精準。信息傳播方式從“信息的搜索和呈現”,如推薦信息流、搜索引擎等方式,跨越到了“獨立解決問題”的方式。在為用戶解決問題(如協助創作、回答、完成任務)的過程中將定制化的產品或者服務分發給用戶。這是否落入《網絡安全法》第24 條有關網絡實名制的范圍內呢? 智能問答難以精確歸屬于“為用戶提供信息發布、即時通訊等服務”,因此生成式人工智能是否應貫徹網絡實名制的要求存在爭議。此外,如果在用戶的提問引導下,生成式人工智能產出了不符合信息內容安全的結果,生成式人工智能服務提供者是否要承擔“內容生產者”的義務呢? 在與用戶的互動中,生成式人工智能可以進一步依據用戶需求和使用習慣調整輸出內容。內容的產生是一個動態迭代和優化的過程,可以通過收集反饋和評估效果不斷調整和改進。這種情況下,用戶與生成式人工智能服務提供者共同影響生成的內容,這使得有關信息網絡傳播的定義和法律責任認定規則都可能面臨挑戰。

綜上所述,生成式人工智能不僅是人工智能技術的迭代革命,也意味著數字社會生產方式進一步向前推進。一方面,生成式人工智能產業呈現分層狀態,“基礎模型—專業模型—服務應用”的技術業態使得各層兼具“技術支持者—服務提供者—內容生產者”功能 ;另一方面,生成式人工智能改變了網絡信息傳播方式,訓練數據與參數指數級增長。生成式人工智能的技術特點和產業形態打破了現有的網絡治理法律制度對數字社會生產方式在結構與信息傳播方式方面的底層設定,本質上重構了網絡法的底層架構,這必然要求對其法律地位和治理框架進行重新認識和調整。

三、生成式人工智能分層業態下的法律定位:基礎模型層是數字基礎設施

面對一套技術系統,首要的是判斷其究竟是一個獨立的技術系統,還是一整套生產方式。討論生成式人工智能的法律角色及法律治理,需要究其本質,探討其在數字社會生產中對生產方式的影響。生成式人工智能的基礎模型因可接入千行百業而具有通用性,推動著數據要素流動以及具有公共性的融合計算服務體系建立;同時提供網絡信息內容與機器所需合成數據具有強大賦能性,是人工智能時代的新型數字基礎設施。作為新型數字基礎設施,生成式人工智能基礎模型本身具有通用性,并且因為對下游產業的控制力而具有公共性。

(一)基礎模型融合數據算法算力三要素成為獨立規制對象

基礎模型融合海量數據、算法、算力,是人工智能時代的“重工業”,高昂的成本必然使基礎模型從“百花齊放”到“數枝獨秀”,而改變現有各平臺分散研發的模式,這打破了現有的網絡治理法律制度對數字社會生產方式的底層設定。無論是基于風險的治理,還是基于主體或基于應用的治理,均形成于人工智能專用模型作為底層架構的發展階段。生成式人工智能的分層業態中,基礎模型是底層核心技術,也是人工智能研發工程化的重大創新。基礎模型最重要的是進行“訓練”,無論是預訓練還是優化訓練,都是對數據、算法、算力等要素資源的精巧組合,最后形成具有超大規模參數量的基礎模型。“訓練”既是生成式人工智能投入產業應用前的技術工程,又直接影響到后續專業模型的表現和服務應用的內容。《深度合成管理規定》首次明確了深度合成服務提供者和技術支持者對訓練數據的管理義務,不過規定并未進一步就訓練數據的管理細則提出要求。“訓練數據”在生成式人工智能治理中已經作為專門對象,說明監管部門充分認識到訓練應該成為法律調整的對象,因其直接關系生成式人工智能的法律定位與相關權利義務分配。

基礎模型的訓練數據與生成結果之間的關系,早已超越“算法黑箱”的復雜性,數據規模產生“涌現”現象,更類似于食物被消化長成了骨骼肌肉。大模型的訓練需要強大的數據預處理能力,在模型訓練之前,通常依賴專業數據團隊對數據集進行去重、清洗、分詞、詞的正則化或標準化等一系列預處理。通過海量數據的“投喂”后,大模型會在某個臨界值出現“涌現”現象,意指在訓練量較小的時候,其結果與隨機結果差不多,但當訓練量超過某個閾值的時候,模型處理復雜問題的能力和精確度突然大幅提升。可以理解為大模型通過海量學習,經歷記憶期和平臺期,方可“頓悟”到其中規律,達到具有強大處理能力的泛化期。而這也是大模型獲得底層通用能力的原因。

由此可見,模型訓練的目的是獲得“能力”,這與既有法律制度中的信息內容監管、以風險為導向的分級分類治理的監管目標有所不同。與此同時,訓練行為也與個人信息處理行為、算法推薦服務提供、數據處理行為等現有法律體系中的相關概念有所不同。

第一,模型訓練過程有機融合了數據、算法、主體、場景等人工智能的監管對象。目前我國的技術治理體系中,設立了數據、算法、主體、場景四大類分級分類的標準。我國目前初步構建的多系統分級分類法律體系將基礎模型的風險判斷因素有機融合,在基礎模型的風險級別判斷標準上,包含了數據處理量級及廣泛被應用的場景兩大考量因素。

第二,訓練數據的質和量是生成式人工智能高質量發展的基礎,《辦法(征求意見稿)》專門對數據質量提出要求。基礎模型的生成內容與訓練數據存在相關關系,分析認為ChatGPT 出現輸出價值觀偏差的核心原因,是數據集在多樣性、代表性、公正性等方面存在缺陷,導致偏見、刻板印象、文化片面性等問題。此外,在《辦法(征求意見稿)》出臺以前,就有對“數據質量”的法律規定,這些要求或來源于政策文件的倡導性條款,或來自防止弄虛作假等“合法性”的要求。

第三,模型訓練行為獨立于個人信息處理行為、算法推薦服務提供及數據處理等既有法定行為,這主要體現在前述諸多行為的相關法律規范難以適用于訓練行為的規制上。如基礎模型的訓練需要海量數據,訓練數據中涉及的“個人信息”的處理和使用存在違反我國《個人信息保護法》中的“最小必要”原則要求的風險。用戶在使用ChatGPT 過程中所提供的個人信息上附著的個人信息法定權益,如撤回、修改、刪除的權利等,現階段都難以通過有實質性幫助的便捷方式得到保障。但在基礎模型的訓練過程中,生成式人工智能服務提供者作為數據處理者,仍應依據《數據安全法》履行數據安全保障義務。

由此可見,基礎模型的訓練已經成為了一個融合了數據、算法、算力的專門過程,需要出臺專門的、獨立的規范予以規制。《辦法(征求意見稿)》擬將訓練數據列為專門的調整對象,這意味著我國監管部門已經開始從基礎模型的訓練階段著手展開規制。

(二)基礎模型的通用性與賦能性及其帶來的生產方式變化

生成式人工智能的基礎模型因可接入千行百業具有通用性,可為多個垂直細分領域創造個性化人工智能系統,同時提供網絡信息內容與機器所需合成數據具有強大賦能性,是人工智能時代的新型數字基礎設施。作為新型數字基礎設施,其推動著數據要素流動及具有公共性的融合計算服務體系建立。

第一,基礎模型具有通用性,可支撐多個垂直產業泛化介入,降低數據生產要素流動壁壘。基礎模型的功能泛化性、通用性改變了人工智能產業生態。人工智能技術實現了從決策式人工智能到生成式人工智能的躍遷。強大的底層通用能力是生成式人工智能基礎模型給人工智能產業帶來的躍遷式革新,底層大模型加上深度學習平臺,推動了人工智能全產業鏈的加速升級。這種通用性改變了過去人工智能分為視覺、聽覺、語義等不同領域分散研發的情況,實現了應用領域和場景更換。海量的模型參數量、前所未有的數據處理量、更大的訓練計算量,推動實現了人工智能模型通用性的跨越式提升。

基礎模型客觀上促進了數據要素共享,技術底層使得平臺打破封閉架構實現互聯互通成為可能。既往的研究與討論中,數據要素的流動與共享的流動方式被想象為數據交易、公共數據開放,以及通過監管部門主導的強制企業打破封閉架構的互聯互通。基礎模型則提供了新的數據共享與互聯互通的思路,具有超越性技術能力和資金支持的企業,通過碾壓式技術開發和成本投入,實現海量數據資源池與模型訓練的規模效應。當不同的企業與應用被鏈接到基礎模型上之后,又成為基礎模型的流量入口累積更多的數據,被用來進行進一步反饋性的模型訓練。具有持續訓練學習能力的預訓練大模型,使得人工智能時代的技術基礎設施超越了數據存儲分析、支付物流、身份認證等類型的平臺基礎服務,而是向產業層面延伸。這也進一步降低了生產要素流動的壁壘。

第二,基礎模型具有賦能性,兼具信息內容與數據要素供給功能,可為產業企業賦能降本增效。大模型本身具有明顯的商業化價值,其對于行業的賦能,顯現了人工智能驅動新一輪科技革命和產業變革的巨大力量。生成型人工智能的基礎模型可以以“高質量生成內容”形式賦能,為網絡生態提供內容資源。生成式人工智能不僅局限于分析已經存在的東西,而是學習歸納已有數據后進行創造,基于歷史進行模仿式、縫合式創作,生成了全新的內容,也能解決判別問題。在這樣的技術變革下,生成式人工智能的開發者的角色早已超越了為服務提供者提供技術支持,而是成為數字社會生產的資源提供者———內容生產的強大引擎。生成型人工智能的基礎模型可以“合成數據”形式賦能,為模型訓練提供數據生產要素。合成數據作為真實數據的替代品,是利用算法人為生成出符合真實世界情況的數據,可以在數學或統計學上反映真實數據的屬性。合成數據目前已應用在人工智能模型訓練開發和仿真驗證中,可以為數字孿生、智慧醫療等模型訓練提供資源,并在金融、醫療、零售、工業諸多產業領域中落地實施。合成數據是人為生成的,具有成本低廉和隱私保護優勢,可以解決真實數據采集耗時費力、數據標注量大成本高和真實數據隱私泄露風險等問題。

由此可見,基礎模型已經從產業生態角度改變了數字社會生產,更成為了信息內容和數據要素的提供者。

(三)基礎模型的數字基礎設施法律定位及其具備的公共性

基礎模型由于其通用性和賦能性,成為人工智能時代數字社會生產的新型數字基礎設施,也同時具備了數字基礎設施的公共性特征。基礎模型層作為基礎設施的公共性,一方面來自基礎模型組織數據、算法、算力人工智能要素參與社會生產的控制力,另一方面來自對企業和產業的影響力。

1. 生成式人工智能基礎模型是新型數字基礎設施

傳統基礎設施具有基礎性、賦能性和公共性等一般特征。基礎設施的基礎性源自其能夠為產業變革和經濟發展提供基礎性支撐和行業賦能,如交通、能源、水利等基礎設施。基礎設施如交通、水利設施等具有較強的賦能性,被認為是社會先行資本,作為經濟起飛的重要前提條件而應當優先發展。進入數字經濟時代,數字基礎設施已經像水、電、公路一樣,成為人們生產生活的必備要素,為產業格局、經濟發展、社會生態發展提供保障。數字經濟時代,經濟高質量發展的需求下,社會生產對基礎設施的需求也隨之發生結構性轉變。①生成式人工智能的基礎模型具有基礎設施性質,可以支撐多產業泛化通用接入,客觀上促進了數據等生產要素共享,既意味著生產力躍升也同時推動了生產關系的變化。生成式人工智能的基礎模型層既符合傳統基礎設施的基礎性特點,也符合新型數字基礎設施可提供綜合數字計算與處理能力的特征。也是基于此,通用性、規模性成為人工智能產業政策的目標。在《上海市人工智能產業發展“十四五”規劃》中明確指出現在人工智能發展面臨的瓶頸是規模化應用深度不足,而大模型將會是未來突破發展瓶頸的關鍵技術。《北京市“十四五”時期高精尖產業發展規劃》也將國家級人工智能前沿研究中心、超大規模人工智能模型訓練平臺作為了發展重點。《廣州市人工智能產業鏈高質量發展三年行動計劃》也提到對大模型及其上下游產業生態鏈的布局要求。生成式人工智能的模型層既是企業的開發平臺,也是模型訓練的資料來源,具有新型數字基礎設施的賦能性特征。

2. 生成式人工智能基礎模型作為數字基礎設施的公共性

理論上對平臺作為數字基礎設施的公共性論證多從兩個角度展開:一是平臺本身作為載體的公共性,基于其組織生產、掌控數據等生產要素等;二是對平臺內經營者的治理等公共性權力,事實上承擔著維護市場秩序保護用戶權益的公共職能。生成式人工智能的基礎模型層一方面充分符合本身作為載體的公共性,另一方面對接入基礎模型的下游生產者具有準管理的公共性權力。

第一,生成式人工智能的基礎模型作為新型數字基礎設施,形態是新型集成型平臺,本身具有公共性。基礎模型比起數字平臺更加縱深地組織生產提供基礎性服務。基礎模型提供的不僅包括原有平臺的數據、算法、基礎服務、網絡、資源等核心要素,更進一步將“模型作為服務”的服務擴展到了有效的算力如芯片架構和算力系統,還包括開發系統和環境、云計算等系列融合性的智能服務。如我國浪潮信息開發了2457 億參數的“源”大模型,通過模型API 服務、領域模型、開發者社區等多種形式對外提供算法基礎服務。② 其次,基礎模型的訓練需要海量數據與算力的驚人投入,基礎模型匯聚和掌控著人工智能的三要素數據、算法和算力,因而具有公共性。一般認為模型的思維推理能力與模型參數大小有正相關趨勢,一般是突破一個臨界規模(大概62B,B 代表10 億),模型才能通過思維鏈提示的訓練獲得相應的能力。預訓練大模型的高算力投入設置了人工智能研發的高門檻,目前全球范圍內只有少數頭部企業和科研機構能夠支撐預訓練大模型的開發、訓練。

第二,生成式人工智能的基礎模型進一步綁定了平臺與企業的關系,具有了對產業和企業前所未有的控制力。如果說數字平臺經營者的市場力量還來源于對競爭和交易的控制力,那么基礎模型的控制力更來自對技術運行的控制力。接入基礎模型的企業經由深度平臺訓練的“應用”“服務”將不再如以往一樣擁有獨立支配運行的權力,因為大模型作為技術基礎設施使得垂直細分行業的應用與服務具有“出租”性質,服務與應用變成了必須依賴大模型更新的在線服務。打個比方,消費者既往購買紙質書即享有書的完全所有權,但現在購買電子書,服務提供者可設置期限停止消費者的訪問權限。仰賴基礎模型提供人工智能服務的企業,與過去購買機器設備等物理實體的企業相比,對上游技術的依賴性更強。因此,大模型的服務商對整個產業生態系統具有了前所未有的技術層面的控制力。未來的基礎模型的計算能力也成為人工智能產業的重要資源,引起對企業具有正向賦能效應,對產業企業運行具有更強的穿透力。

綜上所述,生成式人工智能不僅是人工智能技術的迭代革命,也意味著數字社會生產方式進一步向前推進,而生成式人工智能的模型層則因具有極強的通用性、賦能性成為了人工智能時代的新型數字基礎設施。新型數字基礎設施既具有傳統基礎設施的特點,也有別于原有的數字基礎設施。在特征上由于多產業泛化通用接入、供給數字社會生產的網絡內容生態與模型驗證訓練和具有數據和算力的自然壟斷性,而具備基礎設施的通用性、賦能性特征;又有別于原有的數字基礎設施,不僅提供連接服務更提供計算服務,不僅外部賦能更提供生產要素,不僅具有公共性也具有一定的競爭性。因此,在社會生產方式的演進語境下,生成式人工智能的模型層是人工智能時代的新型數字基礎設施,本質是對生產力的大幅提升。

四、生成式人工智能的分層治理體系構建

我國生成式人工智能的法律治理應以發展為導向,以生成式人工智能的多重法律角色作為治理的原點,調整原有制度中的不協調之處。在鼓勵我國生成式人工智能發展的思路下,應將生成式人工智能作為基礎設施,劃分為技術、產品與服務三個層次,以“基礎模型—產品模型—服務應用”為形式,關注不同層次的不同生產要素,大力鼓勵基礎模型層的技術發展,審慎包容監管產品模型層,對服務應用層沿用并調整以實施敏捷治理。將我國從較為單一的場景的算法治理,演化為適應不同治理目標的生成型人工智能的復合型系統性治理。

(一)從主體監管到“基礎模型—專業模型—服務應用”分層規制

生成式人工智能的治理應順應技術發展給社會生產帶來的變化,重新思考人工智能治理底層技術邏輯改變后,應如何更為有效的構建治理框架。生成式人工智能的治理應改變我國原有的“技術支持者—服務提供者—內容生產者”的監管體系,實施“基礎模型—專業模型—服務應用”的分層規制。不同的層次適配不同的規制思路與工具。

數據、算法、人工智能等前沿技術推動法律制度發生變革,仍遵循經典的“生產力決定生產關系”馬克思主義政治經濟學原理。在20 世紀末數字經濟發展早期和具有通用性的生成式人工智能發展的今天,呈現了一致的發展趨勢:更廣泛的社會生產的資源被綁定于平臺之上,平臺在產業生態中更為縱深地控制和組織社會生產。生成式人工智能需要法律應對的主要原因,在于其深層次地推動了數字社會生產的進一步變革。早期網絡法發軔于知識產權領域,是因為文字和音樂等作品最先被數字化并可在網絡上流動;后期網約車、勞動力、商品等可被數字化表達,平臺經濟迅速發展;如今生成式人工智能的基礎模型打通了人機語言壁壘,實現了萬物皆可“Token”化,因此可以更加廣泛和深入地鏈接、調配更多的垂直產業、實體經濟,不僅填充與完善了既有的網絡業態,也會發展為技術、內容、計算服務多樣化與一體化的集約型模型服務平臺。

分層規制的原因之一,在于只有在生成式人工智能的服務應用層有劃分“服務提供者—內容生產者”的意義,在基礎模型和專業模型層則與“內容生產者”規制目的關系不強。這是因為“內容生產者”概念來自信息內容安全監管,其制度目的在于向社會公眾通過服務提供者發布信息,需遵守底線負有相關義務以保證信息內容安全。但是,生成式人工智能的基礎模型層和專業模型層要么只在企業內部訓練運行,要么向垂直細分領域的企業(B 端)提供接口以賦能,并不直接與用戶(C端)發生交互。而實現對“內容生產者”的規制目的,只需要在服務應用層提出相關要求,做好過濾審核即可。生成式人工智能的功能遠不限于“內容生成”而已經成為新型數字基礎設施。因此,僅僅由于其生成文本、視頻、音頻等一項功能就以“內容生產者”做全產業鏈的要求并不符合其功能業態。

分層規制的原因之二,在于減輕技術端即基礎模型層和專業模型層的注意義務,促進產業發展。在現有的治理框架內,技術提供者對信息內容安全的注意義務最低,內容生產者對信息內容安全的注意義務最高。在互聯網發展早期,服務提供者享受了多年的責任豁免,這也被認為是網絡產業發展迅速的重要原因。生成式人工智能在服務應用層仍沿用之前信息內容安全的監管制度,即可實現信息內容安全的治理目的。如果基礎模型層和專業模型層即按照“內容生產者”進行要求,則其將成為科技創新的負擔。

分層規制的原因之三,在于鼓勵企業根據不同的業態層次承擔不同水位的風險防范義務與法律責任。分層治理也鼓勵企業分別發展基礎模型層和服務應用層,區分對企業和對用戶模式。分層治理可以將基礎模型層從內容生產者的責任中解放出來,鼓勵企業將面向用戶提供服務應用的傳播信息內容部分切割出來單獨承擔責任。即使不進行主體和業務的切分,企業和工作人員也可按照風險發生等級承擔相應責任。

在分層規制中不同的層次有各自的治理理念與監管聚焦。基礎模型層應以發展為導向,關注科技倫理、訓練數據、模型參數;專業模型層應以審慎包容為理念,關注關鍵領域與場景,訓練數據來源與安全,個人信息保護,并在此領域可引入分級分類;服務應用層則關注信息內容安全、市場競爭秩序與用戶權益保護,沿用原有監管工具,并適時引入新興監管工具、細化合規免責制度,給新興技術發展留下試錯空間。將我國從較為單一的場景的算法治理,演化為適應不同治理目標的生成型人工智能的復合型系統性治理。

(二)以發展為導向的基礎模型層制度設計及其公共性考量

分層規制理念下,應將生成式人工智能的基礎模型層作為新型數字基礎設施。生成式人工智能的基礎模型應作為經濟數字智能化轉型的重要依托,由國家適度超前部署、擴大產業投資、激發民間活力。因此,在新型基礎設施的發展理念下,應從法律制度層面保障生產資源的獲取,規劃數據要素與算力資源的投入調配,并在基礎模型層達到一定的公共性標準后,要求其以開放中立為原則,合理行使平臺內公共管理權力。

第一,建立公共訓練數據池推動基礎模型的數字基礎設施建設。生成式人工智能基礎模型層的數字基礎設施建設,需要法律制度保障其獲取數據要素,可通過構建數據管理制度促進數據利用,以及建立公共訓練數據池推動產業發展。在《數字中國建設整體布局規劃》中,將構建數據資源暢通循環的制度作為數字基礎設施建設的內容,充分體現了數據生產要素對于基礎設施建設的重要作用。高質量的模型訓練,需要高質量的訓練數據。有關公共衛生、科技、教育的國家數據資源庫,可成為公共訓練數據池的重要來源,實現數據匯聚利用的價值。

第二,設置合理知識產權制度保障基礎模型層訓練數據的獲取。互聯網上累積數十年的數據、數據庫、代碼等被用來進行大模型的訓練。現階段主流觀點認為“合理訓練”有利于人工智能產業發展,各國產業政策和法律也正在跟進。

第三,被認定為具有公共性的平臺應以開放中立為一般原則,以拒絕向特定用戶開放為例外。當未來的某些基礎模型層經過競爭達到一定規模,則會涉及因具備公共性而承擔開放中立與其他相關義務的問題。從宏觀的視角看,作為智能服務提供者的模型平臺支撐數字經濟運行,對于各個行業的數字化轉型都具有不可忽視的戰略意義。在現階段接入基礎模型的服務享有強大競爭優勢(如ChatGPT 接入必應搜索引擎),未來當生成式人工智能服務成為社會生產普遍服務后,可能將出現“模型開放中立”原則,即凡是愿意接受基礎模型服務協議、在誠實信用原則下使用模型服務的主體,均不應排除在模型服務之外,除非有拒絕支付合理對價(政府可能介入指導價格)、影響基礎模型安全運行(如對模型“投毒”)、危害國家安全等正當理由。

最后,被認定為具有公共性的平臺,應合理行使平臺內公共性管理權力。基礎模型作為模型服務提供者,可通過模型與其他服務集成形成多元化服務平臺,同時可通過架構開放自身用戶接口,使得第三方開發者通過運用和組裝平臺接口進一步開發新的模型與應用,并可能在平臺上統一運營成為開放式平臺。通過模型的訪問權限,能夠調節模型平臺、用戶、第三方開發者等多個主體之間的關系,形成復雜分層的治理和控制機制,塑造人工智能生態產業鏈。公共性的模型平臺對于平臺上多個主體都具有強大的控制力和管理權限,應要求其合理行使公共性管理權力,允許平臺內公平競爭、保護創新、合理收費等,履行非歧視競爭義務。

將生成式人工智能的基礎模型作為新型數字基礎設施,應匹配與基礎設施發展相適應的法律制度,其中包括構建數據要素流動制度與建立公共訓練數據池,從法律制度層面保障“合理訓練”獲取訓練數據資源,以及合理投入并調配算力資源等。

(三)專業模型層與服務應用層的審慎包容與敏捷治理工具箱

在基礎模型層之上的專業模型層與服務應用層,應有著不同的治理理念與監管聚焦。在專業模型層,應以審慎包容為理念,引入專業模型的分級分類,關注重點領域與場景,設置精細的新型避風港規則。在服務應用層,仍關注信息內容安全、市場競爭秩序與用戶權益保護等價值,一方面沿用原有監管工具,另一方面建立敏捷治理的監管工具箱、細化合規免責制度,給新興技術發展留下試錯空間。

1. 專業模型層的審慎包容與分級分類

專業模型層的治理以審慎包容為理念,關注重點領域與場景的分級分類,設置合理的法律責任水平。一是在專業模型層將“模型”本身作為規制對象,融合數據、算法、場景的分級分類理念。專業模型層中,進行領域性專業性調優的模型應直接成為法律規制的對象,并與我國現有的數據、算法、場景的分級分類標準統籌協調。雖然基礎模型的通用性特征使其無法適應分級分類的體系,但專業模型層則具有具體應用的垂直行業與場景,可考慮設計監管的分級分類。專業模型的分級分類應以“模型能力”作為分級分類的考量指標,模型能力直接與訓練數據量級、算法性能相關。以模型能力作為專業模型層的分級分類監管體系,可將數據、算法等標準有機統籌。

二是在不同的領域和場景疊加行業規范要求,在重點領域與場景進行專門的制度設計。專業模型層的用戶多為中小企業,通過“術業有專攻”的優化訓練對基礎模型進行行業化和場景化改造。換句話說,專業模型層是基礎模型層的B 端用戶,是服務應用層的模型服務提供者。術業有專攻的優化訓練不僅應遵循生成式人工智能訓練數據的相關要求,還應遵循行業規范的具體要求。如針對智慧醫療、心理咨詢的專業模型訓練應遵循醫療倫理的相關要求;提供金融服務的專業模型訓練應遵守金融系統監管的法律法規等。在未來的監管中,各部門也可對管理職能內的專業模型訓練進行專業指導與監管。

三是需要合理設置發展早期的法律責任水平。社會成本本身即包括法律責任水平。各國為鼓勵網絡產業發展,曾紛紛對網絡服務提供者施以較輕的注意義務。但后期隨著產業的發展,法律責任水平逐漸提高。最初云服務被認為是一種類似于煤水電一樣的互聯網基礎設施服務,涉及一定程度的公共利益而非簡單的私人服務,因此,只有有關國家機關的授權才能夠對用戶存儲在其服務器上的內容進行核查。生成式人工智能的專業模型在發展早期,應設置一定的免責規則,一定程度成為其提供設計精巧的避風港責任。專業模型層對基礎模型進行優化與微調,可能疊加基礎模型層數據造成輸出結果違反法律規定或侵害民事權利等。專業模型層已經前置必要的輸出攔截過濾,并證明輸出的結果與專業模型層的調優和專業訓練數據之間并無直接關系即可適用模型層的避風港規則。

2. 服務應用層的敏捷治理與合理容錯

服務應用層的治理一方面應沿用原有的治理理念與監管工具,保證我國人工智能監管的協調性與一貫性,另一方面應建立敏捷治理的監管工具箱、細化合規免責制度,給新興技術發展留下試錯空間。

第一,沿用原有的治理理念與監管工具,使我國人工智能監管脈絡協調一致。一是在治理理念層面,我國現有的監管思路把信息內容安全仍一以貫之地列為治理的首要任務,如《辦法(征求意見稿)》的出臺即明確劃定了人工智能生成內容的底線。生成式人工智能的服務應用與人類互動時的輸出內容為文本、圖像、音頻、視頻等,都被納入了信息內容安全監管范疇中。二是我國已有較為成熟的信息內容安全制度體系,沿用既有的評估審核標準,要求服務應用層的生成式人工智能服務提供者承擔信息內容安全義務,建立相應的過濾、停止傳輸、處置等制度。算法推薦和深度合成監管中確立的備案、評估等制度也應進行調整,以適應生成式人工智能的技術發展。

第二,建立敏捷治理的監管工具箱,試行推動監管沙盒,細化合規免責制度,給新興技術發展留下試錯空間。生成式人工智能還屬于新興技術,而在服務應用層面的信息安全技術還是為了用戶生成內容(UGC)時代研發,無論從識別標準、識別速度、識別力量上尚不能完全應對生成式人工智能的發展。甚至可以預見,在防范技術成熟之前,生成式人工智能必然會出現信息內容安全的問題。此時極有必要探索嘗試相關制度給新興技術留下試錯空間。選擇之一是監管沙盒制度,選擇之二是在技術成熟之前,細化生成式人工智能服務提供者的合規免責制度。在企業建立并運行了現有法律規范中相關的信息內容安全制度,并可舉證已經采取了現有技術能力范圍內的措施后,可以合規免責,給新興技術發展留下試錯空間。

在專業模型層和服務應用層的監管面臨的直接問題,是如何認定專業模型提供者和服務應用提供者的責任。在技術發展前景尚未明朗的當下,審慎包容無疑是有利于產業發展和構建合理制度的選擇。

結語

以ChatGPT 為代表的生成式人工智能在為人類社會帶來便利的同時也給社會治理帶來了前所未有的挑戰。如何界定生成式人工智能的法律定位并在此基礎上形成與生成式人工智能的技術特點與產業形態相適應的治理框架是法律回應技術發展的應有之義。究其本質,生成式人工智能的基礎模型融合了數據、算法、算力三要素,具有極強的通用性與賦能性,是人工智能時代的新型基礎設施。與此同時,管制和創新,也即安全和發展,是網絡立法的永恒命題。掌握人工智能治理的話語權、規則制定權,搶先形成新的國家競爭優勢,已成為世界各國的努力目標。我國在個人信息保護和數據立法領域與歐盟、美國并行,在算法治理和深度合成治理領域則成為領跑者。在此基礎上,應以促進生成式人工智能健康發展為契機,積極構建符合我國實際且能夠促進我國人工智能技術產業長遠健康發展的治理制度,這樣也有助于形成我國的制度競爭優勢。生成式人工智能的治理應順應技術發展給社會生產帶來的變化,改變我國原有的“技術支持者—服務提供者—內容生產者”的監管體系,構建“基礎模型—專業模型—服務應用”的生成式人工智能分層治理體系。應堅持以發展為導向,以生成式人工智能的多重法律角色作為治理的原點,調整原有制度中的不協調之處。具體而言,在鼓勵我國生成式人工智能發展的思路下,將生成式人工智能作為基礎設施,劃分為技術、產品與服務三個層次,以“基礎模型—產品模型—服務應用”為形式,關注不同層次的不同生產要素,大力鼓勵基礎模型層的技術發展,審慎包容監管產品模型層,對服務應用層沿用并調整以實施敏捷治理。將我國從較為單一的場景的算法治理,發展為適應不同治理目標的生成型人工智能的復合型系統性治理。

本文責任編輯:董彥斌

青年學術編輯:任世丹

主站蜘蛛池模板: 成人在线观看不卡| 国产精品福利导航| 婷婷色中文网| 欧美成a人片在线观看| 四虎成人精品在永久免费| 亚洲人成人无码www| 午夜视频免费一区二区在线看| 欧美亚洲综合免费精品高清在线观看 | 国产成人亚洲综合A∨在线播放 | 国产精品视频免费网站| 日本一本在线视频| 国产三级精品三级在线观看| 一区二区三区成人| 四虎精品免费久久| 国产99精品视频| 超碰91免费人妻| 国产99视频在线| 久久不卡国产精品无码| 无码精品一区二区久久久| 狠狠干欧美| 国产免费精彩视频| 欧美一级色视频| 69av免费视频| 日韩精品欧美国产在线| 欧美一级99在线观看国产| 韩日无码在线不卡| 久青草网站| 国产精品私拍在线爆乳| 99视频在线看| 伊人久久精品亚洲午夜| 性激烈欧美三级在线播放| 亚洲午夜福利精品无码不卡| 99性视频| 青青草国产精品久久久久| 中文字幕66页| 亚洲无码91视频| 久久久91人妻无码精品蜜桃HD| 久久鸭综合久久国产| 欧美国产综合视频| 97成人在线视频| 国产福利不卡视频| 亚洲av无码人妻| 国产无码网站在线观看| 国产乱人伦AV在线A| 久久亚洲国产一区二区| 国产精品成人AⅤ在线一二三四| 黄色网页在线播放| 国产丝袜一区二区三区视频免下载| 亚洲一区二区黄色| 国产男女XX00免费观看| 欧美日韩午夜| 亚洲天堂网2014| 亚洲 日韩 激情 无码 中出| 毛片免费视频| 亚洲综合在线网| 小蝌蚪亚洲精品国产| 国产69精品久久| 免费高清a毛片| 亚洲天堂色色人体| 久久久久亚洲av成人网人人软件| 欧美一级片在线| 色综合a怡红院怡红院首页| 欧美视频二区| 欧美午夜小视频| 一级全免费视频播放| 午夜国产大片免费观看| 亚洲欧美综合在线观看| 国产又大又粗又猛又爽的视频| 日韩精品一区二区三区中文无码| 亚洲一区无码在线| 国产流白浆视频| 国产欧美综合在线观看第七页| 国产91色在线| 日韩欧美成人高清在线观看| 成人中文字幕在线| 国产97视频在线| 久久精品66| 美女毛片在线| 国产高清在线丝袜精品一区| 一本大道香蕉中文日本不卡高清二区| av一区二区无码在线| 欧美另类图片视频无弹跳第一页|