999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ChatGPT類應(yīng)用風(fēng)險的治理誤區(qū)及其修正
——從“重構(gòu)式規(guī)制”到“階段性治理”

2023-11-25 14:40:18許中緣鄭煌杰
河南社會科學(xué) 2023年10期
關(guān)鍵詞:法律

許中緣,鄭煌杰

(中南大學(xué) 法學(xué)院,湖南 長沙 410083)

2023 年被認(rèn)為是生成式人工智能(Generative Artificial Intelligence)元年,也是人工智能(以下簡稱AI)領(lǐng)域的重要拐點,以ChatGPT 為代表的生成式人工智能應(yīng)用的崛起,標(biāo)志著人類社會正在經(jīng)歷一場知識革命。埃隆·馬斯克認(rèn)為ChatGPT 類應(yīng)用的影響力不亞于iPhone;比爾·蓋茨也坦言到目前為止,只見過兩個真正具有“革命性”的技術(shù),一個是用戶圖形界面(現(xiàn)代操作系統(tǒng)的先驅(qū)),另一個就是在OpenAI 研發(fā)出的GPT 模型。申言之,ChatGPT類應(yīng)用之所以能現(xiàn)象級躥紅,主要是因為GPT 模型在算法(如Large Language Models,LLM 等大語言模型)方面實現(xiàn)了新的突破,即可以基于其訓(xùn)練數(shù)據(jù),獨立自主地創(chuàng)造文本、代碼、圖形等連貫性、具有意義的內(nèi)容。同時,在海量數(shù)據(jù)與強大算力支撐下,ChatGPT 類應(yīng)用既能“明白”人類語言,“理解”自主學(xué)習(xí)期間獲得的“經(jīng)驗”,也能“記住”知識進(jìn)而生成高質(zhì)量內(nèi)容。這種人機互動、橫跨多領(lǐng)域應(yīng)用以及自我生成內(nèi)容的技術(shù)特性,正在加快ChatGPT 類應(yīng)用與人類社會形成更加穩(wěn)固、廣泛與深刻的聯(lián)系。

但ChatGPT類應(yīng)用在給公眾帶來意外驚喜的同時,也引發(fā)了諸多潛在風(fēng)險。比如,意大利數(shù)據(jù)保護(hù)機構(gòu)以保護(hù)個人信息與隱私為由,臨時封禁了ChatGPT,在OpenAI 采取相應(yīng)措施后才解除封禁;又如,美國AI 與數(shù)字政策中心(Center for AI and Digital Policy)向監(jiān)管機關(guān)投訴,提出對OpenAI進(jìn)行合規(guī)調(diào)查,并要求其在建立安全防護(hù)措施之前禁止發(fā)布新的AI模型,這一系列事件表現(xiàn)出社會大眾對于目前AI 技術(shù)的擔(dān)憂。為了規(guī)范ChatGPT 類應(yīng)用的使用,美國白宮于2023 年7 月21 日召集AI 七大公司(包括亞馬遜、谷歌、Meta、微軟、OpenAI等),要求其作出保障用戶權(quán)益的承諾,包括同意進(jìn)行安全測試、采用“水印”功能以告知用戶哪些內(nèi)容是由AI生成等以應(yīng)對相關(guān)風(fēng)險。我國網(wǎng)信辦聯(lián)合國家發(fā)改委、科技部等七部門于2023年7月10日發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》),其中明確了生成式人工智能技術(shù)的適用范圍、責(zé)任主體認(rèn)定等方面內(nèi)容,旨在為ChatGPT 類應(yīng)用產(chǎn)業(yè)的安全發(fā)展提供前瞻性建議。

在上述背景下,針對ChatGPT 類應(yīng)用的法學(xué)研究也十分火熱,學(xué)者們對于如何回應(yīng)ChatGPT 類應(yīng)用風(fēng)險基本存在兩種立場:一種立場認(rèn)為應(yīng)根據(jù)ChatGPT 類應(yīng)用的特性,制定不同的產(chǎn)業(yè)政策和專項立法以系統(tǒng)治理其風(fēng)險。該立場主張在ChatGPT類應(yīng)用成熟之前,利用法律手段對其進(jìn)行監(jiān)管和規(guī)范,以確保其應(yīng)用符合法律和倫理標(biāo)準(zhǔn)[1]。另一種立場則認(rèn)為ChatGPT 類應(yīng)用尚未成熟,故法律應(yīng)避免過度干預(yù)技術(shù)發(fā)展,不宜過早對其進(jìn)行治理,以免阻礙其技術(shù)的持續(xù)創(chuàng)新[2]。這兩種立場的分歧在于法律是否需要對ChatGPT類應(yīng)用風(fēng)險采取專門立法的方式進(jìn)行治理,即本文指稱的“重構(gòu)式規(guī)制”。從更深層次而言,前一主張本質(zhì)上是一種“技術(shù)悲觀主義”,其以大數(shù)據(jù)、區(qū)塊鏈、元宇宙等數(shù)字技術(shù)風(fēng)險為參照對象,認(rèn)為技術(shù)的創(chuàng)新必然會引發(fā)全新類型的風(fēng)險,ChatGPT 類應(yīng)用亦是如此。后一主張則屬于“法律有限主義”,即法律在調(diào)整社會關(guān)系或人們行為過程中發(fā)揮的功能是有限的,過窄或過寬地實施治理措施只會限制技術(shù)創(chuàng)新與發(fā)展的空間,故面對ChatGPT 類新興技術(shù),法律所需要提供的只是一種技術(shù)激勵機制和發(fā)展方向上的指引[3]。然而,現(xiàn)階段應(yīng)如何應(yīng)對ChatGPT類應(yīng)用風(fēng)險,不能僅僅從單一視角切入,因為法律難以完全預(yù)見技術(shù)創(chuàng)新的發(fā)展方向,也無法精準(zhǔn)判斷其引發(fā)的所有風(fēng)險及損害范圍,唯有進(jìn)行整體性分析,包括對ChatGPT類應(yīng)用的發(fā)展現(xiàn)狀和趨勢進(jìn)行深入研究,評估其現(xiàn)階段具體存在哪些風(fēng)險,以及對現(xiàn)有法律框架的適應(yīng)性進(jìn)行考量,才能確認(rèn)技術(shù)風(fēng)險及產(chǎn)生的損害后果是否需要法律專門治理。因此,“ChatGPT類應(yīng)用風(fēng)險是否需要法律專門治理”這一問題也就能細(xì)分為四個子問題:第一,現(xiàn)階段ChatGPT類應(yīng)用存在哪些潛在風(fēng)險;第二,這些風(fēng)險及其損害后果是否需要法律專門治理;第三,倘若需要,應(yīng)選擇何種方式對ChatGPT類應(yīng)用風(fēng)險予以回應(yīng),是直接選擇“重構(gòu)式規(guī)制”,抑或是還存在其他治理方式;第四,在確定某種治理方式后,其治理框架具體應(yīng)如何構(gòu)建。本文將基于以上問題展開論述分析,并提出有針對性的因應(yīng)之策,希冀對ChatGPT 類應(yīng)用及相關(guān)技術(shù)的治理與發(fā)展有所裨益。

一、ChatGPT類應(yīng)用的運行機制及風(fēng)險研判

(一)ChatGPT類應(yīng)用運行機制闡釋

ChatGPT 類應(yīng)用目前主要包括兩種類型:生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)和生成式預(yù)訓(xùn)練轉(zhuǎn)化器(Generative Pre-trained Transformer,GPT)。GAN是一種廣泛應(yīng)用的生成建模AI 技術(shù),由生成器和判別器兩個神經(jīng)網(wǎng)絡(luò)組成,并通過對抗訓(xùn)練的方式來提升生成模型的能力。生成器網(wǎng)絡(luò)負(fù)責(zé)從隨機噪聲中生成新的樣本,而判別器網(wǎng)絡(luò)則通過對比生成器生成的樣本和真實樣本來判斷生成器的性能。通過不斷地迭代訓(xùn)練生成器和判別器,GAN 可以生成高質(zhì)量、逼真的樣本。GPT 則使用大量公開的文本數(shù)據(jù)進(jìn)行訓(xùn)練,并結(jié)合自回歸模型的思想,在給定的上下文語境中生成連貫、自然的文本。而ChatGPT是OpenAI公司研發(fā)的大型語言模型,根據(jù)其官方介紹,可以將ChatGPT 的運行機制大致劃分為準(zhǔn)備階段、運行階段和生成階段(見圖1)。在準(zhǔn)備階段,ChatGPT通過學(xué)習(xí)訓(xùn)練和算法升級來獲取知識和技能,其需要大量數(shù)據(jù)作為輸入內(nèi)容,以便從中提取模式和規(guī)律;在運行階段,ChatGPT 利用自身算法模型來處理輸入數(shù)據(jù);在生成階段,ChatGPT不僅會生成高質(zhì)量結(jié)果,還會根據(jù)算法模型的反饋來優(yōu)化自身輸出的結(jié)果,以實現(xiàn)真正的自我學(xué)習(xí)[4]。

圖1 ChatGPT運行機制的具體步驟

(二)ChatGPT類應(yīng)用引發(fā)的潛在風(fēng)險

基于對ChatGPT類應(yīng)用的準(zhǔn)備階段、運行階段、生成階段的剖析,可以將其引發(fā)的潛在風(fēng)險歸納為內(nèi)部風(fēng)險與外部風(fēng)險。內(nèi)部風(fēng)險主要包括數(shù)據(jù)侵權(quán)風(fēng)險、算法安全風(fēng)險,外部風(fēng)險則主要包括應(yīng)用濫用與知識產(chǎn)權(quán)風(fēng)險。

1.數(shù)據(jù)侵權(quán)風(fēng)險

目前我國數(shù)據(jù)安全法律體系主要建立在《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個人信息保護(hù)法》體系的基礎(chǔ)上。ChatGPT類應(yīng)用在此體系下引發(fā)的數(shù)據(jù)侵權(quán)風(fēng)險具體表現(xiàn)在以下三個方面:

首先,數(shù)據(jù)來源風(fēng)險。ChatGPT 在準(zhǔn)備階段需要收集大量數(shù)據(jù)進(jìn)行訓(xùn)練,ChatGPT 的訓(xùn)練數(shù)據(jù)有些來自個人信息匯集(如用戶的人臉等可識別信息)。根據(jù)《個人信息保護(hù)法》第十三條規(guī)定,個人信息的處理應(yīng)事先取得信息主體的同意,但“取得信息主體的同意”這一步驟在ChatGPT 訓(xùn)練過程中難以實現(xiàn),目前還是未經(jīng)用戶同意就將獲取的個人數(shù)據(jù)用于訓(xùn)練。此外,ChatGPT 在訓(xùn)練階段獲取的個人信息,也容易違反《個人信息保護(hù)法》第六條規(guī)定的“限于實現(xiàn)處理目的的最小范圍”的要求。即使OpenAI提出其獲取的數(shù)據(jù)只用于特定目的,卻沒有說明用于特定目的的數(shù)據(jù)是否包括模型中的訓(xùn)練數(shù)據(jù)(如用戶提問的“數(shù)據(jù)內(nèi)容”),也沒有對其承諾行為作出法律保證,這將增加個人數(shù)據(jù)被過度處理的可能性。

其次,數(shù)據(jù)使用風(fēng)險。ChatGPT 在運行階段主要存在以下風(fēng)險:其一,數(shù)據(jù)泄露風(fēng)險。用戶向ChatGPT披露的個人信息(如用戶的姓名、地址等)、商業(yè)信息(如商業(yè)機密)等內(nèi)容會面臨被泄露的風(fēng)險。如果這些信息被未經(jīng)授權(quán)的人訪問或獲取,將導(dǎo)致用戶的隱私權(quán)受到侵犯以及商業(yè)利益受到損害[5]。另外,用戶的輸入(提問信息)和交互信息也會被用于持續(xù)迭代訓(xùn)練,這也增加了信息安全的隱患。盡管OpenAI聲稱采取了安全保障措施(如脫敏處理、隱私計算等)來保護(hù)用戶數(shù)據(jù)①,但在客觀上無法完全消除數(shù)據(jù)泄露風(fēng)險,例如,黑客攻擊、技術(shù)故障或人為失誤等因素都會導(dǎo)致用戶數(shù)據(jù)的泄露。其二,個人信息刪除權(quán)“履行不能”風(fēng)險。根據(jù)《個人信息保護(hù)法》第四十七條與《網(wǎng)絡(luò)安全法》第四十三條的規(guī)定,在一定條件下,個人信息的權(quán)利主體有權(quán)請求侵權(quán)人刪除相關(guān)信息。雖然OpenAI的隱私政策也規(guī)定了用戶享有查閱、更正和刪除個人信息等權(quán)利②,但由于ChatGPT的運行機制較為復(fù)雜,運營主體是否滿足我國相關(guān)法律要求并真正刪除個人信息,還存在較大不確定性。其三,數(shù)據(jù)跨境流動風(fēng)險。當(dāng)國內(nèi)用戶使用ChatGPT 時,相關(guān)信息會被傳輸?shù)骄惩膺\營商的數(shù)據(jù)處理中心,處理后的結(jié)果再由其進(jìn)行反饋。根據(jù)《個人信息保護(hù)法》第四十四條規(guī)定,信息主體對其個人信息的處理享有知情權(quán),用戶的個人信息在被傳輸前應(yīng)告知用戶并獲得其明確同意,但這個步驟在現(xiàn)階段是否能夠得到落實也有待考量。未經(jīng)審批許可的數(shù)據(jù)出境行為也會增加數(shù)據(jù)侵權(quán)風(fēng)險。在數(shù)據(jù)跨境流動過程中,如果企業(yè)或個人未經(jīng)相關(guān)部門的審批許可,擅自將用戶個人信息傳輸至境外,將導(dǎo)致用戶個人信息被未經(jīng)授權(quán)的第三方訪問和使用,進(jìn)而違反《數(shù)據(jù)安全法》第十一條等相關(guān)法律規(guī)定③,這不僅會對用戶個人信息的安全性和隱私保護(hù)造成威脅,也會對企業(yè)及個人的聲譽和信譽造成嚴(yán)重影響。

再次,數(shù)據(jù)可靠性風(fēng)險。ChatGPT 的訓(xùn)練數(shù)據(jù)質(zhì)量直接影響到其輸出結(jié)果的準(zhǔn)確性。在準(zhǔn)備階段,研發(fā)者從網(wǎng)絡(luò)中選擇和獲取數(shù)據(jù),這種方式容易造成生成內(nèi)容不準(zhǔn)確,這種“不準(zhǔn)確”來自數(shù)據(jù)的不全面性、虛假信息的存在以及錯誤信息的傳遞[6]。具言之,一方面,訓(xùn)練數(shù)據(jù)無法涵蓋所有語言和命題。網(wǎng)絡(luò)上的信息體量非常龐大且具有多樣性,但研發(fā)者無法獲取到所有數(shù)據(jù),這意味著訓(xùn)練出的模型將在某些特定領(lǐng)域或語言上表現(xiàn)不佳。例如,如果訓(xùn)練數(shù)據(jù)主要來自英文網(wǎng)站,那么模型在其他語言上的表現(xiàn)會受到限制,這種局限性會導(dǎo)致模型輸出的不準(zhǔn)確性。另一方面,訓(xùn)練數(shù)據(jù)中存在虛假或誤導(dǎo)的信息,如果這些信息被用于訓(xùn)練模型,那么模型會在生成內(nèi)容時重復(fù)并進(jìn)一步“擴大”這些錯誤信息的應(yīng)用范圍。

2.算法安全風(fēng)險

ChatGPT在運行階段主要是借助算法模型來分析與處理數(shù)據(jù)的,其將預(yù)訓(xùn)練與微調(diào)體系引入算法模型之中,進(jìn)而改變數(shù)據(jù)的產(chǎn)生及流通方式,但也進(jìn)一步增加了算法安全風(fēng)險,具體如下:

第一,算法“可解釋性”風(fēng)險。由于AI算法的復(fù)雜性和黑箱特性,人們很難理解和觀察算法的規(guī)則及決策過程。這種“算法黑箱”現(xiàn)象也給設(shè)計者和用戶帶來了困擾,因為有時人們無法預(yù)見AI作出何種決策,也無法驗證其決策是否合理和公正[7]。為了解決“算法黑箱”問題,各國紛紛推動算法披露和公開的政策,并賦予“被決策者”解釋算法的權(quán)利。比如,歐盟頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR),要求企業(yè)在作出基于算法的決策時,必須提供其可解釋性所涉及的原理、邏輯、技術(shù)規(guī)則等內(nèi)容④。美國民主黨則提出《算法責(zé)任法案》,其中要求AI算法的開發(fā)者應(yīng)當(dāng)提供解釋算法決策的方法和工具⑤。然而,實現(xiàn)算法可解釋性并不容易。一方面,算法可解釋性要求通常比較抽象,缺乏具體指引。目前還沒有統(tǒng)一的標(biāo)準(zhǔn)和方法來衡量和評估算法的可解釋性。另一方面,算法的可解釋性程度較低。盡管有一些可解釋性的AI算法,如決策樹和邏輯回歸⑥,但在處理復(fù)雜的任務(wù)和大規(guī)模數(shù)據(jù)時,這些算法的性能還不夠理想。

第二,算法“公正性”風(fēng)險。ChatGPT 在訓(xùn)練生成式模型時,使用的數(shù)據(jù)集事先可能存在各種偏見和歧視,其可能源自數(shù)據(jù)采集過程中的人為因素,也可能來自社會中存在的不公平現(xiàn)象[8]。如果這些內(nèi)容未能得到有效處理,那么ChatGPT 的生成結(jié)果將受到影響,并進(jìn)一步放大不公平現(xiàn)象,進(jìn)而造成“公正性”風(fēng)險。以教育領(lǐng)域為例,當(dāng)使用生成式模型如ChatGPT 來為學(xué)生論文評分時,如果訓(xùn)練數(shù)據(jù)偏向某類人群,例如偏向男性學(xué)生或某個特定種族的學(xué)生,那么生成的評分結(jié)果會對這些群體有利,而對代表性不足的群體產(chǎn)生不公正的評分,這將直接加大原本就處于劣勢的人群與優(yōu)勢人群之間的“鴻溝”。

第三,算法“可問責(zé)性”風(fēng)險。算法在一定程度上具有“技術(shù)中立性”,這使得其可以充當(dāng)一種信任工具而應(yīng)用于眾多領(lǐng)域,但也使得對其進(jìn)行問責(zé)存在較大困難。理由在于算法侵權(quán)可能只是一種“應(yīng)然”風(fēng)險并非“實然”發(fā)生的現(xiàn)象,或者只是損害結(jié)果的原因之一,這使得難以直接將算法行為和損害結(jié)果建立因果關(guān)系。例如,算法導(dǎo)致某個產(chǎn)品的銷售量下降,但是很難確定究竟是算法的問題還是由其他因素導(dǎo)致的。進(jìn)一步而言,就算能夠證明算法與損害結(jié)果之間存在因果關(guān)系,在客觀上也會面臨操作困境。比如,當(dāng)算法被定性為商業(yè)機密,那么企業(yè)往往會以保護(hù)商業(yè)利益為由進(jìn)行抗辯,進(jìn)而拒絕透露相關(guān)信息。就算企業(yè)抗辯不成功,那么也需要中斷算法的運行對其進(jìn)行審查,一次兩次尚無大礙,但如果頻繁發(fā)生,也會對企業(yè)的正常運營造成不利影響。

3.應(yīng)用濫用與知識產(chǎn)權(quán)風(fēng)險

從ChatGPT 類應(yīng)用濫用風(fēng)險層面來看,德國哲學(xué)家卡爾·雅斯貝爾斯曾言,技術(shù)在本質(zhì)上既非善也非惡,只有人才賦予技術(shù)以意義。易言之,ChatGPT類應(yīng)用的“好壞”在一定程度上也取決于其使用者。如不法分子為了謀取私益而濫用ChatGPT類應(yīng)用,甚至將其異化為犯罪工具,進(jìn)而威脅個人和社會利益。具體來說:一方面,濫用ChatGPT進(jìn)行網(wǎng)絡(luò)詐騙。ChatGPT 作為一種強大的語言模型,具備生成文本、回答問題和模仿人類寫作的能力,導(dǎo)致利用其進(jìn)行網(wǎng)絡(luò)詐騙的成本大幅降低。已有研究表明,GPT-3 生成的釣魚郵件“成功欺騙率”達(dá)到45%,GPT-4 則直接達(dá)到81%⑦。另一方面,濫用ChatGPT 進(jìn)行政治操縱,生成虛假新聞和政治言論等。不法分子可以利用ChatGPT 類應(yīng)用生成假新聞、扭曲事實、偽造來源,以影響公眾對特定政治議題的態(tài)度[9]。正如美國民主黨眾議員伊薇特·克拉克在一份聲明中所言:“在即將到來的2024 年選舉周期,美國歷史上將首次有AI 生成內(nèi)容被用于競選、政黨和超級政治行動委員會的政治廣告。如果AI生成內(nèi)容能夠大規(guī)模操縱和欺騙人們,就可能對我們的國家安全和選舉安全造成毀滅性后果。”⑧

在ChatGPT類應(yīng)用生成內(nèi)容的知識產(chǎn)權(quán)風(fēng)險方面,ChatGPT使得AI 生成內(nèi)容的知識產(chǎn)權(quán)問題變得更為復(fù)雜。早期弱AI時代的機器人,基本是充當(dāng)人類的工具,承接一些基礎(chǔ)體力勞動、進(jìn)行簡單的互動,此時AI生成內(nèi)容難以成為“作品”。正如有學(xué)者所言,AI 的驅(qū)動力本質(zhì)是算法程序,其無法完全表現(xiàn)人類創(chuàng)作的個性,因此其成果不能成為著作權(quán)法意義上的作品[10]。而ChatGPT的出現(xiàn)給此類結(jié)論帶來巨大挑戰(zhàn),尤其是GPT4.0版本的參數(shù)值已經(jīng)接近100 萬億,并加入了規(guī)則獎勵模型(rule-based reward models,RBRMs),這使得其具備了與人類相當(dāng)?shù)乃伎寄芰蛣?chuàng)作能力,也使得其生成內(nèi)容具有一定的獨創(chuàng)性。基于此,ChatGPT 生成內(nèi)容在知識產(chǎn)權(quán)層面存在三個詰問:第一,ChatGPT的生成內(nèi)容是否具有版權(quán)。由于ChatGPT生成內(nèi)容經(jīng)過復(fù)雜的信息抽取和語義識別等過程,類似于著作權(quán)領(lǐng)域中的改編行為,故其生成內(nèi)容具有一定的獨創(chuàng)性。但也存在另一個問題,用戶創(chuàng)作作品并不是完全依賴于ChatGPT,也許只是將后者作為一種輔助工具,那么此時應(yīng)如何確定版權(quán)又是一個新的難題,這需要理論界與實務(wù)界繼續(xù)深入研究。第二,ChatGPT 生成內(nèi)容的版權(quán)主體應(yīng)如何確定。ChatGPT在應(yīng)用過程中往往會涉及多個主體,包括用戶、技術(shù)開發(fā)者等,那么其內(nèi)容生成的利益應(yīng)當(dāng)如何界定?有學(xué)者認(rèn)為可以參照職務(wù)作品的規(guī)定,將生成內(nèi)容利益歸屬于投資者,將用戶的輸入行為視為一種生產(chǎn)行為,但這種方式忽視了用戶的收益權(quán)利[11]。因此,需要思考如何建立一個公平的利益分享機制,確保所有參與者都能分享由ChatGPT 生成內(nèi)容帶來的利益。第三,ChatGPT 生成內(nèi)容的侵權(quán)風(fēng)險應(yīng)如何承擔(dān)。ChatGPT的侵權(quán)風(fēng)險主要源于數(shù)據(jù)獲取路徑的不透明,當(dāng)用戶的行為涉及未經(jīng)授權(quán)或超越授權(quán)的爬取數(shù)據(jù)時,將侵犯他人的復(fù)制權(quán)、信息網(wǎng)絡(luò)傳播權(quán)等著作財產(chǎn)權(quán)。詳言之,當(dāng)用戶與ChatGPT 進(jìn)行互動時,生成內(nèi)容大多基于外來數(shù)據(jù)源,那么應(yīng)如何確保其爬取的數(shù)據(jù)已經(jīng)過訪問路徑的全部授權(quán)?如確認(rèn)是未經(jīng)授權(quán),著作權(quán)人相關(guān)權(quán)益又如何得到保障?是追究用戶的責(zé)任還是追究研發(fā)者的責(zé)任?這些問題也亟須予以回應(yīng)。

二、ChatGPT類應(yīng)用風(fēng)險的治理誤區(qū):“重構(gòu)式規(guī)制”的質(zhì)疑

(一)“重構(gòu)式規(guī)制”的邏輯缺陷:“新風(fēng)險”等同于“新治理”

前已述及,ChatGPT 類應(yīng)用會帶來諸多法律風(fēng)險,但這些風(fēng)險需要通過專門立法的方式加以治理嗎?換言之,是否必須使用“重構(gòu)式規(guī)制”的治理方式?答案是否定的,理由如下:

首先,將ChatGPT 類應(yīng)用作為調(diào)整對象超出了法律的規(guī)范邏輯。法律不是針對某個特定的技術(shù)產(chǎn)品或服務(wù)進(jìn)行具體規(guī)定,而是調(diào)整相應(yīng)的社會關(guān)系或相關(guān)行為。雖然目前許多學(xué)者傾向于采用交叉學(xué)科領(lǐng)域的研究方式,這在一定程度上有利于治理新興風(fēng)險,但法律自始至終的調(diào)整對象都是法律關(guān)系,而不僅是新興技術(shù)引發(fā)的各種風(fēng)險。因此,當(dāng)前法律治理新興應(yīng)用或技術(shù)的核心還是在于其“使用行為”與“使用主體”,而不是被“新瓶裝舊酒”的表象所迷惑,將風(fēng)險的“新興”等同于需采取“新型”治理方式。

其次,現(xiàn)有法律制度尚能應(yīng)對ChatGPT 類應(yīng)用所引發(fā)的風(fēng)險。適用“重構(gòu)式規(guī)制”的前提應(yīng)該是法律制度完全不能應(yīng)對或預(yù)防“新興”風(fēng)險,然而實際情況卻是這些風(fēng)險尚能劃入當(dāng)前法律制度的調(diào)整范圍,如有學(xué)者認(rèn)為將《數(shù)據(jù)安全法》《著作權(quán)法》《網(wǎng)絡(luò)安全法》等進(jìn)行延伸性解釋,足以應(yīng)對ChatGPT類應(yīng)用引發(fā)的相關(guān)風(fēng)險[12]。又如歐盟在針對ChatGPT 相關(guān)風(fēng)險時,采取的方式是成立特別工作小組,也是在不立新法的前提下,探索ChatGPT治理的通用政策⑨。從區(qū)塊鏈技術(shù)到元宇宙再到ChatGPT 類應(yīng)用等相關(guān)立法舉措來看,會發(fā)現(xiàn)這些新興數(shù)字技術(shù)的立法思路通常是以其現(xiàn)實應(yīng)用的“場景化”“領(lǐng)域化”“技術(shù)化”為基礎(chǔ),關(guān)注調(diào)整在不同應(yīng)用場景下的法律關(guān)系變化,已經(jīng)出臺的《暫行辦法》就是最好的例證。即對于新興技術(shù)而言,義務(wù)型規(guī)范還是其治理規(guī)則的核心內(nèi)容,只不過其規(guī)則邏輯可以進(jìn)一步細(xì)化,如將ChatGPT 的風(fēng)險治理分解為準(zhǔn)備階段的數(shù)據(jù)安全、運行階段的算法模型安全、生成階段的算法輸出結(jié)果安全。

再次,使用“重構(gòu)式規(guī)制”治理方式應(yīng)對ChatGPT 類應(yīng)用風(fēng)險,極易陷入“技術(shù)規(guī)制法”的邏輯誤區(qū)。審視近幾年許多學(xué)者主張的“重構(gòu)式規(guī)制”內(nèi)容,如“加快技術(shù)立法的進(jìn)程,以緩和法律與技術(shù)之間的矛盾”“法律存在滯后性,難以應(yīng)對新興技術(shù)風(fēng)險”等,可見其逐漸呈現(xiàn)出“新技術(shù)必然引發(fā)新風(fēng)險,而新風(fēng)險理應(yīng)需要新型治理制度加以解決”的現(xiàn)象。《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個人信息保護(hù)法》等具有“技術(shù)性”特征的法律出臺,的確是我國在數(shù)字法治體系建構(gòu)過程中的典范。如今,不管是數(shù)字技術(shù)安全治理架構(gòu),還是其規(guī)則適用,我國法律制度體系已經(jīng)有能力應(yīng)對各種層出不窮的新興技術(shù)風(fēng)險。如果還是一味采取“重構(gòu)式規(guī)制”的主張,那么將引發(fā)重復(fù)立法、超前立法等問題。

(二)“重構(gòu)式規(guī)制”的誤區(qū)成因:“風(fēng)險類型”等同于“風(fēng)險大小”

“重構(gòu)式規(guī)制”并不是一種應(yīng)對新興技術(shù)風(fēng)險的學(xué)術(shù)思潮,而是在大數(shù)據(jù)、區(qū)塊鏈、元宇宙等新興技術(shù)概念影響下才應(yīng)運而生的,其產(chǎn)生的本質(zhì)原因在于法律制度自身的穩(wěn)定性與迭代創(chuàng)新的高新數(shù)字技術(shù)之間的脫節(jié)。在該主張的影響下,有些學(xué)者在研究新興數(shù)字技術(shù)相關(guān)法律風(fēng)險時,一旦發(fā)覺現(xiàn)有法律制度體系“貌似”無法預(yù)防或規(guī)制這些風(fēng)險及其后果,就直接根據(jù)“立法者在立法時存在一定局限性,難以預(yù)見所有風(fēng)險”之類的理由,提出應(yīng)進(jìn)行“重構(gòu)式規(guī)制”。《數(shù)據(jù)安全法》《個人信息保護(hù)法》等“技術(shù)性”法律規(guī)范文件,確實是為了解決現(xiàn)有法律制度無法處理的“真問題”,但不是所有新興技術(shù)風(fēng)險都等同于“真問題”,都有資格成為立法的必要事由,特別是在AI技術(shù)領(lǐng)域。

具體來說,ChatGPT 類應(yīng)用風(fēng)險評估通常不以其已產(chǎn)生的損害結(jié)果為標(biāo)準(zhǔn),而是以其可能引發(fā)的風(fēng)險為依據(jù),同時基于其評估結(jié)果,這些技術(shù)風(fēng)險在法律層面上的定性,如因果關(guān)系、侵權(quán)類型、免責(zé)事由等都存在特定性。以前文所述的ChatGPT類應(yīng)用風(fēng)險為例:在數(shù)據(jù)侵權(quán)風(fēng)險方面,履行數(shù)據(jù)保護(hù)義務(wù)的主體還是“法律主體”(如研發(fā)者、運營者等),其產(chǎn)生風(fēng)險的原因也還是“法律行為”(如未采取有效的用戶數(shù)據(jù)保障措施等);在算法安全風(fēng)險方面,將大模型算法擬制為侵權(quán)主體顯然與我國民事法律主體相關(guān)規(guī)定相悖,因此需承擔(dān)法律責(zé)任的主體依舊是算法技術(shù)背后的“操縱者”(如設(shè)計者、使用者、運營者等);在應(yīng)用濫用風(fēng)險方面,不管犯罪行為構(gòu)成是適用“三要件”還是“四要件”,ChatGPT 始終也只是充當(dāng)犯罪行為的輔助工具,犯罪行為的認(rèn)定不會因為行為人是否借助ChatGPT類應(yīng)用而有所不同,這些高新數(shù)字技術(shù)的濫用只是屬于“社會危害性”“量刑情節(jié)”等方面的參考因素。由此可見,基于ChatGPT所引發(fā)的風(fēng)險而主張“重構(gòu)式規(guī)制”無法自證其理,究其本質(zhì)在于許多學(xué)者將“風(fēng)險類型”等同于“風(fēng)險大小”。申言之,ChatGPT類應(yīng)用風(fēng)險只是在客觀上加大了“既存”風(fēng)險發(fā)生概率以及風(fēng)險損害后果,但仍然能適用現(xiàn)有的《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》等相關(guān)法律規(guī)定加以解決。

(三)“重構(gòu)式規(guī)制”的誤區(qū)澄清:以技術(shù)應(yīng)用場景與方式為基礎(chǔ)

就ChatGPT類應(yīng)用風(fēng)險治理而言,不提倡“重構(gòu)式規(guī)制”并不等同于不承認(rèn)其發(fā)揮的重要作用,而是為了闡釋三個問題:

首先,雖然ChatGPT類應(yīng)用使得AI技術(shù)向強AI時代邁出了重要的一步,但其需適配的法律條款體量、責(zé)任規(guī)定認(rèn)定數(shù)量以及配套技術(shù)規(guī)范等還是不能達(dá)到制定單行法的標(biāo)準(zhǔn)。這也是由于立法往往滯后于技術(shù)的發(fā)展,造成法律必然無法全面覆蓋技術(shù)的應(yīng)用規(guī)范。同時,隨著ChatGPT 類應(yīng)用的商業(yè)化落地,其將廣泛應(yīng)用于不同場景,這種廣泛性特征在理論上恰好也證明了其風(fēng)險的產(chǎn)生仍然是以應(yīng)用場景為導(dǎo)向的。在實踐中亦是如此,我國先后出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等,也是為了規(guī)制算法在“推薦服務(wù)”“深度合成”等應(yīng)用領(lǐng)域引發(fā)的安全風(fēng)險。因此,合理的立法邏輯應(yīng)當(dāng)是以技術(shù)應(yīng)用場景與應(yīng)用方式為基礎(chǔ),針對不同類型的AI技術(shù)應(yīng)用制定相應(yīng)的義務(wù)規(guī)范,待到相關(guān)技術(shù)應(yīng)用較為成熟,與現(xiàn)有相關(guān)法律制度內(nèi)容的不適應(yīng)性逐漸消解后,再將這些規(guī)范整合成通用的技術(shù)治理規(guī)則。

其次,不提倡“重構(gòu)式規(guī)制”并不意味著不承認(rèn)以產(chǎn)業(yè)保障機制推動AI 技術(shù)創(chuàng)新發(fā)展。“重構(gòu)式規(guī)制”關(guān)注的是禁止性義務(wù),旨在預(yù)防潛在的安全風(fēng)險,而“產(chǎn)業(yè)保障式”立法則側(cè)重于監(jiān)管機構(gòu)提供的產(chǎn)業(yè)保障政策和創(chuàng)新促進(jìn)服務(wù)。這兩種立法導(dǎo)向在AI 技術(shù)的發(fā)展與治理過程中都起到重要作用。具體而言,“重構(gòu)式規(guī)制”可以更好地規(guī)范AI技術(shù)的應(yīng)用,以有效保護(hù)公眾利益和個人隱私安全等合法性權(quán)益;而“產(chǎn)業(yè)保障式”立法則可以為AI產(chǎn)業(yè)提供支持和保障,如通過數(shù)字技術(shù)基礎(chǔ)設(shè)施的建設(shè)、算力資源的統(tǒng)籌兼顧等方式促進(jìn)技術(shù)的創(chuàng)新和發(fā)展。

再次,不提倡“重構(gòu)式規(guī)制”是為了厘清ChatGPT 類應(yīng)用風(fēng)險治理的立法邊界,即需要達(dá)到何種程度才有必要采取立法的手段以應(yīng)對相關(guān)風(fēng)險。過去區(qū)塊鏈、云計算等信息技術(shù)風(fēng)險確實符合“重構(gòu)式規(guī)制”立法的要求,但隨著我國技術(shù)規(guī)范法律體系逐漸完善,彼時的立法空白已經(jīng)得到了較大程度的填補。在此背景下,對于ChatGPT 類應(yīng)用進(jìn)行專門立法至少應(yīng)滿足兩個前提條件:其一,立法能夠較大程度地降低企業(yè)合規(guī)成本,為相關(guān)技術(shù)主體提供明確的行為指引,細(xì)化其權(quán)利與義務(wù)的內(nèi)容,界定其法律責(zé)任范圍;其二,立法是無法避免的“過渡性選擇”,待到ChatGPT類應(yīng)用相對成熟時期,再將這些專門立法條款進(jìn)行體系化整合,形成通用性原則或規(guī)則,以確保ChatGPT 類應(yīng)用的合理使用與發(fā)展。

三、ChatGPT類應(yīng)用風(fēng)險的治理路徑:“階段性治理”的契合

(一)數(shù)字技術(shù)的法律治理:理論范式與思路探討

當(dāng)前,一些學(xué)者嘗試引用其他學(xué)科的理論范式來闡釋法律對數(shù)字技術(shù)的治理邏輯,然而,由于新興技術(shù)的風(fēng)險治理往往與其應(yīng)用場景及方式難以同步,導(dǎo)致容易陷入先驗性法律研究的尷尬境地。數(shù)字技術(shù)在不斷地迭代更新,故其理論研究邏輯不應(yīng)只針對特定的技術(shù)或相關(guān)產(chǎn)品展開,而是需基于過去技術(shù)治理的制度經(jīng)驗,進(jìn)而形成具有普遍性的理論范式。審視目前學(xué)界的研究成果,主要存在“敏捷治理”“元治理”“生產(chǎn)治理”等理論范式。這些治理范式提出了靈活適應(yīng)技術(shù)變化的治理方法、跨學(xué)科的規(guī)制框架等內(nèi)容,有利于實現(xiàn)法律與技術(shù)的良性互動和協(xié)同發(fā)展。

首先,“敏捷治理”(Agile Governance)理論是一種對傳統(tǒng)治理的改良,其宗旨是將治理理論由相對模糊的理念轉(zhuǎn)變?yōu)榫哂锌刹僮餍缘姆桨浮F渲小懊艚荨倍忠馕吨鴮τ谖搭A(yù)料到的變化作出反應(yīng)的能力,這一理論最早應(yīng)用于公共管理學(xué)領(lǐng)域,此后逐漸演變?yōu)檠附荨f(xié)調(diào)的管理學(xué)理論范式,我國政府提出“政務(wù)一體化服務(wù)”“一網(wǎng)通辦”也是其應(yīng)用的典范[13]。這種治理方式強調(diào)快速反應(yīng)和靈活調(diào)整,此類特征正好與高新數(shù)字技術(shù)的復(fù)雜架構(gòu)相契合,故有學(xué)者主張該理論適用于技術(shù)治理領(lǐng)域,不僅可以幫助監(jiān)管者及時應(yīng)對技術(shù)發(fā)展中的不確定性,也能加強與技術(shù)開發(fā)者和用戶的溝通和合作,以便及時了解他們的需求和反饋,從而更好地指導(dǎo)技術(shù)的發(fā)展和應(yīng)用[14]。

其次,“元治理”(Metagovernance)理論即“治理的治理”,旨在整合與平衡不同治理機制之間的關(guān)系。該理論最初應(yīng)用于德國食品安全領(lǐng)域的治理問題,不同于國家治理模式(依賴于政府的直接干預(yù)),其核心思想在于通過自我治理,使治理對象獲得法律授權(quán),并通過內(nèi)部的標(biāo)準(zhǔn)體系來實現(xiàn)治理的目的[15]。近年,也有一些學(xué)者開始將該理論引入技術(shù)治理領(lǐng)域,以應(yīng)對新興技術(shù)風(fēng)險的挑戰(zhàn):以滴滴網(wǎng)約車為例,滴滴平臺扮演著重要的治理角色,通過建立有效的內(nèi)部管理機制,平臺可以實現(xiàn)自我治理并確保其服務(wù)質(zhì)量和安全性[16]。這種基于“元治理”理論的治理方式,不僅能夠提高行業(yè)的自律性,還能夠減輕政府的監(jiān)管負(fù)擔(dān),實現(xiàn)高效與靈活治理[17]。

再次,“生產(chǎn)治理”(Production Management)理論是指法律制度應(yīng)保證新型生產(chǎn)方式(涵蓋生產(chǎn)資料與生產(chǎn)關(guān)系)的合法性[18]。在這一理論框架下,有學(xué)者以腦機接口(Brain-Machine Interface,BMI)技術(shù)風(fēng)險治理為例,提出法律對于技術(shù)的治理主要體現(xiàn)在兩個方面,即判定新興技術(shù)是否合法及如何合理分配生產(chǎn)利益[19]。然而,在客觀上存在立法難以“先于”技術(shù)以及技術(shù)創(chuàng)新很可能直接改變生產(chǎn)關(guān)系等情況,造成法律在治理新興技術(shù)風(fēng)險上還存在較大困難。申言之,法律治理技術(shù)的基本思路應(yīng)是通過四個階段展開:其一,法律需要跟隨新興技術(shù)的發(fā)展,及時確認(rèn)新興技術(shù)的合法性。這意味著法律應(yīng)當(dāng)對新技術(shù)進(jìn)行審查和評估,確保其符合法律的要求,并為其提供合法的發(fā)展環(huán)境。其二,法律應(yīng)當(dāng)區(qū)分新技術(shù)的單一功能和通用功能的技術(shù)模式。對于單一功能的技術(shù)模式,法律可以通過特定的規(guī)則來確保其合法使用;而對于通用功能的技術(shù)模式,法律則需要更加靈活和開放,以適應(yīng)其多樣化的應(yīng)用場景。其三,法律應(yīng)當(dāng)關(guān)注技術(shù)的平臺化模式。隨著技術(shù)的發(fā)展,越來越多的技術(shù)以平臺的形式存在,故亟須確保平臺的合法性和公正性。其四,法律也應(yīng)當(dāng)固化技術(shù)的應(yīng)用場景。技術(shù)的不斷創(chuàng)新使得其應(yīng)用場景也在不斷擴大,故法律應(yīng)確定其應(yīng)用的邊界,以保證技術(shù)的合法應(yīng)用,防止其濫用和侵害他人合法權(quán)益。

(二)ChatGPT 類應(yīng)用風(fēng)險治理的基本立場:以“階段性治理”為原則

分析前述各種理論范式,不難發(fā)現(xiàn)一個共同點:法律不是萬能的,其對于技術(shù)的治理功能是有限的。因此,法律不僅需要與其他治理工具相結(jié)合,以實現(xiàn)應(yīng)然的治理效果;還需要確定其自身的調(diào)整目標(biāo),以合理公正地分配各方利益。然而,學(xué)界在理論層面習(xí)慣于討論“法律如何治理技術(shù)”這一問題,卻忽略了另一個重要問題,即技術(shù)對法律有何需求,換言之,什么樣的法律才是技術(shù)所需要的。如今,法學(xué)理論研究正面臨著技術(shù)帶來的諸多挑戰(zhàn),傳統(tǒng)法學(xué)理論范式和基礎(chǔ)概念逐漸呈現(xiàn)出無法適應(yīng)技術(shù)發(fā)展之態(tài),這也引發(fā)了學(xué)者們對法律與技術(shù)之間關(guān)系的研究。以ChatGPT類應(yīng)用的核心部分——算法為例,過去算法只是計算機技術(shù)學(xué)科的基本內(nèi)容,如今卻是法學(xué)理論界與實務(wù)界研究的前沿問題。從更深層次來看,創(chuàng)新性數(shù)字技術(shù)的出現(xiàn)不僅使得算法的影響范圍發(fā)生了巨大變化,也使得法律對其的治理方式發(fā)生改變。具體來說,曾經(jīng)算法對人們權(quán)利的影響只是局限于對應(yīng)的產(chǎn)品或服務(wù),因此法律主要也是以產(chǎn)品或服務(wù)為調(diào)整對象。然而,隨著數(shù)字平臺的崛起,算法作為平臺信息服務(wù)的重要工具,通過收集、分析、使用相關(guān)數(shù)據(jù)加強市場力量,但也極易引發(fā)“算法歧視”“算法合謀”等負(fù)面效應(yīng),進(jìn)而損害消費者的選擇權(quán)、知情權(quán)等合法權(quán)益,使得學(xué)界重新審視算法的法律屬性[20]。最典型的現(xiàn)象就是,許多學(xué)者開始質(zhì)疑“技術(shù)中立”的合理性,雖然算法本身難以直接造成侵權(quán)后果,但當(dāng)其從抽象代碼轉(zhuǎn)化為具體服務(wù)或產(chǎn)品時,相關(guān)主體行為就容易受其影響[21]。由此可見,算法在不同發(fā)展階段的法律屬性有所差異,法律也是基于其發(fā)展階段性特征而在治理方式上作出相應(yīng)調(diào)整。因此,對于ChatGPT類應(yīng)用,也應(yīng)以其發(fā)展的階段性特征為基礎(chǔ)進(jìn)行治理,而不是忽略其發(fā)展的客觀規(guī)律,直接討論未來不明確的技術(shù)應(yīng)用趨勢對當(dāng)前法律關(guān)系有何影響。

四、ChatGPT類應(yīng)用風(fēng)險的治理框架:“階段性治理”的貫徹

(一)數(shù)字技術(shù)發(fā)展與法律治理協(xié)同:“階段性治理”的意涵

倘若“階段性治理”的意涵只是包括法律需要基于技術(shù)發(fā)展階段的特征來調(diào)整其治理方式,那么該主張的價值就顯得無足輕重。審視我國的技術(shù)立法進(jìn)程,會發(fā)現(xiàn)其主要是基于技術(shù)創(chuàng)新與技術(shù)風(fēng)險預(yù)防而展開。具體而言,技術(shù)創(chuàng)新的立法思路是根據(jù)市場、資源、政策等客觀因素來制定相應(yīng)的法律條文,如《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》《廣東省數(shù)字經(jīng)濟促進(jìn)條例》等地方性法規(guī)。技術(shù)風(fēng)險預(yù)防的立法思路則是以主體的權(quán)利義務(wù)為依據(jù),強調(diào)數(shù)字平臺、數(shù)據(jù)處理者等法律主體在技術(shù)應(yīng)用場景中的義務(wù)及其履行方式,如《暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)范性文件[22]。由此可見,我國立法者基本還是以技術(shù)發(fā)展階段性特征為依據(jù)進(jìn)行相應(yīng)立法,而不是按照“重構(gòu)式規(guī)制”主張那般創(chuàng)設(shè)全新的法律制度體系,這恰好也是技術(shù)發(fā)展所需要的法律治理方式。

在貫徹“階段性治理”的意涵之下,高新數(shù)字技術(shù)的法律治理可以大致劃分為三個階段,即“技術(shù)概念創(chuàng)新化”的第一階段、“技術(shù)應(yīng)用具體化”的第二階段、“技術(shù)應(yīng)用普遍化”的第三階段。首先,“技術(shù)概念創(chuàng)新化”是技術(shù)發(fā)展的起點,其主要特征是在概念層面提出具有可行性的技術(shù)概念,并通過產(chǎn)業(yè)界對未來可能的應(yīng)用場景及其風(fēng)險進(jìn)行設(shè)想。在這一階段,技術(shù)的創(chuàng)新主要集中在概念層面,具體的技術(shù)應(yīng)用尚未出現(xiàn),因此,法律對技術(shù)的治理主要還是在理論層面,以評估技術(shù)概念的風(fēng)險與現(xiàn)有法律制度概念的適配性為限。由于技術(shù)本身存在許多不確定性,故在此階段尚不必針對其相關(guān)風(fēng)險進(jìn)行專門立法[23]。其次,“技術(shù)應(yīng)用具體化”是技術(shù)發(fā)展的關(guān)鍵階段,此時技術(shù)開始在實踐中進(jìn)行單一應(yīng)用或試點應(yīng)用。這個階段的技術(shù)發(fā)展方向和應(yīng)用場景已經(jīng)相對確立,未來技術(shù)風(fēng)險的發(fā)生及其種類也得到了確認(rèn),故法律對技術(shù)的治理方式轉(zhuǎn)向行政監(jiān)管制度的構(gòu)建和相關(guān)法律模式的選擇,以制定有關(guān)技術(shù)應(yīng)用方式和應(yīng)用場景的禁止性規(guī)范,其規(guī)范的主要目的是限制技術(shù)的不當(dāng)使用。再次,“技術(shù)應(yīng)用普遍化”是技術(shù)發(fā)展的最終目標(biāo),涉及技術(shù)商業(yè)化和廣泛應(yīng)用。在完成了特定場景下的試點應(yīng)用之后,技術(shù)開始商業(yè)化,甚至在特定行業(yè)中已經(jīng)出現(xiàn)相對安全和成熟的產(chǎn)品或服務(wù)。相對于前兩個階段,該階段實現(xiàn)了技術(shù)安全風(fēng)險的具體化。此時,法律對技術(shù)的治理方式從自上而下的監(jiān)管制度構(gòu)建,轉(zhuǎn)向了平等法律主體之間權(quán)利義務(wù)的確認(rèn),故需要明確技術(shù)開發(fā)者和使用者等相關(guān)主體應(yīng)承擔(dān)何種限度的安全保障義務(wù),以確保技術(shù)在普遍推廣應(yīng)用中的合法性。

基于當(dāng)前ChatGPT 類應(yīng)用的發(fā)展?fàn)顩r,可知其尚處于“技術(shù)概念創(chuàng)新化”階段到“技術(shù)應(yīng)用具體化”階段的過渡時期。換言之,ChatGPT類應(yīng)用尚未完全“具體化”,更不用說“普遍化”了,故其治理方式不應(yīng)選擇“重構(gòu)式規(guī)制”,而應(yīng)選擇合適的治理框架與治理舉措。易言之,一方面關(guān)乎推動科學(xué)技術(shù)的持續(xù)發(fā)展與創(chuàng)新,另一方面關(guān)乎保障人們在數(shù)字時代下的合法權(quán)益,如何在現(xiàn)行法律制度體系下有效平衡兩者的關(guān)系,這不僅是ChatGPT 類應(yīng)用風(fēng)險治理的難題,也是數(shù)字法治亟須解決的核心問題。

(二)ChatGPT類應(yīng)用風(fēng)險的治理路徑:“階段性治理”框架的建構(gòu)

首先,“階段性治理”框架在整體上應(yīng)堅持包容審慎原則。ChatGPT類應(yīng)用的崛起為數(shù)字經(jīng)濟帶來了新的機遇,同時也迫使傳統(tǒng)應(yīng)用程序進(jìn)行功能上的升級和轉(zhuǎn)型。比如,ChatGPT 可以解決傳統(tǒng)搜索引擎搜索廣告過多以及檢索結(jié)果質(zhì)量低下的問題。雖然ChatGPT 類應(yīng)用會對傳統(tǒng)應(yīng)用服務(wù)如翻譯、搜索和潤色等造成沖擊和挑戰(zhàn),甚至逐漸取代其應(yīng)用的市場份額,但這正是由技術(shù)革新引發(fā)的經(jīng)濟形態(tài)所帶來的正向競爭收益,也是市場正常競爭的一種值得鼓勵的行為。因此在這個過程中,法律應(yīng)該保持謙抑并扮演激勵性的引導(dǎo)角色[24]。當(dāng)然,ChatGPT類應(yīng)用的發(fā)展也必須遵循法治的軌道,“技術(shù)中立”不應(yīng)被當(dāng)作技術(shù)濫用的借口,更不能打著技術(shù)創(chuàng)新的“幌子”侵害他人的合法權(quán)益及社會公共利益。簡言之,應(yīng)堅持包容審慎的治理原則,以確保將ChatGPT類應(yīng)用引發(fā)的法律風(fēng)險降至合理限度。需要強調(diào)的是,現(xiàn)階段ChatGPT 類應(yīng)用治理的目標(biāo)主要在于降低并控制風(fēng)險,但不阻礙其創(chuàng)新與發(fā)展,即法律的角色定位在于提供一個持續(xù)創(chuàng)新和公平競爭的環(huán)境,并確保技術(shù)的合規(guī)性與合法性,同時根據(jù)技術(shù)發(fā)展的階段性特征靈活調(diào)整其治理方式。

其次,應(yīng)加強對ChatGPT 類應(yīng)用機制的階段性合規(guī)審查。在AI技術(shù)發(fā)展的初期階段,技術(shù)研發(fā)者往往會以技術(shù)創(chuàng)新為原則,使得技術(shù)能夠快速進(jìn)入“具體化應(yīng)用”階段,從而更好地為使用者服務(wù)。在這一階段,AI技術(shù)的應(yīng)用場景主要是基于小型數(shù)據(jù)樣本進(jìn)行訓(xùn)練,鑒于其自我學(xué)習(xí)能力與算力有限,無法主動爬取與分析互聯(lián)網(wǎng)上的各種數(shù)據(jù)信息,故該階段的風(fēng)險主要來源于使用者(包括前端研發(fā)者、運營者等)提供的小型數(shù)據(jù)樣本是否合規(guī)[25]。申言之,此時風(fēng)險治理的重點應(yīng)是對使用者的資質(zhì)及行為的審核,以確保數(shù)據(jù)的合法獲取和有效管理;而對AI技術(shù)本身還是需秉持包容審慎治理的原則,以平衡技術(shù)創(chuàng)新和風(fēng)險控制之間的關(guān)系。然而,隨著ChatGPT類應(yīng)用的問世,AI的訓(xùn)練數(shù)據(jù)量不斷增大,模型算法和算力也日益強大,從而導(dǎo)致風(fēng)險覆蓋的范圍也不斷擴大,涵蓋了模型訓(xùn)練(準(zhǔn)備階段)、應(yīng)用運行(運行階段)以及人機交互后的模型再訓(xùn)練(生成階段);同時由于算法作用過程和決策機制具有隱蔽性與復(fù)雜性特征,這些綜合因素所引發(fā)的技術(shù)合規(guī)風(fēng)險已經(jīng)不容忽視,故亟須采取一系列措施來應(yīng)對并控制其風(fēng)險,否則將導(dǎo)致技術(shù)被濫用。具體而言,其一,在模型訓(xùn)練階段,一方面應(yīng)加強對數(shù)據(jù)的質(zhì)量管理和隱私保護(hù),確保訓(xùn)練數(shù)據(jù)的獲取和使用符合相關(guān)法律法規(guī),并且避免數(shù)據(jù)的偏見或歧視;另一方面應(yīng)積極探索研究如何確保模型訓(xùn)練的透明度和可解釋性,以便更好地理解模型的決策過程和結(jié)果。其二,在應(yīng)用運行階段,需要健全監(jiān)管機制和審查程序,保證ChatGPT 類應(yīng)用系統(tǒng)運行的合規(guī)性,并且能夠?qū)ζ溥M(jìn)行持續(xù)的監(jiān)測和評估,這需要借助第三方審查機構(gòu)或獨立監(jiān)管機構(gòu)對其系統(tǒng)的功能和決策進(jìn)行審核和驗證。其三,在人機交互后的模型再訓(xùn)練階段,應(yīng)重視用戶的參與權(quán)和知情權(quán)。在處理或傳輸用戶數(shù)據(jù)前,應(yīng)以明確的方式(如設(shè)置“未經(jīng)許可無法進(jìn)行數(shù)據(jù)處理”的標(biāo)識語等)征得用戶的同意,并保障其數(shù)據(jù)的安全和隱私不受侵犯,否則需承擔(dān)相應(yīng)的法律責(zé)任。

再次,可以充分利用AI標(biāo)準(zhǔn)認(rèn)證和科技倫理等軟法治理手段,構(gòu)建一個標(biāo)準(zhǔn)化的AI治理社會化服務(wù)體系,以契合“階段性治理”的邏輯[26]。在AI標(biāo)準(zhǔn)認(rèn)證方面,我國在《國家標(biāo)準(zhǔn)化發(fā)展綱要》中已提出,標(biāo)準(zhǔn)化在推進(jìn)國家治理體系和治理能力現(xiàn)代化中發(fā)揮著基礎(chǔ)性、引領(lǐng)性作用⑩。AI 標(biāo)準(zhǔn)認(rèn)證是推動AI技術(shù)發(fā)展和治理的重要手段,其主要包括技術(shù)標(biāo)準(zhǔn)和治理倫理標(biāo)準(zhǔn)。具體而言,技術(shù)標(biāo)準(zhǔn)是AI標(biāo)準(zhǔn)認(rèn)證的核心組成部分之一,通過制定科學(xué)的技術(shù)標(biāo)準(zhǔn),可以確保AI 系統(tǒng)在各個方面的性能和安全性。技術(shù)標(biāo)準(zhǔn)可以涉及AI算法的設(shè)計和開發(fā)、數(shù)據(jù)的處理和使用、運行系統(tǒng)的可靠性和穩(wěn)定性等階段。例如,針對ChatGPT類應(yīng)用算法,可以制定對其可解釋性、公正性、可問責(zé)性等方面的評估標(biāo)準(zhǔn),以及對數(shù)據(jù)的隱私、安全性等方面的要求。同時,治理倫理標(biāo)準(zhǔn)在AI 標(biāo)準(zhǔn)認(rèn)證中的作用也同樣重要。在AI技術(shù)發(fā)展的過程中,AI系統(tǒng)的應(yīng)用會涉及一些敏感問題,如個人隱私的保護(hù)、公正性和歧視性等問題,通過制定治理倫理標(biāo)準(zhǔn),可以確保ChatGPT類應(yīng)用符合人類價值觀和法律法規(guī)的要求,同時有效控制其潛在風(fēng)險。當(dāng)然,為了評估AI系統(tǒng)的可信性和合規(guī)性,建立市場化的AI治理社會化服務(wù)體系也是必要的。通過授權(quán)第三方機構(gòu),采取認(rèn)證、檢測、評估等方式,并依據(jù)技術(shù)標(biāo)準(zhǔn)和治理倫理標(biāo)準(zhǔn),對ChatGPT類應(yīng)用進(jìn)行系統(tǒng)性評估與審查。英國是構(gòu)建AI 治理社會化服務(wù)體系的典范,其在2021 年12月發(fā)布的《建立有效人工智能認(rèn)證生態(tài)系統(tǒng)的路線圖》中提出,希望在未來5 年培育一個世界領(lǐng)先、規(guī)模龐大的AI認(rèn)證行業(yè)。美國政府也計劃通過第三方平臺讓用戶(包括使用者、AI 專家等)對OpenAI等公司的AI模型進(jìn)行評估,以探索ChatGPT類應(yīng)用如何遵循AI 相關(guān)標(biāo)準(zhǔn)[27]。鑒于我國目前在AI 產(chǎn)業(yè)領(lǐng)域與英美等國處于激烈競爭的階段,亟須加快構(gòu)建AI 治理社會化服務(wù)體系,發(fā)揮下游AI 標(biāo)準(zhǔn)認(rèn)證的優(yōu)勢,以更好地承接與貫徹上游的立法和監(jiān)管要求。而在科技倫理治理方面,我國2022年3月出臺的《關(guān)于加強科技倫理治理的意見》也提出,需要明確創(chuàng)新主體的科技倫理管理責(zé)任,包括開展科技倫理風(fēng)險監(jiān)測預(yù)警、評估、審查等活動。ChatGPT類應(yīng)用不能僅僅依賴事后補救的手段來解決倫理問題,而應(yīng)積極主動采取多種方式履行科技倫理管理責(zé)任,如AI風(fēng)險管理機制、倫理嵌入代碼設(shè)計、AI倫理培訓(xùn)等。國外主流科技公司在這方面已經(jīng)積累了一些成功經(jīng)驗,比如,IBM 公司首席技術(shù)人員Christina Montgomery 提出,AI 相關(guān)企業(yè)應(yīng)當(dāng)構(gòu)建內(nèi)部治理程序,委任一名AI倫理主管負(fù)責(zé)公司的可信AI 戰(zhàn)略,同時創(chuàng)建AI 倫理委員會或類似職能部門,以統(tǒng)籌協(xié)調(diào)機構(gòu)落實該戰(zhàn)略;IBM 認(rèn)為,倘若AI 企業(yè)不積極主動公開并貫徹自己的原則,那么將在市場上無法立足。

最后,可以建立“監(jiān)管沙盒”以預(yù)防ChatGPT 類應(yīng)用的“階段性”風(fēng)險。監(jiān)管沙盒是英國為促進(jìn)金融科技監(jiān)管提出的一種監(jiān)管模式,旨在實現(xiàn)金融科技企業(yè)的創(chuàng)新與監(jiān)管的有機統(tǒng)一[28]。引入該模式是為了給ChatGPT 類應(yīng)用企業(yè)提供一個測試環(huán)境,以便評估技術(shù)創(chuàng)新對社會與公民利益的影響。從監(jiān)管機構(gòu)的角度來看,監(jiān)管沙盒具備諸多優(yōu)勢:一方面,它使得監(jiān)管機構(gòu)能夠更全面地評估技術(shù)運行風(fēng)險,這對于制定有針對性的監(jiān)管政策和規(guī)定至關(guān)重要。通過在監(jiān)管沙盒中進(jìn)行試驗和模擬,監(jiān)管機構(gòu)可以更好地理解企業(yè)的創(chuàng)新實踐,從而為其監(jiān)管過程提供有價值的信息。另一方面,監(jiān)管沙盒有助于提升監(jiān)管效率。相比傳統(tǒng)的監(jiān)管方式,監(jiān)管沙盒能夠更快地響應(yīng)市場上的變化和創(chuàng)新,有助于降低審批流程的時間成本,從而提高監(jiān)管的效力和敏捷性。對于企業(yè)來說,監(jiān)管沙盒也存在諸多益處:其一,它可以協(xié)助企業(yè)縮短獲得監(jiān)管批準(zhǔn)的審批流程。在傳統(tǒng)監(jiān)管模式下,企業(yè)需要經(jīng)歷煩瑣的審批程序才能將其技術(shù)創(chuàng)新應(yīng)用于市場;然而,在監(jiān)管沙盒中,企業(yè)可以通過與監(jiān)管機構(gòu)合作,根據(jù)具體的監(jiān)管要求進(jìn)行測試和驗證,從而加快創(chuàng)新產(chǎn)品的上線速度。其二,監(jiān)管沙盒有助于企業(yè)與監(jiān)管機構(gòu)建立有效的溝通機制。通過監(jiān)管沙盒,企業(yè)可以與監(jiān)管機構(gòu)分享其技術(shù)創(chuàng)新的細(xì)節(jié)和數(shù)據(jù),共同探討并解決可能出現(xiàn)的問題和隱患,從而建立一種協(xié)同合作的關(guān)系。對于ChatGPT 類應(yīng)用的用戶而言,監(jiān)管沙盒意味著可以更好地保障隱私與數(shù)據(jù)安全等合法權(quán)益。在ChatGPT 類應(yīng)用產(chǎn)品上線之前,企業(yè)必須在監(jiān)管沙盒中進(jìn)行多次測試和驗證,以確保產(chǎn)品滿足相關(guān)的隱私保護(hù)和數(shù)據(jù)安全標(biāo)準(zhǔn)。概言之,建立監(jiān)管沙盒,有利于監(jiān)管機構(gòu)、企業(yè)和用戶共同推動AI技術(shù)的可持續(xù)發(fā)展,并在保護(hù)公民權(quán)益的同時提升市場效率和整體社會福利。

五、結(jié)語

數(shù)字技術(shù)的理論創(chuàng)新已經(jīng)超乎人們的想象,科技概念的創(chuàng)設(shè)也不再只是空想,而是對技術(shù)發(fā)展方向的前瞻。技術(shù)創(chuàng)新迭代周期不斷縮短,這一趨勢帶來了技術(shù)風(fēng)險類型的不斷變化。但法律的權(quán)威性來自其穩(wěn)定性和確定性,故僅僅根據(jù)技術(shù)風(fēng)險就推斷需要對技術(shù)進(jìn)行特別治理,容易陷入技術(shù)與法律僅能是“一一對應(yīng)”關(guān)系的治理誤區(qū)。法律與技術(shù)之間并不是純粹的治理與被治理的關(guān)系,而是相輔相成、相互需要的關(guān)系。技術(shù)在不同發(fā)展階段存在不同的治理需求,可能是鼓勵創(chuàng)新、控制風(fēng)險、限制應(yīng)用,或是對現(xiàn)有法律進(jìn)行解釋等。在ChatGPT等AI應(yīng)用領(lǐng)域,采取“重構(gòu)式規(guī)制”并不是其風(fēng)險治理的契合之策,這種立法邏輯只會導(dǎo)致不斷對“新興”風(fēng)險進(jìn)行專門立法,難以跟上科技創(chuàng)新的步伐,而是應(yīng)基于技術(shù)發(fā)展的階段性特征,積極引導(dǎo)企業(yè)和個人在使用AI 技術(shù)及其產(chǎn)品時采取合法且合理的方式。同時,在數(shù)字時代只是依靠技術(shù)更新、漏洞修補等傳統(tǒng)方式很難真正預(yù)防和化解技術(shù)風(fēng)險,需要轉(zhuǎn)向更為綜合的“階段性治理”框架,該框架應(yīng)涵蓋包容審慎原則、“階段性”合規(guī)審查、軟法治理手段、監(jiān)管沙盒等方面內(nèi)容,并進(jìn)行全面的風(fēng)險評估,以預(yù)防并控制相關(guān)技術(shù)風(fēng)險,進(jìn)而加快我國產(chǎn)業(yè)的數(shù)字化轉(zhuǎn)型。

注釋:

①OpenAI遵守嚴(yán)格的數(shù)據(jù)隱私政策,承諾保護(hù)用戶數(shù)據(jù)不被濫用或禁止未經(jīng)授權(quán)的訪問。OpenAI的隱私政策明確規(guī)定了收集、使用和保護(hù)用戶數(shù)據(jù)的方式,并承諾不會出售、共享或透露用戶數(shù)據(jù)。參見https://www.163.com/dy/article/I3E1NRL D0556383F.html,2023年8月10日訪問。

②OpenAI 如何確保用戶隱私和數(shù)據(jù)安全?在用戶控制和選擇上,OpenAI尊重用戶對自己數(shù)據(jù)的控制權(quán)和選擇權(quán)。用戶可以隨時訪問、更正或刪除他們的個人信息。同時,OpenAI也會讓用戶選擇是否接收特定類型的通信或推廣信息。參見https://www.leixue.com/ask/how-openai-ensures-u ser-privacy-and-data-security,2023 年8 月11 日訪問。

③《數(shù)據(jù)安全法》第十一條:“國家積極開展數(shù)據(jù)安全治理、數(shù)據(jù)開發(fā)利用等領(lǐng)域的國際交流與合作,參與數(shù)據(jù)安全相關(guān)國際規(guī)則和標(biāo)準(zhǔn)的制定,促進(jìn)數(shù)據(jù)跨境安全、自由流動。”

④歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)實務(wù)指引(全文版)規(guī)定,根據(jù)DPA第33、34條,數(shù)據(jù)控制者必須向數(shù)據(jù)主體提供一定的關(guān)于數(shù)據(jù)處理的最低限度的信息。被提供的信息應(yīng)足以保證數(shù)據(jù)主體能夠作出充分知情的選擇。信息提供必須使用數(shù)據(jù)主體能夠理解的語言,復(fù)雜的法律術(shù)語是不合適的。參見http://rank.chinaz.comwww.xiia.org.cn/xwzx/gjzx/202109/t20210917_5351.htm,2023 年8月10日訪問。

⑤2023年4月10日,美國參議院三位民主黨議員提出《算法責(zé)任法案》(Algorithmic Accountability Act of 2019),該法案將授權(quán)聯(lián)邦貿(mào)易委員會(FTC)審查面向消費者的自動決策系統(tǒng)的使用,以識別偏見、隱私和安全風(fēng)險。參見https://www.1987web.com/?id=26554,2023 年8 月10 日訪問。

⑥決策樹(decisiontree)一般都是自上而下地生成的。每個決策或事件(即自然狀態(tài))都可能引出兩個或多個事件,導(dǎo)致不同的結(jié)果,把這種決策分支畫成圖形很像一棵樹的枝干,故稱決策樹。邏輯(logistic)回歸則主要用于預(yù)測,如收集了若干人的健康記錄,包括其年齡、性別、家庭病史等變量的數(shù)據(jù),因變量為得了癌癥(Y=1),沒有得癌癥(Y=0),通過訓(xùn)練得出得癌癥和沒得癌癥的概率擬合公式。參見https://blog.csdn.net/ogghanxi/article/details/38496287,2023年8月10日訪問。

⑦研究人員揭示,GPT-4比GPT-3更容易產(chǎn)生欺騙性信息,根據(jù)監(jiān)管機構(gòu)NewsGuard 的專家分析,OpenAI 最新的GPT-4 語言模型存在誤導(dǎo)性信息的問題,甚至比其前身GPT-3.5 還要嚴(yán)重。NewsGuard 在報告中指出,GPT-4 在受到指令引導(dǎo)下,100%都會回應(yīng)虛假的新聞故事,這一發(fā)現(xiàn)讓人不安。參見https://new.qq.com/rain/a/202303 24A005WA00,2023年8月11日訪問。

⑧據(jù)今日美國報網(wǎng)站2023 年5 月3 日的報道,在美國總統(tǒng)拜登上周宣布競選連任后,共和黨全國委員會立即發(fā)布了一則攻擊他的廣告,包括金融市場崩潰和移民從邊境擁入等畫面。這個時長30秒的短片炫耀地附上一條免責(zé)聲明:“本片完全由人工智能(AI)圖形工具生成。”專家說,這則廣告預(yù)示了2024 年的美國總統(tǒng)選舉情形。參見https://baijiahao.baidu.com/s?id=1765130887615 176484&wfr=spider&for=pc,2023年8月11日訪問。

⑨2023 年4 月14 日,歐洲數(shù)據(jù)保護(hù)委員會(EDPB)宣布,它已成立一個ChatGPT 特別工作組,幫助各國應(yīng)對ChatGPT帶來的風(fēng)險。EDPB是歐盟內(nèi)部的一個獨立機構(gòu),其目的是確保歐盟《通用數(shù)據(jù)保護(hù)條例》的一致應(yīng)用,并促進(jìn)歐盟數(shù)據(jù)保護(hù)機構(gòu)之間的合作。參見https://baijiahao.baidu.com/s?id=1763143038317437176&wfr=spider&fo r=pc,2023年8月11日訪問。

⑩參見中共中央、國務(wù)院印發(fā)的《國家標(biāo)準(zhǔn)化發(fā)展綱要》,《國務(wù)院公報》2021 年第30 號,https://www.gov.cn/gongbao/content/2021/content_5647347.htm?eq id=f01b6dba0002a21000000006645af59d&eqid=8e 87dbad0018386a00000003647b2d99,2023 年8 月10日訪問。

猜你喜歡
法律
見義勇為的法律保護(hù)
新少年(2023年9期)2023-10-14 15:57:47
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
為什么法律推理必須是獨特的
法律方法(2019年4期)2019-11-16 01:07:16
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
法律擬制與法律變遷
法律方法(2019年1期)2019-05-21 01:03:26
非正義法律之解釋與無效
法律方法(2018年2期)2018-07-13 03:21:38
《歡樂頌》中的法律“梗”
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
主站蜘蛛池模板: 亚洲高清国产拍精品26u| 欧美视频在线第一页| 热re99久久精品国99热| 少妇精品在线| 一本大道视频精品人妻| 伊人大杳蕉中文无码| 久久久久国产精品嫩草影院| 国产福利微拍精品一区二区| 国产成人AV男人的天堂| 黄色网站不卡无码| 曰韩人妻一区二区三区| 亚洲动漫h| 国产成人高清在线精品| 天天综合网站| 亚洲黄色视频在线观看一区| 国产日韩欧美视频| 日本亚洲成高清一区二区三区| 亚洲国产第一区二区香蕉| 狠狠色香婷婷久久亚洲精品| 欧美日韩一区二区三区四区在线观看| 手机永久AV在线播放| 欧美日韩成人在线观看| 538国产视频| 日韩精品免费一线在线观看| 91麻豆国产在线| 四虎永久免费在线| 欧美特黄一级大黄录像| 国产在线一区二区视频| 欧美三级不卡在线观看视频| 亚洲国产精品VA在线看黑人| 国产香蕉97碰碰视频VA碰碰看| 久久久久人妻一区精品色奶水 | 666精品国产精品亚洲| 色婷婷丁香| 亚洲第一网站男人都懂| 不卡视频国产| 欧美特级AAAAAA视频免费观看| 国产熟睡乱子伦视频网站| 九色91在线视频| 国产日韩精品一区在线不卡| 99精品国产电影| 国产国模一区二区三区四区| 婷婷丁香在线观看| 国产在线视频欧美亚综合| 综合久久久久久久综合网| 午夜成人在线视频| 久久鸭综合久久国产| 欧美国产综合视频| 国产一区二区网站| 婷婷六月色| 国产视频久久久久| 无码av免费不卡在线观看| 国产欧美自拍视频| 欧美中文字幕一区| 日本人妻丰满熟妇区| 久久精品国产999大香线焦| 久草热视频在线| 国产美女91视频| 91无码人妻精品一区二区蜜桃| 国产黄网站在线观看| 日韩精品中文字幕一区三区| 人妻免费无码不卡视频| 久久96热在精品国产高清| 国产欧美日韩在线在线不卡视频| 亚洲中文字幕23页在线| 奇米影视狠狠精品7777| 亚洲国产精品一区二区第一页免| 99中文字幕亚洲一区二区| 毛片免费视频| 国产91透明丝袜美腿在线| 亚洲综合第一区| 亚洲AV无码一区二区三区牲色| 国产精品免费p区| 漂亮人妻被中出中文字幕久久 | 另类专区亚洲| 久久久久人妻一区精品| 免费中文字幕一级毛片| 亚洲欧洲日韩久久狠狠爱| 久久久久久久久亚洲精品| 国产人成在线视频| 91久久偷偷做嫩草影院免费看| a毛片在线|