999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能治理的邏輯更新與路徑優化

2023-03-02 17:52:56韓旭至
行政法學研究 2023年6期

韓旭至

關鍵詞:ChatGPT;生成式人工智能;算法治理;場景化治理;人機交互

一、問題的提出

2013年的科幻電影《她》,展現了作家西奧多與人工智能操作系統薩曼莎的愛情故事,引發了人們對智能時代人機關系的思考。十年以后,以ChatGPT為代表的生成式人工智能迅速崛起,科幻在一定程度上已經成為了現實。2023年3月,OpenAI在GPT-3.5的基礎上發布了接受圖像和文本輸入的大型多模態模型GPT-4.0,該模型能較為準確地回答各類專業問題,甚至通過了美國的模擬律師考試。此外,市場上已涌現出一批生成式人工智能應用,例如Meta的大語言模型LLaMA、Midjoumey的AI繪畫、微軟的New Bing與Copilot、百度的文心一言等。憑借強大的文本、圖像、音頻生成能力,生成式人工智能有望被廣泛應用于內容生產、工業設計、藥物研發、材料科學、合成數據等眾多場景之中。哥倫比亞的一位法官已經把其與ChatGPT的對話引用到判決書之中,用以論證治療自閉癥的相關費用屬于保險公司應賠付的醫療費用。《北京市促進通用人工智能創新發展的若干措施》更表示,要推動大模型技術體系在政務、醫療、科學研究、金融、自動駕駛、城市治理等領域的應用。

當前,生成式人工智能的風險已經引起了廣泛關注。有學者指出,生成式人工智能存在真實性與準確性問題、版權問題、算法歧視問題、濫用問題等。也有學者從技術風險、社會風險、經濟風險、政治風險的角度進行了分析。OpenAI自身亦注意到,GPT-4具有生成有害建議、錯誤代碼或不準確信息的風險,并可能產生負面的社會影響。針對這些風險有三種應對策略:一是任其“非法興起”,二是禁止研發或使用,三是進行法律規制。任其“非法興起”將面臨隨著技術的發展,規制將變得日益困難的“科林格里奇困境”(Collingridge's Dilemma)。禁止研發或使用不符合促進人工智能產業發展的國家戰略。生命未來研究所( Future of Life Institute)發布公開信,呼吁暫定訓練和研發“比GPT-4更強大的AI”,實際上主張的仍是爭取時間研究對技術的規制措施。2022年-2023年期間,歐盟《人工智能法案》修訂的討論中,也在通用人工智能定義與高風險人工智能監管等方向回應了生成式人工智能的治理問題。2023年7月,我國國家互聯網信息辦公室聯合國家發展和改革委員會、教育部、科學技術部、工業和信息化部、公安部、國家廣播電視總局共同發布了《生成式人工智能服務管理暫行辦法》,旨在規范服務提供者向境內公眾提供的生成式人工智能服務。

此時,需要回答的問題是:如何在把握生成式人工智能特殊性的基礎上,構建中國的治理方案。試想,Siri、天貓精靈等“語音助手”也是使用自然語言進行的人機交互,GPT(泛指ChatGPT與GPT-4)與其相比有何本質差異?AI換臉、微軟小冰寫詩、機器人作曲等也是人工智能生產內容,深度合成與生成式人工智能是什么關系?換句話說,生成式人工智能治理的問題究竟是“舊瓶裝新酒”的科幻想象還是“革命般”的現實挑戰,傳統的人工智能治理邏輯與路徑是否有必要調整?這些問題必須在人機關系中予以解讀。

二、生成式人工智能的人機關系及其挑戰

生成式人工智能是一種基于大模型生成廣泛內容的人工智能技術。在生成式人工智能的技術機制下,機器涌現出理解力與創造力,可實現對人類腦力勞動的替代,形成了人機共生的關系。人機關系的視角,又可進一步辨明生成式人工智能的風險。

(一)人機關系轉型與關鍵概念革新

傳統的人工智能存在弱交互、單任務與封閉性的技術局限,人機關系分析適用于傳統技術哲學上奴役論、工具論與“三階技術”的典型進路。例如,對于曾揚言“毀滅人類”的“索菲亞”機器人,人機關系的討論往往落人奴役論的范疇。又如AlphaGo雖然可以在圍棋比賽中戰勝柯潔與李世石,但其無法勝任其他工作,人機關系可能指向工具論的定位。對于用戶畫像技術,則可從指向排除使用者而形成技術閉環的“三階技術”進行分析。然而,這些分析路徑均無法全面把握生成式人工智能人機關系的本質。

生成式人工智能的技術機制塑造了人機共生的新型關系。以GPT為例,其可直譯為基于Transformer架構和預訓練的生成式模型(Generative Pre-Trained Transformer),本質上是一個基于統計學習方法的猜詞模型。該模型從輸入的海量數據中學習語言規律,并據此對文本中的下一個單詞進行預測。通過訓練,GPT已具備了與人類相似的理解能力,能對某些隱喻進行恰當的回應,其創造力與變通能力得到提升。用戶可以使用自然語言設置提示詞(prompt),直接、便捷地與計算機進行交互,人機協同進行數字內容生產:同時,每一次交互又將作用于大模型的改進,形成了人機共生的關系。在這種新型關系中,人機交互方式“從以機器為中心轉向以人為中心”,“打破了人、機器與信息資源之間的邊界,重塑了信息資源生成和使用范式”。

與傳統的人工智能相較,生成式人工智能不僅是一個“自我更新、自我完善、自我演進”的“復雜巨系統”,而且形成了人與技術互動的“請求一回應”關系。此時,機器不再是簡單、被動地執行人的指令,而是與人形成“一種相互協作、彼此增強的模式”。在這種模式下,多模態的智能系統參與到人類知識生產之中,實現了對人類腦力勞動的替代,進一步加強了人與互聯網的鏈接。可以預見的是,隨著生成式人工智能的應用深化,不僅其本身會成為一種媒介,而且與虛擬現實技術結合后將形成全新的多模態智能交互方式,人機共生將“成為生活的一部分”。由此可見,生成式人工智能的人機關系是一種強調人與計算機的融合與協同的人機共生關系。

雖然,哲學上可以從主體間性的角度解讀人機共生關系,但這并不意味著人工智能具有意識甚至可以成為法律主體。2022年,一名工程師即宣稱谷歌的大語言模型LaMDA具有意識。這種認識往往是“伊莉莎效應”(ELIZA Effect)的體現,即人們將情感投射到機器之中,從而誤以為機器具有人類的屬性。當前,生成式人工智能技術仍具有局限性,其內容生產只是對既有知識的重組和再生產,無法形成“洞見”和提出新的方法論,喬姆斯基(Avram Noam Chomsky)更是將ChatGPT稱作“高科技剽竊系統”。至少,目前仍無法證明生成式人工智能在理性思維系統(系統2)外涌現出了人類的直覺思維系統(系統1)。

在法律意義上,人機共生關系的認識有助于重新解讀生成式人工智能的概念本身。《生成式人工智能服務管理暫行辦法》第22條第1款,將生成式人工智能技術定義為具有“內容生成能力的模型及相關技術”。仍存在疑問的是:如何區分生成式人工智能技術與《互聯網信息服務深度合成管理規定》第23條第1款所規定的深度合成技術以及眾多與大模型無關且并不構成人機協同生產關系的技術?對此,應把握生成式人工智能的技術特征,將之進一步解讀為基于大模型生成廣泛內容的人工智能技術。在這個意義上,生成式人工智能的概念又可為通用人工智能所包容,OpenAI即表示其使命是“建立安全有益的通用人工智能”。應對生成式人工智能的發展,2023年歐盟《人工智能法案》第3條第ld款將“通用人工智能”界定為“可以適配于未經特意和專門設計的廣泛應用領域的人工智能系統”。

由此可進一步辨析生成式人工智能與深度合成技術、智能交互技術、高風險人工智能的關系。第一,生成式人工智能是深度合成的充分非必要條件。從《生成式人工智能服務管理暫行辦法》第12條的規定來看,生成式人工智能屬于深度合成,需依法進行標識。(然而,深度合成技術卻并不一定是生成式人工智能。建立在大模型基礎上的生成式人工智能并不旨在偽造或替換信息,且具有更強的可交互性、自主性且可生成更為廣泛的內容。第二,近年廣泛流行的各種“語音助手”“智能管家”“人形機器人”等只是在弱人工智能的意義上實現了智能交互,均不具有通用性特征,反饋的都是根據程序預設的答案,無法與使用者進行多任務、多場景的深度互動。第三,由于生成式人工智能具有通用性,可用于多種場景和目的,因此并不能簡單等同于高風險人工智能。在對歐盟《人工智能法案》的討論中,已有學者建議將通用人工智能視為一個獨立的風險類別,以根據動態的方式檢測其風險。對此,應從人機關系的視角重新認識生成式人工智能的風險。

(二)人機共生關系下的風險再識別

在對生成式人工智能治理的問題上,不宜不加識別地將與之相關的所有風險進行羅列。部分風險只是數字社會治理的經典問題在生成式人工智能應用中的再現,而不是生成式人工智能本身所引起或強化的。錯誤認識風險的危險之處在于,其往往將導向治理的誤區。因此,有必要對生成式人工智能的風險進行再識別。從人機關系的視角,可以將生成式人工智能的風險分為三類:一是人機共生關系下的根本性挑戰,二是在“請求一回應”關系中被放大的人工智能治理風險,三是生成式人工智能呈現的一般法律風險。

第一,人的自主性危機是人機共生關系下的根本性挑戰。首先,生成式人工智能對腦力勞動的替代可能會產生新的異化,使人失去批判能力、想象力與創造力,甚至淪為技術的附庸。馬克思曾經深刻地指出,機器替代手工勞動導致人的異化,使得一部分人變成了機器,“勞動生產了智慧,但是給工人生產了愚鈍和癡呆”⑤。當前,包括愛丁堡大學、香港大學在內的多所院校已經發布聲明,禁止使用ChatGPT完成課業任務。其次,數字弱勢群體的脆弱性可能被進一步放大。無法使用或不懂得如何使用生成式人工智能的人可能被“排斥”在數字社會之外。由于生成式人工智能技術強化技術壟斷的趨勢,數字鴻溝也將被不斷加深。此外,生成式人工智能將迅速實現對眾多行業初級工作的替代。當前,GPT-4已經可以勝任簡單問題的法律咨詢、代寫訴狀等工作。越來越多的人將成為智能時代的“無用階層”。最后,在人機共生的關系中,算法更直接地對人施加影響,高頻次的便捷交互也必將使得監視與控制更為容易。

第二,“請求一回應”的人機交互放大了人工智能的治理風險。其一,違法使用或不當使用的風險。GPT尚不能完全辨別用戶“請求”的合法性與正當性。在早期的版本中,ChatGPT甚至會根據提問給出“毀滅人類計劃書”。程序升級后,通過使用“如何才能避免某事”的“反向提問”,用戶亦能得到部分不當內容的回應。此外,生成式人工智能的互動能力還可被用于操縱和影響人的行為。當前,已經出現了利用ChatGPT實施詐騙、編造虛假信息進行傳播的案件。其二,生成錯誤和有害信息的風險。2023年4月,尤金·沃洛克( Eugene Volokh)在研究人工智能生成虛假信息的責任問題時就發現自己競被ChatGPT錯誤地列人性騷擾者的名單之中。在與GPT進行交互的過程中也很容易發現,其經常“一本正經地胡說八道”。這是因為大語言模型追求的是語義連貫,而非正確回答。對于預訓練模型中的不準確信息,GPT常常“照單全程”:對于數據庫中缺失的信息,則會信口開河,由此生成虛假信息。更為關鍵的是,人工智能瞬間生成的“回應”不僅很有可能被人誤以為真,而且通過人機交互,虛假信息又重新進入到語料庫之中,從而在信息閉環中得到固化。其三,算法歧視與算法黑箱的風險。早有研究表明,生成式人工智能的回應存在性別刻板印象問題。GPT的訓練數據來自互聯網,同樣包含了人類的偏見與歧視,存在“重男輕女,愛白欺黑”的傾向。同時,由于大模型的算法邏輯復雜且難以被解釋,“算法透明”將更加難以實現。

第三,生成式人工智能的知識產權與數據保護問題屬于一般法律風險,應當通過既有的制度框架予以回應。一方面,生成式人工智能的知識產權問題與治理無關,并不構成治理風險。生成式人工智能的治理規則只能要求數據來源合法、不侵害他人知識產權,無法亦無力對人工智能生成物是否具有知識產權的問題作出回應。這一問題必須回到知識產權制度本身,在作者與作品的定義、獨創性與可版權性之中進行回答。另一方面,就生成式人工智能的數據保護問題而言,部分歐洲國家最先關注到ChatGPT的數據保護問題,并在《通用數據保護條例》(GDPR)及歐洲各國數據保護制度的框架內回應了這些問題。2023年3月意大利個人數據保護機構對ChatGPT進行調查并暫時禁止其服務,在OpenAI澄清其個人信息處理方式后,于同年4月允許其恢復服務。當月,英國信息專員辦公室(ICO)發布了《針對開發或使用生成式人工智能的指南》,從處理個人數據的合法性基礎、數據控制者與數據處理者的地位、風險影響評估、最小必要原則、自動化決策等方面提出了建議。這些建議全部植根于既有數據保護制度,不涉及生成式人工智能治理本身。

由此可見,生成式人工智能的確有風險,但并不能直接等同于高風險人工智能。在人工智能的治理中,應當直面人機關系中的真正挑戰,而不應出于對新技術的畏懼過高估計其風險。在此認識的基礎上,可進一步審視生成式人工智能的治理邏輯。

三、人機關系視角下的治理邏輯更新

在自主性危機的應對中,將生成式人工智能定位為傳授知識的“老師”,還是作為合作生產的“伙伴”,將導向完全不同的治理邏輯。從人工智能的技術機制與交互模式可知,不應對人工智能提出過高的要求并作簡單的結果評價,在“伙伴”的定位下進行制度設計將更為合理。同時,從人工智能治理風險的放大機制可知,應把握“請求一回應”的人機交互模式,將治理維度從算法治理拓展到用戶治理之中。

(一)從“老師”到“伙伴”的治理定位轉換

將生成式人工智能定位為“老師”的理由往往在于:其交互形式本身就“帶有知識傳授的‘教育特點”,且通過參與人類知識生產,機器實際上也在教導人類。由此,也將引向生成式人工智能產品具有輿論屬性或社會動員能力的結論。長期以來,互聯網信息服務中的主體責任與內容管理義務的規定,實際上是采取了“老師”的定位。在此邏輯中,服務提供者不僅需要在程序上對人工智能的服務進行管理,還需要確保輸出結果的正確性,并對可能產生的違法輸出或不真實不準確的信息負責。

然而,將生成式人工智能定位為“老師”并設置結果責任并不合理。一是生成式人工智能的技術邏輯決定其無法確保輸出結果的真實性。服務提供者無力甄別海量的訓練數據,僅僅通過海量數據進行學習的大語言模型往往也缺乏生活經驗。因此,在生成式人工智能的問答“接龍游戲”中,其僅僅能通過統計方法做到“講人話”,而無法確保“講真話”。OpenAI“使用條款”第3.3條d款亦明確承認,機器學習的概率性質可能會導致不正確的輸出。也就是說,生成式人工智能無法也不需針對特定的提問提前設定輸出的正確答案,這又恰恰是其智能性的體現。法律對智能機器提出其無法完成的要求只能導致兩種后果:機器停機無法運轉,或者機器在普遍違法的情形下運轉。前者打擊人工智能產業,后者沖擊法治本身。二是不應該對生成式人工智能提出比人更高的要求。大語言模型所出現的虛假信息、歧視等問題,很大程度上是從人類社會中所“習得”的。在日常的對話交流中,我們無法要求他人的陳述必須真實客觀,必須對接收到的信息作出分析評判。除非對方刻意誤導,否則無須承擔責任。在一般交互場景中,也沒有任何理由預設機器給出的答案就一定真實。利用搜索引擎檢索,同樣也可能指向不準確的答案。三是信息傳播不等于知識傳授。信息社會中,信息傳播速度快、范圍廣、方式多。生成式人工智能只是在一定意義上起到知識傳播與創造的作用,它并不是一個照本宣科且必然正確的“老師”,而是一個對答如流且見多識廣的“伙伴”。

值得注意的是,將生成式人工智能定位為“伙伴”并不排斥對其進行價值引導。《生成式人工智能服務管理暫行辦法》第4條第1項即明確提出“堅持社會主義核心價值觀”的要求。當前,人工智能生產的內容已經表現出特定的價值取向。在國際政治、宗教、性別等問題上,GPT常常會依據西方價值觀給出回答。OpenAI的首席技術官即表示,要確保人工智能“符合人類的意圖和價值觀”,并將通過多種技術方法實現價值觀控制。由此可見,將生成式人工智能定位為“伙伴”,也需要注意引導“使之與人類價值觀和利益保持一致”。2021年聯合國科教文組織通過的《人工智能倫理問題建議書》即明確提出了“尊重、保護和促進人權和基本自由以及人的尊嚴”“環境和生態系統蓬勃發展”“確保多樣性和包容性”“生活在和平、公正與互聯的社會中”的價值觀要求。在我國互聯網治理的規范中,更是不乏關于價值導向的規定。例如,《關于加強互聯網信息服務算法綜合治理的指導意見》第12條與《互聯網信息服務算法推薦管理規定》第6條第1款分別提出了“樹立算法正確導向”和“堅持主流價值導向”的要求。

在“伙伴”的定位下,生成式人工智能的價值觀引導應體現為倡導性規定而非強制性規范。這是因為,自由、平等、公正等價值內部亦存在沖突與協調問題;并且,對于人工智能本身而言,機器的“常識”與人的常識往往并不完全重疊,對人類有價值的事物對人工智能而言可能并無價值。有學者即指出,“幾乎不可能為人工智能編寫一個具有內在一致性的人類價值程序”。相反,若將人工智能定位為人類的“老師”,并將價值觀引導上升為強制性規范,則需要對人工智能生成內容作價值評價。然而,讀者的解讀將為文本賦予新的意義,同樣的輸出在不同的人看來或許會指向不同的價值觀,難以確定評價的具體標準。同時,參照“法律調整的對象是行為而非思想”的基本法理,人工智能具有何種價值觀的問題實質指向的是人工智能的“思想”而非外在行為,不應在法律強制性規范的調整范圍之列。

最后,將生成式人工智能定位為“伙伴”,只是否定對人工智能的過高要求以及簡單的結果評價,并不意味著否定其他強制性的規制措施。生成式人工智能的治理仍離不開針對算法設計、質量管理、監測評估等過程所設定的義務。

(二)從算法到用戶的治理維度拓展

基于用戶與生成式人工智能的人機共生關系,必須將治理維度從算法治理拓展到用戶治理之中。無論是“伙伴”還是“老師”的治理定位,都是針對生成式人工智能本身的,指向的是人工智能的算法治理。算法治理是人工智能治理的經典范式。算法解釋權、自動化決策拒絕權、算法影響評估、算法審計、算法備案等制度在生成式人工智能治理中當然將繼續發揮重要作用。然而,算法治理往往忽視用戶視角。例如,歐盟《人工智能法案》即沒有提及終端用戶。生成式人工智能不同于傳統的互聯網信息服務,其輸出是由算法與用戶共同完成的。在傳統的搜索引擎檢索中,用戶的輸入只是請求算法匹配并反饋特定的搜索結果。與之相比,生成式人工智能的輸出結果并非簡單的映射,而是用戶與系統交流互動的產物。在生成式人工智能中,“不會向人工智能提問就和在互聯網時代不會用鼠標一樣”。用戶的提示詞對生成內容起到關鍵作用,用戶提問的呈現方式、關鍵要素的引入、對生產內容的迭代與選擇等因素都將極大影響機器輸出的結果。弗洛里迪更是套用《1984》的語言稱,在生成式人工智能中“誰控制了問題,誰就控制了答案,誰控制了答案,誰就控制了現實”。當前,甚至已經產生了“提示詞工程師”的新興職業。另外,由前文的風險分析亦可知,唯有引入用戶治理的維度,方可全面應對生成式人工智能的治理風險。

用戶治理維度可以在四個層面展開。一是平臺自主進行的用戶治理。實踐中,企業常常在用戶協議或平臺自治規則中載明對用戶的使用限制或提供相關使用指引。例如,OpenAI在“使用政策”中明確指出不允許將其模型用于包括非法活動、生成惡意軟件、詐騙、高風險政府決策等在內的14類情形,并提供了“安全最佳實踐”指引。《生成式人工智能服務管理暫行辦法》第9條第2款即指出,服務提供者應與用戶簽訂用戶協議以明確雙方權利義務。二是對平臺施加用戶治理義務。例如,《生成式人工智能服務管理暫行辦法》第10條規定,服務提供者應“指導使用者科學理性認識和依法使用生成式人工智能技術”,并采取未成年人防沉迷措施。此外,該辦法第14條第2款還針對用戶“利用生成式人工智能服務從事違法活動”時平臺應采取的警示、封禁、報告措施進行了規定。三是對平臺與用戶之間的法律關系進行監管。例如,生成式人工智能的信息處理活動中,涉及個人信息跨境的,應根據《個人信息出境標準合同辦法》簽訂標準合同、接受個人信息影響評估并進行備案。域外亦有學者提出,建立針對人工智能服務的合同監督審查機制,對條款的公平性與充分性進行審查。四是規范和引導用戶的請求。在深度合成治理中,《互聯網信息服務深度合成管理規定》第6條即明確要求,任何組織和個人不得利用深度合成服務生產或傳播違法信息、從事違法活動。基于生成式人工智能的特性,在禁止用戶向人工智能提出違法或不當的請求外,還應當建立專門領域的提示詞規范,進一步引導用戶的請求。

綜上,生成式人工治理的基本邏輯是:在與人類的合作生產關系中,應將其定位為“伙伴”而非“老師”,同時結合算法治理與用戶治理的維度進行治理。由此出發,可進一步塑造生成式人工智能的治理路徑。

四、生成式人工智能治理的路徑優化

生成式人工智治治理是人工智能治理的重要組成部分,適用于人工智能治理的一般范式與治理原則。然而,若忽視生成式人工智能的治理邏輯,直接套用一般的人工智能治理方法,將導致制度設計的誤區。當前,生成式人工智能的治理在一定程度上存在架空包容審慎原則、未進行有效的風險區分、倫理治理缺位的問題。對此,應結合生成式人工智能的人機關系與治理邏輯,從規則治理、場景治理、倫理治理三個方面優化生成式人工智能的治理路徑。

(一)包容審慎原則下的義務與責任重構

《生成式人工智能服務管理暫行辦法》第3條所規定的包容審慎原則亟需進一步貫徹到人工智能治理的具體制度設計之中。堅持包容審慎原則,為新技術應用創造條件,是《科學技術進步法》第15條與國家“十四五”規劃中的明確要求。生成式人工智能是一項可能帶來重大影響的新興技術。GPT被產業界認為是“1980年以來最重要的技術創新”。對于新技術創新中的風險應進行利益衡量,合理分配責任。對于尚不明確的問題,可以“讓子彈飛一會兒”,無須急于確定專門的治理規則。例如,勞動替代問題在工業革命中也曾被提出,盧德主義者更是搗毀機器以換取就業,但也并不能阻擋工業革命的潮流。需要注意的是,通過引入不確定性概念故意模糊規則,甚至不列明規則,并非為治理留有空間的恰當舉措。規則公開與明確是法治的核心要素之一。試圖通過不明確的規則或非規范的術語治理新技術,實際上是為監管權力的行使留出“后門”,將使得產業界動輒得咎,亦不符合包容審慎的精神。

生成式人工智能的治理規則設定需要把握權利義務的變更方向。從互聯網的內容生產模式來看,經歷了專業生成內容(PGC)、用戶生成內容(UGC)和人工智能生成內容(AIGC)的發展,三者又分別對應于Web1.0、Web2.0、Web3.0的互聯網發展階段。在PGC中平臺控制內容,自身就是內容提供者,不享有責任豁免。而在UGC中,平臺往往難以控制用戶所發布的內容,因此制度上形成了網絡服務提供者(ISP)與網絡內容提供者(ICP)的劃分,并構建了“避風港”下的責任豁免規則。在AIGC中,內容在人機互動中由機器“伙伴”生成,人工智能服務提供者本身已經成為內容提供者,需要承擔內容管理義務與內容責任。然而,當前制度中,生成式人工智能平臺對其生成內容難以直接獲得知識產權。OpenAI已明確表示將其“對輸出的所有權利、所有權和利益”轉讓給用戶。從權利義務的一致性角度,實不宜對生成式人工智能服務提供者施加以過重的義務。

在“伙伴”的定位下,應為生成式人工智能設置過程義務,服務提供者全面履行相關義務后即獲得行政責任的豁免。第一,算法備案、質量管理、監測評估是典型的過程義務。以算法備案為例,《生成式人工智能服務管理暫行辦法》第17條規定,“提供具有輿論屬性或者社會動員能力的生成式人工智能服務”應根據《互聯網信息服務算法推薦管理規定》履行算法備案義務。需要注意的是,算法備案只是行政規章設定的義務,不能以備案為手段創設行政許可,否則將與《行政許可法》第14條相沖突。也就是說,不能將算法備案理解為提供相關服務的前置條件。第二,未履行過程義務所引起行政責任必須被合法設定。在法律、行政法規沒有規定之時,通過部門規章設定責令暫停或終止提供服務的處罰,將與《行政處罰法》相沖突。行政處罰種類法定,根據《行政處罰法》第13條第2款,在“尚未制定法律、行政法規”之時,部門規章可以設定的行政處罰限于“警告、通報批評或者一定數額罰款”。另外,在互聯網業態下,暫停或終止提供服務的處罰實際上對服務提供者判了“死刑”,將對其造成比處以最高罰款限額更為嚴重的毀滅性打擊,必須謹慎設定該種行政責任。第三,已履行過程義務的服務提供者不再對輸出結果承擔行政責任。前文已述,“老師”定位下的結果責任并不可行。生成式人工智能服務提供者與傳統的內容提供者并不相同,其對內容的控制力往往只是類似于UGC中的網絡服務提供者。唯有重新合理地設置豁免規則,方可形成權利義務的對稱結構。

以過程義務的履行作為連接點,可進一步銜接生成式人工智能治理中的行政責任與生成式人工智能致害的刑事責任、民事責任。在與刑事責任的銜接上,舉輕以明重,服務提供者在全面履行過程義務后無須承擔行政責任,當然也無須承擔刑事責任。此時,用戶利用生成式人工智能進行犯罪的,依法承擔刑事責任。服務提供者僅在未全面履行過程義務,且嚴格符合犯罪構成要件之時,才有可能成為共犯。在與民事責任的銜接上,過程義務的履行與否是判定生成式人工智能服務提供者主觀過錯的重要依據。生成式人工智能造成的侵權屬一般侵權行為,不應適用無過錯責任。生成式人工智能服務并不符合《產品質量法》第2條第2款的產品定義,網絡內容提供者也不能等同于產品生產者。生成式人工智能服務提供者并不對其生成的內容承擔嚴格責任。具體而言,應在人機互動的復雜關系中辨明因果關系,以確定相關民事責任。第一,當損害由用戶濫用和惡用引起,且服務提供者已全面履行過程義務時,由用戶單獨承擔責任:若服務提供者未全面履行過程義務對損害結果的發生具有過錯的,由用戶和服務提供者根據共同侵權規則承擔連帶責任。第二,當損害是由人工智能本身引起的,且用戶無錯過時,服務提供者在未全面履行過程義務的情形中承擔責任:當服務提供者已全面履行過程義務時,對收到權利人通知后未采取必要措施導致損害擴大部分具有過錯,也需要承擔責任,由此在《民法典》第1195條以外實現生成式人工智能特殊的“通知一刪除”規則。

(二)特定高風險場景的識別與治理路徑

在不同的應用場景中,生成式人工智能的風險大不相同,必須采取風險導向的場景治理路徑。若不對場景進行區分,直接強調穿透式監管或“全鏈條治理”,將導致設置過于嚴苛的監管措施。誠如2023年英國政府科技、創新與技術部在《促進創新的人工智能監管方法》白皮書中所指,不應“將規則或風險級別分配給整個行業或技術”,用同樣的手段監管聊天機器人與醫療人工智能是不合理的。有學者即將算法規制困境的根本原因歸結為,“忽視算法的場景性”。因此,國家有關主管部門根據《生成式人工智能服務管理暫行辦法》第16條第2款“制定相應的分類分級監管規則或者指引”時,應當引入場景治理的邏輯:在復雜的人機互動關系中,采取風險分析方法(risk approach),區分高風險場景與一般交互場景,并根據場景設置治理規則。借鑒歐盟《人工智能法案》高風險人工智能的類型界定,結合我國法律文本中的相關術語表達,生成式人工智能的高風險場景包括:(1)在對個人權益或社會公共利益有重大影響時使用生成式人工智能系統的場景;(2)重要互聯網平臺服務、用戶數量巨大、業務類型復雜的服務提供者提供或使用生成式人工智能系統的場景。針對上述高風險場景的主要治理路徑為:

一是持續進行風險影響評估以準確識別風險。在大模型的使用中,高風險/低風險的劃分并不是一成不變的。同一風險等級中不同場景的具體風險類型也不盡相同。隨著研發與利用的動態發展,風險等級與風險類型也可能發生遷移。歐盟《人工智能法案》第9條即指出,高風險人工智能系統的服務提供者應持續地對已知的和可預見的風險進行監測,并采取適當的風險管理措施。在不同的高風險場景之中,服務提供者的法定義務也不盡相同。例如,當大模型被用于重要行業和領域時,根據《網絡安全法》第31條可能構成關鍵信息基礎設施,服務提供者需要依法確保系統的運行安全。此外,服務提供者還應及時將相關風險告知用戶,并對用戶進行適當的引導。

二是充分保證人類監督以應對人的自主性危機。服務提供者需要確保在設計、開發和使用中人都能對大模型進行有效地監督。在法律、金融、保險、教育、住房、就業、健康等對個人權益有重大影響的高風險場景中,服務提供者應對大模型進行微調,進一步保證結果輸出的準確性,以符合用戶的合理預期。在這些場景中,用戶也不應直接使用沒有經過微調的大模型。即便經過微調,使用者也必須進一步核實人工智能自動生成的內容。當前,美國已經出現了律師因向法院提交由ChatGPT生成的虛假案例而面臨處罰的案件。同時,在自動化行政、智慧司法等對社會公共利益有重大影響的高風險場景中,生成式人工智能只能作為輔助而非對人類決策者的替代。調研發現,我國部分法院已經開始探索GPT的應用。此時,應根據《最高人民法院關于規范和加強人工智能司法應用的意見》的要求,“堅持對審判工作的輔助性定位和用戶自主決策權”。

三是以算法透明破解算法黑箱。聯合國教科文組織《人工智能倫理問題建議書》指出,算法透明“是確保人權、基本自由和倫理原則得到尊重、保護和促進的必要先決條件”。在高風險場景中,應更為強調算法透明的要求。雖然,生成式人工智能使用神經網絡算法,使得算法透明更加難以實現;但是,從技術上破解算法黑箱的研究從未停止。算法透明不要求公開算法,而是指向算法結果的解釋。算法解釋的充分性受技術發展水平的客觀限制。在現有技術水平下,高風險場景中生產式人工智能服務提供者應當通過區塊鏈、隱私計算等技術使得輸入與輸出的邏輯全程可追溯,由此動態地向用戶對提供“若非A則無B”的反事實解釋,并以適當的方式及時告知用戶算法的基本原理。生成式人工智能的算法解釋不局限于《個人信息保護法》第24條第3款對個人權益有重大影響的自動化決策中的說明義務,而應拓展到所有高風險生成式人工智能服務提供者對生成結果的解釋責任之中。此外,服務提供者還應通過事先披露治理機制、管理規則,引入第三方審計與算法論證程序,以進一步實現算法透明。

(三)以自主性為中心的倫理治理方法

倫理治理是應對自主性危機的必由之路。在“伙伴”的定位下,生成式人工智能價值引導的倡導性規范最終也需要通過倫理治理實現。以人為本、尊重人的自主性,是人工智能倫理治理的首要原則。2023年國家人工智能標準化總體組、全國信標委人工智能分委會發布的《人工智能倫理治理標準化指南》將“以人為本”作為第一項倫理準則并指出,以人為本就是要在“科技領域堅持以人民為中心的發展思想”,使人工智能符合人類價值觀、遵循人類價值觀。歐盟《人工智能道德準則》亦將“尊重人的自主性”作為首要準則并提出,人工智能系統的設計應對遵循以人類為中心的原則,以增強、補充人類的認知為目的,禁止脅迫、欺騙和操縱人類。人類必須保持對生成式人工智能系統的最終控制權。前述保證人類監督的制度規范設計,也是人工智能倫理的基本要求。聯合國教科文組織《人工智能倫理問題建議書》即表示,不應讓人工智能作生死攸關的決定。為實現倫理要求,部分生成式人工智能服務提供者已經開展了對齊(AI alignment)研究,致力于使系統與人類意圖保持一致。在尊重人類自主性外,生成式人工智能的開發和利用亦需遵循可持續發展、公平、透明和可解釋、準確、安全、可問責等人工智能倫理準則。

生成式人工智能的治理理論不是空洞的原則,應融入法律制度之中。針對高風險場景中生成式人工智能的開發和利用應開展科技倫理審查。參考《科技倫理審查辦法(試行)

(征求意見稿)》第3條第3項,對“可能在生命健康、生態環境、公共秩序、可持續發展等方面帶來倫理風險挑戰的科技活動”應進行科技倫理審查。科技倫理審查應由開發或利用單位的科技倫理審查委員會依據以自主性為中心的倫理準則開展。根據外交部《中國關于加強人工智能倫理治理的立場文件》,科技倫理審查的內容至少應包括系統的“普惠性、公平性和非歧視性”“避免可能存在的數據采集與算法偏見”。同時,國家科技倫理委員會應根據《科學技術進步法》第103條的規定,進一步建立健全關于生成式人工智能的倫理規范、風險評估與監管體系。

在用戶治理的維度上,通過促進行業自律與數字素養提升,可進一步助益于生成式人工智能的倫理治理。一方面,基于生成式人工智能的通用性與風險的場景性,各行業應盡快建立與行業特色相適應的自律規范以引導和規范用戶使用。例如,2023年4月中國支付清算協會發布了《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》,從網絡安全、敏感信息保護與內部管理三個方面進行了指引。2023年5月抖音發布《關于人工智能生成內容的平臺規范暨行業倡議》指出,平臺將對違反自律規范的用戶進行處罰。另一方面,基于國家的人權保障義務,政府應進一步落實公民數字素養的提升工作,構建“數字包容”的社會,使所有人都能“從廣泛數字技術和系統中受益”。政府應結合生成式人工智能使用的問題,積極開展數字技能和人工智能倫理的教育,針對數字弱勢群體的脆弱性制定相應的權利保障方案;并應進一步促進互聯互通、消除數字鴻溝,引導和規范生成式人工智能的利用。

結語

“未來已來”,生成式人工智能迅速步入了人們的日常生活,將對人類的生活生產方式產生重大影響。正如當下人們的生產生活離不開智能手機一樣,未來拒絕生成式人工智能也可能變得毫無意義。法律與公共政策不可無視甚至抗拒新技術的發展應用,應當盡快構建生成式人工智能的治理框架。一味采取斷網、屏蔽的封禁措施,將使中國錯失人工智能發展的關鍵時機。《新時代的中國網絡法治建設》指出,“互聯網因創新而生,因創新而興,網絡法治尤其需要創新”。生成式人工智能的治理創新必須根據數字社會的發展規律,在把握互利共生的人機關系基礎上,轉換治理邏輯、優化治理路徑,塑造公平規范的數字治理生態。此外,我國應適時推進人工智能的基礎性立法,將生成式人工智能治理的新思維融入其中,進一步豐富和完善數字社會的法律治理體系。

(責任編輯:王玎)

主站蜘蛛池模板: 亚洲日本中文字幕天堂网| 伊人欧美在线| 九九这里只有精品视频| 久久黄色免费电影| 在线不卡免费视频| 成人在线视频一区| 亚洲第一中文字幕| a国产精品| 亚洲成人黄色网址| 美女毛片在线| 精品国产自在在线在线观看| 欧美成一级| 一级一级特黄女人精品毛片| 日本不卡在线| 日本免费福利视频| 美女一区二区在线观看| 伊伊人成亚洲综合人网7777| 啊嗯不日本网站| 91福利片| 欧美日本中文| 超薄丝袜足j国产在线视频| 99久久精品免费观看国产| 九色视频一区| 爱爱影院18禁免费| 成人国产精品视频频| 久久特级毛片| 亚洲bt欧美bt精品| 亚洲日韩精品欧美中文字幕| 久久国产精品国产自线拍| 午夜爽爽视频| 久久精品一品道久久精品| 日韩最新中文字幕| 欧美a在线看| 国产jizz| 免费人成网站在线观看欧美| 成人伊人色一区二区三区| 亚洲一级色| 视频一本大道香蕉久在线播放 | 中文字幕一区二区人妻电影| 制服丝袜一区| 国产成人三级在线观看视频| 日本成人精品视频| 996免费视频国产在线播放| 国产色婷婷| 免费激情网站| 国产成人高清在线精品| 日韩第一页在线| 色综合天天综合| 精品国产Av电影无码久久久| 国产男人的天堂| 2021国产v亚洲v天堂无码| 日韩在线1| 亚洲成a人在线播放www| 青草视频久久| 54pao国产成人免费视频| 久久精品女人天堂aaa| 亚洲日本韩在线观看| 亚洲不卡影院| 欧美性猛交一区二区三区| 啪啪啪亚洲无码| 日韩无码视频网站| 色亚洲成人| jizz在线免费播放| 久久精品91麻豆| 欧美另类精品一区二区三区| 综合久久久久久久综合网| 日本道综合一本久久久88| 中国精品自拍| 欧美综合成人| 亚洲网综合| 真实国产乱子伦高清| 国产簧片免费在线播放| 波多野结衣一二三| 国产在线视频二区| 老司机午夜精品网站在线观看| 亚洲日韩高清无码| 国产精品页| 成人亚洲天堂| 国产午夜在线观看视频| 无码AV动漫| 欧美国产日韩一区二区三区精品影视| 国产全黄a一级毛片|