999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

通用人工智能技術提供者義務的審視與優化

2023-09-06 21:39:21李彤
東方法學 2023年5期

李彤

關鍵詞:區分規制 通用人工智能技術 技術應用風險 適度容忍 提供者義務 階梯式義務設定

一、問題的提出

被認為是人工智能高階質變形態的通用人工智能技術正展現出具象曙光。人們驚訝地發現,ChatGPT-4不僅在自然語言的處理能力上無與倫比,同時具有整合多學科知識解決復雜問題的實力,這正是通用人工智能技術應用能力的初階呈現。通用人工智能技術依賴于大模型的良性運轉,具有一般場域的應用能效、通用任務的處理能力和持續學習的更新能力。通用人工智能技術的迭代速度和強大能力已引發深切擔憂,作為其發展前哨的生成式人工智能技術對前線行業造成了明顯沖擊,引發一些反對呼聲。比如好萊塢編劇和演員行業已展開了史上罕見的聯合罷工,他們希望自身的合法權益在人工智能時代能夠獲得基本保障。

2023年4月28日召開的中共中央政治局會議強調需重視通用人工智能的發展并關注其應用風險的防范。鑒于生成式人工智能技術是通用人工智能技術發展的初級階段,有效應對技術風險的切入要點可從對前者的監管策略中尋求可靠思路。2023年4月11日,國家網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),主要通過設定生成式人工智能技術提供者(以下簡稱“提供者”)的義務來達到規范目標,但其中包含的義務標準總體較高。2023年7月13日,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)。《暫行辦法》對《管理辦法》中的提供者義務進行了部分修正,但仍有呈現過高標準或欠缺合理性的義務設定。一是要求提供者在訓練環節承擔的數據審查義務過高。第7條規定,要求提供者增強訓練數據的真實性、準確性、客觀性、多樣性。這在數據確權和流通制度并不完善的狀態下存在實現障礙。二是要求提供者對網絡信息承擔過高義務。第9條規定,提供者應當依法承擔網絡信息內容的生產者責任,履行保障網絡信息安全義務。這實際上要求提供者對網絡信息安全承擔無過錯責任。三是提供者對違法內容的處置義務和用戶違法使用行為的監管義務不合理。第14條第1款規定,一旦提供者發現違法內容不論輕重,不論是否出于技術原因,一律要整改和報告,可能讓提供者疲于應付。第14條第2款規定,提供者發現用戶的違法活動,不僅要保存記錄,還要向主管部門報告。首先,用戶的違法行為可能不在提供者的服務平臺上發生,提供者保存記錄的難度較大。其次,如發現的違法內容過多,需頻繁報告的要求會使提供者不堪重負。四是對提供者的主體范圍未從技術背景角度作明確限定。第22條第2款所界定的提供者是指利用生成式人工智能技術提供相關服務的組織、個人,這意味著可能完全不了解技術內容的提供者會落入需要技術能力支持的義務主體范圍。

化解新技術的應用風險固然重要,但上述義務的設定方式是否適配當前所需是值得深入思考的問題。提供者處于該技術的運行前端,對其設定合理的義務框架將有助于該項技術在免受不當裹挾的狀態下得到良性運轉。是偏向安全還是更需效率,這是影響義務設定的價值傾向所在,需要謹慎作答。學界對人工智能的現有研究主要涉及:一是人工智能生成內容的法律定位。學界對人工智能生成內容能否落入法律保護的范圍存在一定爭議。比如對是否應對生成內容進行著作權或專利權保護存在不同看法。二是人工智能與法律相關的普遍議題和理論架構。三是人工智能對具體法律部門的挑戰及其應對方案。學界普遍認為人工智能對傳統法學理論和治理模式造成了明顯沖擊,需要結合技術特點進行有效的理論探討和系統的方案回應。上述研究成果對通用人工智能技術提供者義務這一具體問題尚未作出回應。為此,本文以區分規制為視角,在對提供者義務審視的基礎上,提出優化路徑,以促進理論的發展,亦對實踐有所裨益。

二、智能技術的飛躍迭代與提供者義務區分規制的基本前提

通過技術革新實現快速發展的人類社會已進入風險社會時代。鑒于人類理性的有限性,對新技術的認知存在天然局限,這使新興技術的開發和應用常常附隨風險,而試圖化解上述風險的嘗試往往會面對“科林格里奇”困境。通過設定較重義務來降低風險固然可以達成實效,但也應考慮到在技術發展的現實需要下,適度容忍合理風險的必要性。一方面,風險到損害中間橫亙著或然性,這意味著風險未必會產生損害。因此,在這個需要同時擁抱人工智能與人類智慧的時代,兩者無法實質共存的零和博弈思維應得到徹底扭轉。但另一方面,人工智能應用風險具有共生性、時代性和全球性,這也提示法律規制的方向不應是先發展再治理,也不應是強治理弱發展,而是應選擇邊發展邊治理的折中路線。

(一)適度容忍通用人工智能技術應用風險的現實理由

一是實現通用人工智能技術專利布局的迫切需要。專利技術自誕生以來就成為推動社會快速變革的潤滑劑,但獨占性的權利特征又讓其潤滑功能的發揮帶著人為阻力。雖然算法模型一般不屬于可專利的客體,但算法模型與應用的結合有可能會形成專利客體,如谷歌已獲得了一些關于深度學習的AI專利。這表明,為了防止形成跨國專利壁壘,我國在該領域的技術專利布局是存在現實需要的。專利布局以技術方案的迭代升級為前提,需要提供者盡可能展現聰明才智,而較寬松的制度環境能為這個殫精竭慮的過程不附加額外的束縛因素。

二是通過通用人工智能技術掌握國際話語權的現實需要。一方面,保障國內通用人工智能技術快速發展是大勢所趨。當今世界多個國家均擬定了人工智能的長期發展戰略。2017年我國國務院印發了《新一代人工智能發展規劃的通知》,計劃到2030年,國內人工智能在理論、技術與應用方面達到世界領先水平。另一方面,從保證國家安全,實現文化輸出,避免意識形態滲入的側面看,保障國內相關技術的穩定發展也是十分迫切的。當前用戶增長速度最快的通用人工智能技術前哨產品Chat-GPT是由美國人工智能公司OpenAI開發的,其使用的中文語料庫內容有限,對其過度依賴會導致不符合中國現實和價值觀的生成內容大幅上升。因此,我國亟須積極發展通用人工智能技術,以掌握該技術的國際話語權。顯然,這對國內相關技術研發的主動性和時效性提出了較高要求。

三是針對通用人工智能技術應用風險謹慎評估的客觀需要。通用人工智能技術不再僅僅具有針對海量數據的被動處理能力,還具有生成類人應對方案的能力。但總體來看,現階段的人工智能技術仍是工具性的,由此決定了其法律地位的非獨立性。而應用風險存在擴大解釋的可能性,需要進行必要限定,應避免《紅旗法案》的適用悲劇再次重演。《紅旗法案》是英國在1865年出臺的,該法規定,每輛上路的汽車必須有三位駕駛員,其中一位必須一直在車前50米搖動紅旗作為危險警示,車輛時速不得超過4英里。到1896年對車輛時速的限制才提高到14英里,1903年進一步提高到20英里,并取消了紅旗警示規則。然而幾十年間的強力限制已使英國錯失了行業發展的良機。這一歷史事例表明安全與效率始終相攜相伴,過于偏重一方所付出的代價既是不必要的又是昂貴的。

綜上可見,為實現專利優化,促進科技創新,防止風險論擴大化,以儲備維護國家利益的戰略資源,我國對通用人工智能技術的支持力度應大于規制力度。理由是,雖然風險客觀存在,但過分地擔憂和遏制,會使我國在通用人工智能技術的發展過程中受到不當束縛,從而失去國際層面的領先優勢。

(二)適度設定通用人工智能技術提供者義務的策略底線

不可否認, 通用人工智能在數據安全、信息保護、倫理價值維護等方面會存在一定濫用風險。2023年4月3日,斯坦福大學“以人為本”人工智能研究所(Stanford-HAI)發布《2023-年人工智能指數報告》,指出“諸如ChatGPT,7Stable-Diffusion,7Whisper,7和DALL-E72等這些模型已能適用于越來越廣泛的任務領域,包括文本處理分析、圖像生成和前所未有的,性能優越的語言識別。這些系統在回答問題,文本、圖像和代碼生成領域展現出在十年前無法想象的能力,在很多方面都超過了現有的技術標準。但這些系統容易產生幻覺,經常存在偏見,可能被用于邪惡目的,從而伴隨著技術發展帶來了復雜的道德挑戰”。因此,對具有廣泛應用場景和卓越處理能力的通用人工智能進行必要法律規制已形成廣泛共識,但規制時需要考量底線,把好規則設定的方向關。

一是面向通用人工智能技術的國際規制底線。歐盟已完成人工智能法草案,試圖對人工智能的技術風險進行有效規制,但其出臺過程并不順暢。這體現了妥善壓制風險和促進技術革新雙重目標下的規制困境。因此,在通用人工智能技術的國內規制進路上,應充分考慮國際視域中的規制底線,依據國際慣例,力求從合規利用的角度化解應用風險。

二是判斷通用人工智能技術的運行底線。通用人工智能技術的效能發揮需要依賴一定的先決條件。該技術是基于數據的智能,在進入應用環節之前需要接受足夠的數據投喂和充分的數據訓練才能實現良性運轉,如片面追求數據的絕對安全與完全授權,那么在技術應用的前端就會構成“卡脖子”的狀態。也就是說,對提供者在上述環節中的義務設定不能導致技術運行所需的必備數據要素被不當剝離,故相關義務內容規則應結合數據審查的實際情況而設計。

三是衡量通用人工智能技術的邏輯底線。通用人工智能技術所對應的較強智能狀態的形成邏輯與人類智慧的生成過程截然不同。后者一般遵循從特殊到一般的體驗式過程,通過家庭、學校、社會的長期教育沁潤和主動思考學習,逐步形成多樣的知識體系,對日常問題可以作出相應的知識應對和與之匹配的價值判斷。而前者服從于貝葉斯定理,即先對應答內容進行概率性的判定,而后通過模型運轉再驗證回答的可靠性。貝葉斯定理中對先驗概率的處理存在明顯不足。同時,技術生成過程中的文化屬性較弱,進而會直接影響價值判斷能力。這是技術自身存在的天然缺陷,畢竟現階段通過對人腦運行樣態的真實觀察與完美復制來促成類人智能尚有諸多技術難題。由此,可考慮從彌補技術缺陷的可行性角度出發,合理設定優化技術過程中的主體義務。

三、精準賦能風險管控與提供者義務區分規制的正當邏輯

對提供者義務進行粗放型的一體化設定,會忽略提供者與其他主體在應用風險治理上的互動關系,也讓提供者的有限力量分散在疲于應付當前難以完成的事務上。與之對應的區分規制是將提供者從可以被解除規制的場域中解放出來, 通過共治鏈條和集中革新來達成化解應用風險的目標,同時不會對行業發展造成阻礙。

(一)共治型精準管控驅動提供者義務的重整

化解技術應用風險并非片面加強提供者的單方義務即可達成,區分規制視角下的義務設定是擴展共治主體,降低管控成本和突出治理重點的必然要求。

一是風險共治渠道的社會化建構。鑒于該技術應用效果的社會價值,提供者不應在化解應用風險和技術弊端上孤軍奮戰。通用人工智能的綜合治理應貫徹系統化思維,需要技術應用鏈條上的多主體實現通力配合。提供者義務的區分規制意味著該技術的部分治理責任應由政府、平臺、用戶等其他主體承擔。

二是風險管控策略的效率化應用。風險控制效率的提升仰賴于發現風險速度較快及有效應對方案的快速生成,而提供者義務的一體化設置不能匹配效率化的要求。其一,在生成內容侵權信息的發現上,提供者并不在技術應用的用戶端,無法及時發現違法信息,其主動審查義務的設定不符合效率性的要求。其二,在該技術相關算法模型安全性評估的問題上,鑒于提供者較多關注應用獲利立場的局限性,有效方案的應對立場存在問題,外部專業力量的引入是提升效率的重要方法。其三,通用人工智能應用可能引發的風險損害類別是多樣的,應從風險產生的原因是否可歸責于提供者入手來對應差異化的義務設定。

三是風險規避行為的精確化規制。提供者在技術開發和應用環節面臨差異化的管控需求和風險后果,行為控制的具體內容也應對照區分。比如開發時數據審查義務的要點應服務于保障數據安全,避免顯著違法虛假數據進入訓練環節的規制目標。同時還需要考慮在龐大數據庫中獲得所有權利方的授權是否是過于困難的行為規制方式,是否沒有精準考慮技術革新和發展的客觀需要。而在應用端對用戶權益的保護,應從用戶和提供者互動的可行渠道出發來實現私權保護的需要。另外還應結合具體場域的應用需求來匹配精準化的行為要求,比如因司法實踐領域中的知識結構和語言表達存在專業性和復雜性,應用于其中的人工智能技術不能簡單平移,提供者有義務進行對應的技術革新,需向法律實務部門提前預警應用風險和提供對應技術參數,了解法律實務工作的基礎原理以提升技術的適配度,為盡可能減少風險投入更多的技術力量支持。

(二)聚焦風險狀態的區分規制理念內涵與提供者義務的重塑

一是依據風險的可容忍程度來區分底線義務與倡導行為。建立提供者義務設定的底線思維,依據已知風險和控制能力的實際狀態來劃定切實可行的行為紅線。如應用風險所對應的價值損害是社會運行中無法容忍的基礎部分,比如涉及國家安全,應不論效率成本,以安全優先的原則來強化義務內容。在強制實現存在一定現實障礙的規制領域,則可通過明確最佳傾向的方式引導提供者朝著存在更優解的方向努力。

二是考量風險的損害情況來區分公共侵擾與私權受損。美國法上的公共侵擾一般涉及損害公共權利或損害大量人員利益的公共屬性,典型情形涉及因灰塵、煙霧、有害物質泄露所造成的環境污染事件。在普通法司法實踐中對公共侵擾的認定標準總體較寬,不同州管轄范圍內的認定要素存在差異。加利福尼亞州將公共侵擾界定為對整個社區、臨近地區或相當多的民眾造成損害,即便每個人身上所遭受的損害程度存在差異。上述較靈活的界定方式使依托公共侵擾理論來解釋通用人工智能技術可能造成的,帶有公共屬性的應用損害具有可行性。公共侵擾部分的行為規制顯然應采用強制性的較高標準,以有效避免社會動蕩和秩序混亂。同時風險損害也可能對應私權受損,具有損害內向性和主體有限性,此時提供者對特定主體權益的主動保護義務標準不宜過高。

三是確認風險的來源方向來區分技術缺陷與系統問題。通用人工智能應用風險的來源之一是技術缺陷,因此督促提供者履行技術更新義務有助于消除應用風險。另外,通用人工智能的應用風險也來自多重因素的銜接錯位,如數據權利制度的不健全影響著數據訓練環節的合規性,龐大的用戶群體及其不可預控的使用行為可能讓技術應用的良善愿景落空。這些風險的徹底消弭受制于復雜的社會條件及其對應制度的構建完善,是社會運行的系統性風險,很難通過簡單加重提供者義務來實現規制目標。

(三)區分規制理念賦能提供者義務的張力實效

一是強制要求與軟性引導的互通融合避免提供者義務的封閉性。提供者義務可能隨著技術的發展和應用場域的變動而產生一定的變化,僅有強制規范不利于迎合實際變化進行及時呼應,而軟性引導的柔化規范則為義務內容的延展提供了可靠指引。強制要求以對違背義務導向法律責任的壓迫感來達到規制目標, 而通過軟性引導所實現的規制部分是不需要公權力強力介入的低成本規制方式,兩者的協同配合可顯著擴充主體責任的實然范疇。

二是可做到的行為納入與難做到的行為排除增強提供者義務的可實現性。在義務設定上充分考慮現階段的技術發展需要和提供者的實際能力范圍,在現實可行和能力可及的場域中設定較高的義務標準,從而使義務的實現預期得到充分釋放。針對當前技術狀態難以實現的部分,果斷免除或減輕提供者義務,換之以倡導性規范,讓其可在相對寬松的規制條件下,盡可能實現技術進步,這也有利于進一步消弭應用風險。

三是建立在多元共治基礎上的主體區分設定模式提升提供者義務的協同性。提供者義務是保障技術安全的關鍵,但并不是唯一側面。技術應用帶來社會效益的整體提升并附從社會化風險,在治理策略上建構多主體參與的協同共治體系會增強治理效果。應用風險不僅來自技術本身的風險,還來自社會化應用場域的原有風險、用戶的違規行為和政府監管能力的欠缺等多重因素。提供者享受到技術紅利,但并不是唯一的獲益方,用戶、政府、平臺等技術應用鏈條上的其他主體也應通過義務設定的方式參與治理鏈條。

四、應用風險層級的評估維度與提供者義務區分規制的標準設定

鑒于通用人工智能技術廣泛的應用場景和多主體的參與鏈條,考慮到危險和義務產生之間的基礎邏輯關系,當以應用風險層級的評估維度為標準設定導向,在區分規制的視野下設置階梯式的義務系統,以便提升義務設定的實效性。可貫徹動態評估的思路,以固有維度為基本要素,以變量維度為浮動因子,對應用風險層級的高低進行綜合判定,而后根據風險度高低的當前判定結果來聯動提供者義務區分規制的強弱標準。

(一)應用風險層級的固有維度與提供者義務區分規制標準的協同

應用風險層級的固有維度涉及應用場景與技術結合后的風險情形,風險程度有差異化表現,繼而會協同影響提供者義務區分規制的標準設定。

從傳播屬性上看,對帶有公共屬性的傳播模式需要硬性的嚴格規制。來自通用人工智能的虛假信息在具有私密性的聊天模式中影響范圍有限,而在公共傳播模式下將很可能產生大規模的認知錯位,影響正常的輿論生成,甚至成為引發社會動蕩的導火索。利用互聯網信息制造對立,誘導沖突,并服務于特定政治目標的做法并不罕見。根據2018年11月國家網信辦發布的《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》,面向社會公眾應用、具備輿論影響能力的通用人工智能技術顯然也應落入安全評估的范疇。

從應用領域來看,對通用人工智能技術硬性限制的管控需要,一方面來自其服務內容與某些應用領域的底線要求相悖。比如在受教育者利用該技術完成作業的過程中,該技術的運行促成了與教育活動的目標本質背道而馳的消極效果。再如在學術科研領域內,利用通用人工智能完成學術論文,有違學術道德底線和科研自律要求,故應得到嚴厲禁止。另一方面,通用人工智能技術也對應著無法獲得主導性地位的領域,比如在涉及價值判斷的司法裁判領域,任何人工智能技術都只能作為輔助性的工具。究其原因,來自過去經驗的數據訓練可能不適合當前裁判的需要,而完全不關注社會影響力的智能裁判過程也會影響司法審判的適用力。

對于違規應用的社會損害力而言,應從公私法分立的角度進行義務內容的硬性區分。一方面,對存在違反國家強制標準和影響社會公共利益可能的應用風險情形,需加強提供者的審核義務。如涉及存在影響網絡安全,引發漏洞攻擊的惡意代碼,則需提供者確保安全,主動審核,防止為實施違法犯罪行為提供不當助力。另一方面,如牽涉文字作品框架內容設定,翻譯文字、圖像或形象生成等方面,可能涉及人格權、知識產權等民事權利受損,對相關侵權信息的審查義務可考慮被動路線,并以司法為最終防線。

(二)應用風險層級的變量維度與提供者區分規制標準的呼應

應用風險層級的高低還會隨著提供者技術控制力、用戶鑒別力和外部監管力的大小發生繼發變動,構成了應用風險層級的變量維度,并對提供者區分規制標準的設定造成動態影響。

1.提供者的技術控制力與區分規制標準的對照

提供者較強的技術控制力可顯著降低應用風險層級。該技術中的算法模型具有專業化、黑箱化和多變化特征,這使對提供者的義務設定不能通過提升用戶方的注意義務來得到相應縮減,因為缺乏專業知識的用戶缺乏了解技術原理的有效通道,也無法進入數據訓練環節來提升技術算法的效能。不僅如此,現階段的通用人工智能仍缺乏實質創造力,其整體驅動還會受制于人,這表明提供者的主導控制能力并沒有得到根本改變。由此可見,具備技術更新的專業能力、對影響生成結果數據訓練環節的管控能力和生成內容仰賴技術程序的現狀是促成提供者義務生成的重要側面。另外,提供者從該技術應用中大量獲益,這為其技術研發和風險規避能力的提升提供了必要的經濟基礎。

另一方面,雖然提供者需要對技術的應用風險負責,但此種負責狀態存在限度,如同無法要求無民事行為能力人理性控制行為一樣,對沒有技術控制能力的主體施加義務的做法因超出了必要的能力范圍,顯然會導致法律適用效果的落空。這表明提供者的義務履行應以技術控制力為必要條件。

需要注意的是,技術控制力存在彈性側面,這為區分規制軟性標準的適用提供了必要前提。提供者的技術控制力在具有一定的浮動空間。一方面,提供者在現階段尚無法全面管控和預測生成內容,存在一定的控制弱點。另一方面,有些更優應用狀態的達成仰賴進一步的技術研發,比如深度人文內化的技術方案在實現上仍存在障礙,由此在類似領域不宜設定較高的硬性規制標準,以便給技術成熟和方案養成提供必要時間。

2.用戶的鑒別力與區分規制標準的界定

與充斥大量魚龍混雜信息的互聯網中的狀態類似,通用人工智能所提供的快速而多樣的生成內容也存在違規可能。就此問題的規制,可參照網絡服務提供者義務設定中的避風港原則。理由是通用人工智能產品的用戶眾多,生成內容基于個性化的請求產生,具有海量特征,且在相對不公開的用戶界面生成,同時涉及隱私問題。提供者既不是違規信息生成的觸發主體,也無法全面快速獲知違規信息,因此一般情形下的主動審查義務應被排除。

對鑒別能力較強的用戶,即具有完全民事行為能力的人群,可考慮傾向形式審查的弱標準。通過明確用戶接入服務的資格審核來設定提供者義務,讓有足夠鑒別能力的用戶可以在發現違規失當信息時,不僅不會受到錯誤影響,甚至還可以通過適當對話糾正錯誤,引導正確內容的生成。此時提供者通過保障生成內容的可追溯性即可達到便于事后審查的要求,而不需隨時進行耗時耗力的全面徹底審查。

對鑒別能力較弱的用戶,如對老人、未成年人這類特殊人群,提供者的義務應適當增強,應該采取有效手段避免技術缺陷對上述人群的不利影響。但針對精神病人,提供者相關義務的履行不具有可行性,該類患者的生病狀況屬于個人隱私,其一般不會主動上傳公開。另外,提供者往往沒有醫學專業知識和疾病認定資質,故通過提供服務前的問卷方式來考察用戶的身心健康狀態并進行相應定性,存在偏見和失當可能。

3.監管方的管控力與區分規制標準的劃定

鑒于通用人工智能技術應用風險可能是提供者并未發覺或難以自控的,該技術的合規運行還會受制于外部監督的常態化和規則化, 故配套監管機制的完善程度將直接影響技術的合規運行效果。就典型情景來看,一是若保障海量數據的安全性要求已超過提供者的能力范圍,則需借助外部力量為技術運行中數據合規使用劃定紅線。二是提供者對算法模型的開發和理解易陷入自娛自樂的境地,對適用風險和技術偏見往往視若不見。不僅如此,人工智能領域的技術黑箱相比以往有過之而無不及,因此進行公開、謹慎和中立的外部評估實屬必要。三是通用人工智能領域已成新興熱點投資領域,但在運行中耗費了大量的社會成本,耗能程度較高,一定程度也影響到經濟秩序和環境安全,故也需要來自國家層面的監控規制。

但需注意的是,外部監管同樣面臨海量數據審查、算法模型評估的現實困境,同時受制于監管力量配置、經驗積累等方面存在能力波動空間。對不涉及公共利益,不會引發嚴重損害的應用環節,應防止太多監管介入影響到行業發展和服務提供的持續性。在監管中,要求對代碼進行全面完整的備案甚至公開的可行性也不高。“代碼層面的算法透明最顯而易見的阻力來自商業秘密,此外其他負面影響還包括增加公眾的認知負擔、侵犯國家機密等。”另外,算法黑箱的破除還會受制于認知局限,因而無法通過完善監管做到絕對透明化。

五、通用人工智能技術提供者義務區分規制的優化重構

提供者義務的區分規制應充分考慮適度容忍應用風險的基本前提,以應用風險精準管控的邏輯為導引,在對應用風險層級進行固有維度和變量維度的綜合動態研判的基礎上,結合技術發展的現實需要,合理優化相關義務內容。

(一)通用人工智能技術提供者數據審查義務的區分規制

數據對通用人工智能技術性能的發揮意義重大。不同類型的數據對該技術的合規利用會造成影響。通用人工智能技術的典型數據問題有,一是作為第五種生產要素的數據之上存在權利附著,提供者隨意使用會造成權益侵害。二是訓練數據本身是否存在違規信息,通用人工智能的表現狀態和其預先學習的數據內容有直接關聯。

歐盟通用數據保護條例提出了“經由設計的數據保護”。該《條例》第25條第1款規定:“考慮到行業最新水平、實施成本及處理的性質、范圍、目的和內容以及處理給自然人的權利與自由造成的影響,數據控制者應當在決定數據處理方式以及進行處理時,以有效的方式采取適當的組織和技術措施。”這表明將數據合規處理的義務施加在有能力處置數據的數據控制者之上,使其按照現實情形和實際能力來實施恰當的處置措施具有合理性。

一是在審查主體上,將該項義務局限在具有相關技術能力的提供者。如提供者僅是技術服務中介平臺,并不了解技術模型和數據訓練情況,則提供者的數據審查義務應轉化為在提供服務前備案,真正負責數據訓練和優化主體信息,并在發現數據違規后對相關責任主體負有及時告知義務。

二是在審查內容上,應集中于對數據來源合法性的確認,包括但不限于確認信息是否來自可信數據庫,是否排除明顯包含權利標記的數據,是否排除未經授權以網絡爬蟲等不當方式所獲得的可確權數據等。尊重其他企業對所獲數據的財產權益,也在我國司法實踐中得到了確認。但上述審查應以形式審查為表征,同時提供者不應對權利狀態模糊不明的相關數據的最終合法性負責。理由是在數據確權流通制度尚未完善的領域當中,數據權利的歸屬還不明確,后續流通利用環節的權利表征存在不甚明晰的可能,系統性社會風險問題的解決不應寄托于單方加重提供者的義務來達成目標。

三是在審核方式上,考慮到海量數據使用情景及數據多重流轉環節的復雜性,提供者不需對數據本身的合法性承擔主動逐個審核的高強度義務。如數據應用涉嫌侵犯人格權、知識產權、存在構成不正當競爭等情形,權利方應可通過申請程序,要求提供者做出被動回應。

(二)通用人工智能提供者審核生成內容義務的區分規制

應明確提供者對生成內容進行主動審核的類型和方式。在審核領域上,主要針對風險度高、容錯度低的應用領域。在審核方式上,提供者可通過招聘提示工程師或其他適當方式定期模仿用戶群的使用習慣,結合當前社會關注要點,深度呈現生成內容,對通過上述途徑知悉的違規信息的生成狀態進行有效糾錯。同時,提供者應通過提煉關鍵詞等方式定期總結用戶高頻互動領域內的生成內容,展開實質審查。為了保障上述目標的達成,提供者依據必要性原則,合規存儲可識別用戶身份的輸入和使用信息,以便為審查義務的達成提供前提條件。另外,雖然當生成內容構成網絡信息時,會放大違規信息的風險度,但提供者的預先標記行為已可達到提示風險的目標,同時鑒于違規信息的產生源頭還有用戶,因此不宜由提供者承擔單純的生產者責任。

設定提供者對生成內容進行被動審核的程序。提供者應設置審核專員和限時審核程序。對存在侵權嫌疑的生成內容,提供者可基于用戶申請對生成內容啟動審核,限期做出審核結果的反饋,并明確告知申請人。提供者應提示申請人如對審核結果存在異議,可向國家網信辦等相關部門投訴或向人民法院提起訴訟。相關管理部門應設有接受和反饋通用人工智能用戶投訴的受理機制,以便對提供者上述義務的不當履行情況進行及時糾正。在申請人為提起訴訟要求提供者向其披露用戶信息時,提供者應予以配合,否則應承擔連帶責任。

如發現違規生成內容是因技術缺陷造成的,提供者應立刻采用屏蔽、刪除、過濾等必要措施進行內容隔離并在合理時間內通過優化算法模型等方式避免違規內容的再次生成。其中的合理時間應以行業內相關技術完善所需的平均時間來確認,通過征集行業意見,形成判定時限的明確規則。但在違規生成內容的產生原因不明的情形下,提供者應通過向主管部門和專業委員會報送情況的方式來尋求可能的解決方案。

(三)通用人工智能提供者監管用戶行為義務的區分規制

提供者監管用戶行為義務的實現應以其對用戶身份信息的識別義務為前提,即提供者可在用戶行為導致技術運行失控時追溯到相關用戶,并對低自控力和低鑒別能力的用戶進行有效保護。由此在用戶接入相關服務時,提供者應采集可以識別用戶身份的必要信息,包含姓名、身份證號、聯系方式等關鍵信息。

應設定提供者對用戶行為規制的底線義務。提供者應采用關鍵詞屏蔽、不當問題預警提示等相關合理方式避免用戶試圖通過不當提問獲取違背社會主義核心價值觀、有助于實施違法犯罪行為等不可容忍的違法生成內容。

應明確提供者對鑒別能力較弱用戶群體的高強度義務。針對未成年人這類群體,可仿照未成年人保護法第75條,確立單獨的統一未成年人通用人工智能使用身份認證系統,也可與現行的網絡游戲電子身份認證系統對接,強制要求實名制和人臉識別,避免未成年人借用身份信息注冊。提供者應結合未成年人的年齡特征和生理特點,建立互動內容的負面清單,避免未成年人利用該技術獲得違規信息。同時,應對未成年人使用時間進行必要限制,可考慮其生長需要,對晚間的服務時間進行限縮。針對六十周歲以上的老人,提供者應在注冊時細化提示操作流程,提高老人使用程序的便利度,在運行環節可考慮采用頁面的彈窗強化應用風險的告知義務。

應當強調的是,提供者對實名用戶利用生成內容的后續違法行為沒有主動監管義務,這已明顯超出提供者的管控能力。另外,提供者就偶然發現的用戶輕微違法行為,也不具有固定證據和報告主管部門的義務,除非涉及侵犯國家利益、公共利益或涉嫌刑事犯罪等嚴重情形。

(四)通用人工智能技術提供者接受監管義務的區分規制

一方面,通過強化外部監管可達成避免該技術的無序野蠻增長。一是在高風險的應用領域,則應進行嚴格限制。如在自動武器裝備、教育教學、司法裁判、學術研究等敏感領域的適用需經過全面細致的安全評估。對在上述領域的擴展應用應足夠謹慎。與國外保守傾向相比,我國法院對在司法實踐中應用人工智能技術抱有更樂觀的態度。我國地方政府如深圳在普通高校畢業生的落戶審批上已經實踐無人自動秒批。這種寬松態度和實踐傾向放置在具有更高類人智能的通用人工智能之上會進一步放大應用風險。具體而言,該項技術依托智能算法給定生成內容,可直接適用的特性更強,因此在高風險領域掌握決策能力的風險程度更高。對此,應明確設置禁止或限制應用的負面清單。在涉及限制進入的應用場域時,一是提供者應向監管部門主動提供能夠充分確保技術安全的研發資料并詳細闡釋技術機理。二是提供者就所采用的算法模型應主動接受安全性評估,有效規避存在高上癮性、高錯誤率等顯著缺陷的相關技術進入應用環節。三是負責數據訓練的提供者應就相關能耗狀態接受監管,主動向相關部門準確匯報真實的耗能情況。提供者為便利上述強監管目標的實現,應主動配合備案,提供完整資料和接受定期實質審查。

另一方面,如通用人工智能技術適用場景具有目標用戶鑒別能力強、非依托公共平臺等低風險因素,則應免除提供者接受高頻率和高強度的管控義務,一般只需進行應用場景的備案即可。當為安全審查目的獲取類似源代碼等不宜公開的相關信息時,監管機構應有完善的保密機制。

(五)通用人工智能技術提供者技術倫理馴化義務的區分規制

科技倫理是新科技發展過程中需要特別關注的關鍵要素,是化解新技術風險的必備選項。2023年3月中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》,其中要求加強源頭治理,將科技倫理貫穿于科技活動的全流程和全環節。對人工智能的倫理化要求來自非技術中立的特征,故“人工智能的發展并不能以技術中立為由來回避它的商業偏好、善惡價值和社會風險”。通用人工智能應用風險的重要來源之一也可以歸結為技術本身的倫理失當狀態,而智能狀態的提升與道德標準的要求存在同向關系,提供者就此應負有倫理馴化義務。該項義務主要涉及價值觀塑造和人文內化,旨在使技術應用走出人文荒漠,避免價值脫韁,成為內在向善的技術方案,但價值觀塑造和人文內化兩方面對社會秩序和利益維系的效用以及實施難度上并不完全相同,由此應對應不同的行為規制層級。

強化提供者對技術符合核心價值觀、保障國家安全的馴化義務。在實現方式上,提供者應定期就上述目標的達成狀況展開自查自糾,在接受外部實質審查時,應說明為了達到上述目標所采用的必要措施、測試方法及可信效果。這是技術應用的底線所在,也是提供者承擔社會責任的重要體現。

倡導提供者對技術實現人文內化的馴化要求。通用人工智能具有類人化的智能表現,但其不具有依賴持續經驗累積和反饋式學習的文化內在,此時可通過具有傾向性的數據訓練使技術內容符合本國的人文特征。但在這一側面只倡導不強制的原因在于,一是人文內化的內容太多,常常掛一漏萬,未必可達到內容全面馴化的目標。二是人文內化過程中的價值判斷會涉及一些灰色地帶,很難用非黑即白的方式來進行馴化,比如類似電車難題的場景,無法從倫理角度得到顯性一致的答案。三是人文內化的內涵外延存在一定的模糊性,難以匹配需要明確行為界限的義務內容。可參考2021年9月國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》的要求來推動行業內確認人文內化的標準策略。

在常規實現渠道上,可要求相關企業內置專門機構來實現技術倫理馴化要求。國外科技公司已存在相關實踐。與此同時,國外相關科技公司對倫理部門進行裁撤的做法也在引發公眾對技術安全性的擔憂。由此,需從規則設定上保障相關義務實現的穩定性,應使科技倫理審查部門成為AI開發者的標配,構成保障通用人工智能技術安全的內在力量。

余論

無論人類社會中的應對情緒是恐懼還是接受,通用人工智能的發展已勢不可擋,無所不知和有問必答是人類一直向往的智能狀態,在與浩瀚宇宙和強大自然抗爭的過程中,人類對不受束縛的自由生活的向往始終存在。雖然風險始終存在,但收獲與代價同向而行實在過于常見。因此,風險不足以成為抗拒新變化的理由。

與此同時,審慎與理性的觀察又足夠重要,以往的技術運行都仰賴于占據智力高位的人類,但通用人工智能不僅能完成人類生活中的常規任務而且具有類人的創造力, 在持續學習中精進能力,這對人類社會的沖擊是前所未有的。沒有行動邊界的自由往往會引發顛覆性的失序狀態,所以法律規制和倫理引導也需箭在弦上。為此,合理設定通用人工智能提供者的義務框架是從可能制造危險的源頭出發,保障該項技術合規發展的鑰匙之一。

主站蜘蛛池模板: 美女无遮挡被啪啪到高潮免费| 高清无码手机在线观看| 久久精品无码一区二区日韩免费| 精品超清无码视频在线观看| 国产白浆视频| 国产99欧美精品久久精品久久| 波多野吉衣一区二区三区av| 97青青青国产在线播放| 19国产精品麻豆免费观看| 在线精品欧美日韩| 欧美日韩国产在线人成app| www.99在线观看| 美女一区二区在线观看| 日韩二区三区无| 日韩无码白| 精品福利视频导航| 熟女日韩精品2区| 久久久久久国产精品mv| 99re热精品视频中文字幕不卡| 视频一区亚洲| 亚洲精品黄| 国产精品三级av及在线观看| 中文字幕 日韩 欧美| 国产一区二区影院| 亚洲免费三区| 欧美成a人片在线观看| 亚洲欧美成人| 欧美成人h精品网站| 这里只有精品在线| 自拍偷拍一区| 亚洲av综合网| 少妇露出福利视频| 2021国产乱人伦在线播放| 国产精品免费福利久久播放| 精品欧美一区二区三区在线| 亚洲精品麻豆| 在线观看91精品国产剧情免费| 国产区精品高清在线观看| 人人91人人澡人人妻人人爽 | 91精品久久久无码中文字幕vr| 成人亚洲天堂| 日韩 欧美 国产 精品 综合| 青青草原国产精品啪啪视频| 久久一本日韩精品中文字幕屁孩| 亚洲av无码牛牛影视在线二区| 亚洲免费毛片| 亚洲欧美一区二区三区图片| 亚洲欧美综合精品久久成人网| av一区二区三区高清久久| 欧美精品1区| 国产精品自在拍首页视频8| 国产在线观看一区精品| 一级毛片高清| 亚洲精品自产拍在线观看APP| 精品三级在线| 日韩av手机在线| 国产哺乳奶水91在线播放| 人妻91无码色偷偷色噜噜噜| 国产精品不卡永久免费| a亚洲天堂| 欧美怡红院视频一区二区三区| 精品久久国产综合精麻豆| 成人免费午夜视频| 色综合a怡红院怡红院首页| 日韩成人午夜| 久久婷婷综合色一区二区| 伊人久久大香线蕉影院| 亚洲精品久综合蜜| 国产色网站| 国产网站黄| 色首页AV在线| 亚洲成a人片在线观看88| 亚洲成年网站在线观看| 日本人又色又爽的视频| 亚洲一区二区精品无码久久久| 日韩欧美中文字幕在线精品| 手机在线免费不卡一区二| 亚洲一区二区三区香蕉| 亚洲天堂精品视频| 69精品在线观看| 亚洲精品无码专区在线观看| 亚洲天堂精品视频|