999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

創新友好人工智能監管:目標導向與實施體制

2024-10-17 00:00:00唐要家王鈺
人文雜志 2024年9期

關鍵詞 人工智能 風險 創新友好監管 可信人工智能 監管實施體制

人工智能(AI)是第四次產業革命的關鍵驅動力,它是一種破壞性技術進步,正在對經濟社會產生重大影響。人工智能應用不僅極大地促進了創新和經濟高質量增長,而且促進了社會安全與社會和諧。但人工智能應用也帶來算法偏見、隱私侵犯、信息操縱等風險,引發了人們的廣泛擔憂,不信任成為影響人工智能創新發展的重要障礙。因此,實行有效的人工智能監管成為應對風險的重要政策應對,其目的是構建可信任的人工智能發展環境。目前,歐盟、美國、中國等經濟體都在進行人工智能監管政策探索,但如何構建監管與創新平衡的監管體制這一難題仍未得到解決。一方面人工智能技術發展帶來的諸多風險影響深刻,需要有效應對;另一方面人工智能技術是新質生產力發展的引擎,是國際科技競爭的關鍵領域,需要維持強創新動力。由此,人工智能監管既要有效管控各種潛在的重大風險,也要釋放創新潛能,更好地促進創新發展,促進人工智能以有利于人類社會的方式創新發展。因此,如何構建創新友好的監管體制成為迫切需要解決的重大問題。

一、人工智能開發應用的風險與最優監管路徑

1.人工智能開發應用引發的主要風險

近年來,在大數據和算力技術快速發展的推動下,人工智能技術獲得了快速發展和廣泛應用,但同時也引發了各界對其潛在風險的擔憂。總體來說,人工智能系統應用可能帶來如下主要風險:一是個人隱私侵犯風險。人工智能的發展使消費者使用的各種設備和在線活動面臨更高的隱私數據泄露風險。二是個人身體或心理損害風險。人工智能應用者可能會利用其來強化對人的行為引導和心理暗示,如在線服務中的消費上癮、算法勞動者監督等,這會對人的身體或心理健康產生損害。三是競爭與創新損害風險。人工智能為企業實施算法合謀、算法個人化定價、算法自我優待等壟斷行為提供了新的手段,從而會扭曲市場競爭。同時,生成式人工智能的發展會帶來知識產權侵權問題,從而產生扼殺原始創新的風險。四是社會公平風險。人工智能在就業、招生、司法等領域的應用可能會對特定群體產生嚴重的不公平風險。五是社會倫理價值風險。人工智能系統可能會不斷向個人推送其偏好的內容而強化社會認知偏見,也有可能會大量推送非法有害內容,而生成式人工智能可能會生成和傳播大量虛假信息或新聞,從而對社會輿論和倫理價值產生損害。六是公共安全風險。人工智能可以提升網絡攻擊頻率和強度,可能會加劇網絡安全風險,同時人工智能的軍事化應用會威脅國防安全。

2.現有人工智能風險治理路徑的缺陷

面對人工智能應用帶來的各種風險,政治學、經濟學、社會學、法學等不同研究領域的學者對人工智能或算法監管問題提出了各種各樣的政策思路,總體可以概括為四種路徑。一是技術治理路徑。Guihot等、Taeihagh都認為算法“黑箱”是導致人工智能應用產生各種風險的主要原因。① Cogwill和Tucker認為算法偏差是產生人工智能應用偏差的根本原因。② 針對算法黑箱問題,Butterworth和Tutt提出算法可解釋性監管政策,認為通過增強算法可解釋性可以有效緩解算法應用風險。③ 二是事前監管路徑。一些學者提出應重點強化事前行政監管,主要措施是對人工智能系統應用實行影響評估和算法審計。④ Pasquale指出人工智能影響評估制度有助于將“黑箱社會”轉變為“顯見社會”,能從根本上建立算法信任。⑤ 三是行為治理路徑。Saurwein等認為人工智能應用風險來自數據本身存在的偏差和數據中包含的人的行為偏差。⑥ Chander進一步指出,人工智能應用風險的根本原因不在于算法黑箱而在于應用者的行為偏差。⑦ 因此,監管政策重在改變人工智能系統應用者以及社會成員的行為規則。Guihot等提出自我監管為主的思路,倡議采用自愿的行為規則來指導人工智能設計與應用,政府則需要事前明確政策預期。⑧ 四是綜合治理路徑。Leenes和Lucivero指出應該采取社會、法律、倫理等多種手段來治理人工智能。① Gasser和Almeida提出應采用技術—社會—倫理的三層治理框架。② Almeida等更是提出應建立包括立法、行政、司法、社會、國際合作等的多元人工智能治理框架。③

總體來說,上述理論研究基本都是針對人工智能風險來尋求有效的治理措施,是以消除風險為單一目標的監管路徑,并沒有在防控風險和鼓勵創新的雙重目標下尋求最佳的平衡性監管。單一風險目標的監管路徑很可能在實現風險防控目標的同時造成對創新發展的阻礙,并削弱長期的安全保障。因為可信的安全必須建立在高質量創新發展的基礎之上,缺乏創新發展的支撐將難以保障長期的安全。因此,實現安全與創新是人工智能監管無法回避的二維目標。

3.創新友好人工智能監管的合意性

人工智能技術創新是新質生產力的核心驅動力。新質生產力是創新起主導作用的先進生產力質態。人工智能是一種對經濟社會具有革命性影響的通用目的技術,人工智能技術創新不僅會產生一大批高技術成果,還會帶動一大批后續的應用性創新成果出現,不僅會催生一大批新產業的涌現,而且還具有廣泛的行業融合性,會全面賦能傳統產業和實體經濟實現高質量發展,從而帶動全要素生產率的大幅提升。人工智能技術推動的新一輪產業革命也被稱為智能化革命或第四次產業革命??梢哉f,誰掌握了人工智能創新發展優勢地位,誰就主導了全球第四次產業革命。在此背景下,人工智能監管應順應新一輪產業革命趨勢,助力發展新質生產力。

在全球高科技競爭的背景下,人工智能是中國實現高水平科技自立自強的關鍵核心技術。目前,人工智能成為全球大國戰略競爭的新賽道,它是中美兩國高科技競爭的焦點,人工智能創新發展很大程度上決定了中美高科技競爭的走向。為了遏制中國人工智能創新發展,近年來美國先后出臺了涉及高端芯片、數據流動、人才交流、風險資本等一攬子對華封鎖政策,并且美國政府還出臺了一系列確保美國人工智能全球領先的戰略規劃與支持政策;同時歐盟、英國等也都為爭奪人工智能全球領導地位而實施了一系列的支持政策。在人工智能全球戰略競爭的背景下,人工智能監管的科學性關乎中國人工智能創新發展和國際競爭重大戰略目標的實現,要求人工智能監管應以促進人工智能高質量創新為根本原則,從而更好地服務于國家發展戰略。

人工智能監管實際上是對處于快速發展中的創新進行監管,這內在地要求建立與創新特性相匹配的監管體制。人工智能技術創新的最根本特性是具有較高的不確定性,這也決定了人工智能風險的不確定性,并使監管政策面對較大的不確定性。目前人工智能技術仍然處在快速創新和持續的迭代升級階段,其對經濟社會的影響仍然具有非常大的不確定性。此時,政府監管面臨非常嚴重的信息不完全,監管機構也缺乏準確預測風險和提前設計最優監管政策的能力,武斷的監管會嚴重阻礙人工智能的創新發展。面對高度不確定性和復雜的人工智能技術,人工智能監管應避免成為創新阻礙,從而喪失重大的發展機遇和創新收益。因此,人工智能監管必須基于技術創新的不確定性和動態發展性來進行設計,一方面要實行謙抑監管,堅持包容審慎的基本原則;另一方面要實行敏捷監管,保持監管制度供給的及時跟進和良好制度回應,針對重大風險及時提供有效的監管制度供給,確保人工智能創新發展并促進人的福利全面提升。

創新友好監管就是以促進創新發展為根本原則,以最小化創新損害為監管政策依據,通過不斷完善和優化監管體制與治理體系,營造有利于人工智能創新發展的生態,從而實現監管與創新的動態匹配。創新友好監管能夠很好地實現監管與創新發展的平衡,促進人工智能更好地創新發展并助力實現國家發展戰略,并最終全面提升人的福祉。因此,創新友好監管體制應成為人工智能監管體制的基本模式選擇,監管應促進安全可信基礎上的人工智能創新,通過監管來營造有利于創新發展的生態以最大化釋放人工智能促進新質生產力發展的巨大潛能,并促進中國人工智能國際競爭力的提升,確保中國實現成為全球人工智能重要領導者的戰略目標。

二、創新友好人工智能監管的基本目標:可信人工智能

人工智能監管主要是針對人工智能技術應用所帶來的各種損害風險而采取有效的防控政策來最小化風險,以最大化公共利益,實現技術創新發展與人的福利提升的協同。在技術快速變革的背景下,信任是人工智能創新發展的基石??尚湃斯ぶ悄鼙O管能很好地維護利益相關者的權益,并為人工智能的創新發展構建信任的外部環境,從而為人工智能創新發展和商業應用提供穩定可預期的外部環境和豐富的應用場景。為此,可信人工智能監管應包括四個核心要素:倫理的人工智能、可靠的人工智能、創新的人工智能、法治的人工智能。

1.倫理的人工智能

首先,人工智能系統應用要保護人的基本權益。人工智能系統應用要尊重和保護人的基本權利,不能限制和損害人的基本權利。人工智能系統開發與應用應維護人的主體地位,不能損害人的基本權益,應更好地促進人的解放,為人的發展和福利提高創造更大的空間。人工智能技術不應成為應用者用來剝削消費者、壓榨勞動者、侵犯個人隱私和損害個人尊嚴的工具。其次,人工智能系統應尊重人的自決權。人始終是技術的主人而非技術的奴隸,人工智能系統必須始終是可控的,要確保人對人工智能系統應用的決策能力和監督能力。人工智能開發應用應尊重人的自決權,不能操縱信息和發布虛假信息、不能誤導人做出錯誤的決策。再次,人工智能系統應不損害公平正義。人工智能系統應用應確保公平和平等地分配成本與收益,確保弱勢群體免于人工智能應用帶來的不公平對待和歧視性待遇。人工智能應更好地促進社會公平正義,使每個人平等地接受教育、獲得就業機會、享受公共服務。

2.可靠的人工智能

首先,人工智能系統應用應具有堅實的技術保障。堅實的技術保障要求人工智能系統在開發時采用適當預防風險的方法,以能夠可靠地預期行為的方式,將各種損害風險降至最低,并重點防止不可接受損害風險的出現。其次,人工智能系統應用應具有科學的風險管控措施。人工智能系統應用安全不僅體現在技術保障上,而且也體現于系統應用者的組織治理制度和政府監管制度保障。為防范人工智能應用風險,需要建立全生命周期的風險防控機制,通過系統設計階段的風險防范設計,安裝使用階段的風險評估、風險監測、風險處置等來確保有效地防控風險,消除高損害風險的發生,減少一般損害風險的發生。再次,人工智能系統應用應具有可問責的治理制度。人工智能系統應用者是確保人工智能應用安全可信的第一責任人。為此,應明確人工智能應用者需要履行的基本安全義務,建立包括人工智能審計、人工智能應用評估報告、利益相關者參與及其法律行政責任等在內的問責制。

3.創新的人工智能

首先,政府監管應更好地促進人工智能技術創新。在人工智能驅動的新一輪產業革命背景下,創新是實現社會公共利益最大化的最主要因素。人工智能監管不能犧牲和阻礙創新發展,而應更好地促進人工智能負責任地持續創新發展。其次,政府監管應有助于人工智能國家戰略的實現。人工智能是高技術創新行業,是全球高科技競爭的重點,是中國搶占國際高科技領先地位的重要技術關鍵點。人工智能監管應有助于中國人工智能的創新發展,有助于中國人工智能技術、產業和企業群體持續增強國際競爭力,助力中國成為全球人工智能領導者。再次,政府監管應采用鼓勵創新的政策工具。政府監管應該為人工智能技術創新、商業化應用和產業化發展提供有利的政策環境,保持比例相稱的監管強度,避免超前監管、過度監管和一刀切監管,更多地采取促進創新的試驗性監管以及具有彈性的軟監管政策。

4.法治的人工智能

首先,人工智能應用應具有相對完備的法律規則體系。人工智能創新發展不能野蠻生長,應在法治的框架內進行。為此,需要根據技術發展和特定場景中技術應用出現的各種風險損害及時制定和完善法律法規,明確人工智能技術發展和應用應遵守的基本原則,劃定人工智能技術應用不能觸碰的紅線,明確人工智能系統應用者的治理責任,確保系統應用者的權責對等。其次,人工智能應用要依法合規。人工智能系統應用應在法治的框架下進行,使用人工智能的私人組織和公共機關要遵守人工智能監管的有關法律,依法開發、安裝、使用人工智能系統,遵守法律規定的基本原則,履行法定的基本義務,并為明顯違背法律規定的行為承擔相應法律責任。再次,政府監管要依法行政。政府監管也要遵守法治原則,監管機構的監管職權必須具有明確法律授權,執法行動必須依法合規,并充分尊重企業經營自主權。面對動態的人工智能技術創新,監管機構應建立穩定一貫的監管規則體系和富有彈性的政策體系,為創新發展提供穩定可預期的政策環境。

三、創新友好人工智能監管的基本導向:基于風險的監管

創新友好人工智能監管力求在最小化人工智能技術應用風險的同時最大化釋放創新潛能。人工智能監管是針對創新技術應用所帶來的不確定性風險的監管,而不是對研發創新的監管。因此,創新友好人工智能監管最科學的方式是實行基于風險的監管,通過科學的風險評估來建立基于風險損害的分級分類監管,重點監管不可接受風險和高風險人工智能應用,對中風險人工智能應用則采用低強度監管,對低風險人工智能應用則實行監管豁免,①從而增強監管的適時性、針對性、精準性和比例性,避免一刀切監管和過度監管對創新的巨大損害,使人工智能創新主體和應用主體能夠明確紅綠燈,形成穩定預期,從而有激勵持續地增加創新投入和進行商業化開發,實現風險管控與創新發展的平衡。

1.基于風險損害程度的分級監管

人工智能監管應根據人工智能在特定環境下應用可能對相關主體造成的風險損害程度,來設計與損害程度相稱的監管強度和政策手段。人工智能技術發展帶來的風險主要不是技術本身的風險,而是人工智能應用在特定場景中所產生的具有場景依賴的應用風險,因此基于風險的監管重點是高風險的應用場景。具體來說:一是基于人工智能系統應用場景的風險,對人工智能系統設定不同風險等級的標準,針對不同風險等級的人工智能實行不同的監管強度和監管政策,政府監管的重點是不可接受風險和高風險的人工智能系統應用,特別是政府公共服務、司法系統、就業、招生等領域和對人身心健康帶來損害的人工智能應重點監管。二是基于人工智能應用行業的風險,根據不同行業的應用風險損害程度,將關鍵信息基礎設施行業作為人工智能監管的重點。關鍵信息基礎設施行業一般包括公共通信和信息服務、能源、交通、水利、金融、公共服務等重要行業和領域。三是基于人工智能系統影響的主體,重點強化對弱勢群體如兒童、殘疾人、老年人等的保護。

2.基于風險生成機制的分類監管

人工智能應用監管的重心是防止出現系統性偏差,由于人工智能風險是由多種因素造成的,監管應針對風險的不同成因精準施策,長短期措施有序安排,避免將人工智能技術作為罪魁禍首的單一維度監管思維。首先是技術性偏差。技術性偏差是指人工智能系統程序設計、投入的數據質量、系統運行透明度低等因素造成的運行結果偏差,其監管政策是強化算法程序設計合規、加強數據治理、對人工智能系統的設計和安裝使用實施評估認證制度。其次是人為性偏差。人為性偏差是指應用者出于私人利益目標而人為地操縱算法以謀取私利,典型的如數字企業有誤導性地推薦商品、發布虛假銷量數據、操縱用戶評價信息、刻意隱瞞隱私風險等。人為性偏差監管政策的重點是強化人工智能系統應用者的主體責任,增強人工智能系統應用的透明度和可問責性。再次是制度性偏差。人工智能應用產生的偏差在某種程度上是社會價值觀念和運行規則的偏差通過人工智能系統的放大反映。制度性偏差是指一個社會的法規、政策、制度體制、文化意識等所具有的歷史性局限,這種歷史形成的偏差或制度缺陷帶入人工智能系統會產生有偏差的運行結果,從而限制個人權利,造成對特定群體的歧視,損害社會公平正義。解決制度性偏差的主要路徑是構建利益相關者參與的多元治理體系,鼓勵利益相關者參與人工智能系統生命周期各個階段的治理,在多元主體良性互動中消除制度性偏差。

3.基于風險階段差異的動態監管

動態來看,人工智能風險的產生具有明顯的階段性分布特征,監管需要針對人工智能技術發展不同階段的風險問題來合理匹配監管強度并科學選擇針對性政策。首先,在人工智能開發設計階段,監管主要是貫徹基于設計來確保合規的要求,在系統框架、算法運行規則和數據投入設計中,避免將技術或人為的系統性偏見帶入,通過設計來確保合規,實現設計的可信。其次,在模型測試驗證階段,數據質量是監管的重點,應強化數據質量標準和數據質量管理體系,并建立有效的模型風險評估機制,提升風險防控措施的有效性。再次,在系統安裝階段,監管主要是政府對較高風險的人工智能應用進行風險評估與算法審計,防止高損害風險人工智能系統的安裝應用。最后,在系統運行階段,應對人工智能系統的運行實行動態監控和評估,應用主體應具有科學的風險管理措施保障,以確保功能正常運行,確保系統應用不會造成意想不到的危害。在動態的全生命周期監管中,人工智能應用主體的自我治理始終是基礎,監管需要科學定位政府監管機構和人工智能應用主體的權責關系,注重激勵應用主體開展自我治理,構建合作監管體制。

4.基于風險演化的綜合監管治理

人工智能技術應用產生的潛在風險具有廣泛的經濟社會影響,既需要技術治理體系的完善,也需要經濟社會做出相適應的制度變革。人工智能監管不能將監管對象局限于人工智能技術本身,讓人工智能承擔不合理的責任,而應從多個層面著手并在多元主體間配置治理責任。首先,人工智能不僅僅是一種技術性工具,也是一種重構人與人、人與企業、企業與政府等各種關系的力量,是一種新的經濟社會權力。人工智能應用風險實際是技術創新對原有技術、經濟、社會平衡關系的沖擊所帶來的。其次,由于人工智能應用超越了單純的技術工具范疇,它必然會受到各種復雜的經濟社會關系的影響,人工智能應用產生的各種偏差結果及其引發的歧視性本質上是經濟社會運行中痼疾的技術性映射或技術性系統強化。再次,人工智能的創新發展必須具有兼容的經濟社會環境,包容、信任、鼓勵的創新生態對人工智能創新發展至關重要。綜上,在技術、經濟、社會都處在動態變化的情況下,政府監管不再是一個靜態的制度實施過程,而是對技術、經濟、社會動態變化所引發的利益相關者之間復雜利益沖突做出的主動性監管制度回應。因此,人工智能監管必須采用“技術—經濟—社會”綜合治理理念,促進技術、經濟、社會的整體協同演化,從而構建可信人工智能持續優化的治理生態。

四、創新友好人工智能監管的實現基礎:監管實施體制

創新友好監管目標的實現關鍵在于能否建立好的監管實施體制。政府監管是一種行政行為,監管實施體制從根本上決定了監管績效。① 作為一種顛覆性技術,人工智能創新發展需要創新監管實施體制,實現監管與創新的動態匹配。因此,人工智能監管迫切需要建立有利于創新的監管實施體制,營造有利于同步促進安全可信和創新發展的生態。為此,創新友好目標導向的政府監管機構需要發揮好兩種基本的角色:一是消極行動者角色,即通過完善監管行政制度確保政府監管不會阻礙人工智能的創新發展;二是積極行動者角色,即通過監管為人工智能創新發展提供有力的要素供給和產業化應用場景,并營造有利于創新發展的制度環境,以最大化促進人工智能創新發展。

1.創新友好人工智能監管要確保監管與創新的動態匹配

從政府監管與人工智能創新發展的關系來說,創新友好監管體制關鍵是形成監管與創新的動態匹配。首先,創新友好人工智能監管應實現二者的協調。政府監管與創新發展的協調體現在兩個方面:一是監管有利于人工智能高質量創新發展,科學的人工智能監管能夠為人工智能創新發展營造安全可信的外部環境,既會增強消費者的信心,從而擴大人工智能的應用場景,也會增進研發者和投資者從事研發創新的積極性,從而總體上促進人工智能創新發展;二是人工智能創新發展有利于高效能監管,人工智能技術創新發展會不斷優化技術設計,消除技術性缺陷帶來的風險,安全技術創新會為消除風險提供有效技術治理手段,同時人工智能技術創新也為實現政府監管的智能化提供了技術支持。其次,創新友好人工智能監管要避免二者的動態失調。政府監管與人工智能創新發展的失調主要體現在兩個方面:一是人工智能技術創新打破了原有監管體制維持的均衡態勢,新技術的出現導致原有監管體制與政策工具失效,產生較大的監管缺口,降低政府監管整體效能,從而帶來較高的風險隱患;二是不科學的政府監管嚴重阻礙了人工智能創新發展,這主要體現為監管不足與監管過度:前者體現為面對人工智能快速的創新發展,政府監管沒有提供及時有效的制度供給,導致人工智能創新發展產生風險損害,并使創新發展缺乏良好外部環境;后者體現為政府錯誤的監管決策、過于超前的監管政策、不合理的高強度監管、不科學的政策工具導致人工智能創新發展面臨過度的不合理限制和過高合規成本,嚴重打擊微觀主體創新積極性,或嚴重阻礙創新成果商業化應用和產業化發展。因此,創新友好監管體制要通過制度建設來避免監管不足和監管過度對創新的阻礙和對監管效能的制約,確保政府監管與技術創新的動態最優匹配(見圖1)。

2.創新友好人工智能監管實施體制應堅持的原則

創新友好人工智能監管應堅持如下的基本原則:一是法治化原則。政府應確保監管規則的明確性和一致性,避免削弱企業投資激勵和企業家創新創業的信心。二是突出原則監管原則。對于不明確的風險或尚未大規模顯現的風險適用原則監管,監管機構制定基本的行為原則,具體實施則由企業根據自身的實際情況來靈活決定;僅對大量事實已充分證明具有嚴重危害的人工智能開發應用風險才實行規則監管,監管機構直接規定企業不可以實施的具體應用或行為。三是增強公眾信任原則。監管應重在構建公眾對人工智能開發應用的信任,監管不僅要關注人工智能技術安全、治理制度安全和商業應用安全來保護人的基本權益,也要通過增強透明度和安全宣傳等來提高公眾信任。四是風險敏感原則。政府監管應根據不同風險損害來實施相匹配的監管強度與監管政策,貫徹基于風險的監管體制。五是最小化創新損害原則。監管工具選擇應追求最小化創新損害,通過科學的政策影響評估和政策優化,采取創新損害最小的政策工具,并將促進企業主動合規和軟監管措施作為優先選項。

3.創新友好人工智能監管的行政體制保障

在人工智能監管中,政府始終是最為關鍵的監管主體,尤其是在行政監管主導的體制中,法治化的監管行政體制是創新的重要保障。創新友好監管行政體制建設重點為:一是構建高效協同的監管機構體系。政府監管層面,應建立國家統一監管與行業分散監管相結合體制,國家統一立法,由國家專門監管機構負責統一執法,各行業主管部門根據行業領域制定細則并負責本行業監管。為了促進各部門的協同監管,應根據權責對等原則來配置各部門的監管職責,完善部際協同監管體制。二是建立體現程序正義的監管行政程序。正當的行政程序是防止行政監管權濫用,避免監管失誤與阻礙創新的重要制度保障。為此,應重點強化監管影響評估制度,監管部門出臺監管政策必須進行成本與收益評估,尤其是重點評估其對創新發展帶來的影響,并比較各種替代性方案來選擇創新損害最小的政策方案。三是建立公私合作監管新體制。人工智能監管要構建公私合作體制,政府監管機構與大型數字平臺企業、行業組織等建立合作監管體制,并積極吸收利益相關者參與治理,構建多元主體參與的監管治理體制。

4.創新友好人工智能監管的政策工具創新

第一,建立多種政策手段相機應用的人工智能監管工具箱。依據人工智能監管強度,監管政策工具包括五種:一是倫理治理。人工智能監管應堅持倫理先行,建立并完善人工智能倫理準則,通過完善制度確保落實,將倫理融入人工智能全周期,使遵守倫理準則成為相關主體的自覺行動,實現內源性治理。二是系統應用者的自我監管。要充分發揮系統應用者作為風險控制第一責任人的主體地位,激勵其主動采取有效措施來降低各種風險。三是行業組織私人監管。其措施包括行業組織制定行為規則、制定與推行行業管理或技術安全標準、開展行業算法認證等。四是政府監管。政府監管機構應多采用信息披露、安全標準、應用指南、安全認證等軟監管方式。五是技術性解決方案。人工智能安全技術為人工智能監管提供了新的治理手段,如隱私安全技術能實現“數據可用不可見”,充分保障隱私安全。綜上,人工智能監管應根據不同應用場景來靈活選擇政策工具,注重不同政策工具的組合,并最小化命令—控制式監管手段的應用。

第二,實施規則透明、外部評估與內部自評相結合的人工智能影響評估制度。人工智能影響評估重點是針對人工智能系統應用的各種潛在影響進行評估,影響評估包括人工智能系統應用前的事前評估和人工智能系統應用后的事后評估,影響評估的內容重點是分析人工智能引發的潛在風險及其損害。影響評估制度是目前各國人工智能監管的重要政策手段。2019年歐洲議會通過的《算法問責與透明治理框架》、2022年3月美國國會通過的《2022年算法問責法》都對達到適用標準的企業提出了進行影響評估的要求。中國應制定明確具體的政策,在高風險的重點領域推進強制性人工智能應用影響評估制度,明確影響評估的具體內容和操作程序,并確保評估的透明。與此同時,對于中低風險的領域則應鼓勵企業基于自愿來開展評估,并鼓勵主動采取合規治理措施。

第三,采用鼓勵創新的人工智能監管政策以最大化促進創新。為鼓勵創新,人工智能監管應更多采用“監管沙盒”等試驗性監管政策。對于一些具有較大原創性的人工智能技術研發或通用性人工智能技術研發可以設立安全區,對研發階段的人工智能技術實行監管責任豁免,并通過監管為人工智能技術研發提供高質量數據供給、統一調度的算力和開放創新的生態;對于已經開發成功并將進行商業化應用的人工智能,可在一定的可控范圍內進行試驗性應用,充分評估潛在的主要風險,據此要求企業在技術應用中來提升數據質量、完善系統設計和完善風險管理措施,同時也要主動優化政府監管體制和創新監管政策,實現政府監管與創新的匹配;對于暫時無法確定人工智能應用風險的新技術產業化應用,應建立必要的容錯機制,以鼓勵創新發展。為促進人工智能商業化應用和產業化發展,應建立和完善人工智能監管政策和創新發展政策的協同機制,通過政府監管來消除阻礙人工智能創新發展的各種障礙,營造有利于創新發展的要素供給、應用場景、政策與制度環境,以全面促進人工智能創新發展。

五、中國人工智能監管體制完善的重點

面對人工智能應用帶來的潛在風險,強化風險管控是人工智能監管的重要任務。2021年國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,以網信辦為主的監管機構制定了《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》和《生成式人工智能服務管理暫行辦法》等監管法規,并不斷強化監管行政執法。長期以來,中國政府監管體制具有典型的強政府特征,同時監管職權配置是明顯的條塊分割體制。在中國特色政府監管體制下,如何防止不恰當的監管實施體制損害人工智能創y2Rn18SgQ8CdBQvzzy5A8g==新發展,是一個亟待從根本上解決的重大問題。未來中國人工智能監管體制應重點在如下方面予以完善:

第一,起草制定《人工智能法》,以強化監管法治化。當前,中國系統監管人工智能的國家級法律依然處于缺失狀態,分散的部門立法和多頭管理增加了人工智能創新發展的政策不確定性,迫切需要通過統一的國家層級立法來明確人工智能監管的基礎性問題,為人工智能創新發展提供穩定可預期的制度保障。具體建議如下:一是確立以人為本的立法理念。人工智能監管的基本理念應堅持以人為中心,增進人類福祉,促進人的全面發展。二是明確人工智能監管基本原則。人工智能開發應用應遵循安全性原則、透明度原則、公平性原則和問責性原則。三是明確政府監管要遵守法治化原則。政府監管要嚴格法治化,明確相關部門的職權權限和監管責任,切實依法行政。四是明確基于風險的分級分類監管。依據人工智能風險評估和風險等級劃分,實行基于風險的分級分類監管,針對不同行業獨特應用場景來建立分產業風險評估和監管體系。五是促進多元治理與開放合作。要消除阻礙開放創新的各種行政壁壘,促進形成利益相關者合作治理體系,并鼓勵合作創新和開源生態體系建設,形成有利于創新的合作與開放生態。六是人工智能監管要堅持國際化。人工智能監管要遵守國際共識和共同原則,加強人工智能監管政策的國際協調,積極推動人工智能創新的國際合作,為中國人工智能全球化創新發展提供有利的國際環境。

第二,著力改革完善監管行政執法體制,以提升監管正當化。一是政府監管必須始終依法行政。政府監管權的行使必須具有明確的法律授權,不能隨意執法和恣意妄為,根本消除過度監管、不當監管對創新發展造成的嚴重損害,營造有利于創新發展的政策環境。二是政府監管必須確保政策合力。政府監管體制要防止部門主義的冒進執法,要注重消除地方保護主義對形成人工智能創新開放生態和全國統一大市場的各種阻礙,健全人工智能監管機構體系和部門協同體制,確保監管政策的統一性,明確人工智能監管必須服務于促進人工智能創新發展的重大國家戰略。三是政府監管必須具備公正程序。政府監管政策制定必須有公眾意見征詢過程,必須進行監管政策成本—收益分析,監管必須建立政策實施效果后評估制度,并實施相應的事后問責機制。四是監管方式應創新友好。政府監管應及時清理阻礙創新發展的監管政策,并及時出臺與創新發展相適應的監管政策。監管手段應更多地采用標準化、指南、行為準則等非約束性監管政策,并強化監管政策工具創新。應推行數據質量標準化,促進高質量數據供給;打破條塊分割體制,提升全國算力設施系統調度;建立鼓勵創新的新型知識產權保護制度;建立人工智能測試中心和商業化應用試驗區,實施監管沙盒制度;鼓勵安全技術開發、應用和產業化發展,增強安全技術保障;改革教育體制、科技體制和融資體制,培育數據要素市場,促進數據流動,消除阻礙人工智能創新發展的各種體制政策障礙,營造促進創新發展的外部環境。

第三,建立系統應用者主動治理的激勵制度,以增強監管合規化。人工智能應用者的自我治理是實現創新友好監管的重要基礎,要尊重企業自主經營權,鼓勵企業根據自身情況來選擇最佳合規方案,從而最小化政府監管的創新損害。一是依據比例原則合理確定人工智能系統應用者的治理責任。人工智能系統的安全責任應主要配置給人工智能系統應用者,其應承擔必要的注意義務,應建立科學、規范和系統的風險管理制度體系,充分履行相應的安全保障責任。二是高風險人工智能應用者應充分履行透明度義務,保障消費者的基本權益,以增強公眾信任。人工智能系統應確保具有透明度,使用戶能夠理解并正確使用系統輸出結果。人工智能采集利用消費者數據要遵守“知情—同意”要求,基于人工智能的個人化定價、內容推薦等必須事前明確告知消費者,人工智能合成的內容必須進行明確的標簽標注,并賦予消費者不同的應用界面選項。三是強化對人工智能應用者的問責。人工智能系統應用者需要對人工智能應用風險承擔第一責任,并履行相應的問責義務要求。四是強化對企業主動合規的激勵機制建設,實施可信人工智能安全認證與動態的安全可信評估,讓安全成為企業競爭的重要質量維度,對于具有可信的安全保障能力的企業可以給予更多的治理自主權和一定的產業政策優惠。

第四,實現倫理治理的全過程內嵌,以突出監管軟性化。倫理是實現人工智能創新發展與安全應用相平衡的重要軟監管方式。為有效發揮倫理的內源性治理作用,需要進一步完善相關制度。具體而言:一是進一步明確人工智能倫理原則。人工智能治理的價值準則是以人為中心,人工智能相關活動過程應遵守增進人類福祉、尊重和保護人的基本權利、堅持公平公正、合理控制風險和保持公開透明等原則,應通過指南對上述原則做出明確界定。二是健全人工智能倫理治理體制。應完善政府人工智能倫理管理體制,明確相關主體倫理治理責任,使倫理成為激勵和約束企業的重要內源性治理機制。三是加強倫理治理制度保障。應完善人工智能倫理規范和標準,建立人工智能倫理評價制度,并及時將重要的倫理規范上升為法律法規。四是深入開展人工智能倫理教育。要重視人工智能倫理教育,積極推動人工智能倫理培訓,強化相關人員的倫理意識。

主站蜘蛛池模板: 91精品久久久无码中文字幕vr| 久久婷婷五月综合色一区二区| 亚洲黄网在线| a欧美在线| 国产99精品久久| 福利视频一区| 99久久精品免费视频| 日本三级黄在线观看| 日韩免费无码人妻系列| 蜜臀AVWWW国产天堂| 综合网天天| 国产精品亚洲一区二区三区z| 亚洲日本韩在线观看| 人妻夜夜爽天天爽| 日韩天堂视频| 国产精品高清国产三级囯产AV| 国产剧情伊人| 亚洲va视频| 亚洲性视频网站| 欧美精品亚洲精品日韩专区| 亚洲精品第一页不卡| 伊人91视频| 国产高颜值露脸在线观看| 亚洲人成网站色7799在线播放| 五月六月伊人狠狠丁香网| 欧美国产日韩在线| 欧美国产日韩一区二区三区精品影视| 日韩av在线直播| 91系列在线观看| 欧美高清国产| 香蕉蕉亚亚洲aav综合| 色婷婷丁香| 国产精品真实对白精彩久久| 在线中文字幕网| 人妻21p大胆| 性视频久久| 午夜色综合| 囯产av无码片毛片一级| 欧美色图久久| 婷婷伊人五月| 亚洲天堂网视频| 亚洲综合天堂网| 伊人成人在线视频| 四虎精品国产AV二区| 国产三级国产精品国产普男人| 亚洲高清中文字幕在线看不卡| 国产在线98福利播放视频免费| 亚洲免费福利视频| 99热这里只有成人精品国产| 久久国产亚洲欧美日韩精品| 欧美在线网| www亚洲天堂| 国内老司机精品视频在线播出| A级全黄试看30分钟小视频| 亚洲精品欧美日本中文字幕 | 国产美女无遮挡免费视频网站| 亚洲中文精品久久久久久不卡| 亚洲天堂在线免费| 99久久人妻精品免费二区| 亚洲91精品视频| 91免费精品国偷自产在线在线| 亚洲大尺码专区影院| 亚洲第一极品精品无码| 亚洲天堂免费| 成人一级免费视频| www亚洲精品| 99精品国产电影| 天堂成人在线视频| 好吊色妇女免费视频免费| 波多野结衣中文字幕久久| 成人一级黄色毛片| 国产成人综合日韩精品无码首页| 久996视频精品免费观看| 日韩毛片免费视频| 高清码无在线看| 亚洲天天更新| 亚洲小视频网站| 久久www视频| 天天躁夜夜躁狠狠躁图片| 麻豆精品视频在线原创| 欧美在线黄| 欧美在线视频a|