張娟 張翠梅
關鍵詞:生成式人工智能;國家創新體系;法制;數據權;文化安全
當前,人類社會已邁入以人工智能為引領的數智時代,并開始觸達數智賦能的前沿。面對數智潮流,國家創新體系各環節與數智技術如何相互融合,加速國家創新體系優化進程,是關乎國家創新事業長足發展的必經之路。數智賦能時代,探索“數智技術+國家創新體系”深度融合的新范式,是對國家創新體系優化的概括提煉。人工智能作為提高新興科技競爭力的著力點,貫穿于制造強國、科技強國建設。以ChatGPT為代表的新一代生成式人工智能,在技術上突破了以往弱人工智能的不足。我國在相關領域亦布局較早,成效顯著,這為我國建設科技強國開辟出新的強勁路徑。在應用場景層面,人工智能在行政管理、醫療教育、智慧司法、自動駕駛以及智能供應鏈等方面體現出強大的創新能力,即人工智能不僅自身具備生成創新性產品的能力,而且能夠推動人工智能使用者的創新,通過在各領域、各層面產出創新產品和創新服務,可以有力地促進國家創新體系的整體優化。應當注意的是,以ChatGPT為代表的新一代生成式人工智能雖然具有較大的應用優勢,但其作為一項新興事物,不可避免地帶來應用風險,比如,人工智能技術應用背后所蘊含的意識形態問題。基于此,以ChatGPT為代表的新一代生成式人工智能為例,深入研究生成式人工智能基于何種方式助力國家創新體系優化、深入剖析人工智能應用過程中的風險和隱患,由此提出符合法治規律且具有針對性的解決方案,促進人工智能應用風險的有效化解,充分發揮數智賦能對于創新國家目標實現的重要意義,以期為國家創新體系提質增效和高質量發展提供理論和實踐引領。
一、數智賦能國家創新體系優化的內在邏輯
以ChatGPT為代表的新一代生成式人工智能的飛速發展與應用,催生了醫療、教育等多領域的變革。①依據《人工智能生成內容(AIGC)白皮書(2022年)》②,人工智能生成內容具備產生數億萬元經濟價值的潛力,隨著人工智能生成內容的發展深入,將推動資產服務的跟進,通過對人工生成內容進行合規評估、交易服務、產權保護以及資產管理等形成完整的人工智能生成內容生態鏈,并對其進行價值重塑,由此充分發揮人工智能生成內容的商業潛力。由此可見,以ChatGPT為代表的新一代生成式人工智能具有巨大的經濟價值和廣泛的應用場景,可以為優化國家創新體系注入強勁動力。
(一)傳統要素的優化:數智賦能國家創新體系整體高效
進入新時代以來,建立健全國家創新體系,需要完善的社會主義市場經濟制度予以保障。在國家創新體系優化過程中,以ChatGPT為代表的新一代生成式人工智能可以為其注入強大的市場能動,即人工智能“通過垂直和橫向互補性拓展創新與生產率提升空間,對經濟持續增長有重要作用”③。具體來講,主要表現為四個方面。一是,新一代生成式人工智能可以快速推進科技創新。新一代人工智能可以提升人工智能模型與算法,更加準確、高效地完成自然語言識別、語音與圖像識別等復雜任務,從而為交通、醫療、科研等領域提供相對完善的解決方案。如此,可以促進各行業、各領域工作人員在實踐中的創新,加速科技成果的轉化與應用,進而助力國家創新體系的完善與發展。二是,新一代生成式人工智能可以促進數字經濟的繁榮發展。在人工智能技術飛速發展的背景下,以數據要素為核心的智能金融、智慧物流、大數據分析等產業迅速發展。以ChatGPT為代表的新一代生成式人工智能可以高效處理并分析海量數據,通過提取海量數據中具有價值的信息,為數字經濟的發展注入強勁動力,進而優化國家創新體系在數字化領域中的布局。三是,新一代生成式人工智能可以推進部分產業的轉型升級。以ChatGPT為代表的新一代生成式人工智能技術在傳統產業中的深入應用,將會引發傳統行業的重大變革,推動傳統企業向自動化、智能化轉型。比如在制造行業,人工智能技術的深入應用能夠實現智能物流、智能制造的突破,有效提高企業的產品質量和生產效率,加速勞動密集型產業轉向技術密集型產業,實現傳統產業的轉型與升級。四是,新一代生成式人工智能可以促進人才培養、優化科研環境。以ChatGPT為代表的新一代生成式人工智能的理論與技術研究,需要完善人工智能領域的人才支持政策、加強人才培養與人才引進,為生成式人工智能人才提供強有力的政策、平臺與環境保障,充分吸引國內外優秀的人工智能人才,不斷壯大國家創新體系的人才隊伍。
新一代生成式人工智能介入國家創新體系優化的經濟依托主要表現為以下幾個方面。首先,提高數字內容的生產質量與效率。所謂數字內容,主要指運用數字技術生產、使用和傳播的多類型內容,比如視頻、音頻、圖像、文本等。數字內容不僅是數字經濟的重要部分,而且也是支撐國家創新體系的關鍵。如前所述,結合用戶的需求與偏好,以ChatGPT為代表的新一代生成式人工智能可以迅速生成具有個性化定制屬性的數字內容,并且數字內容具備較高的準確性、真實性和創造性,可以在很大程度上滿足不同行業和領域對知識獲取、信息傳播以及娛樂消費的需求,有效降低了數字內容的生產成本,從整體上提高了數字內容的生成質量和生成效率。其次,推進數字技術深度融入實體產業。結合實體產業的需求和特點,以ChatGPT為代表的新一代生成式人工智能可以生成與應用場景和目標相契合的數字內容,比如數據、模型、代碼等,同時能夠與實體產業開展雙向的互動交流與反饋。人工智能生成的數字內容不僅夠增強實體產業的生產力、降低生產風險、提升產業價值,而且能夠助力實體產業向網絡化、數字化以及智能化方向轉型升級。最后,拓展數字經濟發展空間,激發數字經濟發展潛力。結合市場需求和變化,以ChatGPT為代表的新一代生成式人工智能可以生成數字產品、數字服務等兼具創新性和競爭力的數字化內容,并且能夠實現與用戶的智能化交流互動。人工智能所生成的數字內容,不僅能夠推動形成新的商業模式、價值鏈以及生態圈,而且能夠推進數字經濟領域與其他領域協同發展。
(二)管理要素的優化:數智賦能國家創新體系拓展統籌
“人工智能驅動政務服務創新是數字政府的重要內容”①,在行政管理領域,推進ChatGPT在智能政務領域的應用,能夠提高工作效率,降低行政成本,強化科學行政。②以ChatGPT為代表的新一代生成式人工智能的應用,不僅為行政管理的變革帶來重要機遇,還為優化國家創新體系提供了新的手段和路徑。在行政管理領域,以ChatGPT為代表的新一代人工智能的功能效用主要表現為三個方面。一是,新一代生成式人工智能可以進行數據分析并為相關決策提供支持。在國家創新體系優化過程中,政府部門往往需要處理海量的信息數據,比如技術創新引導、科研項目評估等。政府通過應用以ChatGPT為代表的新一代生成式人工智能,可以對海量數據進行快速、有效的處理和分析,并對具有價值的信息進行提取,從而可以為決策者提供具有科學性、合理性的建議,如此也能夠減少主觀因素對決策的干擾。二是,在數字領域方面,以ChatGPT為代表的新一代生成式人工智能掀起了重大變革,③即生成式人工智能可以作為智能助手,通過自動完成會議安排、文件整理等具有重復性、繁瑣性的行政任務,有效節省行政管理人員的時間成本和人力資源成本,提高行政管理工作的質量和效率。新一代生成式人工智能除了在行政管理領域扮演著重要角色,還在優化國家創新體系中發揮著關鍵作用。比如,對于科研項目評估和資助決策事項,新一代生成式人工智能基于對海量數據的分析,形成科研項目評估報告,同時對科研項目的創新性和重要性等方面進行全面評估,不僅有效減輕評估人員的工作負擔,而且極大增強了評估結果的客觀性與公正性。新一代生成式人工智能介入國家創新體系優化的行政優化主要表現為以下幾個方面。
首先,新一代生成式人工智能作為“數字運營官”,可以向政府內部提供決策管理支持。結合政府內部的信息數據,以ChatGPT為代表的新一代生成式人工智能可以生成分析報告、工作計劃和決策建議等內容,并能夠與政府相關工作人員進行智能化交流與協作。生成式人工智能在行政管理領域的應用,不僅可以提高政府內部的數據利用率、增強溝通效果、優化決策流程,而且能夠節省人力資源成本、提高文檔制作質量和速度,促進行政管理的科學性、高效性和透明度。其次,新一代生成式人工智能作為“數字助理”,可以向政府外部提供公共服務支持。結合政府的外部需求和反饋,以ChatGPT為代表的新一代生成式人工智能可以生成咨詢回答、宣傳教育、服務指南等內容,并且可以與社會公共進行智能化互動,發揮引導作用。生成式人工智能針對不同的用戶和場合,可以生成差異化的語氣和表達方式,比如簡潔或者詳細、禮貌或者親切等,滿足不同用戶所期待的情感,如此也可以極大減輕人工客服的工作壓力,提高回答的客觀性、準確性與多樣性。最后,新一代生成式人工智能作為“數字創造者”,可以向社會提供創新資源支持。結合社會的創新需求與潛力,以ChatGPT為代表的新一代生成式人工智能可以生成創業平臺、創新產品、創新方案等內容,并且能夠與創新主體進行智能化匹配。新一代生成式人工智能不僅能夠幫助社會拓展創新空間、提高創新活力、增加創新價值,從而實現開放、協同、多元的創新生態,而且能夠針對不同領域和目標,生成代碼、音樂、文學等不同類型和風格的內容,以此滿足不同主體的創新需求和偏好。
(三)創新要素的優化:數智賦能國家創新體系新著力點
國家創新體系優化的最終目的還是在于促進創新能力和資源向創新成果轉化。人工智能的介入賦能了創新主體、新增了創新要素、重塑了創新網絡和創新機制,最終都體現為創新成果的持續產出。新一代生成式人工智能賦能國家創新體系優化是一種跨領域、跨行業、跨界別的全面優化,有助于推動國家創新體系全領域的成果轉化和價值提升。主要體現在以下幾個方面。
第一,在國家戰略層面明確創新體系優化的成果轉化方向,新一代生成式人工智能能夠打破信息壁壘和層級壁壘,為創新成果的研發和轉化提供信息支持和決策支持。著眼于國家發展目標和現實需求,新一代生成式人工智能能夠收集和分析國內外形勢變化情況數據,在此基礎上挖掘和預測各個領域的創新方向,自動整合并生成戰略規劃、政策建議、行動方案等內容;其還可以根據情況變化實時調整戰略規劃和決策策略,及時溝通相關部門并推動協調配合,從而實現整體戰略的動態優化和適應性調整。例如,在科技領域,根據國家科技發展目標和現實需求,尤其是面對西方國家“卡脖子”的情況,新一代人工智能會在收集和分析各國科技領域發展情況的基礎上自動生成針對性較強的科技政策建議、科技項目方案,乃至科技戰略規劃等內容,并在政策、方案、戰略規劃實施的過程中密切關注國內外科技形勢變化和數據反饋,實時調整和更新建議,有助于確保科研創新的方向性。
第二,在產業發展層面提升創新體系優化的成果轉化速率,新一代生成式人工智能能夠及時、準確地把握產業發展機遇,為創新成果的研發和轉化提供市場方向和投入定位。就國家創新體系優化下的全面的產業發展而言,其能夠同時容納和分析的產業數量遠超一般人工智能,不僅能根據數字經濟發展趨勢和市場需求,自動生成數字經濟分析、數字經濟預測、數字經濟建議等內容;還能根據不同產業特點和條件,自動生成某一產業發展的相關分析、預測和建議,包括產品設計、服務方案、營銷策略等內容;還可以支撐和維系國家部門與不同產業的企業、產業內外相關企業的智能協作和協調溝通。由此,國家創新體系優化從戰略、政策、方案走向產業變革、企業創新、產品創造的流程得到簡化,創新思維、能力和資源向創新成果轉化的速度提高,創新成果數量也將不斷增加。例如,目前有很多自動生成網站、APP、小程序等數字產品已經出現,不同產業的企業都可在相關平臺獲得設計、營銷等服務。
第三,在社會生活層面塑造創新體系優化的成果轉化需求,新一代生成式人工智能能夠精準地抓取用戶的個性化需求和社會的群體化需要,為增強創新成果的衍生價值提供用戶粘性和技術支持。新一代生成式人工智能在滿足個人服務需求方面具有巨大的潛力,例如,可以根據個人輸入和偏好,自動生成文書模板、疑問咨詢、服務指南、教育培訓等內容,①尤其是教育培訓方面,能在相關群體之間進行引導和維持智能互動。②而當這種互動模式出現在創新體系優化之中,一方面,相當于社會民眾能直接從需求一側向國家、政府和企業提出要求,而這供需兩端連接過程被壓縮進而扁平化溝通模式,對企業創新能力提出了新的要求。例如,面對民眾的醫療、旅游、教育咨詢等需求,智能系統平臺是否能在給出答案的同時鏈接到相關服務;另一方面,一旦社會民眾習慣于這種智能互動和引導,習慣于快速反饋和產出的創新服務或產品,那么其就會期待類似服務出現在更多產業和行業之中。由此,國家、產業和企業都應當遵循技術和經濟發展規律,響應社會民眾需求,積極加入到這種快速反饋和產出的互動模式中來,讓這種供需智能互聯的新模式最終成為創新體系優化的關鍵支撐。
二、數智賦能國家創新體系優化的可能風險
相較于傳統的人工智能技術,新一代生成式人工智能展現出了更為強大的創新能力,不僅在技術創新上有著顯著的優勢,而且其創造或協助人類生產的數字化內容也在多個層面上有助于推動國家創新體系的深度優化和升級。然而,正如許多技術在誕生之初所面臨的挑戰一樣,生成式人工智能在技術上的新穎性所帶來的諸多問題也暴露出法律規制的滯后現象,這在很大程度上限制了其發展潛力的充分挖掘。因此,針對生成式人工智能應用于社會生產生活各方面所帶來的問題,理應在法律法規的框架下采取針對性措施,在實現生成式人工智能可持續發展的基礎上,確保生成式人工智能能夠在規范的法治環境下為社會帶來更多的福祉。
(一)算法黑箱風險
1.數據權的侵擾
新一代生成式人工智能在應用過程中存在兩個重大數據風險——創新數據泄露和創新數據濫用,而這兩個風險都會嚴重危害個人隱私權益,甚至可能對經濟社會發展和國家安全構成威脅。在創新數據泄露問題上,以ChatGPT為代表的新一代生成式人工智能在創設之初,就一直籠罩在數據泄露嚴重和隱私保護不力的質疑之中。①這主要是因為,新一代生成式人工智能的算法需要依賴海量的數據庫,而這些數據庫中包含的往往是用戶在瀏覽互聯網以及在使用移動互聯應用過程中遺留的,這使得ChatGPT難以避免地保留了一些真實用戶的個人信息,一旦用戶的問題觸發了ChatGPT的這部分記憶,就可能會透露出一些本不該泄露的隱私內容。需要注意的是,ChatGPT包含大量個人隱私外,也涉及了商業秘密甚至與國家機密相關的信息。以ChatGPT為例,這種新一代生成式人工智能在進行數據處理時,無法判斷信息的敏感性和重要性,僅僅將其視為算法的輸入,無法對各種私密信息進行有效過濾和保護,從而可能導致這些重要數據在算法模型運算過程中,以算法結果的形式流入到公共社會之中,形成所謂的數據泄露。基于此,中國支付清算協會在2023年4月發布了《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》,明確指出ChatGPT在隱私保護、數據利用以及跨境數據流動方面存在一定的安全風險,需要采取一定的手段以提升支付清算行業的數據安全管理水平。該倡議的出臺表明,監管部門已經高度關注新一代人工智能對金融行業數據安全的潛在影響。這也提醒銀行及支付機構必須提前做好應對準備,建立健全數據安全管理制度,采取有效措施降低創新數據泄露風險,保障客戶信息安全。
在創新數據濫用方面,以ChatGPT為標志的新一代生成式人工智能在運用數據過程中,面臨著合規性和準確性的挑戰。這兩種風險與此類人工智能應用在處理和使用數據時的復雜性密切相關。具體來說,其一,合規性風險主要體現在知情同意方面。以ChatGPT為代表的新一代生成式人工智能需要對數據庫中的大量文本進行訓練,通過不斷的試錯來優化模型,使模型能夠對新生事物進行自主判斷。但是這一訓練過程所用到的數據集可能仍然含有個人或商業機密信息。而這些信息的提供者在最初提供數據時,其知情同意的范圍顯然不包括允許將信息用于模型的再訓練。因此,在未經提供者進一步同意的情況下,將包含個人或商業信息的數據集用于模型訓練,可能違反《個人信息保護法》中有關知情同意的規定。其二,準確性風險主要來源于訓練數據的局限性。任何訓練集的數據都難以做到面面俱到,覆蓋所有的應用場景。以ChatGPT為例,其訓練數據集主要來源于網絡上已發表的各類文字內容,對某些尚未廣泛記錄的新生事物的理解可能存在局限。在這些領域,ChatGPT的輸出可能反映訓練數據的局限,無法提供準確可靠的信息。因此,這種準確性風險也會導致模型對新興事物或場景的判斷存在偏差。①基于此,創新數據的泄露可能會為不法分子窺探我國科技創新戰略規劃、關鍵數據和涉密領域提供可乘之機,一定程度上威脅我國的數據主權和國家安全。同時,創新數據的濫用可能會為重點行業和關鍵領域的科技創新進程提供滯后或虛假的數據信息,導致技術漏洞彌補出現錯誤、關鍵技術難以實現有效突破,無效甚至錯誤的科技資源投入不僅會耗費科技創新成本,還會阻礙我國的科技創新進程,嚴重制約國家創新體系的建設和完善。
2.倫理危機的具體化
盡管新一代生成式人工智能在很多方面都展現出了強大的能力,但由于算法黑箱的存在,使得這些技術在透明性和可解釋性方面仍顯不足,這也帶來了在人類社會中潛在的支配風險。在計算機科學領域,算法被認為是實現特定任務的控制結構。②然而,這些控制結構不僅僅局限于計算機內部的電流和代碼,還是由于人類對算法結果的高度依賴性,使得算法對社會生活方式和社會運行結果產生深遠影響,這也表明算法具有社會權力屬性。③基于此,利用算法以及像ChatGPT這樣的新一代生成式人工智能對社會實現支配的風險,很可能通過算法黑箱得以實現。算法黑箱意味著算法內部的工作原理和過程難以解釋和理解,這使得人工智能的決策邏輯變得模糊不清。而ChatGPT類生成式人工智能的發展正是源于深度學習的技術邏輯,即通過大規模數據庫和反復的數據計算,經歷無數次的肯定和否定反饋后逐漸形成了自我判斷的能力和意識。在這種識別過程中,以ChatGPT為代表的新一代生成式人工智能的算法采用了模塊化控制方式,這種模塊化控制方式將一切的運作邏輯都隱藏在算法的“隱層”中,使得人類無法完全洞悉算法的運作邏輯,令人類對算法的控制在某種程度上陷入了“算法黑箱”的困境,④即人類無從知曉算法輸入的數據與輸出結果之間的實際關系,使得以ChatGPT為代表的新一代生成式人工智能在一定程度上呈現出了不良的支配和控制。算法的深度嵌入無形中會增加創新主體對算法技術的依賴性和信任度,而過度依賴算法則會削弱創新主體的創新意識,降低其參與技術創新和成果轉化的積極性,主體性地位意識的弱化和喪失會使技術研發與成果應用之間的關系鏈條斷裂,進而降低創新成果的創造性、新穎性和實用性,甚至會導致某行業、某地區、全國性的創新能力滯后。
ChatGPT類生成式人工智能在展示全新應用前景的情況下,同時也帶來了一些應用問題,主要涵蓋了算法偏見與歧視、算法模型濫用以及算法的可問責性不足三個方面。其一,就算法偏見與歧視而言,人工智能在訓練過程中所使用的數據會直接影響最終的運算結果和行為輸出。如果訓練數據對某些群體存在偏見,模型運算的結果也會反映這種偏見。例如,如果訓練數據中對某個族裔的描述多帶有負面色彩,模型生成的內容在提到該族裔時也可能帶有歧視。此外,數據采樣本身也可能存在選擇偏誤。如果訓練數據對某些群體的代表性不足,模型對這些群體的理解也會受到限制。這種算法偏見和歧視的情況,可能導致人工智能的公正性和公平性受到質疑。特別是在當今逐漸重視平等權益的社會環境下,生成式人工智能在算法上的偏見與歧視問題可能會引發廣泛的社會關注和批評。其二,關于算法模型濫用的問題。ChatGPT類生成式人工智能所擁有的強大模仿功能使得其可以復制任何人的語言風格和表達習慣。如果有人惡意將這一功能用于不法行為,例如,利用語言模型生成虛假新聞、利用圖像生成技術制作深度假視頻、通過語音合成技術進行詐騙等,則可能對社會利益造成嚴重損害。其三,是在算法的可問責性上,新一代生成式人工智能的復雜性和可解釋性不足,使得證明其運行與實際損害之間的因果關系變得極其困難。在現有的法律制度下,對于算法和控制者的問責通常需要證明這一因果關系,然而由于人工智能算法的透明性和可解釋性問題,這一證明過程變得十分困難。①另外,由于新一代生成式人工智能仍處于試驗階段,其對社會公眾的實際損害也難以證明。即使在確實造成實際損害的情況下,受害者可能也會因為公共利益維護的搭便車效應,而選擇放棄尋求救濟。
(二)共識缺失風險
1.文化安全的失穩
不穩定且不可控的信息環境,不利于創新與合作。網絡空間高度開放自由,AIGC在信息流分析和操作方面的卓越性能,反而使其成為虛假信息傳播、輿論操控和網絡濫用的潛在源頭,②從而對網絡空間輿論安全構成潛在威脅。一方面,AIGC應用所需的大規模數據收集和分析,會涵蓋敏感的個人信息、商業機密和國家安全等相關信息,這些信息一旦被濫用或泄露,危及到國家安全和個人權利。另一方面,網絡攻擊組織利用AIGC快速生成的方式,使網絡空間中充斥著大量信息,信息真實性和可信度則難以確定;AIGC這種不規則性使這種工具的應用無法被傳統輿論控制機制覆蓋,而資本則可以輕易滲透其中,這使得網絡輿論和信息環境變得更加混亂復雜和不可預測,這樣的環境是虛假信息、信息操作和網絡濫用的溫床,久而久之,其破壞力不僅影響國家創新體系中信息的質量和準確性,進而損害國家創新體系的效率和可持續性,甚至可能對國家信息生態系統和社會穩定造成不可逆的沖擊。
進一步地,目前AIGC的使用不受國界限制,這使得國內外敵對勢力能夠跨越國際界限,通過網絡渠道散布有害信息,在互聯網上制造和強化意識形態分歧,煽動社會和政治動蕩,意在削弱民眾對國家法律、政策法規、核心價值觀和意識形態的認同,從而瓦解國家創新體系的基礎,以達到攻擊我國政治制度和法律體系的目的。
除了輿論安全和法律意識形態領域,ALGC在社會文化領域也存在意識形態的解構風險。不同國家的社會文化不同,不同國家對倫理道德、社會規范、審美取向、價值觀念等方面都有不同的看法。AIGC算法和數據集可能會反映出某些社會文化意識形態的偏見。一方面,AIGC系統可能會受到開發國家文化的影響,因為許多AI系統的數據集和算法是從這些國家的信息中衍生出來的。這可能導致在全球范圍內的文化侵蝕,以及對其他文化的誤解或歧視。另一方面,不同國家和社會的倫理觀念可能會導致AIGC系統的應用差異。一個國家的AIGC系統可能會在另一個國家被認為違反倫理準則。例如,人臉識別技術在某些國家被廣泛使用,而在其他國家則被視為侵犯隱私和人權的手段。這種差異可能引發國際爭端,損害國際關系。除此之外,AIGC的算法還可能會體現更大范圍內的對性別、種族或社會的偏見,導致不公平的或有爭議的結論或決策。
2“. 數字霸權”的擴張
全球科技巨頭如谷歌、臉書、亞馬遜等公司,目前都擁有巨大的“數字霸權”。這些公司掌握了大量用戶數據和包括AIGC在內的先進人工智能技術,使其能夠影響人們的信息獲取和意識形態傳播方式,這實質上是一種“數字霸權”。
“數字霸權”的直接表現,即這些公司在掌握了大部分互聯網上的用戶交流(包括社交媒體、搜索引擎和新聞平臺)后,能夠塑造用戶的信息獲取體驗,潛在地影響用戶的意識形態。但足以影響用戶的意識形態后,這些公司可以選擇性地傳播或抑制特定信息,從而影響公眾的看法、價值觀和政治取向,這就進一步對用戶的意識形態進行操縱,通過操縱信息傳播和意識形態,以符合其商業或政治目標。這種操縱可能導致信息的偏見和極化,甚至可能影響國家的社會和政治穩定。
而“數字霸權”公司的商業目標和政治立場,可能與國家的創新目標和政策并不一致。當這種不一致性附加上濫用“數字霸權”的行為,這種操縱風險不僅包括對信息的過濾,還包括對信息的強化,以滿足特定立場或信仰。這就可能導致信息的極端化、偏見和社會分裂,例如,“數字霸權”公司可能會調整算法,以將特定政治或社會觀點推送給用戶,從而強化這些觀點,而抑制反對觀點。這種操作可能導致社會對立和極化,影響國家的社會和政治穩定。
創新過程中,AIGC“數字霸權”引發意識形態操縱風險,除了上述AIGC技術提供端通過“數字霸權”操縱造成的信息的偏見極化外,還存在著由數字化社交媒體和互聯網信息的使用者,在使用過程中逐漸自主產生的意識形態偏見。
在當下AIGC“數字霸權”環境中,個體在數字化社交媒體和互聯網上的信息獲取和暴露受到過濾、篩選和個性化定制的情況,往往是由個人使用搜索引擎、社交媒體平臺和算法驅動的信息推薦系統,這些系統根據個體的歷史行為和偏好向其提供內容。久而久之,個體只看與自己觀點一致的信息,而不容易接觸到多樣化的觀點,信息的偏見和極化會削弱個體對不同觀點和事實的理解。①
(三)規則失效風險
1.創新成果版權歸屬較難認定
新一代生成式人工智能的飛速發展,催生了愈發強烈的知識產權保護需求。盧純昕、楊利華等學者提出,基于促進人工智能創新與產業發展角度的考量,應當對人工智能創造物予以著作權保護,由此實現對人工智能創造者和實施者勞動成果的充分保障。②王遷、易繼明等學者持反對觀點,認為雖然人工智能技術已經發展到生成式階段,但并不具備自主意識和獨立思維,不能將其生成過程視作創新,因此較難將人工智能生成物歸為作品范疇。③但筆者認為,持反對觀點學者的理由仍然屬于傳統工業時代下的認知,隨著人類進入數字時代,生產和生活方式也逐漸呈現出數字化趨勢,新一代生成式人工智能不僅改變了社會運行模式,而且確實生成了諸多具有價值且傳統工業時代不曾具有的新型產品,提高了人類的社會生活水平,具有保護的必要性。此外,從新一代生成式人工智能內容生成的原理來看,其基于反復學習、反復試錯,從而得出結論,這一過程本身是創造的過程,符合獨創性特征,應當納入著作權法保護的范疇。著作權法的立法原旨就在于通過完成對版權作品的規范保護實現對于著作權人的創作激勵,在此視域下,創新成果版權歸屬存在爭議無疑會降低著作權人的創作積極性,甚至在科技成果轉化過程中會將著作權主體和使用主體等關聯主體卷入復雜的知識產權糾紛,糾紛解決的程序成本和風險成本大幅增加,不僅會使科技創新成果失去市場優勢地位,還會削減科技創新成果的衍生價值,甚至使得相關科技成果夭折,無法成功完成轉化應用。
應當注意的是,在現有法律制度框架下,如果將新一代生成式人工智能創作物予以著作權法保護,仍然較難解決著作權的歸屬問題。具體來看,學界對于人工智能創作物的歸屬問題主要有以下觀點。有學者認為,即使新一代生成式人工智能創作物屬于作品,但由于生成式人工智能不具備法律主體地位,因而不具有著作權上的主體資格。還有學者認為,在數字時代背景下,新一代生成式人工智能更新了社會運行模式,具備一定的自主意識和獨立思維,可以作為新型法律主體而成為人工智能創作物的權利歸屬者。此外,還有部分學者持折中主義觀點,即不突破現行法律關于法律主體范圍之規定,而運用解釋論方法對現行《著作權法》進行解釋,將新一代生成式人工智能創作物的權利分別歸屬于相應的生產者、使用者或是提供者。由此可見,當前理論界對現行法律主體資格范圍的認知有所差異,使得新一代生成式人工智能創作物的權利歸屬較難達成共識。
2.創新成果可專利性認定較難
新一代生成式人工智能主要在三個層面沖擊了現行專利制度,由此導致其創新成果較難認定為具有可專利性。首先,新一代生成式人工智能技術沖擊了“人類發明中心主義”邏輯。我國現行專利法制度是以遵循“人類發明中心主義”為前提,這意味著,只有自然人才可以獲取專利授權,行使相關權利并履行相應義務。如果將新一代生成式人工智能認定為專利權主體,則突破了現行專利法之規則。其次,新一代生成式人工智能技術沖擊了“勞動理論”觀念。依據傳統觀點,專利權人通過支配身體、付出勞動成果等方式,將其智力延伸到創造領域,而創造出發明成果,故應當予以專利法保護。然而,新一代生成式人工智能技術無需身體上的支配與付出,其主要是基于數字化、電子化的演算而成,并且與身體勞動相比,生成式人工智能的邊際成本幾乎為零,這與“勞動觀念”具有明顯差異,因此較難運用“勞動理論”對人工智能生成物予以專利法保護。最后,新一代生成式人工智能沖擊了專利法上的“平衡邏輯”。新一代生成式人工智能具備強大的運算能力和極高的生成效率,如果運用專利法予以保護,那么極易造成專利客體數量在市場中大幅度增長,出現“專利叢林”問題,不利于社會公眾對相關成果的獲取與使用,致使個人利益與公共利益出現失衡。此外,新一代生成式人工智能技術的應用,極大降低了發明創作的研發成本以及市場風險。但生成式人工智能的控制者具有較強的市場激勵,使得專利法制度的市場激勵作用會降低或者喪失,甚至會導致生成式人工智能控制者傾向于坐享專利壟斷利益而怠于科技創新。因此,如果對生成式人工智能生成物過度地予以專利法保護,并不利于促進科學技術的創新,反而會造成一定程度的公共利益損失。
三、數智賦能國家創新體系優化的綜合規制
如今,以新一代生成式人工智能為代表的數字經濟與數字技術成為現實經驗活動最富有價值潛力的部分,因此在促進國家創新體系進一步優化時,應當秉持的原則是通過法律規制,在最小風險條件下利用人工智能技術。這就需要從技術本身出發,從技術運用到產品的生成再至成果的轉換,通過法治的方式化解其中存在的風險,加強機制保障,最終實現國家創新體系深度優化的目標。
(一)以數據保護為基礎
1.健全人工智能數據安全法律治理
為了進一步完善人工智能數據安全治理的法律規范體系,應當從法律規范和法律實踐兩個維度并行。從健全法律規范角度來看,要從數據安全和使用標準等方面完善人工智能研發應用的規范化建設。在“科研-商業轉化”流程下,從適用范圍、環境和算法等不同環節細化人工智能研發應用的數據安全要求。同時,設立數據安全、隱私保護的數據安全標準,以基礎的技術要求為參考依據,劃分數據的安全保護等級,以分類分級保護的方式細化數據保護標準。比如歐洲議會(European Parliament)通過的《關于“歐洲議會和理事會條例:制定人工智能的統一規則(人工智能法案)并修訂某些聯盟立法”的提案》就從風險分級的思路,將人工智能技術劃分為不可接受的風險、高風險、有限風險和輕微風險四種類型加以管理,且每一類目都有核心的法律追求以保全其清晰度。比如說法案從保護消費者以及用戶完整的“心理特征”以及打擊數據不公的核心目的出發,精準地將包括人工智能中涉及利用人的潛意識、利用特定群體的脆弱性、社會信用分級以及實時遠程生物識別的技術與服務納入不可接受的風險清單中。而宏觀上建立對人工智能技術的分級分類法律管控制度,有利于執法者與人工智能供應商分別在行動時有所憑依,其效果類似于我國國務院所推出的“權利清單”,使得人工智能的法律監管更為清晰明朗。
從具體的法律實踐角度看,在制定相關法律法規的過程中,首先,要注意部門行業之間的協同配合。在具體的法律實踐上,人工智能的立法及其他法律實踐活動必須要合理考量行業性質與要求因地制宜進行調整,同時其整體性的管束辦法也必然需要各部門之間的共同參與,比如2023年由國家互聯網信息辦公室發布的《生成式人工智能服務管理暫行辦法》就由網信辦、國家發展與改革委員會(發改委)、教育部、科學技術部(科技部)、工信部以及公安部聯合發布。其次,要關注具體使用場景的重點立法。人工智能是一種高精尖技術,其應用場景從最開始的文本對話、文案寫作,到后來的圖像生成、視頻創作、音樂創作、特定實驗(蛋白質序列)模擬類以及代碼編寫協助等,使用場景與技術更新是在始終變動中的。因此在考慮使用法律規制人工智能的數據風險時,必須從當下的使用場景作為思考起點。最后,要繼續沿用“階梯式”的法律監管方式,為成熟的綜合性人工智能法律法規留出空間。由于當下的生成式人工智能技術尚處于不斷探索新領域和內容高速成長的關鍵時期,距離完全成熟的人工智能業態還存在著很大的差距。因此,法律制度實踐也應當為其發展留下一定的空間。具體來說,可以采用階梯式的法律監管方式,由省部級聯合某一行業領域進行先軍式的立法試驗,在某一行業領域的人工智能技術業態穩定后由中央總結地方和部門經驗,再補充上位法。
2.完善以算法監管為核心的安全保障體系
模型監管主要聚焦在訓練數據、算法設計和模型生成和優化上,圍繞這幾個維度,重點關注模型是否存在AI歧視、模型本身存在的風險、知識產權侵權、個人信息侵權問題以及訓練數據的真實、準確、客觀、多樣。
在訓練數據方面,生成式人工智能的算法以深度學習模型作為AI的語言預處理手段,其核心的技術特征就在于通過爬取超大規模數據進行訓練。超大規模的訓練參數數據可能存在以下合規問題:(1)超大規模的數據爬取有較高可能性涉及個人信息侵權或者知識產權侵權的現象;(2)當算法訓練數據極端增加,巨大規模的參數雖然的確提高了決策準確性,但由于可能的微調數據的行為,以及對數據清洗的難度增加,這就導致算法可解釋的流失。算法本質是為了快速處理數據而準備的一套邏輯步驟,當算法從一種簡單的底層規則演變為復雜的計算方式,重新拆解算法合規性的難度就因此增加。尤其生成式人工智能所依托的深度學習模型是典型的黑箱算法,目前的技術條件無法對其進行全面解釋,其一定程度上的不可解釋性也就在某些方面客觀上逃避了應該有的法律追問。
為有效化解算法潛在的技術風險和制度風險,應當從法律規制和技術規制兩個角度出發,完善對算法的系統化規制。從技術規制的角度出發,協調增強算法監管制度的體系建構,監管部門應該對算法的數據使用、應用場景、影響效果等開展日常監測工作,感知算法應用帶來的網絡傳播趨勢、市場規則變化、網民行為等信息,預警算法應用可能產生的不規范、不公平、不公正等隱患,發現算法應用安全問題。從對算法的主要編制主體——企業入手,應當從法律層面確定企業主體履行算法披露、糾偏、報告的責任,并合理運用審計制度倒逼企業建立內部算法登記制度,部分開放算法開發和修正的信息,從而實現算法的相對透明。
(二)以共識凝練為補充
1.核心價值觀條款設置的必要性
對人工智能進行價值規制的必要性在于,權力的實現依賴于對信息傳播的控制,通過這種控制進而在最大范圍內“制造同意”,而人工智能的算法主導了數字時代的信息傳播,進而影響到人們的思想觀念和價值屬性。①人工智能盡管更多地表現為一種技術手段,但從其功能和效用而言也具備了一定的權力屬性。因此,以一定的價值理念對人工智能的設計者及其算法邏輯進行價值塑造,將這種價值理念融入人工智能的設計中就顯得尤為必要。黨的二十大報告指出,“社會主義核心價值觀是凝聚人心、匯聚民力的強大力量”,“把社會主義核心價值觀融入法治建設、融入社會發展、融入日常生活”。②通過對人工智能設計者進行社會主義價值觀的理論塑造,能夠使其立足于中國實際,在程序的邏輯設計上能夠以國家和人民利益作為智能產品的出點發,由此能夠避免人工智能技術可能產生的思想異化趨勢。
2.技術手段條款運用的必要性
以社會主義核心價值觀作為規避技術異化的價值基礎,對于科技發展而言具有宏觀的方向指引作用,但這并不能在具體層面實現對技術異化的規避。從馬克思主義的理論視角出發,科學和自然力總是作為資本的力量與工人相對,科學及其應用進入勞動的一切地方,都表現為被并入資本的東西。③因此,科學技術作為一種工具并非是中立的,蘊含了資本的生產邏輯。在我國的現實語境下,一方面,智能化在技術層面的推進往往依賴于私營企業;另一方面,市場經濟的大背景又賦予這些企業追求利益的合法權利。因此,缺乏技術監管的人工智能很容易成為企業追求利潤的工具,具有更多經濟效益的群體的訴求往往會被重視,而老人、孩童等群體在智能化時代的權利往往被忽視。因此,人工智能及其技術賦能的實現要以數智善治為目的,從制度層面加強數據的保護和安全制度建設,從技術保障層面落實數據安全的保障措施,④以此避免技術異化可能帶來的消極后果。例如,在數據權利主體的司法救濟路徑中,可以通過技術手段實現權益侵害風險的識別和證據留存,完成對于數字弱勢群體的傾斜保護,降低數據權利主體對因果關系的證明負擔,平衡其與算法平臺的訴訟地位。通過價值和技術手段兩個層面的規制,最大限度避免人工智能可能帶來的負面效果。
(三)以知識產權為要點
1.人工智能作為成果產權歸屬之明確
僵化性和滯后性是法律不可避免的特征。人工智能的發展對法律的影響尤其體現在知識產權領域,具體而言涉及兩個層面。一方面是人工智能的主體在知識產權層面的界定。傳統知識產權的主體制度一般以自然人為原點進行建構,人工智能的出現及其創造作品的能力對著作權作者、專利發明人等的主體界定產生了規制上的模糊地帶,并引發了一系列知識產權主體界定的爭議。⑤另一方面是人工智能創造物的知識產權問題。如果對其虛擬作品的生產和運用不加以規制,便會造成海量符合標準卻無實際價值的知識產權成果,同時會在知識產權層面對人類主體帶來極大的秩序沖擊。因此,面對人工智能在作品產出上的特點,應當在知識產權取得標準、設計人工智能創造物的知識產權歸屬機制及其限制規則等層面設置相應的標準①,彌補法律體系的空缺。
2.注重人工智能成果轉化過程的法律構建
人工智能的發展及其成果產出之所以能在人類社會中激起波瀾,歸根到底源于其成果在實踐層面的轉化運用。黨的二十大報告指出,要“提高科技成果轉化和產業化水平”②,這既是國家科技創新體系的關鍵環節,同時還關涉人工智能領域對社會生產力和生產效率的推動。所謂科技成果轉化,“是指為提高生產力水平而對科技成果所進行的后續試驗、開發、應用、推廣直至形成新技術、新工藝、新材料、新產品,發展新產業等活動”③。要想處理好人工智能科技成果的轉化需要處理好兩個層面的問題。一是如何提高人工智能的技術轉化效率。目前我國科學技術成果的轉化面臨科技轉化主體的能力不強、技術轉化的渠道和模式不夠通暢以及成果轉化激勵不足等問題④,這降低了人工智能領域技術創新的積極性,不利于該行業的長期穩健發展。二是要處理好科技成果轉化“如何做”的問題,缺乏此方面的規定,科技成果轉化在具體操作層面便會陷入無序狀態。因此,政府應該發揮好法律制度制定的牽頭作用,在尊重市場秩序的前提下完善科技成果轉化的規范設計。只有通過健全的法律制度來保障各類主體協作關系的順暢、科技成果的高效流轉,才能推動國家創新體系的良性循環,進而實現以科技創新推動社會經濟發展的最終目的。⑤
(四)以產業結構為依托
1.開放交互的制度完善
人工智能技術已成為當今時代國際競爭的重要籌碼,作為全球新一輪科技革命和產業變革的風向標,人工智能技術的掌握程度直接決定未來一段時期內國際競爭表現和國內經濟發展面貌。世界上主要發達國家紛紛開拓人工智能產業,這也使得人工智能技術創新引來井噴式變革。不過,各個國家對人工智能產業發展的側重點各有不同。例如作為一直以來全球科技引領者的美國,在人工智能領域主要以企業為創新主體,美國人工智能企業多緊密貼合市場需求,因而在技術創新價值上的重要性程度較高。老牌工業強國德國對人工智能技術的發展囿于其制造業場景,所以在市場利益的轉化上不甚顯著,但在人工智能理論研究與技術實踐方面則具備了較高水平。我國由于一直受科教興國等戰略的支撐,對人工智能技術長期以來極為重視,這也令我國在人工智能賽道上位居世界前列。與美國不同,我國人工智能創新往往由高校作為發起主體,在人工智能專利的申請數量上具備優勢地位。但同樣受制于高校與企業的聯系程度不足的現實,我國人工智能市場創新的價值性還存在較大提升空間。在技術研究領域方面,我國將人工智能技術與互聯網緊密結合,深度發展智能汽車、智能無人機等新興人工智能領域,這比美、德等國重點關注傳統人工智能領域具備更強勁的后發優勢。鑒于國內外人工智能技術研究與市場化的多樣性,我國不僅要更為注重國內人工智能技術的創新和市場培育,也要適時尋找加強對外輸出的契機,通過與世界各大經濟體之間的技術和市場合作,進一步培養國外市場消費習慣、擴大市場份額以及優化自身關鍵技術。
2.成果轉化的順暢機制
我國人工智能創新主體主要來自于高校等科研院所,企業對人工智能科技成果創新力提供有限,因此導致我國人工智能科技成果市場化和產業化程度不足的現狀。從美國人工智能產業發展經驗來看,要想擴大人工智能科技成果的市場轉化,根本在于以市場需求為導向。因此,應當充分提升科技企業,尤其是人工智能科技企業的創新能力,通過高校與企業更為密切的聯系,提高人工智能科技成果市場轉化率。以市場需求為導向意味著將人工智能科技發展方向交由市場引導,在進一步降低交易成本的條件下提升人工智能技術創新的市場轉化率。同時,要促進數字創新技術與實體產業的融合銜接,政府可以為以企業為主導的產學研深度融合提供政策扶持和資金支持,政府可以作為中介或橋梁促進資金鏈、人才鏈、技術鏈、產業鏈的雙向銜接和深度融合,促成科技成果的市場化轉化,從而反哺科技創新成果研發過程,形成科技研發、轉化、運用的產業閉環,螺旋式提升國家整體創新能力。通過建立以高校、政府、企業為主體的三方共建機制,深化產學研的融合進程,推動科技創新成果轉化為實際生產力,在完善國家創新體系的同時實現經濟總量的穩步提升。
(五)以人才配套為輔助
1.健全人工智能人才培養體系
人工智能人才的自主培養關系到我國工程教育由“大”向“強”的根本轉變。當前,我國工程教育規模已居世界第一,但“大而不強”的現狀依然成為阻礙我國科技創新的重要掣肘因素之一。人工智能技術作為未來很長一段時期內全球科技變革的主陣地,是實現我國科技發展“彎道超車”的歷史機遇。因此,完善人工智能人才培養就成為當下我國人工智能技術發展的核心命題。面對未來的科技趨勢,我國必須實現人工智能技術應用人才、技術創新人才以及技術管理人才的三層次培養體系。技術應用人才是人工智能人才的基本需求,其培養目標在于既需要掌握專業的人工智能技術,也需要具備將所學人工智能技術應用于具體產業實踐的能力。技術創新人才是我國人工智能技術發展可持續化的根本驅動。在人工智能市場化方面需要充分提供各類人工智能技術的應用方案,以引領產業發展。在人工智能技術創新方面則需要創新融合人工智能技術與傳統產業,賦能傳統產業催生新業態。技術管理人才是我國人工智能產業市場化的重要推動力。通過培養技術管理人才,可以有效打通人工智能企業和組織上下游的信息交互,提升業務交流、生產銷售等效率。另外,鼓勵人才的聯合培養與對外交流,破解科技創新的難點和瓶頸也構成我國人工智能人才培養體系的重要環節。
2.完善人工智能國際高層次人才引進
前文已經提及,相對于美國,我國人工智能科技成果的市場價值重要性程度存在明顯不足,這主要是由于我國人工智能專利的技術重要程度和創新性低,與其它專利技術關聯性不強,技術價值偏低所導致的。①因此,從人工智能人才培養的角度來看,除了要加快對本土人才的創新培養,同樣應當注重對國際人工智能高層次創新人才的引進。完善對于國際人工智能人才的引進機制,需要營造正向、公正、透明的科技創新環境,提高相關人才的薪酬待遇,加大前沿技術的研發力度,從而吸引全球頂尖人工智能人才加入我國人工智能科技創新的興趣。政府層面也應鼓勵高校、企業、科研機構等單位對國際人工智能人才的引進,為其提供政策支持和資金支持。
結語
新一代生成式人工智能對于國家創新體系具有直接而深遠的影響。與個案式考察相比,法學領域長期忽視的重要方面是產業結構、成果轉化以及市場完善等更為具體的法律構建。這種具體性不同于個案審查中的抽象玄奧,個案審查往往涉及各種復雜的價值判斷,需要借助哲學、倫理學等外部資源,并在整個體系中精妙且小心地運用。在產業、成果和市場等方面的法律構建屬于立法論的范疇,而這一方面一直是法學界長期忽略的邊緣領域。然而,正是這些方面構成了當前最為緊迫、亟待建設的法學內容。因此,新一代生成式人工智能與國家創新體系的緊密耦合,迫切需要在特定、目前尚未完備但未來必將完善的法律框架下進行審慎考慮和規劃。從產業結構的角度看,新一代生成式人工智能的發展需要法律體系對其進行引導和規范。制定相應法規,明確產業發展的方向、步驟以及各方責任,有助于確保人工智能產業的可持續、健康發展。成果轉化方面,法律應當為技術成果的轉化提供明確的法律途徑和保障機制,以促進科研成果更好地服務社會。另外,針對市場完善,法學應當著眼于構建一個適應人工智能發展的市場法規框架,包括知識產權保護、競爭政策、數據隱私等方面的法律機制,以保障市場的公平、透明和有序運行。這不僅有助于激發創新活力,還能夠建立起一個健康的市場生態系統。總體而言,新一代生成式人工智能對于國家創新體系來說是一項重要的推動力量,但其蓬勃發展需要一個明確而完善的法律框架的支持。只有通過法律的精準構建,才能夠實現人工智能在創新體系中的有序、高效運作,為國家科技發展注入新的活力。