□ 文 張勝飛
當前,以計算機視覺、機器學習、知識圖譜、自然語言處理等為代表的人工智能技術已逐步應用到制造、金融、醫療、交通、安全、智慧城市等領域。此外,人工智能在基因研究、高等物理、探索外太空以及材料科學等領域亦有重大突破和創新,其為人類生活帶來了前所未有的便利,使現代社會形成了人的智能與人工智能并存的二元格局。
隨著數字經濟的興起,數據日益成為國家的重要戰略資源,人工智能也逐漸從如楚漢爭霸般技術治理之爭的對象變為各國手談下技術霸權之爭的棋子。人工智能技術的研發,一方面產生了極大的良性社會效益,另一方面也帶來了諸多負面的社會問題,對國際規則也造成了一定的沖擊。在國際準則的制約下,人工智能的增長與傳播的互操作性也帶來了統一指引,同時,從國際法的角度對人工智能進行規制也成為遏制技術的全球性擴散以及數據的跨境流動不可或缺的手段。
WTO規則作為國際貿易法最重要的規則,將產品分為貨物與服務兩類,分別適用GATT貨物貿易規則和GATS服務貿易規則。這種區分的意義在于適用不同的規則對貿易的保護程度不同。簡言之,GATT1994 要求各成員國履行國民待遇義務,而GATS協定下的待遇則需要成員方作出具體承諾來確定。在數字經濟興起的背景下,兼具貨物與服務雙重特性的數字產品使WTO框架下的傳統貿易分類出現了規則選擇的困境,國際貿易在通過由人工智能驅動的方式實際產生交付行為的是服務和商品的貿易,其關鍵在于以人工智能機器產生學習算法為手段以及以人工智能機器來進行學習算法交付,前面兩者的交付方式加劇了WTO本就存在的分類挑戰。例如AI賦能3D打印的跨境交易,以產品設計服務為例,一方面,在交付給消費者的3D打印CAD文件中包含一項跨越國界的設計服務,GATS因而可以適用;另一方面,3D打印CAD文件在消費時會被打印成商品,因此也可能受GATT約束。

WTO一般例外條款詳見于GATT 1994第20條和GATS第14條,其只是粗略將“公共道德”規定為一種違反GATT其他條款的國內措施“免責”情形,而在適用公共道德例外條款時,條款并沒有進一步規定如何確定某項貿易相關措施的目的是否為“公共道德所必需”,損害達到了何種程度才可適用保障措施,使得該條款很大程度上成為一國自行判斷的事項,主要體現WTO成員方的是非對錯標準從而導致其被泛化適用。人工智能技術的出現提出了許多倫理問題,在美國博彩案中,專家組將公共道德定義為“由集體或國家所支持的是非對錯行為標準,或者是能夠代表集體或國家的是非對錯標準”;在歐共體海豹產品案中,公共道德的內涵拓展至種族信仰以及不人道的消費方式,當人工智能面對作為社會道德基礎構成之一的倫理難題時,價值觀的導向將極大影響人工智能程序設計,這也是WTO成員國在程序設計判斷中所面臨的問題。換而言之,是讓人工智能做出道德決定的數據集與當地公共道德所帶來的價值觀不一致為由,否定人工智能推動的國際貿易。
人工智能的國家安全風險首先體現在數據方面,諸如臉書、谷歌等科技巨頭,其全球業務網絡和強大的數據抓取能力,對于敏感數據的違規跨境獲取和流動極易威脅其他國家的國家安全;其次,在人機交互的過程中,人工智能受用戶的影響,如果用戶向其故意投喂惡意、虛假的信息,透過互聯網和各個人工智能系統渲染,極易誘發政治安全風險。在WTO協定下,典型的安全例外條款規定在GATT1994 第21條,由于目前人工智能直接規制規則的空缺,各國很可能將人工智能視為逃避或減少各自國內管轄和國際法規定的現有義務的一種手段,這種情況可以被稱為“AI-shield”,因為人工智能被稱為應對挑戰的堅不可摧的盾牌,也可被稱為“AI-haven”。人工智能國家安全不同于對國家的財產和國土這類物理客體的威脅,是綜合政治、經濟、文化、生態等方面的總體安全。就安全例外條款的適用而言,雖然當前WTO安全例外條款呈現出從傳統安全事項轉向非傳統安全事項的擴張適用趨勢,但仍應當遵循善意原則的要求,從“其認為必要的”“重要安全利益”和“國際關系中的其他緊急情況”出發,謹慎判斷“AI-shield”是否屬于“國家安全例外”援引范疇。
數據、算法和計算力,是人工智能技術的三個基本要素。算法是所有人工智能技術的基礎,人工智能的水平高低將會極大地取決于算法技術的優劣。人工智能技術的重要內容就是基于超強計算能力和超大規模訓練樣本集的深度學習技術和統計數學中的蒙特卡羅等隨機算法。
人工智能的算法學習包括傳統的算法學習、遷移學習、深度學習等算法,人工智能以機器學習為基礎,其關鍵在于對輸入數據的清洗和轉換,對特征的提取和整合、對數據的探索分析。深度學習是通過構建智能神經網絡為主體,將機器學習的可實現性納入核心技術,進而產生數據進行的表征學習行為的算法。常見的深度學習框架有谷歌的TensorFlow、Facebook的Caffe和PyTorch、亞馬遜的MXNet以及百度的PaddlePaddle等。
具體來說,以ChatGPT 為例,其技術原理可以分為三個步驟:步驟一,預訓練階段,在該階段中主要借助Transform 算法及其“注意力網絡”,利用生成式語言模型,在海量文本構建的大規模文本數據集學習語言的表達方式,使得模型具備根據當前文本預測下一個詞概率的能力,該階段,ChatGPT 擁有了文本生成能力。在此基礎之上,步驟二采用監督學習的策略,通過大量標注語料組成的問答范例數據集微調模型的輸出結果,讓ChatGPT 掌握提問和回答的通用規律,具備問答能力。然而這種技術本質仍然是生搬硬套,其核心是通過學習和計算大量的信息文本后,依賴其強大的生成文本的能力,機械式的回答所預留的問答模板或者預先掌握的對話模型,并不能控制其回答問題的質量。因此,步驟三依靠RLHF 算法對GPT 模型進行強化學習。針對模型輸出的內容,對提示詞所對應的模型輸出結果按照從優到劣進行排序,訓練出一個獎懲函數模型來指示訓練,讓模型清楚其回答問題的質量。最后使用近端優化策略(PPO)優化獎勵模型引入人類反饋,從而使ChatGPT的回答更符合人類價值觀。
綜上所述,數據智能也許更適合作為人工智能的準確名稱,人工智能其實依然離不開海量的數據作支撐,數據問題也許才是所有以機器來判斷和回答問題的最后形式。人工智能和數據之間的直接關系為人工智能規制的數據治理路徑提供了可能性,人工智能治理與數據治理密不可分,在目前對人工智能直接規制規則仍然缺乏的情況下,全球社會已經體現出對數據治理,尤其是那些關乎人工智能中直接作為生產力來源的數據高度重視,如果目標是為維護人工智能行業的共同聲音,就需要從治理數據入手。
當前,國際上尚未形成統一的人工智能直接規制規則,關于規范人工智能的文書很大程度上聚焦于倫理問題,以“致命性自主武器系統(Lethal Autonomous Weapon Systems,LAWS)”為代表的人工智能武器的使用可適用一般國際法原則。此外,2021年聯合國教科文組織大會通過的《人工智能倫理問題建議書》是目前全世界在政府層面所達成的最廣泛的人工智能倫理共識。
與人工智能間接相關聯的國際治理規范中,最值得注意的就是數據貿易規則尤其是以數據治理規則為代表的方向,不僅是規則內容日趨全面完善,所蘊含的理念也更加成熟。2020年6月智利、新西蘭和新加坡簽署且中國加入的《數字經濟伙伴關系協定》(DEPA),2020年8月澳大利亞和新加坡簽署的《數字經濟協定》(SADEA)在協定文本中均直接以“人工智能”為標題,確認了各方對人工智能治理合作的共同認識。DEPA第8.2條“人工智能”和SADEA第31條“人工智能”無論是結構還是在內容上顯得都愈加統一,其重要性在于肯定了人工智能在數字經濟中的技術作用,強調數字經濟的跨境性質,進一步確認人工智能治理框架與國際接軌的好處。此外,其他自由貿易協定,如《全面與進步跨太平洋伙伴關系協定》(CPTPP)第14 章“電子商務”、《區域全面經濟伙伴關系協定》(RCEP)第12 章“電子商務”、《美墨加協定》(USMCA)第19章“數字貿易”等均包含數字貿易相關政策。
2023年7月28日由世貿組織、國際貨幣基金組織、經濟合作與發展組織以及聯合國貿易和發展會議聯合撰寫的《數字貿易制度手冊》(第二版)發布,該手冊側重于兩個關鍵要素:數字并購貿易和數字交付貿易,而人工智能機器學習算法交付本質上是數字交付。2019年啟動的WTO電子商務談判,W T O成員于2023年9月21日討論了電子商務和技術轉讓問題。目前WTO成員間對電子商務諸邊談判內容已經有了一定共識,但就電子商務傳輸的免關稅永久化、數字產品非歧視待遇、跨境數據的自由流通、源代碼公開和算法公開等核心議題上表現出了鮮明的差異。

應當認識到,人工智能在助力數字經濟發展的同時數據治理規則在人工智能治理中的決定性地位,人工智能產業或有可能因為數字經濟國際治理框架的完善而得到行業規范的契機。
目前我國人工智能產業發展增速居世界前列,超算、智算、云算協同發力,算力規模位居全球第二,核心產業規模已經超過5000 億元的量級,其相關的企業數量也達到4300 家,無論是開發框架、智能芯片、通用大模型等領域上不斷開疆拓土,獲得的創新成果持續增加。然而,中國信息通信研究院發布的《數據要素白皮書(2023)》指出,我國人工智能領域仍然面臨高質量數據集缺乏、數據供給的產業生態不健全、企業數據資源獲取成本高等問題。因此,對于我國而言,首先需要積極參與國際數字治理規則的制定,通過數據要素市場積極應對上述問題。
盡管諸如美國、歐盟等地區或國家對人工智能實施了積極監管,但就全球范圍內來說,現有規則主要由具有更強技術實力和更大數據掌控規模的國家主導,發展中國家的話語權較微弱,甚至無法參與相關討論。對此,需要打造人工智能國際法規制的全球合作路徑,我國作為最大的發展中國家需要對人工智能的全球規則做前瞻性思考,提早部署研究,爭奪話語權,促進人工智能規則向著更加公平、公正、合理和高效的方向發展。
一方面,國內法與國際法存在雙向互動。歐盟2023 年6月14日通過了《人工智能法案》的初稿,基于風險預防的基本理念對人工智能領域建立了一套覆蓋全過程的風險管理體系;2022 年10月,美國白宮發布了《人工智能權利法案藍圖》,以“設計、使用和部署自動化系統的五項原則,從而在人工智能時代保護美國公眾”,因此當面對人工智能應用帶來的問題時,完善國內法律制度以提升法律的可操作性是當務之急。2017年國務院發布《新一代人工智能發展規劃》,2023年5月31日,國務院辦公廳印發《國務院2023 年度立法工作計劃》,其中人工智能法草案等預備提請全國人大常委會審議,2023 年7月13日,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》。2023 年8月15日,“全球治理話語競賽下人工智能立法的中國方案”研討會發布了全國首個《人工智能法示范1.0(專家建議稿)》,其中不單提出關于負面清單管理等治理制度,而且著重回應了對人工智能產業鏈條所牽扯的各主體責任義務如何分配等關鍵性問題。這些舉措能夠體現出人工智能治理存在的缺乏統一框架的問題,后續也需要國家跟進出臺與人工智能相配套的法規。
另一方面,企業和政府構成推進人工智能發展的核心力量。企業作為人工智能的創新主體,不僅掌握著海量的數據,同時也需要履行保障跨境數據安全的義務。2019 年8月16日,第二屆全球人工智能創業者大會(GAISC)正式發布《新一代人工智能行業自律公約》,對人工智能行業的發展有重大參考和指導作用。政府作為國家治理的核心力量,在人工智能發展過程中需要規范政府的監管行為,實現政府、行業、企業的協同共治。
數字時代,人工智能成為世界各國競爭與合作交替進行的重要領域。人工智能給國際法現有規則造成的沖擊不容忽視,然而目前關于人工智能研究的主要成果都集中在自動化技術、計算機軟件、互聯網技術等領域,法學,尤其是國際法的專門性研究不夠充分,人工智能國際法規制理論的體系性和法律性不足,從人工智能技術的底層邏輯出發探尋人工智能規制的困境與解決方案,數據規則將在人工智能的國際法規制中發揮更為關鍵的作用。在域外人工智能法案不斷涌現和完善的背景下,我國需進一步建立完善人工智能治理體系,制定有關規制措施和細則,在人工智能規則制定方面爭奪國際話語權。■