摘" "要:作為新質生產力的要素之一,金融大模型的應用具有高度的技術優越性、行業契合性與實踐可行性。但金融大模型在給金融業帶來巨大效益的同時也將引發一系列風險,主要體現為算法可信風險、數據安全風險和法律監管風險。然而,風險的出現并不意味著應當停止對金融大模型技術本身的應用。應對金融大模型的應用風險進行類型化與法律化檢視,并融合算法倫理、數據相對安全和功能性監管三大理念,從“技”“制”二元共治視角建立可行的法律風險防范制度。通過健全相關制度,借助體系化制度工具應對金融大模型的法律風險,促進其安全、可信落地應用,為我國實現金融數智化轉型和建設金融強國蓄力。
關鍵詞:新質生產力;金融大模型;算法可信;數據安全;功能性監管;風險防范
中圖分類號:F832" "文獻標識碼:B" 文章編號:1674-2265(2024)06-0070-09
DOI:10.19647/j.cnki.37-1462/f.2024.06.007
2023年9月,習近平總書記首次提出“新質生產力”,其是指擺脫經濟增長的傳統模式和生產力的傳統發展路徑,具有高科技、高效能、高質量特征,符合新發展理念的先進生產力質態,其核心要義是“科技創新”(彭緒庶,2024)[1]。新質生產力這一概念的提出為打造我國經濟高質量發展新引擎、增強經濟發展新動能、塑造經濟新優勢指明了方向。而生成式人工智能在各應用端的高速運轉為新質生產力的大力發展提質增效。自2022年底ChatGPT、GPT4等大模型上市以來,其大規模應用推動著決策式人工智能向生成式人工智能的變革。在一系列利好政策的激勵下,生成式大模型已經成為各大科技公司的研發重點,“類ChatGPT”的大模型產品紛紛亮相。生成式人工智能的出現意味著人工智能已經逐漸從概念性強于應用性、主要為C端提供新鮮感轉變為在B端、C端都能找到應用場景的技術。
一、金融大模型應用的實踐、優勢與效益
目前各行業都在開發自己的垂直領域大模型。得益于數據流通規模大、數字化基礎好的優勢,金融行業是大模型應用落地的高潛場景。當前關于金融行業生成式大模型最常見的說法是金融大模型(此前國外流行稱其為“Fin GPT”①),通常被定義為生成式大模型在金融領域的垂直化研發與應用,即金融行業自主研發與應用的、具有金融特性的生成式大模型,主要以數據、算法和算力為技術支撐。以大模型為核心的生成式人工智能技術驅動了第四次人工智能浪潮,也推動著金融行業新質生產力規模的進一步壯大與發展。
(一)金融大模型應用實踐
2023年是國內外金融大模型研發與應用元年,眾多金融機構以積極姿態在金融大模型技術加速研發與應用賽道上角逐。例如,度小滿推出國內首個千億級中文金融大模型“軒轅”,參數量多達1760億。在之后一年里,度小滿前后出版12項“軒轅”系列的金融大模型;螞蟻集團也正式發布了螞蟻金融大模型;騰訊云瞄準金融安全領域,推出風控金融大模型,錨定機構信貸、營銷等場景的風控需求。概言之,國內外對于金融大模型的應用實踐主要有三類:一是“龍頭大模型+原有金融業務”;二是“龍頭大模型+金融行業數據”;三是“開源大模型+搭建金融行業大模型”。目前我國金融機構正致力于通過多種措施推進金融大模型的深化應用,例如:通過各種手段來增強算力資源的分配,提高算力的使用效率;加強多模型評估過程,以提高模型準確性;加強模型的數據檢索能力和圖像分析能力,以提高模型訓練效果;增強模型的語義分析能力,以生成高質量的文本語料。同時,各大金融機構結合知識圖譜、隱私計算等技術,逐步加強數據安全防護。此外,部分系統重要性金融科技公司也研發出了自主品牌的金融大模型,以供金融機構和金融消費者使用,如“星環無涯”金融大模型(Transwarp Infinity)。
(二)金融大模型應用優勢
金融大模型基于超強算法、超快算力和超多數據的技術結合催生了效率革命,其研發與應用將為金融行業數智化轉型提質增效②。具體而言,金融大模型具有以下應用優勢③:
第一,金融大模型依靠其豐富的知識儲備來支持海量金融數據的處理。這種知識儲備是指在萬億級通用語料的基礎上,注入了千億級的金融知識,并從真實產業場景中提取數萬條高質量指令數據,形成專門用于金融任務優化的數據資產。第二,金融大模型憑借其專業能力能夠實現專門化的金融服務。專業能力指的是它能夠理解用戶的語言,準確地調用專業工具,為用戶提供相應的專業服務。第三,金融大模型具備多回合的高質量對話能力,擁有高精度的意圖理解和個性化的溝通風格,同時具備高效的內容生成能力。第四,金融大模型憑借安全力能夠應用于數智化金融風險防控。這意味著其能夠有效提升生成內容的合規性、安全性和真實性,以避免錯誤或有害信息的出現,同時也對金融大模型用戶的隱私數據進行清洗和保護,確保數據的安全性。
(三)金融大模型應用效益③
第一,提升金融服務的普惠性和便捷性。金融大模型的應用可以使更多人享受到智能化、個性化、全天候的金融服務。第二,提升金融服務的質量和效率。金融大模型為金融機構及其從業者提供了更好的數據和技術利用途徑,從而提高了工作效率和質量。第三,推動金融服務的創新和變革。金融大模型使金融機構和金融科技公司能夠更好地了解市場動態和客戶需求,從而發現新的機遇和挑戰,創造新的產品和商業模式。同時,在新興領域,如數字貨幣和元宇宙金融等方面,也可以借助金融大模型的探索和創造能力,實現更具前瞻性的突破和領先地位。
綜上,基于對金融大模型應用優勢和實踐的考量,其在金融領域將大有作為,但在我國,金融大模型尚未實現規模化應用,且目前我國對于金融大模型應用風險的專門法律治理尚在起步階段,故需從制度層面對其風險加以積極應對,從而保障其在金融領域的實際落地和多元應用。
二、金融大模型應用的風險檢視
(一)金融大模型的應用存在算法可信風險
1. 算法訓練可信風險。算法訓練可信,即在金融大模型的應用過程中,應保證其算法預訓練和優化訓練的可控制性、可解釋性和可信任性,進而確保算法訓練的可信度。但金融大模型在算法訓練“功力”空前提升的同時,也將引發算法訓練可信風險。
基于技術的不斷優化,金融大模型的參數實現了規模化增長:一方面,經過預訓練和優化訓練,金融大模型的算法自主學習和生成內容的準確性和豐富性得到大幅提升;另一方面,參數規模的增長導致算法自主訓練的頻次不斷增加、算法不斷迭代,使得算法變得更復雜,能夠生成更高級的認知結果(陳兵和董思琰,2023)[2]。但是在這個過程中,很可能發生金融大模型的算法訓練異化,產生一系列可信風險。具言之:第一,金融大模型的算法訓練蘊含了金融機構、金融科技公司或技術服務提供機構的主觀意圖與價值偏好,加上缺乏適度過濾機制和人工監管,容易引發算法歧視和偏見風險,影響金融大模型用戶(包括金融機構及其客戶)的合法權益(申么等,2023)[3]。第二,當金融大模型進入算法訓練階段時,會接受大量的金融數據喂養。當金融數據數量不充足、樣本覆蓋不全面或者存在錯誤和誤導性信息時,算法訓練就會產生偏移或者失真。此時,需要在金融大模型的算法訓練過程中進行人工標注和可信糾偏,相關法律制度需要對此有所回應。
2. 算法生成可信風險。算法生成可信,即要求在金融大模型的應用過程中,其算法可以對標用戶需求精準、有效地生成相關內容,且不能有違法或虛假內容(陳兵,2023)[4],從而更好地幫助金融大模型用戶進行決策。金融大模型的深度生成算法憑借其便捷性,可以滿足金融機構和金融消費者的多元化需求,并可集中應用于用戶與金融大模型的交互過程。然而,金融大模型的算法深度生成技術在激發用戶創新內容、提供更優決策方案的同時,也將引發算法生成內容的可信度困境與挑戰。第一,算法生成的結果(更多體現為文本式內容)存在可靠度低、不夠準確或難以利用等問題,即金融大模型的算法可能生成錯誤的、不準確的、不真實的事實和信息。這一問題被業界稱為金融大模型應用的“幻覺”或“事實編造”問題(羅世杰和賀國榮,2023)[5]。第二,算法生成內容的價值對齊和歧視問題。即金融大模型的算法針對不同的用戶可能生成不同的決策建議,并且不同決策建議中帶有不同的價值偏向,甚至存在嚴重歧視的風險(何祎金,2024)[6]。第三,算法生成內容中具有相當一部分的自動化推薦內容,但是這種算法推薦可能會導致金融大模型用戶無法做出正確的決策。為了有效應對金融大模型應用的算法生成可信風險,可先從事先法律保護的角度予以防范。
同時,不可否認的是,金融大模型的算法生成仍存在難以規避的技術風險,并且無法從事先法律保障角度加以防范,暫時只能考慮事后法律保護。例如,生成式大模型在算法訓練時所用數據的時效性直接影響其生成內容的可信度。即訓練數據本身的質量、更新頻次和有效性直接關涉模型性能,從而影響算法生成內容的質量與可信度。同樣地,在金融大模型的應用過程中,其所涉及的金融數據集也無法擺脫時效性的局限,故而其生成內容可能對于用戶來說不太具有參考性或可利用性。特別是對于金融消費者來說,無關的甚至是有害的生成內容會損害其投資機會、產品收益等切身利益。對于這一性能局限,當前尚無完全可靠的技術解決方案。算法倫理理論要求金融大模型算法應當滿足能動且可控,即應當從“技”“制”并行的視角對該局限加以破解,故而暫時只能靠事后法律保護來盡量彌補這一缺憾。
(二)金融大模型的應用存在數據安全風險
數據安全已經成為金融大模型應用背景下難以逃避和亟須解決的議題,也是金融大模型能否實現應用落地的重要考量因素。相較于小模型,大模型的應用更容易對金融數據安全造成威脅(Ekaterina,2022)[7]。
1. 數據防護不足風險。數據安全防護,是指在金融大模型應用場景下,以現代數據存儲技術和法律規范為工具,主動保護金融數據,抵御大模型技術應用帶來的金融數據安全風險。金融大模型的預訓練、優化訓練以及內容生成均需要投喂、訓練與輸出海量數據,而由此集中于金融機構和金融科技公司的數據具有數量大、種類多、來源廣的特點。隨著對數據、算法、算力的不斷提升與突破,金融大模型技術也變得愈發成熟,并展現出典型的時代超越性(宋保振和秦瑞標,2023)[8]。在金融大模型應用場景下,可能因為相關機構數據防護的程度不足,引致金融數據安全風險發生嬗變:第一,由于當前技術的限制,在面臨訓練數據提取攻擊和數據投毒等數據攻擊活動時,金融大模型做出有效應對的穩定性尚有欠缺(羅世杰和賀國榮,2023)[9]。且當前階段的金融大模型易受訓練數據提取攻擊影響,而足以有效應對此類攻擊的技術方案仍在探尋和發展中。第二,金融大模型的數據運行和數據訓練屬于針對金融業務領域的定制化訓練,其包括定制化數據需求、定制化數據集合分布。而用戶在這個過程中也需要提供與其所接受的服務相關的“個性化數據”,從而更好地完成金融大模型的定制化訓練與優化(曾晨光等,2023)[10]。但以上數據上傳和運輸到服務器時,存在著較大的安全風險。
2. 數據嚴重泄露風險。在金融大模型數據處理的過程中,容易因為技術漏洞、市場競爭等面臨數據泄露風險(鈄曉東,2023)[11]。第一,主動泄露風險,即應用金融大模型技術的金融機構直接向外部透露語料庫存儲系統中的數據(Titus,2024)[12]。第二,隱含泄露風險,即把金融大模型迭代升級中被使用到的訓練數據作為升級后版本的數據輸出內容。例如在金融大模型中輸入的原始數據可能包含用戶的敏感信息,而經算法推斷后輸出的數據可能會非直接地泄露上述信息。第三,系統漏洞是金融大模型語料庫數據泄露最大的風險來源。任何技術的應用都存在著安全漏洞,且其可能不可知,金融大模型的應用亦是如此,黑客可能會針對安全漏洞加以攻擊,比如篡改模型輸出、修改模型訓練數據、盜取模型參數等(Casabianca等,2022)[13],從而加大模型輸出數據泄露的可能性。而僅靠技術維護措施難以對上述風險進行有效防范,還應從制度災備體系層面重視金融大模型的語料數據來源安全和預防數據泄露風險。
(三)金融大模型的應用存在法律監管風險
金融大模型具有相當的技術復雜性,即使是技術研發者也可能無法完全了解其內容生成機制,即其具有“技術黑箱”性質,這使得其應用給金融監管機構帶來一系列挑戰。2023年,黨中央、國務院發布了《黨和國家機構改革方案》,提出了我國金融監管體系改革的方向。申言之,應強化宏觀審慎監管和防范系統性金融風險,整合與優化微觀金融監管資源,全面覆蓋金融業務監管,融合行為、實體和功能等監管理念。但是目前功能性監管理念尚未得到貫徹(黃靖雯和陶士貴,2023)[14],進而導致金融科技功能監管的精準化實施尚未得到強化,與嵌入式監管、穿透式監管的協同性仍有待加強。
1. 監管主體方面協調性不足。落實金融大模型應用的功能性監管,需要進一步強化監管主體間的協調性。目前,我國金融科技監管主體框架以“一行一總局一會”④為核心,以央地監管協調以及行業自律性監管為保障。但是在金融大模型跨業務、跨平臺應用的指導下,監管主體在金融科技監管實踐中的協調性仍然欠佳,主要體現為監管部門仍面臨職權劃分不到位、行業自律監管不足等問題。這不僅不利于金融機構和金融科技公司建立科學高效的大模型技術應用合規體系,而且對其利用大模型創新金融產品和服務模式造成了阻礙。
2. 監管內容方面缺乏靈活度。一是金融大模型應用的法律監管邊界不夠靈活,以至于可能引發“監管逃逸”或“監管套利”風險,從而誘發更多的金融風險,加劇金融體系的脆弱性。例如,金融機構為了節約技術研發成本,讓技術服務提供機構來承擔金融大模型的關鍵技術開發和供應職能。金融機構選擇外包方式創新金融產品和服務,本意是為了創新與節約成本,但也可能間接使得其不需要承擔技術應用衍生的監管風險。此外,技術服務提供機構在提高金融大模型技術復雜度的同時,可能會加劇“監管逃避”風險發生的可能性。二是金融大模型應用領域內的安全事件報告義務不足。金融大模型技術的應用可能引發新的金融風險,傳統的金融監管大概率無法對其作出迅速反應,導致監管部門對金融大模型監管不夠及時、對其業務運行中的安全事件把握不夠全面和深入,從而引發金融大模型應用的“監管套利”風險。金融大模型的應用存在巨大的潛在性和系統性監管風險。若金融機構和金融科技公司不斷提高金融大模型的技術復雜性和創新速度,進而加大金融業務的復雜度和交叉度,可能會加劇“監管套利”風險的復雜性和隱匿性(黃琦等,2023)[15]。
三、應對金融大模型應用風險的制度理念
(一)算法可信風險應對與算法倫理理論
金融科技的算法倫理失范指依托算法對金融消費者的消費偏好、償付能力等個人信息進行識別與分析,進而對不同消費者的權利和收益進行損害,其通常體現為算法殺熟、繭房、沉迷和成癮等風險。而金融科技算法倫理失范產生的根源是缺乏算法價值觀和系統的方法(周蓉蓉,2023)[16]。以算力、數據和算法為支撐的金融大模型應用帶來的倫理失范更多來源于底層算法,故而對金融大模型應用的算法可信風險進行法律應對迫在眉睫。例如,《中華人民共和國個人信息保護法》第二十四條對金融大模型的算法生成提出了可信要求,即應當保證生成過程的透明度和生成結果的公平合理。據此,當金融大模型的算法生成過程與內容影響到金融消費者利益時,消費者個人有權要求金融機構或者技術服務提供機構進行解釋說明、對算法基本信息加以披露,并有權拒絕采取自動化處理方式。故應對金融大模型的算法可信風險應以算法倫理可信為理論基礎,并圍繞以下目標展開:第一,承擔社會責任的算法。擴大金融大模型深化應用的發展目標,需要由過去的提升金融服務效率逐步向提高金融服務質量和增強金融大模型應用主體社會責任意識等轉變。第二,能動且可控的算法。將算法的自適應性與適應性相結合、制度約束與自我控制相結合,最大程度且安全地發揮金融大模型的應用優勢,實現金融業務數智化轉型。第三,可信、公平和透明的算法。確保金融大模型算法的可信性、公平性、可解釋性,避免由算法同質化帶來的可信風險,如算法歧視、算法黑箱等(周蓉蓉,2023)[16]。在此基礎之上,治理型算法監控制度、算法倫理審計制度以及算法合規管理制度等法律制度工具可以對金融大模型應用的算法可信風險加以應對。
(二)數據安全風險應對與數據相對安全理論
數據相對安全理論并不要求在金融大模型應用下實現金融數據防護和處理的“百分百安全”,其更突出相對安全情景下金融數據的高效流通與利用。絕對安全觀念出自傳統的安全理論,其大都來自對絕對理想化的考慮,即應當通過完美預測、十足把控和絕對預防來防范風險。這種風險防范理論在傳統的如自然災害、恐怖襲擊和國家主權等安全風險領域確可體現出一定效果,但隨著經濟社會和科學技術的快速發展,各種安全風險變得更加復雜、多樣和不確定,金融大模型作為人工智能技術在新發展階段的產物,其應用帶來的數據安全風險也不太可能被完全規避(鈄曉東,2023)[11]。這些風險受到其本身技術特點和應用環境等因素的綜合影響,雖然可以通過技術升級和制度設計從一定程度上防范風險,但不能將其完全消除。現代金融行業的復雜性決定了金融大模型應用風險之間會相互滲透、相互影響,這已經成為不可避免的趨勢。同時,基于絕對安全理論,金融大模型應用風險治理將給其應用主體帶來不小的成本。在這種情況下,傳統的絕對安全理論不再具有高度耦合性。社會學家烏爾里希·貝克曾提出,科學技術應用和經濟全球化發展帶來的形形色色的風險難以預測和估算(薛曉源和劉國良,2005)[17]。故基于相對安全理論,“數據相對安全”概念的重要性得以凸顯,其取代傳統的“絕對安全”,成為金融大模型應用的數據安全風險防范制度的理性目標。例如,我國《網絡安全法》第十二條和《數據安全法》第七條均明確規定了對數據有效開放和利用的制度支持,這也是對數據相對安全理論的體現與支撐。不可否認的是,金融大模型的應用以數據為“燃料”,且金融數據在數量上也處于各行業之首,想要完全規避數據安全風險,使金融大模型的應用實現“百利而無一害”是不太可能的。綜上,金融大模型數據安全風險的制度應對應以數據相對安全理論作為理性基礎。
(三)法律監管風險應對與功能性監管理論
功能性監管的本質是“相同業務,相同監管”(郝志斌,2023)[18]。在金融科技的創新與應用進一步推進金融行業數智化變革的同時,其所放大的內生性風險和誘發的外生性風險也給現行監管帶來重大挑戰。第一,內生性風險包括金融數據存儲風險對金融安全性造成新的潛在威脅,信息不對稱風險對金融公平性造成新的潛在威脅,從而擾亂金融市場的公平競爭秩序,損害市場主體和行業整體利益。第二,作為涵蓋金融科技創新底色的金融大模型,其應用還易放大外生性金融風險。主要包括以下幾個方面:一是容易引發系統性金融監管風險,二是其擴大金融風險傳染的特性容易加重金融科技監管成本,三是其迅捷化和跨界化的技術秉性容易擴展金融監管風險。
基于此,要保障我國金融大模型可信、安全應用,就要完善當前的金融科技監管制度,進而對其法律監管風險加以有效防范與應對。大部分學者認為,維護金融安全、推進金融治理現代化構成強化金融科技監管法治化的內在邏輯(李萬強和吳佳芮,2023)[19],金融大模型的法律監管風險的制度應對也應當在此框架下展開。然而,我國現行金融監管體制具有明顯的分業監管特征,但是金融大模型的應用顯著加強了金融業混業經營的趨勢,且其普惠性的特征加速了這一進程。在此背景之下,金融大模型應用下的業務形態可能不再處于傳統的金融監管框架下,而是游離于金融科技發展與監管套利之間,使兩者之間的關系逐漸開始緊張(程雪軍和尹振濤,2023)[20]。正因為如此,《金融科技發展規劃(2022—2025年)》也明確提出“穿透式監管”一說。所謂對金融科技實行穿透式監管,是指刺破其外觀,探尋其業務本質,并采取一系列監管行為加以針對性監管(葉林和吳燁,2017)[21],而這必須以實現監管法治化為前提。一言以蔽之,為保障金融大模型的安全、合規和可信應用,應當基于功能性監管理念,實施統一監管,創新監管工具、調整監管目標,進而對其引發的監管風險加以法治化應對。
四、應對金融大模型應用風險的制度路徑
(一)金融大模型算法可信風險的制度應對
1. 完善算法訓練可信制度。第一,對金融大模型應用主體的算法訓練可信義務進行補充與細化。具體應包括以下兩項要求:其一,明確算法訓練可信義務的主體。首先是金融機構、金融科技公司和技術服務提供機構。其中,技術服務提供機構是進行金融大模型算法訓練活動最主要的主體,需要對算法訓練的質量和可靠性負責。同時,參照美國2022年《算法責任法案》中將“個人”也納入算法責任主體的做法和規定,明確從事金融大模型算法訓練活動的個人也應當對算法訓練可信負責。其二,明確算法訓練可信義務的內容。一是明確對算法訓練所涉數據的可信要求。金融大模型應用主體和技術服務提供機構應當對算法預訓練、優化訓練所用到的用戶數據來源可信性負責并做好合規建設,保證算法訓練所用到的數據的真實性、準確性、客觀性。二是明確對算法訓練行為的可信要求。一方面,相關主體應當建立用戶投訴接收處理機制以實現算法訓練糾偏;另一方面,應通過算法模型優化訓練來進行算法訓練歸正。三是明確對算法訓練人工標注的可信要求。當前金融大模型都使用了基于人類偏好的強化學習的機器訓練模型,使其能夠學習人類語言的特征和結構,用自然語言進行人機交流。故當在金融大模型的算法訓練中采用人工標注時,相關的上述主體應制定并實施內容清晰、指引具體、操作性強的標注規則,對標注人員進行一定的必要培訓,并通過抽樣來檢驗標注內容的準確性與可信度(羅世杰和賀國榮,2023)[5]。
第二,對《金融領域科技倫理指引》中關涉金融大模型算法訓練行為的具體指引加以完善。其一,增加金融大模型算法訓練可信公正的具體內容。金融機構、金融科技公司或技術服務提供機構應當在公平、公正、公開的環境下進行算法訓練活動,其結果應當具有倫理層面的可解釋性(王海燕,2024)[22],不得利用算法訓練得出具有反倫理和歧視性的金融大模型并將其投入金融市場。其二,將該指引盡快上升為金融行業法律法規,如《金融領域科技倫理管理實施辦法》,使其具有強制實施力,成為金融大模型算法訓練行為可信的法律規范。
2. 完善算法生成可信制度。第一,加強算法生成可信的事前風險預防。其一,嚴格履行算法申報義務和披露義務,以提升金融大模型應用的算法生成透明度。一是金融機構和金融科技公司應履行事前申報義務,如申報算法模型的安全評估情況,完成算法模型的備案、變更和注銷手續(張恩典,2023)[23],同時,需要公開算法基本信息。二是金融機構和金融科技公司還應于事前向用戶提供可能影響用戶信任、選擇的必要信息,包括金融大模型預訓練和優化訓練數據的來源、規模、類型和質量等細節描述,在訓練過程中所使用的人工標注規則和數據的規模、類型等情況以及基礎算法和技術體系等。其二,對金融大模型應用的算法生成可信風險進行等級分層并賦予相關主體算法可信解釋權。參考歐盟《人工智能法案》的做法,風險等級越高,金融機構和金融科技公司要承擔的算法解釋義務就越重。一方面,實現個體透明的核心在于建立金融大模型應用的算法可解釋權制度。這意味著需要著重維護金融大模型的算法可信度,同時注重解釋對個人權益的影響。在解釋標準方面,應采取系統解釋與個案解釋相結合的原則,既要考慮對整體系統運行的解釋,又要關注對具體過程的解釋。在解釋時機上,應堅持事前解釋和事后解釋并重(張恩典,2023)[23]。另一方面,在具體實踐中,金融大模型應用主體對其算法進行解釋的內容、流程并非固定不變,應充分考慮其應用領域、場景、風險大小和對個體權益的影響程度等因素予以針對性的拓展和靈活的變通。一般來說,金融大模型生成的內容對用戶權益的影響程度越高,風險就越大,從而應要求金融機構和金融科技公司承擔更重的解釋義務和更高的解釋標準(劉博涵,2024)[24]。
第二,健全算法生成可信的事后糾偏制度。其一,以算法審計為中心,提高算法系統的可信度。算法生成可信度審計涉及對金融大模型的算法生成過程與內容的充分、全面合規審查(韓旭至,2023)[25],根據算法生成審計主體不同,可將其界分為內部與外部審計。其中,內部審計是由金融機構和金融科技公司自行開展的“用以檢查金融大模型算法訓練與生成所涉及的工程過程是否符合公開的道德期望和標準的機制”;外部審計則是通過監管部門指定審計機關或金融機構和金融科技公司自行聘請第三方審計機構的方式,對金融大模型算法生成可信風險加以識別和檢驗,通常在算法研發部署完成之后或者實際發生算法生成可信風險時展開。其二,建立金融大模型的算法生成內容外部影響評估制度,對算法生成可信失靈進行糾偏(葉麗芬等,2023)[26]。即從算法影響評估制度中抽象出金融大模型算法生成內容,對其進行外部影響評估,從而確定其對算法信任的影響程度和產生的風險等級,進而采取減緩或消除負面影響及相應風險的措施。金融大模型的算法可信影響評估應首先吸納現行法的相關規定,例如,根據《生成式人工智能服務管理暫行辦法》第七條的規定,金融大模型技術服務提供機構應履行對其提供的大模型算法可信度進行評測和優化訓練的義務。在此基礎上,金融大模型算法可信影響評估指標設置應當能夠準確揭示其生成結果對信息生態產生負面影響的可能性以及嚴重程度。其重點標準應為算法生成結果的可解釋度、生成內容的質量和可信度以及是否能夠滿足金融大模型用戶的決策需求。
(二)金融大模型數據安全風險的制度應對
2024年3月,國家金融監督管理總局發布了《銀行保險機構數據安全管理辦法(征求意見稿)》(簡稱《數據安全管理辦法》),打響了金融業務領域數據安全專門防護的第一槍。其中,第六十四條初步規定了數據處理環境安全保護義務,第六十八條初步規定了數據處理安全事件應急制度,但上述規定難以適應金融大模型數據安全風險的特殊性。為了確保金融大模型應用過程中數據處理達到相對安全的程度,減少數據安全風險發生的概率,應對相關規定加以補充與細化。
1. 明確數據處理環境安全保護義務。第一,分級保護金融大模型應用下的金融數據處理環境。《數據安全管理辦法》第十八條已明確將金融業務領域內的數據分為一般、重要與核心三個級別,進行不同重要程度的保護,并根據數據的敏感性和可用性對數據進行分層。基于此,金融機構和金融科技公司應對所應用的金融大模型語料庫數據進行分類和分級,制定階級化數據處理環境安全保護實施方案(王良順和李想,2023)[27]。第二,設置金融大模型應用下金融數據處理環境安全的專門負責人和管理機構。歐盟《通用數據保護條例》規定了所有數據處理者都應當設立“數據安全合規官”來負責數據處理安全相關工作(王燕,2023)[28],且我國《數據安全法》第二十七條也有類似規定。有鑒于此,金融機構和金融科技公司在利用金融大模型處理重要或核心數據時應當明確數據安全負責人和管理機構,落實數據處理環境安全保護責任。第三,對金融大模型應用的數據處理環境的安全穩定性進行監測和評估。據此,金融機構和金融科技公司應根據我國《數據安全法》第三十條的相關規定,定期對金融大模型應用的數據處理環境安全進行穩定性評估,并向相關主管部門提交評估報告。
2. 細化數據處理安全事件應急制度。金融機構和金融科技公司應當制定應急計劃,靈活地應對、處理和報告金融大模型應用下的金融數據處理安全突發事件(陳立吾,2023)[29]。第一,指定金融數據處理安全事件應急負責人和應急響應團隊成員,并對其職責和任務進行明確分工。其中,數據處理安全事件應急負責人應具備充足的技術和管理能力,負責制定、實施和維護應急計劃,并協調內部各部門的數據處理安全應急響應工作;應急響應團隊成員需根據應急計劃的要求盡職盡責,及時采取措施防范或應對金融大模型應用下的金融數據處理安全事件。第二,確定明確、具體的金融大模型數據處理安全事件應急響應措施和流程。其中,應急響應措施包括但不限于采取緊急行動、暫停對外服務、隔離受影響的數據處理流程等;應急響應流程應包括但不限于報告、確認、處理、跟蹤和總結數據處理安全事件的各個環節。為了確保應急響應工作的及時性和有效性,金融機構和金融科技公司應在應急響應流程中規定每個環節的時限和責任人(鈄曉東,2023)[11]。此外,還需構建相關激勵制度,以激勵金融機構和金融科技公司不斷完善和優化數據處理安全事件應急計劃,從而有效防范金融大模型應用的數據處理安全風險。
(三)金融大模型法律監管風險的制度應對
1. 強化監管主體的協調性。以貫徹功能性監管理念為目標,明晰金融大模型應用運行階段監管主體的職責范圍,監管主體應當靈活且具有能動性(歐陽日輝,2024)[30]。其一,應鼓勵監管部門向外和向下授權,建立跨部門監管協作機制,促使各監管部門共同參與制定金融大模型應用監管清單,并設置跨部門的交流時效標準與聯絡方式,以提高監管部門間的協作效率。其二,在監管主體權力分配方面,通過立法設定的方式,將權力下放或授予金融大模型行業協會等行業自律性組織,以此拓展監管主體范圍。監管部門應當鼓勵金融大模型行業自律組織在金融科技監管政策框架下制定技術合規監管規范,并針對金融大模型技術制定專門的合規監管準則。同時,被賦予權力的行業自律組織也應該納入跨部門協作機制,以確保其能夠根據共同商定的監管目標靈活響應其他監管機構的監管請求,從而避免在復雜的監管科層機制下受到不必要的束縛。
2. 優化監管模式與內容。基于功能監管,并考慮金融大模型應用的跨業務、跨行業特點,建議跨部門、跨平臺、跨市場⑤地建立金融大模型應用監管模式,對金融大模型在金融業務活動中的應用實施穿透式監管。監管部門可以采取靈活監管方式對金融機構和金融科技公司的金融大模型技術應用違規活動進行監管,不給監管對象和內容加設“金融行業”枷鎖。其一,應用金融大模型從事金融業務活動的金融機構和金融科技公司應履行向監管部門披露其算法和數據源的義務,監管部門可以通過模擬運行算法來了解金融大模型的應用和創新原理,從而更好地對其應用下的業務運行進行監管。其二,當金融機構應用第三方通用大模型技術來從事金融業務活動時,監管部門需要適度擴展監管邊界,即應當堅持穿透式監管方式,對其背后的具體金融業務進行監管與約束,以解決可能發生的“監管逃逸”問題。其三,針對系統重要性金融科技公司應用金融大模型技術從事金融業務活動的情況,應當以“金融監管”吸納“技術監管”,將其納入金融監管的邊界之內(袁康,2024)[31],由中央金融監管部門對其進行特殊監管,監管目標應該側重于確保金融大模型應用的安全與可信。此外,加強金融大模型應用的國際監管合作至關重要。為了促進金融大模型應用的技術信息共享,并從國際視野上充分認知其應用風險,我國可以與國際社會進行協調合作,制定金融大模型應用的國際監管規則。
3. 明確監管標準。其一,在金融科技相關的技術應用規范中將金融大模型作為專門的一項技術進行規定并予以約束。具言之,應在《銀行保險機構信息科技外包風險監管辦法》《金融科技創新風險監控規范》等監管規范中及時更新金融大模型技術應用相關的內容。例如,《金融科技創新風險監控規范》在已有的算法和數據安全相關規范的基礎上,還應增加有關大模型技術的算力支持規范,包括但不限于金融大模型的算力服務形態分類標準、算力服務演進模型以及算力合作整體框架等(陳曉紅等,2023)[32]。其二,明確金融大模型技術的審查備案標準:一是只有符合安全性和合規性檢驗標準的金融大模型才能通過備案審查。二是借鑒歐盟《人工智能法案》,將金融大模型的應用風險分為最低風險、低風險、高風險、不可接受的風險四個等級,并據此分別確定不同的技術應用監管標準。此外,針對屬于技術外包類型的金融大模型應用,監管部門應將技術服務的穩定性作為重點監管標準,構建更為嚴格的技術合規附加要求,建立更高頻率的監管標準更新機制。
五、結語
隨著生成式大語言模型的逐步引入與應用,中國金融業的“大模型時刻”終將到來。金融大模型技術擁有更多的數據、更強的算力和更聰明的算法,這決定了其在金融行業大有可為。然而,沒有法律規制的金融大模型技術猶如“達摩克利斯之劍”,時刻可能給金融市場和業務帶來風險。但這并不意味著要停止金融大模型應用落地的進程,而是應當在保障其向善、健康應用的基礎上健全其應用風險防范法律制度,積極應對其應用帶來的法律風險,進而拓寬新質生產力在金融行業的發展路徑。本文在金融大模型應用的基礎上,對其目前突出的法律風險加以明確與分析,并結合金融發展需求與技術應用特性提出完善金融大模型應用風險應對的法律制度,通過確立“技”“制”二元共治格局,從法律治理視角走出金融大模型應用的“科林格里奇困境”(郭靂和尚博文,2023)[33],保障我國金融安全穩定。
注:
①Fin GPT最開始為2023年6月由AI4Finance-Foundation開發的一個開源項目,專注于金融領域的大語言模型研發。隨著金融大模型的大量研發與應用,其成為國外金融大模型較為流行的說法。
②參見北京商報:《2023金融大模型報告》重磅發布:超九成機構看好,五年內有望爆發,2023-12-08,https://m.bbtnews.com.cn/content/35/65/326182.html。
③本部分內容主要以螞蟻金服大模型為例,具體參見:螞蟻金服的大模型,金融行業的大變革,2023-09-09,https://baijiahao.baidu.com/s?id=177655998500728650
8amp;wfr=spideramp;for=pc。
④“一行”指中國人民銀行;“一總局”指國家金融監督管理總局;“一會”指中國證券監督管理委員會。
⑤參見亓寧.AI大模型在金融領域陸續落地專家建議強化跨平臺、跨市場監管,《第一財經日報》,2023-12-27。
參考文獻:
[1]彭緒庶.新質生產力的形成邏輯、發展路徑與關鍵著力點 [J].經濟縱橫,2024,(03).
[2]陳兵,董思琰.生成式人工智能的算法風險及治理基點[J].學習與實踐,2023,(10).
[3]申么,申明浩,丁子家,吳非.生成式人工智能與銀行業變革:典型事實、實踐問題與破局之策——以ChatGPT為例 [J].南方金融,2023,(11).
[4]陳兵.生成式人工智能可信發展的法治基礎 [J].上海政法學院學報(法治論叢),2023,38(04).
[5]羅世杰,賀國榮.生成式AI算法訓練風險的合規管理研究 [J].湖北經濟學院學報,2023,21(06).
[6]何祎金.生成式人工智能技術治理的三重困境與應對 [J].北京工業大學學報(社會科學版),2024,24(02).
[7]Svetlova Ekaterina.2022. AI Ethics and Systemic Risks in Finance [J].AI and Ethics, Vol.2:4.
[8]宋保振,秦瑞標.論生成式人工智能應用風險的法律規制 [J].上海政法學院學報(法治論叢),2023,38(06).
[9]羅世杰,賀國榮.生成式AI階段金融科技數據合規的法律化因應 [J].金融發展研究,2023,(11).
[10]曾晨光,楊蕊菱,王宇鵬,郭煜,王書佳.金融行業中的大語言模型 [J].數字經濟,2023,(11).
[11]鈄曉東.論生成式人工智能的數據安全風險及回應型治理 [J].東方法學,2023,(05).
[12]Lisa Miracchi Titus. 2024. Does ChatGPT have Semantic Understanding?A Problem with the Statistics-of-Occurrence Strategy [J].Cognitive Systems Research, Vol.83:1.
[13]E J Casabianca et al. 2022. What Large Language Models Like GPT can do for Finance [J].Journal of International Money and Finance,Vol.129:7.
[14]黃靖雯,陶士貴.數智化階段的金融科技:風險與監管 [J].蘭州學刊,2023,(06).
[15]黃琦,趙大偉,代會琳,黃啟燕,羅娜.人工智能“火爆”背景下的金融安全“冷”思考 [J].金融發展研究,2023,(11).
[16]周蓉蓉.金融科技倫理治理的價值、經驗與路徑[J].西南金融,2023,(10).
[17]薛曉源,劉國良.全球風險世界:現在與未來——德國著名社會學家、風險社會理論創始人烏爾里希·貝克教授訪談錄 [J].馬克思主義與現實,2005,(01).
[18]郝志斌.數字金融的功能監管及其精準化實施[J].行政法學研究,2023,(05).
[19]李萬強,吳佳芮.金融科技監管法治化的內在邏輯與立法進路 [J].西北大學學報(哲學社會科學版),2023,53(06).
[20]程雪軍,尹振濤.全國統一大市場下的金融科技創新與監管體系重構 [J].經濟問題,2023,(09).
[21]葉林,吳燁.金融市場的“穿透式”監管論綱 [J].法學,2017,(12).
[22]王海燕.算法可解釋性的價值及其法治化路徑[J].重慶社會科學,2024,(01).
[23]張恩典.算法透明度的理論反思與制度建構 [J].華中科技大學學報(社會科學版),2023,37(06).
[24]劉博涵.智能投顧算法透明的價值辯證、規制導向與實現路徑 [J].深圳大學學報(人文社會科學版),2024,41(01).
[25]韓旭至.生成式人工智能治理的邏輯更新與路徑優化——以人機關系為視角 [J].行政法學研究,2023,(06).
[26]葉麗芬,陳力鈞,林鷺航.算法技術異化及其應對策略 [J].中共福建省委黨校(福建行政學院)學報,2023,(06).
[27]王良順,李想.生成式人工智能服務提供者的數據安全保護義務研究 [J].南昌大學學報(人文社會科學版),2023,54(06).
[28]王燕.數據法域外適用及其沖突與應對——以歐盟《通用數據保護條例》與美國《澄清域外合法使用數據法》為例 [J].比較法研究,2023,(01).
[29]陳立吾.金融數據安全治理工作的思考 [J].中國金融,2023,(18).
[30]歐陽日輝.生成式人工智能與金融業深度融合:理論機理及發展路徑[J].求索,2024,(01).
[31]袁康.系統重要性金融科技公司的法律規制 [J].現代法學,2024,46(01).
[32]陳曉紅,許冠英,徐雪松,田志平,霍楊杰,易國棟.我國算力服務體系構建及路徑研究 [J].中國工程科學,2023,25(06).
[33]郭靂,尚博文.應對“科林格里奇困境”:融入倫理的金融科技治理 [J].中國社會科學院大學學報,2023,43(05).