以大語言模型(LLM)技術為代表的人工智能(AI)正推動金融行業從基礎數字化邁向深度智能化變革在帶來高效投資決策輔助和個性化客戶體驗的同時,也面臨著諸多風險和挑戰,包括信息幻覺、算法偏見、模型可解釋性不足、數據隱私與安全隱患,以及潛在的系統性風險等。因此,系統性比較全球主要經濟體的監管實踐,為完善我國監管框架汲取經驗,是一項極具理論價值與現實緊迫性的課題。
人工智能在金融服務中的應用
天語言模型(LLM)作為人工智能發展的關鍵驅動力,正被金融機構廣泛應用于各類業務場景。在智能客服與營銷方面,LLM通過提供個性化交互體驗,提升了服務效率與客戶滿意度。在投資研究環節,其高效的信息處理能力可輔助分析師進行市場情緒分析、宏觀趨勢預測及投資標的篩選。在風險管理與合規審查中,LLM能增強反欺詐與反洗錢(AML)的識別能力,并實現合規文件與合同條款的自動化分析。鑒于LLM等AI技術已深度滲透至信貸審批、投資顧問等金融核心環節,其決策的可靠性、公平性與透明度,已直接關系到消費者權益保護與整個金融系統的穩定。
人工智能在金融領域面臨的風險與挑戰
人工智能在金融領域的應用,伴隨著一系列潛在風險和挑戰。這些挑戰在以大語言模型(LLM)為代表的前沿技術上表現得尤為突出。因此,以LLM為切人點,是剖析當前AI金融應用普遍性風險的關鍵。
“幻覺”與信息準確性風險
大語言模型可能生成看似合理但與事實不符的“幻覺”(Hallucination)內容,這種現象源于大語言模型本質上是基于海量文本數據進行統計概率預測,而非進行真正的邏輯推理,這導致其可能生成看似專業但與事實完全不符的內容。這要求金融機構積極部署檢索增強生成(RAG)系統,讓模型在生成回答前,先從經過驗證的實時內部數據庫中檢索信息,從而提升輸出內容的準確性和時效性。

資料來源:艾瑞咨詢,2025年中國金融科技(FinTech)行業發展洞察報告
圖1 國內金融機構人工智能類科技產品部署進程
數據安全與隱私保護風險
金融大模型的訓練和運行需要海量的數據,可能包含個人敏感信息,存在泄露、濫用和遭受網絡攻擊的風險。在模型應用過程中,金融機構應建立嚴格的合規要求,包括確保訓練數據來源的合法性、數據標注的合規性,特別是敏感個人信息的匿名化處理、訪問控制、數據備份和審計,以及在應用過程中盡可能對輸入模型的數據進行脫敏處理,以降低敏感數據泄露的風險。
算法偏見與公平性風險
AI模型的訓練數據可能包含歷史偏見,導致歧視性結果。如果訓練數據源自于存在歷史偏見的信貸審批記錄,那么模型很可能會學習并放大這些偏見,例如將特定地域或人群與更高的信用風險不公平地關聯起來,從而在信貸審批、保險定價等場景中產生歧視性結果。監管工作應強制要求在AI生命周期的各個階段實施“公平性設計”,要求金融機構積極識別和緩解偏見,并證明其非歧視性結果。
模型可解釋性與透明度風險
大模型復雜的“黑箱”特性,使得其決策過程難以解釋和審計,當出現問題時,難以進行歸因和問責。由于其深層的神經網絡結構,大模型的決策過程往往難以被人類直觀理解和審計,當模型給出一個異常的交易建議或拒絕一筆貸款申請時,金融機構很難清晰地追溯其決策的具體依據。監管機構將重點從要求完全內部可解釋性轉向要求可審計的輸出和健全的治理流程。即使AI的內部運作不完全透明,金融機構必須證明決策是如何做出的,并確保人工監督能夠驗證AI生成的結果。
系統性風險
如果市場上大多數主要參與者都依賴于少數幾家科技巨頭提供的基礎大模型進行決策,極易形成“模型單邊化”或“羊群效應”。投資者在不知情的情況下采納基于相似模型訓練數據的關聯策略,就可能在特定市場條件下觸發大規模的同步交易,從而急劇放大市場波動,構成難以預料的系統性金融風險。
中國的AI監管框架與實踐
中國內地人工智能相關監管政策與標準
中國的AI監管體系遵循“促進發展與依法監管并重”的原則,其路徑清晰地展現了從宏觀基礎立法,到具體技術規范,再到行業專項指引的演進過程。
該監管框架的基石是2021年施行的《中華人民共和國數據安全法》與《中華人民共和國個人信息保護法》,它們為AI應用的數據處理合規性及個人權益保護劃定了根本紅線。在此之上,監管機構通過《互聯網信息服務算法推薦管理規定》及《互聯網信息服務深度合成管理規定》,對算法透明度、用戶選擇權等具體技術環節提出了明確要求。
隨著生成式AI技術的爆發,2023年國家網信辦等七部門發布《生成式人工智能服務管理暫行辦法》,作為首部專門法規,它確立了服務提供者的核心責任,覆蓋了數據來源、內容準確及防止歧視等關鍵方面。在金融這一高度敏感領域,通過《金融領域科技倫理指引》和《人工智能算法金融應用信息披露指南》等標準,將重點直指金融AI應用的倫理、公平與透明度。
這一系列法規的陸續出臺,構建了中國金融AI監管的基礎框架,但中國金融AI監管工作遠未結束。在2025年6月18日的陸家嘴論壇上,中國人民銀行行長潘功勝便指出:“人工智能在金融領域的應用,缺乏統一監管標準。全球需要加強監管協同,補齊監管短板。”這清晰地指出了當前監管體系仍需補齊的關鍵環節,并強調了未來工作的緊迫性。
香港特別行政區人工智能監管實踐
香港的監管框架強調“人工監督”的重要性,完全自主的AI決策系統是被禁止的。對于關鍵業務決策,特別是涉及客戶資金或信譽的決策,人類必須保留最終的監督、控制和干預權。
HKMA于2024年8月19日發布了關于使用生成式AI的消費者保護方面指引l(ConsumerProtectioninrespectofUseofGenerativeArtificialIntelligence),為面向客戶的GenAI提供了更具規范性的指導,強調了在敏感交互中消費者信任、透明度和人工監督的重要性。
香港證券及期貨事務監察委員會(SFC)于2024年11月發布了《致持牌法團關于使用生成式人工智能語言模型(AILMs)的通函》為持牌法團在使用AILMs時遵守其監管義務提供指導。提供投資建議、投資咨詢或投資研究給投資者或客戶被SFC初步認定為高風險用例。對于高風險用例,通函提出了四項具體要求:對AI語言模型的效能進行模型驗證、持續檢討和監察;“人工干預”機制;測試輸出內容在提示變化下的穩妥性;明確披露客戶正在與AI(而非真人)互動,且由AI語言模型產生的內容未必準確。

表1
中國內地人工智能相關監管政策與標準

資料來源:由作者整理而來
個人資料私隱專員公署(PCPD)于2024年6月11日發布了《人工智能:模型個人資料保護框架》,旨在為組織采購、實施和使用涉及個人數據的AI系統(包括生成式AI)提供建議和最佳實踐,以符合《個人資料(私隱)條例》(PDPO)的要求。在處理個人數據時,確保個人即使在數據被復雜AI處理時也能保持對其數據的控制。
全球其他主要經濟體的監管框架與實踐
美國
美國對AI的監管方法在很天程度上是行業特定且碎片化的,主要依賴現有法律和機構特定指導,而非單一的AI法律。美國各機構普遍強調可解釋性、偏見緩解和第三方監督。
消費者金融保護局(CFPB)發布指引Circular2023一03,要求貸款機構在使用人工智能或復雜信貸模型拒絕信貸申請時,必須向消費者提供具體、準確的拒貸理由,不能簡單地使用標準化的“勾選框”式通知。此外,CFPB提出關于個人金融數據權利的第1033條規則,強制安全數據共享并限制第三方使用。
美國證券交易委員會(SEC)對金融領域AI的應用保持高度關注,在2023年7月26日提出關于預測性數據分析(PredictiveDataAnalytics)的規則提案,該規則的核心是防止公司利用AI產生將自身利益置于客戶之上的利益沖突。
美國金融業監管局(FINRA)于2024年6月27日發布了RegulatoryNotice24一09,提醒經紀自營商在使用gen AI時應注意其監管義務。該通知指出,FINRA的規則旨在保持“技術中立”,即無論經紀自營商使用何種技術(包括生成式AI),都必須遵守現有的證券法和FINRA規則。
歐盟
歐盟于2024年通過了《人工智能法》,確立了基于風險的法律規制框架,根據AI算法系統對個人權利和安全的潛在影響將其風險從低到高地分為最低風險、有限風險、高風險、不可接受風險,對各類風險等級采取差異化風險規制,正式確立AI算法風險的分級規制,即完全禁止不可接受的風險、嚴格管控高風險、公開透明有限風險、不作干預最低風險。
歐盟委員會2024年發布《關于人工智能在金融領域應用的目標性咨詢文件》,旨在對金融服務行業中AI應用開展深人討論和意見征集。需根據其對人類健康、安全和基本權利的潛在影響,制定相應的風險規制規范。其中指出金融部門的兩個高風險用例:一是旨在用于評估自然人的信用價值或確定其信用評分的AI系統,用于檢測金融欺詐的AI系統除外;二是旨在用于與自然人相關的生命和健康保險的風險評估與定價的AI系統。
英國
英國政府在2023年3月發布的《人工智能監管白皮書》中確立了五項指導原則:安全、透明、公平、問責和可爭議性/補救。其目的在于避免過早地采取僵化立法來抑制技術發展,從而在保障公眾利益與促進商業應用之間尋求平衡。
2024年4月,英國金融行為監管局(FCA)發布了《人工智能(AI)的最新進展一一政府對人工智能白皮書的進一步回應》,秉持了英國政府部門一貫的做法,即并不對特定技術作強制規定或禁止,而是在遵守現有法律規定的基礎上,著重識別和緩解風險,確保監管措施的合理性。為確保AI的安全和負責任應用,FCA與英格蘭銀行合作進行機器學習調查,深人了解AI在市場的實際部署情況;通過其“監管沙盒”和“數字沙盒”等創新服務,為公司提供在安全環境中測試AI應用的機會;并加強與國內外其他監管機構的合作,共同應對AI帶來的系統性挑戰。
值得注意的是,英國議會正在審議2025年3月提出的《人工智能(監管)法案》草案,該法案提議設立統一的AI管理局,其職能涵蓋統籌監管、監測風險等,明確AI企業的監管原則、AI負責人員和監管沙盒計劃等。它標志著英國的監管框架可能正從完全依賴現有機構向更集中、更具法律約束力的方向演變,以應對AI帶來的系統性挑戰。
全球金融AI監管的經驗啟示與中國政策建議
全球監管實踐的核心特征與啟示
縱觀全球主要經濟體的監管實踐,可為我國金融AI監管體系的完善提供經驗參考。首先,以風險為基礎的分類分級管理已成為主流方法。例如歐盟《人工智能法》構建了清晰的風險等級體系,香港SFC界定“高風險用例”場景,兩者均體現了將監管資源向高風險領域傾斜的思路。其次,“人工監督”更成為各方不可動搖的共同底線,通過確保人的最終控制權來應對技術的“黑箱”風險,這是防范潛在危害、建立公眾信任的關鍵。再者,健全的數據治理與隱私保護是監管框架的普遍基石,歐盟的GDPR、美國的金融數據權利規則以及香港的《個人資料(私隱)條例》等法規,均對數據處理活動提出了嚴格要求。最后,對“可解釋性”的共同追求,即要求金融機構必須能夠證明其AI決策是如何做出的,并能為不利結果提供合乎邏輯的解釋,從而保障消費者的知情權和申訴權。
對中國內地金融AI監管的政策建議
結合國際經驗與國內實際,我國金融AI監管體系的構建可從以下方面深化。首先,應在現有宏觀AI法規基礎上,加快制定一部專門針對金融行業的、以風險為導向的監管辦法。該辦法需清晰界定金融領域不同AI應用場景的風險等級,建議明確風險等級的量化評估指標,并為不同等級的應用設定差異化的準入、測試和審計要求。其次,應強化算法可解釋性與全生命周期的風險治理。監管應強制要求金融機構,特別是針對高風險應用,建立健全的模型風險管理和算法審計體系,同時,探索建立獨立的第三方AI算法審計機制,以確保其決策流程的公平性、透明度和無歧視性。最后,應積極推廣并細化“監管沙盒”等機制,充許機構在風險可控的環境下測試創新應用,這既便于監管機構近距離觀察技術風險,也有助于實現敏捷、適應性的監管。
(岳安欣為清華大學五道口房地產與金融科技研究中心中級研究專員,吳輝航為清華大學五道口金融學院博士后研究員,張曉燕為清華大學五道口金融學院副院長。責任編輯/周茗一)

全球主要經濟體金融AI監管框架對比

資料來源:由作者整理而來