金融AI的挑戰與破題

AI正在重塑金融行業,在提升效率的同時也在重新定義金融服務的邊界和形態。人工智慧可能為金融行業帶來哪些突破性變革?目前AI在金融領域普遍應用於哪些場景?主要面臨哪些方面的挑戰?如何平衡好金融業AI應用的效率與安全,推動監管部門、金融機構、科技公司等多方共同打造可信可控的發展環境?
圍繞上述問題,中國金融四十人論壇(CF40)近期舉行內部研討會“AI在金融行業的應用”。與會專家認為,隨著DeepSeek等大模型技術的突破,人工智慧已從工具化應用向基礎設施轉型,金融行業正從邊緣性應用到全面融合轉變。
在技術層面,人工智慧正經歷關鍵突破——對非結構化資料處理能力提升、模型演算法效率大幅提高、從決定式向生成式AI轉變。這使AI能夠跨領域、跨場景解決更為複雜的任務。
然而,這一程序面臨技術侷限、金融場景高標準要求、組織轉型與算力挑戰等多重障礙。大模型在金融場景下的幻覺率高達30%,可解釋性不足,專業知識深度有限,這些都制約了在核心金融業務中的應用。同時,金融業務對演算法輸出的穩定性與精準性要求遠高於一般領域,組織架構和業務流程也需要全面重構以適應AI時代。
針對這些挑戰,與會專家建議,監管應秉持包容審慎原則,既鼓勵創新又確保風險可控。金融機構需建立完善的AI管理架構,確保人類對關鍵流程的掌控,防範AI普及帶來的行為同質化風險。政策建議包括加強金融專用算力基礎設施建設、建立統一評測標準體系、推動構建金融科技創新生態圈、培養複合型AI金融人才,以及制定差異化的監管沙盒機制,促進AI技術在金融行業的安全創新應用。
*本文隸屬CF40成果簡報系列,執筆人為中國金融四十人研究院廉薇。

大模型應用在金融行業的現狀
與會專家提出,人工智慧技術本身正經歷從量變到質變的突破,體現為三個方面的飛躍。一是對非結構化資料的處理能力顯著提升,深度學習技術使AI在處理文字、語音、影像、影片等複雜資料上取得重大進展。二是模型演算法效率大幅提高,採用Transformer架構的大模型透過遵循規模法則實現效能飛躍,泛化能力、上下文理解能力和推理能力都出現質的飛躍。三是從決定式AI向生成式AI轉變,模型不再僅根據歷史資料尋找規律判斷新樣本,而是能總結規律生成新的資料樣本,極大拓展了應用場景,提升與人類的互動能力。
有專家認為,DeepSeek等國產大模型的進步有助於中國AI領域實現技術平權。複合創新代替了單一創新,從簡單追求模型尺寸轉向模型尺寸、算力和資料的綜合最佳化。技術正規化從預訓練階段的規模法則轉向測試時規模法則,更注重應用和工程問題的解決。同時,開源大模型已確立主導地位,不再侷限於少數閉源商業模型,大幅降低了各行業應用AI的門檻。

AI金融行業中的應用體現出以下主要特點

第一,金融機構透過標準化應用正規化實現了大模型在多領域業務場景中的規模化落地。1+X應用正規化成為主流模式,其中智慧中樞作為金融專用智慧體,負責任務拆解、規劃、執行和反饋,賦能知識檢索、資料分析、文件編寫等基礎能力模組。這種正規化已在網點諮詢、信貸管理和市場交易等領域實現廣泛應用,幫助金融機構提高服務效率和決策質量。
第二,面向不同使用者群體的智慧化應用產品顯著提升了金融業務效率。面向消費者的智慧對話系統可以幫助消費者解決產品分析、行情解讀等高頻需求;面向理財師和銷售人員的智慧助手系統可自動生成專業話術,大大展業效率;面向專業分析師的智慧投研工具能節省大量前期工作時間,使專家更專注於核心分析任務。這些產品透過技術增強和專家對齊機制,有效克服了大模型在金融專業領域的不足。
第三,企業級AI應用框架已成為金融機構實現數字化轉型的戰略基礎領先金融機構構建了一站式模型服務平臺和完整應用體系,包括算力雲支撐、資料訓練體系、平臺化服務和場景化應用多個層次。這一框架實現了算力、資料和專家知識的高效共享,降低了AI應用門檻,使非IT專業人員也能透過自助工具箱完成複雜工作流和資料分析,推動金融業務向智慧化方向全面轉型。

大模型應用在金融行業的未來發展趨勢
大模型正從工具化應用向通用智慧基礎設施轉型。與傳統AI工具不同,大模型自帶知識與邏輯能力,未來將成為金融機構的知識型基礎設施。這種基礎設施不僅是技術工具,更是疊加人類知識和企業內部專業知識的智慧平臺,能夠直接賦能業務,重塑金融服務模式。有專家預測,這將推動金融服務從貨架式超市私人定製模式轉變,重構客戶互動過程
算力需求將遵循傑文斯效應持續攀升。傑文斯效應指當某種資源利用效率提高時,其總體消耗量非但不會減少,反而可能增加。隨著DeepSeek等技術的突破帶來成本效能最佳化,各行業對AI的應用需求將快速增長,進而推高算力總需求。與過去不同,未來算力需求重心將從訓練階段轉向推理階段,金融機構需要構建更靈活的算力架構以滿足業務互動過程中的算力需求。
人機協同將成為金融機構的常態。金融機構內部將形成AI與人類專家緊密協作的新型組織文化,構建松樹型組織結構,實現人與智慧的優勢互補。許多銀行正按照一崗一助手,一人一分身,一客一管家理念構建企業級AI勞動力體系。這種協同模式將使數字員工負責處理邏輯性的理性思維工作,而人類專家則專注於更復雜和情感性的任務。
金融核心系統與開發模式將面臨重構。隨著知識驅動型AI的普及,金融機構原有的以資料和工作流程為基礎的資訊系統將轉向以知識驅動的智慧化系統。開發模式也將從功能模組堆砌轉變為構建數字專家,理解客戶需求並生成處理邏輯鏈,進而呼叫基礎金融服務。這一變革需要金融機構從底層重新思考IT架構、資料流轉和業務流程設計。
監管法規將逐步完善,為行業發展提供製度保障。全國人大常委會工作報告顯示,將圍繞人工智慧、數字經濟、大資料等新興領域加強相關立法研究。金融監管也將更加註重平衡創新與風險,建立更加系統化、標準化的大模型評測體系,為金融行業應用AI提供明確指引。

大模型應用面臨的主要技術挑戰
大模型的幻覺問題是金融應用面臨的首要技術障礙。幻覺並非模型缺陷而是其技術特徵,源於模型預測下一個token機率的工作機制。某科技集團評測發現,有的大模型在金融場景下的幻覺率高達30%,遠超一般認知。幻覺問題在金融場景特別突出,因為專業金融服務不能容忍錯誤資訊,這限制了大模型在直接客戶服務中的應用。
模型的可解釋性不足制約了在核心金融業務中的應用。目前,模型的決策過程仍是黑盒,難以理解模型如何得出特定結論。金融業務特別是風控、授信、投資等核心領域,對決策透明度和可解釋性有嚴格要求,因此傳統可解釋AI模型在這些領域仍占主導地位。思維鏈技術雖有進步,但仍未實現真正的推導鏈和因果關係鏈,難以滿足金融服務中的可解釋性需求。
知識缺失與專業深度不足限制了金融場景的專業性。通用大模型在訓練過程中金融類知識配比僅佔3-5%,許多專業金融知識未被充分覆蓋。這導致模型在處理複雜金融問題時專業性不足,雖然表現出專業感,但實際內容可能漏洞百出。金融機構需要構建完備的金融資料庫,收集金融專家的分析正規化,進行針對性增強訓練,彌補模型在金融專業知識方面的不足。
大模型處理能力邊界影響實際應用價值。當前模型雖然在自然語言理解和生成方面表現出色,但在處理超長文字、複雜推理和特定領域深度分析上仍有侷限。一些金融場景如盡職調查報告分析、複雜合同審閱等需要處理大量文件並提取關鍵資訊,這些任務對模型的處理能力提出了挑戰。此外,金融機構發現文字推理能力並未得到顯著提升,即使最新模型仍主要改進了程式碼生成和數字計算能力,而這些在金融實際應用中使用較少。
多模態融合與資料安全存在技術矛盾。金融場景往往需要處理影像(如票據、合同掃描件)、表格(財務報表)和文字等多種形式資料,要求模型具備強大的跨模態理解能力。同時,金融資料安全要求極高,如何在確保資料安全前提下實現多種資料形式的有效融合,是技術上的難點。此外,模型訓練和使用過程中的資料保護也面臨挑戰,需要在開放性和安全性之間找到平衡。
算力約束與應用需求之間的矛盾日益突出。雖然DeepSeek等技術降低了算力門檻,但隨著應用場景增多,算力需求仍呈上升趨勢。特別是推理階段的算力需求將大幅增加,對金融機構的基礎設施提出新挑戰。同時,國際算力限制使金融機構面臨困境,一方面需滿足監管對國產化的要求,另一方面國產算力在適配大模型應用時存在效率和相容性問題。

金融行業AI應用的監管關注重點
金融業務場景對AI輸出的穩定性與精準性要求遠高於一般領域。金融業務如資產賬戶、負債資訊、到期金額等核心資訊,必須確保在不同時間查詢的答案完全一致。這種要求與內容創作或推薦等場景有本質不同,對模型的穩定性提出更高要求。監管需要關注不同金融場景對AI應用的不同需求特點,區分對待,精準施策。
AI應用應遵循場景與技術匹配原則。不同AI技術有不同特徵和優缺點,不同金融場景的需求也各不相同。監管應引導金融機構將合適的技術應用到合適的場景,建立KYA(Know Your Algorithm)機制,瞭解各種演算法的特徵、優缺點和適用範圍。對於高風險業務場景,應要求更高的模型精準度、可解釋性和人工干預機制;對於低風險輔助場景,可採取更靈活的應用策略。
關鍵業務流程的人工干預機制是確保安全的核心。隨著AI能力提升,可能接管越來越多原本由人類完成的複雜任務。監管應要求在關鍵業務流程的重要節點設立有效人工干預機制,由具備相應資質的人員進行持續監測和評估。人工干預的頻度和強度應與業務場景重要性成正比,越是關鍵場景,人類管控能力應越強。
防範對AI的過度依賴導致的系統性風險。2008年金融危機中,金融機構對評級機構的盲目信任是重要誘因。如今,隨著對AI效能越來越滿意,人類可能忽略對模型假設、資料完整性和輸出合理性的檢驗。監管應鼓勵金融機構建立激勵約束機制,確保有人類員工對AI輸出結果進行檢測和挑戰,將業務流程的最終責任落實到人。
警惕AI普及帶來的行為同質化風險。如果眾多金融機構依賴相似的大模型做決策,可能導致市場行為的同質化,增加金融系統的脆弱性。健康的金融市場需要多樣化的市場主體基於不同風險偏好和判斷進行交易,形成有效價格發現。監管應關注並防範因AI廣泛應用可能導致的系統性風險集聚。
金融風險在AI技術條件下的積累可能加速。網際網路金融時代已經顯示,技術條件下風險積累速度可能大幅提升,如e租寶在一年半時間內非法集資700多億元。AI技術可能進一步加快這一趨勢,監管需要適應更快的風險積累節奏,提升早期風險識別和干預能力。
兼顧資料安全與AI創新的平衡點。金融資料安全和隱私保護是監管的核心關注點。AI應用需要大量資料訓練和應用,這與資料安全要求存在張力。監管應建立合理的資料分級分類機制,對不同型別資料採取差異化保護措施,在確保關鍵資料安全的同時,為AI創新留出空間。

政策建議
第一,構建科學有效的AI管理架構和流程。金融機構應將AI管理納入整體風險管理框架,建立健全包括模型開發、驗證、部署、監控和退出等全生命週期的管理機制。特別是業務場景與AI技術匹配性評估機制,確保針對不同業務性質選擇適當技術方案。同時進行業務流程再造,確保AI賦能的同時維持關鍵流程可控性,明確AI應用的責任邊界和問責機制。
第二,確保人類對關鍵業務流程的有效掌控。金融機構應在關鍵業務環節建立強制性人工稽核機制,特別是涉及資金劃轉、信貸決策、投資建議等高風險領域。建立人機博弈激勵機制,鼓勵人類專家挑戰AI決策,及時發現潛在風險。同時建立AI決策審計追溯系統,記錄決策過程和人工干預情況,確保問題可追溯、責任可落實。
第三,加強金融專用算力基礎設施建設。政府應支援金融行業建設專用AI算力中心,滿足行業特殊需求。加快國產GPU及相關硬體入圍安可名單程序,簡化採購程式,解決金融機構算力採購難題。鼓勵開發基於通用架構的算力底座,提高硬體適應性和長期價值。支援研發低精度高效率的推理演算法,提升國產硬體在AI推理中的表現,實現PD分離(推理和訓練分離)最佳化方案。
第四,建立統一的金融AI應用評測標準體系。監管部門應牽頭建立金融行業AI應用測評體系,明確不同應用場景的安全邊界和效能要求。制定標準化測試資料集和評測方法,提高評測結果的可比性和權威性。簡化明確大模型備案流程,提高備案過程的可預期性和透明度,區分不同風險級別應用採取差異化備案要求,鼓勵低風險領域先行試點。
第五,推動構建金融科技創新生態圈。鼓勵大型金融機構將成熟AI應用方案向中小金融機構輸出,縮小數字鴻溝。推動金融機構與科技企業深度合作,透過創貸聯動模式,為創新型科技企業提供不僅是資金支援,還包括場景驗證的機會。建立行業共享的AI測試沙盒環境,允許在受控條件下測試創新應用。設立金融AI聯合實驗室,促進產學研金融機構多方協同,加速科研成果轉化和應用落地。
第六,培養複合型AI金融人才。鼓勵高校開設AI金融交叉學科專業,培養既懂金融又懂技術的複合型人才。支援金融機構建立AI人才培養梯隊,設定專業技術通道,吸引和留住高階AI人才。建立金融AI人才評價標準和認證體系,引導人才培養方向。設立金融AI卓越中心,集聚頂尖人才和資源,解決行業共性難題。
第七,制定差異化的監管沙盒機制。根據不同型別金融機構的特點和風險承受能力,設計差異化監管沙盒機制。為大型金融機構設定更寬鬆的創新條件,同時要求更嚴格的風險控制;對中小金融機構提供更多技術支援和指導,降低創新門檻。建立創新失敗容錯機制,在風險可控前提下允許試錯和調整,激發金融科技創新活力。

我們的原創研究產品序列“CF40研究"已在微信小程式端正式上線。訂閱“CF40研究”,您將暢享全年無間斷原創報告、視聽服務、精品圖書贈閱、會員專享主題活動等線上線下超值權益組合。加入我們,開啟這場新知之旅吧!  

版面編輯:李俊虎責任編輯:李俊虎視覺:李盼 東子監製:李俊虎 潘潘


相關文章