
本文由阿里雲通義點金團隊和蘇州大學聯合完成。
近日,阿里雲通義點金團隊與蘇州大學攜手合作,在金融大語言模型領域推出了突破性的創新成果:DianJin-R1。這款推理增強型金融大模型,融合了先進的技術和全面的資料支援,專為金融任務而設計。

-
論文地址:https://arxiv.org/abs/2504.15716
-
GitHub:https://github.com/aliyun/qwen-dianjin -
Hugging Face:https://huggingface.co/DianJin -
ModelScope:https://modelscope.cn/organization/tongyi_dianjin -
點金官網:https://tongyi.aliyun.com/dianjin
全面開源的 Reasoning 資料集:DianJin-R1 的獨特亮點之一是其全面開源的 Reasoning 資料集——DianJin-R1-Data。該資料集基於通義點金團隊去年在 ACL-2024 上發表的 CFLUE Benchmark 上進行的全面升級,整合了 FinQA 和中國合規檢查(CCC)資料集,為金融推理任務提供了強大的基礎。目前已經開源,旨在支援和推動金融領域的研究和應用。
全面開源的 Financial Reasoning 模型:DianJin-R1-7B 和 DianJin-R1-32B 模型已向公眾全面開放。這些模型透過監督微調(SFT)和強化學習(RL)兩階段精細最佳化,在複雜金融任務中表現卓越。開源的強大模型為行業提供了更廣泛的應用可能性,推動了金融 AI 的創新發展。
基於通義點金平臺的 Multi-Agent System 資料合成:更值得關注的是,我們透過通義點金平臺實現了基於 Multi-Agent System 的資料合成。透過點金平臺,我們構建了資料飛輪和模型最佳化機制,使得單次呼叫效果媲美高計算成本的多智慧體系統。這不僅展現了 DianJin-R1 的出色效能,也展示了我們在模型最佳化和智慧系統整合上的創新能力。
DianJin-R1-7B 以其輕量化引數和高效表現,成功媲美行業標杆模型 QwQ,展現出不凡的競爭力。而 DianJin-R1-32B 更是超越了所有參評模型,包括 DeepSeek-R1,榮膺效能測試的第一名,彰顯了我們團隊在人工智慧和金融科技領域的卓越創新能力。
我們的評測基準不同於傳統標準,DianJin-R1 不僅嚴謹測試了金融領域的三大核心任務,還特別引入了兩個通用領域的資料集進行綜合評估。這一全新方法不僅證明了 DianJin-R1 在專業金融領域的顯著提升,也展示了其在通用任務中的表現。
DianJin-R1 的釋出,不僅推動了金融科技的智慧化程序,也進一步鞏固了我們在金融大模型領域的領先地位,讓我們期待 DianJin-R1 能在更多領域釋放其強勁潛能。
背景
近年來,大型語言模型(LLMs)的進步引發了增強其推理能力的濃厚興趣。像 OpenAI o1、DeepSeek R1 和 QwQ 等模型已經顯示出,透過顯式建模推理過程,可以顯著提高在複雜任務上的表現。
儘管取得了這些改進,最近在金融基準上的評估揭示出,由於需要領域特定的知識、精準的數值推理以及嚴格遵循監管要求,金融領域的推理仍然特別具有挑戰性。有效應對這些挑戰需要專門的推理策略,能夠處理結構化的金融資訊和開放性問題解決。
為此,我們推出了 DianJin-R1,這是一種融合推理增強監督和強化學習來提高金融推理任務表現的 LLM。
DianJin-R1-Data 構建
首先透過三個主要來源構建了高質量的推理資料集 DianJin-R1-Data:CFLUE、FinQA 以及我們的專有合規資料集,用於中國合規檢查(CCC)任務。
-
CFLUE:包含了 38,638 道來自 15 種金融資格模擬考試的多項選擇題,涵蓋不同科目和難度。透過三步過濾流程,我們篩選了高質量問題:首先,移除少於 15 個詞的簡單題;其次,剔除能被所有較小語言模型正確回答的題目,以確保需要更深的推理能力;最後,利用 GPT-4o 去除含糊不清的問題,確保每個題目清晰明確。最終得到的題目集不僅有明確的正確答案,還附有詳細解釋,有助於評估模型的金融推理能力。
-
FinQA:FinQA 是一個開源的英文基準資料集,包含 8,281 個金融問答對,這些問答對需要對財務報告進行數值推理。在我們的研究中,我們採用了與 CFLUE 資料集相同的長度和難度過濾條件,以確保質量和複雜性。因此,我們精心整理出了一個高質量的問答對子集,非常適合在英語語境中評估金融推理能力。
-
CCC(基於 Multi-Agent System 資料合成):聚焦於需要多步驟邏輯的複雜合規場景。為確保推理質量,我們利用通義點金平臺 Multi-Agent System 進行了 Reasoning 資料合成,並採用了 GPT-4o 的驗證過程,檢查生成的答案、推理步驟和參考解釋之間的對齊。這一過程產生了一套可靠的推理增強和非推理樣本,支援更穩健的模型訓練。


基於 Multi-Agent 系統的資料合成樣例
DianJin-R1 兩階段訓練
對於監督微調(SFT),我們基於 Qwen2.5-7B-Instruct 和 Qwen2.5-32B-Instruct 訓練了 DianJin-R1-7B 和 DianJin-R1-32B,生成的推理過程和最終答案採用結構化輸出格式。為了進一步提高推理質量,我們應用了群體相對政策最佳化(GRPO),這是一種強化學習演算法,引入了兩個獎勵訊號:一種格式獎勵以鼓勵結構化輸出,還有一種準確性獎勵以促進答案的正確性。這些機制引導模型生成連貫、可驗證的推理路徑和可靠的答案。

實驗結果
我們對 DianJin-R1 模型以及其他通用領域的推理和非推理模型進行了評估,評估範圍包括 CFLUE、FinQA、CCC、MATH-500 和 GPQA-Diamond 等多樣化的基準。結果表明,增強推理的模型在金融領域始終優於其對應的非推理模型。特別是,單獨在 CFLUE 上進行訓練在所有任務中都取得了顯著提升,結合所有資料集進一步增強了效能。我們的分析還強調了強化學習的益處,尤其當獎勵訊號與任務領域對齊時。
最後,我們在 CCC 資料集上展示了這一方法的實際應用,採用 LLMs 構建的 Multi-Agent 系統進行基於條件的合規檢查。透過為工作流中的每個決策節點分配專門的代理,該系統有效地整合了中間推理步驟,最終做出合規判斷。

結論
綜上所述,DianJin-R1 透過結合高質量監督、結構化推理生成和基於獎勵的強化學習改進,提供了一種可擴充套件且有效的策略來增強 LLMs 中的金融推理能力。
© THE END
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]