全網獨家!DeepSeek模型的成本利潤率到底有多高?官方下場公佈細節

點選上方卡片關注👆
DeepSeek 在知乎首次公佈模型推理系統最佳化細節,並披露成本利潤率關鍵資訊。
R1 模型是如何做到在控制成本的情況下做到高收益的?這篇官方文章給出了關鍵的資料資訊。
DeepSeek-V3 / R1 推理系統概覽
|答主:DeepSeek
DeepSeek-V3 / R1 推理系統的最佳化目標是:更大的吞吐,更低的延遲。
為了實現這兩個目標,我們的方案是使用大規模跨節點專家並行(Expert Parallelism / EP)。首先 EP 使得 batch size 大大增加,從而提高 GPU 矩陣乘法的效率,提高吞吐。其次 EP 使得專家分散在不同的 GPU 上,每個 GPU 只需要計算很少的專家(因此更少的訪存需求),從而降低延遲。
但 EP 同時也增加了系統的複雜性。複雜性主要體現在兩個方面:
  1. EP 引入跨節點的傳輸。為了最佳化吞吐,需要設計合適的計算流程使得傳輸和計算可以同步進行。
  2. EP 涉及多個節點,因此天然需要 Data Parallelism(DP),不同的 DP 之間需要進行負載均衡。
因此,本文的主要內容是如何使用 EP 增大 batch size,如何隱藏傳輸的耗時,如何進行負載均衡。
大規模跨節點專家並行(Expert Parallelism / EP)
由於 DeepSeek-V3 / R1 的專家數量眾多,並且每層 256 個專家中僅啟用其中 8 個。模型的高度稀疏性決定了我們必須採用很大的 overall batch size,才能給每個專家提供足夠的 expert batch size,從而實現更大的吞吐、更低的延時。需要大規模跨節點專家並行(Expert Parallelism / EP)。
我們採用多機多卡間的專家並行策略來達到以下目的:
  • Prefill:路由專家 EP32、MLA 和共享專家 DP32,一個部署單元是 4 節點,32 個冗餘路由專家,每張卡 9 個路由專家和 1 個共享專家
  • Decode路由專家 EP144、MLA 和共享專家 DP144,一個部署單元是 18 節點,32 個冗餘路由專家,每張卡 2 個路由專家和 1 個共享專家
計算通訊重疊
多機多卡的專家並行會引入比較大的通訊開銷,所以我們使用了雙 batch 重疊來掩蓋通訊開銷,提高整體吞吐。
對於 prefill 階段,兩個 batch 的計算和通訊交錯進行,一個 batch 在進行計算的時候可以去掩蓋另一個 batch 的通訊開銷;
Prefill 階段的雙 batch 重疊
對於 decode 階段,不同階段的執行時間有所差別,所以我們把 attention 部分拆成了兩個 stage,共計 5 個 stage 的流水線來實現計算和通訊的重疊。
Decode 階段的雙 batch 重疊
儘可能地負載均衡
由於採用了很大規模的並行(包括資料並行和專家並行),如果某個 GPU 的計算或通訊負載過重,將成為效能瓶頸,拖慢整個系統;同時其他 GPU 因為等待而空轉,造成整體利用率下降。因此我們需要儘可能地為每個 GPU 分配均衡的計算負載、通訊負載。
1. Prefill Load Balancer
    1)核心問題:不同資料並行(DP)例項上的請求個數、長度不同,導致 core-attention 計算量、dispatch 傳送量也不同
    2)最佳化目標:各 GPU 的計算量儘量相同(core-attention 計算負載均衡)、輸入的 token 數量也儘量相同(dispatch 傳送量負載均衡),避免部分 GPU 處理時間過長
2. Decode Load Balancer
    1)核心問題:不同資料並行(DP)例項上的請求數量、長度不同,導致 core-attention 計算量(與 KVCache 佔用量相關)、dispatch 傳送量不同
    2)最佳化目標:各 GPU 的 KVCache 佔用量儘量相同(core-attention 計算負載均衡)、請求數量儘量相同(dispatch 傳送量負載均衡)
3. Expert-Parallel Load Balancer
    1)核心問題:對於給定 MoE 模型,存在一些天然的高負載專家(expert),導致不同 GPU 的專家計算負載不均衡
    2)最佳化目標:每個 GPU 上的專家計算量均衡(即最小化所有 GPU 的 dispatch 接收量的最大值)
參考架構圖
線上系統的實際統計資料
DeepSeek V3 和 R1 的所有服務均使用 H800 GPU,使用和訓練一致的精度,即矩陣計算和 dispatch 傳輸採用和訓練一致的 FP8 格式,core-attention 計算和 combine 傳輸採用和訓練一致的 BF16,最大程度保證了服務效果。
另外,由於白天的服務負荷高,晚上的服務負荷低,因此我們實現了一套機制,在白天負荷高的時候,用所有節點部署推理服務。晚上負荷低的時候,減少推理節點,以用來做研究和訓練。在最近的 24 小時裡(北京時間 2025/02/27 12:00 至 2025/02/28 12:00),DeepSeek V3 和 R1 推理服務佔用節點總和,峰值佔用為 278 個節點,平均佔用 226.75 個節點(每個節點為 8 個 H800 GPU)。假定 GPU 租賃成本為 2 美金/小時,總成本為 $87,072/天。
在 24 小時統計時段內,DeepSeek V3 和 R1:
  • 輸入 token 總數為 608B,其中 342B tokens(56.3%)命中 KVCache 硬碟快取。
  • 輸出 token 總數為 168B。平均輸出速率為 20~22 tps,平均每輸出一個 token 的 KVCache 長度是 4989。
  • 平均每臺 H800 的吞吐量為:對於 prefill 任務,輸入吞吐約 73.7k tokens/s(含快取命中);對於 decode 任務,輸出吞吐約 14.8k tokens/s。
以上統計包括了網頁、APP 和 API 的所有負載。如果所有 tokens 全部按照 DeepSeek R1 的定價[1]計算,理論上一天的總收入為 $562,027,成本利潤率 545%。
當然我們實際上沒有這麼多收入,因為 V3 的定價更低,同時收費服務只佔了一部分,另外夜間還會有折扣。

參考

1.^DeepSeek R1 的定價:$0.14 / 百萬輸入 tokens (快取命中),$0.55 / 百萬輸入 tokens (快取未命中),$2.19 / 百萬輸出 tokens。

DeepSeek 公佈模型推理成本利潤細節,透露了哪些關鍵資訊?
DeepSeek 官方測算模型成本利潤率為 545%,這個數字意味著什麼?
對 AI 從業者來說,DeepSeek 的推理系統概述文有哪些經驗值得借鑑?
歡迎大家點選【閱讀原文】參與答題討論~

相關文章