作者|summer
Yoky
編輯|王兆洋
3月1日,在連續五天開源日之後,DeepSeek又來了一個“One More Thing”,並扔下一枚“核彈”——在分享了其基礎設施裡極為關鍵的EP(多專家並行)元件程式碼的同時,也首次公開了它的利潤率。根據DeepSeek公開的資訊計算,它理論上一天的總收入為562027美元,成本利潤率高達545%。
這是DeepSeek對它的“盈利能力”的最直接的一次回應。自從DeepSeek R1成了現象級的話題後,對它模型能力的質疑逐漸消失,但對它的高性價比和模型背後的成本,以及由此帶來的“燒錢”問題,依然有不少質疑。有矽谷從業者稱,這次公佈的資料會再次讓英偉達們徹夜難眠,讓從業者開始新的反思。
而在國內AI領域,這次重要的開源帶來的影響則以另一種更加劇烈的形式呈現了出來——它引發了一場兩家中國AI Infra公司之間的“血案”。
事件的兩個主角,一方是尤洋及其創辦的潞晨科技,另一方是袁進輝及其創立的矽基流動。
先是DeepSeek的這篇技術分享在知乎釋出後,不少使用者開始@尤洋,讓他點評。這是因為此前在DeepSeek被各家服務商爭相部署的熱潮裡,他是最積極的反對聲音之一。此前尤洋曾在社交平臺上計算過部署DeepSeek的成本和收益,並得出結論,部署DeepSeek並提供服務的AI Infra 公司,都是在虧錢,並且是“月虧四億”。
他提到:短期內,中國的MaaS(模型即服務)模式可能是最差的商業模式,大廠相互卷低價和免費,滿血版DeepSeek R1每百萬token(輸出)只收16元。如果每日輸出1000億token,基於DeepSeek的服務每月的機器成本是4.5億元,虧損4億元;用AMD晶片月收入4500萬元,月機器成本2.7億元,這意味著虧損也超過2億元。

此次DeepSeek的開源周並非要回應某個具體質疑,但其公佈的利潤率之高,顯然與這個計算完全相反。人們首先想到了尤洋。尤洋也在四個小時後發文回應,稱DeepSeek官方這一計算方法不能用於MaaS盈虧評估。在論述中,他延續了“基於大模型的Mass服務不賺錢”的立場。
緊接著,他的潞晨科技宣佈將在一週後停供DeepSeek API。

而另一家AI Infra公司矽基流動的創始人袁進輝也在討論中被很多人提到。在DeepSeek春節期間徹底出圈走紅後,矽基流動是國內最早一批行動起來提供部署服務,承接住DeepSeek帶來的需求的公司之一。而流量之大,讓這家公司不僅正式出圈,也在過程中出現一些爭議,包括它此前提供的推薦“反傭”式的優惠被快速薅羊毛,收費服務與免費服務的調整等。但本質上,袁進輝和矽基流動是相信快速跟進並提供DeepSeek的MaaS服務是此刻最正確的決策。
因此尤洋當初的批評也就指向了這家同行公司。彼時,袁進輝與尤洋就已經有過一輪“交鋒”,前者認為虧損 4億的計算方法有誤,因為使用了錯誤的架構進行估計。而尤洋直接回應:“弄400臺機器,看看每日能否輸出1000億滿血DeepSeek R1 token,讓我看看。”
而這次DeepSeek官方直接“讓人看到”了這是可行的。袁進輝也在DeepSeek文章釋出一小時後就火速評論道,“又顛覆了很多人的認知”,他認為“很多供應商做不到這個水平”,"MaaS能否成功,關鍵在於技術實力和使用者基礎。"

“誰做不到,誰就是技不如人”的含義,盡在不言中。
而緊接著更戲劇化的隔空對決開始了。尤洋隨後直接發了一篇直接批評矽基流動這家公司的文章。《坑人的矽基流動》(現已刪除)一文將炮火從技術爭論轉向直接對對方的攻擊。此時話題核心也從DeepSeek的利潤,轉向了兩家公司之間的恩怨情仇。袁進輝也第一時間回應,一方面強調了矽基流動一系列動作背後的思路,另一方面直接抖出“潞晨程式碼抄襲”的舊案。但這兩個顯得都有些衝動的爭論,後都已刪除。
這些爭論也在知乎等技術人員聚集的平臺上引發了廣泛的延展討論,AI Infra公司難得的自己變成了行業熱議話題的主角。
在這場爭論中,到底如何計算,以及由不同計算方法而得出的AI Infra是否是鉅虧的生意,是第一個核心議題。
在上週的連續五天,DeepSeek剛剛釋出了五項核心技術,涵蓋計算最佳化、通訊加速和儲存架構等領域,幾乎將自己的核心AI Infra技術全部公佈開來,大幅提升了大模型訓推硬體效率。而在DeepSeek的這篇《DeepSeek-V3/R1 推理系統概覽》文章裡,又進一步揭示了這些技術和部分是如何組裝聯絡在一起的,相當於一個串聯式的總結內容。據介紹,DeepSeek使用了大規模跨節點專家並行(EP)的方法,並透過一系列技術策略,最大程度地優化了大模型推理系統,實現了驚人的效能和效率。
在文章的末尾,DeepSeek以理論成本和利潤計算作為句號,為這次以開源降本為核心目的的開源周,畫下了一個完美的句號:假定GPU租賃成本為2美元/小時,總成本為87072美元/天;如果所有tokens全部按照DeepSeek R1的定價計算,理論上一天的總收入為562027美元/天,成本利潤率為545%。
其中,DeepSeek的計算方式如下:

這裡DeepSeek說的很清楚:
一成本只核算了等量租用GPU的費用,硬碟、儲存、記憶體CPU、人力運維都被沒有被計算;
二收入卻將APP、網頁、API消耗的所有Token(to C和to B的總消耗量)加在了一起,均按照API(to B)的價格計算,理論上一天成本利潤率是545%。
事實上,這的確是一個典型的量化風格的“最大可能性”推算,我們都知道,DeepSeek的APP和網頁是完全免費的,同時也並不保證流暢的使用者體驗。但是假如DeepSeek向用戶按照API的價格收費,他的收入潛力可以達到上述金額。
也就是說,DeepSeek計算的是“我作為一個大模型廠商,我要是想,我可以賺到這麼錢。”
所以,從這個角度來看,後來尤洋認為“這篇文章中的資料對計算MaaS成本沒有任何參考價值”,也不無道理。
畢竟MaaS是典型的企業服務,而企業的第一準求並不是效能而是穩定,而為了保證穩定性,雲廠商的特點就是彈性伸縮、按需取用,所以必須準備足夠大冗餘。
DeepSeek算的是一筆“過去的賬”,而MaaS平臺如果要保證未來的穩定,尤洋也給出了預備比例,必須時時刻刻有5倍的機器專門為了滿足客戶的需求,這裡我們需要考慮一旦部署的叢集過大、使用效率、運費、用電的成本將指數級的上升。

尤其在如今各家MaaS平臺使用者的使用數量都稀少,沒有辦法做到削峰填谷資源高效利用的前提下,MaaS廠商是很有可能虧本的。
總結一下,理論上(非常理想化,一人吃飽全家不餓的前提下),DeepSeek的利潤率可以達到,但考慮到實際的使用情況和大規模之後的最佳化成本,就很有可能虧錢了。
那麼問題又來了,為什麼部署DeepSeek虧本,而DeepSeek自己的推理卻賺錢?
這個問題的答案藏在袁進輝的回覆中:現在很多供應商做不到這個水平,主要是V3/R1架構和其他主流模型的差別太大了,MaaS廠商需要按照DeepSeek的報告調,才能達到最好的效率。

這裡需要補充一個前提是,過去的雲廠商所建立的IaaS層是以CPU為核心的伺服器叢集,而高效的推理需要以GPU為核心完成平行計算。原本的MaaS用來生成問題不大,但R1/V3所採用的稀疏架構,對雲來說是一個新的挑戰,需要特調以進行適配。
MaaS廠商們低估了DeepSeek模型架構的複雜性,用老一套來支援新模型,顯然出現了效能不足的陣痛。而大模型一體機由於可以直接改造到硬體層,能夠根據DeepSeek來專門定製型號,因此比MaaS提供的模型的效能和穩定性都更高,近期,矽基流動也與華為崑崙展開了合作,推出DeepSeek一體機,嘗試解決推理效能不足的問題。
但DeepSeek不僅深諳自己的模型架構,做了軟體演算法層的調優,甚至將算力壓縮到了最佳化晶片層,以“榨乾”每一滴效能。
幸而在剛剛過去的開源周裡,DeepSeek開源瞭如何提高推理效率的5個模組,理論上只要跟著做,接下來其他MaaS廠商也能復現出來。
這些爭論背後,AI Infra公司們再次被大眾注意到。作為提供底層基礎設施服務的公司,它們此前從來不是外界關注的焦點,但DeepSeek後,由於海量的需求無法由DeepSeek自己來滿足,AI Infra公司得到了一次直接面向海量廣泛使用者的機會,也因此出圈。
但隨著DeepSeek在它自己AI Infra研究上的連續開源,很多人意識到,獨立的AI Infra公司似乎再次遇到了嚴重的“存在感危機”。
當DeepSeek不僅造出了最強的模型,同時也有最強的基礎設施技術時,它似乎就變成了一個新的規則制定者:如果獨立的公司想要提供部署DeepSeek模型的AI Infra生意,你就要使用DeepSeek的技術方案,不僅需要捲到極致,來快速復現DeepSeek做出的東西,還要在此基礎上,去做些DeepSeek不做的諸如幫助開發者、幫助企業一對一的做落地服務等,進而來承載它服務不到,或目前沒有作為重點去服務的使用者們,從中儘可能的做大使用者規模,來攤薄成本,讓自己的利潤率也無限接近DeepSeek官方算出來的那天花板的比例,這才有可能“存活”下去。
這種“DeepSeek吃肉,其他大家比賽誰能做喝到最多湯的那一個”的格局是否就是AI Infra的未來?這可能才是這場爭論背後對行業真正重要的話題。
袁進輝也就此話題回覆了矽星人,他認為這樣的未來是否會發生,關鍵的一個變數就是開源。“如果模型一家獨大,而模型廠商又想吃這塊蛋糕,的確其它各方就有壓力,尤其如果模型是閉源的,就像OpenAI 這樣,就會更是如此。”他說。
“但當模型開源後,就要看外界有沒有機會把infra或晶片的能力做的超過模型廠。”
而另一個變數則是這個劇烈變革的技術週期本身,它事實上讓曾經分工比較明晰的不同技術角色的公司,競爭界限變得模糊。從DeepSeek的部署熱潮裡就能體會到——從AI Infra公司,到模型公司再到晶片公司,都參與了進來,提供著相似的服務,搶奪同樣的市場。
“今天模型,晶片,infra 其實都是半成品,彼此的關係是又合作又競爭,最終大家都要角逐類似cloud的位置。”袁進輝對矽星人說。
在這場競爭裡,AI Infra不是最有優勢的那一個,但另一方面,它事實上也擁有了一次從沒有過的機會,從一個不太被注意的角落終於變成了焦點。在今天這個節點,是否壓上“身家性命”和對自己技術工程能力的信心去賭一把未來“下一代雲”的機會,會變成區分這些公司的關鍵決定。
矽星人也向尤洋提出關於AI Infra的未來走向的問題,他回覆稱,目前先不接受訪談了。

