


作者:李廣密
編輯:penny,Siqi

從 24Q3 開始我們就一直在講 AI 的下半場,雖然 OpenAI o1 提出了 RL 敘事,但因為各種原因沒有破圈,DeepSeek R1 解了 RL 的謎題,推進整個行業進入了新正規化,真正進入智慧下半場。
市場上關於 DeepSeek 是什麼、為什麼的討論已經很多了,接下來更有價值討論是 AI race 要怎麼 play ?把過去半個月的思考總結了一下,希望成為探索下半場的 road map,每隔一段時間來複盤。也列出了幾個最好奇的問題,歡迎填寫問卷一起交換想法,我們會圍繞下一個智慧突破的 Aha moment 組織一場小範圍討論會:
•下一個智慧突破的 Aha moment 會從哪出現?
•如果你有充裕的探索資源,你會把探索資源投入在什麼方向上?
•比如下一代 Transformer 架構、合成數據的突破、Online Learning 更高效率的學習方式,你會有哪些 Bet?
Insight 01
DeepSeek 超越 OpenAI 了嗎?
DeepSeek 超越了 Meta Llama 毫無疑問,但相比 OpenAI、Anthropic 和 Google 這些第一梯隊 players 還有距離,比如 Gemini 2.0 Flash 成本比 DeepSeek 更低,能力也很強,且全模態,外界低估了 Gemini 2.0 為代表的第一梯隊的能力,只是沒有開源而獲得這麼炸裂轟動性的效果。
DeepSeek 很讓人興奮,但還不能稱作正規化級創新,更準確的表述是將之前 OpenAI o1 半遮半掩的正規化開源,將整個生態推向很高滲透率。
從第一性原理角度,在 Transformer 這一代架構下超越第一梯隊模型廠商是有難度的,同樣路徑下很難實現彎道超車可能,今天更期待有人能探索出下一代的智慧架構和正規化。

DeepSeek 用一年時間
追上了 OpenAI 和 Anthropic
Insight 02
DeepSeek 開啟新正規化了嗎?
就像前面說的,嚴格意義上說,DeepSeek 沒有發明新正規化。
但 DeepSeek 的重要意義在於幫助 RL 和 test time compute 這個新正規化真正出圈。如果說 OpenAI 最初發布的 o1 是給行業出了一個謎語,DeepSeek 就是第一個公開解謎的人。
DeepSeek 釋出 R1 和 R1-zero 之前,行業只有少部分人在實踐 RL 和 reasoning model,但 DeepSeek 給大家指明瞭路線圖,讓行業相信這樣做真的能提升智慧,這對提升信心,吸引更多 AI researcher 轉向新正規化的研究有巨大的幫助。
有人才進入,才有演算法創新,有開源緊追才有更多計算資源投入。在 DeepSeek 之後,原本計劃不再發新模型的 OpenAI 接連發出 o3mini,並計劃繼續釋出 o3,還考慮開源模型。Anthropic 和 Google 也會加快 RL 的研究。行業對新正規化的推進因為 DeepSeek 加快,中小團隊也可以在不同的 domain 上嘗試 RL。
另外,reasoning model 的提升會進一步幫助 agent 落地,AI researcher 現在都因此對 agent 的研究和探索更有信心,因此也可以說 DeepSeek 開源 reasoning model 推進了行業向 Agent 的進一步探索。
所以 DeepSeek 雖然沒有發明新正規化,但推進整個行業進入了新正規化。
Insight 03
Anthropic 的技術路線和 R1 有什麼不同?
從 Dario的訪談可以看出,Anthropic對R-1/reasoning model的理解,與O系列有些分歧,Dario覺得 base model 與 reasoning model應該是個連續光譜,而非 OpenAI 這種獨立的模型系列。如果只做 O 系列會很快遇到天花板。
我一直想為什麼 Sonnet 3.5的coding、reasoning 和 agentic能力一下子提升這麼強,但 4o 一直沒追上?
他們在 pre training base model 階段就做了大量 RL 工作,核心還是把 base model 提上去,不然只靠 RL 提升 reasoning model 可能很容易把收益吃光。
Insight 04
DeepSeek 的轟動有必然,也有偶然
兩位早期 OpenAI 研究員寫的《為什麼偉大不能被計劃》形容 DeepSeek 也很合適。
技術角度上,DeepSeek 有下面幾個亮點:
• 開源:開源這點很重要,OpenAI 從 GPT-3 開始轉為閉源公司後,第一梯隊三巨頭就不再公開技術細節,拱手讓出了一個空白的開源生態位,但 Meta 和 Mistral 並沒有接穩這個位置,DeepSeek 這次堪稱奇襲,在開源這塊大賽道一馬平川。
如果把轟動性打 100 分,智慧提升貢獻 30 分,開源貢獻 70 分,之前 LLaMA 也開源但沒有這麼轟動的效果,說明 LLaMa 智慧水平不夠。
• 便宜:“Your margin is my opportunity” 這句話的含金量還在上升。
• 聯網+公開 CoT:對於使用者這兩個點分別都能帶來很好的使用者體驗,DeepSeek 把兩張牌同時出了,可以說是王炸,給到 C 端使用者的體驗和其他 Chatbot 完全不一樣。尤其是 CoT 透明,把模型思考過程公開了,透明能讓使用者對 AI 更信任,促進了破圈。不過,按理說 Perplexity 也是衝擊很大的,但 DeepSeek 服務端不穩定,Perplexity 團隊快速反應上線了 R-1 反而承接了很大 DeepSeek R-1 溢位的使用者。
• RL 泛化:雖然 RL 是 OpenAI o1 最先提出來的,但因為各種運營一直半遮半掩,滲透率並不高,DeepSeek R-1 很大意義推動了 reasoning model 正規化的程序,生態接受度大幅提升。
DeepSeek 在技術上的探索投入是被這個智慧成果值得更多人關注、討論的確定性因素,但 DeepSeek R1 推出的 timing 又讓這場轟動帶有偶發性:
• 過去美國一直講自己在基礎技術研究上大幅領先,但 DeepSeek 原生於中國國內,這本身也是一個亮點,這個過程中,又有很多美國科技大佬開始去宣揚 DeepSeek 挑戰了美國科技霸主的地位的論調,DeepSeek 屬於被動捲進輿論戰;
• DeepSeek R1 釋出之前,OpenAI Stargate $500B 事件剛剛開始發酵,這種巨量投入和 DeepSeek 團隊智慧產出效率對比太鮮明瞭,很難不引發關注、討論;
• DeepSeek 讓英偉達股價大跌又進一步讓輿論發酵,他們肯定也想不到自己成為了 2025 開年美股第一隻黑天鵝;
• 春節是產品的練兵場,移動網際網路時代很多超級 App 都是在春節大爆發的,AI 時代也不例外。DeepSeek R1 恰好在春節前釋出,大眾驚喜的是它的文字創作能力,而不是訓練時候強調的 coding 和數學能力,文創更容易被大眾使用者有體感,也更容易 go viral。
Insight 05
誰受傷?誰受益?
可以把這個賽場上的 players 分 3 類:ToC、To Developer 以及 To Enterprise( to Government):
1. ToC:Chatbot 肯定受衝擊最大,心智和品牌關注度被 DeepSeek 搶走了,ChatGPT 也不例外;
2. 在開發者環節的影響很有限,我們看到有使用者用完之後說評論 r1 不好用不如 sonnet,Cursor 官方也說 Sonnet 還是 outperform,使用者 surprisingly 高比例都選擇 Sonnet,並沒有大幅遷移;
3. 第三個維度,To Enterprise 和 To Government 的生意在於信任和需求理解,大型組織做決策的利益考慮很複雜,不會像 C 端使用者那麼容易遷移。
再換個角度,從閉源、開源和算力的視角想這個問題:
短期大家會覺得閉源的 OpenAI/Anthropic/Google 更受衝擊:
• 技術神秘感被開源了,AI hype 裡面最重要的神秘感的溢價被打破;
• 更現實的因素,市場認為這幾家閉源公司的潛在客戶和市場規模被搶走了一些,GPU 投入的回本週期變長;
• 作為領頭羊的 OpenAI 在其中屬於最“吃虧”的那個,之前想捂著技術不開源,半遮半掩,希望多賺技術溢價的美夢無法實現了。
但中長期看,GPU 資源充裕的公司還是受益的,一方面是第二梯隊的 Meta 可以快速跟進新方法,Capex 更加 efficient,Meta 可能是很大受益者,另一方面是智慧提升還需要更多探索,DeepSeek 開源把大家水平拉齊,進入全新探索又需要 10 倍甚至更大量級的 GPU 投入。
從第一性原理來想,對於 AI 智慧產業來說,無論是發展智慧還是應用智慧,從物理本質上就必然要消耗海量算力,這是基礎定律決定的,不是技術最佳化能完全規避的。
所以,無論是探索智慧,還是應用智慧,即便短期有質疑,中長期的算力需求也會爆炸,這也解釋了為什麼馬斯克從第一性原理出發,xAI 堅持擴建叢集,xAI 和 Stargate 背後的深層邏輯也許是一樣的。Amazon 等雲廠商都宣佈了要增加 Capex 指引。
我們就假設全球的 AI research 人才水平和認知都拉齊,有更多 GPU 就可以做更多實驗探索?最後可能還是回到 compute 的競爭。
DeepSeek 光腳不怕穿鞋,沒有商業化訴求,專注 AGI 智慧技術探索,開源這個動作對推動 AGI 程序推動意義很大,加劇了競爭,推動了開放性,頗有鯰魚效應。
Insight 06
蒸餾能超越 SOTA 嗎?
有個細節點不確定,如果 DeepSeek 從 pre train 階段就大量使用蒸餾的 CoT 資料,那做到今天效果不算驚豔,還是在第一梯隊巨頭的肩膀上獲得的基礎智慧,然後再開源出來;但如果 pre train 階段沒有大量用蒸餾資料,DeepSeek 從 0 做 pre train 做到今天的效果,那就堪稱驚豔了。
另外,蒸餾能否在 base model 超越 SOTA,應該是不太可能的。但 DeepSeek R-1 非常強,猜測是 Reward model 做的非常好,如果 R-1 Zero 這條路徑靠譜,是有機會超越 SOTA。
Insight 07
No Moat !
Google 之前對 OpenAI 的一個評價:No Moat!這句話放在這裡也很應景。

DeepSeek 這一波 Chatbot 使用者又出現了大量遷移現象,給了市場一個很重要的啟發:智慧技術進步非常陡峭,階段性產品很難形成絕對壁壘。
不管是 ChatGPT/Sonnet/Perplexity 剛形成了心智和口碑,還是 Cursor、Windsurf 這類開發者工具,一旦有了更智慧的產品,使用者對“上一代”智慧的產品毫無忠誠度,今天不管是模型層還是應用層都很難構建護城河。
DeepSeek 這次也驗證了一件事:模型即應用,DeepSeek 在產品形式上沒任何創新,核心就是智慧+開源,我也不禁思考:在 AI 時代,任何產品和商業模式的創新都比不上智慧的創新嗎?
Insight 08
DeepSeek 應該承接
這波 Chatbot 流量並做大嗎?
從 Chatbot 爆火到今天,透過 DeepSeek 團隊的反應可以明顯感覺出來,DeepSeek 還沒想好怎麼用這波流量。
而要不要接住、並積極運營這批流量這個問題的本質是,偉大的商業公司和偉大的 research lab 能共存在一個組織嗎?
這件事非常考驗精力和資源分配、組織能力和戰略選擇,如果是位元組、Meta 這類大公司,他們的第一反應應該都要接下來,也有一定組織基礎可以接下來,但 DeepSeek 作為一個 research lab 組織,承接這波巨量流量的壓力必然很大。
但同時也要想這一波 Chatbot 會是階段性流量嗎?Chatbot 是不是在未來智慧探索的主線下?似乎感覺每個智慧階段都有對應的產品形態,而 Chatbot 只是解鎖的其中一個早期形態。
對於 DeepSeek 來說,從未來 3-5 年視角看,如果今天不去承接 Chatbot 流量,會不會是一種 miss?萬一哪天跑出規模效應?如果 AGI 最終實現了,又會是什麼載體來承接?
Insight 09
下一個智慧突破的 Aha moment 從哪來?
一方面,第一梯隊的下一代模型很關鍵,但今天我們又處在 Transformer 的極限邊界上,第一梯隊能否拿出代際提升的模型也不確定。OpenAI、Anthropic 和 Google 作為回應發出來好 30-50%的模型可能都不夠挽回局勢,因為他們資源多了 10-30 倍。
另一方面, Agent 落地比較關鍵,因為 Agent 需要做長距離多步驟推理,如果模型好 5-10%,領先的效果就會被放大很多倍,所以 OpenAI、Anthropic 和 Google 一方面要做 Agent 產品落地,full stack 整合模型+Agent 產品,就像 Windows+Office,二是也要 show 出來更強大的模型,比如 O3 完整版、Sonnet 4/3.5 opus 為代表的下一代模型。
在技術不確定性下,最寶貴的是天才 AI researchers,任何想要探索 AGI 的組織都要投入資源更激進的 bet on next paradigm,尤其是在今天 pre training 階段已經被拉齊的背景下,要有好的人才+充裕資源,探索下一個智慧湧現的 Aha moment。
Insight 10
DeepSeek 這一波讓我對
中國 AI 人才更有信心,非常鼓舞
最後,希望技術無國界。

排版:楊樂樂
延伸閱讀









