Nvidia重啟中國特供GPU研發!老黃咋就放不下中國?

點選訂閱,抓住風口

5 月 3 日,《The Information》爆料:Nvidia 正加班趕製第三代“中國特供”GPU,以避開美國最新出口紅線。
在美國政府三令五申、不斷加碼對華高科技出口限制的背景下,英偉達為何要“頂風作案”,執意為中國市場開發定製晶片?
The information文章
這背後,是為了挽回最高可達 55 億美元的減值準備?還是為了應對華為昇騰等本土對手的步步緊逼?
答案是:關乎新一輪全球 AI 算力版圖的關鍵抉擇
關於AI趨勢的詳細分析,王煜全前哨科技特訓營都有分析,今天我們一起深入剖析英偉達為什麼放不下中國市場,這背後有哪些AI新趨勢,暴露英偉達的哪些隱憂。
現在加入前哨科技特訓營,還有五一限時福利,千萬不要錯過。
老黃為何執著?
要理解英偉達為何在美國政府重壓之下,依然要為中國市場開發專用晶片,需要把握兩大基本邏輯:中國市場難以割捨的戰略分量,以及 AI 產業發展重心的轉移
首先,中國市場在英偉達營收佔比本就不小,AI 時代還有巨大的增長潛力。 根據公開資料看,在 2022 年美國晶片禁令前,中國市場佔英偉達營收的 21%,禁令之後佔比依然達到 13%。
更為重要的是,根據 The Information 報道,過去兩年英偉達中國市場的收入增長了 70%,即便面臨禁令限制,依然顯示出強勁的增長勢頭。徹底放棄中國市場,對英偉達而言損失難以彌補。
其次,更深層的驅動力,源自 AI 產業價值鏈正從“訓練為王”轉向“推理主導”
正規化轉移,AI進入下一階段
上半場,業界不惜成本投入大規模訓練,以突破模型能力的邊界。下半場,價值實現的關鍵在於如何將這些強大的模型大規模、低成本、高效率地部署到各種應用中去(即推理)。
我們可以簡單把 AI 大模型的應用分為這麼兩個階段:
訓練階段: 好比建造超級工程的基礎設施,需要消耗頂級算力、海量資料和鉅額投資,目的是構建強大的基礎模型(比如 GPT-4o、Claude 3 系列、DeepSeek R1)。
英偉達的高階 GPU (如 H100) 在此階段擁有近乎壟斷的優勢。
推理階段: 如同城市交通網路建成後,支撐無數車輛(AI 應用、服務、Agent)日常高效執行。
這裡的核心挑戰不再僅僅是單點峰值效能,比的是能否支撐海量併發、持續線上,比的是誰成本更低。
隨著 AI Agent 等應用爆發,推理算力需求預計將數倍於訓練,“能效比”(Performance per Watt / Performance per Dollar) 成為決定 AI 能否真正惠及千行百業、實現規模化價值的關鍵瓶頸。

"要讓 AI 發揮我們期望的作用,推理成本必須大幅下降。我們將其視為我們的使命和責任。" – 亞馬遜CEO Andy Jassy(5月1日)
推理時代,CUDA 的隱憂
CUDA 作為英偉達最強大的護城河,深深構築在 AI 訓練領域。訓練任務通常需要極致的平行計算能力、龐大的視訊記憶體和高速互聯,開發者生態、成熟庫(如 cuDNN)和框架(如 PyTorch, TensorFlow 對 CUDA 的深度最佳化)也至關重要。
離開 CUDA,搞大規模、高效能的 AI 訓練幾乎是不可想象的,遷移成本極高。
然而,在推理端,情況有所不同:
需求多樣: 推理任務種類繁多,從延遲敏感的即時互動到吞吐量優先的離線批處理,並非所有場景都需要 H100 級別的算力。
成本敏感: 大規模推理部署對 TCO(總體擁有成本)極其敏感,能耗是重要組成部分。
生態開放: 推理部署更傾向於使用標準化的模型格式(如 ONNX)和推理引擎(如 ONNX Runtime, TensorRT, OpenVINO 等),這些引擎正努力支援更多硬體後端,包括 CPU、各類 NPU/ASIC,甚至其他品牌的 GPU。
前哨特訓營2023年PPT報告
這就意味著,雖然英偉達 GPU + TensorRT 依然是高效能推理的選擇之一,但 CUDA 在推理端的“鎖定”效應遠不如訓練端那麼強。
這就為英偉達的競爭對手們創造了進入的縫隙。
晶片禁令為競爭對手留下空間
這幾天微軟、谷歌、亞馬遜、Meta 的財報會都將提升 AI 效率、降低推理成本(特別是能耗)置於核心地位。
谷歌在財報會中透露 AI Overviews 功能月活躍使用者超 15 億;微軟在最新財報電話會中提到,其平臺單季度處理的 token 總量已超過 100 萬億 (quadrillion) 級別 ,主要由 Copilot 等服務驅動。
面對海量推理需求帶來的成本壓力,大型科技公司正全力投入自研晶片和系統最佳化。
谷歌釋出第七代 TPU "Ironwood",宣稱推理效能和能效比提升近 2 倍。
亞馬遜推出 Trainium 2 (訓練) 和 Inferentia (推理) 系列晶片,聲稱其自研方案相比通用 GPU 可提供 30-40% 的價效比優勢(含能耗考量)。
Meta 也推出了其第二代自研 AI 推理晶片 MTIA v2。
微軟 CFO Amy Hood 在財報會議上表示,透過模型最佳化等手段,已將 AI 服務的 token 成本減半。
可惜這些巨頭的最佳化能力畢竟有限,自研晶片普遍落後英偉達一代以上,更重要的是他們的晶片都是自用,不能讓整個市場為自己平攤研發和製造費用,一時半會難以和英偉達競爭。
事實也如此,亞馬遜、微軟等在財報中都提及了 AI 算力供不應求的現狀,這使得英偉達在短期內依然是他們不得不倚重的主要供應商,享受著需求的“甜蜜期”。
但是,在中國卻是另一幅光景,晶片禁令切割出去的無疑是一片 AI 應用的巨量市場。年初DeepSeek 火爆全網之後,各大平臺紛紛上架 R1 模型,結果仍然是上架一個宕機一個,需求始終無法填滿。
如果這種短期爆款不能作為印證,對比微軟單季度超100萬億 token 消耗量,有分析師透露字節跳動的豆包 APP 日均消耗 token 超過10萬億,10 天時間就和微軟的季度消耗等量。
這背後反映了中國市場巨大的潛力,而這裡正在因為外力成為英偉達無法干預的領域。
參與過市場競爭的人都應該知道,一個無法填滿的巨大的市場,它天然就是競爭對手成長的樂土。
連鎖反應:全新的晶片格局會到來嗎?
英偉達的中國特供策略背後,是全球 AI 發展趨勢疊加產業衝突的結果。
全球範圍內,對推理成本和能效比的嚴苛要求,雖然讓科技巨頭大力推進自研 AI 晶片(ASIC/NPU),創造了一些新的生態位。
英偉達尚能透過技術進步和產能優勢與之競爭,藉助當下的市場霸主地位及時掌握產業一線的動態,快速調整適應變化,繼續保持領先。
面對晶片禁令強行劃分出的中國市場,則是對英偉達未來 5 年戰略佈局的一次大考。英偉達放不下的不只是眼下的利潤,更是對下一輪 AI 格局的掌控力。
產業生態中的博弈從來不是簡單的“拼刺刀”,短期的市場份額或技術領先固然重要,但只有深刻理解並順應整個產業格局的結構性變化才能真正掌握未來的發展趨勢。
AI 產業正在經歷從訓練到推理的重心轉移,從效能至上到效率優先的價值重塑,結合地緣因素催生的區域市場分化,在這場算力重構的浪潮中,戰略遠見和適應能力,將比以往任何時候都更加重要。
想更深入瞭解 AI 算力市場的最新動態與未來格局? 
歡迎長按下方二維碼,加入前哨科技特訓營,王煜全每週四和你分享最新、最有深度的產業洞察。 
現在加入還有 5 月限時福利,早買早上車~
↓長按圖片掃碼報名先人一步,領先一路
↓¥399,掌握王煜全AI產業預測精華(iOS使用者請在電腦端開啟)
此外,我們還為您準備了一份清單
世界大學五大學科領域top10”

相關文章