
作者|Xuushan編輯|伊凡
現場一票難求,線上股價狂跌。
“買得越多,省得越多,賺得越多。”
英偉達GTC大會上黃仁勳打響了今年AI界帶貨最強Slogan。
在加利福尼亞州聖何塞SAP中心,一身標誌性皮衣的黃仁勳快步上臺,表示今年的GTC大會,是AI超級碗——AI正在解決更多行業與公司的更多問題,作為科技行業的風向標,這場大會涉及1000場會議、2000名演講者和近400家參展商,超25000+參會人員。門票在會前被炒到了萬元高價,並且早已售罄。

此次GTC大會對英偉達來說,是至關重要的一戰。
外界所關注的,AI的熱潮是否已經達到頂峰?AI晶片的銷售是否放緩?當DeepSeek證明了另一條價效比更高的計算路線時,還在堅持大算力的英偉達還能否坐穩AI基建王者的寶座?
會前投資者的種種質疑在黃仁勳為GTC準備長達120分鐘的演講之後逐漸消散。英偉達不僅直接公開了四年三代GPU架構路線圖,Blackwell Ultra、Rubin、Rubin Ultra、Feynman等晶片悉數上臺,而且還提及了AI、資料中心、機器人、CUDA生態等諸多進展。
不過,投資者對此反應平淡,主題演講結束後,英偉達的股價略有波動,股價下跌3.5%。英偉達生態內的概念股,如臺積電、中電港、勝宏科技、鴻博股份君則有小幅下降。其中,英偉達國內算力板第一供應商勝宏科技,股價下跌5.75%。
業界表明,股價下跌的原因主要由於黃仁勳的演講基本在華爾街的意料之中,許多新的技術進展已在今年的CES中有所涉及,而黃仁勳提及的關於量子計算、具身智慧的部分,很難在短期內看到有實質增長的可能。

英偉達半年來的股價走勢 來源:TradingView
以下是今日GTC大會主題演講乾貨提煉:
1、晶片全家桶全面升級:Blackwell晶片銷量提速,將是Hopper的3倍;Blackwell Ultra將是首個擁有288GB HBM3e的GPU,並配有GB300 NVL72機架、HGX B300 NVL16機架組合系統方案,將是今年下半年的主推產品;
首次公佈未來三年技術藍圖:2026年推出Rubin架構(FP4算力達100P Flops),2027年Rubin Ultra支援576個GPU叢集,Rubin的AI工廠效能或能達到Hopper的900倍;2028年釋出Feynman架構;
英偉達還與臺積電聯合封裝光網路晶片,並於今年下半年將推出新版乙太網晶片;
2、打造超算中心工廠:面向開發者以及企業研發場景,推出全球最小AI超級計算機DGX Spark以及AI超算DGX Station;推出搭載Blackwell Ultra GPU的DGX SuperPOD,提供AI工廠超級計算,並同步推出DGX GB300和 DGX B300系統,組合提供開箱即用的 DGX SuperPOD AI 超級計算機;上線英偉達Instant AI Factory,實現AI託管服務等;
3、推出AI推理模型系列:推出AI推理服務軟體Dynamo,旨在為部署推理 AI 模型的AI工廠最大化其token收益,可將DeepSeek-R1模型生成tokens數量提升30倍以上,每秒處理超30000tokens;推出全新Llama Nemotron推理模型,並幫助企業構建企業級AI資料平臺;
4、開源機器人模型:與谷歌DeepMind、迪士尼聯手打造的機器人上臺互動;亮相全球首個開源且完全可定製的基礎模型 NVIDIA Isaac GR00T N1,讓通用人形機器人實現推理及各項技能;
5、鞏固CUDA生態:推出搭載GH200超級晶片的CUDA-X庫,讓CUDA-X與最新的超級晶片架構協同工作實現,計算工程工具的速度可提高11倍,計算量可擴大5倍;首次設立量子計算日,並升級cuQuantum庫,推動量子計算研究。
會上,英偉達還多次提及中國AI大模型DeepSeek,提及DeepSeek整體有利於英偉達更快速推動生態建設,並不會對英偉達造成負面影響,黃仁勳對此前大幅跳水的股價做出回應。事實上,透過每年迭代一代架構的速度,英偉達將AI算力密度提升週期逐漸縮短。
生成式AI第三年,英偉達透過GTC 2025大會正式宣告其構建AI全棧基建生態的野心,從硬體代際差、生態壟斷性和行業標準制定權,英偉達圍繞“技術-商業”雙閉環的護城河逐漸完善,短期時間內,英偉達在AI基建領域幾乎毫無對手。

四年三架構技術路線圖揭曉!
黃仁勳:tokens是一切的基礎
“去年的一切都是錯的,Scaling Law(擴充套件定律)遠沒有結束。”黃仁勳直言,擴充套件定律正在以超過人們預期的方向發展。當AI從過去依賴經驗和預訓練資料進行學習並推理,轉向採用思維鏈的方式,生成完整推理步驟,對算力的需求指數級提升。

在現場他用Llama 3.3 70B和DeepSeek R1模型進行演示,向他們同時提出一個排座位的問題。傳統的Llama模型僅適用439tokens進行訓練,最後給出一個錯誤的答案,而推理模型DeepSeek R1則使用了8559tokens進行反覆思考,是Llama的20倍,其中呼叫的計算資源也是Llama的150倍,最終給出一個正確的答案。

黃仁勳認為資料仍是一切核心,儘管是R1也花費了6080億的訓練資料,而下一代的模型提升或許需要數萬億的資料。Scaling Law所引領的大算力思路在英偉達的敘事中,仍然奏效。甚至,此次大會上,英偉達提出的Scaling Law的三大階段:Pre-Training Scaling、Post-Training Scaling、Test-Time Scaling“Long Thinking”階段。整個行業也將會從Agentic AI(AI代理)逐步轉向Physical AI(物理AI:指的是讓機器人、自動駕駛汽車和智慧空間等自主系統能夠感知、理解和執行真實世界中的複雜動作。由於它能夠生成見解和動作,因此也經常被稱為“生成物理 AI”。)。
“我希望大家走在對的方向上”,黃仁勳此次回應,或許也是對此前AI奇點已到,資料不再是AI模型提升的關鍵等一系列回應的正面回應。今年以來,英偉達的股價跌超13%,市值與2025年1月7日盤中創下的歷史高點相比,市值已經蒸發近8200億美元。在這場股價保衛戰上,黃仁勳選擇直面市場對英偉達股價與增長潛力的質疑。
表明了資料和算力仍是AI時代最關鍵的兩大方向之後,黃仁勳開始秀起了自己家的百寶箱。從2025年,英偉達將會在四年時間內先後推出Blackwell、Rubin、Feynman三大架構系列晶片。
Blackwell Ultra將承擔今年下半年主力產品,該系列其包括GB300 NVL72機架級解決方案以及NVIDIA HGX B300 NVL16系統。GB300 NVL72機架將把72個Blackwell Ultra GPU與36個基於Arm Neoverse的Grace CPU相連,Blackwell Ultra預計將比前代產品(H100)提供1.5倍的FP4推理能力,可以顯著加速AI推理能力。

可以看出,Blackwell Ultra相比上一代產品有些提升,但整體效能提升也沒有很驚喜,算是小版本升級。
晶片效能的“大升級”或在明年,承載英偉達希望的Rubin系列,將在2026年問世。此前,黃仁勳稱其計算能力能夠實現“巨大飛躍”。Rubin主要是以發現暗物質的天文學家Vera Rubin的名字命名。
今天,英偉達則進一步透露有關Rubin系列最新資訊。明年,Rubin將作為GPU的旗艦芯和Vera作為CPU旗艦芯同期釋出。
用一個比喻或許就能表現出英偉達在AI時代的野心——英偉達正在構建一個從市區、高速公路再到郊區的龐大AI帝國。
CPU是市區,GPU是正在開發的高新區,在這兩者之間,需要透過一個叫做PCIE的通道連線,車流量就是資料量。如果資料量大,就需要擴大道路,或增加車道。只有CPU能夠決定這個分配。一直以來,CPU生態被Arm和英特爾的X86長期壟斷。現在,英偉達對他們發起了挑戰。
Vera Rubin是英偉達CPU+GPU戰略的重要落子,其將於2026年下半年釋出,將配備一個名為Vera的定製Nvidia設計CPU。Nvidia 聲稱,與其前身 Grace Blackwell 相比,Vera Rubin 的效能有了顯著提升,尤其是在 AI 推理和訓練任務方面。

其中,Vera有88個定製ARM結構的核心和176個執行緒。同時,Vera還會有一個1.8TB/s NVLink的核心介面,用於與Rubin GPU連線。與傳統的互聯技術相比,英偉達的這種互聯技術的速度更快,能夠透過的“車輛”更多。Vera將會取代現有的Grace CPU。據英偉達透露,Vera的新架構設計將會比Grace CPU快兩倍。在2021年的GTC大會上,英偉達推出了其第一款CPU——Grace,以Arm架構為核心。
看回Rubin系列,Rubin這次仍然是拼接式的設計,也就是它其實是兩個GPU在電路板上拼接在一起,組成了一個新的GPU。效能上,與B300相比,Rubin計算效能提高了3.3倍,能提供1.2 ExaFLOPS FP8訓練。
Vera Rubin可提供50 petaflops浮點運算的FP4 推理效能,是Blackwell Ultra在類似機架配置的3.3倍。
2027年,Rubin Ultra將內含4個GPU,支援576個GPU叢集,在機架層面,將會比Rubin NVL144配置強大約四倍。同時,英偉達計劃在。此外,Feynman同樣將會採用Vera CPU。
從最新的技術路線圖中可以看出,目前英偉達的GPU更新基本維持在兩年一個大版本升級,一年一個小迭代的節奏上行穩步推進,而CPU方向新品節奏稍緩,或許3年左右才會有較大的一個版本升級。
但無論如何,英偉達自研的GPU+CPU生態已經逐漸完善,根據摩根斯坦利統計,英偉達佔據了全球AI專用晶片將近77%的市場份額。同時英偉達還一直是臺積電的VVVIP客戶,幾乎拿下了臺積電的大半產能,擁有強大的供應鏈優勢。英偉達的Rubin採用了臺積電3nm工藝、CoWoS(Chip on Wafer Substrate)封裝技術。最先進的製造和封裝工藝,意味著這款晶片的效能將大幅度提升,英偉達也將在與臺積電的合作中積累豐富的先進製程IP。一位晶片從業人士告訴矽兔君,先進製程的產能一般是有限的,大客戶能夠獲得內測以及訂單的優先順序。
再加上,英偉達一直在和各行各業的頭部公司合作,瞭解行業內最先進的技術、創新動向以及行業Know-how。可以說,在AI訓練側,英偉達的晶片組合拳幾乎無人能擋。這也是英偉達能一路無阻地登上AI基建寶座的核心關鍵,同樣資料中心也為英偉達貢獻了大部分營收。

英偉達2014-2024年主營業務收入佔比變化
來源:Wind、五礦證券研究所
再加上,英偉達一直在和各行各業的頭部公司合作,瞭解行業內最先進的技術、創新動向以及行業Know-how。可以說,在AI訓練側,英偉達的晶片組合拳幾乎無人能擋。這也是英偉達能一路無阻地登上AI基建寶座的核心關鍵,同樣資料中心也為英偉達貢獻了大部分營收。
黃仁勳透露,今年,微軟、谷歌、亞馬遜和Meta四家大型雲服務商已經購入360萬顆Blackwell晶片,理想預計,2028年資料中心資本支出規模突破1萬億美元。科技巨頭們對資料中心建設的熱情將會推動著英偉達的晶片銷售主要驅動力。2024年三季度,英偉達的GPU市場份額達到90%。

賣鏟人的財富傳奇還遠沒有結束,財報顯示,該公司截至1月份的2025財年銷售額增長了一倍多,達到1246.2億美元。
投資分析師Vellante 表示:“我們相信GTC 2025將樹立另一個里程碑,標誌著未來極端平行計算不僅限於最大的公司,而是所有公司的日常。”
但同時,我們也注意到近期財報顯示,Blackwell晶片的毛利率正在小幅下跌,下一代GPU能否夠順利投產,下一代GPU是否能繼續成為英偉達的“搖錢樹”,或許市場還需驗證。

“AI正在經歷一個拐點,它將變得更智慧、更有用。”
黃仁勳回憶道兩年前,ChatGPT出現的時候,很多複雜的問題和很多簡單的問題,它都難以回答。無論訓練多少次,研究過多少資訊,但對所有問題,它都只思考一次,就像人類的脫口而出一樣。但現在有了推理,AI也有了反覆思索的能力,思維鏈的技術能夠逐步完善。
黃仁勳認為未來每個企業都會有兩個工廠,一個是他們建造的工廠,而另一個則是他們的AI工廠,主要為了科研或者是培訓。他在主題演講一開始就提到Agentic AI以及Physical AI將會是今年討論的核心。
如果AI在未來將會無孔不入地深入到各行業的每一根毛細血管,那麼英偉達正在建立一個更大更強的CUDA生態,這個生態,未來將成為各行業的生長土壤——只要這個行業與AI相關——用的人越多,生態越強、軟硬體適配度越好。
迄今為止,英偉達已構建了900多個特定領域的CUDA-X庫和AI模型,降低加速計算的准入門檻。今年,CUDA-X將走入更前沿的工程學科,像是天文學、粒子物理學、量子物理學、汽車、航空航天和半導體設計。

Llama Nemotron模型系列包括Nano、Super和Ultra三種規模。Nano 模型可在PC和邊緣裝置上提供最高準確性;Super模型能夠在單個 GPU 上提供最佳的準確性和最高的吞吐量;而Ultra 模型將在多 GPU 伺服器上實現最高代理準確性。



期望值回落,


英偉達投資公司





