黃仁勳的“AI工廠”,治不好投資者的增長焦慮

作者|Xuushan編輯|伊凡

現場一票難求,線上股價狂跌。

“買得越多,省得越多,賺得越多。”
英偉達GTC大會上黃仁勳打響了今年AI界帶貨最強Slogan。
在加利福尼亞州聖何塞SAP中心,一身標誌性皮衣的黃仁勳快步上臺,表示今年的GTC大會,是AI超級碗——AI正在解決更多行業與公司的更多問題,作為科技行業的風向標,這場大會涉及1000場會議、2000名演講者和近400家參展商,超25000+參會人員。門票在會前被炒到了萬元高價,並且早已售罄。
此次GTC大會對英偉達來說,是至關重要的一戰。
外界所關注的,AI的熱潮是否已經達到頂峰?AI晶片的銷售是否放緩?當DeepSeek證明了另一條價效比更高的計算路線時,還在堅持大算力的英偉達還能否坐穩AI基建王者的寶座?
會前投資者的種種質疑在黃仁勳為GTC準備長達120分鐘的演講之後逐漸消散。英偉達不僅直接公開了四年三代GPU架構路線圖,Blackwell Ultra、Rubin、Rubin Ultra、Feynman等晶片悉數上臺,而且還提及了AI、資料中心、機器人、CUDA生態等諸多進展。
不過,投資者對此反應平淡,主題演講結束後,英偉達的股價略有波動,股價下跌3.5%。英偉達生態內的概念股,如臺積電、中電港、勝宏科技、鴻博股份君則有小幅下降。其中,英偉達國內算力板第一供應商勝宏科技,股價下跌5.75%。
業界表明,股價下跌的原因主要由於黃仁勳的演講基本在華爾街的意料之中,許多新的技術進展已在今年的CES中有所涉及,而黃仁勳提及的關於量子計算、具身智慧的部分,很難在短期內看到有實質增長的可能。

英偉達半年來的股價走勢 來源:TradingView

以下是今日GTC大會主題演講乾貨提煉:
1、晶片全家桶全面升級:Blackwell晶片銷量提速,將是Hopper的3倍;Blackwell Ultra將是首個擁有288GB HBM3e的GPU,並配有GB300 NVL72機架、HGX B300 NVL16機架組合系統方案,將是今年下半年的主推產品;
首次公佈未來三年技術藍圖:2026年推出Rubin架構(FP4算力達100P Flops),2027年Rubin Ultra支援576個GPU叢集,Rubin的AI工廠效能或能達到Hopper的900倍;2028年釋出Feynman架構;
英偉達還與臺積電聯合封裝光網路晶片,並於今年下半年將推出新版乙太網晶片;
2、打造超算中心工廠:面向開發者以及企業研發場景,推出全球最小AI超級計算機DGX Spark以及AI超算DGX Station;推出搭載Blackwell Ultra GPU的DGX SuperPOD,提供AI工廠超級計算,並同步推出DGX GB300和 DGX B300系統,組合提供開箱即用的 DGX SuperPOD AI 超級計算機;上線英偉達Instant AI Factory,實現AI託管服務等;
3、推出AI推理模型系列:推出AI推理服務軟體Dynamo,旨在為部署推理 AI 模型的AI工廠最大化其token收益,可將DeepSeek-R1模型生成tokens數量提升30倍以上,每秒處理超30000tokens;推出全新Llama Nemotron推理模型,並幫助企業構建企業級AI資料平臺;
4、開源機器人模型:與谷歌DeepMind、迪士尼聯手打造的機器人上臺互動;亮相全球首個開源且完全可定製的基礎模型 NVIDIA Isaac GR00T N1,讓通用人形機器人實現推理及各項技能;
5、鞏固CUDA生態:推出搭載GH200超級晶片的CUDA-X庫,讓CUDA-X與最新的超級晶片架構協同工作實現,計算工程工具的速度可提高11倍,計算量可擴大5倍;首次設立量子計算日,並升級cuQuantum庫,推動量子計算研究。
會上,英偉達還多次提及中國AI大模型DeepSeek,提及DeepSeek整體有利於英偉達更快速推動生態建設,並不會對英偉達造成負面影響,黃仁勳對此前大幅跳水的股價做出回應。事實上,透過每年迭代一代架構的速度,英偉達將AI算力密度提升週期逐漸縮短。
生成式AI第三年,英偉達透過GTC 2025大會正式宣告其構建AI全棧基建生態的野心,從硬體代際差、生態壟斷性和行業標準制定權,英偉達圍繞“技術-商業”雙閉環的護城河逐漸完善,短期時間內,英偉達在AI基建領域幾乎毫無對手。
四年三架構技術路線圖揭曉!
黃仁勳:tokens是一切的基礎
“去年的一切都是錯的,Scaling Law(擴充套件定律)遠沒有結束。”黃仁勳直言,擴充套件定律正在以超過人們預期的方向發展。當AI從過去依賴經驗和預訓練資料進行學習並推理,轉向採用思維鏈的方式,生成完整推理步驟,對算力的需求指數級提升。
在現場他用Llama 3.3 70B和DeepSeek R1模型進行演示,向他們同時提出一個排座位的問題。傳統的Llama模型僅適用439tokens進行訓練,最後給出一個錯誤的答案,而推理模型DeepSeek R1則使用了8559tokens進行反覆思考,是Llama的20倍,其中呼叫的計算資源也是Llama的150倍,最終給出一個正確的答案。
黃仁勳認為資料仍是一切核心,儘管是R1也花費了6080億的訓練資料,而下一代的模型提升或許需要數萬億的資料。Scaling Law所引領的大算力思路在英偉達的敘事中,仍然奏效。甚至,此次大會上,英偉達提出的Scaling Law的三大階段:Pre-Training Scaling、Post-Training Scaling、Test-Time Scaling“Long Thinking”階段。整個行業也將會從Agentic AI(AI代理)逐步轉向Physical AI(物理AI:指的是讓機器人、自動駕駛汽車和智慧空間等自主系統能夠感知、理解和執行真實世界中的複雜動作。由於它能夠生成見解和動作,因此也經常被稱為“生成物理 AI”。)。
“我希望大家走在對的方向上”,黃仁勳此次回應,或許也是對此前AI奇點已到,資料不再是AI模型提升的關鍵等一系列回應的正面回應。今年以來,英偉達的股價跌超13%,市值與2025年1月7日盤中創下的歷史高點相比,市值已經蒸發近8200億美元。在這場股價保衛戰上,黃仁勳選擇直面市場對英偉達股價與增長潛力的質疑。
表明了資料和算力仍是AI時代最關鍵的兩大方向之後,黃仁勳開始秀起了自己家的百寶箱。從2025年,英偉達將會在四年時間內先後推出Blackwell、Rubin、Feynman三大架構系列晶片。
Blackwell Ultra將承擔今年下半年主力產品,該系列其包括GB300 NVL72機架級解決方案以及NVIDIA HGX B300 NVL16系統。GB300 NVL72機架將把72個Blackwell Ultra GPU與36個基於Arm Neoverse的Grace CPU相連,Blackwell Ultra預計將比前代產品(H100)提供1.5倍的FP4推理能力,可以顯著加速AI推理能力。
可以看出,Blackwell Ultra相比上一代產品有些提升,但整體效能提升也沒有很驚喜,算是小版本升級。
晶片效能的“大升級”或在明年,承載英偉達希望的Rubin系列,將在2026年問世。此前,黃仁勳稱其計算能力能夠實現“巨大飛躍”。Rubin主要是以發現暗物質的天文學家Vera Rubin的名字命名。
今天,英偉達則進一步透露有關Rubin系列最新資訊。明年,Rubin將作為GPU的旗艦芯和Vera作為CPU旗艦芯同期釋出。
用一個比喻或許就能表現出英偉達在AI時代的野心——英偉達正在構建一個從市區、高速公路再到郊區的龐大AI帝國。
CPU是市區,GPU是正在開發的高新區,在這兩者之間,需要透過一個叫做PCIE的通道連線,車流量就是資料量。如果資料量大,就需要擴大道路,或增加車道。只有CPU能夠決定這個分配。一直以來,CPU生態被Arm和英特爾的X86長期壟斷。現在,英偉達對他們發起了挑戰。
Vera Rubin是英偉達CPU+GPU戰略的重要落子,其將於2026年下半年釋出,將配備一個名為Vera的定製Nvidia設計CPU。Nvidia 聲稱,與其前身 Grace Blackwell 相比,Vera Rubin 的效能有了顯著提升,尤其是在 AI 推理和訓練任務方面。
其中,Vera有88個定製ARM結構的核心和176個執行緒。同時,Vera還會有一個1.8TB/s NVLink的核心介面,用於與Rubin GPU連線。與傳統的互聯技術相比,英偉達的這種互聯技術的速度更快,能夠透過的“車輛”更多。Vera將會取代現有的Grace CPU。據英偉達透露,Vera的新架構設計將會比Grace CPU快兩倍。在2021年的GTC大會上,英偉達推出了其第一款CPU——Grace,以Arm架構為核心。
看回Rubin系列,Rubin這次仍然是拼接式的設計,也就是它其實是兩個GPU在電路板上拼接在一起,組成了一個新的GPU。效能上,與B300相比,Rubin計算效能提高了3.3倍,能提供1.2 ExaFLOPS FP8訓練。
Vera Rubin可提供50 petaflops浮點運算的FP4 推理效能,是Blackwell Ultra在類似機架配置的3.3倍。
2027年,Rubin Ultra將內含4個GPU,支援576個GPU叢集,在機架層面,將會比Rubin NVL144配置強大約四倍。同時,英偉達計劃在。此外,Feynman同樣將會採用Vera CPU。
從最新的技術路線圖中可以看出,目前英偉達的GPU更新基本維持在兩年一個大版本升級,一年一個小迭代的節奏上行穩步推進,而CPU方向新品節奏稍緩,或許3年左右才會有較大的一個版本升級。
但無論如何,英偉達自研的GPU+CPU生態已經逐漸完善,根據摩根斯坦利統計,英偉達佔據了全球AI專用晶片將近77%的市場份額。同時英偉達還一直是臺積電的VVVIP客戶,幾乎拿下了臺積電的大半產能,擁有強大的供應鏈優勢。英偉達的Rubin採用了臺積電3nm工藝、CoWoS(Chip on Wafer Substrate)封裝技術。最先進的製造和封裝工藝,意味著這款晶片的效能將大幅度提升,英偉達也將在與臺積電的合作中積累豐富的先進製程IP。一位晶片從業人士告訴矽兔君,先進製程的產能一般是有限的,大客戶能夠獲得內測以及訂單的優先順序。
再加上,英偉達一直在和各行各業的頭部公司合作,瞭解行業內最先進的技術、創新動向以及行業Know-how。可以說,在AI訓練側,英偉達的晶片組合拳幾乎無人能擋。這也是英偉達能一路無阻地登上AI基建寶座的核心關鍵,同樣資料中心也為英偉達貢獻了大部分營收。
英偉達2014-2024年主營業務收入佔比變化 
來源:Wind、五礦證券研究所
再加上,英偉達一直在和各行各業的頭部公司合作,瞭解行業內最先進的技術、創新動向以及行業Know-how。可以說,在AI訓練側,英偉達的晶片組合拳幾乎無人能擋。這也是英偉達能一路無阻地登上AI基建寶座的核心關鍵,同樣資料中心也為英偉達貢獻了大部分營收。
黃仁勳透露,今年,微軟、谷歌、亞馬遜和Meta四家大型雲服務商已經購入360萬顆Blackwell晶片,理想預計,2028年資料中心資本支出規模突破1萬億美元。科技巨頭們對資料中心建設的熱情將會推動著英偉達的晶片銷售主要驅動力。2024年三季度,英偉達的GPU市場份額達到90%。
賣鏟人的財富傳奇還遠沒有結束,財報顯示,該公司截至1月份的2025財年銷售額增長了一倍多,達到1246.2億美元。
投資分析師Vellante 表示:“我們相信GTC 2025將樹立另一個里程碑,標誌著未來極端平行計算不僅限於最大的公司,而是所有公司的日常。”
但同時,我們也注意到近期財報顯示,Blackwell晶片的毛利率正在小幅下跌,下一代GPU能否夠順利投產,下一代GPU是否能繼續成為英偉達的“搖錢樹”,或許市場還需驗證。
Agentic AI+Physical AI,
英偉達的下一代增長渦輪
“AI正在經歷一個拐點,它將變得更智慧、更有用。”
黃仁勳回憶道兩年前,ChatGPT出現的時候,很多複雜的問題和很多簡單的問題,它都難以回答。無論訓練多少次,研究過多少資訊,但對所有問題,它都只思考一次,就像人類的脫口而出一樣。但現在有了推理,AI也有了反覆思索的能力,思維鏈的技術能夠逐步完善。
黃仁勳認為未來每個企業都會有兩個工廠,一個是他們建造的工廠,而另一個則是他們的AI工廠,主要為了科研或者是培訓。他在主題演講一開始就提到Agentic AI以及Physical AI將會是今年討論的核心。
如果AI在未來將會無孔不入地深入到各行業的每一根毛細血管,那麼英偉達正在建立一個更大更強的CUDA生態,這個生態,未來將成為各行業的生長土壤——只要這個行業與AI相關——用的人越多,生態越強、軟硬體適配度越好。
迄今為止,英偉達已構建了900多個特定領域的CUDA-X庫和AI模型,降低加速計算的准入門檻。今年,CUDA-X將走入更前沿的工程學科,像是天文學、粒子物理學、量子物理學、汽車、航空航天和半導體設計。
“如果整個釋出會只講一張PPT,那麼就是這張。”
黃仁勳提到,如果沒有CUDA,沒有英偉達的基建底座,這些前沿庫對任何一個開發者都將不起作用。他詳細介紹了主攻醫療的MONAI、主攻天氣的Earth-2、以及量子計算的cuQuantum庫的最新動向,這些庫也成為了英偉達在垂直AI領域中最新的落地成果,並圍繞著垂直領域的資料資訊吸引著大批的開發者加入到CUDA生態中去。
英偉達還推出了AI推理服務軟體Dynamo,旨在為部署推理 AI 模型的AI工廠最大化其token收益,據英偉達透露,可將DeepSeek-R1模型生成tokens數量提升30倍以上,每秒處理超30000tokens。
Dynamo擁有GPU 規劃器、智慧路由器、低延遲通訊庫以及視訊記憶體管理器四大部分組成。同時,Dynamo推理平臺還支援分離服務,將LLM 不同計算階段分配給不同的GPU。
目前,已有多家AI創企與英偉達表示了合作意向。AI提供商Cohere計劃使用Dynamo為其Command系列模型中的代理式AI功能提供支援;Together AI希望能夠透過Dynamo能夠動態地解決模型管線各個階段的流量瓶頸。
此外,英偉達今天還發布具有推理功能的開源Llama Nemotron模型系列,旨在為開發者和企業提供業務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成複雜任務的高階 AI 智慧體。
結合新發布的Dynamo,英偉達全新Llama Nemotron推理模型,可以使用高階推理技術來改進上下文理解和響應生成,並透過分離服務使得每個階段可以進行單獨的微調和資源調配,從而提高吞吐量並更快地響應使用者。
Llama Nemotron模型系列包括Nano、Super和Ultra三種規模。Nano 模型可在PC和邊緣裝置上提供最高準確性;Super模型能夠在單個 GPU 上提供最佳的準確性和最高的吞吐量;而Ultra 模型將在多 GPU 伺服器上實現最高代理準確性。
據英偉達透露,與基礎模型相比,Llama Nemotron推理模型對多步數學運算、編碼、推理和複雜決策能力提供了加強,加強後,模型的精度提高多達20%;與其他領先的開放推理模型相比,最佳化推理速度達到了5倍。
除了Agentic AI,Physical AI則是以一種巧妙的方式融入到GTC大會之中。
走進展會中心,參會者將會看到一個AI雕塑機器人,這個機器人是人工智慧藝術家Emanuel Gollob使用腦電波測量設計,並透過AI進行編排設計的。
在會展旁邊,我們還可以看到了一款人形機器人當起了會展顧問,它可以回答參會者有關活動、論壇時間、地點等問題。該人形機器人是由初創公司IntBot開發的。
在主題演講的結尾,黃仁勳與谷歌DeepMind、迪士尼聯手打造的機器人Blue上臺互動。據他介紹,Blue擁有兩大個人超算,十分聰明。對於黃仁勳的指令,Blue也能夠聽懂指令及時反饋。儘管Blue是一個雙足機器人,但從其表現形態上來看,Blue更像是一個機器狗,主要是提供一定情緒價值。
可以看出在此次大會現場,機器人幾乎無處不在。黃仁勳提到具身智慧主要有三大挑戰有待解決:如何處理資料問題、選擇什麼樣的模型架構以及機器人行業的Scaling Law是什麼。
事實上,黃仁勳並沒有給出具體的答案,但他透過英偉達的產品佈局給出了英偉達自己的思考思路。
英偉達強化提升了世界基礎模型Cosmos,引入了開放式、可完全定製的物理AI開發推理模型,讓開發者更好地控制世界生成。
Cosmos Transfer可簡化感知AI訓練,將Omniverse中建立的3D 模擬或真值轉換為逼真影片,用於大規模可控合成數據生成。Cosmos Transfer WFM 能夠吸收結構化影片輸入,如分割圖、深度圖、雷射雷達掃描、姿態估計圖和軌跡圖等,以生成可控、逼真的影片輸出。Cosmos Reason 是一個開放式、可完全定製的 WFM,具有時空感知能力,它使用思維鏈推理來理解影片資料,並能夠預測互動結果,如一個人走進人行道或一個盒子從架子上掉下來。
1X、Agility Robotics、Figure AI、Foretellix、Skild AI和Uber是首批採用Cosmos的企業,可更快、更大規模地為物理 AI 生成更豐富的訓練資料。
期望值回落,
英偉達面對自研芯挑戰
從本次GTC大會活動現場來看,黃仁勳明顯表現得沒有2023年那般得意氣風發。演講現場多次卡殼,能夠明顯感受到,回應關鍵問題,提到關鍵產品的時候,黃仁勳稍顯緊張。
2025年開年以來,英偉達的市值一路震盪下跌。這其中,有美股大環境的影響,也有DeepSeek的衝擊,但更多的則是投資者們對英偉達的期望值逐漸回落,更加理性地看待英偉達的增長曲線。情緒回落後,英偉達的市值也逐漸趨於穩定。
但這並不意味英偉達就放緩了停下推動AI的節奏,相反,2024年,英偉達更加密切地關注前沿AI專案進展。
PitchBook資料顯示,英偉達在2024年加大了風險投資力度,參與了44輪人工智慧公司融資,較2023年的34輪融資大幅增加。英偉達旗下的企業風險投資基金NVentures也在2024年參與了24筆交易投資。

英偉達投資公司

但新的挑戰也在出現。近期,谷歌、亞馬遜、Meta等大廠希望自研晶片(如TPU、Trainium)減少對英偉達GPU的採購。據悉,亞馬遜透過Graviton晶片節省10%-40%計算成本。不過,這些大廠的自研晶片更多自用,對於軟硬體能力差的公司,英偉達仍然是他們最好的選擇。
另一方面,受美國出口管制影響,英偉達中國特供版晶片效能大幅縮水,中國公司逐漸轉向國產替代或自研晶片。在GPU所涉的資料中心業務上,英偉達中國市場營收在總營收中的佔比已從2023財年的19%降至2024財年的約5%。
此外,量子晶片、光子晶片等新的晶片架構正在加速開發與落地,或許新的技術變革將會給英偉達帶來新的衝擊。


相關文章