週三美股盤後,英偉達CEO黃仁勳在2025財年第四季度財報電話會議上表示,公司對AI推理帶來的潛在需求感到興奮,這類計算需求預計將遠超當前的大語言模型(LLM),可能需要比現有計算能力高出數百萬倍。
黃仁勳稱,我們所做的事情並不容易,但英偉達在提升供應能力方面表現良好。AI軟體將是一切資料中心的一部分,無論是短期、中期還是長期跡象都持續向好。他進一步確認,Blackwell系列晶片的供應鏈問題已完全解決,供應問題不曾妨礙到下一次訓練和後續產品的研發。此外,Blackwell Ultra計劃於2025年下半年釋出。
對於DeepSeek,黃仁勳表示,DeepSeek-R1這樣的推理模型,應用了推理時間擴充套件,推理模型可以消耗100倍更多的計算量,未來的推理模型可以消耗更多的計算量。黃仁勳還表示,DeepSeek-R1激發了全球的熱情,這是一個出色的創新。但更重要的是,它開源了一個世界級的推理AI模型。
黃仁勳還指出,任何人都處在新科技轉型的起點,所有軟體和服務都將和AI相關。
英偉達CFO Colette Kress指出,感恩節和聖誕節期間的遊戲硬體需求依然強勁,但整體營收仍受到供應限制的影響。不過,他預計供應問題將得到緩解,使得增速在當前季度迎來 “噴發”。
針對盈利能力,CFO指出,一旦Blackwell增產,利潤將有所改善,並預計到2025年年底,利潤率將在70%-80%區間的中部。然而,他強調,目前的首要任務是向客戶交付儘可能多的產品。大客戶和企業客戶的增速大致相同。
中國市場方面,黃仁勳表示,四季度營收季環比大體上持平。
以下為電話會部分要點整理:
1. 關於推理專用叢集的未來 問題:隨著訓練和推理之間的界限越來越模糊,推理專用叢集的未來發展會如何?這對英偉達及其客戶會產生怎樣的影響? Jensen Huang的回答要點: 未來AI模型將有多個擴充套件維度:預訓練、訓練後(如強化學習、微調)和推理時間擴充套件。 推理需求將大幅增長,特別是長思考推理AI模型,其計算需求可能比預訓練高出幾個數量級。 Blackwell架構為推理AI設計,推理效能比Hopper提升25倍,成本降低20倍。 英偉達的架構通用性強,能夠靈活適應不同的AI工作負載,從預訓練到推理都能高效執行。 2. 關於GB200的推廣和系統複雜性 問題:GB200在CES上的情況如何?系統層面的複雜性和推廣的挑戰是什麼?對NGL72平臺的熱情是否有所改變? 未具名發言人(可能是Jensen Huang)的回答要點: GB200的推廣進展順利,儘管面臨複雜性挑戰,但需求強勁。 Blackwell(GB200)的生產涉及350個工廠,150萬個元件,上個季度實現了110億美元的收入。 大型雲服務提供商(CSP)如Azure、GCP、AWS和OCI已經開始部署Blackwell系統。 對NGL72平臺的熱情未減,預計將繼續推動AI基礎設施的發展。 3. 關於毛利率和未來需求 問題:第一季度是否是毛利率的底部?未來需求的可持續性如何?DeepSeek等創新是否改變了對未來的看法? Colette Kress的回答要點: Blackwell推廣期間毛利率將在70年代初,隨著全面推廣,預計年底恢復到70年代中期。 目前專注於加快Blackwell系統的製造,以滿足客戶需求。 Jensen Huang的回答要點: 資料中心的資本投資持續增長,AI將成為資料中心的主要工作負載。 企業AI、代理AI和物理AI等新興領域將推動長期需求增長。 初創公司的活躍和創新表明AI市場潛力巨大,需求將持續強勁。 4. 關於Blackwell Ultra的推出 問題:下一代Blackwell Ultra的推出計劃如何?當前一代Blackwell仍在推廣,如何管理兩種產品的推廣? Jensen Huang的回答要點: Blackwell Ultra計劃在下半年推出,將帶來新的網路、記憶體和處理器等改進。 公司與客戶和供應鏈緊密合作,確保平穩過渡。 Blackwell Ultra將無縫對接現有系統架構,繼續推動AI基礎設施的發展。 5. 關於定製ASIC與商用GPU的平衡 問題:定製ASIC與商用GPU之間的平衡如何?客戶是否計劃構建同時使用GPU和ASIC的異構超級叢集? Jensen Huang的回答要點: 英偉達的GPU架構通用性強,適用於多種AI模型和工作負載。 定製ASIC通常針對特定應用,而GPU的靈活性和生態系統使其成為大多數AI應用的首選。 效能和成本效率使GPU在AI資料中心中具有顯著優勢,特別是在推理和訓練後工作負載中。 6. 關於地理分佈和增長 問題:美國市場的增長是否能夠彌補其他地區的潛在下降?這種地理分佈的變化是否會影響增長? Jensen Huang的回答要點: AI技術的全球需求強勁,中國市場的比例保持穩定。 AI已成為主流技術,廣泛應用於各個行業,從金融服務到醫療保健。 從長期來看,AI將滲透到更多行業,推動全球經濟增長。 7. 關於企業AI的增長 問題:企業AI的增長趨勢如何?是否會成為消費組合中更大的一部分? Jensen Huang的回答要點: 企業AI市場增長迅速,特別是在自動駕駛汽車、機器人技術和工業應用中。 企業將越來越多地採用AI技術來提高生產力和效率。 英偉達的全棧AI解決方案將支援企業從預訓練到推理的整個AI工作流程。 8. 關於基礎設施更新週期 問題:已部署的基礎設施的更新週期如何?何時會看到更新機會? Jensen Huang的回答要點: 當前的AI基礎設施仍在使用多種英偉達產品,如Voltas、Pascals和Amperes。 隨著AI技術的發展,企業將逐步更新其基礎設施,以利用最新的GPU技術。 英偉達的CUDA平臺確保了不同代次GPU的相容性,使得更新過程更加靈活。 9. 關於毛利率和關稅影響 問題:毛利率的未來趨勢如何?關稅對毛利率的影響如何? 未具名發言人(可能是Colette Kress)的回答要點: 毛利率受多種因素影響,包括Blackwell的產量和配置。 公司正在努力提高毛利率,預計下半年將有所改善。 關稅的影響尚不確定,公司將繼續遵守相關法規。
以下為電話會實錄,由AI翻譯:
Colette Kress,執行副總裁兼首席財務官: 第四季度又是一個創紀錄的季度。 收入為393億美元,環比增長12%,同比增長78%,超出我們預期的375億美元。2025財年收入為1305億美元,較上一財年增長114%。讓我們先從資料中心說起。2025財年的資料中心收入為1152億美元,較上一財年翻了一番。在第四季度,資料中心收入達到創紀錄的356億美元,環比增長16%,同比增長93%。隨著Blackwell的推出以及Hopper 200的持續增長,第四季度Blackwell的銷售額超出了我們的預期。我們實現了110億美元的Blackwell收入,以滿足強勁的需求。 這是我們公司歷史上最快的產品推廣,其速度和規模都是前所未有的。Blackwell的生產正在全面展開,涵蓋多種配置,我們正在迅速增加供應,擴大客戶採用。我們的第四季度資料中心計算收入環比增長18%,同比增長超過兩倍。客戶們競相擴大基礎設施,以訓練下一代尖端模型,並解鎖下一層次的AI能力。 憑藉Blackwell,這些叢集從擁有10萬個或更多的GPU開始將變得很常見。已經有多套這種規模的基礎設施開始出貨。訓練後的模型定製和微調正在推動對英偉達基礎設施和軟體的需求,因為開發者和企業利用微調、強化學習和蒸餾等技術,針對特定領域的用例定製模型。僅Hugging Face就託管了超過9萬個由Llama基礎模型衍生出的版本。 訓練後的模型定製和微調的規模是巨大的,其總體計算需求可能比預訓練高出幾個數量級。我們的推理需求正在加速增長,受到測試時擴充套件和新的推理模型(如OpenAI的o3、DeepSeek-R1和Grok 3)的推動。長思考推理AI可能需要比一次性推理多100倍的計算量。Blackwell是為推理AI推理而設計的。與Hopper 100相比,Blackwell可以將推理AI模型的吞吐量提高高達25倍,成本降低20倍。它具有革命性。Transformer Engine是為LLM和專家混合推理而構建的。其NVLink域提供了比PCIe Gen5高出14倍的吞吐量,確保了響應時間、吞吐量和成本效率,以應對日益複雜的推理規模。 各行各業的公司都在利用英偉達的全棧推理平臺來提升效能並削減成本。NAP利用英偉達TensorRT將其截圖功能的推理吞吐量提升了三倍,並削減了66%的成本。Perplexity每月處理4.35億次查詢,並透過英偉達Triton推理伺服器和TensorRT LLM將推理成本降低了三倍。微軟必應利用英偉達TensorRT和加速庫,在數十億張圖片的視覺搜尋中實現了5倍的速度提升和重大的總擁有成本(TCO)節省。Blackwell在推理方面有著巨大的需求。許多早期的GB200部署都被指定用於推理,這在新架構中尚屬首次。Blackwell涵蓋了從預訓練、訓練後到推理的整個AI市場,從雲端到本地,再到企業級應用。CUDA的可程式設計架構加速了每一個AI模型以及超過4400個應用,確保了在快速發展的市場中對大型基礎設施投資的保護,使其免受過時的影響。我們的效能和創新速度無與倫比。 我們致力於在短短兩年內將推理成本降低200倍。我們提供了最低的總擁有成本(TCO)和最高的投資回報率(ROI),以及針對英偉達和我們龐大的生態系統(包括590萬開發者)的全棧最佳化,這些開發者不斷改進我們客戶的經濟效益。在第四季度,大型雲服務提供商(CSP)約佔我們資料中心收入的一半,這些銷售額同比增長了近兩倍。大型CSP是首批部署Blackwell的公司之一,Azure、GCP、AWS和OCI在全球範圍內將GB200系統引入雲區域,以滿足客戶對AI的激增需求。 託管NVIDIA GPU的區域雲在全球資料中心收入中的佔比上升,反映了全球範圍內AI工廠建設的持續進行以及對AI推理模型和代理需求的迅速增長。當然,我們已經推出了基於100,000個GB200叢集的例項,配備了NVLink交換機和Quantum-2 InfiniBand。消費者網際網路收入同比增長了3倍,這得益於生成式AI和深度學習用例的不斷擴大,包括推薦系統、視覺語言理解、合成數據生成搜尋以及代理AI等。例如,XAI正在採用GB200來訓練和推理其下一代Grog AI模型。Meta的尖端Andromeda廣告引擎執行在NVIDIA的Grace Hopper超級晶片上,在Instagram、Facebook等應用中投放大量廣告。Andromeda利用Grace Hopper的快速互聯和大記憶體,將推理吞吐量提升了3倍,增強了廣告個性化,並實現了顯著的貨幣化和投資回報率(ROI)增長。 企業收入同比增長了近兩倍,這得益於對模型微調、RAG和代理AI工作流程以及GPU加速資料處理的加速需求。我們推出了NVIDIA Llama Nemotron模型家族NIMs,以幫助開發者在包括客戶支援、欺詐檢測以及產品供應鏈和庫存管理等一系列應用中建立和部署AI代理。領先的AI代理平臺提供商,包括SAP和服務Now,是首批採用新模型的公司之一。 醫療保健領域的領導者IQVIA、Illumina和Mayo Clinic以及Arc Institute正在利用NVIDIA AI加速藥物發現、增強基因組研究,並藉助生成式和代理AI開創先進的醫療服務。隨著AI從數字世界擴充套件到物理世界,NVIDIA的基礎設施和軟體平臺越來越多地被採用,以推動機器人技術和物理AI的發展。在機器人技術和自動駕駛汽車領域是最早期也是最大的應用之一,幾乎每一家自動駕駛汽車公司都在資料中心、汽車或兩者中開發NVIDIA技術。 NVIDIA的汽車垂直業務收入預計在本財年將達到約50億美元。在CES上,現代汽車集團宣佈將採用NVIDIA技術來加速自動駕駛汽車和機器人技術的發展以及智慧工廠計劃。視覺變換器、自監督學習、多模態感測器融合以及高保真模擬正在推動自動駕駛汽車的發展,並將需要10倍以上的計算能力。在CES上,我們宣佈了NVIDIA Cosmos World Foundation Model Platform。正如語言基礎模型徹底改變了語言AI一樣,Cosmos是一種物理AI,旨在徹底改變機器人技術。領先的機器人和汽車公司,包括共享出行巨頭Uber,是首批採用該平臺的公司之一。 從地域角度來看,由於Blackwell的初步推廣,美國的資料中心收入環比增長最為強勁。全球各國都在構建自己的AI生態系統,對計算基礎設施的需求激增。法國的2000億歐元AI投資和歐盟的2000億歐元AI計劃僅是未來幾年重新定義全球AI基礎設施建設的一個縮影。 就資料中心收入的佔比而言,中國資料中心的銷售額仍遠低於出口管制開始時的水平。在沒有法規變化的情況下,我們預計中國的出貨量將保持在當前的水平。中國市場的資料中心解決方案競爭非常激烈。我們將繼續遵守出口管制規定,同時為我們的客戶服務。 網路收入環比下降了3%。我們連線到GPU計算系統的網路非常強大,超過75%。我們正在從小型NVLink 8與InfiniBand轉向大型NVLink 72與Spectrum X。Spectrum X和NVLink交換機的收入增加,代表了一個重要的新增長領域。我們預計網路將在第一季度恢復增長。 AI需要一個新的網路類別。NVIDIA提供NVLink交換機系統用於向上擴充套件計算。對於向外擴充套件,我們提供Quantum和InfiniBand用於HPC超級計算機,以及Spectrum X用於乙太網環境。Spectrum X增強了AI計算的乙太網,並取得了巨大成功。微軟Azure、OCI、CoreWeave等公司正在使用Spectrum X構建大型AI工廠。第一個Stargate資料中心將使用Spectrum X。昨天,思科宣佈將Spectrum X整合到其網路產品組合中,以幫助企業構建AI基礎設施。憑藉其龐大的企業客戶群和全球影響力,思科將把NVIDIA乙太網帶到每個行業。現在轉向遊戲和AI PC。遊戲收入為25億美元,環比下降22%,同比下降11%。全年收入為114億美元,同比增長9%,整個假日期間需求依然強勁。然而,第四季度的出貨量受到了供應限制的影響。我們預計隨著供應的增加,第一季度將實現強勁的環比增長。新的GeForce RTX 50系列桌面和筆記本GPU已經問世。它們專為遊戲玩家、創作者和開發者設計,融合了AI和圖形技術,重新定義了視覺計算。由Blackwell架構提供支援,第五代Tensor核心和第四代RT核心,以及高達3400個AI POPs。這些GPU實現了2倍的效能飛躍,並引入了新的AI驅動渲染技術,包括神經著色器、數字人類技術、幾何和光照。新的VLSS4技術透過AI驅動的幀生成將幀率提升至8倍,將一個渲染幀轉換為三個。它還首次在行業中即時應用了Transformer模型,擁有2倍的引數和4倍的計算能力,為無與倫比的視覺保真度提供了支援。我們還宣佈了一系列配備新NVIDIA Max-Q技術的GeForce Blackwell筆記本GPU,該技術可將電池續航時間延長高達驚人的40%。這些筆記本將從3月開始由全球頂級製造商推出。接下來是我們的專業視覺化業務。收入為5.11億美元,環比增長5%,同比增長10%。全年收入為19億美元,同比增長21%。推動需求的關鍵行業垂直領域包括汽車和醫療保健。NVIDIA技術和生成式AI正在重塑設計、工程和模擬工作負載。越來越多的領先軟體平臺,如Ansys、Cadence和西門子,正在利用這些技術,推動了對NVIDIA RTX工作站的需求。現在轉向汽車業務。收入創下5.7億美元的紀錄,環比增長27%,同比增長103%。全年收入為17億美元,同比增長55%。強勁增長得益於自動駕駛汽車(包括汽車和機器人計程車)的持續增長。在CES上,我們宣佈豐田,全球最大的汽車製造商,將在其下一代汽車中採用NVIDIA Orin,並執行經過安全認證的NVIDIA DRIVE OS。我們宣佈Aurora和Continental將大規模部署無人駕駛卡車,由NVIDIA DRIVE 4提供動力。最後,我們的端到端自動駕駛汽車平臺NVIDIA DRIVE Hyperion已透過Su-Su和Su-Ryland的行業安全評估,這兩家是汽車級安全和網路安全領域的權威機構。NVIDIA是首個獲得全面第三方評估的自動駕駛汽車平臺。 好的,接下來是損益表的其餘部分。GAAP毛利率為73%,非GAAP毛利率為73.5%,隨著我們首次交付Blackwell架構,環比下降,正如預期的那樣。正如上季度所討論的,Blackwell是一種可定製的AI基礎設施,擁有多種型別的NVIDIA製造晶片、多種網路選項,以及適用於空氣和液體冷卻資料中心的配置。我們在第四季度超出預期地推廣了Blackwell,增加了系統可用性,併為我們的客戶提供了多種配置。隨著Blackwell的推廣,我們預計毛利率將在70年代初。最初,我們專注於加快Blackwell系統的製造,以滿足客戶對構建Blackwell基礎設施的強烈需求。當Blackwell全面推廣時,我們有許多機會降低成本,毛利率將得到改善,並將在本財年晚些時候恢復到70年代中期。環比來看,GAAP運營費用增長了9%,非GAAP運營費用增長了11%,這反映了新產品推出所帶來的更高的工程開發成本以及更高的計算和基礎設施成本。在第四季度,我們透過股票回購和現金股息的形式向股東返還了81億美元。 讓我轉向第一季度的展望。預計資本收入為430億美元,上下浮動2%。隨著強勁需求的持續,我們預計Blackwell將在第一季度實現顯著增長。我們預計資料中心和遊戲業務都將實現環比增長。在資料中心內,我們預計計算和網路都將實現環比增長。GAAP和非GAAP毛利率預計分別為70.6%和71%,上下浮動50個基點。GAAP和非GAAP運營費用預計分別約為52億美元和36億美元。我們預計2026財年全年的運營費用將增長至中等30%水平。GAAP和非GAAP其他收入和費用預計約為4億美元的收入,不包括非上市和上市股權證券的收益和損失。GAAP和非GAAP稅率預計為17%,上下浮動1%,不包括任何一次性專案。更多的財務細節包含在首席財務官評論和其他資訊中,這些資訊可在我們的投資者關係網站上找到,包括一個新的財務資訊AI代理。在結束語中,讓我強調一下即將舉行的金融界活動。 我們將在3月3日參加波士頓的TD Cowen醫療保健會議,以及3月5日在舊金山舉行的摩根士丹利科技、媒體和電信會議。請加入我們在3月17日星期一開始的年度GTC會議,地點在加利福尼亞州聖何塞。Jensen將在3月18日發表新聞豐富的主題演講,並且我們將在3月19日為我們的金融分析師舉辦問答環節。我們期待在這些活動中見到您。 我們討論2026財年第一季度結果的財報電話會議安排在2025年5月28日。我們將把電話交給運營商,開始提問。如果您可以開始的話,那將很好。 問答環節 主持人:謝謝。接下來的問題來自Cantor Fitzgerald的CJ Muse。請繼續。 CJ Muse:是的,下午好。感謝您接受我的提問。 我想問的是,Jensen,隨著TEFCON計算和強化學習展現出如此巨大的潛力,我們明顯看到了訓練和推理之間的界限越來越模糊。這對可能專門用於推理的叢集的未來發展意味著什麼?您認為這對英偉達及其客戶會產生怎樣的整體影響?謝謝。 Jensen Huang,創始人、總裁兼執行長: 是的,我感謝你,CJ。現在存在多種擴充套件定律。首先是預訓練擴充套件定律。 而且這將繼續擴充套件,因為我們有多模態。我們有來自推理的資料,這些資料現在被用於預訓練。然後第二部分是使用強化學習、人類反饋、強化學習AI反饋、強化學習可驗證獎勵的訓練後擴充套件定律。實際上,用於訓練後的計算量比預訓練更高。 這在某種程度上是合理的,因為你可以在使用強化學習時生成大量的合成數據或合成生成的標記。AI模型基本上是在生成標記來訓練AI模型。這就是訓練後。第三部分,也就是你提到的部分,是測試時計算或推理、長思考、推理擴充套件。 它們基本上是相同的概念。在那裡,你有思考鏈,你有搜尋。已經生成的標記數量,所需的推理計算量已經比最初大型語言模型的一次性示例和一次效能力高出一百倍。而這僅僅是開始。 這只是個開始。下一個想法是,下一代可能會有成千上萬倍甚至更多倍的推理量,而且我們希望未來的模型能夠進行極其深入的思考,基於模擬和搜尋的模型可能會比今天高出幾十萬倍甚至幾百萬倍。所以,問題來了,你該如何設計這樣的架構?有些模型是自迴歸的。有些模型是基於擴散的。 有時你希望你的資料中心能夠進行分散的推理。有時它是緊湊的。因此,很難確定資料中心的最佳配置,這也是為什麼NVIDIA的架構如此受歡迎的原因。我們執行每一種模型。 我們在訓練方面表現出色。我們今天的大部分計算實際上都是推理。而Blackwell將這一切提升到了一個新的水平。我們在設計Blackwell時考慮了推理模型。 當你檢視訓練時,它的效能要高出許多倍。但真正令人驚歎的是,對於長思考、測試時擴充套件、推理AI模型,它們的速度要快上十倍,25倍的更高吞吐量。所以,Blackwell在各個方面都將表現出色。當你擁有一個可以根據你是在進行更多的預訓練、訓練後還是擴充套件你的推理來配置和使用你的資料中心時,我們的架構是通用的,並且在所有這些不同的方式中都很容易使用。實際上,我們看到的是一種比以往任何時候都更加集中的統一架構。 主持人: 下一個問題來自摩根士丹利的Joe Moore。請繼續。 Joe Moore:實際上我是來自摩根士丹利,謝謝。 我想知道關於GB200在CES的情況。你在準備發言中提到了機架級系統的複雜性以及你們面臨的挑戰。然後,正如你所說,我們已經看到了很多普遍可用性的情況,那麼你在推廣方面處於什麼位置?在系統層面,除了晶片層面之外,是否還有瓶頸需要考慮?還有,你對NGL72平臺的熱情是否有所改變? 未具名發言人: 嗯,我今天比在CES時更有熱情了。原因是我們自CES以來已經出貨了很多。我們有350家工廠生產每個Blackwell機架所需的150萬個元件。是的,這極其複雜,我們成功且令人難以置信地提升了Grace Blackwell的產能,上個季度實現了110億美元的收入。我們將不得不繼續擴大規模,因為需求相當高,客戶們急切且不耐煩地想要得到他們的Blackwell系統。 你可能已經在網路上看到了相當多關於Grace Blackwell系統上線的慶祝活動。當然,我們也有。我們自己為工程團隊、設計團隊和軟體團隊安裝了相當數量的Grace Blackwells。CoreWeave已經公開宣佈了他們系統的成功啟動。微軟也已經宣佈了。當然,OpenAI也已經宣佈了,你開始看到許多系統上線了。我想回答你的問題是,我們正在做的事情沒有什麼是容易的,但我們做得很好,我們所有的合作伙伴也都做得很好。 主持人:下一個問題來自美國銀行證券的Vivek Arya。請繼續。 Vivek Arya: 謝謝您接受我的提問。我只是想知道您是否不介意確認一下第一季度是否是毛利率的底部。然後,Jensen,我的問題是,您的儀表盤上有什麼能給您信心,讓這種強勁的需求持續到明年,DeepSeek以及他們帶來的任何創新,是否在任何方面改變了這種看法?謝謝。 Colette Kress,執行副總裁兼首席財務官: 讓我先回答關於毛利率的第一個問題。在我們的Blackwell推廣期間,我們的毛利率將在70年代初。目前,我們專注於加快我們的製造,以確保我們能夠儘快為客戶提供產品。 我們的Blackwell已經全面推廣,一旦我們的Blackwell全面推廣,我們可以降低成本並提高我們的毛利率。因此,我們預計可能在年底前達到70年代中期。正如你聽到Jensen談到的系統和它們的複雜性。它們是可定製的,在某些情況下。它們有多種網路選項。它們有液體冷卻和水冷。因此,我們知道我們有機會在未來提高這些毛利率。但目前,我們將專注於完成製造並儘快將產品交給我們的客戶。 Jensen Huang,創始人、總裁兼執行長: 我們知道幾件事情,Vivek。我們對資料中心正在建設的資本投資有相當清晰的瞭解。我們知道,從現在起,大多數軟體將基於機器學習。因此,加速計算和生成式AI、推理AI將是您資料中心想要的架構型別。 當然,我們有來自頂級合作伙伴的預測和計劃。我們還知道,有許多創新的、令人興奮的初創公司仍在不斷湧現,作為開發下一代AI突破的新機會,無論是代理AI、推理AI還是物理AI。初創公司的數量仍然相當活躍,每個初創公司都需要相當數量的計算基礎設施。因此,我認為無論是短期訊號還是中期訊號,短期訊號當然是採購訂單和預測等,中期訊號將是基礎設施和資本支出的規模與以往相比。 然後長期訊號與這樣一個事實有關,即我們知道從根本上說,軟體已經從在CPU上執行的手工編碼轉變為在GPU和加速計算系統上執行的基於機器學習和AI的軟體。因此,我們相當清楚地知道,這將是軟體的未來,也許另一種思考方式是,我們真的只觸及了消費者AI和搜尋以及一些消費者生成式AI、廣告、推薦系統的早期階段。下一波浪潮即將到來,企業代理AI、機器人物理AI以及不同地區為自己的生態系統構建主權AI。所有這些才剛剛開始,我們能夠看到它們。 我們能夠看到它們,因為顯然我們處於這些發展的中心,我們可以看到在所有這些不同地方發生的大量活動,這些活動將會發生。因此,無論是短期、中期還是長期訊號,我們都有相當清晰的瞭解。 主持人:下一個問題來自摩根士丹利的Harlan Sur。請繼續。 Harlan Sur: 是的,下午好。感謝您接受我的提問。您的下一代Blackwell Ultra計劃在下半年推出,符合團隊的年度產品節奏。Jensen,鑑於您仍在推廣當前一代的Blackwell解決方案,能否請您幫助我們理解Ultra的需求動態?您的客戶和供應鏈如何同時管理這兩種產品的推廣,團隊是否仍按計劃在下半年執行Blackwell Ultra的推出? Jensen Huang,創始人、總裁兼執行長: 是的。 Blackwell Ultra將在下半年推出,正如您所知,第一代Blackwell出現了一些小問題,可能使我們耽誤了兩個月。當然,我們已經完全恢復了。團隊出色地完成了恢復工作,我們的所有供應鏈合作伙伴以及如此多的人幫助我們以光速恢復。因此,我們現在成功地提升了Blackwell的產能。但那並沒有阻止下一趟列車。下一趟列車遵循年度節奏,Blackwell Ultra將配備新的網路、新的記憶體,當然還有新的處理器等,所有這些都將上線。我們已經與所有合作伙伴和客戶合作,進行了規劃。 他們擁有所有必要的資訊。我們將與每個人合作進行適當的過渡。這一次,Blackwell和Blackwell Ultra之間的系統架構完全相同。從Hopper到Blackwell的過渡要困難得多,因為我們從基於NVLink 8的系統轉向了基於NVLink 72的系統。因此,機箱、系統架構、硬體、電源傳輸等所有內容都必須改變。這是一個相當具有挑戰性的過渡。但下一次過渡將無縫對接。Blackwell Ultra將無縫對接。 我們還已經透露並與所有合作伙伴密切合作,為緊隨其後的過渡做準備。緊隨其後的過渡被稱為Vera Rubin。我們的所有合作伙伴都在跟上這個過渡的步伐。因此,我們正在為這個過渡做準備,再次強調,我們將帶來一個巨大的飛躍。 所以請來GTC,我會和你談談Blackwell Ultra、Vera Rubin,然後展示緊隨其後的那一個。非常令人興奮的新產品。所以請來GTC。 主持人:下一個問題來自瑞銀的Timothy Arcuri。請繼續。 Timothy Arcuri: 非常感謝。Jensen,我們經常聽到關於定製ASIC的事情。你能談談定製ASIC與商用GPU之間的平衡嗎?我們聽說有些異構超級叢集同時使用GPU和ASIC。這是客戶正在計劃構建的東西嗎,還是這些基礎設施將保持相對獨立?謝謝。 Jensen Huang,創始人、總裁兼執行長: 嗯,我們構建的東西與ASIC非常不同。 在某些方面,我們完全不一樣,在某些領域我們有交集。我們在幾個方面有所不同。NVIDIA的架構是通用的。無論你是否針對自迴歸模型、基於擴散的模型、基於視覺的模型、多模態模型或基於文字的模型進行了最佳化,我們都很擅長。我們擅長這一切,因為我們靈活的架構和豐富的軟體堆疊生態系統,我們是大多數令人興奮的創新和演算法的首選目標。因此,根據定義,我們比狹窄的ASIC要通用得多。我們還真的從頭到尾都很擅長,從資料處理、訓練資料的策劃,到訓練資料,當然還有用於訓練後的強化學習,一直到測試時擴充套件的推理。因此,我們是通用的,我們是端到端的,我們無處不在。而且因為我們的架構不僅僅在一個雲中,我們可以在任何雲中,在本地,我們可以在機器人中。我們的架構比僅僅一個雲要通用得多,它是一個偉大的目標,是任何開始新公司的首選目標。因此,我們無處不在。然後我想說的第三件事是,我們的效能和我們的節奏是如此令人難以置信的快。 請記住,這些資料中心總是固定大小的。它們是固定大小的,或者是固定功率的。如果我們的效能每瓦特是2倍到4倍到8倍,這並不罕見,這將直接轉化為收入。因此,如果你有一個100兆瓦的資料中心,如果100兆瓦或吉瓦資料中心的效能或吞吐量是4倍或8倍更高,那麼那個吉瓦資料中心的收入就是8倍更高。這個原因與過去的 資料中心不同,因為AI工廠是直接可貨幣化的,透過其生成的token。因此,我們架構的token吞吐量如此之快,這對於所有為收入生成目的而構建這些系統的公司來說,以及捕捉快速的投資回報率(ROI)來說,是非常有價值的。所以,我認為第三個原因是效能。然後,我想說的是,軟體堆疊是非常複雜的。構建ASIC並不比我們所做的簡單。我們不得不構建新的架構,而構建在我們架構之上的生態系統比兩年前複雜了10倍。這很明顯,因為世界上構建在我們架構之上的軟體數量呈指數級增長,AI也在迅速發展。所以,將整個生態系統構建在多個晶片之上是困難的。 所以,我想說的是,有這四個原因,然後最後,我想說的是,僅僅因為晶片被設計出來並不意味著它會被部署。你已經多次看到這種情況了,有很多晶片被廢棄。但當部署的時候,需要做出商業決策。這個商業決策是關於在有限的AI工廠中部署一個新的引擎,一個新的處理器,這個工廠在大小、功率和時間上都是有限的。我們的技術不僅更先進、效能更好,它還具有更好的軟體能力,非常重要的是,我們的部署能力非常快。所以,這些事情都不是容易的,正如每個人現在所知道的那樣。所以,有很多不同的原因,為什麼我們做得很好,為什麼我們能夠勝出。 主持人:下一個問題來自Melius Research的Ben Reitz。請繼續。 Ben Reitz: 是的。嗨,我是Ben Reitz。嘿,謝謝您接受我的提問。嘿,Jensen,這是一個與地理相關的提問。您非常出色地解釋了一些支撐需求的潛在因素。但是美國環比增長了大約50億美元左右,我認為,存在對於美國是否能夠在其他地區面臨法規限制時彌補缺口的擔憂。我只是想知道,隨著我們度過這一年,如果美國的這種增長持續下去,這是否合適,以及這是否支撐了您的增長率,您如何能夠以如此快的速度增長,儘管存在這種向美國的混合轉變?您的指導似乎表明中國可能會環比增長,所以我想知道您能否闡述一下這種動態,並可能權衡一下。謝謝。 Jensen Huang,創始人、總裁兼執行長: 中國的比例大約與第四季度以及之前的季度相同。大約是出口管制之前的那一半。 但它的比例大約是相同的。關於地理區域,關鍵要點是AI是軟體。它是現代軟體。它是令人難以置信的現代軟體,但它是軟體。而且AI已經主流化了。AI被用於每一個消費者服務中。如果你要買一品脫牛奶,它是由AI交付給你的。所以,幾乎每個消費者服務都以AI為核心。每個學生都將使用AI作為導師。醫療服務使用AI,金融服務使用AI。沒有金融科技公司會不使用AI。每個金融科技公司都會。氣候科技公司使用AI。礦物勘探現在使用AI。每個高等教育機構,每個大學都使用AI。所以,我認為相當安全地說,AI已經主流化了,它已經被整合到了每一個應用中。我們的希望是,當然,這項技術能夠安全地、有益地推進社會。 然後,最後一點,我認為我們正處於這個新時代的開始。我所說的“開始”,是指在我們身後的是數十年來構建的資料中心和計算機,它們是為手工編碼和通用計算以及CPU等構建的。展望未來,我認為相當安全地說,未來的世界將是幾乎所有軟體都將融入AI。所有軟體和所有服務最終都將基於機器學習。資料飛輪將成為改進軟體和服務的一部分。 未來的計算機將是加速的。未來的計算機將基於AI。我們真的只是在這個旅程中走了幾年。在現代化那些已經花費了數十年構建的計算機。所以,我相當確定我們正處於這個新時代的開始。 然後,最後一點,沒有技術曾經有過機會去解決世界上更大一部分的GDP,就像AI一樣。沒有任何軟體工具曾經有過。所以,這是一個現在可以解決世界上更大一部分GDP的軟體工具,比歷史上任何時候都要多。所以,我們思考增長的方式,以及我們思考某件事情是大還是小的方式,必須是在這個背景之下的。當你退後一步,從這個角度來看待它時,我們真的只是處於這個新時代的開始。 主持人:下一個問題來自富國銀行的Aaron Rakers。請繼續。Aaron,您的線路已開啟。下一個問題來自Evercore ISI的Mark Lipacis。請繼續。 Mark Lipacis: 嗨,我是Mark Lipacis。謝謝您接受我的提問。我有一個澄清的問題和一個問題。Colette,關於澄清的問題,您是否說過企業在資料中心在1月份的季度同比增長了2倍?如果是這樣,這是否意味著它的增長速度比超大規模雲服務提供商(CSP)更快?然後,Jensen,我的問題是,超大規模雲服務提供商是您解決方案的最大購買者,但他們購買的裝置既用於內部工作負載,也用於外部工作負載,外部工作負載即企業使用的雲服務。 所以,問題是,您能否給我們一個關於超大規模雲服務提供商在內部工作負載和外部工作負載之間的支出分配的大致情況?隨著這些新的AI工作負載和應用的出現,您是否期望企業將成為消費組合中更大的一部分?這是否會影響您開發服務和生態系統的方式?謝謝。 Colette Kress,執行副總裁兼首席財務官: 當然,感謝您關於我們的企業業務的問題。是的,它增長了2倍,非常類似於我們所看到的大型雲服務提供商的情況。請記住,這兩個領域都很重要。 與雲服務提供商合作可以進行大型語言模型的工作,也可以進行他們自己的推理工作,但請記住,這也是企業出現的地方。所以,您的企業既與您的雲服務提供商合作,也在構建自己的系統。它們都在,正確,增長得相當好。 Jensen Huang,創始人、總裁兼執行長: 雲服務提供商約佔我們業務的一半。 雲服務提供商既有內部消費,也有外部消費,正如你所說的。當然,我們與他們密切合作,最佳化內部工作負載,因為他們擁有大量的NVIDIA裝置,他們可以利用這些裝置。而且,由於我們可以在一方面用於AI,另一方面用於影片處理,還可以用於像Spark這樣的資料處理,我們是通用的。 因此,如果我們的裝置的使用壽命更長,那麼總擁有成本(TCO)也會更低。那麼,第二個問題是,我們如何看待非雲服務提供商(CSP)的企業未來的增長?答案是,我認為從長期來看,企業部分將佔據更大的份額。原因如下: 如果你看看今天的計算機行業,以及計算機行業尚未服務的部分,主要是工業。所以,讓我舉個例子。當我們說企業時,以汽車公司為例,因為他們既製造軟體產品,也製造硬體產品。所以,在汽車公司的例子中,員工將是我們所說的企業部分,代理AI和軟體規劃系統和工具,我們有一些非常令人興奮的東西將在GTC上與大家分享,這些代理系統是為了提高員工的生產力,用於設計、營銷、規劃和運營公司。這些是代理AI。另一方面,他們製造的汽車也需要AI。他們需要一個AI系統來訓練這些汽車,管理這個龐大的汽車車隊,今天路上有10億輛汽車,將來也會有10億輛汽車,每輛汽車都將是機器人汽車,它們都將收集資料,我們將使用AI工廠來改進它們,就像他們今天有汽車工廠一樣,未來他們將擁有汽車工廠和AI工廠。 然後,在汽車內部是一個機器人系統,所以正如你所看到的,有三臺計算機參與其中,有一臺計算機幫助人們,有一臺計算機為機器建造AI,它可以是一匹馬,它可以是一臺拖拉機,它可以是一臺割草機,它可以是一個人或正在開發的機器人,它可以是一棟建築,它可以是一個倉庫,這些物理系統需要一種新的AI,我們稱之為物理AI。它們不僅要理解單詞和語言的含義,還要理解世界的物理意義,摩擦力和慣性,物體的永久性和因果關係,以及所有這些對我們來說是常識的東西,但AI需要去學習這些物理效應,所以我們稱之為物理AI。 整個使用代理AI來徹底改變公司內部工作方式的部分,這只是剛剛開始。現在是代理AI時代的開始,你聽到很多人在談論它,我們有一些非常令人興奮的事情正在進行中,然後是物理AI之後,還有機器人系統之後,所以這三臺計算機都是全新的,我的感覺是,從長期來看,這將是其中最大的一部分,這在某種程度上是有道理的,因為世界上GDP的大部分是由重工業或工業企業以及為這些服務的公司所代表的。 主持人:下一個問題來自富國銀行的Aaron Rakers。請繼續。 Aaron Rakers: 是的,謝謝您再次給我機會提問。Jensen,隨著我們接近Hopper轉折點兩週年的紀念日,您在2023年看到了這一轉折點,以及生成式AI的興起,當我們考慮您面前的道路時,您如何看待已經部署的基礎設施,從替換週期的角度來看,無論是GB300還是Rubin週期,我們何時開始看到可能的更新機會?我只是好奇您是如何看待這個問題的。 Jensen Huang,創始人、總裁兼執行長: 是的,我非常感謝。首先,人們仍在使用Voltas和Pascals和Amperes。 原因是因為因為CUDA是如此的可程式設計,你可以使用它。嗯,其中一個主要的用例是資料處理和資料策劃。你發現了一個AI模型不太擅長的情況。你將這種情況呈現給一個視覺語言模型。 假設,假設,是一輛車。你將這種情況呈現給一個視覺語言模型。視覺語言模型實際上查看了這種情況,並說,這並不是我擅長的。然後,你將這個回應,這個提示,然後你去提示一個AI模型去在你的整個資料湖中找到其他類似的情況,無論這種情況是什麼。然後你使用AI進行領域隨機化,並生成許多其他示例。然後,你可以從這些示例中訓練模型。所以你可以使用Amperes來進行資料處理和資料策劃以及基於機器學習的搜尋。 然後你建立了訓練資料集,然後你將這個資料集呈現給你的Hopper系統進行訓練。所以,這些架構中的每一個都是完全相容的,它們都是CUDA相容的。所以,所有東西都可以在任何地方執行。但是,如果你有已經部署的基礎設施,那麼你可以將不太密集的工作負載放在過去的安裝基礎上。 我們的所有GPU都被充分利用了。 主持人:我們還有時間回答一個問題,這個問題來自花旗銀行的Atif Malik。請繼續。 Atif Malik: 嗨,謝謝您接受我的提問。我有一個關於毛利率的後續問題,Colette。Colette,我知道有很多變數,Blackwell的產量和NVLink 72以及乙太網的混合。你之前有點回避關於第一季度是否是底部的問題。但下半年要達到你給出的年底70年代中期範圍,必須每個季度增長200個基點。我們仍然不知道關稅對更廣泛的半導體行業的影響。 那麼,是什麼讓你對今年下半年的這個軌跡有信心呢? 未具名發言人: 是的,謝謝你的提問。我們的毛利率相當複雜,就我們在Blackwell系統中所使用的材料和所有東西而言。在如何隨著時間推移更好地提高我們的毛利率方面,我們有很多機會。請記住,我們在Blackwell上有許多不同的配置,這將有助於我們做到這一點。 所以,一起工作,在我們為客戶提供了一些真正強勁的推廣之後,我們可以開始這項工作。如果可能的話,我們將盡快開始。如果我們能在短期內提高它,我們也會這樣做。關稅,目前,這是一個有點未知的因素。 直到我們進一步瞭解美國政府的計劃,無論是時間、地點還是多少,它都是未知的。所以目前,我們正在等待。但當然,我們總是會遵守出口管制或關稅等規定。 主持人: 女士們、先生們,這結束了我們今天的問答環節。很抱歉。讓我們把時間交給Jensen。 Jensen Huang,創始人、總裁兼執行長: 我只是想感謝大家。謝謝Colette。對Blackwell的需求是非凡的。AI正在從感知和生成式AI發展到推理AI。 隨著推理AI的發展,我們觀察到了另一個擴充套件定律,即推理時間或測試時間擴充套件。模型思考的計算量越多,答案就越聰明。像OpenAI的ROT3、DeepSeek-R1這樣的模型是推理模型,它們應用了推理時間擴充套件。推理模型可以消耗100倍更多的計算量。未來的推理模型可以消耗更多的計算量。DeepSeek-R1激發了全球的熱情。這是一個出色的創新。但更重要的是,它開源了一個世界級的推理AI模型。幾乎每個AI開發者都在應用R1或思考鏈和強化學習技術,以擴充套件他們模型的效能。我們現在有三個擴充套件定律。AI的擴充套件定律仍然存在。基礎模型正在透過多模態增強,預訓練仍在增長。但僅靠預訓練已經不夠了。 我們還有兩個額外的擴充套件維度。訓練後的擴充套件,其中強化學習、微調、模型蒸餾需要比單獨預訓練多幾個數量級的計算量。推理時間擴充套件和推理,其中單個查詢可以要求100倍更多的計算量。我們為這一刻設計了Blackwell,一個單一平臺,可以輕鬆地從預訓練過渡到訓練後和測試時間擴充套件。Blackwell的FP4 Transformer引擎和NVLink 72擴充套件結構以及新的軟體技術,使Blackwell處理推理AI模型的速度比Hopper快25倍。Blackwell及其所有配置都已全面投產。每個Grace Blackwell NVLink 72機架都是一個工程奇蹟。150萬個元件在350個製造場所生產,由近100000名工廠操作員生產。 AI正以光速發展。我們正處於推理AI和推理時間擴充套件的開始。但我們只是處於AI時代的開始。多模態AI、企業AI、主權AI和物理AI就在眼前。我們將在2025年強勁增長。展望未來,資料中心將把大部分資本支出用於加速計算和AI。資料中心將越來越多地成為AI工廠。每個公司都將擁有自己的或租用的。我想感謝大家今天參加我們的會議。請在幾周後加入我們在GTC的會議。我們將談論Blackwell Ultra、Rubin以及其他新的計算、網路、推理AI、物理AI產品,還有許多其他內容。謝謝。
本文不構成個人投資建議,不代表平臺觀點,市場有風險,投資需謹慎,請獨立判斷和決策。
覺得好看,請點“在看”
