一文讀懂英偉達GTC,AI算力奇點顛覆未來

北京時間3月19日凌晨1點(當地時間3月18日),英偉達(NVIDIA)年度GPU技術大會(GTC)盛大舉行,CEO黃仁勳登臺發表主題演講。這場長達兩小時的演講,內容涵蓋晶片架構、生成式AI、資料中心、自動駕駛、AI工廠,以及個人AI超算和機器人等多個領域。

他宣佈,Bl­a­c­k­w­e­ll系列的新品Bl­a­c­k­w­e­ll Ul­t­ra NVL72 平臺將於今年下半年出貨,它的頻寬是前代GB200的兩倍,記憶體速度是前代的1.5倍。在演講中,黃仁勳還宣佈,推出全球首款開源人形機器人功能模型Is­a­ac GR00T N1。他認為機器人市場具有非常大的爆發潛力,稱它“很可能是最大的產業。”
Blackwell全家桶上線
英偉達去年GTC釋出Blackwell架構,並推出GB200晶片,今年的正式名稱做了微調,不叫之前傳言的GB300,直接就稱之為Blakwell Ultra。
但從硬體來看,就是在去年基礎上更換了新的HBM記憶體。一句話理解就是,Blackwell Ultra= Blackwell大記憶體版本。
Blackwell Ultra由兩顆臺積電N4P(5nm)工藝,Blackwell 架構晶片+Grace CPU封裝而來,並且搭配了更先進的12層堆疊的HBM3e記憶體,視訊記憶體提升至為288GB,和上一代一樣支援第五代NVLink,可實現1.8TB/s的片間互聯頻寬。
基於儲存的升級,Blackwell GPU的FP4精度算力可以達到15PetaFLOPS,基於Attention Acceleration機制的推理速度,比Hopper架構晶片提升2.5倍。
和GB200 NVL72一樣,英偉達今年也推出了類似的產品Blackwell Ultra NVL72機櫃,一共由18個計算托盤構成,每個計算托盤包含4顆Blackwell Ultra GPU+2顆Grace CPU,總計也就是72顆Blackwell Ultra GPU+36顆Grace CPU,視訊記憶體達到20TB,總頻寬576TB/s,外加9個NVLink交換機托盤(18顆NVLink 交換機晶片),節點間NVLink頻寬130TB/s。
機櫃內建72張CX-8網絡卡,提供14.4TB/s頻寬,Quantum-X800 InfiniBand和Spectrum-X 800G乙太網卡則可以降低延遲和抖動,支援大規模AI叢集。此外,機架還整合了18張用於增強多租戶網路、安全性和資料加速BlueField-3 DPU。
英偉達說這款產品是“為AI推理時代”專門定製,應用場景包括推理型AI、Agent以及物理AI(用於機器人、智駕訓練用的資料模擬合成),相比前一代產品GB200 NVL72的AI效能提升了1.5倍,而相比Hopper架構同定位的DGX機櫃產品,可以為資料中心提供50倍增收的機會。
根據官方提供的資訊,6710億引數DeepSeek-R1的推理,基於H100產品可實現每秒100tokens,而採用Blackwell Ultra NVL72方案,可以達到每秒1000 tokens。
換算成時間,同樣的推理任務,H100需要跑1.5分鐘,而Blackwell Ultra NVL72 15秒即可跑完。
推出兩款個人AI超級計算機
第一款個人AI超級計算機,叫做DGX Spark。
它就是老黃在今年1月份CES中釋出的那個全球最小的個人AI超級計算機Project Digits,這次取了個正式的名字。
DGX Spark售價3000美元(約21685元),大小和Mac Mini相當。
它採用的是英偉達GB10晶片,能夠提供每秒1000萬億次的AI運算,用於微調和推理最新AI模型。
其中,GB10採用了NVLink-C2C互連技術,提供CPU+ gpu的相干記憶體模型,頻寬是第五代PCIe的5倍。
至於第二款個人AI超級電腦,則是DGX Station。
DGX Station所採用的,正是今天推出的GB300,也是首個採用這款晶片的AI電腦。
其效能如下:
  • 擁有784GB的相干記憶體空間
  • 擁有英偉達的ConnectX-8超級網絡卡,支援高達800Gb/s的網路速度
  • 擁有Nvidia的CUDA-X AI平臺,可訪問NIM微服務和AI Enterprise
至於上市趕時間,則是將於今年晚些時候從華碩、BOXX、戴爾、惠普、Lambda和美超微等廠商處推出。
除此之外,老黃在這屆GTC上還涉足了乙太網,推出全球首個面向AI的乙太網網路平臺——Spectrum-X。
它由英偉達的Spectrum-4乙太網交換機和BlueField-3 SuperNIC共同發力,能為AI、機器學習和自然語言處理等提供高效能支援。
相比傳統乙太網,Spectrum-X可將AI網路效能提升1.6倍,提高AI雲的電力效率。
以及還包括基於矽光學的Spectrum-X Photonics和Quantum-X Photonics網路交換平臺,用於使用矽光學的超大規模資料中心。
新的網路交換平臺將埠資料傳輸速度提升至1.6Tb/s,總傳輸速度達到400Tb/s,使數百萬個GPU能夠無縫協同工作。
軟體開源
除了硬體,英偉達這次在軟體開源方面也有幾個新動作。
其中最重磅的,當屬釋出NVIDIA Dyamo,一個用於加速AI模型推理的分散式推理服務庫。
老黃將其稱為“AI工廠的作業系統”,核心目標在於提高推理效能的同時降低Test-Time算力消耗。按照英偉達的說法,在NVIDIA Blackwell上使用Dynamo最佳化推理,能讓DeepSeek-R1的吞吐量提升30倍。
至於背後原因,主要在於Dynamo可以透過動態調整GPU資源應對請求波動,並最佳化資料解除安裝到成本更低的儲存裝置,從而降低推理成本並提高效率。
目前Dynamo已完全開源,支援PyTorch、SGLang、NVIDIA TensorRTyTM以及vLLM,在GitHub獲取後即可將推理工作分配到多達1000個NVIDIA GPU晶片。
此外,英偉達還宣佈開源新的AI推理模型——Llama Nemotron,該系列模型也曾出現在今年1月的CES上。
據介紹,Llama Nemotron基於開源Llama基礎模型構建,採用英偉達最新技術和高質量資料集進行剪枝和訓練,優化了計算效率和準確性。
自動駕駛具身智慧
大會開始不久,老黃即宣佈英偉達與通用汽車達成合作:通用將在自動駕駛上使用英偉達的AI技術。
在這之後,英偉達正式釋出了端到端自動駕駛汽車全棧綜合安全系統NVIDIA Halos。
這個系統主要將NVIDIA的汽車硬體和軟體解決方案與尖端AI研究相結合,以確保從雲端到車輛的自動駕駛汽車(AVs)的安全開發。
介紹過程中,老黃多次提到了“安全性”這個詞,並公開聲稱:我們是世界上第一家對每一行程式碼進行安全評估的公司
大會壓軸展示了一系列機器人技術成果,其中Isaac GR00T N1是世界首個開放、完全可定製的通用人形推理和技能基礎模型。

它採用雙系統架構,靈感源於人類認知原理,在視覺語言模型支援下可執行多種任務,開發人員還能用真實或合成數據進行後期訓練。同時,英偉達與谷歌DeepMind、迪士尼研究部門合作開發開源物理引擎Newton。Newton基於英偉達Warp框架構建,針對機器人學習最佳化,與多種模擬框架相容,迪士尼研究公司將率先使用其改進機器人角色平臺。
值得一提的是,去年亮相的BDX機器人再次登臺,動作更加自然靈活。另外,當地時間3月20日,英偉達舉辦首個“量子日(Quantum Day)”活動,旨在探索量子計算的應用前景。

此次GTC 2025大會充分展現了英偉達在AI和計算機技術領域的持續創新能力與引領地位。

End
巴菲特股東大會考察團火熱報名中
🎉矽谷高創會(SVIEF)始終致力於為企業家、初創者、投資人賦能,重磅推出「巴菲特股東大會考察團」(點選藍字鏈

接瞭解更多):


👉 巴菲特股東大會考察團矽谷高創會出品:巴菲特股東大會考察團,正在報名中
聯絡我們>>
|點選關注我們 👇 記得星標|

相關文章