黃仁勳GTC2025演講:人工智慧的終極形態物理AI將徹底改變世界

3月19日凌晨,NVIDIA 創始人兼執行長黃仁勳在2025年GTC開發者大會上發表了主題演講,演講覆蓋了AI科技演進以及計算需求,同時公佈了英偉達的Blackwell架構最新一代產品、未來幾代產品的計劃出貨時間,以及英偉達在人形機器人領域的最新進展。

圖源:英偉達官方影片,下同

演講期間,黃仁勳再次提到AI技術的進化路徑,從 Perception 感知AI到 Generative生成式AI,再到現階段發展火熱Agentic代理型AI,最終實現具備感測與執行功能的Physical 物理型AI。黃仁勳認為AI的終極形態Physical AI將徹底改變世界。
以下是演講的核心內容與關鍵釋出:

一、硬體革新:Blackwell架構及未來路線圖

Blackwell Ultra晶片
採用臺積電4NP工藝,單卡FP4算力達15 PetaFLOPS,HBM3e視訊記憶體容量提升至288GB,推理速度較前代Hopper提升11倍8。
機架級解決方案GB300 NVL72整合72顆GPU,支援液冷技術,推理效能達每秒1000 tokens(H100的10倍)。效能提升源於NVLink 72高速互聯技術,將多GPU組合成“巨型GPU”,突破算力瓶頸。
未來架構規劃
Rubin架構(2026年釋出):採用NVLink 144互聯技術,HBM4記憶體頻寬提升2倍,2027年Ultra版效能將達Blackwell的14倍。
Feynman架構(2028年):以物理學家費曼命名,目標實現算力成本指數級下降。

二、軟體生態與工具升級

Dynamo推理作業系統
開源動態排程系統,最佳化GPU資源分配,使Hopper平臺執行Llama模型的吞吐量提升30倍,並支援KV快取管理。在DeepSeek-R1模型測試中,單GPU生成token數量提升30倍以上。
CUDA生態擴充套件
CUDA-X庫新增工具:Newton物理引擎(與DeepMind、迪士尼合作):提升機器人訓練效率10倍。
cuOpt數學規劃工具:加速千倍,已與Gurobi、IBM合作。
開發者生態:全球開發者突破600萬,加速庫增至900+,覆蓋量子計算、生物醫學等領域。

三、AI發展階段論與物理AI的推進

AI三階段演進路徑
感知人工智慧(Perception AI):大約10年前啟動,專注於語音識別和其他簡單任務。
生成式人工智慧(Generative AI):過去5年的重點,涉及透過預測模式進行文字和影像建立。
代理人工智慧(Agentic AI):人工智慧以數字方式互動並自主執行任務的當前階段,以推理模型為特徵。
物理 AI(Physical AI):AI 的未來,為人形機器人和現實世界的應用提供動力。
物理AI落地實踐
開源人形機器人基礎模型Isaac GR00T N1:支援雙系統認知(慢思考規劃+快思考執行),可遷移至工業製造場景。
與通用汽車合作構建全棧自動駕駛系統:覆蓋數字孿生模擬與車載AI安全架構HALOS。

四、行業應用與合作案例

企業級AI解決方案
DGX Spark:售價3000美元的桌面級工作站,支援本地化模型微調。
語義儲存系統:與Box合作,支援自然語言資料檢索。
邊緣與通訊技術
聯合思科、T-Mobile構建AI-RAN(AI無線網路),最佳化5G訊號處理與能耗。
矽光子技術突破:全球首個1.6T共封裝光學(CPO),減少資料中心光模組功耗90%。

硬體創新:Blackwell架構引領算力飛躍

黃仁勳宣佈Blackwell架構已全面投產,其效能和能效相比前代Hopper架構都有顯著提升。基於臺積電4NP工藝的Blackwell Ultra晶片(B300系列)正式釋出,單卡FP4算力達15 PetaFLOPS,HBM3E視訊記憶體容量提升至288GB,推理速度較前代Hopper提升11倍。Blackwell Ultra包括NVIDIA GB300 NVL72機架級解決方案和NVIDIA HGXT B300 NVL16系統。GB300 NVL72與上一代NVIDIA GB200 NL72相比,AI的效能提升5倍。GB300 NVL72連線了72個Blackwell Ultra GPU與36個基於Arm Neoverse的Grace CPU;NVIDIA HGX B300 NVL16與上一代相比,在大型語言模型上具有11倍推理速度、4倍記憶體,可以為AI推理等複雜的工作負載提供突破性的效能。機架級解決方案GB300 NVL72整合72顆GPU,支援液冷技術,推理效能達每秒1000 tokens,已獲亞馬遜AWS、微軟Azure等四大雲廠商360萬片訂單。此外,英偉達還公佈了下一代GPU架構Vera Rubin和Feynman的路線圖,Vera Rubin架構計劃於2026年推出,採用NVLink 144互聯技術,HBM4記憶體頻寬提升2倍;2028年釋出的Feynman架構,目標實現算力成本指數級下降。

軟體生態Dynamo與CUDA-X驅動開發效率

英偉達推出了開源推理軟體Dynamo,它可將Hopper平臺執行Llama模型的吞吐量提升30倍,支援動態分配GPU資源,最佳化KV快取管理。在DeepSeek-R1模型測試中,Dynamo使GB200 NVL72叢集的單GPU生成token數量提升30倍以上。CUDA-X庫新增Newton物理引擎,與DeepMind、迪士尼合作開發,機器人訓練效率提升10倍;cuOpt數學規劃工具加速千倍。全球開發者突破600萬,加速庫數量增至900+,覆蓋量子計算、生物醫學等前沿領域。

從自主型人工智慧推理革命走向物理人工智慧

黃仁勳闡述了AI發展的三階段演進路徑:從感知AI(Perception AI)的計算機視覺和語音識別,到生成式AI(Generative AI)的多模態內容生成,再到當下熱門的代理式AI(Agentic AI),其具備主動性,能感知並理解語境,制定並執行計劃。未來則是物理AI(Physical AI)的時代,理解物理世界、三維世界的AI將推動機器人、自動駕駛等領域的發展。
演講期間,英偉達推出了開源人形機器人基礎模型Isaac GR00T N1,支援雙系統認知,可遷移至工業製造場景。同時,英偉達與通用汽車合作構建全棧自動駕駛系統,覆蓋數字孿生模擬與車載AI安全架構HALOS。

推動CUDA生態進化

英偉達在AI for Science領域的佈局持續加深,開發人員現在可以利用CUDA-X與最新的superchip架構實現CPU和GPU資源之間更緊密的自動整合與協調,與使用傳統加速計算架構相比,其工程計算工具的速度提高11倍,計算量提高5倍。CUDA-X目前已經在天文學、粒子物理學、量子物理學、汽車、航空航天和半導體設計等一系列新的工程學科帶來了加速計算。

AI工廠時代到來

黃仁勳特別強調了AI工廠的概念,Dynamo被比作新時代的VMware,能夠自動編排如何讓AI在推理時代跑得更好。英偉達還推出了AI電腦DGX Spark和DGX Station,採用Blackwell晶片,助力企業構建更高效的AI基礎設施。

小結

黃仁勳的演講全面展示了英偉達在AI領域的技術實力和戰略佈局,從硬體的持續創新到軟體生態的完善,再到對AI發展階段的深刻洞察,英偉達正致力於推動AI技術從從自主型人工智慧推理革命走向物理人工智慧終局。

相關文章