老黃又來“搶錢”:英偉達再推超強晶片平臺,守住萬億晶片老大擂臺

本地視角記錄矽谷,全球視野關注創新
別忘了給我們加星標~
2023
新技術追蹤
BUSINESS
從算力到服務,英偉達在AI賽道上毫不鬆懈。

文| Juny  編輯| VickyXiao
在最近風起雲湧的AI圈裡,每一片英偉達H100 GPU的走向都被大家緊盯著。原因無它,就因為H100是當前進行人工智慧訓練的最強引擎。
如今,全球約90%以上的大模型都在使用英偉達的GPU晶片,作為生成式AI時代下最為關鍵的基礎硬體,幾乎所有人工智慧企業都在四處搜尋H100的蹤影。一定程度上來說,誰擁有了更多的H100,誰就在當前AI競賽中佔據著上風。
而今天,在洛杉磯的SIGGRAPH大會上,英偉達宣佈了新一代GH200 Grace Hopper超級晶片平臺的到來。GH200專門為加速計算和生成人工智慧時代而打造,旨在處理世界上最複雜的生成式人工智慧工作負載,涵蓋大型語言模型、推薦系統和向量資料庫,並將提供多種配置。
不僅僅只是超級晶片,圍繞著生成式AI的方方面面,英偉達今天還發布了一系列更新,包括全新AI服務平臺、推出了4款新顯示卡、伺服器等等,試圖全方位加速和簡化生成式AI專案的開發、訓練、部署和應用。
|為生成式AI時代打造最強超級晶片平臺
此次,全新的Grace Hopper 超級晶片該平臺配備了全球首款 HBM3e 處理器,透過大幅增加頻寬和記憶體,將為更大的 AI 模型提供訓練和計算能力。該配置經過最佳化,GH200還可以執行 AI 推理功能,從而有效地為 ChatGPT 等生成式 AI 應用程式提供支援。
英偉達之所以稱GH200為“超級晶片”,因為它將基於 Arm 的 Nvidia Grace CPU 與 Hopper GPU 架構結合在了一起。GH200 與目前最高階的 AI 晶片 H100 具有相同的 GPU,H100 擁有 80GB 記憶體,而新款 GH200 的記憶體高達141GB同時與 72 核 ARM 中央處理器進行了配對。
新版本的GH200採用了全球最快的記憶體技術HBM3e。英偉達表示,HBM3e記憶體技術帶來了50%的速度提升,總共提供了10TB/秒的組合頻寬。因此,新平臺能夠執行比先前版本大3.5倍的模型,並以3倍的記憶體頻寬提高效能。
擁有更大的記憶體也意味著未來可以讓模型駐留在單個 GPU 上,而不必需要多個系統或多個 GPU 才能執行。
不僅能力得到了大幅提升,英偉達還Nvidia 還發布了NVIDIA NVLink™伺服器設計對GH200進行了擴充套件。NVIDIA NVLink™將允許Grace Hopper超級晶片可以與其他超級晶片連線組合,這一技術方案為GPU提供了完全訪問CPU記憶體的途徑。
英偉達表示,目前正在開發一款新的雙GH200基礎NVIDIA MGX伺服器系統,將整合兩個下一代Grace Hopper超級晶片。在新的雙GH200伺服器中,系統內的CPU和GPU將透過完全一致的記憶體互連進行連線,這個超級GPU可以作為一個整體執行,提供144個Grace CPU核心、8千萬億次的計算效能以及282GB的HBM3e記憶體,從而能夠適用於生成式AI的巨型模型。
GH200還能夠相容今年早些時候在COMPUTEX上公佈的NVIDIA MGX™伺服器規格。有了MGX,製造商可以迅速且經濟高效地將Grace Hopper技術整合到100多種伺服器變體中。
NVIDIA執行長黃仁勳強調,資料中心需要應對生成型AI的激增需求,因此也需要有更具針對性的加速計算平臺,GH200平臺正是為滿足這一需求而生。
“你幾乎可以將任何你想要的大型語言模型放入其中,它會瘋狂地進行推理。大型語言模型的推理成本將大幅下降,同時將大幅提高資料中心的運作效率和效能。”
目前,英偉達計劃銷售GH200的兩種版本:一種是包含兩個可供客戶整合到系統中的晶片,另一種則是結合了兩種 Grace Hopper 設計的完整伺服器系統。
英偉達表示,全新的GH200將大大降低訓練成本和提升訓練速度,預計將於明年第二季度上市。
|推出AI Workbench服務,企業級AI專案本地也能開發部署
除了全新的超級晶片平臺,英偉達今天還宣佈了推出了一個新的AI服務——AI Workbench,這是一個易於使用的統一工具包,讓開發人員能夠在 PC 或工作站上快速建立、測試和自定義預訓練的生成式 AI 模型,然後將其擴充套件到幾乎任何資料中心、公共雲或NVIDIA DGX™ 雲。
英偉達認為,當前企業級AI的開發過程太過繁瑣和複雜,不僅需要在多個庫中尋找合適的框架和工具,當專案需要從一個基礎設施遷移到另一個基礎設施時,過程可能會變得更加具有挑戰性。
研究機構KDnuggets曾進行過一個調查,80%或更多的專案在部署機器學習模型之前停滯不前。Gartner的另一項研究也顯示,由於基礎設施的障礙,有接近85%的大資料專案失敗。
總體來看,企業模型投入生產的成功率總體較低,世界各地的企業都在尋找合適的基礎設施來構建生成AI模型和應用。而此次,AI Workbench則為這個過程提供了簡化的路徑。
黃仁勳在會議上表示,為了推動AI技術普惠,必須讓其有可能在幾乎任何地方執行。因此,AI Workbench將支援在本地機器上進行模型的開發和部署,而不是雲服務上。
AI Workbench提供了一個簡單的使用者介面,開發人員能夠將模型、框架、SDK 和庫從開源資源整合到統一的工作區中,可以在本地計算機上執行並連線到 HuggingFace、Github以及其他流行的開源或商用 AI 程式碼儲存庫。也就是說,開發人員可以在一個介面上輕鬆訪問大部分AI開發所需資源,不用開啟不同的瀏覽器視窗。
英偉達表示,使用 AI Workbench 的一些主要優勢包括:
易於使用的開發平臺。 AI Workbench 透過提供單一平臺來管理資料、模型和計算資源,支援跨機器和環境的協作,從而簡化了開發流程。
與 AI 開發工具和儲存庫整合。 AI Workbench 與 GitHub、NVIDIA NGC 和 Hugging Face 等服務和 Git 伺服器整合,使用者可以使用 JupyterLab 和 VS Code 等工具跨平臺和基礎設施進行開發,具有高度的可重複性和透明度。
增強協作。該專案結構有助於自動化圍繞版本控制、容器管理和處理機密資訊的複雜任務,同時還支援跨團隊協作。
訪問加速計算資源:AI Workbench 部署是客戶端-伺服器模型,使用者能夠開始在其工作站中的本地計算資源上進行開發,並隨著訓練作業的規模擴大而轉向資料中心或雲資源。
英偉達表示,目前戴爾、惠普、Lambda、聯想等人工智慧基礎設施提供商已經採用了 AI Workbench服務,並看到了其提升最新一代多 GPU 能力的潛力。在實際用例中,Workbench 可以幫助使用者從單臺 PC 上的開發轉向更大規模的環境,在所有軟體都保持不變的情況下幫助專案投入生產。
|萬億晶片老大,要用AI守擂
此次,圍繞著生成式 AI 和數字化時代的開發和內容創作,英偉達還一口氣推出了多項的新產品和服務,可以說是涵蓋了生成式AI開發的方方面面。
在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新顯示卡,旨在為全球專業人士提供最新的 AI圖形和即時渲染技術。並基於新GPU推出了一套一站式解決方案 RTX Workstation。
針對 AI 訓練和推理、3D 設計和視覺化、影片處理和工業數字化等計算密集型應用的需求,推出了配備 Nvidia L40S GPU 的 Nvidia OVX 伺服器,旨在加速多個行業的工作流程和服務。

Nvidia 推出了新的 RTX 工作站 GPU

釋出最新版本的企業軟體平臺 Nvidia AI Enterprise 4.0,同時引入用於構建和定製生成式 AI 基礎模型的端到端框架 Nvidia NeMo,旨在為企業提供在其運營中整合和部署生成式 AI 模型的工具,但以安全的方式和穩定的 API 連線。
推出了GPU 加速的軟體開發套件和雲原生微服務 Maxine,讓專業人士、團隊和創作者能夠利用人工智慧的力量並創造高質量的音訊和影片效果,從而改進即時通訊服務。此外Nvidia Research 還宣佈推出人工智慧驅動的 3D 影片技術,在沉浸式通訊領域取得進展。
隨著英偉達一個接一個新產品和新服務的揭曉,我們似乎也看到生成式AI的生產力爆炸時代正在加速到來。
在人工智慧的驅動下,英偉達今年的來收益和股價節節攀升,公司市值一度突破萬億美元。但越是風光,競爭對手就越是虎視眈眈。隨著人工智慧晶片荒的加劇,巨頭們都開始加大投資、奮起直追。
比如,就在今天的大會不久前,AMD剛剛釋出了自己“大模型專用”的AI晶片MI300X,直接對標H100。此外,谷歌、亞馬遜、特斯拉等也都在設計自己的定製人工智慧推理晶片。但目前來看,在越來越激烈的賽道上,跑在最前邊的英偉達絲毫沒有鬆懈。
靠AI“翻身”的英偉達,顯然還想要乘著AI的風跑得更快、更遠。
*參考資料:
Nivida Technical Blog
注:封面圖和插圖均來自於英偉達官方,版權屬於原作者。如果不同意使用,請儘快聯絡我們,我們會立即刪除。
END
喜歡這篇文章?
1)點選右下角的“在看”
2)分享到你的朋友圈和微信群
3)趕快關注矽星人吧!

關注矽星人,帶你用本地視角看矽谷,全球視野看創新


相關文章