英偉達GPU,在這個市場吃癟

👆如果您希望可以時常見面,歡迎標星🌟收藏哦~
來源:內容編譯自lightreading
儘管目前為止,電信行業對英偉達的興趣有限,但該公司並未放棄向電信行業銷售人工智慧晶片的努力。但這家圖形處理器 (GPU) 巨頭似乎已轉向低端市場,在其最新的無線接入網 (RAN) 業務推廣中,不再強調人工智慧。如果說英偉達以著名計算機奇才、海軍少將格蕾絲·霍珀 (Grace Hopper) 的名字命名的晶片組是一艘豪華超級遊艇,那麼本週釋出的 ARC-Compact 則是一艘經濟型遊艇,房間更少,船帆更小。
ARC 伺服器(搭載 Grace Hopper 及其繼任者 Grace Blackwell)於去年釋出,其目標客戶是任何構建集中式 RAN (C-RAN) 的電信運營商,該伺服器可以透過附近的資料中心支援眾多蜂窩基站。ARC-Compact 的設計則針對的是安裝在蜂窩基站上,即 Nvidia 和其他眾多電信利益相關者所稱的分散式 RAN(或 D-RAN)。這徹底改變了經濟性和可能的技術需求。
因此,ARC-Compact 的主要元件是 Grace 中央處理器 (CPU)(基於軟銀旗下 Arm 的藍圖)和 L4 Tensor Core GPU。與 Hopper 和 Blackwell GPU 相比,它相對輕量級,適合進行一些邊緣影片處理和推理,但效能較弱,無法進行任何大型語言模型訓練或承擔巨大的 AI 工作負載。
在一篇關於 ARC-Compact 的部落格中,Nvidia 將其描述為一種“經濟高效、節能”的選擇,可用於“低延遲 AI 工作負載和 RAN 加速”。但即使是 L4 Tensor Core 也可能有些過度了。在缺乏太多競爭的情況下,只有三家大型 RAN 供應商可能使用 Nvidia 的技術,而且他們似乎對 Grace 更感興趣,而不是其他現有的 GPU。
CUDA 方面沒有重大進展
這三家公司分別是愛立信、諾基亞和三星,它們都已在虛擬 RAN 技術上進行了一些投資,該技術用通用 CPU 取代了專用 5G 網路中常見的專用積體電路 (ASIC)。英偉達所謂的 AI-RAN 正是這一概念的演進,它提議將 CPU 保留用於計算密集度較低的工作負載,並引入 GPU 作為第 1 層(RAN 軟體堆疊中資源密集型部分)的所謂“內聯”加速器。
這裡 RAN 特有的問題是,這三家供應商都沒有表現出太大的意願,傾向於採用 Nvidia 的計算統一裝置架構 (CUDA) 來進行 GPU 上的 RAN 開發。愛立信和三星都傾向於一種被稱為“lookaside”的虛擬 RAN 模式,為了保持硬體獨立性,這種模式旨在將盡可能多的軟體保留在 CPU 上。在目前的部署中,只有前向糾錯 (FEC)——一項要求嚴格的第 1 層任務——才使用硬體加速器。
愛立信表示,在試驗環境中,他們已經能夠將為英特爾 x86 CPU 編寫的軟體以極小的改動遷移到 Grace。這意味著,如果最終使用 GPU 進行任何 RAN 計算,也只會用於 FEC。三星也在 Grace 上測試其軟體,並最近否認了在第一層使用“內聯”加速器的說法。該公司最近透過電子郵件告訴 Light Reading:“當 CPU 支援的容量不足時,就需要內聯加速器。隨著技術的進步,CPU 能夠支援更高的容量,我們預計即使沒有內聯加速器也能擁有足夠的容量。”
剩下的就剩下諾基亞了。與愛立信和三星不同,諾基亞避開了旁路(lookaside),而是將所有虛擬 RAN 資源投入到內聯(inline)中。但諾基亞承認,其第一層加速器來自 Marvell Technology,而非英偉達,轉向 CUDA 需要徹底重寫程式碼。諾基亞行動網路業務集團負責人 Tommi Uitto 在三月份巴塞羅那世界行動通訊大會 (MWC) 上接受 Light Reading 採訪時表示,除非電信運營商採用 GPU 進行主流 AI 推理,否則幾乎不需要進行此類重新開發。
“在這種情況下,大部分計算都用於第1層以外的工作負載,那麼使用第1層的加速器就沒什麼大不了的了,”他當時說道。“最終,我們也希望在GPU中實現第1層。” 在此之前,諾基亞對英偉達技術的興趣很可能在於使用Grace來實現第1層以上的功能。
邊緣計算的Lazarus 
但是,如果說很難想象電信資料中心的 Grace Blackwell 晶片會成為 AI 推理的關鍵部件,那麼更難想象 ARC-Compact 會扮演這樣的角色。如今,那種認為電信公司可以從眾多超大規模資料中心和其他資料中心公司服務不足的地點提供 AI 推理並盈利的想法,委婉地說,簡直是異想天開,聽起來很像是試圖復興邊緣計算。
就連電信公司也並不真的相信這一點。Omdia 最近開展了一項調查,詢問受訪者他們認為未來大多數人工智慧處理將在哪裡進行。只有 17% 的受訪者回答是基站和樞紐站,另有 6% 的受訪者回答是中心局和頭端站。迄今為止,最受歡迎的答案是終端使用者裝置,佔比 43%。電信公司似乎處於裝置和超大規模雲平臺之間的某種無人區。他們相對於後者的唯一優勢是更低的延遲,延遲指的是訊號在網路中傳輸所需的時間。
不幸的是,對於一箇中等規模的國家來說,那種需要大量站點才能實現的超低延遲服務的需求幾乎為零。Omdia 高階首席分析師 Kerem Arsal 在最近於倫敦舉行的一次活動上表示,到目前為止,AI-RAN 的其他負面因素也超過了正面因素。“此外,超大規模運營商對邊緣計算和合作夥伴關係的興趣有所減弱,我認為這部分是因為他們的商業模式並不一定會對邊緣計算給予太多的回報,”他說道。他表示,在電信運營商的邊緣計算方面,“差異化程度令人難以信服”。
Grace 的出現恰逢其時,因為人們對英特爾的未來充滿疑問,英特爾迄今為止一直是虛擬 RAN CPU 的唯一選擇。透過證明其軟體可以在 x86 和 Arm 之間無縫遷移,RAN 供應商將證明他們已經擺脫了底層硬體的束縛。但對於一家花費大量時間進行 CPU 效能測試的公司來說,CPU 效能的不斷提升是一個問題。“CPU 無法跟上 ASIC 的工作負載,” Nvidia 執行長黃仁勳在 9 月份表示。
“AI 處理方式的混合可能會從目前對 GPU 的重視轉向更強大的 CPU,”Arsal 說道。“但總體而言,模型規模正在縮小,機器更有可能處理一些關鍵的 AI 工作負載。” 黃仁勳或許更希望情況並非如此。

參考連結

https://www.lightreading.com/ai-machine-learning/nvidia-s-amazing-grace-may-be-good-enough-for-ran-to-avoid-gpus
END
👇半導體精品公眾號推薦👇
▲點選上方名片即可關注
專注半導體領域更多原創內容
▲點選上方名片即可關注
關注全球半導體產業動向與趨勢
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。
今天是《半導體行業觀察》為您分享的第4041期內容,歡迎關注。
推薦閱讀
『半導體第一垂直媒體』
即時 專業 原創 深度
公眾號ID:icbank 
喜歡我們的內容就點“在看”分享給小夥伴哦


相關文章