
👆如果您希望可以時常見面,歡迎標星🌟收藏哦~
來源:內容編譯自tomshardware,謝謝。
美光、三星和SK 海力士推出了使用 LPDDR5X 記憶體的小型壓縮附加記憶體模組 (SOCAMM),旨在面向 AI 和低功耗伺服器。SOCAMM 將首先用於基於 Nvidia 的GB300 Grace Blackwell Ultra Superchip 系統的伺服器,旨在將高容量、高效能、小尺寸和低功耗融為一體。
SOCAMM 的尺寸為 14×90 毫米(是傳統 RDIMM 的三分之一),最多可承載四個 16 晶片 LPDDR5X 記憶體堆疊。美光的初始 SOCAMM 模組將提供 128GB 的容量,並將依靠該公司基於其 1β(1-beta,第五代 10nm 級)DRAM 工藝技術生產的 LPDDR5X 記憶體裝置。美光並未透露其初始 SOCAMM 棒支援的資料傳輸速率,但表示其記憶體的額定速度高達 9.6 GT/s。與此同時,SK 海力士在GTC 2025上展示的 SOCAMM 的額定速度高達 7.5 GT/s。
記憶體消耗了伺服器功耗的很大一部分。例如,在配備每插槽 TB 級 DDR5 記憶體的伺服器中,DRAM 的功耗超過了 CPU 的功耗。Nvidia 圍繞 LPDDR5X 記憶體設計了Grace CPU,其功耗低於 DDR5,但實現了寬記憶體匯流排(借鑑了 AMD 和英特爾的資料中心級處理器)以提供高記憶體頻寬。然而,對於基於GB200 Grace Blackwell 的機器,Nvidia 不得不使用焊接式 LPDDR5X 記憶體封裝,因為沒有標準的 LPDDR5X 記憶體模組可以滿足其容量要求。
美光的 SOCAMM 改變了這一現狀,它提供了一種標準模組化解決方案,可以容納四個 16 晶片 LPDDR5X 記憶體堆疊,可能提供相當大的容量。美光表示,其 128GB SOCAMM 消耗的電量僅為 128GB 容量 DDR5 RDIMM 消耗的電量的三分之一,這是一個很大的優勢。不幸的是,目前尚不清楚美光的 SOCAMM 是否會成為 JEDEC 支援的行業標準,還是仍將作為美光、三星、SK 海力士和 Nvidia 為執行 Grace 和 Vera CPU 的伺服器開發的專有解決方案。
Micron 的 SOCAMM 記憶體條已投入量產,因此預計基於 Nvidia 的 GB300 Grace Blackwell Ultra Superchip 的系統將使用此記憶體。模組化記憶體簡化了伺服器的生產和維護,這將對這些裝置的價格產生積極影響。
美光計算和網路業務部高階副總裁兼總經理 Raj Narasimhan 表示:“人工智慧正在推動計算領域的正規化轉變,而記憶體是這一變革的核心。美光對 Nvidia Grace Blackwell 平臺的貢獻為人工智慧訓練和推理應用帶來了顯著的效能和節能優勢。HBM 和 LPDDR 記憶體解決方案有助於釋放 GPU 的更高計算能力。”
火爆的 SOCAMM,是什麼?
據SEDaily報道, Nvidia 正與記憶體製造商 SK 海力士、美光和三星合作,建立一種體積小但效能強大的新記憶體標準。
這項名為“片上系統高階記憶體模組”(SOCAMM)的新標準正在與三家大型記憶體製造商合作。該報告稱(透過機器翻譯):“Nvidia 和記憶體公司目前正在交換 SOCAMM 原型以進行效能測試”。我們可能很快就會看到這項新標準,並補充說“最早可能在今年晚些時候實現大規模生產”。
據推測,SOCAMM 模組將被 Nvidia 在 2025 年 CES 上釋出的Project Digits AI 計算機的下一代繼任者使用。由於多種因素,SOCAMM 預計將比低功耗壓縮附加記憶體模組 (LPCAMM) 和傳統 DRAM 有顯著的升級。
首先,與採用 SO-DIMM 外形尺寸的傳統 DRAM 相比,SOCAMM 的成本效益更高。報告進一步詳細說明,SOCAMM 可能會將 LPDDR5X 記憶體直接放置在基板上,從而提高能效。
其次,據報道,與 LPCAMM 和傳統 DRAM 模組相比,SOCAMM 具有大量 I/O 埠。SOCAMM 擁有多達 694 個 I/O 埠,遠超 LPCAMM 的 644 個或傳統 DRAM 的 260 個。
據報道,新標準還擁有一個“可拆卸”模組,這可能會提供後續的輕鬆升級能力。結合其較小的硬體佔用空間(SEDaily 報道稱其大小約為成人的中指大小),它比傳統的 DRAM 模組更小,這可能會提高總容量。
有關 SOCAMM 的詳細資訊仍然籠罩在神秘之中,因為 Nvidia 似乎是在沒有聯合電子裝置工程委員會 (JEDEC) 任何意見的情況下制定該標準的。
這可能會成為一件大事,因為 Nvidia 似乎正在獨自冒險,在主要記憶體製造商的推動下改進和建立新標準。但是,SO-DIMM 的輝煌時代已經過去一段時間了,因為CAMM 通用規範即將取代它。
原因可能在於該公司專注於 AI工作負載。執行本地 AI 模型需要大量 DRAM,而 Nvidia 明智的做法是推動更多 I/O、容量和更多可配置性。
黃仁勳在 2025 年國際消費電子展 (CES 2025) 上明確表示,讓人工智慧成為主流是該公司的一大重點,儘管這並非沒有受到批評。雖然 Nvidia 最初的 Project Digits AI 計算機將於今年 5 月上市,但 SOCAMM 的出現可能是許多人等待的一個很好的理由。
END
👇半導體精品公眾號推薦👇
▲點選上方名片即可關注
專注半導體領域更多原創內容
▲點選上方名片即可關注
關注全球半導體產業動向與趨勢
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。

今天是《半導體行業觀察》為您分享的第4069期內容,歡迎關注。
推薦閱讀



『半導體第一垂直媒體』
即時 專業 原創 深度
公眾號ID:icbank
喜歡我們的內容就點“在看”分享給小夥伴哦

