Meta自研訓練晶片要來了,整合RISC-V核心

👆如果您希望可以時常見面,歡迎標星🌟收藏哦~
來源:內容編譯自tomshardware,謝謝。
幾年前,Meta 是首批為 AI 推理打造基於 RISC-V 的晶片的公司之一,旨在降低成本並減少對 Nvidia 的依賴。據路透社報道,該公司更進一步設計了(可能是在博通的幫助下)用於 AI 訓練的內部加速器。如果該晶片能夠滿足 Meta 的目標,它可能會減少對高階 Nvidia AI GPU(如H100 / H200和B100 / B200)的依賴,以訓練高階大型語言模型。
據該報道,Meta 和博通已與臺積電合作,完成了 Meta 的首款 AI 訓練加速器的生產。臺積電生產了這些晶片的首批工作樣品,合作伙伴已成功推出該裝置。目前,Meta 已開始有限部署該加速器,在擴大生產和部署之前評估其效能。目前尚不清楚 Meta 的工程師是否正在對新晶片進行基準測試。該晶片已經部署併發揮了一些作用。
該晶片的規格尚不清楚,但通常情況下,AI 訓練晶片採用一種稱為“脈動陣列”的設計。該架構由按行和列排列的相同處理單元 (PE) 的結構化網路組成。每個單元處理涉及矩陣或向量的計算,資料按順序流經網路
由於該處理器專為 AI 訓練而設計(這意味著要處理大量資料),因此預計該處理器將配備 HBM3 或 HBM3E 記憶體。考慮到我們正在處理定製處理器,Meta 定義了其支援的資料格式和指令,以最佳化晶片尺寸、功耗和效能。至於效能,該加速器必須提供與 Nvidia 最新的 AI GPU(例如 H200、B200 以及可能的下一代B300)相媲美的每瓦效能特性。
該晶片是 Meta 的 Meta 訓練和推理加速器 (MTIA) 專案的最新成員。該專案曾面臨各種挫折,包括在類似階段停止開發。
例如,在有限的部署測試中,Meta 內部推理處理器未能達到效能和功率目標,因此停產。這一失敗導致 Meta 在 2022 年改變了戰略,大量訂購 Nvidia GPU,以滿足其即時的 AI 處理需求。
從那時起,Meta 就成為 Nvidia 最大的客戶之一,購買了數萬臺 GPU。這些裝置對於訓練用於推薦、廣告和 Llama Foundation 模型系列的 AI 模型至關重要。據路透社報道,這家綠色公司的 GPU 還用於推理過程,支援 Meta 平臺上超過 30 億每日使用者的互動。

參考連結

https://www.tomshardware.com/tech-industry/artificial-intelligence/meta-is-reportedly-testing-its-first-rsic-v-based-ai-chip-for-ai-training
END
👇半導體精品公眾號推薦👇
▲點選上方名片即可關注
專注半導體領域更多原創內容
▲點選上方名片即可關注
關注全球半導體產業動向與趨勢
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。
今天是《半導體行業觀察》為您分享的第4061期內容,歡迎關注。
推薦閱讀
『半導體第一垂直媒體』
即時 專業 原創 深度
公眾號ID:icbank
喜歡我們的內容就點“在看”分享給小夥伴哦


相關文章