ASIC大熱,英偉達慌嗎?

公眾號記得加星標⭐️,第一時間看推送不會錯過。
來源:內容來自野村
據報道,追隨谷歌的腳步,Meta 正在全面進入 ASIC(專用積體電路)競賽。根據野村證券分析師 Anne Lee 及其團隊的最新研究報告,Meta 在 AI 伺服器領域的雄心正在迅速升級。他們專有的 ASIC 伺服器專案 MTIA 預計將在 2026 年實現重大突破,這可能會挑戰 Nvidia 長期以來的市場主導地位。
報告援引最新的供應鏈資訊稱,Meta 計劃在 2025 年底至 2026 年期間推出數百萬顆高效能 AI ASIC 晶片(100 萬至 150 萬顆)。與此同時,Google 和 AWS 等雲服務巨頭也在加速部署其自研 ASIC。這表明 AI 伺服器市場的競爭格局正在悄然轉變。
ASIC 晶片熱潮:明年出貨量可能超過英偉達
報告顯示,英偉達目前持有 AI 伺服器市場價值的 80% 以上,而 ASIC AI 伺服器僅佔 8-11%。
然而,從出貨量的角度來看,情況正在發生變化。到 2025 年,谷歌的 TPU 出貨量預計將達到 15-200 萬臺,亞馬遜 AWS Trainium 2 ASIC 約為 14-150 萬臺,而英偉達的 AI GPU 供應量將超過 5-600 萬臺。
供應鏈調查顯示,Google 和 AWS 的 AI TPU/ASIC 的總出貨量已經達到 Nvidia AI GPU 出貨量的 40-60%。
隨著 Meta 於 2026 年開始大規模部署其自主開發的 ASIC 解決方案,Microsoft 將於 2027 年開始大規模部署,預計 ASIC 總出貨量將在 2026 年的某個時候超過英偉達 GPU 出貨量。
Meta 的 MTIA 雄心壯志:超越 Nvidia 的 Rubin 規範
Meta 的 MTIA 專案是當前 ASIC 浪潮中最受期待的案例之一。
供應鏈資料顯示,Meta 將於 2025 年第四季度推出其首款 ASIC 晶片 MTIA T-V1。它由博通設計,具有複雜的主機板架構(36 層高規格 PCB),並採用液冷和風冷混合技術。負責組裝的製造商包括 Celestica 和 Quanta。
到 2026 年年中,MTIA T-V1.5 將進行進一步升級,芯片面積將翻倍,超過英偉達下一代 GPU Rubin 的規格,其計算密度將直接接近英偉達的 GB200 系統。2027 年的 MTIA T-V2 可能會帶來更大規模的 CoWoS 封裝和高功率 (170KW) 機架設計。
然而,Meta 的雄心並非沒有風險。
報告指出,根據供應鏈估計,Meta 的目標是到 2025 年底至 2026 年實現 100 萬至 150 萬件 ASIC 出貨量,但目前 CoWoS 晶圓分配只能支援 30 萬至 40 萬片,可能會因產能瓶頸而推遲計劃。更不用說大尺寸 CoWoS 封裝的技術挑戰和系統除錯所需的時間(Nvidia 的類似系統需要 6 到 9 個月的除錯時間)。
如果 Meta 和 AWS 以及其他 CSP 同時加速部署,AI 伺服器所需的高階材料和元件可能會面臨短缺,從而進一步推高成本。
Nvidia 的技術護城河仍然安全
Nvidia 肯定不會坐視不理。
在 2025 年 COMPUTEX 大會上,英偉達推出了 NVLink Fusion 技術,開放了其專有的互連協議,允許第三方 CPU 或 xPU 與自己的 AI GPU 無縫連線。這種半定製架構似乎是一種妥協,但這是 Nvidia 鞏固其在雲 AI 計算市場份額的戰略。
報告指出,資料顯示,英偉達在晶片計算密度(每單位面積的計算能力)和互連技術(NVLink)方面仍然處於領先地位,這使得 ASIC 在短期內難以趕上其效能。此外,Nvidia 的 CUDA 生態系統仍然是企業 AI 解決方案的首選,這是 ASIC 難以複製的障礙。
對於投資者來說,英偉達的技術護城河仍然很深,但其高利潤模式是否會在其他 CSP(雲服務提供商)的成本壓力下被迫調整,值得持續關注。
總而言之
根據野村證券的報告:
1.
Meta 的 MTIA 計劃:
  • Meta 預計 2025 年底至 2026 年推出 100 萬至 150 萬顆 AI ASIC 晶片(MTIA T-V1),由博通設計,採用高規格 36 層 PCB 與混合冷卻技術。
  • 2026 年中期,MTIA T-V1.5 芯片面積將翻倍,運算密度接近 Nvidia 的 GB200 系統。
  • 2027 年,MTIA T-V2 將採用更大規模 CoWoS 封裝與高功率(170KW)機架設計。
2.
ASIC 市場崛起:
  • 目前 Nvidia 佔 AI 伺服器市場 80%以上,ASIC 僅 8-11%。
  • 2025 年 Google TPU 出貨量預估 150 萬至 200 萬臺,AWS Trainium 2 約 140 萬至 150 萬臺,合計達 Nvidia GPU 出貨量(500 萬至 600 萬臺)的 40-60%。
  • 2026 年,隨著 Meta 與微軟大規模部署,ASIC 出貨量有望超越 Nvidia GPU。
3.
挑戰與風險:
  • Meta 的 ASIC 計劃受 CoWoS 晶圓產能限制(僅支援 30 萬至 40 萬顆),可能延遲進度。
  • 大尺寸 CoWoS 封裝技術挑戰與系統除錯(需 6-9 個月)增加不確定性。
  • 若 Meta、AWS 等雲端服務商加速部署,高階材料與元件可能短缺,推高成本。
4.
Nvidia 的優勢:
  • Nvidia 透過 NVLink Fusion 技術開放互聯協議,強化市場地位。
  • 其晶片運算密度、NVLink 互連技術及 CUDA 生態系統仍領先,ASIC 短期難以超越。
  • Nvidia 的技術護城河穩固,但高利潤模式可能面臨雲端服務商的成本壓力。
ASIC能撼動英偉達嗎?
也許很多人會說為什麼對 ASIC 如此感興趣?因為 NVIDIA 是這個時代的皇帝,而 ASIC 正在挑戰皇帝。
不過,我可否認的是,設計和製造 ASIC 需要 2 到 3 年時間,無論設計時的規格有多好,兩年後就會過時。他還提到,由於 Blackwell 的延誤,出現了許多 ASIC 專案,但隨著 Blackwell 的供應緩解,其中很大一部分專案已經暫停。
這種說法其實很有道理。如果 NVIDIA 的路線圖屬實,那麼每年都會發布大量的 NVIDIA 晶片,而兩年週期的 ASIC 似乎很難擊敗它們。
然而,這不一定是完整的答案。例如,如何阻止 Blackwell 所經歷的延誤在 Rubin 上重演?
此外,無論 NVIDIA 的總擁有成本 (TCO) 有多低,大型科技公司還會繼續接受 NVIDIA 的高利潤率嗎?我仍然覺得很難擺脫大型科技公司對 NVIDIA 的毛利率不滿意的感覺。
即便如此,如今我越來越傾向於看好 NVIDIA 的觀點。
1.
在 AI 晶片市場佔據主導地位
NVIDIA 是 HBM 的最大消費者,從 SK Hynix 和 Micron 購買了最多的 HBM。根據我個人的估計,SK 海力士大約 70% 的 HBM 賣給了 NVIDIA。此外,由於與 TSMC 的牢固關係,NVIDIA 擁有最大的 CoWoS 產能分配。
這意味著什麼?這意味著他們可以比其他任何人更快、更多地銷售 AI 晶片。
我從根本上相信 AI 是一場與時間的賽跑。大型科技公司正試圖開發比競爭對手更快、更強大的 AI。這是一個小雞遊戲,如果你停下來,你就輸了。
相反,這意味著,如果大型科技公司試圖使用 ASIC 進行培訓,不得不為他們定製軟體,並在 ASIC 的供應和效能有限的情況下工作,那麼與 NVIDIA 的情況相比,他們就是輸家。
換句話說,這是 NVIDIA 從一開始就贏得的一場戰鬥,當時 AI 技術的基礎開始建立在 NVIDIA 的晶片和 CUDA 軟體之上。(當然,這是在 NVIDIA 也在繼續發展的假設下進行的。
2.
主權人工智慧的現實
Sovereign AI 也是如此。
我實際上認為 ASIC 更適合 Sovereign AI。
從每個國家的角度來看,我一直認為,真正的主權 AI 意味著在每個國家培養當地的無晶圓廠公司,開發自己的 AI 晶片並建立獨立的 AI,而不是依賴像 NVIDIA 這樣的美國公司。
然而,即使是像韓國和中國臺灣這樣晶片設計技術豐富的地方,培育自己的 AI 晶片也是一項極其艱鉅和困難的政策。
特別是在固定任期的國家,人們強烈傾向於根據短期結果制定政策。
這意味著很少有國家會走上真正的主權人工智慧之路,這涉及專有晶片的漫長開發時間和不確定的結果。相反,大多數人會購買 NVIDIA 晶片並製造 ChatGPT 的仿冒品。
除非一個國家像中國或俄羅斯一樣,美國限制 NVIDIA 晶片的銷售,否則大多數國家最終都會購買 NVIDIA 的晶片。那是因為這是在最短的時間內看到結果的最簡單方法。
從這個意義上說,主權 AI 可能被視為“NVIDIA 主權政策”——複製在美國晶片上執行的美國 AI。
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。
END
今天是《半導體行業觀察》為您分享的第4073期內容,歡迎關注。
推薦閱讀
加星標⭐️第一時間看推送,小號防走丟

求點贊
求分享
求推薦

相關文章