公眾號記得加星標⭐️,第一時間看推送不會錯過。

在AI晶片這條競逐速度與算力的賽道上,“定製化”正在成為新的關鍵詞。隨著模型體積的暴漲與行業應用的多樣化,越來越多的企業開始意識到,通用GPU不再是唯一解,定製AI晶片正逐步走向聚光燈下。
事實上,儘管目前英偉達依然保持著AI晶片中的超然地位,但谷歌、亞馬遜和微軟等主要雲巨頭正在加速推動自研晶片開發計劃,力圖在英偉達解決方案之外實現多元化發展。
而在這些雲巨頭自研晶片背後的真正受益者,就是博通與Marvell。
有意思的是,博通和 Marvell 在定製AI領域採用了截然不同的發展戰略。博通優先考慮大規模整合和平臺設計,並以大量的研發投入和先進的技術整合為後盾。而 Marvell 則透過戰略收購來追求增長,透過收購 Cavium、Avera 和 Innovium 等公司擴充套件了其技術組合。
在博通高調進軍AI市場,賺得盆滿缽滿的同時,Marvell也在“悶聲發大財”:從微軟、AWS到谷歌,Marvell早已悄然佔據了多個核心算力部署中的重要一環。
近日,Marvell舉行了一場備受矚目的定製AI投資者活動,首次系統性披露其在AI基礎設施定製晶片領域的戰略進展、技術優勢與未來佈局。活動內容不僅涵蓋宏觀趨勢洞察,也具體呈現從IP、封裝到客戶專案的全棧能力,清晰刻畫了Marvell如何成為“唯二的贏家”。
定製AI:從晶片到系統的時代拐點
活動伊始,Marvell董事長兼CEO Matt Murphy開宗明義地指出:“一場關於AI基礎設施的革命,正在雲資料中心內部悄然發生——這場革命的核心,是圍繞定製矽晶片的系統化重構。”
他表示,早在2018年,Marvell就做出了一個具有前瞻性的戰略決策:雲計算的未來將是定製化的。時至今日,這一預判已得到充分驗證。2021年Marvell首次展示戰略藍圖時,業內對定製晶片是否能真正規模化起飛還存在諸多爭議。如今,定製化已成為現實,每個雲服務提供商都在積極佈局。經過近十年的投資和積累,Marvell已經確立了領先優勢。對於那些現在才意識到並想要進入為雲構建定製矽業務的企業來說,時機已然錯過。
他強調,當前雲計算四巨頭的資本支出2023年約為1500億美元,2024年這一數字增長至超過2000億美元,2025年預計將超過3000億美元,其中最大一部分資金將投向“定製晶片”。更值得關注的是,定製化趨勢已不再侷限於前四大公司。Marvell看到一波新興企業正在投資自己的資料基礎設施,其稱之為"新興超大規模雲服務提供商"。

其中,以xAI為代表的公司已經認識到控制自身基礎設施的價值,正在建設專屬資料中心。XAI在短短一年內就建成了一個20萬單元的AI叢集,併成功開發出強大的Grok模型;構建終端應用的公司也在為AI構建高度專業化的基礎設施。特斯拉建造了基於Dojo的資料中心,為完全自動駕駛背後的AI提供算力支援;還有所謂"主權AI"的興起,世界各國政府也在發起重大投資,建設本地AI基礎設施。
分析師預測,到2028年,資料中心資本支出將超過1萬億美元。在這一過程中,傳統四大超大規模雲服務提供商短期內不會放緩投資步伐,而新興超大規模雲服務提供商也將發展成為重要力量。
Murphy也沒掩飾Marvell對於未來定製市場的樂觀,他表示,去年 AI 活動中,美滿電子曾概述了一個 750 億美元市場規模,涵蓋定製矽、交換、互連和儲存,複合年增長率接近 30%。而如今,市場規模已顯著擴容,總體估計增長約 25%,預計到 2028 年將達到 940 億美元,複合年增長率提升至 35%,其中計算市場比去年預測大了近 30%,互連市場增長約 37%,這兩個領域均處於美滿電子的優勢範圍,也是重點關注方向。

而在這 940 億美元的總市場機遇中,定製計算是最大且增長最快的部分,互連為第二大市場,交換和儲存則保持持續穩定增長。定製計算市場包含 XPU 和 XPU 附件兩個關鍵組成部分,其中 XPU 市場規模約 400 億美元,複合年增長率 47%,是世界上最大、最複雜的晶片;XPU 附件市場規模 150 億美元,複合年增長率高達 90%,由於定製系統複雜性幾乎每年翻一番,其增長迅猛,到 2028 年,定製 XPU 附件市場的規模將與今天整個定製矽市場的規模相當。
最後,Murphy指出,Marvell目前在美國前四大超大規模雲服務商處獲得了18個定製晶片訂單,其中5個為XPU核心晶片、13個為XPU附件。同時,在新興AI雲客戶中也已拿下6個訂單,使公司面向的潛在終身收入(Lifetime Revenue)市場高達750億美元。
他強調,Marvell之所以能夠在激烈競爭中勝出,根本原因在於Marvell作為端到端全服務定製矽提供商的獨特地位 —— 其將最佳系統架構設計、先進的 IP 技術、全面的晶片服務、專業的封裝技術及完整的製造與物流支援等核心能力有機結合,這種一體化服務模式使客戶無需從各種第三方拼湊 IP,也不需要僱傭多家設計公司和供應商,在技術格局加速發展的未來,這種整合能力將成為決定性優勢。
同時,Marvell以技術領先地位構築競爭壁壘:在先進工藝節點方面,當前已在 5 奈米和 3 奈米工藝上大規模生產,未來已在 2 奈米工藝上有測試晶片並正引領進入埃米時代,更前瞻佈局 A16 和 A14 節點為未來產品開發;在 IP 組合優勢上,Marvell構建了業內最廣泛的模擬混合訊號 IP 組合之一,專注於高效能低功耗設計、低延遲序列鏈路、高頻寬裸片到裸片整合等領域,例如在 OFC 上展示的世界首個執行 448Gbps 的序列器 / 解串器(SerDes),這種能力對網路擴充套件至關重要。
在Marvell所構建的藍圖中,定製AI晶片,不再是少數頭部客戶的獨角戲,而是一場“全行業全應用的系統化轉向”。
Chris Koopmans:多樣化AI工作負載推動平臺定製化爆發
接下來,營運長Chris Koopmans進一步深化了“為什麼定製”的核心邏輯。他指出,2028年約5000億美元的資料中心晶片支出中,超過一半將用於AI加速計算,其中3500億美元將落在XPU和其附件市場。而在這一巨大TAM中,Marvell聚焦的是定製部分——一個預計2028年可達550億美元的新興細分市場。
Koopmans指出,推動定製市場急速增長的核心動力,是AI工作負載的多樣化演進:從預訓練到後訓練,從輕量級推理到思維鏈(Chain of Thought)等遞迴型模型,對算力結構和記憶體層次提出了截然不同的要求。例如,傳統推理對低延遲記憶體密度要求高,而複雜多輪推理則需要高效能異構算力單元。
此外,訓練資料的差異也決定了基礎設施必須定製化 —— 比如訓練自動駕駛模型的資料是數百萬小時的影片,需要巨量本地記憶體頻寬與影片處理邏輯,而社交模型的海量文字資料則更注重引數稀疏性與推理效率。
Koopmans由此得出結論:沒有任何一種通用架構能 “一刀切” 適應所有場景,通用平臺會造成 “記憶體閒置 – 計算瓶頸” 或 “計算閒置 – 訪存不足” 的結構性浪費,只有定製平臺才能按需配置核心型別(矩陣 vs 標量)、片上 SRAM 與 HBM 比例、IO 頻寬與介面協議、叢集拓撲(星型、環型、Mesh)及資料路徑(銅線 vs 光纖 vs 封裝內裸片互聯)。

他特別指出,當前市場多數人關注的是 “XPU 本體” 這一 AI 加速計算的主晶片,但在 Marvell 眼中,真正的爆發點在於被忽視的 “XPU 附件市場”,其包括網路介面控制器(NIC)、電源管理 IC、HBM 控制器、IO 協處理器、安全模組、擴充套件交換器、池化器、封裝子裸片等,關鍵資料顯示,到 2028 年 XPU TAM 約 400 億美元,CAGR 為 47%,而 XPU 附件 TAM 約 150 億美元,CAGR 高達 90%,幾乎年年翻倍,這表明在 AI 系統複雜性持續提升的背景下,定製矽早已不僅是 “算力之爭”,更是 “平臺之爭”—— 每個 AI 平臺都如同一座定製化的微型資料中心,XPU 只是其中一塊主磚。
他還描繪了定製平臺的發展路徑:從為 x86 設計的傳統通用平臺,到為特定 XPU 定製主機板、功耗、電源路徑的第一代定製平臺,再到標準化基礎設施平臺的崛起 —— 是否可能出現可插拔式標準化 AI 平臺,供不同客戶插入自己的 XPU?為此,Marvell 已開始積極行動,與 NVIDIA 合作支援其 NVLink Fusion 平臺,並自建 UA Link 平臺,致力於實現跨廠商 AI 加速平臺的互通互聯。
Koopmans最後落點於產業認知的變遷:“過去大家認為定製晶片是奢侈的‘特供品’,而現在每一個頭部客戶都把定製作為預設選項”,AI 基礎設施已不再是單一系統或標準晶片的堆砌,而是橫跨硬體、架構、封裝、系統互聯的協同工程,而 Marvell 正是這場系統工程中少數的 “全棧玩家” 之一。
Nick Kucharewski:構建一個端到端的“定製晶片工廠”
隨後,雲平臺高階副總裁Nick Kucharewski詳細介紹了Marvell“定製雲平臺”的能力矩陣。他強調,Marvell的核心差異化在於:不僅僅是做ASIC設計服務,更是從系統架構定義、IP整合、EDA流程、封裝、製造、測試、量產等全流程深度繫結客戶。
Kucharewski強調,市場上常見的定製晶片合作大致可分為三種模式:第一種是DIY,也就是客戶完全自研,透過EDA工具自己流片;第二種是傳統ASIC服務,客戶只做架構定義,後端設計交由ASIC服務商完成;而Marvell代表的是第三種模式,即深度協同式的定製矽開發服務。從產品定義、IP整合、架構協同,到後端設計、封裝選型、驗證測試、量產匯入,Marvell都可“一肩挑”。他
還特別提到,目前市場主流客戶——如大型雲服務商和AI模型公司——往往不願意自己去搭建一整條晶片開發生產線,因為這需要大量的資源、人才、方法學、EDA流和IP積累,而這正是Marvell能為其補齊的關鍵短板。
Kucharewski提到,Marvell為客戶提供的不僅是一套晶片方案,而是一種“系統層思考”的延伸。客戶無需對每一個SerDes IP、SRAM宏單元或封裝拓撲做出判斷,而是專注於上層AI框架和系統調優,由Marvell將底層實現邏輯封裝成可交付的“晶片平臺”。這種模式不僅提升了開發效率,也極大壓縮了專案週期,使得客戶可以在12-18個月內完成從概念到量產的迭代。更重要的是,Marvell並不是基於一次性設計來實現盈利,而是透過長期維護、版本更新、工藝演進,與客戶建立深度繫結關係。

在Kucharewski看來,這就像是為客戶構建一個“AI晶片工廠”的外包服務中心,客戶提供需求和場景,Marvell則負責將其落地為物理晶片和算力平臺。他形容這種關係已經不再是供應商與客戶,而更像是“共同體”,是一種在高算力需求驅動下形成的“技術共生”。
這一模式的成功也體現在Marvell目前已經拿下的18個定製晶片合作專案中,包括5個XPU主晶片和13個附件晶片,其中不乏超大規模雲廠商和新興AI基礎設施創業公司。
Kucharewski指出,很多客戶最初接觸Marvell時,甚至並不知道自己到底需要一個什麼樣的晶片,但他們知道要解決的是AI推理的延遲瓶頸、功耗牆和散熱限制,而這些需求正是Marvell能夠透過其平臺能力進行建模、迭代和實現的。“我們不是告訴客戶能做什麼,而是先理解他們面臨的問題,然後共同定義答案。”Kucharewski如是說。
最後他特別強調,Marvell正在從“晶片公司”轉型為“系統架構加速器”,為AI時代的基礎設施重構提供底層支撐。正因如此,其得以成為微軟、AWS、甲骨文等頭部客戶的核心合作伙伴。“你無法透過在Yelp上搜索就找到這些服務。”Kucharewski半開玩笑地說,“我們提供的是一套在公開市場上都無法獲得的獨家技術棧。”
Sandeep Bharathi:從5nm到2nm,美滿如何構建AI晶片的“火箭發射臺”
Marvell CTO Sandeep Bharathi則從技術視角全面剖析其技術堆疊。Bharathi一開始就提出一個判斷:“AI晶片的技術路徑已經從摩爾定律主導的線性演進,轉向以系統整合為核心的異構演進。”換句話說,未來的算力競爭,早已不是比拼單顆晶片的工藝先進性或頻率指標,而是比拼誰能在高度複雜的架構下,以最小功耗、最優互聯方式和最大資料吞吐整合多個裸片與封裝資源。
他強調:“AI晶片不是單點突破,而是系統整合能力的總和。”Bharathi將Marvell比作“AI晶片界的NASA”,擁有完整的“火箭發射系統”:從先進製程(5nm/3nm/2nm測試片)到多裸片封裝、定製高頻寬記憶體(HBM)、SerDes、高速裸片互聯、共封裝光學等關鍵IP。
他特別指出,在AI推理晶片設計中,最重要的不再是核心計算邏輯,而是“如何讓資料以更短路徑、更低功耗、更高頻寬流動起來”。而這背後的技術支撐,是Marvell在D2D互聯技術上的領先。透過使用封裝內裸片高速匯流排,Marvell已實現單邊頻寬超10TBps/mm、延遲低於1ns、功耗低至1pJ/bit,這種能力使得計算裸片與HBM、SRAM IO裸片之間幾乎可以無縫通訊,從而徹底釋放AI晶片的片內互聯潛力。

Bharathi還表示,Marvell目前已進入AI封裝架構的新階段,不再是簡單地將多個裸片“放入一塊基板”,而是使用三維立體封裝技術(3D IC)、中介層(interposer)與共封裝光學(CPO)方式,將多個裸片、矽光模組、模擬介面統一封裝於一個系統級載體中。這些先進封裝不僅解決了功耗瓶頸,更為未來AI晶片的規模化部署與散熱效能帶來質的提升。
在最後,Bharathi提出一個發人深省的觀點:“今天你看到的每一塊AI晶片,其實已經是一整座資料中心的縮影。”他指出,AI晶片的系統複雜度正逼近小型超算,而這正是為什麼“設計一個AI晶片,不只是設計一塊晶片,而是設計一個系統架構”的真實寫照。
Bharathi堅信,隨著AI模型引數級數從百億躍升到萬億,AI晶片的設計正規化將徹底從“通用型SoC”轉向“高度模組化的系統平臺”,而Marvell已經完成了從IP、封裝、互聯、功耗、測試到量產全鏈路能力的聚合,成為這個新時代中極少數具備系統性技術閉環的公司之一。
Ken Chang:SerDes與裸片互聯,是AI系統的“血管系統”
模擬混合訊號設計高階副總裁Ken Chang則聚焦於AI晶片互連中的關鍵IP——SerDes與裸片到裸片(D2D)互聯。
Ken指出,在現代AI晶片的執行中,“資料移動”已經成為最大的能耗來源,遠超計算本身;而決定資料是否能夠高效移動的關鍵因素,正是晶片內外的高速互聯結構。SerDes已經從傳統的資料中心IO工具,演進為AI系統的“神經系統”,一旦速率、功耗或誤位元速率不達標,將導致整個平臺崩潰。
Marvell在這一領域擁有超過20年的深厚積累,當前其SerDes IP已經達到448Gbps的世界領先水準,同時具備極低的BER(誤位元速率)與功耗控制能力,廣泛部署於AI加速器IO、交換晶片、XPU附件、HBM介面等多個關鍵路徑中。在Marvell的設計哲學中,高速互聯並不僅限於晶片對外通訊,更關鍵的是晶片內部與裸片間的“D2D”連線。

Ken指出,在多裸片AI晶片架構日益成為主流的今天,將不同功能的裸片(如計算核心、IO裸片、HBM控制裸片)集成於一個封裝中,並透過高頻寬、低功耗的D2D互聯連線,已成為突破工藝和散熱限制的主流路徑。為此,Marvell打造了多代D2D介面技術,其最新一代已實現單邊頻寬超10TBps/mm、延遲低於1ns、功耗低至1pJ/bit,而下一代目標是實現50+TBps/mm頻寬與亞皮焦能耗。
他強調,這種指標的躍遷並非簡單“製程提升”所致,而是依賴於Marvell自研的SerDes調製解調演算法、高頻訊號完整性最佳化、超低功耗驅動電路設計以及跨裸片同步協議的完整工程閉環。這套D2D系統已在多個客戶專案中實現量產,尤其是在XPU主裸片與HBM控制裸片、SRAM裸片、光IO裸片之間的互聯場景中表現突出,形成Marvell區別於傳統SoC晶片廠商的“系統級競爭力”。
更關鍵的是,Marvell的D2D互聯技術具備高度可擴充套件性,不受限於矽中介層(interposer)或特定封裝材料,可支援2.5D封裝、3D堆疊、先進RDL結構甚至CoWoS-L與FOWLP等新型封裝工藝,為客戶提供靈活、低風險的工藝選型路徑。
此外,Ken還分享了Marvell在D2D系統中的一個重要創新——將SerDes與互聯介面邏輯“模組化封裝”為可複用的IP裸片,這意味著未來客戶甚至可以按需“插拔式組合”互聯單元,從而構建面向特定AI負載最佳化的裸片拓撲。比如,有的客戶可能在推理中更注重HBM與SRAM互聯頻寬,而有的客戶則更關注多個計算裸片間的Mesh型拓撲互聯,Marvell的模組化D2D設計讓這些架構在設計早期便具備高度靈活性,不必反覆迭代底層物理層協議。
Ken以一個客戶專案為例說明:透過將計算裸片與HBM IO裸片之間的匯流排由原先的傳統PCB互聯升級為封裝內D2D互聯,不僅整體系統功耗下降了40%,而且在同等封裝面積下實現了3倍以上的頻寬提升,這一改變最終使該客戶的整機系統在資料中心部署效率上提高了一個數量級。
最後,他總結道:在AI晶片效能瓶頸不斷上移的今天,算力不再是核心競爭力的唯一體現,資料流的管理與通訊路徑的最佳化才是決定平臺成敗的根本,而Marvell正是以其在SerDes與D2D方面的領先佈局,為全球AI基礎設施搭建起“高速、穩定、可擴充套件”的資料血管系統,這不僅是技術能力的體現,更是一種對AI未來系統架構深刻理解的前瞻部署。
Mark Kuemerle:用SRAM與定製HBM為AI算力“拓展土地”
雲定製業務技術副總裁Mark Kuemerle重點介紹了定製SRAM與HBM的創新路徑。他提出了一個核心觀點:“AI晶片的土地,不是邏輯單元,而是記憶體。”也就是說,當引數規模從百億躍升到萬億時,AI晶片不再是比誰有更多的矩陣乘法單元,而是比誰能在極小的空間中有效整合更多、更快、更省電的儲存資源。
正是基於這一判斷,Marvell近年來在定製SRAM和高頻寬記憶體(HBM)結構上持續投入,已經構建出行業領先的片上記憶體與外部記憶體介面能力。
Kuemerle首先介紹了Marvell新一代定製SRAM IP的關鍵突破。他指出,傳統SRAM通常受限於標準工藝庫和麵積能效之間的折中,難以在面積敏感的XPU核心區域部署大容量快取記憶體。而Marvell基於2nm工藝所開發的定製SRAM,在頻寬上比業界通用SRAM快了17倍,同時待機功耗下降66%,這一成果使得客戶在SoC中可以大規模部署片上快取記憶體,從而減少資料出片所帶來的延遲與能耗。這一點對於高頻AI推理任務尤為重要,尤其是在生成式AI中頻繁呼叫歷史上下文和中間記憶資料時,大容量、低延遲的片上儲存可以顯著提升整體系統的吞吐效率。

更進一步,Kuemerle講述了Marvell在HBM架構上的創新路線,即“去耦合HBM IO控制器”的設計思路。在傳統AI晶片中,HBM IO介面通常整合在主計算裸片上,佔據大量物理空間併產生高功耗,而Marvell採用一種模組化設計,將HBM IO介面拆解並獨立部署在一個專用的底座裸片上,透過高密度的D2D互聯將其與主XPU裸片進行連線。這種設計的優勢在於,它能夠將主計算裸片的有效利用率提高約1.7倍,為客戶提供更多可用於核心計算單元的矽面積,同時由於HBM IO的電源路徑與訊號鏈被重新佈線,也使得整體功耗下降了75%。
Kuemerle強調,這種架構本質上打破了傳統SoC的“單晶片封裝邏輯”,引導AI晶片走向“裸片模組協同設計”的新時代。他提到,在客戶實際部署過程中,透過這種HBM分離封裝結構,可以實現多個HBM堆疊裸片與多個計算裸片之間的非對稱連線,從而根據具體模型的引數訪問頻率與訪存拓撲定製化頻寬路徑,這種設計的靈活性遠遠超越傳統的統一記憶體架構。
他還指出,隨著HBM規格逐代演進(目前已到HBM3E,未來向HBM4過渡),記憶體功耗將成為制約整機AI加速卡部署密度的主要因素,而Marvell的模組化HBM架構不僅支援更高容量與頻寬,還能支援動態功耗調節,使AI系統在推理、預訓練、微調等不同階段實現功耗彈性配置。
此外,Kuemerle還提及Marvell目前正在探索更高階的記憶體子系統架構,例如異構SRAM陣列、可組合共享記憶體池、透過光互聯實現的片間快取一致性協議等,未來可能進一步提升AI晶片在多工、多模型並行執行時的資料排程能力。
Kuemerle最後強調,AI晶片已從傳統“計算為王”的時代,走入了“資料為先”的體系重構階段,Marvell的SRAM與HBM能力不是孤立存在,而是AI晶片平臺生態中不可或缺的“土壤與水利工程”,決定了AI模型能否在高密度計算環境中高效生長,也決定了AI晶片是否能真正進入通用部署的拐點門檻。
定製AI,不再小眾
值得一提的是,在這次活動中,微軟Azure硬體系統副總裁Ronnie Borkar還專程發表了演講。他指出,微軟與Marvell的合作已持續十餘年,從早期交換晶片到當前定製AI基礎設施。“隨著模型與計算需求超越硬體進展速度,我們必須重構整個堆疊。”
Borkar強調,微軟希望構建“端到端協同最佳化”的AI基礎設施,其中矽是最底層關鍵。Marvell不僅提供晶片,還能提供軟體、封裝、系統、EDA方法與交付支援,“是真正意義上的戰略合作伙伴”。
2021 年,Matt Murphy 提出 “雲最佳化晶片” 概念時,不少人持懷疑態度。而如今,“每個雲服務商都在定製晶片” 已成為行業現實 —— 從最初的 3 個定製晶片專案發展到 18 個,覆蓋傳統雲巨頭、新興 AI 基礎模型公司及國家主權 AI 工程,Marvell 正透過系統級佈局構建定製 AI 基礎設施的競爭優勢。更重要的是,它並非以 GPU、CPU 等傳統硬體思路參與競爭,而是以 “平臺級思維” 推動行業格局變革。
AI 定製晶片的時代已然到來,Marvell 憑藉在該領域的持續投入與佈局,成為這一趨勢中不容忽視的重要參與者。
*免責宣告:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支援,如果有任何異議,歡迎聯絡半導體行業觀察。
END
今天是《半導體行業觀察》為您分享的第4070期內容,歡迎關注。
推薦閱讀

加星標⭐️第一時間看推送,小號防走丟


求點贊

求分享

求推薦
