Marvell將2028年數據中心潛在市場規模(TAM)的預期,從去年的750億美元上修至940億美元,其中定製XPU規模達到400億美元,CAGR爲47%,XPU配套組件規模達到150億美元,CAGR 高達90%,幾乎每年翻倍。
$邁威爾科技 (MRVL.US)$ 剛剛結束的Custom AI投資者日透露出一個明確信號:AI芯片正在從「通用GPU拼裝」走向「高度定製的系統級協同」。Marvell不再只是一個芯片設計公司,而是AI公司打造算力底座時的關鍵基礎設施合作方。截至發稿,邁威爾科技漲超10%。
Marvell將2028年數據中心潛在市場規模(TAM)的預期,從去年的750億美元上修至940億美元,其中定製計算(XPU)及其配套組件市場規模達到550億美元。
Marvell指出,定製計算(XPU)和XPU Attach(配套組件)是增長最快的兩大領域 。過去一年,定製計算的市場增長了近30%,互連(interconnect)增長了約37% 。Marvell的雲收入未來將全面轉向AI收入,這反映了AI在所有應用和雲基礎設施中的深度融合,雲正成爲AI的「工廠」 。
AI芯片已進入「系統定製」時代
Marvell強調:定製化芯片是滿足新型工作負載需求的關鍵,是AI基礎設施的未來,並且正在「每個雲端」發生。
從核心XPU芯片,到配套的高帶寬內存(HBM)、互聯控制、供電等「XPU Attach」模塊,客戶都在爲自己的AI應用場景打造專屬系統。
公司CEO Matt Murphy在大會上指出:「如果你現在才開始準備做定製芯片,那已經太晚了。」Marvell自2018年起押注定製方向,今天已經形成完整體系。
TAM大幅上修,至940億美元
在去年披露的750億美元市場預期基礎上,Marvell今年將定製芯片的2028年目標市場規模(TAM)上修至940億美元,年複合增速達35%。其中:
Marvell預計,雲收入未來將全面轉向AI收入,反映了AI在所有應用和雲基礎設施中的深度融合。
團隊還觀察到,工作負載正趨於多樣化,採用專用芯片在成本與性能方面具有顯著優勢。Marvell指出,相較於GPU,XPU在工作負載中能提供更優性能。當前XPU在AI計算市場佔比約25%,Marvell認爲隨着ASIC供應商技術突破,這一份額有望繼續提升。
客戶結構變化:新興大型AI算力自建者與主權AI浮出水面
傳統雲計算四巨頭(亞馬遜AWS、微軟Azure、谷歌、Meta)仍然是主力,但Marvell指出,Emerging Hyperscalers(新興大型AI算力自建者,例如xAI、Tesla等)正在崛起,開始自主建設AI集群並推進定製芯片。
與此同時,“Sovereign AI”(由國家推動的本地AI基礎設施)也成爲全新增長方向,多個國家已展開投資,這將推動更多AI芯片定製需求在全球範圍內爆發。
Marvell已拿下18個客戶Socket,未來仍有50+項目在洽談中
當前,Marvell已經拿下18個定製Socket(客戶定製芯片項目單元)項目,多爲長期多代項目:
其中 5個爲核心XPU項目
13個爲XPU配套組件相關項目
此外,Marvell還在積極跟進超過50個新項目機會,覆蓋10+家客戶,潛在生命週期收入合計可達750億美元。
Marvell預計多個Socket將在2026-2027年進入量產,特別是一顆「重量級XPU」,將成爲推動收入加速的關鍵拐點。
Marvell設定了到2028年在定製計算市場獲得20%市場份額的目標。公司透露,幾年前其市場份額還不足5%,如今已達到13%。20%的份額是「最佳預估」,也是合理的下一步目標。
當被問及是否「已深入參與繼當前3納米設計後的下一代項目開發」(主要客戶爲亞馬遜)時,Marvell明確回答「當然」,並解釋了產品迭代週期要求他們必須並行開發芯片(即確認了T4和MAIA 3項目)。
技術突破:SRAM、HBM 與 Die-to-Die互聯
Marvell在本次活動中展示了多個關鍵模塊的技術突破:
2nm定製SRAM:帶寬密度是市面主流IP的17倍,待機功耗降低66%
自研HBM方案:通過底層Die-to-Die互聯,騰出1.7倍可用核心面積,功耗降低75%
Die-to-Die通信:帶寬密度超過10 Tbps/mm,功耗低至亞皮焦(sub-pJ/bit)級別
Co-Packaged Optics:將光通信直接整合進封裝,解決傳統銅線遠距離低能效問題
這些模塊是支撐高性能AI訓練和推理架構擴展的基礎能力。
編輯/Rocky