雪球今日话题 19小时前
深度解读博通CEO Hock Tan专访,关于XPU、Scale up网络以及CPO的最新进展
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入分析了博通公司在人工智能(AI)领域的最新动态,重点关注了AI推理需求的激增、定制AI加速器(XPU)业务的强劲表现、网络基础设施升级以及CPO技术的机遇与挑战。文章还提及了博通在技术创新、客户拓展方面的进展,以及未来1-2年的发展战略,展现了博通在AI时代的发展潜力和面临的挑战。

🚀 AI推理需求激增:近期AI推理工作负载需求显著增加,超过现有产能,可能为博通带来市场规模(SAM)的上行空间。

💪 定制AI XPU业务强劲:博通在AI XPU产品开发和客户拓展方面表现出色,预计今年将为两家领先客户完成首代AI XPU的流片,为未来增长奠定基础。

💡 网络基础设施升级:AI计算需求驱动网络需求激增,Scale-up网络成为关键战场,博通有望在这一领域获得更大的营收增长。

🚧 CPO技术的机遇与挑战:CPO技术是未来高速网络发展的关键方向,但其较高的故障率带来运维挑战,博通正积极探索解决方案。

其实这篇交流并不是今天才新发的,有些自媒体已经提前发过解读,但本人认为大多并不到位,或者差点意思,如此重要的交流,值得更仔细深刻的品味。原文较长,若有需要的球友,请后台联系我。

这段主要提到了AI市场需求的最新动态,尤其是对推理(Inference)计算的强劲增长,以及其对博通未来市场预期的潜在积极影响。

AI需求趋势:

AI需求依然强劲,主要由对“前沿大模型训练”(frontier-class model training)的持续关注所驱动,近期也受到推理(Inference)工作负载需求增加的进一步推动,这可能会使此前对市场规模(SAM)的预测出现上行空间。

定制AI XPU业务:博通的定制AI加速器(XPU)业务保持强劲,团队认为未来仍具备广阔增长空间。在过去9-12个月,AI需求主要集中在训练工作负载(如GPT-4级别的模型);但在最近两个月,客户为了变现其AI投资,开始大规模部署模型推理,推理需求出现显著激增产能瓶颈与上行机会:当前的AI推理需求已经超过现有产能。而这一强劲的推理需求并未被纳入此前制定的2027年市场规模预测(即其三大AI客户在2027财年的市场规模为600亿至900亿美元),这可能成为未来增长的潜在上行机会

产能瓶颈与上行机会:当前的AI推理需求已经超过现有产能。而这一强劲的推理需求并未被纳入此前制定的2027年市场规模预测(即其三大AI客户在2027财年的市场规模为600亿至900亿美元),这可能成为未来增长的潜在上行机会

这段聚焦于博通(Broadcom)在AI加速芯片(XPU)产品开发方面的执行力、客户拓展进展,以及技术领先性。强劲的执行能力:博通在AI XPU产品的开发和客户流片(tape-out)进展方面表现出色,进度符合预期,同时也在积极扩大客户基础。

目前团队正与四家潜在AI XPU客户紧密合作,并有信心这些客户最终将推动建设规模100万个XPU节点的AI集群式基础设施。今年内,公司预计将为其中两家领先客户完成首代AI XPU的流片。推测这两家客户分别是Arm/软银和OpenAI。从技术角度看,博通在推进下一代技术方面处于行业领先地位,正向2nm工艺 + 3.5D封装架构转型,并计划今年内流片首批2nm 3.5D AI XPU产品。

博通不仅锁定了潜在巨头客户(如OpenAI和Arm),还积极向下一代工艺技术进发(2nm+3.5D封装),这标志着其在AI芯片领域正建立领先优势。如果这些客户成功部署百万级XPU集群,将对博通的营收形成强大驱动。

重点来了,这段主要涉及到网络,关于scale up与scale out。主要讲的是AI计算需求如何带动网络基础设施的升级,尤其是高性能网络产品的增长趋势,以及相关技术(如CPO)的机会与挑战。

AI工作负载正在驱动网络需求激增,带来高价值增长机会:AI计算负载对网络性能的要求极高,通常在AI系统建设中,计算与网络的投入比例为3:1,也就是说每花3美元在计算上,大约要花1美元在网络上。因此,网络设备厂商能够在AI基础设施中获得显著的价值分成。

规模化网络(Scale-up networking)成为关键战场:团队指出,在Scale-up架构中(即大规模AI集群内部高带宽、高吞吐互连),其单位系统中可贡献的“内容价值”(即销售额)比Scale-out(分布式横向扩展)高出5到10倍。而我们都知道,过去scale-up主要由英伟达主导(nvlink以及机柜形态的nvlink36/nvlink72),博通主要在scale out领域占有重要地位和市场份额,这个表态,意味着博通在scalue up市场有着巨大的营收提升空间。

这里重点展开讨论一下,众所周知,过去网络设备商的主要场景是在数据中心上层,也就是scale out层的互联上,而scale up层由于更贴近芯片,属于英伟达的主战场,英伟达凭借nvlink在scale up领域一家独大。博通此次表态,我认为更多的是突出了其自身业务未来也有望在机柜层突破。

新兴技术——CPO(共封装光学)机会与挑战并存:CPO是将光模块直接与交换芯片共封装的技术,能大幅降低功耗和提升带宽密度,是未来高速网络(尤其是AI集群)发展的关键方向。然后关键来了,博通公司表示,CPO挑战在于,光学组件存在5-8%的较高故障率。与可插拔模块不同,一旦CPO出现故障,整个系统需更换整套共封装方案,运维成本和风险较高,可能影响CPO的快速落地。

这里展开,博通的第一代cpo方案大约在2016年就已落地,目前已经推进了n代产品,作为全球数据中心网络霸主,博通ceo对于cpo的表态,非常务实,承认了当前cpo技术依旧有着较高的故障率,这里我补充一句,我认为主要指的是光引擎部分的高故障率,即已经被集成到asic周边的pic与eic这块。

不少人认为外置光源的解决方案就直接搞定了cpo的故障问题,这是完全错误的观点,众所周知光源确实是一个比较容易坏的器件,目前有通过将光源外置变成可插拔的形态(也就是els,几乎是个光模块厂商都能做els),解决这个最容易坏的器件损坏的问题,使用的解决方案还是和可插拔光模块一样的插拔形态,也就是说,坏掉了,插个新的els就好了,这在实际的运维过程中和可插拔光模块没有任何区别,这也是目前主流的cpo方案,博通对此心知肚明。

此处提到的5-8%故障率,我认为指的是内部pic、eic的故障率,这个坏了没办法,必须直接更换整机,如果是一台144口cpo交换机,则有144个光引擎,但凡坏了1个,就要整机更换维修,而过去只需要换个新的光模块,维护难度成本,指数级提高,确实需要新的方案来。博通和康宁有一些玻璃基板光波导的解决方案,这里先挖个坑,以后有空再展开讨论。

我此前多次强调短中期cpo方案最有机会落地的场景就是在scale up领域,博通此次针对scale up和cpo的表态,我认为一方面说明了博通已经具备了从scale out网络向scale up网络进军的机会,非常期待看到博通推出类似nvlink或者cpo的方案,以帮助客户在机柜内的场景继续up,这对于博通系的网络阵营来说,是非常积极的因素,其主要供应链包括arista(交换机)、新易盛(光模块/光引擎/els)、天孚通信(fau)。

我高度认可cpo在短中期(1-3年内),最有机会突破的场景是scale up领域,也就是机柜内,机柜内过去是纯铜链接的方案,但因为速率提升和继续up的原因,被迫也进入了光的领域,未来继续up的话,大概率是铜+cpo(光)的结合,光进铜退代表了物理规则,并不是说铜不好,而是能用铜的地方会尽可能用铜,用不了了才用光,随着gpu计算能力延续黄氏定律,机柜内用光的时间已越来越临近。

而在scale out领域,cpo取代光模块的时间,我认为至少要到3.2t,当然也有专家认为至少要6.4T才有讨论的必要,按照3.2t时间来看,我认为至少在2029年之前,scale out领域都和cpo没有关系,而进入到光的领域之后,那就再次进入到了在光学和光通信有着几十年积累的易中天的领域,我相信常识,相信技术储备一直领先,相信年收入几百亿、利润百亿的头部企业大概率会继续保持领先。

中间两段和经营指标相关的就不多提了,直接进入最后一段

未来1到2年,公司将重点持续投入于自身业务,特别是围绕庞大的AI增长机遇加大布局。团队高度专注于这些机会,尤其是与七家关键AI XPU客户的合作推进。公司计划通过加大业务再投资,来深化与客户的合作关系,而非通过并购(M&A),因为并购可能会分散注意力并消耗资源。此外,团队还将继续执行以下财务策略:返还50%的自由现金流(FCF)给股东,并将偿还债务作为优先事项。

正文和首页,我直接放译文:

博通公司管理会议:受非人工智能业务复苏和VMware收入持续增长的推动,人工智能需求依然强劲;企业全速运转。基本上定调了博通公司整个状态都非常在线。昨天,我们与博通总裁兼首席执行官Hock Tan、首席财务官Kirsten Spears和IR副总裁Ji Yoo举行了一次投资者小组会议。讨论围绕着强劲的人工智能需求趋势展开,这些趋势推动了博通定制人工智能XPU业务的强劲增长,并推动了对其高性能网络产品组合的需求。此外,非人工智能业务也有逐渐复苏的趋势(看到积极的订单变化),VMware业务也在持续增长。

我们认为关键的结论是:

1)人工智能需求继续保持强劲,在之前的2027年SAM预测中没有考虑到的推断工作负载的增量需求,可能会导致上行(尽管采用曲线还为时过早,无法做出明确的预测)。

2)产品技术开发执行力强,2nm 3.5D AI XPU产品将于今年推出,团队将在今年推出第一代AI XPU产品,并与两家领先的潜在合作伙伴(我们相信是Arm/Softbank和OpenAI)合作。

3)人工智能计算工作负载推动了强大的网络需求,并在扩展网络中提供了巨大的内容捕获机会(内容比扩展网络多5-10倍)。

4)团队正在看到其ai半导体业务的逐步“U”型复苏,反映在团队现在看到的订单/订单变化,这可能有助于明年积极的每股收益修订周期。

5)VCF平台转换预计将在其VMware业务中保持强劲增长,直到2026/2027年底,届时VMware的收入基础预计将达到200亿美元的年化收入。此后,经济增长将回归到更为正常的中位数至高个位数的水平。

6)尽管人工智能XPU业务的毛利率不利,但在该模式的运营杠杆推动下,半导体营业利润率预计将继续扩大。

最后,该团队的重点将是在未来1-2年内对大型人工智能增长机会的业务进行再投资,而不是追求并购,这可能会稀释注意力和资源。

总体而言,我们看到人工智能基本面的加速,加上非人工智能半导体业务基本面的改善,以及VMware收入的进一步释放,推动了强劲的收入和盈利增长。

博通是全球第二大人工智能半导体供应商和第一大定制芯片ASIC供应商,我们重申对AVGO的增持(OW)评级。

公司概况:我们认为博通是无线通信、数据中心网络、AI/深度学习专用芯片(ASIC)、存储及基础设施硅芯片、硬件与软件领域的领导者,广泛受益于这些终端市场的积极趋势。博通是一家技术基础设施领域的巨头,凭借其行业内无与伦比的规模和技术能力,在多个终端市场中稳居领导地位。

估值观点:我们给予博通截至2025年12月的目标价为325美元。该目标价基于2026年全年盈利能力为每股约9.80美元的假设,并给予33倍市盈率(PE)。这个估值倍数大致与其他AI类公司(交易在30-35倍之间)持平,考虑到博通具备业界领先的运营/自由现金流利润率、多元化业务布局、以及在AI ASIC和网络领域的领导地位。

首发公众号,彼得全球科技观察,全文完。$新易盛(SZ300502)$ $博通(AVGO)$



本话题在雪球有140条讨论,点击查看。
雪球是一个投资者的社交网络,聪明的投资者都在这里。
点击下载雪球手机客户端 http://xueqiu.com/xz]]>

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

博通 AI XPU CPO 网络
相关文章