2025-03-20 23:57 广东
今晚移动主要这张图:
业绩会上提到了两个关键点,GPU利用率从20%提到了60%,其次推理投资不设上限
1. 管理层说的GPU口径应该是包含了N卡和国产。中移动过去N卡的利用率一直很高,但910B之前坦白讲一直比较闲置。DeepSeek之后的所谓“风口”效应,应该让整体都有一个提升
2. 大家很失望的373亿,应该是早就做好的规划,12月DeepSeek爆发之前。到了6月份年中,按惯例会调,大概率是上调
3. 中移动之前算力一是自用,二是训练为主,推理用的的确较少。但DeepSeek这一波引爆的主要是推理需求。因此可以理解这个373亿只考虑了训练和其他,的确没有将DS之后的推理需求考虑在内。
4. 所谓推理投资不设上限,背后道理和阿里腾讯capex思路差不多,和腾讯很像,推理需求ROI是最确定的,只要看到,就一定敢投。微软这次capex思路调整也类似。
腾讯业绩会后的管理层交流:
1. AI 应用
・腾讯在最近几个月升级了其开源多模态推理模型能力(混元),达到全球顶尖水平,元宝日活跃用户数在两个月内增长了 20 倍,每位用户的 AI 提示次数也在增加。这些为未来在其广泛多样化应用场景和生态系统中成功实现 AI 应用和商业化奠定了基础。
・腾讯的王牌并非创建另一个原生应用,而是能够在其所有平台(尤其是微信)上加载强大功能(如搜索、支付、小程序、视频号等)。全球软件领域正朝着 Agentic AI 发展,而微信生态系统的导航和潜力应属全球最佳之一。
・面向消费者的应用商业化将专注于广告(尤其是效果广告)和增值服务(VAS)。
・广告:视频号广告加载率仅为 4%,远低于国内同行的 15% 和 META 的 15% 左右。视频号用户使用时长快速增长(意味着在不增加广告加载率的情况下消费更多广告)。腾讯的广告技术升级仍落后于 META,但正试图通过大语言模型实现跨越式发展,而非完全复制 META 的做法,且微信生态系统比 META 更加全面。
・游戏:腾讯已在游戏中部署了大量 AI 技术(不一定是生成式 AI),用于优化 PvP 匹配、游戏平衡、新手指导等。生成式 AI 可以更高效地生成内容,助力 PvE 游戏。
・腾讯用户仍有较大的商业化潜力,基于其在互联网用户使用时长中的高占比与商业化份额之间的差距。游戏 ARPPU(每用户平均收入)仍低于同行。金融科技更注重风险管理而非扩大贷款规模。
・面向企业的应用将专注于生成新线索或 / 和降低成本,以收取更高的 ARPPU。
・腾讯将继续专注于软件技术(尤其是社交领域),不太可能将其生态系统扩展到硬件领域。并非所有业务都能从网络效应中受益,例如腾讯视频。
・边缘计算在短期内不会成为重点,因为模型能力和复杂性将继续发展,以执行更复杂的任务 / 推理 / Agentic AI,这些是 CPU 无法处理的。
・️最近的架构重组明确了内部团队的专注方向:模型团队全力构建模型,产品团队专注于原生 AI 应用(如元宝),其他现有业务单元在其产品中融入 AI 体验。
2. 利润率
・毛利率(GP)将继续以快于收入的速度增长,受益于有利的业务结构变化。营业利润(OP)和净利润(NP)将以快于毛利率的速度增长,得益于管理费用(G&A)和销售与营销费用(S&M)的控制(微信无需 S&M 投入),而研发费用可能因 AI 发展而波动。
️3. 芯片禁令风险
・管理层强调,GPU 使用已从训练大幅转向推理,后者不需要最先进的 GPU(可使用本地芯片 / ASIC/CPU),因此腾讯有大量空间优化 GPU 部署并最大化投资回报率。DeepSeek 甚至可以在笔记本电脑上运行。软件方面也有空间进一步提升芯片性能。即使在训练领域,下一阶段的模型创新也不仅仅是增加 GPU,而是关乎数据质量、训练机制、架构等因素。总体而言,芯片供应充足。
4. 云业务
・云业务经过多年重新定位,专注于回报和利润率,目前正处于清理无回报收入的最后阶段。将把腾出的 GPU 用于更有价值 / 回报的用途。推理模型也推动需求显著增长,有助于提升定价。未来,腾讯可能将低回报的推理业务升级为利润率更高的 PaaS 和 SaaS。
5. 资本回报
・腾讯在急需购买更多 GPU 时会出售部分投资,但目前尚未需要这样做。
GTC相关的内容公众号没来得及发,星球持续跟踪中...
英伟达2025GTC分析师会议交流要点:
1、R1模型的释放,拉高了后续对于推理的需求。AI的推理计算需求远高于一次性训练的计算需求。Blackwell在推理方面的处理上,可以做到更加擅长。
2、公司目前正在加大AI基础设施的建设(包括云客户、企业IT方向)。具体方向包括:计算、网络(思科成为网络合作伙伴)、存储(与很多存储公司进行合作)等。
3、加大机器人业务的布局,具体应用领域包括:自动驾驶机器人、人形机器人、机器人工厂、机器人仓库等。
4、Dynamo是公司此次推出的全新开源软件,专为训练、推理和跨数据中心加速而构建。伴随着AI推理技术的发展,token的产生量在持续增加。Blackwell因拥有NVLink 72、FP4、Grace上的快速闪存,有望在推理时代体现出更好的性能。
5、会议上提到的360万Blackwell GPU,是四大云厂商的订购数据。
6、四大云厂商的Capex投入在持续进行,主要推动因素在于:一方面是从传统计算转向与加速计算(机器学习是现在和未来);另一方面在于,建设AI工厂。NVIDIA 预计未来将有大型AI工厂项目,投资可能达到数千亿美元。
7、随着未来三到四年内 Grace Blackwell 架构的扩大,毛利率预计会提高。
8、针对于ASIC和GPU的竞争问题,公司建议关注不同芯片带来的收入、OpMargin等财务指标,才能更好的评估两种计算芯片的竞争情况。公司旨在凭借其全面的AI平台,保持对定制 ASIC 的主导地位。
9、NVIDIA 正在为在岸制造做准备,利用台积电在亚利桑那州的投资来减轻潜在的关税影响。该公司制定了三年的发展路线图,强调其作为基础设施提供商而非消费品企业的角色。
台达GTC大会要点总结:
今早6-6:30台达进行了《Grid-to-Chip Power Solutions for Gigawatt-Scale AI Data Centers》的演讲,其中详细展示了其HVDC的供电架构、SST等未来技术的研判。
全球AI市场在2029年超过1万亿美元,比预期提前2年,且在2032年快速提升至将近3万亿美元。随着GPU功耗从几百瓦快速提升至几千瓦,且数据中心中GPU占比从10%快速提升至70%,需要解决传统交流配电模式下的功率损耗、GPU动态负载功率因数下降、三相不平衡和谐波等问题,柜内空间也捉襟见肘。
#解决方案。1)短期看,GB200和GB300仍将采用基于5.5/12kw电源的AC PSU方案,此外现有交流系统因为功率因数变差使用更多电能治理器件(SVG+APF);2)中期看,采用中压转换800V直流输出方案,将电源设备从服务器机柜内移出至sidecar。3)长期看,采用SST中压直接转换800V直流,可放置于柜内,电源端可采用可再生能源。
台达负责人基于中期视角进行了大篇幅详细说明:
1、从电网到芯片的供电解决方案以及全直流架构布局:当机柜功率超过250kw时,将采用800V HVDC sidecar供电架构,同时匹配800→50V DC PSU,50→0.8V降压到GPU。
2、超容(PCS)的必要性:台达花了较大篇幅讲解PCS存在的必要性:GPU的负载呈现快速峰值变化,在0.5ms内功率翻倍至190%,随后在5ms内降至160%,50ms内降至130%。PCS可在快速功率变化时提供缓冲,避免对电网造成冲击,功率波动有效从73%大幅降低到6%。
核心的边际变化在于产品增量:此前市场对于具体的800V架构并不清晰,但本次台达将全部架构清晰展示。
1)powershelf的增量:IT rack内部的powershelf,当电源出柜后,一方面power rack内部需要完成交流到800V直流输出的powershelf-1,同时在IT rack内部也需要另外一个powershelf完成800V直流到50V直流的powershelf-2。
2)PDU的增量:电源单独成柜后,PDU分为输入AC-PDU和输出DC-PDU两个模块。