最新-新浪科技科学探索 2024年08月08日
NVIDIA准备精简版GPU B200A:144GB HBM3E内存、功耗低于2000W
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

NVIDIA下半年将供货Blackwell架构GPU,包括B100、B200及新增的B200A。B200A因封装产能问题采用新封装技术,规格有调整,预计2025年二季度供给OEM厂商。明年Blackwell系列将成主力,NVIDIA高端GPU出货量预计增长。

🎯NVIDIA下半年为CSP云客户供应Blackwell架构的B100、B200 GPU,同时为有边缘AI需求的OEM企业客户增加B200A。B200所用台积电CoWoS-L封装产能吃紧,B200A改用CoWoS-S封装技术。

💾B200A的HBM3E内存容量从192GB精简至144GB,数量减半,单颗容量从24GB增加到36GB。核心规格会删减,功耗低于B200,风冷可满足,方便部署,预计2025年二季度供给OEM厂商。

📈NVIDIA 2024年高端GPU出货主力为Hopper平台,Blackwell系列今年供应量不多,明年将逐渐成为主力,占比超80%,高端GPU明年出货量将增长55%。

快科技8月7日消息,据集邦咨询最新报告,NVIDIA将在今年下半年供货Blackwell架构的新一代B100、B200 GPU,供应CSP云客户,同时增加一款精简版的B200A,面向有边缘AI需求的OEM企业客户。

临时增加B200A的主要原因是B200所用的台积电CoWoS-L封装产能持续吃紧,需要集中满足CSP客户需求,B200A则会改用相对简单和宽松的CoWoS-S封装技术。

技术规格上,B200A的详细情况还不清楚,只能确定HBM3E内存的容量从192GB精简至144GB,数量从八颗减半至四颗,但因为8hi堆叠变12hi堆叠,单颗容量从24GB增加到36GB。

核心规格肯定也会删减,而功耗将会低于B200 1000W,因此无需液冷,风冷即可满足,方便客户快速部署。

B200A预计到2025年第二季度左右才会供给OEM厂商,从而和第三季度才放量的H200拉开距离,避免冲突。

供应链调查显示,NVIDIA 2024年高端GPU的出货主力以Hopper平台为主,针对北美市场是H100、H200,针对中国市场则是H20。

Blackwell系列在今年供应量不会太多(还被曝出设计缺陷),明年才会逐渐成为主力,占比超过80%。

其中,B100属于初期的过渡产品,主打“低能耗”,完成既有订单之后就会被B200、B200A、GB200所取代。

集邦咨询预计,NVIDIA高端GPU明年的出货量将增长55%。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

文章内容举报

]article_adlist-->

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

NVIDIA GPU Blackwell架构
相关文章