快科技资讯 03月21日 11:36
下一代HBM4、HBM4E内存冲击单颗64GB!中国已追到HBM2
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达公布了未来三代AI服务器的HBM内存升级计划,SK海力士、三星、美光等厂商也纷纷展示了各自的HBM内存发展规划。HBM内存的容量、频率和带宽都将持续提升,其中SK海力士展示了世界首颗48GB大容量HBM4内存,三星也公布了HBM4和HBM4E的详细参数和路线图。虽然HBM内存主要应用于AI服务器,但中国厂商在HBM领域仍需努力,目前已有多家厂商搞定了第二代HBM2,并已供货。

🚀 英伟达的未来规划:基于GB300芯片的Blackwell Ultra NVL72将于今年下半年发布,采用HBM3E内存;明年下半年的Vera Rubin NVL144升级为HBM4内存;后年下半年的Rubin Ultra NVL576升级为HBM4E内存;2028年的Feynman架构有望首次采用HBM5内存。

🥇 SK海力士的领先地位:展示了世界第一颗48GB大容量HBM4内存,采用单Die 24Gb设计,16颗堆叠,数据传输率8Gbps,带宽2TB/s。

✨ 三星的详细规划:HBM4密度为单Die 24Gb,单颗容量有36GB和24GB两种,数据传输率最高9.2Gbps,带宽最高2.3TB/s;HBM4E规划单Die容量提高到32Gb,单颗容量最大可达64GB,数据传输率提高到10Gbps,带宽可达2.56TB/s。

💡 HBM内存的应用:主要用于AI服务器,消费级显卡或将无缘。中国厂商在HBM领域仍需努力,但已有多家厂商搞定了第二代HBM2并供货。

快科技3月21日消息,NVIDIA近日宣布了未来三代AI服务器,不但规格、性能越来越强,HBM内存也是同步升级,容量、频率、带宽都稳步前进。

其中,基于GB300芯片的Blackwell Ultra NVL72今年下半年发布,继续采用HBM3E内存;明年下半年的Vera Rubin NVL144升级为下一代HBM4内存;后年下半年的Rubin Ultra NVL576继续升级为加强版HBM4E内存;而到了2028年的Feynman全新架构有望首次采用HBM5内存。

与此同时,SK海力士、三星、美光三大原厂也纷纷展示了自己的HBM内存发展规划,包括HBM4、HBM4e。

SK海力士如今作为HBM内存的领袖,直接摆出了一颗48GB大容量的HBM4,是世界第一颗,也是最强的一颗。

它采用单Die 24Gb(3GB)的设计,16Hi也就是16颗堆叠而成,数据传输率8Gbps,IO位宽2048-bit,也就是一颗的带宽就有2TB/s。

美光的没有做过多介绍,只是说性能比HBM3e提升了50%,而量产时间安排在2026年。

三星的资料最为详尽,不但有具体参数,还有规划路线图。

三星这次展示的HBM4密度也是单Die 24Gb,单颗容量则有36GB(12堆叠)、24GB(8堆叠)两种,不如SK海力士。

不过,数据传输率最高9.2Gbps,带宽最高2.3TB/s。

它采用MPGA封装,尺寸12.8x11毫米,堆叠高度775微米,能效为每bit 2.3PJ。

对于下代HBM4E,三星规划单Die容量提高到32Gb(4GB),支持8/12/16堆叠,因此单颗容量最大可以做到64GB,而且高度维持不变。

同时数据传输率提高到10Gbps,继续搭配2048-bit位宽,带宽可达2.56TB/s。

HBM内存现阶段和可预见的未来都会主要用于AI服务器,应该是不会下放到消费级显卡了,当年的AMD Fiji、Vega恐怕成为绝唱。

目前,中国在DRAM内存、NAND闪存方面都已经基本追上了国际领先水平或者差距不大,HBM则还需要大大努力。

消息称,多家中国厂商已经搞定了第二代HBM2,并已供货给客户,搭配国产AI GPU加速器,倒也相得益彰。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 HBM内存 AI服务器 SK海力士 三星
相关文章