Cnbeta 前天 15:07
美光推出 HBM4 样品:12-Hi 36 GB 模块 带宽达 2 TB/s
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

美光公司在HBM4架构上取得了显著进展,该架构采用12-Hi堆叠设计,每个封装提供36GB容量,预计2026年初全面量产。HBM4基于美光成熟的1β工艺节点,通过将接口宽度翻倍至2048位,实现了高达2TB/s的持续内存带宽,相比HBM3E提升了20%。NVIDIA和AMD已计划在其下一代产品中采用HBM4,以满足生成式AI和高性能计算等领域对更高带宽和容量的需求。散热性能和实际基准测试将是HBM4面临的关键挑战。

🚀 HBM4架构的核心在于其12-Hi堆叠设计,每个封装可容纳12个DRAM芯片,总容量达到36GB。美光计划在未来几周内向主要合作伙伴交付工程样品,为2026年初的全面量产奠定基础。

💡 HBM4基于美光公司成熟的1β工艺节点,该节点自2022年起投入生产。通过将接口宽度从1024位增加到2048位,HBM4实现了高达2TB/s的持续内存带宽,相较于HBM3E标准提升了20%。

🤝 NVIDIA和AMD已计划在其未来的产品中采用HBM4。NVIDIA计划在2026年下半年将HBM4集成到Rubin-Vera AI加速器中,而AMD则计划将其集成到下一代Instinct MI400系列中。

🔥 HBM4的优势在于其更高的容量和带宽,能够满足生成式AI、高性能计算等数据密集型应用的需求。然而,散热性能和实际基准测试将是美光公司量产HBM4时需要克服的关键挑战。

美光公司在 HBM4 架构方面取得了重大进展,该架构将堆叠 12 个 DRAM 芯片(12-Hi),每个封装可提供 36 GB 的容量。据公司代表称,首批工程样品计划在未来几周内向主要合作伙伴发货,为 2026 年初的全面量产奠定基础。

HBM4 设计基于美光公司成熟的 DRAM 单元 1β(“one-beta”)工艺节点,该节点自 2022 年起投入生产,同时公司还准备在今年晚些时候推出支持 EUV 技术的 DDR5 1γ(“one-gamma”)。

通过将接口宽度从每个堆栈 1,024 位增加到 2048 位,每个 HBM4 芯片可实现 2 TB/s 的持续内存带宽,这意味着效率比现有的 HBM3E 标准提升了 20%。NVIDIA

和 AMD 预计将成为美光 HBM4 的早期采用者。 NVIDIA 计划在 2026 年下半年将这些内存模块集成到即将推出的 Rubin-Vera AI 加速器中。AMD 预计将把 HBM4 集成到其下一代 Instinct MI400 系列中,更多信息将在 AMD 的 Advancing AI 2025 大会上公布。

HBM4 更高的容量和带宽将满足生成式 AI、高性能计算和其他数据密集型应用日益增长的需求。更大的堆栈高度和更宽的接口宽度可实现更高效的数据移动,这是多芯片配置和内存一致性互连的关键因素。

随着美光公司开始量产 HBM4,需要克服的主要障碍将是散热性能和实际基准测试,这将决定这一新内存标准能否有效地支持最苛刻的 AI 工作负载。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

美光 HBM4 内存 NVIDIA AMD
相关文章