Cnbeta 07月16日 07:37
NVIDIA 今年将在其 AI 产品中部署多达 80 万个 SOCAMM 存储模块
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

NVIDIA将采购数十万块SOCAMM内存,用于AI PC及产品。GTC大会上展示的全新SOCAMM内存基于LPDDR,可升级、可交换,性能和功耗更优。首批应用于GB300 Blackwell平台,明年产量将扩大,尤其SOCAMM 2上市后。美光为制造商,三星、SK海力士或参与生产。

🔧SOCAMM内存基于LPDDR DRAM,可升级、可交换,通过螺丝固定在PCB上,与焊接的HBM和LPDDR5X不同。

🚀NVIDIA计划今年生产60万至80万块SOCAMM内存,首批应用于GB300 Blackwell平台,暗示向新内存规格过渡。

💡SOCAMM内存定制外形,比RDIMM更节能,带宽约150-250 GB/s,高于RDIMM及LPDDR5X和LPCAMM,适合AI PC和服务器。

🤝美光为当前制造商,三星和SK海力士据称在洽谈生产,未来或成低功耗AI设备标配。

📈明年SOCAMM 2内存上市后,产量将扩大,显示NVIDIA对AI产品性能和功耗优化的持续投入。

据报道,NVIDIA 将为 AI PC 采购数十万个基于 LPDDR 的 SOCAMM 内存,下一代 SOCAM 2 产品的需求将激增。NVIDIA GTC 大会上展出的全新 SOCAMM 内存,预计今年的库存将有所增加,因为 NVIDIA 致力于在其 AI 产品上实现卓越的性能和更低的功耗。

在 GTC 大会上,我们看到 NVIDIA 的 GB300 平台采用了美光科技开发的 SOCAMM 内存,这与服务器和移动平台等 AI 产品上使用的 HBM 和 LPDDR5X 内存截然不同。

SOCAMM 内存基于 LPDDR DRAM,后者传统上用于移动设备和低功耗设备。但与 HBM 和 LPDDR5X 等解决方案不同,SOCAMM 可升级。它并非焊接在 PCB 上,而是通过三个螺丝固定。据韩国媒体ETNews最新报道,NVIDIA 今年计划生产约 60 万至 80 万块 SOCAMM 内存。此次新内存的增产将用于 NVIDIA 的 AI 产品堆栈。

首批搭载 SOCAMM 内存的产品之一是最新的 GB300 Blackwell 平台,这已经暗示了 NVIDIA 打算为其众多 AI 产品过渡到新的内存规格。虽然今年 80 万片的目标产量远低于 NVIDIA 内存合作伙伴在 2025 年向 NVIDIA 交付的 HBM 内存数量,但明年这一规模将开始扩大,尤其是在 SOCAMM 2 内存上市之后。

SOCAMM内存采用定制外形,不仅紧凑模块化,而且比RDIMM更节能。我们尚不清楚具体的节能改进幅度,但从报告中得知,SOCAMM将提供卓越的效率,同时带来比RDIMM以及LPDDR5X和LPCAMM更高的带宽,而LPDDR5X和LPCAMM是移动平台最受欢迎的内存解决方案之一。

SOCAMM 内存带宽约为 150-250 GB/s,并且可交换,为 AI PC 和 AI 服务器提供了多功能选择,并且可以轻松升级。在不久的将来,SOCAMM 有望成为低功耗 AI 设备的标配。目前,美光公司是 NVIDIA 的 SOCAMM 制造商,而三星和 SK 海力士据称也在与 NVIDIA 洽谈,希望为 NVIDIA 生产 SOCAMM 模块。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

NVIDIA SOCAMM AI内存 LPDDR
相关文章