华为将于8月12日在2025金融AI推理应用落地与发展论坛上公布一项AI推理领域的突破性技术。这项技术有望显著降低中国AI推理对HBM(高带宽内存)的依赖,同时提升国内AI大模型的推理性能,为完善中国AI推理生态的关键环节。HBM作为一种先进的DRAM解决方案,通过3D堆叠技术实现超高带宽、低延迟、高容量密度和高能效比,是当前高端AI芯片的标配。然而,HBM的产能紧张和美国出口限制促使国内厂商积极探索Chiplet封装、低参数模型优化等替代方案。华为此次发布的新技术成果,预示着中国在AI推理领域正寻求自主创新的发展路径。
💡 华为将在8月12日的金融AI推理论坛上发布一项AI推理领域的关键技术突破。这项技术的目标是减少中国AI推理对HBM(高带宽内存)的依赖,并提升国内AI大模型的推理效率,这对于构建完整的中国AI推理生态系统至关重要。
🚀 HBM(高带宽内存)是一种先进的DRAM技术,通过3D堆叠多层DRAM芯片,实现了极高的数据传输带宽、低延迟、高容量密度以及优异的能效比。这使得AI推理过程中的海量模型参数和实时数据能够被高效访问,避免了传统内存的带宽瓶颈,从而显著提升大模型的响应速度。
📈 目前,HBM已成为高端AI芯片的标准配置,在训练侧的普及率接近100%,并且随着模型复杂度的增加,其在推理侧的应用也在加速普及。然而,HBM的产能限制以及美国实施的出口管制,正促使中国国内厂商积极寻求替代技术和解决方案,例如Chiplet封装技术和低参数模型优化。
🔍 华为此次发布的新技术成果,很可能是在HBM供应受限和技术封锁的背景下,为中国AI推理产业提供的一项自主创新解决方案。这不仅有助于缓解对外部技术的依赖,更能提升国内AI大模型的自主研发和应用能力,是推动中国AI产业发展的重要一步。
快科技8月10日消息,据国内媒体报道,华为将于8月12日在2025金融AI推理应用落地与发展论坛上,发布AI推理领域的突破性技术成果。
据透露,这项成果或能降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。
HBM(High Bandwidth Memory,高带宽内存)是一种基于3D堆叠技术的先进DRAM解决方案,多层DRAM芯片垂直集成,显著提升数据传输效率。具有超高带宽与低延迟、高容量密度、高能效比等优势。
AI推理需频繁调用海量模型参数(如千亿级权重)和实时输入数据。HBM的高带宽和大容量允许GPU直接访问完整模型,可避免传统DDR内存因带宽不足导致的算力闲置。对于千亿参数以上的大模型,HBM可显著提升响应速度。
当下,HBM已成为高端AI芯片的标配,训练侧渗透率接近100%,推理侧随模型复杂化加速普及。
然而,其产能紧张和美国出口限制倒逼国内厂商探索Chiplet封装、低参数模型优化等替代方案。
