快科技资讯 07月27日 11:22
华为首次线下展出昇腾384超节点!任正非的话应验:芯片问题其实没必要担心
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为在2025世界人工智能大会上首次线下展出其昇腾384超节点(Atlas 900 A3 SuperPoD),该产品基于创新的超节点架构,通过总线技术实现384个NPU的高效互联,有效解决了集群通信瓶颈。华为CEO任正非曾表示,将通过数学和集群计算弥补单芯片的差距,而昇腾384超节点的推出印证了这一战略。该产品在带宽、时延和性能上均有显著优势,尤其在解决大规模AI模型训练和推理的低时延、大带宽需求方面表现突出。国际研究机构SemiAnalysis的报告指出,华为云CloudMatrix 384在关键指标上超越了英伟达的旗舰产品,标志着中国在AI基础设施领域取得了里程碑式的突破,其系统级创新能力尤为突出。

🌟 **系统工程优化实现“超级AI服务器”**:华为昇腾384超节点(Atlas 900 A3 SuperPoD)通过总线技术实现384个NPU之间的大带宽、低时延互联,并优化系统工程调度,使整个超节点如同一个强大的计算机协同工作。这解决了传统集群中资源通信的瓶颈,实现了高效的计算和存储资源调度,为大规模AI应用奠定了坚实基础。

🚀 **创新架构打破传统AI集群通信模式**:与传统AI集群中CPU扮演“领导”角色、NPU等作为“下属”的数据传输模式不同,CloudMatrix 384采用扁平化管理,CPU与NPU地位平等,通过UB网络直接通信。这种Peer-to-Peer的高带宽全对等互联架构,极大地提升了数据传输效率,避免了CPU审批带来的效率损失,从而大幅提升了AI计算性能。

💡 **以规模化系统设计弥补单芯片性能差距**:尽管单颗昇腾芯片的性能可能不及英伟达同类产品,但华为通过创新的系统级设计,包括网络架构、光学互联和软件优化,实现了整体算力的巨大跃升。SemiAnalysis报告指出,华为的规模化解决方案在超大规模模型训练和实时推理等场景中展现出更强的竞争力,并领先于英伟达和AMD的现有产品一代。

📈 **多项关键指标超越英伟达旗舰产品**:根据SemiAnalysis的报道,华为云CloudMatrix 384在多项关键指标上超越了英伟达GB200 NVL72。例如,其BF16算力高达300 PFLOPs,接近GB200 NVL72的两倍;内存容量超出英伟达方案3.6倍,内存带宽也达到2.1倍。这些优势为大规模AI训练和推理提供了更高效的硬件支持,是中国在AI计算系统领域与国际巨头正面竞争实力的体现。

🌐 **对全球AI产业格局的深远影响**:华为云CloudMatrix 384的发布,不仅是中国在AI基础设施领域实现里程碑式突破的标志,也预示着其在AI计算系统上的系统级创新能力将对全球AI产业格局产生深远影响。华为的成功实践证明,通过技术创新和系统优化,可以有效应对单芯片性能的挑战,并在全球AI竞赛中占据重要地位。

快科技7月27日消息,今年6月,华为CEO任正非接受人民日报采访时曾表示,芯片问题其实没必要担心,用叠加和集群等方法,计算结果上与最先进水平是相当的。

“我们单芯片还是落后美国一代,我们用数学补物理、非摩尔补摩尔,用群计算补单芯片,在结果上也能达到实用状况。”他说。

如今,这句话已经应验。

7月26日,2025世界人工智能大会(WAIC)在上海世博中心启幕,华为首次线下展出昇腾384超节点,即Atlas 900 A3 SuperPoD,该产品基于超节点架构,通过总线技术实现384个NPU之间的大带宽低时延互联,解决集群内计算、存储等各资源之间的通信瓶颈。

通过系统工程的优化,实现资源的高效调度,让超节点像一台计算机一样工作。

在今年5月的鲲鹏昇腾开发者大会上,华为推出了昇腾超节点(CloudMatrix 384),成功实现业界最大规模的384卡高速总线互联昇腾超节点具备超大带宽、超低时延、超强性能的三大优势,包括多款训练和推理产品,基于超节点创新架构,更好的满足模型训练和推理对低时延,大带宽,长稳可靠的要求。

本月初,华为云官微通过一段视频展示了CloudMatrix 384超节点算力集群的威力——

384颗昇腾NPU(昇腾910C)+192颗鲲鹏CPU全对等互联,形成一台“超级AI服务器”;

业界最大单卡推理吞吐量——2300Tokens/s;

业界最大集群算力——16万卡,万卡线性度高达95%;

云上确定性运维-40天长稳训练、10分钟快速恢复。

华为云表示,新一代昇腾AI云服务,是最适合大模型应用的算力服务。

简单来说,华为CloudMatrix并非简单的“堆卡”,而是通过高带宽全对等互联(Peer-to-Peer)来设计,这也是CloudMatrix 384硬件架构的一大创新。

传统的AI集群中,CPU相当于公司领导的角色,NPU等其它硬件更像是下属,数据传输的过程中就需要CPU审批和签字,效率就会大打折扣。

但在CloudMatrix384中,CPU和NPU等硬件更像是一个扁平化管理的团队,它们之间的地位比较平等,直接通过UB网络通信直接对话,效率自然就上来了。

今年4月份,国际知名半导体研究和咨询机构SemiAnalysis发布专题报道称,华为云最新推出的AI算力集群解决方案CloudMatrix 384(简称CM384)凭借其颠覆性的系统架构设计与全栈技术创新,在多项关键指标上实现对英伟达旗舰产品GB200 NVL72的超越,标志着中国在人工智能基础设施领域实现里程碑式突破。

据SemiAnalysis披露,华为云CM384基于384颗昇腾芯片构建,通过全互连拓扑架构实现芯片间高效协同,可提供高达300 PFLOPs的密集BF16算力,接近达到英伟达GB200 NVL72系统的两倍。此外,CM384在内存容量和带宽方面同样占据优势,总内存容量超出英伟达方案3.6倍,内存带宽也达到2.1倍,为大规模AI训练和推理提供了更高效的硬件支持。


(图片引自SemiAnalysis报道)

报道分析称,尽管单颗昇腾芯片性能约为英伟达Blackwell架构GPU的三分之一,但华为通过规模化系统设计,成功实现整体算力跃升,并在超大规模模型训练、实时推理等场景中展现更强竞争力。

SemiAnalysis也指出,华为的工程优势不仅体现在芯片层面,更在于系统级的创新,包括网络架构、光学互联和软件优化,使得CM384能够充分发挥集群算力,满足超大规模AI计算需求。

此次华为云CloudMatrix 384的发布,标志着中国在AI计算系统领域已具备与国际巨头正面竞争的实力。

SemiAnalysis在报道中特别指出,华为的规模化解决方案“领先于英伟达和AMD目前市场上的产品一代”,并认为中国在AI基础设施上的突破将对全球AI产业格局产生深远影响。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为 昇腾 AI计算 CloudMatrix 384 人工智能
相关文章