量子位 2小时前
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为通过“昇腾+Pangu Ultra MoE”组合,实现了国产算力与模型的全流程自主可控训练。该技术在万卡集群上展现出卓越性能,尤其是在后训练阶段,单CloudMatrix 384超节点吞吐达35K Tokens/s。华为还首次披露了高效打通大稀疏比MoE强化学习后训练框架的关键技术,推动了超节点集群时代的到来。

💡华为通过系统建模仿真框架进行智能并行优化,为Pangu Ultra MoE 718B模型确定了最优部署配置,包括流水线并行、张量并行、专家并行和虚拟流水线并行,实现了与昇腾架构深度适配的最优化部署方案。

🚀为了突破并行扩展中的通信瓶颈问题,华为设计了昇腾网络拓扑适配的分层All-to-All通信去冗余机制,结合细粒度前反向计算重叠编排,将大规模MoE训练中的专家并行通信开销降至接近零。

⚙️针对MoE模型负载不均衡问题,华为团队提出了EDP全局负载均衡优化策略,通过专家负载预测和动态调节机制实现设备间计算负载的精确平衡,并利用注意力数据重排技术优化数据并行域间的负载分布。

⚡️通过昇腾亲和的训练算子加速、Host-Device协同的算子下发优化和Selective R/S内存优化方案,华为团队成功将微批处理规模提升至原来的两倍,并实现了昇腾单节点算力的全面释放。

💡华为首次披露高性能可扩展RL后训练关键技术,提出了RL Fusion训推共卡技术,支持多种灵活部署模式,实现了RL后训练集群利用率翻倍的显著提升。同时,设计了容忍梯度“陈旧性”的准异步机制StaleSync和分布式数据队列DistQueue,提升了系统整体训练吞吐量。

原创 关注前沿科技 2025-05-30 13:01 北京

万亿参数、万卡集群

金磊 发自 凹非寺量子位 | 公众号 QbitAI

现在,请大家一起数一下“1”、“2”

OK,短短2秒钟时间,一个准万亿MoE大模型就已经吃透如何解一道高等数学大题了!

而且啊,这个大模型还是不用GPU来训练,全流程都是大写的“国产”的那种。

这,就是华为通过昇腾+Pangu Ultra MoE”这套组合拳解锁的效果——

不仅实现了国产算力与国产模型全流程自主可控的训练闭环,更是在集群训练系统性能方面达到行业领先水平。

有多领先?来看一组数据:

值得一提的是,华为还首次把背后的一大秘籍给亮了出来。

具体来说,华为在这次发布的技术报告中,披露了在昇腾CloudMatrix 384超节点上,高效打通大稀疏比MoE强化学习后训练框架的关键技术。

此举可以说是让以强化学习(RL)为核心机制的后训练,进入到了超节点集群时代。

不用GPU的“炼”出准万亿大模型方法

在深入华为Pangu Ultra MoE训练系统全流程之前,老规矩,我们还是先来了解一下此前的技术痛点。

整体来看,在当前的MoE预训练和强化学习后训练过程中所存在的挑战可以归结为六点:

即使挑战如此之多,华为在这段技术报告中依旧是给出了一套完整的端到端全流程解法。

第一招:提升训练集群利用率

超大规模训练集群的高效部署是提升预训练系统性能的关键所在。

为此,华为团队通过并行策略智能选择、计算通信深度融合、全局动态负载平衡等技术创新,显著提升了集群整体训练效率。

首先是建模仿真驱动的智能并行优化

华为团队采用如下图所示的系统建模仿真框架,将原本需要大量人工试错的并行策略选择问题转化为精确的自动化搜索过程。

基于昇腾800T A2训练集群的硬件特性和约束条件,为Pangu Ultra MoE 718B模型确定了最优部署配置:

最终实现了与昇腾架构深度适配的最优化部署方案。

训练系统建模仿真流程

其次是Adaptive Pipe前反向通算掩盖

为了突破并行扩展中的通信瓶颈问题,华为团队创新设计了昇腾网络拓扑适配的分层All-to-All通信去冗余机制,结合细粒度前反向计算重叠编排,成功将大规模MoE训练中的专家并行通信开销降至接近零暴露(<2%)

    层次化专家并行通信:华为给出了与昇腾训练集群拓扑深度适配的多级通信策略。首先在节点间进行去冗余的token收集操作,避免相同token在低带宽的跨节点链路上重复传输;随后利用节点内高带宽优势,通过All-to-All通信实现token的冗余分发。这一分层设计显著提升了专家并行的整体通信效率。

    自适应细粒度前反向掩盖:针对分层专家并行通信特点,设计了基于虚拟流水线并行(VPP)的细粒度前反向重叠掩盖策略。相比业界DualPipe掩盖方案,该策略将权重内存占用减少一半。通过进一步拆解MLP模块计算流程,充分利用分层专家并行通信中各级带宽相对独立的特性,实现算子执行顺序的自适应调优,最终将专家并行通信几乎完全隐藏(未掩盖比例仅为2%)。

最后是EDP Balance 全局动态负载均衡

对于MoE模型,模型规模和集群规模的增长会导致专家计算、注意力计算以及各层间的负载不均衡问题相互叠加并被显著放大。当多种性能瓶颈同时出现时,通信同步等待会在系统中传播扩散,造成整体性能的严重恶化。

华为团队采用系统性的分析方法,深入剖析专家并行(EP)、数据并行(DP)、流水线并行(PP)各通信域中潜在的负载均衡挑战,提出了EDP全局负载均衡优化策略。

这个策略不仅通过专家负载预测和动态调节机制(如下图)实现设备间计算负载的精确平衡,还通过注意力数据重排技术进一步优化了数据并行域间的负载分布效果。

此外,团队将虚拟流水线并行(VPP)机制与硬件规格特点相结合,设计了最优混合并行架构,有效缓解了模型各层间计算负载分布不均的问题,大幅提升了整体训练效率。

基于专家动态迁移的EP间负载均衡整体框架图

第二招:释放昇腾单节点算力

在昇腾超大规模集群优化实现突破性进展后,华为团队将优化焦点转向底层算子计算效率的深度挖掘。

这个阶段的核心工作围绕昇腾架构深度适配的训练算子加速展开,通过缓解Host资源瓶颈以及内存优化策略双重手段,成功将微批处理规模(MBS)提升至原来的两倍。

同时团队还对算子调度下发链路进行协同优化,最终实现了昇腾单节点算力的全面释放。

华为团队的“第二招”,同样包含三个细分内容;首先就是昇腾亲和的训练算子加速

在大模型训练计算过程中,FlashAttention、MatMul以及Permute/Unpermute等向量操作算子的执行时间占据了算子总计算耗时的四分之三以上。

针对这些关键算子类型,华为团队充分利用昇腾微架构特性,通过算子流水线排布优化和数学等价冗余计算消除等核心技术手段,实现了训练算子性能的显著跃升。

其次是Host-Device协同的算子下发优化

针对同步型间歇性Host-Bound和系统性持续性Host-Bound问题,华为团队充分发挥昇腾+鲲鹏异构系统协同优势,构建了分层优化体系来实现高效算子调度:

对于同步型Host-Bound问题,不仅有效消除了同步操作引发的Host资源瓶颈,在无法完全规避同步的场景下,还通过优化鲲鹏处理器的算子下发与调度策略,显著降低了同步后的Host-Bound开销。

对于系统性Host-Bound问题,则采用增大微批处理规模(MBS)、鲲鹏CPU NUMA亲和性优化等多维度协同手段,大幅提升算子下发效率。

通过算法与系统的深度协同优化,华为团队成功将MoE模型训练中的Host-Bound占比控制在2%以下,为超大规模模型训练探索出了全新的技术范式。

最后是Selective R/S-精准的内存手术方案

华为团队构建了一个精密的内存优化框架:以丰富多样的通用化重计算策略和Swap机制作为“精密工具库”,涵盖从模块级到张量级的细粒度优化选项;配合精心设计的自适应内存管理机制作为“智能调度平台”。

这个框架针对Pangu Ultra MoE 718B模型训练需求,实现了多维度、定制化的内存资源精确调配。

通过构建最优内存优化策略组合,以精准的资源管理手段最大化释放内存空间,成功实现了超过70%的激活值内存节省。

即使在微批处理规模(MBS)翻倍带来的内存压力挑战下,这个方案依然为模型的长期稳定训练提供了可靠保障。

第三招:首次披露高性能可扩展RL后训练关键技术

华为团队针对强化学习训练中异构模型和多任务场景导致的资源利用率偏低问题,通过深入的系统分析和创新设计,提出了RL Fusion训推共卡技术

这一技术支持训练推理共卡、全共卡等多种灵活部署模式(如下图),实现推理阶段资源调度的精细化可控管理,支持张量并行(TP)、数据并行(DP)、专家并行(EP)、流水线并行(PP)等多维并行策略的动态无缝切换。

可在秒级时间内完成训推状态转换,最终实现了RL后训练集群利用率翻倍的显著提升

分离部署、训推共卡部署、全共卡部署资源利用率示意图

除此之外,华为团队还展示了面向大规模集群高效可扩展的后训练框架

    摒弃全同步迭代方式,设计容忍梯度“陈旧性”的准异步机制StaleSync(如下图),让不同RL阶段的不同任务在“陈旧度阈值”内并行执行。在保证模型精度的前提下,系统整体训练吞吐提升50%。

    针对RL阶段多任务的处理需求,设计了分布式数据队列DistQueue,实现不同计算任务之间数据的拆分、缓存与动态读取。DistQueue对整个后训练过程中的数据进行管理,有效缓解不同计算任务之间的数据阻塞,为后训练任务高效调度提供数据支持。

2秒就能让大模型吃透一道高数大题

通过预训练和RL后训练加速技术,华为团队基于MindSpeed、Megatron以及vLLM框架,打造了昇腾全流程高效训练系统。

这个系统可支持超大规模集群和超大规模MoE模型,并在Pangu Ultra MoE模型训练中实现了端到端的流畅训练。

Pangu Ultra MoE模型拥有7180亿参数量,具有大稀疏比和高综合性能的显著特点。

其架构包含61层Transformer,前3层为稠密层,后58层为MoE层。模型隐层维度达7680,配备256个路由专家和1个共享专家,专家隐层维度为2048。

在预训练阶段,华为团队使用6K - 10K卡的昇腾800T A2集群对Pangu Ultra MoE进行训练。在序列长度为8K、万卡训练集群的条件下,模型算力利用率(MFU)创下新高,达到了41%。上述训练系统具有很强的泛化性,可高效扩展至更大规模参数模型和更大规模卡数集群,同时如果配合昇腾CloudMatrix 384超节点的高速互联特性,预计可支撑训练集群MFU > 50%,相关技术迭代实践结果也将在日后技术报告中发布。

而在RL后训练阶段,于Pangu Ultra MoE昇腾CloudMatrix 384超节点集群的后训练中,采用训练推理混合并行策略(训练:PP16/VPP2/EP32/TP8,推理:PP1/EP64/TP1),并结合异步RL算法与训练框架系统的协同创新,实现了每超节点35K Tokens/s的高吞吐能力。

同时支持高效扩展超过4K卡的集群,这一效率相当于每2秒就能吃透一道高等数学大题,实现了昇腾超节点吞吐的新突破。

以上便是华为Pangu Ultra MoE训练系统全流程的深度揭秘了。

感兴趣的小伙伴可以再通过完整的技术报告深入了解:https://gitcode.com/ascend-tribe/ascend-training-system/blob/main/Overview/%E6%98%87%E8%85%BE%E8%B6%85%E5%A4%A7%E8%A7%84%E6%A8%A1Pangu%20MoE%E6%A8%A1%E5%9E%8B%E5%85%A8%E6%B5%81%E7%A8%8B%E9%AB%98%E6%95%88%E8%AE%AD%E7%BB%83%E5%AE%9E%E8%B7%B5.pdf

技术博客地址:https://gitcode.com/ascend-tribe/ascend-training-system/blob/main/Overview/ascend-training-system-overview.md

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为 昇腾 MoE模型 大模型训练
相关文章