掘金 人工智能 3小时前
每 2 秒吃透一道高数大题!华为终于揭秘准万亿 MoE 昇腾训练系统全流程
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为通过“昇腾+Pangu Ultra MoE”组合拳,实现了国产算力与国产模型全流程自主可控的训练闭环,并在集群训练系统性能方面达到行业领先水平。该方案解决了MoE预训练和强化学习后训练过程中面临的并行策略配置困难、All-to-All通信瓶颈、系统负载分布不均、算子调度开销过大、训练流程管理复杂以及大规模扩展受限等六大挑战。通过提升训练集群利用率、释放昇腾单节点算力以及首次披露高性能可扩展RL后训练关键技术,华为成功打造了昇腾全流程高效训练系统,让大模型训练效率得到显著提升。

💡华为采用系统建模仿真框架,为Pangu Ultra MoE 718B模型确定了最优部署配置,包括16路流水线并行、8路张量并行、32路专家并行和2路虚拟流水线并行,实现了与昇腾架构深度适配的最优化部署方案。

🚀华为创新设计了昇腾网络拓扑适配的分层All-to-All通信去冗余机制,并结合细粒度前反向计算重叠编排,将大规模MoE训练中的专家并行通信开销降至接近零暴露(<2%),显著提升了通信效率。

🧠华为团队提出了RL Fusion训推共卡技术,支持训练推理共卡、全共卡等多种灵活部署模式,实现推理阶段资源调度的精细化可控管理,并支持多维并行策略的动态无缝切换,可在秒级时间内完成训推状态转换,最终实现了RL后训练集群利用率翻倍的显著提升。

📊华为团队使用6K - 10K卡的昇腾800T A2集群对Pangu Ultra MoE进行训练,在序列长度为8K、万卡训练集群的条件下,模型算力利用率(MFU)创下新高,达到了41%。

现在,请大家一起数一下 “1”、“2”

OK,短短 2 秒钟时间,一个准万亿 MoE 大模型就已经吃透如何解一道高等数学大题了!

而且啊,这个大模型还是不用 GPU 来训练,全流程都是大写的 “国产” 的那种。

这,就是华为通过 “昇腾 + Pangu Ultra MoE” 这套组合拳解锁的效果——

不仅实现了国产算力与国产模型全流程自主可控的训练闭环,更是在集群训练系统性能方面达到行业领先水平。

有多领先?来看一组数据:

值得一提的是,华为还首次把背后的一大秘籍给亮了出来。

具体来说,华为在这次发布的技术报告中,披露了在昇腾 CloudMatrix 384 超节点上,高效打通大稀疏比 MoE 强化学习后训练框架的关键技术。

此举可以说是让以强化学习(RL)为核心机制的后训练,进入到了超节点集群时代。

不用 GPU 的 “炼” 出准万亿大模型方法

在深入华为 Pangu Ultra MoE 训练系统全流程之前,老规矩,我们还是先来了解一下此前的技术痛点。

整体来看,在当前的 MoE 预训练和强化学习后训练过程中所存在的挑战可以归结为六点:

即使挑战如此之多,华为在这段技术报告中依旧是给出了一套完整的端到端全流程解法。

第一招:提升训练集群利用率

超大规模训练集群的高效部署是提升预训练系统性能的关键所在。

为此,华为团队通过并行策略智能选择、计算通信深度融合、全局动态负载平衡等技术创新,显著提升了集群整体训练效率。

首先是建模仿真驱动的智能并行优化

华为团队采用如下图所示的系统建模仿真框架,将原本需要大量人工试错的并行策略选择问题转化为精确的自动化搜索过程。

基于昇腾 800T A2 训练集群的硬件特性和约束条件,为 Pangu Ultra MoE 718B 模型确定了最优部署配置:

最终实现了与昇腾架构深度适配的最优化部署方案。

训练系统建模仿真流程

其次是 Adaptive Pipe 前反向通算掩盖。

为了突破并行扩展中的通信瓶颈问题,华为团队创新设计了昇腾网络拓扑适配的分层 All-to-All 通信去冗余机制,结合细粒度前反向计算重叠编排,成功将大规模 MoE 训练中的专家并行通信开销降至接近零暴露(<2%)

    层次化专家并行通信:华为给出了与昇腾训练集群拓扑深度适配的多级通信策略。首先在节点间进行去冗余的 token 收集操作,避免相同 token 在低带宽的跨节点链路上重复传输;随后利用节点内高带宽优势,通过 All-to-All 通信实现 token 的冗余分发。这一分层设计显著提升了专家并行的整体通信效率。

    自适应细粒度前反向掩盖:针对分层专家并行通信特点,设计了基于虚拟流水线并行(VPP)的细粒度前反向重叠掩盖策略。相比业界 DualPipe 掩盖方案,该策略将权重内存占用减少一半。通过进一步拆解 MLP 模块计算流程,充分利用分层专家并行通信中各级带宽相对独立的特性,实现算子执行顺序的自适应调优,最终将专家并行通信几乎完全隐藏(未掩盖比例仅为 2%)。

最后是 EDP Balance 全局动态负载均衡

对于 MoE 模型,模型规模和集群规模的增长会导致专家计算、注意力计算以及各层间的负载不均衡问题相互叠加并被显著放大。当多种性能瓶颈同时出现时,通信同步等待会在系统中传播扩散,造成整体性能的严重恶化。

华为团队采用系统性的分析方法,深入剖析专家并行(EP)、数据并行(DP)、流水线并行(PP)各通信域中潜在的负载均衡挑战,提出了 EDP 全局负载均衡优化策略。

这个策略不仅通过专家负载预测和动态调节机制(如下图)实现设备间计算负载的精确平衡,还通过注意力数据重排技术进一步优化了数据并行域间的负载分布效果。

此外,团队将虚拟流水线并行(VPP)机制与硬件规格特点相结合,设计了最优混合并行架构,有效缓解了模型各层间计算负载分布不均的问题,大幅提升了整体训练效率。

基于专家动态迁移的 EP 间负载均衡整体框架图

第二招:释放昇腾单节点算力

在昇腾超大规模集群优化实现突破性进展后,华为团队将优化焦点转向底层算子计算效率的深度挖掘。

这个阶段的核心工作围绕昇腾架构深度适配的训练算子加速展开,通过缓解 Host 资源瓶颈以及内存优化策略双重手段,成功将微批处理规模(MBS)提升至原来的两倍。

同时团队还对算子调度下发链路进行协同优化,最终实现了昇腾单节点算力的全面释放。

华为团队的 “第二招”,同样包含三个细分内容;首先就是昇腾亲和的训练算子加速

在大模型训练计算过程中,FlashAttention、MatMul 以及 Permute/Unpermute 等向量操作算子的执行时间占据了算子总计算耗时的四分之三以上。

针对这些关键算子类型,华为团队充分利用昇腾微架构特性,通过算子流水线排布优化和数学等价冗余计算消除等核心技术手段,实现了训练算子性能的显著跃升。

其次是 Host-Device 协同的算子下发优化

针对同步型间歇性 Host-Bound 和系统性持续性 Host-Bound 问题,华为团队充分发挥昇腾 + 鲲鹏异构系统协同优势,构建了分层优化体系来实现高效算子调度:

对于同步型 Host-Bound 问题,不仅有效消除了同步操作引发的 Host 资源瓶颈,在无法完全规避同步的场景下,还通过优化鲲鹏处理器的算子下发与调度策略,显著降低了同步后的 Host-Bound 开销。

对于系统性 Host-Bound 问题,则采用增大微批处理规模(MBS)、鲲鹏 CPU NUMA 亲和性优化等多维度协同手段,大幅提升算子下发效率。

通过算法与系统的深度协同优化,华为团队成功将 MoE 模型训练中的 Host-Bound 占比控制在 2% 以下,为超大规模模型训练探索出了全新的技术范式。

最后是 Selective R/S - 精准的内存手术方案

华为团队构建了一个精密的内存优化框架:以丰富多样的通用化重计算策略和 Swap 机制作为 “精密工具库”,涵盖从模块级到张量级的细粒度优化选项;配合精心设计的自适应内存管理机制作为 “智能调度平台”。

这个框架针对 Pangu Ultra MoE 718B 模型训练需求,实现了多维度、定制化的内存资源精确调配。

通过构建最优内存优化策略组合,以精准的资源管理手段最大化释放内存空间,成功实现了超过 70% 的激活值内存节省。

即使在微批处理规模(MBS)翻倍带来的内存压力挑战下,这个方案依然为模型的长期稳定训练提供了可靠保障。

第三招:首次披露高性能可扩展 RL 后训练关键技术

华为团队针对强化学习训练中异构模型和多任务场景导致的资源利用率偏低问题,通过深入的系统分析和创新设计,提出了 RL Fusion 训推共卡技术

这一技术支持训练推理共卡、全共卡等多种灵活部署模式(如下图),实现推理阶段资源调度的精细化可控管理,支持张量并行(TP)、数据并行(DP)、专家并行(EP)、流水线并行(PP)等多维并行策略的动态无缝切换。

可在秒级时间内完成训推状态转换,最终实现了 RL 后训练集群利用率翻倍的显著提升

分离部署、训推共卡部署、全共卡部署资源利用率示意图

除此之外,华为团队还展示了面向大规模集群高效可扩展的后训练框架

    摒弃全同步迭代方式,设计容忍梯度 “陈旧性” 的准异步机制 StaleSync(如下图),让不同 RL 阶段的不同任务在 “陈旧度阈值” 内并行执行。在保证模型精度的前提下,系统整体训练吞吐提升 50%。

    针对 RL 阶段多任务的处理需求,设计了分布式数据队列 DistQueue,实现不同计算任务之间数据的拆分、缓存与动态读取。DistQueue 对整个后训练过程中的数据进行管理,有效缓解不同计算任务之间的数据阻塞,为后训练任务高效调度提供数据支持。

2 秒就能让大模型吃透一道高数大题

通过预训练和 RL 后训练加速技术,华为团队基于 MindSpeed、Megatron 以及 vLLM 框架,打造了昇腾全流程高效训练系统。

这个系统可支持超大规模集群和超大规模 MoE 模型,并在 Pangu Ultra MoE 模型训练中实现了端到端的流畅训练。

Pangu Ultra MoE 模型拥有 7180 亿参数量,具有大稀疏比和高综合性能的显著特点。

其架构包含 61 层 Transformer,前 3 层为稠密层,后 58 层为 MoE 层。模型隐层维度达 7680,配备 256 个路由专家和 1 个共享专家,专家隐层维度为 2048。

在预训练阶段,华为团队使用 6K - 10K 卡的昇腾 800T A2 集群对 Pangu Ultra MoE 进行训练。在序列长度为 8K、万卡训练集群的条件下,模型算力利用率(MFU)创下新高,达到了 41%。上述训练系统具有很强的泛化性,可高效扩展至更大规模参数模型和更大规模卡数集群,同时如果配合昇腾 CloudMatrix 384 超节点的高速互联特性,预计可支撑训练集群 MFU > 50%,相关技术迭代实践结果也将在日后技术报告中发布。

而在 RL 后训练阶段,于 Pangu Ultra MoE 昇腾 CloudMatrix 384 超节点集群的后训练中,采用训练推理混合并行策略(训练:PP16/VPP2/EP32/TP8,推理:PP1/EP64/TP1),并结合异步 RL 算法与训练框架系统的协同创新,实现了每超节点 35K Tokens/s 的高吞吐能力。

同时支持高效扩展超过 4K 卡的集群,这一效率相当于每 2 秒就能吃透一道高等数学大题,实现了昇腾超节点吞吐的新突破。

以上便是华为 Pangu Ultra MoE 训练系统全流程的深度揭秘了。

感兴趣的小伙伴可以再通过完整的技术报告深入了解:
gitcode.com/ascend-trib…

技术博客地址:
gitcode.com/ascend-trib…

欢迎在评论区留下你的想法!

—  —

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

昇腾 Pangu Ultra MoE 大模型 国产算力 MoE
相关文章