IT之家 05月30日 17:33
全流程昇腾平台训练,华为推出准万亿参数盘古 Ultra MoE 模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为发布了全新的盘古Ultra MoE模型,参数规模高达7180亿,完全在昇腾AI计算平台上训练。该模型采用了Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。华为团队还首次披露在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。通过一系列技术迭代升级,万卡集群预训练MFU由30%大幅提升至41%。

🚀 华为发布盘古Ultra MoE模型,参数规模高达7180亿,是在昇腾AI计算平台上训练的准万亿MoE模型。

🛠️ 盘古团队提出了Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。

☁️ 华为团队首次披露在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。

📈 通过适配昇腾硬件的自适应流水掩盖策略、自适应管理内存优化策略、数据重排实现DP间Attention负载均衡,以及昇腾亲和的算子优化等技术,万卡集群预训练MFU由30%大幅提升至41%。

IT之家 5 月 30 日消息,华为今日推出参数规模高达 7180 亿的全新模型盘古 Ultra MoE,这是一个全流程在昇腾 AI 计算平台上训练的准万亿 MoE 模型。

据IT之家了解,盘古团队提出 Depth-Scaled Sandwich-Norm(DSSN)稳定架构和 TinyInit 小初始化的方法,在昇腾平台上实现了超过 18TB 数据的长期稳定训练

在训练方法上,华为团队首次披露在昇腾 CloudMatrix 384 超节点上打通大稀疏比 MoE 强化学习(RL)后训练框架的关键技术,使 RL 后训练进入超节点集群时代。

在 5 月初发布的预训练系统加速技术基础上,在不到一个月的时间内,华为团队又完成了一轮迭代升级,包括:适配昇腾硬件的自适应流水掩盖策略,进一步优化算子执行序,进一步降低 Host-Bound 以及提升 EP 通信的掩盖;自适应管理内存优化策略的开发;数据重排实现 DP 间 Attention 负载均衡;以及昇腾亲和的算子优化,这些技术实现万卡集群预训练 MFU 由 30% 大幅提升至 41%

IT之家附技术报告:点此前往 及项目文件预览:点此前往

相关阅读:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

盘古Ultra 华为 MoE模型 昇腾AI 强化学习
相关文章