IT之家 02月25日 10:52
DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepEP是首个开源的用于MoE模型训练和推理的通信库,具有多种特性,如高效通信、支持多种技术、优化内核等,对相关需求也有明确要求。

🌐DeepEP是专为MoE和EP设计的通信库,提供高吞吐量和低延迟内核

🎯支持低精度计算,包括FP8,兼容组限制门控算法

💻具备多种优化,如不对称带宽转发优化,通信与计算重叠等

📋对使用环境有明确需求,如Hopper GPUs、特定软件版本等

IT之家 2 月 25 日消息,DeepSeek 的“开源周”活动今日已经来到第二天,今天发布的是首个开源的用于 MoE 模型训练和推理的 EP 通信库 ——DeepEP

IT之家附开源地址:https://github.com/deepseek-ai/DeepEP

官方表示其具备如下特征:

详细介绍的大意如下:

DeepEP 是一款专为混合专家(MoE)和专家并行(EP)设计的通信库,提供了高吞吐量和低延迟的 all-to-all GPU 内核,常用于 MoE 派发和合并操作。该库还支持低精度计算,包括 FP8。

为了与 DeepSeek-V3 论文中提出的组限制门控算法兼容,DeepEP 提供了一些针对不对称带宽转发优化的内核,比如将数据从 NVLink 域转发到 RDMA 域。这些优化的内核能够提供高吞吐量,适合用于训练和推理的预填充任务,同时支持 SM(流式多处理器)数量控制。

对于延迟敏感型的推理解码任务,DeepEP 提供了一套低延迟内核,采用纯 RDMA 技术以最大程度减少延迟。此外,该库还采用了一种基于 Hook 的通信与计算重叠方法,不会占用任何 SM 资源。

需求:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepEP MoE模型 通信库 FP8 优化
相关文章