Cnbeta 02月24日
DeepSeek开源第一弹:6小时收藏破5000次,利好国产GPU?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek开源了针对Hopper GPU优化的高效MLA解码核FlashMLA,此举在GitHub上迅速获得大量关注。FlashMLA的开源,意味着开发者可以直接复用代码库,用更少的GPU服务器完成相同的任务,降低推理成本。该解码核基于DeepSeek自研的MLA架构,旨在解决计算效率和内存占用上的性能瓶颈,提升模型训练和推理效率。FlashMLA在英伟达H800 SXM5 GPU上表现出色,有望突破H800的带宽上限,最大化GPU价值。此外,FlashMLA的优化思路和方法论,对于国产GPU的性能提升也具有重要意义。

🚀 DeepSeek开源FlashMLA,是针对英伟达Hopper GPU优化的高效MLA解码核,旨在提升大语言模型的解码速度和效率,降低推理成本。

💡 FlashMLA基于DeepSeek自研的MLA架构,该架构通过改造注意力算子压缩了KV Cache大小,解决了计算效率和内存占用上的性能瓶颈,从而显著提升模型训练和推理效率。

💰 FlashMLA的开源,意味着广大开发者可以直接复用代码库,用更少的GPU服务器完成同样的任务,降低推理成本,这对于希望基于DeepSeek开源能力进行底层优化和AI应用开发群体而言,无疑是一大福利。

🇨🇳 FlashMLA对于国产GPU的意义在于,它提供了优化思路和方法论,可以尝试让国产GPU卡大幅提升性能,即使架构不同,也能促进国产卡推理性能的提升。

2月24日,在上周DeepSeek宣布本周将是开源周(OpenSourceWeek),并将连续开源五个软件库后。今日上午9:30时许,DeepSeek宣布开源了本次开源周首款代码库——针对Hopper GPU进行优化的高效型MLA解码核——FlashMLA。


在GitHub上,目前该项目开源6小时后便已收获了超过5000Star收藏,并且拥有188个Fork(副本创建)。在听到DeepSeek开源FlashMLA并迎来的快速的Star收藏和Fork数据增长后,某港股上市公司CTO在与新浪科技沟通中直呼:“太强了”。

另有专注于AI硬件研究并投资的投资人,在查看FlashMLA后告诉新浪科技,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。


据DeepSeek官方介绍,FlashMLA基于Hopper GPUs的有效MLA解码内核,可针对可变长度序列进行优化。

在DeepSeek整个技术路线中,MLA(多头潜在注意力机制)是公司已经发布的V2、V3两款模型中,最为核心的技术之一。被用于解决计算效率和内存占用上的性能瓶颈,能够显著提升模型训练和推理效率,同时保持甚至增强模型性能。

此前,中国工程院院士、清华大学计算机系教授郑纬民在与新浪科技沟通中曾提及:“DeepSeek自研的MLA架构为其自身的模型训练成本下降,起到了关键作用。”他指出,“MLA通过改造注意力算子压缩了KV Cache大小,实现了在同样容量下可以存储更多的KV Cache,该架构和DeepSeek-V3模型中FFN 层的改造相配合,实现了一个非常大的稀疏MoE 层,成为DeepSeek训练成本低最关键的原因。”

此次DeepSeek直接开放MLA解码核——FlashMLA,意味着DeepSeek将最为核心的MLA底层代码直接免费开放,这让广大开发群体可以直接复用FlashMLA代码库实现用更少的GPU服务器完成同样的任务,直接降低推理成本,这对于更多希望基于DeepSeek开源能力进行底层优化和AI应用开发群体而言,无疑是一大福利。

有意思的是,DeepSeek此次开放的MLA解码核,主要是针对Hopper GPU进行优化用途的。通常而言,Hopper GPU是指基于英伟达Hopper架构研发的H系列GPU产品。目前,英伟达该系列芯片已经发布H100、H800和H20等多款芯片。

据DeepSeek方面介绍,在基准测试性能表现上,FlashMLA在英伟达H800 SXM5 GPU上可实现3000 GB/s 的内存速度以及580TFLOPS的计算上限。


公开资料显示,根据美国出口管制规定,H800的带宽上限被设定为600 GB/s,相比一些旗舰产品有所降低。这意味着,使用FlashMLA优化后,H800的内存带宽利用率有望进一步提高甚至突破H800 GPU理论上限,在内存访问上达到极致,能让开发群体充分“压榨”英伟达H系列芯片能力,以更少的芯片实现更强的模型性能,最大化GPU价值。

有专注于AI硬件研究并投资的投资人在查看FlashMLA后表示,“FlashMLA是能让LLM在H800跑得更快、更高效的优化方案,尤其适用于高性能AI任务,他的核心是加速大语言模型的解码过程,提高模型的响应速度和吞吐量,这对于实时生成任务(如聊chatbot等)非常重要,对于大模型的能力和使用体验是巨大的促进,速度会明显提升。”

虽然FlashMLA是一个针对Hopper GPU的优化代码库,但对于国产GPU而言,此次开源也有利好。上述投资人在查看FlashMLA后表示,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek FlashMLA GPU优化 开源 人工智能
相关文章