智源社区 02月25日 11:18
“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek开源了FlashMLA,一种为Hopper GPU开发的高效MLA解码内核,专门针对可变长度序列优化,已投入生产。FlashMLA使H800达到3000GB/s内存,实现580TFLOPS计算性能。MLA是DeepSeek提出的创新注意力架构,从V2开始大幅降低模型成本,同时保持与顶尖模型持平的性能。该开源项目受到了FlashAttention和英伟达CUTLASS项目的启发,并在GitHub上迅速获得大量关注,成为HuggingFace上最受欢迎的大模型之一。

🚀FlashMLA是DeepSeek为Hopper GPU开发的高效MLA解码内核,针对可变长度序列优化,已在生产中使用,能突破H800计算上限,达到3000GB/s内存和580TFLOPS计算性能。

💡MLA(多头潜在注意力机制)是DeepSeek系列模型的基本架构,通过低秩联合压缩技术减少键值缓存(KV Cache)的存储需求,尤其在长序列处理中优势明显。V2版本将显存占用降至传统MHA架构的5%-13%。

🌟DeepSeek-R1在HuggingFace上获得超过10000个赞,成为该平台近150万个模型中最受欢迎的大模型,HuggingFace CEO也发文祝贺,标志着DeepSeek在全球范围内获得了广泛认可。

DeepSeek开源周第一天,降本大法公开——

FlashMLA,直接突破H800计算上限。

网友:这怎么可能??


它是为Hopper GPU开发的高效MLA解码内核,专门针对可变长度序列进行了优化,目前已经投入生产。

MLA,正是DeepSeek提出的创新注意力架构。从V2开始,MLA使得DeepSeek在系列模型中实现成本大幅降低,但是计算、推理性能仍能与顶尖模型持平。

按照官方介绍来说,FlashMLA使用之后,H800可以达到3000GB/s内存,实现580TFLOPS计算性能

网友们纷纷点赞:向工程团队致以崇高的敬意,从Hopper的张量核中挤出了每一个FLOP。这就是我们将 LLM 服务推向新前沿的方式!

已经有网友用上了。

开源第一天:FlashMLA

目前GitHub页面已经更新。短短一小时,Star星数已经超过1.2k。

此次已经发布:

快速启动:

环境要求:

    Hopper GPU

    CUDA 12.3 及以上版本

    PyTorch 2.0 及以上版本

在项目的最后,它还表示,这是受到了FlashAttention 2&3英伟达CUTLASS项目的启发。

FlashAttention是能实现快速且内存高效的精确注意力,主流大模型都有在用。最新的第三代,可以让H100利用率飙升至75%训练速度提升1.5-2倍,FP16下计算吞吐量高达740TFLOPs/s,达理论最大吞吐量75%,更充分利用计算资源,此前只能做到35%。

核心作者是Tri Dao,普林斯顿大牛,Together AI的首席科学家。

而英伟达CUTLASS是CUDA C++ 模板抽象的集合,用于在 CUDA 内实现高性能矩阵-矩阵乘法 (GEMM) 和所有级别和规模的相关计算。

MLA,DeepSeek基本架构

最后再来说说,MLA,多头潜在注意力机制,DeepSeek系列模型的基本架构,旨在优化Transformer模型的推理效率与内存使用,同时保持模型性能。

它通过低秩联合压缩技术,将多头注意力中的键(Key)和值(Value)矩阵投影到低维潜在空间,从而显著减少键值缓存(KV Cache)的存储需求。这种方法在长序列处理中尤为重要,因为传统方法需要存储完整的KV矩阵,而MLA通过压缩仅保留关键信息。

V2版本中,这一创新性架构把显存占用降到了过去最常用的MHA架构的5%-13%,实现了成本大幅降低。它的推理成本仅为Llama 370B的1/7、GPT-4 Turbo的1/70。

而在V3,这一降本提速就更为明显,直接让DeepSeek吸引全球目光。

也就在今天,DeepSeek-R1 在HuggingFace上获得了超过10000个赞,成为该平台近150万个模型之中最受欢迎的大模型。

HuggingFace CEO发文公布了这一喜讯。

The whale is making waves!鲸鱼正在掀起波浪!

好了期待一下,接下来的四天会发些什么呢?

GitHub链接:
https://github.com/deepseek-ai/FlashMLA
参考链接:
https://x.com/deepseek_ai/status/1893836827574030466

评选报名2025年值得关注的AIGC企业&产品

下一个AI“国产之光”将会是谁?

本次评选结果将于4月中国AIGC产业峰会上公布,欢迎参与!

一键关注 ? 点亮星标

科技前沿进展每日见


一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek FlashMLA 开源 H800 MLA
相关文章