快科技资讯 03月04日
摩尔线程新方法优化AI交互:显存节省最多82%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

摩尔线程科研团队发布Round Attention研究成果,旨在解决AI大型语言模型在多轮对话中上下文过长导致的计算开销和GPU内存占用问题。Round Attention以轮次为单位分析Attention规律,发现轮次粒度的Attention分布存在重要规律。基于此,提出了Round Attention推理流水线,通过将稀疏性从Token级提升至块级,选取最相关的块参与attention计算,减少计算耗时,并将不相关的块卸载到CPU内存,从而节省显存占用。测试显示,Round Attention的端到端延迟低于主流的Flash Attention推理引擎,kv-cache显存占用节省55-82%,且模型推理准确率基本不受影响。

💡Round Attention专为多轮对话场景推理需求设计,以轮次为自然边界划分KV缓存,通过研究发现轮次粒度的Attention分布存在重要规律,为优化提供了理论基础。

💾Round Attention推理流水线将稀疏性从Token级提升至块级,选取最相关的块参与attention计算,减少attention计算耗时,并将不相关的块卸载到CPU内存,显著节省显存占用。

🚀测试结果表明,Round Attention的端到端延迟低于主流Flash Attention推理引擎,kv-cache显存占用节省55%-82%,同时保证了模型推理准确率基本不受影响,实现了性能与精度的双重提升。

摩尔线程科研团队近日发布了一项新的研究成果《Round Attention:以轮次块稀疏性开辟多轮对话优化新范式》,使得端到端延迟低于现在主流的Flash Attention推理引擎,kv-cache显存占用节省最多82%。

近年来,AI大型语言模型的进步,推动了语言模型服务在日常问题解决任务中的广泛应用。

然而,长时间的交互暴露出两大显著问题:

首先,上下文长度的快速扩张因自注意力机制的平方级复杂度而导致巨大的计算开销;

其次,尽管键值(KV)缓存技术能缓解冗余计算,但显著增加的GPU内存需求,导致推理批处理规模受限,同时GPU利用率低下。

为此,摩尔线程提出了Round Attention,以解决这些问题。

首先,摩尔线程提出以轮次为分析单元研究Attention规律:

Round Attention专为多轮对话场景推理需求设计,以轮次为自然边界划分KV缓存。研究发现,轮次粒度的Attention分布存在两个重要规律。

其次,摩尔线程提出了Round Attention推理流水线;

基于发现的两个规律,将稀疏性从Token级提升至块级,选取最相关的块参与attention计算,减少attention计算耗时,并将不相关的块卸载到CPU内存,以节省显存占用。

这在保持推理精度的情况下,减少了推理耗时,降低了显存占用。

摩尔线程认为,轮次块稀疏性有三大优势:自然边界的语义完整性、分水岭层的注意力稳定性、端到端的存储与传输优化。

测试显示,Round Attention的端到端延迟低于现在主流的Flash Attention推理引擎, kv-cache显存占用则节省55-82%,并且在主观评测和客观评测两个数据集上,模型推理准确率基本未受影响。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Round Attention 摩尔线程 多轮对话 AI推理 KV缓存
相关文章