智源社区 07月22日 21:53
并行革命,32倍吞吐量跃升!英伟达Helix架构突破百万Token推理瓶颈
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达推出的Helix并行策略,旨在解决大型模型处理超长上下文(百万字符)时出现的卡顿问题。传统方法通过张量并行分散负载,但当规模增大时,KV缓存的复制会加剧内存压力。Helix通过将Transformer层的注意力机制和前馈网络部分分开处理,并结合KV并行(KVP)和张量并行(TP),在多维度并行性交织下,实现了即使在百万级上下文长度下也能保持低延迟的推理。该技术通过重叠通信与计算,隐藏通信延迟,提高GPU利用率,显著提升了并发用户处理能力和用户交互体验,为AI智能体和多智能体应用的发展提供了新的可能。

💡 **Helix技术突破百万级上下文处理瓶颈**:大型语言模型在处理百科全书、法律卷宗或长期对话记录等百万字符级别的文档时,面临着因KV缓存和FFN权重加载导致的GPU内存带宽和计算速度瓶颈。Helix通过创新的并行策略,将模型Transformer层的注意力机制和前馈网络部分解耦,并结合KV并行(KVP)与张量并行(TP),实现了高效的资源利用,从而解决了长上下文带来的卡顿问题。

🚀 **KV并行(KVP)与细粒度流水线加速推理**:Helix引入了KV并行(KVP)方法,将庞大的KV缓存分散到多个GPU上,有效避免了传统张量并行在KV头数量超过TP时出现的内存和带宽冗余。通过将TP与KVP结合形成2D布局,并利用FlashAttention确保推理精度。此外,Helix通过细粒度流水线技术,重叠通信和计算,将通信延迟隐藏在有用的工作之后,显著减少了token间的延迟,提升了GPU利用率,加速了实时解码过程。

📈 **大幅提升并发处理能力与用户体验**:根据英伟达的计算,使用Helix技术的DeepSeek-R1 671B模型在百万上下文长度下,其单GPU产出的token数是传统方法的32倍,这意味着并发用户数量可以提高高达32倍。在低并发设置下,Helix还能通过减小token间的延迟来提升用户交互体验,为虚拟助手、法律机器人等应用提供了强大的支持。

🤔 **技术实用性与未来发展前景的讨论**:尽管Helix在解决长上下文推理和模型扩展性方面取得了显著成就,但其对硬件(如NVIDIA GB200 NVL72)的依赖以及与检索增强生成(RAG)等现有技术的对比引发了关于实际应用价值的讨论。然而,支持者认为,Helix为AI智能体提供了处理海量信息、保持丰富内部状态和执行复杂任务的能力,是未来多智能体应用和上下文工程发展的关键驱动力。

编辑:peter东 英智

想象一个使用大模型的任务,需要一次处理百万字符的文档,例如从百科全书中获取信息,或是分析数百页的法律卷宗,异或追踪持续数月的对话记录,都需要越来越长的上下文。

而大模型生成的每个词都需要扫描存储在所谓的KV缓存中存储的过去标记。

反复读取这个缓存会消耗GPU内存带宽。大模型还需要从内存中重新加载大量的前馈网络(FFN)权重来处理每个新词。

这个过程会减慢效应速度,从而导致用户与大模型对话时出现卡顿。

传统的解决方案,是使用张量并行(Tensor Parallelism, TP)将此负载分散到多个GPU上。但这仅能起到一定作用。

当规模超过一定限度后,GPU开始复制KV缓存,导致内存压力进一步增大。

而Helix这一英伟达针对其最新的Blackwall开发的并行策略,通过将模型Transformer层的注意力机制和前馈网络部分分开处理来解决卡顿问题。

Helix受DNA双螺旋结构的启发,Helix将KV、张量和专家等多个维度的并行性交织到一个统一的执行循环中。

每个阶段在其自身的瓶颈配置下运行,同时复用相同的GPU池。

论文链接:https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf

Helix是怎么做到百万上下文不卡顿


在注意力阶段,Helix使用一种名为KV并行(KVP)的新方法,将庞大的KV缓存分散到多个GPU上。

当TP超过KV头的数量时,张量并行会进行复制,从而增加了内存和带宽开销,如图1a到c描述的过程。

Helix通过将TP=2与KVP=2相结合,形成2D布局来避免内存和带宽开销的增加,对应图1d。

图1:传统的张量并行(TP)与Helix的不同注意力分片策略KVP的对比示意图

同时,由于KVP GPU持有与其本地KV头相关联的所有查询头,并冗余地计算QKV投影。

这使得每个KV分片能够进行完全本地的FlashAttention,确保了模型的推理精度。

之后KVP GPU之间沿着查询头维度进行单对单的全连接通信,通信的成本和KV缓存的大小无关,因此大模型的上下文长度即使扩展到百万token,也不会影响查询效率。

此外,Helix还通过重叠通信和计算,一旦计算出一个token的注意力输出,Helix就会启动该token的全对全交换,同时计算下一个token的注意力。

这种紧密的重叠将通信延迟隐藏在有用的工作之后,保持GPU利用率高,并进一步加速实时解码。

图2中上图的八个请求会同步执行注意力计算。随后进行顺序的全对全通信。

图2表底部对应使用HOP-B时,一个请求的通信与下一个请求的计算重叠,通过细粒度流水线减少了token间的延迟。

图2:Helix通过细粒度流水线技术加速大模型的响应

引入Helix带来的高并发和低延迟


根据英伟达官网给出的计算,使用DeepSeek-R1 671B模型,在给定延迟下,当并发的用户数增大时,Helix相比传统方法体现出优势。

而到了图中第一个箭头标注的点时,其单GPU产出的token数是传统方法的32倍,这意味着可以将并发用户数量提高高达32倍。

图3使用100万上下文长度的DeepSeek-R1,评估使用经过最新NVIDIA GB200 NVL72(Blackwell)在固定延迟下的并发能力

在低并发设置下,Helix可以通过减token与token间的最低延迟时间,来提高用户交互体验,如图3右下方的对比所示。

该研究的参与者St-Maurice指出「Helix正在重塑我们处理LLM交互和设计的方式。」

他指出,Helix并行处理和优化的KV缓存分片正在为大模型提供可扩展的显存外挂,这与开发者改进旧处理器(如奔腾)的方式高度相似。

该技术能允许大模型应用扩展其用户规模的同时,保证其快速响应。

对于虚拟助手、法律机器人以及AI Copolit等应用,Helix的引入可以做到既处理大量工作负载,同时还保持低延迟响应能力。

Helix是否为画靶射箭的争论


对于这项技术突破,西北人工智能咨询公司的首席执行官兼联合创始人Wyatt Mayham表示:「英伟达的数百万个token的上下文窗口是一项令人印象深刻的工程里程碑,但对于大多数公司来说,它是一个寻找问题的解决方案,它解决了现有模型如长上下文推理和二次扩展等真实限制,但技术可能性和实际实用性之间存在差距。」

Mayham承认Helix在特定领域中很有用,例如需要完整文档保真度的合规性强的行业,或医疗系统一次性分析患者终身病史。

但这只是部分特例,大多数组织最好是构建更智能的流水线,而不是购买helix所需的Blackwell架构下的GB200机架。

且通常情况下,检索增强生成(RAG)系统能够在百万个token的范围内,表现的比将上下文长度提升到100k更好。

而Info-Tech研究集团技术顾问Justin St-Maurice则指出:在当今世界,为人类生成百科全书大小的回答并不是胜利。

相反,关键在于使大模型的输出对其他人工智能相关且可用。

这种能力可能成为未来智能体进步的推手。

有了当大模型的输出能具有对应的认知框架,智能体可以保持更丰富的内部状态,参与更复杂、更长时间的聊天,并执行更深入文档分析。

St-Maurice指出:Helix带来的长上下文窗口,能够支持context engineer(上下文工程)在庞大的上下文窗口中管理和优化信息,以最大限度地提高智能体的有效性和可靠性。

凭借在扩展的上下文窗口中处理和交换更大数据量的能力,AI智能体可以以以前不切实际的方式沟通和协作,从而改变多智能体应用的设计框架。

参考资料:
https://research.nvidia.com/publication/2025-07_helix-parallelism-rethinking-sharding-strategies-interactive-multi-million
https://www.computerworld.com/article/4019170/new-nvidia-technology-provides-instant-answers-to-encyclopedic-length-questions.html
https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf
https://interestingengineering.com/innovation/nvidia-helix-breakthrough-long-context-ai?utm_source=chatgpt.com
https://developer.nvidia.com/blog/asking-an-encyclopedia-sized-question-how-to-make-the-world-smarter-with-multi-million-token-real-time-inference/?utm_source=chatgpt.com


内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达Helix 大型语言模型 长上下文 并行策略 AI加速
相关文章