36kr-科技 2024年12月22日
苹果正在与英伟达合作,想让 AI 的响应速度更快
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

苹果与英伟达合作,将苹果的ReDrafter推测解码技术整合到英伟达的TensorRT-LLM中,旨在提高大语言模型的推理速度。ReDrafter通过RNN草稿模型、动态树注意力算法和知识蒸馏训练这三大关键技术,减少LLM验证次数,优化束搜索结果,并降低模型复杂度。测试结果显示,在NVIDIA H100 GPU和苹果M2 Ultra Metal GPU上,推理速度分别提高了2.7倍和2.3倍。该技术已开源,未来或将广泛应用,提升LLM在各种硬件平台上的效率。

🚀ReDrafter核心技术:利用循环神经网络(RNN)的草稿模型,基于LLM的隐藏状态预测tokens序列,减少LLM的验证次数,提高整体推理速度。

🌳动态树注意力算法:优化束搜索结果,识别并去除候选序列的共享前缀,减少LLM需要处理的数据量,某些情况下可减少30%-60%的验证tokens数量,从而高效利用计算资源。

🧠知识蒸馏训练:通过知识蒸馏,将大型LLM(教师模型)的知识迁移到较小的RNN草稿模型(学生模型),使其能够学习LLM的概率预测模式,提高预测准确性,并降低推理计算成本。

📊性能提升显著:在NVIDIA H100 GPU上,集成ReDrafter的TensorRT-LLM的贪心解码速度提高了2.7倍;在苹果M2 Ultra Metal GPU上,推理速度提升了2.3倍,有效降低了计算成本和用户端延迟。

巨头联手 

加速大模型 

近日,苹果与英伟达宣布合作,旨在加速和优化大语言模型(LLM)的推理性能。 

为了改善传统自回归 LLM 推理效率低内存带宽小的问题,今年早些时候,苹果机器学习的研究人员发布并开源了一种名为「 ReDrafter」(Recurrent Drafter,循环草稿模型)的推测解码技术。 

图源:GitHub 

目前,ReDrafter 已经整合到英伟达的可扩展推理方案「 TensorRT-LLM」当中,后者是基于「TensorRT」深度学习编译框架的专为优化 LLM 推理而设计的开源库,支持包括「Medusa」等推测解码方法。 

不过,由于 ReDrafter 所包含的算法使用了之前从未用过的运算符,因此英伟达方面添加了新的运算符,或者公开了现有的运算符,大大提高了 TensorRT-LLM 适应复杂模型和解码方式的能力。 

图源:GitHub 

据悉,ReDrafter 推测解码通过 三个关键技术来加速 LLM 的推理过程: 

RNN 草稿模型 

动态树注意力算法 

知识蒸馏训练 

RNN 草稿模型是 ReDrafter 的「核心」组件。它使用循环神经网络(Recurrent Neural Network),基于 LLM 的「隐藏状态」来预测接下来可能出现的 tokens 序列,其能够捕捉局部的时间依赖性,从而提高预测准确性。 

这个模型的工作原理是:LLM 在文本生成过程中首先生成一个初始 token,然后 RNN 草稿模型利用该 token 和 LLM 的最后一层隐藏状态作为输入进行束搜索(beam search),进而生成多个候选 tokens 序列。 

与传统自回归 LLM 每次只生成一个 token 不同,通过 RNN 草稿模型的预测输出,ReDrafter 能够在每个解码步骤生成多个 tokens,大大减少了需要调用 LLM 验证的次数,从而提高了整体的推理速度。 

图源:arXiv 

动态树注意力算法(Dynamic Tree Attention)则是一种优化束搜索结果的算法。 

我们已经知道,在束搜索过程中会产生多个候选序列,而这些序列往往存在共享的前缀。动态树注意力算法会识别出这些共享前缀,并将它们从需要验证的 tokens 中去除,从而减少 LLM 需要处理的数据量。 

某些情况下,该算法能将需要验证的 tokens 数量减少 30% 到 60%。这意味着使用动态树注意力算法后,ReDrafter 能够更高效地利用计算资源,进一步提高推理速度。 

图源:NVIDIA 

知识蒸馏是一种模型压缩技术,它能够将一个大型、复杂的模型(教师模型)的知识「蒸馏」到一个更小、更简单的模型(学生模型)中。在 ReDrafter 中,RNN 草稿模型作为学生模型通过知识蒸馏从 LLM(教师模型)中学习。 

具体来讲,蒸馏训练过程中,LLM 会给出一系列下一个可能词的「概率分布」,开发人员会基于这个概率分布数据训练 RNN 草稿模型,然后计算两个模型概率分布之间的差异,并通过优化算法使这个差异最小化。 

在这个过程中,RNN 草稿模型不断学习 LLM 的概率预测模式,从而在实际应用中能够生成与 LLM 相似的文本。 

通过知识蒸馏训练,RNN 草稿模型更好地捕捉到语言的规律和模式,从而更准确地预测 LLM 的输出,并且因为其较小的规模和较低的推理计算成本,显著提高了 ReDrafter 在有限硬件条件下的整体性能。 

图源:阿里云开发者社区 

苹果的基准测试结果显示,在 NVIDIA H100 GPU 上对数十亿参数的生产模型使用集成了 ReDrafter 的 TensorRT-LLM 时,其贪心解码(Greedy Decoding)每秒生成的 tokens 数量提高了 2.7 倍。 

此外,在苹果自家的 M2 Ultra Metal GPU 上,ReDrafter 也能实现 2.3 倍的推理速度提升。苹果的研究人员表示「LLM 越来越多地用于驱动生产应用程序,提高推理效率既可以影响计算成本,也可以降低用户端延迟」。 

图源:Apple 

值得一提的是,在保持输出质量的同时,ReDrafter 减少了对 GPU 资源的需求,这使得 LLM 在资源受限的环境中也能高效地运行,为 LLM 在各种硬件平台上的使用提供了新的可能性。 

苹果目前已经在 GitHub 上开源了这项技术,未来从中获益的公司将很可能不止英伟达一家。 

文|范津瑞 

本文来自微信公众号 “爱范儿”(ID:ifanr),作者:发现明日产品的,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ReDrafter TensorRT-LLM 大语言模型 推理加速 知识蒸馏
相关文章