新智元报道
新智元报道
速度提升1.9倍到3.7倍
不只是快:径向注意力的「隐藏技能」很多技术升级都需要重新训练模型,但径向注意力不需要。它可以直接应用在预训练好的模型上,通过简单的 LoRA 微调就能实现加速。径向注意力的一个关键优势是与预训练的特定任务LoRA(如艺术风格迁移)的无缝兼容性,这对创作者太友好了。如图8所示,将扩展长度LoRA与现有风格LoRA结合使用,在实现长视频生成的同时保留了视觉质量。研究团队还观察到,合并LoRA生成的内容风格与原始LoRA略有不同。这种差异主要归因于用于训练扩展长度LoRA的相对较小的数据集,这可能引入轻微的风格偏差,与风格LoRA相互作用。在更全面的数据集上训练长度扩展LoRA,预计将有助于缓解这个问题。以前生成1分钟的AI视频是很多中小团队不敢想的,现在径向注意力让这事变得可行了。以后,我们可能会看到更多AI生成的长视频内容,像短视频平台的剧情号。
https://www.arxiv.org/abs/2506.19852
https://github.com/mit-han-lab/radial-attention/
文章原文