快科技资讯 前天 22:56
低端显卡登上AI的大船!6GB显存就能生成高质量视频
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

GitHub和斯坦福大学联合推出的FramePack技术,利用固定长度的时域上下文,显著提升了视频生成效率。基于FramePack构建的130亿参数模型,仅需一块6GB显存的显卡即可生成60秒高质量视频。该技术通过压缩输入帧,降低显存需求,并实时预览生成画面。FramePack还能有效缓解视频“漂移”问题,支持多种显卡,为AI视频生成带来了新的可能性。

🎬 FramePack是一种创新的神经网络架构,它通过多级优化策略,实现了本地AI视频生成,从而大幅降低了对显存的需求。

🖼️ FramePack的核心在于其对输入帧的压缩处理。它根据输入帧的重要性进行压缩,将时域上下文长度固定,使得计算消耗与图像扩散模型相近,从而降低了对显存的需求。

⏱️ 典型的视频扩散模型在生成视频时,对显存要求很高,而FramePack技术使得生成更长视频成为可能,同时还能实时显示每一帧画面,方便即时预览。

⚙️ FramePack支持FP16、BF16数据格式,兼容RTX 50、RTX 40、RTX 30系列显卡,以及Windows和Linux操作系统。在RTX 4090显卡上,经过优化后,每秒可生成大约0.6帧。

快科技4月20日消息,GitHub的Lvmin Zhang联合斯坦福大学的Maneesh Agrawala,发布了一项突破性的新技术FramePack,通过在视频扩散模型中使用固定长度的时域上下文,可以更高效地生成时间更长、质量更高的视频。

根据实测,基于FramePack构建的130亿参数模型,只需一块6GB显存的显卡,就能生成60秒钟的视频。

FramePack是一种神经网络架构,使用多级优化策略,完成本地AI视频生成。

目前,它底层基于定制版的腾讯混元模型,不过现有的预训练模型,都可以通过FramePack进行微调、适配。

典型的视频扩散模型在生成视频时,需要首先处理此前生成的带有噪音的帧,然后预测下一个噪音更少的帧,而每生成一帧所需要输入的帧数量,就是时域上下文长度,会随着视频的体积而增加。

这就对显存有着很高的要求,一般至少得有12GB,而如果显存不够多,生成的视频就会很短,质量很差,生成的时间也会很长。

FramePack会根据输入帧的重要性,对所有输入帧进行压缩,改变为固定的上下文长度,显著降低对显存的需求,而且计算消耗与图片扩散模型类似。

同时,每一帧画面生成之后,都会实时显示,方便即时预览。

FramePack还可以缓解“漂移”(drifting)现象,也就是视频长度增加、质量下降的问题,从而在不显著牺牲质量的同时,生成更长的视频。

FramePack数据格式支持FP16、BF16,显卡硬件支持RTX 50、RTX 40、RTX 30系列显卡,除了RTX 3050 4GB几乎所有的近代显卡都没问题。

在RTX 20系列和更老显卡上尚未经过验证,也没有提及AMD、Intel处理器的需求。

操作系统支持Windows、Linux。

性能方面,RTX 4090经过teacache优化之后,每秒可以生成大约0.6帧。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

FramePack AI视频生成 显卡 视频扩散模型
相关文章