我爱计算机视觉 2024年12月13日
ConsisID:北大等提出基于频域分解的身份保真文本到视频生成模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北大研究团队提出了ConsisID模型,一种基于频域分解的文本到视频生成方法,旨在解决视频生成中人物身份不一致的问题。该模型基于DiT架构,通过全局和局部面部特征提取器分别获取低频和高频特征,并采用分层训练策略,包括粗到细的训练过程、动态Mask损失和动态跨脸损失。ConsisID无需微调即可生成高质量、可编辑且身份一致的视频,在多个指标上超越现有方法,为数字内容创作提供了新的解决方案。

💡ConsisID模型通过频率分解方法,有效解决了视频生成中人物身份不一致的问题,为虚拟主播、数字双胞胎等应用场景提供了技术支撑。

🖼️模型采用全局面部特征提取器获取低频特征,如面部轮廓和比例,确保视频序列中身份信息的一致性;局部面部特征提取器获取高频特征,如眼睛和嘴唇的纹理细节,提高生成面部的表情真实度和整体相似度。

🎯ConsisID采用分层训练策略,先全局学习低频信息,再局部细化高频细节,并通过动态Mask损失和动态跨脸损失,增强模型的泛化能力,确保生成视频中的人物身份与输入参考图像保持一致。

CV君 2024-12-13 17:53 江苏




关注公众号,发现CV技术之美




本篇分享论文Identity-Preserving Text-to-Video Generation by Frequency Decomposition,北大提出 ConsisID,基于频域分解的身份保真文本到视频生成模型。

大规模视频生成基座模型在今年取得了显著进展,但如何在生成过程中保持人物身份信息的一致性,仍然是一个亟待解决的技术难题。例如现有的生成模型生成时序过程中,人物的外貌和身份特征往往会逐渐发生失真,导致人物面貌的变化,无法在视频的整个时序中维持一致性。这一问题限制了模型在诸如虚拟主播、数字双胞胎和互动电影等场景中的实际应用效果。

最近,来自北京大学的研究团队发布了一个视频生成的可控生成工作:ConsisID,其针对人脸的特征特性以及DIT的架构特性,设计了合理的控制信号及训练策略,成功实现了无需训练、高质量、可编辑、一致性强的身份保持视频生成,为数字内容创作注入全新活力与无限可能。

亮点直击


算法原理

ConsisID是基于目前主流的DiT来实现的,准确地说是基于目前开源的文生图视频模型CogVideoX-5B。首先,作者团队发现DiT架构相比之前的UNet架构有一些不同。对于DiT架构,有两处比较关键的发现:

作者指出,要开发基于DiT的控制算法,则必须首先解决这些问题。ConsisID则是围绕这两个发现进行算法设计的。


模型架构

可以看到,ConsisID包含两个部分的特征提取,分别用于增强DiT架构的高低频感知能力。

鉴于以上发现一,作者首先提出一个全局的面部特征提取器获取低频特征,这里采用的是裁剪的人脸图以及人脸的5个关键图RGB图,并采用视频VAE提取latent tokens,和视频的带噪音的latent tokens拼接在一起送入DiT模型中。

鉴于以上发现二,作者然后提出一个局部的面部特征提取器获取高频特征,这里是采用CLIP和人脸识别模型分别提取人脸特征,并通过一个Q-Former模块来融合特征,并在DiT的Attention和FFN之间新插入Corss Attention来注入融合的特征。


模型训练

在训练过程中,作者从训练帧中随机选择一帧,并应用Crop & Align提取面部区域作为参考图像,随后将其用作身份控制信号,与文本一起作为控制。

粗到细训练。与身份保持图像生成相比,视频生成需要在空间和时间维度上保持一致性,确保高频和低频面部信息与参考图像匹配。为了减轻训练的复杂性,作者提出了一种层次化策略,让模型先全局学习信息,然后局部细化。在粗粒度阶段(例如,对应于发现1),作者使用全局面部提取器,使模型优先考虑低频特征,如面部轮廓和比例,从而快速从参考图像中获取身份信息,并在视频序列中保持一致性。在细粒度阶段(例如,对应于发现2),局部面部提取器将模型的焦点转移到高频细节上,如眼睛和嘴唇的纹理细节(例如,内在识别),提高了生成面部的表情真实度和整体相似度。此时的损失函数如下:

动态掩码损失。ConsisID的目标是确保生成视频中的人物身份与输入参考图像保持一致。然而,方程4考虑了整个场景,包括高频和低频身份信息以及冗余背景内容,这引入了干扰模型训练的噪声。为了解决这个问题,作者提出将模型的注意力集中在面部区域。具体来说,作者首先从视频中提取面部掩码,应用三线性插值将其映射到潜在空间,最后使用这个掩码来限制Lc的计算:

其中,M代表与ϵ形状相同的掩码。然而,如果将方程5作为所有训练数据的监督信号,模型可能在推理过程中无法生成自然背景。为了减轻这个问题,作者以概率α来选择是否需要应用方程5:

动态交叉脸损失。在用方程6训练后,作者观察到模型在推理过程中对于训练帧中未出现的人脸生成结果不佳。这个问题出现的原因是,模型仅在训练帧的人脸上训练,倾向于通过采用“复制粘贴”的捷径过拟合——本质上是复制参考图像而没有改变。为了提高模型的泛化能力,作者向参考图像引入了轻微的高斯噪声ζ,并以概率β使用跨脸(例如,参考图像源自训练帧之外的视频帧)作为输入:


设置

实现细节

ConsisID 选择基于 DiT 的生成架构 CogVideoX-5B 作为验证的基准。使用一个内部的以人为中心的数据集进行训练,这与之前只关注面部的其他数据集不同。

在训练阶段,将分辨率设置为 480×720,从每个视频中提取 49 帧连续帧,步长为 3 作为训练数据。将批大小设置为 80,学习率设置为,总训练步骤数为 1.8k。分类自由引导随机空文本比例设置为 0.1,AdamW 作为优化器,学习率调度器使用 cosine_with_restarts。训练策略与第 3.2.3 节相同。将动态跨面部损失 (Le) 和动态mask损失 (Lf) 中的 和 设置为 0.5。

在推理阶段,使用 DPM,采样步骤为 50,文本引导比例为 6.0。

基准测试

由于缺乏评估数据集,选择了 30 名未包含在训练数据中的人,并从互联网上为每个身份来源了五张高质量的图像。然后,设计了 90 个不同的提示,涵盖了各种表情、动作和背景进行评估。基于以往的研究 [15, 38],从四个维度进行评估:

(1).身份保持:使用 FaceSim-Arc 并引入 FaceSim-Cur,通过测量生成视频中面部区域与真实面部图像在 ArcFace 和 CurricularFace 特征空间中的特征差异来评估身份保持。

(2).视觉质量:作者通过计算生成帧与真实面部图像在 InceptionV3 特征空间中的面部区域特征差异来使用 FID进行评估。

(3).文本相关性:作者使用 CLIPScore 来测量生成的视频与输入提示之间的相似性。

(4).运动幅度:由于缺乏可靠的度量标准,作者通过用户研究进行评估。


定性分析

本节将 ConsisID 与 ID-Animator(例如,唯一可用的开源模型)进行比较,以进行无需调优的 IPT2V 任务。作者随机选择了四个个体的图像和文本提示进行定性分析,这些个体均不包含在训练数据中。

如下图 5 所示,ID-Animator 无法生成超出面部的人体部位,并且无法根据文本提示(例如,动作、属性、背景)生成复杂的动作或背景,这显著限制了其实际应用。此外,身份的保持也不足;例如,在案例 1 中,参考图像似乎经过了皮肤平滑处理。

在案例 2 中,引入了皱纹,降低了美学质量。在案例 3 和 4 中,由于缺乏低频信息,面部发生了扭曲,导致身份一致性受到损害。相比之下,提出的 ConsisID 始终生成高质量、逼真的视频,准确匹配参考身份并符合提示。


定量分析

本届展示了不同方法的全面定量评估,结果如下表 1 所示。

与定性分析一致,本文的方法在五个指标上超过了现有的最先进方法。在身份保持方面,ConsisID 通过从频率角度为 DiT 设计适当的身份信号,取得了更高的分数。

相比之下,ID-Animator 并未针对 IPT2V 进行优化,仅部分保留了面部特征,导致 FaceSim-Arc 和 FaceSim-Cur 的分数较低。在文本相关性方面,ConsisID 不仅通过提示控制表情,还调整动作和背景,取得了更高的 CLIPScore。


身份信号注入对 DiT 的影响

为了评估发现1和发现2的有效性,对不同的信号注入方法进行了消融实验。具体来说,这些实验包括:

结果如下图7和表3所示。

此外,作者还对生成的视频(仅面部区域)应用了傅里叶变换,以视觉比较不同组件对面部信息提取的影响。

如下图3所示,傅里叶谱和傅里叶变换的对数幅度显示,注入高频或低频信号确实增强了生成面部的相应频率信息。此外,低频信号通过与面部关键点的匹配可以进一步增强,而将高频信号注入注意力块具有最高的特征利用率。

本文的方法(c)展示了最强的高频和低频,进一步验证了发现1和发现2带来的效率提升。为了减少开销,作者对每个身份仅选择了2个参考图像进行评估。

如图所示,傅里叶谱和傅里叶变换的对数幅度显示,注入高频或低频信号确实可以增强生成人脸的相应频率信息。此外,低频信号可以通过与面部关键点匹配进一步增强,而将高频信号注入注意力模块则具有最高的特征利用率。

作者的方法(c)展现了最强的高频和低频,进一步验证了发现1和发现2所带来的效率收益。为了减少开销,对于每个身份,作者仅选择2张参考图像进行评估。


结论

ConsisID,一个通过频率分解保持面部一致性的视频生成统一框架。它能够无缝集成到现有的基于DiT的文本到视频(T2V)模型中,用于生成高质量、可编辑、符合身份保持要求的视频。大量实验表明,ConsisID超越了当前最先进的身份保持T2V模型。研究结果表明,基于频率感知的DiT控制方案是IPT2V生成的最佳解决方案。


应用场景

ConsisID在电影、短视频、广告、教育和娱乐等领域具有广泛的应用潜力。

通过这项技术,电影制作者可以快速生成符合剧本要求的虚拟人物和场景,使得创作过程更加高效。短视频平台也能通过文本描述生成定制化的视频内容,满足用户个性化需求,提高观众的观看体验和参与度。

在广告行业,品牌方可以根据受众的兴趣和特点,生成具有一致身份特征的广告内容,提升品牌形象和转化率。教育领域可以利用这一技术创建个性化的教学视频或虚拟导师,帮助学生更好地理解课程内容,并提高学习体验。

娱乐行业也能通过自动生成与用户兴趣相匹配的虚拟角色或情节,增强互动性和沉浸感。ConsisID不仅提升了内容生产的效率,还为创作者和观众带来了更加个性化和互动的体验

参考文献

[1] Identity-Preserving Text-to-Video Generation by Frequency Decomposition

最新 AI 进展报道
请联系:amos@52cv.net

END




欢迎加入「视频生成交流群?备注:生成




跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ConsisID 视频生成 身份保持 频域分解 DiT
相关文章