36氪 - 科技频道 07月17日 16:32
免剪辑直出,AI生成多角色同框对话视频,动态路由精准绑定音频
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Bind-Your-Avatar是首个专注于同场景多角色语音驱动视频生成的框架,基于MM-DiT模型,通过细粒度嵌入路由实现音频与角色的精确绑定,从而达到精准的音画同步。该框架支持动态背景生成,并引入了首个多角色对话视频数据集MTCC及评测基准。实验结果显示,Bind-Your-Avatar在身份保真和音画同步方面显著优于现有方法,能够自然处理多角色交叉说话场景,生成逼真且同步的视频内容。研究团队还将开源数据集和代码,推动该领域的研究发展。

✨ **细粒度嵌入路由实现精准音画同步**:Bind-Your-Avatar框架核心在于其细粒度的嵌入路由机制,能够精确地将特定的语音流与相应的角色绑定在一起。通过将“谁在说”与“说什么”进行关联,模型能够实现高度同步的口型和语音表现,确保每个角色的说话内容与其口型动作完美匹配,从而提升了音画同步的质量和自然度。

🎭 **动态3D-mask路由实现帧级角色控制**:为了更好地管理多角色场景中的独立性,Bind-Your-Avatar采用了动态3D-mask路由设计。这种路由方式能在扩散去噪过程中动态生成细粒度的时空掩码,对每一帧的各个角色进行独立控制。通过掩码优化策略和细化流程,确保了角色与背景区域的准确分割以及时序上的一致性,从而提升了动态场景下的生成效果。

📚 **MTCC数据集推动多角色视频研究**:为了解决现有方法在多角色场景下的局限性,研究人员构建了MTCC(Multi-Talking-Characters-Conversations)数据集,这是一个包含200+小时多角色对话视频的大型数据集。该数据集提供了端到端的数据处理流程,包括视频清洗、音频分离与同步筛选、语音与文本标注以及角色区域掩码生成,为多角色视频生成的研究和基准测试提供了坚实的基础。

📊 **实验验证性能优势**:通过在MTCC测试集和全新基准集上的多项定量和定性实验,Bind-Your-Avatar被证明在人脸身份保持、音画同步等关键指标上显著优于Sonic、Hallo3和Ingredients等基线方法。其在处理多角色交叉说话、生成统一动态背景以及保证角色口型逼真度方面表现出色,为多角色对话视频生成树立了新的标杆。

【导读】Bind-Your-Avatar是一个基于扩散Transformer(MM-DiT)的框架,通过细粒度嵌入路由将语音与角色绑定,实现精准的音画同步,并支持动态背景生成。该框架还引入了首个针对多角色对话视频生成的数据集MTCC和基准测试,实验表明其在身份保真和音画同步上优于现有方法。

近年来随着视频生成基础模型的涌现,音频驱动的说话人视频生成领域也取得了显著进展。

但现有方法主要聚焦于单角色场景,现有可生成两个角色对话视频的方法仅能单独地生成两个分离的说话人视频。

针对这一挑战,研究人员提出了首个专注同场景多角色说话视频生成的框架Bind-Your-Avatar

该模型基于扩散Transformer(MM-DiT),通过细粒度的嵌入路由机制将「谁在说」与「说什么」绑定在一起,从而实现对音频–角色对应关系的精确控制。

论文地址:https://arxiv.org/abs/2506.19833

项目地址:https://yubo-shankui.github.io/bind-your-avatar

作者同时构建了首个针对多角色对话视频生成的完整数据集(MTCC)和评测基准,提供了端到端的数据处理流程。

大量实验表明,Bind-Your-Avatar在多角色场景下生成效果优异,在人脸身份保真和音画同步等指标上均显著优于现有基线方法。

Bind-Your-Avatar

方法概览

Bind-Your-Avatar基于一个多模态文本到视频扩散Transformer(MM-DiT)搭建,模型输入包括:文本提示、多路语音音频流、多个角色的人脸参考图像,以及(可选)一帧用于绘制背景的inpainting帧。

文本、音频和人脸身份特征通过特征编码器提取,并由Embedding路由引导的交叉注意力(Cross-Attention)将人脸和音频信息选择性地注入到视觉Token中,从而实现音画同步性的关联。

模型的训练分为三个阶段:第一阶段只生成带补全帧的静音角色运动视频(不使用音频),第二阶段加入单角色语音输入学习音频驱动的精细角色运动(通过LoRA轻量化微调),第三阶段引入多角色语音输入并联合训练Embedding路由(使用教师强制方法防止掩码退化)。

细粒度Embedding路由引导的音频–角色驱动

Embedding路由的作用输出是一个时空掩码矩阵M,用于指示每个视觉Token对应哪个角色(或背景),从而将说话人与具体语音绑定。

在训练时,研究人员设计了交叉熵损失

监督路由输出,并结合几何先验引入时空一致性损失和层一致性损失,增强掩码的准确性和平滑性。

论文中探讨了三种路由实现方式:预去噪(Pre-Denoise,用静态2D掩码)、后去噪(Post-Denoise,两阶段生成后预测3D掩码)以及内置去噪(Intra-Denoise)路由

Intra-Denoise路由在扩散去噪过程中动态生成细粒度3D时空掩码,实现对各角色帧级独立控制。这种设计不仅提升了音频与对应角色口型的精度,还保持了角色身份的连贯性。

为了得到高质量的3D-mask,研究人员在路由的设计中提出了两个有效的方法。其中,掩码优化策略通过引入几何先验对掩码进行正则化,提高了角色与背景区域分割的准确度和时序一致性;此外,研究人员还提出了一种掩码细化流程,将初步预测的稀疏掩码进行平滑和时间一致性校正,进一步增强掩码质量。

MTCC数据集

为了支持多角色视频生成,研究人员构建了MTCC数据集(Multi-Talking-Characters-Conversations),该数据集包含200+小时的多角色对话视频。

数据处理流程包括:

视频清洗(筛选分辨率、时长、帧率;确保视频中恰有两个清晰角色;姿态差异度过滤等)、音频分离与同步筛选(使用AV-MossFormer和Sync-C指标确保音画一致)、语音与文本标注(应用Wav2Vec提取音频特征,QWen2-VL生成描述)以及SAM2生成角色区域掩码作为监督信号。

MTCC附带完整的开源处理代码,为社区提供了从原始视频到训练数据的端到端流水线。

实验与分析

定量分析

研究人员在MTCC测试集和全新基准集(Bind-Your-Avatar-Benchmark,含40组双角色人脸和双流音频)上与多种基线方法进行了对比,包括最近的Sonic、Hallo3和Ingredients等。这些方法原本设计用于单角色或无背景场景,对本任务进行了适配。

定量指标涵盖角色身份保持(Face Similarity)、音画同步(Sync-C、Sync-D)以及视觉质量(FID、FVD)等。

结果表明,Bind-Your-Avatar在人脸相似度音画同步度指标上均显著优于各基线(同步指标尤其优异),而在FID/FVD等视觉质量指标上也保持竞争力。

消融实验进一步验证:细粒度3D掩码比边界框或静态2D掩码能更好地应对角色运动和近距离互动,提升了动态场景下的生成质量。

定性分析

Bind-Your-Avatar能自然处理多角色的交叉说话场景,同时生成统一、动态的背景,无需后期拼接。

例如,Bind-Your-Avatar能生成两个角色同时讲述不同内容的对话视频,并保持每个角色的口型与对应语音高度同步,同时人物面部和表情逼真。

结语

Bind-Your-Avatar 首次提出了同场景多角色语音驱动视频生成任务,并提供了从算法到数据集的完整解决方案。

其主要贡献包括:细粒度Embedding路由机制(实现「谁在说什么」的精确绑定)、动态3D-mask路由设计(逐帧控制各角色),以及MTCC数据集和对应的多角色生成基准。

未来工作将聚焦于增强角色动作的真实感(如身体和手势动作)并优化模型实时性能,以适应更大规模和在线化的多角色视频生成需求。

研究人员后续将开源数据集和代码,方便社区进一步研究。

参考资料:

https://arxiv.org/abs/2506.19833 

本文来自微信公众号“新智元”,编辑:LRST ,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Bind-Your-Avatar 语音驱动视频生成 多角色对话 AI视频技术 音画同步
相关文章