智源社区 04月17日 14:02
多模态生成框架新SOTA:文本+空间+图像随意组合,20W+数据开源,复旦腾讯优图出品
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

复旦大学、腾讯优图实验室等机构的研究人员提出了UniCombine,一个基于DiT的多条件可控生成框架。该框架能够处理包括文本提示、空间映射和主体图像在内的任意控制条件的任意组合,并保持高度的一致性和出色的和谐性。UniCombine引入了Conditional MMDiT注意力机制,并结合可训练的LoRA模块,同时提供了training-free和training-based两种版本。此外,团队构建并开源了首个针对多条件组合式生成任务设计的数据集SubjectSpatial200K。实验结果表明,UniCombine在多项任务上均达到SOTA水平。

🎨 UniCombine框架的核心在于其处理多条件组合的能力。它基于DiT(Diffusion Transformer)架构,能够灵活地结合多种控制条件,例如文本提示、空间映射和主体图像,实现对生成图像的精细控制。

💡 框架的关键技术之一是Conditional MMDiT注意力机制。该机制能够处理统一的多条件输入序列,从而实现对不同条件的有效整合。同时,UniCombine还采用了LoRA模块,提供了无训练和基于训练两种版本,以适应不同的应用场景。

📊 为了推动多条件生成领域的发展,研究团队构建并开源了SubjectSpatial200K数据集。该数据集专为多条件可控生成模型设计,包含了丰富的标注,例如主体定位和空间映射信息,为模型的训练和评估提供了重要的支持。

能处理任意条件组合的新生成框架来了!

复旦大学、腾讯优图实验室等机构的研究人员提出UniCombine,一种基于DiT的多条件可控生成框架,能够处理包括但不限于文本提示、空间映射和主体图像在内的任意控制条件的任意组合,并保持高度的一致性和出色的和谐性。

具体效果be like:

据了解,现有的多条件可控生成框架或是只能处理单一种类的多个条件,或是只适用于某种特定的多类别组合,从而普遍缺乏通用性的多类别+多条件的组合式生成能力

而在UniCombine这项工作中,团队引入了一种新的Conditional MMDiT注意力机制,并结合可训练的LoRA模块,从而同时提供了training-free和training-based两种版本。

此外,团队构建并开源了首个针对多条件组合式生成任务设计的数据集SubjectSpatial200K,其中涵盖了subject-driven和spatially-aligned两大类控制条件。

UniCombine在4项不同的多条件可控生成任务上均达到SOTA,证明了新方法具有卓越的框架通用性和出色的条件一致性。

UniCombine方法

UniCombine框架图如下:

(a) 整体框架。团队将基于MMDiT的扩散模型视为由文本分支和去噪分支组成。在此基础上,UniCombine引入了多个条件分支来处理输入条件。

(b) UniCombine的单条件设置。该设置等价于OminiControl,即在单条件设置下,OminiControl是UniCombine框架的特例。

(c) UniCombine的多条件设置。团队提出的LoRA Switching模块可根据条件类型自适应激活去噪分支权重上的预训练Condition-LoRA模块。此外,团队引入了Conditional MMDiT Attention机制,以替换原始MMDiT Attention 机制,从而处理统一的多条件输入序列。是否加载可选的Denoising-LoRA模块是无训练版本和基于训练版本的区别。

SubjectSpatial200K数据集

团队的SubjectSpatial200K数据集旨在填补当前多条件生成任务中缺少公开可用数据集的空白。现有数据集未能同时包含主体驱动和空间对齐的标注。

最近,Subjects200K数据集提供了一个面向主体驱动生成的公开数据集。

在此基础上,团队构建了SubjectSpatial200K数据集,这是一个高质量的统一数据集,专为训练和测试多条件可控生成模型设计。该数据集包含全面的标注,包括丰富的Subject Grounding Annotation和Spatial Map Annotation。数据集的构建流程见图。

实验结果

(1)对比实验

(2)消融实验:CMMDiT与MMDiT

(3)消融实验:Denoising LoRA与Text-LoRA

(4)消融实验:DSB+SSB联合训练与DSB单独训练

(5)算力开销分析

整体而言,研究人员提出了UniCombine,这是一个基于DiT的多条件可控生成框架,能够处理任意条件组合,包括但不限于文本提示、空间映射和主体图像。

在主体插入、主体-空间以及多空间等条件生成任务上的大量实验表明,无论是无训练还是基于训练的版本,UniCombine都达到了最先进的性能。

此外,团队提出了SubjectSpatial200K数据集,以弥补当前缺少用于训练和测试多条件生成模型的公开数据集的不足。团队相信,该研究将推动可控生成领域的发展。

论文链接:
https://arxiv.org/pdf/2503.09277
开源代码:
https://github.com/Xuan-World/UniCombine

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

学术投稿请于工作日发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容

附上论文/项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

UniCombine 图像生成 多条件控制 深度学习
相关文章