机器之心 前天 16:01
极低成本,复现GPT-4o图像风格化一致性!NUS推出OmniConsistency
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了NUS ShowLab团队开发的OmniConsistency,一个基于DiT的通用一致性增强插件,旨在解决开源扩散模型在图像风格迁移中风格化效果与细节一致性之间的矛盾。通过利用GPT-4o生成的高质量配对数据进行训练,OmniConsistency能够在保持强烈风格化效果的同时,精准保留输入图像的细节、语义和结构。该方法具有即插即用、轻量高效、兼容性强的特点,能够复现GPT-4o的风格化一致性,为开源生态注入接近商业级的能力。

🎨 OmniConsistency 采用 In-Context 一致性学习框架,通过学习原图与其高一致性风格化结果的成对关系,专门学习图像在风格迁移中的一致性保持规律,从而解决风格表达与一致性保持之间的矛盾。

⚙️ 该方法采用两阶段风格-一致性解耦训练策略,首先基于22种不同艺术风格训练风格LoRA模块,构建稳定风格LoRA模块库;然后冻结风格LoRA,用配对数据训练轻量级的一致性模块,确保一致性模块专注于跨风格保持结构和语义,而非学习具体风格内容。

🔌 OmniConsistency 设计为一套模块化的插拔系统,兼容性极强,可以与社区风格LoRA模型、EasyControl、IP-Adapter等主流插件无缝集成,无需修改或重训练。它采用因果注意力机制,限制Condition token的Query和Noised&Text Token的Key计算注意力,为风格化LoRA腾出挂载位点。

2025-06-01 11:31 北京

利用配对数据复现GPT-4o的出色风格化一致性。

本文由 NUS ShowLab 主导完成。第一作者宋亦仁为新加坡国立大学 ShowLab@NUS 在读博士生,研究方向是视觉生成和多模态,在 CVPR、SIGGRAPH、NeurIPS 等国际顶级会议上发表多篇研究成果。共同一作刘成为 NUS 重庆研究院四年级本科生,研究方向是视觉生成。项目负责作者为该校校长青年教授寿政。

不久前,GPT-4o 的最新图像风格化与编辑能力横空出世,用吉卜力等风格生成的效果令人惊艳,也让我们清晰看到了开源社区与商业 API 在图像风格化一致性上的巨大差距。

目前,开源扩散模型在 image-to-image 风格迁移中普遍面临一个跷跷板困境:要想增强风格化效果,往往会牺牲细节、结构和语义一致性;而要保持一致性,风格表达则明显退化。

为了解决这一难题,我们提出 OmniConsistency,利用配对数据复现 GPT-4o 的出色风格化一致性,为开源生态注入接近商业级的能力。

🌟 我们的解决方案:OmniConsistency

我们提出 OmniConsistency, 一个基于 DiT 的通用一致性增强插件,它可以在保持强烈风格化效果的同时,精准保留输入图像的细节、语义和结构。

OmniConsistency 的训练仅用了 2600 对 GPT-4o 生成的高质量图像,全流程只用约 500 小时 GPU 算力,成本极低。

OmniConsistency 有哪些亮点?来看三句话总结:

✅ 解决风格化与一致性之间的跷跷板问题

✅ 即插即用,兼容社区任意 Flux 底模的风格 LoRA

✅ 轻量高效,效果出色,媲美 GPT-4o

🤔 为什么现有方法会出现风格退化?

目前各大厂商的 AI 图生图业务的主流做法是组合风格化 LoRA + 一致性插件 + image2image pipeline。在特定风格数据上微调得到的风格 LoRA 模块,能够在文本到图像(text-to-image, T2I)任务中实现高质量风格图像生成。一致性模块(如 ControlNet、IP-Adapter、Redux 等)负责在图像到图像(image-to-image, I2I)任务中维持结构、边缘或姿态等条件,允许使用更大的去噪强度来获得更强的风格化效果。

问题是,当把这两类模块组合在一起用时,风格模块要的 “自由发挥” 和一致性模块要的 “严谨控制” 彼此掣肘。尤其在 I2I 任务中,风格表达往往会被削弱,出现明显的风格退化。换句话说,现有方法被困在风格化强度和一致性之间的跷跷板上,无法两全。

🧩 方法介绍:OmniConsistency 的核心设计

OmniConsistency 的核心目标是打破图像风格化任务中 “风格表达” 与 “一致性保持” 之间的跷跷板困境。为了解决这一问题,我们提出了一种全新的、风格 - 一致性解耦学习方法,其包括以下三项关键设计:

✅ 1. In-Context 一致性学习框架:从数据对学习

OmniConsistency 创新性地提出了一种基于风格化图像对的一致性学习机制:不是像现有方法那样先在风格结果上训练 LoRA,再用一致性插件去适配(这往往带来冲突);而是直接利用原图与其高一致性风格化结果的成对关系,专门学习图像在风格迁移中的一致性保持规律。

具体做法是:将原图经过 VAE 编码得到的 clean latent token 拼接到 denoise token 上,通过因果注意力机制引导模型学习配对图像风格化前后的一致性。

✅ 2. 两阶段风格 - 一致性解耦训练策略:稳健泛化的关键

为了从训练策略上彻底分离风格表达与一致性保持,我们采用了阶段化解耦训练机制:

这种训练解耦策略在保持风格表达能力的同时,极大提升了模型对多风格场景下的一致性泛化能力。

✅ 3. 模块化架构设计:即插即用,兼容性强

OmniConsistency 被设计为一套完全模块化的插拔系统,兼容性极强:

📦 数据集构建

我们采用 GPT-4o 自动生成了一套高质量配对数据:设计 22 种不同风格的提示词,上传原始图像,生成对应的风格化版本,还配上详细文本描述。

然后,我们通过人工筛选,剔除了风格不一致、细节错误、姿态错位等问题图,最终精选出 2600 对高质量图像对,涵盖了动漫、素描、像素画、水彩、赛博朋克等风格。

🔬 效果如何?

直接上图, OmniConsistency 能很好的维持风格化前后构图、语义、细节一致,对人物面部特征的维持也有一定作用。对多人合影等复杂场景,很好的维持了人数、姿势、性别、种族、年龄,甚至还能维持图片中的英文文字正确性。

OmniConsistency 对训练阶段没见过的风格 LoRA 也有很好的泛化作用。

📈 定量评估

论文构建了一个全新数据集,包括:22 种风格、2600 对高质量图像对, 由 GPT-4o 构建并进行人工筛选。用 100 张复杂场景测试图(多人合影、建筑、动物等)作为 benchmark。使用 LibLib 网站上 5 个训练阶段未见过的全新风格 LoRA ,进行定量计算。

采用用多项指标全面评估,包括风格一致性评估(FID、CMMD、DreamSim、CLIP Image Score、GPT-4o Score);内容一致性评估(DreamSim、CLIP Image Score、GPT-4o 评分);图文对齐(CLIP Score)。

📝 总结

✅ 格一致性:FID 和 CMMD 指标显著优于基线,风格化程度接近 LoRA 文生图 效果。

✅ 内容一致性:复杂场景下的细节、语义、结构保持能力大幅提升。

✅ 泛化能力:在未见过的 LoRA 风格上泛化效果出色,显示出强大的风格无关性。

✅ 轻量高效:得益于特征复用和位置编码差值技术,推理显存与时间开销相比 Flux text2image pipeline 仅增加约 5%,适合部署到生产环境。

✅ 即插即用、广泛兼容:模块化设计支持与社区 LoRA、EasyControl、IPAdapter 等主流插件无缝集成,无需重训即可使用。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OmniConsistency 图像风格化 一致性 GPT-4o
相关文章