机器之心 03月20日
李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

FlowMo是一种由斯坦福大学李飞飞团队提出的基于Transformer的扩散自编码器,用于改进图像tokenization。该方法通过两阶段训练,先学习捕捉图像多种重建结果,再选择最接近原图的方案,从而在ImageNet-1K数据集上展现出领先的重建性能。FlowMo方法无需卷积、对抗损失等,提供了一种简单而不同的图像压缩方案,并在多个比特率设置下取得了最佳结果。

💡FlowMo的核心在于其两阶段训练策略,第一阶段通过修正流损失、感知损失、熵损失和承诺损失的结合,最大化潜在编码的信息量并匹配重建分布。

💡第二阶段FlowMo冻结编码器,优化解码器分布,通过概率流ODE和感知损失,寻找与原始图像高度相似的模式,提升图像重建质量。

💡FlowMo采用基于Transformer的编解码结构,使用一维潜空间表示和量化层,并结合扩散过程,实现高效的图像压缩和重建。

💡FlowMo在多种比特率设置下,在重建FID、PSNR和SSIM指标上均优于现有tokenizer,展现出优越的图像tokenization性能。

💡研究表明,模式寻求后训练阶段、厚尾logit-normal噪声分布和移位采样器对FlowMo的性能至关重要,对模型性能提升明显。

2025-03-20 14:07 北京

FlowMo,一种基于Transformer的扩散自编码器。

机器之心报道

机器之心编辑部


当我们看到一张猫咪照片时,大脑自然就能识别「这是一只猫」。但对计算机来说,它看到的是一个巨大的数字矩阵 —— 假设是一张 1000×1000 像素的彩色图片,实际上是一个包含 300 万个数字的数据集(1000×1000×3 个颜色通道)。每个数字代表一个像素点的颜色深浅,从 0 到 255。


为了更加高效地从成千上万张图像中学习,AI 模型需要对图片进行压缩。比如当前最先进的图像生成模型,第一步就是一个名叫 tokenization 的操作,用于执行此操作的组件叫 tokenizer。tokenizer 的主要目标是将原始图像压缩到一个更小、更易处理的潜在空间,使得生成模型能够更高效地学习和生成。因此,如何得到更好的 tokenizer 是该领域的研究者非常关心的问题。


在一篇新论文中,来自斯坦福大学李飞飞、吴佳俊团队的研究者提出了一种名叫「FlowMo」的改进方案(论文一作是斯坦福大学计算机科学博士生 Kyle Sargent)。



FlowMo 的训练分为两个阶段:第一阶段先学习如何全面捕捉图像的多种可能重建结果,第二阶段则学习如何从这些可能中选择最接近原图的重建方案。这种方法既保证了图像重建的多样性,又确保了重建质量,使得 FlowMo 在 ImageNet-1K 数据集上展现出了领先的重建性能。




研究背景


自从 VQGAN 和潜在扩散模型等视觉生成框架问世以来,最先进的图像生成系统通常采用两阶段设计:先将视觉数据压缩到低维潜在空间进行 tokenization,再学习生成模型。


Tokenizer 训练一般遵循标准流程,即在均方误差(MSE)、感知损失和对抗损失的组合约束下压缩并重建图像。扩散自编码器曾被提出作为学习端到端感知导向图像压缩的方法,但在 ImageNet-1K 重建这一竞争性任务上尚未达到最先进水平。


李飞飞团队提出了 FlowMo,一种基于 Transformer 的扩散自编码器,它在多种压缩率下实现了图像 tokenization 的新性能标准,且无需使用卷积、对抗损失、空间对齐的二维潜在编码,或从其他 tokenizer 中蒸馏知识(这与传统的基于 GAN 的 tokenizer,如 VQGAN,非常不同)。



研究的关键发现是 FlowMo 训练应分为模式匹配预训练阶段和模式寻求后训练阶段。此外,研究者进行了广泛分析,并探索了基于 FlowMo tokenizer 的生成模型训练。


图 1:无论是在低比特率训练(FlowMo-Lo)还是高比特率训练(FlowMo-Hi)下,FlowMo 模型都实现了最先进的 image tokenization 性能。


作者强调,尽管基于 GAN 的 tokenizer 在图像 tokenization 任务上已经取得了很好的性能,但 FlowMo 提供了一种简单且不同的方法。



FlowMo 方法


众所周知,基于 Transformer 的扩散自编码器包含编解码结构,因此 FlowMo 也是由编码器 e_θ 和解码器 d_θ 组成,其核心架构遵循了 MMDiT,在 Transformer 的架构中学习一维潜在空间。


图 2:FlowMo 架构概览


首先,编码器将输入图像转换为潜空间向量 c,然后解码器则根据潜空间 c 学习重建图像的条件分布,与旨在产生单一确定性输出的传统方法不同,FlowMo 的解码器会生成可能的重建分布,从而更好地捕捉图像重建中固有的模糊性。


FlowMo 架构的主要包括以下四点:



在 FlowMo 架构中的一个核心创新点是其两阶段训练策略,这一策略使得重建分布偏向于原始图像具有高度感知相似性的模式。


阶段 1A:模式匹配预训练


图 3:FlowMo 的训练过程结合了基于流的损失和感知损失,以引导模型实现高质量的重建。


在阶段 1A 中,FlowMo 通过联合训练编码器与解码器,以实现两个核心目标:最大化潜在编码的信息量,并使其重建分布与真实分布相匹配。这一训练过程巧妙地结合了多种损失函数,展现出其独特的技术优势:



具体而言,FlowMo 作为扩散自动编码器进行端到端训练,以优化解码器输出上的修正流损失 L_flow,在过程中使用了 L_perc 来监督图像生成中的去噪预测,同时在潜空间 c 上,作者还结合了 LFQ 的熵损失和承诺损失来进行训练。其中损失函数的数学表达式如下所示:






结合这些损失函数,并最终得到了第一阶段的损失表达式:



阶段 1B:模式探索后训练


在第二阶段中,FlowMo 的核心目标是优化解码器分布 pθ(x∣c),以寻找那些在感知上与原始图像高度相似的模式。为实现这一目标,FlowMo 采用了创新的训练策略:首先冻结编码器,随后在 Lflow 的基础上,联合训练解码器,并引入受扩散模型训练后的 x_0 来生成目标 Lsample。这一过程通过以下步骤实现:  



图 4:模式搜索训练过程,编码器处于冻结状态(雪花表示),而解码器则进行微调以提高感知质量。


如上图所示,其中 FlowMo 通过冻结编码器,集中精力优化解码器,使其在重建图像时更加注重感知相似性,从而进一步提升生成图像的质量与真实感。对概率流 ODE 进行积分的 n 步样本感知损失 Lsample 如下所示:   



第二阶段模式探索损失如下所示:



采样过程


为了生成重构图像,FlowMo 通过求解概率流 ODE,对给定一维潜空间 c 的重建图像的多模态分布进行采样



FlowMo 采样方法的一项关键创新是使用「移位」采样器。FlowMo 不使用统一的时间步长间隔,而是采用可调的移位超参数,将采样步骤集中在扩散过程的某些区域,从而提高感知质量。


采样过程需要多次前向通过解码器模型,这在计算上很昂贵,但可以产生高质量的结果。


实验结果分析


主要结果


FlowMo 在多个比特率设置下(0.07 BPP 和 0.22 BPP)与当前最先进的 tokenizer 进行了比较,在重建 FID(rFID)、PSNR 和 SSIM 指标上均取得了最佳结果。在 0.07 BPP 设置下,FlowMo-Lo 的 rFID 为 0.95,相比 OpenMagViT-V2 的 1.17 有显著提升;在 0.22 BPP 设置下,FlowMo-Hi 的 rFID 为 0.56,略优于 LlamaGen-32 的 0.59。


表 1. tokenization 结果。


消融实验分析


研究团队进行了大量消融实验,分析了 FlowMo 设计中的关键决策:噪声调度、量化策略、模型架构和后训练策略等。结果表明,thick-tailed logit-normal 噪声分布、shifted sampler 和后训练阶段对模型性能至关重要。


图 5:噪声调度导致失真的可视化案例。


特别是,没有模式寻求后训练阶段,FlowMo-Lo 的 rFID 会从 0.95 下降到 1.10,FlowMo-Hi 的 rFID 会从 0.56 下降到 0.73。


表 2:后训练消融实验结果。


生成任务验证


在生成任务中,基于 FlowMo 训练的 MaskGiT 在某些指标上表现优于基于 OpenMagViT-V2 训练的模型,但在 FID 上略逊一筹(4.30 vs 3.73)。这表明 tokenizer 质量与下游生成模型质量之间存在复杂关系,需要进一步研究。


表 3:生成模型指标对比。


图 6:生成图像对比。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

FlowMo Transformer 图像压缩 扩散自编码器
相关文章