我爱计算机视觉 前天 22:42
ICLR2025 workshop | 浙大&阿里提出FILA:让多模态大模型看清高分辨率图像细节
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

FiLA框架由来自阿里巴巴淘天集团和浙江大学的研究者提出,旨在解决多模态大模型在高分辨率图像处理中因“切块”策略导致的语义碎片化问题。该框架通过创新的混合编码器和深度融合策略,使得模型在处理高分辨率图像时既能捕捉细节又能把握全局,从而显著提升了模型在文档理解、图表分析和细粒度识别等任务上的性能,并在多个基准测试中取得领先。FiLA在保持计算效率的同时,增强了模型对图像的理解能力。

🖼️ 混合编码器:FiLA的核心在于其混合视觉编码器,该编码器结合了CLIP-ViT的局部细节捕捉能力和ConvNeXt的全局上下文理解能力。CLIP-ViT负责处理动态裁剪后的图块,而ConvNeXt则处理高分辨率的全局图像,从而获得更全面的图像信息。

🔄 深度融合模块(CVFM):为了有效融合局部细节和全局信息,FiLA设计了CVFM模块。该模块实现了多层交互,将ConvNeXt不同阶段的全局特征注入到CLIP-ViT的多个中间层中,通过特征对齐和通道拼接,实现深度融合,从而修复语义碎片化问题。

📈 卓越性能:在多个VLM基准测试中,FiLA展现出显著的性能提升。尤其是在TextVQA和DocVQA等需要细粒度识别的任务上,FiLA的表现远超现有模型。同时,在通用VLM能力方面,FiLA也在MME和MathVista等基准测试中表现出色,证明了其在多方面的优势。

林夕 2025-05-31 12:13 江苏

关注公众号,发现CV技术之美

随着 GPT-4o、Gemini 等模型的惊艳表现,大家对 MLLM 的能力越来越期待。但很多时候,当我们想让模型帮我们阅读文档、分析医学影像或者看懂复杂的图表时,会发现它们有些问题——对图像中的精细文本微小细节识别不佳。

这背后的一个重要原因是,很多 MLLM 使用的视觉编码器(比如 CLIP-ViT)是在较低分辨率(如224x224 或 336x336)的图像上预训练的。直接处理高分辨率大图计算成本太高,一个主流的解决方案是动态裁剪(Dynamic Cropping):把高清大图切成多个小图块(patches),分别送入视觉编码器。

图1:现有方法(如 LLaVA-NeXT)在处理图像边缘信息时的困境。左图 (b) 信息在图块内,回答正确;右图 (c) 信息被边界切割,回答错误。红框为裁剪边界。

这种“切块”处理虽然高效,但带来了一个新问题——语义碎片化 (Semantic Fragmentation)。想象一下,一个重要的物体、一段连续的文字或者表格的一部分正好被切割线分开,模型看到的就只是“碎片”,很难理解完整的上下文信息,导致识别和推理错误,尤其是在处理文档、图表包含密集小物体的场景时。

为了解决这个痛点,来自阿里巴巴淘天集团和浙江大学的研究者们提出了一个全新的框架FiLA (Fine-Grained Vision Language Model),旨在让 MLLM 在处理高分辨率图像时,既能看到细节,又能把握全局,有效缓解“切块”带来的碎片化问题。

核心问题:高分辨率图像处理的“切块”困境

为什么需要高分辨率?

    文档理解 (DocVQA): 准确阅读扫描文档或截图中的文字。

    图表分析 (ChartQA): 理解图表中的数据标签和趋势。

    细粒度识别: 看清产品细节、识别微小物体。

    场景文字识别 (TextVQA): 读取街道标志、商品包装上的文字。

当前的“切块”策略(如下图 Dynamic Resolution 所示)虽然解决了计算效率问题,但其弊端也显而易见:

    信息丢失:位于切割边界的对象或文本被破坏。

    上下文割裂:图块之间的空间关系和语义联系减弱。

    位置关系混淆:模型难以判断一个被切割物体的不同部分之间的相对位置。

图2:不同高分辨率处理方法的对比。从左上角的简单动态裁剪,到右下角 FILA 提出的深度融合方案。

FILA 的创新解法:混合编码器与深度融合

面对“切块”带来的碎片化难题,FILA 提出了两大创新:

1.混合编码器 (Hybrid Encoder)

FILA 没有完全抛弃“切块”策略,而是在此基础上引入了一个“全局信息”。它的核心是一个混合视觉编码器,巧妙地结合了两种架构的优势:

    低分辨率图块处理 (CLIP-ViT): 继续使用大家熟悉的 CLIP-ViT 来处理动态裁剪后的各个小图块,捕捉局部细节。

    高分辨率全局信息 (ConvNeXt): 引入另一个强大的视觉编码器 ConvNeXt,直接处理 整张 按比例放大到更高分辨率(例如 768x768)的图像。ConvNeXt 的卷积特性使其能有效捕捉全局空间信息和上下文。

图3:FILA 的混合编码器结构图。左侧为处理高分辨率全局图像的 ConvNeXt 分支,右侧为处理低分辨率图块的 ViT 分支,中间通过 CVFM 模块进行多层深度融合。

关键点:这个设计意味着,当模型处理每一个小图块时,不再是“盲人摸象”,而是能同时“参考”由 ConvNeXt 提供的高分辨率全局信息。

2.ConvNeXt-ViT 深度融合模块 (CVFM)

光有全局信息还不够,如何有效地将这些信息融入到图块的处理过程中至关重要。FILA 设计了一个名为 CVFM 的 深度融合模块。

与一些只在最后几层进行简单特征拼接或 Cross-Attention 的方法不同(参考图2中 Mini-Gemini 和 Channel-wise Concat 的示意),FILA 的 CVFM 实现了“深度”融合:

    多层交互:来自 ConvNeXt 不同阶段(代表不同层的全局特征)的高分辨率特征,会被注入到 CLIP-ViT 的多个中间层中。

    特征对齐与融合:CVFM 会将对应空间区域的 ConvNeXt 特征裁剪出来,调整尺寸后,与 ViT 在该层的图块特征进行通道拼接 (Channel Concatenation),再通过一个小型 MLP 网络进行融合。

    稳定训练: 融合时使用了一个可学习的门控机制 初始化为 0,确保在训练初期不破坏原始 ViT 的稳定性,让模型平稳地学习如何利用全局信息。

简单来说,CVFM 就像在 ViT 处理每个图块的过程中,不断地给它“看”高分辨率全局图的对应区域,告诉它“这个图块在整张图的什么位置,周围大概是什么样子”,从而有效修复了语义碎片化问题。

FILA 的整体架构与训练

图4:FILA 的整体架构。(a) 预训练阶段,对齐特征。(b) 指令微调阶段,端到端训练。

    输入处理:高分辨率图像输入后,进行动态裁剪,得到一个低分辨率全局图和多个 336x336 的图块。同时,原始图像也被放大到更高分辨率(如 768x768)送入 ConvNeXt。

    混合编码:图块和高分辨率全局图分别送入混合编码器的 ViT 和 ConvNeXt 分支,并通过 CVFM 进行深度特征融合。

    特征投影与语言模型:融合后的视觉特征通过一个投影层(MLP)映射到语言模型的空间,与文本输入一起送入 LLM (文中使用了 LLaMA3-8B)。

    两阶段训练:

    预训练: 固定大部分模型参数,只训练投影层和 CVFM 中的融合部分,快速对齐视觉和语言特征。此阶段不使用动态裁剪,直接缩放图像。

    指令微调: 启用动态裁剪,开放所有模型参数进行端到端微调,让模型学会处理碎片化信息并遵循指令。

实验效果:显著提升与全面领先

研究者们在 10 个主流的 VLM benchmark 上进行了广泛评估,结果非常亮眼:

图5:FILA 与其他主流 MLLM 在多个基准测试上的性能对比雷达图。FILA在多个任务上展现出领先优势。

    细粒度与文档理解任务大幅领先:

      在 TextVQA(图像中的文本问答)上,比 LLaVA-NeXT 提升 9.6%!

      在 DocVQA(文档问答)上,比 LLaVA-NeXT 提升 6.9%!

      在 AI2D、InfoVQA、OCRBench 等需要细粒度识别的任务上也取得了 SOTA 或接近 SOTA 的成绩。

    通用 VLM 能力同样出色:

      在 MME(综合评估)上超越 LLaVA-NeXT 1.7%。

      在 MathVista(数学推理)上超越 LLaVA-NeXT 6.4%。

      在 MMBench、MMMU、HallusionBench 等通用基准上也表现优异。

表1:详细的量化结果对比。FILA 在多数任务上优于现有同类模型。

关键优势:FILA 在大幅提升性能的同时,输入给 LLM 的视觉 token 数量与 LLaVA-NeXT 保持一致,这意味着计算效率没有明显增加,真正做到了“又好又快”。

消融实验验证

研究者还通过消融实验证明了:

表 2:不同的编码器融合方式的对比
表 3:在不同层进行融合的对比
表 4:多层融合,不同融合方式的对比

    混合编码器的必要性:相比仅使用动态裁剪或简单的后期融合,FILA 的混合编码器能显著缓解碎片化问题(见表 2)。

    深度融合的优越性:相比只在最后一层融合或将 ConvNeXt 特征先融合再与 ViT 交互,FILA 的多层深度融合策略效果最佳(见表 3)。

    融合方式的选择:对比了通道拼接、交叉注意力、特征相加等融合方式,通道拼接效果最好(见表 4)。

可视化对比

图6:FILA (Ours) 与 LLaVA-NeXT 的预测结果对比。FILA 能正确识别被切割的数字 (a)、判断正确的文字位置 (d)、读取模糊的日期 (h) 等,展现了更强的细粒度识别能力。

上图直观展示了 FILA 的威力。在 LLaVA-NeXT 因为图像被切割而识别错误或遗漏信息的情况下,FILA 凭借其获取的全局上下文信息,能够准确地识别出:

    被切割开的数字 “12” (图 a)

    钟表上方的文字 “Fish bros” 而非下方的 “JEWELLER” (图 d)

    运动员腿上模糊的数字 “9” (图 g)

    报纸上精确的日期 “Aug. 22, 1936” (图 h)

这些例子生动地证明了 FILA 在解决语义碎片化、提升细粒度识别方面的有效性。

FILA 框架通过创新的混合编码器和 CVFM 深度融合策略,在不显著增加计算负担的前提下,有效解决了 MLLM 处理高分辨率图像时因动态裁剪导致的语义碎片化问题。它赋予了 MLLM 更强的细粒度视觉理解能力,尤其是在文档分析、图表解读密集文本识别等场景下表现突出,并在多个通用基准测试中取得领先。

最新 AI 进展报道请联系:amos@52cv.net

END

欢迎加入「MLLM交流群👇备注:MLLM

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

FiLA MLLM 高分辨率图像 语义碎片化
相关文章