PaperAgent 07月08日 13:59
MoCa:首个大规模双向多模态表征模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MoCa框架由中国人民大学、微软亚洲研究院等多家机构的研究者提出,旨在解决现有大型视觉-语言模型(VLM)在多模态表示学习中的局限性。该框架通过“持续预训练 + 异构对比微调”的两阶段方法,将单向注意力VLM转化为SOTA级双向多模态编码器。MoCa框架能够高效利用无监督的多模态数据,提升模型的双向理解和泛化能力,并在MMEB和ViDoRe-v2等基准上取得了显著的性能提升。

💡MoCa框架的核心在于解决VLM在多模态表示学习中的两大痛点:单向因果注意力机制限制了表示质量,以及训练目标和数据分布单一导致过拟合。为了应对这些问题,MoCa采用了创新的方法。

🖼️框架的第一阶段是针对不同模态的持续预训练(Modality-aware Continual Pre-training),通过引入联合重建任务,模型以双向的方式还原被随机遮盖的文本token和图像patch,从而打破了原有因果掩码的限制,使模型能够充分捕获跨模态与跨语言的细粒度语义关系。

🔀第二阶段是异构对比学习微调(Heterogeneous Contrastive Fine-tuning),MoCa利用多样化的异构数据,包括长文档检索对、传统短图文对和纯文本对,并通过任务感知批采样策略提高训练效率,最终强化多模态嵌入的泛化能力。

📊实验结果表明,MoCa在MMEB和ViDoRe-v2两大主流多模态嵌入基准上均取得了显著性能提升。消融实验也验证了持续预训练和异构对比学习中各个组成部分的重要性。此外,MoCa在模型参数以及训练数据规模的扩展性方面也表现出色。

2025-07-05 12:24 四川

简介随着 GPT-4o、Qwen-VL 等生成式视觉-语言模型(VLM)大放异彩,通用多模态表示的需求也急速升温;然而,直接用这些 VLM 做检索或理解任务时,单向因果注意力机制往往限制了表示质量。为应对这一问题,来自中国人民大学、微软亚洲研究院、斯坦福大学、普林斯顿大学等机构的研究者提出了MoCa框架,是一个“持续预训练 + 异构对比微调”的两阶段框架,可将单向注意力 VLM 轻量化地训练成 SOTA 级双向多模态编码器。

TLDR:本文首次提出针对双向多模态表征模型的持续预训练方法,来高效利用无监督的多模态数据。

Paperhttps://arxiv.org/abs/2506.23115

HomePagehttps://haon-chen.github.io/MoCa/


研究动机尽管 VLM 生成能力强,但直接拿来做嵌入仍有三大痛点:

单向因果注意力机制不利于表示学习现有多模态嵌入模型大多沿用 VLM 的单向因果注意力机制,导致上下文利用受限,表示质量逊于双向编码器。

训练目标与数据分布单一传统方法主要在短图文对上做单一对比学习,难以激发 VLM 已具备的复杂跨模态推理能力,也易对特定分布过拟合。

高质量成对数据难以扩展对比学习依赖人工或规则筛选的图文对,获取成本高且无法利用海量未配对的多模态信息。

MoCa 针对以上痛点提出:

联合重建任务引入双向注意力;

高效利用大规模非标注数据,提升多模态嵌入模型的双向理解和泛化能力;

利用多样化的对比学习数据进一步提高模型的鲁棒性和泛化性能。

MoCa 框架

MoCa框架概览:(1)针对不同模态的持续预训练:该阶段专注于针对不同模态数据进行持续预训练,旨在显著增强模型在双向跨模态信息理解方面的能力;(2)异构对比学习微调:此阶段通过引入异构对比学习机制进行微调,以期进一步提升模型的鲁棒性与泛化性能。MoCa 由两个阶段构成:

(1)针对不同模态的持续预训练(Modality-aware Continual Pre-training)

通过引入联合重建任务,模型以双向的方式同时还原被随机遮盖的文本 token (Masked Language Modeling, MLM)和图像 patch(Masked Autoencoding, MAE),打破原有因果掩码的限制,使模型充分捕获跨模态与跨语言的细粒度语义关系。

(2)异构对比学习微调(Heterogeneous Contrastive Fine-tuning)

在微调阶段,MoCa 利用多样化的异构数据,包括:

长文档检索对:增加长文本语义推理能力;

传统短图文对:维持基础的图文对齐;

纯文本对:补充语义多样性与泛化能力。

并通过任务感知批采样策略提高训练效率,有效提升难负样本的多样性和区分度,最终强化多模态嵌入的泛化能力。


实验结果总体结果在 MMEB 与 ViDoRe-v2 两大主流多模态嵌入基准上,MoCa 均取得显著性能提升:

实验结果图1MMEB(36 个任务): MoCa-3B 比同规模基线提升显著,甚至能够达到现有7B规模baseline模型的性能水平。MoCa-7B 达到当前最佳表现(SOTA)。

实验结果图2ViDoRe-v2(7 个任务): MoCa达到最佳single embedding model(除去colbert based),展现出强大的复杂文档图片检索能力。

消融实验

实验结果图3消融实验表明:

去除持续预训练(Modality-aware Continual Pre-training)中的MLM和MAE后,模型表现均显著下降,说明 CPT 阶段学习的双向跨模态特征至关重要;

若移除异构对比学习中新引入的数据,仅用单一类型数据做对比微调,模型泛化性能明显降低,印证了异构样本与任务感知批采样的必要性。

关于模型参数以及训练数据规模的扩展性

实验结果图4Scaling 实验进一步验证了 MoCa 的高效性:

仅使用 20 B token 进行 CPT 后,3B 模型即可逼近甚至超越未 CPT 的 7B baseline模型;

模型性能随着数据规模的增大呈稳定提升趋势,证明 MoCa 能高效利用大规模数据进一步提升表示质量。

未来展望MoCa 展示了将生成式 VLM 转化为高质量双向多模态编码器的巨大潜力,但仍有若干值得进一步探索的方向:

扩展至更多模态与任务场景当前 MoCa 主要聚焦图文检索任务,未来可以拓展至视频、音频等更复杂的模态,以及如多跳问答、多模态推理等更具挑战性的应用。

提升多语言适应能力虽然 MoCa 已支持多语种文本输入,但在低资源语言或跨语言检索上的表现仍有提升空间,可结合语言自适应预训练进一步增强鲁棒性。

自动合成高质量训练数据利用 LLM 合成多样化的图文对已成为趋势。后续可探索如何通过生成式模型构建异构样本,辅助对比训练,从而进一步降低对人工数据的依赖。

与生成能力结合的统一模型当前 MoCa 专注于表征能力优化,与原始 VLM 的生成能力相对割裂。未来可以探索如何构建兼具理解与生成的统一多模态模型,提升整体系统的通用性与实用性。

通过这些方向的拓展,MoCa 有望进一步推动多模态嵌入模型向更强、更广、更智能演进。

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MoCa 多模态 VLM 双向编码器
相关文章