新智元 03月07日
智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智源研究院联合多所高校发布多模态向量模型BGE-VL,该模型借助独创的MegaPairs合成数据技术,在图文检索、组合图像检索等多项任务中表现出色,刷新了SOTA。MegaPairs通过结合多模态表征模型、大模型和语言模型,高效挖掘多模态三元组数据,以极低成本持续生成高质量数据。实验表明,BGE-VL仅需少量数据即可实现更优训练效果,并在MMEB等基准测试中取得领先,尤其在组合图像检索方面,超越了谷歌和英伟达等公司的模型,展示了其强大的泛化能力和数据有效性。

🔍BGE-VL模型由智源研究院联合多所高校开发,是多模态向量模型,旨在提升AI检索能力,尤其是在处理图文检索和组合图像检索等复杂任务时。

📊MegaPairs技术是BGE-VL的核心,它通过结合多模态表征模型、多模态大模型和大语言模型,从海量图文语料库中高效挖掘多模态三元组数据,实现数据的低成本和高质量生成。

🏆BGE-VL在多个主流多模态检索基准测试中表现出色,尤其在组合图像检索评测集CIRCO上,显著超越了包括谷歌MagicLens和英伟达MM-Embed在内的现有基准。

🌱MegaPairs数据具有良好的可扩展性,随着数据规模的增加,BGE-VL模型表现出一致的性能增长趋势,同时,相比于在37M闭源数据上训练的模型,MegaPairs仅需少量数据即可实现显著的性能优势。

新智元 2025-03-06 15:20 北京



  新智元报道  

编辑:编辑部 HYZ

【新智元导读】智源联手多所顶尖高校发布的多模态向量模型BGE-VL,重塑了AI检索领域的游戏规则。它凭借独创的MegaPairs合成数据技术,在图文检索、组合图像检索等多项任务中,横扫各大基准刷新SOTA。


BGE系列模型自发布以来广受社区好评。

近日,智源研究院联合多所高校开发了多模态向量模型BGE-VL,进一步扩充了原有生态体系。BGE-VL在图文检索、组合图像检索等主要多模态检索任务中均取得了最佳效果。

BGE-VL借助大规模合成数据MegaPairs训练而成。这一设计具备以下两大核心优势:

BGE-VL的技术报告已发布,相关数据、模型及代码资源将陆续向社区全面开放。

论文地址:https://arxiv.org/abs/2412.14475
项目主页:https://github.com/VectorSpaceLab/MegaPairs
模型地址:https://huggingface.co/BAAI/BGE-VL-MLLM-S1

研究背景


在大模型时代,信息检索需要满足人们日益多样化的需求,这种需求不仅体现在用户的多模态查询输入上,也体现在对多模态信息的需求上。例如,用户可能拍摄一张汽车外观图,并希望获取该款汽车的指定信息。

在这种情况下,多模态检索器需要综合理解用户的图像和文本指令,并从多种模态的信息中检索出最相关的内容。

然而,现有的多模态检索模型通常基于单一形式的跨模态配对数据(如图像-文本对)进行训练,这使得它们难以处理复杂的组合模态输入。

近年来,指令微调技术在文本检索和大语言模型等领域已经证明了其增强多任务能力的有效性。然而,以往的多模态检索指令数据集大多依赖人工标注,限制了大规模多样化数据的获取。

为解决这一限制,智源BGE团队创新性地提出了MegaPairs数据合成方法。该方法通过从现有大规模图像数据集中挖掘多样的关联图像对,并利用开源多模态大模型和大语言模型进行自动化指令生成,从而构建出高质量、可扩展、泛化性强的多模态检索指令微调数据集。

团队基于MegaPairs的高质量数据,训练并开源多模态向量模型BGE-VL系列,实现了当前最佳的多模态检索能力。

MegaPairs构造


MegaPairs提出从现有大规模图文语料库中挖掘并构造大规模、高质量多模态检索指令数据集。

具体地,MegaPairs的构造主要分为两个关键步骤:

    使用多种相似度模型从图像数据集中挖掘多样的图像对;

    使用开源的多模态大模型和大语言模型合成开放域检索指令。

以下图为例:

值得注意的是,MegaPairs完全基于开源数据集和开源模型进行自动化构建和标注。通过引入多个相似度模型和两阶段标注方法,MegaPairs能够在无需人工参与的情况下,扩展性地生成大规模、高质量且多样化的多模态检索指令数据集。

MegaPairs多模态三元数据构造流程

基于上述流水线,MegaPairs合成了超过2600万条(查询图像, 查询语句, 目标图像)三元数据对。

此外,鉴于「难负例」在训练检索模型的重要性,MegaPairs对于每组挖掘的图像对数据都选取了其他相似图片作为难负例。

BGE-VL模型


基于MegaPairs合成的大规模多模态检索指令数据集,智源BGE团队训练出了3款不同尺寸的多模态检索模型。包括基于CLIP架构的BGE-VL-Base和BGE-VL-Large,以及基于多模态大模型架构的BGE-VL-MLLM。

团队发现,仅仅使用MegaPairs三元组数据训练,模型就在多个任务上实现了远超以往方法的的领先性能优势。

综合多模态嵌入任务性能表现

团队首先在Massive Multimodal Embedding Benchmark(MMEB)上验证了BGE-VL模型的性能。

MMEB是一个综合性基准测试,涵盖了4大类共计36个不同多模态嵌入评测任务:分类(Classification)、视觉问答(Visual Question Answering)、检索(Retrieval)和视觉定位(Visual Grounding)。

MMEB评测任务示例图

在零样本性能表现方面,BGE-VL在MMEB的多个任务类型和整体评分均实现了最优性能。

更令人兴奋的是,MegaPairs并未包含MMEB中的绝大部分任务类型数据(例如Classification、VQA,Grounding),却能够实现良好的任务泛化能力。

根据MMEB的设置,团队进一步在MMEB的分布内(IND)集合(包含36个评测任务中的20个任务)上对BGE-VL进行了有监督微调。

实验结果显示,BGE-VL的平均性能指标相比直接在MMEB上微调的VLM2Vec (LLaVA-1.6) 模型高出9.1个百分点。同时,在分布外(OOD)数据集上的平均表现也比两版VLM2Vec分别高出11.6%和7.1%。这些结果证明了MegaPairs数据的高质量和泛化能力。

组合图像检索性能

传统图像检索通常采用「文搜图」或「图搜图」的方式。近年来,组合图像检索作为一种新兴的图像搜索范式,允许用户同时输入图像和搜索指令,实现更精准的图像检索效果。这一方法被谷歌称为「下一代图像搜索范式」。

在当前主流的组合图像检索评测集CIRCO上,BGE-VL在不同模型尺寸上均显著刷新了现有基准。大幅超越包括谷歌的MagicLens系列和英伟达的MM-Embed等对比基线。

具体而言,BGE-VL-MLLM较之前的SOTA模型提升了8.1个百分点。此外,BGE-VL-Base模型以不到1/50的参数量超越了如MM-Embed和E5-V等大模型底座的多模态检索器。这些实验结果有力展示了MegaPairs数据的有效性。

团队还对MegaPairs的可扩展性和数据质量进行了深入研究。

如图所示,一方面,随着MegaPairs数据规模的增加,BGE-VL模型表现出一致的性能增长趋势,证明了MegaPairs数据构造方法的良好可扩展性。

另一方面,与在37M闭源数据上训练的SOTA模型Google MagicLens相比,MegaPairs仅需1/70的数据规模(0.5M)即可实现显著的性能优势,证明了MegaPairs数据的高效性和高质量。

MegaPairs可扩展性分析:使用不同规模的MegaPairs数据训练BGE-VL-base模型在各评测基准上的性能变化趋势。虚线表示基于CLIP-base并在37M MagicLens数据集上训练的MagicLens-B模型的性能。

BGE-VL检索可视化结果

未来,智源将继续探索MegaPairs与更丰富的多模态检索场景结合,进一步打造更全能通用的多模态检索器。

更多方法和实验细节请参照论文。

参考资料:

https://arxiv.org/abs/2412.14475

https://github.com/VectorSpaceLab/MegaPairs

https://huggingface.co/BAAI/BGE-VL-MLLM-S1





阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

BGE-VL 多模态检索 MegaPairs AI模型
相关文章