DeepTech深科技 02月16日
谷歌发布史上最大规模的千亿级视觉语言数据集,Scaling Law的潜力或远未见顶
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌DeepMind团队发布了规模空前的视觉语言数据集WebLI-100B,包含1000亿对图像-文本数据,是WebLI数据集规模的10倍。研究发现,虽然在传统西方中心化任务上,数据规模扩展的边际效益较小,但在文化多样性相关任务上,大规模数据展现出意外的价值。尤其是在低资源语言方面,模型性能获得了显著提升,这种“长尾效应”在多种低资源语言中普遍存在。研究还探索了数据质量与多样性之间的权衡,并提出了提升低资源语言采样比例的策略,以实现更平衡的性能分布。这项研究再次证明了Scaling Law的潜力,并强调了挖掘更多有价值数据的必要性。

🌍WebLI-100B数据集是谷歌DeepMind发布的包含1000亿对图像-文本数据的视觉语言数据集,规模是原有WebLI数据集的10倍,旨在探索大规模数据对视觉语言模型的影响。

💰研究表明,在传统的ImageNet零样本分类和COCO图像检索等西方中心化任务上,数据规模从100亿扩展到1000亿带来的性能提升相对有限,边际效益较小。

🗣️大规模数据在文化多样性相关任务上展现出巨大价值,尤其是在Dollar Street数据集上的10-shot分类任务中,模型准确率显著提升,且低资源语言从大规模数据中获得的收益明显高于高资源语言,呈现“长尾效应”。

⚖️研究团队发现,使用CLIP模型进行质量过滤虽然能提升传统任务性能,但会降低文化多样性指标表现,因此提出了提升低资源语言采样比例的策略,以实现更平衡的性能分布。

原创 嘉鱼 2025-02-14 20:30 北京

2009 年,ImageNet 数据集的发布让深度学习在计算机视觉领域迎来了转折点。这个包含 1,400 万张图像的数据集,不仅推动了卷积神经网络的发展,更开创了用大规模数据训练视觉模型的先河。




2009 年,ImageNet 数据集的发布让深度学习在计算机视觉领域迎来了转折点。这个包含 1,400 万张图像的数据集,不仅推动了卷积神经网络的发展,更开创了用大规模数据训练视觉模型的先河。随后,JFT-300M(3 亿图像)和 JFT-3B(30 亿图像)的相继问世,进一步验证了“数据规模决定模型上限”这一理念。


近年来,随着视觉语言模型(VLM,Visual Language Model)的兴起,研究人员开始关注图像-文本对数据集的构建。从最初的 COCO Captions(包含约 12 万张图像),到微软的 Conceptual Captions(约 330 万对数据),再到 LAION-5B(50 亿对)和谷歌的 WebLI(100 亿对),数据规模在持续突破。而现在,谷歌 DeepMind 团队再次刷新了这一记录。


2 月 11 日,谷歌 DeepMind 在 arXiv 上发布了题为《将视觉语言模型的预训练扩展至千亿级数据》(Scaling Pre-training to One Hundred Billion Data for Vision Language Models)的论文。他们推出了规模空前的视觉语言数据集 WebLI-100B,包含 1,000 亿对图像-文本数据。这个数据集在 WebLI 的基础上构建,不仅保持了原有的高质量抓取策略,还将规模扩大了 10 倍。


那么,将数据规模扩大 10 倍究竟能带来什么样的提升?研究结果发现,在传统的西方中心化任务上,从 100 亿扩展到 1,000 亿的边际效益较小。具体来说:


在 ImageNet 零样本分类任务上,ViT-L/16 模型在 100 亿数据训练时的错误率为 29.7%,扩展到 1000 亿后仅降低到 28.5%。同样的趋势也出现在 CIFAR-100 等其他分类任务上。在 COCO 图像检索任务中,性能提升也相对有限。这些结果通过 Wilcoxon 符号秩检验得到了统计学支持(p 值为 0.9),表明在这些传统任务上的性能差异并不显著。


图丨左侧:将数据从 100 亿扩展到 1000 亿样本,比其他指标更显著地增强了文化多样性和多语言能力;右侧:数据规模影响的示例(来源:arXiv


然而,在文化多样性相关任务上,大规模数据展现出了意外的价值。研究团队使用 Dollar Street 数据集(一个包含来自 63 个国家的 38,000 张图像的数据集)来评估模型对不同文化场景的理解能力。结果表明:


在 10-shot 分类任务中,ViT-L/16 模型在 1,000 亿数据上单轮训练就达到了 41.7% 的准确率,而同样架构的模型在 100 亿数据上训练 10 个 epoch 只能达到 35.9%。更大的 ViT-H 模型获得了类似幅度的提升。这 5-6 个百分点的绝对性能提升远超传统任务上不到 1% 的增益。Wilcoxon 检验的 p 值为 0.002,表明这种提升具有统计学显著性。


在多语言能力方面,研究者们发现了一个更加引人注目的现象:低资源语言从大规模数据中获得的收益明显高于高资源语言。研究团队使用 Crossmodal-3600 数据集(包含 36 种语言的图像-文本检索任务)进行评估,发现:


以 Telugu 语言为例,尽管它在整个数据集中仅占 0.036% 的比例,但模型性能仍然获得了显著提升。这种“长尾效应”在其他低资源语言(如孟加拉语、菲律宾语、印地语、希伯来语、毛利语和斯瓦希里语)中也普遍存在。


并且,这种差异在模型规模越大时越发明显。项目负责人之一的翟晓华在社交媒体上以 Telugu 语言为例,认为“这突出展示了大规模数据集在改善长尾概念理解方面的力量。即使在数据集中占比极小的语言,也能从中受益。”


图丨相关推文(来源:X


研究团队还深入探索了数据质量与多样性之间的权衡。他们发现,使用 CLIP 模型进行质量过滤虽然能提升 ImageNet 等传统任务的性能,但会降低 Dollar Street 等文化多样性指标的表现。这个发现促使研究者们提出了一个简单但有效的策略:将低资源语言的采样比例提升到 1%。实验表明,这种重平衡策略虽然会轻微影响英语任务的性能,但能显著改善模型在低资源语言上的表现,最终实现了更平衡的性能分布。


在模型注意力可视化方面,研究发现数据规模的扩大确实帮助模型形成了更细致的理解。例如,在识别“Igorot Dance”(菲律宾伊戈洛特族传统舞蹈)的图像时,在 1,000 亿数据上训练的模型能够更准确地关注传统服饰的细节特征;在识别“Igloo”(因纽特人冰屋)时,模型也能更好地捕捉其独特的穹顶结构特征。


图丨在不同数据规模上训练的 ViT-L/16 模型的注意力图可视化(来源:arXiv


此外,研究还探索了大规模数据对迁移学习的影响。团队使用 PaLI-Gemma 模型评估了视觉特征的迁移效果,涵盖了图像描述、视觉问答、分割等多个下游任务。在这些任务上,模型性能并未随数据规模的增加而显著提升。这提示我们,提升迁移学习效果可能需要探索新的模型架构或训练策略。


值得一提的是,该研究还公布了详细的数据扩展策略和实验结果,这将有助于学术界更好地理解大规模数据对视觉语言模型的影响。不过遗憾的是,由于数据集体量巨大且涉及版权等问题,WebLI-100B 目前还未对外开放。


这项研究再次证明,Scaling Law 的潜力或许远未触及天花板。在很多难以发出声音、难以看到的地方,还有许多有价值的数据等待被挖掘。


参考资料:

1.https://arxiv.org/abs/2502.07617

2.https://x.com/XiaohuaZhai/status/1889775999648248024


运营/排版:何晨龙






01/ 科学家首创4D打印“液体变形金刚”,有望用于制造人形机器人的智能关节结构


02/ 绕开DeepSeek技术思路,马普所团队开源推理模型新路线


03/ 预防“流氓AI”迫在眉睫,科学家发现AI已跨越关键红线,拥有50%自我复制能力


04/ 兰大团队打造新型超分子结构,实现铅和碘的同时固定与再生,为钙钛矿光伏商业化提供新方向


05/ DeepSeek华丽文风从何而来?业内人士:训练数据、训练策略和迭代优化缺一不可


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

WebLI-100B 视觉语言模型 文化多样性 低资源语言 DeepMind
相关文章