PaperAgent 2024年09月26日
Llama 3.2 90B刚开源就被Molmo-72B全面击败!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Meta发布Llama 3.2,具有视觉模型等新特性,而allenai的Molmo在视觉评测上表现出色,本文对两者进行比较

🎯allenai的Molmo采用Apache 2.0许可,将发布数据并创建自定义ELO评估,架构更简单,可能与Flash Attention兼容。它有多个变体,在基准测试中胜过多种模型,且能理解用户界面并指向所见内容,还使用高质量训练数据并经过广泛评估验证性能和用户偏好。

👀Meta的Llama 3.2是为边缘设备设计的轻量级模型,其视觉模型性能可与领先封闭模型媲美,11B和90B模型需支持图像推理的新架构。训练流程包括多个阶段,还使用多种方法生成高质量微调数据并添加安全缓解数据,以得到能同时处理图像和文本提示的模型。

💪Llama 3.2的1B和3B轻量级模型使用修剪和提炼方法,使其能高效适应设备。修剪缩小模型大小并尽量恢复知识和性能,知识蒸馏则让小模型利用大模型获得更好性能,修剪后用知识蒸馏恢复性能。

2024-09-26 20:37 湖北

Meta此次发布的Llama 3.2一个新特性是视觉模型,包括11B和90B,作为首批支持视觉任务的Llama模型,但是allenai开源的多模态Molmo-72B,在视觉评测上全面击败Llama 3.2 90B

两个新发布的开源LLM之间的基准测试比较:Molmo与Llama 3.2可以看出,Molmo在各个方面都相当出色!

allenai的Molmo发布详情

Molmo,采用 Apache 2.0 许可,并将发布他们的数据,创建了自定义的 ELO 评估,并且其架构比 Llama 3.2 更简单,可能与 Flash Attention 兼容。

Blog:https://molmo.allenai.org/blogPaper:https://molmo.allenai.org/paper.pdfDemo:https://molmo.allenai.orgHF:https://huggingface.co/collections/allenai/molmo-66f379e6fe3b8ef090a8ca19

Meta Llama3.2发布详情

?Llama 3.2:为边缘设备设计的轻量级模型,视觉模型等等!新特性有哪些?

视觉模型

作为首批支持视觉任务的Llama模型,11B和90B模型需要支持图像推理的全新模型架构。

训练流程由多个阶段组成:

在后期训练中:

最终结果是一组可以同时接收图像和文本提示并深入理解和推理两者组合的模型。

轻量级模型

在 1B 和 3B 模型上使用了两种方法(修剪和提炼),使其成为首批能够高效适应设备的高性能轻量级 Llama 模型。

Blog: https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/HF: https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Meta Llama 3.2 allenai Molmo 视觉模型 模型性能
相关文章