PaperAgent 2024年09月07日
Open LLM集中爆发的一周,卷疯了!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本周开源大模型领域持续活跃,多个新模型发布,涵盖了Reflection(反思纠正)、Code、RAG、Agent等多个方向。其中,ReflectionLlama-3.1-70B以其强大的反思能力成为HuggingFace热门排行Top1。MiniCPM3.0则在长文本、FunctionCalling和RAG等方向展现出色性能,成为端侧最强模型。Yi-Coder系列模型专注于代码领域,提供高效的推理和灵活的训练。DeepSeek-V2.5版本整合了通用和编码能力,进一步优化写作和指令遵循。此外,首个完全开源的MoE大模型OLMoE也发布,在性能和开放程度方面取得了突破。

🤔 **ReflectionLlama-3.1-70B:反思微调技术,纠正推理错误** ReflectionLlama-3.1-70B是本周最引人注目的开源模型之一,它通过反思微调技术(Reflection-Tuning)训练,能够检测并纠正推理错误。该模型使用Glaive生成的合成数据进行训练,通过特定的代码和管道进行采样,模型会先在``标签内输出推理过程,然后使用``标签修正错误,最后在``标签内提供最终答案。这种设计使得模型能够区分内部思考和最终答案,提升用户体验。实验结果表明,ReflectionLlama-3.1-70B在多个方面超越了GPT-4o、Claude3.5Sonnet,更强405B版本预计下周推出。

🚀 **MiniCPM3.0:全面开挂的小钢炮,端侧最强** 面壁智能开源的MiniCPM3.0在多个方向展现出强大的能力,成为端侧最强模型。在长文本方向,MiniCPM3.0能够处理无限长文本,性能超越Kimi,即使超长文本也不崩。在FunctionCalling方向,MiniCPM3.0性能比肩GPT-4o,超越GLM-4-9B-Chat、Qwen2-7B-Instruct。在RAG方向,MiniCPM3.0提供强大的RAG外挂三件套,基于MiniCPM系列模型的MiniCPM-Embedding、MiniCPM-Reranker在中文、中英跨语言检索测试中取得SOTA表现。针对RAG场景的MiniCPM3-RAG-LoRA在开放域问答等多项任务上超越Llama3-8B、Baichuan2-13B等模型。

💻 **Yi-Coder系列模型:高效推理和灵活训练,专注代码领域** Yi-Coder系列模型提供两种规模——15亿和90亿参数——基础版和聊天版,旨在实现高效的推理和灵活的训练。Yi-Coder-9B在Yi-9B的基础上,额外增加了2.4万亿高质量的标记,这些标记来自GitHub上的代码库级别的代码语料库,以及从CommonCrawl筛选出的与代码相关的数据。Yi-Coder的关键特性包括:在52种主要编程语言上的2.4万亿高质量标记上继续预训练。长上下文建模:最大上下文窗口为128K标记,能够实现项目级别的代码理解和生成。小巧但强大:Yi-Coder-9B在性能上超越了其他参数少于100亿的模型,如CodeQwen1.57B和CodeGeex49B,甚至达到了与DeepSeek-Coder33B相当的性能水平。

🤖 **DeepSeek-V2.5:整合通用和编码能力,进一步优化** DeepSeek-V2.5是DeepSeek的升级版本,它结合了DeepSeek-V2-Chat和DeepSeek-Coder-V2-Instruct,整合了前两个版本的通用和编码能力。DeepSeek-V2.5更好地符合人类的偏好,并在多个方面进行了优化,包括写作和指令遵循。

💡 **OLMoE:首个完全开源的MoE大模型,性能和开放程度双突破** OLMoE-1B-7B是一个具有10亿活跃参数和70亿总参数的专家混合(Mixture-of-Experts)大型语言模型(LLM),它是首个完全开源的MoE大模型。OLMoE在成本相似(10亿)的模型中提供了最先进的性能,并且与像Llama2-13B这样的更大模型具有竞争力。OLMoE的开放性为MoE和密集型语言模型(LMs)的性能、成本和开放程度提供了新的可能性。

原创 PaperAgent 2024-09-07 15:01 湖北

Reflection Llama-3.1-70B、MiniCPM 3.0、Yi-Coder、OLMoE、DeepSeek-V2.5

开源大模型领域热闹非凡的一周,各种开源,PaperAgent进行了概括:端侧、Code、RAG、Agent、Reflection(反思纠正)、MoE,你关注的都在这里了

Reflection Llama-3.1-70B 开源

Reflection Llama-3.1 70B是世界上顶尖的Open LLM,通过反思微调技术(Reflection-Tuning)训练,能够检测并纠正推理错误,具有很高的热度,Hugging Face热门排行Top1。

Agent中需要LLM具有很强的推理规划能力,这种反思技术训练的模型是否很契合Agent尼?有待进一步验证

    该模型使用Glaive生成的合成数据进行训练,Glaive是一个强大的模型训练工具。

    模型可以通过特定的代码和管道进行采样,使用与标准Llama3.1相同的聊天模板格式。

    采样时,模型会先在<thinking>标签内输出推理过程,然后使用<reflection>标签修正错误,最后在<output>标签内提供最终答案。

    这种设计使得模型能够区分内部思考和最终答案,提升用户体验。

从实验对结果看,是击败GPT-4o、Claude 3.5 Sonnet,遥遥领先的,更强405B版本预计下周推出,非常期待

https://hf-mirror.com/mattshumer/Reflection-Llama-3.1-70B

面壁小钢炮MiniCPM 3.0开源

面壁智能开源新一代全面开挂的小钢炮,4B规模达到ChatGPT级能力:

https://github.com/OpenBMB/MiniCPMhttps://huggingface.co/openbmb/MiniCPM3-4B

零一万物Yi-Coder系列模型开源

Yi-Coder 有两种规模——15亿和90亿参数——提供基础版和聊天版,旨在实现高效的推理和灵活的训练。值得注意的是,Yi-Coder-9B 在 Yi-9B 的基础上,额外增加了2.4万亿高质量的标记,这些标记精心挑选自 GitHub 上的代码库级别的代码语料库,以及从 CommonCrawl 筛选出的与代码相关的数据。

Yi-Coder 的关键特性包括:

https://hf-mirror.com/01-ai/Yi-Coder-9B-Chathttps://hf-mirror.com/01-ai/Yi-Coder-1.5B-Chathttps://01-ai.github.io/blog.html?post=en/2024-09-05-A-Small-but-Mighty-LLM-for-Code.md

DeepSeek-V2.5版本发布

DeepSeek-V2.5 是一个升级版本,它结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。这个新模型整合了前两个版本的通用和编码能力。

DeepSeek-V2.5 更好地符合人类的偏好,并在多个方面进行了优化,包括写作和指令遵循:

https://hf-mirror.com/deepseek-ai/DeepSeek-V2.5

首个完全开源MoE大模型:OLMoE

OLMoE-1B-7B 是一个具有10亿活跃参数和70亿总参数的专家混合(Mixture-of-Experts)大型语言模型(LLM),于2024年9月(0924)发布。它在成本相似(10亿)的模型中提供了最先进的性能,并且与像 Llama2-13B 这样的更大模型具有竞争力。OLMoE 是100%开源的

开放 MoE 和密集型语言模型(LMs)的性能、成本和开放程度

checkpoints: https://huggingface.co/allenai/OLMoE-1B-7B-0924paper: https://arxiv.org/pdf/2409.02060code:https://github.com/allenai/OLMoEdata:https://huggingface.co/datasets/allenai/OLMoE-mix-0924logs:https://wandb.ai/ai2-llm/olmoe/reports/OLMoE-1B-7B-0924--Vmlldzo4OTcyMjU3

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

开源大模型 ReflectionLlama MiniCPM Yi-Coder DeepSeek OLMoE
相关文章