Z Potentials 04月09日 19:24
速递|DeepSeek联手清华新模型GRM开源,算力降低性能反升
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Meta 发布 Llama 4 模型,采用混合专家 (MoE) 架构,对标 DeepSeek 的技术路线。DeepSeek 与清华大学合作,致力于降低 AI 模型训练成本,并通过“自我原则批判调优”提升模型效率。DeepSeek 的新模型 DeepSeek-GRM 将以开源形式发布,在多项基准测试中表现优异。文章还提及阿里巴巴和 OpenAI 在 AI 模型推理与自我优化方面的努力。此次 Meta 的举措预示着 AI 领域的竞争愈发激烈,模型效率和性能成为关键。

💡 Meta 发布 Llama 4,采用混合专家 (MoE) 架构,直接对标 DeepSeek,反映了 AI 领域的技术竞争态势。

🔬 DeepSeek 与清华大学合作,专注于减少 AI 模型训练量,以降低运营成本,并开发自我进化的 AI 模型。

🚀 DeepSeek 团队提出“自我原则批判调优”方法,通过奖励更准确的回答来提升模型性能,并在多项基准测试中超越现有方法。

🎁 DeepSeek 将发布 DeepSeek-GRM 模型,该模型在资源利用方面表现出色,并以开源形式提供。

🌍 阿里巴巴和 OpenAI 等其他 AI 开发者也在探索提升 AI 模型推理与自我优化能力的新方法,推动行业发展。

bloomberg 2025-04-08 20:30 北京

Meta发布Llama4-MoE直接对标DeepSeek技术路线

图片来源:DeepSeek

DeepSeek 正与清华大学合作,致力于减少其 AI 模型所需的训练量,以降低运营成本,开发自我进化的 AI 模型。

DeepSeek 曾以一月份推出的低成本推理模型震动市场,现与高校研究人员联合发表论文,详述了一种提升模型效率的强化学习新路径。研究人员写道,这种新方法旨在通过为更准确且易于理解的回答提供奖励,帮助人工智能模型更好地遵循人类偏好。

强化学习在加速特定应用和领域内的 AI 任务方面已被证明有效,但将其扩展到更通用的场景一直充满挑战——这正是 DeepSeek 团队试图通过其所谓的"自我原则批判调优"来解决的问题。

论文指出,该策略在多项基准测试中超越了现有方法和模型,结果显示能以更少的计算资源实现更优性能。

DeepSeek公司表示,将这些新模型命名为 DeepSeek-GRM(通用奖励建模的缩写),并将以开源形式发布。

包括中国科技巨头阿里巴巴集团和美国旧金山的 OpenAI 在内的其他 AI 开发者,也正在开拓新领域,致力于提升 AI 模型实时执行任务时的推理与自我优化能力。

Meta 于上周末发布了其最新 AI 模型系列 Llama 4,并宣称这是其首个采用混合专家(MoE)架构的模型。深度求索(DeepSeek)的模型高度依赖 MoE 技术以实现资源的高效利用。

Meta 在发布新品时对标了这家杭州初创企业。DeepSeek 尚未透露其下一代旗舰模型的发布时间。

论文链接:https://arxiv.org/abs/2501.12948


参考资料

本文翻译自:https://www.bloomberg.com/news/articles/2025-04-07/deepseek-and-tsinghua-developing-self-improving-ai-models?srnd=phx-technology

编译:ChatGPT


-----------END-----------
🚀 我们正在招募新一期的实习生
🚀 我们正在寻找有创造力的00后创业者
关于Z Potentials

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Meta Llama 4 DeepSeek MoE AI 模型
相关文章