华尔街见闻 - 最热文章 前天 15:49
DeepSeek-R1 更新的官方说明来了:思考更深,推理更强
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek AI 发布了 DeepSeek R1 模型的最新版本 DeepSeek-R1-0528,该模型在思维深度和推理能力上实现了显著提升。新版本在数学、编程和通用逻辑等基准测试中表现出色,接近国际顶尖模型水平。此外,新模型在幻觉控制、创意写作和工具调用方面也进行了优化,并同步更新了 API。DeepSeek-R1-0528 仍然使用 DeepSeek V3 Base 模型作为基座,开源版本支持 128K 上下文。

🧠 **思维深度增强**:DeepSeek-R1-0528 采用了 DeepSeek V3 Base 模型作为基座,通过加强后训练过程,显著提升了模型的思维深度与推理能力,特别是在复杂推理任务中,例如在 AIME 2025 测试中,准确率由旧版的 70% 提升至 87.5%。

💡 **多方面能力提升**:新版模型在幻觉控制方面进行了优化,幻觉率降低了 45%~50%,保证了更准确的结果。同时,在议论文、小说、散文等文体的写作方面也得到了增强,能够输出更长、更完整的作品。

🛠️ **工具调用与 API 更新**:DeepSeek-R1-0528 支持工具调用,当前模型 Tau-Bench 测评成绩与 OpenAI o1-high 相当。API 也已同步更新,接口与调用方式保持不变,并增加了 Function Calling 和 JsonOutput 的支持。

DeepSeek R1 模型已完成小版本升级,当前版本为 DeepSeek-R1-0528。用户通过官方网站、APP 或小程序进入对话界面后,开启“深度思考”功能即可体验最新版本。API 也已同步更新,调用方式不变。

深度思考能力强化

DeepSeek-R1-0528 仍然使用 2024 年 12 月所发布的 DeepSeek V3 Base 模型作为基座,但在后训练过程中投入了更多算力,显著提升了模型的思维深度与推理能力。

更新后的 R1 模型在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。

相较于旧版 R1,新版模型在复杂推理任务中的表现有了显著提升。例如在 AIME 2025 测试中,新版模型准确率由旧版的 70% 提升至 87.5%。这一进步得益于模型在推理过程中的思维深度增强:在 AIME 2025 测试集上,旧版模型平均每题使用 12K tokens,而新版模型平均每题使用 23K tokens,表明其在解题过程中进行了更为详尽和深入的思考。

同时,我们蒸馏 DeepSeek-R1-0528 的思维链后训练 Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。该 8B 模型在数学测试 AIME 2024 中仅次于 DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),与 Qwen3-235B 相当。我们相信,DeepSeek-R1-0528 的思维链对于学术界推理模型的研究和工业界针对小模型的开发都将具有重要意义。

其他能力更新

示例为通过 LobeChat 使用 DeepSeek-R1-0528 的工具调用能力得到的网页文章总结

此外,DeepSeek-R1-0528 在前端代码生成、角色扮演等领域的能力均有更新和提升。

示例为在网页端调用 DeepSeek-R1-0528 使用 HTML/CSS/JavaScript 开发的一个现代简约风格的单词卡片应用

API 更新

API 已同步更新,接口与调用方式保持不变。新版 R1 API 仍支持查看模型思考过程,同时还增加了 Function Calling 和 JsonOutput 的支持。

我们对新版 R1 API 中 max_tokens 参数的含义做了调整:现在 max_tokens用于限制模型单次输出的总长度(包括思考过程),默认为 32K,最大为 64K。请 API 用户及时调整 max_tokens 参数以防输出被提前截断。

R1 模型的使用方法详见 API 指南:

 https://api-docs.deepseek.com/zh-cn/guides/reasoning_model

本次 R1 更新后,官方网站、小程序、App 端和 API 中的模型上下文长度仍为 64K。如果用户对更长的上下文长度有需求,可以通过其他第三方平台调用上下文长度为 128K 的开源版本 R1-0528 模型。

模型开源

DeepSeek-R1-0528 与之前的 DeepSeek-R1 使用同样的 base 模型,仅改进了后训练方法。私有化部署时只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相关变动)。模型参数为 685B(其中 14B 为 MTP 层),开源版本上下文长度为 128K(网页端、App 和 API 提供 64K 上下文)。

DeepSeek-R1-0528 模型权重下载请参考: 

Model Scope: 

https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-0528

Huggingface: 

https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

与旧版本的 DeepSeek-R1 保持一致,此次我们的开源仓库(包括模型权重)仍然统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。

本文来源:DeepSeek,原文标题:《DeepSeek-R1 更新,思考更深,推理更强》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek R1 模型 AI 模型 推理能力
相关文章