Cnbeta 01月31日
NVIDIA:DeepSeek R1是最先进推理开放模型 NIM微服务预览版已发布
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达官方公告的DeepSeek-R1是开放模型,具有先进推理能力。它通过多次推理生成最佳答案,证明加速计算对AI推理的重要性。该模型在多任务中提供领先准确性和高推理效率,且已作为微服务预览版提供,支持多种操作。

🌐DeepSeek-R1是具有先进推理能力的开放模型,对查询多次推理生成答案。

💡证明加速计算对代理AI推理至关重要,模型质量会因反复思考而提高。

🎯在多任务中提供领先准确性和高推理效率,作为微服务预览版已上线。

🛠️开发人员可通过API进行测试试验,企业可运行微服务提高安全性和隐私。

1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。

执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。

由于模型可以反复思考问题,因此它们会创建更多输出标记和更长的生成周期,因此模型质量会不断提高。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。

R1 在需要逻辑推理、推理、数学、编码和语言理解的任务中提供了领先的准确性,同时还提供了高推理效率。

为了帮助开发人员安全地试验这些功能并构建自己的专用代理,6710 亿参数的 DeepSeek-R1 模型现已作为 NVIDIA NIM 微服务预览版在build.nvidia.com上提供。

DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3872 个词元。

开发人员可以使用应用程序编程接口 (API) 进行测试和试验,该接口预计很快将作为可下载的 NIM 微服务提供,是NVIDIA AI Enterprise软件平台的一部分。

DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。通过使用NVIDIA AI Foundry和NVIDIA NeMo软件,企业还可以为专门的 AI 代理创建定制的 DeepSeek-R1 NIM 微服务。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R1 英伟达 推理模型 加速计算 微服务
相关文章