英伟达发布DeepSeek-R1模型NIM微服务预览版,该微服务可在单个NVIDIA HGX H200系统上实现每秒3,872 tokens的高速处理。开发者可通过API进行测试,该API预计将作为NVIDIA AI Enterprise软件平台的一部分提供下载。DeepSeek-R1 NIM微服务支持行业标准API,简化了部署流程,企业可在首选的加速计算基础设施上运行,保障安全性和数据隐私。结合NVIDIA AI Foundry和NVIDIA NeMo软件,企业还能为AI代理定制专属的DeepSeek-R1 NIM微服务。英伟达推出的NIM云原生微服务旨在简化生成式AI模型的部署,加速上市时间。
🚀DeepSeek-R1模型NIM微服务在NVIDIA HGX H200系统上实现高速处理,每秒可达3,872 tokens。
🛠️该微服务提供API接口供开发者测试,并计划作为NVIDIA AI Enterprise软件平台的一部分提供下载,方便企业部署。
🔒DeepSeek-R1 NIM微服务支持行业标准API,简化部署流程,并允许企业在其加速计算基础设施上运行,保证数据安全和隐私。
⚙️结合NVIDIA AI Foundry和NVIDIA NeMo软件,企业可以为特定AI代理创建定制化的DeepSeek-R1 NIM微服务。
☁️NIM云原生微服务旨在简化生成式AI模型的部署,缩短上市时间,并支持在云、数据中心和GPU加速工作站等多种环境部署。
IT之家 1 月 31 日消息,英伟达今日宣布,DeepSeek-R1 模型现已在 build.nvidia.com 上作为 NVIDIA NIM 微服务预览版提供。DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3,872 tokens。

据介绍,开发人员可以测试和试验应用程序编程接口(API),该接口预计将很快作为可下载的 NIM 微服务提供,这是 NVIDIA AI Enterprise 软件平台的一部分。
DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。将 NVIDIA AI Foundry 与 NVIDIA NeMo 软件结合使用,企业还将能够为专用 AI 代理创建自定义的 DeepSeek-R1 NIM 微服务。
IT之家注意到,为方便各种规模的企业部署 AI 服务,英伟达于 2024 年 3 月推出了 NIM(Nvidia Inference Microservices)云原生微服务。
NIM 是一套经过优化的云原生微服务,旨在缩短上市时间,并简化生成式 AI 模型在云、数据中心和 GPU 加速工作站的任何位置的部署。它使用行业标准 API,抽象化 AI 模型开发和生产包装的复杂性,从而扩展开发者池。