IT之家 01月31日
英伟达:DeepSeek-R1 模型现已上线 NIM 微服务平台
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达发布DeepSeek-R1模型NIM微服务预览版,该微服务可在单个NVIDIA HGX H200系统上实现每秒3,872 tokens的高速处理。开发者可通过API进行测试,该API预计将作为NVIDIA AI Enterprise软件平台的一部分提供下载。DeepSeek-R1 NIM微服务支持行业标准API,简化了部署流程,企业可在首选的加速计算基础设施上运行,保障安全性和数据隐私。结合NVIDIA AI Foundry和NVIDIA NeMo软件,企业还能为AI代理定制专属的DeepSeek-R1 NIM微服务。英伟达推出的NIM云原生微服务旨在简化生成式AI模型的部署,加速上市时间。

🚀DeepSeek-R1模型NIM微服务在NVIDIA HGX H200系统上实现高速处理,每秒可达3,872 tokens。

🛠️该微服务提供API接口供开发者测试,并计划作为NVIDIA AI Enterprise软件平台的一部分提供下载,方便企业部署。

🔒DeepSeek-R1 NIM微服务支持行业标准API,简化部署流程,并允许企业在其加速计算基础设施上运行,保证数据安全和隐私。

⚙️结合NVIDIA AI Foundry和NVIDIA NeMo软件,企业可以为特定AI代理创建定制化的DeepSeek-R1 NIM微服务。

☁️NIM云原生微服务旨在简化生成式AI模型的部署,缩短上市时间,并支持在云、数据中心和GPU加速工作站等多种环境部署。

IT之家 1 月 31 日消息,英伟达今日宣布,DeepSeek-R1 模型现已在 build.nvidia.com 上作为 NVIDIA NIM 微服务预览版提供。DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3,872 tokens。

据介绍,开发人员可以测试和试验应用程序编程接口(API),该接口预计将很快作为可下载的 NIM 微服务提供,这是 NVIDIA AI Enterprise 软件平台的一部分。

DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。将 NVIDIA AI Foundry 与 NVIDIA NeMo 软件结合使用,企业还将能够为专用 AI 代理创建自定义的 DeepSeek-R1 NIM 微服务。

IT之家注意到,为方便各种规模的企业部署 AI 服务,英伟达于 2024 年 3 月推出了 NIM(Nvidia Inference Microservices)云原生微服务。

NIM 是一套经过优化的云原生微服务,旨在缩短上市时间,并简化生成式 AI 模型在云、数据中心和 GPU 加速工作站的任何位置的部署。它使用行业标准 API,抽象化 AI 模型开发和生产包装的复杂性,从而扩展开发者池。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R1 NIM微服务 英伟达 AI模型 生成式AI
相关文章