IT之家 2024年07月24日
英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达公司正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务,为客户提供定制化超级模型构建及部署解决方案,助力企业加速AI应用发展。

🚀 NVIDIA AI Foundry代工服务允许客户使用Llama 3.1 AI模型和英伟达的技术资源,针对特定领域定制超级模型,支持利用专有数据和合成数据进行训练,并由NVIDIA DGX Cloud AI平台提供强大的计算资源。

🔧 NVIDIA AI Foundry整合了Nemotron、Edify等英伟达AI模型和开放式基础模型,以及NVIDIA NeMo软件,为客户提供从模型构建到部署的一站式服务。

🌐 NVIDIA NIM推理微服务为企业提供了一套加速推理解决方案,支持在多种设备上运行AI模型,通过标准API和Kubernetes生态系统,简化了人工智能模型的部署和管理工作。

IT之家 7 月 24 日消息,英伟达公司昨日(7 月 23 日)发布新闻稿,正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务。

“NVIDIA AI Foundry”代工服务

英伟达表示客户可以使用 Meta 的 Llama 3.1 AI 模型,以及英伟达的软件、计算和专业知识,为特定领域定制构建“超级模型”。

客户可以利用专有数据、由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的合成数据来训练这些“超级模型”。

NVIDIA AI Foundry 由 NVIDIA DGX™ Cloud AI 平台提供支持,该平台与世界领先的公共云共同设计,为企业提供大量计算资源,并可根据 AI 需求的变化轻松扩展。

NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英伟达创建的 AI 模型、流行的开放式基础模型、用于定制模型的 NVIDIA NeMo™ 软件,以及 NVIDIA DGX™ Cloud 上的专用容量(由 NVIDIA AI 专家构建并提供支持)。

输出结果由 NVIDIA NIM(一个推理微服务,其中包括定制模型、优化引擎和标准 API)负责,可以部署到任何地方。

NVIDIA NIM 推理微服务

IT之家注:NVIDIA NIM 是一套加速推理微服务,允许企业在云计算、数据中心、工作站和 PC 等任何地方的 NVIDIA GPU 上运行 AI 模型。

通过使用行业标准的 API,开发人员只需几行代码就能利用 NIM 部署人工智能模型。NIM 容器无缝集成 Kubernetes(K8s)生态系统,可以高效地协调和管理容器化人工智能应用。

参考

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 AI代工服务 NVIDIA NIM 超级模型 云计算
相关文章