最新-新浪科技科学探索 02月07日
只需这4步 华为ModelEngine支持DeepSeek全系列本地部署
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为ModelEngine是AI平台,提供一站式服务,全面支持多种模型,可实现一键部署,降低企业AI应用门槛,缩短本地部署时间。

🎯华为ModelEngine提供从数据预处理到模型部署的一站式服务

💪全面支持DeepSeek系列模型及蒸馏系列模型,实现一键部署

🚀通过高度开放性和模块化设计,极大缩短DeepSeek本地部署时间

快科技2月6日消息,华为ModelEngine是大模型训练、推理和应用开发的AI平台,提供从数据预处理到模型训练、优化及部署的一站式服务。

华为官方表示,ModelEngine现已全面支持DeepSeek系列模型R1&V3 671B以及蒸馏系列模型,开发者可通过ModelEngine实现“一键部署”。

此举省去硬件选型、兼容性验证和环境配置等繁琐步骤,大幅降低企业AI应用门槛。

此外华为还表示,ModelEngine通过其高度的开放性和模块化设计,极大地缩短了DeepSeek的本地部署时间。

下面以DeepSeek-R1为例,基于ModelEngine 3步快速完成部署模型

1、登录ModelEngine模型管理页面,上传DeepSeek-R1 FP8权重,然后进行模型权重格式转换,将FP8精度模型权重转换为BF16精度模型权重;

2、在模型服务页面,选择BF16精度的模型权重版本,下发推理服务,启动任务部署;

3、ModelEngine使用MindIE推理框架启动DeepSeek-R1推理服务后,支持OpenAI API 调用风格的推理服务接口和访问方式;

4、ModelEngine 启动 DeepSeek-R1 推理服务后,平台支持 OpenAI API 调用风格的推理服务接口和访问方式,用户可以将该 API 集成到对话、RAG 以及 Agent 应用。

到这里,基于ModelEngine私有化本地部署的DeepSeek-R1完整版推理服务API已经就绪了。

用户可以将推理服务API集成到对话应用、RAG或者Agent应用中,在保证数据安全的前提下,让DeepSeek-R1媲美世界头部顶流闭源大模型服务智能的能力。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:随心

文章内容举报

]article_adlist-->

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为ModelEngine AI平台 一键部署 缩短部署时间
相关文章