IT之家 02月04日
DeepSeek 登陆阿里云,支持云上一键部署 V3、R1 模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

阿里云PAI Model Gallery宣布支持一键部署DeepSeek-V3和DeepSeek-R1模型,用户可通过PAI控制台快速部署。DeepSeek-R1支持vLLM加速部署,DeepSeek-V3支持vLLM加速和Web应用部署,而DeepSeek-R1蒸馏小模型则支持BladeLLM和vLLM加速。部署过程简单,选择模型和资源后即可一键生成PAI-EAS服务。此外,阿里云还提供DeepSeek-R1和DeepSeek-V3原始模型的一键部署。此前,Gitee AI联合沐曦首发DeepSeek R1千问蒸馏模型,秘塔AI也接入了满血版DeepSeek R1推理模型,腾讯云也上线DeepSeek-R1大模型,均支持快速部署。

🚀 阿里云PAI Model Gallery支持DeepSeek-V3和DeepSeek-R1模型的一键部署,简化了模型部署流程,降低了使用门槛。

⚙️ DeepSeek-R1模型支持vLLM加速部署,DeepSeek-V3模型支持vLLM加速和Web应用部署,DeepSeek-R1蒸馏小模型支持BladeLLM和vLLM加速,满足不同场景需求。

⚡️ 部署过程便捷,用户在PAI控制台选择模型和资源后,即可一键生成PAI-EAS服务,并获取调用信息,实现快速部署和调用。

💡 除了阿里云,Gitee AI、秘塔AI和腾讯云也相继接入或发布DeepSeek R1模型,表明DeepSeek模型正在被广泛采用和推广。

IT之家 2 月 4 日消息,阿里云计算有限公司昨日发文官宣,阿里云 PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1。

IT之家附步骤如下:

第一步:进入 Model Gallery 页面

点击链接:https://pai.console.aliyun.com/#/quick-start/ models 登陆 PAI 控制台,在顶部左上角根据实际情况选择地域。并在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。最后在左侧导航栏选择快速开始 > Model Gallery。

第二步:进入 DeepSeek 模型详情页

在 Model Gallery 页面的模型列表中,单击找到并点击需要部署的模型卡片,例如“DeepSeek-R1-Distill-Qwen-7B”模型,进入模型详情页面。

第三步:一键部署 DeepSeek 模型生成服务

单击右上角部署:目前 DeepSeek-R1 支持采用 vLLM 加速部署;DeepSeek-V3 支持 vLLM 加速部署以及 Web 应用部署;DeepSeek-R1 蒸馏小模型支持采用 BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署。选择部署方式和部署资源后,即可一键部署服务,生成一个 PAI-EAS 服务。

部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

需要注意的是,阿里云官方教程部署的模型为蒸馏过后的 DeepSeek-R1-Distill-Qwen-7B。基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到了较小的 Qwen 模型上。同时,阿里云 PAI Model Gallery 也提供 DeepSeek-R1、DeepSeek-V3 原始模型的一键部署。

据IT之家此前报道,Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,支持全免费体验。秘塔 AI 秘塔 AI 已官宣接入满血版 DeepSeek R1 推理模型。另外,DeepSeek-R1 大模型登陆腾讯云,宣称“一键部署、3 分钟调用”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

阿里云PAI DeepSeek模型 一键部署 vLLM加速 BladeLLM
相关文章