01月06日
如何快速部署和体验内置开源LLM大模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了如何使用腾讯云TI-ONE平台一键部署开源大模型,以便快速测试模型推理效果,帮助用户选择适合业务场景的模型。通过TI-ONE平台,用户可以预览内置大模型清单,选择所需模型一键部署,并提供API调用和在线体验两种方式进行模型测试。文章以部署Llama3系列模型为例,详细讲解了服务参数配置和模型启动流程。此外,还介绍了如何管理模型服务,查看详细信息,以及腾讯云TI-ONE平台作为一站式机器学习平台的功能。

🖥️ **一键部署开源大模型:** 在腾讯云TI-ONE平台,用户可以快速部署预置的开源大模型,如Llama3系列,无需复杂配置,简化了部署流程。

⚙️ **灵活的参数配置:** 在部署过程中,用户可以自定义服务名称,选择按量计费或包年包月模式,并根据需求选择不同的算力规格,例如A10、V100、A100等机型。

🧪 **多样的模型测试方式:** 平台提供API调用和在线体验两种方式,方便用户测试模型效果。API调用需参考服务ID配置,在线体验则可通过前端页面进行问答测试。

📊 **全面的服务管理:** 用户可以通过服务管理页面控制服务状态,查看监控日志,以及详细的服务信息,包括基本信息、实例列表、监控、事件、日志和更新记录等。

2024-12-27 18:06 北京

LLM大模型调试指南。

LLM大模型调试指南。

本篇文章将为您介绍如何通过腾讯云TI-ONE平台,一键部署开源大模型,快速试一试模型推理效果,助力用户快速选型适合您业务场景的开源大模型。


01.

预览TI内置大模型清单


登录腾讯云TI平台 ,在大模型精调首页,您可看到 TI 平台内置上架的开源大模型清单列表。

单击模型卡片,可进入每个模型页面查看详细介绍。


02.

一键部署开源大模型


在模型详情页面,您可单击新建在线服务按钮,启动部署该大模型。本文档以部署“Llama3系列模型”中的llama_3_8b_chat模型为例。

单击后,平台会自动为您跳转到模型服务 > 在线服务的创建服务参数配置页面。

本页面重点参数配置如下:(其余参数都可使用默认值,不修改或按需修改)


03.

在线体验模型效果


创建服务后,前端自动返回模型服务 > 在线服务列表页面,待大模型服务状态为“运行中”中后,表示服务已成功启动运行。

服务调用分为两种方式:

1. API 调用

您可以通过单击操作 > 调用API 按钮进入模型调用指导文档页面。文档中建议您通过API Explorer 配置调用代码。

其中,需填写到 API Explorer 的“Model”参数取值需参考在线服务>名称>服务管理页面展示的“ ID”参数。

2. 在线体验

您可以通过单击操作 > 在线体验 按钮进入模型快速体验页面。您可通过前端页面问答形式测试精调后的模型效果。


04.

管理模型服务,查看更多详细信息


您还能通过模型服务 > 在线服务列表页面单击对应服务名称进入详细的服务管理页面。

您可通过服务管理页面的操作 > 停止/重启按钮控制服务状态,并通过单击“服务详情”的 icon 查看监控/日志;

也可以继续单击服务名称查看更详细的基本信息/实例列表/监控/事件/日志/更新记录等信息。

关于腾讯云TI-ONE平台

腾讯云TI-ONE 训练平台是为 AI 工程师打造的一站式机器学习平台,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持。TI-ONE平台支持多种训练方式和算法框架,满足不同 AI 应用场景的需求。


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

腾讯云TI-ONE 大模型 模型部署 Llama3 机器学习平台
相关文章