掘金 人工智能 前天 10:31
Coze智能体本地部署保姆级教程
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Coze(扣子),一个国内领先的智能体搭建平台,现已正式开源。本文将详细指导用户如何在本地完成Coze的部署。文章首先阐述了当前AI发展下,工作流构建对于实现智能体能力的重要性,并指出Coze开源的时代意义。随后,教程分步骤介绍了本地部署的准备工作,包括Docker环境的搭建、项目代码的克隆,以及核心的模型配置过程,重点以火山方舟模型为例,详细解释了API Key和Endpoint ID的获取与填写。最后,指导用户完成Docker Compose的部署启动,并提供了Windows环境下常见的报错解决方案,鼓励用户基于开源版本进行二次开发,并指出本地部署对于新手学习的优势。

🚀 Coze(扣子)开源为智能体开发提供新机遇:作为国内领先的智能体搭建平台,Coze的开源标志着AI发展的一个重要里程碑。作者认为,即使当前智能体能力实现依赖于人工构建工作流,Coze的开源也为开发者提供了极大的灵活性和创造空间,特别是对于那些希望深入理解和定制AI工作流的用户而言。

🐳 本地部署Coze的详细步骤与环境要求:教程以Windows系统为例,清晰地列出了本地部署Coze所需的步骤。首先需要安装Docker,这是运行Coze容器化应用的基础。然后,通过Git克隆或下载ZIP包获取项目代码,为后续配置和部署做准备。

⚙️ 核心模型配置是关键:在部署Coze Studio开源版之前,必须配置好大语言模型服务。文章以火山方舟模型为例,详细展示了如何复制模板配置文件,并根据火山方舟的API Key和Endpoint ID进行填写。这部分内容对于确保Coze能够正常调用模型进行智能体交互至关重要。

💡 解决Windows部署常见报错与开源版本的价值:教程预见了Windows用户在部署过程中可能遇到的“elasticsearch-setup”报错,并提供了具体的解决方案,即修改Shell脚本的换行符(CRLF为LF)。同时,作者也指出了开源版本虽然有所“阉割”,但为有能力的用户提供了二次开发的广阔空间,并强调了本地部署对于新手练手的价值,尤其是在官方积分有限的情况下。

前言

大家好,我是李想。

相信玩AI的都知道智能体这玩意吧,Coze(扣子)基本是国内最大的智能体搭建平台了,但我最近刷自媒体总会听到有博主说Coze和智能体就不搭边,纯粹就是人为搭建起来的工作流。

但在我看来,目前AI的发展想要实现智能体的能力,只有通过人为去构建工作流,只要能把目的达到,管他是智能体还是工作流对吧?

有可能以后AI agent可以自己去搭建工作流,但至少目前为止还需要人为去搭建。

所以这才有了扣子、N8N、Dify等工作流平台大力发展的机会。

而现在,Coze智能体开源了!

项目遵循Apache2.0开源协议,要是不了解我们协议什么意思可以问问DeepSeek

今天,李想就手把手带你们本地部署Coze!

1.环境要求

项目要求运行在Docker里,简单来说:Docker 是一个开源平台,用于 自动化部署、运行和管理应用程序 ,它将应用程序及其所有依赖项打包在一个独立的、可移植的容器中。

网址:docs.docker.com/desktop/set…

博主的操作系统是Windows,全文就以Windows为例,

来到网址后点击红框下载doker,然后安装到电脑上就ok了。

2.克隆项目

网址:github.com/coze-dev/co…

来到项目地址。

如果你有git,可以通过git命令把项目复制到本地,如果没有

你可以通过下载 ZIP压缩包,然后解压到本地,不管是通过git还是下载压缩包,都可以得到如图的文件。

3.配置模型

Coze Studio 是基于大语言模型的 AI 应用开发平台,首次部署并启动 Coze Studio 开源版之前,我我们需要先在 Coze Studio 项目里配置模型服务,否则创建智能体或者工作流时,无法正常选择模型。 本文档以火山方舟模型为例,演示如何为 Coze Studio 配置模型服务。如果你准备使用 OpenAI 等其他在线模型服务,应参考模型配置文档正确填写配置文件。

说得简单一点我们就是需要先配置一下大模型,不然没法工作。

3.1复制大模型配置文件

\coze-studio\backend\conf\model\template,

我们来到这个目录,可以看到coze帮我们内置了很多大模型的模板配置,像豆包、deepseek、chatgpt等等都可以,为了演示,我们这里选择doubao1.6模型。

复制红框文件,然后粘贴到上级目录

利用编辑器打开这个文件,如果你没有代码编辑器,你可以用记事本打开这个文件。

设置 idmeta.conn_config.api_keymeta.conn_config.model 字段,并保存文件

id:Coze Studio 中的模型 ID,由开发者自行定义,必须是非 0 的整数,且全局唯一。

api_key:在线模型服务的 API Key,在本示例中为火山方舟的 API Key。

model:在线模型服务的 model ID,在本示例中为火山方舟 doubao-seed-1.6 模型接入点的 Endpoint ID。

3.2api_key获取方法:

地址:console.volcengine.com/auth/login

首先我们需要登录火山平台

登录后点击右上角控制台

然后点击左边方框进入火山方舟

进入后点击API key 管理

然后创建 APIkey

得到API key后复制粘贴到刚才文件api的位置。

3.3Endpoint ID获取方法:

也是在火山方舟这,点击在线推理、自定义推理接入点、创建推理接入点

然后填上相关信息,

在选模型的时候需要实名认证,按照指引认证就行了,模型就选择第一个就好。

最后点击开通模型并接入。

再回到我们这个页面,

红框里就是我们的Endpoint ID了,复制后粘贴到model ID这里就行了!

4.部署启动

4.1创建环境文件

我们来到如图这个目录,\coze-studio\docker,先右键复制.env.example

然后粘贴

把文件重命名为.env

要注意是.env

点击是,文件就创建好了

4.2部署启动

在当前文件输入cmd启动命令台

在命令台输入:docker compose --profile "*" up -d

这里记得一定要把我们刚下载的docker打开

实测你把魔法打开,部署下载要顺利一点。

第一次部署需要等待一段时间下载完毕后启动服务后,通过浏览器访问 http://localhost:8888/ 即可打开 Coze Studio。

4.3报错解决

博主的系统是Windows,在启动过程中发现了错误,出现service "elasticsearch-setup" didn't complete successfully: exit 127

通过Deepseek排查,发现是windows特有的问题

解决办法:来到这个目录,coze-studio\docker\volumes\elasticsearch,用vscode(我用的Curosr)打开红框中setup_es.sh文档。

打开后看到右下角,显示的是CRLF,换成LF就解决了!

在实际的使用中发现目前的开源版本阉割了许多东西,但是不管怎么样,如果你有能力,就可以在这个版本上开发你想要东西,才开源,我相信有很多的技术大神能把coze玩出花来!

并且目前Coze一天才500积分,根本就不够玩,本地的Coez很适合新手去用来练手了!

看到这里就给博主点个赞吧,你的点赞支持我是创作的动力

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Coze 智能体 AI 开源 本地部署
相关文章