最近,我们构建了一个由阿里巴巴最新的Qwen 3 提供支持的智能体RAG 应用程序,并演示了如何部署和开发智能体作家。
目录
1.部署QWEN智能体工具技术栈
2.分步实施部署QWEN3智能体RAG
3.设置 智能体框架和LLM
4.定义研究智能体和任务
5.定义 作家智能体和 任务
6.设置 CREW
7.编排解码请求工作流
8.预测
9.对响应进行编码
1. 部署Qwen智能体工具技术栈
l 用于智能体编排的CrewAI。l 用于Web 搜索的Firecrawl。l LightningAI 的LitServe 进行部署。该图显示了我们的Agentic RAG 流程: |
---|
l检索智能体接受用户查询。
l它调用相关工具(Firecrawl Web 搜索或vector DB 工具)来获取上下文并生成见解。
lWriter 智能体生成响应。
2. 分步实施部署Qwen3智能体RAG
这是为我们的Agentic RAG 提供服务的完整代码。
lsetup 方法编排Agent。
ldecode_request 方法准备输入。
lpredict 方法调用Crew。
lencode_response 方法将响应发回。
让我们在下面逐步了解它。
3. 设置智能体框架和LLM
CrewAI与所有流行的LLM 和提供商无缝集成。
以下是我们通过Ollama 设置本地Qwen 3 的方法。
4.定义研究智能体和任务
此智能体接受用户查询,并使用vector DB 工具和由Firecrawl 提供支持的Web 搜索工具检索相关上下文。
同样,将以下内容放入LitServe setup() 方法中:
5. 定义写作智能体和任务
接下来,写作智能体接受来自Researcher 智能体的见解以生成响应。同样,我们在LitServe 设置方法中添加以下内容:
6. 设置智能体开发框架Crew
定义智能体及其任务后,使用CrewAI 将它们编排到一个团队中,并将其放入设置方法中。
7. 编排解码请求工作流
编排了Agentic RAG 工作流,该工作流将在传入请求时执行。
接下来从传入请求正文中提取用户查询。检查下面突出显示的代码:
8. 预测
使用解码后的用户查询并将其传递给之前定义的Crew,以从模型生成响应。
检查下面突出显示的代码:
9.对响应进行编码
可以对响应进行后处理并将其发送回给客户。
注意:LitServe 在内部按顺序调用这些方法:decode_request→ predict** → encode_request。
检查下面突出显示的代码:
这样完成了服务器代码。
接下来,有基本的客户端代码来调用我们使用requests Python 库创建的API:
Done!,已经使用LitServe 部署了完全私有的Qwen 3 Agentic RAG。