掘金 人工智能 前天 12:03
将你的Dify应用转为MCP服务器
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了如何利用Dify的MCP服务器插件,将Dify应用程序转变为兼容MCP(Model Collaboration Protocol)的服务,从而实现与其他系统的互联互通。通过该插件,用户可以将Dify应用暴露为MCP工具,供Cursor、Claude Desktop等MCP客户端调用。文章详细阐述了安装插件、配置端点、获取URL以及在Cursor中使用的步骤,并探讨了MCP服务器在AI应用中的广泛应用,如嵌入内部工作流、提高编码效率等。文章还预告了Dify未来将提供原生MCP支持,进一步简化操作。

🔌 Dify通过MCP服务器插件,可以将Dify应用程序转换为MCP兼容的服务,供外部MCP客户端调用,实现更广泛的集成和应用。

🛠️ 安装mcp-server插件后,用户需要选择Dify应用程序并配置MCP服务器端点,包括命名、选择应用程序类型、定义输入参数(JSON格式),以便外部系统了解如何与应用程序交互。

🔗 配置完成后,插件会生成一个唯一的Endpoint URL,支持HTTP和SSE协议,MCP客户端通过该URL连接和交互,例如在Cursor IDE中使用Dify的深度研究工具。

💡 MCP服务器适用于多种场景,如将AI嵌入内部工作流、自动分类客户请求等,相比REST API,MCP更适合AI场景,方便AI代理发现和调用工具。

🔒 为了安全,建议在私有网络环境运行MCP服务器插件,并期待Dify未来提供原生MCP支持,进一步简化操作。

本文已收录在Github关注我,紧跟本系列专栏文章,咱们下篇再续!

0 前言

上文介绍咋用 MCP 插件让 Dify 充当客户端 ,并利用外部 MCP 服务器工具如 Zapier 的 7,000 多个集成。得益Dify模块化设计和灵活插件系统,它不仅限于客户端。Dify 还可轻松用作 MCP 服务器,让你与其他兼容系统共享你构建的 AI 应用程序,以实现更广泛用途。

1 MCP 服务器插件:将 Dify 连接到 MCP 客户端

mcp-server 插件由 Dify 社区贡献,是一款扩展类型的插件。安装后,可将任何 Dify 应用转换为兼容 MCP 的服务器端点,供外部 MCP 客户端直接访问。功能如下:

2 将 Dify 应用设置为 MCP 服务器

2.1 安装插件

前往 Dify 市场,下载并安装 mcp-server 插件。

2.2 选择你的 Dify 应用

“深度研究”应用为例。该应用程序接收用户的问题,用 Tavily 插件多轮搜索(搜索次数由深度参数设置),再用 LLM 将结果汇编成研究报告。

2.3 配置 MCP 服务器端点

在 mcp-server 插件的设置中填写:

deep_research应用的示例JSON

{  "name": "deep_research",  "description": "Conduct in-depth research based on the user query.",  "inputSchema": {    "title": "deep_researchArguments",    "type": "object",    "properties": {      "query": {        "title": "User Query",        "description": "The user's main question or topic for research.",        "type": "string"      },      "depth": {        "title": "Search Depth",        "description": "Optional: Specifies the desired depth of the research.",        "type": "number"      }    },    "required": ["query"]  }}

Schema breakdown: 架构细分:

2.4 获取你的端点 URL

保存配置后:

插件会生成一个唯一的 Endpoint URL(即您的 MCP 服务器地址)。此 URL 支持 HTTP 和 SSE 协议,方便 MCP 客户端连接和交互。

2.5 将 Dify MCP 服务器添加到cursor

现可将 Dify MCP 服务器添加到任何兼容 MCP 的客户端。

如 Cursor IDE 中,使用类似以下内容更新 MCP 服务器设置(替换为你的实际 Endpoint URL):

配置 json:

{  "mcpServers": {    "dify_deep_research": {      "url": "http://localhost/e/gq3q0h9r0zde2269/sse"    }  }}

设置完成后,即可

使用

Cursor 在Agent模式用深度研究工具,对 Dify 插件类型进行多步骤研究,从而获得更深入的洞察,从而提高编码效率和质量。

3 更多使用方法

除了开发工具,Dify MCP 服务器还适合将 AI 嵌入到内部工作流。如自动分类客户请求、汇总报告或从文档中提取关键信息等任务,都内置于 Dify 工作流,并通过插件作为 MCP 服务共享。

与 REST API 不同,MCP 专为 AI 场景量身定制,让 AI 代理能更轻松发现并动态调用工具。代理可以自行了解如何使用 Dify 服务,无需硬编码或手动设置,从而保持灵活高效。

为安全,建议仅在私有网络环境运行 MCP 服务器插件。

4 总结

借助社区 MCP 服务器插件,可轻松将 Dify 应用转换为符合 MCP 标准的服务,供外部系统使用,提高复用率和集成度。Dify还在努力为 Dify 提供原生的 MCP 支持。未来的更新将允许您连接到外部 MCP 服务器,并一键将 Dify 应用发布为 MCP 服务器,从而更轻松地将 AI 融入各种场景。

本文由博客一文多发平台 OpenWrite 发布!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Dify MCP AI应用 插件 服务器
相关文章