掘金 人工智能 04月29日 10:27
MCP 架构设计
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

模型上下文协议(MCP)是一种客户端-宿主-服务端架构,旨在安全高效地集成AI能力。宿主负责管理客户端和服务端,协调上下文交换和采样。客户端为每个服务端建立会话,处理消息路由和安全边界。服务端提供专业化的上下文处理和能力支持,通过MCP协议开放资源和工具。MCP的设计原则包括易于构建、高度可组合、数据隔离和功能可扩展,并通过能力协商机制确保客户端和服务端对支持的功能有明确认知。

📦MCP采用客户端-宿主-服务端架构,宿主作为容器和协调器,负责创建和管理客户端实例,控制连接权限,处理授权决策,协调AI集成与采样,以及管理跨客户端的上下文聚合。

🔑客户端由宿主创建和维护,为每个服务端建立有状态会话,处理协议协商与能力交换,双向路由协议消息,管理订阅与通知,并维护服务端间的安全边界,确保服务端之间的隔离。

🧩服务端专注于提供专业化的上下文处理与能力支持,通过MCP基础协议开放资源、工具及提示词,独立运行并严格遵守安全约束规范,支持本地进程或远程服务两种部署模式。

🛡️MCP的设计原则强调服务端应当极易构建、具备高度可组合性,同时确保服务端不应读取完整对话内容,无法窥探其他服务端内部数据,从而保证数据安全和隐私。

🤝MCP采用基于能力的协商系统,客户端和服务端在初始化时明确声明其支持的功能,包括资源订阅、工具支持、提示模板、采样支持和通知处理,确保双方对会话期间可用的协议功能有明确认知。

模型上下文协议(MCP)采用客户端-宿主-服务端架构,单个宿主可运行多个客户端实例。该架构支持用户跨应用集成AI能力,同时保持明确的安全边界与功能隔离。基于JSON-RPC构建的MCP协议,专注于客户端与服务端间的上下文交换及采样协调(sampling coordination),提供有状态的会话管理。

核心组件

1. 宿主(Host)

宿主进程作为容器和协调器:

2. 客户端(Clients)

每个客户端由宿主创建并维护独立的服务端连接,具体功能包括:

宿主应用负责创建和管理多个客户端,每个客户端与特定服务端保持1:1对应关系。

3. 服务端(Servers)

服务端提供专业化的上下文处理与能力支持:

设计原则

MCP基于以下核心设计原则构建,这些原则指导着其架构设计与实现:

1. 服务端应当极易构建

2. 服务端应具备高度可组合性

3. 服务端不应读取完整对话内容,也无法"窥探"其他服务端内部数据

4. 功能可在服务端和客户端逐步扩展

能力协商

模型上下文协议采用基于能力的协商系统,客户端和服务端在初始化时明确声明其支持的功能。能力决定会话期间可用的协议功能和基础组件。

每项能力解锁会话中可使用的特定协议功能,例如:

这种能力协商机制确保客户端和服务端对支持的功能有明确认知,同时保持协议的可扩展性。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

模型上下文协议 MCP AI集成 安全架构 能力协商
相关文章