Model Context Protocol(MCP)模型上下文协议旨在解决大模型知识受限于训练数据、无法访问外部工具的问题。MCP通过规范大模型与外部工具的交互方式,简化了调用流程。在没有MCP的情况下,需要为每个大模型和工具编写特定的调用代码,导致复杂度呈M×N。而有了MCP协议后,所有模型和工具都遵循统一规范,复杂度降低到M+N。MCP如同AI界的“C口”,让大模型与外部工具的交互更加高效简单。目前MCP生态逐渐发展,为实现通用人工智能(AGI)迈出重要一步。
🧩MCP模型上下文协议旨在让大模型更好地使用外部工具和数据,解决大模型受限于训练数据集的知识局限性问题,避免产生“幻觉”。
🛠️MCP通过规范大模型与外部工具的传输规范,简化了调用流程,无需为每个模型编写特定的调用代码,降低了复杂度,如同AI界的“C口”。
🌐MCP生态逐渐发展,涌现出mcp.so、smithery.ai、阿里云百炼、glama.ai/mcp/servers和cursor.directory等提供MCP服务的平台,方便大模型与外部工具连接。
全称Model Context Protocol模型上下文协议。
可以让大模型更好的使用外部工具、数据等。
大模型是一个预训练模型,它的知识来源于训练的数据集,如果一个知识没有被放到训练数据集中, LLM就无法理解或者产生错误的信息,这种情况被称为“幻觉”。 因此,LLM是一个静态的模型,受限于训练时的知识。然而,在企业内部或个人的私有数据中,很多数据可能没有出现在训练集里,而我们却希望让模型能够理解并处理这些知识。
另一方面模型本身并没有执行能力,它只能提供答案而不能执行实际操作。通过连接外部工具,LLM就能驱动工具“动起来”。 比如给它接一个Filesystem这样的服务,就能操作本地文件了。

工具有很多如接入高德地图服务就能获取路线规划,接入时间服务就能获取当前时区时间等。
如果没有MCP协议:

MCP的出现规范和标准了大模型与外部工具的传输规范,如果没有它, 为了支持不同的大模型(例如ChatGPT、DeepSeek、Qwen等)与各种工具的交互,需要为每个模型编写特定的调用代码,这样就会导致代码量呈现M×N的复杂度,其中M是大模型的数量,N是工具的数量。
有MCP协议:

有了MCP协议后,所有的大模型和工具都遵循MCP统一的规范,这样就可以通过标准化的方式来调用各个工具,从而将复杂度降低到M+N,即每个模型只需要遵循标准,而不需要针对不同工具编写特定的代码。
再给大家放一个比较经典的图。
MCP也被比喻为AI界的”C口“,只需遵循这一套规范的协议,便能使用这一个口集成各个工具, 从而大模型与外部工具之间的交互变得更加高效、简单。
目前MCP的生态也逐渐起来,大家只需遵循MCP这套规范,开发的工具就能很方便给大模型去调用。 我们离实现通用人工智能(AGI)又迈进了一步。
以下是一些提供MCP服务的平台,您可以通过这些平台来接入MCP协议,方便实现大模型与外部工具的连接:
mcp.so
smithery.ai
bailian.console.aliyun.com/?tab=mcp#/m…
glama.ai/mcp/servers
cursor.directory