给 Claude 加个“USB 插口”:MCP 是什么,怎么用?
AI 很强,但它什么都要你喂。MCP,是让 AI 学会“自己伸手”的关键一步。
什么是 MCP?
MCP,全称 Model Context Protocol,说白了就是一个模型和工具之间的协议标准。如果把大模型比作一个智能的“操作系统”,那 MCP 就是为它设计的“USB 接口协议”,可以让它连接各种“外设”——抓网页、查数据库、读文件、甚至操作你的电脑。
用人话解释:
平时我们提问 AI,它只能靠“脑子里的知识”(预训练数据 + 你给它的 prompt)来回答;
但很多时候,我们想让 AI 去查一个网页、读一个文件、调一个 API,这个时候,光靠 prompt 就不够用了;
MCP 就是让大模型能够通过“调用外部服务”,来动态获取实时信息,补足知识盲区。
它的哲学可以总结为四个字:“动手能力”。
MCP 怎么用?以 fetch 为例
拿我正在使用的 fetch 来说,它是 MCP 的一个子工具,用于抓取网页并提取 Markdown 内容,给大模型喂网页。
你可以把它理解成是一个“网页变 Markdown 的自动爬虫服务”,Claude、ChatGPT 这些模型就可以用它来“读网页”。
但大模型不会自己部署工具,需要你先把这个 fetch 工具“接上去”。
我们以 Claude Desktop 为例,演示怎么把 fetch 插进去。
1. 快速配置 MCP Fetch(Claude 桌面客户端)
🐳 首先,你需要 Docker确保你本地装了 Docker:www.docker.com/products/do…
这是因为官方的 fetch 没有提供可执行文件,而是推荐你直接用容器运行:
{ "mcpServers": { "fetch": { "command": "docker", "args": ["run", "-i", "--rm", "mcp/fetch"] } }}
这个配置的意思是:
每次 Claude 需要用 fetch 的时候,它就执行这条命令:
docker run -i --rm mcp/fetch
Docker 会拉取并运行 mcp/fetch 这个镜像,它内部就会启动 fetch 服务,等待模型发请求。
配置文件一般是放在 claude_desktop_config.json
里面(根据你用的客户端而定)。
也可以查看这个网站的使用指引 (写的不是很清楚就是了,查了git发现应该是readme直译过来的)mcpmarket.cn/server/67f1…
2. 怎么调用?
配置好了之后,就可以在 Claude 里这样用:
✅ Claude Prompt 示例:“请抓取 www.bbc.com 的首页,并总结新闻焦点。”
背后会调用 fetch 工具,Claude 会拿到这个网页的 Markdown,并开始分析。
你也可以加参数(如果你的客户端支持 MCP 参数):
{ "tool": "fetch", "arguments": { "url": "https://example.com", "max_length": 5000, "start_index": 0, "raw": false }}
3. 一些坑 & 限制
不过 fetch 也不是万能的:
❌ 很多网站会拦 AI 爬虫
比如知乎、Bilibili、微信公众号等,通常会检测 User-Agent、IP 段、访问频率;
fetch 默认带的是 MCP 标准 UA,容易被 ban;
你可以在 Docker 运行时传参 --user-agent=xxx
来伪装;
或者配代理 --proxy-url=http://127.0.0.1:7890
来绕过防火墙。
⚠️ 抓取内容会被截断
默认最大返回 5000 字符,如果网页很长,需要自己指定 start_index 来分页读取。
🤖 Claude 可能“不会用”
Claude 虽然支持 MCP,但它不一定会“自己想起来用”,你需要明确告诉它“用 fetch 抓取网页”。
MCP 还能接什么工具?
MCP 是个协议,不只是 fetch。你可以接入很多工具,给 AI 增强能力:
(附上mcpmarket地址-超多mcp工具逛的我眼都花了:mcpmarket.cn/)
工具名 | 作用 | 地址 |
---|---|---|
fetch | 网页抓取 → Markdown | github.com/modelcontex… |
python | 运行 Python 代码 | github.com/modelcontex… |
browser | 像浏览器一样点击交互式网页(实验) | github.com/modelcontex… |
shell | 执行终端命令 | github.com/modelcontex… |
filesystem | 读写本地文件系统 | github.com/modelcontex… |
你也可以自己写工具,只要符合 MCP 的协议(支持 stdin/stdout 交互,JSON 格式),就能被 AI 调用。
写在最后
(ps: 本文基于个人使用经验由ai帮忙整理,未来的ai是什么的结合I dont know...)
MCP 工具不一定适合所有人,但它是让 AI 从“语言助手”变成“数字助手”的关键一步。
Claude、ChatGPT、Gemini……不管你用哪个模型,如果你想让它做“具体的事”,MCP 工具就像是为它接上“手脚”的外设扩展包。
未来的 AI 一定是“工具人 + 通才模型”的结合,而 MCP 就是这两者之间的桥梁。