index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
作者去年开发了一个名为ChatSum的微信群聊总结工具,但由于隐私和模型限制,项目搁置。近期,Anthropic发布MCP协议,作者决定重新启动该项目,并采用新的技术方案。新方案将微信消息存储在本地,通过mcp-server-chatsum程序接收查询请求并返回匹配消息,再由Claude桌面版进行总结回复。相比之前的方案,新方案解耦了消息存储和查询总结,提高了灵活性,并由Claude客户端完成意图识别等步骤,提升了准确性。此外,该方案未来可实现完全私有化,保障数据安全。作者认为,MCP Client将成为个人电脑的超级入口,开启AI助理2.0时代。目前,微信机器人和消息总结MCP Server代码已开源,作者将撰写文章详细介绍技术细节。
🤔作者去年开发了ChatSum,用于总结微信群聊内容,但因隐私和模型限制而搁置。
🔄新方案采用MCP协议,将微信消息存储在本地,通过mcp-server-chatsum程序接收查询请求,再由Claude桌面版进行总结回复。
💡新方案解耦了消息存储和查询总结,提高了灵活性,并由Claude客户端负责意图识别等步骤,提升了准确性。
🔒新方案未来可实现完全私有化,使用本地大模型,保障数据安全。
🚀作者认为MCP Client将成为个人电脑的超级入口,开启AI助理2.0时代。
每日一个idea
我去年写了一个叫ChatSum的群聊总结工具,用wechaty框架实时收集微信消息,在群里@机器人提问,请求大模型 API,总结群聊话题。
当时的方案是在提问时拿到群聊消息发给 Claude2 总结,会有隐私问题,也受到了 Claude 模型长度的限制,总结效果不太好,后面这个项目就搁置了。
上周 Anthropic 发布 MCP 协议之后,我打算把这个项目捡起来,技术方案调整了一下:
1. 用 wechaty 在自己电脑上运行微信机器人,实时收集微信消息,存储在本地文件
2. 在自己电脑运行一个 mcp-server-chatsum 程序,接收查询请求,从本地文件返回匹配的微信消息(根据群名/联系人/话题组合查询)
3. 使用 Claude 桌面版作为交互入口,随时查询和总结微信消息,由 Claude 桌面版与本地的 mcp-server-chatsum 进程通行,再由 Claude 内置的大模型完成总结回复
比如我可以这么问:
- 今天早上大家都在聊啥?
- 关于 MCP 最近有哪些讨论?
- idoubi 在哪些群分享了什么内容?
- AI-Native 群最活跃的 5 个用户和关心的话题是什么?
比起去年的实现方案,用 MCP Server 来实现 ChatSum 的功能有一些不同点:
- 消息存储和查询总结完全解耦,灵活性更高
- 由 Claude 客户端做服务发现/意图识别/参数提取 / 流程串联等步骤,准确性更高(之前用的是 Function Calling)
- 虽然现在交互入口用的是 Claude 桌面版,按照 MCP 协议的约定,后面可以自己实现一个 MCP Client,调用本地的大模型,实现完全私有化,数据安全性更高
MCP Client 作为个人电脑的超级入口,AI 助理 2.0 时代即将到来。
最后很高兴宣布,今天的 idea 已经落地了。
微信机器人和消息总结 MCP Server 代码已开源?
https://github.com/mcpservers/mcp-server-chatsum
用我自己的微信跑了一些查询,总结效果良好,再也不用担心加群太多消息看不过来了。?
欢迎自行部署体验。
我会写一篇文章总结实现 mcp-server-chatsum 的技术细节,敬请期待。

