云中江树 04月09日 19:28
MCP 的生态发展太快,看过的项目都开源到这里了~
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MCP生态发展迅速,项目开源。文中推荐国内免费快速体验MCP能力的组合,还提到了LLM选型体感及MCP Server的情况。

🎈MCP生态发展快,项目开源至https://github.com/yzfly/Awesome-MCP-ZH

💻推荐Cherry Studio(客户端) + 阿里Qwen(大模型)的组合体验MCP能力

🤔LLM选型体感:Claude3.7 > Qwen2.5-Max > DeepSeek,Qwen2.5可在阿里云或硅基流动使用

🚀MCP Server涌现,主流项目支持或正在支持中

云中江树 2025-04-05 09:30 北京

MCP 的生态发展太快,充充电,看过的项目都开源到这了~

https://github.com/yzfly/Awesome-MCP-ZH

如果国内的朋友想免费快速的体验MCP能力,推荐 Cherry Studio(客户端) + 阿里 Qwen (大模型)的组合,优势是免费、操作简单、LLM无需魔法、无需充值。

LLM 选型我的使用体感是: Claude3.7 > Qwen2.5-Max > DeepSeek.

Qwen2.5 模型去阿里云或者硅基流动都能使用,而且免费的额度就能用很久。

MCP Server 现在涌现了一大堆,并且主流的项目都已经支持或者正在支持中,为生态繁荣而高兴,同时也希望维护一些高质量的 server 降低一些选择困难。

MCP 的生态发展太快,充充电,看过的项目都开源到这了~

https://github.com/yzfly/Awesome-MCP-ZH

如果国内的朋友想免费快速的体验MCP能力,推荐 Cherry Studio(客户端) + 阿里 Qwen (大模型)的组合,优势是免费、操作简单、LLM无需魔法、无需充值。

LLM 选型我的使用体感是: Claude3.7 \x26gt; Qwen2.5-Max \x26gt; DeepSeek.

Qwen2.5 模型去阿里云或者硅基流动都能使用,而且免费的额度就能用很久。

MCP Server 现在涌现了一大堆,并且主流的项目都已经支持或者正在支持中,为生态繁荣而高兴,同时也希望维护一些高质量的 server 降低一些选择困难。

MCP 的生态发展太快,看过的项目都开源到这里了~

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MCP LLM选型 MCP Server 体验组合
相关文章