量子位 03月09日
Manus引爆智能体复现潮!DeepSeek已被整合,项目挤满开源榜,海外大V排队求码
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智能体赛道正经历一场由Manus引发的变革,开源复现潮涌现,商业闭源产品也纷纷加入竞争。OpenManus和OWL等开源项目迅速崛起,OWL在GAIA基准测试中表现出色,甚至超越了OpenAI的部分模型。同时,Manus通过发布邀请码成功打入海外市场,并引发了关于智能体对齐问题的讨论。GAIA基准测试正成为智能体产品竞争的新焦点,各方都在努力提升模型在复杂问题解决方面的能力。这场竞争预示着智能体技术更广阔的应用前景。

🔥Manus的出现引爆了智能体赛道,开源社区迅速响应,出现了OpenManus和OWL等复现项目,展示了开源力量的强大。

🌍Manus通过发布邀请码成功进入海外市场,海外用户对智能体的付费意愿较高,这为智能体商业化提供了新的机会。

📊GAIA基准测试成为智能体能力评估的重要标准,各团队纷纷在此平台上进行测试和比较,推动了智能体技术的进步。该测试分为三个难度级别,考察智能体在工具使用、自主性和知识获取等方面的能力。

⚙️模型上下文协议MCP成为构建类似Manus产品的有效途径,引发了业界的广泛关注和讨论,推动了智能体技术的发展。

🚀智能体Agent能力的关键在于对齐问题,而非基础能力问题。对代理轨迹进行后期训练,可以显著提升智能体的性能。

2025-03-09 12:46 北京

开源复现潮出现了,商业闭源产品也卷起来了

梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

Manus背后公司名为“蝴蝶效应”,真的带火了整个智能体赛道——

开源复现潮出现了,商业闭源产品也卷起来了。

目前进度最快的两个项目,都是在Manus发布的第0天发布了复现代码。

除了之前介绍的OpenManus之外,另一个开源项目OWL已经把DeepSeek模型整合到多智能体协作框架中

OWL来自国内开源社区CAMEL-AI团队。

OWL最新提交的结果在智能体测试基准GAIA的验证集上排名平均分第3,在开源项目中排第1。

其Level 1分数81.13同样超过了OpenAI的Deep Research,与Manus晒出的86.5已经非常接近。

虽然Level 2和Level 3分数还有差距,不过CAMEL-AI团队的李国豪在交流群中表示,有信心刷爆。

今日的GitHub热榜上,大多是Agent相关的项目和工具库,老牌Agent项目MetaGPT与AutoGPT双双被顶到前排。

Camel-AI、OpenManus所使用的代码库browser-use也现身,此外金融、编程等领域的垂直智能体也备受关注。

与此同时,有人注意到Claude团队推出的模型上下文协议MCP不是已经有小半年了么,为什么突然每个人都在讨论它?

原来是每个人都想知道如何造一个Manus,而MCP是一种有效的实现途径呀。

Manus火到海外

再来看看Manus本尊的进展。

官方社交媒体账号被短暂禁封后现已恢复,称将发布更多演示和更新。

Manus这个产品也成功火到了国外,方法很简单:发邀请码。

除了给海外大V单独发之外,Manus联创季逸超还与抱抱脸CEO取得联系,公开分享100个码,见者有份,先到先得。

两人的交流中季逸超谈到Agent能力可能更多的是对齐问题而不是基础能力问题,基础模型被训练为“无论任务有多复杂,都一次性回答所有问题”,而“只需对代理轨迹进行一点后期训练,就可以立即产生显著的变化”。

(顺便码不用去试了,半夜就抢光了。)

海外用户得到码之后的剧情和这边差不多,有不少试用之后被惊艳到的,变成“自来水”的。

并且海外用户的付费意愿确实要强一些,毕竟比起OpenAI两万美元一个月的博士级智能体总是要便宜许多。

很多人拿到Manus做的第一件事,都是让他收集自己的资料,编写并部署个人主页。

其中Rowan Cheung表示Manus收集到关于他的个人信息100%准确且是最新的。

类似的任务还有日本网友让Manus部署一个介绍他自己的网站。

他分享了体验中的一个细节:虽然Manus可以自己完成所有任务,但如果在执行过程中给出意见,它也可以灵活地改变计划并执行,就好像真的再给人下达指令一样。

更复杂的编程类任务还有制作一个javascript的飞行游戏。

也有人把它当做Deep Research类工具,寻找租房信息只花了不到10分钟时间。

主要的抱怨集中在速度有些慢,以及没有码。

One More Thing

作为Manus出圈的副作用之一,GAIA基准测试正在成为智能体类产品必争之地。

GAIA由Meta AI、HuggingFace和AutoGPT团队推出,图灵奖得主Yann LeCun和HuggingFace首席科学家Thomas Wolf参与,旨在解决现有大语言模型基准测试被快速突破、难以评估新模型的问题。

GAIA测试由450+具有明确答案的复杂问题组成,分为三个难度级别,考验智能体系统的工具使用能力以及自主性。

Level 1:通常解题步骤不超过5步,且不需要工具,或最多使用一种工具。如简单的信息检索和处理,任何优秀的语言模型都可以完成。

Level 2:需要在5-10步之间完成,并且需要组合使用不同工具。如“根据附件 Excel 文件计算当地快餐连锁店食品(不含饮料)的总销售额”。

Level 3:面向近乎完美的通用AI助手,要求AI能够执行任意长度的复杂动作序列,使用多种工具,并具备广泛的世界知识和信息获取能力。

如“在2006年1月21日NASA的每日天文图片中有两名宇航员,截至2023年8月,找出较小宇航员所在NASA宇航员小组中在太空停留时间最短的宇航员及其停留时间”,解答这类问题需要综合网络搜索、信息筛选、知识推理等多种能力。

人类在Level 2、和Level 3上的成功率分别是92%和87.3%,测试推出时最先进的语言模型GPT-4得分为9.7%和0。

此外GAIA排行榜分为测试集(Test)和验证集(Validation)两项,其中验证集是公开数据,测试集为私有数据,测试集的含金量更高一些。

目前测试集排行榜中,h2oGPTe Agent(来自H20.ai)、Trase Agent(来自Trase Systems)两个商业闭源系统的Level 2分数与Manus公布分数(70.1%)接近。

Manus团队公布的Level 3分数为57.7%,领先幅度比较大。

ImageNet数据集与竞赛开启了深度学习浪潮之后,每个时代都有自己的当红榜单指引着最前沿技术的发展。

在BERT时代是语言理解基准CLUE、SpuerCLUE

随后ChatGPT、Claude、Gemini已经刷爆了考验各学科知识的MMLU、以及用户用脚投票的ChatBot Arena大模型竞技场。

o1/r1/QwQ类推理模型正在比拼数学(AIME、FrontierMath)、博士级别理科题(GPQA)、编程/软件工程能力(Codeforces、SWE-bench、LiveCodeBench)。

智能体刷GAIA,似乎正在成为行业最新共识。

或者不久以后,可以期待一下AgentArena智能体竞技场?

OpenManus
https://github.com/mannaandpoem/OpenManus

OWL
https://github.com/camel-ai/owl

GAIA Bencmark
https://huggingface.co/spaces/gaia-benchmark/leaderboard
https://arxiv.org/abs/2311.12983

评选报名2025年值得关注的AIGC企业&产品

下一个AI“国产之光”将会是谁?

本次评选结果将于4月中国AIGC产业峰会上公布,欢迎参与!


一键关注 ? 点亮星标

科技前沿进展每日见



一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

w

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

智能体 开源复现 GAIA基准测试 Manus AI Agent
相关文章