新智元 03月03日
Claude 3.7硬控马里奥90秒,GPT-4o开局暴毙!Karpathy直呼基准失效,游戏成LLM新战场
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

加州大学圣迭戈分校Hao AI Lab用超级马里奥等经典游戏评测AI智能体,结果显示,Claude 3.7 Sonnet在超级马里奥游戏中表现惊艳,远超OpenAI、Gemini等其他AI模型。GPT-4o表现不佳,Gemini 1.5 Pro也存在“两步一跳”的问题。此外,还在2048和俄罗斯方块等益智游戏中进行了测试,Claude 3.7表现相对较好。这一研究引发了对现有LLM评估基准的质疑,并探索了游戏作为AI智能评估新方式的可能性。

🎮超级马里奥测试:Claude 3.7 Sonnet在超级马里奥游戏中表现出色,能够流畅操作并发现隐藏奖励,而GPT-4o则表现不佳,常常被第一个小怪杀死,Gemini 1.5 Pro则出现“两步一跳”的现象。

🧩益智游戏挑战:在2048游戏中,GPT-4o因思考时间过长而陷入困境,Claude 3.7虽然表现稍好,但最终也未能成功。在俄罗斯方块游戏中,Claude 3.7展现出一定的智商,引发了对游戏作为AI评估工具的更多期待。

🤔LLM评估新思路:该研究挑战了传统的LLM评估基准,提出了利用游戏作为评估AI智能体的新方法。通过观察AI在游戏中的表现,可以更直观地了解其智能水平和解决问题的能力。

新智元 2025-03-03 13:11 中国香港



  新智元报道  

编辑:编辑部 HYj

【新智元导读】Karpathy发出灵魂拷问,评估AI究竟该看哪些指标?答案或许就藏在经典游戏里!最近,加州大学圣迭戈分校Hao AI Lab用超级马里奥等评测AI智能体,Claude 3.7结果令人瞠目结舌。

LLM评估基准的「黄金标准」,正在失效?

一大早,AI大神Karpathy发出质疑,「目前存在一种评估危机,我真的不知道现在该看哪些指标了」。

上下滑动查看

诸如MMLU、SWE-Bench Verified、Chatbot Arena等这些基准,各有自己的优劣之处。

如果这些都不够,那么游戏算不算?

毕竟,曾经红极一时的AlphaGo是围棋界的头号AI;就连OpenAI也早年涉足游戏领域,拿着自研AI在DOTA国际赛中取得亮眼的成绩。

最近,Claude 3.7的出世,让「宝可梦」一时间成为LLM评判的新标杆。

UCSD Hao AI Lab再次出手,开源了一种全新的「游戏智能体」,能够实时让计算机使用智能体(CUA)运行解谜、益智等类型的游戏。

结果显示,Claude 3.7 Sonnet玩超级马里奥足足撑满90s,直接碾压了OpenAI、Gemini和自家前辈;而GPT-4o一上来就直接挂掉了……

谷歌选手Gemini 1.5 Pro首战即败,而且非常有规律地两步一跳。到了Gemini 2.0虽多走了几步,最终还是栽坑。

GamingAgent项目代码已开源,下载安装即可观战AI游戏大PK。

开源地址:https://github.com/lmgame-org/GamingAgent

「游戏智能体」演示demo

GPT-4.5反应迟钝,GPT-4o永远被第一个小怪杀死

GPT-4o总是被第一个小怪杀死,像极了操作很烂会被队友喷的游戏菜鸡。

短短20s,游戏就结束了。

相比之下,GPT-4.5的表现就好多了,起码没卡在第一个小怪。

但它的反应还是很迟缓,几乎是两步一停。

跳过一个矮水管之前,也要犹豫片刻,感觉像是刚学会了游戏操作,还在蹒跚学步。

一个稍高点的水管,尝试了7次,足足花了10s才跳了过去。

好不容易跳了过去,就撞到小怪死掉了。第一回合就这样告终了。

更好笑的是,第二回合的时候,GPT-4.5又栽倒在了第一个小怪那里。毕竟和GPT-4o同属于OpenAI家族,操作都比较菜(bushi)

第三回合表现也比较一般,还不如第一回合。第一个矮水管就卡了半天,搁水管底下卡了快10s才想起来跳。

最后虽然丝滑地跳过了第二个水管,但还是被小怪杀死了,还没有第一回合走得远。第一回合起码跳过了第三个水管,虽说刚跳过就被杀了。

GPT-4.5完整视频

Gemini 1.5两步一跳,2.0栽进坑里

到了谷歌这边,Gemini 1.5 Pro首战也不如意,没能逃过第一个小怪的魔爪。

第二回合Gemini 1.5算是躲过了第一个小怪,甚至还碰到了问号箱,吃到了蘑菇。

有趣的是,和GPT-4.5两步一停不同,Gemini 1.5是「两步一跳」。

走了这么一小段路,一共就跳了9回。地板上也跳一跳,水管上也跳一跳。

最后也是跳过了第三根水管,甚至差点跳过了第四个,算是走得比GPT-4.5要远。

至于更新的Gemini 2.0 Flash,表现上不出意外地要好得多。

首先,跳得更大胆;其次,跳得也更流畅。

跳到了「前人」未曾涉足的更高的平台上,而且10s就轻松跳过了前面三个水管。

虽然第二回合的时候也惨遭第一个小怪的毒手。

但最后走得比OpenAI家族和Gemini 1.5都远——跳过了第四根水管,栽倒在了一个没能跳过去的坑中。

Gemini 2.0 Flash完整视频

Claude 3.7 Sonnet发现隐藏奖励

相比之下,Anthropic的Claude,就要惊艳多了。

相比于Gemini两步一跳的操作,Claude 3.7的操作更加丝滑,走得也远很多。

尤其是在跳跃的时机上,显得更有章法,碰到水管、碰到坑才会跳。

此外,还会有意识地通过跳跃来躲避小怪。

跳过了Gemini 2.0 Flash两回合都没跳过去的坑,Claude操作下的马里奥终于是吃到了金币;终于是碰到了除了哥布林(形似蘑菇)之外的小怪——库巴(形似乌龟);甚至还碰出了隐藏奖励——超级星星。

最后是掉到了阶梯平台之间的坑里,结束了游戏。

AI大战2048益智游戏,GPT-4o拿不出手

接下来,再看一个益智类的游戏2048。

可能很多人对这款游戏并不熟悉,规则是通过滑动进行拼图,玩家将带有相同数字的方块合并,达到可能最高的数值。

GPT-4o在挑战过程中,因为思考过久,陷入困境。

而Claude 3.7虽多走了几步,比GPT-4o强不少,但最终还是以失败告终。

俄罗斯方块,智商在线

那么Claude 3.7玩俄罗斯方块的表现,又如何呢?

Anthropic开发者关系负责人Alex Albert称赞道,「非常酷!我们需要把每一款电子游戏都变成一种评估工具」。

已经有网友在评论区许愿,让Grok 3加入战场。

看来,LLM评估即将开辟一条全新的路。

参考资料:

https://x.com/haoailab/status/1895557913621795076

https://x.com/haoailab/status/1895605453461340472

https://lmgame.org/#/aboutus




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI智能体 游戏评估 LLM评估 Claude 3.7 GPT-4o
相关文章