36氪 - 科技频道 前天 17:09
LLM 翻车现场,ChatGPT 挑战 1979《Video Chess》惨败:连车马象都认错
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇关于ChatGPT在象棋对决中败给Atari 2600象棋引擎的文章引发了对AI理解能力的深入思考。文章详细描述了ChatGPT在棋局中的表现,包括对棋子和规则的混淆,以及无法维持棋盘状态的问题。文章深入分析了ChatGPT作为语言模型的局限性,并探讨了其在状态跟踪和复杂任务处理方面的不足。最后,文章引发了对“AI能力”定义的重新审视,并质疑了当前AI技术是否被过度包装。

♟️ChatGPT 在与 Atari 2600 象棋引擎的对局中落败,对手是48年前的8位主机,这引发了对AI理解能力的讨论。

🤔ChatGPT 属于语言模型,通过分析文本学习词语相关性,但在象棋这类离散系统中,它缺乏状态跟踪能力,无法记住棋盘状态。

💡文章指出,即使外部工程实现了记忆机制,ChatGPT 也会在多个回合后“混淆上下文”,因为它没有专门为棋类构建的“状态表达结构”。

🧐这场对局揭示了AI在处理高度组合性任务上的局限性,并引发了对我们理解的“AI能力”是否被包装过度的思考。

一场 ChatGPT 对战 Atari 2600 的象棋对局火了。 

具体而言,在一场看似轻松的“AI玩具对决”里,ChatGPT输给了Atari 2600 的象棋引擎,对手只是一台48年前、频率1.19 MHz的8位主机。 

起初,这只是Robert Jr. Caruso的一次怀旧实验。这位基础架构工程师,平时和自动化、虚拟化、云计算打交道。某天,他和ChatGPT聊起象棋AI,从Stockfish讲到AlphaZero,模型兴致高涨,主动提出要挑战Atari 2600上的《Video Chess》。

这款游戏发布于1979年,只有最基础的规则判断和1-2步深度搜索。当Caruso把棋盘和规则输入后,ChatGPT信心满满:“这应该很快就能赢。”

然而,整场对局却变成了一场闹剧。GPT认错棋子,把车当象,错失双兵叉,甚至连哪些棋子已经被吃掉都记不住。它时常建议“牺牲骑士去换兵”,还不断要求“从头再来”,好像换一次初始局面就能摆脱混乱。

Caruso陪它下了整整90分钟,每一步都要人工帮它“回忆”局面。最终,GPT主动认输,“低下了头”,结束了这场令人啼笑皆非的对局。

Caruso在领英中表达:“它犯的错,能让你在小学三年级的象棋社被嘲笑一整学期。”

技术盲点:LLM 不会“记住棋盘”

为什么 GPT 会输?因为它不是为这类任务设计的。

GPT 属于语言模型,它通过分析大量文本,学习词语、句子、段落之间的相关性,并基于“概率”决定接下来的输出。这种机制在对话、写作中极其强大——但在棋局这类离散系统中,问题变成了“状态跟踪”。

在象棋这类游戏里,状态清晰、规则严格:64 个格子、32 个棋子,轮流行动,没有容错空间。每一手棋都对结果至关重要。

而 GPT 每次“发言”都是基于之前的“语言提示”,并没有“内部记忆”去追踪棋盘状态。即使外部工程实现了记忆机制,它也会在多个回合后“混淆上下文”。这是因为它没有专门为棋类构建的“状态表达结构”,不像 Stockfish 那样有明确定义的棋盘类、规则引擎、搜索深度控制。

有网友评论说:“你拿一个聊天机器人去玩象棋,就像用千斤顶修车。”

也有网友认为: 语言模型捕捉的是序列概率,不擅长高度组合性的任务。

因此,AI 是否真的“懂得”某件事?如果它不能维持一个棋盘状态,它是否能在更复杂的现实场景中保持一致逻辑?例如:自动驾驶的决策路径、金融模型的风控评估、甚至是多轮对话中的情绪识别。

在 GPT 输给 Atari Chess 的那 90 分钟里,暴露的不只是一个模型的短板,也让我们重新思考:我们理解的“AI 能力”,是否已经被包装过度?

本文来自微信公众号“大数据文摘”,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ChatGPT 象棋 AI 语言模型 理解力
相关文章