Cnbeta 前天 19:07
AI答IMO难题坦承“不会” OpenAI称“这就是自我意识”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI的AI模型在IMO竞赛中虽在第6题失利,但其“高智商的诚实”成为一大亮点。研究员Noam Brown指出,当模型缺乏有效证据时,它会主动表示“不确定”,这大大减少了隐藏错误的发生。与以往模型倾向于生成看似完美但实则错误的幻觉式答案不同,新一代大模型开始学会承认自己的局限性,标志着其从“胡编乱造”转向更可靠、具备“自我意识”的阶段。这一转变对于AI在复杂问题解决中的可靠性至关重要。

🎯 **“高智商的诚实”是AI模型的重要进步**:与以往模型倾向于生成看似合理但实际错误的“幻觉”答案不同,OpenAI的IMO金牌模型在面对知识盲区时,能够主动承认“不知道”或“不确定”,这种“诚实”显著减少了隐藏错误的风险,是AI可靠性上的重要飞跃。

💡 **承认“不会”是AI“自我意识”的体现**:模型能够识别并表达自己的知识局限,表明其正在从单纯的数据驱动转向具备一定的“自我认知”能力。这种能力使得模型在面对未知或困难问题时,不会强行给出错误答案,而是选择坦诚,这对于提升用户信任度和AI的实用性至关重要。

🏆 **AI团队攻克IMO的快速进展与研究理念**:OpenAI的IMO金牌团队仅由三名研究员组成,他们以极快的速度(仅两月)实现了获得IMO金牌的目标。其研究理念侧重于“通用技术”而非专门为竞赛优化系统,这体现了OpenAI鼓励研究人员自主探索、追求具有广泛影响力的研究方向的文化。

🧩 **IMO第6题的挑战与模型反应**:文章提及了IMO第6题的具体数学难题,涉及在一个大型网格上放置矩形图块的优化问题。尽管模型投入了大量计算资源,最终未能给出答案,但其“我无法回答”的反应被视为积极的进展,因为它避免了产生误导性的错误信息。

这一次,“不会”竟成了大模型的高光时刻。虽然在 IMO 第 6 题上得了零分,OpenAI 的金牌模型却展现了“高智商的诚实”。正如 OpenAI 研究员 Noam Brown 在最新访谈中所揭示的:当 IMO 推理模型会在缺乏有效证据时表示“我不确定”,这会显著减少隐藏错误。

在 AI 摘下 IMO 金牌后,OpenAI 金牌小分队成员 Alex Wei、Sheryl Hsu 和 Noam Brown 参与了红杉资本组织的一场对话,揭秘模型攻克精英数学难题的底层突破。

有网友帮忙总结了个太长不看版:

与过去那些“看起来完美,实则错误”的幻觉式答案不同,这一代大模型开始学会“承认自己不会”。

它标志着模型正在从胡编乱造的幻觉式回答,转向更加可靠且具有“自我认意识”的全新阶段。


三位成员还在这场对话中,分享了更多关于冲刺 IMO 的有趣细节。

IMO 金牌模型能承认自己不知道

尽管数学家与计算机科学家一致认可 IMO 金牌模型的价值。

但他们常常抱怨,当模型遇到知识盲区时,它总会输出一个令人信服但错误的答案。

他们不得不耗费大量精力逐行验算,才能甄别那些幻觉陷阱。


IMO 第 6 题让大模型全军覆没,当然,OpenAI 也对其进行了大量计算。

有一个由 2025×2025 个单位正方形组成的网格。Matilda 希望在网格上放置一些矩形图块,这些图块的大小不同,但每个图块的每一条边都位于网格线上,并且每个单位正方形最多被一个图块覆盖。

网格的每一行和每一列都恰好有一个未被任何瓷砖覆盖的单位正方形,求出 Matilda 需要放置的最少瓷砖数量。


虽然投入海量算力最终仅得到一句“我无法回答”令人有些失望,但 Alex Wei 表示:

能看到模型避免产生幻觉是很好的。

Noam Brown 也对模型的这一转变表示赞赏,“如果它不知道,它就会承认它不知道。”

这代表模型开始具备“自我意识”。

这种“自我意识”可以帮助模型在面对困难问题时,承认自己的无能为力,而不是生成一个看似合理实则错误的解决方案。

有趣的是,在 Alex Wei 2024 年刚加入 OpenAI 一周时,Noam Brown 就曾问过他,团队何时能获得 IMO 金牌。

当时 Alex Wei 认为 2025 年不太可能实现。

但令人惊叹的是,这个三人团队仅用了两月,就完成了他们一直在追求的目标 ——IMO 金牌。

Noam Brown 还表示:

OpenAI 有一个很棒的地方,就是研究人员有很大的自主权去做他们认为有影响力的研究。

Alex 还强调,他们的团队“真正优先考虑通用技术”,而不是专门开发用于数学竞赛的系统。

OpenAI IMO 金牌核心团队

OpenAI IMO 核心团队仅由三名研究人员构成。


Alex Wei,本硕均就读于哈佛大学,随后在加州大学伯克利分校获得计算机科学博士学位。

Alex 还曾在Google、微软和 Meta 实习,后于 2024 年 1 月加入 OpenAI,现任研究科学家。他曾是 FAIR 团队成员,参与开发了首个用于外交游戏的人类级人工智能 ——CICERO。


Sheryl Hsu,毕业于斯坦福大学计算机科学专业,是斯坦福 AI 实验室中 IRIS 实验室的研究员,于 2025 年 3 月加入 OpenAI。


Noam Brown,本科就读于美国罗格斯新泽西州立大学新布朗斯维克分校,随后在卡内基・梅隆大学获硕士和博士学位。他曾任职于 DeepMind 和 Meta,于 2023 年 6 月加入 OpenAI。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI模型 IMO竞赛 人工智能 自我意识
相关文章