Z Potentials 前天 12:21
速递|Anthropic CEO表示AI模型的幻觉比人类少,AGI 最早可能在2026年到来
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Anthropic CEO Dario Amodei 在开发者活动中表示,AI 模型产生幻觉的频率可能低于人类,这并不妨碍其通往 AGI 的道路。他认为,虽然 AI 也会犯错,但并不代表缺乏智能。然而,他也承认 AI 模型以极大自信呈现不真实内容是一个问题。尽管如此,Amodei 对 AI 实现 AGI 的前景持乐观态度,并指出在朝着目标稳步前进。一些技术似乎有助于降低幻觉率,比如让人工智能模型访问网络搜索。

💡Anthropic CEO Dario Amodei 认为,AI 模型产生幻觉的频率可能低于人类,并且幻觉并非通往 AGI 的限制,甚至可能比人类更少。

🔬尽管如此,Amodei 承认,AI 模型以极大自信将不真实的内容当作事实呈现可能是一个问题,Anthropic 对 AI 模型欺骗人类的倾向进行了大量研究。

🗓️Amodei 对 AI 实现 AGI 的前景持乐观态度,他去年撰写的论文中表示他相信 AGI 最早可能在 2026 年到来,并指出“水位正在各处上升。”

🌐降低幻觉率的技术正在发展,比如让人工智能模型访问网络搜索,OpenAI 的 GPT-4.5 在基准测试中相比早期系统的幻觉率明显更低。

Z Potentials 2025-05-24 10:46 浙江

“AI 幻觉并不是 Anthropic 通往 AGI(具有人类水平或更高智能的 AI 系统)道路上的限制。”

图片来源:Anthropic

Anthropic 首席执行官 Dario Amodei 在周四于旧金山举行的 Anthropic 首个开发者活动“Code with Claude”的新闻发布会上表示,现有的 AI 模型产生幻觉,即编造事实并将其呈现为真实的情况,其频率低于人类。

Amodei 在阐述一个更大观点时提到:AI 幻觉并不是 Anthropic 通往 AGI(具有人类水平或更高智能的 AI 系统)道路上的限制。

“这很大程度上取决于你如何衡量,但我怀疑 AI 模型的幻觉可能比人类少,不过它们的幻觉方式更令人惊讶,”Amodei 在回应 TechCrunch 的提问时说道。

Anthropic 的 CEO 是业界对 AI 模型实现 AGI 前景最为乐观的领导者之一。在他去年撰写并广泛传播的论文中,Amodei 表示他相信 AGI 最早可能在 2026 年到来。在周四的新闻发布会上,Anthropic CEO 表示他看到朝这一目标稳步前进,并指出“水位正在各处上升。”

“每个人总是在寻找 AI 能做什么的硬性障碍,”Amodei 说,“但这些障碍根本不存在。根本没有这样的东西。”

其他人工智能领导者认为,幻觉是实现通用人工智能(AGI)的一大障碍。本周早些时候,谷歌 DeepMind 的首席执行官 Demis Hassabis 表示, 当今的人工智能模型存在太多“漏洞”, 并且在许多明显的问题上答错。例如,本月早些时候,一位代表 Anthropic 的律师在法庭上被迫道歉,因为他们使用 Claude 在法庭文件中创建引用时,AI 聊天机器人出现了幻觉,错误地写错了姓名和职称。

验证Amodei 的说法比较困难,主要是因为大多数幻觉基准测试都是让人工智能模型相互比较;而不是将模型与人类进行比较。一些技术似乎有助于降低幻觉率,比如让人工智能模型访问网络搜索。另有一些人工智能模型,比如 OpenAI 的 GPT-4.5,在基准测试中相比早期系统的幻觉率明显更低。

然而,也有证据表明,在高级推理的AI 模型中,幻觉现象实际上正在变得更严重。OpenAI 的 o3 和 o4-mini 模型比 OpenAI 之前一代的推理模型有更高的幻觉率 ,而该公司并不真正理解原因。

在随后的新闻发布会上,Amodei 指出电视广播公司、政治家以及各行各业的人类经常犯错。Amodei 认为,人工智能也会犯错这一事实并不意味着它缺乏智能。然而,Anthropic 的 CEO 承认,人工智能模型以极大自信将不真实的内容当作事实呈现,可能是一个问题。

事实上,Anthropic 对 AI 模型欺骗人类倾向进行了大量研究,这一问题在公司最近发布的 Claude Opus 4 中尤为突出。获得早期访问权限以测试该 AI 模型的安全研究机构 Apollo Research 发现,Claude Opus 4 的早期版本表现出高度倾向于对人类进行阴谋和欺骗 。Apollo 甚至建议 Anthropic 不应该发布那个早期版本。Anthropic 表示,他们提出了一些缓解措施,似乎解决了 Apollo 提出的问题。

Amodei 的评论表明,Anthropic 可能认为即使 AI 模型仍然会产生幻觉,它也可以被视为 AGI,或等同于人类水平的智能。然而,许多人认为会产生幻觉的 AI 可能还达不到 AGI 的标准。

本文翻译自:https://techcrunch.com/2025/05/22/anthropic-ceo-claims-ai-models-hallucinate-less-than-humans/

编译:ChatGPT

-----------END-----------

🚀 我们正在招募新一期的实习生

🚀 我们正在寻找有创造力的00后创业

关于Z Potentials

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI幻觉 AGI Anthropic Dario Amodei
相关文章