机器之心 01月13日
o1不是聊天模型?24小时热度暴涨,奥特曼、Brockman在线围观
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章指出,很多人将o1模型误用为聊天模型,但实际上它更适合被定位为一个报告生成器。作者通过亲身经历,发现o1在回答问题时常出现自相矛盾的情况,并耗时较长。随着与他人交流,作者意识到o1需要大量的上下文信息才能发挥其优势。与聊天模型不同,o1不会主动获取上下文,需要用户提供详细的背景信息,如同对待新入职的员工。o1擅长一次性处理多个文件,减少幻觉,并能进行医疗诊断和概念解释,但在特定风格写作和构建完整应用方面表现不佳。o1的延迟特性使其更像电子邮件,适合需要长时间运行的后台智能产品。

💡o1模型不应被视为聊天模型,而应被视为报告生成器,它需要大量的上下文信息才能发挥最佳性能。

📑使用o1时,不要像使用聊天模型那样进行迭代式提问,而是要提供详细的上下文,包括所有尝试过的方法、数据库架构以及公司业务的详细信息。

🚀o1擅长一次性处理多个文件,减少幻觉,进行医疗诊断和概念解释,但它不擅长特定风格的写作和构建完整的应用程序。

⏱️o1的延迟特性使其更像电子邮件,适合需要长时间运行的后台智能产品,用户可以接受较长的等待时间来完成特定的任务。

2025-01-13 12:29 北京

不要再将 o1 当做聊天模型了。

机器之心报道

机器之心编辑部

不要再将 o1 当做聊天模型了。


如何定位 o1 模型?你是否常常将其当做一个聊天模型来使用。


在刚刚过去的一天,一篇名为《o1 isn’t a chat model(and that’s the point)》的文章引发了包括 OpenAI CEO Sam Altman、总裁 Greg Brockman 的关注。


这篇文章表示 o1 不是一个聊天模型,我们可以将它想象成一个报告生成器。



原文链接:https://www.latent.space/p/o1-skill-issue


2014 年,OpenAI 接连放出了 o1、o1 pro、o3 模型,随着模型推理能力的提升,随着而来的是高昂的订阅费。但很多人在订阅使用后发现 o1 的表现并不如宣传的那样好,当然也包括本文的作者——曾任SpaceX软件工程师、苹果VisionOS人机交互设计师的Ben Hylak。


Hylak 表示每次他问 o1 一个问题时,都要等上 5 分钟的时间,结果看到的只是一大堆自相矛盾的胡言乱语,还有未经请求的架构图 + 优缺点列表。这让 Hylak 很是恼火,因此直言 o1 就是垃圾。


o1 回答问题,多次自相矛盾。


为了表达心中的愤怒,Hylak 还在社交媒体上分享了这种观点,「我今天一整天都在使用 o1 pro—— 我再怎么强调也不为过 —— 它真的很糟糕。」



「输出内容几乎接近胡言乱语,在同一个答案中多次自相矛盾。例如:我向它征求关于重构的建议。它建议合并文件,但输出的代码块中文件并未合并,然后又出现了完全不相关的结论。」


图源:https://x.com/benhylak/status/1864835651725910023


对于 Hylak 的观点,有人表示赞同,但也有人强烈反对,他们认为 o1 表现非常好。


随着 Hylak 与那些持反对意见的人交流越来越多,他逐渐意识到自己完全错了:他把 o1 当作聊天模型来使用,但实际上 o1 并不是聊天模型。


对于作者态度的转变,奥特曼很是欣慰,表示道:「随着人们学会如何使用 o1(包括 pro 版),观察人们对它态度的转变真是很有趣。」


奥特曼关于这条博客的推文浏览量达到 1.5M 。


Greg Brockman 表示:「o1 是一个不同类型的模型。要获得出色的性能,需要以一种与标准聊天模型不同的新方式来使用它。」



如果 o1 不是聊天模型,那它是什么?


我们可以把它想象成一个报告生成器(report generator)。如果你给定足够的上下文,然后告诉它你想要的输出,o1 通常会一下子确定解决方案。


接下来的问题是,如何使用 o1。


不要写提示,要写 Brief


给它大量的上下文,上下文的数量作者用 ton 来形容,我们可以把它想象成提示的 10 倍。


这张图解释了如何构建一个针对 o1 模型的提示(prompt),并将其分为几个部分。


通常情况下,当你使用像 Claude 3.5 Sonnet 或 4o 这样的聊天模型时,会先提出一个简单的问题并附带一些上下文。如果模型需要更多的上下文,它通常会向你询问。


你会与模型来回迭代,纠正它并扩展需求,直到达到期望的输出。聊天模型本质上是通过这种来回交互的方式从你这里获取上下文。在与模型交互过程中,我们可能会变得越来越懒,只要还能得到好的输出,输入的提示越来越敷衍。


但是,o1 会直接接受那些敷衍的问题,并不会试图从我们这里获取上下文。相反,你需要尽可能多地向 o1 提供上下文。


即使你只是询问一个简单的工程问题,你也需要:



简而言之,我们要把 o1 当作一个新入职的员工来对待。


把更多的时间用在开头提示上。图源:https://x.com/swyx/status/1839213190816870425

专注于目标:准确地描述你想要什么


一旦你向模型提供了尽可能多的上下文,就需要专注于解释你希望输出是什么。


在大多数模型中,我们会告诉模型我们希望它如何回答我们。例如:你是一位专家级软件工程师。你需要模型进行慢思考且思考的很仔细。


这与使用 o1 取得成功的方法完全相反。不要告诉它如何做 —— 只告诉它做什么。然后让 o1 接管,自行规划和解决问题的步骤。这就是自主推理的作用所在,实际上这比你作为人工环节手动审查和聊天要快得多。



知道 o1 擅长什么、不擅长什么


o1 擅长什么:


o1 做得还不够好的地方:



Hylak 尝试让 o1 写这篇博客的一个例子 — — 经过多次反复,它只会写一份平淡的报告。


延迟从根本上改变了我们对产品的体验。考虑一下电子邮件和短信之间的区别 —— 主要是延迟,语音消息与电话通话 —— 延迟,等等。


Hylak 将 o1 称为「报告生成器」,因为 o1 显然不是聊天模型 —— 它感觉更像电子邮件。

Hylak 认为 o1 将首次使某些产品成为可能 —— 例如,可以从高延迟、长时间运行的后台智能中受益的产品。


用户愿意等待 5 分钟来完成什么样的任务?一个小时?一天?3-5 个工作日?如果设计正确的话,有很多。


需要注意的是,o1-preview 和 o1-mini 支持流式传输,但不支持结构化生成或系统提示。o1 支持结构化生成和系统提示,但尚不支持流式传输。


当开发人员在 2025 年设计产品时,实际使用该模型做什么将会非常重要。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

o1模型 报告生成器 上下文 AI应用
相关文章