孔某人的低维认知 01月14日
谈《o1 isn’t a chat model》
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了O1模型的使用体验,认为其不擅长与用户互动提问,更像报告生成器而非聊天模型。作者指出O1倾向于在用户提供少量信息时给出无用输出,需要用户主动提供更多上下文。尽管O1在处理大量上下文、减少幻觉等方面表现出色,但在控制写作风格上存在不足,倾向于学术报告风格。作者认为O1的问题在于新增训练数据导致行为过强,需要优化。同时,作者强调“先思考,再措辞”的重要性,并建议LLM加入“讨论互动”滑块来控制反问倾向。

🤔O1模型不擅长主动向用户提问,当用户提供的信息不足时,它可能会在大量思考后给出无用的输出,因此用户需要主动提供尽可能多的上下文信息。

📝O1的输出风格偏向于正式的学术或公司报告,控制写作风格较难。虽然这在某些场景下是优点,但对于需要灵活文风的用户来说是一个限制。

✅O1模型在处理大量上下文、减少幻觉方面表现出色,在医学诊断、概念解释、评估等场景中表现更好,这体现了其在专业领域的优势。

⚙️作者认为O1的不足之处在于新增的训练数据导致模型行为过强,需要在模型层进行优化。他建议可以引入一个“讨论互动”滑块,来控制反问倾向,类似科幻电影中机器人的“幽默度”设置。

原创 孔某人 2025-01-13 20:24 北京

o1不擅长向用户提问

原文链接

https://www.latent.space/p/o1-skill-issue

1、原文内容简介

虽然标题具有一定的话题性,观点也算新颖,但这篇文章的阅读体验并不好,重点不多。这里截取一些我认为值得看的观点:

2、我的评论

从上述使用体验来说,我觉得他(那篇文章的作者)确实使用o1的经验不少,应该比我多。

我现在把o1当作默认使用模型,其实并没有感觉他说的那些问题,至少没有强到会刺痛我。不过我个人确实不太常使用多轮对话这种方式。我经常喜欢编辑自己之前的某个消息,补充信息和要求,让其重新生成回答。

他发现了2个主要问题:第一,o1不倾向于向用户提问;第二,回答风格太过趋向于正式报告。后者好坏因人而异,而前者确实能够支撑他标题的观点,o1在与人互动上还不太好。

我认为这两个问题都是o1新增的训练数据占比过高导致模型在这方面行为过强,确实是需要分别优化的,这很值得模型层的同学注意。

我个人一直倾向于“先思考,再措辞”的两阶段流程,所以回答文风方面我觉得倒不是问题。我最近一个月觉得:未经思考(阶段)的LLM结果不值得给人看。可能未经措辞润色(环节)的内容也不值得在某些场景下发给用户吧。

何时该向用户提问确实是一个很难平衡的问题。用户是懒的,很难一次给足够的信息,但用户也讨厌被连续追问。可能一个好的方式是给一个“讨论互动”滑块来控制反问的倾向。跟科幻电影中的机器人设定的“幽默度”选项其实很类似,而且这个幽默度滑块我们现在应该就需要了,不知道哪家LLM chatbot会首先引入。

A、结语

其实《o1 isn’t a chat model》这篇文章的内容有点少,有点不值得我来写它。在补充了我的观点之后,也仍然不算长。但考虑到这是目前少有的对于如何使用o1的讨论,还是发一下吧。


交流与合作

如果希望和我交流讨论,或参与相关的讨论群,或者建立合作,请私信联系,获取联系方式请点击 -> 联系方式

本文于2025.1.13首发于微信公众号

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

O1模型 LLM 人机交互 模型优化 上下文
相关文章