孔某人的低维认知 2024年12月27日
信息类内容的抽象层次转换
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了LLM在信息总结和抽象视图方面的潜力。作者通过个人经历,对比了过去AI总结工具的不足和o1模型在信息提取方面的显著提升。文章指出,用户需要个性化的信息消费体验,而LLM可以通过提供不同抽象层级的内容视图,让用户快速定位感兴趣的信息。作者认为,信息抽象层次转换是LLM的优势领域,类似于模态转换,并强调了为用户提供低成本表达偏好的方式的重要性。文章还借鉴了数据库和代码领域的抽象概念,提出了构建信息抽象视图体系的想法,旨在提升用户的信息消费效率和质量。

💡 过去AI总结工具未能满足用户需求,主要原因在于模型能力不足,无法有效保留信息并进行简洁概括。而o1模型在信息总结方面展现出显著提升,能更准确地提取关键信息,并以结构化的形式呈现,满足了作者对于信息密度和简洁性的期望。

🧩 用户需要个性化的信息消费体验,而LLM可以通过提供不同抽象层级的内容视图,让用户快速跳过不感兴趣的内容,并在感兴趣的部分进行深入挖掘。这种抽象视图体系类似于数据库中的聚合概念,旨在提升用户的信息消费效率和质量。

🖥️ LLM在信息抽象层次转换方面具有优势,类似于模态转换。通过构建类似脑图的抽象层次视图体系,用户可以在不同抽象层级之间切换,快速定位所需信息,并对特定内容进行下钻查看,从而实现更加个性化的信息消费。

🚀 新一代AI工具通过提升代码构建的抽象层面,使得用户可以在更高的抽象层面进行思考,无需过度关注细节代码实现,这使得AI工具可以逐渐服务于非技术岗位。这也印证了抽象层次在信息处理和应用中的重要性。

原创 孔某人 2024-12-27 13:09 北京

LLM的又一个优势领域。

本文主要讨论一个比较冷门的视角,不过我认为它比较重要。

1、引言

1.1、两个案例

最近一个季度里,有两件事重新唤起了我在这方面的认知,并强化了我的这个视角。

第一件是Cursor团队访谈中提到一个点“未来的IDE可以控制查看代码库的抽象层级,可以在不同的抽象层级之间切换,以适合开发者当时的需求”。在 Lex Fridman采访Cursor创始团队 中文版 (02:16:56)。说实话这并不是什么小众的想法,我觉得我过去肯定不止一次的有过类似的想法,但都是没有再深入去探索。

另一件事是,我过去一段时间做了一个凝练播客访谈转录稿文字的工具,希望能够优化播客的消费成本。但做完之后发现其实对于优化消费成本还远远不够。

过去一段时间,我们也看过很多很多的AI总结结果和产品,但这些产品的质量我都无法忍受,也很难建立起对其质量和信息完整性的信任。他们的输出结果与其说是脱水,不如说是目录,能知道讨论了什么话题,但观点和信息基本都丢了。

但在我最近研究o1 pro的用途的时候,发现o1 pro和o1模型的内容总结能力有着显著的改善。一改我之前对AI总结的印象,信息的保留和简洁性非常符合我的期望。所以我后面就转去用o1来大量消化各种音视频材料了,(没有使用o1 pro是因为考虑到ChatGPT的降智策略可能与用量密切相关)。感觉好像进入到新世界,信息消化速度突飞猛进,而且没有受到原始形式的各种问题的限制,信息密度刚好符合我的胃口。粗略估计了一下,相对于已经凝练过文字的版本,压缩比大约4:1,原始3min的访谈,大概可以总结到100-200字,并附带bullet point形式的结构化。

我也稍作调研,了解了一下其他人对这种形态的感受。较高比例的粗略反馈是,认为这种形态的内容过于破碎,更愿意读通顺的文章。但我和另一位同样注重内容角度的人有一个共同的感觉:看大段的长文虽然有连续感,自己也能跳读,但实际上很多时候没有实质性的输入,其实没有看。当然不排除有些过去看长文很多的人在这方面有特别的能力,但对于一般人来说,这更多是一种“好像看了”的感觉。

但随着我扩展看的内容,发现o1输出的这种总结也并不总能匹配我的阅读期望,有很多内容我看要点提炼也觉得这并非我关注的内容,甚至想要把某类内容都排除掉的感觉。

1.2、反思内容总结类产品

无论是代码还是对话或者文章,过去我们都没有太好的信息浓缩的自动工具,很多工作是靠人工完成的,例如助手为我们整理的内容,或者是内容平台上的高度脱水和凝练的视频。但这些内容不是由我们的需求触发的,我们仍然缺乏和不习惯这类工具。

而o1是第一次让我体验到了这类工具的成品,虽然我仍然是在web版上手工粘贴,但这个产品对我来说是足够的。

信息总结类的产品很早就被探索了,但一直没能达到PMF,甚至已经被熟悉AI产品的人群贴上了劣质的心理标签。但就其失败原因而言,并不是需求不对,而是我们尚未真正做好这类产品。我之前一再吐槽的应用层策略做得太薄是个问题,但可能更重要的问题是模型能力太差。而o1正式版才是能满足我在信息提取方面要求的模型,之前的GPT-4o、Claude 3.5 Sonnet等等其实还不满足,更别提比这更差的模型了。

如果现在能做一个o1质量级别的信息总结工具产品,那么我觉得它会开拓出一片自己的市场的。

2、内容的抽象视图

虽然看起来o1对于信息总结类产品很有颠覆性,但究其原因,还是要让交付的内容符合用户的个性化期望/需求。很多时候信息的消费并非用户的工作要求,它需要跟所有其他的娱乐方式一同竞争,而娱乐方面其实已经很卷,对人性的刺激密度堪称最高。

但对于用户的个性化了解其实很难,很多“千人千面”的产品其实只是“百万人百面”,即使是在抖音上,大部分用户能够匹配到的内容种类也只是一些主流热门品类。即使互联网大厂,也只能个性化匹配到如此程度,我们目前还没法期望一个信息总结类产品能够很精准的匹配用户的兴趣和思考层面。

那么不得已,就只能让用户表达自己的偏好,但需要给他们足够低成本地表达自己偏好的方式。用户选择了候选内容,这本身就是一种表达,但长内容的进一步消化处理成本对于人类来说很高。我们需要提供一种有点类似脑图的抽象层次视图体系,让用户可以快速跳过自己不关注的内容,在合适的抽象视图层面进行消费,以及在特别感兴趣的部分下钻到最原始的内容。我这里使用了数据库与数据分析领域的术语,这并非比喻,它们实际上是一样的,只不过在内容领域是“抽象”,而在数据分析领域是“聚合”。

在代码场景也是如此,虽然程序员不得不直面代码的最底层,但传统软件工程就已经反复强调了合适的抽象封装、降低认知复杂度的重要性。新一代AI Coding工具能够破圈的一个原因是,它们可以让用户保持在一个更高的抽象层面进行思考,而不必总把思考下降到细节代码实现层面。随着我们不断提升代码构建中视图的抽象层面,它逐渐就进入了业务逻辑和产品设计的领域,这也是它为什么可以平滑地逐步服务非技术岗位的原因。

A、结语

信息的抽象层次转换也是跟模态转换类似的LLM优势领域,只不过之前的模型和方案在用户角度来看使用体验还很差。但现在我在o1上看到了希望。

可能有不少读者看完了也没懂这个说的是具体是什么。但这个内容量应该已经可以让能懂的人看懂了,如果大家在此方面有什么想讨论的,欢迎与我联系、交流或合作。

交流与合作

如果希望和我交流讨论,或参与相关的讨论群,或者建立合作,请私信联系,获取联系方式请点击 -> 联系方式

本文于2024.12.27首发于微信公众号和知乎,知乎链接:

https://zhuanlan.zhihu.com/p/15001921115

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LLM 信息总结 抽象视图 个性化 o1模型
相关文章