RWKV元始智能 2024年10月28日
彭博锐评: OpenAI o1 的 CoT 是重要的一步,不过我们离真正的智能仍然遥远(附:小竞猜活动)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

彭博在文章中分析了 OpenAI 发布的 o1 系列模型,指出其采用长期 CoT(Chain-of-Thought)技术,通过合成大量训练数据来提升模型性能。作者认为,目前 AI 的发展处于一个“无脑”阶段,谁先公布相关技术,其他人很快就会跟进。作者以自己研发的 RWKV 模型为例,展示了其在数学和代码领域应用长期 CoT 的优势,并预测这种方法将能够实现“伪 AGI”,替代大部分人类工作。然而,作者也强调,CoT 并非万能药,真正的创意、洞察力和感悟,需要超越模型的理解能力,并以 RWKV-6 7B World-v3 模型的训练曲线为例,邀请读者参与训练 loss 值竞猜活动。

😁 **长期 CoT 提升性能,但只是“低垂的果实”**: 彭博认为,长期 CoT 能够提升 AI 模型性能,但这种技术并非创新,只是目前 AI 发展中的“低垂的果实”。因为只需合成大量训练数据,包括动态去合成有针对性的训练数据,就可以实现。而各个公司都在研究这一技术,谁先公布,谁就占得先机。

🤔 **AI 发展处于“无脑”阶段,谁先公布,谁就领先**: 作者认为,当前的 AI 非常“无脑”,无论谁率先突破,其他人很快就能跟进。这就像一场竞赛,谁先公布,谁就领先。因此,OpenAI 现在公布 o1 系列模型,很可能是因为其他公司也即将发布类似技术。

🚀 **长期 CoT 在数学和代码领域优势明显**: 作者以自己研发的 RWKV 模型为例,展示了长期 CoT 在数学和代码领域应用的优势,并预测这种方法将能够实现“伪 AGI”,替代大部分人类工作。RWKV 模型在数学和代码领域表现出色,能够解决各种复杂四则运算,并且消耗的显存和生成速度恒定,适合做长期 CoT。

😔 **CoT 并非万能药,真正的创意和洞察力需要超越模型**: 作者强调,CoT 并非万能药,真正的创意、洞察力和感悟,需要超越模型的理解能力。人类的创造力、洞察力和感悟是目前 AI 无法理解的,而这些才是真正有趣的问题。

🎉 **RWKV-6 7B World-v3 模型训练 loss 值竞猜活动**: 作者以正在训练的 RWKV-6 7B World-v3 模型为例,邀请读者参与训练 loss 值竞猜活动,并承诺将送出 RWKV 帽子周边给竞猜最接近的五位朋友。

Rocky Luo 2024-09-13 16:10 广东

彭博锐评 COT 。(文末有竞猜活动)

?原文转自知乎用户 PENG Bo

原文链接:如何看待 OpenAI 发布 o1 系列模型?将带来哪些变革?- PENG Bo 的回答[1]

大家都知道长期 CoT 可以提升性能,而且很快我们会看到其它家的例子,这是最后的 low-hanging fruit,因为只需合成大量训练数据,包括动态去合成有针对性的训练数据。

其实为什么 OAI 现在公布,很可能就是因为,大家很快就会陆陆续续公布。现在的所谓 AI 非常无脑,无论谁做出来,其它人很快就都做出来,大家就等着有人公布而已。

例如,我去年 7 月演示过,一个 2.9M 参数量的超小 RWKV-4 配合长期 CoT 可以精确解决各种复杂四则运算:RWKV-LM/math_demo[2]

(训练数据合成时覆盖不够全面,数字别写太长太多,但可以随意换其它随机数字)

math_demo
math_demo

如果用 RWKV 这样的 RNN 模型,无论做多久的 CoT,消耗的显存,和生成每个字的速度,都是恒定的,因此尤其适合做长期 CoT。相当于在 state 的潜空间做长期的行走。

数学和代码,尤其适合通过这种方法提升。而且还可以配合 MCTS。而且模型可以调用外部工具验证,可以自己纠错(这个看上去还没开放,估计因为 OAI 认为目前对于公众开放这种就显得过于强)。

我一直认为,这个方法一直做下去,足够做到"伪 AGI",替代 99+% 的人类工作。因为人类在 99+% 的时候没有智能。

然后,水涨船高,大家会习以为常,这会 commoditize。

剩下的才是真正有趣的问题,例如真正的创意,真正的洞察力,超越时代的想法,在没有路的地方走出路来,也包括真正的感悟和体验,因为这些事情的验证标准是不明确的。

人类是怎么想到这些事情的,是目前的大模型无法理解的。就像,拉马努金说他是梦到的。

当然,这些也有办法解决,只不过,如果知道的人不说,不知道的人(或模型)就不可能想出来。

例如,写作是最简单的,又是最难的。

这就像什么呢?就像一直有很多人爱吹 OAI,就像高赞回答爱吹。

因为,太多的事物,在不懂的人看来是神奇的(因为他们不可能想出来),在懂的人看来是 trivial 的(因为不用想就知道)。

令人遗憾的现实是:不懂的人,做再多 CoT,也是不可能懂的。所以 CoT 不是万灵药。


训练 loss 有奖竞猜

以下是正在训练的 RWKV-6 7B World-v3 模型训练曲线, v3 数据集在 v2.1 数据集的基础上新增了约 3.11T 数据。

RWKV-6 7B World-v3 训练曲线

我们诚邀大家参与 RWKV-6 7B World-v3 模型的最终训练 loss 值小竞猜活动

如何参与 loss 竞猜?

只需在此推文的评论区留言你的 loss 竞猜数值,默认参与次活动。

RWKV-6 7B World-v3 模型预计在今年 11 月初完成训练

届时,我们会公布最终训练 loss 值,评论区与实际训练 loss 最接近的五位朋友,可获得我们送出的 RWKV 帽子周边一份!

RWKV 帽子

相关链接

[1]

如何看待 OpenAI 发布 o1 系列模型?将带来哪些变革?- PENG Bo 的回答: https://www.zhihu.com/question/666991594/answer/3624168868

[2]

RWKV-LM/math_demo: https://github.com/BlinkDL/RWKV-LM/tree/main/RWKV-v4neo/math_demo


跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI CoT 模型 RWKV OpenAI
相关文章