RWKV元始智能 2024年12月16日
彭博知乎撰文:真正的智能不是思考,而是开挂作弊
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章指出当前AI发展并非智能过高,而是过于愚蠢。作者认为,目前AI依赖大量数据进行题海战术,缺乏对世界力量的理解,而人类有时也会因思维错误而不如打字机猴子。作者强调,真正的智能不是思考,而是作弊开挂,并透露正在研究方法帮助人们“开挂”。文章还提到了RWKV-7模型在多语言和代码方面的表现,以及未来RWKV-8的展望。同时,作者也反思了人类在认知上的局限性,以及AI发展中存在的潜在风险。

🤔 现有AI并非过于聪明,而是过于愚蠢,尤其能力强的“蠢人”更具危险性。当前AI依赖大量数据进行题海战术,缺乏对世界力量的理解。

💡 真正的智能不是思考,而是作弊开挂,是卡bug。作者认为,很多人没有智能,却认为能做出超级智能,这很可笑。并表示正在研究方法帮助人们“开挂”。

🐒 人类有时会因为思维错误而不如打字机猴子,因为有时人的整个思维是错的。很多问题的正误,要在很久之后才会显现。

🌐 RWKV-7模型在多语言和代码方面表现出某种“思路”,虽然目前仍处于“幼儿园玩泥巴”的阶段,但未来RWKV-8值得期待。

PENG Bo 2024-12-16 11:33 广东

目前AI的问题不是太聪明,是太蠢。能力强的蠢人最为危险。

?Tips

本文转自知乎作者:PENG Bo

原文链接:https://www.zhihu.com/question/6833253550/answer/55768424495

迄今AI的发展,于我的意义,是逐渐证实一个我的观察:

这个世界的人,在某些方面的智能,真的很低。

我一直怀疑,也许有人和我一样,不说知道的事情(因为感觉可能会发生什么不好的事)。

但是,从一些证据看,这个概率在逐年降低。因为很多人好像是真信自己说的东西。


目前LLM必须堆海量数据,因为目前是纯纯的题海战术。

对于数学和代码(也包括下棋等等),存在oracle,可以靠合成数据,继续暴力前行。

但是,大多数问题,并没有一个能很快给出答案的oracle。原因是什么,自己想。


我不妨说,为什么,有的人有时可以解决这种问题。

因为人可以理解世界之内的力量,和世界之外的力量(我不玩⚪,此乃巧合,lol)。

这里说的"世界之内的力量"是什么?

这里说的"世界之外的力量"是什么?

你问GPT-5也不可能知道,对吧?

RWKV-10可能可以自己知道一点。我说一个秘密,我的智能不但很低,而且越来越低,与日俱减。

其实,我的方法,是作弊开挂。这就不需要"智能"。

所以,什么是智能?

如果你觉得智能是什么system1什么system2,说明没入门。

我直接说吧,智能不是思考,智能是开挂作弊,是卡bug。

认真你就输了。要走歪门邪道。

你想知道怎么开挂吗?你可以先看看你大脑的状态。

补充一句:我在研究方法,给大家开挂。至少是会有帮助的。


很多人,没有智能,不知道什么是智能,却认为,能做超级智能。

太搞笑,救命。

但是,一个很蠢的AI足够毁灭人类。目前AI的问题不是太聪明,是太蠢。

现在我们在做 Artificial General Stupidity,AGS。能力强的蠢人最为危险。


一种常见的朴素想法,在虚拟环境做RL。这对于大多数问题无疑很有用。

但某些问题很有趣。

打字机猴子的故事。

打字机猴子在理论上可以打出莎士比亚。

打字机猴子在实际上不可以打出莎士比亚。

人比打字机猴子强,人可以打出莎士比亚。

但有时,人比打字机猴子还糟糕。

为什么?

因为有时人的整个思维是错的,就是要走错误的道路,就是不走正确的道路。

很多问题的正误,要在很久之后才会显现,很nasty。

其实,有正确和错误给人选,已经是简单了。

对于有趣的问题,很多人,根本不知道这里有问题,根本不知道这里有路口。

怎么走?

其实,有路给人走,已经是简单了。

很多人,根本不知道有路,根本不知道有走。

很多人,根本不知道,原来可以走路?原来路是可以走的?

(不妨我先问你一句:是你走路,还是路走你?)

太搞笑,救命。

是的,搞笑的,不是走正确或错误的路,而是,根本没在走路。当然,这不影响,我们确实在努力做一些很有实际价值的事情,并取得了很多成效。


还是看看RWKV-7,家人们。

下面是一个L12-D768的0.1B RWKV-7的效果,支持世界所有语言和代码。

注意只有0.1B,而且是基底模型,而且还没做任何post-training。

来个日文,因为属于大家都可以猜到一点意思的,我也不知道它写得对不对。其它什么阿拉伯文,印尼文,印度文,都可以的。只需要RWKV-7 L12-D768噢。

中文小说续写,对于0.1B不错。中文语料占训练数据的<10%,大部分是英文,英文强得多。

我发现RWKV-7有个特点,它的自我重复变少了,它明显比各种transformer和RWKV-6更有某种"思路"。

使用 RWKV-Runner 运行[1]

Hugging Face[2] 下载模型。


我们正在做 WebGPU 纯网页运行版。

关于 RWKV-7 的介绍:https://zhuanlan.zhihu.com/p/9397296254

客观而言,RWKV-7还是幼儿园玩泥巴,后续的RWKV-8会有趣一点。


转刚看见的推特图:

AI锐评:


相关链接

[1]

RWKV-Runner 运行: https://rwkv.cn/RWKV-Runner/Introduction

[2]

Hugging Face: https://huggingface.co/BlinkDL/rwkv-7-world

?Tips

本文转自知乎作者:PENG Bo

原文链接:https://www.zhihu.com/question/6833253550/answer/55768424495

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 智能 RWKV 开挂 认知
相关文章