36kr 04月09日 08:08
Llama 4五大疑点曝光,逐层扒皮,全球AI进步停滞,NYU教授称Scaling彻底结束
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入探讨了Llama 4的发布所引发的关于AI发展瓶颈的讨论。文章指出,Llama 4在长上下文处理、代码能力等方面存在诸多疑点,性能表现令人失望。同时,文章援引了NYU教授马库斯的观点,认为大模型规模化已经结束,LLM在推理方面仍存在不足。文章还分析了AI发展面临的资金、技术、市场等多重挑战,预示着AI进步可能面临停滞,并呼吁寻找更可靠的AI发展方法。

🤔 **长上下文能力存疑:** Llama 4在长上下文处理能力上表现不佳,与Gemini 1.5 Pro等模型存在差距,尤其是在深度理解任务上,性能随着token长度增加而下降。

🧐 **发布策略引发质疑:** Llama 4选择在周末发布,且训练数据截止时间较早,引发了Meta可能为了赶进度而仓促发布,并试图减少关注的猜测。

🤔 **模型性能与作弊争议:** 尽管Llama 4在某些基准测试中表现出一定优势,但Meta是否在LM Arena上进行作弊仍存疑,这直接影响了对其真实性能的评估。

😕 **代码能力表现不佳:** Llama 4在ADA的Polyglot编码基准测试中得分惨淡,与其宣称的AI模型将取代中级程序员的言论形成鲜明对比。

⚠️ **“最佳内部运行”的局限性:** Llama 4的性能数据可能仅代表“最佳内部运行”的结果,这掩盖了其真实性能的波动性,并影响了与其他模型的客观比较。

刚刚,一位AI公司CEO细细扒皮了关于Llama 4的五大疑点。甚至有圈内人表示,Llama 4证明Scaling已经结束了,LLM并不能可靠推理。但更可怕的事,就是全球的AI进步恐将彻底停滞。

令人失望的Llama 4,只是前奏而已。

接下来我们恐将看到——全球局势的改变,将彻底阻止AI进步!

最近,一位AI CEO做出长视频,逐级对Llama 4身上的六大疑点进行了扒皮。

同时,NYU教授马库斯发出博客,总结了目前这段时间AI圈的状况。

Scaling已经结束;模型仍然无法可靠推理;金融泡沫正在破裂;依然没有GPT-5;对不可靠的语言模型的过度依赖让世界陷入了困境。我的25个2025年预测中的每一个,目前看起来都是对的。

大语言模型不是解决之道。我们确实需要一些更可靠的方法。

OpenAI和Anthropic这样的公司,需要筹集资金来资助新模型本后的大规模训练运行,但他们的银行帐户里并没有400亿或1000亿美元,来支撑庞大的数据中心和其他费用。

问题在于,如果投资者预见到了经济衰退,那就要么不会投资,要么投资较少。

更少的资金,就意味着更少的计算,也就是更慢的AI进展。

布鲁金斯学会2025年的一份报告称,若科研成本持续上升,美国在人工智能、生物技术和量子计算等关键领域的领先地位可能受到威胁。据估算,当前政策若持续实施五年,美国科研产出可能会下降8%-12%。

在以前的一个采访里,Anthropic CEO Dario曾被问到:到了如今这个阶段,还有什么可以阻止AI的进步?他提到了一种可能——战争。

没想到,在这个可能性之外,我们居然提前见证了系统的另一种混沌。

而Dario也提前预测到,如果出现「技术不会向前发展」的信念,资本化不足,AI进步就将停止。

AI CEO五大问,逐级扒皮Llama 4

最近闹出大丑闻的Llama 4,已经证明了这一点。

我们很难说,Llama 4系列三款模型中的两款代表了多少进展,显然在这个系列的发布中,夸大宣传的水分要比诚实的分析多得多。

疑点1:长上下文大海捞针,其实是骗人?

Llama拥有所谓业界领先的一千万个token的上下文窗口,听起来似乎很酷炫。

可是等等,24年2月,Gemini 1.5 Pro的模型,就已经达到1000万token的上下文了!

在极端情况下,它可以在视频、音频和共同文本上,执行惊人的大海捞针任务,或许,是谷歌忽然意识到,大海捞针任务意义非常重大。

正如这篇Llama 4博客所说,如果把所有哈利波特的书都放进去,模型都能检索到放入其中的一个密码。

不过,这位CEO表示,这些48h前发布的结果,不如24小时前更新的这个fiction livebench基准测试这么重要。

这个基准测试,用于长上下文的深度理解,LLM必须将数万或数十万个token或单词拼凑在一起。

在这里,在这个基准测试中,Gemini 2.5 Pro的表现非常好,而相比之下,Llama 4的中等模型和小模型,性能极其糟糕。

而且随着token长度的增加,它们的表现越来越差。

疑点2:为何周六发布?

这位CEO察觉到的第二大疑点就在于,Llama 4为何选在周六发布?

在整个美国AI技术圈里,这个发布日期都是史无前例的。

如果阴谋论一点想,之所以选在周六发布,是因为Meta自己也心虚了,希望尽量减少人们的注意力。

此外,Llama 4的最新训练数据截止时间是2024年8月,这就很奇怪。

要知道,Gemini 2.5的训练知识截止时间是2025年1月。

这就意味着,在过去的9个月里,Meta一直在使尽浑身解数,拼命让这个模型达到标准。

有一种可能性是,或许他们本打算早点发布Llama 4,但就在9月,OpenAI推出了o系列模型,今年1月,DeepSeek R1又来了,所以Meta的所有计划都被打乱了。

疑点3:大模型竞技场,究竟有没有作弊?

不过,这位CEO也承认,尽管全网充斥着对Llama 4群嘲的声音,但它的确也展示出了一些坚实的进展。

比如Llama 4 Maverick的活动参数量大概只有DeepSeek V3的一半,却取得了相当的性能。

那现在的核心问题就在于,Meta究竟有没有在LM Arena上进行作弊,在测试集上进行训练?

目前,LM Arena已经迅速滑跪,公开了2000多组对战数据给公众检阅,并且表示会重新评估排行榜。

目前姑且按照没有算,那就意味着我们拥有一个强大得惊人的基础模型了。

看看这些真实数字,假设没有任何答案进入Llama 4的训练数据,这个模型在GPQA Diamond上的性能(谷歌验证的极其严格的STEM基准测试)实际上是比DeepSeek V3更好的

而在这个基础上,Meta就完全可以创建一个SOTA级别的思维模型。

唯一的问题是,Gemini 2.5 Pro已经存在了,而DeepSeek R2也随时会问世。

疑点4:代码很差

还有一点,当Llama 4走出舒适区时,性能就会开始狂降。

以ADA的Polyglot这个编码基准测试为例,它测验了一些系列编程语言的性能。

但与许多基准不同,它不仅仅关注Python,而是一系列编程语言,现在依然是Gemini 2.5 Pro名列前茅。

但是想要找到Llama 4 Maverick,可就很难了,得把鼠标滚动很久。

它的得分当然惨不忍睹——只有15.6%。

这就跟小扎的言论出入很大了,显得相当讽刺。

就在不久前,他还信誓旦旦地断定说,Meta的AI模型将很快取代中级程序员。

疑点5:「结果仅代表目前最好的内部运行」

这一点,同样已经在AI社区引发了群嘲。

在下面这个表格中,Meta将Llama 4和Gemini2.0 Pro、GPT-4.5等模型进行了比较,数字非常漂亮。

但仔细看脚注,却说的是Llama模型的结果代表了目前最好的内部运行情况,所以很大可能是,Meta把Llama 4跑了5遍或10遍,取了其中的最好结果。

而且,他们还故意不将Llama 4 Behemoth跟DeepSeek V3进行比较,后者比它在整体参数上小三倍,在互动参数上小八倍,性能却相似。

如果从消极的角度下判断,就可以说Llama 4最大的模型参数上DeepSeek V3基础模型的许多倍,性能却基本处于同一水平。

还有在Simple Bench中,Llama 4 Maverick的得分大概为27.7%,跟DeepSeek V3处于同一水平,还低于Claude 3.5 Sonnet这类非思维模型。

另外,这位CEO还在Llama 4的使用条款中发现了这么一条。

如果你在欧洲,仍然可以成为它的最终用户,但却没有权利在它的基础上进行构建模型。

马库斯:Llama 4的惨痛教训表明,Scaling已经结束!

而Llama 4的惨淡表现,也让NYU教授马库斯写出长文,断言Scaling已经结束,LLM仍然无法推理。

他的主要观点如下。

大模型的Scaling已经彻底结束了,这证实了我三年前在《深度学习正在撞墙》中的预测。

一位AI博士这样写道:Llama 4的发布已经证实,即使30万亿token和2万亿参数,也不能让非推理模型比小型推理模型更好。

规模化并不奏效,真正的智能需要的是意图,而意图需要远见,这都不是AI能做到的。

即使LLM偶尔能提供正确的答案,往往也是通过模式识别或启发式的捷径,而非真正的数学推理。

比如最近ETU团队关于LLM在美国奥数上糟糕表现的研究,就彻底击碎了「LLM会做数学题」这个神话。

最终,生成式AI很可能会变成一个在经济回报上失败的产品。

泡沫可能真的要破灭了。英伟达在2025年的跌幅,就已经超过了三分之一。

而Meta的Llama 4的残酷真相,再次证实了马库斯在2024年3月预测——

达到GPT-5级别的模型,将会非常困难。很多公司都会有类似模型,但没有护城河。随着价格战进一步升级,许多只会有微薄的利润。

最终,马库斯以这样的方式总结了自己的发言——

「大语言模型绝对不是解决之道,我们需要一些更可靠的方法。Gary Marcus正在寻找对开发更可靠替代方法有兴趣的投资者。 」

参考资料: 

https://www.youtube.com/watch?v=wOBqh9JqCDY 

https://garymarcus.substack.com/p/scaling-is-over-the-bubble-may-be 

本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Llama 4 大语言模型 AI发展 Scaling 技术瓶颈
相关文章