夕小瑶科技说 2024年11月14日
Ilya承认Scaling Law到头了,Meta和谷歌寻找替代o1的方法
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

随着AI模型规模的不断扩大,传统的Scaling Law模式逐渐显现出局限性,数据和算力增长的边际效益递减。OpenAI正在探索新的训练范式,例如o1模型,不再依赖于单纯的规模扩展,而是寻求更深层次的算法创新。Meta和Google等科技巨头也纷纷转向新的研究方向,例如思维偏好优化和测试时计算,通过在推理阶段增加计算资源来提升模型性能。这些研究表明,未来的AI发展需要更加注重算法创新和效率提升,而非一味追求模型规模的扩大,才能实现更强大的AI能力。

🤔 **Scaling Law的局限性:**随着模型规模和数据集的增长,性能提升速度逐渐放缓,单纯依靠数据和算力的增加已无法实现进一步突破,现有数据资源接近饱和。

💡 **OpenAI的o1模型:**代表了一种全新的训练范式,探索超越传统GPT架构的新途径,可能涉及到更深层次的算法创新和训练策略的彻底变革,并与推理能力更加紧密结合。

🚀 **测试时计算(Inference-time Computation):**通过在模型推理过程中增加计算资源,例如Meta的思维偏好优化和Google的链式推理,使得模型能够进行更深入的思考和分析,提升复杂任务的处理能力。

🔍 **算法创新与效率提升:**未来AI发展需要结合模型压缩、专用硬件加速、少样本学习等技术,实现算力和算法的最佳配合,而非一味追求规模化。

📊 **规模扩大(Scaling)的思考:**需要关注“扩大正确的规模”,在保持效率和效果的同时进行规模扩大,避免资源浪费和效率低下。

原创 小鹿 2024-11-13 18:38 四川

夕小瑶科技说 原创
作者 | 小鹿

近期,全球科技界的目光都集中在OpenAI即将推出的下一代模型上,究竟会是o2还是GPT-5?

o2代表了全新的训练范式,而GPT-5则代表了继续Scaling Law的路线。

实际上,这个问题已经在11月份的时候,有Reddit网友向Altman提出过:

Altman最新谈到OpenAI的动态时,与OpenAI寻求新路径的努力是相呼应的--下一代技术不会是GPT的简单迭代

为什么不再是GPT-5了?

首先,GPT系列模型,即生成式预训练Transformer模型,其核心特点是依靠数据驱动的Scaling Law来推动性能的提升。

论文《Scaling Laws for Neural Language Models》提出语言建模性能随着模型大小、数据集大小和用于训练的计算量的增加而平稳提升。为了获得最佳性能,这三个因素必须同时扩大。当不受其他两个因素的限制时,经验性能与每个单独因素之间具有幂律关系。

然而,随着技术的不断进步,这种依赖于数据量和模型规模增长的模式开始显现出其局限性,优化和改进的速度逐渐放缓。

OpenAI的资深前合伙人,同时也是早期推动暴力scaling的重要人物之一的Ilya在接受路透社采访时提到:“实际上,Scaling Law已经达到了极限,就要到头了!”

在这样的背景之下,OpenAI的o1模型不再是对GPT模型的扩展,它代表了一种全新的训练范式。

这种范式探索了超越传统GPT架构的新途径,可能涉及到更深层次的算法创新和训练策略的彻底变革。

当Altman提及「o1及其后续版本」时,这暗示了Orion模型可能会与推理能力更加紧密地结合,并有可能被重新命名为「o2」。

Scaling Law没错,但是现阶段不能再这样用了

那这样看来Scaling Law是不是已经到天花板了?

Ilya 指出:我们不仅需要关注规模的扩大,更重要的是“扩大正确的规模”。即在保持效率和效果的同时进行规模扩大,变得尤为重要。

Ilya 的这一观点引发了一个核心问题:当我们谈论规模扩大(scaling)时,我们究竟在扩大什么?

在AI领域,规模扩大通常意味着模型的复杂性、数据集的大小以及计算资源的投入。然而,这种无差别的规模扩大往往导致资源的浪费和效率的低下。

而各大科技巨头们现在都认识到这个问题了!

OpenAI想到的新办法是测试时计算(inference-time computation)。

这种策略通过在模型推理过程中增加计算资源的投入,使得模型能够实时地生成和评估多个选项,而不是仅限于一个固定答案。

这种策略的核心优势在于,它使得模型在处理复杂的任务时,如解决数学问题、编程挑战或需要类似人类的推理和决策的场景,能够进行更深入的思考和分析。

以OpenAI的o1模型为例,该模型通过在训练和测试阶段引入不同级别的计算资源,实现了规模的扩展。这种双重规模扩展不仅提升了模型的性能,还降低了对能源和硬件资源的过度依赖。

各大公司也同样认识到不能再像以前一样使用Scaling Law了!

Meta的研究团队提出了一种名为“思维偏好优化”(Thought Preference Optimization, TPO)的技术,旨在训练大语言模型在执行任务前进行“思考”,而不仅仅依赖于特定的训练数据。

通常,LLMs被训练以回答用户问题或执行指令,模仿人类专家的反应。对于需要推理和规划的复杂问题,这种思考能力至关重要,并且可以应用于各种任务。

论文地址:https://arxiv.org/pdf/2410.10630

即通过探索可能的思考生成空间,使模型能够在缺乏直接监督的情况下学习如何思考。

对于每个指令,他们使用评判模型对思考候选者进行评分,以评估它们的响应质量,然后通过偏好优化进行调整。

Google的研究团队也提出了采用链式推理(CoT)方法来解决多步骤问题,并在生成多个答案后选择最佳答案。

通过在测试时增加计算量来改进大型语言模型(LLMs)的输出,是构建能够自我改进并处理开放式自然语言问题的代理的关键步骤。

该研究团队研究了LLMs在增加推理时计算量时的表现,重点是探讨如果允许LLM使用固定但非琐碎的推理时计算量,它能在一个具有挑战性的提示上提高多少性能。

这个问题的答案不仅影响LLM的性能,也影响LLM预训练的未来以及如何在推理时计算和预训练计算之间做出权衡。

我们得到一个提示和一个测试时计算预算,以在此预算内解决问题。在上述抽象中,有不同的方法可以利用测试时计算。这些方法中的每一种在给定的特定问题上可能更有效或者效果较差。我们如何确定对于给定提示最有效的测试时计算利用方式?与仅使用一个更大的预训练模型相比,这种方法的表现如何?

尽管这一点很重要,Google的研究团队探索了两种主要机制:

该团队发现,这两种情况下,扩展测试时计算的不同方法的有效性根据提示的难度而有很大的不同。

这一观察激发了应用一种“计算最优”的扩展策略,该策略旨在最有效地自适应地分配测试时计算。使用这种计算最优策略,与最佳基线相比,Google的研究团队可以将测试时计算扩展的效率提高4倍以上。此外,在FLOPs匹配评估中,该团队发现在较小的基础模型取得一定非琐碎成功率的问题上,测试时计算可以用来超越一个大14倍的模型。

论文链接:https://arxiv.org/pdf/2408.03314

结语

过去的AI发展确实验证了Scaling Law的有效性,一直受到关注和争议。

支持者认为,持续扩大规模是通往人工通用智能的必由之路,而批评者则指出,单纯追求规模化过于简单化,忽视了算法创新的重要作用。

事实上,规模扩展和算法创新并非对立,而是相辅相成。

Scaling Law的未来发展或许需要与其他技术路线相结合,例如模型压缩、专用硬件加速、少样本学习等,以实现算力和算法的最佳配合。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Scaling Law AI模型 算法创新 推理能力 测试时计算
相关文章