36氪 - 科技频道 2024年11月25日
Anthropic与OpenAI罕见观点相同:AI并没有“撞墙”,只是变得太聪明
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期,关于AI模型规模定律是否遭遇“撞墙”现象引发争议。OpenAI和Anthropic均认为AI模型性能提升没有遇到瓶颈,并表示大语言模型在自我纠正和推理方面持续进步,能够胜任更多任务。Anthropic副总裁格斯滕哈伯强调,新模型不断拓展大语言模型的功能,解锁新的应用场景,例如任务规划。他认为,衡量新一代AI模型能力变得更具挑战性,因为模型正在实现新的功能类别。同时,扩展模型规模有助于推动神经网络的自我纠正能力。行业发展仍处于早期阶段,需要持续收集用户反馈并迭代改进模型。

🤔 **OpenAI和Anthropic均认为AI模型规模定律没有遇到“撞墙”现象,认为模型性能提升没有瓶颈。** OpenAI CEO山姆·奥特曼和Anthropic副总裁迈克尔·格斯滕哈伯都公开表示,随着模型规模扩大,其性能提升不会遭遇无法逾越的天花板,AI能力仍在不断增强。

🚀 **大语言模型在自我纠正和推理方面持续进步,能够胜任更多任务,例如任务规划。** Anthropic的最新模型已经能够进行任务规划,例如模拟人类在电脑上操作流程,包括网上订购披萨等。这表明AI模型在规划和推理方面取得了显著进展,能够胜任更多复杂的任务。

📈 **衡量新一代AI模型的能力变得更具挑战性,因为模型正在实现新的功能类别。** 随着AI模型能力的提升,原有的基准测试和评估方法可能不再适用。因为模型已经能够完成原有任务,并开始探索新的功能领域,所以需要开发新的评估方法来衡量其能力。

🔄 **扩展模型规模有助于推动神经网络的自我纠正能力,并推动“AI智能体”的发展。** Anthropic和Scale AI都认为,通过扩展生成式人工智能的规模,有助于推动这种自我纠正的神经网络的进步,并促进“AI智能体”的发展。

💡 **行业发展仍处于早期阶段,需要持续收集用户反馈并迭代改进模型。** Anthropic强调,目前AI发展仍处于早期阶段,需要持续从应用程序开发者那里收集反馈信息,了解模型的不足之处,并将其集成到模型中进行迭代改进。

11月25日消息,近期,关于AI模型规模定律(Scaling Law)是否遭遇“撞墙”现象的争议引发了广泛关注。在这场争论中,作为竞争对手的OpenAI与Anthropic却罕见地一致枪口对外,他们都认为AI并没有“撞墙”。

这场争论的核心聚焦于:随着模型规模的持续扩大,其性能提升是否会遭遇无法逾越的天花板。对此,OpenAI的首席执行官山姆·奥特曼(Sam Altman)已在社交媒体上明确表示:“没有墙!(there is no wall.)”

如今,Anthropic的副总裁兼技术主管迈克尔·格斯滕哈伯(Michael Gerstenhaber)也发表了看法。他指出,大语言模型及其他形式的生成式人工智能在“自我纠正”方面正稳步进步,将能够胜任更多任务,并推动“AI智能体”的发展。

在最近名为“新一代人工智能:它能实现生产力承诺吗?”的会议上,格斯滕哈伯强调:“大模型在自我纠正与自我推理方面变得愈发擅长。每隔数月,我们就会推出新模型,不断拓展大语言模型的功能。这个行业最令人兴奋之处在于,每次模型升级都会解锁全新的应用场景。”

Anthropic的最新模型已涉足任务规划领域,如模拟人类在电脑上的操作流程,包括网上订购披萨等。格斯滕哈伯表示:“如今,规划中间步骤已成为现实,而这在以往是无法实现的。”

格斯滕哈伯的观点与人工智能怀疑论者的立场大相径庭。怀疑论者认为,生成式人工智能及其他更广泛的人工智能领域正在遭遇“撞墙”困境,即每代新模型带来的改进正逐渐减少。

人工智能学者加里·马库斯(Gary Marcus)在2022年已发出过警告,他认为仅仅通过增加人工智能模型的参数数量,并不能带来与规模增长相匹配的性能提升。这一警告至今仍然被他不断重申。

面对这一观点,格斯滕哈伯表示,Anthropic一直在推动当前人工智能基准测试所能衡量的能力边界。他解释说:“即使在某些方面看起来增长似乎在放缓,那也是因为我们正在实现全新的功能类别,而我们已经让基准测试和完成原来任务的能力达到了饱和状态。”换言之,衡量新一代人工智能模型的能力正变得越来越具有挑战性。

格斯滕哈伯与机器学习标注训练平台Scale AI的维贾伊·卡鲁那姆西(Vijay Karunamurthy)均认为,通过扩展生成式人工智能的规模,有助于推动这种自我纠正的神经网络的进步。

格斯滕哈伯指出:“我们确实看到智能在不断扩展,但我们并不认为我们在规划和推理方面遇到了瓶颈。其中一个原因是,我们现在才刚刚开始了解如何构建规划和推理任务,以便模型能够适应它们尚未尝试过的各种新环境。”

他补充道:“我们还处于发展的早期阶段,正在从应用程序开发者那里了解他们在尝试做什么,以及大语言模型在哪些方面做得不够好,这样我们就可以将这些信息集成到大模型中,进行迭代改进。”

格斯滕哈伯还表示,这些发现与Anthropic的基础研究速度密切相关,但部分也依赖于倾听“行业告诉我们他们需要什么,以及我们的适应能力——我们非常注重实时学习。”

卡鲁那姆西则指出,客户往往倾向于从大型模型开始,但有时也会根据具体需求缩小到更简单的人工智能模型。他补充说:“很明显,他们首先考虑的是人工智能是否足够智能,能否很好地完成测试;其次是它是否足够快,能否满足他们在应用程序中的需求;最后是尽可能地降低成本。”

本文来自“腾讯科技”,作者:金鹿,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI模型规模定律 大语言模型 生成式人工智能 自我纠正 AI智能体
相关文章