掘金 人工智能 07月29日 12:21
AI开启自我进化的时代:解读《模型架构发现的AlphaGo时刻》
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

2025年7月,上海交通大学等机构发布《模型架构发现的AlphaGo时刻》,宣称AI研究迎来重大突破。论文指出当前AI能力指数级增长,但研究速度受限。为打破瓶颈,研究团队构建ASI-ARCH系统,实现神经网络架构的自主创新,从自动化优化跃升至自动化创新。该系统包含研究员、工程师、分析师三位AI专家和认知库,形成科研闭环。研究显示,增加计算资源可线性增加新型高性能架构数量,20000 GPU小时后发现106个SOTA模型,部分超越人类设计。然而,社区质疑其称号、小模型适用性、微弱性能提升及创新深度,认为其更像原则性验证。

🔍ASI-ARCH系统:该系统由研究员(提出想法)、工程师(实现编码)、分析师(复盘总结)和认知库(知识基础)构成,实现从提出假说到总结学习的完整科研闭环,是初级的AI‘科学家’。

📈科学发现缩放定律:研究发现新模型架构数量与GPU计算小时数呈强线性相关,暗示科学突破可被规模化,增加计算力或可‘量产’科学发现。

🏆研究成果:ASI-ARCH经1773次实验,耗20000 GPU小时,发现106个新型线性注意力架构,其中PathGateFusionNet等在多项基准测试超越人类设计模型。

🤔社区质疑:对‘AlphaGo时刻’称号、小模型扩展性、微弱性能提升及创新深度提出质疑,认为其更像原则性验证,需解决规模、成本和真创新问题。

📊模型评估:AI发现模型在小模型上表现优异,但与人类设计强基线模型对比,平均分提升仅1-2个百分点,且未验证在大模型上的扩展性及实际运算速度。

AI Keymaker: AI开启自我进化的时代:解读《模型架构发现的AlphaGo时刻》

一个“AlphaGo时刻”级别的重磅宣言

2025年7月24日,一篇来自上海交通大学等机构的研究论文在全球AI社区投下了一颗重磅炸弹。其标题极具冲击力—— 《模型架构发现的AlphaGo时刻》(AlphaGo Moment for Model Architecture Discovery)  。这个标题直接将会这项研究的意义,与2016年AlphaGo击败人类围棋冠军李世石这一历史性事件相提并论,暗示着AI研究的游戏规则可能被彻底改变。

论文作者们在摘要中开宗明义地指出,当前AI领域面临一个根本性的矛盾:一方面,AI系统的能力正以前所未有的速度指数级增长;另一方面,AI研究本身的进步速度,却依然受到人类研究员有限的认知能力和工作效率的线性制约 。他们的目标,就是打破这一“人类瓶颈”。为此,他们宣称构建了一个名为ASI-ARCH的全自动AI系统,该系统能够自主地进行神经网络架构的创新,实现从简单的“自动化优化”到真正意义上的“自动化创新”的范式飞跃 。

核心困境——为何设计AI本身成了一个瓶颈?

要理解这项研究的重要性,首先需要明白什么是“模型架构”(Model Architecture)。如果将一个AI模型比作一台高性能引擎,那么模型架构就是这台引擎的设计蓝图。它决定了引擎的内部结构、组件(如活塞、气缸)的类型和连接方式,最终决定了引擎的动力、效率和功能。在AI领域,从早期的卷积神经网络(CNN)到如今统治语言模型领域的Transformer架构,每一次重大的能力飞跃,几乎都伴随着底层架构的革命性创新 。

然而,设计这些“蓝图”的过程异常艰难。它严重依赖顶尖专家的知识、直觉和反复试错。一篇顶级研究论文中提到,一个人类专家团队可能需要耗费数月甚至更长的时间,通过不断的迭代和实验,才能设计出一个当时最先进(SOTA)的架构 。这种依赖“手工作坊”模式的创新方式,显然已无法跟上AI发展的脚步,形成了研究领域的一个巨大瓶颈 。

解决方案——一个名为ASI-ARCH的“AI科学家”

为了解决这个问题,研究团队构建了一套名为ASI-ARCH的自主AI研究框架。这套系统可以被想象成一个不知疲倦、全天候工作的自动化AI研究实验室,其内部由三位各司其职的AI“专家”和一套知识库构成,形成了一个闭环的进化系统 。

通过这个流程,ASI-ARCH实现了从提出假说、编码实验、验证结果到总结学习的完整科研闭环,堪称一位初级的AI“科学家”。

“科学发现的缩放定律”——能否用计算“量产”科学突破?

在ASI-ARCH夜以继日地工作后,研究团队观察到了一个极其有趣的现象,并将其命名为 “科学发现的经验性缩放定律”(empirical scaling law for scientific discovery)  。

如上图所示,论文首页的核心图表展示了新发现的SOTA架构数量与所消耗的GPU计算小时数之间的关系。结果呈现出一种惊人的强线性相关性:投入越多的计算资源,就能发现越多的新型高性能架构

这个发现的含义是深远的。它似乎在暗示,至少在模型架构探索这个领域,科学突破或许不再仅仅依赖于人类研究员的灵光一现。相反,它可以被转变为一个可计算、可预测、可规模化的过程。就像工厂可以通过增加生产线来提高产量一样,我们或许可以通过投入更多的计算力来“量产”科学发现。

研究成果——20000 GPU小时后的106个新模型

这台AI“科学家”的工作成果是实实在在的。在经过了1773次自主实验,总计消耗超过20000个GPU小时后,ASI-ARCH最终成功发现了106个在特定任务上达到SOTA性能的新型线性注意力架构 。

为了验证这些AI设计的模型是否真的优于人类专家,研究团队选取了其中表现最好的几个模型,与当前领域公认的强基线模型(如Mamba2, Gated DeltaNet)在相同的条件下进行了公平对决。结果如下表所示:

模型类型Wiki. pplLMB. pplPIQA accHella. accAvg.
Mamba2人类设计27.0840.0967.9042.2547.84
Gated DeltaNet人类设计27.6238.6968.2840.7747.32
PathGateFusionNetAI发现26.7637.4068.7741.5748.51
ContentSharpRouterAI发现26.8036.5867.7940.7848.34

(数据简化自论文表1,Avg.为多项基准测试的平均分,越高越好;ppl为困惑度,越低越好)

从数据上看,AI发现的顶级模型,如PathGateFusionNet,在多个基准测试的平均分上确实超越了人类设计的强力对手 。

社区反馈与质疑(一):这是“AlphaGo时刻”还是“自我标榜”?

尽管论文展示了令人印象深刻的工程成就和数据结果,但在Hacker News、Reddit等技术社区,经验丰富的从业者和研究者们却提出了大量冷静的质疑。首当其冲的,便是对“AlphaGo时刻”这个说法的强烈反感。

许多评论者认为,一个真正的“范式转移”或“历史性时刻”,通常是由整个领域的同行和后来者追认的,而非由当事人在论文标题中自我标榜。这种高调的宣传姿态,反而让许多人抱持着更审慎和挑剔的眼光来看待这项研究。

此外,有评论指出,AlphaGo的胜利之所以震撼,是因为它在围棋这个拥有明确规则和胜负标准的游戏中,以无可争议的方式击败了人类最强者。而神经网络架构的评估则要模糊和复杂得多,其性能的优劣往往与特定的任务、数据集和训练方式强相关,难以一概而论。

社区反馈与质疑(二):关于规模、价值与“真创新”的冷静审视

除了对“名号”的争议,社区更从技术层面提出了三个核心的现实问题:

    规模问题(小模型 vs. 大模型): 社区最普遍的疑虑在于,ASI-ARCH发现的这些架构是在参数量仅为20M(两千万)的“小模型”上进行筛选和验证的。然而,当前驱动产业应用的都是参数量高达数十亿乃至千亿的“大模型”。一个在小模型上表现优异的设计,能否顺利地、等比例地扩展到大模型上并保持其优势,是一个巨大且未被验证的问号。价值问题(边际收益与成本): 细心的评论者在分析性能数据后发现,尽管AI发现的模型性能更优,但其领先优势非常微弱,通常只有一到两个百分点的提升。考虑到背后高达两万GPU小时的巨大计算成本,这种微小的边际收益是否具有实际的应用价值和经济效益,被打上了一个大大的问号。“真创新”问题: 许多人质疑,ASI-ARCH究竟是在进行“创造性发明”,还是在进行“高效的优化”?它是在提出全新的、人类未曾想过的设计理念,还是仅仅在人类已知的各种组件(如门控机制、卷积、注意力等)之间进行更高效的排列组合?
    有趣的是,论文自身的一张图表(图7)似乎也间接回答了这个问题。该图表分析了AI在设计模型时对各种“建筑模块”的偏好度。数据显示,无论是最终入选的106个SOTA模型,还是被淘汰的其他模型,都极度偏好使用那些早已被人类研究员广泛使用的成熟组件(如门-控系统、卷积结构),而极少尝试那些冷门、前沿的组件(如物理启发机制、生物启发机制) 。这表明,AI的设计策略与人类科学家颇为相似:更多地在已被验证的、可靠的技术基础上进行迭代和改良,而不是天马行空地进行颠覆式创新 。

最后,在实用性层面,作者在论文的未来工作中也坦承,他们目前还未给这些新发现的架构编写定制化的高性能计算代码(即加速内核),因此无法对其真实的运算速度和延迟进行评估 。而这,恰恰是从一项研究成果走向产业应用不可或缺的关键一步。

结论——一窥自动化科学的未来,但需立足于现实

综合来看,《AlphaGo Moment for Model Architecture Discovery》无疑是一项引人瞩目且工程上极具挑战性的研究。它成功地构建了一个高度自动化的AI研究框架,并用实验证明了AI自主进行科研探索的可行性。其提出的“科学发现缩放定律”为我们描绘了一幅激动人心的未来图景:未来的科学突破或许真的可以通过计算力来加速。

然而,来自技术社区的冷静反馈也提醒我们,必须将这种愿景与当前的现实区分开来。无论是“AlphaGo时刻”的称号,还是其成果的实际扩展性和创新深度,都还有待时间的检验。这项工作更像是一个坚实的“原则性验证”(Proof-of-Concept),它打开了一扇通往“自动化科学”的大门,但门后的道路依然漫长,充满了关于规模、成本和“真正创新”的挑战。

或许,这并非那个最终的“AlphaGo时刻”,但它无疑让我们清晰地看到了那个时刻的曙光。

参考资料

    AlphaGo Moment for Model Architecture Discovery

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI架构发现 ASI-ARCH 自动化科学 AlphaGo时刻 模型创新
相关文章