【新智元导读】谷歌 DeepMind 重磅推出 AlphaEvolve,最强通用 AI 智能体横扫数学难题!它不仅推动了 300 年「接吻数难题」,一举颠覆了 56 年前 Strassen 算法神话。而且,还在 AI 训推、TPU 设计、数据中心领域,展现出了极强的实力。
就在刚刚,谷歌 DeepMind 祭出终极 AI 智能体——AlphaEvolve,一个由 Gemini 驱动的进化编码神器。
历时一年半,它的出世,直接炸翻了算法界。
AlphaEvolve 核心机制,是将谷歌 Gemini 解决创造性问题的能力和能验证答案的自动评估器相结合,然后用进化框架来优化最有潜力的想法。
它用 48 次标量乘法,搞定 4x4 复数矩阵乘法,改进了 1969 年 Strassen 最优算法。
AlphaEvolve 不仅仅是矩阵乘法屠龙刀,还是个跨界狂魔。
DeepMind 团队让其解决数学分析、几何、组合学、数论等领域的 50 + 开放问题。
菲尔兹奖得主陶哲轩等大佬亲自出题,谷歌论文致谢
在约 75% 题目中,它重新发现了最前沿解法;在 20% 题目中,它直接碾压了已知最佳解。
AlphaEvolve 最炸裂的战绩,便是改进了困扰数学家 300 多年的「接吻数问题」!
Wikipedia 已更新至谷歌 DeepMind 的最新数据
甚至,AlphaEvolve 让谷歌数据中心效率飙升,平均回收了 0.7% 的计算资源。
此外,它还能提升芯片设计和 AI 训练过程的效率,包括训练它自己所使用的 LLM。
AI 初创创始人 Justin Halford 惊叹 AlphaEvolve 超人编码能力,并称编程将其十年内迎来 AlphaGo 时刻。
利用 LLM 设计更好的算法
2023 年,谷歌首次展示了 LLM 的惊人能力:生成用计算机代码编写的函数,不仅能帮助发现开放科学问题的新知识,还能证明其正确性。
这一突破,为算法设计开启了全新篇章。
论文地址:storage.googleapis.com/deepmind-me…
如今,谷歌 AlphaEvolve 更进一步,超越了单个函数的生成,进化出能够优化整个代码库,并开发更复杂算法的能力。
AlphaEvolve 通过利用谷歌一系列 SOTA 模型,协同生成计算机程序,以代码形式实现高效的算法解决方案。
其中,最快、最高效的 Gemini Flash 最大程度地拓展了探索性思路的范围,而性能最强的 Gemini Pro 则通过富有洞察力提供关键优化建议。
AlphaEvolve 的核心在于,其智能的算法生成与进化机制,如下图所示。
提示词采样器为语言模型构建提示词,随后语言模型会生成新的程序。生成的程序会经过评估模块的评估并存储于程序数据库中,该数据库采用进化算法来决定哪些程序会被用于后续的提示词构建
AlphaEvolve 还引入了自动评估指标,来验证、运行和评估候选程序。
它对提供的每个解决方案的准确性和质量,进行客观、可量化的评估。
这种系统化方法确保了算法优化透明度,尤其在数学、计算机科学等需要精确衡量进展的领域,展现出巨大的潜力。
发现矩阵乘法算法
颠覆 56 年最优解神话
AlphaEvolve 的威力究竟有多炸裂?
它能为复杂的数学问题提出新方法。
在提供最小代码框架后,它便能设计出全新的基于梯度优化程序的组件发现了多种用于矩阵乘法的新算法。
几何学中,数学空间的亲吻数被定义为一种空间排布下非重叠单位球体的最大数量。其中,所有的单位球体都与一个中心单位球体相切
此外,在这三个不同领域,AlphaEvolve 取得的其他成果:
分析学领域
· 自相关不等式:AlphaEvolve 在多个自相关不等式问题上,改进了已知最优界值。
有网友表示,陶哲轩还曾尝试开发一个 AI,来验证分析中的估计,而且自己几年前曾梦想过的事情,正在变为现实。
· 不确定性原理:AlphaEvolve 通过优化傅里叶分析中不确定性原理构造,生成了一种改进的配置,略微提高了上界。
组合数学与数论
· Erdős 最小重叠问题:AlphaEvolve 为最小重叠问题建立了新的上界,小幅超越了此前记录
几何与****堆积
· 亲吻数问题
· 堆积问题:AlphaEvolve 在多个问题上取得突破:在给定形状内布置 N 个点,优化最大与最小距离比;实现多边形最优嵌套填充;改进 Heilbronn 问题变体(构造避免形成小面积三角形的点集)
重构计算生态系统
效率成倍飙升
当然,AlphaEvolve 的突破不局限于数学,其实际应用已深刻改变了谷歌的计算生态系统。
在过去一年中,谷歌将 AlphaEvolve 发现的算法,部署到数据中心、硬件、软件等多个领域。
这些算法优化措施,显著提升了计算效率,尤其在 AI 和计算基础设施中成倍放大。
AlphaEvolve 助力谷歌实现了更高效的数字生态系统,涵盖从数据中心调度、硬件设计到 AI 模型训练的各个环节
这些改进不仅降低了能耗和运营成本,还为所有用户构建一个更强大、更可持续的数字生态系统。
数据中心调度 :节省 0.7% 计算资源
在优化谷歌庞大的数据中心调度系统 Borg 时,AlphaEvolve 发现了一种简单但非常有效的启发式方法,显著提升计算资源效率。
这个解决方案已投入生产一年多,平均持续回收谷歌全球 0.7% 的计算资源。
这意味着,在相同的计算资源消耗下,任何时刻数据中心都能完成更多的任务。
更令人叹服的是,AlphaEvolve 的解决方案不仅性能强大,其代码还具备显著的运营优势:可解释性、易调试性、可预测性和易部署性。
设计谷歌下一代 TPU
AlphaEvolve 的触角还延伸到了硬件设计领域。
在优化谷歌下一代 TPU 时,它提出了一种 Verilog 重写方案,精准删除了用于矩阵乘法的关键、高度优化的算术电路中冗余位。
至关重要的是,这个方案必须通过了严格的验证流程,确保了修改后的电路保持功能正确性。
网友表示,这一改进代表了 Gemini 对 TPU 算术电路的首次直接贡献
目前,它已经被集成到了谷歌即将推出的 TPU 中。
通过在芯片设计师的标准语言中提出修改建议,AlphaEvolve 架起了 AI 和硬件工程师之间桥梁,加速未来专用芯片的设计。
内核加速 23%,优化时间缩短至数天
AlphaEvolve 在 AI 训练和推理方面的突破,更是令人瞠目结舌。
通过找到更优的方法,将大型矩阵乘法分解为更易于处理的子问题,AlphaEvolve 将 Gemini 架构中关键内核加速了 23%,让训练时间缩短了 1%。
在 AI 模型动辄消耗海量计算的今天,这一效率提升将节省巨大成本和能源消耗。
不仅如此,AlphaEvolve 还将内核优化的工程时间,从专家数周砍到了自动实验的几天时间,大幅加速研究人员创新步伐。
AlphaEvolve 还可以优化底层 GPU 指令。
这个极其复杂的领域通常已经通过编译器进行了大量优化,因此,人工优化往往难以奏效。
AlphaEvolve 在基于 Transformer 的 AI 模型中,对 FlashAttention 内核实现高达 32.5% 的加速。
这种优化有助于专家查明性能瓶颈,并轻松地将改进纳入其代码库中,从而提高他们的生产力,并为未来节省计算资源和能源提供可能。
参考资料: