智源社区 2024年07月18日
Mamba写代码真的超越Transformer!原始论文入选顶流新会议
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Mistral AI 推出了基于Mamba2 架构的开源代码生成模型Codestral Mamba(7B),在基准测试中,Codestral Mamba 表现优于 CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B,甚至与 Mistral AI 自家的 Codestral 22B 性能相当。Mamba 架构与 Transformer 架构不同,能够实现“线性时间推理”,理论上支持无限长度输入,被认为是 Transformer 的有力挑战者。同时,Mistral AI 还发布了一个开源数学模型 Mathstral(7B),在 STEM 领域表现出色,并通过推理时间优化获得了更好的结果。

💻 **Codestral Mamba:基于Mamba2 架构的代码生成模型** Codestral Mamba 是 Mistral AI 推出的首个基于 Mamba2 架构的开源模型,它在代码生成方面表现出色,在基准测试中超越了多个同类模型,包括 CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B。Mamba 架构与 Transformer 架构不同,能够实现“线性时间推理”,这意味着它可以处理无限长度的输入,而 Transformer 架构则在处理长文本时存在算力消耗巨大的问题。Mamba 架构的优势在于其能够对输入信息进行选择性处理,并拥有硬件感知的算法和更简单的架构,使其在性能和效率方面都表现出色。 Codestral Mamba 的发布标志着 Mamba 架构在代码生成领域取得了重大突破,它为大模型的应用提供了新的可能性。

📊 **Mathstral:专注于 STEM 领域的数学模型** 除了 Codestral Mamba,Mistral AI 还推出了一个开源数学模型 Mathstral(7B),作为对阿基米德诞生 2311 周年的纪念。Mathstral 在 Mistral 7B 基础之上,专注于 STEM(科学、技术、工程、数学),上下文窗口 32k。在基准测试中,Mathstral MATH 得分 56.6%,MMLU 达到 63.47%。 Mathstral 的优势在于它可以通过更多的推理时间计算获得更好的结果:使用多数投票机制时,Mathstral 7B 在 MATH 测试中的得分为 68.37%,而在 64 个候选模型中应用一个强效奖励模型时,得分能够提升到 74.59%。 Mathstral 的发布表明 Mistral AI 在数学领域也取得了进展,它为大模型在 STEM 领域的应用提供了新的可能性。

📖 **Mamba 架构的意义** Mamba 架构是由 FlashAttention 作者 Tri Dao 和 CMU 助理教授、Cartesia AI 联合创始人及首席科学家 Albert Gu 在去年年底提出的。它是一种状态空间模型(SSM),建立在更现代的适用于深度学习的结构化 SSM(S4,Structured SSM)基础上,与经典架构 RNN 有相似之处。Mamba 架构的出现引起了圈内广泛关注,因为它有望解决 Transformer 架构在处理长文本时存在的算力消耗巨大的问题,并为大模型的应用提供新的可能性。 Mamba 架构的成功将为大模型的未来发展带来新的方向,它将推动大模型在更多领域的应用,并为人类带来更大的价值。

“欧洲OpenAI”和“Transformer挑战者”强强联合了!

Mistral AI刚刚推出了其第一个基于Mamba2架构的开源模型——Codestral Mamba(7B),专搞代码生成。

与Transformer架构不同,Mamba架构可进行“线性时间推理”,理论上能够支持无限长度输入。

Mistral AI:这也就是为啥我们用Mamba架构推出的代码推理模型抗打。

Mistral AI表示已经在最多256k token上下文中测试了Codestral Mamba。

基准测试中,Codestral Mamba总体性能超越CodeGemma-1.1 7B、CodeLlama 7B、DeepSeek v1.5 7B、CodeLlama 34B

有网友表示,这一波是Mistral AI要带飞Mamba架构的节奏。

Mamba架构作者之一、CMU助理教授Albert Gu表示:

具有较弱“tokenizations”的不同模态或数据格式(例如代码、byte级建模)会越来越多地从压缩模型(如SSM)中受益。

除了Codestral Mamba,Mistral AI这次还同时发布了一个新的数学模型——Mathstral(7B)。

有意思的是,网友让它做这几天大模型频频翻车的“9.11和9.9哪个大”的问题,Mathstral先比较整数,然后再比较小数部分,最后成功做对。

7B性能接近22BTransformer

Codestral Mamba完整基准测试结果如下:

在HumanEval C++/Java/JavaScript/Bash等所有基准上,Codestral Mamba全面超越CodeGemma-1.1 7B、CodeLlama 7B,且超越比它更大的CodeLlama 34B。

Mistral AI此前自家的最强开源编程模型Codestral 22B也没有和Codestral Mamba拉开太大差距。

除此外,DeepSeek v1.5 7B在基准中也比较突出,和Codestral Mamba打得有来有回。

DeepSeek v1.5 7B在Spider(复杂跨域语义分析和文本到SQL任务)、HumanEval Java、HumanEval Bash、MBPP等方面优于Codestral Mamba。

除了基准测试结果,Codestral Mamba最令人关注的当属它是首批Mamba2架构模型。

Mamba架构由FlashAttention作者Tri Dao和CMU助理教授、Cartesia AI联合创始人及首席科学家Albert Gu在去年年底提出。

此前,ChatGPT等Transformer架构大模型有一大痛点:处理长文本算力消耗巨大。其背后也是因为Transformer架构中注意力机制的二次复杂度。

而Mamba是第一个真正实现匹配Transformer性能的线性时间序列模型,也是一种状态空间模型(SSM,State Space Model)

Mamba建立在更现代的适用于深度学习的结构化SSM(S4, Structured SSM)基础上,与经典架构RNN有相似之处。

主要有三点创新:对输入信息有选择性处理、硬件感知的算法、更简单的架构

Mamba架构一问世就引起了圈内广泛关注。Stability AI创始人、英伟达科学家Jim Fan等都对它的出现感到兴奋。


Mamba初代论文年初被ICLR拒稿,当时在圈内引起热议。

不过,最近已经被新生代顶流会议CoLM2024接收了。

Mamba2是其二代,状态空间扩大8倍,训练速度提高50%。

Mamba2论文中更是发现,Transformer中的注意力机制与SSM存在着非常紧密的数学联系,论文成功入选ICML 2024。

还发布了一个数学模型

除了Codestral Mamba,Mistral AI还同时推出了一个开源数学模型——Mathstral(7B),作为对阿基米德诞生2311周年的纪念。

Mathstral在Mistral 7B基础之上,专注于STEM(科学、技术、工程、数学),上下文窗口32k。

在基准测试中,Mathstral MATH得分56.6%,MMLU达到了63.47%。

重点是,Mathstral还可以通过更多的推理时间计算获得更好的结果:

使用多数投票机制时,Mathstral 7B在MATH测试中的得分为68.37%,而在64个候选模型中应用一个强效奖励模型时,得分能够提升到74.59%。

以下是Mathstral 7B和Mistral 7B在MMLU各科目中的表现差异:

参考链接:
[1]https://mistral.ai/news/codestral-mamba/

[2]https://mistral.ai/news/mathstral/
[3]https://x.com/MistralAI/status/1813222156265791531
[4]https://x.com/GuillaumeLample/status/1813231491154899012
[5]https://x.com/theo_gervet/status/1813226968600469824
[6]https://x.com/tuturetom/status/1813238885453033540
[7]https://x.com/WenhuChen/status/1812562112524226569

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

点这里?关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Mistral AI Codestral Mamba Mamba 架构 代码生成 Transformer Mathstral 数学模型 开源模型
相关文章