ai咨询互联 18小时前
这个中国AI小厂,靠"开源狂魔"杀疯了,算力比DeepSeek节省70%,业内大佬看了都说顶!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

技术Z先生的文章介绍了国内AI公司MiniMax开源其456B参数的推理模型M1,该模型在性能上与DeepSeek R1媲美,但价格仅为其四分之一。M1支持100万token超长上下文,并采用创新的“雷电注意力”机制,大幅提升处理速度。MiniMax还展示了其Agent能力,能够一句话生成完整网站。文章分析了MiniMax的开源策略,包括抢占Agent赛道、建立生态和技术示威,并探讨了其面临的挑战和未来发展。

⚡️ MiniMax开源了456B参数的M1推理模型,该模型支持100万token的超长上下文,性能接近DeepSeek R1,但算力消耗更低,降低了75%。

💡 M1采用了“雷电注意力”机制,在处理长文本输入时,速度是传统方法的2700倍,且使用512块H800芯片,训练成本仅为53万美元,远低于Meta的Llama4。

🚀 MiniMax的Agent功能强大,能够根据用户指令生成网站、演示四冲程发动机原理和创建3D动画,展示了其在多模态和Agent领域的领先技术。

🌐 MiniMax开源M1旨在抢占Agent赛道,建立开发者生态,并展示技术实力。这有助于其在AI行业中占据优势,并推动技术创新。

🤔 尽管M1表现出色,但MiniMax仍面临算力成本高、与海外巨头差距以及商业化路径等挑战。

原创 技术Z先生 2025-06-20 23:40 广东

最新国产开源推理AI,推理媲美DeepSeek,价格却只要四分之一

* 戳上方蓝字“AI资讯互联”关注我

大家好,我是技术Z先生,一名热爱分享的AI程序员!

说起来你可能不信,有个做AI的小公司,最近一口气开源了456B参数的推理模型,直接把国外大厂都给整懵了...

昨天凌晨,MiniMax正式开源了他们的第一个推理模型M1,这个动作在AI圈炸了锅。

为什么?因为这哥们直接开源了456B参数的混合专家模型,还支持100万token的超长上下文,比DeepSeek R1足足多了8倍(体验地址:https://agent.minimax.io/chat)。

更离谱的是,在同样的计算量下,它比DeepSeek R1节省了75%的算力

从视频生成到Agent全开花,MiniMax要逆天了故事得从MiniMax这家公司说起。

这家2021年成立的公司,一直在AI多模态领域默默耕耘。当大家还在卷文本大模型的时候,人家早就在搞视频生成了。

最近半年,MiniMax简直像开了挂:

2025年1月:发布MiniMax-Text-01和MiniMax-VL-01,456B参数,支持400万token6月:开源M1推理模型,全球首个大规模混合注意力推理模型同期:内测Agent功能,让用户一句话生成完整网站语音模型Speech-02发布,支持32种语言,秒杀OpenAI

这密度,连奥特曼看了都得说一声"我靠"。

来看下MiniMax Agent生成的网站效果:https://r01udyvbjw.space.minimax.io/

这个Agent有多离谱?最让人震惊的不是参数规模,而是他们的Agent能力。

我随便试了几个例子:

让它做一个OpenAI发展历程的PPT网页

让它创建四冲程发动机演示这种完成度,已经不是"工具"的概念了,更像是一个真正会干活的员工。

技术细节:雷电注意力机制是什么鬼?MiniMax这次搞了个"雷电注意力"(Lightning Attention)机制。

听起来很玄乎,其实就是把传统的注意力机制优化了。在处理100万长度的输入时,传统方法的延迟是雷电注意力的2700倍。

什么概念?就是别人需要45分钟做完的事,它3秒就搞定了。

而且他们用的强化学习算法CISPO,收敛速度是其他算法的2倍。整个训练过程只用了512块H800芯片,3周时间,成本53万美元。

对比一下Meta的Llama4:人家用了22000块H100 GPU,训练成本至少千万美元级别。

开源背后的野心为什么要开源这么牛逼的模型?

业内人士分析,MiniMax这是在下一盘大棋:

    抢占Agent赛道

    :2025年被称为AI Agent元年,长上下文是关键能力

    建立生态

    :通过开源吸引开发者,形成护城河

    技术示威

    :向投资人和客户展示实力

事实证明,这招很有效。模型发布后,GitHub上的下载量直接破万(地址:https://github.com/MiniMax-AI/MiniMax-M1),各大技术社区都在讨论。

网友们炸了消息传出后,程序员群体的反应很有意思:

"卧槽,456B参数还开源?这是要革命啊"

"我用了一下他们的Agent,感觉我的工作要没了..."

"MiniMax这是要把国外大厂按在地上摩擦的节奏"

"从海螺AI到现在的M1,这家公司是认真的"

"终于有中国公司在AI领域真正做到了技术领先"

但也不是没有质疑声当然,也有理性的声音:

"参数大不代表效果好,还得看实际应用"

"开源是好事,但商业化才是关键"

"MiniMax能否持续投入研发,这是个问题"

不过从目前的测试结果看,M1在数学推理、代码生成、长文本理解等任务上,确实达到了GPT-4的水平

Agent时代的卡位战更深层的含义是,MiniMax在为即将到来的Agent时代卡位。

现在的AI Agent大多依赖第三方API,比如调用OpenAI或Anthropic的接口。但这样有个问题:被人卡脖子。

MiniMax的策略是全栈自研:从基础模型到Agent应用,全部自己搞定。这样既能保证技术安全,又能降低成本。

而且他们的多模态能力(文本、语音、视频、图像)都是自研的,这在Agent应用场景下非常重要。

未来会怎样?从目前的趋势看,MiniMax很可能成为中国AI领域的一匹黑马。

他们的技术路线很清晰:

但挑战也很明显:

最后的话不管怎么说,MiniMax这波操作确实震撼到了整个AI圈。

从一个做视频生成的小公司,到现在能开源456B参数的推理模型,这个故事本身就很励志。

更重要的是,这说明中国的AI公司已经有能力在前沿技术领域与国外巨头正面PK了。

至于MiniMax最终能走多远,我们拭目以待。

但有一点可以确定:在这个AI爆发的时代,永远不要低估一家有技术野心的中国公司。

有时候,最不起眼的"小厂",往往能搞出最大的动静。

你觉得MiniMax这波开源操作怎么样?会改变AI行业格局吗?评论区说说你的看法~

end

今天的分享就到这里了,如果觉得不错,随手点个赞👍、在看🌟、转发三连吧,如果想第一时间收到推送,也可以给我个星标~谢谢你看我的文章,我们下次再见。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MiniMax M1模型 开源 AI Agent 技术创新
相关文章