index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
技术Z先生的文章介绍了国内AI公司MiniMax开源其456B参数的推理模型M1,该模型在性能上与DeepSeek R1媲美,但价格仅为其四分之一。M1支持100万token超长上下文,并采用创新的“雷电注意力”机制,大幅提升处理速度。MiniMax还展示了其Agent能力,能够一句话生成完整网站。文章分析了MiniMax的开源策略,包括抢占Agent赛道、建立生态和技术示威,并探讨了其面临的挑战和未来发展。
⚡️ MiniMax开源了456B参数的M1推理模型,该模型支持100万token的超长上下文,性能接近DeepSeek R1,但算力消耗更低,降低了75%。
💡 M1采用了“雷电注意力”机制,在处理长文本输入时,速度是传统方法的2700倍,且使用512块H800芯片,训练成本仅为53万美元,远低于Meta的Llama4。
🚀 MiniMax的Agent功能强大,能够根据用户指令生成网站、演示四冲程发动机原理和创建3D动画,展示了其在多模态和Agent领域的领先技术。
🌐 MiniMax开源M1旨在抢占Agent赛道,建立开发者生态,并展示技术实力。这有助于其在AI行业中占据优势,并推动技术创新。
🤔 尽管M1表现出色,但MiniMax仍面临算力成本高、与海外巨头差距以及商业化路径等挑战。
原创 技术Z先生 2025-06-20 23:40 广东
最新国产开源推理AI,推理媲美DeepSeek,价格却只要四分之一

* 戳上方蓝字“AI资讯互联”关注我
大家好,我是技术Z先生,一名热爱分享的AI程序员!
说起来你可能不信,有个做AI的小公司,最近一口气开源了456B参数的推理模型,直接把国外大厂都给整懵了...昨天凌晨,MiniMax正式开源了他们的第一个推理模型M1,这个动作在AI圈炸了锅。为什么?因为这哥们直接开源了456B参数的混合专家模型,还支持100万token的超长上下文,比DeepSeek R1足足多了8倍(体验地址:https://agent.minimax.io/chat)。更离谱的是,在同样的计算量下,它比DeepSeek R1节省了75%的算力。从视频生成到Agent全开花,MiniMax要逆天了故事得从MiniMax这家公司说起。这家2021年成立的公司,一直在AI多模态领域默默耕耘。当大家还在卷文本大模型的时候,人家早就在搞视频生成了。最近半年,MiniMax简直像开了挂:2025年1月:发布MiniMax-Text-01和MiniMax-VL-01,456B参数,支持400万token6月:开源M1推理模型,全球首个大规模混合注意力推理模型同期:内测Agent功能,让用户一句话生成完整网站语音模型:Speech-02发布,支持32种语言,秒杀OpenAI这密度,连奥特曼看了都得说一声"我靠"。来看下MiniMax Agent生成的网站效果:https://r01udyvbjw.space.minimax.io/这个Agent有多离谱?最让人震惊的不是参数规模,而是他们的Agent能力。我随便试了几个例子:让它做一个OpenAI发展历程的PPT网页自己上网搜集资料
爬取高质量网页数据
用浏览器测试自己做的网站
最后生成完整的交互式展示页面
让它创建四冲程发动机演示自动理解机械原理
生成3D动画效果
还有气体流动的粒子效果
可以直接用于教学
这种完成度,已经不是"工具"的概念了,更像是一个真正会干活的员工。技术细节:雷电注意力机制是什么鬼?MiniMax这次搞了个"雷电注意力"(Lightning Attention)机制。听起来很玄乎,其实就是把传统的注意力机制优化了。在处理100万长度的输入时,传统方法的延迟是雷电注意力的2700倍。什么概念?就是别人需要45分钟做完的事,它3秒就搞定了。而且他们用的强化学习算法CISPO,收敛速度是其他算法的2倍。整个训练过程只用了512块H800芯片,3周时间,成本53万美元。对比一下Meta的Llama4:人家用了22000块H100 GPU,训练成本至少千万美元级别。开源背后的野心为什么要开源这么牛逼的模型?业内人士分析,MiniMax这是在下一盘大棋:抢占Agent赛道:2025年被称为AI Agent元年,长上下文是关键能力
建立生态:通过开源吸引开发者,形成护城河
技术示威:向投资人和客户展示实力
事实证明,这招很有效。模型发布后,GitHub上的下载量直接破万(地址:https://github.com/MiniMax-AI/MiniMax-M1),各大技术社区都在讨论。网友们炸了消息传出后,程序员群体的反应很有意思:"卧槽,456B参数还开源?这是要革命啊""我用了一下他们的Agent,感觉我的工作要没了...""MiniMax这是要把国外大厂按在地上摩擦的节奏""从海螺AI到现在的M1,这家公司是认真的""终于有中国公司在AI领域真正做到了技术领先"但也不是没有质疑声当然,也有理性的声音:"参数大不代表效果好,还得看实际应用""开源是好事,但商业化才是关键""MiniMax能否持续投入研发,这是个问题"不过从目前的测试结果看,M1在数学推理、代码生成、长文本理解等任务上,确实达到了GPT-4的水平。Agent时代的卡位战更深层的含义是,MiniMax在为即将到来的Agent时代卡位。现在的AI Agent大多依赖第三方API,比如调用OpenAI或Anthropic的接口。但这样有个问题:被人卡脖子。MiniMax的策略是全栈自研:从基础模型到Agent应用,全部自己搞定。这样既能保证技术安全,又能降低成本。而且他们的多模态能力(文本、语音、视频、图像)都是自研的,这在Agent应用场景下非常重要。未来会怎样?从目前的趋势看,MiniMax很可能成为中国AI领域的一匹黑马。他们的技术路线很清晰:基础模型能力持续提升
Agent应用场景深度挖掘
多模态技术全面布局
开源生态建设
但挑战也很明显:算力成本依然很高
与海外大厂的差距仍然存在
商业化路径还需要验证
最后的话不管怎么说,MiniMax这波操作确实震撼到了整个AI圈。从一个做视频生成的小公司,到现在能开源456B参数的推理模型,这个故事本身就很励志。更重要的是,这说明中国的AI公司已经有能力在前沿技术领域与国外巨头正面PK了。至于MiniMax最终能走多远,我们拭目以待。但有一点可以确定:在这个AI爆发的时代,永远不要低估一家有技术野心的中国公司。有时候,最不起眼的"小厂",往往能搞出最大的动静。你觉得MiniMax这波开源操作怎么样?会改变AI行业格局吗?评论区说说你的看法~ 今天的分享就到这里了,如果觉得不错,随手点个赞👍、在看🌟、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们下次再见。






阅读原文
跳转微信打开