原创 SiliconCloud 2025-06-17 12:08 北京
适合需要长文本处理与深度思考的复杂任务。
今天凌晨,MiniMax 发布了全球首个开源的大规模混合注意力推理模型 MiniMax-M1-80k(456B)。根据官方公布的基准测试数据,该模型在软件工程、长上下文理解、工具使用等任务上可比肩 o3、Claude 4 Opus 等顶尖模型。
硅基流动大模型云服务平台 SiliconCloud 第一时间上线了 MiniMax-M1-80k,支持 128K 最大上下文长度(用户若有 1M 长上下文需求可在后台联系我们),价格为输入 ¥ 4 / M Tokens,输出 ¥ 16 / M Tokens。
欢迎可以通过以下方式使用加速版 MiniMax-M1-80k,新用户可自动获取 14 元赠金进行体验。
在线体验
https://cloud.siliconflow.cn/models
第三方应用接入教程
https://docs.siliconflow.cn/cn/usercases/
开发者 API 文档
https://docs.siliconflow.cn/cn/api-reference/chat-completions/
模型特点及性能
MiniMax-M1-80k 基于 MiniMax-Text-01 研发而成,采用混合专家系统(MoE)架构与 Lightning Attention 机制相结合的设计方案,还具有一个高效的强化学习扩展框架,涵盖从传统数学推理到沙盒化真实软件开发环境,这使其适合需要长文本处理与深度思考的复杂任务。具体包括:
支持百万级上下文窗口:支持 100 万 Token 输入,8 万 Token 输出;
推理算力的高效扩展:在生成 10 万 Token 时,M1 的 FLOPs 消耗仅为 DeepSeek R1 的 25%;
为智能体等复杂应用提供强大推理能力。
(提示词:用 Python 写一个快速排序算法)
根据 MiniMax 的基准测试数据,该模型在数学、编程、工具使用和长上下文理解任务上比肩 o3 等顶尖模型。
本测试基于 MiniMax-M1-80k
MiniMax 在业内主流的 17 个评测集上详细评测了 M1。使用 temperature=1.0 和 top_p=0.95 进行评估。
Token 工厂 SiliconCloud
DeepSeek 蒸馏版等免费用
作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除了 MiniMax-M1-80k ,SiliconCloud 已上架包括DeepSeek-R1-0528、Qwen3、GLM-4-32B/9B、Wan2.1-I2V、Qwen2.5VL-72B、DeepSeek-R1-Distill、CosyVoice2、BCE、BGE、SenseVoice-Small 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B)、BGE 等多款大模型 API 免费使用,让开发者实现“Token 自由”。
开发者可在 SiliconCloud 平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。
近期更新
SiliconCloud上线DeepSeek-R1-0528
比肩H100!基于昇腾云超节点的R1上线
SiliconCloud一周年,两大惊喜回馈登场
硅基流动 x 昆仑技术推出DeepSeek一体机
硅基流动上线DeepSeek-R1 & V3企业服务
128K最大上下文推理,灵活控制思维链长度
邀好友用SiliconCloud,狂送2000万Token/人即刻体验MiniMax-M1-80kcloud.siliconflow.cn扫码加入用户交流群