硅基流动 10小时前
首发|硅基流动 SiliconCloud 上线 MiniMax-M1-80k
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

MiniMax 发布了全球首个开源的大规模混合注意力推理模型 MiniMax-M1-80k (456B),该模型在软件工程、长上下文理解和工具使用等任务上表现出色。SiliconCloud 平台已上线此模型,支持 128K 最大上下文长度,并提供价格亲民的云服务。新用户可获得赠金体验。SiliconCloud 还提供DeepSeek-R1-0528、Qwen3 等多种模型,并提供免费的 DeepSeek-R1 蒸馏版 API,方便开发者自由组合和调用。

🚀 MiniMax-M1-80k 模型特点:基于 MiniMax-Text-01 研发,采用混合专家系统(MoE)架构与 Lightning Attention 机制,并配备高效的强化学习扩展框架,适用于需要长文本处理与深度思考的复杂任务。

💡 模型性能:该模型支持百万级上下文窗口,可处理 100 万 Token 输入和 8 万 Token 输出。在生成 10 万 Token 时,M1 的 FLOPs 消耗仅为 DeepSeek R1 的 25%。在数学、编程、工具使用和长上下文理解任务上可比肩 o3 等顶尖模型。

💰 SiliconCloud 服务:SiliconCloud 平台提供 MiniMax-M1-80k 的云服务,支持 128K 最大上下文长度,输入价格为 ¥ 4 / M Tokens,输出 ¥ 16 / M Tokens。新用户可自动获得 14 元赠金体验。

🌐 平台优势:SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。除了 MiniMax-M1-80k,还提供 DeepSeek-R1 蒸馏版(8B、7B)等免费模型,方便开发者自由对比和组合模型。

原创 SiliconCloud 2025-06-17 12:08 北京

适合需要长文本处理与深度思考的复杂任务。

今天凌晨,MiniMax 发布了全球首个开源的大规模混合注意力推理模型 MiniMax-M1-80k(456B)。根据官方公布的基准测试数据,该模型在软件工程、长上下文理解、工具使用等任务上可比肩 o3、Claude 4 Opus 等顶尖模型。

硅基流动大模型云服务平台 SiliconCloud 第一时间上线了 MiniMax-M1-80k,支持 128K 最大上下文长度(用户若有 1M 长上下文需求可在后台联系我们),价格为输入 ¥ 4 / M Tokens,输出 ¥ 16 / M Tokens。

欢迎可以通过以下方式使用加速版 MiniMax-M1-80k,新用户可自动获取 14 元赠金进行体验。

在线体验

https://cloud.siliconflow.cn/models

第三方应用接入教程

https://docs.siliconflow.cn/cn/usercases/

开发者 API 文档

https://docs.siliconflow.cn/cn/api-reference/chat-completions/

模型特点及性能

MiniMax-M1-80k 基于 MiniMax-Text-01 研发而成,采用混合专家系统(MoE)架构与 Lightning Attention 机制相结合的设计方案,还具有一个高效的强化学习扩展框架,涵盖从传统数学推理到沙盒化真实软件开发环境,这使其适合需要长文本处理与深度思考的复杂任务。具体包括:

(提示词:用 Python 写一个快速排序算法)

根据 MiniMax 的基准测试数据,该模型在数学、编程、工具使用和长上下文理解任务上比肩 o3 等顶尖模型。

本测试基于 MiniMax-M1-80k

MiniMax 在业内主流的 17 个评测集上详细评测了 M1。使用 temperature=1.0 和 top_p=0.95 进行评估。

Token 工厂 SiliconCloud

DeepSeek 蒸馏版等免费用

作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。

除了 MiniMax-M1-80k ,SiliconCloud 已上架包括DeepSeek-R1-0528、Qwen3、GLM-4-32B/9B、Wan2.1-I2V、Qwen2.5VL-72B、DeepSeek-R1-Distill、CosyVoice2、BCE、BGE、SenseVoice-Small 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B)、BGE 等多款大模型 API 免费使用,让开发者实现“Token 自由”。

开发者可在 SiliconCloud 平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。

近期更新

SiliconCloud上线DeepSeek-R1-0528

比肩H100!基于昇腾云超节点的R1上线

SiliconCloud一周年,两大惊喜回馈登场

硅基流动 x 昆仑技术推出DeepSeek一体机

硅基流动上线DeepSeek-R1 & V3企业服务

128K最大上下文推理,灵活控制思维链长度

邀好友用SiliconCloud,狂送2000万Token/人即刻体验MiniMax-M1-80kcloud.siliconflow.cn扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MiniMax-M1-80k SiliconCloud 大模型 云服务
相关文章