原创 SiliconCloud 2025-04-30 23:36 北京
“迎五一 · 大放‘价’”期间,Qwen3 系列价格直降 50%。
阿里通义千问的 Qwen3 终于来了,海内外开发者社区对此多是赞誉。根据官方公开数据,在同等参数规模情况下,Qwen3 系列模型比 o1、Gemini 等顶尖模型有更出色的性能,在推理、指令遵循、工具调用、多语言能力等方面大幅增强,且原生支持 MCP 协议。他们还特别提到,训练模型的时代正在过渡到以训练 Agent 为中心的时代。
现在,硅基流动 SiliconCloud 平台正式上线基于国产芯片部署的 Qwen3-235B/32B/30B/14B/8B 模型,并且在“迎五一 · 大放‘价’”活动期间(4 月 28 日- 5 月 10 日),上述模型价格直降 50%。开发者只需在开发应用时轻松调用 API,即可拥有更高效的模型体验。
在线体验
https://cloud.siliconflow.cn/models
API 文档
https://docs.siliconflow.cn/cn/api-reference/chat-completions/
模型特点及效果
Qwen3 在约 36 万亿个 token 上进行预训练,涵盖了 119 种语言和方言,使用的数据量几乎是 Qwen2.5 的两倍。通过扩大预训练和强化学习的规模,Qwen3 系列模型可进行混合推理,无缝集成了思考模式(复杂问题深思后回复)与非思考模式(简单问题即时回复),可大大节省算力消耗。
其中,Qwen3-235B-A22B 是一个拥有 2350 多亿总参数和 220 多亿激活参数的大模型。与 o1、Grok-3、Gemini-2.5-Pro 等顶级闭源模型相比,该模型在代码、数学、通用能力等基准测试中表现出极具竞争力的结果。
Qwen3-30B-A3B 是一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型,其激活参数数量是 QwQ-32B 的 10%,但表现更胜一筹。
此外,Qwen3-32B/14B/8B 等 Dense 模型相比 Qwen2.5-72B-Instruct 这类规模的模型都有较大的性能提升。
未来,通义千问团队计划从多个维度提升模型,包括优化模型架构和训练方法,以实现几个关键目标:扩展数据规模、增加模型大小、延长上下文长度、拓宽模态范围,并利用环境反馈推进强化学习以进行长周期推理。
Token 工厂 SiliconCloud
Qwen3-8B 等免费用
作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除了 Qwen3 ,SiliconCloud 已上架包括 GLM-4-32B/9B、Qwen2.5-VL-32B、Wan2.1-I2V、Qwen2.5VL-72B、Wan2.1-T2、QwQ-32B、DeepSeek-R1 & V3、DeepSeek-R1-Distill、CosyVoice2、DeepSeek-VL2、BCE、BGE、SenseVoice-Small 在内的上百款模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、BGE 等多款大模型 API 免费使用,让开发者实现“Token 自由”。
开发者可在 SiliconCloud 平台自由对比、组合各类大模型,只需在开发应用时轻松调用更易用、高效的 API,为你的生成式 AI 应用选择最佳实践。
即刻体验Qwen3
cloud.siliconflow.cn
扫码加入用户交流群