原创 SiliconCloud 2025-03-06 20:39 北京
中国开源模型迎来百花齐放、你追我赶的热潮。
中国开源模型迎来百花齐放、你追我赶的热潮。今天,阿里通义千问开源了新一代推理模型 QwQ-32B,一经发布迅速引发广泛关注。根据 Qwen 公布的基准测试数据,QwQ-32B 整体性能可媲美 DeepSeek-R1、o1-mini,突显了将强化学习应用于预训练基础模型的有效性。
一如既往,硅基流动 SiliconCloud 第一时间上线了推理加速版 QwQ-32B(价格为输入¥1 / M Tokens,输出¥4 / M Tokens),免去开发者部署门槛,只需在开发应用时轻松调用 API,即可带来更高效的用户体验。平台还支持开发者自由对比体验数十款大模型,为你的生成式 AI 应用选择最佳实践。
在线体验
https://cloud.siliconflow.cn/playground/chat/17885302787
API 文档
https://docs.siliconflow.cn/cn/api-reference/
感受一下 SiliconCloud 上 QwQ-32B 加速后的效果,更多玩法可接入 API 后在各大应用中解锁。
模型亮点及性能
通过大规模强化学习训练,QwQ-32B 在数学推理、代码生成及通用任务处理能力上实现了显著突破。该训练方法不仅确保了模型专项能力的持续强化,还实现了其他通用能力的提升。此外,QWQ-32B 集成了 Agent 相关能力,使其能够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。
根据阿里公布的数据,QwQ-32B 在一系列基准测试中均表现优异,在测试数学能力的 AIME24 评测集,以及评估代码能力的 LiveCodeBench 中,QwQ-32B 表现与 DeepSeek-R1 相当,远胜 o1-mini 及相同尺寸的 R1 蒸馏模型;在 LiveBench、IFEval 指令遵循评测集和 BFCL 调用函数/工具准确度测试中, QwQ-32B 的得分均超越 DeepSeek-R1。
Qwen 团队指出,他们正在积极探索将智能体与 RL 集成,以实现长时推理,目标是通过推理时间扩展来释放更高的智能。
AI 社区评价
前 Stability.ai CEO Emad Emostaque 称,Qwen 团队在模型优化和技术创新方面都有很大进展,QwQ-32B 为稠密模型设立了标准。
Abacus AI 创始人 Bindu Reddy 对 QwQ-32B 的性能表现给予高度认可。随着越来越多的开源模型逐步缩小与闭源模型的差距,她预测,2025 年开源模型将在整体表现上超越闭源模型,成为行业的主导力量。
中国开源模型势如破竹,QwQ-32B 的推出也让众多开发者对中国开源 AGI 充满信心和期待。
现在,免除部署难题,你可以直接在 SiliconCloud 上在线体验 QwQ-32B 模型了。
Token 工厂 SiliconCloud
DeepSeek-R1 蒸馏版等免费用
作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、稳定丝滑的大模型 API。
除了 QwQ-32B,SiliconCloud 已上架包括 DeepSeek-R1 & V3、DeepSeek-R1-Distill、Janus-Pro-7B、CosyVoice2、QVQ-72B-Preview、DeepSeek-VL2、DeepSeek-V2.5-1210、HunyuanVideo、Qwen2.5-7B/14B/32B/72B、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、GLM-4-9B-Chat 在内的数十种语言模型、图片/视频模型、音频模型、代码/数学模型以及向量与重排序模型。
其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen2.5(7B)等多款大模型 API 免费使用,让开发者与产品经理聚焦产品创新,无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
近期更新
• 硅基流动助力华为小艺接入DeepSeek-R1
• 硅基流动支持DeepSeek-R1 & V3私有化部署
• 硅基流动上线DeepSeek-R1 & V3企业级服务
• 硅基流动x亚马逊云科技上架DeepSeek-R1/V3
• 硅基流动x华为云推出DeepSeek-R1&V3服务
让超级产品开发者实现“Token自由”
邀好友用SiliconCloud,狂送2000万Token/人
即刻体验DeepSeek-R1&V3
cloud.siliconflow.cn
扫码加入用户交流群