阿里通义千问近期推出了其最新的推理模型 Qwen3-30B-A3B-Thinking-2507,该模型在数学、代码、知识、写作、Agent能力、多轮对话及多语言指令遵循等方面均有显著提升,多项评测结果超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。新模型原生支持256K token的上下文长度,并可扩展至1M token,同时增加了思考长度,鼓励在复杂任务中设置更长思考预算。该模型已在魔搭社区和HuggingFace开源,支持消费级硬件本地部署,并已同步上线Qwen Chat。
✨ **推理能力大幅跃升**: 新模型Qwen3-30B-A3B-Thinking-2507在数学能力评测AIME25中获得85.0高分,在代码能力测试LiveCodeBench v6中得分66.0,均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking),显示出其在核心推理任务上的强大实力。
📚 **知识与通用能力同步提升**: 该模型在GPQA和MMLU-Pro等知识水平评测中取得显著进步。同时,在写作(WritingBench)、Agent能力(BFCL-v3)、多轮对话及多语言指令遵循(MultiIF)等通用能力方面,也均表现优于竞品,展现了其全面的应用潜力。
🚀 **超长上下文与思考长度**: Qwen3-30B-A3B-Thinking-2507原生支持256K token的上下文长度,并可扩展至1M token,极大地增强了其处理长文本和复杂信息的能力。此外,模型还增加了思考长度,官方建议在处理高度复杂推理任务时适当延长思考预算,以充分发挥其性能。
💻 **开源易部署,多平台可用**: 新模型已在魔搭社区和HuggingFace上开源,其轻量化体积使得在消费级硬件上进行本地部署成为可能。用户也可以直接在Qwen Chat上体验新模型的强大能力,为开发者和用户提供了极大的便利性。
IT之家 7 月 31 日消息,阿里通义千问今日宣布推出全新推理模型 Qwen3-30B-A3B-Thinking-2507。相较于 4 月 29 日开源的 Qwen3-30-A3B 模型,新模型在推理能力、通用能力及上下文长度上有了显著提升:

新模型在聚焦数学能力的 AIME25 评测中斩获 85.0 的高分,在代码能力测试 LiveCodeBench v6 中得分 66.0,两项核心推理能力均超越 Gemini2.5-Flash(thinking)、Qwen3-235B-A22B(thinking);新模型的知识水平(GPQA、MMLU-Pro)也较上一版本进步显著。
在写作(WritingBench)、Agent 能力(BFCL-v3)、多轮对话和多语言指令遵循(MultiIF)等通用能力评测中,Qwen3-30B-A3B-Thinking-2507 均超越 Gemini2.5-Flash(thinking)、Qwen3-235B-A22B(thinking)。
更长的上下文理解,原生支持 256K tokens,可扩展至 1M tokens。


此外,新模型的思考长度(thinking length)也增加了,官方推荐在高度复杂的推理任务中设置更长的思考预算,以充分发挥它的潜力。
官方透露,目前 Qwen3-30B-A3B-Thinking-2507 已在魔搭社区、HuggingFace 上开源,其轻量体积可轻松实现消费级硬件的本地部署;同时,其也在 Qwen Chat 上同步上线了新模型。
