智源社区 前天 20:23
Qwen全面升级非思考模型,3B激活、256K长文、性能直逼GPT-4o
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Qwen3-30B-A3B-Instruct-2507作为Qwen系列的新成员,以其仅激活3B参数的轻量化设计,实现了媲美顶尖闭源模型的强大性能。该模型在推理能力和对齐能力上取得了显著进步,推理能力提升超180%,长文本处理能力也翻倍至256K。它在通用能力、多语言知识覆盖、代码生成、数学计算等方面均有全面提升,并且作为指令微调版本,更注重稳态输出和一致性,适合在稳定生产环境部署,能有效解决长文本处理中的信息遗漏和误检等问题,展现出卓越的稳定性和精度。

🚀 轻量化设计,强劲性能:Qwen3-30B-A3B-Instruct-2507仅激活3B参数,却能达到比肩Gemini 2.5-Flash和GPT-4o等顶尖模型的性能水平,尤其在推理和对齐能力上,相较前代模型分别提升了183.8%和178.2%,证明了其高效能的优势。

📚 长文本处理能力翻倍:该模型将长文本处理能力从前代的128K大幅提升至256K,并具备更稳健的长程依赖建模能力,能够“读懂并记住”庞大的输入信息,保持语义连贯和细节清晰,这对于处理大规模文档和复杂任务至关重要。

💡 全面提升的通用能力:除了核心能力的突破,Qwen3-30B-A3B-Instruct-2507在多语言长尾知识覆盖、文本质量、代码生成、数学计算、工具使用等方面也展现出显著进步,使其在更广泛的应用场景中具有更高的实用性。

✅ 稳定生产环境的优选:作为Qwen3-30B-A3B的高质量指令微调版本,它以非思考模式运行,更侧重稳态输出和一致性,具备更强的指令遵循能力,特别适合直接服务于复杂、真实的人机交互应用,确保输出的稳定性和可靠性。

🔍 精准高效的信息整合:在处理海量文档提取证据的任务中,该模型表现出色,有效解决了对话轮次耗尽、工具调用失败、信息遗漏等问题,即使在极端情况下也能保持惊人的稳定性和精度,充分体现了其在大规模文档理解和多步推理场景下的价值。

Happy QwensWeek果然名不虚传。

Qwen的基础模型接连开源,现在全新非思考模型Qwen3-30B-A3B-Instruct-2507也闪电上线。

仅激活3B参数,就能取得媲美Gemini 2.5-Flash(non-thinking)、GPT-4o等顶尖闭源模型的超强性能。

相较前代的非思考模型Qwen3-30B-A3B Non-Thinking,这次“小更新”使模型的通用能力方面得到了关键提升。

其中,模型的推理能力(AIME25)提升了183.8%,而对其能力(Arena-Hard v2)则提升了178.2%。此外,模型的长文本处理能力也由前代的128K提升至256K。

可以说,这款新模型就像Qwen团队说的:“更轻、更强、更好用!

这么一波操作下来,网友都觉得“太疯狂”:哥,你慢点!

小更新、大不同

正如开头提到的,相较于前代非思考模型,Qwen3-30B-A3B-Instruct-2507在推理能力和对齐能力方面实现了大幅跃升,长文本处理能力也从128K提升至256K。

除此之外,模型在多语言长尾知识覆盖、主观与开放任务的文本质量、代码生成、数学计算、工具使用等通用能力上也表现出全面进步,展现出更强的通用性与实用性。

作为Qwen3系列Qwen3-30B-A3B的高质量指令微调版本,其不再有块,完全以非思考模式运行。

相较于基础模型,Qwen3-30B-A3B-Instruct-2507更注重稳态输出与一致性,适合稳定生产环境部署。具备更强的对齐性、指令遵循能力和长文本处理能力,适合直接服务于更复杂、更真实的人机交互应用。

在网友的内部基准测试中,直观地体现了Qwen3-30B-A3B-Instruct-2507的上述优势:

面对从海量文档中提取支持某一主题的全部证据这一任务,Qwen3-30B-A3B-Instruct-2507不仅超越了网友此前使用过的所有模型,还有效解决了诸如对话轮次耗尽、工具调用失败、信息遗漏与误检等常见问题。

相比之下,其他模型往往会在处理长文本时出现大面积内容丢失,而Qwen3-30B-A3B-Instruct-2507在极端情况下也仅偶尔遗漏少量文档,展现出惊人的稳定性和精度

这一性能的背后,正是Qwen3-30B-A3B-Instruct-2507在长文本处理能力方面的核心优势。得益于其支持256K的上下文窗口以及更稳健的长程依赖建模能力,模型能够“读懂并记住”庞大的输入信息,保持语义连贯、细节清晰。

同时,它还具备更强的推理能力与检索调用策略,从而在复杂任务中实现高效、精准的信息整合与输出,真正体现了其在大规模文档理解和多步推理场景下的实用价值。

Qwen3家族

在最近的一周多时间里,Qwen一口气放出了好几款模型:

    07.30:Qwen3-30B-A3B-Instruct-2507(Qwen3-30B-A3B 非思考模式的更新版本)
    07.25:Qwen3-235B-A22B-Thinking-2507(Qwen3-235B-A22B 思考模式的更新版本)
    07.22:Qwen3-Coder-480B-A35B-Instruct(Qwen3-Coder)
    07.21:Qwen3-235B-A22B-Instruct-2507(Qwen3-235B-A22B 非思考模式的更新版本)

在网友们惊叹阿里速度的同时,Qwen系列的命名乍一看也让人眼花缭乱。

不过,如果你仔细观察,就会发现Qwen的命名朴素得像一份显卡驱动版本号,毫无感情,只有信息。

以今天的主角Qwen3-30B-A3B-Instruct-2507为例,这个命名表达的是:

    Qwen3:第三代千问模型
    30B:总参数量为30B(Billion=十亿)
    A3B:激活参数为3B
    Instruct-2507:指令微调版本,发布时间为2025年7月。

如果我们回顾整个Qwen3(Qwen3-2504)系列,基础模型又根据参数量和激活参数量分为两条主线:

    旗舰模型Qwen3-235B-A22B:235B总参数,22B激活参数。较小的MoE模型Qwen3-30B-A3B:30B总参数,3B激活参数(另有预训练版本Qwen3-30B-A3B-Base)

针对不同的理场景和硬件资源,Qwen3系列还包含了不同大小的密集(Dense)模型(从0.6B到32B)。

此外,为应对不同的场景,Qwen3还推出了不同的量化策略版本,如FP8、Int4、AWQ、GGUF、GPTQ等。

可以说,只要能细化,Qwen3就不用你动手(颗粒度这一块,拿捏!)

所以,与其说Qwen3是一个模型系列,不如说它是一个“模型矩阵”:规格全、命名清、版本多。

横跨参数规模、精度格式、训练类型几乎所有维度,适配了从研究到应用、从大厂集群到边缘部署的各种需求。

一句话总结:你只管问,Qwen3已经准备好了。

参考链接:
[1]https://x.com/Alibaba_Qwen/status/1950227114793586867
[2]https://www.reddit.com/r/LocalLLaMA/comments/1mcg4qt/qwen330ba3b_small_update/
[3]https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
[4]https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

量子位「AI 100」产品榜单启动招募!
快来提名你心目里的百强产品~

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Qwen3 AI模型 大语言模型 轻量化模型 长文本处理
相关文章