机器之心 前天 15:58
凌晨,Qwen又更新了,3090就能跑,3B激活媲美GPT-4o
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Qwen3-30B-A3B-Instruct-2507模型是一款非思考模式的新AI模型,仅需激活30亿参数,便能在多项性能测试中媲美甚至超越业界顶尖闭源模型如Gemini 2.5-Flash和GPT-4o。相较于前代版本,该模型在通用能力、多语言知识覆盖、用户偏好对齐以及长文本理解(提升至256K)等方面均有显著提升。目前,该模型已在魔搭社区和HuggingFace等平台开源,并提供量化版本,为消费级GPU用户提供了新的AI模型运行选择。值得注意的是,该模型为非推理模型,在复杂代码生成等任务上,推理能力的重要性仍是关键考量。

🚀 **性能飞跃与效率突破**:新发布的Qwen3-30B-A3B-Instruct-2507模型,仅激活30亿参数,却在多项基准测试中展现出与Gemini 2.5-Flash(非思考模式)和GPT-4o等顶尖闭源模型相媲美的实力。例如,AIME25成绩从21.6大幅提升至61.3,Arena-Hard v2从24.8提升至69.0,这标志着模型在效率和性能优化上取得了重大进展,计算效率提升速度令人瞩目。

💡 **全方位能力提升**:该模型在通用能力上实现了关键性飞跃,显著增强了指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面的表现。同时,在多语言的长尾知识覆盖方面也取得了显著进步,并且在新模型的主观和开放任务中,更能贴合用户偏好,生成更高质量、更有帮助的回答,长文本理解能力更是提升至256K。

🌐 **开源力量与社区赋能**:Qwen3-30B-A3B-Instruct-2507模型已在魔搭社区和HuggingFace等平台全面开源,并迅速获得了社区的积极响应,出现了更多的使用渠道,甚至包括量化版本。这种开源模式极大地降低了AI模型的运行门槛,使得用户可以在消费级GPU上(如Mac电脑、RTX 3090等)流畅运行,体现了开源社区的巨大能量。

🤔 **非推理模式的局限性探讨**:尽管新模型在多数任务上表现优异,但它属于非推理模型。开发者Simon Willison的对比测试指出,对于需要“开箱即用”的复杂代码生成任务,模型的“推理”能力可能是一个决定性的关键因素。这提示我们在选择和使用AI模型时,需要根据具体应用场景来评估其能力。

🔥 **持续迭代与行业“内卷”**:Qwen团队在深夜发布新模型的举动,再次引发了行业同行的“内卷”效应。然而,这种技术迭代的速度和成果,也让整个AI领域的发展充满活力,用户每天都能见证AI能力的新飞跃,这本身就是一件令人兴奋的事情。

机器之心报道

编辑:张倩


继前段时间密集发布了三款 AI 大模型后,Qwen 凌晨又更新了 —— 原本的 Qwen3-30B-A3B 有了一个新版本:Qwen3-30B-A3B-Instruct-2507


这个新版本是一个非思考模式(non-thinking mode)的新模型。它的亮点在于,仅激活 30 亿(3B)参数,就能展现出与业界顶尖闭源模型,如谷歌的 Gemini 2.5-Flash(非思考模式)和 OpenAI 的 GPT-4o 相媲美的超强实力,这标志着在模型效率和性能优化上的一次重大突破。


下图展示了该模型的性能数据,可以看出,与更新前的版本相比,新版本在多项测试中都实现了跨越式提升,比如 AIME25 从之前的 21.6 提升到了 61.3,Arena-Hard v2 成绩从 24.8 提升到了 69.0。



下图展示了新版本和 DeepSeek-V3-0324 等模型的性能对比结果,可以看到,在很多基准测试中,新版本模型可以基本追平甚至超过 DeepSeek-V3-0324。



这让人感叹模型计算效率的提升速度。



具体来说,Qwen3-30B-A3B-Instruct-2507 在诸多方面实现了关键提升:


    通用能力大幅提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等多方面;

    在多语言的长尾知识覆盖方面,模型进步显著

    在主观和开放任务中,新模型与进一步紧密对齐了用户偏好,可以生成更高质量的文本,为用户提供更有帮助的回答;

    长文本理解能力提升至 256K



现在模型已经在魔搭社区和 HuggingFace 等平台开源。QwenChat 上也可以直接体验。


体验链接:http://chat.qwen.ai/


该模型发布后也很快得到了社区的支持,有了更多的使用渠道,甚至还有了量化版本。这就是开源的力量。




它的出现,让大家在消费级 GPU 上运行 AI 模型有了新的选择。



有人晒出了这个新版本在自己的 Mac 电脑、搭载 RTX 3090 的 PC 等设备上的运行体验。





如果你也想运行这个模型,可以参考这个配置要求:



值得注意的是,这次的新版本模型是一个非推理模型。著名开发者 Simon Willison 将该模型与他之前测试过的「推理」 模型(如 GLM-4.5 Air)进行了对比。他得出的核心结论是:对于生成「开箱即用」的复杂代码这类任务,模型是否具备「推理」能力可能是一个至关重要的因素。



Qwen 团队的这次更新依然在深夜进行,这让其他同行再次感觉被卷到了。不过,每天醒来都能看到 AI 的能力又上了一个新台阶,这本身就是一件激动人心的事。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Qwen3-30B-A3B-Instruct-2507 AI模型 参数效率 开源AI 大模型
相关文章