小众软件 23小时前
性价比逆天,高端游戏本也能跑!Qwen3大模型发布:30B质量、3B速度
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

原创 青小蛙 2025-04-29 16:26 四川

喜闻乐见基准测试Qwen3 在多个权威基准测试中,与 DeepSeek-R1 和 OpenAI 的主流模型(如

喜闻乐见基准测试

Qwen3 在多个权威基准测试中,与 DeepSeek-R1 和 OpenAI 的主流模型(如O1、O3-mini)均处于同一梯队,甚至在部分任务上实现了超越。例如,Qwen3-32B 在 LiveBench 准确率等测试中超过了 OpenAI O1,同时在工具调用、指令跟随和数据格式复制等方面表现突出:

测试项目Qwen3-235B-A22BQwen3-32BDeepSeek-R1OpenAI-o1OpenAI-o3-mini
ArenaHard95.693.893.292.189.0
AIME’24 (数学)85.781.479.874.379.6
AIME’25 (数学)81.572.970.079.274.8
LiveCodeBench70.765.764.363.966.3
CodeForces (编程)20561977202918912036
LiveBench (综合)77.174.971.675.770.0
MultiIF (多语)71.973.067.748.848.4

来源:https://qwenlm.github.io/blog/qwen3/

喜闻乐见实测

小众软件群里的 smallpig 同学在自己的 4090 24GB 单显卡上实测,使用 Qwen3-30B-A3B 模型,实现了其他 3B 模型的速度,但是质量有 30B。

这意味着个人用户在自己家中跑可以正常使用的大模型,不再是什么大问题了。

家里有高级显卡的同学,可以去试试了,显存越大越好。
而来自 ktransformers 的测试,也再次验证了这点:

https://github.com/kvcache-ai/ktransformers/blob/main/doc/en/AMX.md

ktransformers 的结论是,通过AMX指令优化,在工作站场景(Xeon 4 + 4090)中实现了高达 347个token/s 的预填充性能。而在消费者级CPU上(14900KF),运行235B-A22并在较小的30B-A3B上提供流畅的性能。

即使在资源开销方面,高端游戏笔记本电脑似乎也能流畅地处理30B- A3B。

在讨论了AIPC的概念这么久后,终于看到了它的可行性。

没事关注一下我们 👆

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

相关文章