通义千问发布了旗舰版Qwen3模型的更新版本Qwen3-235B-A22B-Instruct-2507-FP8,该模型在通用能力上实现了显著飞跃,在指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面表现出色,并在多项权威测评中超越了包括Kimi-K2、DeepSeek-V3在内的顶级开源模型,以及Claude-Opus4-Non-thinking等领先闭源模型。此次更新还特别强化了模型在多语言长尾知识覆盖、用户偏好契合度以及长文本理解能力(提升至256K上下文)等方面的表现,旨在提供更优质、更符合用户需求的交互体验。新模型已在魔搭社区和HuggingFace开源,供开发者体验。
✨ **模型性能全面升级,多项测评超越竞品**:新发布的Qwen3-235B-A22B-Instruct-2507-FP8模型在指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等通用能力上均有显著提升,并在GQPA、AIME25、LiveCodeBench、Arena-Hard、BFCL等多个测评中展现出领先优势,超越了包括Kimi-K2、DeepSeek-V3在内的顶级开源模型,以及Claude-Opus4-Non-thinking等闭源模型,标志着其技术实力迈上新台阶。
🌍 **多语言长尾知识覆盖与用户偏好契合度增强**:本次更新特别关注了模型在多语言长尾知识方面的覆盖能力,并显著增强了其在主观及开放性任务中对用户偏好的契合度。这意味着Qwen3新模型能更准确地理解用户意图,提供更有价值的回复,并生成更高质量、更贴心的文本内容,提升了用户体验的满意度。
📚 **长文本理解能力大幅提升至256K**:Qwen3新模型将上下文长度扩展至256K,极大地增强了其处理和理解长文本的能力。这一进步使得模型在处理长篇文章、复杂文档或进行长时间对话时,能够保持更强的连贯性和准确性,为复杂任务的处理提供了坚实基础。
🚀 **模型已开源,欢迎开发者体验与协作**:为了促进AI技术的共同发展,通义千问已将Qwen3新模型在魔搭社区和HuggingFace平台上进行开源更新。开发者们可以方便地获取和体验这一强大的模型,并进行二次开发或集成,共同推动AI技术的进步与应用落地。
今天,我们更新了旗舰版Qwen3模型,推出 Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本,命名为Qwen3-235B-A22B-Instruct-2507-FP8。

新的Qwen3模型,通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能力)等众多测评中表现出色,超过Kimi-K2、DeepSeek-V3等顶级开源模型以及Claude-Opus4-Non-thinking等领先闭源模型。

此外,本次更新的Qwen3模型,还增强了以下关键性能:
-在多语言的长尾知识覆盖方面,模型取得显著进步。
-在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。
-长文本提升到256K,上下文理解能力进一步增强。
目前,Qwen3新模型已在魔搭社区和HuggingFace上开源更新,欢迎开发者们体验。
来源:通义千问Qwen,原文标题:《Qwen3升级版,惊喜来袭》
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。