阿里通义千问发布了更小尺寸的新模型Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507,并在魔搭社区和HuggingFace正式开源。Qwen3-4B-Instruct-2507在通用能力上超越了闭源的GPT4.1-Nano,与中等规模的Qwen3-30B-A3B性能接近,并且覆盖了更多语言的长尾知识,增强了人类偏好对齐,上下文理解能力扩展至256K。Qwen3-4B-Thinking-2507在推理能力上大幅增强,AIME25高达81.3分,表现可媲美中等模型,Agent分数也表现突出。这些新模型对手机等端侧硬件部署尤为友好,能够处理更复杂的文档分析和长篇内容生成。
🚀 **性能超越闭源小模型,对标中等模型**:新发布的Qwen3-4B-Instruct-2507在通用能力上全面超越了闭源的GPT4.1-Nano,并且在主观和开放性任务中,通过增强人类偏好对齐,能够提供更符合用户需求的回答。其性能表现与中等规模的Qwen3-30B-A3B(non-thinking)模型相当,显示出强大的竞争力。
🧠 **推理能力大幅提升,数学成绩亮眼**:Qwen3-4B-Thinking-2507模型在推理领域表现突出,尤其在数学能力方面,AIME25测评中以4B参数量获得了81.3分的高分,足以媲美中等规模的Qwen3-30B-Thinking模型。此外,该模型在Agent评分上也表现优异,各项评测结果均超越了更大尺寸的Qwen3-30B-Thinking模型。
📚 **长文本处理能力增强,上下文扩展至256K**:新发布的Qwen3-4B模型系列均支持256K tokens的上下文理解能力,这意味着它们能够处理更长的文本内容,进行更复杂的文档分析、生成长篇内容以及进行跨段落推理,极大地拓展了模型在实际应用中的场景。
📱 **适配端侧硬件部署,优化用户体验**:特别值得一提的是,2507版本的Qwen3-4B模型在设计上对手机等端侧硬件部署非常友好。这意味着用户可以在更多终端设备上运行和使用这些先进的AI模型,享受更便捷、更高效的AI服务。
快科技8月7日消息,今日,阿里通义千问宣布发布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。
目前新模型已在魔搭社区、HuggingFace正式开源。
据介绍,在非推理领域,Qwen3-4B-Instruct-2507全面超越闭源的GPT4.1-Nano。
在推理领域,Qwen3-4B-Thinking-2507甚至可以媲美中等规模的Qwen3-30B-A3B(thinking)。
官方表示,2507版本的Qwen3-4B模型对手机等端侧硬件部署尤为友好。

以下为模型核心亮点
Qwen3-4B-Instruct-2507
通用能力均大幅提升,超越商业闭源的小尺寸模型GPT-4.1-nano,与中等规模的Qwen3-30B-A3B(non-thinking)性能接近。
新模型覆盖更多语言的长尾知识,在主观和开放性任务中增强了人类偏好对齐,可提供更符合人们需求的答复。
上下文理解扩展至256K,小模型也能处理长文本。
Qwen3-4B-Thinking-2507
推理能力大幅增强,AIME25高达81.3分,Qwen3-4B-Thinking-2507的推理表现可媲美中等模型Qwen3-30B-Thinking。
特别是在聚焦数学能力的AIME25测评中,以4B参数量斩获81.3分成绩。
Agent分数爆表,相关评测均超越更大尺寸的Qwen3-30B-Thinking模型。
256K tokens上下文的理解能力,支持更复杂的文档分析、长篇内容生成、跨段落推理等场景。


