在苹果AI中国版进展不明朗之际,阿里巴巴Qwen团队推出支持苹果MLX架构的Qwen3模型,为苹果设备提供更流畅、高效的本地AI运行方案。此次适配涵盖多种模型尺寸和精度,旨在充分利用苹果设备性能,满足用户对数据隐私和个性化体验的需求。Qwen的积极举措不仅是对苹果生态的有力支持,也展现了其在开源大模型领域的领先地位。
🍎 Qwen3模型全面适配苹果MLX框架,提供18个尺寸、4种精度选择,涵盖0.6B到235B,以及4bit、6bit、8bit、BF16四种精度,开发者可根据硬件资源选择合适的模型,满足不同设备和应用场景的需求。
💻 MLX是苹果专为Apple Silicon芯片设计的高效机器学习框架,支持在iPhone、iPad、Mac等设备上高效运行模型。Qwen3模型支持MLX格式,利用苹果设备高性能神经引擎和统一内存架构,实现更快的推理速度和更低的能耗。
🤝 Qwen的官方适配展现了积极的协同合作,帮助苹果解决在多样化硬件上提供一致且高效AI体验的难题。Qwen在Hugging Face等开发者社区下载量和关注度稳居第一梯队,构建了庞大的开发者生态,其主动适配也推动了苹果AI在中国的落地。
原创 summer 2025-06-17 09:52 上海
合作没停

作者|summer邮箱|huangxiaoyi@pingwest.com
在苹果AI中国版一片静默之际,阿里出牌了。
2024年6月16日,阿里巴巴Qwen团队对外宣布,推出支持苹果MLX架构的 Qwen3 模型,包含4种精度,用户可以根据硬件资源选择合适的模型。搭载对应芯片的苹果设备可以更流畅、更高效地在本地运行这款来自中国的开源大模型。
看似是一个并不复杂的工程优化,但在此刻,它承载的意义远不止于代码层面。
继今年2月,阿里确认与苹果合作中国区 Apple Intelligence之后,不断有消息预测上线时间,但前不久的WWDC(全球开发者大会)上,官方再次沉默,没有新的进展,让外界很是担心。
在这一背景下,此次Qwen的官方适配,似乎用代码和性能回应了种种疑虑,“我们准备就绪中”。
8个尺寸、4种精度,不只是适配 这次技术发布的核心,是Qwen3模型对苹果MLX框架的全面、官方支持。
MLX是苹果专为Apple Silicon芯片设计的高效机器学习框架,提供了类PyTorch的API,兼容Numpy语法,支持C++/Swift扩展,利用统一内存架构,数据在CPU/GPU间共享,可降低功耗、提升处理速度,还具备动态图构建、多模态支持、端侧部署优化等功能,能在iPhone、iPad、Mac等设备上高效运行模型,帮助开发者更轻松地进行机器学习模型训练与部署。
随着用户对数据隐私的日益重视和对个性化体验的追求,让AI大模型在个人设备上本地运行,正成为不可忽视的趋势。MLX正是苹果为这股趋势提供的官方解决方案。
而Qwen3模型支持MLX格式,意味着可以充分利用苹果设备的高性能神经引擎和统一内存架构,在MacBook、iPad等设备上实现更快的推理速度和更低的能耗,相比技术迭代,更多的是工程优化。
不过,即使是工程优化,从具体的工作来看,Qwen3的MLX适配也展现了远超“完成任务”的诚意,几乎将Qwen开源模型家族,完整地融入苹果生态,适配范围广、精度深。
此次Qwen3一共提供了32个MLX适配模型,涵盖从0.6B到235B的8个尺寸,以及4bit、6bit、8bit、BF16四种精度,允许用户根据硬件资源选择合适的模型精度。对开发者而言,低量化(如4bit)适合内存有限的设备(如iPhone),而高精度(如BF16)适合需要更高推理质量的场景(如M2/M3 Ultra)。
这意味着,无论是想在iPhone上实现轻量级AI助手,还是在Mac Studio上进行复杂AI内容创作,都能找到对应的Qwen3模型。
阿里通义千问开源负责人林俊旸在X上表示,“这是一个小更新,但是由于模型太多,以及需要测试,所以花了不少时间。”
这种“量体裁衣”式的优化,是阿里与苹果硬件的积极协同,而非简单的“能用就行”。它实质上帮助苹果解决了“如何在多样化硬件上,为用户提供一致且高效AI体验”这一难题。
值得注意的一个细节是,4月28日,Qwen3发布前夕,苹果MLX Community成员就在X上率先宣布完成了Qwen3的适配。而这一次,发布者变成了Qwen官方团队。
从功能效果看,社区适配与官方适配的差别不大,但意义不同。
社区适配更像是基于技术热情的“粉丝行为”,证明模型代码质量优越、社区受欢迎度高,是来自基层的认可。而Qwen官方团队的发布,则是正式的、企业级的“战略决定”。
它也在向所有开发者和潜在商业伙伴传递一种态度:我们将为这一技术路线提供持续、稳定、可靠的官方支持,包括未来的模型更新、技术答疑和潜在的Bug修复。
苹果AI,需要阿里催一催