36kr 07月17日 15:51
苹果向英伟达生态妥协了,MLX框架主动适配CUDA
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

苹果公司最新发布的MLX框架,为端侧AI模型训练而设计,现已主动增加CUDA支持,此举标志着苹果在AI领域策略的转变。面对英伟达CUDA生态在AI开发中的主导地位及其不断增长的市场价值,苹果通过适配CUDA,允许开发者利用英伟达GPU训练模型,再部署至苹果设备。这一变化被视为苹果为抢占AI市场而主动借力英伟达的战略举措,旨在提升其在AI领域的竞争力,尽管过往双方存在显而易见的技术和市场竞争关系。文章深入分析了CUDA强大的生态系统如何成为英伟达的核心“护城河”,以及苹果在此背景下不得不调整策略以满足开发者需求和市场趋势。

🍎 苹果MLX框架新增CUDA支持,旨在为端侧AI模型训练提供更广泛的硬件兼容性。此举允许开发者利用英伟达GPU进行模型训练,再将模型部署到Mac、iPhone等苹果设备上,从而扩展了苹果在AI开发生态中的灵活性和可用性。

🚀 英伟达CUDA生态的强大是苹果做出这一调整的关键因素。CUDA已成为GPU计算领域的行业标准,拥有庞大的开发者社区和成熟的应用生态,吸引了众多AI公司在此基础上构建产品和服务。苹果的策略调整显示了其对CUDA生态主导地位的认可和利用。

🔗 苹果此举也与过去双方的“恩怨”形成鲜明对比。曾因macOS系统驱动权限问题,苹果停止对多数英伟达显卡的支持,导致专业用户受影响。时隔多年,苹果主动适配CUDA,被解读为在AI市场竞争中,苹果选择务实合作,以弥补自身生态的不足。

🔒 英伟达通过CUDA的许可协议限制其在非自家GPU上的运行,进一步巩固了其生态壁垒。苹果选择让MLX框架适配CUDA,是顺应合规要求并规避潜在法律风险的策略,同时也是借力英伟达生态以扩大自身影响力的战略选择。

苹果向英伟达生态妥协了!

最新消息,苹果之前特意为端侧AI模型训练推出的MLX框架主动增加了CUDA支持

消息一出即在Hacker News引发热烈讨论:

要知道苹果一直以来都以“封闭”著称,但随着英伟达CUDA生态在AI开发领域占据绝对主导地位,苹果这下也不得不转变姿态了。

再加上英伟达市值创下前无古人的4万亿美元新纪录,以及最近释出的一系列利好消息,苹果选择避其锋芒也就不难理解。

而通过让MLX框架主动适配CUDA,今后苹果开发者也能利用英伟达GPU训练模型

其本质是增加了对CUDA的后端支持,方便开发者在Windows/Linux的英伟达显卡上训练模型,然后再部署回Mac、iPhone等设备。

可以说,苹果这就是明晃晃地借了英伟达东风,以进一步抢夺AI市场。

CUDA太强,不得不拥抱

为啥要拥抱CUDA?没啥,太强了,苹果自己也这么说。

官方理由如下:

(1)统一内存支持:CUDA提供统一内存机制,便于不同设备间的数据共享与迁移,提升开发效率和性能表现。

(2)跨平台部署需求:英伟达硬件在学术研究和大规模计算中应用广泛,支持CUDA能让开发者在Mac上本地开发测试,随后无缝部署到配备英伟达GPU的服务器或超级计算机上。

2023年12月,苹果推出了专为Apple芯片设计的开源机器学习框架MLX(Machine Learning eXchange)。

彼时,苹果已先后发布M1、M2、M3系列芯片,MLX的出现,正是为了借助自研芯片的算力优势,填补苹果端侧AI生态的空白。

不过这几年看下来,苹果在AI方面的表现始终乏力,MLX的影响力也相对有限。

反观英伟达这边,本身就是靠CUDA的生态优势站稳脚跟,AI爆发后更是红得发紫。

为了满足开发者的需求,一直以“圈地自萌”著称的苹果,如今也不得已拥抱CUDA。

此举被不少网友评价为:

这可能是苹果十年来最大的战略举措。

但苹果和英伟达之间的一段“陈年旧怨”也随之被再次翻出。

时间还要回到2018年。

当时苹果发布了macOS Mojave(10.14),由于声称自己要对系统驱动权限进行更严格的控制,它突然停止了对多数英伟达显卡的官方支持。

这直接导致大量专业用户(如视频剪辑、渲染和深度学习开发者)无法在苹果升级后继续使用基于Pascal架构的高性能英伟达GPU。

英伟达随后在开发者论坛中回应,由于苹果未再向其开放必要的内核扩展签名与接口,公司已无法继续为macOS提供新版Web驱动。

潜台词就是,不是不想做,而是做不了

到了2019年,开发者社区又开始集体表达不满,甚至有大批请愿者发起签名,呼吁Tim Cook与英伟达和解,但至今苹果依然未恢复对新款英伟达GPU的macOS支持。

这场“禁卡风波”当时还被不少人解读为,苹果想逐步摆脱对英伟达的依赖,为自研GPU铺路。

如今时隔六年,苹果却主动让MLX框架适配CUDA,实在不免让人感慨。

那么问题来了——

CUDA护城河有多高?

自2006年推出以来,它已逐渐成为GPU计算领域的行业标准,至今被视为英伟达的“护城河”

据福布斯杂志最新消息,目前该生态已拥有超500万CUDA开发者、4万家公司以及数千家生成式AI公司,他们都基于英伟达平台构建自己的产品和服务。

可以说,虽然这一领域不乏谷歌、AWS、华为等国内外挑战者,但就目前来看,CUDA仍占据了绝对主导地位。

也正是由于CUDA生态太强了,苹果这次也不得不主动放下姿态——

而为了打造这个“护城河”,英伟达也可谓煞费苦心。

大约几年前,有开发者还尝试了让CUDA程序在非英伟达平台运行,这无疑触碰到了英伟达的商业生态链。

于是在2024年,英伟达发布了CUDA 11.6版本,并明确规定,不允许在非英伟达平台上逆向工程、反编译或反汇编CUDA SDK生成的任何结果

翻译过来就是,开发者用CUDA编写的程序只能在英伟达GPU上跑,不能“偷渡”到AMD、Apple、Intel GPU上。

即使你技术上做得到,法律也不允许。

所以这也是苹果这一次为何会选择让MLX框架主动适配CUDA的原因之一。

按网友的话说就是,方案1可行,方案2涉及侵权了。

方案1: 基于MLX构建的程序→可以利用支持CUDA的芯片

方案2:CUDA程序→直接在Apple芯片上运行

所以,苹果这一操作背后不仅是合规层面的考量,更是借力英伟达生态、扩大自身影响力的战略选择。

参考链接:

[1]https://winbuzzer.com/2025/07/15/apple-backs-project-to-bridge-its-mlx-framework-with-nvidias-cuda-ecosystem-xcxwbn/

[2]https://news.ycombinator.com/item?id=44565668

[3]https://x.com/ai_zona/status/1944911018326421896

[4]https://github.com/ml-explore/mlx/pull/1983

本文来自微信公众号“量子位”,作者:一水,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

苹果 英伟达 MLX框架 CUDA AI生态
相关文章