编辑:Panda
据路透社等多家媒体报道,一位知情人士称,OpenAI 最近开始租用谷歌的 AI 芯片来支持 ChatGPT 及其其他产品。
现目前,OpenAI 是英伟达 GPU 的最大买家之一 —— 这些设备在 AI 大模型的训练和推理阶段都必不可少。
看起来,OpenAI 不仅试图远离微软,现在也在开始远离英伟达了。
但与谷歌合作?也着实让人意外,毕竟拥有 Gemini 系列模型的谷歌可以说是 OpenAI 最直接且最强大的竞争对手之一。
如果考虑到 OpenAI 还曾聘请了谷歌云 TPU 高级工程总监 Richard Ho 作为其硬件负责人,并有传言说 OpenAI 还在推动自研 AI 芯片项目,这样的合作就更让人惊讶了。
OpenAI 为何这样选择呢?
一个原因是 OpenAI 用户增长很快(近日宣布已有 300 万付费企业用户),正面临严重的 GPU 紧缺问题。为了保证 ChatGPT 推理能力不受影响,他们必须寻找替代方案。
另一个原因可能是希望降低对微软的绑定程度,这也是 OpenAI 近段时间一直在做的事情。这两家公司最近也相当不愉快。
据了解,这是 OpenAI 首次真正开始使用非英伟达芯片,这可能会推动 TPU 成为英伟达 GPU 更便宜的替代品。
具体使用方式上,据 The Information 报道,OpenAI 是希望通过谷歌云租用的 TPU,但谷歌云有员工表示,由于 OpenAI 与谷歌在 AI 赛道的竞争关系,谷歌并不会向其出租最强大的 TPU。
那对谷歌来说,这意味着什么呢?
谷歌目前正在扩大其张量处理单元(TPU)的对外开放程度,并已经赢得了苹果、Anthropic 和 Safe Superintelligence 等客户。
要知道,过去几年,AI 模型训练与推理几乎清一色依赖英伟达 GPU。如今,全球最核心的 AI 公司之一 OpenAI 开始采购谷歌的 TPU,这不仅意味着谷歌终于将内部使用多年的 TPU 成功商品化,而且还获得了「重量级背书」。谷歌在高端 AI 云市场的话语权得到提升,有望吸引更多大模型公司迁移阵地。这还表明 TPU 性能、稳定性、生态工具链已达到 OpenAI 的高要求。
同时,这也传递出了一个清晰的市场信号:AI 基础设施不等于英伟达,多元化已开始成为趋势。
参考链接https://www.theinformation.com/articles/google-convinces-openai-use-tpu-chips-win-nvidiahttps://www.reuters.com/business/openai-turns-googles-ai-chips-power-its-products-information-reports-2025-06-27/
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com
文章原文