index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
OpenAI 开始租用谷歌的人工智能芯片,以支持 ChatGPT 和其他产品的算力需求。长期以来,OpenAI 一直依赖英伟达 GPU,而此次合作标志着其首次大规模采用非英伟达芯片,旨在降低 AI 推理运算成本。谷歌此举正值其扩大自研 Tensor 处理器(TPU)对外供货之际,吸引了包括苹果在内的多家科技公司。OpenAI 租用谷歌 TPU,有望摆脱对微软数据中心的依赖,并寻求更具价格优势的算力解决方案。尽管如此,谷歌并未向 OpenAI 提供最强性能的 TPU。
💡 OpenAI 租用谷歌 AI 芯片:OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。
⚙️ 算力来源多元化:长期以来,OpenAI 依赖英伟达 GPU,此次合作标志着其首次大规模采用非英伟达芯片,逐步摆脱对微软数据中心的依赖。
💰 降低算力成本:租用谷歌云平台上的 TPU,OpenAI 旨在降低 AI 推理运算的支出,寻求更具价格优势的算力解决方案。
🏢 谷歌扩大 TPU 供应:谷歌正值扩大自研 Tensor 处理器(TPU)对外供货之际,吸引了包括苹果在内的大型科技公司。
⚠️ 未提供最强性能 TPU:谷歌并未向 OpenAI 提供最强性能的 TPU,高阶芯片目前不对竞争对手开放。
IT之家 6 月 28 日消息,据路透社今日援引知情人士消息,OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。
OpenAI 是英伟达 GPU 的最大客户之一,长期依赖后者 AI 芯片来训练模型及执行推理任务。据IT之家此前报道,本月早些时候有消息称 OpenAI 有意接入谷歌云服务,以应对日益增长的算力需求。
对谷歌而言,这项合作正值其扩大自研 Tensor 处理器(TPU)对外供货之际。此前 TPU 多用于内部项目,随后又开始向外部客户开放,并已吸引到包括苹果在内的大型科技公司,以及由前 OpenAI 高管创办的 Anthropic 和 Safe Superintelligence 等初创企业。
这也是 OpenAI 首次在关键任务中大规模采用非英伟达芯片,意味着其正在逐步摆脱对微软数据中心的依赖。据《The Information》报道,TPU 的使用有望降低算力成本,为 OpenAI 提供一种更具价格优势的替代方案。
OpenAI 希望通过租用谷歌云平台上的 TPU,降低 AI 推理运算的支出。不过,谷歌并未向 OpenAI 提供最强性能的 TPU。据《The Information》援引谷歌云员工说法,这些高阶芯片目前并不对竞争对手开放。