IT之家 15小时前
不再单一依赖英伟达,消息称 OpenAI 首次采用谷歌 AI 芯片训练 ChatGPT
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 开始租用谷歌的人工智能芯片,以支持 ChatGPT 和其他产品的算力需求。长期以来,OpenAI 一直依赖英伟达 GPU,而此次合作标志着其首次大规模采用非英伟达芯片,旨在降低 AI 推理运算成本。谷歌此举正值其扩大自研 Tensor 处理器(TPU)对外供货之际,吸引了包括苹果在内的多家科技公司。OpenAI 租用谷歌 TPU,有望摆脱对微软数据中心的依赖,并寻求更具价格优势的算力解决方案。尽管如此,谷歌并未向 OpenAI 提供最强性能的 TPU。

💡 OpenAI 租用谷歌 AI 芯片:OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。

⚙️ 算力来源多元化:长期以来,OpenAI 依赖英伟达 GPU,此次合作标志着其首次大规模采用非英伟达芯片,逐步摆脱对微软数据中心的依赖。

💰 降低算力成本:租用谷歌云平台上的 TPU,OpenAI 旨在降低 AI 推理运算的支出,寻求更具价格优势的算力解决方案。

🏢 谷歌扩大 TPU 供应:谷歌正值扩大自研 Tensor 处理器(TPU)对外供货之际,吸引了包括苹果在内的大型科技公司。

⚠️ 未提供最强性能 TPU:谷歌并未向 OpenAI 提供最强性能的 TPU,高阶芯片目前不对竞争对手开放。

IT之家 6 月 28 日消息,据路透社今日援引知情人士消息,OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。

OpenAI 是英伟达 GPU 的最大客户之一,长期依赖后者 AI 芯片来训练模型及执行推理任务。据IT之家此前报道,本月早些时候有消息称 OpenAI 有意接入谷歌云服务,以应对日益增长的算力需求。

对谷歌而言,这项合作正值其扩大自研 Tensor 处理器(TPU)对外供货之际。此前 TPU 多用于内部项目,随后又开始向外部客户开放,并已吸引到包括苹果在内的大型科技公司,以及由前 OpenAI 高管创办的 Anthropic 和 Safe Superintelligence 等初创企业。

这也是 OpenAI 首次在关键任务中大规模采用非英伟达芯片,意味着其正在逐步摆脱对微软数据中心的依赖。据《The Information》报道,TPU 的使用有望降低算力成本,为 OpenAI 提供一种更具价格优势的替代方案。

OpenAI 希望通过租用谷歌云平台上的 TPU,降低 AI 推理运算的支出。不过,谷歌并未向 OpenAI 提供最强性能的 TPU。据《The Information》援引谷歌云员工说法,这些高阶芯片目前并不对竞争对手开放。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI 谷歌 AI芯片 算力
相关文章