Cnbeta 07月03日 07:52
OpenAI暂不采用Google TPU芯片 英伟达和AMD仍将是其核心供应商
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI近期表态,尽管试用了谷歌的TPU芯片,但短期内不会大规模部署。这家由微软支持的AI公司主要依赖英伟达GPU和AMD加速器进行模型训练与推理,原因是这两家公司的产品“性能经过验证”且“已有供应协议”。虽然OpenAI与谷歌云有合作,满足了基础设施需求,但并未大规模迁移算力至TPU。市场此前曾将潜在的TPU合作视为OpenAI寻求英伟达替代方案的信号,但OpenAI的表态凸显了现有芯片合作伙伴的黏性,以及超大规模部署新硬件的复杂性。

🧠 OpenAI证实正在试用谷歌的TPU芯片,但暂无规模化部署计划。TPU是谷歌专门为机器学习任务设计的定制化ASIC芯片,旨在加速神经网络的训练与推理。

💡 OpenAI将继续依赖英伟达GPU和AMDAI加速器,原因是这两家芯片厂商的产品“性能经过验证”且“已有供应协议”。

🤔 尽管与谷歌云有合作,但OpenAI短期内不会将大量算力迁移至TPU平台。此前,投资者和分析师将潜在的TPU合作视为OpenAI寻求英伟达替代方案的信号。

⚠️ OpenAI的表态凸显了现有芯片合作伙伴的黏性,以及超大规模部署新硬件的复杂性。在AI算力需求持续激增的背景下,OpenAI似乎更倾向于在现有GPU-TPU混合测试基础上逐步扩展,而非全面转向TPU架构。

尽管进行了初期测试,OpenAI表示不会大规模采用谷歌的TPU芯片。据报道,这家微软支持的AI公司证实正在试用Alphabet的部分张量处理单元,但暂无规模化部署计划。TPU芯片即tensor processing units,是谷歌专门为机器学习任务设计的定制化ASIC芯片,旨在加速神经网络的训练与推理。TPU采用数据流驱动架构,实现高效的矩阵乘法流水线计算,减少内存访问延迟。

OpenAI表示,将继续依赖英伟达GPU和AMDAI加速器来支持其模型训练与推理工作,理由是这两家芯片厂商的产品“性能经过验证”且“已有供应协议”。

上周末有媒体报道称OpenAI已开始在某些任务中使用谷歌AI芯片,但消息人士指出这些仅是低阶版本TPU,而谷歌最先进的芯片——专为Gemini大语言模型设计——仍保留自用。

虽然近期与谷歌云达成协议满足了OpenAI更广泛的基础设施需求,但该公司明确表示短期内不会将大量算力迁移至TPU平台。

投资者和分析师此前将潜在的TPU合作视为OpenAI寻求英伟达替代方案的风向标,摩根士丹利策略师甚至认为此举将有力验证谷歌硬件的市场竞争力。

然而OpenAI的表态凸显了现有芯片合作伙伴的黏性,以及超大规模部署新硬件的复杂性。在AI算力需求持续激增的背景下,OpenAI似乎更倾向于在现有GPU-TPU混合测试基础上逐步扩展,而非全面转向TPU架构。

OpenAI的芯片路线图向市场释放信号,表明英伟达和AMD仍将是其核心供应商,这可能限制谷歌AI硬件市场份额的增长空间——尽管其TPU技术不断进步。

投资者将密切关注OpenAI下一次基础设施更新及谷歌云财报,以捕捉TPU使用率变化或新供应商多元化迹象。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI TPU 英伟达
相关文章