36kr-科技 04月11日 08:03
谷歌最新AI芯片打平英伟达B200,专为推理模型打造,最高配每秒42500000000000000000次浮点运算
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌推出了其首款专为AI推理设计的TPU芯片Ironwood(TPU v7),性能大幅提升。这款芯片的FP8峰值算力达到4614TFlops,高出上一代TPU 10倍,并且最高可扩展至9216个芯片的集群,峰值算力达42.5 ExaFlops。Ironwood在内存和通信方面也进行了显著升级,拥有192GB高带宽内存和7.2 TBps的单芯片内存带宽。谷歌计划将其整合到谷歌云AI超算中,支持包括推荐算法和Gemini模型在内的业务。这款芯片的发布引发了业界对AI芯片竞争格局的关注,特别是与英伟达等厂商的对比。

🚀 Ironwood (TPU v7) 是谷歌专为AI推理打造的芯片,采用FP8计算,峰值算力达4614TFlops,性能是2017年第二代TPU的3600倍,与2023年的第五代TPU比也有10倍。

💡 Ironwood具备高扩展性,最高可配置9216个液冷芯片,峰值算力达42.5 ExaFlops,是目前全球最强超级计算机EL Capitan的24倍。

💾 Ironwood在内存和通信方面进行了显著升级,HBM容量为192GB,是上一代的6倍,单芯片内存带宽提升至7.2 TBps,是上一代的4.5倍。同时,ICI网络双向带宽提升至1.2 Tbps,是上一代的1.5倍。

⚙️ Ironwood配备了增强版SparseCore,用于处理高级排序和推荐工作负载。它还支持Google DeepMind开发的机器学习运行时Pathways,能够跨多个TPU芯片实现高效的分布式计算。

🔥 谷歌计划将TPU v7整合到谷歌云AI超算,支持推荐算法、Gemini模型以及AlphaFold等业务。与英伟达B200相比,TPU v7的FP8算力略高,但内存带宽稍低,引发了业界对AI芯片竞争的关注。

谷歌首款AI推理特化版TPU芯片来了,专为深度思考模型打造。

代号Ironwood,也就是TPU v7,FP8峰值算力4614TFlops,性能是2017年第二代TPU的3600倍,与2023年的第五代TPU比也有10倍。

(为什么不对比第六代,咱也不知道,咱也不敢问。)

第七代TPU还突出高扩展性,最高配集群可拥有9216个液冷芯片,峰值算力42.5 ExaFlops,也就是每秒运算42500000000000000000次。

是目前全球最强超级计算机EL Capitan的24倍。

谷歌称,AI正从响应式(提供实时信息供人类解读)转变为能够主动生成洞察和解读的转变。

在推理时代,Agent将主动检索和生成数据,以协作的方式提供洞察和答案,而不仅仅是数据。

而实现这一点,正需要同时满足巨大的计算和通信需求的芯片,以及软硬协同的设计。

谷歌AI芯片的软硬协同

深度思考的推理模型,以DeepSeek-R1和谷歌的Gemini Thinking为代表,目前都是采用MoE(混合专家)架构。

虽然激活参数量相对少,但总参数量巨大,这就需要大规模并行处理和高效的内存访问,计算需求远远超出了任何单个芯片的容量。

(o1普遍猜测也是MoE,但是OpenAI他不open啊,所以没有定论。)

谷歌TPU v7的设计思路,是在执行大规模张量操作的同时最大限度地减少芯片上的数据移动和延迟

与上一代TPU v6相比,TPU v7的高带宽内存 (HBM) 容量为192GB,是上一代的6倍,同时单芯片内存带宽提升到7.2 TBps,是上一代的4.5倍。

TPU v7系统还具有低延迟、高带宽的ICI(芯片间通信)网络,支持全集群规模的协调同步通信。双向带宽提升至1.2 Tbps,是上一代的1.5倍。

能效方面,TPU v7每瓦性能也是上一代的两倍。

硬件介绍完,接下来看软硬协同部分。

TPU v7配备了增强版SparseCore ,这是一款用于处理高级排序和推荐工作负载中常见的超大嵌入的数据流处理器。

TPU v7还支持Google DeepMind开发的机器学习运行时Pathways,能够跨多个TPU芯片实现高效的分布式计算。

谷歌计划在不久的将来把TPU v7整合到谷歌云AI超算,支持支持包括推荐算法、Gemini模型以及AlphaFold在内的业务。

网友:英伟达压力山大了

看过谷歌最新TPU发布,评论区网友纷纷at英伟达。

有人称如果谷歌能以更低的价格提供AI模型推理服务,英伟达的利润将受到严重威胁。

还有人直接at各路AI机器人,询问这款芯片对比英伟达B200如何。

简单对比一下,TPU v7的FP8算力4614 TFlops,比B200标称的4.5 PFlops(=4500 TFlops)略高。内存带宽7.2TBps,比英伟达B200的8TBps稍低一点,是基本可以对标的两款产品。

实际上除了谷歌之外,还有两个云计算大厂也在搞自己的推理芯片。

亚马逊的Trainium、Inferentia和Graviton芯片大家已经比较熟悉了,微软的MAIA 100芯片也可以通过Azure云访问。

AI芯片的竞争,越来越激烈了。

参考链接:

[1]https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/

[2]https://x.com/sundarpichai/status/1910019271180394954

本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

谷歌 TPU AI推理 Ironwood 芯片
相关文章