Cnbeta 2024年12月06日
NVIDIA AI芯片被疯抢 哪家大厂拥有最多GPU?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

大型科技公司正在积极部署NVIDIA的AI芯片,尤其是H100和GB200,以满足其不断增长的AI算力需求。根据预测,微软、谷歌、Meta、亚马逊和xAI等公司在2024年拥有大量的H100芯片,预计到2025年其算力将大幅提升。此外,这些公司还大量采购了GB200芯片。NVIDIA CEO黄仁勋也表示,公司下一代AI芯片Blackwell的需求强劲,市场对下一代芯片Rubin的期待也十分高涨。这表明AI算力成为科技巨头竞争的关键领域,NVIDIA的AI芯片在其中扮演着至关重要的角色。

🤔 **微软、谷歌、Meta、亚马逊和xAI等科技巨头在2024年已拥有大量NVIDIA H100芯片,并计划在2025年大幅提升其AI算力。** 例如,微软预计明年将拥有250万至310万块H100,而谷歌预计将达到350万至420万块。

🖥️ **这些科技巨头除了H100外,还在大量采购NVIDIA的GB200芯片。** 微软购买了70万至140万个,谷歌购买了40万个,亚马逊购买了36万个,OpenAI至少拥有40万个GB200芯片。

🚀 **NVIDIA下一代AI芯片Blackwell的需求“疯狂”,市场对下一代芯片Rubin的期待也很高。** 黄仁勋表示,每个人都想成为AI领域的领导者,这预示着AI算力竞争的激烈程度。

💡 **AI算力已成为科技巨头竞争的关键领域,NVIDIA的AI芯片在其中扮演着至关重要的角色。** 芯片的性能和供应将直接影响这些公司在AI领域的竞争力。

NVIDIA的AI芯片在市场上的需求激增,特别是在大型科技公司中。那么究竟哪家大厂所拥有的GPU数量最多呢,根据lesswrong的预估,如果都换成H100的等效算力,全球五大科技公司的2024年拥有的算力,以及2025年的预测分别如下:

微软拥有75万至90万块H100,预计明年将达到250万至310万块;

谷歌拥有100万至150万块H100,预计明年将达到350万至420万块;

Meta拥有55万至65万块H100,预计明年将达到190万至250万块;

亚马逊拥有25万至40万块H100,预计明年将达到130万至160万块;

xAI拥有10万块H100,预计明年将达到55万至100万块。

此外,根据Melius Research分析师Ben Reitzes的报告,这些大型公司正在大量购买NVIDIA的GB200芯片,微软购买了70万至140万个,谷歌购买了40万个,亚马逊购买了36万个,而OpenAI至少拥有40万个GB200芯片。

NVIDIACEO黄仁勋在接受采访时曾表示,公司下一代AI芯片Blackwell的需求“疯狂”,并强调每个人都想成为第一。

目前,市场已经开始期待NVIDIA推出的下一代芯片Rubin,预计该芯片可能会比预期提前6个月准备就绪。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI算力 NVIDIA H100 GB200 科技巨头
相关文章