大型科技公司正在积极部署NVIDIA的AI芯片,尤其是H100和GB200,以满足其不断增长的AI算力需求。根据预测,微软、谷歌、Meta、亚马逊和xAI等公司在2024年拥有大量的H100芯片,预计到2025年其算力将大幅提升。此外,这些公司还大量采购了GB200芯片。NVIDIA CEO黄仁勋也表示,公司下一代AI芯片Blackwell的需求强劲,市场对下一代芯片Rubin的期待也十分高涨。这表明AI算力成为科技巨头竞争的关键领域,NVIDIA的AI芯片在其中扮演着至关重要的角色。
🤔 **微软、谷歌、Meta、亚马逊和xAI等科技巨头在2024年已拥有大量NVIDIA H100芯片,并计划在2025年大幅提升其AI算力。** 例如,微软预计明年将拥有250万至310万块H100,而谷歌预计将达到350万至420万块。
🖥️ **这些科技巨头除了H100外,还在大量采购NVIDIA的GB200芯片。** 微软购买了70万至140万个,谷歌购买了40万个,亚马逊购买了36万个,OpenAI至少拥有40万个GB200芯片。
🚀 **NVIDIA下一代AI芯片Blackwell的需求“疯狂”,市场对下一代芯片Rubin的期待也很高。** 黄仁勋表示,每个人都想成为AI领域的领导者,这预示着AI算力竞争的激烈程度。
💡 **AI算力已成为科技巨头竞争的关键领域,NVIDIA的AI芯片在其中扮演着至关重要的角色。** 芯片的性能和供应将直接影响这些公司在AI领域的竞争力。
NVIDIA的AI芯片在市场上的需求激增,特别是在大型科技公司中。那么究竟哪家大厂所拥有的GPU数量最多呢,根据lesswrong的预估,如果都换成H100的等效算力,全球五大科技公司的2024年拥有的算力,以及2025年的预测分别如下:
微软拥有75万至90万块H100,预计明年将达到250万至310万块;
谷歌拥有100万至150万块H100,预计明年将达到350万至420万块;
Meta拥有55万至65万块H100,预计明年将达到190万至250万块;
亚马逊拥有25万至40万块H100,预计明年将达到130万至160万块;
xAI拥有10万块H100,预计明年将达到55万至100万块。
此外,根据Melius Research分析师Ben Reitzes的报告,这些大型公司正在大量购买NVIDIA的GB200芯片,微软购买了70万至140万个,谷歌购买了40万个,亚马逊购买了36万个,而OpenAI至少拥有40万个GB200芯片。
NVIDIACEO黄仁勋在接受采访时曾表示,公司下一代AI芯片Blackwell的需求“疯狂”,并强调每个人都想成为第一。
目前,市场已经开始期待NVIDIA推出的下一代芯片Rubin,预计该芯片可能会比预期提前6个月准备就绪。
