IT之家 2024年11月14日
英伟达秀 Blackwell GPU 肌肉:训练 AI 模型速度比 Hopper H100 快 2.2 倍
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达首次公布Blackwell GPU在MLPerf v4.1 AI训练工作负载中的成绩,比Hopper快2.2倍。还提到多种工作负载模型,Hopper GPU的持续优化及Blackwell的技术优势。

英伟达公布Blackwell GPU训练成绩,比Hopper快2.2倍

多种工作负载模型用于基准测试,评估AI加速器性能

Hopper GPU经持续软件优化,性能显著提升

Blackwell GPU设计提高计算吞吐量,内存优势明显

IT之家 11 月 14 日消息,科技媒体 WccfTech 昨日(11 月 13 日)发布博文,报道称英伟达首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 训练工作负载中的成绩,在训练 Llama 2 70B (Fine-Tuning) 模型时比 Hopper 快 2.2 倍。

测试简介

英伟达于今年 8 月,首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 推理方面的基准测试成绩,而今天首次公布了该 GPU 在 MLPerf v4.1 AI 训练工作负载方面的测试成绩。

NVIDIA 表示,随着新模型的推出,AI 领域对计算的需求正在以指数级增长,因此需要大幅提升训练和推理 AI 的能力,IT之家附上本次训练工作负载主要使用的模型如下:

这些工作负载的基准测试为评估 AI 加速器的训练性能提供了准确的数据支持。

Hopper GPU 的持续优化

Hopper GPU 自发布以来,经过持续的软件优化,性能得到了显著提升。H100 GPU 在 LLM 预训练性能上比首次提交时快了 1.3 倍,并且在 GPT-3(175B 训练)中实现了 70% 的性能提升。

英伟达利用 11616 个 H100 GPU 进行了 MLPerf 的最大规模提交,进一步证明了其在数据中心级别的强大能力。

Blackwell 的技术优势

Blackwell GPU 的设计旨在提高每个 GPU 的计算吞吐量,配备更大更快的高带宽内存,不降低性能的前提下,能够在更少的 GPU 上运行 GPT-3 175B 基准测试。

根据测试结果,64 张 Blackwell GPU 的测试性能,可以达到 256 张 Hopper GPU 的水平。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 Blackwell GPU AI训练 Hopper GPU
相关文章