Cnbeta 10小时前
AI GPU加速卡功耗有失控趋势 10年内超过15000W
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

韩国高级科学技术院(KAIST)和TB级互联与封装实验室(TERA)展望了未来十年HBM高带宽内存和AI GPU加速卡的发展趋势。文章预测了HBM技术的快速演进,从目前的HBM3E到未来的HBM7,容量和带宽将呈现指数级增长,功耗也随之飙升。NVIDIA和AMD的下一代AI GPU在芯片面积、功耗和封装方面都有显著提升,整卡功耗预计将达到数千瓦。这种趋势引发了对数据中心能源需求的担忧。

🚀 HBM技术的容量将持续增长:HBM技术目前已发展到HBM3E,而未来将出现HBM4、HBM5、HBM6和HBM7。预计HBM6的容量可达1.5-1.9TB,HBM7更是可达4.2-6TB。

🔥 AI GPU的功耗将大幅增加:NVIDIA的下一代AI GPU,如Rubin和Feyman系列,芯片功耗将从800W增加到900W,甚至更高。整卡功耗也将随之增加,预计达到2200W甚至4400W。

🏭 芯片封装技术将不断演进:为了支持更高的带宽和容量,芯片封装技术将从双芯整合封装发展到四芯甚至八芯整合封装。中介层面积也将越来越大,以容纳更多的HBM芯片。

⚡ 数据中心能源需求将面临巨大挑战:随着AI GPU功耗的增加,数据中心的能源需求将急剧上升。文章预测,未来可能每个数据中心都需要配备一座核电站来满足能源需求。

近日,韩国高级科学技术院(KAIST)、TB级互联与封装实验室(TERA)共同展望了未来十年HBM高带宽内存、AI GPU加速卡的发展形势,疯狂得有些难以置信。HBM技术目前已落地最先进的是HBM3E,NV B300系列、AMD MI350系列都做到了最大288GB。

即将到来的是BHM4,NVIDIA Rubin系列预计做到最大384GB,AMD MI400系列更是准备冲击432GB。

后续标准尚未制定,但是预计HBM5的容量可达400-500GB,HBM6能够做到1536-1920GB(1.5-1.9TB),HBM7更是可达5120-6144GB,也就是大约4.2-6TB!

NVIDIA Rubin预计明年推出,芯片面积728平方毫米,芯片功耗800W,双芯整合封装,中介层面积近2200平方毫米,搭配8颗HBM4,带宽最高32TB/s,整卡功耗预计2200W。

目前的AMD MI350系列风冷1000W、水冷1400W,NVIDIA B300也做到了1400W。

再往后,代号Feyman的再下一代NVIDIA AI GPU预计2029年到来,估计核心面积750平方毫米左右,芯片功耗就有900W左右,四芯整合封装,中介层面积约4800平方毫米,搭配8颗HBM5,带宽48TB/s,整卡功耗4400W。

之后的代号都没公布,以下数据也都是纯粹的想象:

Feyman之后下一代2032年推出,单芯片面积缩小到700平方毫米,但是功耗突破1000W,而且通过四芯整合封装,中介层超过6000平方毫米,搭配多达16颗HBM6,带宽256TB/s,整卡巩固好近6000W。

再往后的2035年,又是新一代,单芯片面积继续缩小到600平方毫米,但是功耗达1200W,而且首次八芯片整合封装,中介层超过9000平方毫米,搭配32颗HBM7,带宽1TB/s,功耗15000W!

这么走下去真的好吗?每个数据中心旁边就得搭配一座核电站了!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

HBM AI GPU 芯片 功耗
相关文章