深度财经头条 2024年08月27日
数据中心太耗电?英伟达合作伙伴的“油冷”技术大砍至多50%能耗
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

AI繁荣背景下,数据中心能耗井喷,液冷技术可节能并节约机房面积。SMC的液冷数据中心成果显著,但面临观念等挑战,其将服务器集装箱化以解决。黄仁勋也看好液冷技术

💧液冷技术节能显著。SMC的液冷数据中心能将安装成本低于液冷同行28%,能耗比传统风冷技术下降最多50%。油能更好地吸收热量,支持更紧密的芯片排列,还能节约机房面积

🚧液冷技术面临挑战。数据中心运营商认为液体进机房危险,市场正在寻找采用液冷技术的最佳方式。SMC将油冷服务器集装箱化,以部署到现有数据中心内的未使用空间

👍黄仁勋看好液冷。他认为液冷散热系统能大量削减数据中心成本,节省资源可投入更多算力。超微电脑CEO梁见后称其DLC解决方案市场份额有望增长


财联社8月27日讯(编辑 史正丞)在AI大繁荣的背景下,全球数千亿美元的数据中心投资也带来了电力需求的井喷——除了运行英伟达芯片所需的能源外,还有不少电力需要用来驱动散热系统,使得这些芯片能够维持工作。

这里面也隐藏着崭新的商机——通过改变芯片散热的途径,就能直接将数据中心的能耗降下来一半。

不仅节能,还能节约机房面积

在周二发布的媒体报道中,英伟达的AI和云服务首选合作伙伴,新加坡SMC(Sustainable Metal Cloud)公司的创始人兼首席执行官蒂姆·罗森菲尔德(Tim Rosenfield)表示,公司运营的液冷数据中心,能够实现安装成本低于液冷同行28%,且能耗比起传统风冷技术下降最多50%的成果。

具体来说,SMC的做法是将英伟达的芯片浸没在一种名为聚α烯烃的合成油中——油能比空气更好地吸收热量,同时能够支持更紧密的芯片排列。

(来源:SMC)

传统上,数据中心里会设计较大的过道以便空气循环,采纳液冷技术则能在相同的占地面积里塞进更多的服务器。

当然,这项技术正在面临多项挑战,首先就是数据中心运营商的观念问题:液体进机房太危险了。

罗森菲尔德表示,目前大多数数据中心并没有准备好接受任何液体,不论是浸入式还是芯片直接冷却。市场正在找出采用(液冷)技术的最佳方式,他也认为这个赛道会有许多种方法。

对于SMC而言,公司目前给出的解决方式是将这一套“油冷”服务器集装箱化,从而可以部署到现有数据中心内的任何未使用空间内。

根据此前媒体报道,SMC正在寻求一笔4亿美元的股权融资,和5.5亿美元的债务融资,用于新加坡以外地区的数据中心扩张。

黄仁勋也看好液冷

对于液冷技术,芯片巨无霸英伟达的老板黄仁勋也给予了非常高的评价。

在6月的台北电脑展上,黄仁勋与超微电脑CEO梁见后同台演讲,卖力推销超微新推出的液冷服务器机柜。

黄仁勋表示,液冷散热的系统能够大量削减数据中心的成本。如果新建的数据中心全都使用液冷技术,节省下的资源自然可以投入到更多算力中。

梁见后也介绍称,公司的直接液体冷却(DLC)解决方案在过去30年里勉强实现市场份额从0%增长到1%,但现在已经能预见未来一、两年里占据15%-30%的市场份额。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

液冷技术 数据中心 节能 SMC 黄仁勋
相关文章