IBM开发了一种新型光学技术,以光速训练AI模型,并大幅节省能源。该技术应用于数据中心,可将训练AI模型节省的能源相当于5000个美国家庭的年用量。数据中心内部使用铜线连接GPU,导致GPU在等待数据时空闲耗能。IBM的新共封装光学器件(CPO)原型通过增加带宽,减少GPU停机时间,将大型语言模型(LLM)的训练时间从三个月缩短至三周,同时提高能效,降低成本。
⚡️IBM开发了一种新的光学技术,该技术能够以光速训练AI模型,并在训练过程中节省大量的能源,其节能效果显著,相当于5000个美国家庭的年度能源使用总量。
🖥️当前数据中心内部仍在使用铜线连接GPU加速器,这些GPU在等待来自其他设备的数据时会花费大量时间处于空闲状态,这不仅浪费了时间,还消耗了大量能源并推高了成本。
💡IBM提出了一种新的共封装光学器件 (CPO) 原型,通过显著增加数据中心的带宽,可以最大限度地减少 GPU 停机时间,从而加速 AI 处理。
⏱️应用该技术后,大型语言模型 (LLM) 的训练时间可以从三个月缩短到三周,大大提高了训练效率。
💰提高能源效率将有助于减少能源使用量,并降低与训练大型语言模型 (LLM) 相关的成本,对企业而言具有重要的经济意义。
IBM 开发了一种新的光学技术,可以以光速训练 AI 模型,同时节省大量能源。该公司表示,通过将其突破性技术应用于数据中心,训练 AI 模型时节省的能源相当于 5000 个美国家庭的年度能源使用量。

该公司解释说,虽然数据中心通过光纤电缆与外界相连,但在内部,他们仍在使用铜线。这些电线连接 GPU 加速器,这些加速器在等待来自其他设备的数据时会花费大量时间处于空闲状态,同时消耗能源并推高成本。
IBM 高级副总裁兼研究总监 Dario Gil 在评论这一发展时表示:
“由于生成 AI 需要更多的能源和处理能力,数据中心必须不断发展——而同封装光学器件可以使这些数据中心面向未来。有了这一突破,未来的芯片将像光纤电缆将数据传入和传出数据中心一样进行通信,开启一个更快、更可持续的通信新时代,可以处理未来的 AI 工作负载。”
IBM 在一份技术论文中概述了其新的共封装光学器件 (CPO) 原型。通过显著增加数据中心的带宽,可以最大限度地减少 GPU 停机时间,从而加速 AI 处理。
IBM 解释说,大型语言模型 (LLM) 的训练时间可以从三个月缩短到三周。同时,提高能源效率将减少能源使用量并降低与训练 LLM 相关的成本。