Cnbeta 04月27日 02:57
泄漏的DeepSeek R2信息揭示其运用自主AI基础设施实现性能提升
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek即将发布全新R2模型,据称性能大幅改进。该模型在华为Ascend 910B芯片集群等支持下,将加速器利用率提升至82%,相当于512 PetaFLOPS的FP16性能,单位训练成本降低了97.3%。DeepSeek R2背后是一个精心培育的合作伙伴生态系统,包括拓维信息、曙光、旭创科技等。运营分布在华南、西北等主要枢纽,软件方面支持私有部署和微调,并通过云赛智联平台为多省智慧城市计划提供支持。华为还准备部署CloudMatrix 384系统作为NVIDIA NVL72的国产替代方案。

🚀DeepSeek即将发布R2模型,该模型在华为Ascend 910B芯片集群以及DeepSeek内部分布式训练框架的支持下,将加速器的利用率提升至82%,相当于512 PetaFLOPS的FP16性能,计算能力为 exaFLOP 的一半。

💰DeepSeek R2虽然性能接近NVIDIA旧款A100集群,但DeepSeek声称它将单位训练成本降低了97.3%。

🤝DeepSeek R2背后是一个精心培育的合作伙伴生态系统,拓维信息承接了DeepSeek超过一半的超级计算硬件订单,曙光提供液冷服务器机架,旭创科技的硅光收发器降低了功耗。

🌍DeepSeek R2的运营分布在几个主要枢纽,包括润建股份运营的华南超级计算中心,中贝通信在西北地区保留了1500PetaFLOP的备用计算能力。

☁️DeepSeek R2在软件方面,已经支持私有部署和微调,通过云赛智联平台为15个省的智慧城市计划提供支持。华为还准备部署CloudMatrix 384系统作为NVIDIA NVL72的国产替代方案。

据知名 AI 业内人士@iruletheworldmo 在 X 上透露,DeepSeek 凭借其 R1 模型席卷 AI 世界之后,目前正在准备发布一款据称性能得到大幅改进的全新 DeepSeek R2 模型。在华为 Ascend 910B 芯片集群、潜在的华为 Atlas 900 以及 DeepSeek 内部分布式训练框架的支持下,R2 将这些加速器的利用率提升至令人印象深刻的 82%,相当于 512 PetaFLOPS 的 FP16 性能——计算能力为 exaFLOP 的一半。

根据华为实验室的数据,这大约是 NVIDIA 旧款 A100 集群所提供的性能的 91%,但 DeepSeek 声称它将单位训练成本降低了 97.3%。

DeepSeek R2 背后是一个精心培育的合作伙伴生态系统。拓维信息是昇腾系列的领先OEM厂商,承接了DeepSeek超过一半的超级计算硬件订单,而曙光则提供每台功率高达40kW的液冷服务器机架。为了控制功耗,旭创科技的硅光收发器与传统解决方案相比,可再降低35%的功耗。

从地理位置上看,运营分布在几个主要的枢纽:润建股份运营着华南超级计算中心,每年的合同金额超过50亿元人民币,中贝通信在西北地区保留了1500PetaFLOP的备用计算能力,以应对峰值需求。

在软件方面,DeepSeek R2已经支持私有部署和微调,通过云赛智联平台为15个省的智慧城市计划提供支持。由鸿博股份旗下英博数字负责监管的华北节点将计算能力再提升3000PetaFLOP。

如果计算能力不足,华为准备部署其CloudMatrix 384 系统,该系统定位为 NVIDIA 200 GB NVL72 的国产替代方案。它配备 384 个 Ascend 910C 加速器,可实现 NVL72 集群整体 petaFLOPS 的 1.7 倍和 HBM 总容量的 3.6 倍——然而,其单芯片性能明显落后,功耗几乎是 NVL72 集群的四倍。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek R2 华为Ascend 910B AI模型 国产替代
相关文章