IT之家 07月15日 18:11
CoreWeave 率先全面提供英伟达 RTX PRO 6000 Blackwell 服务器版云实例
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

新兴AI云企业CoreWeave宣布成为首家提供基于英伟达RTX PRO 6000 Blackwell服务器版数据中心GPU的云计算平台。该实例配备8块RTX PRO 6000显卡、128个vCPU、1TB内存和7.68TB存储,性能比上代产品LLM推理速度提高5.6倍、文生图速度提高3.5倍,适宜70B参数模型推理。CoreWeave还率先部署GB300 NVL72系统,展示了对英伟达技术的深度整合能力。

🔥 CoreWeave成为首家提供英伟达RTX PRO 6000 Blackwell服务器版数据中心GPU的云计算平台,配备8块高性能显卡和128个vCPU,提供强大的AI计算能力。

💡 该云实例拥有1TB系统内存和7.68TB本地NVMe存储,100Gbps网络吞吐量,专为AI工作负载深度优化,支持70B参数模型高效推理。

⚡ RTX PRO 6000 Blackwell服务器版相比上代产品,LLM推理速度提升5.6倍,文生图速度提高3.5倍,在性能与成本间取得平衡,更适合企业级AI应用。

🤝 CoreWeave与英伟达紧密合作,不仅率先提供RTX PRO 6000,还成为首个部署GB300 NVL72系统的AI云服务供应商,展现技术整合优势。

🌐 该平台的多层次AI负载优化技术,使企业能够利用Blackwell架构的强大功能加速创新,推动各行业数字化转型取得突破性成果。

IT之家 7 月 15 日消息,新兴 AI 云企业 CoreWeave 当地时间 7 月 9 日宣布成为首家全面提供基于英伟达 RTX PRO 6000 Blackwell 服务器版数据中心 GPU 的云实例的云计算平台。

这一实例基于 8 块 RTX PRO 6000 显卡、128 个基于第五代英特尔至强处理器 (Emerald Rapids) 的 vCPU 虚拟核心、1TB 的系统内存、7.68TB 本地 NVMe 存储,拥有 100Gbps 网络吞吐量,并与 CoreWeave 的多层次 AI 负载深度优化云平台集成。

新闻稿指出,英伟达 RTX PRO 6000 Blackwell 服务器版比上代产品 LLM 推理速度提高 5.6 倍、文生图速度提高 3.5 倍,适宜 70B 参数模型推理,相较更高性能的 GPU 集群更经济高效

英伟达加速计算产品总监 Dave Salvator 表示:

英伟达 RTX PRO 6000 GPU 代表了 AI 和图形性能的突破,为各行各业提供了先进、经济高效的解决方案。

作为第一家提供 RTX PRO 6000 的公司,CoreWeave 展示了我们的合作伙伴可以多么迅速地将基于 Blackwell 架构的强大功能推向市场,使企业能够加速创新并取得变革性成果。

IT之家注意到,与英伟达关系密切的 CoreWeave 还在本月早些时候宣布成为首个部署 GB300 NVL72 系统的 AI 云服务供应商

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

CoreWeave 英伟达 RTX PRO 6000 AI云计算 高性能计算
相关文章