英特尔为其锐炫 Pro 系列 GPU 的 Battlematrix 项目发布了首个重要软件更新 LLM Scaler v1.0,重点在于提升 AI 推理性能。该更新基于 vLLM 框架开发,旨在优化大模型推理,支持多 GPU 扩展、长序列高效推理及多模态任务。在具体性能提升方面,LLM Scaler v1.0 在 32B KPI 模型 40K 序列长度下性能提升高达 1.8 倍,70B KPI 模型同条件下提升达 4.2 倍,8B 至 32B 模型输出吞吐量也提升约 10%。此外,新版本还引入了分层在线量化以降低显存占用,并支持管道并行、数据并行、多模态模型等功能。为便于企业级运维,集成了 XPU Manager 工具,并具备 ECC、SRIOV 等可靠性特性。英特尔计划本季度发布更稳定的容器版本,并在第四季度推出 Battlematrix 项目全功能版本,为专业用户提供更优的 AI 解决方案。
🌟 **LLM Scaler v1.0 显著提升 AI 推理性能:** 英特尔发布了 Battlematrix 项目的首个重大软件更新 LLM Scaler v1.0,该更新基于 vLLM 框架,专门针对 AI 大模型推理进行了优化。在实际测试中,对于 32B KPI 模型在 40K 序列长度下的性能提升可达 1.8 倍,而对于 70B KPI 模型,同等条件下性能提升更是高达 4.2 倍。同时,8B 至 32B 规模的模型输出吞吐量相比上一版本也有约 10% 的提升,这标志着英特尔在 AI 推理领域取得了显著进展。
💡 **多项技术创新增强模型适应性与效率:** LLM Scaler v1.0 引入了分层在线量化技术,有效降低了显存占用,使得在有限的显存资源下也能运行更大规模的模型。同时,它还支持管道并行、数据并行、多模态模型以及嵌入和重排序等功能,极大地增强了模型的适应性和扩展性,能够满足更广泛的 AI 应用场景的需求。
🔧 **企业级运维与可靠性保障:** 为了方便企业级用户的部署和管理,LLM Scaler v1.0 集成了 XPU Manager 工具,提供了 GPU 电源管理、固件升级、诊断以及显存带宽检测等全面的运维功能。新容器基于 Linux 平台,充分利用多 GPU 扩展和 PCIe 点对点数据传输,实现了高达 80% 的整体性能提升。此外,系统还具备 ECC、SRIOV、遥测与远程固件更新等关键的可靠性和可管理性特性,满足了企业级部署的严苛要求。
🚀 **持续优化与生态建设:** 英特尔表示,本季度内还将发布更为稳固的容器版本,进一步优化 vLLM 服务能力。预计到今年第四季度,Battlematrix 项目将实现全功能版本落地,这意味着英特尔将持续投入并不断升级其大模型推理平台,致力于为专业领域用户提供更高效、更易用的 AI 解决方案。OneCCL 基准测试工具的集成也为开发者调优和性能评测提供了便利,进一步丰富了 Battlematrix 平台的生态支持。
IT之家 8 月 12 日消息,科技媒体 WccfTech 昨日(8 月 11 日)发布博文,报道称英特尔为其锐炫 Pro 系列 GPU 的 Battlematrix 项目,发布首个重磅软件更新 LLM Scaler v1.0,重点优化了 AI 推理能力。
IT之家曾于 5 月报道,英特尔在 COMPUTEX 2025 台北国际电脑展上,推出锐炫 Arc Pro B50 和 B60 两张显卡之外,还推出了 Project Battlematrix 推理工作站平台,支持最多 8 张锐炫 Pro 显卡并具备软件包支持,能运行高达 150B 参数的中等规模且精度高的 AI 模型。
Battlematrix 平台集成硬件与定制化软件栈,优化推理性能和企业部署体验;而 LLM Scaler 是基于 vLLM 框架开发的 AI 大模型推理容器,支持多 GPU 扩展、长序列高效推理及多模态任务。

LLM Scaler v1.0 重点优化了 vLLM 推理框架,对于 32B KPI 模型,40K 序列长度下性能提升可达 1.8 倍;70B KPI 模型同条件下提升高达 4.2 倍,8B 至 32B 规模模型输出吞吐量较上版提升约 10%。
该版本还引入分层在线量化,有效降低显存占用,并支持管道并行、数据并行、多模态模型及嵌入、重排序等功能,提升模型适应性与扩展性。
为便于企业级运维,LLM Scaler v1.0 集成了 XPU Manager 工具,支持 GPU 电源管理、固件升级、诊断及显存带宽检测。
新容器基于 Linux 平台,充分利用多 GPU 扩展和 PCIe 点对点数据传输,实现最高 80% 的整体性能提升,系统同时具备 ECC、SRIOV、遥测与远程固件更新等可靠性与可管理性特性,满足企业级部署需求。


英特尔强调,新软件栈遵循行业标准,兼容主流开发流程,OneCCL 基准测试工具的集成也为开发者调优和性能评测提供了便利,进一步丰富了 Battlematrix 平台的生态支持。
根据英特尔路线图,本季度内还将发布更为稳固的容器版本,进一步优化 vLLM 服务能力。预计到今年第四季度,Battlematrix 项目将实现全功能版本落地,推动大模型推理平台的持续升级,为专业领域用户带来更高效、更易用的 AI 解决方案。