百度飞桨框架3.0正式发布,带来了五大核心技术创新,旨在降低大模型开发和训练成本。该框架在性能优化、计算速度和硬件适配方面均有显著提升,支持包括文心4.5、文心X1在内的多款主流大模型。飞桨3.0通过优化DeepSeek-R1单机部署,提升了吞吐量;借助神经网络编译器CINN,部分算子执行速度提升了4倍,模型端到端训练速度提升了27.4%。此外,飞桨3.0支持60余款主流芯片,降低了硬件适配成本。
🚀 飞桨框架3.0引入五大核心技术创新,其中“动静统一自动并行”等技术旨在降低大模型开发和训练成本,加速大模型时代基础设施建设。
⚡️ 性能优化方面,飞桨3.0支持文心4.5、文心X1等主流大模型,并通过优化DeepSeek-R1单机部署,显著提升吞吐量,提升幅度高达一倍。
⚙️ 在计算速度方面,飞桨3.0借助神经网络编译器CINN,部分算子执行速度提升4倍,模型端到端训练速度提升27.4%,有效缩短大模型训练时间。
💻 硬件适配方面,飞桨3.0推出多芯片统一适配方案,支持60余款主流芯片,覆盖训练集群、自动驾驶、智能终端等应用场景,开发者可实现跨芯片无缝迁移,硬件适配成本降低80%。
百度旗下的深度学习平台飞桨近日宣布正式发布新一代飞桨框架3.0。此次发布的框架3.0引入了五大核心技术创新,包括“动静统一自动并行”等关键技术,旨在有效降低大模型开发和训练成本,助力大模型时代的基础设施建设。

作为支撑大模型训练和推理任务的核心基础设施,飞桨框架3.0在性能优化方面表现出色。该框架已经支持包括文心4.5、文心X1在内的多款主流大模型,并通过优化的DeepSeek-R1满血版单机部署,显著提升了吞吐量,提升幅度高达一倍。
在计算速度方面,飞桨框架3.0借助其创新研制的神经网络编译器CINN,性能大幅提升。部分算子的执行速度提升了4倍,模型端到端的训练速度也提升了27.4%,显著缩短了大模型的训练时间。
在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,支持60余款主流芯片,并涵盖了训练集群、自动驾驶、智能终端等多种应用场景。开发者只需编写一次代码,即可实现跨芯片的无缝迁移,硬件适配成本大幅降低,直降80%。