IT之家 02月07日
澎峰科技 + 海光 DCU:自研推理框架全面支持 DeepSeek 系列模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

澎峰科技近日宣布,其自主研发的 PerfXLM + 推理框架已基于海光 DCU,完成对 DeepSeek 全系列模型的深度适配与优化。该框架通过底层架构优化,全面适配海光 DCU 算力平台,为 DeepSeek 模型提供性能支持,降低资源消耗,提升推理效率。海光 DCU 基于 GPGPU 通用加速计算架构设计,具备兼容性与生态开放性优势,减少了底层适配工作量。PerfXLM + 推理框架还通过模型量化、算子融合等技术,为企业提供低成本、高稳定的 AI 推理服务,覆盖自然语言处理、多模态理解等场景,推动 AI 技术规模化应用。

🚀澎峰科技的 PerfXLM + 推理框架已成功适配海光 DCU,为 DeepSeek 全系列模型提供深度优化,显著提升了模型在国产硬件上的性能表现。

💡通过优化底层架构,PerfXLM + 框架充分利用海光 DCU 的并行计算能力,降低了 DeepSeek-R1-Distill 等模型的资源消耗,在相同硬件条件下实现了更高的推理效率。

🤝海光 DCU 基于 GPGPU 架构,具备良好的兼容性和开放性,使得 DeepSeek 模型能够直接在其上运行,减少了技术团队在底层适配上的投入,更专注于模型精度和性能优化。

💰PerfXLM + 推理框架采用模型量化和算子融合等核心技术,旨在为企业提供低成本且高稳定性的 AI 推理服务,助力企业降低 AI 应用的总体拥有成本。

IT之家 2 月 7 日消息,澎峰科技在近日正式宣布,其自主研发的 PerfXLM + 推理框架已基于海光 DCU,完成对 DeepSeek 全系列模型的深度适配与优化。

▲ 截图自澎峰科技官网

据介绍,在性能方面,PerfXLM + 推理框架通过底层架构优化,全面适配海光 DCU 算力平台,为 DeepSeek 模型提供性能支持。针对 DeepSeek-R1-Distill 系列等模型,框架结合海光 DCU 的并行计算能力,可降低资源消耗,在同等硬件条件下进一步提升推理效率。

生态方面,海光 DCU 基于 GPGPU 通用加速计算架构设计,在兼容性与生态开放性具备优势,DeepSeek 模型可直接在海光 DCU 上运行,可减少底层适配工作量,技术团队仅需聚焦模型精度验证与持续性能优化,即可实现部署。同时,PerfXLM + 推理框架通过模型量化、算子融合等核心技术,宣称可为企业提供低成本、高稳定的 AI 推理服务。

场景覆盖方面,澎峰科技自研 PerfXLM + 推理框架已覆盖自然语言处理、多模态理解等核心场景,客户可基于海光 DCU 集群实现模型快速迭代与弹性扩展,满足各行业实时推理需求,推动 AI 技术规模化应用。

据IT之家此前报道,中科曙光国家先进计算产业创新中心有限公司在本月(2 月 4 日)发文宣布,海光信息技术团队成功完成 DeepSeek V3 和 R1 模型与海光 DCU(深度计算单元)国产化适配,并正式上线。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

澎峰科技 海光DCU DeepSeek模型 AI推理 国产适配
相关文章