快科技资讯 02月05日
只花了几个小时!国产壁仞GPU闪电支持DeepSeek
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

壁仞科技凭借其自主研发的壁砺系列GPU产品的出色兼容性,在数小时内完成了对DeepSeek R1全系列蒸馏模型的支持,涵盖1.5B到70B各等级参数版本,包括LLaMA和千问蒸馏模型。这使得壁仞科技成为少数能够同步高效适配国际、国内多模型的芯片平台之一。通过与上海智能算力、中兴通讯等战略伙伴合作,壁仞科技正基于壁砺系列训推产品,全面开展DeepSeek全系列模型的适配与上线,满足不同规模参数量模型的部署需求,并已正式上线DeepSeek R1蒸馏模型推理服务,供全球开发者云端体验。

🚀壁仞科技GPU迅速适配DeepSeek R1全系列蒸馏模型,覆盖1.5B至70B参数,展现了国产芯片对复杂AI应用任务的强大驾驭能力。

💡DeepSeek模型蒸馏技术能够将大规模模型的能力迁移至更小、更高效的版本,通过MLA、DeepSeek MoE两大核心技术,显著降低显存占用,优化模型性能。

🤝壁仞科技联合多家战略伙伴,基于壁砺系列训推产品,全面开展DeepSeek全系列模型的适配与上线,满足从轻量级到大规模的不同模型部署需求。

☁️壁仞AI算力平台正式上线DeepSeek R1蒸馏模型推理服务,提供零部署成本的云端推理体验,并针对LLM等不同任务预置优化配置方案。

快科技2月5日消息,DeepSeek开源大模型的推出,可以说彻底颠覆了AI行业的发展,各大平台都在积极适配支持,比如国产GPU,除了摩尔线程华为昇腾,壁仞也第一时间加入了这一行列。

壁仞科技透露,凭借自主研发的壁砺系列GPU产品出色的兼容性能,只用数个小时,就完成对DeepSeek R1全系列蒸馏模型的支持,涵盖从1.5B到70B各等级参数版本,包括LLaMA蒸馏模型和千问蒸馏模型。

壁仞科技成为少数实现国际、国内多模型同步高效适配的芯片平台之一,证明了国产芯片对复杂AI应用任务的驾驭能力。

据介绍,DeepSeek提供了一种高效的模型蒸馏技术,能够将大规模模型的能力迁移至更小、更高效的版本,并且通过MLA、DeepSeek MoE两大核心技术,显著降低显存占用,优化模型性能。

壁仞科技壁砺系列GPU产品在短时间内成功支持DeepSeek全系列蒸馏模型,说明其在AI推理任务中具备强大的兼容性和易用性。

同时,壁仞科技已联合上海智能算力、中兴通讯、科华数据、无问芯穹、开源中国(Gitee AI)、UCloud、一蓦科技等战略伙伴,基于壁砺系列训推产品106M、106B、106E、110E,全面开展包括R1在内的DeepSeek全系列模型的适配与上线,满足不同规模参数量模型的部署需求——

轻量级模型(1.5B-8B):

适配智能终端与边缘计算设备,实现低延时实时推理。

中大规模模型(14B-32B):

服务于大规模企业级应用和高并发任务,满足数据安全与定制化需求。

大规模模型(70B):

依托云端超算集群,支撑前沿AI研究与复杂任务处理。

即日起,壁仞AI算力平台正式上线DeepSeek R1蒸馏模型推理服务,全球开发者可云端体验1.5B、7B、8B、14B、32B、70B全系列模型服务。

体验地址为:

https://sgc.birentech.com:1443/

该服务具备两大核心优势:

一是零部署成本,可免去硬件采购与环境搭建,实现“开箱即用”的云端推理体验。

二是多场景覆盖,针对LLM等不同任务预置优化配置方案。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

壁仞科技 DeepSeek GPU AI模型 模型蒸馏
相关文章