快科技资讯 02月12日
国产GPU景嘉微完成DeepSeek R1系列模型适配
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

国产GPU厂商景嘉微宣布其JM系列和景宏系列GPU成功适配DeepSeek R1系列大模型,推动DeepSeek在云边端等场景的应用。JM系列适配了DeepSeek-R1-Distill-Qwen-1.5B和7B模型,而景宏系列则全面兼容并适配DeepSeek R1全系列模型,覆盖从1.5B到70B参数规模的LLaMA及千问模型架构。通过基于vLLM推理框架的部署方案,实现了高效推理性能与经济性的双重优势,为开发者提供了便捷的开发支持和快速启动使用的体验。摩尔线程也实现了对DeepSeek蒸馏模型的高效部署。

🚀景嘉微JM系列GPU适配DeepSeek-R1-Distill-Qwen-1.5B和7B模型,为轻量级AI应用提供硬件支持。

💡景宏系列GPU全面兼容并适配DeepSeek R1全系列模型,覆盖1.5B至70B参数规模,满足不同规模AI应用的需求。

💰基于vLLM推理框架的部署方案,在景嘉微GPU上实现了高效推理性能与经济性的双重优势,降低AI应用成本。

🤝国产GPU与国产大模型结合,景嘉微与DeepSeek的合作被誉为“梦幻联动”,彰显了国产AI产业的协同发展。

快科技2月12日消息,国产GPU厂商景嘉微今天宣布,JM系列、景宏系列与DeepSeek R1系列的成功适配,进一步推动DeepSeek在云边端等各类场景的应用。

其中,景嘉微JM系列完成了DeepSeek-R1-Distill-Qwen-1.5B模型和DeepSeek-R1-Distill-Qwen-7B模型的适配。

同时,景宏系列已全面兼容并适配DeepSeek R1全系列模型,覆盖从1.5B至70B参数规模的LLaMA及千问模型架构。

基于vLLM推理框架的部署方案,实现了高效推理性能与经济性的双重优势,为开发者提供了便捷的开发支持。

该方案支持快速启动和使用,无需复杂配置,助力AI技术的规模化落地应用。

景嘉微官方还表示,向中国AI开发者致敬,这次国产GPU与国产大模型结合,也算是梦幻联动了。

值得一提的是,近期摩尔线程同样实现了对DeepSeek蒸馏模型推理服务的高效部署,开发者可以基于摩尔线程全功能GPU,进行AI应用创新。

此外,用户也可以基于摩尔线程MTT S80、MTT S4000显卡,进行DeepSeek-R1蒸馏模型的推理部署。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

景嘉微 DeepSeek GPU 大模型 国产AI
相关文章