Cnbeta 02月12日
国产GPU景嘉微完成DeepSeek R1系列模型适配
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

国产GPU厂商景嘉微宣布其JM系列和景宏系列GPU已成功适配DeepSeek R1系列模型,包括从1.5B到70B参数规模的LLaMA及千问模型架构。JM系列完成了DeepSeek-R1-Distill-Qwen-1.5B和7B模型的适配,而景宏系列则全面兼容并适配DeepSeek R1全系列模型。该适配方案基于vLLM推理框架,实现了高效的推理性能和经济性,为开发者提供了便捷的开发支持,助力AI技术的规模化落地应用。摩尔线程也实现了对DeepSeek蒸馏模型推理服务的高效部署。

🚀景嘉微JM系列GPU完成了DeepSeek-R1-Distill-Qwen-1.5B模型和DeepSeek-R1-Distill-Qwen-7B模型的适配,推动DeepSeek在云边端等场景的应用。

💡景宏系列GPU全面兼容并适配DeepSeek R1全系列模型,覆盖从1.5B至70B参数规模的LLaMA及千问模型架构,为开发者提供广泛选择。

💰基于vLLM推理框架的部署方案,实现了高效推理性能与经济性的双重优势,降低了AI应用开发的成本和门槛。

🤝摩尔线程也实现了对DeepSeek蒸馏模型推理服务的高效部署,用户可基于其MTT S80、MTT S4000显卡进行DeepSeek-R1蒸馏模型的推理部署。

国产GPU厂商景嘉微今天宣布,JM系列、景宏系列与DeepSeek R1系列的成功适配,进一步推动DeepSeek在云边端等各类场景的应用。其中,景嘉微JM系列完成了DeepSeek-R1-Distill-Qwen-1.5B模型和DeepSeek-R1-Distill-Qwen-7B模型的适配。

同时,景宏系列已全面兼容并适配DeepSeek R1全系列模型,覆盖从1.5B至70B参数规模的LLaMA及千问模型架构。

基于vLLM推理框架的部署方案,实现了高效推理性能与经济性的双重优势,为开发者提供了便捷的开发支持。

该方案支持快速启动和使用,无需复杂配置,助力AI技术的规模化落地应用。

景嘉微官方还表示,向中国AI开发者致敬,这次国产GPU与国产大模型结合,也算是梦幻联动了。

值得一提的是,近期摩尔线程同样实现了对DeepSeek蒸馏模型推理服务的高效部署,开发者可以基于摩尔线程全功能GPU,进行AI应用创新。

此外,用户也可以基于摩尔线程MTT S80、MTT S4000显卡,进行DeepSeek-R1蒸馏模型的推理部署。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

景嘉微 DeepSeek GPU AI模型 vLLM
相关文章