据报道,深度求索计划推出下一代AI大模型DeepSeek-R2。该模型采用混合专家模型(MoE),优化高负载推理任务。分析师预测其定价可能低于OpenAI同类产品,或将颠覆现有AI服务定价模式。DeepSeek-R2预计比GPT-4成本降低97%,并在昇腾卡上训练,强调自主可控。模型总参数量或达1.2万亿,是DeepSeek-R1的两倍。DeepSeek-R2基于华为昇腾910B芯片集群训练,FP16精度下达512PetaFLOPS计算能力,芯片使用效率为82%,性能相当于英伟达A100训练集群的91%左右。
💡DeepSeek-R2采用混合专家模型(MoE),并结合了智能门控网络层,旨在提升高负载推理任务的性能。
💰分析师预计DeepSeek-R2的定价可能显著低于OpenAI同类产品,暗示其或将改变现有AI服务的定价模式。
⚙️DeepSeek-R2预计比GPT-4成本下降97%,并在昇腾卡上进行训练,强调全产业链的自主可控。
📊DeepSeek-R2的总参数量可能达到1.2万亿,约为DeepSeek-R1的6710亿参数的两倍。
💻DeepSeek-R2基于华为昇腾910B芯片集群训练,FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%,性能相当于英伟达上一代A100训练集群的91%左右。
快科技4月29日消息,据国内媒体报道称,深度求索可能会在下个月有所行动,推出下一代AI大模型DeepSeek-R2。
报道称,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),其结合了更加智能的门控网络层(Gating Network)以优化高负载推理任务的性能。有分析师预计,DeepSeek-R2的定价可能显著低于OpenAI同类产品,预示着其可能颠覆现有AI服务的定价模式。此外,还有相关消息显示,DeepSeek-R2预计比GPT-4成本下降97%;并且是在昇腾卡上做的训练,主打一个全方位全产业链的自主可控。据相关人士透露的情况,DeepSeek-R2的总参数量可能会达到1.2万亿,比DeepSeek-R1的6710亿参数增加大约一倍。DeepSeek-R2是一款基于华为昇腾910B(Ascend 910B)芯片集群训练的模型,在FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%。据华为实验室统计,这个性能相当于英伟达上一代A100训练集群的91%左右。至于这些是不是真实的,还有待观察,但看起来确实更强大、更自主了。
【本文结束】如需转载请务必注明出处:快科技责任编辑:雪花文章内容举报]article_adlist-->