据国内媒体报道,深度求索或将于下月推出下一代AI大模型DeepSeek-R2。该模型将采用更先进的混合专家模型(MoE),优化高负载推理任务性能。分析师预计其定价可能低于OpenAI同类产品,或将颠覆现有AI服务定价模式。DeepSeek-R2预计比GPT-4成本下降97%,且在昇腾卡上训练,主打全方位自主可控。总参数量或达1.2万亿,是DeepSeek-R1的两倍。该模型基于华为昇腾910B芯片集群训练,计算能力强大,芯片使用效率高。
💡DeepSeek-R2大模型预计采用更先进的混合专家模型(MoE),并结合更智能的门控网络层,旨在优化高负载推理任务的性能。
💰DeepSeek-R2的定价可能显著低于OpenAI同类产品GPT-4,成本预计下降97%,这预示着其可能颠覆现有AI服务的定价模式。
🇨🇳DeepSeek-R2是在华为昇腾卡上训练的,主打全方位全产业链的自主可控,展现了国产AI技术的实力。
📈DeepSeek-R2的总参数量预计达到1.2万亿,相比DeepSeek-R1的6710亿参数增加大约一倍,显示出模型规模的显著提升。
🚀DeepSeek-R2基于华为昇腾910B芯片集群训练,在FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%,性能接近英伟达上一代A100训练集群。
快科技4月29日消息,据国内媒体报道称,深度求索可能会在下个月有所行动,推出下一代AI大模型DeepSeek-R2。
报道称,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),其结合了更加智能的门控网络层(Gating Network)以优化高负载推理任务的性能。
有分析师预计,DeepSeek-R2的定价可能显著低于OpenAI同类产品,预示着其可能颠覆现有AI服务的定价模式。
此外,还有相关消息显示,DeepSeek-R2预计比GPT-4成本下降97%;并且是在昇腾卡上做的训练,主打一个全方位全产业链的自主可控。
据相关人士透露的情况,DeepSeek-R2的总参数量可能会达到1.2万亿,比DeepSeek-R1的6710亿参数增加大约一倍。
DeepSeek-R2是一款基于华为昇腾910B(Ascend 910B)芯片集群训练的模型,在FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%。
据华为实验室统计,这个性能相当于英伟达上一代A100训练集群的91%左右。至于这些是不是真实的,还有待观察,但看起来确实更强大、更自主了。
