最新-新浪科技科学探索 04月29日 22:13
消息称DeepSeek R2下月发:成本较GPT降97%、华为芯片性能不输英伟达
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

据报道,深度求索计划推出下一代AI大模型DeepSeek-R2。该模型采用混合专家模型(MoE),优化高负载推理任务。分析师预测其定价可能低于OpenAI同类产品,或将颠覆现有AI服务定价模式。DeepSeek-R2预计比GPT-4成本降低97%,并在昇腾卡上训练,强调自主可控。模型总参数量或达1.2万亿,是DeepSeek-R1的两倍。DeepSeek-R2基于华为昇腾910B芯片集群训练,FP16精度下达512PetaFLOPS计算能力,芯片使用效率为82%,性能相当于英伟达A100训练集群的91%左右。

💡DeepSeek-R2采用混合专家模型(MoE),并结合了智能门控网络层,旨在提升高负载推理任务的性能。

💰分析师预计DeepSeek-R2的定价可能显著低于OpenAI同类产品,暗示其或将改变现有AI服务的定价模式。

⚙️DeepSeek-R2预计比GPT-4成本下降97%,并在昇腾卡上进行训练,强调全产业链的自主可控。

📊DeepSeek-R2的总参数量可能达到1.2万亿,约为DeepSeek-R1的6710亿参数的两倍。

💻DeepSeek-R2基于华为昇腾910B芯片集群训练,FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%,性能相当于英伟达上一代A100训练集群的91%左右。

快科技4月29日消息,据国内媒体报道称,深度求索可能会在下个月有所行动,推出下一代AI大模型DeepSeek-R2。

报道称,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),其结合了更加智能的门控网络层(Gating Network)以优化高负载推理任务的性能。

有分析师预计,DeepSeek-R2的定价可能显著低于OpenAI同类产品,预示着其可能颠覆现有AI服务的定价模式。

此外,还有相关消息显示,DeepSeek-R2预计比GPT-4成本下降97%;并且是在昇腾卡上做的训练,主打一个全方位全产业链的自主可控。

据相关人士透露的情况,DeepSeek-R2的总参数量可能会达到1.2万亿,比DeepSeek-R1的6710亿参数增加大约一倍。

DeepSeek-R2是一款基于华为昇腾910B(Ascend 910B)芯片集群训练的模型,在FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%。

据华为实验室统计,这个性能相当于英伟达上一代A100训练集群的91%左右。至于这些是不是真实的,还有待观察,但看起来确实更强大、更自主了。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:雪花

文章内容举报

]article_adlist-->

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R2 AI大模型 混合专家模型 昇腾芯片 定价模式
相关文章