最新-新浪科技科学探索 前天 22:28
总参数量1.2万亿 比R1提升1倍!曝DeepSeek R2将彻底摆脱NVIDIA:全部基于华为芯片
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek R2大模型即将发布,预计采用混合专家模型(MoE),参数量达1.2万亿,推理成本较GPT-4大幅降低97.4%。该模型彻底摆脱NVIDIA芯片,全程基于昇腾910B芯片集群平台训练,计算性能强大。在当前中美科技战背景下,DeepSeek R2的发布备受关注,有望降低中国对海外高端AI芯片的依赖,对NVIDIA产生影响。

🚀 DeepSeek R2采用混合专家模型(MoE),总参数量预计达1.2万亿,相较于R1的6710亿参数量提升约1倍,单位推理成本较GPT-4大幅降低97.4%。

🇨🇳 DeepSeek R2将彻底摆脱NVIDIA芯片,训练全程基于昇腾910B芯片集群平台,在FP16精度下计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为NVIDIA上一代A100集群的91%。

💰 DeepSeek-R2的单位推理成本显著降低,输入每百万个字符仅需0.07美元,输出每百万个字符仅0.27美元,大幅低于OpenAI旗下的GPT-4。

📈 市场预期DeepSeek R2的强势表现,可能再次引发市场对AI基础设施需求的质疑,加上华为AI芯片的国产替代,或将对NVIDIA带来更大影响。

快科技4月29日消息,年初DeepSeek R1的问世,让美国AI圈颤三颤,甚至引发了NVIDIA的股价暴跌。如今,更强的DeepSeek R2也要来了。

据报道,市场最新爆料,R2大模型将采用更先进的混合专家模型(MoE),总参数量较前代R1提升约1倍,预计达1.2万亿(R1总参数量为6710亿),单位推理成本较GPT-4大减97.4%。

当下,中美科技战、贸易战愈演愈烈,NVIDIA H20芯片面临新一波出口管制。

在DeepSeek R2预期发布时间临近的情况下,各界高度关注中国指标性大模型在缺乏美国芯片资源下的发展动向。

据传,R2规模与ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相当,还将结合更智能的门控网络层(Gating Network),进而优化高负载推理任务的性能。

消息指出,R2将彻底摆脱NVIDIA芯片,训练全程均未使用NVIDIA显卡,全部基于昇腾910B(Ascend 910B)芯片集群平台,在FP16精度下,计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为NVIDIA上一代A100集群的91%。

市场预期,这有望降低中国对海外高端AI芯片的依赖,且华为全新的昇腾910C芯片也开始进入大规模量产阶段。

成本方面,DeepSeek-R2的单位推理成本较OpenAI旗下的GPT-4大减97.4%。其中,R2输入每百万个字符仅需0.07美元,而输出每百万个字符仅0.27美元。

分析认为,R2若如传闻般强势,可能再次引发市场对AI基础设施需求的质疑,加上华为AI芯片的国产替代,将对NVIDIA带来更大影响。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:朝晖

文章内容举报

]article_adlist-->

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek R2 AI大模型 昇腾910B 国产替代 NVIDIA
相关文章