快科技资讯 04月29日 11:36
总参数量1.2万亿 比R1提升1倍!曝DeepSeek R2将彻底摆脱NVIDIA:全部基于华为芯片
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek R2即将发布,引发广泛关注。这款大模型采用了更先进的混合专家模型(MoE),参数量预计达1.2万亿,推理成本远低于GPT-4。更引人注目的是,R2完全基于国产昇腾910B芯片训练,性能接近英伟达A100集群,有望降低中国对海外高端AI芯片的依赖。DeepSeek R2的发布,也预示着中国在大模型领域的技术实力进一步提升,并对AI基础设施和英伟达带来潜在影响。

🚀 DeepSeek R2采用了混合专家模型(MoE),总参数量约为1.2万亿,是前代R1的两倍,这意味着模型拥有更强大的处理能力。

💡 R2的推理成本极具竞争力,单位推理成本较GPT-4降低97.4%。输入每百万字符仅需0.07美元,输出每百万字符仅需0.27美元,这使得R2在商业应用上更具优势。

🇨🇳 DeepSeek R2完全基于昇腾910B芯片集群平台训练,摆脱了对英伟达芯片的依赖。在FP16精度下,计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为NVIDIA上一代A100集群的91%,这标志着中国在AI芯片领域的自主创新取得了显著进展。

🤔 R2的发布可能引发市场对AI基础设施需求的重新审视,并加速华为昇腾910C芯片的国产替代进程。这将对英伟达的市场地位构成挑战。

快科技4月29日消息,年初DeepSeek R1的问世,让美国AI圈颤三颤,甚至引发了NVIDIA的股价暴跌。如今,更强的DeepSeek R2也要来了。

据报道,市场最新爆料,R2大模型将采用更先进的混合专家模型(MoE),总参数量较前代R1提升约1倍,预计达1.2万亿(R1总参数量为6710亿),单位推理成本较GPT-4大减97.4%。

当下,中美科技战、贸易战愈演愈烈,NVIDIA H20芯片面临新一波出口管制。

在DeepSeek R2预期发布时间临近的情况下,各界高度关注中国指标性大模型在缺乏美国芯片资源下的发展动向。

据传,R2规模与ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相当,还将结合更智能的门控网络层(Gating Network),进而优化高负载推理任务的性能。

消息指出,R2将彻底摆脱NVIDIA芯片,训练全程均未使用NVIDIA显卡,全部基于昇腾910B(Ascend 910B)芯片集群平台,在FP16精度下,计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为NVIDIA上一代A100集群的91%。

市场预期,这有望降低中国对海外高端AI芯片的依赖,且华为全新的昇腾910C芯片也开始进入大规模量产阶段。

成本方面,DeepSeek-R2的单位推理成本较OpenAI旗下的GPT-4大减97.4%。其中,R2输入每百万个字符仅需0.07美元,而输出每百万个字符仅0.27美元。

分析认为,R2若如传闻般强势,可能再次引发市场对AI基础设施需求的质疑,加上华为AI芯片的国产替代,将对NVIDIA带来更大影响。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek R2 大模型 昇腾910B AI芯片 国产替代
相关文章