Cnbeta 8小时前
自家模型爆料 DeepSeek-R2本月要发布
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

国产大模型DeepSeek的最新版本R2预计将于2025年8月15日至8月30日之间发布,引发市场高度关注。此次更新将采用更先进的混合专家模型(MoE)架构,并可能在定价上提供显著优势,预计成本将大幅低于OpenAI的同类产品。DeepSeek-R2的训练基于华为昇腾910B芯片集群,计算能力强劲,且强调全产业链的自主可控。其总参数量预计将大幅提升,旨在优化高负载推理任务的性能,预示着国产大模型在技术和成本上都将迎来重要突破。

🚀 DeepSeek-R2大模型预计在2025年8月15日至8月30日之间发布,这一时间点紧随ChatGPT-5的发布,显示出国产大模型追赶和创新的步伐。

💡 DeepSeek-R2将采用更先进的混合专家模型(MoE)架构,并结合智能的门控网络层(Gating Network)来优化高负载推理任务的性能,相较于前代在技术上有所提升。

💰 市场分析预测DeepSeek-R2的定价可能显著低于OpenAI的同类产品,预估成本可下降97%,这有望颠覆现有的AI服务定价模式,降低AI应用门槛。

🇨🇳 该模型在华为昇腾910B芯片集群上进行训练,强调全方位、全产业链的自主可控,总参数量预计达1.2万亿,性能上可比肩上一代英伟达A100训练集群的91%。

ChatGPT-5已经发布,那么国产大模型DeepSeek大版本更新也就不远了。从网友向DeepSeek提出的问题看,该模型给出的答案是,DeepSeek-R2预计将在2025年8月15日至8月30日之间发布。

在这样的背景下,国产算力链多家公司股价出现了大涨,比如寒武纪直接今天20cm涨停,股价创历史新高,市值突破3550亿元

按照之前的说法,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),其结合了更加智能的门控网络层(Gating Network)以优化高负载推理任务的性能。

有分析师预计,DeepSeek-R2的定价可能显著低于OpenAI同类产品,预示着其可能颠覆现有AI服务的定价模式。

此外,还有相关消息显示,DeepSeek-R2预计比GPT-4成本下降97%;并且是在昇腾卡上做的训练,主打一个全方位全产业链的自主可控。

据相关人士透露的情况,DeepSeek-R2的总参数量可能会达到1.2万亿,比DeepSeek-R1的6710亿参数增加大约一倍。

DeepSeek-R2是一款基于华为昇腾910B(Ascend 910B)芯片集群训练的模型,在FP16精度下达到512PetaFLOPS的计算能力,芯片使用效率为82%。

据华为实验室统计,这个性能相当于英伟达上一代A100训练集群的91%左右。至于这些是不是真实的,还有待观察,但看起来确实更强大、更自主了。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-R2 国产大模型 AI算力 昇腾芯片 混合专家模型
相关文章