PaperAgent 2024年12月28日
Deepseek v3开源,本地仅700G可轻松运行!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek V3模型正式发布,并开源了模型与技术报告,引起业界广泛关注。该模型训练成本仅需557万美元,远低于GPT-4o的预估成本。在代码能力方面,DeepSeek V3甚至超越了Claude Sonnet 3.5。DeepSeek V3原生采用FP8训练,仅需700GB+显存即可运行,转换到BF16半精度需1400GB+,量化到int4则仅需300GB+显存。DeepSeek还提供了236B参数的V2模型,半精度下占用490G显存,需要7张80G A100显卡。此举无疑将推动大模型技术的进一步发展。

🚀 DeepSeek V3模型正式发布并开源,引发大模型领域热议。

💰 训练成本仅557万美元(2000张H800),远低于GPT-4o的预估成本。

💻 代码能力超越Claude Sonnet 3.5,展示了强大的编程能力。

💾 基于FP8训练,700GB+显存即可运行,降低了部署门槛。

📈 提供多种精度选择,满足不同硬件需求,包括FP8、BF16和int4。

2024-12-27 17:59 湖北

DeepSeek V3 正式发布,模型与技术报告全开源,非常牛,又在大模型领域掀起了一股热议,概率为2句话:

根据多个基准测试,DeepSeek v3 在代码方面甚至优于 Claude Sonnet 3.5

那么671B的DeepSeek V3如何本地运行尼,由于DeepSeek的框架原生采用 FP8 训练,因此仅提供 FP8 权重,预估仅700GB+显存便可轻松运行。

当然也可以转换到BF16,在半精度下,需1400GB+

量化到int4时需要300GB+

半精度 236B的DeepSeek V2,占用 490G 显存,需要 7张 80G A100

https://huggingface.co/deepseek-ai/DeepSeek-V3-Base/tree/mainhttps://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek V3 大模型 开源 FP8 H800
相关文章