魔搭ModelScope社区 03月25日
DeepSeek-V3小版本升级,非推理模型王者归来
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek低调开源DeepSeek-V3-0324模型,在推理、代码执行、中文写作等能力上有显著提升,还介绍了使用建议及本地运行方法等。

📈推理能力显著提升,在多项基准测试中表现出色

💻前端网页开发中代码可执行性提高,网页更美观

📝中文写作能力增强,风格和内容质量提升

🔍中文搜索能力增强,报告分析更详细

📞函数调用改进,准确性提高

2025-03-25 21:25 北京

显著提升推理、代码执行及中文写作能力,优化搜索分析与函数调用。

今天,DeepSeek低调地在魔搭社区开源 DeepSeek-V3-0324 模型,虽然官方低调称之为小版本升级,但能力提升一点也不小。

模型地址:

https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3-0324


01


模型表现



DeepSeek-V3-0324 在多个关键方面展示了相较于其前代产品 DeepSeek-V3 的显著改进。




    推理能力

      基准测试性能显著提升:

        MMLU-Pro: 75.9 → 81.2 (+5.3)

        GPQA: 59.1 → 68.4 (+9.3)

        AIME: 39.6 → 59.4 (+19.8)

        LiveCodeBench: 39.2 → 49.2 (+10.0)

    前端网页开发

      提高了代码的可执行性

      更美观的网页和游戏前端

    中文写作能力

      增强了风格和内容质量:

        符合 R1 写作风格

        在中长篇写作中的质量更高

      功能增强

        改进了多轮交互式重写

        优化了翻译质量和书信写作

    中文搜索能力

      增强了报告分析请求,输出更详细

    函数调用改进

      提高了函数调用的准确性,修复了 V3 之前版本的问题




02


使用建议



系统提示

在官方 DeepSeek 网站/应用程序中,使用带有特定日期的相同系统提示。

    该助手为DeepSeek Chat,由深度求索公司创造。今天是{current date}。

    例如,

      该助手为DeepSeek Chat,由深度求索公司创造。今天是3月24日,星期一。

      温度设置

      在deepseek的网页和应用环境中,温度参数被设置为 0.3。因为许多用户在 API 调用时使用默认的温度 1.0,所以DeepSeek实现了一个 API 温度 TapiT_{api}Tapi 映射机制,将输入的 API 温度值 1.0 调整为最适合模型的温度设置 0.3。


      文件上传和网络搜索的提示

      对于文件上传,请按照模板创建提示,其中 {file_name}, {file_content} 和 {question} 是参数。

        file_template = \"""[file name]: {file_name}[file content begin]{file_content}[file content end]{question}"""

        对于网络搜索,{search_results}, {cur_date}, 和 {question} 是参数。

        对于中文查询,使用的提示是:

        完整prompt可前往模型卡片获取:https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3-0324


        对于英文查询,使用的提示是:

        完整prompt可前往模型卡片获取:

        https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3-0324



        03


        本地运行



        使用SGLang进行推理(官方推荐)

        SGLang目前支持MLA 优化、DP Attention、FP8(W8A8)、FP8 KV Cache 和 Torch Compile,在开源框架中提供最先进的延迟和吞吐量性能。


        同时SGLang v0.4.1完全支持在NVIDIA 和 AMD GPU上运行 DeepSeek-V3 ,使其成为一种高度通用且强大的解决方案。


        SGLang 还支持多节点张量并行,能够在多台联网的机器上运行此模型。


        推理代码:

          # Installationpip install "sglang[all]>=0.4.3" --find-links https://flashinfer.ai/whl/cu124/torch2.5/flashinfer-python
          # Launchpython3 -m sglang.launch_server --model /Your_Model_Path/DeepSeek-V3-0324 --tp 8 --trust-remote-code

          根据需要添加性能优化选项。


          许可证

          仓库及模型权重遵循 MIT License


          欢迎点击阅读原文,跳转模型详情~




          👇点击关注ModelScope公众号获取

          更多技术信息~




          阅读原文

          跳转微信打开

          Fish AI Reader

          Fish AI Reader

          AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

          FishAI

          FishAI

          鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

          联系邮箱 441953276@qq.com

          相关标签

          DeepSeek-V3-0324 推理能力 中文写作 函数调用 前端开发
          相关文章