DeepSeek 2024年10月28日
DeepSeek API 升级,支持续写、FIM、Function Calling、JSON Output
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek API 推出全新功能,包括 JSON Output、Function Calling、对话前缀续写和 8K 最长输出,以及新增 FIM 补全接口,旨在释放模型的更多潜力。这些更新旨在增强模型的输出格式、与物理世界的交互能力、对话控制和输出长度,并提供新的内容补全功能。DeepSeek API 兼容 OpenAI API,用户可以通过设置 base_url 来启用 Beta 功能,并使用这些功能来实现更强大的模型应用。

🚀 **JSON Output:** DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。该功能可以方便地进行数据处理等任务,使模型按预定格式返回 JSON,提高程序流程的自动化能力。

🔌 **Function Calling:** DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,增强模型与物理世界交互的能力。该功能支持传入多个 Function(最多 128 个),支持并行 Function Calling,可以实现更复杂的应用场景,例如网站爬虫和数据分析等。

🗣️ **对话前缀续写:** DeepSeek API 推出对话前缀续写功能,允许用户指定最后一条 assistant 消息的前缀,来让模型按照该前缀进行补全。该功能可用于更灵活的输出控制,以及对被截断的消息进行拼接和续写。

📏 **8K 最长输出:** DeepSeek API Beta 版 API 将 max_tokens 参数上限调整为 8K,以满足更长文本输出的场景。用户需要设置 base_url 为 https://api.deepseek.com/beta 来开启 Beta 功能,并可以设置 max_tokens 最大值为 8192。

✍️ **FIM 补全:** DeepSeek API 新增 FIM 补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。

原创 深度求索 2024-07-26 15:00 北京

所有新功能,均可使用 deepseek-chat 和 deepseek-coder 模型调用

今天,DeepSeek API 迎来更新,装备了新的接口功能,来释放模型的更多潜力:

更新接口 /chat/completions

新增接口 /completions

所有新功能,均可使用 deepseek-chat 和 deepseek-coder 模型调用。


更新接口 /chat/completions

1.JSON Output,增强内容格式

DeepSeek API 新增 JSON Output 功能,兼容 OpenAI API,能够强制模型输出 JSON 格式的字符串。

在进行数据处理等任务时,该功能可以让模型按预定格式返回 JSON,方便后续对模型输出内容进行解析,提高程序流程的自动化能力。

要使用 JSON Output 功能,需要:

    设置response_format 参数为 {'type': 'json_object'}

    用户需要在提示词中,指导模型输出 JSON 的格式,来确保输出格式符合预期

    合理设置 max_tokens,防止 JSON 字符串被中途截断

以下为一个 JSON Output 功能的使用样例。在这个样例中,用户给出一段文本,模型对文本中的问题 & 答案进行格式化输出。

2. Function Calling,连接物理世界

DeepSeek API 新增 Function Calling 功能,兼容 OpenAI API,通过调用外部工具,来增强模型与物理世界交互的能力。

Function Calling 功能支持传入多个 Function(最多 128 个),支持并行 Function Calling。

下图展示了将 deepseek-coder 整合到开源大模型前端 LobeChat 的效果。在这个例子中,我们开启了“网站爬虫”插件,来实现对网站的爬取和总结。

下图展示了使用 Function Calling 功能的交互过程:

3. 对话前缀续写(Beta),更灵活的输出控制

对话前缀续写沿用了对话补全的 API 格式,允许用户指定最后一条 assistant 消息的前缀,来让模型按照该前缀进行补全。该功能也可用于输出长度达到 max_tokens 被截断后,将被截断的消息进行拼接,重新发送请求对被截断内容进行续写。

要使用对话前缀续写功能,需要:

    设置 base_url 

     https://api.deepseek.com/beta 来开启 Beta 功能

    确保 messages 列表里最后一条消息的 role  assistant并设置最后一条消息的 prefix 参数为 True

    如:{"role": "assistant": "content": "在很久很久以前,", "prefix": True}

以下为对话前缀续写功能的使用样例。在这个例子里,设置了 assistant 消息开头为 '```python\n',以强制其以代码块开始,并设置 stop 参数为 '```',让模型不输出多余的内容。

4. 8K 最长输出(Beta),释放更长可能

为了满足更长文本输出的场景,我们在 Beta 版 API 中,将 max_tokens 参数的上限调整为 8K。

要提高到 8K 最长输出,需要:

    设置 base_url 为 

    https://api.deepseek.com/beta 来开启 Beta 功能

    max_tokens 默认为 4096。开启 Beta 功能后,max_tokens 最大可设置为 8192


新增接口 /completions

1.FIM 补全(Beta),使能续写场景

DeepSeek API 新增 FIM补全接口,兼容 OpenAI 的 FIM 补全 API,允许用户提供自定义的前缀/后缀(可选),让模型进行内容补全。该功能常用于故事续写、代码补全等场景。FIM 补全接口收费与对话补全相同。

要使用 FIM 补全接口,需要设置 base_url 为 https://api.deepseek.com/beta 来开启 Beta 功能。

以下为 FIM 补全接口的使用样例。在这个例子中,用户提供斐波那契数列函数的开头和结尾,模型对中间内容进行补全。



更新说明

所有新功能的详细调用方法,请参考 DeepSeek API 官方文档:

https://platform.deepseek.com/api-docs/zh-cn/

Beta 接口已开放给所有用户使用,用户需要设置 base_url 为 https://api.deepseek.com/beta 来开启 Beta 功能。

Beta 接口属于不稳定接口,后续测试、发布计划会灵活变动,敬请谅解。

相关模型版本,在功能稳定后会发布到开源社区,敬请期待。


点击下方阅读原文查看详细指南

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek API 模型更新 JSON Output Function Calling 对话前缀续写 8K 最长输出 FIM 补全 AI 模型
相关文章