原创 SiliconCloud 2025-03-10 19:38 北京
OpenManus 等智能体也能调用了。
今天,硅基流动 SiliconCloud 平台再次升级 DeepSeek-R1 & V3 API,包括:
支持 Function Calling。允许开发者通过 API 调用外部函数或服务,如搜索外部知识、查阅行程或某些特定领域工具,有效解决模型的幻觉、知识时效性等问题。SiliconCloud 是为数不多支持 DeepSeek-R1 & V3 的 Function Calling 功能的平台。
支持 JSON Mode。让模型输出 JSON 格式的字符串,以确保模型以预期的结构输出,便于后续对输出内容进行逻辑解析。
支持 Prefix、FIM。用于提高生成文本的准确性、简化生成任务的复杂性以及增强生成文本的可控性,帮助开发者更高效、精确地控制生成文本的内容和结构。
以上功能更新可帮助开发者更便捷地构建智能体等复杂应用,更精确地控制生成的内容并简化开发流程,专注于业务逻辑。(文档详情请查看:https://docs.siliconflow.cn/cn/userguide/guides/)
在 OpenManus 中调用 DeepSeek-V3
以近期流行的 OpenManus 等智能体应用为例,如果 DeepSeek-R1 & V3 API 不支持 Function Calling, 用户无法使用这些模型自动调用外部工具并执行任务。API 升级后,可完成从单纯的“文本生成工具”到“自动化执行实体”的转变,比如,完成“查天气→推荐行程→预订酒店”等端到端实用性任务,使其深度融入更复杂的业务场景,成为连接用户需求与系统能力的桥梁。
如果你想在 OpenManus 中接入 SiliconCloud 平台的 DeepSeek-R1 & V3 API,可参考以下流程:
1. 安装 OpenManus
参考安装指南(https://github.com/mannaandpoem/OpenManus?tab=readme-ov-file#installation)完成相关代码下载和依赖安装。
2. 配置 OpenManus
在 config 目录设置 config.toml,选用 SiliconCloud 平台的 DeepSeek-V3 等模型。参考如下配置:
# Global LLM configuration
[llm]
model = "Pro/deepseek-ai/DeepSeek-V3" # 或平台中的其他支持 function calling 模型,参见[Function Calling](https://docs.siliconflow.cn/cn/userguide/guides/function-calling)
base_url = "https://api.siliconflow.cn/v1"
api_key = "your_api_key_from_siliconcloud"
max_tokens = 4096
temperature = 0.6
# Optional configuration for specific LLM models
[llm.vision]
model = "Qwen/Qwen2-VL-72B-Instruct" # 或者平台中的其他视觉语言模型,参见[vision](https://docs.siliconflow.cn/cn/userguide/capabilities/vision)
base_url = "https://api.siliconflow.cn/v1"
api_key = "your_api_key_from_siliconcloud"
3. 使用 OpenManus
在 main.py 写入提示词:
question = "帮我在小红书上找一些五道口附近好吃的饭馆"
通过命令行:
python main.py
完成任务,基于 DeepSeek-V3 API 跑通了 OpenManus 使用流程。
近期更新
• SiliconCloud上线加速版阿里QWQ-32B
• 硅基流动助力华为小艺接入DeepSeek-R1
• Pro版DeepSeek-R1 & V3 TPM升至100万
• 硅基流动支持DeepSeek-R1 & V3私有化部署
• 硅基流动上线DeepSeek-R1 & V3企业级服务
• 硅基流动x亚马逊云科技上架DeepSeek-R1/V3
让超级产品开发者实现“Token自由”
邀好友用SiliconCloud,狂送2000万Token/人
即刻体验DeepSeek-R1&V3
cloud.siliconflow.cn
扫码加入用户交流群