字节跳动技术团队 02月11日
仅需3步,稳定快速!火山引擎边缘大模型网关全面支持DeepSeek系列模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

火山引擎边缘大模型网关全面支持DeepSeek系列模型,通过一个API接入多家模型服务,利用全球边缘节点就近调用,提升响应速度并确保服务可靠性。它兼容OpenAI接口标准,降低接入成本。用户可以通过平台预置模型或自有三方模型两种方式使用DeepSeek模型。只需简单三步,即可快速调用DeepSeek模型,包括选择调用方式、创建网关访问密钥以及服务调用与观测。此外,火山引擎还提供200万tokens的免费额度,供用户体验边缘大模型网关。

🚀 **快速接入与调用**:火山引擎边缘大模型网关支持通过一个API接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用,提高模型访问速度,为终端用户提供更快速、可靠的AI服务体验。

🛡️ **稳定性和容错机制**:在接入大模型的同时,通过配置调用顺序、自动重试、请求超时等能力,实现模型调用失败自动请求备用模型、单次请求失败自动重试、单次调用响应时间配置,确保服务稳定性。

🔑 **灵活的调用方式选择**:用户可以选择调用平台预置的DeepSeek模型,无需与模型提供商进行交互;也可以选择调用自有三方DeepSeek模型,通过在边缘大模型网关平台创建对应模型提供商的调用渠道,并纳管第三方模型平台的密钥,实现大模型的快速调用。

📊 **全面的监控与用量统计**:边缘大模型网关可根据用户通过网关向模型发出的请求以及模型的响应来统计用量。用户可以通过云监控-大模型网关模块,查询以网关访问密钥为维度的总用量与用量速率。

边缘云技术团队 2025-02-09 18:02 重庆

文章主要介绍了火山引擎边缘大模型网关全面支持 DeepSeek 系列模型,以及如何通过3步实现快速、稳定调用的详细内容。


DeepSeek 作为大模型新锐,凭借其在算法、架构及系统等核心领域的创新突破,迅速获得业界瞩目。在巨大的热度下,面对海量请求,越来越多用户遇到了请求失败、调用超时、结果无法返回等稳定性问题。


火山引擎边缘大模型网关通过一个 API 接入多家模型服务,利用全球边缘节点就近调用,提升响应速度;支持故障自动切换、重试和超时控制,确保服务可靠性;兼容 OpenAI 接口标准,可快速集成 DeepSeek 等模型,降低接入成本。



目前,火山引擎边缘大模型网关已全面支持 DeepSeek 系列模型,可通过两种方式进行模型使用:


01 3步快速调用 DeepSeek


火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。


在接入大模型的同时,通过配置调用顺序、自动重试、请求超时等能力,能够实现模型调用失败自动请求备用模型、单次请求失败自动重试、单次调用响应时间配置。通过产品化的配置,您可以迅速创建出与 OpenAI 的 API 和 SDK 完全兼容的网关访问密钥(API),并通过选配 DeepSeek 模型进行调用,节省大量适配成本,快速完成业务接入。



Step1 选择 DeepSeek 调用方式


调用平台预置 DeepSeek


边缘大模型网关的平台预置模型中上新了由火山方舟提供的 DeepSeek 模型,您可通过登录产品控制台查看支持模型,并通过点击创建网关访问密钥进行勾选。使用平台预置的模型DeepSeek,您无需与模型提供商进行交互,可以直接通过边缘大模型网关进行模型配置与调用。






调用自有三方 DeepSeek


如果希望使用在火山方舟平台或 DeepSeek 开放平台购买的 DeepSeek 模型调用额度,您需要通过在边缘大模型网关平台创建对应模型提供商的调用渠道,在创建调用渠道时,需要提供您在第三方模型平台的密钥,同时勾选大模型以明确当前调用渠道可进行调用的模型配置。






完成调用渠道配置后,您可通过创建网关访问密钥勾选对应的 DeepSeek 模型,实现大模型的快速调用。



Step2 创建网关访问密钥


完成前序的 DeepSeek 模型选择后,您可在网关访问密钥创建的第二步进行模型调用配置,以更好地保障在终端业务调用时的稳定性。




Step3 服务调用与观测


当您根据上述流程完成网关访问密钥创建,您可以在网关访问密钥列表中查看已完成创建的信息。在详情页面,可以看到基本信息、用量统计、请求方式等详细信息。




通过详情页调用示例,您可以获得由边缘大模型网关提供的请求示例代码,包含 Curl 和 Python。当您从网关访问密钥绑定的模型中选择一个模型后,代码中的model参数值将自动替换成模型对应的值。如果网关访问密钥绑定了多个同一类型的模型,那么当选择一个模型后,可以通过单击右侧的图标查看模型故障转移的预览效果。当前模型调用失败时,大模型网关将依次调用后续的模型。在调用时,您需要将详情页-请求方式中的密钥替换示例代码中的$VEI_API_KEY



边缘大模型网关可根据您通过网关向模型发出的请求以及模型的响应来统计您的用量。不同模型提供商对模型用量的计量方式有所不同,根据模型调用计量方式,您的调用详情可以在用量统计中进行查看。



同时,通过云监控-大模型网关模块,您可以查询以网关访问密钥为维度的总用量(已消耗的 tokens 总量)与用量速率(每秒消耗的 tokens 额度)。



02 200 万 tokens 免费额度,体验边缘大模型网关


当前,火山引擎边缘大模型网关已适配 15+ 种主流大模型厂商及多个智能体提供商,点击「阅读原文」立即体验并咨询 DeepSeek 模型~了解更多边缘大模型网关产品详情,或需要开通更多 token 用量,也欢迎扫描下方二维码加入边缘智能交流群!


火山引擎边缘智能交流群


文档详情:

https://www.volcengine.com/docs/6893/1263413



阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

火山引擎 边缘大模型网关 DeepSeek 边缘计算 AI服务
相关文章