硅基流动 02月07日
全家桶来了!硅基流动上线加速版 DeepSeek-R1 蒸馏模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

硅基流动SiliconCloud平台新上线六款DeepSeek-R1蒸馏版模型,包括8B、7B、1.5B等免费版本,旨在为开发者提供更高效易用的AI应用体验。这些模型API定价友好,部分模型性能超越OpenAI o1-mini。SiliconCloud致力于提供极速响应、价格亲民、品类齐全的模型API,已上架数十种开源大模型,涵盖语言、图片、视频、语音和代码等多种模态。平台支持开发者自由对比和组合各种模态的大模型,为生成式AI应用选择最佳实践,实现“Token自由”。

🚀 SiliconCloud平台推出六款DeepSeek-R1蒸馏版模型,包含DeepSeek-R1-Distill-Llama-70B、DeepSeek-R1-Distill-Qwen-32B等,其中8B、7B、1.5B模型可免费使用,旨在降低AI应用的使用门槛。

💰 DeepSeek-R1蒸馏版模型API定价亲民,例如14B模型价格为¥0.7 / M tokens,32B模型价格为¥1.26 / M tokens,70B模型价格为¥4.13/ M tokens,而1.5B、7B、8B模型则免费提供。

💡 硅基流动SiliconCloud已上架数十种开源大模型,涵盖DeepSeek-R1、DeepSeek-V3、Qwen2.5等,支持开发者自由对比、组合各种模态的大模型,为生成式AI应用选择最佳实践。

🔑 开发者可通过升级OpenAI SDK来使用DeepSeek-R1系列模型API,该模型通过输出思维链内容(reasoning_content)来提升最终回答的准确性,建议关注max_tokens和reasoning_content等参数。

原创 SiliconCloud 2025-02-04 15:58 甘肃

8B、7B、1.5B 模型可免费使用。


上线 671B 满血版 DeepSeek-R1、DeepSeek-V3 之后,今天,硅基流动 SiliconCloud 平台继续上线 6 款加速版 DeepSeek-R1 蒸馏版模型,包括 DeepSeek-R1-Distill-Llama-70B、DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Llama-8B(Free)、DeepSeek-R1-Distill-Qwen-7B(Free)、DeepSeek-R1-Distill-Qwen-1.5B(Free)。 

 

其中,上述 8B、7B、1.5B 模型可免费使用。用户与开发者只需在使用或开发 AI 应用时轻松调用 SiliconCloud 平台 API,带来更高效易用的使用体验。 


 

在线体验  

cloud.siliconflow.cn/models

 

API 文档 

docs.siliconflow.cn/api-reference/chat-completions


API 价格


一如既往,SiliconCloud 上的 DeepSeek-R1 蒸馏版模型 API 定价友好。14B 模型价格为 ¥0.7 / M tokens,32B 模型价格为 ¥1.26 / M tokens,70B 模型价格为 ¥4.13/ M tokens,1.5B、7B、8B 模型可免费使用。 



蒸馏小模型性能超越 o1-mini


DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Llama-70B 在多项能力上超越 OpenAI o1-mini。
 


Token 工厂 SiliconCloud
Qwen2.5(7B)等 20+ 模型免费用


作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、体验丝滑的模型 API。
除了上述六款模型,SiliconCloud 已上架包括 DeepSeek-R1、DeepSeek-V3Janus-Pro-7BCosyVoice2QVQ-72B-PreviewDeepSeek-VL2DeepSeek-V2.5-1210Llama-3.3-70B-InstructHunyuanVideofish-speech-1.5Qwen2.5-7B/14B/32B/72BFLUX.1InternLM2.5-20B-ChatBCE、BGESenseVoice-SmallGLM-4-9B-Chat 在内的数十种开源大语言模型、图片/视频生成模型、语音模型、代码/数学模型以及向量与重排序模型。平台支持开发者自由对比、组合各种模态的大模型,为你的生成式 AI 应用选择最佳实践。 


其中,DeepSeek-R1-Distill-Llama-8B、Qwen2.5(7B)等 30 款大模型 API 免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。 

 

 

附:DeepSeek-R1 系列模型 API 使用指南


DeepSeek-R1 系列模型由 deepseek-ai 开发的高级语言模型,旨在通过输出思维链内容(reasoning_content)来提升最终回答的准确性。目前该接口和 deepseek 接口兼容,在使用该模型时,建议先升级 OpenAI SDK 以支持新参数。

 

安装与升级

 

在使用 DeepSeek-R1 之前,请确保已安装最新版本的 OpenAI SDK。可以通过以下命令进行升级: 

 

pip3 install -U openai

API 参数

 

上下文拼接


在每一轮对话过程中,模型会输出思维链内容(reasoning_content)和最终回答(content)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中。 

OpenAI 请求示例

流式输出请求


from openai import OpenAI
url = 'https://api.siliconflow.cn/v1/'
api_key = 'your api_key'
client = OpenAI(
    base_url=url,
    api_key=api_key
)
# 发送带有流式输出的请求
content = ""
reasoning_content=""
messages = [
    {"role""user""content""奥运会的传奇名将有哪些?"}
]
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1",
    messages=messages,
    stream=True,  # 启用流式输出
    max_tokens=4096
)
# 逐步接收并处理响应
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content
# Round 2
messages.append({"role""assistant""content": content})
messages.append({'role''user''content'"继续"})
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1",
    messages=messages,
    stream=True
)


非流式输出请求

from openai import OpenAI
url = 'https://api.siliconflow.cn/v1/'
api_key = 'your api_key'
client = OpenAI(
    base_url=url,
    api_key=api_key
)
# 发送非流式输出的请求
messages = [
    {"role""user""content""奥运会的传奇名将有哪些?"}
]
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1",
    messages=messages,
    stream=False, 
    max_tokens=4096
)
content = response.choices[0].message.content
reasoning_content = response.choices[0].message.reasoning_content
# Round 2
messages.append({"role""assistant""content": content})
messages.append({'role''user''content'"继续"})
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1",
    messages=messages,
    stream=False
)

 

注意事项




近期更新

 SiliconCloud上线Janus-Pro-7B 

 BizyAir用户评测:无显卡玩转ComfyUI
 音频模型调用成本高?SiliconCloud价格砍半
 硅基流动x华为云推出DeepSeek R1&V3服务

 成本直降100倍!LLM清洗/蒸馏数据高效方法
 4步速通LLM微调:手把手带你打造领域大模型

让超级产品开发者实现“Token自由”

邀好友用SiliconCloud,狂送2000万Token/人

即刻体验DeepSeek-R1&V3

cloud.siliconflow.cn

扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

SiliconCloud DeepSeek-R1 蒸馏模型 大模型 API
相关文章