原创 SiliconCloud 2024-11-01 08:03 北京
感谢开发者朋友提出的需求与意见,我们在认真考虑、加速解决。
近期,硅基流动SiliconCloud平台更新主要体现在四大方面,包括:上线视觉语言、语音、生图、语言等十多款大模型;适配国产芯片,并提供价格亲民的Vendor-A版本Qwen2.5-72B-Instruct;支持Prefix、FIM和Function Calling功能;支持企业用户实名认证、对公转账、高TPM/IPM需求(Embedding、文生图模型不限速)。
模型上新
只要是开发者喜欢的大模型,硅基流动团队会第一时间在SiliconCloud上线,免去开发者的部署门槛与成本,只需在开发应用时轻松调用相应模型的API。
更重要的是,这些大模型都会经过硅基流动团队推理优化,响应速度极快且价格亲民,为你的生成式AI应用带来更高效的用户体验。开发者可在SiliconCloud自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。
视觉语言模型(VLM)
上线推理加速版视觉模型Qwen2-VL系列、InternVL 2.0系列、TeleMM共6款模型,支持图片内容解读、视觉智能体、视频理解等更广泛生成式AI应用场景。
语音合成模型
上线推理加速版语音合成模型fishaudio/fish-speech-1.4(商业版),包含网络传输时间在内,让模型输出延迟低至200ms,实现实时语音合成,支持提供平台开箱即用的8种预置音色,支持用户预置音色以及动态音色。
结合SiliconCloud上的推理加速版语音识别模型SenseVoice-Small(可免费使用)及平台上其他各类大模型,开发者可以开发端到端语音交互应用了。
图片生成模型
上线推理加速版模型Stable Diffusion 3.5 Large、FLUX.1 [dev](专业版)。其中,Stable Diffusion 3.5 Large是SD系列中最强大的基础模型;FLUX.1 [dev]的性能可比肩MJ v6模型,且使用SiliconCloud API调用不限速,让高并发需求用户获得高性价比服务。
大语言模型
上线推理加速版大语言模型Qwen2.5-7B/14B/32B/72B-Instruct、Qwen2.5-Coder-7B、Qwen2.5-Math-72B以及Llama-3.1-Nemotron-70B-Instruct。其中,Qwen2.5-7B-Instruct、Qwen2.5-Coder-7B可免费使用。
Qwen2.5大语言模型系列的主要更新包括:大幅提升了对结构化数据的理解能力;生成结构化输出(尤其是JSON格式)更加可靠;在多样化的系统提示下的表现得到了加强,有助于有效进行角色扮演。Qwen2.5-Coder-7B-Instruct在代码生成、代码推理、代码修复等任务上都有显著提升,而Qwen2.5-Math-72B-Instruct支持中文和英文,并整合了CoT等多种推理方法。
多个基准测试显示,Llama-3.1-Nemotron-70B-Instruct超越了GPT-4o和Claude 3.5 Sonnet这些最先进大模型。
此外,SiliconCloud上线两款支持128K长上下文处理的大语言模型,包括Qwen/Qwen2.5-72B-Instruct-128K、THUDM/glm-4-9b-chat(含Pro/THUDM/glm-4-9b-chat),为用户的长文本处理需求提供更广泛选择。
硅基流动的大模型推理引擎适配了国产芯片Vendor-A,并在SiliconCloud上优先支持了Vendor-A/Qwen/Qwen2.5-72B-Instruct与Vendor-A/Qwen/Qwen2-72B-Instruct,为开发者提供更快的响应速度和更高的性价比(价格均为¥1/M tokens),展示了国产算力在AI推理中的稳定性和可行性。
支持Prefix、FIM和Function Calling
SiliconCloud API新增支持Prefix、FIM和Function Calling,以提升文本生成和任务处理的灵活性,帮助开发者更精确地控制生成的内容并简化开发流程。
其中,Prefix、FIM主要用于提高生成文本的准确性、简化生成任务的复杂性以及增强生成文本的可控性,帮助开发者更精确地控制生成文本的内容和结构。SiliconCloud上的所有大语言模型均支持Prefix,Deepseek系列和Qwen系列部分模型支持FIM(详情查看:https://docs.siliconflow.cn/guides/fim)。
Function Calling(函数调用)允许开发者通过API调用外部函数或服务,从而增强模型的能力。目前,SiliconCloud上的Qwen2.5、DeepSeek-V2.5、GLM4、InternLM2.5等模型支持Function Calling(详情查看:https://docs.siliconflow.cn/guides/function_calling)。
模型维度筛选
API调用新增了模型维度筛选功能,用户可根据模型类型筛选,快速找到合适的模型。
支持企业用户实名认证、对公转账以及高TPM/IPM需求 (Embedding、文生图模型不限速)。
近期更新
• SiliconCloud上线Fish Audio
• SiliconCloud x Sider浏览器插件
• SiliconCloud上线Stable Diffusion 3.5 Large
• SiliconCloud API更新:FLUX.1收费版不限流
• 10倍工程师编码工具:Cursor x SiliconCloud
• 分享ComfyUI BizyAir工作流,赢东京往返机票
让超级产品开发者实现“Token自由”
邀请好友体验SiliconCloud,狂送2000万Token/人
邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud
扫码加入用户交流群