硅基流动 2024年11月01日
SiliconCloud更新日志1101:上线10+大模型;适配国产芯片
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

硅基流动SiliconCloud平台近期进行了多方面更新,包括上线多种大模型,适配国产芯片,支持多种功能,满足企业用户需求等,为开发者和用户带来更高效的体验。

🎈硅基流动SiliconCloud平台上线十多款大模型,涵盖视觉语言、语音、生图、语言等领域,且经过推理优化,响应速度快且价格亲民,开发者可轻松调用API。

💡视觉语言模型上线推理加速版视觉模型,支持图片内容解读等更广泛生成式AI应用场景;语音合成模型上线,输出延迟低,支持多种预置音色。

📈图片生成模型上线推理加速版模型,性能强大且使用SiliconCloud API调用不限速,为高并发需求用户提供高性价比服务。

📝大语言模型上线多种推理加速版,部分可免费使用,且在多种能力上有显著提升,还上线两款支持128K长上下文处理的大语言模型。

原创 SiliconCloud 2024-11-01 08:03 北京

感谢开发者朋友提出的需求与意见,我们在认真考虑、加速解决。

近期,硅基流动SiliconCloud平台更新主要体现在四大方面,包括:上线视觉语言、语音、生图、语言等十多款大模型;适配国产芯片,并提供价格亲民的Vendor-A版本Qwen2.5-72B-Instruct;支持Prefix、FIM和Function Calling功能;支持企业用户实名认证、对公转账、高TPM/IPM需求(Embedding、文生图模型不限速)。

模型上新

只要是开发者喜欢的大模型,硅基流动团队会第一时间在SiliconCloud上线,免去开发者的部署门槛与成本,只需在开发应用时轻松调用相应模型的API。

更重要的是,这些大模型都会经过硅基流动团队推理优化,响应速度极快且价格亲民,为你的生成式AI应用带来更高效的用户体验。开发者可在SiliconCloud自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。

    视觉语言模型(VLM)

上线推理加速版视觉模型Qwen2-VL系列、InternVL 2.0系列、TeleMM共6款模型,支持图片内容解读、视觉智能体、视频理解等更广泛生成式AI应用场景。

    语音合成模型

上线推理加速版语音合成模型fishaudio/fish-speech-1.4(商业版),包含网络传输时间在内,让模型输出延迟低至200ms,实现实时语音合成,支持提供平台开箱即用的8种预置音色,支持用户预置音色以及动态音色。

结合SiliconCloud上的推理加速版语音识别模型SenseVoice-Small(可免费使用)及平台上其他各类大模型,开发者可以开发端到端语音交互应用了。

    图片生成模型

上线推理加速版模型Stable Diffusion 3.5 Large、FLUX.1 [dev](专业版)。其中,Stable Diffusion 3.5 Large是SD系列中最强大的基础模型;FLUX.1 [dev]的性能可比肩MJ v6模型,且使用SiliconCloud API调用不限速,让高并发需求用户获得高性价比服务。

    大语言模型

上线推理加速版大语言模型Qwen2.5-7B/14B/32B/72B-Instruct、Qwen2.5-Coder-7B、Qwen2.5-Math-72B以及Llama-3.1-Nemotron-70B-Instruct。其中,Qwen2.5-7B-Instruct、Qwen2.5-Coder-7B可免费使用。

Qwen2.5大语言模型系列的主要更新包括:大幅提升了对结构化数据的理解能力;生成结构化输出(尤其是JSON格式)更加可靠;在多样化的系统提示下的表现得到了加强,有助于有效进行角色扮演。Qwen2.5-Coder-7B-Instruct在代码生成、代码推理、代码修复等任务上都有显著提升,而Qwen2.5-Math-72B-Instruct支持中文和英文,并整合了CoT等多种推理方法。

多个基准测试显示,Llama-3.1-Nemotron-70B-Instruct超越了GPT-4o和Claude 3.5 Sonnet这些最先进大模型。

此外,SiliconCloud上线两款支持128K长上下文处理的大语言模型,包括Qwen/Qwen2.5-72B-Instruct-128K、THUDM/glm-4-9b-chat(含Pro/THUDM/glm-4-9b-chat),为用户的长文本处理需求提供更广泛选择。

硅基流动的大模型推理引擎适配了国产芯片Vendor-A,并在SiliconCloud上优先支持了Vendor-A/Qwen/Qwen2.5-72B-Instruct与Vendor-A/Qwen/Qwen2-72B-Instruct,为开发者提供更快的响应速度和更高的性价比(价格均为¥1/M tokens),展示了国产算力在AI推理中的稳定性和可行性。

    支持Prefix、FIM和Function Calling

SiliconCloud API新增支持Prefix、FIM和Function Calling,以提升文本生成和任务处理的灵活性,帮助开发者更精确地控制生成的内容并简化开发流程。

其中,Prefix、FIM主要用于提高生成文本的准确性、简化生成任务的复杂性以及增强生成文本的可控性,帮助开发者更精确地控制生成文本的内容和结构。SiliconCloud上的所有大语言模型均支持Prefix,Deepseek系列和Qwen系列部分模型支持FIM(详情查看:https://docs.siliconflow.cn/guides/fim)。

Function Calling(函数调用)允许开发者通过API调用外部函数或服务,从而增强模型的能力。目前,SiliconCloud上的Qwen2.5、DeepSeek-V2.5、GLM4、InternLM2.5等模型支持Function Calling(详情查看:https://docs.siliconflow.cn/guides/function_calling)。

    模型维度筛选

API调用新增了模型维度筛选功能,用户可根据模型类型筛选,快速找到合适的模型。

支持企业用户实名认证、对公转账以及高TPM/IPM需求 (Embedding、文生图模型不限速)。

近期更新

 SiliconCloud上线Fish Audio
 SiliconCloud x Sider浏览器插件
 SiliconCloud上线Stable Diffusion 3.5 Large

• SiliconCloud API更新:FLUX.1收费版不限流
 10倍工程师编码工具:Cursor x SiliconCloud
• 分享ComfyUI BizyAir工作流,赢东京往返机票

让超级产品开发者实现“Token自由”
邀请好友体验SiliconCloud
狂送2000万Token/人
邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud
扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

硅基流动SiliconCloud 大模型 国产芯片 功能支持
相关文章