硅基流动 2024年10月28日
SiliconCloud适配国产算力:高性价比大模型推理,Qwen2-72B仅需¥1.00/M tokens
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

硅基流动的大模型推理引擎已与一款国产芯片完成适配,并优先支持了通义千问Qwen2-72B模型,用户可在SiliconCloud上免费使用基于该算力的Vendor-A/Qwen/Qwen2-72B-Instruct模型服务。该平台通过软硬件协同优化,大幅提升了国产芯片的推理速度和算力利用率,使其性能媲美国际主流芯片,为用户提供高性价比的AI推理服务。同时,SiliconCloud中间层推理引擎屏蔽了底层硬件差异,开发者可在国产算力和英伟达算力之间无缝切换,为开发者提供更丰富的算力选择,助力国产算力与大模型应用生态的发展。

🚀 **国产芯片与国际主流芯片无缝切换:** 硅基流动团队通过科学的架构抽象,屏蔽了国产芯片和国际主流芯片的底层差异,实现了应用与硬件的解耦,让开发者无需修改上层代码,即可直接使用SiliconCloud平台的国产算力,大幅降低了用户使用国产算力的迁移成本。

⚡️ **软硬件协同优化实现极速推理:** 硅基流动发挥多年来在异构硬件上软件优化的能力,大幅提升了基于国产芯片的大模型推理速度及实际算力利用率,使其发挥出比肩国际主流芯片的效果,并为用户提供了高性价比的AI推理服务。

💰 **高性价比的AI推理服务:** SiliconCloud上线的国产AI芯片版Vendor-A/Qwen/Qwen2-72B-Instruct,能让开发者获得更快的响应速度,与国际主流芯片相比有明显的性价比优势,轻松完成各种AI应用场景下的高效、稳定推理任务。

🤝 **助力国产AI算力生态发展:** 硅基流动与国产AI芯片厂商的深度合作,展示了国产算力在AI推理中的可行性和优越性,为国产算力的广泛应用提供了成功案例。未来,硅基流动将进一步加大在硬件适配上的投入,支持更多种类的国产芯片,并在SiliconCloud平台上增加基于国产算力的大模型服务,为开发者提供多样选择,加速AGI应用落地与产业发展。

💡 **开发者无需修改代码即可使用国产算力:** SiliconCloud平台屏蔽了国产芯片和国际主流芯片的底层差异,开发者无需修改代码即可使用国产算力,降低了迁移成本,有助于补齐国产AI芯片和国际主流芯片在软件生态上的差距。

🚀 **国产芯片性能媲美国际主流芯片:** 硅基流动团队通过软硬件协同优化,大幅提升了国产芯片的推理速度和算力利用率,使其性能媲美国际主流芯片。

💰 **高性价比的AI推理服务:** SiliconCloud上线的国产AI芯片版Vendor-A/Qwen/Qwen2-72B-Instruct,能让开发者获得更快的响应速度,与国际主流芯片相比有明显的性价比优势。

🤝 **助力国产AI算力生态发展:** 硅基流动与国产AI芯片厂商的深度合作,展示了国产算力在AI推理中的可行性和优越性,为国产算力的广泛应用提供了成功案例。未来,硅基流动将进一步加大在硬件适配上的投入,支持更多种类的国产芯片,并在SiliconCloud平台上增加基于国产算力的大模型服务,为开发者提供多样选择,加速AGI应用落地与产业发展。

原创 SiliconCloud 2024-10-10 08:04 北京

国产AI算力与国际主流算力无缝切换,软硬件协同优化实现极速推理。


蓬勃的算力需求是AI大爆发的前提,近年来国产AI芯片如雨后春笋般涌现。不过,从业者经常听到这样的说法:国产芯片的软件生态不够完善、不好用,这在一定程度上反映了国产芯片在市场竞争中存在的挑战。

为一家AI基础设施软件企业,硅基流动致力于促进国产算力生态的完善与繁荣。近日,硅基流动的大模型推理引擎已与一款国产芯片完成适配,并优先支持了通义千问Qwen2-72B模型,用户可在SiliconCloud上免费使用基于该算力的Vendor-A/Qwen/Qwen2-72B-Instruct模型服务(10月17日开始计费,仅需¥1.00/M tokens)。实践表明,国产芯片也可以为开发者提供稳定且高性价比的大模型云服务。

Playground地址:

https://cloud.siliconflow.cn/playground/chat/17885302571

API文档:

https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions

硅基流动团队发挥多年来在异构硬件上软件优化的能力,大幅提升了基于该国产芯片的大模型推理速度及实际算力利用率,使其发挥出比肩国际主流芯片的效果,并为用户提供了高性价比的AI推理服务。不仅如此,硅基流动中间层推理引擎屏蔽了底层硬件差异,开发者可在国产算力和英伟达算力之间无缝切换。适配国产算力后,SiliconCloud为开发者提供了更丰富的算力选择,我们将在未来继续增加国产算力的应用案例,扩大行业的整体算力可用资源,助力国产算力与大模型应用生态的发展。

国产AI算力国际主流算力无缝切换软硬件协同优化实现极速推理


近年来,国产AI芯片研发迎来新的发展机遇,与国际顶尖芯片厂商之间的差距在不断缩小。不过,在软件生态方面,国产AI芯片软件相比国际顶级AI芯片厂商仍有不小差距。由于芯片体系及软件生态的不同,开发者在使用国产芯片时遇到不少挑战。

为解决这一问题,硅基流动团队通过科学的架构抽象,屏蔽了国产芯片和国际主流芯片的底层差异,实现了应用与硬件的解耦,让开发者无需修改上层代码,即可直接使用SiliconCloud平台的国产算力,这大幅降低了用户使用国产算力的迁移成本,同时有助于补齐国产AI芯片和国际主流芯片在软件生态上的差距。

基于深厚的软硬件优化与加速能力,硅基流动让国产芯片在SiliconCloud平台上实现了SOTA推理性能,最大化释放了计算能力,节省算力成本,并提供稳定的服务能力。

我们相信,Vendor-A/Qwen/Qwen2-72B-Instruct的上线将高效满足开发者与企业客户的LLM推理需求,进一步推动国产AI芯片在AI推理任务中的广泛应用,加速生成式AI应用开发与创新。


助力国产AI算力生态,为开发者提供多样选择


作为服务广大AI应用开发者与企业客户的“Token工厂”,SiliconCloud一直致力于提供高性价比的大模型云服务。

SiliconCloud上线的国产AI芯片版Vendor-A/Qwen/Qwen2-72B-Instruct,能让开发者获得更快的响应速度,与国际主流芯片相比有明显的性价比优势,轻松完成各种AI应用场景下的高效、稳定推理任务。硅基流动与国产AI芯片厂商的深度合作,也充分展示了国产算力在AI推理中的可行性和优越性,为国产算力的广泛应用提供了成功案例。

未来,硅基流动将进一步加大在硬件适配上的投入,支持更多种类的国产芯片,并在SiliconCloud平台上增加基于国产算力的大模型服务,以此为开发者提供多样选择,加速AGI应用落地与产业发展。

近期更新

• SiliconCloud上线DeepSeek-V2.5
• SiliconCloud模型微调及托管抢先体验
 SiliconCloud上线Qwen2.5-Coder/Math
• SiliconCloud API更新:FLUX.1收费版不限流
• SiliconCloud API更新:支持Function Calling
10倍工程师编码工具:Cursor x SiliconCloud

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

国产AI算力 大模型推理 SiliconCloud 无缝切换 软硬件协同优化
相关文章