原创 SiliconCloud 2024-10-10 08:04 北京
国产AI算力与国际主流算力无缝切换,软硬件协同优化实现极速推理。
蓬勃的算力需求是AI大爆发的前提,近年来国产AI芯片如雨后春笋般涌现。不过,从业者经常听到这样的说法:国产芯片的软件生态不够完善、不好用,这在一定程度上反映了国产芯片在市场竞争中存在的挑战。
作为一家AI基础设施软件企业,硅基流动致力于促进国产算力生态的完善与繁荣。近日,硅基流动的大模型推理引擎已与一款国产芯片完成适配,并优先支持了通义千问Qwen2-72B模型,用户可在SiliconCloud上免费使用基于该算力的Vendor-A/Qwen/Qwen2-72B-Instruct模型服务(10月17日开始计费,仅需¥1.00/M tokens)。实践表明,国产芯片也可以为开发者提供稳定且高性价比的大模型云服务。
Playground地址:
https://cloud.siliconflow.cn/playground/chat/17885302571
API文档:
https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions
硅基流动团队发挥多年来在异构硬件上软件优化的能力,大幅提升了基于该国产芯片的大模型推理速度及实际算力利用率,使其发挥出比肩国际主流芯片的效果,并为用户提供了高性价比的AI推理服务。不仅如此,硅基流动中间层推理引擎屏蔽了底层硬件差异,开发者可在国产算力和英伟达算力之间无缝切换。适配国产算力后,SiliconCloud为开发者提供了更丰富的算力选择,我们将在未来继续增加国产算力的应用案例,扩大行业的整体算力可用资源,助力国产算力与大模型应用生态的发展。
国产AI算力与国际主流算力无缝切换,软硬件协同优化实现极速推理
近年来,国产AI芯片研发迎来新的发展机遇,与国际顶尖芯片厂商之间的差距在不断缩小。不过,在软件生态方面,国产AI芯片软件相比国际顶级AI芯片厂商仍有不小差距。由于芯片体系及软件生态的不同,开发者在使用国产芯片时遇到不少挑战。
为解决这一问题,硅基流动团队通过科学的架构抽象,屏蔽了国产芯片和国际主流芯片的底层差异,实现了应用与硬件的解耦,让开发者无需修改上层代码,即可直接使用SiliconCloud平台的国产算力,这大幅降低了用户使用国产算力的迁移成本,同时有助于补齐国产AI芯片和国际主流芯片在软件生态上的差距。
基于深厚的软硬件优化与加速能力,硅基流动让国产芯片在SiliconCloud平台上实现了SOTA推理性能,最大化释放了计算能力,节省算力成本,并提供稳定的服务能力。
我们相信,Vendor-A/Qwen/Qwen2-72B-Instruct的上线将高效满足开发者与企业客户的LLM推理需求,进一步推动国产AI芯片在AI推理任务中的广泛应用,加速生成式AI应用开发与创新。
助力国产AI算力生态,为开发者提供多样选择
作为服务广大AI应用开发者与企业客户的“Token工厂”,SiliconCloud一直致力于提供高性价比的大模型云服务。
SiliconCloud上线的国产AI芯片版Vendor-A/Qwen/Qwen2-72B-Instruct,能让开发者获得更快的响应速度,与国际主流芯片相比有明显的性价比优势,轻松完成各种AI应用场景下的高效、稳定推理任务。硅基流动与国产AI芯片厂商的深度合作,也充分展示了国产算力在AI推理中的可行性和优越性,为国产算力的广泛应用提供了成功案例。
未来,硅基流动将进一步加大在硬件适配上的投入,支持更多种类的国产芯片,并在SiliconCloud平台上增加基于国产算力的大模型服务,以此为开发者提供多样选择,加速AGI应用落地与产业发展。
近期更新
• SiliconCloud上线DeepSeek-V2.5
• SiliconCloud模型微调及托管抢先体验
• SiliconCloud上线Qwen2.5-Coder/Math
• SiliconCloud API更新:FLUX.1收费版不限流
• SiliconCloud API更新:支持Function Calling
•10倍工程师编码工具:Cursor x SiliconCloud