爱范儿 2024年07月11日
发布千卡规模异构芯片混训平台,无问芯穹要打造最具性价比的 AI 基础建设 | WAIC 2024
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

无问芯穹联合创始人兼CEO夏立雪发布了全球首个千卡规模异构芯片混训平台,算力利用率高达97.6%,大幅降低大模型成本,推动AI技术普及。该平台支持多种模型和芯片,解决了异构芯片生态竖井问题,为AI开发者提供了高效便捷的研发环境。

🚀 无问芯穹的异构芯片混训平台,实现了高达97.6%的算力利用率,显著降低大模型的训练成本,使得AI技术更加亲民。

🔧 该平台支持Qwen2、GLM4、Llama3等30多个模型,以及AMD、华为昇腾等多种计算卡,满足了不同AI开发者的需求。

🌐 无问芯穹构建了「MxN」中间层生态格局,解决了异构芯片生态竖井问题,实现了多种大模型算法在多元芯片上的高效、统一部署。

🌟 Infini-AI平台已吸引智谱AI、月之暗面等大模型公司客户稳定使用,为AI Native应用创业公司提供了强大的工具链支持。

💡 夏立雪强调,AI Native基础设施的发展不应局限于技术上限,而应关注技术落地的广泛扩散。

基础设施,在 AI 时代里是什么样一个角色?有人说像电,有人说像水。

无问芯穹认为,优良的基础建设,是一种「魔法」,能够让大模型成本有效下降,让更多人拥抱新技术。

7 月 4 日,无问芯穹联合创始人兼 CEO 夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了 97.6%。

四个月前,无问芯穹 Infini-AI 大模型开发与服务云平台宣布首次公测,已有智谱 AI、月之暗面、生数科技等大模型公司客户在 Infini-AI 上稳定使用异构算力,还有 20 余家 AI Native 应用创业公司在 Infini-AI 上持续调用各种预置模型 API,使用无问芯穹提供的工具链开发自身业务模型。

建设大模型时代的 AI Native 基础设施,不仅能够为 AI 开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑 AI 产业可持续发展的关键基石。与国际上模型层与芯片层「相对集中」的格局相比,中国的模型层与芯片层更加有多样性。

然而,多样性也意味着挑战,大量的异构芯片也形成了「生态竖井」,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。这是构建 AI Native 基础设施的最大难点,也是当前大模型行业面临「算力荒」的重要原因。

无问芯穹具备顶尖的 AI 计算优化能力与算力解决方案能力,以及对「M 种模型」与「N 种芯片」行业格局的前瞻判断,率先构建了「MxN」中间层的生态格局,实现多种大模型算法在多元芯片上的高效、统一部署。

截至目前,Infini-AI 已支持了 Qwen2、GLM4、Llama3、Gemma、Yi、Baichuan2、ChatGLM3 系列等共 30 多个模型,以及 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。

「技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。」夏立雪表示,「未来我们用各种 AI 应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的 AI Native 基础设施。」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

无问芯穹 异构芯片 AI基础设施 大模型 算力利用率
相关文章