快科技资讯 07月28日 12:48
在WAIC上 国产算力不再“斗参数”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

在2023世界人工智能大会上,具身智能成为焦点,但算力基础设施作为核心底座依然备受关注。与往届不同,本届大会上算力展区告别了“参数竞赛”,转而聚焦“碎片化算力统筹”、“低功耗低成本”及“垂类产品软硬件整合”等务实话题。尤为突出的是“全链路国产化”的推进,从芯片架构、软件工具链到整机和应用落地,国内厂商正加速构建自主可控的算力体系。沐曦展示了其训推一体GPU曦云C600,并基于上一代产品展示了全链路国产化的服务器解决方案。中昊芯英则推出了能耗更低的TPU“刹那”系列,其“泰则”计算集群系统已适配多种高强度运算场景。华为的“384超节点”真机亮相,并已适配80多个大模型,联合伙伴推进多行业解决方案。摩尔线程则通过12项行业Demo,特别是视频超分技术MTVSR,深入场景,打通算力应用的“最后一公里”。整体而言,国产算力基础设施正呈现“高低搭配、全域覆盖”的发展态势。

💡 **算力基础设施展区务实化转型:** 本届世界人工智能大会的算力基础设施展区,已从过去侧重极致性能参数的“参数竞赛”,转变为更加务实关注“碎片化算力资源统筹”、“低功耗与低成本”以及“垂类产品软硬件整合”等实际应用需求,体现了行业发展的成熟度。

🚀 **全链路国产化加速推进:** 面对全球供应链的挑战,国内算力基础设施厂商正积极推动“全链路国产化”,其边界已从单一芯片延伸至架构设计、软件工具链、整机制造及产业落地,构建了从“芯片—软件—整机—场景”的自主可控链条。例如,沐曦展示了基于自研架构和指令集的GPU,并提供了全链路国产化的服务器解决方案。

💡 **多样化高性能计算路线并存:** 除了主流的GPU路线,国内厂商也在探索其他高性能计算方案。中昊芯英展示了其TPU“刹那”系列,通过可重构设计、存算一体和Chiplet技术,在AI计算任务下能耗降低三成,并具备强大的集群扩展能力,其“泰则”计算集群系统已广泛应用于大模型训练、无人驾驶和精密预测等场景。

🤝 **大模型适配与场景深度融合:** 华为的“384超节点”技术展示了其在大模型适配上的成果,已适配超过80个大模型,并在多个技术方向上积累了经验。同时,华为联合伙伴深入互联网、金融、医疗等多个行业,提供具体的解决方案。摩尔线程则通过视频超分等细分场景的轻量化技术方案,打通了算力应用的“最后一公里”,有效降低了内容生产成本,并带动了相关产业生态的协同发展。

📈 **国产算力基础设施呈“高低搭配、全域覆盖”态势:** 华为通过超节点技术夯实大模型训练基础,构建生态护城河;摩尔线程则聚焦细分场景,用轻量化技术方案解决实际应用痛点。这种不同层面的聚焦,共同展现了当前国产算力基础设施在“高低搭配、全域覆盖”方面的发展趋势,满足了不同层次的市场需求。

7月26日,世界人工智能大会(WAIC)在上海正式拉开帷幕。

在展会现场,具身智能无疑是最备受瞩目的行业。从灵活完成格斗动作的人形机器人,到能精准执行家务、康复辅助的服务型机器人,这些具备物理交互能力的智能体凭借流畅的动作、自然的交互赚足了观众眼球。

然而,在这场科技盛宴中,当人们沉浸在具身智能带来的震撼体验时,人工智能产业的核心底座——以芯片、板卡、服务器、计算集群等为核心构成的算力基础设施,依然是整个行业绕不开的关键话题。

与往届大会相比,今年算力基础设施展区呈现出截然不同的风貌。

往年展台上随处可见的“参数竞赛”已悄然淡去,各厂商送展的芯片和服务器展品中,很少再有将某项极致性能参数用醒目字体刻意标记出来的情况。

曾经被重点标注的技术指标,如今更多地融入到具体的产业解决方案中,或是隐藏在真实的应用场景演示里。

现场的讨论也多是基于“碎片化算力资源统筹”、“低功耗与低成本”与“垂类产品软硬件整合”这些非常务实的话题。

全链路国产化进行时

在算力基础设施的务实转型浪潮中,“全链路国产化”的推进节奏尤为引人关注。

过去几年,全球供应链波动引发的芯片断供风险,以及核心技术“卡脖子”的现实挑战,反复挑动着国内人工智能产业的神经。在全行业已默契达成“居安思危”共识的背景下,即便部分产品应用尚未受到外部限制,国内算力基础设施厂商也主动将国产化的边界从单一芯片突破,拓展至从架构设计、软硬件生态到产业落地的全链路自主可控。

这种主动出击的国产化实践,在本届 WAIC 的展台间随处可见。

从芯片底层架构的自主研发,到操作系统、编译器等软件工具链的国产化适配,再到与本土服务器厂商、行业应用企业的深度协同,一条贯穿“芯片—软件—整机—场景” 的国产化链条正在加速成型。

刚刚提交上市辅导备案的沐曦,算是其中较为典型的代表。

本届展会上,沐曦首次公开展示了其最新研发的训推一体GPU曦云C600。据悉,其采用自研的XCORE 1.5架构及指令集,面向云端人工智能训练与推理、通用计算、AI for Science等计算任务,且拥有丰富的标量、矢量和张量计算单元,支持多种混合精度计算。

虽然现场并没有关于曦云C600的性能参数介绍,但据展台工作人员透露,这枚芯片搭载了当前业界前沿的HBM3e显存。这一关键配置势必会大幅提高显存带宽,为大模型训练及推理时的海量数据吞吐提供强力支撑。

鉴于曦云C600在本月刚刚回片,展会上并未出现基于这枚芯片打造的板卡及服务器。

而基于上代产品曦云C500系列芯片,沐曦在现场展示了PCIe服务器、OAM服务器和光互连服务器解决方案,这些服务器基本都实现了“全链路国产化”,即从编译器、驱动程序,再到卡间互联协议完全自研,或是第三方国内合作伙伴打造。

还有厂商则展示了不同于GPU的另一条高性能计算路线,比如国内唯一实现TPU量产的中昊芯英。

该公司打造的“刹那”系列TPU,采用完全可控的IP核与自研指令集、计算平台,其可重构多级存储、存算一体的设计,配合Chiplet技术实现2.5D封装,在相同AI计算任务下能耗可降低三成。

另外,该枚芯片还有较强的集群扩展能力,最高支持1024片芯片高速互联,基于“刹那”打造的“泰则”计算集群系统,单集群最大浮点运算能力在稀疏算力下达400P(TF32)以上,可支撑超千亿参数的AI大模型计算。

据现场工作人员介绍,目前“泰则”计算集群系统,已完成对AIGC大模型计算、高级无人驾驶模型训练、蛋白质结构精密预测在内的各类高强度运算场景的适配。

下沉到场景中

在两个月前的鲲鹏昇腾开发者大会上,作为华为今年来在算力基础设施上的集大成者,“384超节点”被首次公开,基于昇腾超节点技术,实现了业界规模最大的384卡高速总线互联。

本次展会上,“384超节点”真机完成了在公众面前的首次亮相,而该系统在大模型适配上的进度也令人瞩目。据悉,目前业界已基于昇腾适配和开发超过80个大模型,在基础大模型方面多个技术方向均有积累,如讯飞星火认知、DeepSeek、Qwen、鹏城、LLaMA等。

在场景适配上,基于昇腾软硬件能力、训练与推理解决方案及开源开放的软硬件生态,华为联合伙伴展示互联网、运营商、金融、政务、医疗、油气、交通等行业解决方案实践。

另一家国产GPU企业摩尔线程,在现场展示的场景适配上则要更加细致。

在摩尔线程展位,该公司共带来了包括生命科学、物理仿真、空间智能、视频超分在内的12项面对不同行业打造的Demo。

令笔者印象较为深刻的是视频超分技术MTVSR。该技术可在端侧提供2-4倍的视频实时超分,并提供多档质量设定,能够显著提升低分辨率视频在高分辨率屏幕下的播放清晰度,且以SDK形式支持播放器、浏览器等APP集成调用,可为终端用户提供无缝的视频超分体验。

不同于一般的行业垂直解决方案,视频场景中的端则软件技术,由于其广泛的应用性,一方面能够有效调动行业应用,比如降低内容创作者获取高质量素材的成本,提高内容生产效率;另一方面还能够有效刺激产业生态构建,主动吸引视频播放软件、游戏开发商、监控设备制造商等多方协同。

华为以超节点技术夯实大模型训练的算力底座,通过广泛的行业适配构建生态护城河;摩尔线程则聚焦细分场景,用轻量化技术方案打通算力应用的“最后一公里”。两者虽聚焦不同层面,但却很好地反映出了眼下国产算力基础设施所呈现出“高低搭配、全域覆盖”的发展态势。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

算力基础设施 人工智能 国产化 世界人工智能大会 大模型
相关文章