快科技资讯 前天 09:45
国产GPU进化!打造先进好用的“AI训练工厂”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

在AI技术飞速发展的黄金时代,传统训练模式难以为继。摩尔线程在此背景下推出基于国产全功能GPU的“AI超级工厂”,旨在解决大模型训练效率瓶颈。该工厂通过“加速计算通用性、单芯片有效算力、单节点效率、集群效率、集群稳定性”五大关键要素,构建高效、可靠的AI基础设施。摩尔线程的全功能GPU支持多种计算精度和全场景AI加速,其MUSA架构和优化的软件栈显著提升了算力与通信效率。KUAE集群和零中断技术保障了训练的稳定性和成功率,为国产AI发展注入新动能。

🌟 **全功能GPU是核心驱动力**:摩尔线程推出的“AI超级工厂”以其自主研发的全功能GPU为心脏,该GPU不仅能处理图形渲染,更能胜任AI计算、通用计算及科学计算等多种任务,并且覆盖了FP8到FP64的全计算精度,能够广泛应用于AI训练推理、科学计算、自动驾驶、AIGC等全场景,实现了技术的全面性和通用性,这是对标英伟达的关键技术突破。

🚀 **MUSA架构提升单芯片与节点效率**:摩尔线程的MUSA架构是提升AI工厂效率的另一关键。该架构通过硬件资源池化和动态资源调度,构建了全局共享的计算、内存与通讯资源池,显著提高了资源利用率。在计算层面,其AI加速系统支持多种混合精度计算,FP8技术可提升Transformer计算性能约30%;在通信层面,MTLINK 2.0实现的集合通信库高出行业平均水平60%的带宽,异步通信引擎减少了15%的计算资源损耗。同时,MUSA全栈系统软件通过核函数启动时间缩短、核心算子库极致优化以及MCCL通信库的高带宽利用率,大幅提升了单节点计算效率和通信效率。

🌐 **KUAE集群实现大规模高效稳定部署**:为了应对大模型训练的庞大规模需求,摩尔线程推出了支持千卡互联的KUAE1和支持万卡互联的KUAE2集群产品。这些集群产品不仅能够支持模型种类全覆盖,根据实测数据,在不同架构模型的MFU数据对比中,性能和效率均处于行业领先水平。更重要的是,摩尔线程通过零中断容错技术,在集群发生故障时能仅隔离受影响节点组,其余节点继续训练,备机无缝接入,确保了集群有效训练时间占比超99%,同时结合Training Insight等工具,进一步提升了训练成功率和速度。

💡 **软硬协同优化实现极致性能与生态兼容**:摩尔线程通过软硬协同的系统优化策略,实现了AI训练和推理的极致性能。在软件方面,其MUSA软件栈提供了完备的开发工具链,如Torch Profiler和MUSA Deploy,并实现了对Triton等主流框架的兼容,例如基于Triton-MUSA编译器+MUSA Graph实现了DeepSeek R1推理加速1.5倍。在推理解决方案方面,基于MT Transformer和TensorX自研推理引擎,以及vLLM-MUSA推理框架,为模型部署提供了高效支持,MTT S5000在DeepSeek R1推理模型上达到了100 tokens/s的标杆速度。

我们正站在AI狂飙的黄金时代——短短半年,全球顶尖模型“智力”飙升50%;2025年几乎每周都有重磅模型登场;从大语言模型到多模态架构,七类模型架构全速迭代。

当传统“暴力堆卡”的训练模式,越来越难以满足指数级增长的智能生产需求。AI产业亟需要一场“效率革命”,即构建新一代大型人工智能计算基础设施,以应对生成式AI进化。

国内GPU厂商摩尔线程在WAIC 2025前夕出招了,要用国产全功能GPU打造一个AI“超级工厂”,直击大模型训练效率的瓶颈。

这座AI工厂的“产能”,有一道硬核公式来衡量:

AI工厂生产效率 = 加速计算通用性 x 单芯片有效算力 × 单节点效率 × 集群效率 × 集群稳定性

摩尔线程的杀手锏“全功能GPU”,就是这座“AI工厂”的心脏。

根据功能结构划分,GPU可分为图形GPU、GPGPU(通用计算GPU)与全功能GPU。既然是全功能GPU,你可以理解为,既能做图形,也能做AI,还可以做通用计算、科学计算等。全球范围内,也仅有NVIDIA掌握的尖端技术。而摩尔线程是国内唯一从功能上可以对标英伟达的国产全功能GPU企业。

自2020年成立以来,摩尔线程一直致力于全功能GPU的研发与创新。全功能GPU具备更强的通用性,不仅可以服务数据中心,也具备下沉至消费端的潜力,是真正的全能型选手。

截至目前,摩尔线程已完成了四代全功能GPU的迭代,其中包括支持FP8精度的最新智算卡MTT S5000、训推一体全功能智算卡MTT S4000、支持千卡互联的第一代超大规模智算融合中心产品KUAE1,以及第二代万卡集群KUAE2,这些产品已实际交付多个智算中心。

那么,摩尔线程如何打造世界先进的AI工厂?

这是一项系统级创新工程,主要体现在五个关键方面:加速计算通用性、单芯片有效算力、单节点效率、集群效率和集群稳定性,这些因素环环相扣缺一不可。

在加速计算通用性方面,摩尔线程自主研发的多引擎全功能GPU,率先实现在单芯片架构,同时支持AI计算加速、图形渲染、物理仿真和科学计算、超高清视频编解码,并覆盖从FP8到FP64的全计算精度。

不同精度的计算适用于不同的应用场景,例如FP8用于混合精度训练和大语言模型推理,INT8用于量化推理和CV推理,BF16/FP16用于机器学习和大语言模型训练,FP32/TF32用于3D渲染、游戏和高精度推理训练等,而FP64则主要用于科学计算,如天气预报和气候仿真等。

摩尔线程的全功能GPU能够支持以上全部精度的训练推理,从而实现AI训练推理、科学计算、工业智能、自动驾驶、具身智能、生物制药、AIGC、AI智能体、游戏等全场景AI加速。

有了应用场景,性能跟不上那也是白搭,摩尔线程自研的MUSA架构从底层基础设施到中间层管理平台,再到上层应用,实现了全面覆盖,通过计算、通信、存储技术创新,有效提升了单芯片有效算力。

MUSA架构,是创新的多引擎、可伸缩GPU架构,通过硬件资源池化及动态资源调度技术,构建了全局共享的计算、内存与通讯资源池。这一设计不仅突破了传统GPU功能单一的限制,还在保障通用性的同时显著提升了资源利用率。

在计算层面,摩尔线程的AI加速系统(TCE/TME)全面支持INT8/FP8/FP16/BF16/TF32等多种混合精度计算。作为国内首批实现FP8算力量产的GPU厂商,其FP8技术通过快速格式转换、动态范围智能适配和高精度累加器等创新设计,在保证计算精度的同时,将Transformer计算性能提升约30%。

此外,DeepSeek曾在技术报告中提到,在通信过程中约15%的流式多处理器被占用,也就是差不多15%的算力没有用到训练中,而是被用于通信。

摩尔线程是如何解决这个问题的呢,基于自研的MTLINK 2.0实现的集合通信库,实现卡间高速互联,高出国内行业平均水平60%的带宽;同时基于MTT S5000的异步通信引擎,从而实现高效计算与通信并行,减少了15%的计算资源损耗,为大规模集群部署奠定了坚实基础。

内存系统方面,通过多精度近存规约引擎、低延迟Scale-Up、通算并行资源隔离等技术,实现了50%的带宽节省和60%的延迟降低。

有了单芯片的算力,还需要实现单节点的高效率,摩尔线程的MUSA全栈系统软件,通过高效的基础软件库,框架算法创新和完备的开发工具链提升了单节点计算效率。

在GPU驱动任务调度优化方面,摩尔线程的核函数启动时间仅为业界平均耗时的1/2,核函数启动是指计算任务从CPU主机传输到GPU设备并执行的过程,传统方法中,较高的启动延迟会导致算力资源浪费。而摩尔线程则支持千次计算指令并行下发,从而大幅减少GPU等待时间。

摩尔线程还对核心算子库进行了极致优化,比如GEMM算子算力利用率达98%,Flash Attention 算子算力利用率突破95%。

在通信效率上,MCCL通信库实现RDMA网络97%带宽利用率;基于异步通信引擎优化计算通信并行,集群性能提升10%。

在开发生态兼容上,基于Triton-MUSA编译器 + MUSA Graph实现DeepSeek R1推理加速1.5倍,全面兼容Triton等主流框架。

此外,摩尔线程还提供了完整的开发者工具套件,如深度监控GPU并收集硬件性能数据的Torch Profiler,以及可以一键部署MUSA软件栈和AI服务程序的MUSA Deploy等。

正是这种软硬协同与系统优化,实现了极致性能和效率,从平湖和国际主流GPU产品的实测对比数据中,我们可以直观地看到摩尔线程产品的优势。

在集群方面,如前文所述,摩尔线程拥有支持千卡互联的KUAE1和支持万卡互联的第二代方案KUAE2,并实现了模型种类全支持,无论何种类型的模型都能适用,这也是真正满足AI工厂使用和实现的地方。

根据官方分享的数据,KUAE2在不同架构模型的实测MFU数据对比中,性能和效率均处于行业领先水平。

最后也是最重要的一点,那就是稳定性,集群不稳定的话,再高的性能再快的效率也没有任何意义,为此摩尔线程推出了零中断容错技术,故障发生时仅隔离受影响节点组,其余节点继续训练,备机无缝接入,全程无中断,这也使得KUAE集群有效训练时间占比超99%。

针对集群中的慢节点,摩尔线程开发了一套多维度Training Insight,将异常处理效率提升了50%,结合集群巡检与起飞检查,训练成功率及速度提高了10%。

综合来看,摩尔线程的高效AI工厂结合了全功能GPU、MUSA架构、MUSA软件栈、KUAE集群和零中断技术,为AI大模型训练提供了强大可靠的基础设施支持,而且只有这样的组合,才能确保每一个环节都达到最佳状态。

大模型训练完成后,还需要进行推理验证,摩尔线程的推理解决方案基于MT Transformer自研推理引擎、TensorX自研推理引擎和vLLM-MUSA推理框架,为模型验证和部署提供极致性能支持。

通过实测,MTT S5000树立了DeepSeek全量模型推理速度的新标杆:跑满血DeepSeek R1推理模型,速度达到100 tokens/s。

GPU可以说是AI时代最稀缺的资源之一,也是大国科技竞争的焦点,其重要性不言而喻。我们深知硬科技研发的艰难,但摩尔线程还是选择了通用性最强、难度最高的全功能GPU路线。

从全功能GPU的研发,到“AI工厂”概念的提出与实践,摩尔线程这条道路虽然充满挑战,但它无疑是能够走得最长远的路径。未来,我们期待摩尔线程能够持续突破技术瓶颈,以更强大的算力、更高效的架构、更稳定的性能,为国产AI的发展注入强劲动力。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

摩尔线程 全功能GPU AI工厂 大模型训练 MUSA架构
相关文章