index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
腾讯开源混元-A13B大模型,摩尔线程完成全功能GPU适配,彰显MUSA架构兼容性与快速响应能力。混元-A13B参数量达800亿,激活参数130亿,在多个任务中表现优异。摩尔线程积极响应开源,赋能开发者,推动国产GPU在AI领域的应用。
🔍混元-A13B是一款基于专家混合(MoE)架构的13B级别开源大语言模型,总参数量800亿,激活参数130亿,在代码、数学及众聚合任务中表现突出,平衡了性能与资源占用。
🖥️摩尔线程率先完成混元-A13B在全功能GPU的适配,验证了MUSA架构的高兼容性与快速响应能力,显著降低开发者适配成本,提升开发效率。
🤝摩尔线程积极推动开源生态,在混元-A13B发布当日即实现Day-0支持,展示技术成熟度,并欢迎开发者通过“夸娥工场”体验,加速国产GPU在AI领域的应用。
🌐摩尔线程致力于提供加速计算的基础设施,以全功能GPU为核心,推动数智化转型,目标是成为国际竞争力的GPU领军企业,为AI和数字孪生世界提供先进平台。
🚀摩尔线程通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为用户提供更智能、高效的解决方案,推动开源社区发展。
热爱全功能GPU的 2025-06-29 16:32 北京
彰显MUSA架构在大模型生态中的卓越兼容性与快速响应能力

6 月 27 日,腾讯正式开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队凭借技术前瞻性,率先完成该模型在全功能GPU的深度适配与高效支持。这一成果充分彰显了MUSA架构在大模型生态中的卓越兼容性与快速响应能力——MUSA架构的高易用性设计,能够显著减少开发者在模型适配迁移过程中的技术投入,大幅提升开发效率,为AI创新成果的快速工程化落地构建了坚实的底层技术支撑。 图示:混元-A13B模型在摩尔线程GPU上运行作为业界首个13B级别的MoE开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达800亿,激活参数为130亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。从混元官方发布的benchmark测试结果来看:Hunyuan-A13B在多个代码和数学任务上都取得了最高分数。在MMLU、MMLU-PRO等诸多众聚合任务上,Hunyuan-A13B达到了与Qwen3-A22B模型同等的水平,表现出优秀的综合能力。摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,摩尔线程在深度求索DeepSeek、通义千问QwQ-32B和Qwen3等模型的发布当日,就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。我们诚挚欢迎广大开发者与用户前往“夸娥工场”体验。
▼ “夸娥工场”体验地址:https://playground.mthreads.com开发者也可访问摩尔线程GitHub社区与开发者社区了解更多:▼ 摩尔线程GitHub开源社区:https://github.com/MooreThreads▼ 摩尔线程开发者社区:https://developer.mthreads.com摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。▼ 关于摩尔线程
摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。更多信息,请长按二维码关注了解





阅读原文
跳转微信打开