摩尔线程 07月08日 14:10
Day-0支持|摩尔线程率先支持混元-A13B模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯开源混元-A13B大模型,摩尔线程完成全功能GPU适配,彰显MUSA架构兼容性与快速响应能力。混元-A13B参数量达800亿,激活参数130亿,在多个任务中表现优异。摩尔线程积极响应开源,赋能开发者,推动国产GPU在AI领域的应用。

🔍混元-A13B是一款基于专家混合(MoE)架构的13B级别开源大语言模型,总参数量800亿,激活参数130亿,在代码、数学及众聚合任务中表现突出,平衡了性能与资源占用。

🖥️摩尔线程率先完成混元-A13B在全功能GPU的适配,验证了MUSA架构的高兼容性与快速响应能力,显著降低开发者适配成本,提升开发效率。

🤝摩尔线程积极推动开源生态,在混元-A13B发布当日即实现Day-0支持,展示技术成熟度,并欢迎开发者通过“夸娥工场”体验,加速国产GPU在AI领域的应用。

🌐摩尔线程致力于提供加速计算的基础设施,以全功能GPU为核心,推动数智化转型,目标是成为国际竞争力的GPU领军企业,为AI和数字孪生世界提供先进平台。

🚀摩尔线程通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为用户提供更智能、高效的解决方案,推动开源社区发展。

热爱全功能GPU的 2025-06-29 16:32 北京

彰显MUSA架构在大模型生态中的卓越兼容性与快速响应能力

6 月 27 日,腾讯正式开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队凭借技术前瞻性,率先完成该模型在全功能GPU的深度适配与高效支持。这一成果充分彰显了MUSA架构在大模型生态中的卓越兼容性与快速响应能力——MUSA架构的高易用性设计,能够显著减少开发者在模型适配迁移过程中的技术投入,大幅提升开发效率,为AI创新成果的快速工程化落地构建了坚实的底层技术支撑。

图示:混元-A13B模型在摩尔线程GPU上运行

作为业界首个13B级别的MoE开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达800亿,激活参数为130亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

从混元官方发布的benchmark测试结果来看:Hunyuan-A13B在多个代码和数学任务上都取得了最高分数。在MMLU、MMLU-PRO等诸多众聚合任务上,Hunyuan-A13B达到了与Qwen3-A22B模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,摩尔线程在深度求索DeepSeek、通义千问QwQ-32B和Qwen3等模型的发布当日,就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。

我们诚挚欢迎广大开发者与用户前往“夸娥工场”体验。

 “夸娥工场”体验地址:

https://playground.mthreads.com

开发者也可访问摩尔线程GitHub社区与开发者社区了解更多:

 摩尔线程GitHub开源社区:

https://github.com/MooreThreads

 摩尔线程开发者社区:

https://developer.mthreads.com

摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。

  关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

更多信息,请长按二维码关注了解

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

混元-A13B MUSA架构 全功能GPU 开源大模型 摩尔线程
相关文章