IT之家 13小时前
摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

摩尔线程宣布已于6月27日完成了对腾讯开源的基于专家混合(MoE)架构的大语言模型混元-A13B的深度适配与高效支持。作为业界首个13B级别的MoE开源混合推理模型,混元-A13B总参数量达800亿,激活参数为130亿,在模型性能与资源占用上取得了平衡。该模型在代码、数学等多个任务上表现出色,并在MMLU、MMLU-PRO等任务中达到了与Qwen3-A22B模型同等的水平。摩尔线程积极响应开源社区,致力于推动开发者基于国产全功能GPU进行AI应用创新。

🚀腾讯开源了基于专家混合(MoE)架构的大语言模型混元-A13B,摩尔线程团队迅速完成了该模型在全功能GPU上的深度适配与高效支持。

💡混元-A13B是业界首个13B级别的MoE开源混合推理模型,总参数量达800亿,激活参数为130亿。在优化模型尺寸的同时,兼顾了性能表现。

🥇根据腾讯官方的benchmark测试结果,混元-A13B在多个代码和数学任务上取得了最高分数,并在MMLU、MMLU-PRO等任务上与Qwen3-A22B模型表现持平。

IT之家 6 月 29 日消息,摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。

据介绍,作为业界首个 13B 级别的 MoE 开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达 800 亿,激活参数为 130 亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

从混元官方发布的 benchmark 测试结果来看:Hunyuan-A13B 在多个代码和数学任务上都取得了最高分数。在 MMLU、MMLU-PRO 等诸多众聚合任务上,Hunyuan-A13B 达到了与 Qwen3-A22B 模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能 GPU 进行 AI 应用创新。此前,摩尔线程在深度求索 DeepSeek、通义千问 QwQ-32B 和 Qwen3 等模型的发布当日,就成功实现了 Day-0 支持

关于腾讯混元-A13B 模型的详细信息,IT之家此前进行了详细报道,感兴趣的朋友可以自行查看。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

摩尔线程 混元-A13B MoE 大语言模型 AI
相关文章