钛媒体:引领未来商业与生活新知 06月30日 11:06
华为缘何开源盘古大模型?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为正式开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型,以及基于昇腾的模型推理技术。此举旨在推动大模型技术发展,加速人工智能在各行业的应用。华为选择开源两款常用模型,并持续优化可用性和易用性。此次开源也包括基于昇腾的模型推理技术,以提升国产AI基础设施的适配性。华为希望通过技术普惠和生态友好,将昇腾硬件嵌入AI产业链核心环节,构建从模型到硬件再到场景的闭环,从而推动全栈AI能力的正向循环。

💡 华为开源了盘古70亿参数的稠密模型和盘古Pro MoE 720亿参数的混合专家模型,以及基于昇腾的模型推理技术。

🚀 开源旨在推动大模型技术发展,加速人工智能在各行业的应用,华为选择两款用量较多的模型进行开源。

💻 华为开源了基于昇腾的模型推理技术,旨在提升国产AI基础设施的适配性,便于开发者调用盘古模型。

⚙️ 华为希望通过技术普惠和生态友好,将昇腾硬件嵌入AI产业链核心环节,构建从模型到硬件再到场景的闭环。

6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

华为官方表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

目前,盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。盘古7B相关模型权重与推理代码将于近期上线开源平台。

这也是华为首度宣布开源盘古大模型,大模型开源的本质是以开放换生态,以生态养技术。

对于华为而言,本次并不是全面开源,而是选择了两款用量相对较多的模型,70亿参数的稠密模型参数量适中、性能均衡、部署门槛较低,在智能客服、知识库等多种场景中均可应用;盘古Pro MoE 720亿参数的混合专家模型凭借其稀疏激活、动态路由和多专家协作的特性,更适合处理相对复杂的任务。

不排除华为未来继续开源的可能性,一般而言,华为在做好技术稳定性等优化的基础上,先用两款模型试验开发者和市场反应,在可用性和易用性方面持续优化,再进一步开源。开源只是第一步,如何持续运营开源生态,远比开源本身更重要。

其中值得关注的是,本次华为还开源了基于昇腾的模型推理技术,国产AI之难,难在芯片,更难在生态,如果要让开发者更好地调用盘古等国产模型,就要让底层的AI基础设施实现更优适配,这也是华为开源基于昇腾的模型推理技术的意义。

同时,盘古大模型加昇腾推理技术的开源,开放了国产AI技术栈,类比DeepSeek的开源策略,在MoE架构成为主流时,其他厂商都无法复现DeepSeek同样的性能和成本,因此DeepSeek又开源了自己的代码仓库,进一步推动DeepSeek的普及,盘古和昇腾的搭配也能起到同样的效用。

此外,华为不止在模型和工具层有产品,昇腾这一层级对应的是目前更大的AI算力市场。在近日举办的华为开发者大会上,华为云CEO张平安宣布,基于CloudMatrix 384超节点架构的新一代昇腾AI云服务全面上线,以及盘古大模型5.5正式发布。

盘古大模型从训练到推理均深度依赖昇腾芯片,就像英伟达CUDA生态适合大模型,华为开源盘古大模型的本质,是通过技术普惠 + 生态友好将昇腾硬件嵌入 AI 产业链的核心环节。开发者使用盘古模型时,需依赖昇腾芯片的算力支持;企业落地行业应用时,需采购昇腾服务器或云服务;政企客户推动自主创新时,昇腾加开源盘古也更有竞争力。

而从华为开源了大量推理技术也可看出,华为希望在大模型快速落地的阶段,让盘古有更多的调用,更广阔的落地市场,如此这种从模型到硬件再到场景的闭环,才能使华为的全栈AI能力得以正向循环。(本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为 盘古大模型 昇腾 开源
相关文章