IT之家 07月05日 17:33
华为盘古团队回应争议:非是基于其他厂商模型增量训练而来,严格遵循开源许可证要求标注版权声明
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

针对近期关于盘古大模型开源代码的讨论,华为诺亚方舟实验室发布声明,澄清盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。声明中,华为承认部分基础组件的代码实现参考了业界开源实践,并严格遵循开源许可证要求,清晰标注开源代码的版权声明。华为强调其在架构设计和技术特性上的创新,尤其是在昇腾硬件平台上的优化,并提倡开放创新和开源协作精神。

💡 华为盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

⚙️ 盘古 Pro MoE 开源模型在架构设计、技术特性等方面有关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型。

💡 华为盘古团队表示,部分基础组件的代码实现参考了业界开源实践,并严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

🤝 华为提倡开放创新,尊重第三方知识产权,并鼓励与全球开发者和合作伙伴共同探索和优化模型能力。

IT之家 7 月 5 日消息,华为 6 月 30 日宣布开源盘古 7B 稠密和 72B 混合专家模型,但被质疑抄袭阿里云通义千问 Qwen-2.5 14B 模型。

华为诺亚方舟实验室今日发布最新声明,表示盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

盘古团队表示,“盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”

IT之家附原文如下:

我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。

盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。

盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。

感谢全球开发者与合作伙伴对盘古大模型的关注和支持,我们高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。

我们欢迎并期待大家在开源社区 Ascend Tribe,就技术细节进行深入、专业的交流

盘古 Pro MoE 技术开发团队

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为 盘古大模型 开源 昇腾 代码争议
相关文章