Cnbeta 07月05日 17:55
盘古团队回应抄袭指控:并非基于其他模型训练 已标注开源代码版权声明
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近日,关于华为盘古Pro MoE大模型开源代码的讨论引发关注。盘古Pro MoE是基于昇腾硬件平台开发的混合专家模型,团队声明其技术架构和特性具有创新性,但部分代码实现参考了开源实践,并严格遵循开源许可证。一项研究指出,盘古Pro MoE与阿里巴巴通义千问Qwen-2.5 14B模型在参数结构上存在高度相似性,引发抄袭争议。盘古大模型团队回应否认抄袭,认为评估方法不科学,强调技术创新。

🧐 盘古Pro MoE模型的技术背景:该模型是基于昇腾硬件平台开发的混合专家模型,采用分组混合专家模型(MoGE)架构,旨在解决大规模分布式训练的负载均衡问题,提升训练效率。

💡 开源声明与代码来源:盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,并严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

🤔 抄袭争议的核心:一项研究表明,盘古Pro MoE模型与阿里巴巴通义千问Qwen-2.5 14B模型在参数结构上存在高度相似性,引发抄袭质疑。研究通过实证比较,发现两个模型在注意力参数分布上的平均相关性极高。

📢 官方回应与辩护:盘古大模型团队在GitHub中回应,否认抄袭指控,并认为该研究的评估方法不够科学,强调模型的技术创新。

7月5日下午消息,盘古Pro MoE技术开发团队今天发布声明,表示注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。

声明称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码,严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

近日,一项发布于GitHub的研究引发业界热议,该研究的作者认为,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴发布的通义千问Qwen-2.5 14B模型在参数结构上存在“惊人一致”。该作者通过实证比较,发现Pangu Pro MoE模型与Qwen-2.5 14B模型在注意力参数分布上的平均相关性高达0.927,远超其他模型对比的正常范围。网友们认为,这可能意味着Pangu Pro MoE存在抄袭。

据悉,盘古大模型团队在GitHub中进行了回应,否认抄袭指控,并且认为该作者的评估方法不科学。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

盘古大模型 开源 抄袭争议 技术创新 混合专家模型
相关文章